Value-at-Risk-Ansätze zur Abschätzung von Marktrisiken : theoretische Grundlagen und empirische Analysen [1. Aufl] 9783835005501, 3835005502 [PDF]


121 76 12MB

German Pages 177 Year 2006

Report DMCA / Copyright

DOWNLOAD PDF FILE

Papiere empfehlen

Value-at-Risk-Ansätze zur Abschätzung von Marktrisiken : theoretische Grundlagen und empirische Analysen [1. Aufl]
 9783835005501, 3835005502 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Jens Fricke Value-at-Risk Ans~itze zur Absch~itzung von Marktrisiken

--4

Cz~ C~ I

z

ITI

m

z

0

m

m ~ n m

m CZJ

IIJ fro ~J

r_) L J_ (/) r-C1)

I=

O_

(1) c1)

r

G) c-

E

...,..

o

o ~>

O a_

N

C1) (/) ~>-

(")

r.~ (/)

~:3 ~-

G3 Q::

C~

0 ...,.

:~

c-

E 0 CD ~-

CL~

I--

.i..J

G) ~'-

"O r-

O =D

x--.

x.=

:(~ cn

N

C:T)

....,,,,, L_

I

C1)

:G:3

(/)

.i...J , m

~> r-

, m

r..) c/)

.t...J

Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet iJber abrufbar.

Dissertation Universit~it Osnabriick, 2005

1. Auflage September 2006 Alle Rechte vorbehalten 9 Deutscher Universit~its-Verlag I GWV Fachverlage GmbH,Wiesbaden 2006 Lektorat: Brigitte Siegel/Sabine SchSIler Der Deutsche Universit~its-Verlag ist ein Unternehmen von Springer Science+Business Media. www.duv.de Das Werk einschliel~lich aller seiner Teile ist urheberrechtlich geschlitzt. Jede Verwertung aul~erhalbder engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verla.gs unzul~issig und strafbar. Das gilt insbesondere fiJr Vervielffiltigungen, Ubersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten w~iren und daher von jedermann benutzt werden diJrften. Umschlaggestaltung: Regine Zimmer, Dipl.-Designerin, Frankfurt/Main Druck und Buchbinder: Rosch-Buch, Scher~litz Gedruckt auf s~iurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN-10 3-8350-0550-2 ISBN-13 978-3-8350-0550-1

Geleitwort Der Value-at-Risk dient der Absch~tzung kiinftiger Marktrisiken. Zu denken ist dabei an Risiken bei Aktien- und Wechselkursen oder bei Rohstoffpreisen. Hier steht das Risiko einer Finanzanlage, sei es eine Aktie oder ein Portfolio von Aktien, im Mittelpunkt. Anhand des Value-at-Risk kSnnen Unternehmen zum einen ein optimales Portfolio zusammenstellen, zum anderen kSnnen sie damit das Gesamtrisiko ihrer Geldanlagen steuern. Er rfickt im Risikomanagement verst~irkt in das T~tigkeitsfeld von Unternehmen, die ihre Marktrisiken zuverl~sig absch~tzen mSchten. Einen zus~tzlichen Handlungsdruck fibt der Baseler Ausschuss ffir Bankenaufsicht aus. Um drohenden kfinftigen Finanzkrisen in Volkswirtschaften vorzubeugen, hat dieser regulatorische Vorschriften erlassen. Darin wird die HShe von Eigenmitteln, die ein Unternehmen zu hinterlegen hat, in Abh~ngigkeit vom Grad des Marktrisikos geregelt, genauer von dem prognostizierten Value-at-Risk. Von einem bestimmten Tag ausgehend ist der Value-at-Risk der Verlust einer Finanzanlage, der mit der Wahrscheinlichkeit 1 - a innerhalb der n~chsten Tage nicht fiberschritten wird. Dieser Maximalverlust ist zu prognostizieren, und zwar sind 1- und 10-Tages Value-at-Risk Prognosen zu erstellen. Die 1-Schritt Prognosen dienen der Evaluierung des Verfahrens. Von der Gfite der 1-Schritt Prognose und der HShe der 10-Schritt Prognose h~ngt die in den Basel II Richtlinien geregelte Eigenkapitalanforderung (EKA) ab. Bei der (~berprfifung sind die 1-Schritt Prognosen mit den realisierten Verlusten innerhalb eines Jahres zu vergleichen. Bei einem zuverl~sigen Verfahren sollte der tats~chliche Verlust nur in relativ wenigen Fallen fiber dem prognostizierten Value-at-Risk liegen. Die Richtlinien geben ffir die Zahl der Uberschreitungen ein Intervall vor. Ist sie kleiner als die Intervalluntergrenze, dann bleibt ein Multiplikator unver~ndert, und ist sie grSt~er als die Obergrenze, dann ist das als ungeeignet angesehene Prognoseverfahren zu ersetzen. Liegt die Zahl innerhalb des Intervalls, dann erhSht sich der Multiplikator. Dieser ist als Ausgleich

vi

GELEITWORT

dafiir gesetzt, dass Unternehmen auch auf der Normalverteilung basierende Verfahren w~ihlen kSnnen, die aber das Risiko auf Finanzm~irkten systematisch untersch~itzen. Mit der Wahrscheinlichkeit a - 0, 01 und dem Multiplikator, der Werte zwischen 3 und 4 annehmen kann, kSnnen die zu hinterlegenden Eigenkapitalmittel einen betr~ichtlichen Anteil an der gesamten Finanzanlage erreichen und dadurch die Dispositionsfreiheit von Finanzinstituten erheblich einschNinken. Die Unternehmen stehen vor dem Problem, ein Verfahren auszuwiihlen, mit dem bei mSglichst geringer Hinterlegung von Eigenmitteln die Marktrisiken zuverl~sig prognostiziert werden kSnnen. Hier setzt die Arbeit von Herrn Fricke an. Aus statistischer Sicht stellt der Value-at-Risk ein Quantil der kiinftigen Verteilung des Portfoliozuwachses innerhalb der Zeitspanne von einem bzw. zehn Tagen dar. Dieses l~st sich unter allgemeinen Bedingungen aus dem entsprechenden Quantil der zugehSrigen bedingten Renditeverteilung ermitteln. Ffir die Entwicklung der Rendite hat die FinanzmarktSkonometrie in den letzten 25 Jahren verschiedene vielversprechende Modelle entwickelt, die sich ffir Prognosen der Quantile bedingter Renditeverteilungen ausnutzen lassen. Zu nennen sind hier univariate und multivariate GARCH-Modelle sowie CAViaR-Ans~itze zur direkten Prognose von Quantilen. Diese theoretische Basis nutzt Herr Fricke, um eine Reihe von Verfahren zur Prognose des Value-at-Risk vorzuschlagen, die konsequent auf die Basel II EKA ausgerichtet sind. Die umfassende empirische Vergleichsstudie zeigt, dass die auf der Basis der modernen GARCH- und CAViaR-Modelle entwickelten Ans~tze das Spektrum der geeigneten Verfahren wesentlich bereichern. Diese zeigt zudem, dass auch ein wenig zuverl~siges Verfahren zu relativ niedriger EKA ffihren kann. In diesem Fall fehlt dem Unternehmen der Anreiz, auf ein zuverl~sigeres Prognoseverfahren zu wechseln. MSglicherweise sanktioniert der Multiplikator nur unzureichend die Unzuverl~sigkeit des Verfahrens. Die vorliegende Arbeit stellt den komplexen Stoff der Value-at-Risk Prognosen im Zusammenhang mit der EKA nach Basel II umfassend und in relativ leicht zug~inglicher Weise dar und evaluiert in einer umfangreichen empirischen Analyse systematisch herkSmmliche und theoretisch wohl fundierte Verfahren. Sie gew~ihrt somit dem interessierten Leser einen verst~indlichen lJberblick fiber die theoretische Fundierung und die empirische Anwendung von Verfahren zu Value-at-Risk Prognosen. Prof. Dr. Ralf Pauly

Vorwort Das Management von Risiken gewinnt zunehmende Bedeutung im Rahmen der komplexen Zusammenh~nge, die von Unternehmen zur erfolgreichen Entwicklung gestaltet werden miissen. Es ist wesentlich, die Gesch~ftsaktivit~ten hinsichtlich der potenziellen VerlustmSglichkeiten zu bewerten. Fiir diese Bewertung bietet sich das Konzept Value-at-Risk an, welches die VerlustmSglichkeit mit einer gewissen Wahrscheinlichkeit belegt und die Risikosituation mit einem monet~ren Betrag quantifiziert. Dieses Vorgehen bewertet die Risikosituation des Unternehmens mit einer Kennzahl, die leicht verst~ndlich ist. Die Zusammenfiihrung mit der Bewertung der RenditemSglichkeit von Gesch~ftsaktivit~ten liefert die Basis zur erfolgreichen Steuerung des Unternehmens. Insbesondere fiir Finanzinstitute stellt sich die Frage der genauen Quantifizierung von Risiken und der ad~quaten Hinterlegung mit Eigenmitteln. Fiir diese Fragestellung liefern die Basel II-Anforderungen einen Rahmen zur Ausgestaltung. Danach werden die Finanzinstitute aufgefordert, ihre Risiken mit Value-at-Risk zu bewerten und nach einer festgelegten Berechnungslogik eine vorgeschriebene Eigenmittelhinterlegung vorzunehmen. An diesem entscheidenden Punkt setzt die vorliegende Arbeit an. Die Ausgestaltung des Value-at-Risk Konzepts zur Bewertung von Marktrisiken kann durch unterschiedliche Ans~itze vorgenommen werden. Dabei bieten sich neuere Entwicklungen zur Modellierung der Volatilit~t und Interdependenz von Finanzmarktzeitreihen an. Die Integration dieser Modelle in die Berechnung des Value-at-Risk liefert aus theoretischer Sicht Vorteile. Im Rahmen der umfangreichen empirischen Vergleichsstudie wird gezeigt, dass sich die Vorteile auch in der praktischen Anwendung belegen lassen. Dabei werden nicht nur genaue Prognosen der bestehenden Marktrisiken erzielt, sondern zudem die geforderten Eigenmittel zur Hinterlegung mSglichst gering gehalten, welches eine erstrebenswerte Situation fiir die Finanzinstitute darstellt.

viii

VORWORT

Durch die Ausfiihrung und Belegung dieser Vorteilhaftigkeit neuerer Ans~tze zur Modellierung der Volatilit~t und Interdependenz wurde die Zielsetzung meiner Arbeit erreicht. Bei der Erarbeitung dieser Gedanken haben mir sehr viele Freunde, Bekannte und Kollegen geholfen, bei denen ich mich ganz herzlich bedanken mSchte. Insbesondere mSchte ich meinem Doktorvater Herrn Prof. Dr. Ralf Pauly danken, der mich seit meinem Grundstudium an der Universit~t Osnabriick jederzeit gefSrdert und persSnlich unterstfitzt hat. Die fruchtbaren Diskussionen w~ihrend meines Studiums und bei anschlief, enden Treffen haben meine persSnliche Entwicklung bedeutend vorangetrieben. Dank gebiihrt Herrn Dr. Dietrich Trenkler, der mir die praktische Umsetzung und das tiefere Verst~ndnis der theoretischen Konzepte ermSglicht hat, und Herrn Prof. Dr. Lothar Kniippel, der einen wesentlichen Beitrag zur Entwicklung meiner Kenntnisse im Themengebiet der Statistik geleistet und als Korreferent meine Doktorarbeit betreut hat. Ohne die Unterstiitzung meiner Mentoren bei Roland Berger Strategy Consultants Dr. Felix Dannegger und Dirk Hanf, en w~re die Erstellung meiner Doktorarbeit nicht mSglich gewesen. Daher mSchte ich mich ganz herzlich bei Ihnen fiir den gew~hrten Freiraum zur wissenschaftlichen Arbeit im Rahmen des Doktorandenprogramms und Ihren persSnlichen Einsatz bedanken. Ganz besondere Bedeutung fiir meine gesamte berufliche und persSnliche Entwicklung haben meine Eltern und meine Familie. Nur durch die jederzeitige Unterstiitzung und Befiirwortung meiner Entscheidungen durch meine Eltern konnte ich meine gesetzten Ziele erreichen. Dafiir werde ich immer grof,e Dankbarkeit empfinden. Die entscheidende Person in meinem Leben ist meine Frau Yvonne. Ohne Ihre Unterstfitzung, die zahlreichen Diskussionen, die gemeinsamen Erfahrungen und Ihre Zuneigung, h~tte ich nie diesen Weg gehen kSnnen. Meine Dankbarkeit darfiber, dass wir unsere Zeit weiterhin gemeinsam verbringen kSnnen, kann ich nicht in Worte fassen.

Jens Fricke

Inhaltsverzeichnis

1 Einleitung

2

1

1.1

Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

1.2

G a n g der Untersuchung

5

........................

Value-at-Risk 2.1

2.2

2.3

2.4

7

S t r u k t u r i e r u n g des Risikomanagements . . . . . . . . . . . . . . . .

8

2.1.1

Marktrisiken

..........................

8

2.1.2

Kreditrisiken

..........................

9

2.1.3

Operationelle Risiken . . . . . . . . . . . . . . . . . . . . . .

10

2.1.4

Gesch~,ftsrisiken . . . . . . . . . . . . . . . . . . . . . . . . .

10

Value-at-Risk als Risikomai~stab . . . . . . . . . . . . . . . . . . . .

11

2.2.1

Definition des Value-at-Risk . . . . . . . . . . . . . . . . . .

13

2.2.2

Anforderungen an ein Risikomat~

15

2.2.3

Beurteilung des Konzepts Value-at-Risk

...............

AusgestaltungsmSglichkeiten der Berechnung

........... ............

15 16

2.3.1

Nicht-parametrische Ans~,tze im Uberblick . . . . . . . . . .

17

2.3.2

P a r a m e t r i s c h e Ans~tze im Uberblick

18

2.3.3

Semi-parametrische Ans~tze im Uberblick

.............

Regulatorische Anforderungen durch Basel II

..........

............

19 19

2.4.1

Generelle Zielsetzung . . . . . . . . . . . . . . . . . . . . . .

20

2.4.2

A u s g e s t a l t u n g des internen Modells . . . . . . . . . . . . . .

21

2.4.3

Berechnung der E i g e n k a p i t a l a n f o r d e r u n g . . . . . . . . . . .

22

x

INHALTSVERZEICHNIS

2.5

3

Validierung der Value-at-Risk P r o g n o s e n . . . . . . . . . . .

24

2.4.5

Konsequenzen der Validierung . . . . . . . . . . . . . . . . .

26

Value-at-Risk in der Praxis

3.2

......................

27

2.5.1

Historische Volatilit~t und N o r m a l v e r t e i l u n g s a n n a h m e

2.5.2

Historische Simulation der R e n d i t e v e r t e i l u n g

2.5.3

Exponentielle G l ~ t t u n g der Volatilit~t

Volatilit~it 3.1

4

2.4.4

. . .

........

28 30

............

33

und Interdependenz

37

Univariate Modellierung der Volatilit~t . . . . . . . . . . . . . . . .

38

3.1.1

Definition univariater G A R C H - M o d e l l e

...........

38

3.1.2

Sch~tzung univariater G A R C H - M o d e l l e

...........

42

3.1.3

Prognose mit univariaten G A R C H - M o d e l l e n . . . . . . . . .

45

3.1.4

Beurteilung der univariaten G A R C H - M o d e l l e

47

........

Multivariate Modellierung der I n t e r d e p e n d e n z . . . . . . . . . . . .

48

3.2.1

Definition multivariater G A R C H - M o d e l l e

..........

49

3.2.2

Sch~tzung multivariater G A R C H - M o d e l l e

..........

57

3.2.3

P r o g n o s e mit m u l t i v a r i a t e n G A R C H - M o d e l l e n

.......

63

3.2.4

Beurteilung der m u l t i v a r i a t e n G A R C H - M o d e l l e . . . . . . .

67

Neuere Value-at-Risk A n s ~ i t z e

69

4.1

N i c h t - p a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . .

70

4.2

P a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . . . . .

74

4.3

4.2.1

G A R C H - M o d e l l i e r u n g mit N o r m a l v e r t e i l u n g s a n n a h m e

4.2.2

G A R C H - M o d e l l i e r u n g mit G E D - V e r t e i l u n g

S e m i - p a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . .

79 85 88

4.3.1

Direkte Modellierung durch Quantilsregression

.......

89

4.3.2

G A R C H - M o d e l l i e r u n g mit B o o t s t r a p - V e r f a h r e n . . . . . . .

94

4.3.3

G A R C H - M o d e l l i e r u n g mit E x t r e m w e r t t h e o r i e . . . . . . . .

98

5 Empirische Vergleichsstudie 5.1

.........

. . .

Beschreibung der D a t e n g r u n d l a g e . . . . . . . . . . . . . . . . . . .

105 107

INHAL'I SVERZEICHNIS 5.2

5.3 6

xi

Anwendung der alternativen Ans/itze . . . . . . . . . . . . . . . . .

111

5.2.1

Anwendung der univariaten Ans/itze . . . . . . . . . . . . .

113

5.2.2

Anwendung der multivariaten Ans/itze . . . . . . . . . . . .

140

Beurteilung der Ergebnisse . . . . . . . . . . . . . . . . . . . . . . .

Z u s a m m e n f a s s u n g und A usblick

Literaturverzeichnis

153

157 159

A b b il d u ngs ve rzei chnis

5.1

Kursverlauf des Euro Stoxx Index . . . . . . . . . . . . . . . . . . . . .

108

5.2

Kursverlauf der Sektoren-Indizes

109

5.3

Kennzahlen des Euro Stoxx Index im Zeitverlauf

5.4

1-Schritt Quantilsprognosen fiir den Euro Stoxx Index

5.5

Vergleich der 1-Schritt Quantilsprognosen fiir den Euro Stoxx . . . . .

119

5.6

CAViaR 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index . . . .

120

5.7

Vergleich der Backtesting-Ausnahmen fiir den Euro Stoxx Index . . . .

121

5.8

Vergleich der Multiplikatoren f/ir den Euro Stoxx Index

........

123

5.9

10-Schritt Quantilsprognosen fiir den Euro Stoxx Index

........

124

.....................

5.10 10-Schritt Value-at-Risk fiir den Euro Stoxx Index

............

111

.........

118

...........

125

5.11 Eigenkapitalanforderungen fiir den Euro Stoxx Index . . . . . . . . . .

126

5.12 Korrelation zwischen Basic Materials und Financial Services . . . . . .

141

5.13 Quantilsprognosen im Vergleich . . . . . . . . . . . . . . . . . . . . . .

144

5.14 Quantilsprognosen der multivariaten Ans~tze im Vergleich . . . . . . .

145

5.15 Backtesting-Ausnahmen im Vergleich . . . . . . . . . . . . . . . . . . .

146

5.16 Durchschnittliche Korrelation des CCC- und des DCC-Modells 5.17 Multiplikatoren der multivariaten Ans~tze im Vergleich . . . . . . . . .

....

148 149

Tabellenverzeichnis 2.1

Konsequenzen der Validierung . . . . . . . . . . . . . . . . . . . . . . .

27

5.1

Deskriptive Statistik der Datengrundlage . . . . . . . . . . . . . . . . .

109

5.2

Ergebnisse der univariaten Analyse Euro Stoxx . . . . . . . . . . . . .

128

5.3

Ergebnisse der univariaten Analyse Basic Materials . . . . . . . . . . .

130

5.4

Ergebnisse der univariaten Analyse Cyclical Goods . . . . . . . . . . .

132

5.5

Ergebnisse der univariaten Analyse Financial Services

133

5.6

Ergebnisse der univariaten Analyse Industrial Goods . . . . . . . . . .

135

5.7

Ergebnisse der univariaten Analyse Non-cyclical Goods . . . . . . . . .

136

5.8

Ergebnisse der univariaten Analyse des Portfolios . . . . . . . . . . . .

137

5.9

Vergleich der Ergebnisse fiir das gewichtete Portfolio . . . . . . . . . .

150

.........

Symbolverzeichnis a, S. 13 aj, S. 39 A, S. 50 13, S. 42 ~j, S. 39

B , S . 50 cn, S. 98 Di, S. 53 d,~, S. 98 ci, S. 71 ',1, S. 99 E, S. 54

ek, S. 54 E K A , S. 23 E S , S. 16 Fi, S. 51 F, S. 51 F, S. 86

J , S . 54 k~, S. 94 K, S. 13 K,S. 13

A, S. 34 L,S. 43 li, S. 43 LR, S. 25 ~,S. 29 ~, S. ii .M, S. 23 #, S. 11 m, S. 14 Mn, S. 98 u, S. 86 N, S. 32 n , S . 11 nj, S. 25

7, S. 100

w, S. 14

Gi, S. 56

f~i, S. 38

gi, S. 56 G~,~, S. 100

~b, S. 42 7rj, S. 25

Hi, S. 34

pi, S. 13 Pi+~, S. 13

hi, S. 34 H~, S. 99 2-,S. 43 I~, S. 25 J , S. 43

q(a),, S. 14 QR, S. 92

R, S. 53 p~, S. 52

xviii

S YMB O L VERZEI CHNIS

rj,n+r, S. 32 ri, S. 14 ri+,-, S. 14

~ , S . 29

S, S. 13 S , S . 54 a 2, S. 11 0-2, S. 12 S , S . 12 0, S. 42 0~,~, S. 88 T, S. 15 ui, S. 38

~j, S. 103 ~j, S. 103 ~l-a, S. i01 ~, s. 45 vj,n+r, S. 77 ~i, S. 51 wi, S. 41 vi, S. 39 VaR, S. 13

zbj, S. 102 W , S. 50 S. 54

:~, s. 54 • 54 ~, S. 99 X, S. 11 x, S. 11 x f , S. 99 ~, S. 86 za, S. 21

Kapitel 1

Einleitung Risikomanagement riickt immer starker in das Interesse der Unternehmen. Die Absch~tzung der Marktrisiken ist eine wichtige Aufgabe zur effizienten Kapitalallokation, insbesondere zur Hinterlegung hinreichender Eigenmittel zur Absicherung gegen extreme Marktbewegungen. Der Ermittlung des daraus mSglicherweise entstehenden Verlustbetrags, in der Regel als Value-at-Risk bezeichnet, kommt grof~e Bedeutung zu. Um diese Absch/itzung des Marktrisikos optimal vornehmen zu kSnnen, ist eine Erweiterung des Spektrums mSglicher Ausgestaltungen der Berechnung des Value-at-Risk notwendig. Es ist sinnvoll, neuere Ans~tze zur Berechnung des Value-at-Risk mit den bestehenden Ans/itzen zu vergleichen, um den Ansatz auszuw/ihlen, der aus Sicht des Unternehmens zu einer genaueren Absch/itzung der Marktrisiken und einer angemessenen Hinterlegung mit Eigenmitteln fiihrt. Dieses Vorgehen fiihrt zu einer risikoad/iquaten Steuerung des Verh/iltnisses zwischen Risiken und Eigenmitteln und realisiert damit eine positive Wahrnehmung des Unternehmens bei Rating-Agenturen und Aktion~ren. Die Vorgaben des Baseler Ausschusses fiir Bankenaufsicht (Basel II) zum Umgang mit Marktrisiken gelten als Richtlinien zur Berechnung des Value-at-Risk fiir Finanzinstitute. Die Notwendigkeit der st/~rkeren Berficksichtigung des Risikomanagements beruht auf den wirtschaftlichen und gesellschaftlichen Entwicklungen der letzten Jahre. Der technologische Fortschritt fiihrt zur Globalisierung der M~rkte. Computersysteme verbinden Unternehmen auf der ganzen Welt. Das Internet ist wesentlicher Bestandteil der Gesellschaft geworden. Bemerkenswert ist die zunehmende Vernetzung der Finanzm~rkte. Finanztitel werden rund um die Uhr auf der ganzen Welt gehandelt, wodurch weitreichende Chancen aber auch Risiken fiir die Marktteilnehmer entstehen: Auf Grund der engen Vernetzung kSnnen

2

K A P I T E L 1. EINLEITUNG

sich Finanzkrisen sehr schnell ausbreiten. Prominente Beispiele der jiingeren Vergangenheit (u.a. Barings Bank, Enron, LTCM, Metallgesellschaft) fiihren dieses Risiko deutlich vor Augen. Diese steigende Komplexit~t des Unternehmensumfelds erfordert intelligentes Risikomanagement, um die erfolgreiche Weiterentwicklung des Unternehmens nicht zu gef~hrden. Intelligentes Risikomanagement identifiziert und bewertet Risiken und fiihrt zu Schlussfolgerungen und Maf,nahmen entsprechend der Unternehmenszielsetzung. Intelligentes Risikomanagement ist also ein Erfolgsfaktor: Durch bewusstes Steuern des Verh~ltnisses zwischen Rendite und Risiko wird eine sinnvolle Allokation der Finanzmittel und damit eine Wertsteigerung des Unternehmens erreicht. Regulatorische Anforderungen verst~rken zus~tzlich den Handlungsdruck auf die Unternehmen. Die Basel II-Anforderungen setzen verbindliche Standards hinsichtlich des Risikomanagements von international t~tigen Banken. Die geforderte risikoad~quate Bewertung von Finanzinstrumenten fiihrt zunehmend zur Entwicklung unternehmensinterner Modelle der Banken. Bei giinstiger Ausgestaltung bilden diese Modelle die Risiken des zukiinftigen Gesch~ftsverlaufs zutreffend ab und legen damit die Basis fiir entsprechende Maf,nahmen zum Umgang mit den Risiken. Die Basel II-Kriterien verkniipfen die HShe der Eigenkapitalanforderung bei Verwendung eines unternehmensinternen Modells direkt mit dem prognostizierten Value-at-Risk. So fiihrt eine ErhShung des Value-at-Risk bei ausgeschSpften Eigenmitteln zur Eingrenzung von Handelsaktivit~ten oder zur Notwendigkeit der ErhShung der Eigenmittel. Fiir das Finanzinstitut kommt der umfassenden Analyse und Bewertung der unterschiedlichen Ans~tze zur Berechnung des Value-at-Risk entscheidende Bedeutung zu. Insbesondere neuere AusgestaltungsmSglichkeiten der Berechnung erweitern das Spektrum der Mittel zur Erreichung einer angemessenen Darstellung der Marktrisiken. Ein geeigneter Value-at-Risk Ansatz gew~hrleistet die risikoad~quate Steuerung der Kapitalstruktur des Unternehmens.

1.1

Problemstellung

Zur Illustration des Forschungsstands zur Berechnung des Value-at-Risk (VaR) kann ein Zitat von Prof. Engle, dem Nobelpreistr~iger fiir Wirtschaft des Jahres 2003 herangezogen werden ([39], S. 367): ,J:)espite VaR's conceptual simplicity,

1.1. PROBLEMSTELLUNG

3

its measurement is a very challenging statistical problem, and none of the methodologies developed so far gives satisfactory solutions". In erster Linie soll die vorliegende Arbeit einen Beitrag zur LSsung des aufgeworfenen Problems leisten: Welche Ans~itze zur Berechnung des Value-at-Risk eignen sich zur ad~quaten Absch~itzung von Marktrisiken? Zur Beantwortung dieser Frage wurden zahlreiche Ideen in wissenschaftlichen Arbeiten (fiir einen 0berblick vgl. Manganelli/Engle [76]) formuliert, wobei sich insbesondere die Erkenntnisse zur Modellierung von Finanzmarktzeitreihen fiir die Berechnung des Value-at-Risk nutzen lassen. Oftmals konzentriert sich die Darstellung der Ans/itze zur Berechnung des Value-at-Risk auf univariate 1-Schritt Value-at-Risk Prognosen. Da die Basel II-Kriterien die Festlegung der geforderten Eigenmittel an die 10-Schritt Value-at-Risk Prognosen kniipft, sollte eine systematische Ausweitung der Darstellung der Ans~itze hinsichtlich dieser Anforderung vorgenommen werden. Hierbei werden in der Regel Simulationsverfahren benStigt, um die Problematik der 10-Schritt Prognose zu 15sen. In der aktuellen Diskussion werden multivariate Ans~itze zur Berechnung des Value-at-Risk kaum beriicksichtigt. Der Fokus bisher diskutierter Ans~itze liegt auf der univariaten Modellierung eines Portfolios, statt die Bestandteile des Portfolios multivariat zu modellieren, um gegebenenfalls die Information fiber die Interdependenz der Bestandteile sinnvoll nutzen zu kSnnen. Diese multivariaten Ans~itze zur LSsung der Ausgangsfrage sollen in dieser Arbeit st/irker in den Blickpunkt riicken. Aus der umfassenden Darstellung und Diskussion der einzelnen Ans/itze lassen sich aus dem theoretischen Blickwinkel Vor- und Nachteile herausarbeiten. Die Eignung der einzelnen Ans~itze zur Anwendung in realen Problemstellungen kann ausschlief~lich durch eine empirische Vergleichsstudie analysiert werden. Die bisherigen empirischen Arbeiten weisen oftmals Einschr~inkungen des Betrachtungsumfangs auf. In der Regel werden nur ausgew~ihlte Ans/itze eines Forschungsbereichs verglichen oder es wird sich auf bestimmte vereinfachende Verteilungsannahmen beschr/inkt. Der Arbeit von Brooks/Persand ([23], S. 8) ist folgendes Zitat zu entnehmen: ,,A number of methods to incorporate fat tails have been proposed, most importantly the use of extreme value distributions for returns. However, we continue to employ the normality assumption since other distributional approaches usually do not directly employ a volatility estimate". Diese Einschr/inkung auf die Normalverteilungsannahme miindet in der Feststellung der Autoren zur Eignung der Ans/itze hinsichtlich der Value-at-Risk Berechnung ([23], S. 20): ,,The first point to note is that if the objective is to

4

K A P I T E L 1. EINLEITUNG

cover 99% of future losses, then almost none of the models are adequate". Aber genau diese 99% Value-at-Risk Prognosen werden von den Basel II-Kriterien gefordert. Ziel dieser Arbeit soll es daher sein, eine umfassende Analyse der denkbaren Ausgestaltungen der Value-at-Risk Berechnungen vorzunehmen, da vermutet werden kann, dass neuere Ideen (z.B. Engle/Manganelli [39]), alternative Verteilungsannahmen und die Einbeziehung von multivariaten Ans~tzen zu geeigneteren Absch~tzungen der Marktrisiken fiihren. Die Evaluation der in empirischen Studien verwendeten Ans~tze konzentrierte sich bisher auf den Vergleich der getroffenen Value-at-Risk Prognosen mit den tats~chlich realisierten Verlusten der betrachteten Finanzmarktzeitreihen. Auf Grundlage dieses Vergleichs und abgeleiteter Tests lassen sich Aussagen fiber die Eignung der jeweiligen Ans~tze treffen. In der vorliegenden Arbeit soll fiber diese Betrachtungsweise hinausgegangen werden. Aus der Sicht des Finanzinstituts ist es nicht nur wesentlich, die Risiken mSglichst genau abzusch~tzen, sondern auch eine angemessene Hinterlegung mit Eigenmitteln zu w~hlen. Eine zu hohe Hinterlegung mit Eigenmitteln fiihrt zu unnStiger Bindung von Ressourcen und damit zu hSheren Kapitalkosten. Dieser aus Sicht des Finanzinstituts wichtige Aspekt soll realit~tsnah abgebildet werden, indem das Vorgehen zur Festlegung der Eigenkapitalanforderung anhand der Basel II-Richtlinien tagesgenau nachgebildet wird. Dank dieser Betrachtungsweise kann eine umfassende Bewertung der denkbaren Ans~tze zur Berechnung des Value-at-Risk erfolgen, da zum einen die Genauigkeit des Ansatzes und zum anderen die resultierenden Eigenkapitalanforderungen bewertet werden kSnnen. Die Evaluation der Ans~tze soll durch ein bisher kaum beachtetes Evaluationskriterium, welches die Eignung der Ans~tze anhand der Zielfunktion der Quantilsregression bewertet, abgerundet werden. Diese Arbeit soll daher nicht nur zur LSsung des statistischen Problems der Value-at-Risk Prognosen beitragen, sondern zus~tzlich die Implikationen des jeweiligen Ansatzes fiir das Finanzinstitut betrachten. Als Ergebnis sollen Ausgestaltungen der Berechnung des Value-at-Risk herausgearbeitet werden, die beiden Ansprfichen genfigen: Genaue Absch~tzung der Risiken bei mSglichst geringer Hinterlegung von Eigenmitteln, um zum einen die Risiken decken zu kSnnen, aber zum anderen keine Ressourcen an Eigenmitteln unnStig zu verschwenden. Dieses optimale Vorgehen zur Nutzung der Kapitalressourcen sollte sowohl ffir die wissenschaftliche Forschung als auch fiir die betroffenen Finanzinstitute eine Bereicherung der Diskussion darstellen.

1.2. GANG DER UNTERSUCHUNG

1.2

5

Gang der Untersuchung

Das zweite Kapitel beginnt mit der Einordung des Themas in das Gesamtspektrum des Risikomanagements. Der Kern des zweiten Kapitels ist die Vorstellung und Beurteilung des Grundkonzepts Value-at-Risk, wobei in einem 0berlick die AusgestaltungsmSglichkeiten der Berechnung dargelegt werden. Die regulatorischen Anforderungen durch Basel II geben den Rahmen fiir die sp~tere empirische Vergleichsstudie und die Bewertung der Value-at-Risk Ans~tze vor. Zum Abschluss dieses Grundlagenkapitels werden die in der Praxis verwendeten Value-at-Risk Ans~tze aufbereitet, um jeweils Vor- und Nachteile des Vorgehens zu diskutieren. Diese Diskussion liefert den Ausgangspunkt fiir das dritte Kapitel dieser Arbeit" Volatilit~t und Interdependenz. In diesem Kapitel wird die Modellierung der zeitver~nderlichen Volatilit~it und Interdependenz mit GARCH-Modellen (generalized autoregressive conditional heteroscedasticity) detailliert beschrieben. Dabei stehen Definition, Sch~tzung, Prognose und Beurteilung univariater sowie multivariater GARCH-Modelle im Vordergrund. Die Erkenntnisse aus dem dritten Kapitel werden im vierten Kapitel genutzt, um unterschiedliche Ausgestaltungen der Einbeziehung von GARCH-Modellen als wesentlichen Bestandteil des Kapitels fiber neuere Value-at-Risk Ans~tze zu pr~entieren. Daneben werden im vierten Kapitel auch andere neuere Ideen zur Value-at-Risk Berechnung vorgestellt. Das fiinfte Kapitel beginnt mit der Beschreibung der Datengrundlage der empirischen Vergleichsstudie. Der Schwerpunkt des Kapitels liegt in der Anwendung der in vorangegangenen Kapiteln dargestellten Ans~tze zur Berechnung des Value-at-Risk. Dabei werden im ersten Schritt univariate Ans~tze verglichen, um darauf aufbauend die multivariaten Ans~tze in den Vergleich einzubeziehen. Das fiinfte Kapitel schliet~t mit der Beurteilung der verwendeten Ans~tze aus Sicht des Finanzinstituts. Das abschliei~ende sechste Kapitel fasst die wesentlichen Erkenntnisse der vorliegenden Arbeit zusammen und zeigt in einem Ausblick den weiteren Forschungsbedarf auf.

Kapitel 2

Value-at-Risk Erwachsen aus den Erfahrungen der prominenten Finanzkrisen (fiir eine Diskussion von Fallbeispielen vgl. Jorion [66], Kapitel 2) in den neunziger Jahren riickte Value-at-Risk als Konzept zur Absch/itzung von Marktrisiken starker in den Blickpunkt der Finanzinstitute und der regulierenden AufsichtsbehSrden. Value-at-Risk sch~tzt den hSchstmSglichen, aus Risiken resultierenden Verlustbetrag fiir einen gegebenen zukiinftigen Zeitraum ab. Damit kann die Risikosituation durch eine einzelne Kennziffer zusammengefasst werden. Der ermittelte Value-at-Risk dient zur Information des Top-Managements. Zus~tzlich kann der Value-at-Risk fiir ausgew/ihlte Teilbereiche der Gesch~ftst~itigkeit berechnet werden. Darauf aufbauend kSnnen die Risikopositionen der verschiedenen Teilbereiche durch die Festsetzung von Limits kontrolliert werden. Aktives Management der Risikopositionen steuert gezielt die Allokation des Kapitals auf die relevanten Teilbereiche. Durch dieses Vorgehen besteht die MSglichkeit, das gesamte Finanzinstitut konsequent hinsichtlich der Abw~gung zwischen Rendite und Risiko auszurichten. Der genauen Berechnung des Value-at-Risk kommt wesentliche Bedeutung zu, da hiermit die Ausgangsbasis zur effektiven Steuerung geliefert wird. In diesem Kapitel wird zun~chst das Gesamtspektrum Risikomanagement strukturiert (2.1), um dann fiber die formale Definition des Value-at-Risk (2.2) zu den AusgestaltungsmSglichkeiten der Berechnung (2.3) zu kommen. Im darauf folgenden Abschnitt (2.4) werden die regulatorischen Anforderungen durch Basel II beschrieben. Den Abschluss dieses Kapitels (2.5) bilden die Darstellungen der in der Praxis verwendeten Ausgestaltungen der Value-at-Risk Berechnung.

8

KAPITEL2. VALUE-AT-RISK

2.1

Strukturierung des Risikomanagements

In Abh~ingigkeit vom Industriesektor und dem spezifischen Gesch~iftsmodell des Unternehmens kommt den verschiedenen Risikoarten eine unterschiedliche Bedeutung zu. Eine grobe Absch~tzung der Gewichtung der Bedeutung der Risikoarten in einigen Industriesektoren ist Merbecks, Stegemann und Frommeyer ([80], S. 135, im weiteren durch MSF abgekiirzt) zu entnehmen. In dieser Arbeit wird der Strukturierung der Autoren gefolgt, und damit die folgende Unterscheidung der Risikoarten gew~ihlt (vgl. MSF [80], S. 80): 9 Marktrisiken 9 Kreditrisiken 9 Operationelle Risiken 9 Gesch~ftsrisiken Die folgenden Unterkapitel stellen die vier wesentlichen Risikoarten vor, um die Marktrisiken als Schwerpunkt dieser Arbeit in den Gesamtkontext des Risikomanagements einordnen zu kSnnen.

2.1.1

Marktrisiken

Sp~testens seit dem Zusammenbruch der Barings Bank 1995 (vgl. Jorion [66], S. 36-38) ist der breiten Offentlichkeit und besonders den Finanzinstituten bewusst geworden, welche erheblichen Konsequenzen Fehleinsch~tzungen der Marktrisiken nach sich ziehen kSnnen. In diesem Fall ist ein Verlust in HShe von 1,3 Milliarden Dollar entstanden. Zahlreiche andere Finanzkrisen belegen die hohe Gefiihrdung der Wirtschaft durch Marktrisiken (vgl. Jorion [66], Kapitel 2). ,,Unter Marktrisiken wird hier die Gefahr einer mSglichen Ver~inderung der VermSgenslage eines Unternehmens auf Grund einer Abweichung der Marktpreise beispielsweise fiir Aktien, W~hrungen, Rohstoffe und Zinsen von ihren erwarteten Werten verstanden" (vgl. MSF [80], S.

s2). In dieser Arbeit wird auf die Absch~tzung von Marktrisiken, insbesondere Aktienkursrisiken fokussiert. Unter Aktienkursrisiko wird das durch Kursschwankungen hervorgerufene Risiko eines Portfolios aus Aktien beziehungsweise Aktienindizes verstanden. In der empirischen Vergleichsstudie

2.1. STRUKTURIERUNG DES RISIKOMANAGEMENTS

9

wird ein Datensatz bestehend aus europ~ischen Aktienindizes verwendet. Die Messung des diesbeziiglichen Marktrisikos erfolgt anhand der Tagesschlusskurse der betrachteten Indizes. Die weiteren Ausfiihrungen dieser Arbeit zur Berechnung des Value-at-Risk eines Aktienportfolios lassen sich auf Wechselkurs-, Rohstoffpreis- oder Zins~inderungsrisiken iibertragen. Damit sind die Erkenntnisse fiir nahezu alle Unternehmen relevant, da in der heutigen globalisierten Wirtschaft ~iugerst selten ein Unternehmen ohne Abh~ingigkeit von Wechselkursen oder Rohstoffpreisen zu finden ist. 2.1.2

Kreditrisiken

Kreditrisiken sind von groger Bedeutung fiir Universalbanken, die als Kreditgeber zahlreiche Unternehmen mit Kapital versorgen. Zunehmend wird eine risikoad~iquate Analyse der Kreditnehmer durchgefiihrt. Mit Hilfe von Rating-Agenturen oder eigenen Bonit~itsbewertungsmodellen werden die Risiken aus dem Kreditgesch~ft durch Auswahl der Kreditnehmer und risikoad~iquate Ermittlung des Zinssatzes gezielt gesteuert. ,,Unter Kreditrisiken wird hier die Gefahr mSglicher Wertverluste von Forderungen eines Unternehmens verstanden 9 auf Grund unerwarteter vollst~indiger, partieller oder tempor~irer Zahlungsunf~higkeit oder-unwilligkeit eines Schuldners (Ausfall- bzw. Kreditausfallrisiko), 9 auf Grund einer mit einer unerwarteten Bonit~itsverschlechterung des Schuldners einhergehenden Marktwertminderung der Forderung (Bonit~tsrisiko), 9 auf Grund einer unerwarteten Reduktion der Sicherheiten oder Garantien (Besicherungsrisiko),

Werthaltigkeit

yon

9 oder auf Grund einer unerwarteten generellen Neubewertung der bestehenden und unver~inderten Ausfall-, Bonit~ts- und Besicherungsrisiken am Markt (Spread-Risiko)" (vgl. zur Vertiefung MSF [80], S. 83/84). In der jfingeren Vergangenheit l~st sich ein weiterer Beleg fiir den bewussteren Umgang mit Kreditrisiken erkennen. Finanzinstitute ver~uf, ern zunehmend

10

K A P I T E L 2. VALUE-AT-RISK

,notleidende" Forderungen an spezialisierte Finanzinvestoren. Hierdurch werden die Risiken aus dem betreffenden Kreditgesch~ft weitergegeben.

2.1.3

Operationelle Risiken

Operationelle Risiken sind fiir alle Unternehmen relevant. Besonders Produktionsunternehmen sind StSrungen des operativen Gesch~fts ausgeliefert. ,,Operationelle Risiken werden hier als die Gefahr mSglicher VermSgensverluste fiir ein Unternehmen auf Grund unerwarteter mangelhafter Abl~ufe im internen Leistungsbereich (zum Beispiel mangelnde Qualifikation oder Sorgfalt von Mitarbeitern, Fehlfunktion von Systemen oder Betrug) oder unerwarteter externer Beeintr~chtigungen der internen Abl~ufe (zum Beispiel Terroranschl~ge oder Naturkatastrophen) verstanden" (vgl. MSF [80], S. 87). Die Bandbreite der operationellen Risiken ist grot~. Ein extremes Beispiel ist der Terroranschlag vom 11. September 2001 mit seinen dramatischen Folgen. Auch Imagesch~iden kSnnen zu den operationellen Risiken gez~hlt werden. An diesem Beispiel wird besonders deutlich, wie vielschichtig und schwer quantifizierbar sich diese Risikoart fiir das Unternehmen gestaltet. Zur Identifizierung und Bewertung der operationellen Risiken werden oftmals Risikob~ume konzipiert, wobei die Einzelrisiken die BlOtter darstellen, die sich sukzessive zum finanziellen Gesamtrisiko verdichten. Dabei wird auf jeder Ebene die Eintrittswahrscheinlichkeit des identifizierten Risikos und die Auspr~gung des Effekts auf die n~chsthShere Ebene modelliert. Als Ergebnis dieses Vorgehens kSnnen die finanziellen Auswirkungen auf das Gesch~ftsergebnis analysiert werden.

2.1.4

Gesch~iftsrisiken

Nach der Beriicksichtigung der Markt-, Kredit- und operationellen Risiken verbleiben die Gesch~ftsrisiken. ,,Unter Gesch~ftsrisiken wird hier die Gefahr mSglicher VermSgensverluste fiir ein Unternehmen verstanden, die vor allem durch unerwartete Schwankungen der Absatzmenge oder der Absatzpreise bzw. -margen auf Grund ver~nderter Kundennachfrage oder-pr~ferenzen entstehen" (vgl. MSF [80], S. 92). Besonders unerwartet hohe Nachfrageschwankungen in Branchen mit hohem Fixkostenanteil fiihren zu einer erheblichen Hebelwirkung. Ein Beispiel ist die Automobilindustrie. Neue Modelle ffihren permanent zur .&nderung des

2.2. VALUE-AT-RISK ALS R I S I K O M A S S S T A B

11

verffigbaren Angebots, wodurch erhebliche Nachfrageschwankungen generiert werden. Als zweites Beispiel kann die Energieversorgung herangezogen werden. Maggeblicher Einfiussfaktor ffir die Kundennachfrage ist der Wetterverlauf des jeweiligen Jahres. Auch Gesch~ftsrisiken sind vom Unternehmen aktiv zu steuern. Diese Managementaufgabe kann sich bei dieser Risikoart schwierig gestalten. Das Wetter kann vom Unternehmen nicht beeinflusst werden. Jedoch kSnnen fiber Wetterderivate geeignete Absicherungsstrategien gefunden werden.

2.2

V a l u e - a t - R i s k als R i s i k o m a g s t a b

Die Absch/itzung von Marktrisiken beinhaltet die Modellierung einer Zufallsvariablen. Ein Beispiel hierfiir kann der zukiinftige Kurs einer Aktie oder eines Aktienportfolios sein. Um die Risiken des zukfinftigen Verlaufs absch/itzen zu kSnnen, miissen die Charakteristika dieser Zufallsvariablen beschrieben werden. Dabei wird auf die Beschreibung der Verteilung zuriickgegriffen. Die zu modellierende Zufallsvariable sei in diesem einffihrenden Beispiel mit X beschrieben. Zur Charakterisierung dieser Zufallsvariablen X werden in der Regel die Momente der Verteilung verwendet. Der theoretische Erwartungswert gibt den mittleren Wert der Verteilung an und wird im weiteren als # bezeichnet

E(X)

=

~.

In der empirischen Anwendung liegen Beobachtungen der Zufallsvariable vor, welche mit x bezeichnet sein sollen. 0ber die vorliegenden Beobachtungen kann eine Sch/itzung des Erwartungswerts vorgenommen werden

--

--

Xi~

i=1

wobei n die Anzahl der vorliegenden Beobachtungen angibt. Zur Beschreibung der Variabilit/it der Zufallsvariablen kann die theoretische Varianz der Zufallsvariablen herangezogen werden V ( X ) = E [(X - p)~] = a2.

Die Varianz der Zufallsvariablen wird mit Hilfe der vorliegenden Beobachtungen gesch/itzt n

a--~ =

1 n-1

E ( x i - ft) 2. i=l

(2.1)

KAPITEL 2. VALUE-AT-RISK

12

Die Beobachtungen einer Aktie oder eines Aktienportfolios liegen in Form einer Zeitreihe vor. Die historischen Werte der Zeitreihe kSnnen als Realisation einer Zufallsvariablen angesehen werden. Die Quadratwurzel der gesch~itzten Varianz wird in diesem Zusammenhang oftmals als gesch~tzte historische Volatilit~it bezeichnet. Die Volatilitiit einer Aktie oder eines Aktienportfolios l~st Aussagen fiber die Schwankungsbreite zu. Die Uberlegung eines Finanzinstituts hinsichtlich der Risiken eines Aktienportfolios konzentriert sich oftmals auf die einseitige Absch~itzung des mSglichen zukfinftigen Verlusts. Bei dieser Fokussierung auf das Verlustrisiko beziehungsweise den hSchstmSglichen Verlustbetrag sollte ein Risikomaf, verwendet werden, welches diese Betrachtungsweise abbildet. Die Varianz betrachtet sowohl positive als auch negative Abweichungen vom Erwartungswert. Damit fiihren extrem positive ebenso wie extrem negative Abweichungen zu einer ErhShung des Risikos. In der Betrachtungsweise des Finanzinstituts stellen extrem positive Abweichungen vom Erwartungswert kein erhShtes Risiko dar. Die ausschlief, liche Berechnung der historischen Volatilitiit aus den vorliegenden Beobachtungen kann daher nicht geeignet sein. Um dieses Problem zu fiberwinden wurde das Konzept des Value-at-Risk entwickelt. ,,Value-at-Risk ist, vereinfacht formuliert, die in W~ihrungseinheiten ausgedriickte maximale (ungfinstige) Abweichung des tats~chlichen Werts einer Position von ihrem erwarteten Wert innerhalb eines definierten Zeitraums und innerhalb eines festzulegenden Sicherheits- oder Konfidenzniveaus" (vgl. MSF [80],

S. 114). Wichtig ist hierbei, dass Value-at-Risk in der Regel als positiver Wert definiert ist, jedoch einen Verlustbetrag darstellt. Das Value-at-Risk Konzept hat sich vor allem bei Finanzinstituten als Standardverfahren zur Absch~itzung von Marktrisiken durchgesetzt. Der Value-at-Risk beachtet auch die Schiefe und WSlbung beziehungsweise Kurtosis der zu modellierenden Zufallsvariablen. Die Schiefe S ist ein Ma~ fiir die Asymmetrie einer Verteilung (vgl. Franses/van Dijk [47], S. 13)

s - E l ( X - # )33

(2.2)

und kann wie folgt gesch~itzt werden

= I- f i ( ~ - ~)~ n

~-3 i=l

(2.3)

2.2.

13

VALUE-AT-RISK ALS RISIKOMASSSTAB

Die Kurtosis beschreibt die Form der betrachteten Verteilung (vgl. Franses/van Dijk [47], S. 10)

K : E

(X - ~)~]

~4

(2.4)

J

Die Sch/itzung aufgrund empirischer Beobachtungen folgt mit

k

m

n A., i=l

#4

9

(2.~)

Insbesondere Abweichungen vonder Normalverteilung (K = 3) lassen sich durch die Berechnung der Kurtosis feststellen. HShere Werte (K > 3) der gesch~tzten Kurtosis weisen auf eine hShere Anzahl extremer Beobachtungen hin. In den folgenden Unterabschnitten wird zun~chst das Konzept Value-at-Risk formal definiert. Daraufhin werden generelle Anforderungen an ein Risikoma~ dargestellt, um letztendlich zu einer Beurteilung des Konzepts Value-at-Risk zu gelangen. Die Diskussion der historischen Volatilit~it wird im Abschnitt 2.5.1 nochmals aufgegriffen und weitergefiihrt, da die historische Volatilit~t als ein Baustein zur Berechnung des Value-at-Risk verwendet werden kann.

2.2.1

Definition des Value-at-Risk

Zun~chst soll der Untersuchungsgegenstand dieser Arbeit enger eingegrenzt werden. Wie schon erw~hnt, wird die Berechnung des Value-at-Risk anhand eines Aktienportfolios durchgefiihrt. Es sei p~ der Wert des Portfolios zum Zeitpunkt i. Der zukiinftige Wert des Portfolios in der Zeitperiode i + T sei durch Pi+r gegeben. Zwischen dem Wert Pi und pi+r liegen folglich T Zeiteinheiten. Bei Aktienkursen werden Tage als Zeiteinheit gew~hlt. Ziel der Value-at-Risk Berechnung ist demnach eine Absch/itzung fiir die n~chsten T Tage. Der Value-at-Risk der Zeitspanne der n~chsten T Zeiteinheiten wird im folgenden mit VaR(a),.l~ bezeichnet und erfiillt die Gleichung 2.6 mit P a l s Symbol fiir die Wahrscheinlichkeit: P(Pi - Pi+r > V a n ( a ) , - l i ) = a.

(2.6)

Der Value-at-Risk ist festgelegt als Verlustbetrag, der im zukiinftigen Zeitpunkt i + r mit vorgegebener Wahrscheinlichkeit 1 - a nicht iiberschritten wird. Dabei ist der historische Verlauf des Portfolios bis zum Zeitpunkt i bekannt. Die Modellierung des historischen Kursverlaufs ist mit Schwierigkeiten verbunden, da die Zeitreihe eines Aktienkurses oftmals nicht stationer ist (zur Stationarit~t vgl. Pindyck/Rubinfeld [91], S. 493/494). Daher wird dazu iibergegangen, die

14

KAPITEL

2.

VALUE-AT-RISK

Renditezeitreihe einer Aktienkurszeitreihe zu modellieren. Die resultierenden Ergebnisse kSnnen dann wieder zurficktransformiert werden, um Aussagen fiber den Aktienkurs oder das Aktienportfolio treffen zu kSnnen. Es sei ri die Portfoliorendite zum Zeitpunkt i (2.7)

ri - l n ( p i / p i - 1 ) .

Das Portfolio ist zusammengesetzt aus m einzelnen Wertpapieren. Die Rendite eines Wertpapiers sei rk,i, wobei ebenso gilt: rk,i = l n ( p k , i / P k , i - 1 ) . Die Portfoliorendite kann auch durch die Gewichtung der Bestandteile mit den Gewichtungsfaktoren wk dargestellt werden m

ri = ~

~krk,i = ~'ri.

(2.8)

k=l

Da insbesondere die T-Schritt Value-at-Risk Analyse interessiert, sei die kumulierte Portfoliorendite ffir die entsprechende Zeitperiode gegeben durch ri+T -- l n ( p i + r / P i ) -- ri+l -}-... + ri+r,

(2.9)

wobei der Fettdruck des Symbols v im Weiteren ffir die Kumulation fiber T Zeiteinheiten steht. Es folgt der Wert des Portfolios zum Zeitpunkt i + T mit pi+r = pi exp(ri+r).

Es sei q(c~)rli das c~-Quantil der bedingten Verteilung von r i + r P(ri+r

< q(~)rli)=

~,

(2.~o)

wobei die historische Information des Prozesses pi bis zum Zeitpunkt i gegeben ist. Wegen der Gleichungen 2.6 und 2.10 folgt der Value-at-Risk des Portfolios fiir die Zeitperiode r mit VaR(~)rli

= pi(1 - exp(q(c~)~-Ii)).

(2.11)

Die Problemstellung liegt in der Berechnung des Quantils q(c~)~.li. Die weiteren Ausffihrungen dieser Arbeit stellen verschiedene Vorgehensweisen zur Ausgestaltung dieser Berechnung dar. Die Bestimmung des Quantils der Renditeverteilung des Portfolios ist insofern der Schlfissel zur Bestimmung eines genauen Value-at-Risk.

2.2. VALUE-AT-RISK ALS RISIKOMASSSTAB

15

Anforderungen an ein Risikomaf~

2.2.2

Zur Beurteilung geeigneter Risikomage wurden von Artzner et al. [6] vier Anforderungen an ein Risikomafo definiert. Bei Erfiillung der Anforderungen bezeichnen die Autoren das Risikomai~ als koh~irent. Ein koh~irentes Risikomag T transformiert den Verlust Y in das Risikomag T(Y) unter Einhaltung der folgenden Bedingungen (in Anlehnung an Alexander [3], S. 259): 9 Das Risikomag ist monoton, wenn T(Y) _> T(Z) aus Y >_ Z folgt. 9 Das Risikomag ist homogen, wenn T(~Y) = ~T(Y) fiir ~ >_ 0 gilt. 9 Risikolose Bedingung" T(Y + r - T(Y) - r mit dem risikolosen Zinssatz und r C ~. Die risikolose Anlage des Betrags r mindert das vorhandene Risiko um den Betrag r 9 Das Risikomaf, ist subadditiv, wenn T(Y + Z) _< T(Y) + T(Z) gilt. Die

Einhaltung

dieser

Bedingungen

gew~ihrleistet

die

Konvexit~it

der

Risikofunktion. In der aktuellen Forschung werden die definierten Anforderungen und die Implikationen diskutiert. Die Arbeit von Artzner et al. [6] gibt zwei Beispiele, in denen das Risikomai~ Value-at-Risk die vierte Bedingung der Subadditivit~it nicht einh~ilt. Die Diskussion soll in dieser Arbeit nicht vertieft werden. Die Zielsetzung dieser Arbeit ist die Identifikation eines geeigneten Ansatzes zur Berechnung des Value-at-Risk eines Aktienportfolios. Es geht nicht um die Zusammenfiihrung der Value-at-Risk Absch~tzungen einzelner Teilbereiche. Nur bei dieser Konsolidierung der Teilbereiche wie beispielsweise der Zusammenfassung von Zinsrisiken, W~ihrungsrisiken und Aktienrisiken ist die Subadditivit~it relevant.

2.2.3

Beurteilung des Konzepts Value-at-Risk

Das Konzept Value-at-Risk hat sich als Standardverfahren etabliert, da es die Risikopositionen eines Unternehmens in einer Kennzahl analysiert, und somit fiir das Top-Management eine leicht interpretierbare Steuerungsbasis liefert. Unterschiedliche Teilbereiche lassen sich mit dieser Kennzahl vergleichen, da eine einheitliche Definition des Value-at-Risk fiir alle Marktrisiken zur Anwendung kommt. Hierauf aufbauend kann die Allokation des Kapitals effizient gesteuert

16

KAPITEL

2. V A L U E - A T - R I S K

werden. Besonders hervorzuheben ist die Fokussierung auf zukfinftige Risiken. Die Anwendung dieses Konzepts richtet folglich den Blick in die Zukunft und unterliegt damit nicht der iiblichen Kritik an vergangenheitsorientierten Analysen. In der Praxis wird der Value-at-Risk auch aufgrund der Vorgaben der Basel II-Richtlinien berechnet. Durch die Basel II-Kriterien wird das Value-at-Risk Konzept zur Bestimmung der Eigenkapitalanforderungen mit bankinternen Modellen akzeptiert und befiirwortet (vgl. Abschnitt 2.4). MSF ([80], S. 114) konstatieren: ,,Mit der Zulassung dieser internen Risikomessmodelle der Banken zeigt sich, dass sich Value-at-Risk auch bei den Aufsichtsbeh5rden als Referenzmodell ffir eine moderne Risikoquantifizierung etabliert hat." Zur 0berbriickung des vorliegenden Nachteils der fehlenden Subadditivit~t des Konzepts Value-at-Risk werden in der aktuellen Diskussion Alternativen vorgeschlagen. Viel diskutiert wird der sogenannte ,,Expected Shortfall", im weiteren durch E S abgekiirzt (Jorion, [66], S. 97), der von Artzner et al. [6] als ,,Tail conditional expectation" oder von Alexander ([3], S. 260) als ,,Conditional VaR" bezeichnet wird: ES(o~)~.li = E(pi - Pi+rlPi - Pi+r > VaR(o~).rli).

(2.12)

Der Expected Shortfall gibt die durchschnittliche HShe der 0berschreitungen des Value-at-Risk an. Die Bedingungen an ein koh~rentes Risikomaf, werden durch den Expected Shortfall erffillt. Die Definition zeigt, dass dieses RisikomaI~ keine Alternative, sondern eine Erg~nzung des Value-at-Risk darstellt, da zu dessen Bestimmung der Value-at-Risk bekannt sein muss. Nur im Rahmen restriktiver Annahmen (wie z.B. Normalverteilung der Renditen) kann das Risikoma~ ES(o~).rli direkt berechnet werden. Bei Simulationsmethoden oder weniger restriktiver Festlegung der Verteilungsannahmen t'iihrt erst die Berechnung des Value-at-Risk zur Identifikation der relevanten Beobachtungen, die zur Berechnung des Risikomaf, es ES(o~)rli benStigt werden.

2.3

Ausgestaltungsmiiglichkeiten der Berechnung

Die vorgestellte Grundlogik des Konzepts Value-at-Risk kann auf unterschiedlichste Weise ausgefiillt werden. Die Berechnung des Value-at-Risk kann dabei auf Grundlage der univariaten Modellierung der Portfoliorenditen oder der multivariaten Modellierung der Portfoliobestandteile erfolgen. Zahlreiche AusgestaltungsmSglichkeiten wurden noch nicht von der univariaten Analyse auf die multivariate Analyse ausgeweitet. In diesem Abschnitt sollen die

2.3. A USGESTALTUNGSMOGLICHKEITEN DER BERECHNUNG

17

grunds~tzlichen Alternativen kurz vorgestellt und systematisiert werden. Die Detaillierung der Ans~tze zur Value-at-Risk Berechnung findet in den folgenden Abschnitten dieser Arbeit statt. Die generelle Vorgehensweise weist drei Schritte auf (vgl. Manganelli/Engle [76])' 1. Bewertung des aktuellen Portfolios 2. Sch~tzung der Verteilung der Portfoliorenditen 3. Berechnung des Value-at-Risk des Portfolios Dabei unterscheiden sich die unterschiedlichen Ans~tze in der Sch~tzung der Verteilung der Portfoliorenditen. Die Ermittlung des gesuchten Quantils der Renditeverteilung erfolgt auf Basis von" 9

Nicht-parametrischen Ans~tzen (Sch~tzung des Quantils direkt aus der historischen Verteilung)

9 Parametrischen Ans~tzen (oftmals Zerlegung in Prognose der Volatilit~t und Sch~tzung der Verteilung der Portfoliorenditen) 9

Semi-parametrischen Ans~tzen (Modellierung des Quantils ohne restriktive Verteilungsannahmen)

Die folgenden Abschnitte geben einen Uberblick zur Ausgestaltung der drei verschiedenen Vorgehensarten. 2.3.1

N i c h t - p a r a m e t r i s c h e Ans~itze im U b e r b l i c k

Bei den nicht-parametrischen Ans~tzen steht die Verteilung der historischen Renditezeitreihe im Vordergrund. Eine parametrische Verteilungsannahme wird nicht getroffen. Die Ans~tze werden in der Regel unter dem Begriff ,,Historische Simulation" zusammengefasst, wobei es einige Varianten des Grundansatzes gibt. Das Quantil der Renditeverteilung wird aus den Beobachtungen der Renditezeitreihe einer definierten historischen Zeitperiode ermittelt. Daraus folgt, dass die Charakteristika der analysierten Beobachtungen verwendet werden, um Riickschliisse auf das zukiinftige Quantil der Renditeverteilung zu ziehen. Die Festlegung des Zeitraums ist wesentlich fiir den ermittelten Value-at-Risk. Extreme Einfliisse wie die Terroranschl~ige vom 11. September 2001 dominieren die HShe des Value-at-Risk ffir die Ls des gew~hlten Zeitfensters. Der

18

KAPITEL 2. VALUE-AT-RISK

Value-at-Risk einer Schweizer Grofobank wird beispielsweise vom 11. September 2001 bis zum September 2003 von diesen Ereignissen gepr~gt. Im September 2003 erfolgt eine deutliche Trendwende. Der Value-at-Risk verringert sich ab dem September 2003 rapide (vgl. Credit Suisse [28]). Der Grund fiir diesen Verlauf liegt in einem historischen Zeitfenster von zwei Jahren. Die Turbulenzen des 11. September und der folgenden Tage sind zwei Jahre im Zeitfenster enthalten, bevor sie nicht mehr beriicksichtigt werden. Nicht-parametrische Ans~tze beriicksichtigen die empirisch beobachtete zeitver~nderliche Volatilit~it nicht explizit. Falls die Renditezeitreihe eine erkennbare Struktur der Schwankungsbreite im ausgew~ihlten Zeitfenster aufweist, wird diese Information in der Berechnung des Quantils nicht beriicksichtigt (vgl. hierzu Abschnitt 3.1). Der eindeutige Vorteil der nicht-parametrischen Ans~tze ist die geringe Komplexit~t in der Berechnung. Es ist leicht und schnell mSglich, den Value-at-Risk auf Grundlage der historischen Renditezeitreihe zu berechnen. Dabei ist keine Sch~tzung von Parametern eines komplexeren Modells notwendig. Damit besteht nicht die Gefahr dutch ein falsches parametrisches Modell Fehlentscheidungen zu treffen. Die detaillierte Vorstellung und Evaluation dieser Kategorie von Ans~tzen erfolgt in den Abschnitten 2.5.2 und 4.1.

2.3.2

P a r a m e t r i s c h e Ans~itze im U b e r b l i c k

Die Gemeinsamkeit der parametrischen Ans~tze liegt in der Zusammenfiihrung der Modellierung der Volatilit~t mit einer geeigneten Verteilungsannahme. Die einfachste Form der parametrischen Modelle ist die in der Praxis oft getroffene Annahme der Normalverteilung der Portfoliorenditen kombiniert mit der Annahme der konstanten Volatilit~t im Zeitverlauf. Auf diesen Ansatz wird im Abschnitt 2.5.1 eingegangen. Im Gegensatz dazu bestehen parametrische Ans~tze, die in ihrer Ausgestaltung wesentlich komplexer sind und dadurch starker auf empirische Sachverhalte eingehen. GARCH-Modelle und EWMA-Modelle (exponentially weighted moving average) modellieren explizit die zeitver~nderliche Volatilit~t der Renditezeitreihe. Dabei wird ein parametrisches Modell fiir die Fortentwicklung der Volatilit~t unterstellt. Somit ist es mSglich, Phasen steigender beziehungsweise sinkender Volatilit~t in die Value-at-Risk Prognose mit einzubeziehen. Die Modellierung der Volatilit~t wird durch geeignete Verteilungsannahmen erg~nzt. Im Abschnitt 2.5.3 wird ein Beispiel hierzu vorgestellt, indem das EWMA-Modell mit der Normalverteilungsannahme der

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL H

19

Renditeverteilung kombiniert wird. Dieser Ansatz stellt eine Alternative zur Berechnung des Value-at-Risk unter der Annahme konstanter Volatilit~t dar (vgl. Abschnitt 2.5.1). Die Ans~tze unter Einbeziehung der GARCH-Modelle werden in Abschnitt 4.2 pr~entiert. Dabei wird auf eine flexiblere Verteilungsannahme zur Modellierung der Renditezeitreihe zuriickgegriffen. Die Schwachstelle der parametrischen Ans~tze besteht in der oftmals hohen Anzahl an Parametern kombiniert mit eng definierten Verteilungsannahmen. Dieses Vorgehen birgt die Gefahr einer Fehlspezifikation der Modellierung.

2.3.3

Semi-parametrische Ans~itze im Clberblick

Die Vorgehensweise der nicht-parametrischen und der parametrischen Ans~tze wird bei den semi-parametrischen Ans~tzen kombiniert. Dabei wird nicht die gesamte Verteilung der Renditezeitreihe durch ein parametrisches Modell beschrieben. Die Ans~tze konzentrieren sich auf die Modellierung ausgew~hlter Teilbereiche der Verteilung. Der Rest der Verteilung wird hingegen durch den nicht-parametrischen Ansatz beschrieben. Die Extremwerttheorie setzt dabei direkt bei der Modellierung der R~nder der betreffenden Verteilung an. Fiir diese Teilbereiche wird ein parametrisches Modell verwendet (vgl. Abschnitt 4.3.3). Eine andere MSglichkeit ist die Verwendung der Quantilsregression. Bei diesem Ansatz wird eine bestimmte Fortentwicklung des Quantils der Renditeverteilung unterstellt. Dabei wird das interessierende Quantil direkt durch autoregressive Modelle beschrieben (vgl. Abschnitt 4.3.1). GARCH-Modelle ohne konkrete Spezifizierung der Renditeverteilung werden ebenfalls zu den semi-parametrischen Modellen gez~hlt (vgl. Abschnitt 4.3.2). Zusammenfassend kann festgehalten werden, dass die semi-parametrischen Ans~tze hShere Anforderungen an die Berechnung des Value-at-Risk stellen als die parametrischen Ans~tze.

2.4

Regulatorische Anforderungen durch Basel II

Ziel der Vorgaben des Baseler Ausschusses fiir Bankenaufsicht (Basel II) ist die Verpflichtung der Banken, die typischen finanzwirtschaftlichen Risiken (Kredit-, Markt- und operationelle Risiken) zu messen und zu steuern (vgl. Reichling [93], S. 6). Die Vorgaben gelten zun~chst fiir international t~tige Banken. Die 0bertragung der Richtlinien in nationales Recht soll laut derzeitiger Planung Anfang 2007 erfolgen.

20

KAPITEL 2. VALUE-AT-RISK

Die Basel II-Richtlinien bestehen aus drei S~ulen. ,,Die erste S~ule regelt die Mindesteigenkapital-Anforderungen von Kreditinstituten und stellt fiir Unternehmen die relevante S~ule dar. Die zweite S~iule enth~lt Aussagen zur Uberpriifung der Einhaltung von Standards durch die Bankenaufsicht. Die dritte S~ule befasst sich mit verschiedenen Offenlegungspflichten der Kreditinstitute" (vgl. Reichling [93], S. 6/7). Die folgenden Unterabschnitte besch~ftigen sich mit den regulatorischen Anforderungen hinsichtlich Marktrisiken. Im Vordergrund steht die kompakte Darstellung der Basel II-Vorgaben zur Ermittlung der Eigenkapitalanforderungen, da diese fiir Finanzinstitute als wesentliche EinflussgrSge angesehen werden kSnnen. Der Begriff ,,Finanzinstitute" wird in dieser Arbeit als Oberbegriff verwendet, um die betreffenden Unternehmen des Finanzsektors wie Banken beziehungsweise Kreditinstitute abzubilden, die in den Anwendungsbereich der Basel II-Richtlinien fallen (zur genauen Beschreibung des Anwendungsbereichs vgl. Basle Committee on Banking Supervision [14], im weiteren durch BCBS abgekiirzt).

2.4.1

Generelle Zielsetzung

Die generelle Zielsetzung der Basel II-Richtlinien hinsichtlich Marktrisiken besteht in der Gew~hrleistung der Stabilit~t von Finanzinstituten und damit der Stabilit~t des gesamten Finanzsektors. Die Krisen der Vergangenheit (z.B. Barings Bank) haben gezeigt, dass die unzureichende Messung und Steuerung der Marktrisiken drastische Folgen haben kann. Aus dieser Erfahrung heraus fordern die Basel II-Richtlinien eine risikoad~quate Bewertung der Gesch~ftssituation. Folglich werden die Mindesteigenkapitalanforderungen aus einer risikobasierten Analyse abgeleitet. Zur Marktrisikomessung und zur Bestimmung der Eigenkapitalanforderungen werden vom Baseler Ausschuss bankinterne Modelle auf Basis der Value-at-Risk Berechnung befiirwortet. Diese Regelungen wurden in einem Zusatz zum Baseler Akkord formuliert, den der Baseler Ausschuss 1996 verSffentlicht hat (vgl. BCBS [11] und [12]). Diese Ausfiihrungen zu Marktrisiken werden in die Basel II-Richtlinien iibernommen. Die Ausgestaltung des internen Modells bleibt weitestgehend im Verantwortungsbereich der Finanzinstitute. Die 0berpriifung der Qualit~t des jeweiligen internen Modells obliegt den nationalen AufsichtsbehSrden. Bei Nichteinhaltung der geforderten Standards resultiert eine ErhShung der Eigenkapitalanforderung fiir das betreffende Finanzinstitut.

2.4. R E G U L A T O R I S C H E A N F O R D E R U N G E N DURCH BASEL II 2.4.2

21

A u s g e s t a l t u n g des i n t e r n e n M o d e l l s

Die ausdrfickliche Zulassung und Befiirwortung eines internen Modells kann als grof, er Fortschritt der Basel II-Richtlinien angesehen werden, da hierdurch auf schon entwickelte Modelle bei den Finanzinstituten zurfickgegriffen werden kann. Bei der Ausgestaltung des internen Modells werden keine bestimmten Vorgaben hinsichtlich der verwendeten Ans~itze gegeben: ,~No particular type of model is prescribed" (vgl. BCBS [11], S. 44). Es wird zun~ichst allgemein ein ad~iquates Modell gefordert, welches bestimmten Qualitiitsstandards geniigt (vgl. BCBS [11]). Erst durch die Vorgaben zur Validierung des Modells (vgl. Abschnitte 2.4.4 und 2.4.5) werden Regeln zur 0berpriifung der Qualitiit konkretisiert. Die Erwartung der AufsichtsbehSrden ist, dass die Finanzinstitute fortlaufend ihre Risikomodelle verbessern und alle relevanten Marktrisiken in die Modellierung integrieren: ,move to a comprehensive model" (vgl. BCBS [11], S. 6). Die Basel II-Richtlinien zum internen Modell erfordern die t~igliche Berechnung des Value-at-Risk zur Festlegung der Eigenkapitalanforderung (vgl. Abschnitt 2.4.3). Der Value-at-Risk soll mit einem Signifikanzniveau von c~ = 0,01 fiir die Haltedauer von 10 Tagen (T = 10) berechnet werden. Die Berechnung soll mindestens auf den historischen Daten des letzten Jahres basieren, das heit~t es werden mindestens 250 Handelstage in die Analyse einbezogen. Zur Vereinfachung der Berechnung des geforderten 10-Schritt Value-at-Risk ist es erlaubt, die 1-Schritt Value-at-Risk Prognose als Grundlage fiir folgende SkalierungsmSglichkeit zu nutzen:

VaR(o~).,.ji = X/"-TVaR(oL)lli.

(2.13)

Diese Vereinfachung soll eine Erleichterung fiir die Finanzinstitute darstellen, die zur Zeit nur die 1-Schritt Value-at-Risk Prognose berechnen. Methodisch beruht diese Vereinfachung auf restriktiven Annahmen. Die dargestellte Skalierung gilt, wenn fiir die Renditen eine Normalverteilung mit Erwartungswert Null unterstellt wird. Dabei wird angenommen, dass die Renditen unabh~ingig und identisch verteilt sind (i.i.d.): ri ,'~ i.i.d. Af(0, a2). Aus dieser Darstellung kann das bedingte (gegeben die Information bis zum Zeitpunkt i) Quantil der Renditeverteilung fiir den Zeitpunkt i + 1 mit

einfach bestimmt werden, wobei z~ das c~-Quantil der Standardnormalverteilung bezeichnet. Die Varianz der kumulierten T-Schritt Renditeverteilung (vgl.

22

K A P I T E L 2. VALUE-AT-RISK

Gleichung 2.9) folgt mit 7"

V(r,+.)

=

=

l=l

Damit weist die kumulierte Renditeverteilung die folgende Verteilung auf ri+~- ", Af(O, Ta 2) bzw. ~r~+. ~ N ( 0 , 1 )

Das bedingte Quantil der kumulierten T-Schritt Renditeverteilung ist folglich q(oL),li- ~/'-TaZa- ~/~q(C~)lli. Durch diese Darstellung l~st sich die SkalierungsmSglichkeit (Gleichung 2.13) als Approximation der 10-Schritt Value-at-Risk Prognose begriinden. Als Alternative zur Nutzung des internen Modells ermSglichen die Basel II-Richtlinien das ,,Standardverfahren". Dieses Verfahren wird oftmals auch als ,,Building Block Approach" bezeichnet. Die Marktrisiken werden in die vier Risikokategorien (Zinsen, Aktien, W~hrungen, Rohstoffe) unterteilt. Ffir jede dieser Kategorien werden alle Positionen in der Regel pauschal mit einem Prozentsatz von 8 % als Risiko der Kategorie bewertet. Das gesamte Marktrisiko ergibt sich durch einfache Summation der Risiken der vier Kategorien. In diesem Ansatz wird die Interdependenz einzelner Risikopositionen nicht beriicksichtigt. Durch die Nichtbeachtung der Korrelationen sowohl in einer Risikokategorie als auch zwischen den einzelnen Risikokategorien werden Diversifikationseffekte vernachl~sigt (zur detaillierten Darstellung des Verfahrens vgl. BCBS [11]). Aus dieser Situation ist die Befiirwortung des internen Modells durch die AufsichtsbehSrden verst~ndlich. Erst die Nutzung eines internen Modells fiihrt zur realistischen Analyse der Interdependenz von einzelnen Risiken und Risikokategorien und damit zur genaueren Absch~tzung von Marktrisiken. Die Basel II-Richtlinien unterstiitzen somit die verst~rkte Nutzung des internen Modells in der Zukunft und stellen das ,,Standardverfahren" als Auslaufmodell dar: ,,Banks which adopt a model will not be permitted, save in exceptional circumstances, to revert to the standardised approach" (vgl. BCBS [11], S. 6). 2.4.3

Berechnung der Eigenkapitalanforderung

Zur Absicherung gegen Finanzkrisen erfordern die Basel II-Richtlinien eine ad/iquate Hinterlegung der eingegangenen Marktrisiken durch Eigenkapital (vgl. BCBS [11]). Die AufsichtsbehSrden greifen explizit auf das Value-at-Risk Konzept

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL II

23

zuriick, um die regulatorischen Eigenkapitalanforderungen (EKA) mit Hilfe des internen Modells zu berechnen. Die Eigenkapitalanforderung des Zeitpunkts i + 1 soll entweder der 10-Schritt Value-at-Risk Prognose des letzten Tages oder dem Mittelwert der t/iglichen 10-Schritt Value-at-Risk Prognosen der letzten 60 Tage multipliziert mit einem Faktor A//entsprechen:

EKAlli = max .M

~ VaR(O, O1)lOli-j+l, VaR(O, 01)1Oli) 9 j=l

Der multiplikative Faktor M wird zun~chst auf M = 3 gesetzt. Bei schlechter Qualitiit des Modells in der Validierung wird der Faktor auf einen Wert von bis zu 4 erhSht (vgl. Abschnitt 2.4.5). Zur Begriindung der festgelegten HShe des Multiplikators wird von Stahl die Tschebyschewsche Ungleichung angefiihrt (vgl. Stahl [97]). Die Logik der ErhShungen des Multiplikators wird in den Basel II-Kriterien angegeben (vgl. BCBS [13], S. 8). Die ErhShung des Multiplikators fiihrt zu einer hSheren Eigenkapitalanforderung. Durch die ErhShung des Eigenkapitals resultieren hShere Kapitalkosten, da Eigenkapitalgeber in der Regel hShere Renditen als Fremdkapitalgeber erwarten. Dieses ist mit der nachrangigen Bedienung der Eigenkapitalgeber im Insolvenzfall zu begriinden. Falls das Finanzinstitut aufgrund hSherer Risiken ihr Eigenkapital nicht ausweiten will oder kann, fungiert die erhShte Eigenkapitalanforderung als Einschr~nkung der mSglichen Gesch~ftsaktivit~ten. Das Finanzinstitut kann nur Gesch~fte mit den daraus folgenden Risiken eingehen, solange geniigend Eigenkapital zur Erfiillung der Basel II-Richtlinie vorhanden ist. Die Eigenkapitalanforderung ist daher als wesentlicher Bestimmungsfaktor des Handlungsspielraums des Finanzinstituts anzusehen. In dieser Arbeit wird die Eigenkapitalanforderung (EKA) als 5konomische Zielfunktion betrachtet, die vom Finanzinstitut bei gleichzeitiger genauer Absch~tzung der Marktrisiken mSglichst minimiert werden sollte. Aus der Minimierung der Eigenkapitalanforderung bei gleichzeitiger Einhaltung der Basel II-Richtlinien steht dem Finanzinstitut der Freiraum zur Aufnahme weiterer Risiken, die gleichzeitig die Chance zu weiteren profitablen Gewinnen bieten, zur Verfiigung. Daher wird die Eigenkapitalanforderung in der empirischen Vergleichsstudie (vgl. Kapitel 5) als ma~gebliche Kennzahl zur Bewertung der verschiedenen Ans/itze herangezogen.

24

2.4.4

KAPITEL

2. V A L U E - A T - R I S K

Validierung der Value-at-Risk Prognosen

Die Validierung des Value-at-Risk Ansatzes anhand der Basel II-Richtlinien erfolgt fiber den Vergleich der 1-Schritt Value-at-Risk Prognosen mit den tats~chlich realisierten 1-Schritt Verlusten fiber den Zeitraum eines Jahres (circa 250 Handelstage). Die 0berschreitung der Value-at-Risk Prognose wird im Weiteren als Backtesting-Ausnahme bezeichnet h

Pi - Pi+l > V a R ( O ,

01)11i.

Aquivalent kSnnen die Backtesting-Ausnahmen

als Unterschreitungen

der

Quantilsprognose durch die Renditezeitreihe ri+l < ~(0, 01)11i ermittelt werden. Die Validierung der 1-Schritt Prognosen wird gew~hlt, da sich die Gewichtung der einzelnen Wertpapiere im Portfolio fiber einen l~ngeren Zeitraum vertindert. Damit ist ein angemessener Vergleich nicht gewtihrleistet (vgl. BCBS [13]). Diese Vorgabe ist insofern inkonsistent, da sich die Eigenkapitalanforderung am 10-Schritt Value-at-Risk orientiert. Hieraus entsteht der Anreiz ffir das Finanzinstitut, die 1-Schritt Value-at-Risk Prognosen eher konservativ zu gestalten, um in der Validierung erfolgreich zu sein, hingegen die 10-Schritt Value-at-Risk Prognose eher anti-konservativ zu berechnen, um die Eigenkapitalanforderung und damit die Kapitalkosten zu minimieren. Die statistische Evaluation der Value-at-Risk Prognosen konzentriert sich darauf, die Zeitreihe der Backtesting-Ausnahmen zu analysieren. Ein Value-at-Risk Modell mit einem Konfidenzniveau von (1 - ~)% sollte Prognosen abgeben, die in c~% der Ftille zu einer Backtesting-Ausnahme ffihren. Dieses wird oftmals als unbedingte Anforderung bezeichnet P(ri+l < q(a)lli) = a.

(2.14)

Die Backtesting-Ausnahmen sollten fiber die gesamte Zeitperiode verteilt sein und nicht gehtiuft auftreten. Zur Beurteilung dieser Anforderung wurden von Christoffersen [26] Tests entwickelt. Dabei wird zun~chst eine Indikator-Variable definiert, die bei Eintreten der Backtesting-Ausnahme den Wert 1 und ansonsten den Wert 0 annimmt

s

:

1 ffir ri+l < q(c~)l[i 0 ffir r~+l > q(c~)lli "

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL II

25

Als Forderung

im

l~st

Backtesting-Zeitraum

sich zusammenfassen,

dass

die Serie

{/i+l}n__l

der zurtickliegenden n Zeitperioden unabh~ingig und

identisch verteilt (i.i.d.) sein sollte. Basierend auf dieser Indikator-Variablen wird im ersten Test die Nullhypothese des Parameters a der Bernoulli-Variablen

i.i.d. Bernoulli(a)

H o : Ii+l ~

(2.15)

gegen die Alternativhypothese, dass der wahre Parameter von a abweicht, getestet. Die Likelihood-Ratio Teststatistik (LR) ftir diesen ersten Test kann wie folgt LR, = -21n

a (1 - o0 n~ ] TM

& n l ( 1 - &)no a

X2

(1)

formuliert werden. Unter Gfiltigkeit der Ho-Hypothese ist die Teststatistik asymptotisch Chi-Quadrat-verteilt mit einem Freiheitsgrad, wobei gilt: nl = Anzahl der Auspr~gungen der Indikator-Variablen mit dem Wert 1, no - Anzahl der Auspr~gungen der Indikator-Variablen mit dem Wert 0, &=

nl als ML-Schiitzung von a. no + nl

Im zweiten Schritt kann die Hypothese eines unabh~ngig verteilten Bernoulli-Prozesses gegen die Alternativhypothese eines Markov-Prozesses erster Ordnung getestet werden (vgl. Christoffersen [26]) I LR2

m 2 ln

~nl{ 1 - - a ) n~ (1 - 7roi)n~176

(1

_

7rllj

~nlo6-nll "11

x2(1),

mit njk = Anzahl der Beobachtungen mit j gefolgt von k (j,k = O, 1), ~jk = P(Ii+l = k l I i = j)

#01

(j, k = 0, 1),

n01 noo + nol

nil nIo + nll

Im dritten Schritt kann abschliet~end die Nullhypothese eines unabhiingigen Bernoulli-Prozesses mit Parameter a gegen die Alternativhypothese eines Markov-Prozesses erster Ordnung mit einer alternativen Ubergangsmatrix getestet werden: H0 : ~01 = 71"11= cz~ LR3 = -21n

c~TM (1 - c~)n~ L X2 ( 1 - ~ol)noo6"n~ 7T1 ~nl0aCrnll (2). "01

--

1]

"11

26

KAPITEL 2. VALUE-AT-RISK

Es gilt: LR3 = LR1 + LR2. Die Beschr~inkung dieser Testmethodik liegt in der ausschliei~lichen Beriicksichtigung von Abh~ingigkeiten erster Ordnung. Die grunds~itzliche Idee dieser formalen Tests wird auch in den Basel II-Richtlinien befolgt. Die Basel II-Richtlinien fordern die Auswertung der Anzahl der Backtesting-Ausnahmen des letzten Jahres. Eine Abweichung der beobachteten Backtesting-Ausnahmen von der erwarteten Anzahl bzw. ein geh~iuftes Auftreten von Backtesting-Ausnahmen fiihrt zu erheblichen Konsequenzen fiir das Finanzinstitut. Bei moderater Abweichung wird der Multiplikator A4 zur Berechnung der Eigenkapitalanforderungen erhSht. Eine starke Abweichung der Anzahl der Backtesting-Ausnahmen fiihrt dazu, dass die AufsichtsbehSrde zus~itzlich eine .&nderung des Modells vom betreffenden Finanzinstitut verlangt.

2.4.5

Konsequenzen der Validierung

Die Konsequenzen der Anzahl an Backtesting-Ausnahmen fiber die letzten zwSlf Monate (ca. 250 Handelstage) werden durch die Basel II-Richtlinien geregelt und folgen einer Ampel-Logik basierend auf Gleichung 2.15 und c~ - 0,01 (vgl. BCBS [13]). Im griinen Bereich ist der Value-at-Risk Ansatz zuverl~sig. Der Multiplikator verbleibt daher beim Ausgangswert .A4 - 3. Dieser Wert des Multiplikators sichert die Finanzinstitute gegen unerwartete Marktgegebenheiten und Fehleranfiilligkeiten des Modells ab (vgl. BCBS [12], S. 3/4 und Stahl [97]). Allerdings basieren die Uberlegungen zur HShe des Multiplikators auf der Annahme der Normalverteilung (vgl. Stahl [97]). Damit kann der gew~ihlte Ausgangswert .A4 = 3 bei Value-at-Risk Ans~itzen mit alternativen Verteilungsannahmen gegebenenfalls zu hoch sein, da die bestehenden Risiken durch eine alternative Verteilung angemessen beriicksichtigt werden. Die Konstruktion des Multiplikators kann somit zu einem Zielkonflikt fiihren, da der Ausgangswert .A4 = 3 keinen ausreichenden Anreizmechanismus fiir das Finanzinstitut liefert, um gegebenenfalls zu angemesseneren Verteilungsannahmen zu wechseln. Im gelben Bereich trifft das Basel II-Komitee unterstiitzt durch die nationalen Gremien eine Entscheidung fiber die Anhebung des multiplikativen Faktors .M. Dabei kSnnen au~ergewShnliche Marktgegebenheiten als Grund fiir die Backtesting-Ausnahmen geltend gemacht werden, welche zu einer Aussetzung der ansonsten strengen Einhaltung der Vorgaben zur Anhebung des Faktors fiihren kSnnen. Die HShe der Anhebungen dient der Aufrechterhaltung des angestrebten Signifikanzniveaus c~ = 0, 01 (vgl. BCBS [13], S. 8).

2.5. VALUE-AT-RISK IN DER PRAXIS

27

Der rote Bereich fiihrt zu einer direkten Sanktionierung durch Anhebung des multiplikativen Faktors Az[ auf den Wert A/[ = 4. Aufgrund der offenbarten M~ngel des Modells wird das betreffende Finanzinstitut vonder AufsichtsbehSrde aufgefordert, das Modell zu ~ndern. Zusammenfassend sind die Folgen der Anzahl der Backtesting-Ausnahmen in Tabelle 2.1 dargestellt: Zone

Backtesting-Ausnahmen

Anstieg des Faktors A4

Grfin

0 bis 4

0.00

Gelb

5

0.40

Rot

6 7 8 9 > 10

0.50 0.65 0.75 0.85 1.00

Tabelle 2.1: Konsequenzen der Validierung Das Reporting an die zust~indige nationale AufsichtsbehSrde findet quartalsweise statt. Die Evaluation des letzten Jahres wird zur Festsetzung des Multiplikators fiir das folgende Quartal verwendet. Mehr als vier Backtesting-Ausnahmen ffihren zu einem hSheren Multiplikator. Damit resultiert aus einer ungenauen Absch~tzung der Marktrisiken eine hShere Eigenkapitalanforderung. Die H5he der Eigenkapitalanforderung ist letztendlich an die 10-Schritt Value-at-Risk Prognose und an die Qualit~t des verwendeten Value-at-Risk Ansatzes geknfipft. Die Auswahl des geeigneten Value-at-Risk-Ansatzes ist der wesentliche Schlfissel zur erfolgreichen Absch~tzung der Marktrisiken, da hiermit fiber die Genauigkeit des Modells und die resultierenden Folgekosten aufgrund der HShe der Eigenkapitalanforderung entschieden wird.

2.5

Value-at-Risk in der Praxis

In der Praxis werden oftmals Ans~tze angewendet, die leicht zu verstehen und einfach umsetzbar sind. Neuere komplexere Ans~itze werden nur sehr langsam ins Tagesgesch~ft der Finanzinstitute fibernommen. Generell ist darauf zu achten, dass die verwendeten Ans~tze wesentliche Charakteristika der zu modellierenden Finanzmarktzeitreihen abbilden. Eine vielbeachtete und in

28

K A P I T E L 2. VALUE-AT-RISK

zahlreichen wissenschaftlichen Artikeln best/itigte Eigenschaft der betrachteten Finanzmarktzeitreihen ist die Leptokurtosis, das heit~t, die Renditezeitreihen weisen eine hShere Kurtosis im Vergleich zur Normalverteilung auf (vgl. Gleichungen 2.4/2.5, Gourieroux [50], S. 68/69, Franses/van Dijk [47], S. 9/10). Besondere Beachtung hat die Modellierung der Volatilit~t einer Finanzmarktzeitreihe gefunden. Es lassen sich Phasen unterschiedlicher Volatilit~t erkennen, die sich durch GARCH-Modelle abbilden lassen (vgl. Engle [35] und Bollerslev [17]). Die Volatilit~it wird nicht als konstant angenommen, sondern explizit im Zeitverlauf modelliert. Ans~tze zur Berechnung des Value-at-Risk sollten diese empirischen Informationen beriicksichtigen. Falls dieses nicht gegeben ist, erscheint es sinnvoll, komplexere Ans~itze in die Praxis zu iiberfiihren, um eine realit~tsnahe Berechnung des Value-at-Risk sicherzustellen. In den folgenden drei Abschnitten werden die wesentlichen Praxis-Ans/itze diskutiert: 9 Historische Volatilit~it (parametrischer Ansatz) 9 Historische Simulation (nicht-parametrischer Ansatz) 9 EWMA-Modellierung der Volatilit~t (parametrischer Ansatz) Das Ziel ist es, die Eignung der Ans~tze zu diskutieren und gegebenenfalls VerbesserungsmSglichkeiten hinsichtlich der Berechnung des Value-at-Risk aufzuzeigen.

2.5.1

Historische Volatilit~it und Normalverteilungsannahme

Die Annahme der Normalverteilung fiir die Verteilung der Renditezeitreihe ist wesentlich fiir die Finanzmarkttheorie. Die Portfoliotheorie beruht auf der Annahme der Normalverteilung, um die Abw~gung zwischen Rendite und Risiko als Entscheidungs- und Auswahlgrundlage in den Vordergrund zu stellen (vgl. Markowitz [77]). Das Capital Asset Pricing Modell zur Ableitung der wohlbekannten ,,Beta-Faktoren" und damit der Kapitalkosten eines Unternehmens beruht ebenfalls auf der Normalverteilungsannahme (vgl. Sharpe [96], Lintner [73], Mossin [85]). Auch in der Black-Scholes Formel, der wesentlichen Grundlage der Optionspreistheorie, ist die Normalverteilungsannahme wesentlicher Bestandteil (vgl. Black/Scholes [16]). Die Normalverteilungsannahme kann zur Berechnung des Value-at-Risk verwendet werden. Durch die Annahme der multivariaten Normalverteilung der

2.5.

VALUE-AT-RISK

IN DER

29

PRAXIS

Portfoliorenditen wird eine schnelle und einfache Berechnung des Value-at-Risk erreicht. Die Verteilungsannahme der multivariaten Normalverteilung fiir den Vektor ri bestehend aus den m einzelnen Wertpapieren wird mit ri ~ i.i.d. N'm(/~, lE) dargestellt, wobei mit D der Vektor der Erwartungswerte und mit lE die Varianz-Kovarianz-Matrix bezeichnet ist. Daraus folgt fiir die Portfoliorendite ri =

~olri

ri "-~ i.i.d. A/'(#, a 2) mit # = w~/~ undcr 2 = WrY]tO. Das c~-Quantil q ( ~ ) r l n der bedingten Verteilung von r n + ~ (vgl. Gleichung 2.10), basierend auf dem Informationsstand einschlieglich des Zeitpunkts n, ist q(c~)rln = #tin + z a a r l n mit #~-In = T# und a~.ln - V/~a. Der Value-at-Risk des Portfolios fiir die Zeitperiode r folgt mit (vgl. Gleichung

2.11) VaR(c~)rln

= p n ( 1 - exp(q(c~)rln)) = p n ( 1 -- exp(#rln + Z a a r l n ) ) "

Die Sch/itzung des Erwartungswerts # mit der L/inge des Zeitfensters n kann wie folgt vorgenommen werden [zk,,In = r[zk,lln = r

-n

rk,i

,

k = 1, ..., m ,

i=l

In der Praxis wird oftmals /2tin = 0 gesetzt. Durch dieses Vorgehen h/ingt die Value-at-Risk Berechnung wesentlich von der historischen Volatilit/it

beziehungsweise

historischen

Varianz-Kovarianz-Matrix

ab.

die Varianz-Kovarianz-Matrix wird folgende Sch/itzung angewendet n

.. ~ 1 7 6 ' l ln - -

1 ~(ro,i rt - 1

-

fZo,lln)(?"p,i

-

/Zp, lln)

i=1 Oop,.rl n =

TO'op,lln ,

'

o,p

"-- 1 , . . .

'

m,

Fiir

30

KAPITEL 2. VALUE-AT-RISK

a"~.rln= r(w'EllnW) mit

611,1[n 612,1[n "" 61m,l[n ]~lln =

~21.,11n ~22.,1l-

~2m.,lln

O'ml,lln O'm2,11n

O'mm,lln

.

Der Einfachheit dieses Ansatzes stehen einige Kritikpunkte gegeniiber. Ffiir die Auswahl der Lgnge des Zeitfensters n gibt es keine Regeln. Bei der Berficksichtigung einer langen Historie der Renditezeitreihen flief,t mehr Information in die Schgtzer ein, das heif, t die Schgtzungen werden zuverl~siger. Hingegen wird dadurch die implizite Annahme getroffen, dass sich die Varianzen beziehungsweise Kovarianzen fiber diesen Zeitraum nicht vergndern. Bei Vorliegen sich gndernder Parameter kann es angemessener sein, eine verhgltnismgf, ig kurze Historie einzubeziehen. Die Annahme der Normalverteilung wird in zahlreichen empirischen Studien abgelehnt. Renditezeitreihen weisen in der Regel eine hShere Kurtosis auf, das heif, t extrem negative und extrem positive Renditen treten hgufiger auf als bei einer Normalverteilung (vgl. Gourieroux [50], S. 68/69 oder Franses/van Dijk [47], S. 9/10). Die Konstanz der Volatilitgt a i m Zeitverlauf, ausgedrfickt durch die sogenannte ,,Square-Root-of-Time Regel"

O"rIi-- ~/'Tffl]i, kann zu Fehleinschgtzungen ffihren (vgl. Diebold et al. [30]). Zusammenfassend l~st sich sagen, dass bei Annahme der Normalverteilung der Renditen mit konstanter historischer Volatilitgt die Gefahr besteht, Marktrisiken zu unterschgtzen.

2.5.2

Historische Simulation der Renditeverteilung

Die historische Simulation ist der am hgufigsten angewendete Ansatz zur Ermittlung des Value-at-Risk in der Praxis. Vorteil dieses Ansatzes ist, dass keine Annahmen fiber die Verteilung der Renditezeitreihe benStigt werden. Daher wird die historische Simulation zu den nicht-parametrischen Ansgtzen gezghlt. Bei diesem Ansatz ist es nicht notwendig, die Varianz-Kovarianz-Matrix der m Wertpapiere zu bestimmen. Stattdessen wird als Grundidee die historische Datengrundlage genutzt, um die empirische Verteilung zu schgtzen. Die

2.5.

VALUE-AT-RISK

31

IN DER PRAXIS

Value-at-Risk Prognose wird fiber die Ermittlung des a-Quantils der historischen Portfoliorenditezeitreihe ri berechnet. Gegebenenfalls wird hierzu zungchst die Portfoliorenditezeitreihe aus den Bestandteilen des Portfolios gebildet: ri = w'ri (vgl. Gleichung 2.8). Formal dargestellt ist das a-Quantil q(a) der Verteilung F: q(a) = F - l ( a )

= inf{x e R: F ( x ) >_ a},

0 < a < 1.

Die Schwierigkeit der Anwendung besteht darin, dass die Verteilung der Renditen nicht bekannt ist. Daher wird das empirische Quantil der historischen Renditezeitreihe fiber die historischen Beobachtungen geschgtzt. Vereinfacht gesprochen ist das a-Quantil die Rendite, welche grSger ist als a% der Beobachtungen und kleiner als ( 1 - a)% der Beobachtungen. Zur genauen Ermittlung werden die historischen Renditen ri(i = 1, ..., n) aufsteigend sortiert. Es sei r(1), ..., r(n) die Ordnungsstatistik der Beobachtungen definiert durch r(1) _< ... < r(~). Zur Schgtzung des empirischen Quantils q(a) gibt es unterschiedliche MSglichkeiten (vgl. Hyndman/Fan [62]). In der vorliegenden Arbeit wird zur Schgtzung im ersten Schritt der ganzzahlige Wert l bestimmt, der die Bedingung (vgl. Uyndman/Fan [62], Definition 7) l-

1 +a < an < l +a

erffillt. Mit dem Gewichtungsfaktor d zur Interpolation der relevanten geordneten Werte r(i ) d = 1 + (n - 1)a - l resultiert das geschgtzte Quantil (vgl. Hyndman/Fan [62], Gleichung 1) [~(a, ri) = (1 - d)r(L) + dr(l+,).

(2.16)

Diese Vorgehensweise wird in der vorliegenden Arbeit durchgehend zur Schgtzung des empirischen Quantils verwendet. Dieses rechtfertigt die Unterscheidung der Notation, denn das 1-Schritt Quantil q(a)ljn zur Bestimmung des 1-Schritt Value-at-Risk kann durch unterschiedlichste Ansgtze ermittelt werden. Bei der historischen Simulation wird auf das geschgtzte empirische Quantil zuriickgegriffen

0(~)~t~ = 4(~, ri),

32

K A P I T E L 2. V A L U E - A T - R I S K

um die 1-Schritt Value-at-Risk Prognose des Portfolios zu sch/itzen A

VaR(a)l[n = pn(1 - exp(q(c~)l[n)).

Die Ermittlung der T-Schritt Value-at-Risk Prognose kann unterschiedlich gestaltet werden. Eine MSglichkeit ist das Ziehen mit Zuriicklegen aus den historischen 1-Schritt Renditen. Dieses Vorgehen wird als Bootstrap-Verfahren bezeichnet (vgl. Davison/Hinkley [29], S. 2/3). Die aus der historischen Renditezeitreihe zuf/illig gezogene Beobachtung sei rj,n+T, wobei der Index j die j-te Ziehung angibt. Dabei gilt j - 1,..., N und T -- 1,..., 10. Es werden demnach 10N zuf~llige Ziehungen vorgenommen. Grundlage dieses Vorgehens ist die Annahme von identisch und unabh/ingig verteilten (i.i.d.) Renditen ri. Zur Bildung der interessierenden kumulierten 10-Schritt Renditen rj,n+lo (vgl. Gleichung 2.9) werden die gezogenen Renditen summiert 10

rj,n+lo = ~

rj,n+7-.

(2.17)

7"=1

Durch dieses Vorgehen werden N kumulierte 10-Schritt Renditen simuliert, aus denen das gesch/itzte empirische Quantil ~(a, rj,n+lo) ermittelt werden kann. Dieses wird als 10-Schritt Quantil zur Sch/itzung des 10-Schritt Value-at-Risk verwendet (vgl. Gleichung 2.11) h

VaR(a)loln = pn(1 - exp(q(a)loln)).

Zur Bestimmung des kumulierten 10-Schritt Quantils kSnnen alternativ zun~chst kumulierte 10-Schritt Renditen rs+lo aus den n historischen Beobachtungen gebildet werden (vgl. Gleichung 2.9) s+10

rs+lo = ~ ,

rt,

fiir s = 0, 1, ..., n

10.

t=s-bl

Beruhend auf diesen kumulierten 10-Schritt Renditen kann die Sch~tzung des empirischen Quantils vorgenommen werden, um das interessierende Quantil O(a)lo] n zu erhalten. Dieses Vorgehen wird oftmals in der Praxis verwendet, wobei kritisch anzumerken ist, dass sich die gebildeten kumulierten 10-Schritt Renditen iiberlappen und damit keine unabh/ingigen Beobachtungen darstellen. Um dieses zu verhindern, kSnnen die kumulierten 10-Schritt Renditen auch fiberlappungsfrei gebildet werden. Durch dieses Vorgehen reduziert sich die Anzahl der kumulierten 10-Schritt Renditen um den Faktor 10. Dadurch bleiben oftmals

2.5. VALUE-AT-RISK IN DER PRAXIS

33

nur wenige Beobachtungen zur Bestimmung des empirischen Quantils fiber, sodass diese MSglichkeit in der vorliegenden Arbeit nicht weiterverfolgt wird. Zur Diskussion der historischen Simulation ist anzumerken, dass dieser Ansatz die Charakteristika der empirischen Renditeverteilung berficksichtigt. Es wird keine explizite Annahme fiber die Verteilung der Renditezeitreihe (beispielsweise Normalverteilung) getroffen. Hervorzuheben ist im Weiteren die verst~ndliche Grundidee des Ansatzes. Die Gewinnung des interessierenden Value-at-Risk aus dem historisch beobachteten Verlauf des Portfolios ist leicht nachvollziehbar. Problematisch ist die Auswahl der L~nge des Zeitfensters n. Die Abw~gung zwischen der Einbeziehung einer grSi~eren Anzahl von Beobachtungen (mehr Information) und der Annahme der Konstanz der Verteilung (Tendenz zu einem kleineren Zeitfenster) stellt sich wiederum (vgl. Abschnitt 2.3.1). Die Value-at-Risk Prognose h~ngt stark vonder L~nge des Zeitfensters ab. Dieses Problem kann durch Gewichtung der Beobachtungen im historischen Zeitfenster abgemildert werden. Beispielsweise ffihrt eine exponentielle Gewichtungsstruktur zur geringeren Gewichtung weiter zuriickliegender Beobachtungen (vgl. Abschnitt 4.1). Weiterer Kritikpunkt zur historischen Simulation ist, dass die zeitver~nderliche Volatilit~t der Renditezeitreihe nicht explizit modelliert wird. Dadurch werden die beobachtbaren Phasen unterschiedlicher Volatilit~t nicht beachtet. Dieses kann zu einer Unter- oder Ubersch~tzung des Value-at-Risk fiihren.

2.5.3

Exponentielle Gl~ittung der Volatilit~it

In diesem Ansatz wird die zeitver~nderliche Volatilit~t explizit modelliert. In der Regel wird die exponentielle Gl~ttung der Volatilit~it als EWMA-Modell (exponentially weighted moving average) bezeichnet (vgl. Alexander [3], S. 57 ft.). Die Grundidee dieses Ansatzes wurde von dem Finanzinstitut J.P. Morgan zu einer kommerziellen Software-LSsung weiterentwickelt. Der heutige Anbieter dieses Ansatzes ist das Unternehmen ,,RiskMetrics". Das EWMA-Modell gilt als parametrischer Ansatz mit zeitver~nderlicher Volatilit~it. Es sei hi die zeitver~nderliche bedingte Varianz der Renditezeitreihe. Die Unterscheidung der Notation v o n a 2 wird bewusst getroffen, um deutlich herauszustellen, dass die Varianz in der Modellierung nicht mehr als konstant angesehen wird. Der Vektor der Renditezeitreihen ri wird gegeben dem

KAPITEL2.

34

VALUE-AT-RISK

Informationsstand f/i-1 zum Zeitpunkt i - 1 wie folgt modelliert:

rilf~i-1 ~ A/'m(0, Hi), wobei Hi die zeitver~inderliche Varianz-Kovarianz-Matrix darstellt. Ffir die Portfoliorendite ri folgt mit hi = co~Hio: rilfZi-1 ~ A/'(0, hi). Die Verteilung der Portfoliorendite wird durch eine Normalverteilung mit zeitveranderlicher bedingter Varianz hi beschrieben. Der Erwartungswert wird in diesem Ansatz auf Null gesetzt, das heigt es wird angenommen, dass sich der Mittelwert der Renditezeitreihe nicht signifikant von Null unterscheidet. Die wesentliche Erweiterung in diesem Ansatz besteht in der Einffihrung der bedingten Betrachtungsweise hinsichtlich Varianz und Kovarianz

hop,i = Cov(ro,i, rp,il~i-1). Die Sch~itzung der Varianz-Kovarianz-Matrix Hi erfolgt fiber exponentielle Gl~ttung der Form CO

hop,lln = (1 -/~) ~ )~J-lro,n-j+lrp,n-j+l. j=l

Das EWMA-Modell legt mehr Gewicht auf die Beobachtungen des aktuellen Randes. Die resultierende Sch~tzung der Volatilit~t reagiert daher sehr schnell auf ungewShnlich groge positive und negative Renditen. Der Parameter ~ fungiert als Gl~ittungsparameter. HShere Werte von ~ mit 0 < ~ < 1 ffihren zu geringerer Gewichtung der aktuellen Beobachtungen. Alexander ([3], S. 59) berichtet von sinnvollen Werten fiir ~ zwischen 0,75 und 0,98. Die kommerzielle Software-Version ,2dskMetrics" verwendet )~ = 0, 94. Eine einfache Berechnung wird durch die folgende Rekursion erreicht: hop,lln -- (1 -/~)ro,nrp,n -I-/~hop,n.

Da E(ro,n+rrp,n+rlf~n) = hop,rln gilt, entspricht die T-Schritt Prognose der 1-Schritt Prognose hop,rln = hop, Xln" Die Prognose bleibt damit auf einer HShe und kehrt nicht zu einem langfristigen Mittelwert zurfick. Es folgt die Sch~itzung der kumulierten T-Schritt Varianz-Kovarianz-Matrix

hop,-rln --" 7"hop,lln"

35

2.5. V A L U E - A T - R I S K IN D E R P R A X I S

Die bedingte T-Schritt Varianz der Portfoliorendite ergibt sich mit

hTI n

=

T(~tI'~Illn~).

Hinsichtlich der T-Schritt Renditeverteilung wird im ,,RiskMetrics"-Ansatz die Annahme der Normalverteilung getroffen rn+r

,~ A/'(0, i) bzw. r,~+r

A/'(0,I).

Der Value-at-Risk des Portfolios fiir die Zeitperiode r 1/isst sich aufgrund der Normalverteilungsannahme leicht berechnen A

V a R ( a ) r l n = pn(1 - exp(~(a)rln)) = Pn

1 - exp

za

Die Normalverteilungsannahme ist theoretisch nicht haltbar, da das gew~ihlte Modell nur die l-Schritt Verteilung der Renditen festlegt. Die Verteilung der kumulierten T-Schritt Rendite ist eine Summe von Zufallsvariablen, die jeweils eine unterschiedliche bedingte Varianz hi aufweisen. Die kumulierte T-Schritt Verteilung kann somit deutlich von der Normalverteilung abweichen. Die getroffene restriktive Annahme ist kritisch zu betrachten. Eine L5sungsmSglichkeit zur Ermittlung der gesuchten Renditeverteilung ist die Monte-Carlo-Simulation, die in Abschnitt 4.2 vorgestellt wird. Das EWMA-Modell kann mit einer beliebigen Historie der Renditezeitreihe angewendet werden. Durch die exponentielle Gl~ittung wird in Abh~ingigkeit von der Wahl des Gl~ittungsparameters weit zuriickliegenden Beobachtungen nur ein geringes Gewicht gegeben. Dieses ist im Hinblick auf die Basel II-Richtlinien kritisch zu sehen, da gegebenenfalls die weiter zuriickliegenden Beobachtungen des letzten Jahres die Value-at-Risk Prognose nur geringfiigig beeinflussen. Zusammenfassend lksst sich sagen, dass der wesentliche Vorteil der exponentiellen Gl~ittung in der ,~RiskMetrics"-Ausgestaltung in der expliziten Modellierung der zeitver~inderlichen Volatilit~it liegt. Die Value-at-Risk Prognose passt sich daher schnell den Ver~nderungen der Marktverh~iltnisse an. Der Ansatz besitzt jedoch Nachteile. Der Gl~ttungsparameter A wird nicht gesch~itzt, sondern aufgrund von Erfahrungswerten festgelegt. Fundierter w~ire eine Sch~tzung des Modells auf Grundlage statistischer Theorie (vgl. Kapitel 3). Aus der Modellierung der Varianz-Kovarianz-Matrix folgt die langfristige Prognose mittels der ,,Square-Root-of-Time Regel". Die Prognose tendiert damit nicht zu einem langfristigen Mittelwert (,,Mean Reversion"). Im Kapitel 3 werden die GARCH-Modelle vorgestellt, die realistischere Eigenschaften als der Spezialfall EWMA-Modell aufweisen.

Kapitel 3

Volatilit/it und Interdependenz Zur Berechnung eines zuverl~sigen Value-at-Risk ist die Modellierung der Volatilit~t und Interdependenz empfehlenswert. Unterschiedliche Phasen der Volatilit/it der Finanzmarktzeitreihen sollten in der Berechnung des Value-at-Risk beriicksichtigt werden. Eine Steigerung der Volatilit/~t fiihrt zu erhShten Marktrisiken, sodass eine gleichzeitige Anpassung des Value-at-Risk notwendig erscheint. Auch die Interdependenz der einzelnen Wertpapiere eines Portfolios hat wesentlichen Einfluss auf die HShe der Marktrisiken. In markanten Abschwungphasen der Finanzm~rkte wird oftmals beobachtet, dass die Korrelation zwischen den einzelnen Wertpapieren zunimmt. Dieses fiihrt bei konstanten Gewichtungsfaktoren zu einer ErhShung des Gesamtrisikos des Portfolios, sodass die Value-at-Risk Prognose folglich angehoben werden sollte. Eine vielbeachtete Modellklasse zur Beschreibung der empirischen Beobachtungen sind die GARCH-Modelle. Begriinder dieser Modellklasse ist Prof. Engle, der 1982 den Grundstein fiir die schnelle Entwicklung der Forschung in diesem Themengebiet legte (vgl. Engle [35]). Die Generalisierung des innovativen Ansatzes wurde 1986 durch Prof. Bollerslev vorgenommen (vgl. Bollerslev [17]), der zusammen mit Prof. Engle und zahlreichen weiteren Wissenschaftlern die Modellentwicklung und-erweiterung mat~geblich gepr~igt und vorangetrieben hat. Im n~chsten Abschnitt (3.1) werden die univariaten GARCH-Modelle zur Modellierung der zeitver~nderlichen Volatilit~t betrachtet. Im darauf folgenden Abschnitt (3.2) werden multivariate Erweiterungen der GARCH-Modelle vorgestellt. Mit ihrer Hilfe kann die Interdependenz in multivariaten Portfolioiiberlegungen beachtet werden. Besondere Beriicksichtigung findet dabei die Modellierung der zeitver~nderlichen Varianz-Kovarianz-Matrix.

38

3.1

KAPITEL

3.

VOLATILITJ~T

UND INTERDEPENDENZ

Univariate Modellierung der Volatilit~it

GARCH-Modelle wurden in den letzten Jahren in der akademischen Literatur besonders beachtet. Der Erfolg dieser Modelle liegt darin, dass sie empirische Beobachtungen wie zeitver~nderliche Volatilit/it und die Abweichung der unbedingten Verteilung der Renditezeitreihe vonder Normalverteilung oftmals treffend beschreiben kSnnen. Die empirischen Ph~inomene der Renditezeitreihen sind zwar schon Jahrzehnte bekannt, jedoch gelang es Engle (1982) erstmals mit dem Autoregressive Conditional Heteroscedasticity (ARCH) Modell eine zutreffende parametrische formale Beschreibung zu entwickeln. Zur Darstellung der univariaten GARCH-Modelle sind einige sehr gute Biicher und Artikel erschienen. Die GARCH-Modelle werden in der vorliegenden Arbeit sehr kompakt dargestellt. Zur detaillierteren Darstellung wird an dieser Stelle auf die Literatur von Franses/van Dijk [47], Alexander [3], Hamilton [55] und Gourieroux [50] verwiesen. Einen sehr guten und umfassenden 0berblick bietet der Artikel von Sera/niggins [15]. Als einer der ersten Autoren liefert Akgiray [1] eine ausfiihrliche Analyse und Diskussion der Anpassung von GARCH-Modellen und der Prognose mit GARCH-Modellen. Die folgenden Ausfiihrungen orientieren sich an der Darstellung von Franses/van Dijk [47]. Im n~chsten Abschnitt wird zun~chst die Grundidee und die Definition des GARCH-Modells vorgestellt, um danach die Sch~itzung und Prognose der univariaten GARCH-Modelle darzustellen. Im Abschnitt 3.1.4 werden die univariaten GARCH-Modelle im Hinblick auf die Anwendbarkeit zur Berechnung des Value-at-Risk kritisch diskutiert.

3.1.1

Definition univariater G A R C H - M o d e l l e

Die Grundidee der GARCH-Modelle ist die Beschreibung der zeitveranderlichen Volatilit~t durch einen parametrischen Ansatz, wobei die aktuelle Volatilitat durch die Charakteristika der historischen Zeitreihe bestimmt wird. Da somit die Volatilit~t zum Zeitpunkt i vom Informationsstand des Zeitpunkts i - 1 und gegebenenfalls von der gesamten historischen Entwicklung abhangt, sprechen wir von bedingter Volatilit~t beziehungsweise Varianz. Ausgangspunkt der 0berlegungen ist die Modellierung der Renditezeitreihe ri als Regressionsmodell ri = E ( r i l g l i - 1 ) + ui,

i = 1, ..., n,

wobei ~i-1 den Informationsstand zum Zeitpunkt i - 1 angibt. Der Wert ui wird als Innovation bezeichnet, da er die Abweichung der Renditezeitreihe vom

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R V O L A T I L I T A T

39

bedingten Erwartungswert darstellt. Im Weiteren sei zur Vereinfachung der Darstellung #i = E(rilf~i-1),

wobei #i als autoregressives Modell ausgestaltet sein kann. Engle [35] unterstellte fiir die Innovationen ui gegeben f~i-1 die folgende Verteilung ui lfli_ l ,.~ Af ( O, hi).

Eine analoge Darstellung ist vi "~ i.i.d. Af(0, 1).

ui = v/-ffivi,

Es folgt die bedingte Verteilung der Renditezeitreihe ril~i-1

~ Af(#i, hi).

Engle [35] formulierte 1982 das ARCH(p)-Modell, indem die bedingte Varianz in Abh~ingigkeit der quadrierten Innovationen modelliert wird p

hi = c~o +

Z

O~jUi_ j ,

j--1

wobei c~0 > 0 und c~j >__ 0 gelten muss, um eine positive bedingte Varianz zu gew~hrleisten. Aus dieser Formulierung ist die wesentliche Eigenschaft der Modellierung deutlich erkennbar. Grot~e Abweichungen der Renditezeitreihe ri vom bedingten Erwartungswert #i fiihren zu grot;en positiven oder negativen Innovationen ui. Daraus resultiert, dass fiir p Zeitperioden die bedingte Varianz der Renditezeitreihe erhSht ist. Durch diese Eigenschaft des Modells lassen sich die empirisch beobachteten Phasen unterschiedlicher Volatilitiit beschreiben. Oftmals wird eine hohe Anzahl der p-t-1 Parameter zur Modellierung der bedingten Varianz benStigt. Dieses wirkt sich nachteilig auf die Sch~tzung des Modells aus. Daher wurde das ARCH-Grundmodell von Bollerslev [17] weiterentwickelt. Zur Beschreibung der bedingten Varianz mit dem GARCH(p,q)-Modell werden q Terme hinzugeffigt, wodurch eine wesentlich flexiblere Modellierung resultiert, die in der Regel eine geringere Anzahl an Parametern (z.B. p = 1, q = 1) zur Beschreibung der bedingten Varianz benStigt p

q

hi -- c~o + ~

2 j + ~ /~khi-k, OLjUi_ j=l k=l

wobei c~0 > 0 und cu, /3k _> 0 dafiir sorgt, dass die bedingte Varianz zu jedem Zeitpunkt positiv ist.

40

KAPITEL 3. VOLATILITJ~T UND INTERDEPENDENZ

Eine weitere Generalisierung ist durch die Ver/inderung der Verteilungsannahme mSglich. Die GARCH-Modelle sind nicht auf die Normalverteilung rilf~i-1 ~ Af(#i, hi) beschr~inkt (vgl. Bollerslev [17]). Stattdessen kSnnen auch alternative Verteilungsannahmen getroffen werden. Die Spezifikation einer anderen Verteilung fiihrt in der Regel zu einer h6heren Komplexit~t zur Beschreibung der Renditezeitreihe, da zus~itzliche Parameter zur Erreichung einer hSheren Flexibilit/it der Verteilung notwendig sind. Der Versuch, geeignetere Verteilungen zu spezifizieren, kann zu einem infiniten Regress fiihren, da die Charakteristika der Renditezeitreihe nicht vollst~ndig abgebildet werden kSnnen. Beispielsweise kann eine komplexere symmetrische Verteilung spezifiziert werden, die allerdings bei genauerer Betrachtung wieder verworfen werden muss, da Asymmetrien vorliegen. Zur LSsung dieser Problematik wird oftmals zun/ichst auf die Normalverteilung zuriickgegriffen, da durch diese einfache Modellierung die Sch~itzung des GARCH-Modells erleichtert wird. Die Quasi-Maximum-Likelihood Sch/itzung stellt sicher, dass die Sch~tzer konsistent und asymptotisch normalverteilt sind (vgl. Abschnitt 3.1.2). Die vorteilhaften Sch/itzeigenschaften sind auch bei Abweichung der wahren Verteilung von der Normalverteilung gesichert. Zur Value-at-Risk Prognose kann die Normalverteilungsannahme im Anschluss an die Parametersch~tzung relativiert werden, indem beispielsweise Bootstrap-Verfahren angewendet werden (vgl. Abschnitt 4.3.2). Das in der akademischen Diskussion und in der empirischen Anwendung am h/iufigsten verwendete Modell ist das GARCH(1,1)-Modell 2 1 + ]~1hi-1 hi = ao + a l ui_

(3.1)

mit ao > 0 und al,/31 __ 0. Durch rekursives Einsetzen der bedingten Varianz wird ersichtlich, dass diese Modellierung/iquivalent zu einem ARCH(p)-Modell mit exponentiell fallenden Gewichtungsfaktoren fiir p ~ c~ ist hi

-

-

aO -t-

2

"-b ]~1 h i - 1 _ u2 u2 - 0/0 "-["0/1 i-1 "Jr-~1 (0/0 + 0/1 i - 2 + ~1 (0/0 '[- ~

:

a0/(1

0/1~i-1

-

/31) +

O/1(U2-1 -[- ~1 u2i - 2

+

f42U2i - 3 ~'1

+

2

-[- Zl (...)))

...).

Die Analogie der GARCH-Modelle zu den bekannten ARMA-Modellen (vgl. Pindyck/Rubinfeld [91], Kapitel 17) kann durch die Einfiihrung der Differenz wi zwischen der quadrierten Innovation und der bedingten Varianz hergestellt

41

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R VOLATILITJ~T

werden ~7 i

-

-

2 _ hi.

?A i

Durch Einsetzen in Gleichung 3.1 folgt u i2 = a o +

1 2_1 + Zl

_

-- C~0 + (C~1 -[- ~ 1 )

2

-wi

ui-1

-i

)+voi

~2

i - 1 -[- Wi -- ~I~:Ui-1.

Aus dieser Darstellung resultiert die fiir ARMA-Modelle Stationarit/itsbedingung (vgl. Pindyck/Rubinfeld [91], S. 535)

wohlbekannte

al + 131 < i.

(3.2)

Bei Einhaltung der Stationaritttsbedingung unbedingten Varianz der Innovationen a 2,

folgt ffir die Herleitung der

2

O- u

---

E ( u 2)

__

E(E(u2[fli_l))

__

E(hi),

E(hi) = ao + (oL1+ 31)E(hi-1).

Bei Stationarit/it gilt E(hi) = E(hi-1). Daraus folgt die unbedingte Varianz 2

O~0

au -- 1 -

o~ 1 -

/~1"

Die unbedingte Varianz weist damit einen langfristigen Mittelwert auf. Dabei ist die bedingte Varianz zeitver~nderlich modelliert. Die Tendenz der bedingten Varianz zu einem Mittelwert zurfickzukehren, wird oftmals als ,,Mean Reversion" bezeichnet. Dieses Verhalten der GARCH-Modelle stellt eine Verbesserung im Vergleich zu den EWMA-Modellen (vgl. Abschnitt 2.5.3) dar, weil die beschriebene Riickkehr zu einem langfristigen Mittelwert in empirischen Studien beobachtet werden kann (vgl. Alexander [3], S. 84 ft.). V a r i a n t e n des G A R C H - M o d e l l s Eine Ausgestaltung der zahlreichen Varianten des GARCH-Modells ist das G JR- oder TGARCH-Modell. Entwickelt wurde diese Variante zeitgleich dutch Glosten/Jaganathan/aunkle [49] und Zakoian [102]. Die formale Darstellung ist hi

=

t3o +131u 2. 2 + 133hi- i, ~ - 1 + 132Ii- 1 u i--I

wobei die Funktion Ii zur Berficksichtigung von Asymmetrien der Renditezeitreihe ftihrt Ii =

1 fiirui 0

= hrln,

gilt

Durch schrittweises Einsetzen folgt fiir T > 1

]Zrln=CfofE(Cfl-t-l~l)J-1]-t-

(3.4)

(dl -t-/~l)r- 1]ll[n.

kj=l Fiir den Sonderfall IGARCH(1,1) mit al +/31 = 1 und a0 = 0 gilt

Dieses entspricht der Prognose des EWMA-Modells (vgl. Abschnitt 2.5.3). Bei Einhaltung der Stationarit/itsbedingung

(vgl. Gleichung 3.2) kann aus

Gleichung 3.4 folgende Form der T-Schritt-Prognose gewonnen werden h'rln = 1 -- dl -- 31^ + ( d : + 3 ,

-1 h ' l n - 1

Fiir T --* ~ ist die ,,Mean Reversion" ersichtlich _

lim

hrln -

c~o

1 - dl - ~1

~"

"-- G2u"

d~-/31

"

46

KAPITEL

3.

VOLATILIT/4T

UND INTERDEPENDENZ

Die interessierende kumulierte T-Schritt-Prognose kann wie folgt ermittelt werden T

j=l --

^

1 - cfl - ~1

~

hll- -

1 - d l - ~1

1 - dl - ~1

Bei autoregressiven Termen in der Mittelwert-Gleichung steigt die Komplexit~it der Prognose. In der vorliegenden Arbeit wird die Prognose der bedingten Varianz der Renditezeitreihe im AR(1)-GARCH(1,1)-Modell ausgefiihrt ri = 0 + Cr~-i + ui,

uil~i-1

2 hi = ao + a l U i _ l +

"~

A/'(0, hi),

~lhi-l.

Der gesch~itzte bedingte Erwartungswert fiir die r-Schritt

Prognose der

Renditezeitreihe ist

E(rn+vl~n) ~- ~TIn =- ~ ~ ~)j-1 _~u~ r r n " j--1

Die bedingte 1-Schritt Varianz der Renditen entspricht der bedingten 1-Schritt Varianz der Innovationen, woraus

folgt. Fiir T > 1 ergeben sich durch den AR(1)-Term Unterschiede zwischen der Varianz der Renditen und der Varianz der Innovationen r>l.

Die 2-Schritt Prognose kann durch Rekursion vorgenommen werden

l?(rn+21gtn) = do + (all + ~1% r = ~o + (all + ZI + $2)s Dieses entspricht

~(r.+~la.) = ~2~(r.+lla.) + ~(u.§

47

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R V O L A T I L I T ] i T

Die T-Schritt Prognose der bedingten Varianz der Renditen kann fiber schrittweises Einsetzen gebildet werden

j=l

Ffir T ~ OC kann diese Reihe wie folgt geschrieben werden A

c~o

lira V(rn+r[g/n)= r--,oo (l-d1-~1)(1-r Zur Kumulation der Renditezeitreihe gilt

T-Schritt

Prognose

der

T

I"

l=l

l,k=l;l~k

a~ =

2)

1 - r 2'

bedingten

Varianz

der

j=l \ k=~

Bei dieser Darstellung der Prognose der bedingten Varianz der Renditezeitreihe im AR(1)-GARCH(1,1)-Modell wird die Analogie zu ARIMA-Modellen deutlich (vgl. Pindyck/Rubinfeld [911, S. 571). 3.1.4

BeurteUung der univariaten GARCH-Modelle

Univariate GARCH-Modelle gewinnen zunehmende Beachtung in der Modellierung von Finanzmarktzeitreihen. Die Modellbildung ist durch fundierte Theorie untermauert. Besonders die explizite Berficksichtigung der zeitver~inderlichen Volatilit/it ffihrt zu weitergehenden Einsichten fiber die Charakteristika von Finanzmarktzeitreihen. Die Modellierung 1/isst Raum ffir Erweiterungen hinsichtlich der Beschreibung der bedingten Varianz (beispielsweise TGARCH-Modell) und der Verteilungsannahme f f i r die Innovationen. Die Sch/itzung der Parameter benStigt eine ausreichende Anzahl an Beobachtungen, um Schwierigkeiten hinsichtlich der Parameterrestriktionen und des Auffindens eines globalen Optimums zu vermeiden. Das EWMA-Modell als Spezialfall der GARCH-Modelle weist weniger Komplexit/it auf. Die heuristische Vorgehensweise ffihrt zu den in Abschnitt 2.5.3 dargestellten Kritikpunkten.

48

KAPITEL 3. VOLATILITAT UND INTERDEPENDENZ

Ein generelles Problem der GARCH-Modelle liegt in der Bestimmung der T-Schritt Renditeverteilung. Eine analytische Bestimmung ist problematisch, da die GARCH-Modelle nur die 1-Schritt Renditeverteilung eindeutig festlegen. Geeignete Strategien zum Umgang mit dieser Problematik hinsichtlich der Value-at-Risk Prognosen werden im Abschnitt 4.2 vorgestellt. Zusammenfassend kann vermutet werden, dass die Einbeziehung der GARCH-Modelle in die Value-at-Risk Prognose die Genauigkeit der Absch~tzung verbessert. Diese Vermutung soll in der empirischen Vergleichsstudie (Kapitel 5) fiberprfift werden.

3.2

Multivariate Modellierung der Interdependenz

In diesem Abschnitt wird die Zusammensetzung des Portfolios aus einzelnen Wertpapieren ins Zentrum der Betrachtung gerfickt. Die Darstellung der Portfoliorendite eines Portfolios fiihrt bei Aggregation der Renditen der einzelnen Portfoliobestandteile durch die Gewichtungsfaktoren zu einem Informationsverlust (vgl. Gleichung 2.8). Die Informationen fiber die Interdependenz der einzelnen Wertpapiere werden vernachl/issigt. Es ist bekannt, dass sich Korrelationen zwischen Wertpapieren im Zeitverlauf ver/indern (vgl. Longin/Solnik [74]). Diese zeitver/inderlichen Strukturen sollten modelliert werden, um die Information zur Berechnung des Value-at-Risk zu nutzen. Die Interdependenz zwischen einzelnen Wertpapieren spiegelt sich in der Varianz-Kovarianz-Matrix wider. Zur Parametrisierung dieser Matrix eignen sich multivariate GARCH-Modelle. Die wesentliche Herausforderung dieser Modellierung liegt in der sinnvollen Reduktion der Komplexit/it des Ansatzes. Nur sparsame Parametrisierungen der Varianz-Kovarianz-Matrix sind in der Anwendung des Modells geeignet. Es mfissen Restriktionen hinsichtlich der Parametrisierung gefunden werden, welche die Anwendbarkeit des Modells gew/ihrleisten. In den folgenden Abschnitten werden ausgew/ihlte multivariate Ans/itze vorgestellt, wobei chronologisch mit dem VECH-Modell von Bollerslev, Engle und Wooldridge [19] begonnen wird. Daraufhin wird das Faktor-Modell von Diebold und Nerlove [31] erl/iutert. Die Darstellung des Constant Conditional Correlation Modell von Bollerslev [18] ffihrt fiber das OGARCH-Modell von Alexander [3] zum Dynamic Conditional Correlation Modell von Engle [37].

3.2. M U L T I V A R I A T E MODELLIERUNG DER I N T E R D E P E N D E N Z

3.2.1

49

Definition multivariater G A R C H - M o d e l l e

Das multivariate GARCH-Modell ffir den Vektor der Renditezeitreihen ri kann generell wie folgt spezifiziert werden ri --/~i A- ui, wobei ri, Di und ui m • 1 Vektoren sind. Di stellt den Vektor der bedingten Erwartungswerte dar

I& = E(rilgli-1). Als Differenz zwischen ri und tt i resultiert der Vektor der Innovationen ui. Die multivariate bedingte m x m Varianz-Kovarianz-Matrix Hi ersetzt die bedingte Varianz im univariaten Fall uil~i-1 "~ Afro(0, Hi). Die Varianz des Portfolios folgt mit

hi --w~Hiw > 0, wobei w der Vektor der Gewichtungsfaktoren ist. Die wesentliche Frage ist die Parametrisierung der Varianz-Kovarianz-Matrix. Die Komplexit/it der Modellierung steigt mit der Anzahl m der unterschiedlichen Wertpapiere stark an. Daher sollten Parametrisierungen gefunden werden, die eine Sch~tzung des Modells unter den gegebenen Restriktionen ermSglichen, ohne die notwendige Flexibilit/it der Modellierung zu verlieren. In den n/ichsten Abschnitten werden die schon angesprochenen unterschiedlichen Vorgehensweisen vorgestellt. Fine grafische Aufbereitung der Alternativen kann fiber ,,News Impact Surfaces" vorgenommen werden (vgl. Kroner/Ng [70]). Dabei werden die Auswirkungen des Vektors der Innovationen auf die Varianz-Kovarianz-Matrix der Folgeperiode untersucht. VECH Das VECH-Modell von Bollerslev, Engle und Wooldridge [19] wird in der vorliegenden Arbeit als Ausgangspunkt ffir die Darstellungen gew/ihlt, da der generelle Aufbau der multivariaten GARCH-Modelle anhand dieser Modellierung anschaulich dargelegt werden kann. Das VECH-Modell wird wie folgt definiert p

vech(Hi) = W +

q

Ajvech(ui_ju~_j) + ~-'~ Bkvech(Hi_k), j=l k=l

50 wobei

K A P I T E L 3. V O L A T I L I T A T UND I N T E R D E P E N D E N Z

vech(Hi)

den

Vektor

der

einmalig

vorkommenden

Elemente

der

Varianz-Kovarianz-Matrix darstellt. Die Parameter der Modellierung sind in dem 89 x 1 Vektor W und den 89 x 89 Matrizen A j ( j - 1, ...,p) und B k ( k = 1, ..., q) zusammengefasst. Deutlicher Nachteil dieses Modells ist die groi~e Anzahl an Parametern. Fiir das reduzierte Modell mit p = 1 und q = 1 resultieren schon 89 + 1) 2 + 89 + 1) Parameter. Explizit dargestellt fiir p = 1, q - 1 und zwei Portfoliobestandteile resultiert

/h11/ /Wl/ /a11012013//2/lil hl2,i

=

w2

h22,i

T

w3

+

a21

a22

a23

~l,i-lU2,i-1

a31

a32

a33

u2,i_l

b21 b22 b23

h12,i_I

b31

h22,i-1

b32

b33

9

Fiir zwei Portfoliobestandteile werden folglich schon 21 Parameter benStigt. Fiir m = 5 folgen aus dieser Formulierung 465 Parameter. Daraus kann geschlossen werden, dass die Parametrisierung der Varianz-Kovarianz-Matrix vereinfacht werden muss. Eine MSglichkeit liegt in der Spezifikation der Diagonal-Form

/h11/ /wl/ /all o 0// hl2,i h22,i

=

w2

+

w3

+

0 0

0

a22

0

Ul,i-lU2,i-1

0

0

a33

u22,i-1

h12,i-1 h22,i-1

b22 0 0 baa

/

9

Durch diese Restriktion fiir die Varianz-Kovarianz-Matrix wird eine Reduzierung der Anzahl an Parametern erreicht. Die weiteren Restriktionen W = 0, A1 = d i a g ( 1 - A ) , B1 = diag(A) mit 0 < A < 1 fiihren mit Izi = 0 zum bereits

/h11/

00//r21il /

dargestellten EWMA-Modell (vgl. Abschnitt 2.5.3)

hl2,i

=

h22,i

+

0

1- A

0

0

0

A 0

h12,i-1

0

0

h22,i- 1

/~

0

1

--

rl,i-lr2,i-1

A

r 22, i - 1

9

Durch diese restriktive Parametrisierung wird sichergestellt, dass die Varianz-Kovarianz-Matrix positiv-definit ist (vgl. Bera/Higgins [15], S. 343/344 und Alexander [3], S. 202).

3.2. M U L T I V A R I A T E

MODELLIERUNG

51

DER INTERDEPENDENZ

Faktor-GARCH Das Ziel des von Diebold und Nerlove [31] entwickelten Faktor-Modells ist

es,

die

hohe

Anzahl

an

Parametern

zu

reduzieren.

Die

bedingte

Varianz-Kovarianz-Matrix der beobachtbaren Renditezeitreihen wird durch einen gemeinsamen Faktor Fi erkl~irt, der die GARCH-Struktur aufweist. Der gemeinsame Faktor repr~entiert das Eintreffen neuer Informationen, die fiir die m Renditezeitreihen ri relevant sind. Dabei wird der Faktor in diesem Abschnitt als beobachtbar angenommen, das heigt er wird nicht durch eine Faktorenanalyse oder Hauptkomponentenanalyse ermittelt. Dieses denkbare Vorgehen wird in dem Abschnitt zu OGARCH-Modellen ausgefiihrt. Das Ein-Faktor GARCH(1,1)-Modell wird wie folgt dargestellt ri = tt + bFi + ei.

Es gilt fiir k = 1, ..., m

Cov(ek,i, Fi) = 0 beziehungsweise 6i "~ i.i.d..hf(0, F)

mit F = diag (71,72, ..., 7m),

wobei 7k die spezifische Varianz des k-ten Wertpapiers darstellt. Weiter gilt F i --c+~t

i,

Fi ]Q i_ 1 ~ .Af ( c, h i ) , 2

hi = o~o + a l ui_ 1 + ~1 hi-1.

Die Formulierung der bedingten Varianz kann beliebig von dieser GARCH(1,1)-Variante auf komplexere GARCH-Modelle ausgeweitet werden. Fiir die bedingte Verteilung der Renditezeitreihen ri resultiert ri [gti_ 1 "~ iV'(# + cb, Hi) mit Hi = hibb' + F. Die Schwierigkeit dieses Modells liegt vor allem in der Auswahl des Faktors Fi. Geeignet erscheinen Indizes mit hoher Marktkapitalisierung (beispielsweise der Euro Stoxx Index), da sie als Indikator fiir das Verhalten des Gesamtmarktes gelten. Zusammenfassend kann festgestellt werden, dass der beschriebene Ansatz das Verhalten der einzelnen Renditezeitreihen durch einen gemeinsamen Faktor

K A P I T E L 3. V O L A T I L I T A T

52

UND I N T E R D E P E N D E N Z

erkl~irt. Dadurch wird die Komplexit~t der multivariaten Betrachtungsweise reduziert. Zur Beschreibung der zeitver~nderlichen Varianz-Kovarianz-Matrix wird ausschlief, lich ein univariates GARCH-Modell benStigt. Die Verkniipfung der Entwicklung der individuellen Renditezeitreihe mit der Entwicklung des Gesamtmarktes entspricht der Logik des Capital Asset Pricing Modells, welches an der ~hnlichen Struktur der Modellierung erkennbar wird (vgl. Elton/Gruber et al. [32], S. 299).

Constant Conditional Correlation

Das Constant Conditional Correlation (CCC) Modell wurde 1990 von Bollerslev [18] formuliert. Die Vereinfachung dieses Modells besteht in der Ableitung der Varianz-Kovarianz-Matrix aus zeitver~inderlichen bedingten Varianzen und der Annahme konstanter Korrelationen im Zeitverlauf. Es wird im Folgenden von der Modellierung des Vektors der Renditezeitreihen ri durch einen Vektor mit Konstanten D ausgegangen

ri = ~ + ui,

u i l ~ i - 1 " A/',~ (0, Hi). \

Die Definition der unbedingten Korrelation zwischen den Renditezeitreihen o und p (o, p = 1, ..., m) ist allgemein bekannt

Corr(ro,i, rp,i) =

E(uo,iUp,i)

.

Dazu kommt die Formulierung der bedingten Korrelation Pop,i

E ( uo,iup,i l~i-1) Pop,i = ~/E(u2,il~2i_l)Z(u2,il~.li_l )

---

hop,i x/hoo,,h~, i

~

Die wesentliche Annahme im CCC-Modell ist die Konstanz der bedingten Korrelation

pop,i = pop. Die bedingte Kovarianz bleibt zeitver~nderlich

Die Varianz-Kovarianz-Matrix wird wie folgt spezifiziert Hi = D i R D i ,

3.2. M U L T I V A R I A T E

MODELLIERUNG

DER INTERDEPENDENZ

53

wobei D/2 die Diagonal-Matrix der bedingten Varianzen darstellt

D~ = diag(hkk,i) = diag(E(u2k,ilgti-1) ) und R die m • m Matrix der konstanten bedingten Korrelationen mit den Elementen pop ist. R wird fiber die standardisierten Residuen vi ermittelt vi = D~-lui. Es folgt aus den obigen Darstellungen

E(vo,iVp,ilf~i-1) - pop beziehungsweise in Matrixschreibweise hergeleitet

E(viv~l~i_l ) = E(D~luiutiDr~ llgli_l) = D~lE(uiu~ilf'li_l)DT~ 1 = D~IHiD~

1

--a.

Der Vorteil dieser Modellierung ist die Ermittlung der zeitver/inderlichen Varianz-Kovarianz-Matrix durch Sch/itzung von m univariaten GARCH-Modellen und der Sch/itzung der Korrelationsmatrix fiber die standardisierten Residuen vi. Die Sch/itzung kann in zwei Schritte zerlegt werden (vgl. die ausffihrliche Darstellung in Abschnitt 3.2.2). Die Komplexit/it der multivariaten Betrachtungsweise wird durch die geringere Anzahl an Parametern reduziert. Durch das beschriebene Vorgehen ist bei Beachtung der fiblichen Parameterrestriktionen fiir univariate GARCH-Modelle die positiv-definite Varianz-Kovarianz-Matrix gesichert (vgl. Bollerslev [18]).

OGARCH

Die wesentliche Annahme des OGARCH-Modells ist, dass die empirischen Renditezeitreihen linear in unkorrelierte Hauptkomponenten iiberfiihrt werden kSnnen (vgl. Alexander [3], S. 210 ft.). Die Abbildung der Renditezeitreihen durch Hauptkomponenten ist eine weitere MSglichkeit, die Komplexit/it der multivariaten Betrachtungsweise zu reduzieren. Das Ziel der Hauptkomponentenanalyse ist die Erkl/irung der Variation der m Renditezeitreihen durch l Hauptkomponenten, die weitestgehend dieselben Informationen aufweisen. Es sei r ~ (/z, IE) die n x m Matrix der Renditezeitreihen.

54

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

In der empirischen Anwendung erfolgt zun~chst die Standardisierung der Renditezeitreihen

rk - Pkl = ~ , k = 1,...,m. ak In dieser Darstellung soll die Korrelationsmatrix p •

zur Ermittlung

der

Hauptkomponenten genutzt werden p =

X'x

mit X = (•



..., •

n

Es sei p - J E J ~ die Spektraldarstellung von p mit den Eigenwerten ek (k = 1, ..., m)

E = diag(el, ..., era) und el :> e2 >_ ... _> ern, dann sind die Hauptkomponenten die Spalten der n x m Matrix S (vgl. Johnson/Wichern [64], Kapitel 8) XJ.

S =

Die Spalten der Matrix J beinhalten die Eigenvektoren. Die Hauptkomponenten sind dabei so geordnet, dass die Hauptkomponente in der ersten Spalte den grSgten Anteil der Varianz erklgxt. Die Hauptkomponenten sind paarweise unkorreliert. Die k-te Hauptkomponente ist sk = jlk•

+ j2k•

+ ... + jmk•

Es gilt =

SJ I

beziehungsweise xk -- jklSl + jk2s2 + ... + jkmSm. Es sei Hi die m x m bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen ri. Dann kann folgende Approximation verwendet werden ( m - l Hauptkomponenten werden nicht beachtet) Hi ~ -~-Ei-~/ mit der m x I Matrix .~. = (jlcrl, ...,jlal) und der l x l Matrix

Ei = diag(V(sl,ilgli-1), ..., V(sl,ilgli-1)) mit 1 zur Beschreibung verwendeten Hauptkomponenten. Es werden demnach die Eigenwerte ek als Varianz der Hauptkomponenten zeitver~nderlich modelliert

E(s2k,ilgti-1) = ek,i.

3.2.

MULTIVARIATE

Diese bedingte zeitver~nderlichen

MODELLIERUNG

DER

INTERDEPENDENZ

Betrachtungsweise ermSglicht die Beschreibung Charakteristika durch GARCH-Modelle. Es kann

55 der ein

GARCH(1,1)-Modell verwendet werden (vgl. Gleichung 3.1) e k ,i - - 0~0 -Jr- O~l S 2k,i _ 1 -Jr ~ l e k ,i - 1,

wobei fiir die bedingten Varianzen der Hauptkomponenten ek,i unterschiedliche Parameter verwendet werden kSnnen. Die Matrix Hi ist positiv semi-definit. Sie ist positiv-definit, wenn l = m gilt. Daraus folgt, dass bei l < m die Eigenwerte ( e k , i > 0 ffir k - 1, ..., l) der Matrix iiberpriift werden miissen, um eine positiv-definite Varianz-Kovarianz-Matrix zu gew~hrleisten (vgl. Alexander [2], S. 7). Der Vorteil der Methode ist die Reduktion der Risiken auf wenige Risikofaktoren, die dennoch die Risikosituation ad~quat abbilden. Dadurch muss nur eine geringe Anzahl bedingter Varianzen modelliert werden. Der Nachteil dieses Vorgehens liegt in der Annahme der bedingten Unkorreliertheit der Hauptkomponenten, da durch die Theorie der Hauptkomponentenanalyse nur die unbedingte Vnkorreliertheit gesichert ist (vgl. Alexander [3], S. 211).

Dynamic Conditional Correlations Das Dynamic Conditional Correlation (DCC) Modell von Engle [37] erweitert das schon vorgestellte Constant Conditional Correlations Modell von Bollerslev. Die Flexibilit~t der univariaten GARCH-Modelle wird hierbei mit einer einfachen parametrischen Modellierung der zeitver~nderlichen bedingten Korrelationen verbunden. In empirischen Studien wurde festgestellt, dass Korrelationen zwischen einzelnen Wertpapieren zeitver~nderlich sind (vgl. Longin/Solnik [74]). Diese Information fiber die zeitver~nderliche Korrelationsstruktur ist besonders ffir die Berechnung des Value-at-Risk relevant. Im DCC-Modell werden zun~chst univariate GARCH-Modelle angepasst, um dann im zweiten Schritt die zeitver~nderlichen Korrelationen aus den standardisierten Residuen zu ermitteln. Diese Parametrisierung erh~lt die einfache Interpretation univariater GARCH-Modelle und ermSglicht die Konstruktion eines flexiblen Sch~itzers fiir die bedingte Korrelationsmatrix. Die Modellierung des DCC-Modells erfolgt analog zum CCC-Modell. Dabei wird die Korrelationsmatrix R nicht mehr als konstant angenommen, sondern als zeitver~nderliche Korrelationsmatrix 1~ ausgestaltet Hi -- DiR/D/,

KAPITEL 3. VOLATILITf4T UND INTERDEPENDENZ

56 wobei

D 2 = diag(hkk,i) gilt. Daraus folgt mit vi = D~-lui E(viv~lf~i_l) = D~-IHiD~ -1 = 1~. Als Sch~itzer ffir die bedingte Korrelationsmatrix It/ bieten sich einige MSglichkeiten an. Vielversprechend ist die exponentielle Gliittung (vgl. Abschnitt 2.5.3) pop,i =

gop,i

,

~

= [pop,d

x/goo,ig~,i mit gop,i = (1 - A)Vo,i-1%,i-1 + Agop,i-1.

(3.5)

Bei dieser Ausgestaltung kann durch die Festlegung eines einheitlichen Parameters A gesichert werden, dass die bedingte Korrelationsmatrix positiv-definit ist. Die Formulierung der Matrix Ri kann durchaus komplexer gestaltet werden. Beispielsweise kann ein GARCH-Modell verwendet werden (vgl. Engle [37], S. 341) gop,i -- -flop + ~ l ( V o , i - l V p , i - 1

-- "flop) + 132(gop,i-1 -- -'flop),

wobei -flop die unbedingte Korrelation zwischen Vo,i und Vp,i darstellt. Die Umformulierung dieser Darstellung ergibt (vgl. Engle [37], S. 341) gop,i = -Pop

(1--~1 --~2) 1 - ~2

c~ s-1 Vo,i-sVp,i-s. S--1

+ ~1 E ~

Matrix-Versionen der vorgestellten Sch~itzer kSnnen wie folgt geschrieben werden G~ = (I - A)(v~_~ v I.,_~) + AG~_~,

wobei ~ die unbedingte Korrelationsmatrix der standardisierten Residuen vi darstellt. Die Matrix Ri ist positiv-definit, da die Matrix Gi ein gewichteter Mittelwert einer positiv-definiten und einer positiv semi-definiten Matrix ist (vgl. Engle [37], S. 341). Zusammenfassend kann festgestellt werden, dass die Modellierung der zeitver~nderlichen Korrelationsmatrix die Abbildung empirischer Beobachtungen ermSglicht. Die Komplexit~it dieses Ansatzes ist hoch, sodass eine einfache Modellierung der bedingten Korrelationen (z.B. durch exponentielle GUittung) sinnvoll ist.

3.2. M U L T I V A R I A T E MODELLIERUNG DER I N T E R D E P E N D E N Z

3.2.2

57

Sch~itzung m u l t i v a r i a t e r G A R C H - M o d e l l e

Die Sch/itzung der Parameter kann generell fiber die Maximum-Likelihood Optimierung vorgenommen werden. In diesem Abschnitt wird ffir die Renditezeitreihen unterstellt: ri = Di + ui. Zur Sch/itzung der multivariaten GARCH-Modelle wird in der Regel die Normalverteilungsannahme ffir die Innovationen getroffen

u~l~-~ ~ IOta(o, H~). Diese Vorgehensweise wird durch die Arbeit von Bollerslev und Wooldridge [20] gerechtfertigt (vgl. Abschnitt 3.1.2). Auch bei Abweichungen der empirischen Renditezeitreihen von der Normalverteilungsannahme sind die Sch/itzer konsistent und asymptotisch normalverteilt, allerdings ist dann die asymptotische Effizienz der Sch/itzer nicht gew~hrleistet. Die Parameter der Formulierung des Vektors der bedingten Erwartungswerte tt i und der bedingten Varianz-Kovarianz-Matrix Hi werden in dem Parametervektor r zusammengefasst. Die Log-Likelihood-Funktion kann ffir m Renditezeitreihen mit jeweils n Beobachtungen wie folgt aufgestellt werden (vgl. Bollerslev, Engle, Wooldridge [19], S. 120) ln/i(r

= - ~m ln(27r) - 21In IHi(r

1 - ~u~(r162162

n

In L(r

= ~

In/i(r

i=1

Daraus folgt: lnL(r

m n ln(2r) - 1 n

= - 2

2~

(lnlH'(r

+ ui(r162162

"

(3.6)

i=1

Diese Funktion muss mit Hilfe geeigneter Algorithmen optimiert werden (vgl. Abschnitt 3.1.2 und die dort angegebene Literatur) $ = maxln L(r r um den Parametervektor r zu sch~tzen. In der Regel sind eine Vielzahl an Parametern zu sch/itzen, wobei die Restriktionen an die Parameter hinsichtlich positiv-definiter Varianz-Kovarianz-Matrix und Stationarit/it zu beachten sind. Im Folgenden wird die Sch/itzung der einzelnen

58

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

Varianten der multivariaten GARCH-Modelle detaillierter betrachtet. Dabei werden insbesondere die gegebenenfalls vorhandenen Vereinfachungen der Sch~itzung durch Reduktion der Anzahl der Dimensionen (Faktor-GARCH und OGARCH) beziehungsweise durch die Zerlegung des Problems in Sch~itzung von univariaten GARCH-Modellen und Sch~tzung der Korrelationsmatrix (CCC- und DCC-Modell) hervorgehoben.

Sch~itzung des VECH-ModelIs Das VECH-Modell stellt die allgemeinste Variante der multivariaten GARCH-Modelle dar. Zur Sch~itzung des im Abschnitt 3.2.1 vorgestellten VECH-Modells muss die in Gleichung 3.6 vorgestellte Log-Likelihood-Funktion optimiert werden. Zu den ~m 1 2(m + 1)2 + 89 + 1) Parametern der bedingten Varianz-Kovarianz-Matrix kommen die Parameter zur Beschreibung des Vektors der bedingten Erwartungswerte #i. Bei der Modellierung der einzelnen Renditezeitreihen durch eine Konstante resultieren zus~itzlich m Parameter. Der Algorithmus zur Optimierung der Log-Likelihood-Funktion hat oftmals Probleme, ein globales Maximum der Funktion zu bestimmen. Die Varianz-Kovarianz-Matrix Hi sollte in jedem Zeitpunkt positiv-definit sein: r > 0. Ein Beispiel ffir die resultierenden Restriktionen ist Bera/Higgins [15] (S. 343/344) zu entnehmen. Es wird deutlich, dass auf Modellierungen zuriickgegriffen werden sollte, die eine geringere Komplexit~t aufweisen. Aufgrund der beschriebenen Probleme wird das VECH-Modell in der empirischen Vergleichsstudie nicht verwendet, da fiir m - 5 eine sinnvolle Parametersch~tzung nicht gew~hrleistet ist.

Sch~itzung des Faktor-Modells Im Abschnitt 3.2.1 wurde das Ein-Faktor Modell ri = / z + bFi + ei vorgestellt. Die Sch~tzung der Mittelwertgleichung fiir die Renditezeitreihen ri erfolgt durch die Sch~tzung von m linearen Regressionen, um die Parameter f~k und bk (k = 1, ..., m) zu bestimmen. Auf dieser Grundlage lassen sich die gesch~tzten Residuen i --

1, ..., n

bilden. Die Sch~tzung der spezifischen Varianz folgt mit ~k=

1

n - 2

~g2 i=l

k,i~

k=l,

.,m. ""

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

59

An den Faktor F/wird eine Konstante c angepasst

Fi = ~+z2i

mit ?:= --1 n

Fi. i=l

Daraufhin wird das vorgeschlagene GARCH(1,1)-Modell gesch/itzt (vgl. Abschnitt

3.1.2) ^

^2

hi = dO + a lU i_ 1 + ~1 h i - 1 ,

Damit sind alle benStigten Parameter Varianz-Kovarianz-Matrix I:li ermittelt

i = 1, ..., n.

zur

Bildung

der

bedingten

I:I~ = h~fifi' +/'. Sch/itzung des Constant Conditional Correlation Modells Die Schatzung des CCC-Modells 1/isst sich vereinfachen, indem die Sch~tzung der Parameter der bedingten Varianz in zwei Schritten vorgenommen wird. Ausgehend von der allgemeinen Log-Likelihood-Funktion (vgl. Gleichung 3.6)

mn 1 n In L(~b) = - - - ~ ln(27r) - ~ Z (In IHi(0)l + u~(q~)'H~-l(q~)ui(q~)) i=1

l~st sich die Funktion durch Umformungen vereinfachen (vgl. Engle [37], S. 342). Die folgenden Umformungsschritte werden durch die elementaren Rechenregeln (IABI- IAIIBI; IA21- IAI2 fiir A--diag(alx,a22,...,akk);ln (a 2) -- 21na) ermSglicht

mn ln(2r) - ~1 ~n (In IDiRDil + uiD , i-1R-1 D~-lui) In L(0) = ----~ i=l

= - - mn - ~ ln(27r) - 21 Zn (2 In IDi[ + In IRI + v'iR-Xvi) i=1

mn ln(27r) - 21 Zn (2 In ID, I + uiD, , -1 -1 = ---~ Di ui + In IRI i=l

+

v i' R -1

vi -

V'iVi)

9

Die Parameter r seien aufgeteilt in den Parametervektor ~b = (0',/3')' (vgl. Abschnitt 3.1.2) mit den Parametern in ui, Di und dem Paramtervektor ~ mit den zus~tzlichen Parametern in R. Dann kann die Log-Likelihood-Funktion in einen Varianzteil und einen Korrelationsteil zerlegt werden In L (~, ~) = In Lv (~b) + In Lc (~, 0 ) .

(3.7)

KAPITEL 3. VOLATILITf4T UND INTERDEPENDENZ

60 Der Varianzteil ist lnLv

( (~) = ---~-m n l n ( 2 r ) - i ~ ~n (ln [Di[ 2 + u~D~-2ui). i--1

In dem Korrelationsteil sind die verbleibenden Komponenten zusammengefasst lnLc

( (~,(~)

= - ~ Z1o (lnlRl+v,R

,

vi-

v:v )

i--1 Der Varianzteil ist die Summe univariater GARCH Log-Likelihood-Funktionen 1

ln(27r) +

ln(hkk,i)+

mit IDil 2 =

hll,ih22,i.., hmm,i,

In IDil 2 = ln(h11,i) + ln(h22,i) + . . . +

ln(hmm,i).

Die individuellen Log-Likelihood-Funktionen kSnnen demnach zun~chst separat maximiert werden (vgl. die Schtitzung univariater GARCH-Modelle in Abschnitt 3.1.2) ~ = m.ax (lnLv (r 4, Der optimale Parametervektor kann dann im zweiten Schritt zur Optimierung des Korrelationsteils verwendet werden

_Durch die Annahme der konstanten Korrelationsmatrix R kann die Schtitzung wie folgt durchgefiihrt werden (vgl. Bollerslev [18], S. 500) Pop "-i=1

Vo,i

i=1

Vp,i

Die gesch~itzten Parameter ~ = ~, ~ sind konsistent und asymptotisch normalverteilt unter gewissen Regularit~tsbedingungen (vgl. Engle [37], S. 342), die bei Einhaltung der Anforderungen an die Parameter der GARCH-Modelle hinsichtlich Nicht-Negativittit und Stationarittit erffillt sind. Ffir das GARCH(1,1)-Modell muss demnach: c~o > 0, c~1,f~l >_ 0, c~1 + ~1 < 1 gelten (vgl. Abschnitt 3.1.2). Die Abfolge der Vorgehensschritte zur Sch~tzung des CCC-Modells kann wie folgt fiir zwei Wertpapiere (m = 2) zusammengefasst werden:

3.2. M U L T I V A R I A T E

MODELLIERUNG

DER INTERDEPENDENZ

61

1) Sch/itzung der zwei univariaten GARCH-Modelle 2) Berechnung der standardisierten Residuen

Vl ,i

__

I$2~i

3) Schgtzung der Korrelationsmatrix 4) Berechnung der gesch/itzten Varianz-Kovarianz-Matrix I:Ii

Q

~tll,i h22,i

Sch~itzung des O G A R C H - M o d e l l s Zur Sch:itzung des OGARCH-Modells ist zun/ichst die Durchfiihrung der Hauptkomponentenanalyse notwendig. Mit den Sch~tzfunktionen

1~

ftk = --nZi=lrk,i und ak =

n-1

i=l (rk,i -- ftk)2

l~st sich die gesch/itzte Korrelationsmatrix ermitteln

-, ,: X~X Jb=n_ 19 Mit der gesch~tzten Spektraldarstellung h = JEJ'

kSnnen die geschiitzten Hauptkomponenten ermittelt werden

Detailliertere Darstellungen kSnnen beispielsweise Johnson/Wichern [64] entnommen werden. Nach Durchfiihrung der Hauptkomponentenanalyse sind univariate GARCH-Modelle an die Zeitreihen der Hauptkomponenten anzupassen, um die zeitveriinderlichen Varianzen der Hauptkomponenten Ei = diag(iY(.~l,i[fli-1), ..., l)'(.~/,i[gti-1))

KAPITEL 3. VOLATILIT,~T UND INTERDEPENDENZ

62

zu sch~itzen. Zur Darstellung der Sch~itzung kann auf die Ausffihrungen in Abschnitt 3.1.2 hinsichtlich univariater GARCH-Modelle zurfickgegriffen werden. Zusammen mit den gesch~tzten Eigenvektoren jk und den gesch~itzten Standardabweichungen der Renditezeitreihen 5k aus der Hauptkomponentenanalyse kann mit der Matrix "~ = (jlO'l,...,j/o'/) die gesch~itzte bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen

~I~ = ~-~:i~' gebildet werden. Sch~itzung des Dynamic Conditional Correlation Modells Das DCC-Modell wurde konstruiert, um eine 2-Schritt Sch~tzung der Parameter zu ermSglichen. Im ersten Schritt werden die univariaten GARCH-Modelle gesch~tzt. Im zweiten Schritt werden die gesch~tzten standardisierten Residuen genutzt, um die zeitver~nderlichen Korrelationen zwischen den Renditezeitreihen zu sch~tzen. Zur Darstellung der Sch~tzung des DCC-Modells kann auf die Ausfiihrungen zum CCC-Modell zuriickgegriffen werden. Es gilt die in Gleichung 3.7 dargestellte Aufspaltung der Log-Likelihood-Funktion lnL

(~, ~) = lnLv (~) + lnLc (~, ~) .

Der Varianzteil ist weiterhin wie folgt definiert lnLv

( (~)

= - - ~mnln(2r)_ ~1 ~ "( l n l D i

12 + u i,D i-2 ui).

i=1

Daher kSnnen im ersten Schritt die individuellen Log-Likelihood-Funktionen maximiert werden

~=m.ax(lnLv(~)). 4,

Im Korrelationsteil ist im Unterschied zum Korrelationsmatrix zeitver~inderlich spezifiziert lnLc ( (~,~ )

CCC-Modell

, i-1 v i - --21 Zn (lnlR/l + viR i--1

Die Elemente der Matrix 1~ weisen die folgende Form auf gop,i Pop,i - -

x/goo,igpp,i

v:vi).

die bedingte

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

63

Die bedingte Korrelationsmatrix 1~ muss symmetrisch und positiv-definit sein. Weiterhin muss Pkk,i = 1 und IPop,il _ 1 gelten. Bei Festlegung des Parameters in der Gleichung 3.5 ist keine Sch/itzung notwendig. Zur Sch~tzung des Parameters A oder bei Nutzung eines GARCH-Modells zur Spezifikation der bedingten Korrelationsmatrix 1~ wird die Optimierung des Korrelationsteils der Log-Likelihood-Funktion im zweiten Schritt vorgenommen

r162162 4, 3.2.3

P r o g n o s e mit multivariaten G A R C H - M o d e l l e n

Allgemein l~st sich die Prognose mit multivariaten GARCH-Modellen im Wesentlichen in Analogie zu den univariaten GARCH-Modellen ableiten. In diesem Abschnitt wird sowohl die 1-Schritt Prognose der bedingten Varianz-Kovarianz-Matrix I:Ill,~ als auch die T-Schritt Prognose I:I~ln vorgestellt. In der Darstellung der Prognose mit multivariaten GARCH-Modellen wird in der vorliegenden Arbeit die einfache Ausgestaltung der Mittelwertgleichung mit konstantem Parametervektor ft verwendet: r~ = ft + ui. Eine Erweiterung der Mittelwertgleichung durch autoregressive Komponenten ist denkbar, fiihrt jedoch zu einer betr~chtlichen Steigerung der Komplexit~t. Die prognostizierte kumulierte bedingte Varianz-Kovarianz-Matrix des Vektors der Renditezeitreihen kann bei Verzicht auf autoregressive Terme als Summe der prognostizierten bedingten Varianz-Kovarianz-Matrizen ermittelt werden T

l=l

Im Folgenden werden die Unterschiede der Prognose der bedingten Varianz-Kovarianz-Matrix mit den vorgestellten Modellen dargestellt. Die Prognose mit dem VECH-Modell l~st sich durch sukzessive Rekursion ermitteln, wobei es sich um die erweiterte Betrachtung der bedingten Varianz-Kovarianz-Matrix handelt. Im CCC-Modell und im DCC-Modell setzt sich die Prognose aus den univariaten Prognosen der bedingten Varianz der jeweiligen Renditezeitreihen und der Prognose der bedingten Korrelationsmatrix zusammen. Beim Faktor-Modell und dem OGARCH-Modell basiert die Prognose der bedingten Varianz-Kovarianz-Matrix auf der Prognose der univariaten bedingten Varianzen, da im Faktor-Modell nur ein Marktindex mit dem GARCH-Modell prognostiziert wird beziehungsweise die ermittelten Hauptkomponenten im OGARCH-Modell als orthogonal angenommen werden.

KAPITEL 3. VOLATILITJ4T UND INTERDEPENDENZ

64

Prognose mit dem VECH-Modell Das VECH-Modell weist erhebliche Schwierigkeiten in der Anwendung auf. Dennoch soll an dieser Stelle die Prognose fiir p = 1, q - 1 und zwei Wertpapiere dargestellt werden, da ausgehend von dieser Darstellung die Erkl/irung der alternativen multivariaten GARCH-Modelle und der Zusammenhang zum EWMA-Modell leicht ersichtlich wird. Die 1-Schritt Prognose des VECH-Modells lautet

vech(l:illn) =

h12,1[n h22,1[n

--

"/~2 w3 -}-

Es gilt

+

a21 a22/~23 a31 a32/~33

b21 b22 b23 b31 b32 b33

h 12,n h22,n

~l,nU2,n U2,n 9

! E(u,~+,u,~+,[~n) = H,tn,

woraus die T-Schritt Prognose

vech(I:I~-in)-

't~)2 w3

-[-

a21 -4- b21 ^ a22 -4- b22 ^ a23 + b23 ^ a31 q- b31 t~32 -4- b32/~33 ~- b33

vech(I:I~--lln)

folgt. Bei Anwendung des EWMA-Modells (vgl. Abschnitt 2.5.3) resultiert die folgende einfache Struktur

vech(I:Irln) = vech(I:I21~)=

/100/ 0 10 001

vech(I:Iltn).

Aufbauend auf der Darstellung des VECH-Modells wird im Weiteren die Prognose der bedingten Varianz-Kovarianz-Matrix mit den alternativen multivariaten GARCH-Modellen aufgezeigt.

Prognose mit dem Faktor-Modell Die Zeitver/inderlichkeit der bedingten Varianz-Kovarianz-Matrix des beschriebenen Ein-Faktor-Modells wird durch die zeitver/inderliche bedingte Varianz des gew/ihlten Faktors bestimmt. Die Prognose der bedingten Varianz-Kovarianz-Matrix wird mit Hilfe der gesch/itzten Parameter der

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

65

Mittelwertgleichung la, der gesch/itzten spezifischen Varianz der Renditezeitreihen I' = diag(;yk) und der Prognose der bedingten Varianz des Faktors hrln entwickelt (vgl. hierzu die Prognose mit univariaten GARCH-Modellen in Abschnitt 3.1.3)

Das /iugere Produkt des gesch/itzten Parametervektors la sorgt dafiir, dass die jeweiligen prognostizierten Varianzen beziehungsweise Kovarianzen unterschiedlich stark auf die Ver/inderung der Prognose der bedingten Varianz des Faktors reagieren. Prognose mit dem Constant Conditional Correlation Modell

Durch die Annahme der konstanten Korrelationsmatrix lfisst sich die Prognose im CCC-Modell relativ einfach ableiten. Die Prognose der Varianz-Kovarianz-Matrix wird durch die Prognose der individuellen bedingten Varianzen der einzelnen Wertpapiere bestimmt

IZIlln = I~IInRI~ll n. Die T-Schritt Prognose ist

Explizit dargestellt lautet die T-Schritt Prognose der Varianz-Kovarianz-Matrix fiir drei Wertpapiere

hi l,-rln hll-r n

h22 rlnPi2

lhll,rln M/h22,rlnp12v/hll,rln~/h33,rlnf)13 M/h22,rlnW/h33,rln~ )23

Hierbei wird auf die Prognose der univariaten GARCH-Modelle zuriickgegriffen (vgl. Abschnitt 3.1.3). Bei der Wahl des GARCH(1,1)-Modells resultiert

und

hkk,rln = dO +

(0~1 "b/~l)hkk,'r-Xln,

wobei unterschiedliche Parameter ffir die jeweiligen bedingten Varianzen ausdriicklich zugelassen sind.

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

66

Prognose mit dem 0 G A R C H - M o d e l l Durch die Orthogonalit~t der Hauptkomponenten sind im OGARCH-Modell nur die Varianzen der einzelnen Hauptkomponenten zu prognostizieren, um die prognostizierte bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen zu ermitteln ^

^

^l

I:I~ln = ~E~ln~. Die Diagonalmatrix ]~ln beinhaltet die prognostizierten univariaten bedingten Varianzen der Hauptkomponenten ek,rln = V(Sk,r,+'rlf't")

el,tin

l~.ln

Zur

Bestimmung

der

=

0

0

"'"

e2,~'ln

0

0

9

i

"

0

0

e~,~'ln

prognostizierten bedingten

.

Varianzen

kSnnen

die

Ausffihrungen in Abschnitt 3.1.3 verwendet werden. Prognose mit dem Dynamic Conditional Correlation Modell Bei der Darstellung der Prognose mit dem DCC-Modell kSnnen die Ausfiihrungen zum CCC-Modell als Grundlage genommen werden. Im Unterschied zum CCC-Modell ist beim DCC-Modell die Korrelationsmatrix R/ zeitver~inderlich spezifiziert

= b 1 P t b In. Explizit dargestellt fiir drei Wertpapiere folgt

Die Prognose der bedingten Varianz ]tkk,.r[n kann den Ausfiihrungen zu der Prognose mit univariaten GARCH-Modellen entnommen werden (vgl. Abschnitt 3.1.3). Die Prognose der bedingten Korrelationsmatrix beruht auf der gew~hlten Modellspezifikation

Po~,~-In- ~/goo,~'lng~,7"ln

3.2. M U L T I V A R I A T E

Als Spezifikation

MODELLIERUNG

der Matrix

Gi

67

DER INTERDEPENDENZ

wird in der vorliegenden

Arbeit

das

EWMA-Modell verwendet gop,i = (1 - A)vo,+_ 1Up,i- 1 + )tgop,i- 1.

Es folgt die 1-Schritt Prognose [7op,llrt = (1 -- ,X)9o,n~p,n + )~[7op,n.

Fiir die 7--Schritt Prognose wird die folgende Approximation verwendet fiir l = 1, ..., T.

E(vo,n+lVp,n+llf'tr+) ~ gop,lln,

Damit ist die r-Schritt Prognose gop,rln -- gop,lln"

Im

Unterschied

zum

CCC-Modell

wird

die bedingte

Korrelationsmatrix

durch die komplexere exponentielle Gl/ittung zeitver/inderlich spezifiziert. Die 1-Schritt-Prognose beruht daher auf einer zeitver/inderlichen Modellierung. Die T-Schritt Prognose der bedingten Korrelationsmatrix entspricht der 1-Schritt Prognose (vgl. die Ausfiihrungen zum EWMA-Modell in Abschnitt 2.5.3).

3.2.4

Beurteilung der multivariaten GARCH-Modelle

Multivariate GARCH-Modelle zeichnen sich durch die explizite Modellierung der Interdependenz der Renditezeitreihen aus. Die Varianz-Kovarianz-Matrix wird zeitver/inderlich modelliert. Dadurch werden wesentliche Aspekte, wie beispielsweise die zeitver/inderliche Korrelation in die Betrachtung einbezogen. Dabei muss deutlich zwischen den einzelnen Modellvarianten unterschieden werden. Es gibt Ans/itze, in denen die Flexibilit/it durch eine zu hohe Anzahl an Parametern iiberstrapaziert wird. Dieses ist im VECH-Modell der Fall. Diese Ans/itze sind nicht geeignet, die Problemstellungen der Praxis zu 15sen. Schon bei fiinf einzelnen Wertpapieren ist die Anzahl an Parametern zu hoch, um die problemlose Sch/itzung des Modells zu gew/ihrleisten. Um dieses Problem zu iiberwinden, sind zahlreiche Varianten vorgeschlagen worden. Das Faktor-Modell und das OGARCH-Modell die Reduktion der Anzahl der Risikofaktoren, um dann der bedingten Varianz-Kovarianz-Matrix auf univariate zuriickfiihren zu kSnnen. Durch diese Vorgehensweise wird

fokussieren auf die Gestaltung GARCH-Modelle die Komplexit/it

68

KAPITEL 3. VOLATILITAT UND INTERDEPENDENZ

der Modellierung stark reduziert. Auch das CCC-Modell und das DCC-Modell zielen auf die Komplexittitsreduktion ab, indem die Spezifikation der bedingten Varianz-Kovarianz-Matrix in zwei Schritte zerlegt wird. Durch diese Vorgehensweise kSnnen wiederum univariate GARCH-Modelle zur Beschreibung der bedingten Varianzen genutzt werden. Die Korrelationsmatrix kann darauf folgend im zweiten Schritt ermittelt werden. Damit wird eine angemessene Flexibilit/it der Modellierung erreicht, wobei die Anzahl der Parameter iiberschaubar ist. Das DCC-Modell eignet sich zusiitzlich durch die explizite Modellierung der zeitveriinderlichen Korrelation. Wesentlicher Kritikpunkt an den multivariaten GARCH-Modellen ist generell die hohe Komplexit/it. Im Sinne der sparsamen Parametrisierung der Modellierung sollte der gewiihlte Ansatz so einfach wie mSglich gestaltet sein, ohne wesentliche Charakteristika zu vernachl~sigen. Im Umkehrschluss folgt, dass die multivariaten GARCH-Modelle in der Anwendung zur Berechnung des Value-at-Risk bessere Ergebnisse liefern sollten, um die hShere Komplexit~t zu rechtfertigen. Dieses wird in der empirischen Vergleichsstudie im Kapitel 5 analysiert.

Kapitel 4

Neuere Value-at-Risk Ans itze Neben den in der Praxis verwendeten Ans~tzen (vgl. Abschnitt 2.5) haben sich in den letzten Jahren in der wissenschaftlichen Forschung einige Ideen zur Ausgestaltung des Konzepts Value-at-Risk entwickelt. Empirische Charakteristika der Renditezeitreihen werden bei diesen neueren Ans~tzen verst~irkt einbezogen. Die neueren Ans~tze lassen sich in die Kategorien nicht-parametrische, parametrische und semi-parametrische Ans~tze unterteilen (vgl. Abschnitt 2.3). Bei den nicht-parametrischen Ans~tzen steht die Entwicklung von Gewichtungsstrukturen ffir die historische Renditezeitreihe im Vordergrund (vgl. Abschnitt 4.1). Die parametrischen Ans~tze profitieren insbesondere vonder Modellierung der Volatilit~t und Interdependenz mit GARCH-Modellen (vgl. Kapitel 3). Hierbei werden unterschiedliche Verteilungsannahmen betrachtet. Die Berechnung des Value-at-Risk aus der multivariaten Betrachtungsweise mit Hilfe der vorgestellten GARCH-Modelle erweitert das vorhandene Spektrum an Ans~tzen (vgl. Abschnitt 4.2). Die semi-parametrischen Ans~tze greifen auf weniger restriktive Verteilungsannahmen zur Modellierung des Value-at-Risk zurfick. Zur Ausgestaltung dieser Ans~tze kSnnen die Extremwerttheorie und das Bootstrap-Verfahren verwendet werden, die zur Berechnung des Value-at-Risk in den GARCH-Kontext integriert werden. Ein weiterer semi-parametrischer Ansatz ist die direkte Modellierung des interessierenden Quantils der Renditeverteilung durch ein autoregressives Modell (vgl. Abschnitt 4.3). Ziel dieses Kapitels ist die umfassende Darstellung und Weiterentwicklung der oben genannten Ideen und Ans~tze. Insbesondere wurden die meisten Ans~itze bisher nur hinsichtlich der Nutzung ffir die 1-Schritt Value-at-Risk Prognose entwickelt. Die 10-Schritt Prognose soll in den n~chsten Abschnitten detaillierter dargestellt werden, wobei nicht nur die 10-Schritt Value-at-Risk Prognose auf

70

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

Grundlage der Normalverteilung, sondern auch 10-Schritt Prognosen basierend auf Simulationsverfahren vorgestellt werden. Auf,erdem werden die vorgestellten Varianten der multivariaten GARCH-Modelle zur Berechnung des Value-at-Risk in die neueren Ans~tze einbezogen. Durch diese konsequente Ausweitung auf die 10-Schritt Prognose und die multivariate Betrachtungsweise entstehen Ans~itze, die eine Neuerung darstellen. Es wird die ,,Generalized Error Distribution" zur Simulation der 10-Schritt Renditeverteilung bei unterstelltem GARCH-Modell genutzt (vgl. Abschnitt 4.2.2), eine MSglichkeit zur Verwendung der CAViaR-Modelle zur 10-Schritt Prognose aufgezeigt (vgl. Abschnitt 4.3.1), das CCC-Modell zur Ableitung der 10-Schritt Value-at-Risk Prognose mit Simulationsverfahren verwendet (vgl. Abschnitt 4.3.2), die Faktor-GARCH- und OGARCH-Modelle zur 1-Schritt und 10-Schritt Value-at-Risk Prognose in entsprechende Ans~itze integriert (vgl. Abschnitt 4.2.1) und die Simulation der zukiinftigen Renditeverteilung zur Value-at-Risk Prognose aus der historischen Renditezeitreihe mit Gewichtungsfaktoren vorgenommen (vgl. Abschnitt 4.1). Die weiterentwickelten Ans~itze liefern die Grundlage fiir die empirische Vergleichsstudie im fiinften Kapitel. Damit ist ein umfassender Vergleich der konkurrierenden Value-at-Risk Ans~itze mSglich, der den Entscheidungstr~gern in Finanzinstituten, AufsichtsbehSrden und Unternehmen jeglicher Art eine Abw~igung zwischen Vor- und Nachteilen der einzelnen Ans~itze ermSglicht. In diese Abw~gung werden sowohl die vorhandenen Ans/itze in der Praxis, als auch eine umfassende Auswahl von Ans~itzen aus der aktuellen Forschung einbezogen. Damit kann insbesondere im Hinblick auf die Anforderungen der Basel II-Richtlinien aus einer Vielzahl interessanter Ans~tze ausgew~hlt werden. Der fiir die jeweilige Unternehmenssituation geeignete Ansatz erfasst dabei wesentliche Aspekte der Finanzmarktzeitreihen.

4.1

Nicht-parametrische Ans~itze

Das Ziel der nicht-parametrischen Ans~itze ist es, den Value-at-Risk ohne Verteilungsannahme fiir die Renditezeitreihe zu berechnen. Die historische Simulation wurde als nicht-parametrischer Ansatz im Abschnitt 2.5.2 vorgestellt. Im Folgenden wird das Grundkonzept der historischen Simulation erweitert. Die Erweiterungen beruhen auf der Ermittlung des Quantils aus der historischen Renditezeitreihe. Dabei wird keine einheitliche Gewichtung der letzten n historischen Renditen vorgenommen, sondern es wird eine Gewichtungsstruktur

4.1.

NICHT-PARAMETRISCHE

71

ANSfi.TZE

verwendet, die den jeweiligen historischen Renditen mehr oder weniger Gewicht einrgumt. Es seien r l , r 2 , . . . , r n die letzten n historischen Renditen am aktuellen Rand der Zeitperiode n. Zu diesen historischen Renditen werden die Gewichtungsfaktoren ei (i = 1, ..., n) zugeordnet rl

r 2 ... r n - 1

~1 s

... s

rn s

Die Gewichtungsfaktoren sollten dabei die Bedingung y]i~=l ei = 1 einhalten. Fiir 1 das heigt es werden das Grundkonzept der historischen Simulation gilt: ei = ~, die n historischen Renditen gleichgewichtet beriicksichtigt. Zur Durchfiihrung der 1-Schritt Prognose mit Beachtung der Gewichtungsfaktoren kann als Ausgangspunkt die Ordnungsstatistik der n historischen Renditen gebildet werden r(1),...,r(n) 9

Die dazugehSrigen Gewichtungsfaktoren ei werden zur Ermittlung des a-Quantils aufsummiert bis der Wert a erreicht ist. Das a-Quantil wird durch Interpolation der zwei relevanten Werte r(0 und rq+l) berechnet (vgl. das Vorgehen in Abschnitt 2.5.2). Das beschriebene Vorgehen kann veranschaulicht werden, indem die empirische Verteilungsfunktion ~(x) unter Berficksichtigung der Gewichtungsfaktoren ei mit der Indikatorfunktion I aufgestellt wird n

=


0. Fiir v = 1 resultiert die Laplace-Verteilung als Spezialfall, fiir v - 2 die Normalverteilung und fiir v ~ c~ die Rechteck-Verteilung. Die theoretische Kurtosis K der GED-Verteilung (vgl. Gleichung 2.4) ist g = F(~

(4.2)

9

Daraus folgt zusammenfassend, dass fiir v < 2 eine hShere Kurtosis verglichen mit der Normalverteilung beziehungsweise fiir v > 2 eine geringere Kurtosis gilt (vgl. Hamilton [55], S. 669). Da die standardisierten Residuen vi der GARCH-Modellierung folgend einen Erwartungswert von Null und eine Varianz von Eins aufweisen, wird zun~chst eine normierte Version der GED-Verteilung hergeleitet. Die normierte Dichte kann durch die Festlegung der Parameter a = 0 und b2 = 1 ermittelt werden. Damit folgt die normierte Darstellung der GED-Verteilung vexp [- 89 ]~]~]

r

f(x)-

(4.3)

)

mit

1_ =

Zur Integration der GED-Verteilung gibt es zwei MSglichkeiten. Zum einen kann der zus~tzliche Parameter v durch die Maximum-Likelihood Methode gesch/itzt werden. Dafiir wird fiir die standardisierten Residuen vi die Annahme der GED-Verteilung getroffen vi "~ i.i.d. GED(0,1, v). Daraus folgt bei der Aufstellung des GARCH-Modells die bedingte Verteilung der Renditezeitreihe rilai_l

GED(#i, hi, v).

,~

Die Optimierung der Log-Likelihood Funktion erfolgt in Analogie zu den Darstellungen in Abschnitt 3.1.2 mit dem Unterschied, dass die Dichte der GED-Verteilung aus Gleichung 4.1 die Normalverteilung ersetzt n

In L(~) = E l n i=1

f(rilgti_l; ~b).

4.2. P A R A M E T R I S C H E ANSf4.TZE

87

Aus der Optimierung dieser Log-Likelihood Funktion resultiert unter anderem der gesch~tzte Parameter/,, der dann zur Berechnung des Value-at-Risk genutzt werden kann. Dieser Sch/itzung des Parameters sou in der vorliegenden Arbeit nicht gefolgt werden, da dutch die Annahme der GED-Verteilung ffir die standardisierten Residuen eine weitere Annahme fiber die richtige Spezifikation des Modells gesetzt wird. Das Resultat dieses Vorgehens kann ein infiniter Regress sein. Die Annahme der komplexeren Verteilung der standardisierten Residuen kann zu einer Fehlspezifikation des Modells und darnit zu einer vermeintlich genaueren Sch/itzung ffihren. Die Integration der GED-Verteilung wird stattdessen fiber die Nutzung der Momentenmethode (vgl. Johnston/DiNardo [65], S. 328 f.) vorgenommen. Dabei wird das GARCH-Modell mit der Normalverteilungsannahme der standardisierten Residuen vi gesch/itzt. Die Einbeziehung der GED-Verteilung folgt im zweiten Schritt nach der Sch/itzung. Dabei werden die gesch/itzten standardisierten Residuen ~?i analysiert. Die empirische Kurtosis kann durch die GED-Verteilung modelliert werden. Die Verteilungsannahme ffir die geschiitzten standardisierten Residuen ~)i ~ i.i.d. GED(0, 1, u)

(4.4)

beeinflusst bei diesem Vorgehen nicht die Sch/itzung des Modells, sondern sie wird erst auf Grundlage der Ergebnisse der Sch/itzung verwendet. Zur Schgtzung des Parameters v mit der Momentenmethode wird die theoretische Kurtosis mit der empirischen Entsprechung gleichgesetzt (vgl. Gleichung 2.5 und Gleichung 4.2) !

_

n i=1

5

1

(4.5)

8~)

mit 2

1

n

-

1

n

s~ = n - 1 E (vi _~)2 und ~= -E~i.n i=1

i=l

Der gesch/itzte Wert des Parameters t) erffillt Gleichung 4.5, welche problemlos durch Nutzung von Software gelSst werden kann. Es folgt der geschgtzte 1-Schritt Value-at-Risk (mit der Verteilungsannahme aus Gleichung 4.4) A

VaR(c~)ll~ = Pn

1 - exp fil}n + Oa,r,

88

KAPITEL

4. N E U E R E

VALUE-AT-RISK

ANSATZE

wobei 0a,a das a-Quantil der GED-Verteilung mit dem gesch/itzten Parameter ist. Zur Ermittlung des 10-Schritt Value-at-Risk wird dieser Ansatz durch Nutzung des in Abschnitt 4.2 dargestellten Simulationsverfahrens vervollst~ndigt. Hierbei soll zur Modellierung der Renditezeitreihe weiterhin das GARCH(1,1)-Modell mit einer Konstanten zur Beschreibung des Mittelwerts genutzt werden rn+l -- # + V/hn+lVn+l, hn+ 1 : olo + Otl ~1,2 + ~1 hn.

Zur Simulation der Vn+T werden Zufallszahlen der gesch~tzten GED-Verteilung gezogen ~j,n+r ~ i.i.d. GED(0,1, ~), j = 1, 2, ..., g. Im Weiteren kann auf die Ausfiihrungen zum Simulationsverfahren in Abschnitt 4.2 zuriickgegriffen werden. Die simulierte kumulierte 10-Schritt Renditeverteilung wird durch die Annahme der GED-Verteilung fiir die gesch~tzten standardisierten Residuen beeinflusst. Dabei ist denkbar, dass bei einer hSheren Kurtosis der gesch~tzten standardisierten Residuen im Vergleich zur Simulation mit der Normalverteilungsannahme eine kumulierte 10-Schritt Renditeverteilung mit hSherer Kurtosis entsteht. Das gesch~itzte empirische Quantil ~(a) (vgl. Gleichung 2.16) der simulierten Renditeverteilung rj,n+lO wird anschliegend zur Berechnung des 10-Schritt Value-at-Risk genutzt Y~"-~(~)lOl~ = p~(1 - ~xpW(~)lOl~)).

In der empirischen Vergleichsstudie sollen die vorgestellten Ans~tze vor allem hinsichtlich der Auswirkungen auf die Anzahl der (lberschreitungen der Value-at-Risk Prognosen und die resultierende Eigenkapitalanforderung miteinander verglichen werden.

4.3

Semi-parametrische Ans~itze

Die semi-parametrischen Ans~tze kombinieren zur Berechnung des Value-at-Risk die Grundideen der parametrischen und nicht-parametrischen Ans~tze. Bei semi-parametrischen Ans~tzen wird eine Modellierung in Abh~ngigkeit von Parametern gew~hlt, jedoch sind die Annahmen beziiglich des Modells weit weniger restriktiv als die eines parametrischen Ansatzes. Insbesondere die Verteilungsannahmen werden nicht restriktiv festgelegt. Dadurch wird versucht,

4.3. SEMI-PARAMETRISCHE ANSJ4TZE

89

die Vorteile des Verzichts auf Verteilungsannahmen der nicht-parametrischen Ans~itze (beispielsweise historische Simulation) mit den Vorteilen einer sparsamen Parametrisierung des Quantils beziehungsweise der Volatilit~t zu verbinden. In der vorliegenden Arbeit werden drei semi-parametrische Ans~itze vorgestellt und angewendet. Die direkte Modellierung des interessierenden Quantils beruht auf einem Beitrag von Engle und Manganelli [39]. Dabei wird das Quantil der Renditeverteilung durch eine zeitver~nderliche autoregressive Modellierung dargestellt, wobei keine weiteren Annahmen fiber die Renditeverteilung notwendig sind. Die Parameter dieses Ansatzes werden mit Hilfe der Quantilsregression gesch~itzt (vgl. Abschnitt 4.3.1). Als zweiter Ansatz wird die GARCH-Modellierung in Kombination mit der Anwendung des Bootstrap-Verfahrens dargestellt. Die Berechnung des Value-at-Risk unter Einbeziehung der GARCH-Modellierung der Volatilit~it und der Interdependenz der Renditezeitreihen wird dabei in Analogie zu den Ans~tzen des Abschnitts 4.2 vorgenommen. Der wesentliche Unterschied besteht in der Annahme fiber die Verteilung der standardisierten Residuen. W~hrend bei den parametrischen Ans~itzen eine bestimmte Verteilung (beispielsweise Normalverteilung oder GED-Verteilung) angenommen wird, kann bei der Anwendung des Bootstrap-Verfahrens darauf verzichtet werden. Zur Ermittlung des Value-at-Risk wird die gesch~itzte empirische Verteilung der standardisierten Residuen herangezogen. Das Bootstrap-Verfahren generiert durch das Ziehen ohne Zuriicklegen Zufallszahlen aus den gesch~tzten standardisierten Residuen, um aus diesen die interessierende Renditeverteilung zu ermitteln (vgl. Abschnitt 4.3.2). Als Abwandlung dieses Vorgehens wird die GARCH-Modellierung mit Anwendung der Extremwerttheorie vorgestellt. Bei diesem Ansatz wird auch auf das Bootstrap-Verfahren zuriickgegriffen. Allerdings wird dieses nicht fiir die gesamte Verteilung der standardisierten Residuen angewendet. Der interessierende Rand der Verteilung der standardisierten Residuen wird durch eine Extremwertverteilung (Generalisierte Pareto Verteilung) modelliert. Durch diesen Ansatz wird der fiir die Value-at-Risk Berechnungen wichtige Aspekt der H~ufung extrem negativer Renditen explizit beriicksichtigt (vgl. Abschnitt 4.3.3).

4.3.1

Direkte Modellierung durch Quantilsregression

Die direkte Modellierung des interessierenden Quantils der Renditeverteilung wurde 2004 von Engle und Manganelli [39] vorgeschlagen. Die Entwicklung des Quantils wird dabei zeitver~inderlich durch einen autoregressiven Prozess

90

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

spezifiziert. Daraus resultiert der Name ,,CAViaR" (Conditional Autoregressive Value-at-Risk) dieses Ansatzes. Durch diese direkte Parametrisierung des Quantils wird vermieden, die gesamte Verteilung der Renditezeitreihe zu bestimmen. Motiviert ist dieser Ansatz durch die Erkenntnisse zur zeitver~inderlichen Volatilit~it, die zur Modellierung des zeitver~inderlichen Quantils fibertragen werden. In der allgemeinen Form des CAViaR-Modells wird das bedingte c~-Quantil des Zeitpunkts i + 1 als Funktion des Vektors mSglicher beschreibender Variablen xi mit dem Informationsstand ~i und dem Parametervektor/3 dargestellt q(a)lli = f(xi, f}),

i

=

1, ..., n.

Diese allgemeine Form wird durch die ermittelten bedingten Quantile vorangegangener Zeitperioden und weiterer Variablen, wie beispielsweise der Renditezeitreihe, konkretisiert. Dabei ist anzumerken, dass das Quantil einer Zeitperiode i nicht beobachtbar ist. Daher beruht der Ansatz auf einem Startzeitpunkt, um die zeitver~inderliche Entwicklung des Quantils einzuleiten. Der Wert des Quantils zum Startzeitpunkt kann durch die Sch~itzung des empirischen Quantils (~(a) (vgl. Gleichung 2.16) bestimmt werden. Daraus folgt, dass der Verlauf des bedingten Quantils vom Parametervektor f~ abh~ingt p q ( c ~ ) l ] i - --~0 +

q

~ [3jq(o~)i-j+l -- Z ~p+kf(Xi-k+, ) j--1 k-1

mit f als Funktion der Variablen xi. Die allgemeine Modellierung kann zum Modell erster Ordnung Beriicksichtigung der Rendite der Zeitperiode i reduziert werden

unter

q(c0,1i = -f~o + fllq(c~)i- f~2f(ri). Der autoregressive Term ~lq(a)i sorgt ffir die Gl~ittung im Zeitverlauf. Der Term ~2f(ri) ist hingegen fiir die Aktualisierung des bedingten Quantils hinsichtlich der neuen Information der Renditezeitreihe r im Zeitpunkt i zust~indig. Die Spezifikation sollte dazu ffihren, dass q(a)lii absinkt, wenn ri einen extrem negativen Wert aufweist. Auch die Wirkung extrem positiver Werte kann auf diese Weise modelliert werden, sodass es zu einem Absinken des bedingten Quantils kommt. Dieses l~st sich durch den vermuteten Anstieg der Volatilit~it (in Analogie zu den GARCH-Modellen) begriinden. Um die Stationarit/it der gew/ihlten Modellierung zu erreichen, gilt die Bedingung fiir autoregressive Modelle (vgl.

4.3. S E M I - P A R A M E T R I S C H E

91

ANSATZE

Pindyck/Rubinfeld [91l, s. 535) p

E~j j=l

< 1.

Eine einfache Ausgestaltung der funktionalen Form f kann wie folgt gew~hlt werden q(C~)l[i- -fl0 + fJlq(a)i - [321ri[. Diese Ausgestaltung wird als ,,Symmetric absolute value" (SAV) bezeichnet, da keine Unterscheidung hinsichtlich der Wirkung auf d ~ bedingte Quantil der aktuellen Zeitperiode zwischen positiver und negativer Rendite der Vorperiode getroffen wird. Diese Variante kann auch mit asymmetrischer Wirkung der Rendite der Vorperiode spezifiziert werden (,,Asymmetric Absolute Value", AAV) q(a)l]i -- -/30 +/31q(a)i- f~2lri- f131. Eine weitere MSglichkeit der Ausgestaltung ist die adaptive Gestaltung des bedingten Quantils. Dabei kann diese Ausgestaltung mit einer gegl~tteten Treppenfunktion verglichen werden. Das bedingte Quantil wird bei Unterschreitungen des bedingten Quantils der Vorperiode (d.h. kleinerer Wert der Rendite) deutlich gesenkt, jedoch bei Oberschreitung des Quantils leicht erhSht q(a)lli = q(a)i - ~3 ((1 + exp (G[ri - q(a)i]))-' - a) mit G E ]R+. Fiir G ~ oc folgt (vgl. Engle/Manganelli [39], S. 369)

r

= q ( ~ ) ~ - Z [I(~ < q(~)~) - ~l

mit der Indikator-Funktion I. Eine weitere MSglichkeit der adaptiven Ausgestaltung wird mit ,,Proportional Symmetric Adaptive" (PSA) bezeichnet q(a)lli = q(a)i -/31 max (0, [ri[ + q(a)i)

-

132

min (0, [ri[ + q(a)i) 9

Hierbei wird wiederum, wie in einem Lernprozess, auf die 0ber- beziehungsweise Unterschreitungen der letzten Zeitperiode reagiert. Die Ausgestaltung ,,Asymmetric slope" (AS) ffigt in Analogie zum TGARCHbeziehungsweise GJR-GARCH-Modell (vgl. Abschnitt 3.1.1) die asymmetrische Wirkung der Rendite der Vorperiode hinzu. Hierdurch kann eine negative Rendite der Vorperiode eine andere Wirkung als eine positive Rendite der Vorperiode entfalten q(Ct)X[i -- --fl0 q- fllq(a)i q- J~2 max(0,

ri)

+ J~3 min(0, ri).

92

KAPITEL 4. NEUERE VALUE-AT-RISK ANSfi, TZE

Die vorgestellten Ans~tze kSnnen fiber die Nutzung der Quantilsregression gesch~tzt werden. Die Quantilsregression wurde von Koenker/Bassett [68] entwickelt und kann als Erweiterung der klassischen Kleinst-Quadrate Regression angesehen werden. Statt nur den bedingten Mittelwert zu sch~tzen, ist es mSglich, zus~tzlich bedingte Quantile zu sch~itzen. Der Spezialfall der Quantilsregression ist die Schiitzung des Medians, welche durch Minimierung der Summe der absoluten Abweichungen der Renditezeitreihe durchgeffihrt wird. Die Sch/itzung der bedingten Quantile erfolgt in Analogie durch die Minimierung der Summe der asymmetrisch gewichteten absoluten Abweichungen der Renditezeitreihe. Die Sch~tzung der gesuchten Parameter /5 erfolgt fiber die Optimierung der folgenden Zielfunktion (vgl. Engle/Manganelli [39], S. 369) minQR(~) = m~n _ 1 ~

(I[u < q(c~,r

c~) (r~- q(c~,r

)

,

ni= 1 wobei die Indikatorfunktion I die Werte Eins bzw. Null bei Erffillung bzw. Nichterffillung der dargestellten Bedingung annimmt. Die Zielfunktion ffihrt zu einer asymmetrischen Gewichtung der Abweichungen der Renditezeitreihe von dem bedingten Quantil. Eine Unterschreitung des Quantils durch eine sehr kleine Rendite ffihrt zu dem Wert 1 der Indikatorfunktion. Dadurch nimmt der erste Term I[ri < q(c~,~)lli-1]- c~ der Zielfunktion bei c~ = 0, 01 den Wert 0, 99 an. Dieser Wert wird mit einem negativen Weft des zweiten Terms r i - q(c~,/3)11i-1 multipliziert. Unter Berficksichtigung des negativen Vorzeichens der Zielfunktion ergibt sich insgesamt ein positiver Wert. Hingegen fiihrt die Uberschreitung des Quantils zu einem Wert von -0, 01 des ersten Terms und einem positiven Wert des zweiten Terms, woraus insgesamt letztendlich ein positiver Wert resultiert. Dutch die asymmetrische Gewichtungsstruktur, hervorgerufen durch den ersten Term, ffihrt folglich die Minimierung der Zielfunktion zu dem gesuchten optimalen Parametervektor/~

~ = r~nQR(~). Problematisch bei dieser Vorgehensweise ist, dass die Zielfunktion nicht differenzierbar ist. Daher kSnnen zur Optimierung die traditionellen Optimierungsalgorithmen unter Berficksichtigung der ersten oder auch zweiten Ableitungen nicht angewendet werden. Eine LSsungsalternative bietet beispielsweise der Nelder-Mead Algorithmus [86], der nur Funktionswerte zur Optimierung verwendet, dadurch jedoch relativ langsam ist. In der vorliegenden Arbeit wird der Algorithmus der Funktion ,,optim" des Software-Pakets ,,R" genutzt. Die gesch~tzten Parameter ~ sind konsistent und asymptotisch normalverteilt (vgl. Engle/Manganelli [39], S. 369).

4.3. SEMI-PARAMETRISCHE ANSATZE

93

Die Ermittlung der 1-Schritt Prognose des gesuchten bedingten Quantils kann mit den gesch~itzten Parametern basierend auf dem Informationsstand zum Zeitpunkt n wie folgt vorgenommen werden q(~)lln - f(xn, 3). Fiir das SAV-Modell resultiert die 1-Schritt Prognose des c~-Quantils (~(~)l]n -" - - s

+ ~lq(C~)n -- ~2lrn] 9

Die 1-Schritt Value-at-Risk Prognose folgt mit

UaR(a)lln = pn(1 - exp(~(a)lln)). Zur Beurteilung des CAViaR-Modells liisst sich sagen, dass die zu treffenden Annahmen schwiicher als die eines GARCH-Modells sind. Beispielsweise wird nicht wie im GARCH-Modell angenommen, dass die standardisierten Residuen vi identisch und unabhiingig verteilt (i.i.d.) sind. Allerdings stellen sich konzeptionelle Schwierigkeiten hinsichtlich der Ermittlung des Quantils der kumulierten 10-Schritt Renditeverteilung ein. Die kumulierte 10-Schritt Renditeverteilung ergibt sich aus der Summation der 10 aufeinanderfolgenden Renditen (vgl. Gleichung 2.9). Der CAViaR-Ansatz ermSglicht in der bisherigen Form nur die Ermittlung des 1-Schritt Quantils. Als LSsungsmSglichkeit kann die Zeitreihe der kumulierten 10-Schritt Renditen gebildet (vgl. Abschnitt 2.5.2) und dann anschlie~end das vorgestellte Konzept auf die transformierte Renditezeitreihe angewendet werden. Jedoch verringert sich die Anzahl der Beobachtungen dadurch auf 10% der vorherigen L~inge der Renditezeitreihe. Zur Anwendung in der empirischen Vergleichsstudie wird in der vorliegenden Arbeit eine andere LSsungsmSglichkeit dieses konzeptionellen Problems genutzt, indem die durch die Basel II-Richtlinien erlaubte Skalierung

q(~

= v/~q(~)l],~

verwendet wird. Diese Vorgehensweise beruht zwar auf restriktiven Annahmen hinsichtlich der Renditezeitreihe (vgl. Abschnitt 2.4.2), jedoch wird dadurch die Ermittlung der 10-Schritt Value-at-Risk Prognosen ermSglicht. Damit wird ein erster umfassender Vergleich der CAViaR-Ansiitze mit den vorgestellten alternativen Value-at-Risk Ansiitzen gewiihrleistet. Die Ermittlung des Berechnungsschema

10-Schritt Value-at-Risk

erfolgt durch

UaR(a)lOln - pn(1 - exp(q(a)lOtn)).

das fibliche

94

4.3.2

KAPITEL 4. NEUERE VALUE-AT-RISK ANSJ~TZE

GARCH-Modellierung mit Bootstrap-Verfahren

Die Berechnung des Value-at-Risk unter Einbeziehung der GARCH-Modelle zur Modellierung der Volatilit~it kann ohne konkrete Festlegung der Verteilung der gesch~itzten standardisierten Residuen erfolgen. Dieser Ansatz wird in der Regel den semi-parametrischen Ans~tzen zugeordnet. Zur Ausgestaltung der Berechnung wird das Bootstrap-Verfahren verwendet (vgl. Davison/Hinkley [29], S. 22), das heigt es werden zuf~illig Beobachtungen mit Zuriicklegen aus der Historie gezogen, um die gesuchte Value-at-Risk Prognose aus der simulierten Renditeverteilung zu ermitteln. Dabei wird dieses Vorgehen im Rahmen der GARCH-Modelle angewendet. An die Renditezeitreihe wird zun~ichst ein GARCH-Modell angepasst. Die resultierenden gesch/itzten standardisierten Residuen werden anschlief, end als Basis fiir das Bootstrap-Verfahren genutzt. Es wird dabei angenommen, dass die gesch~itzten standardisierten Residuen unabh~ngig und identisch verteilt (i.i.d.) sind, da unter dieser Bedingung die Voraussetzungen zur Anwendung des Bootstrap-Verfahrens erfiillt sind. Die Grundidee dieses Ansatzes geht auf Barone-Adesi, Giannopoulos und Vosper [10] zuriick, die ihr Vorgehen als ,,Filtered Historical Simulation" bezeichneten, um die Verbindung der GARCH-Modelle mit der historischen Simulation zu betonen. Zur Ausgestaltung dieses Ansatzes wird das GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung verwendet rn+l

-- ~ 9

~hn+lVn+l, 2

hn+ 1 = c~o + al un +/31 hn. Die Parameter des Modells werden, wie in Abschnitt 3.1.2 dargestellt, durch die 2-Schritt Vorgehensweise gesch~itzt. Mit diesem gesch~tzten Modell werden die gesch~tzten standardisierten Residuen gebildet ri - t2

i = 1, 2,...,n

mit der Anzahl n der zur Sch~itzung genutzten Beobachtungen. Zur Berechnung des 1-Schritt Value-at-Risk wird auf die explizite Annahme einer Verteilung verzichtet. Stattdessen wird die empirische Verteilung der gesch~tzten standardisierten Residuen verwendet. Dieses Vorgehen vermeidet Fehlspezifikationen des Value-at-Risk aufgrund einer falschen Verteilungsannahme. Es sei ks das gesch/itzte empirische Quantil der gesch~tzten standardisierten Residuen. Die Berechnug von ks kann durch die in Abschnitt 2.5.2 dargestellte

4.3. S E M I - P A R A M E T R I S C H E

ANSJ{TZE

95

Sch~itzung des Quantils (}(a) aus empirischen Beobachtungen vorgenommen werden =

Daraus resultiert die 1-Schritt Value-at-Risk Prognose mit

A

V a R ( a ) 1 6 n = Pn

(

1 - exp Plln + ka

Alternativ hierzu kann fiir die 1-Schritt Prognose das Bootstrap-Verfahren genutzt werden. Dabei wird das Simulationsverfahren (vgl. Abschnitt 4.2) zur Ermittlung der Verteilung der 1-Schritt Rendite genutzt. Es werden die simulierten standardisierten Residuen vj,n+l,

j = 1,2,...,N

nicht aus einer Verteilung, sondern aus den historischen Beobachtungen der gesch~itzten standardisierten Residuen vi gezogen. Mit N Ziehungen (mit Zuriicklegen) wird jeweils die simulierte Rendite

gebildet. Aus dieser simulierten 1-Schritt Renditeverteilung kann dann direkt das gesuchte quantil q(a)lln gesch~itzt werden

q(~)lln = {}(0~,~,n+l). Fiir die 1-Schritt Value-at-Risk Prognose gilt V a R ( a ) x l n = pn(1 - exp(q(a)lln)).

Beide Vorgehensweisen basieren auf der empirischen Verteilung der geschiitzten standardisierten Residuen, sodass mit sehr ~ihnlichen Value-at-Risk Prognosen zu rechnen ist. Die Berechnung des 10-Schritt Value-at-Risk kann durch das vorgestellte Simulationsverfahren (vgl. Abschnitt 4.2) vorgenommen werden. Hierzu werden die benStigten standardisierten Residuen vn+~- wiederum unter Anwendung des Bootstrap-Verfahrens aus den gesch~tzten standardisierten Residuen ~)i gezogen i3j,n+r,

j = 1, 2, ..., N.

Die kumulierte 10-Schritt Renditeverteilung wird anhand des Vorgehens in Abschnitt 4.2 simuliert, woraus mit dem gesch~itzten Quantil O(a)loln =

96

K A P I T E L 4. N E U E R E V A L U E - A T - R I S K A N S / 4 T Z E

~(a, rj,n+lo) der simulierten kumulierten Renditeverteilung ?j,n+lo der 10-Schritt Value-at-Risk ermittelt wird A

Van(a)lOln = pn(1 - exp(q(a)loln)).

Auch bei der GARCH-Modellierung mit Bootstrap-Verfahren soll die univariate Betrachtungsweise auf die multivariate Darstellung ausgeweitet werden. Mit der Modellierung der multivariaten Renditezeitreihe (vgl. Abschnitt 4.2.1) ri = # + u i und der GARCH-Spezifikation des Vektors der Innovationen 1

ui = H/2vi kann generell das multivariate Simulationsverfahren genutzt werden. Fiir den simulierten T-Schritt Renditevektor gilt ~! 2

~

.

f;j,n+r = ~ + Hj,n+.,-v3,n+r,

wobei sich die simulierte bedingte Varianz-Kovarianz-Matrix I:Ij,n+r durch Rekursion aus dem Kenntnisstand der Vorperiode ermitteln 1/isst:

~Ij,~+~ = f(%,~+~_x, nj,~+~_~, %). Im Unterschied zur Simulation unter Annahme der multivariaten Normalverteilung in Abschnitt 4.2.1 wird der Vektor der simulierten standardisierten Residuen r162 aus den historischen Beobachtungen der gesch/itzten standardisierten Residuen ~'i gezogen. Dabei wird ein Zeitfenster der L~inge n verwendet. Zur Anwendung des Bootstrap-Verfahrens wird zuf/illig eine Zahl s aus der Historie 1,...,n gezogen. Der entsprechende Vektor der gesch/itzten standardisierten Residuen ~'s stellt dann den Zufallsvektor Vj,n+'r zur Durchfiihrung der Simulation dar. Dieses Vorgehen soll in der vorliegenden Arbeit unter Verwendung des CCC-Modells (vgl. Abschnitt 3.2.1) detailliert werden. Die bedingte Varianz-Kovarianz-Matrix ist im CCC-Modell wie folgt spezifiziert Hi = DiRDi mit D 2 = diag(E(u~,i[f/i_,)) und der bedingten Korrelationsmatrix R. Fiir die standardisierten Residuen vi gilt (vgl. Abschnitt 3.2.1)

4.3. S E M I - P A R A M E T R I S C H E

ANSJ~TZE

97

Hieraus l~isst sich eine wesentliche Vereinfachung des dargestellten Simulationsverfahrens ableiten. Denn fiir die Innovationen ui gilt die Darstellung ui = D i v i 9

Die bedingte Varianz-Kovarianz-Matrix ist E ( u i u i 'If/i_ 1) - E(Di v i v i 'D i If~i_1) -- DiRDi.

Aus dieser Darstellung folgt fiir den simulierten T-Schritt Renditevektor unter Zugrundelegung des CCC-Modells f~j,n+r = ~ + Dj,n+r~Cj,n+r 9

In der Matrix [)j,n+r sind auf der Diagonalen die Quadratwurzeln der simulierten bedingten Varianzen der m Renditezeitreihen zusammengefasst. Daraus folgt, dass die standardisierten Residuen ;r aus der multivariaten empirischen Verteilung der gesch~itzten standardisierten Residuen zu ziehen sind, ansonsten aber wie bei der Simulation m einzelner Renditezeitreihen vorgegangen werden kann. Die Korrelationsstruktur der gesch~itzten standardisierten Residuen schl~gt sich bei diesem Vorgehen in der simulierten bedingten Varianz-Kovarianz-Matrix der Renditezeitreihen nieder. Die Komplexit~it dieses Ansatzes ist dabei weitaus geringer als bei der Anwendung des generellen multivariaten Simulationsverfahrens. Aus der aggregierten simulierten kumulierten 10-Schritt Renditeverteilung ca' (~-~1r~ rj,n+~) kann das empirische Quantil ~(c~) gesch~itzt werden \

f

(vgl. Gleichung 2.16)

Der 10-Schritt Value-at-Risk des Portfolios ist V a ~ ( a ) l O l n - pn(1 - exp(0(a)loln)).

Dieser Ansatz zur Berechnung des Value-at-Risk soll in der empirischen Vergleichsstudie mit den anderen alternativen BerechnungsmSglichkeiten verglichen werden. Dabei kombiniert insbesondere der Ansatz unter Einbeziehung des CCC-Modells die Flexibilit~it der zeitver~inderlichen Varianz-Kovarianz-Matrix mit Simulationsverfahren, die weniger anfiillig fiir Fehlspezifikationen sind.

KAPITEL 4. NEUERE VALUE-AT-RISK ANS.;iTZE

98

4.3.3

GARCH-Modellierung mit Extremwerttheorie

Die Extremwerttheorie (EVT) besch~iftigt sich mit der Analyse und Modellierung extremer Ereignisse. Besonders im Finanzdienstleistungssektor gibt es Problemstellungen, die mit der Extremwerttheorie bearbeitet werden khnnen. Ein Beispiel dafiir sind selten auftretende Schadensfiille mit extremen Konsequenzen (beispielsweise Umweltkatastrophen) im Versicherungswesen. Das Ziel der Extremwerttheorie ist es, die R~inder einer Wahrscheinlichkeitsverteilung durch ein parametrisches Modell zu beschreiben. Insbesondere fiir die Value-at-Risk Berechnung ist diese Betrachtungsweise relevant. Als Standardreferenz zur Extremwerttheorie sei auf das Buch der Autoren Embrechts, Kliippelberg und Mikosch ([33], im weiteren abgekiirzt durch EKM) verwiesen. Die zugrundeliegende Theorie geht v o n d e r Modellierung unabhiingiger und identisch verteilter (i.i.d.) Zufallsvariablen aus. Die direkte Anwendung der Erkenntnisse der Extremwerttheorie auf die Renditezeitreihen ist mit Skepsis zu betrachten. Die nachgewiesenen Abh~ingigkeiten hinsichtlich der zeitver/inderlichen Volatilitiit der Renditezeitreihen widersprechen der i.i.d. Annahme der Extremwerttheorie. Insbesondere die erfolgreiche Beschreibung der Renditezeitreihen mit GARCH-Modellen weist auf eine modellierbare Struktur der Renditezeitreihe hin. Daher wird die Extremwerttheorie in diesem Abschnitt auf die standardisierten Residuen der GARCH-Modellierung angewendet (vgl. McNeil/Frey [79]). Fiir die Zeitreihe der standardisierten Residuen ist die Annahme unabhiingiger und identisch verteilter Zufallsvariablen nicht restriktiv. Zun~chst werden die Grundlagen der Extremwerttheorie vorgestellt, um anschliet?,end die Integration in den GARCH-Rahmen vorzunehmen. Das Ergebnis dieser Ausfiihrungen ist ein Ansatz zur Berechnung des Value-at-Risk, der in der empirischen Vergleichsstudie im fiinften Kapitel angewendet wird. Ein Hauptbestandteil der EVT ist die Beschreibung des Verhaltens von Maxima aus Stichproben. Fisher und Tippett (vgl. hierzu EKM [33], S. 113 ft.) lieferten durch die Spezifikation der Grenzverteilung normalisierter Maxima ein wesentliches aesultat. Es sei Mn = max {Xl, ..., Zn }, wobei {Xi }i=ln eine Sequenz von i.i.d. Zufallsvariablen mit der Verteilungsfunktion F ist. Falls normierende Konstanten c, > 0, dn E IR existieren, l~st sich die Verteilungsfunktion H ermitteln, fiir die folgender Zusammenhang gilt (zur detaillierten Darstellung vgl. EKM [33], S. 114 ft.)

Cnl(Mn- dn) ~

H,

fiir n -~ oo.

4.3. S E M I - P A R A M E T R I S C H E

ANSATZE

99

Die Funktion H ist wie folgt spezifiziert (vgl. EKM [33], S. 152)

{ (

H-H((x)=

exp - ( I + ( x ) - C

fiir(r

exp(- exp(-x))

fiir ~"= 0

mit der Bedingung 1 + (x > 0. H~ wird als Generalisierte Extremwert Verteilung (GEV) bezeichnet. Der Parameter ( definiert die Form der GEV-Verteilung. Verteilungen mit ( > 0 weisen dickere R/inder als die Normalverteilung auf und werden als Pr6chet-Verteilungen bezeichnet. Fiir ( = 0 resultiert die Gumbel-Verteilung. Die Weibull-Verteilung resultiert fiir Parameterwerte ( < 0. Zur Berechnung des Value-at-Risk ist nicht das Maximum, sondern das Quantil der interessierenden Verteilung relevant. Hierzu liefert die EVT die MSglichkeit der Modellierung des betreffenden Randes der Verteilung. Die weiteren Ausfiihrungen beziehen sich auf den rechten Rand der Verteilung, da sich dieses in der Literatur zur EVT als Konvention durchgesetzt hat. Daraus folgt, dass bei der spiiteren Integration in den GARCH-Rahmen die negativen standardisierten Residuen betrachtet werden, da fiir die Value-at-Risk Prognose der linke Rand der Verteilung der standardisierten Residuen beziehungsweise der Renditeverteilung relevant ist. Zur Beschreibung des Randes der Verteilung muss zun/ichst definiert werden, was iiberhaupt unter dem Rand verstanden wird. Um dieses zu konkretisieren, wird eine Schwelle 77 festgelegt. Der Teil der Verteilung, der diese Schwelle iiberschreitet, bildet den rechten Rand. Dieser rechte Rand wird im Folgenden mit Hilfe der Extremwerttheorie modelliert. Es sei F die Verteilungsfunktion der i.i.d. Zufallsvariablen X und F,7 die Verteilungsfunktion der Zufallsvariablen der Oberschreitungen Y = X - r / mit gegebener Schwelle 77. Dann gilt der folgende Zusammenhang (vgl. EKM [a31, s. 353) Fn(y ) = P ( X -

77 < Yl X > 7)) = F(rl + y) - F(r/) -

F(,7)

(4.6)

mit y _> 0. Zur Modellierung dieses rechten Randes der Zufallsvariablen X wird die EVT genutzt. Die Rechtfertigung dieses Vorgehens basiert auf der folgenden Feststellung von Pickands [90] lim

sup

IF~(y) - G~,~(y)I = 0,

rf[ X F O 0 ftir ~ >_ 0 beziehungsweise 0 _< y < ~-~ fiir ~ < 0. Die Giite der Approximation der Verteilung F~ durch die Generalisierte Pareto Verteilung G~,z hitngt ma~geblich von der Wahl der Schwelle 77 ab. In der empirischen Anwendung dieser Approximation wird durch die Wahl einer hohen Schwelle 77 der Bias der Schiitzung gesenkt. Hingegen wird die Varianz des Schiitzers gesteigert, da nur wenige Beobachtungen zur Schiitzung der Parameter der GPD verwendet werden kSnnen. Die Handlungsvorschliige zur Auswahl der Schwelle 77basieren auf der grafischen Analyse der Abh~ngigkeit der Schiitzungen vonder Variation der Schwelle r/. Da in der empirischen Vergleichsstudie fiir jede Finanzmarktzeitreihe jeweils 1174 Schiitzungen durchgefiihrt werden, wird zur besseren Anwendbarkeit des Vorgehens einem Vorschlag von McNeil/Frey [79] gefolgt. Die Schwelle 77wird mit Hilfe des empirischen 95%-Quantils der negativen gesch~tzten standardisierten Residuen festgelegt. Dadurch wird erreicht, dass in den einzelnen Berechnungen jeweils 5% der Werte als relevanter Rand der Verteilung angesehen werden. Diese Anzahl der Beobachtungen yj = xj-77, welche die Schwelle 71iiberschreiten, soll im Folgenden mit -), bezeichnet werden. Es gilt: yj_>0. Zur Anpassung der Generalisierten Pareto Verteilung an die Beobachtungen yj kann die Maximum-Likelihood Methode verwendet werden. Die Dichte der GPD ist ftir ~ -# 0 f~,,~(y) = -~

Daraus resultiert die folgende Log-Likelihood Funktion

= ~

( - ln/3 - (1 + ~) In (1 + ~ y j ) )

j=l

1 = - 7 1 n B - (1 + ~) ~ l n j=l

(1 + ~ y j )

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

102

hn+1

2

"- 0~0 + Oil U n + / 3 1 h n .

Die Bildung der gesch~itzten standardisierten Residuen erfolgt in Analogie zu den Darstellungen aus dem Abschnitt 4.3.2 zur GARCH-Modellierung mit Bootstrap-Verfahren, wobei in diesem Fall das Vorzeichen gewechselt wird, um den relevanten Rand mit der EVT zu modellieren vi -

~,

i = l, 2, ..., n,

wobei n die Anzahl der zur Sch~itzung genutzten Beobachtungen darstellt. Zur Festlegung der Schwelle r/ wird das empirische 95%-Quantil ~(0.95) der berechneten ~- gesch~tzt (vgl. Gleichung 2.16) 77= ~(0.95, 'b~-). Zur Anpassung der GPD wird die Variable zbj = ~ ) ( - 7 / (j = 1,...,7) der LTberschreitungen der Schwelle 7/gebildet (~)~- > 77). Darauf aufbauend kann die GPD durch die Maximum-Likelihood Methode an die 9' Uberschreitungen @j angepasst werden r~,~x { - T l n / ~ - ( 11)+ ~

~ln

(1 + ~wJ) }

j=l

Mit den gesch~tzten Parametern ~ und ~ wird das gesuchte ( 1 - a)-Quantil ( 1 a > 0.95) der ~)~-gesch~tzt

) Die Berechnung der 1-Schritt Value-at-Risk Prognose mit diesern gesch/itzten Quantil wird wie folgt vorgenommen

YaR(a)lln

= Pn

1 - exp

/211n -- ~ l - a

Es ergibt sich ein negatives Vorzeichen, da die Sch~itzung mit den negativen gesch~itzten standardisierten Renditen durchgefiihrt wurde. Zur Berechnung des 10-Schritt Value-at-Risk bietet sich die Verwendung des Simulationsverfahrens (vgl. Abschnitt 4.2) an. Dabei wird der rechte Rand der negativen gesch~itzten standardisierten Residuen ~3~-durch die angepasste GPD modelliert, der Rest der Verteilung wird durch die empirischen Beobachtungen in Analogie zum Abschnitt 4.3.2 beschrieben. Dieses Vorgehen unterscheidet sich von McNeil/Frey [79], welche beide R~inder der Verteilung durch EVT modellieren.

4.3.

SEMI-PARAMETRISCHE

ANSfi, TZE

103

Im ersten Schritt wird durch das Bootstrap-Verfahren eine zuf~llige Beobachtung Oj mit Zuriicklegen aus den negativen gesch~tzten standardisierten Residuen O~gezogen (mit der Anzahl der Simulationsl~ufe N) Oj,

j-

1, 2,..., N.

Falls die gezogene Beobachtung oberhalb der Schwelle 7j liegt ('~j > 'r/), wird eine Zufallszahl ~j aus der gesch~tzten GPD mit den gesch~tzten Parametern und ~ generiert. In das Simulationsverfahren wird das simulierte standardisierte Residuum Vj,n+T eingesetzt

Fiir den modellierten Rand der negativen standardisierten Residuen ~- wird die gesch~tzte Extremwertverteilung zur Generierung der benStigten Zufallszahl genutzt. Falls die gezogene Beobachtung 0j unterhalb der Schwelle ~j liegt (0j < ~), wird die negative gezogene Beobachtung und damit das gesch~tzte standardisierte Residuum ~ in das Simulationsverfahren eingesetzt Vj,n+r = --Vj" Die Simulation der 10-Schritt Renditeverteilung kann dann in Analogie zu den Ausfiihrungen in Abschnitt 4.2 vorgenommen werden, woraus letztendlich der 10-Schritt Value-at-Risk resultiert A

Van(o~)lOl n - p n ( 1 - exp(0(O~)lOln)).

Der Ansatz der GARCH-Modellierung mit Extremwerttheorie unterscheidet sich vom Ansatz mit ausschlieglicher Verwendung des Bootstrap-Verfahrens aus Abschnitt 4.3.2 durch die parametrische Modellierung des interessierenden Randes der standardisierten Residuen. Der Rest der Verteilung wird genau wie bei der GARCH-Modellierung mit Bootstrap-Verfahren durch die gesch~tzte empirische Verteilung der standardisierten Residuen abgebildet. Die Motivation dieses Vorgehens ist, dass die Extremwerttheorie den Rand der Verteilung besser beschreibt als die historischen empirischen Beobachtungen. In der empirischen Vergleichsstudie wird dieses genauer untersucht. Generell kann davon ausgegangen werden, dass sich die Ergebnisse der Value-at-Risk Prognosen der beiden semi-parametrischen GARCH-Modellierungen nicht stark voneinander unterscheiden, da die Ans~tze ein ~hnliches Vorgehen aufweisen.

Kapitel 5

Empirische Vergleichsstudie Die empirische Vergleichsstudie stellt eine umfangreiche Analyse des Spektrums mSglicher Ausgestaltungen der Value-at-Risk Berechnung dar. In der Vergleichsstudie werden alle vorgestellten Ans~tze zur 1-Schritt und zur 10-Schritt Prognose des Value-at-Risk angewendet. Auf dieser Grundlage werden die Basel II-Anforderungen erfiillt. Die 1-Schritt Value-at-Risk Prognose kann zur Validierung des jeweiligen Ansatzes genutzt werden (vgl. Abschnitt 2.4.4). Darauf aufbauend wird die Anzahl der Backtesting-Ausnahmen der letzten zwSlf Monate ausgewertet und zur Bestimmung des Multiplikators fiir das n~ichste Quartal herangezogen (vgl. Abschnitt 2.4.5). Der Multiplikator dient zusammen mit der 10-Schritt Value-at-Risk Prognose zur Berechnung der resultierenden Eigenkapitalanforderung (vgl. Abschnitt 2.4.3). Damit wird die Problemstellung des Finanzinstituts realistisch dargestellt. Besondere Aufmerksamkeit liegt auf dem Vergleich der Ans~tze hinsichtlich der Anzahl der resultierenden Backtesting-Ausnahmen und der HShe der Eigenkapitalanforderung. Das Ziel der Value-at-Risk Prognose ist eine mSglichst genaue Abbildung der Risikosituation, um die Marktrisiken durch die vorhandene Reserve an Eigenkapital abzudecken. Dieses soUte jedoch nicht zu einer iiberhShten Hinterlegung von Eigenkapital fiihren, da hierdurch zu hohe Kapitalkosten in Kauf genommen werden oder gegebenenfalls Ressourcen gebunden werden, die gewinnbringend investiert werden kSnnten. Die umfassende Betrachtung des erweiterten Spektrums an Value-at-Risk Ans~tzen soll geeignete Ans~tze herausfiltern, die eine angemessene Anzahl an Backtesting-Ausnahmen bei gleichzeitig mSglichst geringer Eigenkapitalanforderung gew~ihrleisten. Diese Erkenntnis kann von dem jeweiligen Finanzinstitut genutzt werden, um sowohl die Absch~tzung von Marktrisiken als auch die Effizienz der Kapitalallokation zu verbessern.

106

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Zur Einordnung der empirischen Vergleichsstudie wird kurz auf aktuelle Studien verwiesen, in denen Value-at-Risk Ans/itze verglichen werden. Im Folgenden werden die Studien von Sarma et al. [94], Srooks/Persand [23] und Chong [25] zusammengefasst. Sarma et al. [94] vergleichen 1-Schritt Value-at-Risk Prognosen mit a = 0, 01 und a = 0, 05. Einbezogen werden die historische Volatilit~it, das EWMA-Modell, AR(1)-GARCH(1,1) mit zugrundeliegender Normalverteilungsannahme und die historische Simulation. Insgesamt sind die Ans/itze wenig erfolgreich, wobei dem EWMA-Ansatz und dem AR(1)-GARCH(1,1)-Ansatz noch die giinstigsten Eigenschaften bescheinigt werden. Der Artikel von Brooks/Persand [23] konzentriert sich auf die Evaluation von 1-, 5-, 10- und 20-Schritt Volatilit~itsprognosen. Zur Bildung dieser Prognosen werden die historische Volatilit/it, das EWMA-Modell, univariate GARCH-Modelle und ein multivariates GARCH-Modell (VECH) verwendet. Die Value-at-Risk Prognosen werden durchgehend mit der Normalverteilungsannahme fiir die Renditezeitreihen gebildet. Die Autoren stellen dabei fest, dass keiner der Ans~itze ad~iquate 99%-Value-at-Risk Prognosen liefert. Auch wurde keine signifilmnte Verbesserung der Prognosen durch das multivariate GARCH-Modell erreicht (,,the gain from using a multivariate GARCH model for forecasting volatility, which has not been previously investigated, is minimal", [23], S. 20). Chong [25] analysiert 1-Schritt Value-at-Risk Prognosen fiir Wechselkurse. Hier liegt der Fokus auf dem Vergleich der historischen Volatilit/it, dem EWMA-Modell, univariaten GARCH-Modellen und bivariaten GARCH-Modellen (VECH, BEKK) mit den Value-at-Risk Prognosen, abgeleitet aus der impliziten Volatilit~it von Optionen. Dabei werden Value-at-Risk Prognosen fiir Zusammensetzungen des Portfolios aus jeweils zwei Wechselkursen beispielsweise USD/DEM oder USD/JPY ermittelt. Zur Berechnung des Value-at-Risk wird die bivariate Normalverteilung der Renditezeitreihen angenommen. Dabei wird festgestellt, dass die analysierten Ans/itze nicht in der Lage sind, ad~iquate 99%-Value-at-Risk Prognosen zu ermitteln. Die verwendeten multivariaten Modelle zeigen keine Vorteile auf. Die empirische Vergleichsstudie dieser Arbeit weist im Vergleich zu den genannten bestehenden Studien einige Weiterentwicklungen auf. Die 10-Schritt Value-at-Risk Prognose wird konsequent fiir alle Ans~itze angewendet. Beispielsweise wird die 10-Schritt Prognose mit CAViaR-Modellen unter Nutzung der Skalierung der 1-Schritt Prognosen betrachtet. Bei der Value-at-Risk Prognose wird nicht ausschlief~lich auf restriktive Verteilungsannahmen zuriickgegriffen, sondern es

5.1. BESCHREIBUNG DER DATENGRUNDLAGE

107

werden durch die Verwendung von Simulationsverfahren Ans/itze analysiert, die das Verhalten von Renditezeitreihen realistischer abbilden. Hervorzuheben sind hierbei die GARCH-Modellierung mit GED-Verteilung und die historische Simulation mit Gewichtungsfaktoren. Insbesondere die Analyse der alternativen multivariaten Ans~itze zur Ermittlung von 10-Schritt Value-at-Risk Prognosen beziehungsweise Eigenkapitalanforderungen stellt eine wesentliche Erweiterung dar. Dabei werden die Value-at-Risk Prognosen der multivariaten Ans~itze unter Einbeziehung der multivariaten GARCH-Modelle (Faktor-, OGARCH, CCC-, DCC-Modell) umfassend evaluiert. Die Bewertung der 1-Schritt Value-at-Risk Prognosen mit der Zielfunktion der Quantilsregression stellt eine Neuerung dar. Die realistische Nachstellung der Konsequenzen der Basel II-Anforderungen fiihrt zu einem Bewertungsrahmen, der in dieser Ausgestaltung bisher noch nicht betrachtet wurde. Im Abschnitt 5.1 wird die Datengrundlage der empirischen Vergleichsstudie vorgestellt. Darauf folgend werden im Abschnitt 5.2 die univariaten und multivariaten Ans~itze zur Berechnung der Value-at-Risk Prognosen beziehungsweise der Eigenkapitalanforderungen verwendet. Die Bewertung der Ergebnisse aus der Sicht des Finanzinstituts erfolgt im Abschnitt 5.3.

5.1

Beschreibung der Datengrundlage

Zum Vergleich der Ansiitze zur Berechnung des Value-at-Risk werden Daten des Indexanbieters Stoxx verwendet. Der Dow Jones Euro Stoxx TMI ist ein vielbeachteter Aktienindex. Das Ziel dieses Indizes ist es, die Entwicklung der Aktien in den L~ndern Belgien, D/inemark, Deutschland, Finnland, Frankreich, Griechenland, Gro~britannien, Irland, Italien, Luxemburg, Niederlande, Norwegen, Osterreich, Portugal, Schweden, Schweiz und Spanien abzubilden. In diesen L~indern wird durch den Euro Stoxx Index etwa 95% der Marktkapitalisierung abgedeckt. Der Index kann daher zur Abbildung eines diversifizierten Portfolios mit Anlageschwerpunkt Europa herangezogen werden. Der Euro Stoxx Index weist am 31. Dezember 1991 einen Basiswert von 100 aus. Die in der empirischen Studie betrachtete Zeitperiode reicht vom 31. Dezember 1991 bis zum 17. Mai 2004. Es handelt sich um Tagesschlusskurse. Dabei sind bei dem ausgew~ihlten Euro Stoxx Index die Dividendenzahlungen in der Kursentwicklung beriicksichtigt, das heist, die Entwicklung des Index setzt sich aus den Kursver/inderungen und den Dividendenzahlungen der enthaltenen Aktien zusammen. Die Notierung erfolgt in Euro. Der Kursverlauf des Euro Stoxx Index

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

108

,9.o

r

=2

IJJ

I

I

I

I

I

I

I

1992

1994

1996

1998

2000

2002

2004

Abbildung 5.1" Kursverlauf des Euro Stoxx Index

ist in der Abbildung 5.1 dargestellt. Zus~itzlich zum Euro Stoxx Index werden fiinf Sektoren-Indizes zur Analyse der Value-at-Risk Ans~itze genutzt. In diesen fiinf Sektoren-Indizes sind alle Aktien des Euro Stoxx Index enthalten. Durch diese Aufteilung ist es mSglich, unterschiedliche Entwicklungen in den jeweiligen Industriesektoren abzubilden. Folgende Sektoren-Indizes werden herangezogen: Basic Materials, Cyclical Goods, Financial Services, Industrial Goods und Non-Cyclical Goods. Bei der Betrachtung des Kursverlaufs der Sektoren-Indizes in Abbildung 5.2 wird eine unterschiedliche Entwicklung im Zeitverlauf deutlich. Durch diese Ausweitung der Analyse kSnnen die univariaten Ans~itze zur Berechnung des Value-at-Risk anhand von sechs realen Zeitreihen verglichen werden. Zus/itzlich wird die Einbeziehung der multivariaten Ans~itze ermSglicht, indem die fiinf Sektoren-Indizes als Bestandteile eines Portfolios verwendet werden. Zum besseren Vergleich der univariaten und der multivariaten Betrachtungsweise wird aus den fiinf Sektoren-Indizes eine Zeitreihe erzeugt, die den Kursverlauf des Portfolios bestehend aus den gleichgewichteten Sektoren-Indizes (jeweils 20%) abbildet. Diese univariate Zeitreihe wird im Folgenden als ,,gewichtetes Portfolio" bezeichnet. Der Vorteil dieser Zeitreihe liegt in der Konstanz der Gewichtungsstruktur w im Zeitverlauf. Der Euro Stoxx Index setzt sich aus den fiinf Sektoren-Indizes zusammen. Die Zusammensetzung variiert t~iglich anhand der Marktkapitalisierung der einzelnen Komponenten.

109

5.1. BESCHREIBUNG DER DATENGRUNDLAGE

Abbildung 5.2: Kursverlauf der Sektoren-Indizes Ein Vergleich der univariaten und multivariaten Ans/itze bei konstanten Gewichtungsstrukturen ist daher sinnvoller. Zur Berechnung des Value-at-Risk wird in der Regel die Renditezeitreihe des jeweiligen Aktienindex verwendet (vgl. Abschnitt 2.2.1). Die Charakteristika der empirischen Renditezeitreihen (vgl. Gleichung 2.7) lassen sich durch die deskriptiven Kennzahlen Mittelwert, Varianz, Schiefe und Kurtosis beschreiben (vgl. Abschnitt 2.2). Die gesch/itzten Kennzahlen fiir den gesamten Betrachtungszeitraum (31.12.1991-17.05.2004) kSnnen der Tabelle 5.1 entnommen werden.

A

Renditezeitreihen Euro Stoxx Basic Materials Cyclical Goods Financial Services Industrial Goods Non-cyclical Goods Gewichtetes Portfolio

Mittelwert 0,000344 0,000369 0,000267 0,000390 0,000291 0,000353 0,000337

Varianz

0 .2

0,000115 0,000123 0,000142 0,000158 0,000116 0,000090 0,000108

Schiefe

Kurtosis/4

-0,272 -0,159 -0,228 -0,239 -0,352 -0,230 -0,340

Tabelle 5.1" Deskriptive Statistik der Datengrundlage

6,549 6,669 6,836 8,402 6,427 6,425 6,894

110

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Es ist erkennbar, dass alle Indizes eine negative Schiefe und eine hShere Kurtosis im Vergleich zur Normalverteilung aufweisen. Alle Indizes erzielten eine positive Rendite. Bei Annahme von 250 Handelstagen pro Jahr kann die in der Tabelle angegebene durchschnittliche Tagesrendite in die durchschnittliche Rendite pro Jahr durch grobe Absch~itzung iiberfiihrt werden. Fiir den Euro Stoxx Index resultieren 8,61% (250/2) durchschnittliche j~ihrliche Rendite. Die durchschnittliche Standardabweichung beziehungsweise Volatilit~it pro Jahr des Euro Stoxx betr~igt 16,96% ( ~ ~ ) . Die Analyse der deskriptiven Kennzahlen kann um rollierende Analysen erweitert werden. Die betreffende Kennzahl wird fiir ein Zeitfenster einer bestimmten L~inge berechnet, welches im Betrachtungszeitraum jeweils einen Tag weitergeschoben wird. Bei Verwendung von 250 Tagen als Zeitfenster wird zun~ichst die Kennzahl fiir die Tage 1 bis 250 berechnet. Daraufhin wird das Zeitfenster um eine Periode weitergeschoben und wiederum die Kennzahl fiir die Tage 2 bis 251 berechnet. Dieses Vorgehen wird fortgefiihrt bis das Ende des Betrachtungszeitraums erreicht ist. Fiir den Euro Stoxx Index sind in der Abbildung 5.3 die Kennzahlen Mittelwert, Standardabweichung, Schiefe und Kurtosis mit einem Zeitfenster von 250 Tagen dargestellt, um die zeitver~inderlichen Charakteristika der Renditezeitreihe zu betrachten. Es sind eindeutig unterschiedliche Phasen der Renditeerzielung zu erkennen. Insbesondere das Jahr 2002 zeichnete sich durch einen klaren Abw~irtstrend des Euro Stoxx Index aus. Auch die Ver~inderung der Standardabweichung der Renditezeitreihe des Euro Stoxx Index wird deutlich. Nach den turbulenten Jahren 1998 und 1999 kam es im Jahr 2002 nochmals zu einer deutlichen Zunahme der Schwankungsbreite des Euro Stoxx Index. Angefangen im zweiten Halbjahr 2003 ist eine Abnahme der Standardabweichung bis zum Ende des Betrachtungszeitraums eingetreten. Die Kurtosis der Renditezeitreihe, das heif,t die Kennzahl zur Beschreibung der H~iufungen von Werten in den R~indern der Verteilung, zeigt deutliche Strukturen im Zeitverlauf. Die Abbildung zeigt die Abh~ingigkeit dieser Kennzahl von extremen Beobachtungen der Renditezeitreihe. Das Eintreten einer extremen Beobachtung in das Zeitfenster oder das Verlassen des Zeitfensters hinterlksst deutliche Spuren. Dariiber hinaus zeichnet sich in bestimmten Zeitperioden eine Zunahme beziehungsweise Abnahme der Kurtosis ab. Erkennbar sind die Abnahme im Jahr 1998 und die Zunahme im zweiten Halbjahr 2003.

111

5.2. ANWENDUNG DER ALTERNATIVEN ANS)~TZE

o 0 d

o o4 o. o

--

-

l-ul

~

0

"o

o

1-

o

(D 0

I

I

1994

I

I

1998

I

I

ix) o o o

I

o

m" 1,-

__

C) I.,,-

__

(,D

-

o

o o.

u u

I

1994

I

1998

I

I

2002

I

1994

2002

I

I

1998

I

I

2002

t

I

I

1994

I

1998

I

I

I

2002

Abbildung 5.3: Kennzahlen des Euro Stoxx Index im Zeitverlauf Die zeitvert~nderlichen Charakteristika der Renditezeitreihe des Euro Stoxx zeigen deutlich die Relevanz der Beachtung der zeitvertinderlichen Verteilung der Renditezeitreihe zur Value-at-Risk Prognose.

5.2

Anwendung der alternativen Ans~itze

In der empirischen Vergleichsstudie wird auf die vorgestellte rollierende Analyse zuriickgegriffen. Dabei nutzen die unterschiedlichen Anstitze jeweils ein bestimmtes Zeitfenster der historischen Renditezeitreihe, um die Value-at-Risk Prognose ffir den ntichsten Tag beziehungsweise die n~chsten zehn Tage zu berechnen. Als l~ngstmSgliches Zeitfenster werden 2000 ttLgliche Beobachtungen der Renditezeitreihe verwendet. Durch die Differenzenbildung zur Berechnung der Renditezeitreihe werden damit die ersten 2001 Tage als maximale Historie des Startzeitpunkts definiert. Diese Zeitperiode reicht vom 31.12.1991 bis zum

112

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

23.09.1999. Als Variationen der L/inge der Historie werden in der empirischen Vergleichsstudie 1000 Tage und 250 Tage in den Ans/itzen beriicksichtigt. Die Berechnung des Value-at-Risk beginnt mit dem Informationsstand am 23.09.1999. Mit allen Informationen aus der Historie einschlie~lich des 23.09.1999 wird die Berechnung der Value-at-Risk Prognose fiir den n/ichsten Handelstag (24.09.1999) und fiir die n~ichsten zehn Handelstage (24.09.1999 bis 7.10.1999) mit den alternativen Ans~itzen vorgenommen. Dann wird das Zeitfenster einen Handelstag weitergerollt. Damit dienen der n~ichsten Berechnung alle Informationen einschlie~lich des 24.09.1999. Auf dieser Grundlage wird dann wiederum der Value-at-Risk des n~ichsten Handelstages (27.09.1999) und der n~ichsten zehn Handelstage (27.09.1999 bis 8.10.1999) berechnet. Dieses Vorgehen wird bis zum Erreichen des Endes der betrachteten Zeitperiode fortgefiihrt. Daraus resultieren 1174 1-Schritt Value-at-Risk Prognosen und 1174 10-Schritt Value-at-Risk Prognosen. Dieses bedeutet, dass die Parameter des jeweiligen Ansatzes in 1174 Sch~itzungen jeweils neu ermittelt werden. Dabei wird zur Sch~itzung der GARCH-Modelle auf das Programm ,,EViews" zuriickgegriffen. Alle weiteren Berechnungen zur Ermittlung der Value-at-Risk Prognosen werden mit dem Programm ,,R" durchgefiihrt. Der Programm-Code der durchgefiihrten Analysen der alternativen Ans~itze ist auf der Homepage des Fachgebiets Statistik/Empirische Wirtschaftsforschung der Universit~it Osnabriick hinterlegt: http: //nt s4.o ec. uni-osnabrueck, de/stat 1/stat 1.htm. Um die Ermittlung der Eigenkapitalanforderung durchzufiihren, werden bei der Berechnung die Basel-II Kriterien eingehalten, das heist es wird c~ - 0,01 gesetzt und eine Mindestl~inge des historischen Zeitfensters von 250 Handelstagen beachtet (vgl. Abschnitt 2.4.2). Fiir die Berechnung der 1-Schritt und der 10-Schritt Value-at-Risk Prognosen wird eine konsistente Methodik verwendet. Zur Evaluation der Ans~itze werden die Value-at-Risk Prognosen mit den tats~ichlich eingetretenen Kursbewegungen verglichen. Die Anzahl der Backtesting-Ausnahmen in den jeweils letzten vier Quartalen wird ausgewertet und zur Festlegung des Multiplikators im n~ichsten Quartal verwendet (vgl. die Abschnitte 2.4.4 und 2.4.5). Aus der Ermittlung des Multiplikators und der 10-Schritt Value-at-Risk Prognose lassen sich realistisch abgebildete Eigenkapitalanforderungen berechnen (vgl. Abschnitt 2.4.3). Diese umfassende Darstellung der Qualit/it der konkurrierenden Ans/itze zur Ermittlung der Marktrisiken kombiniert mit der Betrachtung der Konsequenzen der Modellierung fiir da~ Finanzinstitut liefert eine sinnvolle Entscheidungshilfe zur Auswahl des zur Value-at-Risk Prognose geeigneten Ansatzes.

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ4TZE 5.2.1

113

A n w e n d u n g d e r u n i v a r i a t e n Ans~itze

Die Anwendung der univariaten Ans~tze erstreckt sich auf den Euro Stoxx Index, die fiinf Sektoren-Indizes und da~ aus den ffinf Sektoren-Indizes gebildete gewichtete Portfolio. Die Auswertung der Anss hinsichtlich des gewichteten Portfolios liefert die Grundlage zum Vergleich der geeigneten univariaten Ans~tze mit den multivariaten Ans~tzen, der im Abschnitt 5.2.2 folgt. Insgesamt werden 14 univariate Ans~tze zur Value-at-Risk Prognose verwendet. Darunter befinden sich die historische Simulation (mit und ohne Gewichtungsfaktoren), die historische Volatilit~t, die exponentielle Gl~ttung der Volatilit~it, sechs Ans~tze mit Integration der GARCH-Modelle zur Volatilit~tsprognose und vier CAViaR-Ans~tze mit unterschiedlicher Ausgestaltung der funktionalen Form zur Beschreibung des bedingten Quantils. Die 14 Ans~tze werden mit unterschiedlicher L~nge der Historie angewendet. Dabei werden 250, 1000 und 2000 Handelstage als Historie betrachtet. Es werden nicht ffir jeden Ansatz alle drei MSglichkeiten verwendet, da einige Kombinationen nicht sinnvoll sind. Beispielsweise ist eine Historie von 250 Tagen zu gering, um ein GARCH-Modell mit zuverl~siger Parametersch~tzung anzupassen. Durch die Variation der Historie werden letztendlich 30 Ausgestaltungen der 14 Ans~tze untersucht. Mit dieser Vorgehensweise wird der empirischen Vergleichsstudie eine weitere Dimension hinzugeffigt. Zus~tzlich zu der umfassenden Bewertung der alternativen Ans~tze kSnnen Aussagen fiber die Auswirkung der unterschiedlichen L~nge der Historie getroffen werden. Um die Ans~tze Ans~tze Ans~tze

Verbindung zu den vorangegangenen Kapiteln herzustellen und die besser vergleichen und einordnen zu kSnnen, werden die alternativen kurz zusammengefasst. Als erste Gruppe der alternativen Value-at-Risk werden die in der Praxis verwendeten Ans~tze herangezogen:

1. Historische Simulation mit gleichgewichteter Historie (250, 1000 und 2000 Handelstage). In dem Vergleich werden die 10-Schritt Value-at-Risk Prognosen, ermittelt durch die Simulation aus den empirischen 1-Schritt Renditen, betrachtet, da die Simulation aus den kumulierten 10-Schritt Renditen zu wesentlich hSheren Eigenkapitalanforderungen ffihrt (vgl. Abschnitt 2.5.2). 2. Historische Volatilit~t mit Normalverteilungsannahme und einer Historie von 250, 1000 und 2000 Handelstagen (vgl. Abschnitt 2.5.1). 3. Exponentielle Gl~ttung der Volatilit~t (EWMA-Modell) mit A = 0, 94 (vgl.

114

K A P I T E L 5. E M P I R I S C H E V E R G L E I C H S S T U D I E

Abschnitt 2.5.3), wobei eine Historie von 250 Tagen verwendet wird, da eine l~ingere Historie aufgrund der Modellstruktur zu keinen anderen Ergebnissen fiihrt. Die neueren Ans~tze werden wiederum in die AusgestaltungsmSglichkeiten nicht-parametrische, parametrische und semi-parametrische Ans~tze unterteilt. Bei den nicht-parametrischen Ans~tzen wird die historische Simulation mit Gewichtungsfaktoren angewendet (vgl. Abschnitt 4.1): 4. Historische Simulation mit heuristischen Gewichtungsfaktoren en-z+l = 1-~ ~l-1 , l : 1,...,n mit 250, 1000 und 2000 Tagen als Historie. Der l_)~n Parameter dieser exponentiellen Gewichtung ist )~ = 0, 99. Durch die Wahl dieses Parameters resultiert eine Gewichtung der Historie, die nicht zu stark vom aktuellen Rand der empirischen Beobachtungen abh~ngt. Die parametrischen Ans~tze werden durch vier Ausgestaltungen mit GARCH-Modellen repr~entiert, wobei zwei dieser Ans~itze die Normalverteilung fiir die kumulierte Renditezeitreihe unterstellen und die anderen beiden Ans~itze auf Simulationsverfahren zuriickgreifen: 5. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung 2 rn+l = # + hv~+lVn+l mit hn+l = c~o + C~lUn + ;31h,~ und Annahme der

Normalverteilung fiir die kumulierte Renditezeitreihe h'~l~(r~+~ 2 - ~l~) A/'(0, 1) (vgl. Abschnitt 4.2.1).

~

6. GARCH(1,1)-Modell mit einer Konstanten und einem AR(1)-Term in der Mittelwertgleichung rn+ l = ~ + r + v/hn+ l Vn+ l und Annahme der Normalverteilung fiir die kumulierte Renditezeitreihe (siehe Ansatz 5). 7. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und simulierter kumulierter Renditeverteilung auf Grundlage normalverteilter standardisierter Residuen ~j,,~+r '~ i.i.d. A/'(0, 1) (vgl. Abschnitt 4.2.1). 8. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und simulierter kumulierter Renditeverteilung auf Grundlage GED-verteilter standardisierter Residuen vj,n+r '~ i.i.d. GED(0,1,~) mit gesch~itztem Parameter ~ (vgl. Abschnitt 4.2.2). Zu den GARCH-Modellen kann generell angemerkt werden, dass die Parameter in zwei Schritten gesch~tzt werden (vgl. Abschnitt 3.1.2). Im ersten Schritt

5.2. A N W E N D U N G DER A L T E R N A T I V E N ANSfi, TZE

115

werden die Parameter der Mittelwertgleichung mit der Kleinst-Quadrate Methode gesch/itzt. Die daraus resultierenden geschgtzten standardisierten Residuen ui werden im Anschluss in die Gleichung 3.3 eingesetzt. Die folgende Optimierung der Maximum-Likelihood Funktion liefert die gesch/itzten Parameter der Varianzgleichung. Die Sch/itzung der GARCH-Modelle wird mit dem Software-Programm ,,EViews" unter Verwendung des Marquardt-Algorithmus vorgenommen. Dabei werden die Parameter fiir die 1174 Prognosen jeweils neu gesch/itzt. Die Ermittlung der Value-at-Risk Prognosen, gegebenenfalls unter Beriicksichtigung von Simulationsverfahren, wird mit dem Programm ,~R" vorgenommen. Als semi-parametrische Ans/itze werden vier CAViaR-Ans/itze betrachtet (vgl. Abschnitt 4.3.1). Dabei werden unterschiedliche Ausgestaltungen verwendet, um dieses neue Modell zu analysieren. Dariiber hinaus werden zwei GARCH-Ansiitze betrachtet, die nicht auf restriktive Verteilungsannahmen, sondern auf die gesch/itzten standardisierten Residuen zuriickgreifen. Einer dieser beiden Ans/itze bezieht die Extremwerttheorie ein: 9. CAViaR-Modell mit Ausgestaltung des Quantils beruhend auf dem symmetrischen Absolutwert (SAV) der Rendite q(c~)lln = -~o + ~lq(o~)n -

10. CAViaR-Modell mit zeitlicher Entwicklung des Quantils aufgrund adaptiver Anpassung q(c~)lln = q(c~)n - ~ ((1 + exp (G [rn - q(a)n])) -1 - c~), mit G = 10. Die Wahl dieses Parameters G wird von Engle/Manganelli [39] vorgeschlagen. 11. CAViaR-Modell mit Ausgestaltung des Quantils durch asymmetrische Wirkung des Absolutwerts (AAV) der Rendite der Vorperiode q(c~)lln = - Z 0 + Z~q(c~)~ - Z21r~ - Zal.

12. CAViaR-Modell mit asymmetrischer Anpassung (AS) q(a)lln = -~o + ~lq(Ct)n + ~2 max(0, rn) + ~3 min(0, rn). 13. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und simulierter kumulierter Renditeverteilung auf Grundlage der Anwendung des Bootstrap-Verfahrens auf die gesch/itzten standardisierten Residuen (vgl. Abschnitt 4.3.2). 14. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und simulierter kumulierter Renditeverteilung auf Grundlage der Anwendung

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

116

des Bootstrap-Verfahrens auf die gesch~tzten standardisierten Residuen und zus/itzlicher Modellierung des linken Randes durch Extremwerttheorie (vgl. Abschnitt 4.3.3). Die folgende umfassende Untersuchung der vorgestellten AnsEtze wird St~rken und Schw~chen herausarbeiten, um dem jeweiligen Anwender die Auswahl eines geeigneten Ansatzes zu erleichtern. Dabei werden die in der Praxis verwendeten Ans/itze kritisch /iberpriift, um einen mSglicherweise fiir die Finanzinstitute vorhandenen Handlungsbedarf offenzulegen. Um diese Evaluation vorzunehmen, werden insbesondere die Qualitiit der Ans~itze aufgrund der Anzahl der Backtesting-Ausnahmen und die Konsequenzen resultierend aus der Beachtung der Basel II-Anforderungen (vgl. Abschnitt 2.4) betrachtet. Daneben werden grafische Vergleiche und die Zielfunktion der Quantilsregression (vgl. Abschnitt 4.3.1) herangezogen. Zur Evaluation der Ans~itze wird der folgende Kriterienkatalog verwendet: 9 Grafischer Vergleich der T-Schritt Quantilsprognosen beziehungsweise der Value-at-Risk Prognosen 9 Vergleich der Anzahl und des zeitlichen Auftretens der Backtesting-Ausnahmen, basierend auf den berechneten Quantilsprognosen 9 Entwicklung und durchschnittlicher Wert des Basel II-Multiplikators 9 Entwicklung und durchschnittlicher Wert der resultierenden Basel IIEigenkapitalanforderung 9 Anzahl der Quartale in gelber beziehungsweise roter Zone 9 Zielfunktion der Quantilsregression ffir die 1-Schritt Quantilsprognose 3174

QR = -

~

(I(ri+l < ~(0, 01)11i) - c~) (ri+l - ~(0, 01)11i) 9

i--2001

Die Auswahl der Kriterien sorgt f/ir die Abbildung der wesentlichen Aspekte zur Beurteilung der Value-at-Risk Ans~itze. Weitere Kriterien liefern kaum zus~itzliche Informationen. Beispielsweise beurteilen die in Abschnitt 2.4.4 dargestellten Likelihood-Ratio Teststatistiken die Anzahl und das zeitliche Auftreten der Backtesting-Ausnahmen, welches durch die ausgew~hlten Kriterien, wie die Anzahl der Quartale mit erhShtem Multiplikator aufgrund von geh~.uft auftretenden Backtesting-Ausnahmen, bereits abgebildet wird.

118

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

o c~ o c;

-

c;

,d o

? ,dI 2000

I 2001

I 2002

I

2003

I

2004

Abbildung 5.4: 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index Stoxx Index in Abbildung 5.4 dargestellt. Der prognostizierte Verlauf des 1-Schritt Quantils wird durch die schwarze Linie dargestellt. Deutlich erkennbar ist, dass die Quantilsprognose relativ langsam auf die Entwicklung der Renditezeitreihe reagiert. Die Anpassungen des prognostizierten Quantils h~ingen stark von der L~nge des Zeitfensters ab. Es kommt zu Anpassungen, wenn extrem negative Renditen in das Zeitfenster eintreten oder es verlassen. Die Entwicklung des Quantils kann exemplarisch an der Zeitperiode ab dem 11. September 2001 verdeutlicht werden. Die extrem negative Rendite fiihrt zu einer deutlichen Anpassung der Quantilsprognose. Die Anpassung geschieht nicht heftig genug, um die folgende extrem negative Rendite zu antizipieren. Daraus kann geschlossen werden, dass die historische Simulation nicht zu ausreichenden Anpassungen der Value-at-Risk Prognose bei geh~uften extrem negativen Renditen fiihrt. Auch auf Phasen von nachlassender Schwankungsbreite der Renditezeitreihe wird schwerf~llig reagiert. Beispielsweise wird die Quantilsprognose nach dem 11. September 2001 oder in der zweiten Jahreshiilfte 2003 nur langsam angepasst, obwohl die Schwankungsbreite der Renditezeitreihe deutlich abnimmt. In dieser Zeitperiode kann die Quantilsprognose als eher konservativ angesehen werden. Um die Unterschiede der Quantilsprognosen zu verdeutlichen, werden in der Abbildung 5.5 die vier Ans~tze historische Simulation (Ansatz 1), historische Volatilit~t (Ansatz 2), GARCH-Modell mit GED-Verteilung (Ansatz 8) und

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ~TZE

117

Auch die Heranziehung des in Gleichung 2.12 vorgestellten Expected Shortfall liefert keine weiteren Einsichten zur Beurteilung der Ans/itze. Ein denkbares Kriterium in Anlehnung an den Expected Shortfall ist die Betrachtung der durchschnittlichen Abweichung der Renditezeitreihe von der 1-Schritt Quantilsprognose, gegeben eine Backtesting-Ausnahme liegt vor, hier mit S1 bezeichnet 3174

S I = BA 1 ~

I(ri+l < ~(0, 01)lli)(ri+l - ~(0, 01)11i),

i--2001

wobei BA die Anzahl der auftretenden Backtesting-Ausnahmen angibt. Als Alternative kann der durchschnittliche Wert der Renditezeitreihe bei Vorliegen einer Backtesting-Ausnahme ($2) analysiert werden 3174 1 S2---- ~"~ ~ /(ri+ 1 < (~(0,01)l[i)ri+ 1. i-20Ol

Beide Kriterien h/ingen mat~geblich vonder Anzahl an Backtesting-Ausnahmen ab. Diese Anzahl wird durch die Zuverl~sigkeit der Sch/itzung des Quantils O(0,01)lli bestimmt, welche sich bei den betrachteten Ans~tzen deutlich unterscheiden kann. Als Resultat kann aus dieser Konstellation folgen, dass ein unzuverl~siger Ansatz, mit deutlich hSherer Anzahl an Backtesting-Ausnahmen, einen besseren Wert in einem der beiden Kriterien aufweist als ein zuverl/issiger Ansatz mit zufriedenstellender Anzahl an Backtesting-Ausnahmen. Die Auswahl anhand dieser Kriterien scheint daher fiir die vorliegende empirische Vergleichsstudie nicht sinnvoll zu sein. Das Weglassen der Division durch die Anzahl an Backtesting-Ausnahmen in den beiden Kriterien liefert ebenfalls keine Information, die nicht bereits durch die erw/ihnten Kriterien abgebildet wird. Im Folgenden werden die Quantilsprognosen beziehungsweise Value-at-Risk Prognosen und die resultierenden Konsequenzen durch Abbildungen veranschaulicht. Der Kernteil der Evaluation folgt im Anschluss durch den ausffihrlichen tabellarischen Vergleich der alternativen Value-at-Risk Ans/itze. Der umfassende Vergleich der ausgew~ihlten Kriterien ist notwendig, um eine angemessene Beriicksichtigung der Komplexit/it der Evaluation sicherzustellen. Es wird mit der Veranschaulichung der 1174 Prognosen des Quantils der 1-Schritt Renditen q(0,01)lln begonnen. Die 1-Schritt Quantilsprognosen, basierend auf der historischen Simulation (Ansatz 1) mit einem historischen Zeitfenster von 250 Tagen werden zusammen mit den tats/ichlich eingetretenen Renditen des Euro

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi.TZE

Historlsche Simulation (1)

Historische Volatilittit (2)

U')

U3

o

n,

119

l 2_

o

"O f-

O

c~

c~ :.=-

(0

I

I

2000

I

I

2002

I

I

2004

2000

I

I

2002

1

2004

C A V l a R - M o d e l l (9)

G A R C H - M o d e l l (8)

._._=

I

o o

c:

0

n,

d

c

O

a3

0 I 2000

I

!

2002

I

I

I

2004

2000

I

I

2002

I

I

2004

Abbildung 5.5: Vergleich der 1-Schritt Quantilsprognosen ftir den Euro Stoxx CAViaR-Modell (Ansatz 9) gegeniibergestellt. Die historische Volatilit~t mit Normalverteilungsannahme bezieht 250 Tage als Historie ein. Das GARCH-Modell und das CAViaR-Modell nutzen 1000 Tage als Historie. Die 1-Schritt Quantilsprognose der historischen Volatilit~t reagiert im Gegensatz zur historischen Simulation mit t~glichen Anpassungen der Quantilsprognose. Allerdings sind die Anpassungen nicht ausgepr~gt genug, um die kr~ftigen Abw~rtsbewegungen des Euro Stoxx Index abzubilden. Das GARCH-Modell liefert im Gegensatz zur historischen Simulation und zur historischen Volatilit/it wesentlich reaktionsschnellere Quantilsprognosen. Dieses resultiert aus der expliziten Modellierung der Volatilit~t der Renditezeitreihe. Das GARCH-Modell reagiert sehr ausgepr/igt auf die extrem negative Rendite am 11. September 2001. Ein weiterer Vorteil dieses Ansatzes liegt in der Reaktion auf Phasen geringerer Schwankungsbreite. Nach dem 11. September 2001 kommt es zeitnah zu einer Beruhigung der Renditezeitreihe, die vom GARCH-Modell nachvollzogen wird. Auch in der ruhigeren Phase ab dem 2. Halbjahr 2003 wird

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

120

Symmetr. Abs01utwert (9) U3 O

__= "o t-

C:

n-

Adaptiv (10)

c~

u-) q

o o

c~

a~

== m

o=

O

8

,d

I

I

I

I

2000

2002

Asymmetr.

Absolutwert

I

I

2004

2000

(11)

I

Asymmetr.

I

I

I

2002

2004

Anpassung

(12)

u3

m_

o

ra)

o o

n,

m

=

o

d

d

,d

8~ I

2000

I

I

2002

I

I

I

2004

2000

I

I

2002

I

I

2004

Abbildung 5.6: CAViaR 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index die Quantilsprognose des GARCH-Modells deutlicher als bei der historischen Simulation oder der historischen Volatilit~t angepasst. Zus~tzlich zur expliziten Modellierung der Volatilit~it wirkt sich bei diesem Ansatz die Modellierung der gesch~tzten standardisierten Residuen mit der GED-Verteilung aus. Durch die Ver~inderung der Kurtosis der gesch~tzten standardisierten Residuen wird die Quantilsprognose angepasst. Das Zusammenwirken dieser beiden Komponenten fiihrt zu giinstigen Eigenschaften der Quantilsprognosen. Als vierter Ansatz dieser Gegeniiberstellung wird der CAViaR-Ansatz 9 dargestellt. Die vier im vorangegangenen Kapitel vorgestellten CAViaR-Ans~itze weisen, wie in der Abbildung 5.6 erkennbar, unterschiedliche Quantilsprognosen auf. Der Ansatz 9 weist eine hohe .~hnlichkeit zum GARCH-Modell auf. Dieses l~st sich durch die Ausgestaltung des Quantils in Abh~ngigkeit des Absolutwerts der Rendite der Vorperiode erkl~ren. Das CAViaR-Modell reagiert, ~hnlich wie das GARCH-Modell, schnell auf die Ver~nderungen der Charakteristika der Renditezeitreihe. Dabei wird deutlich, dass die Quantilsprognosen des

121

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE

CAViaR-Modells im Vergleich zum GARCH-Modell auf Ver~nderungen heftiger reagieren. Die CAViaR-Ans/itze 11 und 12 zeigen ebenfalls reaktionsschnelle 1-Schritt Quantilsprognosen. Der Ansatz 10 zeigt ein ~hnliches Verhalten wie die historische Simulation. Die Anpassungen werden nur sehr langsam vorgenommen. Dies folgt aus der adaptiven Ausgestaltung. Der Ansatz 11 unterscheidet sich durch die Einbeziehung des zus/itzlichen Parameters zur Abbildung von Asymmetrien vom Ansatz 9. Die Quantilsprognosen des CAViaR-Ansatzes 12 weisen die heftigsten Ausschl/ige aus. Dies ist durch die separate Bestimmung eines Parameters fiir den Effekt negativer Renditen begriindbar. Insgesamt kann zu den CAViaR-Ans~tzen festgehalten werden, dass sich die unterschiedlichsten Formen der Quantilsprognose durch die Ausgestaltung der Funktion zur Beschreibung des Quantils bilden lassen. Aus der Diskussion der Quantilsprognose folgt die Darstellung Backtesting-Ausnahmen in Abbildung 5.7 (vgl. Abschnitt 2.4.4).

Historische

Simulation

Historische

(1)

VolatillUtt

(2)

o

o

der

i-

(/)

,