Anreizsteuerung unter Berücksichtigung von Lernkurveneffekten 9783835093492, 3835093495 [PDF]


138 63 5MB

German Pages 141 Year 2006

Report DMCA / Copyright

DOWNLOAD PDF FILE

Papiere empfehlen

Anreizsteuerung unter Berücksichtigung von Lernkurveneffekten
 9783835093492, 3835093495 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Angela Kunow Anreizsteuerung unter Beriicksichtigung von Lernkurveneffekten

GABLER EDITION WISSENSCHAFT Hallesche Schriften zur Betriebswirtschaft Band 20 Herausgegeben von Professor Dr. M. Becker Professor Dr. Ch. Bierwirth Professor Dr. R. Ebeling Professor Dr. G. Kraft Professor Dr. D. MShlenbruch Professor Dr. R. Schmidt Professor Dr. Ch. Weiser Professor Dr. B. O. Weitz Professor Dr. H.-U. Zabel

Martin-Luther-Universitiit Halle-Wittenberg

Diese Schriftenreihe soil als Forum fiJr wissenschaftliche Arbeiten der neugegriJndeten und 1993 wiedererSffneten Wirtschaftswissenschaftlichen Fakultiit der Martin-Luther-Universitiit Halle-Wittenberg auf dem Gebiet der Betriebswirtschaftslehre dienen. Die zahlreichen betriebswirtschaftlichen Professuren wollen mit der Herausgabe dieser Halleschen Schriften zur Betriebswirtschaft das breite Spektrum ihrer wissenschaftlichen Arbeitsgebiete dokumentieren. Die Publikationen umfassen insbesondere betriebswirtschaftliche Dissertationen und sonstige ausgewiihlte wissenschaftliche Arbeiten der halleschen Fakultiitsmitglieder.

Angela Kunow Anreizsteuerung unter Beriicksichtigung von Lernkurveneffekten

Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet Qber abrufbar.

Dissertation Universitiit Halle-Wittenberg, 2006

1. Auflage September 2006 Alle Rechte vorbehalten 9 Deutscher Universitiits-Verlag I GWV Fachverlage GmbH,Wiesbaden 2006 Lektorat:. Brigitte Siegel/Stefanie Loyal Der Deutsche Universitiits-Verlag ist ein Unternehmen von Springer Science+Business Media. www.duv.de

~

Das Werk einschlieBlich aller seiner Teile ist urheberrechtlich geschiitzt. Jede Verwertung auBerhalb der engen Grenzendes Urheberrechtsgesetzes ist ohne Zustimmung des Verla.gs unzuliissig und strafbar. Das gilt insbesonderefiJr Vervielfiiltigungen, Ubersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wiiren und daher von jedermann benutzt werden diJrften. Umschlaggestaltung: Regine Zimmer, Dipl.-Designerin, Frankfurt/Main Druck und Buchbinder: Rosch-Buch, ScheBlitz Gedruckt auf siiurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN-10 3-8350-0510-3 ISBN-13 978-3'8350-0510-5

Geleitwort

Im Rahmen der Behandlung yon Verhaltensinterdependenzen stehen in Ansiitzen der InstitutionenSkonomik die Beziehungen zwischen einem Prinzipalen und einem Agenten im Mittelpunkt. In einem Vertrag wird die durchzuffihrende Aufgabe beschrieben und ein Anreizsystem aufgestellt, das sichert, dass der Agent im Sinne des Prinzipalen handelt. In betriebswirtschaftlichen Pragestellungen zeigen sich derartige Beziehungen zwischen allen Hierarchieebenen einer Organisation. Dem zur Seite stehen empirische Erkenntnisse der sich entlang der kumuliert produzierten Menge verbessernden Produktivit/it der Mitarbeiter in Bezug auf repetitive T/itigkeiten. Dieses in Literatur und Praxis als Lernkurve bekannte Ph/inomen findet seine Behandlung auch in zahlreichen psychologischen Studien zur Erforschung der Ursachen dieser fast schon als Gesetzm/ifligkeit angesehenen Entwieklung fiber die Zeit. Eine von der Problemstellung getriebene Forschung wird demnaeh sowohl in deskriptiv wie normativ orientierten Ans/itzen anstreben diese Entwieklungsdynamik zu integrieren. An diesem nicht ausreichend beleuchteten Aspekt der Prinzipal-Agent-Theorie setzt die Verfasserin an. Sie integriert Vergnderungen der Charaktereigenschaften des Agenten in ein dynamisches mathematisches Modell, um zu analysieren, inwiefern die Produktivitgtssteigerungen im Zeitverlauf Einfluss auf die Vertragsgestaltung nehmen. In dieser Umsetzung zeigt sie eine sehr bedeutende Erweiterung der bestehenden Theorie auf. Im Ergebnis zeigt sich, dass dynamische Einflfisse in den Untersuchungen nicht vernachl~sigt werden dfirfen und ihre Einbeziehung zu einer Anngherung an in der Praxis existierenden Problemstellungen fiihrt. So gesehen hat die Verfasserin eine theoretisch interessante und bisher nicht bearbeitete und empirisch bedeutsame wie in den praktischen Empfehlungen noch nicht diskutierte Problemstellung aufgegriffen. Sie hat ein eigenes Modell formuliert, dessen Optimalitiitsbedingungen interpretiert und dessen Grenzen ausgewiesen. Um nicht an den Grenzen der mathematischen Analyse stehen zu bleiben und auch Ergebnisse ffir eine praktische

VI Perspektive abzuleiten hat sie sich der numerischen Optimierung bedient, aus deren Ergebnissen sich normative Erkenntnisse aufzeigen lassen. Es sind ihr dabei interessante Erkenntnisse gelungen, die fiber den Stand der bisherigen Ans~tze hinausgehen , und die einen wichtigen Beitrag zu einer dynamische Theorie liefern. Prof. Dr. Christoph Weiser

Vorwort

Die vorliegende Arbeit entstand w/ihrend meiner Tgtigkeit als wissenschaftliche Mitarbeiterin an der Wirtschaftswissenschaftlichen Fakultiit der Martin-Luther-Universit/~t HalleWittenberg und wurde dort 2006 als Dissertation angenommen. Mein besonderer Dank gilt meinem Erstgutachter Prof. Dr. Ch. Weiser, der diese Arbeit betreute und mir in zahlreichen Diskussionen immer neue Anregungen gab. Ohne seine Unterstiitzung w/~re die Dissertaion in dieser Form nicht entstanden. Ebenso mSchte ich mich bei meinem Zweitgutachter Prof. Dr. W. Grecksch fiir die mathematische Betreuung bedanken. Trotz seiner T/~tigkeit als Rektor land er immer die Zeit zur ErSrterung schwieriger Problemstellungen. Desweiteren danke ich meinen Kollegen am Lehrstuhl fiir Internes Rechnungswesen und Controlling. Zun~chst gilt mein Dank hier Anja Laue fiir die kritische und griindliche Durchsicht der Arbeit. Fiir den fachlichen Dialog und ihre Unterstiitzung danke ieh Dr. Stephanie Hanrath und Mark Wappler. Nicht zuletzt mSchte ich mich bei unserer Sekretr/irin Frau Kerstin Allendorf bedanken, die mir in administrativen Dingen stets zwei Schritte voraus war. Mein besonderer Dank gilt meinem Mann Ronny Kunow, der mich auch in schwierigen Zeiten immer wieder zu dieser Arbeit ermutigt hat. Er war mir stets hilfreicher Zuh6rer und eine helfende Hand. Meinen Eltern danke ich ftir ihre uneingeschr/inkte Unterstiitzung meiner Ausbildung und insbesondere der letzten Phase der Dissertaion, in der sie immer ein Quell der Ruhe ftir mich waren. Schlieglich mSchte ich mich bei meinem Bruder Matthias ftir unsere Diskussion fiber die Kunst des Fensterkittens bedanken, der ich die Idee zur Integration der Lernkurventheorie in die Prinzipal-Agent-Problematik verdanke. Angela Kunow

Inhaltsverzeichnis

IX

Inhaltsverzeichnis

XIII

Abbildungsverzeichnis 1

Einleitung

2 Das Lernkurvenkonzept 2.1

2.2

Betriebliches Lernen

..............................

6

2.1.1

Individuelles betriebliches Lernen

2.1.2

Organisationales Lernen

........................

Betriebliche Lernkurvenmodelle

........................

2.2.1

2.2.2

2.2.3

3

5 ...................

6 6 7

Die Lineaxhypothese nach Wright . . . . . . . . . . . . . . . . . . .

8

2.2.1.1

Die Stiickkostenbetrachtung . . . . . . . . . . . . . . . . .

10

2.2.1.2

Die Durchschnittskostenbetrachtung

11

............

Modifikationen der Linearhypothese . . . . . . . . . . . . . . . . . .

12

2.2.2.1

Die Lernkurve des Stanford-Research-Instituts . . . . . . .

12

2.2.2.2

Die konvexe Lernkurve . . . . . . . . . . . . . . . . . . . .

14

2.2.2.3

Der S-f~rmige Lernkurvenverlauf . . . . . . . . . . . . . .

14

Das Adaptionsmodell nach Levy . . . . . . . . . . . . . . . . . . . .

18

Menschliches Problemliisen

21

3.1

Klassisches Konditionieren . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

3.2

Instrumentelles Konditionieren . . . . . . . . . . . . . . . . . . . . . . . . .

23

3.3

Denken und ProblemlSsen

24

...........................

3.3.1

Gestaltpsychologische Ans~tze des ProblemlSsens

..........

25

3.3.2

ProblemlSsen im Informationsverarbeitungsansatz . . . . . . . . . .

26

3.3.2.1

Das Potenzgesetz der 0 b u n g

3.3.2.2

Theorien kognitiven Fertigkeitserwerbs . . . . . . . . . . .

................

28 30

X

4

INHALTSVERZEICHNIS

A u s g e w f i h l t e A n s i i t z e der Prinzipal-Agent-Theorie 4.1

Das Grundproblem der Prinzipal-Agent-Theorie . . . . . . . . . . . . . . .

35

4.2

Statische Ansiitze der Prinzipal-Agent-Theorie . . . . . . . . . . . . . . . .

38

4.3

4.2.1

Ein allgemeiner Ansatz . . . . . . . . . . . . . . . . . . . . . . . . .

38

4.2.2

Das LEN-Modell nach Spremann

...................

43

4.2.2.1

Die First-Best-Situation

...................

4.2.2.2

Die Second-Best-Situation . . . . . . . . . . . . . . . . . .

44 45

Dynamische Prinzipal-Agent-Ans~itze . . . . . . . . . . . . . . . . . . . . .

47

4.3.1

47

Modelle mit variabler Laufzeit T

...................

4.3.1.1

Ein dynamisches Modell nach H o l m s t r C m und M i l g r o m . .

4.3.1.2

Ein dynamisches Modell nach H o l m s t r C m mit Berficksichtigung von Lernen fiber Parameter

4.3.2

.............

4.3.1.3

Ein zeitdiskretes 0berwachungsmodell

4.3.1.4

Ein mehrperiodiges LEN-Modell

...........

53

..............

55 57

Behandlung verborgener Charaktereigenschaften des Agen-

4.3.2.2

ten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

58

Ein zweiperiodiges LEN-Modell . . . . . . . . . . . . . . .

60

Ein statisches LEN-Modell

65

5.1

Modellannahmen

5.2

Das Optimierungsproblem des Prinzipalen 5.2.1

................................

65

..................

67

Der First-Best-Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.1

67

Abh~ngigkeit der optimalen L6sung von der HShe des Parameters n

5.2.1.2

..........................

69

Abh~ingigkeit der optimalen LSsungvon der Risikoaversion des Agenten und der Streuung der Zufallsvariablen . . . .

73

5.2.1.3

Abh~ngigkeit der Ergebnisse v o n d e r HShe des Reservati-

5.2.1.4

Vergleich der First-Best-LSsung mit dem LEN-Modell nach

onsnutzens

..........................

74

74

Spremann . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.2.2

47 52

Zweiperiodige Prinzipal-Agent-Ans~tze . . . . . . . . . . . . . . . . 4.3.2.1

5

35

Der Second-Best-Fall . . . . . . . . . . . . . . . . . . . . . . . . . .

74

5.2.2.1

Abhiingigkeit der optimalen LSsung v o n d e r HShe der Er-

5.2.2.2

Abh~gigkeit des Optimums von der HShe der Risikoein-

fahrung n . . . . . . . . . . . . . . . . . . . . . . . .

.

. .

stellung des Agenten und der Varianz des E r g e b n i s s e s . . .

78

83

INHALTSVERZEICHNIS 5.2.2.3

XI

Abhs onsnutzens

5.2.3 6

86 86 89

6.1

89

6.3

Aufbau des Modells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . LSsung des Optimierungsproblems . . . . . . . . . . . . . . . . . . . . . . .

92

6.2.1

LSsung des Optimierungsproblems fiir die zweite Periode . . . . . .

93

6.2.2

LSsung des Optimierungsproblems fiir die erste Periode . . . . . . .

95

Numerische LSsung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

98

6.3.1

Vergleich der optimalen L5sungen fiir t = 1 und t = 2 . . . . . . . .

101

6.3.2

Der Einfluss der bisherigen Erfahrung no . . . . . . . . . . . . . . .

102

6.4

Verhalten des Systems fiir no --* cc

6.5

Vergleich mit dem statisch-komparativen LEN-Modell . . . . . . . . . . . .

......................

107 109

Ein dynamisches stetiges P r i n z i p a l - A g e n t - M o d e l l

111

7.1

Modellannahmen

111

7.2

LSsung des Optimierungsproblems . . . . . . . . . . . . . . . . . . . . . . .

113

7.2.1

Das Optimierungsproblem des Agenten . . . . . . . . . . . . . . . .

114

7.2.2

Das Optimierungsproblem des Prinzipalen

115

7.3

8

..........................

Vergleich der First-Best-Situation mit der Second-Best-Situation . .

Ein zweiperiodiges LEN-Modell

6.2

7

der Ergebnisse von der HShe des Reservati-

................................

Eigenschaften der LSsung

..............

...........................

118

7.3.1

Eindeutigkeit der LSsung . . . . . . . . . . . . . . . . . . . . . . . .

118

7.3.2

Verhalten des Systems ffir T ~ c~ . . . . . . . . . . . . . . . . . . .

119

Schlussbetrachtung

123

A Herleitung des Sicherheits~iquivalents im LEN-Modell

127

B

129

Mathematica-Programm

C Parameter

des LEN-Modells

Literaturverzeichnis

131

133

Abbildungsverzeichnis

2.1

Die Lernkurve nach Wright im kartesichen Koordinatensystem . . . . . . .

8

2.2

Die Lernkurve nach Wright im doppelt-logarithmischen Koordinatensystem

9

2.3

Die Lernkurve des Stanford-Research-Instituts im kartesischen Koordinatensystem

2.4

....................................

13

Die Lernkurve des Stanford-Research-Instituts im doppelt-logarithmischen Koordinatensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

2.5

Die konvexe Lernkurve nach B a u r . . . . . . . . . . . . . . . . . . . . . . .

15

2.6

Die konvexe Lernkurve nach Baloff

15

2.7

Die S-fdrmige Lernkurve nach Cochran . . . . . . . . . . . . . . . . . . . .

16

2.8

Die S-fdrmige Lernkurve nach B a u r . . . . . . . . . . . . . . . . . . . . . .

18

2.9

Die Lernkurve nach Levy . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

4.1

Entscheidungsablauf in der Hidden-Action-Situation . . . . . . . . . . . . .

37

4.2

Entscheidungsablauf in der Hidden-Information-Situation . . . . . . . . . .

38

4.3

Entscheidungsablauf in der Hidden-Characteristics-Situation

39

4.4

Entscheidungsablauf in zweiperiodigen Prinzipal-Agent-Modellen . . . . . .

58

5.1

H6he yon 7/abh~ingig yon der Erfahrung n

..................

70

5.2

HShe von Vl abh~ingig v o n d e r Erfahrung n . . . . . . . . . . . . . . . . . .

71

5.3

HShe von v2 abh~ingig v o n d e r Erfahrung n . . . . . . . . . . . . . . . . . .

72

5.4

HShe von 7fEB abh~ingig von der Erfahrung n . . . . . . . . . . . . . . . . .

73

5.5

HShe von 7fEB abh~ingig vom Reservationsnutzen . . . . . . . . . . . . . . .

75

5.6

HShe von v~ abhiingig von der HShe der Erfahrung n

............

79

5.7

HShe von a* abh~ingig v o n d e r HShe der Erfahrung n

............

5.8

HShe der Risikopr~mie abh~ingig von der HShe der Erfahrung n

5.9

HShe yon v~ abh~ngig v o n d e r HShe der Erfahrung n

......................

5.10 H6he von nSB abh~ingig von der HShe der Erfahrung n

........

............ ...........

80 ......

81 82 83

5.11 HShe von v~ abhiingig von r . . . . . . . . . . . . . . . . . . . . . . . . . .

84

5.12 H6he von a* abh~ingig yon r . . . . . . . . . . . . . . . . . . . . . . . . . .

85

A B B IL D UN G S VERZEI CHNIS

XIV

5.13 HShe von v~ abh~ingig von r . . . . . . . . . . . . . . . . . . . . . . . . . . 5.14 HShe von 7rsB abh/ingig von r 5.15 HShe der Gewinndifferenz 6.1

86

.........................

7fEB -- 7rSB

87

abh/ingig von n . . . . . . . . . . . .

88

Entscheidungsablauf im zweiperiodigen Modell . . . . . . . . . . . . . . . .

90

6.2

HShe des optimalen Gewinnanteils des Agenten v~,1 abh~ngig von no . . . .

103

6.3

HShe des optimalen Gewinnanteils v*1 , 2 abh~ngig von no

104

.

.

.

.

.

.

.

.

.

.

.

6.4

HShe des optimalen Arbeitseinsatzes a~ abh~ngig von no

..........

105

6.5

HShe des optimalen Arbeitseinsatzes a~ abh~ngig von no

..........

105

.

6.6

HShe der optimalen fixen Vergiitung v*2 , 1 abh/ingig von no

6.7

Die HShe der optimalen fixen Vergiitung v~,2 abh/ingig von no

6.8

HShe des diskontierten erwarteten Gewinns abh~ingig von no . . . . . . . .

.

.

.

.

.

.

.

.......

.

.

106 106 107

1

Einleitung

Die Auswirkungen von 0bungseffekten auf Qualitiit und Geschwindigkeit eines Produktionsprozesses wurden erstmals von

Wright in betriebswirtschaftliche Problemstellungen

integriert. Wghrend seiner Tgtigkeit ffir die Wright-Patterson Air Force Base beobachtete er erstmals 1922, dass die Kosten pro hergestelltem Flugzeug mit der ErhShung der kumuliert hergestellten Menge sanken. Diese Erkenntnis wurde 1936 aus Anlass einer Ausschreibung des Bureau of Air Commerce fiber den Bau von 10.000 zweisitzigen Flugzeugen zu je 700 Dollar verSffentlicht. 1 Die von

Wright formulierte Gesetzm~fligkeit ffihrte zu einer Vielzahl von Untersuchungen,

die die von ihm formulierte Lernkurve in einer g r o ~ n Zahl unterschiedlicher Unternehmen zum Teil best~itigten, zum Teil aber auch um wichtige Komponenten erg~nzten. 2 Die Lernkurve wurde aus diesem Grund als wichtiges Instrument der strategischen Planung angesehen. 3 Trotz ihrer breiten empirischen Basis ist nur wenig fiber die Ursachen des Kostenrfickgangs durch/Jbung bekannt. Einen wichtigen Aspekt stellt dabei der Rfickgang der Bearbeitungszeit pro Mengeneinheit der Ausffihrenden dar3 Mit dessen Ursachen befassen sich die Theorien des kognitiven Fertigkeitserwerbs, innerhalb derer eine der Lernkurve nach Wright (1936) sehr ~hnliche Potenzfunktion als Gesetzm~i~igkeit bezeichnet wird. ~ All diesen Ans~itzen ist gemein, dass die Verringerung der Bearbeitungszeit durch 0bung lediglich als potenziell angesehen wird. Wie dieses Potenzial in einen realen Kostenrfickgang zu iiberffihren ist, und in welchem Ausmafl dies ffir ein Unternehmen sinnvoll ist, blieb bisher ungekl~rt. Da diese Fragestellung die Beziehungen zwischen Arbeitgebern und Arbeitnehmern berfihrt, ist sie in das Grundmodell der Prinzipal-Agent-Theorie einzuordnen. 1 2 3 4 5

Vgl. Wright (1936). Fiir einen Uberblick fiber diese Untersuchungen vgl. unter anderem Asher (1956), Yelle (1979), Schneider (1965), Dar-El (2000). Vgl. Schneider (1965), Baur (1967), Hieber (1991), Dar-E1 (2000). Vgl. Wright (1936), Henfling (1978) und Dar-E1 (2000). Vgl. Logan (1988), S. 495.

2

KAPITEL 1. EINLEITUNG

Diese Theorie beschreibt die Verhaltensinterdependenzen, die auf Grund unterschiedlicher Zielstellungen zwischen einem Auftraggeber (Prinzipal) und einem Auftragnehmer (Agent) bestehen. Die durch die Delegation von Aufgaben an einen Agenten entstehende Informationsasymmetrie kann von diesem zur Verwirklichung eigener Zielsetzungen zu Ungunsten des Prinzipalen genutzt werden. Dies weitestgehend durch eine optimale Vertragsgestaltung zu steuern, ist Aufgabe der Prinzipal-Agent-Theorie. Die Betrachtung dieser Anreizproblematik erfolgte in der Literatur zuniichst anhand statischer Modelle, um spRter auch dynamische Problemstellungen zu behandeln. Zwar wird von einigen Autoren s darauf verwiesen, dass Agenten auf Grund unterschiedlicher ,,Talente" ihre Aufgaben innerhalb einer vertraglichen Beziehung mit einer von ihrer Person abhiingigen Produktivitiit ausiiben. Eine Veriinderung dieses Faktors durch 0bungseffekte des Agenten und die daraus resultierende optimale Vertragsgestaltung wurde in der Literatur bisher jedoch nicht untersucht. Zielsetzung dieser Arbeit ist es deshalb, mit Hilfe einer deduktiven Analyse zu untersuchen, wie eine solche optimale Vertragsgestaltung unter Beriicksichtigung von l)bungseffekten des Agenten zu erfolgen hat. Diese 0bungseffekte sollen mit Hilfe der kognitiven Theorien des Fertigkeitserwerbs modelliert werden, die im Bereich der Ausfibung kognitiver T~tigkeiten ein breites Ma~ an Zustimmung bezfiglich der Modellierung des Riickganges der Bearbeitungszeit durch Ubung erhalten haben. ~ Ausgehend von dieser Problemstellung sollen zuniichst verschiedene betriebswirtschaftliche Modelle des Kostenriickgangs durch 0bung vorgestellt werden. Auf Grund ihrer Fiille erfolgt hier eine Beschriinkung auf die in der Literatur immer wieder beschriebenen Ansiitze nach Wright, des Stanford-Research-Instituts, der konvexen Lernkurve, der S-fSrmigen Lernkurve nach Baur und der Lernkurve nach Levy. Daran anschlie~nd werden verschiedene Theorien des kognitiven Fertigkeitserwerbs als einer Ursache des Kostenriickgangs durch 0bung erliiutert. Dazu erfolgt ihre Einbettung in Theorien des Menschlichen ProblemlSsens als Teilgebiet der Allgemeinen Psychologie. Weiter werden verschiedene Ansiitze der statischen und dynamischen Prinzipal-AgentTheorie dargestellt und es wird untersucht, inwieweit sie zur LSsung von Verhaltensinterdependenzen unter Beriicksichtigung von Lernkurveneffekten beitragen kSnnen. Zur Modellierung von Ubungseffekten im Rahmen der Prinzipal-Agent-Theorie wird ein aus dem Potenzgesetz der Ubung und dem Lernkurvenmodell nach DeJong ermittelter Vgl. HolmstrCm (1999) und Blickle-Liebersbach(1989). Vgl. Newell und Simon (1972), Anderson (1996), Haider und Kluwe (1994), Delaney u.a. (1998), Haider und Frensch (2002),Logan (1988),Palmeri (1997) und Rickard (1997). ,

Produktivit~tsparameter r/eingefiihrt und in das LEN-Modell nach Spremann integriert. Im Rahmen einer zun~chst komparativ-statischen Analyse werden die Auswirkungen der bisherigen Erfahrung eines Agenten auf dessen optimale Entlohnung, Arbeitseinsatz und Output aufgezeigt. Dabei treten deutliche Unterschiede zwischen geiibten und ungeiibten Agenten auf. Weiter wird analysiert, wie ein Prinzipal in mehrperiodigen Prinzipal-Agent-Beziehungen den Arbeitseinsatz des Agenten steuern kann, um mit Hilfe des erreichten Ubungsfortschritts die aus der Vertragsbeziehung resultierenden Uberschfisse zu erhShen. Dieses Problem wird zun~chst anhand eines zweiperiodigen Modells analysiert und fiir verschiedene Parameterkonstellationen gelSst. Dabei zeigt sich deutlich die Einbeziehung mehrperiodiger Konsequenzen in die Optimierungsiiberlegungen des Prinzipalen. Abschlieflend wird eine dynamisch-stetige Prinzipal-Agent-Beziehung mit festem Endzeitpunkt untersucht. Auf Grund der mangelnden LSsbarkeit dieses Optimierungsproblems kSnnen hier jedoch nur qualitative Aussagen zur LSsung des Optimierungsproblems getroffen werden.

2

Das Lernkurvenkonzept

Das Lernkurvenkonzept besagt im Wesentlichen, dass bei Verdoppelung der kumuliert hergestellten Ausbringungsmenge bestimmte KostengrSflen um einen konstanten Prozentsatz zurfickgehen. 1 Diese Gesetzm~fligkeit wurde 1936 erstmals von Wright2 publiziert? Er nannte mehrere Kostensenkungspotentiale. Neben einer kostensparenden Konstruktionsweise ist dies vor allem der ,,Effect of Quantity", der Effekt der kumuliert hergestellten Menge. 4 Sie hat nach Wright Einfluss auf die Arbeits-, Material- und Gemeinkosten pro hergestellter Mengeneinheit. Den Kostenriickgang F beschreibt er anhand der kumulierten Ausbringungsmenge mittels F = n -b,

(2.1)

wobei b einen geeigneten Parameterwert annimmt. Wright nennt in seiner VerSffentlichung beispielhaft b = 0.322. ~ Dies entspricht bei Verdoppelung der kumuliert hergestellten Ausbringungsmenge einem Riickgang der Kosten pro hergestellter Mengeneinheit auf achtzig Prozent. Die an Wright anschlieflenden Arbeiten befassen sich mit der Lernkurve als Instrument der Kostenkontrolle. 6 Dies war die Folge der Suche nach pr~izisen Zeit- und Kostensch~itzungen zum Bau von Flugzeugen und Schiffen w~hrend des zweiten Weltkrieges durch die US-Regierung. 7 Die resultierenden Arbeiten befassen sich mit alternativen Lernkurvenverl~ufen 8, Parametersch~tzproblemen 9, Produktionsplanung 1~ dem Einfluss der kumuliert hergestellten Menge auf die Produktqualitgt 11 sowie der Modellierung der Auswirkung von Produktionsunterbrechungen auf die Kosten pro hergestellter Mengenein1 Vgl. dazu unter anderem Yelle (1979), Hieber (1991) und Dar-E1 (2000). 2 Vgl. Wright (1936). 3 Vgl. Wright (1936), S. 122. 4 Vgl. Wright (1936), S. 124. 5 Vgl. Wright (1936), S. 124. 6 Vgl. ffir einen (~berblick etwa Arrow (1962), Alchian (1963) und Asher (1956). T Vgl. Hieber (1991), S. 19. s Vgl. DeJong (1957), Baloff (1971), Levy (1965) und Cochran (1960). 9 Vgl. etwa Globerson und Gold (1997), Chen und Manes (1991) und Bailey und McIntyre (1997). 10 Vgl. Allwood und Lee (2004), Kantor und Zangwill (1991), Dinopoulus u.a. (1995) und Werkmeister (200o). 11 Vgl. Ittner u.a. (2001), Lapre u.a. (2000), Fine (1988).

6

KAPITEL 2. DAS LERNKURVENKONZEPT

heit 12. In der deutschsprachigen Literatur findet die Lernkurve erstmals bei Schneider 13 Erw~i~hnung, der in ihr die empirische Begriindung fiir die Formulierung einer dynamischen Kostentheorie sieht. Weitere deutschsprachige Zusammenfassungen verschiedener Lernkurvenverl/iufe wurden etwa von Baur 14, Henfling 15 und Hieber 16 verSffentlicht. 2.1

Betriebliches Lernen

Henfling versteht unter Lernen in der industriellen Produktion in Anlehnung an den systemtheoretischen Ansatz einen dynamischen Prozess der Verwertung von Informationen zur quantitativen und qualitativen Umgestaltung von betrieblichen Strukturen und Prozessen. 1~ Er unterscheidet dabei nach dem Tr~ger des betrieblichen Lernens in individuelle und kollektive Lernprozesse. 2.1.1

Individuelles betriebliches Lernen

Individuelles betriebliches Lernen findet in Unternehmen dann statt, wenn die Ausfiihrenden im Laufe des Produktionsprozesses ihre Effizienz durch st~indige Wiederholungen steigern kSnnen. TM Das Ausmafl des individuellen Lernens wird nach Dar-El durch vorherige Erfahrung, Training, Motivation, die Komplexit/it der zu bearbeitenden Aufgabe, die Anzahl der bisher durchgefiihrten Wiederholungen der Aufgabe und durch Produktionsunterbrechungen beeinflusst. 19 Die pers6nlichen Lernkurven der Ausfiihrenden, welche sich der gleichen T/itigkeit widmen, kSnnen sich stark unterscheiden. 2~ Die psychologischen Ursachen des Zustandekommens individuellen Lernens werden in Kapitel 3 ausfiihrlich diskutiert. Dort zeigt sich die enge Verkniipfung des individuellen Lernens mit der Lernkurventheorie. Aus diesem Grunde soll auf das individuelle Lernen dort eingegangen werden. 2.1.2

Organisationales Lernen

Nach Staehle ist organisationales Lernen ,,eine Ver~inderung von Wissensbest~nden der ganzen Organistation". 21 Diese Art des Lernens kann in Form inkrementeller Anpassung 12 is 14 15 16 17 IS 19 20 21

Vgl.Bailey (1989) und Arzi und Shtub (1997). Vgl. Schneider (1965). Vgl. Baur (1967). Vgl. Henfling (1978). Vgl.Hieber (1991). Vgl. Henfling (1978), S. 20. Vgl.Henfling (1978), S. 21. Vgl.Dar-El (2000), S. 12. Vgl. Dar-E1 (2000), S. 12. Staehle(1999), S. 915.

Angela Kunow Anreizsteuerung unter Beriicksichtigung von Lernkurveneffekten

8

K A P I T E L 2. D A S L E R N K U R V E N K O N Z E P T k(n) 100

80

60

40

20

,

i

,

i

20

i

i

,

i

40

,

,

i

i

,

60

,

,

i

i

80

,

,

i

100

Abbildung 2.1: Die Lernkurve nach Wright im kartesischen Koordinatensystem ffir b = 0, 322. Quelle: eigene Darstellung.

2.2.1

Die Linearhypothese nach Wright

Im Rahmen der Linearhypothese wird angenommen, dass der Kostenriickgang durch Ubung bei Verdoppelung der kumuliert hergestellten Ausbringungsmenge durch einen konstanten Prozentsatz angegeben werden kann. 29 Dieser Kostenriickgang wird auch als Lerngrad bezeichnet. Die dazugehSrige Kostenfunktion hat die Form

k(n) = k2 . n -b

(2.2)

wobei 0 < b _< 1 als Lernparameter bezeichnet wird, k2 eine geeignete Konstante ist und k(n) die Kosteninformation der n-ten Einheit bezeichnet. 3~ Ein solcher Kostenriickgang wird beispielhaft in Abbildung 2.1 dargestellt. Die Potenzfunktion (2.2) wird als Linearhypothese bezeichnet, da sie sich ~iquivalent zu log k(n) = log k2 - b log n

(2.3)

29 Vgl. Schneider (1965), S. 504. 30 Die Funktion k(n) wird in der Literatur fiir die durchschnittlichen Stiickkosten oder die zusiitzlichen Kosten der n-ten Einheit verwendet. Auf die Diskussion zur Verwendung yon k(n) wird im Folgenden n~iher eingegangen.

2.2. BETRIEBLICHE LERNKURVENMODELLE

9

log k(n) IO0

,

|

1

2

IO

5

,

,

5O

IO0

Abbildung 2.2: Die Lernkurve nach Wright im doppelt-logarithmischen Koordinatensystem ffir b = 0,322.

Quelle: eigene DarsteUung umformen l ~ s t und somit in einem doppelt-logarithmischen Koordinatensystem durch eine Gerade abgebildet werden kann. Dies wird fiir b = 0,322 in Abbildung 2.2 dargestellt.

Wright fiihrte zuns

einen Kosten~nderungsfaktor F mit

F(n) = n -b

(2.4)

ein, welcher beschreibt, wie sich die Kosten der n-ten Einheit im Vergleich zur ersten Einheit ~ndern. Setzt man F(n)=

k(n)

k2'

(2.5)

so resultiert die Linearhypothese der Lernkurve. F wird auch als Lernrate bezeichnet und gibt fiir n = 2 an, auf wieviel Prozent der Kosten der n-ten Einheit die Kosten pro Mengeneinheit bei Verdoppelung der kumuliert hergestellten Ausbringungsmenge sinken. Sollten an Hand yon Kostensch/~tzungen nur die Werte F(n) und F(2n) bekannt sein, so kann daraus mittels r

--

F(2n) _ 2_ b

(2.6)

der Parameter b durch b = log 2 r bestimmt werden. Uber Art und Umfang der in die Untersuchung einbezogenen Kosten macht Wright keine eindeutigen Angaben. So wird nicht klar, ob fiir seine Untersuchungen Grenz- oder Durch-

KAPITEL 2. DAS LERNKURVENKONZEPT

10

schnittskosten verwendet wurden. Zwar stellt er in einer Abbildung 31 den Kostenrfickgang

als ,Approximate Cost of the Last Machine of a Series "32 dar, in weiteren Abbildungen 33 wird F jedoch als ,Average Cost Ratio "34 bezeichnet. Auf Unterschiede in beiden Bezeichnungen wird in Abschnitt 2.2.1.2 n~her eingegangen. Weiter schreibt Wright, dass dieser Kostenrfickgang sowohl ffir die Gemeinkosten als auch die Material- und Lohnkosten genauso wie ffir die Herstellung des gesamten Flugzeuges gilt. s5 Diese Behauptung ist aus mehreren Grfinden widersprfichlich. Zum Einen sind die Aussagen fiber die Gemeinkostenentwicklung umstritten. 36 Zum Anderen ist es mathematisch unmSglich, dass die Kostenrfickg~nge der Gemeinkosten, der Materialkosten und der Lohnkosten sowohl separat als auch in ihrer Summe als Rfickgang der gesamten Kosten eines Flugzeuges einer Potenzfunktion genfigen, wenn die dazu gehSrigen Lernparameter nicht fibereinstimmen. Eine solche 0bereinstimmung wurde selbst von Wright abgelehnt. 3~ Ein weiterer Nachteil der Linearhypothese nach Wright ist die Konvergenz der KostengrSi3e gegen null, wenn eine geniigend hohe Ausbringungsmenge hergestellt wird. Dies zu fiberkommen, haben sich die in Abschnitt 2.2.2 vorzustellenden Ans~itze zur Aufgabe gemacht. Zun~chst soll jedoch untersucht werden, welche KostengrSt3en gemiit3 dem Ansatz nach

Wright einer Lernkurve unterliegen. Wie bereits dargelegt wurde, macht Wright in seinem Ansatz nicht deutlich, ob seinen Sch~tzungen Durchschnitts- oder Stfickkosten zu Grunde liegen. Im Folgenden wird deshalb dargelegt, wodurch sich beide Ans~tze unterscheiden. Weiter wird untersucht, ob der Nachweis des Vorliegens einer Lernkurve ffir eine der beiden KostengrSt3en im Widerspruch zum Vorliegen dieser Gesetzmiit~igkeit ffir die jeweils andere KostengrSt3e steht.

2.2.1.1

Die Stfickkostenbetrachtung

Bei dieser Form der Lernkurvenbetrachtung wird unterstellt, dass die Stfickkosten der n-ten hergestellten Einheit

ks(~) = k~. ~-~ 31 32 3a 34 35 38 37

Vgl.Wright (1936), S. 122, Abbildung 2. Wright(1936), S. 122, Abbildung 2. Vgl.Wright (1936), S. 125, Abbildungen 3 und 4. Wright(1936), S. 125, Abbildungen 3 und 4. Vgl.Wright (1936), S. 124 ft. Vgl. Asher (1956), S. 116 ft.; Schneider (1965), S. 503 f. Vgl. Wright (1936), S. 125 f.

(2.7)

2.2.

BETRIEBLICHE

LERNKURVENMODELLE

11

betragen. Vielfach wird diese Form der Lernkurve auf C r a w f o r d zuriickgefiihrt 3s, obwohl einige Autoren a9 die Meinung vertreten, sie wurde erstmals von W r i g h t formuliert. Wie bereits dargelegt wurde, kann dies auf Grund der nicht eindeutigen Darstellung von W r i g h t nicht abschlieflend entschieden werden. Aus dieser Lernkurve lassen sich verschiedene KostengrSflen ableiten. So kSnnen die Gesamtkosten zur Herstellung der ersten n Einheiten mittels eines uneigentlichen Integrals durch KS(N)

=

k s . n -b -

kS

-1-b

n 1-b

(2.8)

berechnet werden, die durchschnittlichen Kosten pro Mengeneinheit betragen KS(n)

n

= 1.

n

ks

1 -b

l.tl_b_ " k f ?z_b. 1 -b

(2.9)

Diese G r S ~ n kSnnen als Kostensch~tzung flit die betriebliche Planung genutzt werden. Aus ihnen lassen sich eine Reihe weiterer relevanter KostengrSflen wie etwa die Kosten von Zusatzauftr~gen ableiten. 4~

2.2.1.2

Die Durchschnittskostenbetrachtung

Die Durchschnittskostenbetrachtung geht v o n d e r Hypothese aus, dass sich die Durchschnittskosten zur Herstellung der n-ten Einheit gemiifl k D ( n ) = k D 9n -b

(2.10)

verhalten. Trotz der formalen Gleichheit unterscheidet sich dieser Ansatz von der Stiickkostenbetrachtung. Hier werden die Gesamtkosten zur Herstellung der ersten n Einheiten mittels K D ( n ) = (k D 9n - b ) . n = k D 9n 1-b

(2.11)

bestimmt, die Stiickkosten der Herstellung der n-ten Mengeneinheit kSnnen als erste Ableitung der Gesamtkostenfunktion durch k s ( n ) = k D . (1 - b) n -b

(2.12)

angegeben werden. 38 Dies unterstellen u. a. Schneider (1965), Henfling (1978), Hieber (1991) und Waterworth (2000). 39 Vgl. Baur (1967), Weiser (1996). 40 Vgl. dazu Hieber (1991), S. 63.

12

KAPITEL 2. DAS LERNKURVENKONZEPT

Insbesondere durch Gleichung (2.12) wird deutlich, dass die t~hnlichkeit beider Konzepte fiber formale Strukturen hinausgeht. Setzt man k s = k2O(1- b), so wird die Aquivalenz beider Systeme deutlich. Kostenverl/iufe, die in der Stfickkostenbetrachtung einer Lernkurve genfigen, tun dies auch in der Durchschnittskostenbetrachtung. Die jeweiligen Lernkurvenverl/iufe unterscheiden sich nur um den Faktor (1 - b ) . Bei der Anwendung der Lernkurve auf Probleme der betrieblichen Planung ist jedoch genau zu unterscheiden, ob zur Sch~tzung des Parameters k2 die Einheits- oder die Durchschnittsbetrachtung verwendet wurde, da ansonsten die Gefahr besteht, Kostensch~itzungen auf Basis des jeweils anderen Modells durchzufiihren. 41

2.2.2 Modifikationen der Linearhypothese Die Formulierung der Linearhypothese nach Wright l~i,sst Raum fiir zahlreiche Modifikationen. 42 So konvergiert etwa die klassische Lernkurve filr sehr grofle kumuliert hergestellte Mengen gegen Stiickkosten von null. Dies konnte empirisch jedoch oftmals nicht best/itigt werden. 43 Weiter beriicksichtigte Wright bei seiner Linearitgtsannahme des Lernens auch nicht, dass vor Beginn der Produktion bereits Erfahrung aus der Herstellung ~hnlicher Produkte bestehen kann. Diese Nachteile zu fiberkommen, haben sich die im Folgenden vorzustellenden Ansgtze zur Aufgabe gemacht.

2.2.2.1 Die Lernkurve des Stanford-Research-Instituts Das Stanford-Research-Institut konnte im Rahmen einer vonder amerikanischen Luftwage in Auftrag gegebenen Studie feststellen, dass bisherige Erfahrungswerte der Belegschaft das Lernverhalten beeinflussen. 44 Aus diesem Grund wird eine Modifikation der Lernkurve zu

k(~) = k~ (n + ~)-~

(2.13)

vorgeschlagen. Der Parameter c misst dabei die vor Beginn des Produktionsprozesses vorhandene Erfahrung. Das Stanford-Research-Institut nennt Werte von null bis 10,4 ffir c. Diese Lernkurve wird in Abbildung 2.3 beispielhaft dargestellt und hat, wie in Abbildung 2.4 ersichtlich, in einem doppelt-logarithmischen Koordinatensystem einen konkavfallenden Verlauf, der sich der Lernkurve nach Wright asymptotisch ann/ihert. 41 Henfling(1978), Hieber (1991) und Waterworth (2000) weisen in ihren Arbeiten mit Nachdruck darauf hin, dass zu unterscheiden ist, auf Basis welcher Daten die zu Grunde liegende Lernkurve ermittelt wurde. 42 Vgl. zu zusammenfassenden Darstellungen etwa Yelle (1979), Schneider (1965), Coenenberg (1970) und Dar-El (2000). 4s Vgl.unter anderem Baloff (1971), Baur (1967), Dar-El (2000). 44 Vgl. Asher (1956).

2.2. BETRIEBLICHE LERNKURVENMODELLE

13

]=(a) 5O

\ \

4O

Lernkurve des SRI

20

40

60

80

100

Abbildung 2.3: Die Lernkurve des Stanford-Research-Instituts und die Lernkurve nach Wright im kartesischen Koordinatensystem fiir b = 0,322 und c = 10.

QueIle: eigene Darstellung.

l~n) 1(I)

~.

7O

\

Lemkurve nach Wright

311 Lernkurve des SRI

1

2

5

10

20

50

Abbildung 2.4: Die Lernkurve des Stanford-Research-Instituts im doppeltlogarithmischen Koordinatensystem ffir b = 0,322 und c = 10.

Quelle: eigene Darstellung.

100

14

K A P I T E L 2. DAS L E R N K U R V E N K O N Z E P T

Die vorherige Erfahrung c wirkt sich hier wie eine Verschiebung der Lernkurve nach Wright um c Einheiten nach links aus. Die Kosten der n-ten Einheit nach der Lernkurve des Stanford-Research-Institutes entsprechen den Kosten der (n + c)-ten Einheit nach Wright. 45

2.2.2.2

Die konvexe Lernkurve

Im Gegensatz zur Lernkurve des Stanford-Research-Instituts, welche die Linearhypothese nach Wright vor allem ffir geringe kumuliert hergestellte Mengen modifiziert, setzt die konvexe Lernkurve an der Kritik der Konvergenz der Lernkurve gegen Stfickkosten von Null fiir sehr hohe Produktionsmengen n und dem konstanten Lernparameter b an. Diese wird von Baur 46 mit Hilfe von Nebenlerngeraden umgesetzt. So verlaufen die Stfickkosten bis zu einem Wert nH zun~chst gemiit3 der klassischen Lernkurve nach Wright. Ffir nH 0, 95) an empirische Lernkurven angepasst werden kSnnen, die experimentell bestimmten Daten systematische Abweichungen aufweisen. Beide Autoren wiesen nach, dass separate Potenzfunktionen wesentlich besser an die beobachteten Daten angepasst werden kSnnen, fiihren dies allerdings darauf zuriick, dass gem~i~s den Erkenntnissen von Logan zuniichst eine algorithmusbasierte und anschliet3end eine ged~ichtnisbasierte Aufgabenbearbeitung erfolgt. Diesen unterschliedlichen Bearbeitungsweisen entspr~ichen nach ihren Hypothesen unterschiedliche Potenzfunktionen. s0 51 s2 53 54 ss

Vgl. Haider und Frensch (1997), S. 523. Vgl. Logan (1988), S. 495 und Anderson (1996), S. 277. Vgl. Anderson (1996), S. 279. Vgl.Logan (1988), S. 494. Vgl. Rickard (1997). Vgl.Delaney u.a. (1998).

3.3. D E N K E N

UND PROBLEML(JSEN

33

H a i d e r und Frensch ~ konnten in ihren Arbeiten jedoch nachweisen, dass ein solcher

Sprung zwischen Potenzfunktionen auch auf einen bewussten Wechsel der Bearbeitungsstrategie zuriickgefiihrt werden kann. Sie verwendeten dazu sogenannte alphabetische Zeichenfolgen, die, sofern sie korrekt sind, aus im Alphabet aufeinanderfolgenden Buchstaben und einem Buchstabe-Zahl-Buchstabe-Tripel bestehen, wobei die Zahl innerhalb des Tripels die Anzahl der zwischen den Buchstaben fehlenden Buchstaben angibt. 5~ Aufgabe der Probanden in den Untersuchungen von H a i d e r und Frensch war es, solche Zeichenfolgen komplett auf ihre Richtigkeit hin zu iiberpriifen. Diese waren jedoch so gew~hlt, dass Fehler zun~ichst ausschlie61ich in der Buchstabe-Zahl-Buchstabe Kombination enthalten waren. Diese Besonderheit wurde den Versuchspersonen nicht bekannt gegeben. Um zu iiberpriifen, ob die Probanden diese Eigenheit im Versuchsablauf erkannt hatten, wurde am Ende des Experiments ein Transferblock vorgegeben, der auch Fehler ausserhalb des Tripels aufwies. Anhand von Einzelfallstudien konnten die Autoren nachweisen, dass bei Anpassung einer Potenzfunktion an die empirisch ermittelten Daten systematische Abweichungen vorlagen, bei Anpassung zweier separater Funktionen jedoch nicht. Ebenso konnte gezeigt werden, dass die beobachteten Unstetigkeiten auf einem strategischen Wechsel der Bearbeitungsstrategie beruhten. Dieser Wechsel wurde als ein vom Individuum bewusst vorgenommener Wechsel identifiziert. ~s Zusammenfassend kann somit gesagt werden, dass im informationstheoretischen Ansatz des Probleml5sens das Potenzgesetz der 0bung als allgemeingfiltig, ja sogar als Bew~hrungsprobe fiir Modelle des kognitiven Fertigkeitserwerbs betrachtet wird, sofern kein strategischer Wechsel der Bearbeitungsstrategie stattfindet. Sollte solch ein Wechsel stattfinden, kann dies nur mit der Anpassung an eine separate Potenzfunktion erfolgen. Ein Wechsel der Bearbeitungsstrategie ist auf die willentliche Entscheidung des ausfiihrenden Individuums zurfickzufiihren. In Anlehnung an die Erkenntnisse des informationstheoretischen Ansatzes des ProblemlSsens werden im weiteren Lernkurven der Form t(n) = kl -~- k2 9n -b

betrachtet und fiir die Modellierung von Prinzipal-Agent-Beziehungen genutzt. Diese Form des Riickgangs der Bearbeitungszeit durch/Jbung wurde sowohl fiir kognitive Pro56 Vgl.Haider und Frensch (1996), Haider und Frensch (1999a),Haider und Frensch (1999b) und Haider und Frensch (2002). 57 So ist zum Beispiel die Folge A B C [3] G H korrekt, w~hrend dies bei C D E [3] H nicht der Fall ist. 5s Vgl. Haider und Frensch (2002), S. 398.

34

KAPITEL 3. MENSCHLICHES PROBLEMLOSEN

zesse wie etwa mathematische Beweisfiihrung als auch f'tir iiberwiegend mechanische Arbeiten 59 nachgewiesen. Das Potenzgesetz der Ubung kann somit auf dispositive T/itigkeiten ebenso wie auf die betriebliche Produktion angewendet werden. Um seinen Einfluss auf die optimale Vertragsgestaltung zwischen Prinzipal und Agent zu untersuchen, sollen zun/ichst grundlegende Ans~itze der Prinzipal-Agent-Theorie vorgestellt werden.

59 Vgh Crossman (1959).

4

Ausgew~ihlte

Ans~itze der Prinzipal-Agent-Theorie

4.1

Das G r u n d p r o b l e m der P r i n z i p a l - A g e n t - T h e o r i e

In jedem Unternehmen, welches aus mehr als einer Person besteht, sind innerbetriebliche Arbeitsteilung und Kooperation grundlegend zur Erreichung des unternehmerischen Sachziels. 1 Daxfiber hinaus finden sich solche Beziehungen auch unternehmensfibergreifend, wie zum Beispiel zwischen Zulieferer und Abnehmer oder Fremdkapitalgeber und Unternehmen. Diesen arbeitsteiligen Beziehungen ist meist gemein, dass eine Partei, der Prinzipal, eine Aufgabe nicht selbst fibernimmt, sondern an eine zweite Partei, den Agenten, delegiert. Eine zentrale Fragestellung der Analyse derartiger Beziehungen ist, inwieweit der Prinzipal sicherstellen kann, dass der Agent in seinem Sinne handelt. 2 Dies kann durch die Festlegung beiderseitiger Vereinbarungen in Form eines Vertrages niedergelegt werden. Als Vertrag wird dabei im Folgenden ein/Jbereinkommen zwischen zwei Parteien verstanden, in dem ffir alle mSglichen Ereignisse, die im Verlauf der vertraglichen Beziehungen auftreten kSnnen, die Beitr~ge zur gemeinsamen Zusammenarbeit und die Beteiligung am Erfolg im Voraus festgelegt werden. 3 Entscheidendes Vertragsmerkmal ist seine Verifizierbarkeit. Insbesondere sollte eine dritte Partei, wie etwa ein Gericht, in der Lage sein, zu erkennen, ob ein Vertragselement eingetreten ist oder nicht. Jede Partei kann also die Vertragserffillung gerichtlich durchsetzen. Im Folgenden wird davon ausgegangen, dass beide Parteien nur durch solch einen Vertrag zu ad~quatem Verhalten gezwungen werden kSnnen. Das Handeln beider Parteien ist dariiber hinaus ausschliefllich an der eigenen Nutzenmaximierung ausgerichtet. Dies kann zu Interessenkonflikten zwischen Prinzipal und Agent fiihren, die entsprechend der vertraglichen Regelungen gelSst werden kSnnen. Dieser potentielle Interessenkonflikt ist eine grundlegende Annahme der Prinzipal-Agent-Theorie 4 und basiert auf den im Folgenden zu erl~uternden Annahmen fiber beide Parteien. x 2 3 4

Vgl. Jost (2000), S. 17 ft. Vgl. Jost (2001), S. 12. Vgl. Schweizer (1999), S. 6. Vgl. Jost (2001), S. 12.

36 KAPITEL 4. AUSGEWAHLTE ANSATZE DER PRINZIPAL-AGENT-THEORIE Der Prinzipal ist an einem hSchstm6glichen Arbeitseinsatz des Agenten interessiert und entlohnt diesen auf Basis einer ErfolgsgrSfle x, die unter anderem durch die HShe des Arbeitseinsatzes a des Agenten bestimmt ist. Ziel des Prinzipalen ist es, seinen Nutzen, der sich aus der Differenz aus ErfolgsgrS~ und Entlohnung s(x) des Agenten ergibt, zu maximieren:

Up(x, s(x)) --~ max

(4.1)

Damit ist er an einem mSglichst hohen Arbeitseinsatz dieser Partei interessiert, wobei ihm deren Entlohnung allerdings einen Nutzenentgang bereitet. Dem Agenten dagegen entstehen dutch die Vertragsgestaltung Kosten etwa in Form von Arbeitsleid, die aus seiner Sicht so gering wie mSglich zu halten sind. Sein Ziel ist es, seine Entlohnung abziiglich dieser Kosten zu maximieren. Im Rahmen der Gestaltung der vertraglichen Beziehung muss beriicksichtigt werden, dass der Agent den Vertrag auch ablehnen kann. Dies wird er immer dann tun, wenn der maxireal aus der Vertragsbeziehung resultierende Nutzen einen bestimmten Reservationsnutzen UA unterschreitet, dass heit3t, es muss eine zuliissige Aktion a aus dem Aktionenraum A geben, f'fir die

UA(S(a),a) >_UA

(4.2)

gilt. Diese Beziehung wird Teilnahmebedingung genannt. UA(s(a), a) bezeichnet dabei die Nutzenfunktion des Agenten, abh~ngig yon der Entlohnung s(a) und dem Arbeitseinsatz a des Agenten. Es gilt

OUA(') > 0 und Os(.)

OUA(.) < 0. Oa

(4.3)

Des Weiteren muss der Prinzipal bei der Vertagsgestaltung berficksichtigen, dass der Agent stets die Aktion a* E A w~hlt, die seinen eigenen Nutzen maximiert (Anreizkompatibilit~tsbedingung)-

a* = axgmax UA(s(a), a). aEA

KSnnte der Prinzipal die Aktionen des Agenten beobachten, so wiirde er sie zum Gegenstand des Vertrags machen. Dessen Gestaltung w ~ e trivial: Der Prinzipal muss lediglich sicherstellen, dass der Agent seinen Reservationsnutzen erhKlt, sofern er sich im Sinne des Auftraggebers verhiilt. Tut er dies nicht, wird er auch keine Entlohnung erhalten. 5 In einem solchen Fall besitzen beide Paxteien den selben Informationsstand, es liegt also

Die Anreizkompatibilitiits-und die Teilnahmebedingung sind in diesem Fall erfiillt.Der Agent erhiilt bei Wohlverhalten seinen Reservationsnutzen, under wird die aus Sicht des Prinzipalen optimale Aktion wiihlen, da er ansonsten keinen Lohn erhiilt.

37

4.1. DAS GRUNDPROBLEM DER PRINZIPAL-AGENT-THEORIE t=l

t=2

t Prinzipal gestaltet und offeriert Vertrag

t=3

t Agent entscheidet fiber Vertragsannahme

t=4

I Agent w ~ i h l t Arbeitsanstrengung unbeobachtbar ffir den Prinzipalen

t=5

I Realisation von Umwelteinflfissen

I Aufgabenerfolg und Entlohnung des Agenten

Abbildung 4.1: Entscheidungsablauf in der Hidden-Action-Situation QueUe: erstelIt nach Jost (2001), S. 26 symmetrische Information 6 vor. Ist dies nicht der Fall, so wird von einer asymmetrischen Informationsverteilung gesprochen. Meist werden dem Prinzipalen die zur Gestaltung und Durchsetzung des Wohlverhaltens des Agenten nStigen Informationen nicht in vollem Umfang zur Verfiigung stehen. Ein solches Informationsdefizit kann der Agent zum Nachteil des Prinzipalen nutzen. Je nach Art des Informationsdefizits unterscheidet man zwischen Situationen, in denen ,,Hidden Action", ,,Hidden Information" und ,,Hidden Characteristics" vorliegen. ~

,,Hidden Action" Diese Form des Informationsdefizits tritt auf, wenn der Prinzipal das Verhalten des Agenten nicht unmittelbar beobachten kann und eine Verhaltenskontrolle mit prohibitiv hohen Kosten verbunden w~ire. Die Interaktion zwischen Prinzipal und Agent kann wie in Abbildung 4.1 dargestellt beschrieben werden. Zwischen dem Verhalten des Agenten und dem Erfolg der Aufgabendurchfiihrung besteht nun kein eindeutiger Zusammenhang mehr. Ein schlechtes Ergebnis kSnnte sowohl auf mangelndem Arbeitseinsatz des Agenten als auch auf ungfinstigen Umweltzust~inden beruhen. Umgekehrt kann trotz geringem Arbeitseinsatz des Agenten unter giinstigen Umweltbedingungen ein positiver Aufgabenerfolg resultieren.

,,Hidden Information" Bei einer solchen Form des Informationsdefizits kann der Prinzipal das Verhalten des Agenten zwar beobachten, ist jedoch nicht in der Lage, zu beurteilen, ob der Agent in seinem Sinne gehandelt hat. Der Agent entscheidet hier nach der Realisation exogener Einflussfaktoren, wie in Abbildung 4.2 beschrieben. Ein mittelm~it3iger Aufgabenerfolg 6 T

BeideParteien verffigen dabei fiber die gleichen Informationen. Insbesondere ist dem Prinzipalen der vom Agenten gew~ihlte Arbeitseinsatz bekannt. Vgl. Arrow (1985).

38 KAPITEL 4. A USGEWAHLTE ANS)~ TZE DER PRINZIPAL-AGENT-THEORIE t=l

t=2

t=3

t=4

}

I

I

I

Prinzipal gestaltet und offeriert Vertrag

Agent entscheidet fiber Vertragsannahme

Realisation von e, unbeobachtbar ffir den Prinzipalen

Agent wtihlt Arbeitsanstrengung

t=5

I Aufgabenerfolg und Entlohnung des Agenten

Abbildung 4.2: Entscheidungsablauf in der Hidden-Information-Situation Quelle: erstellt nach Jost (2001), S. 30 w~re hier zum einen durch eine nicht angepasste, zu geringe Arbeitsanstrengung nach der Realisation gfinstiger Umwelteinflfisse, aber auch durch eine optimale Arbeitsanstrengung bei der Realisation ungfinstiger Umweltzust~nde zu erkl~ren. Der Prinzipal ist somit nicht in der Lage zu beurteilen, ob das Verhalten des Agenten den eintretenden Umwelteirdifissen gerecht wurde oder nicht. Auch hier tritt, wie im ,,Hidden Action"-Fall, das Problem eines mSglichen moralischen Fehlverhaltens des Agenten auf. Dies zu beheben, ist Aufgabe einer ad~iquaten Vertragsgestaltung. ,,Hidden Characteristics" Die hier zu beschreibende Form der Informationsasymmetrie resultiert im Gegensatz zu den beiden bisher erl~uterten Arten nicht aus exogenen StSrfaktoren, sondern aus den vor der Vertragsgestaltung unbeobachtbaren Eigenschaften des Agenten. Dies kSnnen sowohl Charaktereigenschaften als auch Qualifikationsmerkmale sein. 8 Die zeitliche Struktur dieses Informationsdefizits kann wie in Abbildung 4.3 dargestellt beschrieben werden. Die Eigenschaften des Agenten werden auch als ,,Typ" bezeichnet und sind nur dem Agenten bekannt. Der Prinzipal hingegen besitzt nur Informationen fiber die Verteilung der als exogene Zufallsvariable modellierten Charaktereigenschaften. Hier besteht die Gefahr des Anbietens eines Vertrages, der aus Sicht des Prinzipalen ffir den vorliegenden Typen des Agenten nicht optimal ist. 4.2

Statische Anstitze der P r i n z i p a l - A g e n t - T h e o r i e

4.2.1

Ein allgemeiner Ansatz

Im Weiteren soll das Hidden-Action-Problem n~her erl~iutert werden, da es den Rahmen ffir die weiteren Untersuchungen bildet. Der Prinzipal verffigt fiber alle nStigen Informationen bezfiglich des Charakters des Agenten und der Verteilung der Umweltzust~nde. s

Vgl. Jost (2001), S. 28.

4.2. STATISCHE ANSA TZE DEFt PRINZIPAL-AGENT- THEORIE t=O

t=l

t=2

t=3

t=4

I

t

t

t

I

Realisierung der Eigenschaften des Agenten, unbeobachtbar ffir den Prinzipalen

Prinzipal gestaltet und offeriert Vertrag

Agent entscheidet fiber Vertragsannahme

39 t=5

I

Agent w~ihlt Realisation Arbeitsanexogener strengung Einflfisse

A ufgabenerfolg und Entlohnung des Agenten

Abbildung 4.3: Entscheidungsablauf in der Hidden-Characteristics-Situation

Quelle: erstellt nach Jost (2001), S. 28

Einzig unbekannt

und fiir den Prinzipalen unbeobachtbar

ist der vom Agenten gew~hlte

Arbeitseinsatz. Allerdings h~ingt das Ergebnis x yon der vom Agenten gew~ihlten Aktion a und einem yon beiden Parteien nicht beobachtbaren

Umweltzustand

x = x(a, ~).

~ ab:

(4.4)

Die Verteilung von ~ sei F(e) und beiden Parteien bekannt. Der Agent erhalte vom Prinzipalen eine ergebnisabhiingige Entlohnung s(x), die vertraglich festgelegt ist. Der Prinzipal erwirtschaftet damit einen Gewinn von x(a, e ) - s(x(a, e)). Beide Parteien maximieren ihren Erwartungsnutzen, wobei

U~(z(a,~)- ~(z(a, ~)))

(4.5)

die Nutzenfunktion des Prinzipalen und

V~ (~(x(a, ~) ), a)

(4.6)

die Nutzenfunktion des Agenten seien. Unter der Annahme, dass beide Parteien von Neumann-Morgenstern-Nutzenfunktionen besitzen 9 und der Prinzipal risikoneutral agiert, l ~ s t sich Up mittels

U , ( z ( a , ~ ) - ~(z(a, ~))) = ~(a, ~ ) - ~(z(a, ~))

9

(4.7)

Diesist eine in der Prinzipal-Agent-Theorie haufig genutzte Annahme. Vgl. etwa HolmstrCm (1979), Grossman und Hart(1983), Wagenhofer und Ewert (1993), Pfeiffer (1997), Jost (2001b).

40 K A P I T E L 4. AUSGEWfi, H L T E ANSfi, T Z E D E R P R I N Z I P A L - A G E N T - T H E O R I E vereinfachen. 1~ Die Nutzenfunktion des Agenten wird als separabel in Einkommen und Arbeitseinsatz angesehen: (4.8)

UA(s(x(a,e)),a) = v(s(x(a,e))) - w(a),

wobei

r

> 0,

~"(~(~(a,~))) _< 0,

~'(a) > 0,

~"(a) > 0

gilt. 11 Die Funktion v bezeichnet die vom Einkommen des Agenten abh~ngige Nutzenfunktion, w beschreibt den aus dem Arbeitseinsatz resultierenden Disnutzen. Der Agent wird nur dann eine vertragliche Beziehung mit dem Prinzipalen eingehen, wenn mindestens eine Aktion ~ aus der Menge aller zul~issigen Aktionen A existiert, mit der er seinen Reservationsnutzen erzielen kann, so dass die Teilnahmebedingung S a e A " E(UA(S(X),a)) >_ UA

(4.9)

gilt. Als Referenzsituation soll der Fall symmetrischer Informationsverteilung zwischen Prinzipal und Agent erl~iutert werden. Hier sind dem Prinzipalen s~mtliche relevanten Informationen, insbesondere der vom Agenten gew~hlte Arbeitseinsatz a, bekannt und kSnnen somit auch zum Gegenstand des Vertrages gemacht werden. Der zu w~ihlende Arbeitseinsatz a kann also vom Prinzipalen vorgegeben werden. Zun~hst soll die optimale Aufteilung des Risikos untersucht werden. In Anlehnung an Rees (1985) kann das Optimierungsproblem des Prinzipalen durch Nutzung eines Lagrangemultiplikators A mittels - 1 + )~. v' : 0

Vx e X

(4.10)

gelSst werden. 12 Dabei sei X der Raum der mSglichen Handlungsergebnisse. Die notwendige Bedingung ist also durch

1 --=~ VI

(4.11)

gegeben. Wegen v' > 0 ist A > 0, die Teilnahmebedingung ist damit immer bindend. Fiir den Fall eines risikoneutralen Prinzipalen folgt daraus eine konstante Entlohnung des Agenten. 13 Die Entlohnung des risikoaversen Agenten ist somit unabh~ngig vom erzielten lo 11

Vgl. dazu etwa Demougin und Jost (2001), S. 47. Vgl. ebenda. Dabei sei v'(s(x(a,e))) = ~v(y)[~=s(x(a,e) )

12 13

Vgl. zur Herleitung Rees (1985), S. 7. Vgl. Harris und Raviv (1979), S. 244.

|

4.2. STATISCHE ANSA.TZE DEFt PRINZIPAL-AGENT-THEORIE

41

Ergebnis, der Prinzipal tr~gt das Risiko allein. Da sich die dem Agenten gezahlte Entlohnung negativ auf den Gewinn des Prinzipalen auswirkt, versucht dieser, dem Agenten so wenig wie m6glich zu zahlen. Der Agent erh~ilt somit nur seinen Reservationsnutzen

UA. 14 Eine konstante Entlohnung ffihrt jedoch dazu, dass der Agent wegen

w'(a) > O, w"(a) > 0

sowie der Gfiltigkeit der Anreizkompatibilit/itsbedingung einen Arbeitseinsatz von a - 0 w/ihlt. Ein damit erzieltes Ergebnis x kann durch den Agenten als Wirkung der exogenen Zufallsvariablen erkliirt werden. Damit ffihrt eine konstante Entlohnung zwar zur optimalen Risikoallokation, hat allerdings das Fehlverhalten des Agenten zur Folge. Dies ~indert sich jedoch, wenn der Prinzipal die Aktion des Agenten beobachten kann und somit die Entlohnung

s(a) abhiingig von der Aktion des Agenten w/ihlen kann. Auch hier ist es aus

Sicht des Prinzipalen optimal, wenn der Agent nur seinen Reservationsnutzen realisiert. Somit gilt ffir das optimale Gehalt s*(a): v(~*(~)) - ~(~) = ~

, , ~*(~) = v-~(Y~ + ~(~))

(4.12)

Wegen der strengen Monotonie yon v existiert die Inverse v -1. Ebenso folgt dieser Eigenschaft und der Differnzierbarkeit von v

dv-1 > 0 ds(a) und somit auch

(4.13)

s*'(a) > 0 und (s*')-l(a) > 0. Eine hShere Arbeitsanstrengung kann

also nur durch eine hShere Entlohnung induziert werden. Der aus Sicht des Prinzipalen optimale Arbeitseinsatz a* wird durch

a* E argmax ( f xf(xla)dx- v-l(-OA + w(a)) bestimmt, wobei

(4.14)

f(xla ) die bedingte Dichtefunktion von x bezeichne. Die tats/ichlich s*(a*) folgt aus dem optimalen Arbeitseinsatz.

gezahlte Entlohnung

Das Vorliegen asymmetrischer Information ist Gegenstand der Second-Best-Situation. Der Prinzipal kann bier weder den Arbeitseinsatz des Agenten noch die exogene Variable e beobachten. Unter der Voraussetzung der Differenzierbarkeit der Funktionen

14 Dieswird durch A > 0 impliziert, was zeigt, dass die Teilnahmebedingung bindend ist.

f(xla ) und

42 KAPITEL 4. AUSGEW/,HLTE ANSATZE DER PRINZIPAL-AGENT-THEORIE

w(a) l~isst sich die Anreizk0mpatibilit~itsbedingung mittels v(s(x))fa(xla*)dx - w'(a*) = 0

(4.15)

angeben. Das Optimierungsproblem des Prinzipalen kann nun mittels Lagrange-Multiplikatoren durch

1

s*(x) = A + # fa(x,a*) f(x,a')

v(s" (x))

'

Vx E X

(4.16)

und

/(x-

s*(x))fa(x,a*)dx + # ( / v ( s * ( x ) ) f ~ ( x , a * ) d x - w'(a*)) = O

gelSst werden. 15 Auf Basis der genannten Eigenschaften der Nutzenfunktionen beider Parteien konnten grundlegende Eigenschaften der LSsung des Optimierungsproblems nachgewiesen werden. Is Der Agent erreicht im Falle additiv separabler Nutzenfunktionen beider Parteien nur seinen Reservationsnutzen, die Teilnahmebedingung ist damit bindend und es gilt A > 0. lz Ist die Verteilungsfunktion der Ergebnisse streng monoton fallend in a TM und gilt fiir die Arbeitsleidfunktion w~(a) > 0, so ist auch die Anreizbedingung aktiv, das heiBt es gilt # > 0.19 HolmstrCm (1979) untersuchte weiter, inwieweit die Risikoallokation von der First-Best-LSsung abweicht, also inwiefern ein risikoneutraler Prinzipal das Risiko allein tr~gt. Dabei konnte gezeigt werden, dass dies nur ffir h(x, a) = 0

f(~,=)

(4.17)

gilt, das heit3t fa(x, a) = 0 w~e eine zwingende Voraussetzung ffir die alleinige Risikofibernab.me durch den Prinzipalen. 2~ Dies widerspricht allerdings der Bedingung stochastischer Dominanz erster Ordnung. Somit wird auch der Agent am unternehmerischen Risiko beteiligt, die Berficksichtigung der Anreizproblematik erfordert also ein Abweichen von der optimalen Risikoallokation.

HolmstrCm untersuchte weiter" die Beziehung zwischen der optimalen Entlohnungsfunktion sfb(x) der First-Best-Situation und der optimalen Entlohnungsfunktion Ssb(x) der 15 18 17 IS

19 2o

Zur Herleitung vergleicheRees (1985), S. 20 ft. Vgl. Grossman und Hart (1983), S. 16 und HolmstrCm und Milgrom (1987), S.78. Vgl. Grossman und Hart (1983), S. 16, Korrolar 2. Sie muB also der stochastischenDominanz ersterOrdnung geniigen: Die ErhShung des Arbeitseinsatzes a fthhrtdazu, dass sich die Wahrscheinlichkeiten des Erreichens h6herer Ergebnisse verbessern. Vgl. HolmstrCm (1979), S. 90. Vgl. HolmstrCm (1979), S. 83.

4.2. S T A T I S C H E A N S A TZE DEFt P R I N Z I P A L - A G E N T - T H E O R I E

43

Second-Best-Situation. Auf Grund der notwendigen Bedingungen fiir das Vorliegen eines Optimums kann die Aussage getroffen werden, dass

s*~b(x) >_ s*ib(x)

x e X + = {x[f~(x,a*~b) >_ 0}

(4.18)

S*sb(X) < S*fb(X)

X e X - = {x[f~(x,a*sb) < 0}

(4.19)

gilt. Bei Ergebnissen x E X, deren Eintrittswahrscheinlichkeit bei Erh6hung des Arbeitseinsatzes zunimmt, erh/ilt der Agent also eine hShere Entlohnung als im First-BestFall. Fiir risikoneutrale Prinzipale konnte daraus abgeleitet werden, dass die optimale Entlohnungsfunktion nicht konstant im erzielten Ergebnis x ist. 21 Da die zul~issigen LSsungen des Second-Best-Problems eine Teilmenge der zul/kssigen LSsungen des First-Best-Problems bilden, kann der erwartete Nutzen des Prinzipals im Second-Best-Fall h6chstens so grofl sein wie in der First-Best-Situation. Es konnte fiir den Fall eines risikoaversen Agenten, des Vorliegens stochastischer Dominanz erster Ordnung sowie w' > 0 nachgewiesen werden, dass der erwartete Nutzen des Prinzipalen im SecondBest-Fall geringer ist. 22 Dies kann damit erkl/irt werden, dass dem Agenten durch die Risikoteilung eine risikobehaftete Entlohnung ausbezahlt wird. Die Risikoiibernahme stellt fiir ihn einen Nutzenentgang dar, fiir den er durch eine hShere Entlohnung entsch/~digt werden muss, was wiederum den Nutzen des Prinzipalen schm/~lert. Die erl~uterten Eigenschaften der L6sung des allgemeinen Prinzipal-Agent-Problems geben zwar erste Empfehlungen ffir die Ausgestaltung eines optimalen Vertrages, sie kSnnen jedoch auf Grund der Allgemeinheit der zu Grunde liegenden Annahmen nicht zu konkreten Vorgaben fiir Entlohnungen fiihren. Das folgende Modell kann durch Verscht~rfung dieser Annahmen Vorschl~ge zur Ausgestaltung des optimalen Vertrages treffen.

4.2.2

Das LEN-Moddl nach Spremann

Das LEN-Modell stellt ein spezielles Prinzipal-Agent-Modell dar, welches in der Literatur oft zur Vereinfachung der komplexeren, oben diskutierten allgemeinen Bedingungen genutzt wird. 23 Die getroffenen Annahmen sind in Tabelle 4.2.2 dargestellt. Die exogen vorgegebenen Parameter sind der Grad der Risikoaversion des Agenten r, sein 21 Vgl.Rees (1985), S. 25. 22 Vgl.Holmstrom (1979), S. 78, Korollar 2. 23 Vgl. Spremann (1987), Neuss (1989), Laux und Schenk-Mathes (1992), Wagenhofer und Ewert (1993a), Wagenhofer und Ewert (19935), Pfeiffer (1997), Hofmann (2001).

44 K A P I T E L 4. A U S G E W A H L T E A N S A T Z E D E R P R I N Z I P A L - A G E N T - T H E O R I E L:

Das Ergebnis x ist eine lineare Funktion fiber die ZufallsgrSt3e ~ und dem Arbeitsleid a des Agenten: x=a+~.

Der Agent erh~ilt eine Entlohnung, die linear vom Ergebnis abh~ingt: 8 ( X ) = V l X Jr" V 2.

E:

Der Prinzipal ist risikoneutral und der Agent besitzt eine exponentielle Nutzenfunktion: UA(s(x),a) = --e-'('(x)-~ ). Die Zufallsvariable e ist normalverteilt mit dem Erwartungswert null und der Varianz a2: E ,.~ N(0, a2).

N:

Tabelle 4.1: Grundannahmen des LEN-Modells m

Reservationsnutzen U A sowie die Varianz a 2 der ZufallsgrSfle ~. Endogen im Modell zu bestimmen sind dagegen der Arbeitseinsatz a des Agenten, der dem Agenten zu zahlende Anteil Vl am Ergebnis x sowie das Fixgehalt v2. Es ist zu erw~ihnen, dass das LEN-Modell die Gleichung 4.8 und die Bedingung der stochastischen Dominanz erster Ordnung der zugrundeliegenden Verteilungsfunktion erffillt, wenn statt der Nutzenfunktion UA des Agenten sein Sicherheits~iquivalent 24 USA = E ( s ( x ) ) a22

~a2 zur Modellierung des Agentennutzens verwendet wird.

4.2.2.1

Die First-Best-Situation

Das LEN-Modell schr~nkt im Gegensatz zur allgemeinen Formulierung im vorherigen Kapitel die Menge der zul~ssigen Entlohnungsfunktionen stark ein. Allerdings konnte ffir den Fall von Nutzenfunktionen mit konstantem Arrow-Pratt-Marl 25, der auch hier vorliegt, gezeigt werden, dass fiir eine optimale Entlohnungsfunktion im First-Best-Fall Linearit~t gilt. 26 Da der Prinzipal hier den Arbeitseinsatz des Agenten direkt beobachten kann, ist es wegen der Risikoneutralit~t des Prinzipalen und der Risikoaversion des Agenten nicht optimal, Letzteren am Risiko zu beteiligen. Die Entlohnung des Agenten basiert somit allein auf dessen Arbeitseinsatz und wird durch s(a) = vl . a + v2

(4.20)

24 Das Sicherheitsiiquivalent SA bezeichnet diejenige sichere Auszahlung, bei der der Agent indifferent bezfiglich der unsicherenEntlohnungund dem Betrag SA ist. (Vgl. Bamberg und Coenenberg(2000), S. 89.) Zur Herleitung vergleicheAnhang A. 25 Das Arrow-Pratt-Marl ist als -~,' definiert. 26 Vgl.Rees (1985), S. 9.

4.2. STATISCHE ANSJ4TZE DEFt P R I N Z I P A L - A G E N T - T H E O R I E

45

beschrieben. Aus Sicht des Prinzipalen ist eine Entlohnung der Form

v~ = UA+~1

(4.21)

v~ =

(4.22)

0

optimal, die gewinnmaximierende Aktion kann vom Prinzipalen vertraglich bei a* = 1 festgelegt werden, da sie beobachtbar ist. 27

4.2.2.2

Die Second-Best-Situation

In der Second-Best-Situation sind in der Regel lineare Entlohnungsfunktionen nicht optimal, selbst wenn die Bedingungen der exponentiellen Nutzenfunktion und der normalverteilten Zufallsgr6t3e gelten. 2s Dennoch wird dieses Modell h~ufig zur Analyse von AgencyBeziehungen genutzt, da die Optimierungsprobleme yon Prinzipal und Agent so direkt 15sbar sind. 29 Hier erfolgt die LSsung des Optimierungsproblems, indem untersucht wird, welchen Arbeitseinsatz der Agent bei gegebenem Fixum v2 und gegebenem variablen Anteil vl w/ihlen wiirde. Es wird zun/ichst davon ausgegangen, dass der Agent sein Sicherheits~quivalent maximiert. Dieses liisst sich im LEN-Modell mittels a2

r

2

2

S A = v i a + v~ -- --~ -- - ~ V l a

(4.23)

angeben. 3~ Das Sicherheits~quivalent wird durch a* = Vl

(4.24)

maximiert. Der tats~chlich geleistete Arbeitseinsatz entspricht also dem Gewinnanteil, den der Agent erh~lt. Die Teilnahmebedingung erh~lt somit die Form ,2

--

.2

U A -- Vl

-{" V2

vl

2

rvl~a2

-2

(4.25)

27 Vgl. Blickle-Liebersbach (1989), S. 43 ft. 28 Vgl. Mirrlees (1974), S. 248 f.; HolmstrCm (1979), S. 239 ft.; Wagenhofer und Ewert (1993a), S. 378. 29 Vgl. etwa Spremann(1987), Wagenhofer und Ewert (1993a), Blickle-Liebersbach (1989), Pfeiffer (1997). 30 Zur Herleitung wird auf Wolfstetter (1999), S. 347 ft. verwiesen.

46 K A P I T E L

4. A U S G E W A H L T E

ANSATZE

DER

PRINZIPAL-AGENT-THEORIE

und die Zielfunktion des Prinzipalen kann durch Vl2

EUp

r

2 2

=

a - a v l + v~ - U A -- " ~ -- 5 v i a

=

vl -

Vl2 Va

-

7

r -

2 2

~v~ a

(4.26)

(4.27)

angegeben werden. Die notwendige Bedingung fiir das Vorliegen eines optimalen variablen Anteils v~ lautet 1 - v~ - a 2 r v ~

' 0

(4.28)

und kann zu 1 V1

ra ~ - 1

,

v2

(4.29)

1 + ra 2 =

UA+

2(1 + r a 2)

(4.30)

umgeformt werden. Der erwartete Nutzen des Prinzipalen betr/igt EUp

1 = 2(1 + r a 2) - UA

(4.31)

Dieser Betrag ist im Falle eines risikoaversen Agenten wegen r > 0 und a > 0 geringer als sein Nutzen in der First-Best-Situation. Somit entgeht dem Prinzipalen auch im LEN-Modell durch die auftretende Informationsasymmetrie Gewinn, w/ihrend der Agent auch hier nur so entlohnt wird, dass er seinen Reservationsnutzen erreicht und fiir das iibernommene Risiko entsch~digt werden muss. Auf Grund der Nichtbeobachtbarkeit des Arbeitseinsatzes und der damit verbundenen suboptimalen Risikoallokation wird im System ein Nutzenentgang induziert. Dieser Nutzenentgang steigt mit zunehmender Risikoaversion des Agenten und mit zunehmender Varianz der Zufallseinfliisse. Das LEN-Modell schr/inkt durch seine Annahmen den Raum der fiir den Prinzipalen optimalen Entlohnungen ein. Insbesondere Mirrleesal konstruierte in der Second-BestSituation Entlohnungen, die sich vom linearen Schema dieses Modells entfernen. In der Regel sind auch die in Gleichung (4.18) als optimal ermittelten Entlohnungsschemata nicht linear. Trotz dieses Nachteils ermSglicht es das LEN-Modell durch seine vereinfachenden Annahmen, die optimale Entlohnung des Agenten direkt angeben zu kSnnen und qualitative Aussagen fiber die Auswirkungen der Risikoaversion und des Zufallseinflusses auf die Entlohnung des Agenten und den Gewinn des Prinzipalen angeben zu kSnnen. Aus diesem 31

Vgl. Mirrlees (1974).

4.3. DYNAMISCHE PRINZIPAL-AGENT-ANSA TZE

47

Grund soil es auch ffir die Modellierung des Einflusses von [lbungseffekten auf die optimale Entlohnung des Agenten genutzt werden. Da sich diese [lbungseffekte bei mehrmaliger Wiederholung der Prinzipal-Agent-Beziehung verst/irken, sollen zun/ichst MSglichkeiten der Modellierung mehrperiodiger Prinzipal-Agent-Modelle erl~utert werden.

4.3

Dynamische Prinzipal-Agent-Ans/itze

Die bisher besehriebenen Prinzipal-Agent-Probleme bezogen sich ausschlieBlieh auf eine statische Betrachtung. Intertemporale Effekte, die etwa dutch die Beobachtung von Zwischenergebnissen durch den Agenten oder durch mehrmalige Entlohnung entstehen, wurden nicht berfieksiehtigt. Dies soil im Weiteren geschehen.

4.3.1

Modelle mit variabler Laufzeit T

Dynamische Modelle dieser Art zeichnen sich dadurch aus, dass sich die Betrachtung auf die Zeitpunkte to, tl, t2, ..., tn erstreckt oder ein Zeitintervall der Form [to, T] beziehungsweise [to, co) untersucht wird. Die LSsung derartiger Modelle kann selbst im Falle deterministischer Optimierungsprobleme nicht immer geschlossen angegeben werden, da das LSsen nichtlinearer Differentialgleichungen n6tig sein kSnnte und nieht immer m6glich ist. 32 Im Folgenden soil auf verschiedene dieser Modelle eingegangen werden.

4.3.1.1

Ein dynamisches Moddl nach HolmstrCm und Milgrom

In diesem Modell 3a wird der Fall einer einmaligen Prinzipal-Agent-Beziehung zun~chst auf ein zeitdiskretes dynamisches Modell erweitert, um darauf aufbauend den zeitstetigen Fall zu erl/iutern. Zentrale Annahme des Modells ist das Vorliegen yon von-Neumann-Morgenstern-Nutzenfunktionen sowohl des Prinzipalen als auch des Agenten. Die Menge der mSglichen exogenen Umweltzust/inde sei e = (el, ..., e,). Jeder Zustand ei ffihrt fiir den Prinzipalen zum Ergebnis xi sowie zu einer allgemein beobachtbaren Information yi.34 Es gelte ohne Beschr~.kung der Allgemeinheit x0 < xl < ... < xn. Der Prinzipal entlohnt den Agenten gem~i~ s(yi), dem Agenten entstehen durch seinen Arbeitseinsatz a Kosten in HShe von c(a, e) m i t c ' > 0 und d' > 0. Die Eintrittswahrscheinlichkeiten der Umweltzust~inde a2 Vgl. Feichtinger und Hartl (1986), S. 84 ft. Vgl. HolmstrCm und Milgrom (1987). 34 Bei dem Wert yi karm es sich zum Beispiel tun Kosteninformationen handeln.

48

K A P I T E L 4. A USGEWfi, H L T E A N S A T Z E D E R P R I N Z I P A L - A G E N T - T H E O R I E

~1, ..., 6n seien abh~ngig v o n d e r gew~hlten Aktion a und mit Px, ..., Pn bezeichnet. Vereinfachend nehmen HolmstrCm und Milgrom a = (pl, ..., Pn) an. Das Optimierungsproblem eines risikoneutralen Prinzipalen besteht nun im klassischen Maximierungsproblem der Prinzipal-Agent-Theorie:

max E ( x i ( a ,

e) - s(yi))Pi

(4.32)

i

unter den Nebenbedingungen N

a - arg rna,axE

UA (s(yi) -- c(a', ei))p'i

i----1 N

3~ . ~ v~(~(y,)- ~(~,~,))p~ > YA, i--O

wobei a' = (p~, ..., p~) ist. Die Informationsasymmetrie entsteht hier erst nach Vertragsabschluss auf Grund der vom Prinzipalen nicht beobachtbaren Strategiewahl des Agenten. Durch die Annahme, dass der Agent seine Aktion in Reaktion auf den exogenen Umwelteinfluss e w~hlt, kann das Modell in die ,,Hidden-Information"-Situation iiberffihrt werden. 35 Gilt zus~tzlich, dass ffir N

a = argmaax E

UA(s(yi) -- c(a', ei))Pi

(4.33)

i--1

und fiir alle a' im Aktionenraum P, fiir die es einen Umweltzustand j mit der Eintrittswahrscheinlichkeit null, also p~ = 0, gibt,

c(a',ei) > c(a, si) + max(xj - xk) j,k

(4.34)

gilt, so existiert eine aus Sicht des Prinzipalen optimale Lbsung (a*, s*) mit p~ > 0 ffir alle i = 0, ..., n. 36 Weiter konnte gezeigt werden, dass der aus Sicht des Prinzipalen optimale Arbeitseinsatz a* nicht von der HShe des Reservationsnutzens U A abh~ingt und der Weft s * ( y ) -

UA

unabh~ngig von UA ist. 3~ Unter Beriicksichtigung weiterer Annahmen as konnte gezeigt werden, dass jede durch den 35 36 3r as

Vgl. ebenda, S. 308. Vgl. ebenda, S. 309, Theorem 1. Vgl. ebenda, S. 309, Theorem 2. Diese lauten: (i) Das Innere des Aktionenraums ist nicht leer. (ii) Die Kosten jeder Aktion a sind unabhiingig vom eingetretenen Umweltzustand. (iii) Die Funktion c ist stetig differenzierbar. (iv) c(a) - c(a') >_max~j(x~ - xj) ffir jede Aktion a auf dem Rand des Aktionenraums und jede Aktion a', die c(a) minimiert. Vgl. ebenda, S. 310, Annahmen A.

49

4.3. DYNAMISCHE PRINZIPAL-AGENT-ANSA TZE

Prinzipalen implementierbare Strategie a i m Inneren von P durch genau eine vertragliche Regelung induzierbar ist. 39 Im Folgenden wird eine Vaxiante des vorangegangenen Modells betrachtet werden, die das Entscheidungsverhalten beider Parteien fiber T Perioden optimieren soll. Betrachtet werden hierbei die Zeitpunkte t = 0, ..., T. Die Zufallseinflfisse r sind stochastisch unabh~ingig. Des Weiteren kennt der Agent zum Zeitpunkt t -

1 die bisherigen Ergeb-

nisse Xt = (xl,...,xt-1) und die bisherigen Informationen Yt = (yl,...,yt-1), bevor er fiber seine Strategie at = a(Yt-1) entscheidet. Die Entlohnung s(YT) wird dem Agenten erst zum Zeitpunkt T gezahlt. Die Zeitpr~iferenzen von Prinzipal und Agent werden nicht modelliert. Das Optimierungsproblem des Prinzipalen kann somit durch

(4.35) t=l

unter den Nebenbedingungen

{at} e argm,axE at

((

UA s ( X T ) -

((

e(a't(Yt_~),et ) t=l

t----0

))

))

dargestellt werden. Mittels dynamischer Optimierung gelingt es, auf Grund der Unabh/ingigkeit der Zufallseinflfisse et dieses Optimierungsproblem auf das in Gleichung

(4.32)

erl~uterte statische Problem zurfickzuffihren und zu zeigen, dass eine Strategie at(Yt-1) genau dann implementiert werden kann, wenn at auch im Ein-Periodenmodell induzierbar ist.40 Weiter wird A~ als diejenige Anzahl definiert, mit der die Information yi bis zum Zeitpunkt t realisiert wird. Es konnte gezeigt werden, dass es ffir den Prinzipalen optimal ist, eine im Zeitablauf konstante Strategie mit at(Yt-1) = a* zu implementieren, wobei a* das Optimum der Betrachtung einer Periode ist. Um diese Strategie zu induzieren, ist die Entlohnung T

8(YT) = Z t--1

39 Vgl.ebenda, S. 310, Theorem 3. 40 Vgl. ebenda, S. 313.

s(yt, a*) = s(a*) . AT

(4.36)

50 KAPITEL 4. AUSGEWAHLTE ANS)~TZE DER PRINZIPAL-AGENT-THEOPJE optimal. 4x Fiir den Prinzipal ist es folglich unerheblich, wie der Pfad (Yl, ..., YT) realisiert wurde, wenn er den Vektor AT kennt. Eine Aggregation von GrSflen ist hier also nicht mit Gewinneinbufen verbunden. Ftir den Prinzipal ist es einzig von Bedeutung, welche Ereignisse wie oft eingetreten sind. Wann dies passiert ist, ist zur Ermittlung des optimalen Entlohnungsschemas nicht relevant. Weiter ist die optimale Entlohnung linear im Vektor AT, das hei•t, eine prozentuale ErhShung von AT zieht eine ebensolche ErhShung von S(YT) nach sich. Damit ist allerdings nicht die Schlussfolgerung verbunden, es handele sich um ein lineares Entlohnungsschema wie im LEN-Modell. Da s(a ~ nicht linear in den erzielten Outputs wachsen muss, ist dies auch bei s(YT) nicht der Fall. Das zeitdiskrete Modell wurde von HolmstrOm und Milgrom zu einem zeitstetigen Modell erweitert. Auch hier kann der Agent nur T-mal agieren, die Kostenfunktion c(a) ist stetig und differenzierbar und der Aktionenraum P habe wiederum n Dimensionen. Diese Annahmen gew~ihrleisten, dass es zu jeder Aktion a E P mindestens einen Vertrag gibt, der a implementiert, so dass der Agent mit diesem Vertrag wenigstens seinen Reservationsnutzen erzielt. Weiter wird angenommen, dass, falls die Gewinne der betrachteten Periode mit dem Erwartungswert # und der Varianz a 2 eintreten, das Sicherheits~iquivalent des Prinzipalen durch # und das des Agenten durch #

r~ 2 2

(4.37)

approximiert werden kann. Es sei eider i-te Einheitsvektor der Dimension n + 1 und

d ~'(~) = ~

c(ee, + (1 - e)a).

(4.38)

~_-0

Dann kann der die Aktion a induzierende Vertrag mittels

ra2A s~ ~ w + c(a) + - - ~ + c:j(a)

(4.39)

angegeben werden und weist strukturelle Ahnlichkeiten mit der mit Hilfe des LEN-Modell nach Spremann ermittelten optimalen Entlohnung auf. Sei xi = ( x i - x0)T. Dann beschreibt xi wegen x0 < xx < ... < xn denjenigen Profit, der dutch die Realisation yon ei w~iahrend [0, T] zusiitzlich zum fiir den Prinzipalen ungiinstigsten Ereignis, der Realisation yon ~o w~arend der gesamten Vertragsdauer [0, T], erwirtschaftet wird. Um das zeitdiskrete Modell aus Gleichung (4.35) zeitstetig darzustellen,

41 Vgl.ebenda, S. 314, Theorem 5.

4.3. DYNAMISCHE PRINZIPAL-AGENT-ANSA TZE

51

wird analog zur Matrix A

definiert. Die Variable ~ beschreibt dabei einen Vektor strikt positiver Wahrscheinlichkeiten, der einen passenden Standard fiir das Eintreten des Ereignisses i angibt. Wegen 50 = 0 gilt Z0 = 0. Deshalb lmnn Z nun als Z = (Z1, ..., Z~) betrachtet werden. Sei # der vom Agenten beeinflussbare Drift oder Trend von Z. Dann lmnn Z mittels

dZ--- #dr + dB

(4.41)

modelliert werden, wobei B eine n-dimensionale Brown'sche Bewegung mit Erwartungswert 0 und Kovarianzmatrix • ist. Der Agent erhiilt hier eine Entlohnung s(Z1), die ausschlieBlich von der im Endzeitpunkt T - 1 realisierten GrS~e Z 1 abh~ingt. Der Frage, wie ein Anstrengungspfad #(t) durch eine Entlohnung s(Z 1) implementiert werden lmnn, wird im Folgenden nachgegangen. Es konnte gezeigt werden 42, dass ein Pfad #(t) nur dann mit dem Sicherheits~iquivalent SA implementiert werden kann, wenn eine Entlohnung in der Form

s(Z 1) = SA +

+-~

/01c(#(t))dt + (/o1c'(#(t))TdZ- /01c'(#(t))T#(t)dt ) 1

c'(.(t))rr~c'(.(t))dt

(4.42)

erfolgt. Dabei f~llt auf, dass der Agent zun/ichst mit den ersten beiden Summanden ein Festgehalt und eine Entsch~digung ftir das entstandene Arbeitsleid erh/ilt. Der letzte Term ist i~quivalent zur Risikopriimie im statischen Fall. Der Summand in der Klammer besitzt einen Erwartungswert von null. Weiter konnte gezeigt werden, dass fiir den Fall der Existenz eines aus Sicht des Prinzipalen optimalen Pfades #*(t) dieser konstant ist und durch r l s(Z 1) -- c(#*) 4- c'(#*)T(z(1) - #*) 4- -~c (#*)T~c'(#*)

(4.43)

induziert wird. 43 Auch bier h~ngt, analog zu Gleichung (4.36), die Entlohnung des Agenten linear vonder Aggregationsfunktion Z ab. Genauere Angaben, welche Yi wann und wie realisiert wurden, sind fiir die Wahl des optimalen Entlohnungsschemas unnStig. 42 Vgl.ebenda, S. 319, Theorem 6. 43 Vgl.ebenda, S. 320, Theorem 7.

52 K A P I T E L 4. AUSGEW)%HLTE A N S A T Z E DEFt P R I N Z I P A L - A G E N T - T H E O R I E Die Auesage dieses Ansatzes ist es, dass es ffir den Prinzipalen nicht nStig ist, zur Konstruktion der optimalen Entlohnung des Agenten den gesamten Pfad der realisierten Ergebnisse zu kennen. Die Beobachtung der aggregierten GrSfle A T beziehungsweise Z T ist ausreichend. Die optimalen Entlohnungen sind wiederum lineare Funktionen dieses Aggregats. Die Annahmen des zeitdiskreten und des zeitstetigen Modells lassen die Eingeschranktheit ihrer Ergebnisse erkennen. So wird das betrachtete Intervall [0, T] als so kurz angesehen, dass die Zeitpr/~ferenzen beider Parteien vernachl/issigt werden k5nnen. Die Zufallsvariablen st werden Ms unkorreliert betrachtet, so dass dem Prinzipalen ein Schluss vonder Realisation von xt auf st+l nicht m6glich ist. Weiter ist zu bem~ngeln, dass e:~ ante verborgene Charaktereigenschaften des Agenten genauso wenig modelliert werden wie dessen mSgliche Lerneffekte. In einem weiteren dynamischen Modell~ wird auf diese nicht modellierte Charaktereigenschaft des Agenten, die dort als ,,Talent" bezeichnet wird, eingegangen.

4.3.1.2

Fin dynamischesModell nachHolmstrcmmitBerficksichtigung von Lernen fiber

Parameter Ziel der Arbeit von HolmstrCm 45 ist es, den Aufbau von Reputation zur KarrierefSrderung der Agenten in seinem Modell zu berficksichtigen. Ebenfalls einbezogen wird die Betrachtung von Lerneffekten fiber einen Parameter ~] und die MSglichkeit des Vorliegens nichtlinearer Technologien. Das Modell von Holmstrcm beschreibt die ,, Hidden Characteristics"-Situation, indem ein Marl 7] f'tir das ,,Talent" des Managers angenommen wird, das beiden Parteien vor Vertragsabschluss unbekannt ist. Der Parameter ~] ist normalverteilt mit Erwartungswert ml und Varianz ~ . Der Output einer Periode ergibt sich aus xt = ~ + a t + s t

(4.44)

wobei die ZufallsgrSi3en st unabh/ingig und normalverteilt mit Erwartungswert null und Varianz ~ sind. Der Agent wird als risikoneutral mit einer fiber die Zeit separablen Nutzenfunktion der Form oo

U(v, a) = E t=l

44 Vgl.HolmstrCm(1999). 45 Vgl.Holmstr~m(1999).

~t-l(vt - w(at))

(4.45)

53

4.3. D Y N A M I S C H E P R I N Z I P A L - A G E N T - A N S A T Z E

angesehen, wobei w(at) sein Arbeitsleid, fit seine Zeitpr/iferenz und vt seine Entlohnung beschreibt. Indem der Prinzipal die Anreizkompatibilit~itsbedingung des Agenten berficksichtigt, ist er im Zeitpunkt t in der Lage, anhand der beobachteten Ergebnisse x 1,..., xt-1 seine Sch/itzungen von 7) zu verbessern. Im Gleichgewicht handelt der Manager gem~ifl seinen F~ihigkeiten und legt diese damit dem Markt often. 46 Lernen wird hier als das Lernen fiber die HShe des Parameters 77 verstanden. Eine Effizienzsteigerung tritt also nicht durch die Verbesserung der kognitiven F~ihigkeiten durch i3bung auf, sondern zeigt sich in verbesserten Sch/ttzungen ffir r/und damit als ErhShung des Wissens fiber das ,,Talent" des Agenten. HolmstrCm geht in seinem Modell auf die MSglichkeit des Vorliegens nichtlinearer Tech-

nologien kurz ein, indem er statt Gleichung (4.45) die Beziehung (4.46)

xt = ~?tat + r

vorschl/igt. 47 Eine dynamische Analyse dieser Gleichung erfolgt jedoch nicht, ebenso werden keine Aussagen fiber Ergebnisse getroffen.

4.3.1.3

Ein zeitdiskretes [lberwachungsmodell

Dieser

Ansatz

basiert

auf

dem

Uberwachungsmodell

nach

Kamien

und

Schwartz. 4s Ein Prinzipal delegiert die [lberwachung der Funktionsfiihigkeit eines Systems

oder einer Anlage an einen Agenten. Das einzig mSgliche Signal fiber den Arbeitseinsatz des Agenten stellt der Zusammenbruch des Systems beziehungsweise der Ausfall der Funktionsf/ihigkeit dar. 49 Der Agent kann durch seinen Arbeitseinsatz die Wahrscheinlichkeit des Ausfalls des Systems verringern. Der Zusammenbruch selbst ist ffir den Prinzipalen mit hohen Kosten verbunden. Da das Eintreten des Desasters die einzig 5ffentlich verffigbare Information ist, k6nnte ein Vertrag so aussehen, dass der Agent am Ende der Kontraktdauer nur dann entlohnt wird, wenn kein Ausfall eingetreten ist. Andernfalls erhielte er nur eine geringe Zahlung. Da angenommen wird, dass die Diskontierungsrate des Prinzipalen geringer ist als die des Agenten, ist die Zahlung am Vertragsende suboptimal. Der Barwert einer mSglichen Auszahlung an den Agenten ist ffir ihn auf Grund des hSheren Zinssatzes geringer als ffir 46 47 48 49

Vgl.Holmstr0m (1999), S. 172. Vgl. Holmstrom (1999), S. 177. Vgl.Kamien und Schwartz (1971). Vgl. Luhmer (2000).

54 KAPITEL 4. A USGEWAHLTE ANSA TZE DER PRINZIPAL-AGENT-THEORIE den Prinzipalen. Um den Reservationsnutzen des Agenten zu erffillen, wiiren hShere Zahlungen nStig als dies bei einer Entlohnung zu Beginn der Vertragslaufzeit der Fall w/ire. Da der Prinzipal den Arbeitseinsatz des Agenten jedoch nicht beobachten kann, hiitte dieser bei einer Entlohnung zu Vertragsbeginn keinen Anreiz, Arbeitseinsatz zu zeigen. Das Problem des Prinzipalen besteht in diesem Modell darin, die zeitliche Struktur der Entlohnung zu koordinieren und damit die Kosten, die durch die unterschiedliche Zeitpr~ferenz beider Parteien entstehen, zu minimieren. Das Auftreten eines Desasters Dt im Zeitpunkt t folge einem Poisson-Prozess, die bis zum Zeitpunkt t durch einen Zusammenbruch entstandenen Kosten werden mit St bezeichnet. Weiter sei h die Rate, mit der ein Zusammenbruch unabh/ingig vom Arbeitseinsatz a des Agenten auftritt. Damit gibt ha : - (1 - a)h

(4.47)

die Rate an, mit der ein Desaster tats/ichlich eintritt. Es sei F(t) : - P(St > 0) und f(t) die dazugehSrige Dichtefunktion. Dann kann die Wahrscheinlichkeitsverteilung der Zeit, die bis zum Eintritt des Disasters vergeht, mittels

f(t) = (1 - a(t))h(t) 1 - F(t)

(4.48)

angegeben werden. 5~ Sei L die Strafzahlung des Agenten bei Eintritt des Zusammenbruchs und sei St fiir den Fall eines Desasters konstant. Es wird angenommen, dass dem Agenten durch seinen Arbeitseinsatz a Kosten in HShe von h. c(a) mit

c(O) = O, r

= O, c"(a) > 0,

c~(1)= c~

(4.49)

entstehen. Mit Hilfe des Uberwachungsproblems nach Kamien und Schwartz kann nun die First-Best-LSsung des Systems analysiert werden. Ffir den Fall einer unendlichen Vertragsdauer und einer Diskontierungsrate des Agenten, die die des Prinzipalen iibersteigt, kann ein Ansteigen des optimalen Arbeitseinsatzes a~ im Zeitablauf gezeigt werden. 51 Dies resultiert aus den durch die Diskontierung sinkenden Grenzkosten. Weiter existiert keine optimale Vertragsdauer T. 52 Fiir die Second-Best-LSsung bei unbegrenztem Zeithorizont kann nachgewiesen werden, 50 Vgl. Luhmer (2000). 51 Vgl. Luhmer (2000), Proposition 1. 52

Vgl. ebenda, Proposition 2.

55

4.3. D Y N A M I S C H E P R I N Z I P A L - A G E N T - A N S A T Z E

dass der Agent seinen Arbeitseinsatz a~ so wiihlt, dass das dadurch entstehende Grenzarbeitsleid dem Nutzen entspricht, den der Agent aus seiner weiteren Tiitigkeit maximal ziehen kann. Das optimale Anreizschema des Agenten muss so gestaltet werden, dass sein Nutzen im Zeitablauf konstant bleibt. ~s Ebenso wird der Agent seinen Arbeitseinsatz zeitunabhiingig wiihlen. 54 Dieses Modell unterscheidet sich grundlegend von den bisher genannten Ansiitzen der dynamischen Prinzipal-Agent-Theorie. Im Verlauf der Vertragsbeziehung erhiilt der Prinzipal keinerlei Informationen fiber den Arbeitseinsatz des Agenten, es sei denn, es erfolgt ein Systemausfall. Auf Grund der unterschiedlichen Zeitpfiiferenzen beider Parteien kann eine optimale Entlohnung somit nur in einer Anfangsauszahlung des Prinzipalen an den Agenten und einer Strafzahlung des Agenten bei Systemausfall bestehen. Zwar ist dieses System im First-Best-Fall 15sbar, jedoch wird auch hier eine mSgliche steigende Grenzproduktivit~t des Agenten durch/clbungseffekte nicht berficksichtigt.

4.3.1.4

Ein mehrperiodiges

LEN-Modell

mit

Beriicksichtigung

eines vollkommenen

Kapitalmarktes

Die Erweiterung des LEN-Modells nach Spremann auf mehrere Perioden stSfk bei der Generierung eines mehrperiodigen Sicherheits~quivalents auf Probleme. 5~ Dies fiihrt dazu, dass das Modell im Mehrperiodenfall nicht mehr zwangsliiufig 15sbar ist. Der folgende Ansatz fiigt den Annahmen des LEN-Modells die Unterstellung eines vollkommenen Kapitalmarktes hinzu und kann somit das Modell auch in einer mehrperiodigen Betrachtung 15sen. 56 Die Modellformulierung erfolgt zeitdiskret fiber eine endliche Anzahl von Perioden T. Der Agent leistet in jeder Periode einen Arbeitseinsatz at und beobachtet ein Ergebnis xt, t = 1, ..., T. Die Variable x t ergibt sich als xt -- at + gt, wobei die et unabhiingig

und normalverteilt mit dem Erwartungswert null und der Varianz a 2 sind. Dem Agenten 53 Vgl. ebenda, S. 158. 54 Vgl. ebenda, S. 159. 55 Diese resultieren aus der Interpretation des Zinses eines vollkommenen Kapitalmarktes als Zeitpr~erenz beider Parteien. Der aus dem Vertrag resultierende Gesamtnutzen des Agenten kann dann nur als Summe der diskontierten Nutzenfunktionen der einzelnen Perioden gesehen werden und l~st sich nicht analog zum LEN-Modell nach Spremann in ein Sicherheitsiiquivalent umformen. (Vgl. Dietrich (2003), S. 451.) Wird jedoch eine reine Zeitpr~iferenz betrachtet, die unabhiingig vom Kapitalmarktzins sein kann, so kann der Gesamtnutzen des Agenten als Summe der mit den Zeitpr~ferenzen multiplizierten Sicherheitsiiquivalentender einzelnen Teilperioden gesehen werden. (Vgl. Wiese (2003).) 56 Vgl. Dietrich (2003).

56 K A P I T E L 4. A U S G E W A H L T E A N S A T Z E D E R P R I N Z I P A L - A G E N T - T H E O R I E entstehen durch seinen Arbeitseinsatz Kosten in HShe von 1 2

(4.50)

at = -~at ,

wof'tir er eine Entlohnung gem~t3 st = VlXt + v2 erh~lt. Weiter haben Prinzipal und Agent die MSglichkeit, 0berschfisse zu einem Zinssatz von i am Kapitalmarkt anzulegen. Die Perioden seien fiir den Agenten wechselseitig nutzenunabh~ingig, der Nutzen, der in Periode eins generiert wird, hat also keinen Einfluss auf den in der zweiten Periode erzielten Nutzen. Es gelten die weiteren Annahmen des LEN-Modells. 5T /

Wird additive Separabilit~it der Nutzen der Perioden unterstellt, so kann der Gesamtnutzen des Agenten mittels T

(4.51)

(1 +1 i) t e_rg ~

UA (gl, ..., gT) = E t--1

angegeben werden, wobei gt durch gt -

definiert ist. Eine Vereinfachung des

st-ct

Erwartungsnutzens T

E(UA(gl, ...,gt)) - - E

1 -r.(E(gt)-0,S.r.Var(gt)) (1 + i) t " e

(4.52)

t--1

zu einem Sicherheits~iquivalent ist somit nicht mehr mSglich. 58 Wird hingegen unterstellt, dass der Agent einen Teil dt seiner Entlohnung in jeder Periode am Kapitalmarkt anlegen kann, so ist es mSglich, ein Sicherheits~tquivalent zu generieren. Dazu ist die zusiitzliche Annahme do = 0 zu treffen. Am Ende der Vertragsdauer sei es dem Agenten mSglich, den Betrag dT zeitlich unbefristet anzulegen und damit ffir t > T einen unbefristeten Zahlungsstrom i. dt in Form einer ewigen Rente zu generieren. Mit Hilfe eines Induktionsbeweises kann gezeigt werden, dass

T ( S(gt) - 0 , 5 " (1) 1- ~-~

SAI = E

. r . Var(gt)

) " ( l +1i ) t

(4.53)

t--1

und E(UA(gl, ... gT)) ----- +__~/(_e_r.i.S2i, 1 ) '

5z 5s

Vgl. Abschnitt 4.2.2. Vgl. Dietrich (2003), S. 453.

i

(4.54)

4.3. DYNAMISCHE PRINZIPAL-AGENT-ANSJ~ TZE

57

gilt. Die Variable S,/il bezeichnet das Sicherheitst~quivalent der ersten Periode. Zur Optimierung des Erwartungsnutzens gentigt es, SA1 zu maximieren. 59 Analog zum LEN-Modell nach Spremann kann nun der aus Sicht des Agenten optimale Arbeitseinsatz mit a~ = Vl angegeben werden. Um seinen Uberschuss zu maximieren, w~hlt der Prinzipal eine variable Entlohnung von

V~

1

1 + r . \(1 - I,J~.]. a2 t-z/

(4.55)

und ein Fixgehalt von v~=0,5.

( 1) 1 - ~

.r(vl) 2.a 2 - 0 , 5 . ( v ; ) 2+UA,

(4.56)

wenn davon ausgegangen wird, dass der Prinzipal den Kapitalwert seiner erwarteten Uberschiisse maximiert. Dieser Ansatz nach Dietrich 6~erweitert das LEN-Modell nach Spremann auf mehrperiodige Vertragsbeziehungen. Um die Berechnung eines mehrperiodigen Sicherheits~iquivalents zu ermSglichen, wurden einschrt~nkende Modellannahmen getroffen. So sind die Ergebnisse der einzelnen Perioden xt stochastisch unabh~ngig, und fiir Prinzipal und Agent existiert ein vollkommener Kapitalmarkt. Unberiicksichtigt bleiben auch in diesem Ansatz durch Ubungseffekte steigende Grenzproduktivit~ten des Arbeitseinsatzes. Diese werden ebenso wie in den bisher diskutierten Modellen nicht einbezogen. Dynamische Prinzipal-Agent-Modelle mit einer variablen Periodenlt~nge T sind nur unter sehr einschrt~nkenden Modellannahmen geschlossen 15sbar. Neben den bei der Untersuchung der einzelnen Anst~tze bereits aufgezeigten Mtingeln stellt sich fiir die Beriicksichtigung von Ubungseffekten die Frage, inwieweit Vertr~ge zwischen beiden Parteien im Zeitablauf neu formuliert werden sollten, wenn etwa die Grenzproduktivitt~t des Agenten durch Ubung steigt. Solche Neuverhandlungen werden in zweiperiodigen Prinzipal-AgentAnst~tzen behandelt, die insbesondere vertragliche Neugestaltungen vorsehen. Einige dieser Ans~tze sollen im Folgenden vorgestellt werden.

4.3.2 Zweiperiodige Prinzipal-Agent-Ansi~tze In zeitdiskreten Prinzipal-Agent-Modellen werden h~ufig zweiperiodige Modelle beriicksichtigt, welche die in Abbildung 4.4 ersichtliche Struktur aufweisen. Die Neuverhandlung 59 Vgl. Dietrich (2003), S. 456. 6o Vgh Dietrich (2003).

58

KAPITEL 4. AUSGEW)~HLTE ANSf~TZE DER PRINZIPAL-AGENT-THEORIE t=O

I Prinzipal und Agent gehen vertragliche Beziehung ein. Prinzipal w~hlt Anreizschema, Agent wtthlt Arbeitseinsatz.

t=l

t Realisiation von Umwelteinfliissen

t=2

I Agent erhiilt Entlohnung. Vertrag wird neu ausgehandelt.

I

I

Realisation von Entlohnung Umwelteinfliissen des Agenten.

Abbildung 4.4: Entscheidungsablauf Zweiperiodigen Prinzipal-Agent-Modellen mit Vertragsneuverhandlungen

Quelle: eigene Darstellung in Anlehnung an Litwack (1993) des Vertrags in t = 1 ist dabei nicht zwingend. Ebenso ist eine Festschreibung des Entlohnungsschemas in t = 0 fiir t = 1 und t = 2 mSglich. Sollte eine Nachverhandlung in t = 1 mSglich sein, so kann der sogenannte Ratchett-Effekt eintreten, der die Verhalt e n s ~ d e r u n g des Agenten in diesem Verhandlungsmodell beschreibt. 81 Die Analyse dieses Effekts in der Prinzipal-Agent-Theorie spaltet sich in die Behandlung von ex-ante verborgenen Charaktereigenschaften des Agenten 62 und in die Behandlung von Moral-HazardProblemen, die aus dem nichtbeobachtbaren Arbeitseinsatz des Agenten resultieren. 63 Beide Ans~tze sollen hier vorgestellt werden, wobei auf Grund der A ufgabenstellung dieser Arbeit der Schwerpunkt auf die Behandlung von ,,Hidden Action"-Situationen gelegt wird.

4.3.2.1 Behandlung verborgener Charaktereigenscha[ten des Agenten Die Modelle, welche verborgene Charaktereigenschaften des Agenten beschreiben, sind dadurch gekennzeichnet, dass dem Prinzipalen die Struktur der aus dem Arbeitseinsatz resultierenden Kosten nur bis auf einen Parameter 8, welcher die Produktivit~t des Agen61

82 63

Vgl. Litwack (1993), Milgrom und Roberts (1992), Indjejikian und Nanda (1999) und Pfaff und Pfeiffer (2001). Der Ratchett-Effekt entsteht, wenn der Prinzipal vor Beginn der Nachverhandlungen das Ergebnis der ersten Periode beobachten kann. Er ist dadurch in der Lage, sein Wissen fiber verborgene Charaktereigenschaften des Agenten (vgl. u. a. Litwack (1993) und Milgrom und Roberts (1992)) zu verbessern oder sein Wissen fiber die Verteilung yon ~2 zu revidieren (vgl. Indjejikian und Nanda (1999)). Dadurch ist es ihm m6glich, in t = 1 einen ftir den Agenten unvorteilhafteren Vertrag auszuhandeln. Dieser wird aus diesem Grund in der ersten Vertragsperiode bewusst Leistung zuriickhalten, um das Eintreten ungtinstiger Umweltzust~nde oder eine geringe Produktivitiit vorzutiiuschen. Dies hat zum Ziel, in der zweiten Vertragsperiode eine seinen Reservationsnutzen tibersteigende Entlohnung zu erhalten. Eine ausfiihrliche Beschreibung des l~atchett-Effekts findet sich in Laffont und Tirole (1993), S. 381-436. Vgl. Laffont und Tirole (1993), Laffont und Tirole (1988) and Litwack (1993). Vgl. Indjejikian und Nanda (1999).

59

4.3. DYNAMISCHE PRINZIPAL-A GENT-ANSA TZE

ten beschreibt, bekannt ist 64 und die Form c(a,8) aufweist. In beiden darzustellenden Ans~tzen werden sowohl Prinzipal wie auch Agent als risikoneutral angesehen.

4.3.2.1.1

Das Modell nach La#ont und Tirole

Der Parameter 0 liegt hier beliebig im Intervall [8__,8]. Die sich fiir den Agenten daraus ergebenden Kosten sind durch ct=0-at,

t=l,2

(4.57)

definiert. Der Nutzen des Agenten betr~gt UA(S,a) = s -- w(a) mit w' > 0 und w" > 0. Der Prinzipal ist lediglich in der Lage, ct zu beobachten, jedoch nicht at. Weiter tr~gt er die Kosten ct und zahlt dem Agenten st. Ergebnisse der zweiten Periode werden von beiden Parteien mit einem Zinssatz i abgezinst. Sowohl die Entlohnungen fiir Agenten mit einem niedrigen Parameter 0_ als auch fiir Agenten, deren Parameter ~ betriigt, miissen die Teilnahmebedingung erfiillen. Ist dem Prinzipalen der Typ 8 bekannt, so wird der Typ 0_auf Grund seines geringeren Disnutzens m

fiir die gleichen realisierten Kosten c geringer entlohnt als der Typ 0. Daraus folgt, dass es sich fiir einen Agenten vom Typ 0_lohnen wiirde, vorzugeben, er w ~ e vom Typ ~.65 Ist dem Prinzipalen der Typ des Agenten unbelmnnt, so lmnn er versuchen, den Agenten in t - 1 durch die geeignete Wahl eines Anreizschemas zur Offenlegung seines Typs zu zwingen. Der Agent hingegen wird genau dann seinen Typ offenbaren, wenn der fiir ihn daraus resultierende Nutzen grS~er ist als bei Nichtoffenbarung. Fiir den hier untersuchten Fall weisen La#ont und Tirole nach, dass es kein Anreizschema sl gibt, dass den Agenten dazu bewegt, seinen Typ 8 vollst~ndig offenzulegen. 66 Zus~tzlich wird gezeigt, dass es fiir dicht aneinander liegende Werte ~ und 0 aus Sicht des Prinzipalen optimal ist, auf Anreizschemata, die mit hoher Wahrscheinlichkeit eine Separation beider Typen ermSglichen, zu verzichten. 6~ Im hier untersuchten Ansatz kommen La#ont und Tirole zu dem Ergebnis, dass fiir den Prinzipalen die Kosten der vollstgndigen Aufdeckung des Typs seines Agenten hSher sind als der daraus resultierende Nutzen. Damit wird auf den Versuch einer vollst~indigen Aufdeckung bewusst verzichtet. Eine teilweise Separation kann hingegen durchaus sinnvoll sein, wenn sie etwa bei weit auseinander liegenden Parametern 0_ und 8 ermSglicht, 64 65 66 6~

Vgl. Laffont und Tirole (1988) und Litwack (1993). Vgl.Laffont und Tirole (1988), S. 1158. Vgl. Laffont und Tirole (1988), S. 1159, Proposition 1. Vgl. Laffont und Tirole (1988), S. 1162, Proposition 2.

60 KAPITEL 4. A USGEWAHLTE ANS)~ TZE DER PRINZIPAL-AGENT-THEORIE das Vorliegen eines Agenten vom Typ 0__+ e ffir hinreichend kleine e auszuschlieflen. Der Ratchett-Effekt zeigt sich hier in Gewinneinbut~n des Prinzipalen bei Vorliegen eines Typs < 0. Sie entstehen sowohl durch die Bemfihungen des Prinzipalen, in der ersten Periode durch eine geeignete Vertragsgestaltung seine Informationen fiber O zu verbessern als auch durch den Agenten, der eben diese Bemfihungen bei der Wahl seines Arbeitseinsatzes antizipiert. 4.3.2.1.2

Der Ansatz nach Litwack

Im Gegensatz zum Ansatz von Laffont und Tirole exisitieren hier nur Agenten des Typs _0 oder 0. Der persSnliche Disnutzen der Agenten hat die Form (4.58)

w(a, ~_) = w(a) m

w(a, O) = k . w(a),

k e [O, 1]

mit

Ow 0--a > 0 ,

02w -~- >0

ffir a > 0 .

(4.59)

Beide Parteien sind auch hier risikoneutral. 6s

Litwack zeigt, dass bei Vorliegen dieser Bedingungen stets ein Wert ]r E [0, 1] existiert, so dass es ffir den Prinzipalen bei Vorliegen eines Wertes k < 1r optimal ist, durch Wahl eines geeigneten Vertrages den Typen des Agenten offenzulegen, w~hrend dies bei k > nicht der Fall ist. Beide Ans/itze wurden exemplarisch ffir eine Reihe von Arbeiten zur Problematik der Anreizsteuerung bei zweiperiodigen Prinzipal-Agent-Beziehungen unter Berficksichtigung unbekannter Charaktereigenschaften des Agenten beschrieben. Dabei wurde deutlich, dass es nicht notwendigerweise im Interesse des Prinzipalen liegt, diese Charaktereigenschaften des Agenten aufzudecken. Im Folgenden soll ein Ansatz zur Modellierung von Prinzipal-Agent-Beziehungen in der ,,Hidden Action"-Situation untersucht werden.

4.3.2.2 Ein zweiperiodiges LEN-Moddl Indjejikian und Nanda untersuchen in ihrer Arbeit ebenfalls ein zweiperiodiges AgencyModell, in dem sich der Prinzipal nicht verpflichten kann, das Ergebnis der ersten Periode bei der Gestaltung der Entlohnung der zweiten Periode zu ignorieren. Sie gehen hierbei der 8a Vgl. Litwack (1993), S. 275.

4.3. D Y N A M I S C H E

PRINZIPAL-AGENT-ANSA

61

TZE

Fragestellung nach, ob es aus Sicht des Prinzipalen besser ist, den Agenten basierend auf zwei Leistungskriterien zu beurteilen oder ob eine Entlohnung anhand eines Aggregates beider GrSflen das Gesamtergebnis verbessert. Indjejikian und Nanda gehen davon aus, dass der Agent n verschiedene T~itigkeiten mit

den Arbeitseins~tzen a~, ..., a~' zu den Zeitpunkten t - 1, 2 ausfiihrt. Das Periodenergebnis ergibt sich mittels (4.60)

xt = B(~t) + ~t

wobei B(~) - ~t ~ angenommen wird. Der Vektor bt ordnet jedem Arbeitseinsatz des Agenten einen Aktivit~tsgewinn zu. Mitet wird eine Zufallsvariable bezeichnet. 69 Der Agent besitzt eine von-Neumann-Morgenstern Nutzenfunktion UA(~t, st) = - e -r(8(x')-~

~'),

(4.61)

der Reservationsnutzen nehme ohne Beschr~nkung der Allgemeinheit den Wert null an. Zeitpr~ferenzen beider Parteien werden nicht beriicksichtigt. Der Agent wird anhand des Vektors ~t mit Yt = a-'t . et + ~t

(4.62)

entlohnt, wobei et eine Matrix von Leistungsma~paxametern und qt eine normalverteilte ZufallsgrSfle mit dem Erwartungswert Null und positiv definiter Kovarianzmatrix ~]tt

vom

Typ (2, 2) ist. Der Agent wird somit nicht zwangsl~ufig am Periodenergebnis x entlohnt. Stattdessen kSnnen vom Prinzipalen auch andere Kompensationsgrundlagen, wie etwa KostengrSt3en oder die Budgeteinhaltung gew~hlt werden. Im Modell von Indjejikian und Nanda bietet der Prinzipal dem Agenten zu Beginn der ersten Periode einen Vertrag an, wobei in der Vertragsgestaltung bereits die zweiperiodige Prinzipal-Agent-Beziehung antizipiert wird. Der Agent w~hlt nun ebenfalls unter Beriicksichtigung seiner EntscheidungsmSglichkeiten in der zweiten Periode den Arbeitseinsatz der ersten Periode. Im Zeitpunkt t = I wird anschlieflend ~1 beobachtet und s(~l) gezahlt. Zu Beginn der zweiten Periode handeln beide Parteien erneut einen Vertrag aus, bei dem die Beobachtungen der ersten Periode beriicksichtigt werden. Nun w~ihlt der Manager wiederum seinen Arbeitseinsatz und wird in t = 2 anhand des erzielten Ergebnisses ~2 entlohnt. Die LSsung des Optimierungsproblems erfolgt durch Rekursion. Der nutzenmaximierende 69 Vgl. Indjejikian und Nanda (1999), S. 181.

62 KAPITEL 4. A USGEWAHLTE ANSA TZE DER PRINZIPAL-AGENT-THEORIE Arbeitseinsatz des Agenten in t = 2 lautet = eT" ~ ,

(4.63)

wobei ~ die variable Vergfitung und ~ das Fixgehalt der Periode t beschreibt. Der Prinzipal leitet sein gewinnmaximierendes Anreizschema der zweiten Periode mittels v._~2 1 __ (e2e T -~- r ( ~ 2 2

-1 T -1 ~21~11 ~21))

-" e252

(4.64)

und v 2 = O, 5. eTe2 + O, 5 . r . V a r ( ~ + (~)Tg2[gl) -- E[(~)Tg2[gl]

(4.65)

at). Im Falle einer eindimensionalen Betrachtung unter Beriicksichtigung von e2=l,

b~=l,

b~=l,

E=(

a~0 a~0 )

(4.66)

entspricht dies den Ergebnissen des LEN-Modells. In der zweiten Stufe der Optimierung wird das Verhalten beider Parteien unter Beriicksichtigung der oben genannten Beziehungen untersucht. Indjejikian und Nanda kommen zu dem Ergebnis, dass fiir den nutzenmaximierenden Arbeitseinsatz des Agenten (4.67)

~11 __--.elT (V--.1 1 -- -'-,-1--,T ..-/2 )'11 2-~21Vl)

gilt.T~ Der Term "I'~Ty~-Iv~T' "-'21L' -'ll"'$ 21 beschreibt die Reduktion des Arbeitseinsatzes des Agenten, die dieser auf Grund der F~higkeit des Prinzipalen, die Ergebnisse der ersten Periode zur Vertragsgestaltung in t = 2 zu nutzen, ws Die aus Sicht des Prinzipalen optimale variable Entlohnung in t = 1 lautet *

=

+

+

T~-I~T

~I

(4.68)

wobei hier ~7~"die Reduktion des Arbeitseinsatzes des Agenten beriicksichtigt und teilweise kompensiert, n Dies fiihrt fiir den Prinzipalen zu einem 0berschuss rm~tcheu von

70 Vgl.Indjejikian und Nanda (1999), S. 185. 71 Vgl.Ebenda, S. 186.

4.3. DYNAMISCHE PRINZIPAL-AGENT-ANS)i TZE 7FRatchett

--

1 ~ elT ( e l e : -~- r~]11 )-1e1~1 ~01

--

r

63 (4.69)

(~rel _ e lr)(exeT+r~ll,_X.~r~ b 1 -~- ~1(~1)T~']21 ~-~11el ) 2-J21V' -i r

i ~ T(e2e T

-i

Dabei stellt die erste Zeile der rechten Seite der Gleichung den erwarteten Gewinn des Prinzipalen bei Zugrundelegung eines einperiodigen Modells dax. Die zweite Zeile beschreibt, wie der Gewinn des einperiodigen Modells durch Beriicksichtigung des RatchettEffekts reduziert wird. Die dritte Zeile stellt den Gewinn des Prinzipalen in der zweiten Periode dax. Dabei fiillt auf, dass der Term in der zweiten Zeile im Falle unkorrelierter ZufallsgrSBen verschwindet. Die Optimierung des zweiperiodigen Modells zerfiillt also in zwei einperiodige Optimierungsprobleme. Kann sich der Prinzipal dagegen zu Beginn der ersten Periode auf ein Entlohnungsschema festlegen, das in der zweiten Periode unabh~ngig vom erzielten Ergebnis der ersten Periode ist, so erhSht sich sein Uberschuss um den Betrag 7rCommit

mit X =

--

7rRatchett

=

1 T T -~rZ (e2e2 +

r~22 - r2~21p-l~]12) -1" X > 0

(4.70)

E2:ElleleT1P-:E12(e2e: q- r(E22- E21~11E12))-le252 + E21p-lelb1 und P =

e:e T + rl]::. ~2 Die Variable 7rcommit beschreibt dabei den 0berschuss des Prinzipalen, den er erzielen kSnnte, wenn er sich vor Beginn der Vertragsbeziehung auf ein fiir beide Perioden giiltiges Entlohnungsschema festlegen kSnnte. Durch die mSgliche Nutzung der Information aus t = 1 entgeht dem Prinzipalen im Falle unkorrelierter ZufallsgrSBen Gewinn. Welter h~ngt der durch den Ratchett-Effekt verursachte Mindergewinn yon den Aggregaten b ab. Durch geeignete Wahl yon Kompensationsgrundlagen kann somit die Ausweitung des Ratchett-Effekts gemindert werden. Die

hier

vorgestellten

Modelle

der

Prinzipal-Agent-Theorie

beriicksichtigen

0bungsfortschritte der Agenten nicht. Zwar wird im Rahmen dynamischer Modelle untersucht, inwieweit Prinzipal und Agent Wissen fiber ihre eigenen F~higkeiten beziehungsweise die der anderen Parteien generieren kSnnen, dies beriicksichtigt jedoch nur das Lernen fiber die wahre HShe yon Parametern. Bei der Untersuchung zweiperiodiger Prinzipal-Agent-Modelle wurde deutlich, dass Agenten durch die Beriicksichtigung dynamischer Konzepte zur Reduktion ihres Arbeitseinsatzes neigen, um ihren Informationsvorsprung nicht einzubtiBen. Dies fiihrt f~r den Prinzi72 Vgl. Ebenda, S. 187, Proposition 1.

64 KAPITEL 4. A USGEWAHLTE A N S A T Z E DER PRINZIPAL-AGENT-THEORIE palen zu Gewinnreduktionen und liisst die Frage often, inwieweit Agenten, die Ubungsfortschritte erzielen, diese auch an einen Prinzipalen melden oder in seinem Sinne einsetzen. Vielmehr kSnnten sie an einer Leistungszuriickhaltung interessiert sein, um in den folgenden Perioden einen hSheren verdeckten Nutzen zu generieren. Dieser und anderer Fragestellungen soll im Rahmen der folgenden ErSrterungen nachgegangen werden. Die vorgesteUten dynamischen Modelle sind dazu nur bedingt hilfreich. Eine durch Ubung steigende Produktivit~t des Agenten wurde in allen genannten Modellen nicht beriicksichtigt. Allerdings erw~hnt HolmstrCm~3 die MSglichkeit einer dynamischen Modellierung mit Hilfe der Grenzproduktivit~it rl des Agenten. Dieser Parameter soll aufgegriften werden, um mit ihm die sich ver~ndernde Grenzproduktivit~t des Agenten zu beschreiben. Mit seiner Hilfe soll ein dynamisches LEN-Modell in Anlehnung an Indjejikian und Nanda modelliert werden. Die Grenzproduktivit~t des Agenten sei beiden Parteien vor Beginn der Vertragsbeziehung bekannt, so dass die Problematik ihrer Aufdeckung durch den Prinzipalen wie in Litwack (1993) und Laftont und Tirole (1988) nicht besteht. Allerdings kSnnte auch hier der Agent bewusst in der ersten Periode Leistungszuriickhaltung iiben, um damit seinen aus der zweiten Periode resultierenden Nutzen zu erhShen.

73 Vgl. Gleichung (4.46).

Ein statisches LEN-Modell unter Beriicksichtigung bisheriger Erfahrung des Agenten

Zun~ichst soll untersucht werden, ob sich mit Hilfe des LEN-Modells nach Spremann 1 Unterschiede in der Struktur der optimalen Entlohnung gefibter und ungefibter Agenten ergeben. Die Vertragsgestaltung beider Parteien wird zun~chst in einem komparativstatischen Modell untersucht. Es wird angenommen, dass beide Parteien einen Vertrag fiber die einmalige Ausfibung einer T~tigkeit abschliet3en. Dabei berficksichtigen weder Prinzipal noch Agent, dass Letzterem durch die Vertragsbeziehung ein Erfahrungszuwachs entsteht. Von besonderem Interesse soll insbesondere der Anteil der variablen Vergfitung und des Fixums sein. Weiter soll die sich daraus ergebende HShe des aus Sicht des Agenten optimalen Arbeitseinsatzes bestimmt werden. Es wird bier untersucht, ob sich zunehmende 0bung positiv oder negativ auf die Parameter der Entlohnung auswirkt und wie sich die Entlohnung in diesem Modell von den Ergebnissen Spremanns unterscheidet. Die 0bungseffekte des Agenten werden mit Hilfe der Lernkurve nach DeJong 2 beziehungsweise nach dem Potenzgesetz der 0bung modelliert. Letzteres hat in der Theorie des kognitiven Fertigkeitserwerbs ein so hohes Marl an Zustimmung erhalten, dass es geeignet erscheint, 0bungseffekte weitestgehend realit~itsnah zu gestalten. Beide Modelle scheinen geeignet, in einem statischen Modell eine Prinzipal-Agent-Beziehung mit Berficksichtigung von 0bungseffekten zu beschreiben. Das Potenzgesetz der 0bung wird in den Theorien des kognitiven Fertigkeitserwerbs nicht bestritten, und ffir kl = 0 enth~ilt es die Lernkurve nach Wright als Spezialfall. Wegen ihrer breiten Akzeptanz sollen beide Modelle im Weiteren verwendet werden.

5.1

Modellannahmen

Die Grundannahmen des LEN-Modells gelten auch hier mit einer Erweiterung durch die sich ~ndernde Grenzproduktivit~t des Agenten. Dies soll mit Hilfe der von HolmstrCm 1 2

Vgl. Spremann (1987). Vgl. DeJong (1957).

66

KAPITEL

5. E I N S T A T I S C H E S

LEN-MODELL

vorgeschlagenen Beziehung 3 gemii~ (5.1)

x = r/a + e

geschehen. 4 Die bisherigen Ubungseffekte werden durch den Parameter n, n > 0, modelliert, der beschreibt, wie oft der Agent die vertraglich festgelegte Tiitigkeit bereits ausgefiihrt hat. Die Durchfiihrungszeit der n-ten Wiederholung kann gemii~ dem Potenzgesetz der Ubung durch

t(~) = kl + k2. ~-b mit b > 0 beschrieben werden. Es sei n ~

(5.2)

die selbst fiir sehr geiibte Agenten maximal

w~trend der Vertragsdauer T durchfiihrbare Anzahl an Wiederholungen ihrer Aufgabe mit k l ' n , n ~

= T.

Der Produktivitiitsparameter r/(n) kann so durch kl

(5.3)

,7(n) = kl + k2. n -b beschrieben werden. Fiir n ~ 0 n~hert sich r/(n) dem Wert null, fiir n ~ cc gilt dagegen lim,_.oo w(n) = 1. Unerfahrene Agenten haben somit einen sehr niedrigen Produktivit~tsparameter, wiiahrend sehr geiibte Agenten einen Wert nahe eins erzielen kSnnen. Die weiteren Annahmen des LEN-Modells gelten unveriindert. Der Agent erhiilt eine Entlohnung der Form s ( x ) = Vl 9x + v2 und empfindet aus seinem Arbeitseinsatz a ein y . Der aus Entlohnung und Arbeitsleid generierte Nutzen wird Arbeitsleid w ( a ) = - - as durch

UA(~,~) =

as

--~-~(~(~)-~)

(5.4)

beschrieben. Der Prinzipal ist risikoneutral, sein Nutzen entspricht also dem Erwartungswert des Ergebnisses x -

s(x).

Der Agent ist risikoavers, die ZufallsgrSBe e ist normalver-

teilt mit dem Erwartungswert null und der Varianz a 2. Es wird weiter davon ausgegangen, dass nach Ablauf der vertraglichen Beziehungen weder Prinzipal noch Agent einen Nutzen aus der zusiitzlich gewonnenen 0bung erzielen kSnnen.

s 4

Vgl. Holmstrcm (I999). Diese Beziehung wird auch von Blickle-Liebersbach(1989) zur Modellierung der Grenzproduktivitiit eines Agenten verwendet.

5.2.

DAS OPTIMIERUNGSPROBLEM

5.2

Das Optimierungsproblem

5.2.1

67

DES PRINZIPALEN

des Prinzipalen

Der F i r s t - B e s t - F M 1

In der First-Best-Situation ist der Prinzipal in der Lage, den Arbeitseinsatz a des Agenten direkt zu beobachten. Da er risikoneutral ist, der Agent hingegen risikoavers, ist es aus Sicht des Ersteren optimal, Letzteren abhiingig von seinem Arbeitseinsatz zu entlohnen. 5 Die Entlohnungsfunktion hat die Gestalt (5.5)

s(a)=vl.a+v2.

Damit triigt der Prinzipal das Risiko allein. Der Agent maximiert nun

U.(a) = -~-~(~' ~

(5.6)

durch Oa

- r (vl - a*) e

" O.

(5.7)

Die notwendige Bedingung lautet a* = vl und ist so analog zum LEN-Modell nach Spremann unabhiingig v o n d e r Grenzproduktivitiit des Agenten und auch unabhiingig von dessen bisheriger Erfahrung. Die hinreichende Bedingung ist an der Stelle a* = Vl fiir ein Maximum erfiillt, da

O~UA(~*) - U A

mit

--s 1 ln(--UA) UA = - 7 s

Vgl. Abschnitt 4.2.1.

(5.9)

68

KAPITEL

5. E I N S T A T I S C H E S

LEN-MODELL

angegeben werden kann. Die zweite Nebenbedingung ist im Optimum als Gleichung erfiillt 6, da das Fixgehalt v2 keinen Einfluss auf den vom Agenten gew~ihlten Arbeitseinsatz hat und somit so lange reduziert werden kann, bis die Teilnahmebedingung als Gleichung erffillt ist. Die optimale HShe von v2 lfisst sich deshalb aus --s

a2

--s

Vl2

v2 = UA - vl a + ~ - = UA

(5.10)

2

bestimmen. Diese Beziehung kann in die Zielfunktion des Prinzipalen integriert werden, die rFB(V~)

"-- a* v =

v~ a*

--

(a')~

--s

(5.11)

-- V A + v 1 a*

~s vl~? - UA

v21 2

lautet. Wegen 0~---~ = v

-

(5.12)

~'

gilt v~ = r]. Fiir den Prinzipalen ist es somit optimal, die HShe des gezahlten Ergebnisanteils der Grenzproduktivitiit des Agenten anzupassen. Das gefundene Optimum ist auf Grund der Beziehung 02 ~FB -- --1 02Vl

(5.13)

ein globales Maximum. Das daraus resultierende, dem Agenten zu zahlende optimale Fixgehalt betriigt ,

--s

7] 2

2'

v2 - UA

(5.14)

der Agent erhiilt so ein Fixum in HShe seines Reservationsnutzens abziiglich der gezahlten variablen Vergiitung und zuziiglich eines Ausgleiches fiir das entstandene Arbeitsleid. Durch die Einbeziehung der Gleichung (5.3) folgt fiir die optimale Entlohnung ]gl v~

=

k~ + k2 n -b

v2

=

UA-~

kl+k2n

(5.15) -b

"

(5.16)

Wegen a* = vl wird der Agent seinen optimalen Arbeitseinsatz mit a* = kl -+- k2 n -b

8

Vgl. Abschnitt 4.2.

(5.17)

5.2. D A S O P T I M I E R U N G S P R O B L E M DES P R I N Z I P A L E N

69

in HShe des Anteils am Erbgebnis w~hlen. Daraus resultiert ffir den Prinzipalen ein erwarteter Gewinn yon 7r(v~) =

--s

a*rl- U A

_

7/2

--

2

(a*) 2

2

(5.18)

--s UA"

Dieser setzt sich aus dem erwarteten Ergebnis abzfiglich des an den Agenten gezahlten Reservationsnutzens zusammen.

5.2.1.1

Abhiingigkeit der optimalen L6sung yon der H6he des Parameters n

Im Folgenden soll untersucht werden, wie sich die HShe der Erfahrung n des Agenten auf den optimalen Anreizvertrag und den aus Sicht des Agenten optimalen Arbeitseinsatz auswirkt. Des Weiteren soll ein Vergleich zum LEN-Modell nach Spremann gezogen werden, um zu verdeutlichen, dass die Einbeziehung der sich dutch Lernkurveneffekte ver~ndernden Grenzproduktivit~t zur Gestaltung optimaler Vertr~ge im LEN-Modell notwendig ist. Zun~chst wird untersucht, wie sich eine Ver~nderung von n auf die HShe des Parameters rl auswirkt. Dieser beschreibt die HShe der Grenzproduktivit~t des Agenten. Die Ver~nderung des Parameters 77 wird durch die erste Ableitung nach n, 0V

k l k2 b. n-l-b

(~----~ -- ( k I -~- k 2 / t _ b ) 2 ,

(5.19)

charakterisiert. Da sowohl der Zi~hler als auch der Nenner strikt positv sind, ist rl monoton wachsend in n. Wegen 02r] _ On 2

kl k2bn-2-b(kl + k2n -b + b k l - k2bn -b) (kl + k2 n-b) 3

(5.20)

und b < I ist 77strikt konkav, da der Z~hler der Bruchs strikt negativist, w~hrend der Nenner grSsser als Null ist. Die Grenzproduktivit~t des Agenten nimmt somit bei steigender Erfahrung zu. Je hSher die bereits erzielte Erfahrung ist, desto geringer ist der Zuwachs der Grenzproduktivit~t. Ein bereits sehr erfahrener Agent kann seine Grenzproduktivit~t also nur sehr mfihevoll steigern, w~hrend dies Personen, die fiber wenig Erfahrung verffigen, vergleichsweise leicht gelingt. Der Parameter 77 wird nicht unbegrenzt gross, sondern ist wegen lim r/ = 1

n----,oo

(5.21)

KAPITEL 5. EIN STATISCHES LEN-MODELL

70

0.9

b=0,515 03 03

b=0,322 0.6 0,5 0,4

b=0,152 0.3

f ,

,

,

i

.

.

,

200

,

,

,

j

400

600

MI0

1000

Abbildung 5.1" Die HShe yon y abh~ingig von der Erfahrung n. durch nar = 1 begrenzt. Ein unerfahrener Agent n~hert sich diesem Wert anfangs sehr schneU an, w~hrend sich diese Ann/iherung bei steigendem n langsamer vollzieht. Einige Beispielverl~iufe fiir r/sind in Abbildung 5.1 dargestellt. Die Abh~ingigkeit der Parameter a* und v~ von n folgt wegen a* = v~ = rl

(5.22)

unmittelbar aus dem Verlauf des Parameters r/. Auch sie sind auf Grund der Beziehung Or/ 0---~>0

und

02rl ~nn 4?73r 2 (74

(5.54)

erffillt ist. Diese Ungleichung ist tendenziell eher ffir weniger risikoaverse Agenten (kleines r) und ffir Ergebnisse x erffillt, deren Eintreten einer kleineren Streuung a 2 unterliegt. Die HShe von rl hat ebenfalls einen Einfluss auf das Monotonieverhalten. Je h5her r/ ist, desto eher ist v~ monoton fallend. Das Verhalten von v~ wird in Abbildung 5.9 verdeutlicht und

Modellierung

einer zweiperiodigen

P r inz ipal- A gent- B ezieh ung

Im Folgenden soll untersucht werden, ob sich bei der Modellierung einer zweiperiodigen Vertragsbeziehung zwischen einem Prinzipalen und einem Agenten durch die Berficksichtigung von 0bungseffekten Unterschiede in der Vertragsgestaltung zu dem eben diskutierten statischen Modell ergeben. So w~re es zum Einen vorstellbar, dass ein langfristig orientierter Agent in der ersten Periode bewusst einen hSheren Arbeitseinsatz w~hlt, um dadurch seinen Nutzen in der zweiten Vertragsperiode zu steigern. Der Prinzipal kSnnte dies durch eine hShere variable Vergiitung in der ersten Periode mit dem Ziel forcieren, den erwarteten Gewinn der zweiten Periode auf diese Weise zu steigern. Zum Anderen w~e es ebenso mSglich, dass der Agent in der ersten Periode Leistung zurfick h~lt, um in der zweiten Vertragsperiode weniger Arbeitsleid ertragen zu miissen. Um diese Fragen zu kl~en, wird zun~chst ein zweiperiodiges LEN-Modell aufgebaut, um dann mit Hilfe der diskreten dynamischen Optimierung das Verhalten der optimalen Parameterwerte erkls

6.1

zu kSnnen.

A u f b a u des Modells

Zur Modellierung der vertraglichen Beziehung zwischen Prinzipal und Agent wird in Anlehnung an Indjejikian und Nanda ein zweiperodiges LEN-Modell gew~hlt. Der Prinzipal habe die Zeitpr~ferenz iF, der Agent iA .1 Die Auswahl dieses Ansatzes erfolgt auf Grund der relativ breiten Akzeptanz des einperiodigen LEN-Modells und der Tatsache, dass

Indjejikian und Nanda dieses weitestgehend akzeptierte Modell erfolgreich auf den Zweiperiodenfall erweitern. Beide Parteien gehen dabei in t = 0 eine vertragliche Beziehung ein und legen die an den Agenten zu zahlenden Gewinnanteile beider Perioden v1,1 sowie Vl,2 und die jeweiligen Fixgeh~lter v2,1 beziehungsweise v2,2 fest. Anschliet3end w~hlt der Agent seinen Arbeitseinsatz Die Zeitpr~iferenzensind nicht als Zinss~tze eine Kapitalmarktes aufzufassen. Eine solche Gleichsetzung wfirde die Nutzung eines mehrperiodigen Sicherheits~luivalents stark erschweren. Dies wird u. a. ausftihrlich in Ktirsten (2002), Dietrich (2003) und Wiese (2003) diskutiert.

K A P I T E L 6. EIN Z W E I P E R I O D I G E S LEN-MODELL

90

t=l

t=O

I

t=2

I .....

9 Vertragsabschluss

9 Realisation von Xl

9 Festlegung von v1,1 sowie v2,1

9 Entlohnung des Agenten

9 Agent w~khlt a l

9 Festlegung von vi,2 und v2,2 durch den Prinzipalen

.....

i I

9 Beobachtung von X2 9 Entlohnung des Agenten

9 Wahl von a2 durch den Agenten

Abbildung 6.1: Entscheidungsablauf im zweiperiodigen Modell

der ersten Periode al. Beide Parteien beobachten in t = 1 das Ergebnis Xl -" 71 . a l -~- gl.

(6.1)

Der Parameter 771 beschreibt dabei in Anlehnung an die Ausfiihrungen zum statischkomparativen LEN-Modell 2 die GrenzproduktivitRt des Agenten kl

771

..........

kl + k2 no b

(6.2)

zum Zeitpunkt t = 0. In t - 1 erhiilt der Agent die Entlohnung Vl,1 Xl -~"V2,1 und w~ihlt einen Arbeitseinsatz der zweiten Periode a2. Im Zeitpunkt t = 2 wird das Ergebnis x2 -- ~72 .a2 + g2

(6.3)

mit

~72

=

kl

kl T k2 n l b

(6.4)

realisiert. Der Entscheidungsablauf beider Parteien dieses Modells wird in Abbildung 6.1 dargestellt. Der Parameter 772 ergibt sich aus der zu Beginn der vertraglichen Beziehung in t - 0 vorliegenden Erfahrung no und der wiihrend der ersten Periode gesammelten zus~tzlichen Erfahrung. Bei einer Arbeitszeit von d , ~ ist es fiir einen sehr geiibten Agenten mit n ~ cc maximal mSglich, ~

Mengeneinheiten herzusteUen, wenn er dazu einen

Arbeitseinsatz von al = 1 wiihlt. Die von einem Agenten mit der Grenzproduktivitiit r/1

2

Vgl. Kapitel 5.

6.1. A UFBA U DES MODELLS

91

und dem Arbeitseinsatz al gesammelte zus/itzliche Erfahrung kann approximativ durch d,,~ nl = rh "al 9 kl

(6.5)

angegeben werden, wenn angenommen wird, dass die Ltinge d,u= der betrachteten Periode hinreichend klein ist. Somit gilt rl2 =

kl -b

(6.6)

kl + k2 " (no + ~l al ~ ) fiir die Grenzproduktivitgt der zweiten Periode. Zwar gndern sich die Parameter r]l und r]2 durch die Aufgabenbearbeitung des Agenten bereits wghrend der Perioden t = 1 und t = 2, in diesem Modell sollen sie jedoch als wiihrend des jeweiligen Bezugsrahmens konstant angesehen werden. Eine zeitstetige Betrachtung wird im n/ichsten Kapitel a erfolgen. Die Zufallsvariablen el und e2 werden als unabhgngig und normalverteilt angesehen. Beide genfigen der gleichen Verteilung und besitzen einen Erwartungswert von null und eine Varianz von a~. Der Reservationsnutzen des Agenten wird analog zu den Ansgtzen nach Dietrich 4 und --s HolmstrCm 5 mit U A = 0 festgesetzt. Dies beeinflusst die grundsgtzliche Struktur der LSsung nicht, da Grossman und Hart ~ zeigen, dass sich die HShe des Reservationsnutzens --s lediglich linear auf die HShe des erwarteten 0berschusses auswirkt. Ein Einfluss von UA auf a* = (a~, a~) beziehungsweise v~ = (v~', v~*) besteht nicht. Weiter wird angenommen, dass der Reservationsnutzen des Agenten in jeder Periode realisiert werden soll. Der hier zu Grunde gelegte Ansatz zur Optimierung einer zweiperiodigen Prinzipal-AgentBeziehung folgt im Wesentlichen dem Optimierungsproblem nach Indjejikian und Nanda. Danach exisitieren fiir beide Parteien Zeitprttferenzen von ip und iA, mit denen die Nutzen der einzelnen Perioden diskontiert werden. Auf Grund der Risikoneutralitgt des Prinzipalen maximiert dieser

2

1 Z (1 + ip) t-l" Z ( x t - 8t(xt)) t=l

3 4 5

Vgl. K&pitel7. Vgl. Dietrich (2003). Vgl. HolmstrCm (1999). Vgl. Grossman und Hart (1983).

(6.7)

KAPITEL 6. EIN ZWEIPERIODIGES LEN-MODELL

92 unter den Nebenbedingungen

2

1

a" e argmax Z (1 + iA) t-1 UA(at, st(x(at, et))

(6.8)

t=l

3at" (1 +

1

iA) t-x UA(at, st(x(at, et)) > 0 t= 1,2.

Dabei beschreibt die erste Bedingung erneut, dass der Agent denjenigen Arbeitseinsatz wiihlt, welcher die Summe der Barwerte der Nutzen fiber beide Perioden maximiert. Er wiihlt somit zu Beginn der Periode t = 1 einen Arbeitseinsatz a* = (a~, a~) fiir beide Perioden. Die zweite Nebenbedingung beinhaltet, dass der Agent in jeder Periode mindestens seinen Reservationsnutzen erzielen kann. Die Nutzenfunktion

UA des Agenten sei auch

hier eine von-Neumann-Morgenstern-Nutzenfunktion mit

UA(at, 8t(x(at, et) ) ) -- --e-r'(st(z(at'e'))-~ ).

(6.9)

Wird unterstellt, dass der Agent seinen Nutzen mit Hilfe eines mehrperiodigen Sicherheitsiiquivalents r maximiert, so ist die Anreizkompatibilit~ttsbedingung (6.8) unter Einbeziehung der Gleichung (6.9) iiquivalent zu a* E argmaxa [sx(xl) ( +

1 l+ia

)

a~2 2rVar(sx(x2))

( " ~(~)

a2

(6.10)

rvar(s2(x2))) ]

2

und kann mittels dieser Beziehung gelSst werden. 6.2

LSsung des Optimierungsproblems

Die Optimierungsprobleme von Prinzipal und Agent sind in die Klasse der diskreten dynamischen Probleme einzuordnen und kSnnen rekursiv gelSst werden. Dabei wird so vorgegangen, dass zun~ichst fiir beide Parteien Optimalit~itsiiberlegungen fiir t = 2 getroffen werden. Es wird in diesem Stadium der Optimierung davon ausgegangen, dass die Parameter vx,1, v2,x und a l bereits festliegen. Bei Vorliegen dieser Parameterkonstellation * v*2,2 und a~ gesucht. Diese kSnnen in der Regel nur in t = 1 werden optimale Werte vx,2, in Abh~ingigkeit von den in der ersten Periode gewiihlten GrSBen angegeben werden.

v

Zur Bildung des einperiodigenSicherheitsiiquivalentsvergleicheGleichung (5.30).

6.2. L O S U N G DES O P T I M I E R U N G S P R O B L E M S

93

Um deren optimale HShe zu bestimmen, wird anschlie6end das Optimierungsproblem ffir beide Parteien in t -- 1 unter Einbeziehung von v'1,2, v2,2" und a s* gelSst.S

6.2.1

L6sung des Optimierungsproblems /~r die zweite Periode

Im Zeitpunkt t = 1 hat der Agent w/ihrend der ersten Periode die zusiitzliche Erfahrung nl = al "rh 9~kl erworben und verffigt somit fiber die Grenzproduktivit/it r/2. Er w/ihlt bei vom Prinzipalen vorgegebenen Entlohnungsparametern Vl,2 und v2,2 seinen optimalen Arbeitseinsatz der zweiten Periode a~. Der Prinzipal antizipiert dies bei seiner Wahl von vl,2 sowie v2,2 und optimiert

max

82(x(a2,$2)),a2

E(x(a2,~2) - s2(x2(a2,~2)))

(6.11)

unter den Nebenbedingungen a~ e arg max UA(a2, s2(x2(a2, e2))) a2

3a2: USA,2(a2, s2(x2(a2,e2))) >__0 in der zweiten Periode. Die in der ersten Periode realisierten Gr56en al, Vl,1, v2,1 und rh werden als gegeben angesehen und gehen somit nur als feste Parameter in die Optimierung ein. Zur LSsung des Optimierungsproblems wird analog zu Kapitel 5 vorgegangen. Zun~chst soll der aus Sicht des Agenten optimale Arbeitseinsatz a~ bestimmt werden. Dieser maximiert sein Sicherheits/iquivalent des Nutzens der zweiten Periode

USA,2(a2, s2(x2(a2,r

)

=

uSA,2

=

2 vl,2 as V2 + v2,~ - -a~ ~ - ~r a ~ 2v 1,2.

(6.12)

Analog zum einperiodigen Modell wird der optimale Arbeitseinsatz durch OUS,2

, ,

Oa2 = vl,2 " ~2 - as " 0

(6.13)

mit a~ = vl,2 9~72 bestimmt. Wegen der Konkavitiit des Sicherheitsiiquivalents 9 in as ist dies auch ein globales Optimum. Der hier gefundene optimale Arbeitseinsatz der zweiten Vertragsperiode besitzt die gleis 9

Vgl. zu diesem Vorgehen insbesondere Bellmann (1967) und ffir Anwendungen in der PrinzipalAgent-Theorie u. a. Litwack (1993), Laffont und Tirole (1988) und Indjejikian und Nanda (1999). o2u~.2 - -1. Es gilt ~

K A P I T E L 6. EIN ZWEIPERIODIGES LEN-MODELL

94

che Struktur wie der optimale Arbeitseinsatz im einperiodigen LEN-Modell und ist unabh~ingig vom gezahlten Fixum. Eine Ursache ist darin zu sehen, dass der soeben ermittelte optimale Arbeitseinsatz nur den Nutzen einer Periode maximiert. Mit Hilfe dieser Erkenntnis fiber den optimalen Arbeitseinsatz der zweiten Periode kSnnen v'1,2 und v2, 2. bestimmt werden. Wegen der Gfiltigkeit der Teilnahmebedingung a~2 2

vl,2 a~ ?72 -~" V2,2

r

2 0-2 v21'2 = 0

(6.1 4)

gilt v2,2 r12 2 V2'2 = --

2

r 2 v2 +~a2

(6.15)

1,2"

Der Prinzipal optimiert zu Beginn der zweiten Periode seinen erwarteten Gewinn in diesem Zeitraum (6.16)

71"2 - - ~2 a~ -- Vl, 2 772 a~ - v2, 2

unter Berficksichtigung der Beziehungen (6.14) und (6.15). Es gilt also 7r2 = =

via~-v

21,2 ~ v 2 rl~ ~,2 2

~,~

vh.~ 2

r

a2 v21,2

(6.17)

r o~v 2 2 1,2.

Wegen 0r2 = r/~ - vl,2 r/~ - r a~ Vl,2 ' 0

(6.18)

0Vl,2

wird in der zweiten Periode der maximale erwartete Gewinn bei r/~ v;,2 = Og + r og

(6.19)

erreicht. Dieser Wert ist wegen der Konkavit~t von 7r2 ein globales Maximum. Auch hier ist die Struktur der optimalen LSsung analog zum einperiodigen Modell. Die Ursache ist wiederum in der einperiodigen Optimierung ffir die zweite Vertragsperiode zu sehen. Um dem Agenten seinen Reservationsnutzen zu gew~hrleisten, muss der Prinzipal ein Fixgehalt von * ~2,2 =

~ - ~~ 2 ( ~ + ~2~) 2

(6.20/

zahlen. Die Grundstruktur des so gefundenen Optimums der zweiten Vertragsperiode ist analog

6.2. L O S U N G D E S O P T I M I E R U N G S P R O B L E M S

95

zum in Kapitel 5 vorgestellten komparativ-statischen Modell. Dies resultiert daraus, dass in beiden Fallen fiber eine nur noch einmalig durchzuffihrende T~tigkeit optimiert wird. In beiden Modellen liegt der Parameter rl beziehungsweise r12 lest und bestimmt so die HShe der zu optimierenden Gr56en. Im Unterschied zum komparativ-statischen Modell hat hier der Prinzipal jedoch die MSglichkeit, ~72 durch die Wahl seines Entlohnungsschemas der ersten Periode zu beeinflussen. Dies wird durch

kl ]gi "Jr"k2" (/tO ~t_ ax 771 ~ ) - b

72

(6.21)

deutlich. Je hSher der vom Agenten gew/ihlte Arbeitseinsatz der ersten Periode ist, desto grSBer ist seine im Zeitpunkt t = 1 vorhandene Erfahrung nl = no + aa rh k-~," Da die Struktur der L6sung des Optimierungsproblems der zweiten Periode analog zu der des komparativ-statischen Modells ist, kann wie in Kapitel 5 gefolgert werden, dass eine hShere Erfahrung zu Beginn der zweiten Periode zu einem hSheren erwarteten Gewinn ffihrt. Somit besteht beziiglich der Wahl des optimalen Arbeitseinsatzes der ersten Periode ein unmittelbarer Einfluss auf die HShe der optimalen LSsung der zweiten Periode. Im Folgenden soll deshalb die Struktur der optimalen LSsung fiir die erste Periode untersucht werden.

6.2.2

L6sung des Optimierungsproblems /fir die erste Periode

Zu Beginn der ersten Periode in t = 0 berficksichtigen beide Parteien, dass ihre Auswahl der Handlungsparameter Auswirkungen in t - 2 haben wird. Eine Optimierung erfolgt deshalb nicht nur fiber eine, sondern fiber beide Perioden. Das Optimierungsproblem des Prinzipalen lautet somit

1

s(z(at,et)),a

(1 + ip) t-1 (x(at, et) - st(x(at, et)))

)

(6.22)

t=l

unter den Nebenbedingungen a* E argmax a

(5

(6.23)

1

t-1 (1 + iA) t-1 r

3at " E(st(x(ut,5t))) - -~ - -~ Var(st(x(at,~t))) > 0

ffir

t -- 1,2

(6.24)

K A P I T E L 6. EIN Z W E I P E R I O D I G E S L E N - M O D E L L

96

sowie unter Beriicksichtigung der Beziehungen kl

r]2 =

(6.25)

k 1 + k 2 " ( n -1- a 1 771 kl

a~ =

Vl,2 .r]2

(6.26)

r/~

v~,~ =

rl~ + r a~

~'~ =

-2(~

(6.27)

rt~ - r]~ ra~

(6.28)

+ ro~)~"

Die Beziehung (6.24) stellt wiederum die Anreizkompatibilitiitsbedingung des Agenten dar, Gleichung (6.24) beriicksichtigt seine Teilnahmebedingung. Die Nebenbedingung (6.25) beschreibt die HShe der Grenzproduktivitiit des Agenten in der zweiten Vertragsperiode in Abh~ingigkeit vonder in der ersten Periode gesammelten Erfahrung. Die Beziehungen (6.26) bis (6.28) geben die im soeben dargestellten Abschnitt gewonnenen Erkenntnisse wieder. Zun/ichst soll wiederum das Optimierungsproblem (6.24) des Agenten unter Einbeziehung der optimalen Parameterwerte fiir t = 2 gelSst werden. Dieser sucht einen optimalen Arbeitseinsatz al, der seinen individuellen Nutzen der Form a~ UAS

--

Vl,1 a l 711 -]- v2,1 -t-

=

2

r

9 Vl,2 a2 r]2 + v2,2 -

v1,1 al rh + v2,1

~

2

(6.29)

2 a~ v 21,1

2

~ v2~,1 +

~ - ~ r o~

~- -

~ (T_ v 1,2 2

(1) I+iA

~

9 ( ~ + ~ o~)~ - 2 ( ~ + ~ o~)~ - 2 ( ~ + ~ o~)~ =

v1,1 al rll + v2,1

a~

r

2

2 a~ v 1,1 ~

maximiert. Dabei fiillt auf, dass hier die fiir die zweite Periode gesetzten Parameter nicht mehr erscheinen. Ursache dafiir ist die Entlohnung des Agenten in der zweiten Periode, die so erfolgt, dass dieser gerade einen Reservationsnutzen von Null erzielen kann. Sollte der Agent demnach seinen optimalen Arbeitseinsatz in t - 1 geleistet haben, wird der Prinzipal die Entlohnung der zweiten Periode auf eine Weise gestalten, dass der Agent gerade seinen Reservationsnutzen realisieren kann. Da somit der Nutzen des Agenten in der zweiten Periode eine feste GrStle ist, ist er nicht unmittelbar von aa abhiingig. Der Agent wiihlt somit einen Arbeitseinsatz a~, der ausschliesslich seinen Nutzen der ersten

6.2.

LOSUNG

97

DES OPTIMIERUNGSPROBLEMS

Periode maximiert. Dieser kann durch OUAS,1 0al

. = v1,1711 - al

I

(6.30)

" 0

mit a~ - v1,1 9711 bestimmt werden und weist wiederum die Struktur des einperiodigen Modells auf. Da der Agent seinen Arbeitseinsatz ohne Berficksichtigung der Auswirkungen auf zukiinftige Vertragsperioden wghlt, ist es in diesem Modell unerheblich, wann der Prinzipal die Vergfitungsparameter der zweiten Periode festlegt. Bei Unterstellung rationalen Verhaltens des Agenten ist der Prinzipal in der Lage, die Vergiitungsparameter der zweiten Periode bereits zu Vertragsbeginn festzulegen. Folglich wghlt der Agent seinen Arbeitseinsatz a~ unabhgngig vonder damit verbundenen Verbesserung seiner Grenzproduktivitgt in der zweiten Periode. Ein kurzsichtiges Verhalten ist deshalb aus seiner Sicht optimal. Mit dieser Information optimiert der Prinzipal sein Entscheidungsproblem der ersten Periode. Zungchst wird wiederum das zu zahlende Fixgehalt v~,1 mittels der Teilnahmebedingung und unter Einbeziehung der Gleichung (6.30)

a~ 2

731,1al 711+ v2,1

r ~ a~ v2,,1 = 0

(6.31)

durch v 1,1 2 7112 r

v2,, =

2

+ 232 v21'1

(6.32)

bestimmt. Unter Beriicksichtigung dieser Beziehung lautet die Zielfunktion des Prinzipalen --

7112Vl,1

_... 7]2 ,Vl,1

-

7112V 2

1,1 +

7]~v 1,1 2 2

7112V 1,1 2 2

r

1 776 + 7]~r a~ a'~+ 1 + i F 2 ( ~ + r a ~ ) ~ 1 776 + 7]~r a~

2 a~ v 2

r

2 O"12v21 , 1

1+

-~-- ~

9

(6.33)

2( g +

Im letzten Summanden ist wegen 7]2

--

kl

( k l + k2 al 711

dm~= kl -Jr no

)-b

kl kl+k2

( v1,17]a2 ~ + n 0 ka

)-b

(6.34)

K A P t T E L 6. EIN Z W E I P E R I O D I G E S LEN-MODELL

98

ebenfaUs die Variable Vl,1 implizit enthalten. Die notwendige Bedingung f'tir eine aus Sicht des Prinzipalen optimale Entlohnung kann mittels

Or 1 071"2 s 0 0.).~1,1 = ?/12-- 7712Vl, 1 -- r (T12Vl, 1 "~ I + i p Or1,1

(6.35)

gelSst werden. Da der Term

071"2 -- ~71"2, ~72 0~2 OVll ~1,1 4~23r a 2 + 2~25

"~

2072+ r~

"

k2br/2d,~= (Vl, 1 7712~ (kl +k2 (Vl,1 ~72k'~l

-[- no)-b-I 2 "[" no)-b /

(6.36)

keine geschlossene LSsung der Beziehung (6.35) erlaubt, ist eine analytische LSsung des Optimierungsproblems aus Sicht des Prinzipalen nicht mSglich. Aus (6.36) ist lediglich ersichtlich, dass wegen

O~T2> 0 und

0~72

0~2

> O

(6.37)

der tlberschuss der zweiten Periode monoton wachsend in Vl,1 ist. Demnach ist zu erwarten, dass die variable Entlohnung der ersten Periode im zweiperiodigen Modell hSher ausfallen wird als im komparativ-statischen Ansatz. Da eine analytische 0berpriifung dieser Hypothese nicht mSglich ist, soil dies im Weiteren zumindest numerisch geschehen. 6.3

N u m e r i s c h e LSsung des O p t i m i e r u n g s p r o b l e m s u n d I n t e r p r e t a t i o n d e r

Ergebnisse Um eine numerische LSsung des Optimierungsproblems des Prinzipalen zu generieren, ist zun~chst die Auswahl der zu Grunde zu legenden Startparameter n5tig. Anhand verschiedener Parameterauspr~gungen wird das Verhalten der LSsung des Problems in den Beispielf'dllen beschrieben. Der Riickgang der Arbeitszeit durch Ubung bei Verdoppelung der 0bungsdurchg~inge wird in Anlehnung an Yelle 1~ mit 30 % beziehungsweise mit 10 % angenommen (b = 0, 515 und b = 0,152). Diese Parameterauspr~gungen werden gew/ihlt, um das Verhalten der optimalen IAksung sowohl fiir geringe als auch f'tir hohe Lernparameter untersuchen zu kSnnen. Da die Ver~nderung des Parameters r/ f'tir eine geringe Anzahl an 0bungsdurchl/iufen am gr6flten ist, wird eine Anfangserfahrung von no = 10, no = 20, no = 30, no = 40 lo

Vgl.Yelle (1979), S. 303. Weiter konnten u. a. Wright (1936); Hirschmann (1964), S. 126 sowie Asher (1956) Lernparameter in diesem Bereich ermitteln.

6.3. NUMERISCHE LOSUNG

99

und no = 50 untersucht, um das Verhalten der optimalen LSsung bei Ver~nderung der Variablen no zu beschreiben. Fiir hShere Werte von no erfolgt nur noch eine marginale Ver/inderung von 7. Aus diesem Grund sind dann auch keine gravierenden Einfliisse auf die optimale LSsung mehr zu erwarten. Die Parameter kl und k2 werden mit kl = 5 und k2 = 20 festgelegt. Die Anzahl der pro Tag maximal durchfiihrbaren Wiederholungen wird mit d , ~ = 2 und d,,~z = 40 zwischen einem niedrigen und einem hohen Wert variiert, um auch hier das Verhalten des Systems bei extremen Auspriigungen zu untersuchen. Zusiitzlich soll untersucht werden, welchen Einfluss die Risikoaversion des Agenten auf das Ergebnis hat. Es werden hier m i t r = 0,1 und mit r=0,75 wiederum zwei extreme Auspr/igungen untersucht. Die Varianz der ZufallsgrSflen ~t, t = 1, 2, wird konstant bei a~ = a~ = a 2 = 0, 25 belassen, da diese in der Struktur der optimalen L6sung stets als Faktor des Produktes r a 2 auftritt. Eine Anderung von a 2 bei konstantem r h/itte somit eine ~hnliche Auswirkung wie die ~.nderung von r bei konstantem a 2. Der Reservationsnutzen des Agenten wird wie bereits in den Modellannahmen formuliert mit Null ~mgenommen. Dies hat keinen unmittelbaren Einfluss auf die Struktur der LSsung 11, fiihrt jedoch in der numerischen LSsung des Problems zu einem negativen Fixgehalt v],t. Sollte der Reservationsnutzen des Agenten grSBer als Null sein, so ist das zu zahlende Fixgehalt nicht zwangsl/iufig negativ. Die Zeitpr~iferenz iA des Agenten ist, wie gezeigt, fiir die optimale LSsung unerheblich. Die numerischen LSsungen des Optimierungsproblems wurden mit Hilfe des Programms

Mathematica ~.1 generiert 12 und liegen f'tir folgende Parameterkonstellationen vor: Die Tabellen enthalten die jeweils optimalen optimalen LSsungen aus Sicht von Prin-

Fall 1 Fall 2 Fall3 Fall4 Fall5 Fall6 Fall 7

Tabelle 6.1 Tabelle 6.2 Tabelle6.3 Tabelle6.4 Tabelle6.5 Tabelle 6.6 Tabelle 6.7

b 0,152 0,152 0,515 0,515 0,515 0,515 0,515

kl 5 5 5' 5 5 5 5

k2 d,r~z ip 20 2 0,1 20 40 0,1 20 2 0,1 20 40 0,1 20 40 0,1 20 40 0,25 20 40 0

zipal und Agent fiir die untersuchten Parameterkonstellationen. 11 Vgl.Kapitel 4 und Grossman und Hart (1983). 12

Vgl. Anhang B.

r 0,1 0,1 0,1 0,1 0,75 0,75 0,75

a2 0,25 0,25 0,25 0,25 0,25 0,25 0,25

100

KAPITEL 6. EIN ZWEIPERIODIGES LEN-MODELL

. . . .

= 10

no

n o = 20

:,v1,;,' o,733o 9 o,n1878 ai 0,191951 0,215408 ....v2,1,, 70,011706,....-0,015945 ,vl,2, ....0,7329,!7,, 0,761813 a2 0,191968 0,215419' ,Vz,2 -0,011711 -0'015948 11- 0,047981 0,058135 .

.

.

.

.

.

.

no = 30 no = 40 0,777386 0,787786 0,229638 0 , 2 3 9 9 4 4 -0,021029 -9,0i8813 0,777335 0,787745 0,229645 01239950 -0,018815 -0,021031 0,064751 0,069760

.

.

.

.

no = 50 0,795517 0,248051 -0,02285 0,795482 0,248056 -0,022856 0,073829 .

Tabelle 6.1" Optimale LSsung aus Sicht des Prinzipalen fiir Fall 1. no 20 no = 30 9 no = lO vl, ! ' 0',736519 0,763998 0,778951 al 0,19286'8 0,216008 0,230100 -0,016034 -0,018889 V2,.~ . -0.,0!1818 Vl,2 0!734564 0,762718 0,777967 a2 0,193212 0,216214 0,230252 v2 2 -0,011921 :0,016103-0,018943 7r 0,048226 0,058307 0,064889 .

.

.

.

.

.

.

.

.

.

.

.

.

no =40 no 50 0,789045 0,796577 0,240327 0,248381 -0,021096 -0,022915 0,788233 0,79588 0,240448 0,248484 '-0,021141:0,022954 0,069878 0,073933 .

.

.

.

Tabelle 6.2: Optimale LSsung aus Sicht des Prinzipalen fiir Fall 2. no = 4 0 no = 50 no = 20 no = 30 no=10 0,891958 0,921921 0,933888 0,940602 0,944998 0,588461 0,6i6258 0,401427 0,496959 ' 0 , 5 5 i 3 -0,070627 -0,1'1'2860 -0,141064 '0,162084 -0,178724 0,890530 0,920963 .... 0,933i77 0,940042 0,944538 ,a2 .......o,4o 6o2 0,,197073 0,551384 0,588527 0,616312 v2,2 -0,070729 -0,112938-0,141127 '0,162136-01i78768 ~r 0,i'72469'" 0,255724 0,31{J669 0,351432 0,383621 vt 1 al v2,1 Vl,2

Tabelle 6.3: Optimale Ltisung aus Sicht des Prinzipalen fiir Fall 3. ..... no=10 no=20 Vl,X 0,923559,, 0,941882

al 0,415649 v2,1 -0,075720 "Vi,'2.....0',897505" a2 0,419928 v2,2 -0,078i0i 0,179327 .

.

.

.

.

0,507719" -0,117800 0,924253 0,510474 -0, i 19614 0,261861

no = 40 no = 50 no = 30 0,948425 0,95i972 0,954287 0,559882" 0,595574 0,622316 -0,145490 -0,166026 -0,182255 0,935228 0,941489 0,945636 0,561890 0,597140' 0,6235'89' -0,146927-0,167208:0,183254 0,315985 0,356074 0,387724

,,

Tabelle 6.4: Optimale LSsung aus Sicht des Prinzipalen fiir Fall 4.

6.3. NUMERISCHE LOSUNG

v1,1 al v2,1 vl,2 a2 v2,2 7r

no = 10 0,535265 0,240897 -0,002155 0,530923 0,244583 -0,003484 0,103755

no = 20 0,620079 0,334252 -0,019816 0,615572 0,337296 -0,021360 0,172277

101 no = 30 0,659867 0,389538 -0,035049 0,655817 0,391995 -0,036508 0,219766

no = 40 0,684041 0,427950 -0,047704 0,680464 0,429980 -0,049032 0,255798

no = 50 0,700686 0,456935 -0,058367 0,697517 01458650 -0,059568 0,284641

Tabelle 6.5: Optimale LSsung aus Sicht des Prinzipalen ffir Fall 5.

Vl,1 al v2,1 vl,2 a2 v2,2 ~-

no = 10 0,533350 0,240035 -0,002140 0,530883 0,244545 -0,003479 0,097610

no = 20 0,618607 0,333458 -0,019722 0,615554 0,337274 -0,021354 0,162196

no = 30 0,658705 0,388852 -0,034926 0,655808 0,391981 -0,036504 0,206986

no = 40 0,683089 0,427355 -0,047572 0,680458 0,429970 -0,049029 0,240978

no = 50 0,684737 0,428386 -0,047801 0,681507 0,431674 -0,049629 0,241665

Tabelle 6.6: Optimale LSsung aus Sicht des Prinzipalen ffir Fall 6.

v1,1 al v2,1 vl,2 a2 v2,2 7r

no = 10 0,536861 0,241615 -0,002168 0,530956 0,244614 -0,003489 0,108877

no = 20 0,621306 0,334913 -0,019894 0,615586 0,337314 -0,021364 0,180678

no = 30 0,660835 0,390110 -0,035152 0,655825 0,392006 -0,036512 0,230416

no = 40 0,684833 0,428446 -0,047815 0,680468 0,429987 -0,049035 0,268148

no = 50 0,701353 0,457370 -0,058479 0,697520 0,458656 -0,059570 0,298349

Tabelle 6.7: Optimale LSsung aus Sicht des Prinzipalen fiir Fall 7. Die Ergebnisse bei Vorliegen dieser sieben Parameterkonstellationen werden im Folgenden untersucht. Dazu erfolgt zun/ichst eine Interpretation der Ver~nderung der Entlohnungsparameter zwischen den Perioden t = 1 und t = 2. Anschliei3end wird untersucht, wie sich die HShe der zu Beginn der Vertragsbeziehung vorhandenen Erfahrung no auf die optimale Entlohnung auswirkt. Abschliegend erfolgt ein Vergleich mit der aus dem LEN-Modell gewonnenen LSsung. 6.3.1

Vergleich der optimalen L6sungen /fir t = 1 und t = 2

Bei allen untersuchten Parameterkonstellationen konnte festgestellt werden, dass der aus Sicht des Prinzipalen optimale Gewinnanteil des Agenten in der ersten Periode hSher ist als in der zweiten, es galt somit v'1,1 > v'1,2. Um dieses Verhalten des Parameters v*l,t,

K A P I T E L 6. EIN Z W E I P E R I O D I G E S L E N - M O D E L L

102

t = 1, 2 zu erkl~en, ist zun~chst die FeststeUung nfitzlich, dass r/1 _ rl2 gilt. Da der Agent in jeder Periode t seinen Arbeitseinsatz at gem~i~ a~ = rk.Vl,t w~hlt, wird dieser bei v1,1 = Vl,2 in der ersten Periode kleiner oder gleich dem Arbeitseinsatz in der zweiten Periode gew~.lt. Durch v1,1 _ Vl,2 kann dies vom Prinzipalen kompensiert werden. Ein solches Vorgehen kann ffir ihn vorteilhaft sein, da durch die Wahl einer hSheren variablen Entlohnung in der ersten Vertragsperiode der darm geleistete Arbeitseinsatz a~ gesteigert wird. Dieser Effekt vergrSflert die (/bung, welche der Agent zu Beginn der zweiten Periode gesammelt hat und damit auch den Parameter rl2. Diese ErhShung der Grenzproduktivitiit der zweiten Periode fiihrt wegen a~ - r/2 "Vl,2 auch zu einer Steigerung des Arbeitseinsatzes des Agenten und damit zu einer VergrS~rung des erwarteten Gewinns des Prinzipalen in t - 2. Die Beziehung v1,1 _> Vl,2 kann somit dadurch erkl/irt werden, dass sich der Prinzipal durch eine ErhShung des Arbeitseinsatzes der ersten Periode eine VergrSflerung des erwarteten Gewinns in t = 2 verspricht, die seine Gewinneinbuflen in t = 1 fiberkompensiert. Der Prinzipal will den Agenten in der ersten Periode zum Lernen anreizen, um davon in der zweiten Periode trotz Diskontierung fiberproportional zu profitieren. In allen untersuchten Beispielen gait weiter a~ > a~. Wegen a~ = Vl,t'~Tt und Vl,1 > Vl,2 kann dies nur aus einer entsprechenden ErhShung der Grenzproduktivitiit tit resultieren. Durch v1,1 > Vl,2 wurde vom Prinzipalen eine so hohe Steigerung der Grenzproduktivit~t erwirkt, dass trotz eines geringeren Anteils am Gewinn der zweiten Periode ein hSherer Arbeitseinsatz a~ gewiihlt wird. Durch v1,1 > Vl,2 wird deutlich, dass der Prinzipal die Wirkung der variablen Vergfitung auf den Arbeitseinsatz der zweiten Periode in seine Optimierungsfiberlegungen einbeziehen sollte. Durch v'1,1 > Vl,2"kann es ihm gelingen, die Grenzproduktivitiit und damit den Arbeitseinsatz des Agenten in der zweiten Periode zu erhShen und so seinen erwarteten Gewinn fiber den Betrachtungszeitraum zu steigern. Der Agent muss dieses Vorgehen in seine Optimierungsfiberlegung einbeziehen, so dass er in der ersten Periode, induziert dutch die variable Vergfitung, einen Arbeitseinsatz wiihlt, der ihn dazu bef~higt, in der zweiten Periode eine Grenzproduktivitiit zu errreichen, die es ihm ermSglicht, seinen Reservationsnutzen in t = 2 zu erzielen. 6.3.2

Der Einfluss der bisherigen Erfahrung no

Ffir alle betrachteten Parameterkonstellationen von r, i, a 2, b und T wird untersucht, wie sich die HShe no der Erfahrung ffir no = 10, no = 20, no = 30, no = 40 und no = 50 auf die optimalen Entlohnungsparameter auswirkt. Die HShen der optimalen variablen

6.3. NUMERISCHE LOSUNG

103

..

Y1,1

;.-

.~.

'~.

0,!

O,i

v

0,'

Falll]

0,1 0,!

---) UA

und i~(t) = ~(t) . a(t) .

)

dt

Vt E [0, T]

dmax

gegeben. Der Reservationsnutzen U A wird auch in diesem Modell ohne Beschr~nkung der Allgemeinheit mit

U A =

0 angenommen, da sich gem~i~ Grossman und Hart 2 jeder

hShere Betrag einzig auf die HShe des gezahlten Fixgehalts des Agenten, nicht jedoch auf die anderen Optima auswirkt. Die Struktur der LSsung bleibt durch die HShe von U A unbeeinflusst.

7.2

LSsung des Optimierungsproblems

Die LSsung der Optimierungsprobleme von Prinzipal und Agent erfolgt mit Hilfe eines kontrolltheoretischen Ansatzes nach Pontrjagin und Bellmann. 3 Ausgangspunkt ist dabei ein zu maximierendes Zielfunktional, wobei die Ver~nderung der Zustandsvariablen mittels SteuergrSt3en fiber Bewegungsgleichungen angegeben wird. 4 Die LSsung eines solchen Optimierungsproblems kann anschliei3end analog zu statischen Ans~tzen mit Hilfe von adjungierten Variablen ermittelt werden.

1 2 3 4

Vgl. zu diesem Vorgehen Kfirsten (2002), Dietrich (2003) und Wiese (2003). Die Zeitpr~iferenzen sind hier nicht als Zinssiitze eine Kapitalmarktes aufzufassen. Vgl. Grossman und Hart (1983). Vgl. Feichtinger und Hartl (1986). Vgl. Roski (1984), S. 515.

114

KAPITEL 7. EIN DYNAMISCHES STETIGES PRINZIPAL-AGENT-MODELL

7.2.1 Das Optimierungsproblem des Agenten

Der Agent maximiert seinen erwarteten Nutzen bezfiglich seines Arbeitseinsatzes a(t) fiber den Zeitraum [0, T] mittels

iT(

a(t)2

e -'At E(s(x(a(t),e(t),t)))

r Var(s(x(a(t)e(t)t)))

2

2

'

'

)

dt

(7.10)

unter der Bedingung, dass seine Erfahrung gem&6

~(t)

,(t). ~(t).

=

kl

w~chst. Die Anfangsbedingung ist durch

~(o)

=

(7.ii)

,,o

gegeben. Die Hamiltonfunktion des Agenten lautet HAg~.t(a(t),~?(t),t,~(t))

= ~?(t)a(t)vl(t)+v2(t)

a(t) 2 2

(7.12)

r

-~Vl (t) 2 a 2 + A(t) ~(t) a(t) d , ~ kl Die a~ijungierte Gleichung, welche die Veriinderung des Schattenpreises und damit des Nutzens, den eine zus/itzliche Einheit an Erfahrung n zum Zeitpunkt t ffir den Agenten hgtte, wenn er sich bis zum Ende der Vertragsbeziehung rational verhielte, im Optimum beschreibt, ist dutch ~(t) = iA A(t)

(7.13)

OHAg,m o~(t)

gegeben. Die Transversaltit~tsbedingung, welche die HShe der Schattenpreisfunktion Aim Endzeitpunla T beschreibt, wird durch A(T) = 0

(7.14)

bestimmt. Sie bildet die Endbedingung der Differentialgleichung (7.13) und wird durch die Annahme impliziert, dass der Agent seine gesammelte Erfahrung nach Ende der Vertragslaufzeit nicht anderweitig nutzen kann. Wegen OHAg~t d~ aQ,(~;) = '#'/(t) Vl(t) -- a(~) -'t'- ,,~(t) ~(~;) T1

, --' 0

(7,15)

7.2. LOSUNG DES O P T I M I E R U N G S P R O B L E M S

115

erreicht die Hamiltonfunktion des Agenten ihr Maximum bei

a*(t) - ~7(t) vl(t) + )~(t) ---~-1

.

(7.16)

Die adjungierte Gleichung lautet

J~(t) = iAA(t) - bkl k2 n(t)-l-ba*(t)(vl(t) + A ( t ) ~ )

(7.17)

und kann ohne Kenntnis der Funktionen n(t) und vl (t) nicht gelSst werden. Der Arbeitseinsatz des Agenten unterscheidet sich vom einperiodigen Modell. Eine Annahme von A(t) ~ 0 filhrt auf Grund der Beziehung (7.16) zu a*(t) # 0 filr vl (t) -~ 0 und n(0) > 0 und folglich in Gleichung (7.17) zu ,~ # 0. Letzteres steht im Widerspruch zu ~(t)

-

o.

Weitere Angaben zur Schattenpreisfunktion A kSnnen ohne Kenntnis von Vl (t) und n(t) nicht getroffen werden. Wegen A(t) # 0 fiir einige t 6 [0, T] weicht jedoch der aus Sicht des Agenten optimale Arbeitseinsatz a*(t) vom einperiodigen Modell ab, der Agent bezieht somit mehrperiodige Konsequenzen in seine Optimierungs/iberlegungen ein und ber/icksichtigt, dass die Wahl seines Arbeitseinsatzes in t Auswirkungen auf die Zukunft hat. Dies steht im Gegensatz zu dem in Kapitel 6 ermittelten Ergebnis, bei dem der Arbeitseinsatz des Agenten in beiden Perioden nur von seiner Entlohnung und der vorhandenen ~/bung abh~ngt. Im dynamischen Modell ist dies wegen A(t) -~ 0 fi.ir einige t 6 [0, T] nicht der Fall.

7.2.2

Das Optimierungsproblem des Prinzipalen

Ebenso wie die Ermittlung des optimalen Arbeitseinsatzes des Agenten kann das Optimierungsproblem des Prinzipalen mit Hilfe einer Hamiltonfunktion gelSst werden. Er beriicksichtigt in seiner Optimierung der Entlohnung des Agenten die Anreizkompatibilti~tsbedingung (7.16) und die Teilnahmebedingung des Agenten, so dass sein Optimierungsproblem in der Maximierung von

ffo

Te-iVt(~(t) a*(t) - vl(t) q(t) a*(t) - v2(t))dt

(7.18)

116

KAPITEL 7. EIN DYNAMISCHES STETIGES PRINZIPAL-AGENT-MODELL

unter den Nebenbedingungen

it(t) = rl(t) a*(t) dmo~ kl v2(t) = -vl(t)a*(t)~(t)+ beziiglich der Entlohnungspaxameter

v~(t) und

(7.19) r

a*(t)2 + (t)a 2 2 ~v~

(7.20)

v2(t) besteht. Die Nebenbedingung (7.20)

stellt sicher, dass der Agent auch im dynamischen Modell zu jedem Zeitpunkt nur seinen Reservationsnutzen erreichen kann. Weiter ist zu beriicksichtigen, dass auch hier die adjungierte Gleichung (7.17) des Agenten Giiltigkeit besitzt. Zur Bestimmung der optimalen Entlohnung wird die Hamiltonfunktion

~'(t) ~

Hp~,nzipo~(vl(t),rl(t),#(t)) = rl(t)a*(t)

2

r

2

vl (t) 2 a 2

(7.21)

+#(t) 77(t)a*(t) dm~ kl genutzt. Sie kann mit Hilfe der Gleichung (7.16) zu

Hp~,n.i~(vl(t),

r/(t), #(t))

=

r/(t) 2 (vl(t)

-51

- o ~(t)~

+ A(t) d.~)kl ]

(7.22)

(vl(t)+~(t) d k~ ~ ]2

-~- v~ (t) ~ o~

2

+#(t)rl(t) 2 vl(t) + 1(t)---~--

kl

umgeformt werden. Die notwendige Bedingung fiir ein Maximum lautet

OHp,i,~ip~t OVl (t)

_

dm.~ ~ _ rl(t)2 _ rl(t)2 vl (t) + A(t) kl ,] r Vl (t) dmax

+ . ( t ) ~(t) ~ ~

i

Or2

(7.23)

9 o.

Sie wird durch ~;(t)

=

,7(t) ~ - ~ ( t ) d _kl~ ,7(t)~ + u(t),7(t) ~ ~'kx"

rl(t) 2 + r a 2

T](t) 2 -~- r a 2

(7.24) (7.25)

7.2. LOSUNG DES OPTIMIERUNGSPROBLEMS

117

erffillt. Auch hier zeigt sich eine Ver~nderung gegenfiber dem einperiodigen LEN-Modell. Die dort ermittelte GrSfle

wird um den Faktor

772 v~ = r]2 + r a 2

1 - )~(t) ~kl + #(t)

kl

(7.26)

korrigiert. Dieser kann gr6fler oder klei-

ner als eins ausfallen, abh~ngig davon, welche der Kozustandsvariablen A(t) und #(t) den hSheren Weft annimmt. Beide Variablen geben an, wieviel der jeweiligen Partei eine marginale Erh6hung der Erfahrung n zum Zeitpunkt t wert ist, vorausgesetzt, sie verhalten sich bis zum Ende des Vertragszeitraumes optimal. Ist somit dem Prinzipalen die ErhShung der Erfahrung mehr wert als dem Agenten, wird v~(t) hSher ausfallen als im LEN-Modell und umgekehrt. Auff~llig ist welter, dass in die aus Sicht des Prinzipalen optimale L6sung nicht nut die Schattenpreisfunktion des Prinzipalen #(t) Eingang findet, sondern auch die sich ffir den Agenten ergebenden intertemporalen Aspekte in Form der Funktion A(t) berficksichtigt werden. Die Transversalit~tsbedingung kann mit

#(T) = 0

(7.27)

angegeben werden und sagt aus, dass dem Prinzipalen im Zeitpunkt T eine zus/~tzliche Einheit an Erfahrung des Agenten keinen zus/itzlichen Nutzen bereitet. Dieser Umstand ist damit erkl~rbar, dass die Vertragsbeziehung in T beendet ist und der Agent somit keine Leistung mehr ffir den Prinzipalen erbringt. Eine ErhShung seiner Grenzproduktivit~t h~tte folglich ffir den Prinzipalen nach dem Zeitpunkt T keinen weiteren Nutzen. Die Kozustandsbedingung im Optimierungsproblem des Prinzipalen beschreibt die Anderung der Schattenpreisfunktion #(t) und kann durch

p(t) = is p(t) - kl k2 b n(t) -1-b ( dmaz ) (kl + k2 n-b) 2 " rl(t) v;(t) + A(t) -~l 9

9

(7.2s)

k~ ) +2u(t) k, )

angegeben werden. Sie beschreibt, welchen zus~itzlichen Nutzen eine ErhShung der Erfahrung n des Agenten um eine Einheit stiften wfirde, wenn sich der Prinzipal von t an bis zum Ende der Vertragsbeziehung optimal verhalten wfirde. Sie hat hier die Form einer

KAPITEL 7. EIN DYNAMISCHES STETIGES PRINZIPAL-AGENT-MODELL

118

nichtlinearen Differenzialgleichung. Somit bilden

b k, k2 n(t)-~-~a'(t)(~l(t) + ~(t) ~t~, ) X(t)

=

iA~(t) -

~(t)

=

i~ #(t) -

(k,

+ k~ n(t)-~)~

klk2bn(t)-l-b(

~-~u

9~(t)

d,u=)

~;(t) + ~(t) - ~ x

dm,=

n(t)

=

(7.29) (7.30)

d,,~

dmaz ~(t) ~'(t) k l A(T) = 0,

#(T) = 0,

n(0) = no

(7.31)

ein System nichtlinearer Differentialgleichungen, welches in diesem Fall nicht analytisch gelSst werden kann. im folgenden kSnnen deshalb nur Eigenschaften der optimalen L6sung ermittelt werden. 7.3

Eigenschaften der LSsung

7.3.1 Eindeutigkeit der L6sung In diesem Abschnitt soil fiberprfift werden, ob die alas Sicht von Prinzipal und Agent gefundenen L6sungen der jeweiligen Optimierungsprobleme eindeutig sind. Wenn dies der Fall ist, kann vom Prinzipalen sichergestellt werden, dass der Agent bei Vorgabe eines bestimmten Entlohnungsschemas

{vl(t);v2(t)}

fiber genau einen nutzenmaximierenden

Arbeitseinsatz a* (t) verffigt. Um zu fiberprfifen, ob die aus Sicht des Prinzipalen beziehungsweise des Agenten optimalen LSsungen die hinreichenden Bedingungen ffir ein Maximum erffillen, ist zun/ichst die Konkavit/it der beiden Hamiltonfunktionen zu fiberprfifen. Es gilt

O2HAgent= Oa(t)2

-1,

(7.32)

die Hamiltonfunktion des Agenten ist somit konkav in

a~

a(t) und

das gefundene Optimum

ist eindeutig. Ebenso ist die Hamiltonfunktion des Prinzipalen auf Grund der Be-

ziehung

02Hprinzipat Ov1(i)2

(t) 2 =_~

r a2

(7.33)

_

konkav. Folglich ist die gefundene LSsung eindeutig bestimmt. Diese Erkenntnis ist hilf-

reich bei der numerischen LSsung eines solchen Systems. Wird auf diese Art eine LSsung gefunden, so stellt sie das einzige Optimum des Systems dar. Insbesondere gibt es ffir den

7.3. EIGENSCHAFTEN DER LOSUNG

119

Agenten bei vorgegebenen Entlohnungsparametern vl(t) und v2(t) nur einen optimalen Arbeitseinsatz a*(t). Diese Erkenntnis ist insbesondere ffir den Prinzipalen yon Bedeutung, der so sicher sein kann, mit einer variablen Entlohnung yon v~ (t) einen bestimmten Arbeitseinsatz a*(t) induzieren zu kSnnen, s

7.3.2 Verhalten des Systems f/ir T ~ oo Im Folgenden wird untersucht, ob das System ffir T ~ c~ einen Gleichgewichtspunkt besitzt. Dieser zeichnet sich dadurch aus, dass im Gleichgewichtspunkt das Verhalten des Systems stabil ist und die gefundene optimale LSsung gegen einen festen Wert konvergiert. So kSnnen Aussagen fiber optimale Entlohnungsschemata bei Vertragsbeziehungen getroffen werden, deren Laufzeit sehr lang ist. Um das Verhalten des Systems fiir T ~ c~ zu beschreiben, sind zus/itzliche Annahmen nStig. Es erscheint sinnvoll, ffir die vom Prinzipalen induzierte Arbeitsanstrengung des Agenten a*(t) > 0 vorauszusetzen, da ein Agent ohne Arbeitsanstrengung weder seinen Erfahrungsschatz n(t) noch den erwarteten ~lberschuss des Prinzipalen erhSht. Im Weiteren sollen hinreichende Bedingungen ffir die Existenz eines Gleichgewichts bei T ~ oo untersucht werden. Mit Hilfe dieser Bedingungen lmnn die optimale Vertragsgestaltung bei T ~ oo bestimmt werden. Im Gegensatz zu den in der Literatur 6 angegebenen Bedingungen ffir ein Gleichgewicht (~, vl, a) wird hier

dmax

/z(t) = r/(t)a ~

= m

m > 0

(7.34)

ffir t ---, c~ angenommen. Wfirde m = 0 gelten, entspriiche wegen rl(t) > 0 ffir alle t der zum Gleichgewicht gehSrende Arbeitseinsatz ~ dem Wert null. Dies ffihrt auf Grund der Gleichung (7.16) zu 91 = _~ d_za~kl. Wegen der Gfiltigkeit der Beziehung (7.26) impliziert dies ~ < 0. Diese Ungleichung ist 5konomisch nicht plausibel, da sie aussagt, dass der Schattenpreis des Prinzipalen ffir zus/itzliche Erfahrung des Agenten negativist. In den Kapiteln 5 und 6 konnte jedoch gezeigt werden, dass eine hShere Erfahrung des Agenten ffir den Prinzipalen zu hSheren Uberschfissen ffihrt. Aus diesen Grfinden wird angenommen, dass die pro Zeiteinheit hergestellte Menge fiir t --, cc im Gleichgewicht mit/~ = m konstant ist. Auf Grund von

0~(t)

On(t) > 0 s

Vgl. Feichtinger und Hartl (1986), S. 84, Lemma 4.1. Vgl. Feichtinger und Hartl (1986), S. 39.

(7.35)

120

KAPITEL

7. E I N D Y N A M I S C H E S

STETIGES

PRINZIPAL-AGENT-MODELL

und lim r/(t)= 1

(7.36)

n( t )~oo

wird dies nur ffir n(t) ~

oo erreicht. Im Gleichgewicht besitzt der Agent folglich eine

Erfahrung yon n(t) --, oc und es gilt ~ = 1. Nur ffir Agenten mit einer Grenzproduktivit~it yon eins, also mit einer Erfahrung nahe unendlich, tritt somit eine GleichgewichtslSsung ein. Ffir die Schattenpreisfunktion des Agenten A gilt im Gleichgewicht ~ = 0. r Damit erffillt die Gleichung 0 = iA~ --

-~1 b k27~(t) -1-b

Vl (~ -~- '~ (~ ]r

]"

(7.37)

Diese Beziehung ist iiquivalent zu iA -- -~1 b k 2//,(t) -1-b a

kl ] --" ~1 b k 2 n(t) - t - b v5 a.

(7.38)

Wird beachtet, dass 731 als der dem Agenten gezahlte Gewinnanteil und 5 als der Arbeitseinsatz des Agenten in ihrer HShe begrenzt sind, so folgt wegen lim n(t) -1-b = 0

n(t)~oo

(7.39)

auch, dass

~. iA

= 0

(7.40)

gilt. Somit ist A = 0 ffir iA > 0 notwendige Bedingung ffir ein Gleichgewicht. Damit ist im Gleichgewicht der Schattenpreis der zusiitzlichen Erfahrung ffir den Agenten null. Dies ist dadurch erkliirbar, dass der Agent wegen ~ = 1 bereits fiber die hSchstmSgliche Grenzproduktivit~it verffigt und eine ErhShung seiner Erfahrung dadurch ffir ihn wertlos wird. Aus Gleichung (7.16) kann wegen ~ = 1 und ~ = 0 auf h = 61 geschlossen werden. Die HShe des Arbeitseinsatzes entspricht fiir t ~ ~ demnach dem gezahlten Gewinnanteil.

7

Vgl. Feichtinger und Hartl (1986), S. 39.

7.3. EIGENSCHAFTEN DEFt LOSUNG

121

Da im Gleichgewicht/2 = 0 gilt, s folgt

0 = i F f t - 2 ~ ' k l k 2 b n ( t ) -1-b ( (kl -~- ~2~--/~) "~ " ?~1 + ~

(

9 1-~

1(

~+~

d,~a~ ~

dmaz

(7.41)

kl ]

d,~ ~

k~ / + f ' k~ /

und wegen ~ = 0 sowie ~) = 1 damit auch

klk2bn(t)-l-b ( 1 ~) ft "ip = 2" (kl "q" ]r ?'t-b) 2 721 -- ~ ?~2 ..[_ ft Vl

9

(7.42)

Diese Beziehung ist ~quivalent zu /2 (ip -- 2.

kl k2brt(t) -1-b dmax~ (kl --I-k2 n-b) 2 Vl kl ,]

kl k2 bn(t) -1-b

--2"-~1~~2n_--~)5

_

(Vx

1

~1312) 9

(7.43)

Da ~31 beschr~nkt ist und limn(t)-_.~ n(t) -1-b = 0 gilt, folgt aus dieser Gleichung 12 = 0 ffir

ip>O. Folglich ist auch dem Prinzipalen im Gleichgewicht zus~tzliche Erfahrung des Agenten nur noch einen Schattenpreis von null wert. Dies ist damit erkl~trbar, dass Letzterer wegen - 1 keine weitere ErhShung seiner Grenzproduktivit~t erreichen kann. Aus ~ - 0, ~ = 0 und 12 = 0 folgt wegen Gleichung (7.26) die Beziehung 1

~3~ = 1 + r a 2"

(7.44)

Das Fixgehalt des Agenten entspricht im Gleichgewicht auf Grund der Gfiltigkeit der Gleichung (7.20) 1

r

~ = -~ ~ + ~ ~ ~

(7.45)

und ergibt sich somit als Reservationsnutzen abzfiglich der gezahlten variablen Vergiitung und zuziiglich der zu zahlenden Risikopr~mie. Hinreichende Bedingungen ffir ein Gleich-

8

Vgl. Feichtinger und Hartl (1986), S. 39.

122

KAPITEL 7. EIN DYNAMISCHES STETIGES PRINZIPAL-AGENT-MODELL

gewicht im dynamischen Modell kSnnen folglich durch ~) =

1

(7.46)

=

~

(7.47)

1 vl = 1 + r 0.2 1 r ~ = - 5 ~ + 2 ~ a2

(7.48) (7.49)

angegeben werden. Dieser Gleichgewichtspunkt entspricht damit der in Kapitel 4.2.2 diskutierten LSsung des LEN-Modells. Dies erscheint plausibel, da fiir n(t) --, oo die Grenzproduktivitat des Agenten gegen eins konvergiert und auf Grund der Konvexit~it von r](t) grSflere Ver~inderungen der Erfahrung n(t) nur noch marginale Auswirkungen auf r](t) haben, falls n(t) geniigend gross ist. Die durch 0bertragung von Erfahrung auf andere Zeitpunkte entstandenen in. tertemporalen Beziehungen verschwinden so mit grS~r werdender Erfahrung. Die Beriicksichtigung dynamisch-stetiger Beziehungen erscheint wichtig, da insbesondere bei Agenten mit geringer Erfahrung die in einem Zeitpunkt t hergestellte Menge Auswirkungen auf die Grenzproduktivit~t der Folgeperioden hat. Dies wird sowohl im Entscheidungsproblem des Prinzipalen als auch im Optimierungsproblem des Agenten durch die Einbeziehung der Schattenpreisfunktionen A(t) und #(t) deutlich. Die Beriicksichtigung yon Ubungseffekten beeinflusst somit die Wahl der vom Prinzipalen vorgegebenen Entlohnungsparameter ebenso wie den Arbeitseinsatz des Agenten. Dies stellt im Gegensatz zu den in Kapitel 6 gewonnenen Erkenntnissen dar, dass Letzterer sich bei der Wahl seines Arheitseinsatzes nicht nur an seiner gegenw~rtigen Grenzproduktivit~t und der yore Prinzipalen gezahlten variablen Vergiitung orientiert. Da das System (7.30) jedoch nicht analytisch 15sbar ist, lassen sich keine allgemeinen Aussagen fiber den Einfluss dieser intertemporalen Effekte treffen.

8

von

und

von

und

1 von und 0bung

von

und

von

0bung

1

und

und

124

8. v

$

v2

1

1

173 2072

2

von

_

1 0 .2

1

1

o2

0 4

o

2

o

und

von

und

8.1

0

2

125

von von von

von

a2 2

1 oo

2

,,2

1

2

_

2

oo

2

___

x

2 2

,

von

von a2

v12v12 von

von 1

11

von v21 von

von

yon

1

2

von 6

von v2,2

von

4

yon

2

und

yon v*1,2 u n d

*

130 a

,

, a

,

0.5, und

von

1

von 11

a1

1

a1

2 2

von v2,1 k2

,

von 72* 2

von

2

von 6

* 4*

von v2,2

2

2

11

a2

10 0,732829 0,191902

20 0,761765 0,215376

30 0,777302 0,229613

40 0,787719 0,239923

50 0,795461 0,248033

0,191945 0,047974

0,215405 0,058130

0,229635 0,064747

0,239942 0,069756 . . . . .

0,248049 0,073826

b 2

5, k2

20,

1,

2,

1,

0, 25.

10 0,732829 0,191902

20 0,761765 0,215376

30 0,777302 0,229613

40 0,787719 0,239923

50 0,795461 0,248033

0,192751 0,048076

0,215942 0,058196

0,230054 0,064797

0,240291 0,069797

0,248353 0,073861

b 2

0,152,

.

0, 152,

5, k2

20,

40,

0, 1,

0, 1,

0, 25.

10 0,890132 0,400605

20 0,920779 0,496343

30 0,933063 0,550814

40

50 0,944478 0,588060 01615918

0,401421 0,172171

0,496972 0,255440

0,551316 0,310417

0,588477 0,351209

v2

b 2

0, 25.

0,515,

5, k2

20,

0,616272 0,383423 2,

1,

0,1,

132

10 0,890132 0,400605 0,415939 0,173503

20 0,496343

30 0,933063 0,550814

40 0,939962 0,588060

50 0,944478 0,615918

0,508296 0,256330

0,560438 0,311078

0,596073 0,351731

0,622757 0,383852

v2

b

0, 515,

5, k2

20,

40,

0, 1,

0, 1,

25.

10 0,519288 0,233706

20 0,607800 0,327633

30 0,650178 0,383819

40 0,676111 0,422990

50 0,694012 0,452583

0,239064 0,102531

0,332934 0,170636

0,388556 0,218070

0,427182 0,254155

0,456311 0,283084

v2

b 2

0,515,

5, k2

20,

40,

0,1,

0, 75,

0, 25.

10 0,519288 0,233706

20 0,607800 0,327633

30 0,650178 0,383819

40 0,676111 0,422990

50 0,694012 0,452583

0,239064 0,096538

0,332934 0,160756

0,388556 0,205496

0,427182 0,239534

0,456311 0,266822

v2

b 2

0,515,

5, k2

20,

40,

0, 25,

0, 75,

0, 25.

0,327633

30 0,650178 0,383819

40 0,676111 0,422990

50 0,694012 0,452583

0,332934 0,178869

0,388556 0,228548

0,266339

0,456311 0,296635

10 0,519288

20 0,607800

0,233706 0,239064 0,107525

v2

b 0.2

0, 25.

0,515,

5, k2

20,

40,

0,

0, 75,

31 und on

42

1993 2. 1996 by 29

and 1985 und 29

1956

35 und 29

22

134 und 2000

1967

1986

1967

1989

und

und 6

11

und 14

3

2000 on 1

by 9 und 2001

135

32

38 2. 1996

100

3,

und 1986

36 und 35

und 51 und 30 und 44 4, und

and und 5

25

136 und on 28

2,

und von 41

und

1,

und 20

1978 und

und 1991

42

2001 und 10

66 und

und 55

und and

27

201 u. 47

137 2000

2001

und 37 und 2002 und 2002

an 1921

1979 und 1992

und von 54 und 56 und

and

1993

138 u. 46 und

und 1992

11

24

95

4,

2000

and und 1992

and

und 1974 und 1989 und 1981

and und 1972 und and

1981

25

139

and

23

und

2.

1992

und 2001

1997 und 2002

37

and

23 von

13

515 und nung und

6

1999

10

and 1987

140 1999 und

und 63

und

und

63

31

und 1996

nung 186

70

und 55

1999

3

10 6.

1995