Spektrum des Produktions- und Innovationsmanagements : Komplexität und Dynamik im Kontext von Interdependenz und Kooperation ; Festgabe für Klaus Bellmann zum 65. Geburtstag 9783835055834, 3835055836 [PDF]


207 49 6MB

German Pages 473 Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Papiere empfehlen

Spektrum des Produktions- und Innovationsmanagements : Komplexität und Dynamik im Kontext von Interdependenz und Kooperation ; Festgabe für Klaus Bellmann zum 65. Geburtstag
 9783835055834, 3835055836 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Frank Himpel, Bernd Kaluza, Jochen Wittmann (Hrsg.) Spektrum des Produktions- und Innovationsmanagements

GABLER EDITION WISSENSCHAFT

Frank Himpel, Bernd Kaluza, Jochen Wittmann (Hrsg.)

Spektrum des Produktions- und Innovationsmanagements Komplexität und Dynamik im Kontext von Interdependenz und Kooperation Festgabe für Klaus Bellmann zum 65. Geburtstag

Mit einem Geleitwort von Prof. Dr.-Ing. habil. Dieter Specht

GABLER EDITION WISSENSCHAFT

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

Die Veröffentlichung der vorliegenden Festgabe wurde finanziell unterstützt durch: Dr. Ing. h. c. F. Porsche AG, Stuttgart SAP AG, Walldorf SCHOTT AG, Mainz Klaus-Tschira-Stiftung, Heidelberg

Dr. Frank Himpel ist Habilitand am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Produktionswirtschaft von Univ.-Prof. Dr. Klaus Bellmann an der Johannes Gutenberg-Universität in Mainz. o. Univ.-Prof. Dr. Bernd Kaluza ist Leiter der Abteilung für Produktions-, Logistik- und Umweltmanagement an der Alpen-Adria-Universität in Klagenfurt (Österreich). Dr. Jochen Wittmann ist General Manager im Entwicklungszentrum der Dr. Ing. h.c. F. Porsche AG in Weissach.

. . 1. Auflage Dezember 1997 1. Auflage 2008 Alle Rechte vorbehalten © Gabler | GWV Fachverlage GmbH, Wiesbaden 2008 Lektorat: Frauke Schindler / Sabine Schöller Gabler ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.gabler.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: Regine Zimmer, Dipl.-Designerin, Frankfurt/Main Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8350-0894-6

Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann

Geleitwort Die Herstellung von Gütern im Produktionsprozess unterliegt einem stetigen Wandel und Weiterentwicklungsprozess. Vielfältige Innovationen in neue Produkte und neue Technologien, aber auch die Veränderung von Wertschöpfungsnetzwerken durch die Globalisierung und daraus folgende globale Veränderungen der industriellen Produktion, sind bedeutende Veränderungstreiber. In diesem Umfeld als Forscher und universitärer Lehrer tätig zu sein, ist eine große Herausforderung, aber auch eine große Befriedigung. Universitätsprofessor Dr. Klaus Bellmann engagierte sich auf dem Lehrstuhl für Allgemeine Betriebswirtschaftslehre und Produktionswirtschaft der Johannes-Gutenberg-Universität Mainz mit Nachdruck in diesem dynamischen Umfeld. Seine intensive Auseinandersetzung mit den Forschungsfragen dieses Arbeitsgebietes sind durch zahlreiche Veröffentlichungen aus dem Gebiet der Innovation, der Produktion, der Wertschöpfung sowie der Bildung von Netzwerken in all diesen Bereichen mit dem Ziel einer Optimierung der Herstellung von Produkten dokumentiert. In seiner Arbeit verknüpft er technische und ingenieurwissenschaftliche Sichtweisen mit betriebswirtschaftlichen und produktionswirtschaftlichen Kenntnissen. Seine Fähigkeit, diese beiden wichtigsten Treiber für die Entwicklung der Produktion zusammen zu bringen, ermöglichte es ihm, wirtschaftliche Notwendigkeiten und technische Machbarkeiten in Übereinstimmung zu bringen. Es ist kein Zufall, sondern dringende Notwendigkeit, insbesondere bei der Entwicklung von Innovationen für Produkte und Prozesse beide Felder parallel zu entwickeln. Zum Anlass seines 65. Geburtstages haben zahlreiche Kollegen, Mitarbeiter und Partner seiner Berufstätigkeit eine Festschrift verfasst, die eine Wertschätzung seiner vielfältigen und produktiven Anregungen, Ideen und Arbeitsergebnisse darstellen. Ebenso wie in seiner eigenen wissenschaftlichen Arbeit sind Theorie und Praxis miteinander verbunden, werden aus aktuellen Fragestellungen zukunftsweisende Lösungen generiert. Das Wirken von Professor Klaus Bellmann war und ist eine Bereicherung der Produktionswirtschaft, die von den Autoren dieser Festschrift, aber auch von all seinen Kollegen im produktionswirtschaftlichen Umfeld und insbesondere in der Kommission für Produktionswirtschaft im Verband der Hochschullehrer für die Betriebswirtschaftslehre besonders geschätzt werden. Die Kommission für Produktionswirtschaft ist ein Zusammenschluss von Hochschullehrern und Wissenschaftlern mit dem Ziel, gemeinsam wissenschaftliche Fragestellungen zu erarbeiten, zu diskutieren, zu entwickeln und für eine Verbesserung und Weiterentwicklung der Produktion zu nutzen. Wir freuen uns als Kollegen über die erfolgreiche Arbeit von Professor Bellmann, wir wünschen ihm alles Gute, weiterhin volle Schaffenskraft, Gesundheit und viele weitere ertragreiche Beiträge in der Produktionswirtschaft, der er seine wissenschaftliche Tätigkeit gewidmet hat. Dieter Specht Vorsitzender der Kommission für Produktionswirtschaft

Grußwort Als internationaler Technologiekonzern mit Hauptsitz in Mainz pflegt SCHOTT traditionell einen engen Kontakt zur Johannes Gutenberg-Universität. Insbesondere blicken wir auf eine langjährige und erfolgreiche Zusammenarbeit mit dem von Herrn Prof. Dr. Klaus Bellmann geleiteten Lehrstuhl für Allgemeine Betriebswirtschaftslehre und Produktionswirtschaft. Gerade im Bereich der Wirtschaftswissenschaften gibt es eine ausgesprochen große Zahl an Studierenden und Absolventen, aus denen die neuen, qualifizierten Mitarbeiter – zum Teil mit erheblichem Aufwand – zu akquirieren sind. Vor dem Hintergrund der Erfahrungen, die wir bei der SCHOTT AG bis heute in der Zusammenarbeit mit jenem Lehrstuhl und dessen Absolventen gemacht haben, kann ich diesen jungen Menschen und der Ausbildung, welche sie durchlaufen haben, ein mehr als positives Zeugnis ausstellen. Wir konnten viele junge Akademiker von der Johannes Gutenberg-Universität Mainz mit ihren unterschiedlichen Lebenswegen und ihren besonderen Qualifikationen kennen lernen – Qualifikationen, die wir als weltweit operierendes Unternehmen mit knapp 17.000 Mitarbeitern suchen. Ich freue mich daher besonders, das Grußwort in dieser Festschrift an Herrn Prof. Klaus Bellmann anlässlich seines 65. Geburtages zu richten. Ich wünsche Herrn Prof. Bellmann alles Gute für seinen neuen Lebensabschnitt nach einem bislang sehr erfolgreichen und interessanten Karriereweg. Prof. Dr.-Ing. Udo Ungeheuer Vorsitzender des Vorstandes der SCHOTT AG

Grußwort Die Entwicklungen auf den Weltmärkten, gerade im Bereich der Informationstechnologie, induzieren eine ausgesprochen hohe Veränderungsdynamik in das strategische und operative Geschäft. In diesem Umfeld werden die besten Köpfe rasch zum Schlüsselfaktor im Erfolg eines jeden Unternehmens. Sie können die Herausforderungen einer globalisierten und immer schneller agierenden Wirtschaft nicht nur annehmen, sondern auch lösen. Eine wichtige Grundlage bildet daher eine Ausbildung, die den jungen Menschen die nötigen „Werkzeuge“ an die Hand gibt. Hier nehmen akademische Lehrer wie Klaus Bellmann, den wir mit dieser Festschrift anlässlich seines 65. Geburtstages ehren wollen, eine wichtige Stellung gerade auch für die Wirtschaft ein. Der Wissenschaftler Klaus Bellmann hat sowohl am Industrieseminar der Universität Mannheim als auch an seinem Lehrstuhl an der Johannes Gutenberg-Universität Mainz zahlreiche, in Europa, Nordamerika und Asien weithin geachtete Impulse gesetzt. Der akademische Lehrer Klaus Bellmann hat seinen Studierenden richtungweisende Wege gezeigt, wie mit der Komplexität und der Dynamik im Unternehmensumfeld umzugehen ist. Nur am Rande möchte ich an dieser Stelle die jahrelange, hervorragende Zusammenarbeit zwischen der SAP AG und seinem Mainzer Lehrstuhl erwähnen. Die Wertschätzung, die seinem bisherigen Lebenswerk entgegengebracht wird, zeigt sich in den hier vorliegenden Artikeln seiner (Fach-)Kollegen, aber auch seiner akademischen Schüler und sogar deren Schüler. Die Beiträge in dieser Festschrift zeigen einerseits das Spektrum der Forschungsstränge des Wissenschaftlers Klaus Bellmann auf, tragen aber auch die vom ihm mitentwickelten Gedanken fort. Was die Festschrift spannend macht ist, dass die Beiträge nicht nur rückblickend wirken, sondern die Zukunft und deren Perspektiven im Blick haben. „Erwirb neues Wissen, während Du das alte überdenkst, so wirst Du anderen zum Lehrer“. Schon für Konfuzius war lebenslanges Lernen die Grundlage jeden Lehrens. Diese Einstellung hat Klaus Bellmann auch seinen Schülern durch seine Arbeiten und seine Lehre immer wieder vermittelt. Prof. Dr. Claus E. Heinrich Vorstandsmitglied SAP AG

Grußwort Güterproduktion in der Marktwirtschaft ist alles andere als ein physikalischer Versuch im Vakuum. Die Herstellung von Waren in einem Unternehmen spielt sich nicht im „geschlossenen System“ Fabrik ab, in das Vorleistungen angeliefert und von dem die Endprodukte abtransportiert werden. Ganz im Gegenteil: Die Umwelt (im weitesten Sinne dieses Begriffs) spielt eine entscheidende Rolle. Ohne den Abnehmer, der ein Produkt kauft, ist die ganze Produktion nichts wert. Erst das Zusammenspiel von Angebot und Nachfrage bestimmt über die Produktion und die Verteilung von Gütern und Dienstleistungen. Produktionswirtschaft, wie sie Prof. Klaus Bellmann betreibt, erstreckt sich deshalb auch nicht nur auf die technischen und organisatorischen Betriebsabläufe, sie bezieht auch das gesellschaftliche Umfeld – seien es politische, soziale oder ökologische Aspekte – mit ein. In der Praxis werden unternehmerische Produktionsentscheidungen von politischen Rahmenbedingungen beeinflusst, zuweilen sogar gelenkt. Unser Steuersystem gehört genauso zu diesen politisch gesetzten Bedingungen wie Arbeitsschutzbestimmungen oder Umweltschutzvorgaben. Als Politiker weiß ich nur zu gut um die zahlreichen Gesetze, die das Handeln von Unternehmen einschränken. Ich fürchte allerdings, jeder Unternehmer könnte mir immer noch Neues darüber berichten, wie einengend manche Gesetze und Verordnungen tatsächlich wirken. Aber nicht nur rechtliche Vorgaben müssen im Produktionsprozess bedacht werden. Im Wettbewerb um den Kunden gilt es, der eigenen Marke ein möglichst gutes Image zu verschaffen. Zur Reputation eines Unternehmens und seiner Produkte gehören neben der Produktqualität längst Begriffe wie Nachhaltigkeit und betrieblicher Umweltschutz. Wie der Wirtschaftspolitiker das Ohr an den Bedürfnissen der Wirtschaft haben muss, muss die Produktionswirtschaft das Ohr an den Bedürfnissen der Kunden haben. In einer Zeit, in der die industrielle Massenfertigung eine immer geringere Rolle spielt, und in einem Land, das von Mittelständlern geprägt ist, muss sich die betriebswirtschaftliche Forschung mit geringen Losgrößen und mit der Berücksichtigung spezieller Kundenwünsche auseinandersetzen. Diesen Überlegungen entspringt nicht zuletzt auch die Initiative Klaus Bellmanns, mit dem von ihm ins Leben gerufenen Center of MarketOriented Product and Production Management (CMPP) eben diese Verbindung zwischen Produktion und Kunden herzustellen und zu erforschen – oder, um in der Fachsprache zu bleiben, die Schnittstelle von Marketing und Produktion erfolgreich zu managen. Es geht dabei um die Frage, wie sich ein Anbieter auf den Markt einstellt, wie das Angebot auf die aktuelle Nachfrage reagiert und sich auf die noch weitaus unsichere zukünftige einstellt. Wenn Marktwirtschaft so funktioniert, dann ist sie im besten Sinne sozial. Das Eigeninteresse des Unternehmers führt zu den besten Produkten für die Kunden und Nutzer. Deshalb unterstütze ich die Arbeit des CMPP als Beiratsmitglied auch künftig gerne. Ich wünsche Prof. Klaus Bellmann und dem Team des CMPP auch weiterhin viel Produktivität, um die Produktionswirtschaft in Deutschland voranzubringen – als Forschungsgebiet und in der praktischen Hilfestellung bei unternehmerischen Entscheidungen. Rainer Brüderle

Grußwort Sehr geehrte Leserinnen und Leser, Wissenschaft, Technologie und Innovation sind die Stützpfeiler einer modernen Gesellschaft. Gerade in Zeiten der globalisierten Marktwirtschaft bilden sie das Fundament für nachhaltiges Wachstum, zukünftige Wettbewerbsfähigkeit, soziale Teilhabe und kulturelle Integration. Der Übergang von einer ressourcenbasierten zu einer wissensbasierten europäischen Wirtschaft ist dabei eine der Kernaufgaben in den kommenden Jahren. Mit dem mittlerweile 7. Rahmenforschungsprogramm 2007–2013 (RFP) will die EU die Schaffung und Konsolidierung des Europäischen Forschungsraums vorantreiben. Hierbei spielen die Bündelung und Integration von Ressourcen, die gemeinsame Nutzung von Infrastrukturen, sowie die Definition gemeinsamer ethischer Kriterien eine zentrale Rolle. Es stellt gleichzeitig eine starke politische Botschaft an die Mitgliedsstaaten dar, die sich zur Erhöhung ihres Forschungsbudgets von 2% auf 3% bis 2010 verpflichtet haben. Mit einem Gesamtbudget von 54 Mrd. Euro wurde das 7. RFP um 63% im Vergleich zu seinem Vorgänger aufgestockt. Europa hat also den Rahmen dafür geschaffen, dass wir unsere europäische Vormachtstellung in Forschung und Realisierung der Anwendungspotenziale in der Wirtschaft auch zukünftig erhalten können. In diesem Prozess ist neben Forschung auch die Weitergabe von Wissen – das bewährte Tandem aus Forschung und Lehre unter dem Dach der Universitäten und Hochschulen also – für unsere Zukunftschancen von elementarer Bedeutung. Gerade die deutsche Forschungsgemeinde leistet hier nach wie vor herausragende Arbeit, wie sich nicht zuletzt auch an der Zahl der Nobelpreise an deutsche Forscher im vergangenen Jahr zeigt. In der uns vorliegenden Veröffentlichung sammelt sich geballtes Fachwissen und Expertise in den Bereichen Betriebswirtschaftslehre und Technologie. Anerkannte Fachleute blicken auch über den Tellerrand und zeigen dabei Wege auf, die das Wirtschaften in Zukunft maßgeblich mitgestalten werden. Damit leistet dieser Band nicht nur einen großen Beitrag zur Stärkung des europäischen Forschungsraumes, sondern auch für unsere Wettbewerbsfähigkeit und die gesamtgesellschaftliche Zukunft. Ihr Michael Gahler

Grußwort Klaus Bellmann ist einer der Initiatoren und Mentoren des universitären Partnerschaftsprogramms zwischen der Johannes Gutenberg-Universität in Mainz und der Dongbei University of Finance and Economics in Dalian. Seine wissenschaftliche Arbeit und seine persönliche Haltung sind ein großes Vorbild für uns. Sein langjähriges Engagement an unserer Universität, auch in der Lehre, hat wichtige Impulse gesetzt. Die partnerschaftlichen Beziehungen zwischen unseren beiden Hochschulen sind von einer langjährigen, guten Vertrauensbasis geprägt. Als Kollege und als mein guter Freund ist Klaus Bellmann bei uns jederzeit herzlich willkommen. Diese Festschrift gibt auch Zeugnis von der internationalen Anerkennung, die Klaus Bellmann erlangt hat. Wir freuen uns darüber und gratulieren ihm herzlich zu dieser Auszeichnung. Ge Jingtian Dongbei University of Finance & Economics Volksrepublik China

Vorwort Die vorliegende Veröffentlichung ist Klaus Bellmann gewidmet. Als Universitätsprofessor für Betriebswirtschaftslehre mit dem Schwerpunkt Produktionswirtschaft ist er seit 1992 an der Johannes Gutenberg-Universität Mainz in Forschung und Lehre tätig. Im Juni 2008 wird Klaus Bellmann 65 Jahre alt. Diesen persönlichen Festtag nehmen seine langjährigen Kollegen, ehemalige und aktuelle Mitarbeiter sowie Partner aus der Industrie zum Anlass, ihm dazu von Herzen zu gratulieren und ihm diese Festschrift zu widmen. Dem Anlass entsprechend, seinem 65. Geburtstag, sind auch 65 Personen „sichtbar“ an dem vorliegenden Werk mit Beiträgen beteiligt. Neben diesen 65 Autorinnen und Autoren haben weitere Personen an der vorliegenden Veröffentlichung mitgearbeitet. Wir bedanken uns bei Frau Katrin Brandt-Wagner in Mainz, welche das „administrative Rückgrat“ unserer Projektorganisation bildete und bei Frau Dr. Valérie Schüller-Keber, die als Geschäftsführerin des Mainzer Fachbereichsdekanats schon sehr früh unsere Planungsarbeiten unterstützt hat. Es ist uns ein Anliegen, allen Autoren für ihre engagierte Mitarbeit zu danken. Die Dr. Ing. h. c. F. Porsche AG in Stuttgart hat die Veröffentlichung durch die Gewährung einer großzügigen finanziellen Zuwendung in dieser Form ermöglicht. Dafür bedanken wir uns sehr herzlich. Gleichsam bedanken wir uns bei der SAP AG in Walldorf, der SCHOTT AG in Mainz sowie der Klaus-Tschira-Stiftung in Heidelberg, welche ebenfalls durch finanzielle Zuwendungen den Druck dieser Festschrift unterstützt haben. Von Seiten des Gabler Verlags hat Frau Ute Wrasmann das Projekt von Anfang an betreut. Gemeinsam mit Frau Frauke Schindler und Frau Sabine Schöller hat sie die Arbeiten an diesem Werk versiert durch alle Fahrwasser gesteuert. Hierfür allen drei genannten Damen ein herzliches „Danke schön“. Dieses Werk ist Ausdruck des integrativen Ansatzes in Forschung und Lehre von Klaus Bellmann, Produktions-, Innovations- und Logistikmanagement ganzheitlich zu interpretieren und zu bearbeiten. Mit diesem Werk soll ein Überblick über zukünftige Forschungsfragen im Produktions-, Innovations- und Logistikmanagement gegeben werden. Wir hoffen, mit dieser Festschrift Klaus Bellmann eine große Freude zu bereiten und wünschen ihm weiterhin alles Gute und viel Erfolg. Frank Himpel – Bernd Kaluza – Jochen Wittmann

Inhaltsverzeichnis

Geleitwort Dieter Specht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

VII

Grußwort Udo Ungeheuer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

IX

Grußwort Claus E. Heinrich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XI

Grußwort Rainer Brüderle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIII Grußwort Michael Gahler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XV

Grußwort Ge Jingtian . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XVII Vorwort der Herausgeber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XIX

Inhaltsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XXI

Autorenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XXV

Themenöffnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

Produktions-, Innovations- und Logistikmanagement Strategien, Konzepte und Gestaltungsansätze für die Wertschöpfung in einer dynamischen Umwelt Frank Himpel und Bernd Kaluza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3

Markt- und Ressourcenallokation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

IT als Befähiger in der Produktion Horst Wildemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

XXII

Inhaltsverzeichnis

Umsetzung multilokaler-hybrider Wettbewerbsstrategien mit Internationalen Wertschöpfungsnetzwerken Bernd Kaluza und Herwig Winkler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

Geschäftsprozessorientiertes Risikomanagement am Beispiel der industriellen Produktion Eva-Maria Kern und Thomas Hartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55

Der Serienanlauf in der Automobilindustrie: Technische Änderungen als Ursache oder Symptom von Anlaufschwierigkeiten? Peter Milling und Jan Jürging . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

67

Strategische und praktische Implikationen einer Verringerung der Fertigungstiefe Dagmar Kessler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

Outsourcing von Logistikleistungen in Produktionsunternehmen – eine vergleichende Analyse im Ostseeraum Wolfgang Kersten, Meike Schröder, Carolin Singer und Jan Koch . . . . . . . . . . . . . . . . . . . . . . . .

89

Using Suitable Key Metrics for the Management of Complexity in Variety-Rich Environments Thorsten Blecker and Nizar Abdelkafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

97

Corporate Social Responsibility – Theoriekonzepte und Praxisansätze Udo Mildenberger, Anshuman Khare und Christoph Thiede . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

Die Abbildung von Prozesskompetenz in der Abschlussprüfung für die neuen industriellen und handwerklichen Elektroberufe Klaus Breuer und Rüdiger Tauschek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

Produkt- und Prozessinnovation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement René Rohrbeck und Hans Georg Gemünden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

Innovationsfördernde Unternehmensmerkmale und ihre Umsetzung durch computergestützte Informationssysteme Hermann Krallmann, Philipp Offermann und Annette Bobrik . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

Innovation, Produktion, Expansion – Toyota oder wie eine Managementphilosophie die Leistungspotentiale der Mitarbeiter systematisch nutzt René Haak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

Wertschöpfungsmanagement im demographischen Kontext Andrea Berzlanovich und Regine Lampert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

Die Wirkung der Vergleichbarkeit von Merkmalsausprägungen auf die Wichtigkeit des Produktmerkmals Andreas Herrmann, Mark Heitmann, Frank Huber und Jan R. Landwehr . . . . . . . . . . . . . . . . . . 199

Inhaltsverzeichnis

XXIII

Target Value Pricing im Produktentstehungsprozess innovationsorientierter Unternehmen – ein konzeptioneller Ansatz Jochen Wittmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

Reflexionen zum Innovationsmanagement im Kontext Technologischer Konvergenz André Krauß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225

Know-how als Schutzobjekt im Rahmen des Innovationsmanagements Jan Wirsam . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven Joachim Fischer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

Zur Messung des wirtschaftlichen Erfolges in der F & E Robert Hauber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253

Organisations- und Leistungskoordination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Anforderungen an ein Kostenmanagement im Service Engineering Marion Steven und Katja Wasmuth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

Implikationen defizitärer Entscheidungsmodelle – Ein Beispiel aus der Produktionswirtschaft – Karsten Junge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281

DIMA – Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und Logistiknetzwerken auf einer interdisziplinären methodologischen Basis Dmitry Ivanov und Joachim Käschel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

Marktorientierte Steuerung unternehmenseigener Absatzorgane von Versicherungsunternehmen Hans Meissner und Sascha Kwasniok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299

Konzepte zur Industrialisierung der Rechnungswesenprozesse dargestellt am Beispiel der Fraport AG Guido Kaupe und Ruth Evers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317

Branchenkultur und Netzwerke – eine komplexitätstheoretische Annäherung Thiemo Kohlsdorf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335

Kompetenzentwicklung in Unternehmensnetzwerken – eine spieltheoretische Betrachtung André Haritz und Oliver Mack . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345

Logistik für automobile Wertschöpfung Komplexität und Dynamik im Zwischenwerksverkehr Wilfried Kramer und Florian Winter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365

XXIV

Inhaltsverzeichnis

The impact of governance on the management of Less than full Truck Load transportation service networks (LTL networks) Thorsten Klaas-Wissing and Wolfgang Stölzle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383

Erfolgskriterien bei der Integration von Unternehmensakquisitionen Überlegungen zur Integrationsplanung am Beispiel des Zusammenschlusses der Continental AG mit der Siemens VDO Automotive AG Alan Hippe, Carsten Reibe, Andreas Zielke und Markus Bürgin . . . . . . . . . . . . . . . . . . . . . . . . . . 401

Luftverkehrsallianzen Zugänge und Kriterien zur Messung des Kooperationserfolgs sowie zur Messung des Dualismus von Kooperations- und Wettbewerbsartefakten Frank Himpel, Fee Lorenz und Ralf Lipp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419

Industrielle Produktionswirtschaft Frank Himpel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 433

Schriftenverzeichnis Univ.-Prof. Dipl.-Ing. Dr. rer. pol. Klaus Bellmann . . . . . . . . . . . 449 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 457

Autorenverzeichnis

A Dipl.-Ing., Dipl.-Wirtsch.-Ing. Nizar ABDELKAFI Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ B Professor Dr. med. Andrea BERZLANOVICH Medizinische Universität Wien Department für Gerichtliche Medizin Sensengasse 2 A - 1090 Wien [email protected] http://www.meduniwien.ac.at/gerichtsmedizin/ Professor Dr. Thorsten BLECKER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ Dipl.-Ing. Annette BOBRIK Technische Universität Berlin Institut für Wirtschaftsinformatik und Quantitative Methoden Fachgebiet Systemanalyse und EDV Franklinstraße 28/29 D - 10587 Berlin [email protected] http://www.sysedv.tu-berlin.de/

XXVI

Autorenverzeichnis

Professor Dr. Klaus BREUER Dekan des Fachbereichs Rechts- und Wirtschaftswissenschaften Johannes Gutenberg-Universität Mainz Lehrstuhl für Wirtschaftspädagogik Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.rewi.uni-mainz.de/dekanat.html und http://www.wipaed.uni-mainz.de/ Dipl.-Vw. Rainer BRÜDERLE, MdB Stellvertretender Bundesvorsitzender Stellvertretender Fraktionsvorsitzender im Deutschen Bundestag Freie Demokratische Partei (FDP) Deutscher Bundestag Platz der Republik 1 D - 11011 Berlin [email protected] http://www.rainer-bruederle.de/ sowie Mitglied im Beirat des Center of Market-Oriented Product and Production Management an der Johannes Gutenberg-Universität Mainz http://www.cmpp.de/ Markus BÜRGIN, MPA (Harvard) McKinsey & Company, Inc. [email protected] http://www.mckinsey.de/ E Dipl.-Kffr. Ruth EVERS Manager Accounting Systems Controlling, Finanzen, Rechnungswesen Fraport AG Flughafen Frankfurt/Main D - 60547 Frankfurt am Main [email protected] http://www.fraport.de/ F Professor Dr. Joachim FISCHER Universität Paderborn Fakultät Wirtschaftswissenschaften Schwerpunkt Wirtschaftsinformatik 1 Betriebswirtschaftliche Informationssysteme Warburger Straße 100 D - 33098 Paderborn [email protected] http://winfo1-www.uni-paderborn.de/

XXVII

Autorenverzeichnis

G Michael GAHLER, MdEP Stellvertretender Vorsitzender Ausschuss für Auswärtige Angelegenheiten (AFET) Europäisches Parlament ASP 10E217 B - 1047 Brüssel [email protected] http://www.michael-gahler.eu/ Professor Jingtian GE School of International Business Dongbei University of Finance & Economics (DUFE) 217 Jian Shan Lu Sha He Kou District Dalian (Provinz Liaoning), 116025 Volksrepublik China http://sib.dufe.edu.cn/ Professor Dr. Hans Georg GEMÜNDEN Technische Universität Berlin Lehrstuhl für Innovations- und Technologiemanagement Straße des 17. Juni 135 D - 10623 Berlin [email protected] http://www.tim.tu-berlin.de/ H Dr.-Ing. René HAAK Bundesministerium für Bildung und Forschung Referat 213 – Forschungspolitik der EU D - 53170 Bonn [email protected] http://www.bmbf.de/ Dr. André HARITZ Director Dresdner Kleinwort Middle Office Investment Banking 30 Gresham Street London, EC2V 7PG United Kingdom [email protected] http://www.dresdnerkleinwort.com/ Professor Dr. Thomas HARTUNG Universität der Bundeswehr München Professur für Versicherungswirtschaft Werner-Heisenberg-Weg 39 D - 85577 Neubiberg [email protected] http://www.unibw.de/wow6_4/

XXVIII

Autorenverzeichnis

Dr. Robert HAUBER Executive Vice President T-Mobile International AG Landgrabenweg 151 D - 53227 Bonn [email protected] http://www.t-mobile.net/ Professor Dr. Claus E. HEINRICH Mitglied des Vorstands Arbeitsdirektor SAP AG Dietmar-Hopp-Allee 16 D - 69190 Walldorf http://www.sap.com/ Dr. Mark HEITMANN Universität St. Gallen Forschungsstelle für Business Metrics Audi Lab for Market Research Guisanstrasse 1a CH - 9000 St. Gallen [email protected] http://www.zbm.unisg.ch/ http://www.audi-lab.de/ Professor Dr. Andreas HERRMANN Universität St. Gallen Forschungsstelle für Business Metrics Audi Lab for Market Research Guisanstrasse 1a CH - 9000 St. Gallen [email protected] http://www.zbm.unisg.ch/ http://www.audi-lab.de/ Dr. Frank HIMPEL Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Lehrstuhl für Betriebswirtschaftslehre, insbesondere Produktionswirtschaft Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ http://www.produktionswirtschaft.bwl.uni-mainz.de/ Dr. Alan HIPPE Mitglied des Vorstands Chief Financial Officer Continental Aktiengesellschaft Vahrenwalder Straße 9 D - 30165 Hannover [email protected] http://www.conti-online.com/

XXIX

Autorenverzeichnis

Professor Dr. Frank HUBER Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Lehrstuhl für Betriebswirtschaftslehre, insbesondere Marketing I Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ http://www.marketing-i.bwl.uni-mainz.de/ I Dr. Dmitry IVANOV Bundeskanzlerstipendiat der Alexander von Humboldt-Stiftung an der Professur von Professor Dr. Joachim Käschel in Chemnitz Technische Universität Chemnitz Professur für Produktionswirtschaft und IBL Thüringer Weg 7 D - 09126 Chemnitz [email protected] http://www.tu-chemnitz.de/wirtschaft/bwl7/ J Dr. Karsten JUNGE [email protected] Dr. Jan JÜRGING Internal Consulting ThyssenKrupp VDM GmbH Plettenberger Straße 2 D - 58791 Werdohl [email protected] http://www.thyssenkruppvdm.de/ K Professor Dr. Bernd KALUZA Alpen-Adria-Universität Klagenfurt Abteilung für Produktions-, Logistik- und Umweltmanagement Universitätsstraße 65–67 A - 9020 Klagenfurt [email protected] http://www.uni-klu.ac.at/plum/ Professor Dr. Joachim KÄSCHEL Technische Universität Chemnitz Professur für Produktionswirtschaft und IBL Thüringer Weg 7 D - 09126 Chemnitz [email protected] http://www.tu-chemnitz.de/wirtschaft/bwl7/

XXX

Autorenverzeichnis

Dr. Guido KAUPE Leiter Rechnungswesensysteme und -services der Fraport AG Geschäftsführer der Energy Air GmbH Flughafen Frankfurt/Main D - 60547 Frankfurt am Main [email protected] http://www.fraport.de/ Professor Dr. Eva-Maria KERN, MBA Universität der Bundeswehr München Professur für Wissensmanagement und Geschäftsprozessgestaltung Werner-Heisenberg-Weg 39 D - 85577 Neubiberg [email protected] http://www.unibw.de/wow5_5/ Professor Dr. Wolfgang KERSTEN Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ Dr. Dagmar KESSLER Corporate Vision Realization SCHOTT AG Hattenbergstraße 10 D - 55122 Mainz [email protected] http://www.schott.com/ Professor Dr. Anshuman KHARE Stipendiat der Alexander von Humboldt-Stiftung am Lehrstuhl von Professor Dr. Klaus Bellmann in Mainz Athabasca University Centre for Innovative Management 301 Grandin Park Plaza 22 Sir Winston Churchill Avenue St. Albert, AB T8N 1B4 Canada [email protected] http://www.mba.athabascau.ca/ Dr. Thorsten KLAAS-WISSING Universität St. Gallen Forschungszentrum für Supply Chain Management, Logistik & Verkehr Lehrstuhl für Logistikmanagement (LOG-HSG) Dufourstrasse 40a CH - 9000 St. Gallen [email protected] http://www.logistik.unisg.ch/

XXXI

Autorenverzeichnis

Dipl.-Ing. oec. Jan KOCH Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ Dipl.-Kfm. Thiemo KOHLSDORF Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Lehrstuhl für Betriebswirtschaftslehre, insbesondere Produktionswirtschaft Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ http://www.produktionswirtschaft.bwl.uni-mainz.de/ Professor Dr. Hermann KRALLMANN Technische Universität Berlin Institut für Wirtschaftsinformatik und Quantitative Methoden Fachgebiet Systemanalyse und EDV Franklinstraße 28/29 D - 10587 Berlin [email protected] http://www.sysedv.tu-berlin.de/ Wilfried KRAMER Mitglied der Geschäftsleitung SAR Schenker Automotive RailNet GmbH Langer Kornweg 34 A D - 65451 Kelsterbach [email protected] http://www.schenker.de/ Dipl.-Kfm. André KRAUSS [email protected] Dipl.-Betriebsw. (BA) Sascha KWASNIOK Universität Karlsruhe (TH) Institut für Finanzwirtschaft, Banken und Versicherungen Lehrstuhl für Versicherungswirtschaft Kronenstraße 34 D - 76133 Karlsruhe [email protected] http://insurance.fbv.uni-karlsruhe.de/

XXXII

Autorenverzeichnis

L Dipl.-Kffr. Regine LAMPERT Manager Customer Marketing Software AG Uhlandstraße 12 D - 64297 Darmstadt [email protected] http://www.softwareag.com/ Dipl.-Psych. Jan R. LANDWEHR Universität St. Gallen Forschungsstelle für Business Metrics Audi Lab for Market Research Guisanstrasse 1a CH - 9000 St. Gallen [email protected] http://www.zbm.unisg.ch/ http://www.audi-lab.de/ Dipl.-Kfm. Ralf LIPP Lufthansa Cargo AG Flughafen Frankfurt/Main Flughafen-Bereich West D - 60546 Frankfurt am Main [email protected] http://www.lufthansa-cargo.com/ Dipl.-Kffr. Fee LORENZ Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ M Dr. Oliver MACK Leiter Vorstandsstab Projektsteuerung R&M OMV Refining & Marketing GmbH Otto-Wagner-Platz 5 A - 1090 Wien [email protected] http://www.omv.com/ Professor Dr. Hans MEISSNER Fachleiter für den Bereich Versicherungen Berufsakademie Mannheim Keplerstraße 38 D - 68165 Mannheim [email protected] http://www.ba-mannheim.de/

XXXIII

Autorenverzeichnis

Professor Dr. Udo MILDENBERGER Westsächsische Hochschule Zwickau (FH) Fachbereich Wirtschaftswissenschaften Studiendekan für Direktstudiengänge Fachgruppe Unternehmensführung Dr.-Friedrichs-Ring 2a D - 08056 Zwickau [email protected] http://www.fh-zwickau.de/ Professor Dr. Dr. h.c. Peter MILLING Universität Mannheim Industrieseminar Lehrstuhl für ABWL und Industrie I Schloss D - 68131 Mannheim [email protected] http://is.bwl.uni-mannheim.de/ O Dipl.-Ing. Philipp OFFERMANN Technische Universität Berlin Institut für Wirtschaftsinformatik und Quantitative Methoden Fachgebiet Systemanalyse und EDV Franklinstraße 28/29 D - 10587 Berlin [email protected] http://www.sysedv.tu-berlin.de/ R Dipl.-Hdl. Carsten REIBE Leiter Konzerncontrolling Continental Aktiengesellschaft Vahrenwalder Straße 9 D - 30165 Hannover [email protected] http://www.conti-online.com/ Dipl.-Kfm. René ROHRBECK Technische Universität Berlin An-Institut Deutsche Telekom Laboratories Ernst-Reuter-Platz 7 D - 10587 Berlin [email protected] http://www.tim.tu-berlin.de/ http://www.laboratories.telekom.com/

XXXIV

Autorenverzeichnis

S Dipl.-Kffr. Meike SCHRÖDER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ Dipl.-Kffr. Carolin SINGER Technische Universität Hamburg-Harburg Institut für Logistik und Unternehmensführung Schwarzenbergstraße 95 D - 21073 Hamburg [email protected] http://web.logu.tu-harburg.de/ Professor Dr.-Ing. habil. Dieter SPECHT Vorsitzender der Wissenschaftlichen Kommission für Produktionswirtschaft im Verband der Hochschullehrer für Betriebswirtschaft e.V. Brandenburgische Technische Universität Cottbus Institut für Produktionsforschung Lehrstuhl für Produktionswirtschaft Siemens-Halske-Ring 6 D - 03046 Cottbus [email protected] http://www.prodwi.tu-cottbus.de/vhb/ http://www.prodwi.tu-cottbus.de/ Professor Dr. Marion STEVEN Ruhr-Universität Bochum Lehrstuhl für Produktionswirtschaft Universitätsstraße 150 D - 44801 Bochum [email protected] http://www.prowi.ruhr-uni-bochum.de/ Professor Dr. Wolfgang STÖLZLE Universität St. Gallen Forschungszentrum für Supply Chain Management, Logistik & Verkehr Lehrstuhl für Logistikmanagement (LOG-HSG) Dufourstrasse 40a CH - 9000 St. Gallen [email protected] http://www.logistik.unisg.ch/

XXXV

Autorenverzeichnis

T Dr. Rüdiger TAUSCHEK Regierungsschulrat am Pädagogischen Zentrum des Landes Rheinland-Pfalz Johannes Gutenberg-Universität Mainz Lehrstuhl für Wirtschaftspädagogik Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.wipaed.uni-mainz.de/ Dipl.-Kfm. (FH) Christoph THIEDE Westsächsische Hochschule Zwickau (FH) Fachbereich Wirtschaftswissenschaften Dr.-Friedrichs-Ring 2a D - 08056 Zwickau [email protected] http://www.fh-zwickau.de/ U Professor Dr.-Ing. Udo UNGEHEUER Vorsitzender des Vorstandes SCHOTT AG Hattenbergstraße 10 D - 55122 Mainz http://www.schott.com/ W Dipl.-Ök. Katja WASMUTH Ruhr-Universität Bochum Lehrstuhl für Produktionswirtschaft Universitätsstraße 150 D - 44801 Bochum [email protected] http://www.prowi.ruhr-uni-bochum.de/ Professor Dr. Dr. h.c. mult. Horst WILDEMANN Technische Universität München Lehrstuhl für Betriebswirtschaftslehre – Unternehmensführung, Logistik und Produktion Leopoldstraße 145 D - 80804 München [email protected] http://www.bwl.wi.tum.de/ Dr. Herwig WINKLER Alpen-Adria-Universität Klagenfurt Abteilung für Produktions-, Logistik- und Umweltmanagement Universitätsstraße 65–67 A - 9020 Klagenfurt [email protected] http://www.uni-klu.ac.at/plum/

XXXVI

Autorenverzeichnis

Dipl.-Kfm. Florian WINTER Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ Dipl.-Kfm. Jan WIRSAM Johannes Gutenberg-Universität Mainz Center of Market-Oriented Product and Production Management Lehrstuhl für Betriebswirtschaftslehre, insbesondere Produktionswirtschaft Jakob Welder-Weg 9 D - 55128 Mainz [email protected] http://www.cmpp.de/ http://www.produktionswirtschaft.bwl.uni-mainz.de/ Dr. Jochen WITTMANN General Manager Dr. Ing. h.c. F. Porsche Aktiengesellschaft Entwicklungszentrum Porschestraße D - 71287 Weissach [email protected] http://www.porsche.com/ Z Dr. Andreas E. ZIELKE, MBA Director McKinsey & Company, Inc. Automotive & Assembly Practice Kurfürstendamm 185 D - 10707 Berlin [email protected] http://www.mckinsey.de/

Themenöffnung

Produktions-, Innovations- und Logistikmanagement Strategien, Konzepte und Gestaltungsansätze für die Wertschöpfung in einer dynamischen Umwelt Frank Himpel und Bernd Kaluza

Die Produktion von Gütern und Dienstleistungen orientiert sich an den Erwartungs- und Nutzenstrukturen der Nachfrager auf häufig sehr differenzierten Käufermärkten. Die Hervorbringung eines Angebots von Leistungsbündeln befähigt Industrieunternehmen, ihre angestrebten Ziele besser zu erreichen. Die Produktion dient also dazu, mittels einer kundenorientierten Produktion, nachhaltige Erfolge zu erzielen. Die Performanzanforderungen an sozio-techno-ökonomische Systeme sind in den vergangenen Jahren auf vielen gesättigten Märkten stetig gestiegen. Beispielhaft zu nennen sind hier die Kontraktion von Entwicklungszyklen und die Verkürzung der Produktlebenszyklen. Die Zeit, und damit auch die Aufgaben des Innovationsmanagement, wird heute zu einem immer bedeutenderen strategischen Erfolgsfaktor im globalen Wettbewerb. Zudem sind an die Qualität des Leistungsangebots ständig höhere Anforderungen zu stellen. Die wahrnehmungsbasierte Qualitätsdefinition, welche Qualität konsequent aus Sicht der Nachfrager interpretiert, erfordert die Implementierung von direkten Informationsbeziehungen mit der Produktion. Ob ökonomische Erfolgsbeiträge über Kapitalmarktinvestitionen, Beteiligungen oder unmittelbar durch direkte Produktion für weltweit aufgestellte Absatzmärkte zugerechnet werden können, hängt aus Planungs- und Steuerungssicht oftmals auch von der Höhe und dem Wert der für die Erzielung eines ökonomischen Erfolgsbeitrags erforderlichen Faktoreinsätze ab. Die systemorientierte Sicht des Produktionsmanagement zeigt, dass sich eine Vielzahl an Konzeptualisierungen und Gestaltungsansätzen überlagern, die sich darüber hinaus zudem ständig ändern. Komplexität, in dieser Betrachtungsweise interpretiert als eine von einer hohen Veränderungsdynamik geprägte Vielschichtigkeit in den für produktionswirtschaftliche Entscheidungen relevanten Bezugsbereichen, ist damit ubiquitäres Kontextmerkmal des Produktionsmanagement. In dieser Sicht verstehen sich die in dieser Festschrift zusammengeführten Beiträge nicht als isolierte, separierbare und disjunkte Einheiten, sondern sind vielmehr als Elemente einer vernetzten, integrativen Sicht von Gestaltungsansätzen zum Produktions-, zum Innovations- und zum Logistikmanagement zu interpretieren. Streng genommen müssten die Beiträge in ihrem vernetzten Ursache-Wirkungs-Bezug präsentiert werden. Damit würde es möglich, das mehrdimensionale Gedankengebäude zum Produktions-, Innovations- und Logistikmanagement thematisch zweckmäßig zu gestalten. Bei der für diese Festschrift gewählten Vorgehensweise wurde versucht, die Beiträge inhaltlich aufeinander zu beziehen. Damit sollen die integrativen Konzepte und die Gestaltungswirkungen dieser drei Funktionsbereiche umfassend dargestellt werden.

4

F. Himpel und B. Kaluza

Produktions-, Innovations- und Logistikmanagement erfordern vielfältige Entscheidungen. Das betriebliche Gestaltungshandeln, für welches das formulierte Zielsystem eines sozio-technoökonomischen Systems stets handlungsleitend ist, fokussiert auf diese Entscheidungen vor dem Hintergrund einer einnehmend hohen Dynamik und Komplexität im sozio-technoökonomischen Umsystem.1 Die Komplexität mehrdimensionaler Entscheidungskontexte wird dabei durch große Veränderungen in sozio-techno-ökonomischen Gestaltungssystemen induziert. Im Rahmen der Messung dieser Veränderungsdynamik wirken wiederum teilweise nur in Ausschnitten erfassbare und „begreifbare“ Ursache-Wirkungs-Beziehungen zwischen Strategie- und Gestaltungselementen aus der ökonomischen, der sozialen, der technologischen und der natürlichen Umwelt zusammen.2 Die Überlagerung der Entwicklungsverläufe in diesen Umwelten bzw. Umsystemen führt zu hohen Leistungsanforderungen an die zu treffenden unternehmerischen Entscheidungen.3 Klaus Bellmann hat bereits frühzeitig darauf hingewiesen, dass dem Einbeziehen von Strategien, Konzepten und Gestaltungsansätzen zur Bewahrung und geeigneten Nutzung der Ressourcen aus der natürlichen Umwelt sowohl für die industrielle Produktion als auch für das Innovations- und Logistikmanagement eine weitreichende Bedeutung zukommt.4 Der zu Ehrende hat dies schon vor über 30 Jahren insbesondere am Beispiel der Produktion von Automobilen exemplifiziert.5 Dieser Forschungsansatz ist deshalb besonders wertvoll, da für die Automobilindustrie Daten über Faktoreinsätze, Faktorverbräuche, branchenendogene und -exogene Ursache-Wirkungs-(Ursache-)Beziehungen in hoher Quantität und Qualität vorliegen. Die zu treffenden Entscheidungen in Produktionssystemen erfordern neben der zweckmäßigen kognitionsbasierten Fokussierung auf den „Kern“ von Entscheidungsproblemen auch eine ausdifferenzierte informatorische Datengrundlage zu ihrer Fundierung.6 In modernen Produktions-, Innovations- und Logistiksystemen erhält die Informationstechnologie (IT) einen immer größeren Stellenwert für die Planung und die Steuerung von Prozess1

Vgl. Bellmann, K.; Milling, P.: Wirtschaftspolitische Zielbildungs- und Entscheidungsprozesse, Arbeitspapier des Industrieseminars der Universität Mannheim, Mannheim 1972.

2

Vgl. Bellmann, K.: Ökologieorientierte Gestaltung industrieller Prozesse und Potentiale, in: Krallmann, H: (ed.): Herausforderung Umweltmanagement, Mannheim 1996, S. 129–152.

3

Vgl. Bellmann, K.: Die Bedeutung chaostheoretischer Erkenntnisse für die Betriebswirtschaftslehre, in: Gesellschaft der Freunde der Universität Mannheim e.V. (ed.): Mitteilungen Nr. 1, April 1992, S. 41–47.

4

Vgl. zu früheren Arbeiten in diesem Kontext Bellmann, K.: Projektion von wirtschaftlichen Konsequenzen der Entwicklung zum Langzeitauto, Arbeitspapier des Industrieseminars der Universität Mannheim, Mannheim 1976; vgl. auch Bellmann, K.; Schunter, W.; Schöttner, J.: Lebensdauer, Recycling, Ressourcenschonung, Entwicklungstrends – Grundlagen und Probleme bei der Konzipierung gesamtwirtschaftlich optimaler Personenkraftwagen, in: Bundesministerium für Forschung und Entwicklung (BMFT) (ed.): Entwicklungslinien in der Kraftfahrzeugtechnik, Köln 1977. Vgl. zu seinen späteren Arbeiten in diesem Kontext Bellmann, K.: Betriebliches Umweltmanagement im Spannungsfeld von Politik, Wissenschaft und unternehmerischer Praxis, in: Bellmann, K. (ed.): Betriebliches Umweltmanagement in Deutschland. Eine Positionsbestimmung aus Sicht von Politik, Wissenschaft und Praxis. Vortragsband zur Herbsttagung der „Wissenschaftlichen Kommission Umweltwirtschaft“ im Verband der Hochschullehrer für Betriebswirtschaft e.V., Johannes Gutenberg-Universität Mainz, 12.–14. November 1998, Wiesbaden 1999, S. 3–18.

5

Vgl. Bellmann, K.: Die Konjunkturreagibilität der Inlandsnachfrage nach Personenkraftwagen, in: Zahn, E. (ed.): Technologie- und Innovationsmanagement, Berlin 1986; vgl. insbesondere Bellmann, K.: Langlebige Gebrauchsgüter – Ökologische Optimierung der Nutzungsdauer, Wiesbaden 1990.

6

Vgl. Bellmann, K.: Latente ökonomische Ressourcen in der Nutzungsdauer von Gebrauchsgütern, in: Milling, P. (ed.): Systemmanagement und Managementsysteme, Berlin 1991.

Produktions-, Innovations- und Logistikmanagement

5

abläufen. Horst Wildemann behandelt die Frage, ob die IT aufgrund der stetig zunehmenden Bedeutung im Produktionsprozess als neuer Produktionsfaktor („Befähiger“) bezeichnet werden kann. Er stellt die derzeitigen Einsatzweisen, Formen und Implikationen moderner ITSysteme heraus und untersucht u. a. detailliert den Einfluss der IT auf die Gestaltungsbereiche der Produktion und der Logistik, sowie weiterer Unternehmensfunktionen. Der Autor deckt Potenziale auf und schildert besonders zukünftige Entwicklungen des Einsatzes von IT in der Produktion. Die zweckmäßige Verwendung von IT leistet damit einen wesentlichen Beitrag zur Erreichung des Zielsystems eines Unternehmens. Damit sozio-techno-ökonomische Systeme die angestrebten Ziele erreichen können, fokussieren diese zunächst auf die Konzeption von Strategien und optimale Gestaltungen der zu planenden und zu steuernden Elemente und Relationen. Insbesondere industriell ausgerichtete Akteurssysteme agieren dabei nicht mehr nur auf einem lokalen Markt, sondern greifen die Möglichkeiten auf, die sich aus einer Internationalisierung des Geschäfts bieten. Auch hierfür stellen die aktuellen IT-Systeme eine wesentliche Gestaltungsgrundlage dar. Die Internationalisierung bzw. Steigerung der beschaffungs- und absatzmarktseitigen Varietät des eigenen Geschäfts erhöht auch die Eigenkomplexität eines Gestaltungssystems. Bernd Kaluza und Herwig Winkler zeigen in ihrem Beitrag, wie das systemorientierte Spannungsfeld von marktseitig erforderlicher Varietät und steuerungsseitig erforderlicher Redundanz harmonisiert werden kann. Produktionsmanagement, in systemorientierter Sicht verstanden als Gestaltungshandeln zur geeigneten Handhabung des Komplexitätsgefälles zwischen Umwelt- und Eigenkomplexität,7 führt im Kontext multilokal-hybrider Wettbewerbsstrategien zur simultanen Verfolgung von Globalisierungs- und Lokalisierungsvorteilen. Zur Realisierung dieser Strategien werden Wertschöpfungsnetzwerke konzipiert, die im Sinne interorganisationaler Koordination und Kooperation eine Vernetzung von Produktionsprozessen und -potentialen anstreben. Die unternehmensübergreifende Kooperation in diesen Wertschöpfungsnetzwerken erfordert eine genaue Untersuchung, wie eine geeignete Festlegung der Wertschöpfungsstrukturen und -prozesse zwischen den beteiligten Unternehmen mit Blick auf die Realisierung der angestrebten Wertschöpfungsziele erfolgen kann. Folglich stehen deshalb die Koordination und Konfiguration der Wertschöpfungsprozesse im Mittelpunkt strategischer Überlegungen.8 Die Verflochtenheit moderner Produktionssysteme mit Akteuren aus ihrer Umwelt führt dazu, dass Fragen der Koordination und Konfiguration von Produktionsprozessen im systemorientierten Brennpunkt des Produktionsmanagement stehen. Aufgrund der zum Teil hochgradig arbeitsteilig vollzogenen Wertschöpfung, insbesondere auch über Ländergrenzen hinweg, nimmt nicht nur der Stellenwert der Logistik immer mehr zu, sondern auch das Risikomanagement wirkt stark auf strategisch-taktische Konzepte und operative Maßnahmen des Innovations- und Produktionsmanagement. Eva-Maria Kern und Thomas Hartung schildern, wie den Risiken, welche den Geschäftsprozessen in der industriellen Produktion inhärent sind, adäquat begegnet werden kann. Das tra7

Vgl. Bellmann, K.: Produktionsnetzwerke – ein theoretischer Bezugsrahmen, in: Wildemann, H. (ed.): Produktions- und Zuliefernetzwerke, München 1996, S. 47–63.

8

Vgl. Bellmann, K.; Hippe, A.: Netzwerkansatz als Forschungsparadigma im Rahmen der Untersuchung interorganisationaler Unternehmensbeziehungen, in: Bellmann, K.; Hippe, A. (eds.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Wiesbaden 1996, S. 3–18.

6

F. Himpel und B. Kaluza

ditionell überwiegend strategisch ausgerichtete Risikomanagement birgt aus risikoseitiger Betrachtung Defizite. Die Behebung dieser Defizite ist durch einen Ansatz zu erreichen, der sich auf eine dezentrale Verankerung von Risikomanagementaktivitäten im leistungswirtschaftlichen Bereich der Ablauforganisation von sozio-techno-ökonomischen Systemen bezieht. Im Mittelpunkt der Betrachtung stehen Fragen der Durchführung des geschäftsprozessorientierten Risikomanagement und des Zusammenwirkens von leistungszentriertem und geschäftsprozessorientiertem Risikomanagement. Zur verbesserten Analyse der Risiken in der Produktion werden häufig Simulationen durchgeführt, deren Ergebnisse grundlegend für das Treffen von Entscheidungen zur Minimierung des operativen Risikos im Produktionsprozess sind. Peter Milling und Jan Jürging prüfen, ob beim Serienanlauf in der Automobilindustrie technische Änderungen Ursache oder Symptom von Anlaufschwierigkeiten sind. Die Autoren untersuchen dabei besonders, welche „inneren“ Ursache-Wirkungs-(Ursache-)Beziehungen in diesem betrieblichen Gestaltungsfeld bestehen, und wie die damit gekoppelten Risiken in ursache-wirkungs-basierter Analyse bzw. erfahrungsbasierter Simulation für sozio-techno-ökonomische Akteure in der Automobilindustrie sichtbar gemacht werden können. Mit den erzielten Simulationsergebnissen wird es möglich, auch langfristig wirkende Entscheidungen zu verbessern. Bei der Entwicklung von Konzepten für die Produktionsprozesse in der Automobilindustrie werden zusätzlich zur geeigneten Kalibrierung von Vor- und Nullserien insbesondere auch Themen behandelt, die sich mit der Allokation von Wertschöpfungspartialen auf Hersteller und Zulieferer beschäftigen. In den Produktionssystemen moderner Automobilhersteller besteht das Problem, eine „optimale“ Arbeitsteilung nicht nur in strategisch-taktischer, sondern auch in operativer Sicht zu erreichen. Dagmar Kessler beschreibt, welche Anforderungen für die zukünftige Gestaltung von Wertschöpfungsketten in produzierenden Unternehmen entstehen. Das Outsourcing von Wertschöpfungsaktivitäten der Original Equipment Manufacturer (OEM) auf Zulieferer von Komponenten und Modulen ist eine zentrale Gestaltungsvariable des Produktionsmanagement. In diesem Buch hat nicht nur das Outsourcing von (physischer) Wertschöpfung, sondern auch der Zukauf logistischer Dienstleistungen eine große Bedeutung. In dem Beitrag von Wolfgang Kersten, Meike Schröder, Carolin Singer und Jan Koch wird das Outsourcing von Logistikdienstleistungen in Produktionsunternehmen analysiert. Dabei werden Ursachen und Vorteile bzw. Ziele, die mit dem Outsourcing von Logistikleistungen gekoppelt sind, untersucht. Die Ausführungen werden durch die Ergebnisse einer empirischen Studie zur Struktur der Logistikkosten sowie zur Art und zum Umfang des Outsourcing von Unternehmen im Ostseeraum gestützt. Outsourcing, in systemorientierter Sicht verstanden als das Erweitern des Aktionsraums eines sozio-techno-ökonomischen Zielsystems durch Nutzung unternehmensexterner Ressourcen („outside ressource using“), ist gleichsam eine Aktionsvariable, mit der dass Gefälle zwischen Umwelt- und Eigenkomplexität zu reduzieren ist. Dies ist jedoch nur einer von mehreren Gestaltungshebel aus Sicht des systemorientierten Produktionsmanagement. Thorsten Blecker und Nizar Abdelkafi zeigen, wie geeignete Kennzahlen zur Gestaltung und Abbildung von produkt- und prozessbezogener (Eigen-)Komplexität in einem variantenreichen Produktionskontext zu formulieren sind. Diese Kennzahlen stehen nicht isoliert, sondern bilden in ihrem „inneren“ Ursache-Wirkungs-Geflecht ein aus Elementen (Kennzahlen) und Relationen (Verrechnungsregeln) konzipiertes Kennzahlensystem für das proaktive Management der (Eigen-)Komplexität in (Produktions-)Unternehmen. Die Verfasser veranschaulichen ihre Über-

Produktions-, Innovations- und Logistikmanagement

7

legungen am Beispiel der Implementierung und Nutzung derartiger Kennzahlensysteme im realpraxeologischen Bezug. Kennzahlensysteme sind aus Sicht der Unternehmensführung nach wie vor unverzichtbare Instrumente zur Strategiebildung und Operationalisierung unternehmerischer Wertschöpfung.9 Die aus systemorientierter Sicht zwingend erforderliche laufende Überprüfung und etwaige Anpassung von Entscheidungen an Veränderungen in der sozio-technischen, ökonomischen und ökologischen Umwelt zur Abbildung der umsystemseitigen Dynamik wurde traditionell jedoch von einer homöostatischen Vorstellung von der umfassenden Plan-, Steuer- und Kontrollierbarkeit von (Produktions-)Systemen unterfüttert.10 Aufgrund der menschlichen Unzulänglichkeit, in den sich verändernden Moden der wirkungsseitigen Ausprägungen des Umsystems die jeweils vorherrschenden Ursache-Wirkungs-(Ursache-)Beziehungen „klar“ erkennen und für Zwecke einer entsprechenden (Produktions-)Entscheidung nutzbar machen können, läßt sich das traditionelle Postulat einer umfassenden Regulierbarkeit und Steuerbarkeit von sozialen Systemen in Frage stellen. Aus Sicht des systemorientierten Produktionsmanagement bedeutet dies vielmehr, dass aus theoretischer Sicht gegenstandsbezogen nicht mehr nur die traditionelle, klassisch-kybernetische (Regelungs-)Sicht für Fragen der Produktionsplanung, -steuerung und -kontrolle hinreichende Effektivität und Effizienz der Führungs- und Gestaltungshandlungen verspricht, sondern derartige Fragestellungen vor allem durch eine Kontextsteuerung unter Anerkennung von der nur begrenzten umfassenden Handhabbarkeit sozialer Systeme unterfüttert werden.11 Udo Mildenberger, Anshuman Khare und Christoph Thiede weisen nach, dass (Produktions-) Unternehmen als soziale Systeme in ihrer immediaten und mediaten Umwelt nicht isoliert zu betrachten sind, sondern vielmehr als Wirtschaftseinheiten auch Verantwortung für die in ihren Umsystemen sich vollziehenden Veränderungsprozesse tragen müssen. „Corporate Social Responsibility“ (CSR) besagt, dass Systeme quasi „soziale Koproduzenten“ ihrer Umsysteme sind. Diese Gedanken stehen im Mittelpunkt dieser Ausführungen, wobei ein Wechselspiel zwischen System und Umsystem existiert. Die Autoren geben zunächst einen Überblick über die in Theorie und Praxis vertretenen Auffassungen zur „Corporate Social Responsibility“ und analysieren und systematisieren theoretische Konzepte, Grundbegriffe und Argumentationsmuster. Die Übernahme sozialer Verantwortung erfordert zunächst entsprechende Kompetenzen von den in einem Produktions- und Logistiksystem tätigen Menschen. Verantwortung nach Außen lässt sich in dieser Sicht also nicht ohne Kompetenz im Innern gewährleisten, da sonst die erforderliche problemzentrierte Sicht auf die zentralen „Kerngestaltungsfragen“ nicht immer greifen kann. Klaus Breuer und Rüdiger Tauschek stellen in ihrem Beitrag den Stellenwert der Prozesskompetenz von Mitarbeitern in industriellen Leistungserstellungsprozessen dar. Das Denken in vernetzten Systemen, die Fähigkeit zur verbesserten Argumentation in vermaschten UrsacheWirkungs-(Ursache-)Beziehungen, und die Fähigkeit zur eigenständigen Re-strukturierung von 9

Vgl. Bellmann, K.: Ökologische Rechnungslegung, in: Kaluza, B. (ed.): Unternehmung und Umwelt, 2., überarbeitete Auflage, Hamburg 1997, S. 147–167.

10

Vgl. Bellmann, K.; Mildenberger, U.: Komplexität und Netzwerke, in: Bellmann, K.; Hippe, A. (eds.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Wiesbaden 1996, S. 121–156.

11

Vgl. Bellmann, K.: Heterarchische Produktionsnetzwerke – ein konstruktivistischer Ansatz, in: Bellmann, K. (ed.): Kooperations- und Netzwerkmanagement, Berlin 2001, S. 31–54.

8

F. Himpel und B. Kaluza

Wertschöpfungsschritten im eigenen Aktionsraum sind hiernach wesentliche Qualifikationsmerkmale von Mitarbeitern in der Produktion. Die Autoren konkretisieren ihre Ausführungen zur Prozesskompetenz am Beispiel der Abschlussprüfung für Elektroberufe. Das Problem der Behandlung der Unsicherheit und der Formulierung von Prognosen über zukünftiges Systemverhalten sind Elemente der zukunftsbezogenen Planung. Insbesondere im Innovationsmanagement sind Fragen der strategischen Frühaufklärung aus systemorientierter Sicht zu behandeln. Dabei geht es primär um die Aufgabe, wie Strukturen sowie Interaktionsund Interdependenzprozesse von Abläufen im Umsystem geeignet zu erfassen und zu systematisieren sind. René Rohrbeck und Hans Georg Gemünden zeigen, welchen Stellenwert die strategische Frühaufklärung für das Innovationsmanagement einnimmt. Auf Basis der Ergebnisse einer Benchmarking-Studie fordern die Autoren, dass sowohl markt- als auch technologieseitige Aspekte in der Frühaufklärung zu integrieren sind. Diskontinuitäten und der Einfluss von „radikalen“ Technologien sind so besser im strategischen „Aktionsradar“ abzubilden. Die strategische Frühaufklärung ist somit nicht nur ein Instrument zur Identifikation und dem Aufbau neuer Geschäftsfelder, sondern auch Inputgeber für Produkt- und Serviceinnovationen. Damit sich die durch die Frühaufklärung identifizierten Potentiale in der Organisation erfolgreich umsetzen lassen bzw. damit das Produktions- und Innovationssystem entsprechende Potentiale zur markt- und technologieseitigen Nutzbarmachung für ökonomische Zielbeziehungen verbessert aufzeigen kann, sind geeignete systemseitige Infrastrukturmaßnahmen erforderlich. Hermann Krallmann, Philipp Offermann und Annette Bobrik beschreiben, welche Strukturmerkmale von Organisationen geeignete Ansatzpunkte bieten, um die Ideensuche als erste Phase des Innovationsprozesses mit Erfolg zu unterstützen. Der hohe Stellenwert der beteiligten Mitarbeiter wird dadurch hervorgehoben, dass Unternehmenskultur, Mitarbeiterbeteiligung, Führungsstil, Dezentralisierung, Arbeitsorganisation und Kommunikation im Mittelpunkt dieser Überlegungen stehen. Besondere Bedeutung haben hier Groupware-Systeme und Social Software, mit deren Einsatz Innovationsprozesse erfolgreich zu gestalten sind. Beim Ausschöpfen der Mitarbeiterpotentiale sind sehr unterschiedliche Ausprägungen in den Produktionsorganisationen von Wertschöpfungssystemen zu finden. René Haak konzentriert sich in seinem Artikel auf das Innovations-, Produktions- und Expansionssystem des japanischen Automobilherstellers Toyota. Der Autor stellt die Toyota-Managementphilosophie vor, deren zentrale Säulen für die Produktion nicht nur die Markt- und Technologie-, sondern besonders auch die Mitarbeiterorientierung sind. Der Verfasser schildert, wie bei Toyota die Qualifikations- und Problemlösepotentiale der eingesetzten Produktionsmitarbeiter systematisch zur produktionswirtschaftlich „optimierten“ Leistungserstellung weiterentwickelt werden. Die Transformation von Mitarbeitererfahrungen und ihrer Problemlösefähigkeit zur Produktion von Sachgütern und Dienstleistungen ist als inside-out-orientierter Transformationsprozess zu begreifen. Das bedeutet aber auch, dass zur Angleichung der Komplexitätspotentiale von Umsystem und System eine outside-in-orientierte Transformation vorzunehmen ist. Andrea Berzlanovich und Regine Lampert argumentieren in ihrem Beitrag, dass sich die Wertschöpfung für gesättigte Käufermärkte insbesondere auf kundenbezogene bzw. -basierte Veränderungen richten sollte. Konkret zeigen die Autorinnen, dass die Wertschöpfung für den sog. „Silbermarkt“, hierunter wird der Markt für Konsumenten von über 60 bzw. 65 Jahren verstanden, neben der Konzentration auf die Nutzenvorstellungen und Erwartungshaltungen der Nachfrager insbesondere auch die biologisch-physischen Veränderungen der „Silberkonsumenten“ in ihrem

Produktions-, Innovations- und Logistikmanagement

9

Gestaltungsfokus für neue Produkte einbeziehen sollte. Dabei sind sowohl die Hervorbringung von konkreten Leistungsangeboten als auch die Festlegung von einzelnen Produktmerkmalen besonders zu beachten. Andreas Herrmann, Mark Heitmann, Frank Huber und Jan Landwehr analysieren, inwieweit die wahrgenommene Relevanz eines Produktmerkmals für einen Nachfrager durch die Veränderung der Vergleichbarkeit der Merkmalsausprägungen zu variieren ist. Im Mittelpunkt steht die Beantwortung der Frage, ob und unter welchen Bedingungen unterschiedliche, jedoch produktübergreifend vergleichbare Merkmale im Rahmen der Wahrnehmung und Beurteilung von Produkten durch einen Nachfrager wichtiger sind als ein einzigartiges, in konkurrierenden Produkten nicht enthaltenes, Ausstattungsmerkmal eines Produkts. Diese Gestaltungsfrage betrifft zwar in erster Linie das Produktmanagement, steht aber auch in engen Ursache-WirkungsBeziehungen zur Organisation der Produktion. Die Autoren zeigen, wie (hoch-)komplex die an der Schnittstelle von Marketing und Produktion zu behandelnden Problemfelder sind.12 Mit der Preisbildung im Produktentwicklungsprozess beschäftigt sich Jochen Wittmann. Der Verfasser argumentiert, dass das (Vorgehens-)Modell des „Target Value Pricing“ als Instrument eingesetzt werden kann, um wertadäquate Innovationen im Preisbildungsprozess besser darstellen zu können. Auch hier sind Fragen zu behandeln, die sowohl das Preismanagement als auch das Produktionsmanagement betreffen. In dem Artikel wird zudem beschrieben, welche Relevanz, Anforderungen und noch immer vorhandene Defizite der Preisbildung im Produktentstehungsprozess vorliegen. Im Fokus der Ausführungen steht der Entwurf eines Modells, mit dem die Festlegung von Zielpreisen für strategische Produktprojekte und die Erzielung eines angemessenen Erlöses für die Produktleistung zu gewährleisten sind. Bei der Formulierung von Strategien und der Auswahl operativer Maßnahmen für technologische Aspekte bestehen in den Unternehmen große Unterschiede. Dabei steht ein Teil der produktionsseitig zu behandelnden Gestaltungsfragen im Kontext der technologischen Konvergenz. Für Produktionssysteme, die auf Märkten unter dem Wirkungsdruck von technologischer Konvergenz entsprechende ökonomische Ziele erreichen wollen, bieten traditionelle Ansätze zur systematischen Planung und Steuerung der Innovationstätigkeit häufig nur rudimentäre Lösungen. André Krauß zeigt, dass Innovationsmanagement im Kontext technologischer Konvergenz eine Mehrzahl neuartiger Leistungsanforderungen abzubilden hat. Hieraus leitet der Autor dann modifizierte Anforderungen an die Produktionsplanung und -steuerung ab. Die Neuartigkeit spezifischer Entwicklungen im Kontext der technologischen Konvergenz betrifft primär die im Innovationsprozess ablaufenden Arbeitsfolgen. Darüber hinaus ist eine Reihe von weiteren Anforderungen an das Innovationsmanagement im globalen Maßstab zu erfüllen. Insbesondere für inländische Unternehmen, welche Produktleistungen nicht nur für den heimischen, sondern auch für den weltweiten Markt herstellen, besteht die Gefahr, dass internationale Wettbewerber Know-how aus innovativen Produkten und Prozessen durch Adaption und Imitation „übernehmen“ wollen. Jan Wirsam beschreibt, welche Strategien und Maßnahmen technologieintensive Unternehmen zur Vermeidung eines Know-how Abflusses von 12

Vgl. Bellmann, K.: Schnittstellenmanagement – Marketing und Produktion, in: Herrmann, A.; Hertel, G.; Virt, W.; Huber, F. (eds.): Kundenorientierte Produktgestaltung, München 2000, S. 287–313; vgl. auch das Geleitwort von Klaus Bellmann in Himpel, F.: Marktorientiertes Produkt- und Produktionsmanagement. Zur Gestaltung der Interaktion zwischen Marketing und Produktion, Wiesbaden 2004, S. V.

10

F. Himpel und B. Kaluza

innovativen Lösungen ergreifen können. Dabei werden strategische, rechtliche, personalbezogene und organisationsbezogene Gestaltungsfelder zur systematischen Identifizierung potentieller Angriffspunkte bzw. Schwachstellen herausgearbeitet. Der Autor stellt zudem Ansatzpunkte für ein geeignetes F & E-Controlling vor. Joachim Fischer stellt in seinem Artikel zunächst die Entwicklung des Forschungs- und Entwicklungscontrollings vor dem Hintergrund der grundlegenden markt- und techologieseitigen Veränderungen dar. Die „autokratische Labororganisation“ wird dabei mehr und mehr durch kollektive Innovationsprozesse in verteilten dislozierten Wertschöpfungsnetzwerken substituiert. Aus diesem Strukturwandel resultiert eine Vielzahl neuartiger Anforderungen an ein geeignetes F & E-Controlling. Daraus ergeben sich dann auch veränderte Stellenanforderungen für F & E-Controller. Die Messung des wirtschaftlichen Erfolgs und des ökonomischen Beitrags der F & E ist aufgrund stark differenzierender Forschungs- und Entwicklungsaufgaben kaum zu standardisieren. Robert Hauber zeigt überblicksartig unterschiedliche Ansätze zur Messung der Wirtschaftlichkeit von F & E-Maßnahmen und beurteilt kritisch die verschiedenen Konzepte. Bei der Aufbereitung behandelt der Autor primär quantitativ-kostenorientierte Bezugsgrößen sowie risiko- und qualitätsbezogene Aspekte. Fragen der Messbarmachung und Messung betreffen sowohl Produkte als auch die wertbezogene Sicht der Produktion. Zur Steuerung von Produktionsaktivitäten sind Entscheidungen zu treffen, die sich auf die physische Wertschöpfung und die ergänzenden Dienstleistungen13 beziehen. Marion Steven und Katja Wasmuth formulieren Anforderungen an ein Kostenmanagement bei der Entwicklung von industriellen Dienstleistungen. Besondere Beachtung schenken die Autorinnen dem „Service Engineering“, das als Informationsgrundlage zur Entwicklung und Gestaltung von Dienstleistungen dient. Bei der Konzipierung entsprechender Serviceleistungen wird ein zweckmäßiges Kostenmanagement konzipiert.14 Die Kosten von Dienstleistungen im Innovationskontext stellen häufig eine stabile Entscheidungsgrundlage dar. Allerdings gibt es nicht für alle produktionswirtschaftlichen Gestaltungsfelder entsprechende Informationen. Daraus resultieren vielfältige Steuerungsdefizite. Karsten Junge zeigt in seinem Beitrag Probleme von defizitären Entscheidungsmodellen auf. Der Verfasser veranschaulicht seine Aussagen am Beispiel eines produktionswirtschaftlichen Losgrößenmodells. Dmitry Ivanov und Joachim Käschel schildern, warum Steuerungsdefizite im Produktionsbereich möglicherweise auftreten können und erörtern, wie diese Probleme zu lösen sind. Die Autoren konzipieren einen „dezentralisierten, integrierten Modell-Ansatz“ (DIMA) als integratives Rahmenkonzept zur ganzheitlich-vernetzten Betrachtung von komplexen, dynamischen Unternehmensnetzwerken. In diesen interdisziplinären Ansatz sind Erkenntnisse aus der Systemtheorie, der Steuerungstheorie und dem Operations Research eingeflossen. Aus systemorientierter Sicht stehen Fragen der Dezentralisierung im Spannungsfeld aus Varietät und Redundanz. Beide Größen beeinflussen ihrerseits die Gestaltung der Eigenkomple13

Vgl. Bellmann, K.: Flexibilisierung der Produktion durch Dienstleistungen, in: Kaluza, B.; Blecker, T. (eds.): Erfolgsfaktor Flexibilität – Strategien und Konzepte für wandlungsfähige Unternehmen, Berlin 2005, S. 153–174.

14

Vgl. Bellmann, K.; Lang, C.: Steuerung von Entwicklungsdienstleistungen, in: Controlling – Zeitschrift für erfolgsorientierte Unternehmensführung, Heft 4/5, April/Mai 2007, S. 259–267.

Produktions-, Innovations- und Logistikmanagement

11

xität eines Systems. Während dezentralisierende (Organisations-)Elemente primär varietätsinduzierend in das System hineinwirken, werden demgegenüber zentralisierende, redundanzsteigernde Mechanismen erforderlich, um die Eigenkomplexität eines (Produktions-)Systems geeignet austarieren zu können.15 Hans Meissner und Sascha Kwasniok zeigen, wie sich das skizzierte Spannungsfeld zwischen Varietät und Redundanz auf Absatzorgane übertragen lässt. Im Mittelpunkt der Untersuchungen stehen koordinations- und konfigurationstheoretische Überlegungen, auf welcher Grundlage alternative Instrumente zur marktlichen (Binnen-)Steuerung von Absatzorganen unter Motivationsaspekten eingesetzt werden können. Hierbei wird ein gedachter, fiktiver „interner“ Markt entwickelt, der mit seiner Koordinations- und Motivationswirkung dem realen „internen“ Markt gegenübergestellt wird. Die Idee, marktliche Allokations- und Koordinationsmechanismen in die Organisation der Produktion zu übertragen, betrifft auch die Frage nach dem optimalen „Servicelevel“ von unterstützenden Unternehmensfunktionen. Hierbei zeigt sich, dass sowohl die Aspekte der Dezentralisierung als auch der Zentralisierung gleichwertig zu betrachten sind. Guido Kaupe und Ruth Evers präsentieren einen Ansatz zur „Industrialisierung“ des Rechnungswesens. Das Konzept wird am Beispiel eines Flughafenbetreibers vorgestellt. Schwerpunkte dieser Betrachtungen sind Fragen der Standardisierung und Automatisierung von Rechnungswesenprozessen. Zudem wird der Stellenwert des konzerninternen Dienstleistungskonzepts, des sog. „shared service centers“, herausgearbeitet. Mit der Gestaltung des Komplexitätsgefälles zwischen Umwelt und Unternehmen bzw. zwischen Umsystem und System beschäftigt sich Thiemo Kohlsdorf. Insbesondere der zentrale Stellenwert von (Branchen-)Kultur wird hier als möglicher Mechanismus zur Abbildung von Komplexität betrachtet. Aufgrund der Situationsdependenz und (Kontext-)Steuerungskritizität von netzwerkartigen Koordinations- und Steuerungsprozessen werden mögliche Wirkungen von Branchenkulturen auf interorganisationale Kooperationen und Netzwerke aufgezeigt. Bei der Kopplung von Aktionssystemen in entsprechend netzwerkartigen Koordinationskontexten sind unterschiedliche Motivations- und Zielbildungssysteme der beteiligten Partner zu beachten.16 Insbesondere in Fragen der Kompetenzkopplung stellt sich eine Reihe an spezifischen Koordinationsfragestellungen.17 André Haritz und Oliver Mack diskutieren, welches theoretische Explikationspotential die Spieltheorie in der Formulierung eines Bezugsrahmens zur Konzeptualisierung von retikulärer Kompetenzkoordination bieten kann. Ausgehend von der Neuen Institutionenökonomie runden die Autoren ihre Überlegungen durch Fokussierung auf interorganisationale Lernprozesse ab. Mit Blick auf Strategisierung und Operationalisierung aus Sicht einer kollektiven und individualistischen Kompetenzperspektive zeigt sich, dass wechselseitige Lernprozesse der beteiligten Partner eine hinreichend geeignete Allokationswirkung für die Wertschöpfung in Netzwerken erlangen können. 15

Vgl. Bellmann, K.: Produktion im Netzwerkverbund – Strategischer Faktor im globalen Wettbewerb, in: Nagel, K.; Erben, R.; Piller, F. T. (eds.): Produktionswirtschaft 2000 – Perspektiven für die Fabrik der Zukunft, Wiesbaden 1999, S. 195–215.

16

Vgl. Bellmann, K.; Mildenberger, U.; Haritz, A.: Management von Technologienetzwerken, in: Kaluza, B.; Blecker, T. (eds.): Produktions- und Logistikmanagement in Unternehmensnetzwerken und Virtuellen Unternehmen, Berlin-Heidelberg-New York 2000, S. 119–146.

17

Vgl. Bellmann, K.; Haritz, A.: Innovationen in Netzwerken, in: Blecker, T.; Gemünden, H.G. (eds.): Innovatives Produktions- und Technologiemanagement, Berlin-Heidelberg-New York 2001, S. 271–298.

12

F. Himpel und B. Kaluza

Während Produktionsnetzwerke im leistungswirtschaftlichen Kontext primär auf den Aspekt der gemeinsamen Leistungsentwicklung und -hervorbringung fokussieren, stehen Logistiknetzwerke vor der Herausforderung, marktseitige Komplexität und Dynamik, die aufgrund der hochteilig arbeitsteilig vollzogenen Wertschöpfung zwischen Lieferanten und den unterschiedlichen Herstellerwerken emergiert, geeignet in den Griff zu bekommen.18 Die Raum-Zeit-Überbrückung von Wertschöfungspartialen und ihre konklusive Zusammenführung an Orte der Weiterverarbeitung bis hin zum Nachfrager induziert komplizierte und kaum durchsichtige Steuerungsanforderungen an das Produktions- und Logistikmanagement. Wilfried Kramer und Florian Winter zeigen, dass Logistiknetzwerke im Zwischenwerksverkehr von Automobilkonzernen eine hohe Komplexität und eine große Dynamik aufweisen. Während sich zum Beispiel „optimale“ Zuglängen im Zwischenwerksverkehr lediglich als Symptom (Wirkung) an der „Oberfläche“ des beobachtbaren Realweltverhaltens bewegen, laufen in der „Tiefenstruktur“ von automobilen Wertschöpfungsnetzen vermaschte Ursache-Wirkungs-(Ursache-)Behziehungen ab, die insbesondere Logistikdienstleister in entsprechenden Netzwerken vor Herausforderungen stellen.19 Thorsten Klaas-Wissing und Wolfgang Stölzle behandeln Steuerungs- und Koordinationsaspekte in multiplen Logistiknetzwerken, konkretisiert auf das Untersuchungs- und Erkenntnisobjekt von sog. Less than Full Truckload-Servicenetzwerken. Derartige Transportdienstleister, die sich in netzwerkartigen Kooperations- und Koordinationsmustern organisieren, erfüllen Planungs- und Steuerungsaufgaben im Spannungsfeld zwischen einer hierarchischen und einer marktlichen Koordinationslösung. In systemorientierter Sicht rekurriert dieser Gedanke auch auf die Gestaltung der Binnendifferenz zwischen Innen und Außen im Hinblick auf die Führung sozio-techno-ökonomischer Systeme. Aus systemorientierter Sicht stellen Produktionsnetzwerke eine Koordinations- und Allokationslösung dar, mittels derer Leistungserstellungsprozesse „zwischen Hierarchie und Markt“ abgebildet werden. Allerdings ist die Kooperationslösung zur Strategisierung und Optimierung längerfristiger Wertschöpfungspotentiale nicht generell geeignet, um die gewünschte Erfolgswirkung erzielen zu können.20 Sofern es aus ökonomischer Sicht zweckmäßig ist, wird von Unternehmen fallweise auch die Akquisition von Marktpartnern vorgenommen, z. B. um gemeinsam entsprechende Erfolgspotentiale aufzubauen und zu nutzen. Alan Hippe, Carsten Reibe, Andreas Zielke und Markus Bürgin schildern, welche Probleme bei der Integration von akquirierten Unternehmen in der Produktion auftreten. Dort sind sowohl strategische Konzeptualisierungszugänge als auch operative Gestaltungshandlungen geeignet zu kalibrieren, sofern aus einer vergrößerten Unternehmensstruktur auch eine erhöhte „Reichweite“ in Deckungsbeitragspotentiale auf den weltweiten Märkten abgeleitet werden soll. 18

Vgl. Bellmann, K.; Himpel, F.: Management von Beschaffungsnetzwerken, in: Hahn, D.; Kaufmann, L. (eds.): Handbuch Industrielles Beschaffungsmanagement. Internationale Konzepte – innovative Instrumente – aktuelle Praxisbeispiele, 2., überarbeitete und erweiterte Auflage, Wiesbaden 2002, S. 859–882.

19

Diese Komplexität betrifft dabei nicht nur Großunternehmen der Automobilindustrie. Vgl. Bellmann, K.; Gerster, B.: Netzwerkstrategien kleinerer und mittlerer Unternehmen in Deutschland – eine theoretische und empirische Untersuchung, in: Bildungsministerium der Russischen Föderation (ed.): Unternehmensstrategien in Russland und in Deutschland, St. Petersburg 2005, S. 32–50.

20

Vgl. Bellmann, K.: Wertschöpfungsmanagement als Kernkompetenz, in: Bertelsmann Stiftung (ed.): Unternehmensnetzwerke – Fragen der Forschung, Erfahrungen der Praxis, Bielefeld 2004, S. 24–30.

Produktions-, Innovations- und Logistikmanagement

13

Während es im zuvor angeführten Realbeispiel der Continental AG rechtlich möglich war, eine Akquisitionslösung zu vollziehen, sind derartige Aktivitäten in Luftverkehrsunternehmen nur schwer zu realisieren. Frank Himpel, Fee Lorenz und Ralf Lipp zeigen, welche Parameter aus Sicht der Kooperationserfolgsmessung sowie aus Sicht einer Parametrisierung des Dualismus von Kooperation und Wettbewerb („Koopkurrenz“) für leistungserstellende Systeme zu analysieren sind. Die Gegensätzlichkeit von kooperativen und kompetitiven Interaktionsverhaltensmustern wirkt dabei auf die strategisch-taktische und operative Gestaltung der Leistungserstellungseinheiten von Passage- und Frachtfluggesellschaften. Die Ausführungen in diesem Buch haben sich primär auf die Präsentation und Kopplung von Forschungsergebnissen fokussiert. Die Beiträge der ehemaligen Mitarbeiter von Klaus Bellmann dokumentieren, welche innovativen und herausfordernden Forschungsfragen am Lehrstuhl des Instituts untersucht werden.21 Besonders hervorzuheben sind hier die hervorragenden Leistungen von Klaus Bellmann in mehrjähriger Tätigkeit an der Johannes Gutenberg-Universität Mainz. Die eingangs beschriebene Vielfalt und „Varietät“ wurde nicht nur forschungsseitig postuliert, sondern lehrseitig auch umgesetzt.22 Frank Himpel präsentiert in seinem Beitrag abschließend einen Blick auf die „Industrielle Produktionswirtschaft“, welches der Titel der Kernvorlesung des produktionswirtschaftlichen Wahlfachs am Lehrstuhl für Produktionswirtschaft der Johannes Gutenberg-Universität Mainz ist. Die Vermittlung einer systemorientierten Sicht des Produktionsmanagement ist zentrales Anliegen dieser Kernvorlesung. Insofern ist das systemorientierte Produktions-, Logistik- und Innovationsmanagement in inhaltlicher und methodischer Sicht nicht nur Gegenstand und „verbindende geistige Klammer“ der vorliegenden Festschrift, sondern auch Gegenstand des Dualismus von Forschung und universitärer Lehre von Klaus Bellmann. Das Anliegen dieser Veröffentlichung ist sowohl durch den Kreis der Autorinnen und Autoren als auch durch die Wahl der Themen fokussiert. Die einzelnen Beiträge greifen die von dem zu Ehrenden bearbeiteten und erschlossenen Problemfelder aus unterschiedlichen Perspektiven auf und entwickeln diese fort. Somit bietet sich in diesem Werk ein Netzwerk an Forschungsbeiträgen, welches in seiner Gesamtheit auch das Lebenswerk von Klaus Bellmann gut charakterisiert. Da mehrere Generationen von Fachvertretern mitwirken, werden die Entwicklungslinien des Forschungsprozesses wie in einer Langzeitstudie erkennbar. Produktions-, Innovations- und Logistikmanagement, vor allem mit Blick auf Gestaltungsfelder in sozio-techno-ökonomischen – und insbesondere auch ökologischen – Gesamtzusammenhängen sowie mit Blick auf netzwerkartige Kooperationsformen im unternehmensübergreifenden Maßstab, waren und sind die wissenschaftlichen Hauptarbeitsfelder von Klaus Bellmann. Eine integrative Sicht auf das Fach entwickelt und in Forschung und Lehre diffundiert zu haben, ist einer der bleibenden Verdienste Klaus Bellmanns.

21

Vgl. zum Beispiel Bellmann, K.: Pay-as-Built – innovative Organisationsmodelle in der Automobilproduktion, in: Albach, H.; Kaluza, B.; Kersten, W. (eds.): Wertschöpfungsmanagement als Kernkompetenz, Wiesbaden 2002, S. 219–237.

22

Vgl. hierzu beispielweise Bellmann, K.; Himpel, F.: Fallstudien zum Produktionsmanagement, 2., überarbeitete und erweiterte Auflage, Wiesbaden 2008.

Markt- und Ressourcenallokation

IT als Befähiger in der Produktion Horst Wildemann

1 Einleitung Der Informationstechnologie-Sektor (IT) ist in den vergangenen Jahren überdurchschnittlich gewachsen. Die Treiber dieses Marktwachstums waren Telekommunikation und IT-Dienste. Die IT-Innovationen haben zu signifikanten Produkt- und Prozessinnovationen in Produktion und Logistik geführt. Mit der umfangreichen Etablierung der Informationstechnologie in der Produktion ist die Produktionseffizienz angestiegen. Technologische Treiber dieser Entwicklung waren die zunehmende Etablierung von Standards in vielen IT-Bereichen und die Innovationen bei den Internet-, Telekommunikations- und Chiptechnologien. Der erhebliche Preisverfall der IT förderte die umfangreiche Etablierung in den Unternehmens- und Produktionsprozessen. Mittlerweile ist in fast jedem Wertschöpfungsschritt IT entweder direkt oder indirekt enthalten. Aus wissenschaftlicher Sicht wurde dieser Entwicklung besonders in der Wettbewerbstheorie Beachtung gezeigt. Zur Wettbewerbswirkung der IT liegen umfangreiche Ausarbeitungen aus verschiedenen Blickwinkeln vor. Neben sehr euphorischen Thesen gerade zu Zeiten des Internetbooms gingen Thesen in jüngster Zeit hingegen soweit, dass IT seine strategische Bedeutung verloren hat, so in dem viel zitierten Artikel von Carr „IT doesn’t matter“.1 Eine vergleichbar umfangreiche Diskussion aus produktionstheoretischer Sicht fehlt. Gerade die Fragestellung, ob IT auf Grund seiner zunehmenden Bedeutung im Produktionsprozess als neuer Produktionsfaktor oder als Befähiger bezeichnet werden kann, wurde bisher noch nicht diskutiert. Der vorliegende Beitrag beleuchtet diese Fragestellung und zeigt die derzeitigen Einsatzweisen, Formen und Implikationen der IT im Produktionsprozess auf. Mit diesem Artikel möchte ich den Kollegen Bellmann ehren, den ich in vielen Begegnungen in seiner ausgeglichenen Art schätzen gelernt habe. Seine vielfältigen Schriften haben auch meine Arbeiten sehr bereichert.

2 IT als Produktionsfaktor IT als Begriff steht sowohl für Informationstechnologie als auch für Informationstechnik. Technologie ist das Wissen von Verfahren und den technischen Zusammenhängen, die Technik hin1

Vgl. Carr, 2003.

18

H. Wildemann

gegen ist die konkrete Anwendung der Technologie zur Problemlösung in materieller Form. Zunehmend wird jedoch auch die materielle Umsetzung des Wissens unter dem Technologiebegriff eingeordnet. Neuere Definitionen verstehen daher unter der Technologie sowohl die Gesamtheit der Verfahren zur Produktion von Gütern und Dienstleistungen als auch die Komponenten der Technik, die materiellen und organisatorischen Voraussetzungen und deren Anwendung.2 Es kann ein enger und ein weiter IT-Begriff definiert werden. IT im engeren Sinne umfasst Hardware und Software. IT im weiteren Sinne umfasst Hardware, Software, Telekommunikation und IT-bezogene Dienstleistungen.3 Der weite IT-Begriff orientiert sich an dem bei Marktbetrachtungen stark verbreiteten Begriff ITK (Informationstechnologie und Telekommunikation) im deutschen Sprachraum. IT liefert genau dann einen Wertbeitrag, wenn die in ihr enthaltenen Komponenten in sinnvoller Kombination miteinander verbunden werden. In der Regel erfolgt diese Kombination durch Informationssysteme, in denen die Informationen verarbeitet werden. Aufgabe eines Informationssystems ist die Erfassung, Speicherung, Verarbeitung, Pflege, Analyse, Benutzung, Verbreitung, Disposition, Übertragung und Anzeige von Information. Ein Informationssystem besteht aus Hardware, Software, Betriebssystemen, Datenbanken, Anwendungen und Daten. Es nutzt zur Übertragung Telekommunikationsleistungen. Das Informationssystem ist in der Regel in ein soziotechnisches System eingegliedert4, das darüber hinaus einen Informationsanbieter und einen Informationsabnehmer beinhaltet. Die beiden letztgenannten Komponenten sind für die Werterzeugung unabdingbar. Produktionsfaktoren werden zur Herstellung und Verwertung betriebswirtschaftlicher Leistungen eingesetzt. In Gutenbergs Produktionsfaktorensystem werden Elementarfaktoren und dispositive Faktoren unterschieden. Gutenberg unterscheidet die Elementarfaktoren weiter in objektbezogene menschliche Arbeitsleistungen (ausführende Arbeitsleistungen), Werkstoffe (Rohstoffe, Halb- und Fertigfabrikate) und Betriebsmittel (z. B. Grundstücke, Gebäude, Maschinen, Hilfsstoffe, Betriebsstoffe).5 Nach dem Kriterium Verbrauch des elementaren Produktionsfaktors kann weiter zwischen Potenzial- und Repetierfaktoren unterschieden werden. Während Repetierfaktoren wie Werkstoffe nur in einer einzigen Faktorkombination produktiv wirksam sind, können Potenzialfaktoren wie menschliche Arbeitsleistungen und Betriebsmittel in mehreren Kombinationsprozessen eine produktive Wirkung entfalten. IT ist kein eigenständiger Produktionsfaktor, da es sich zum einen zeigt, dass IT in den Produktionsprozess sowohl als Betriebsmittel als auch als Werkstoff eingeht und somit nur die Form der dispositiven und objektbezogenen menschlichen Arbeitsleistung verändert. Zum anderen ist IT selbst ein Produkt, das durch Kombination der Produktionsfaktoren im Produktionsprozess entstanden ist und sich auf die dispositiven und elementaren Faktoren wieder zurückführen lässt. Diese Sichtweise impliziert, dass IT selbst kein neuer Produktionsfaktor gemäß dem Produktionsfaktorenschema nach Gutenberg, das implizit Einzigartigkeit der Produktionsfaktoren unterstellt, darstellt. IT wirkt vielmehr indirekt auf die bestehenden dispositiven und elementaren Produktionsfaktoren. Die wertorientierten IT-Systeme wirken dabei schwerpunktmäßig auf die dispositiven Faktoren, die operativen IT-Systeme auf die elementaren Faktoren.6 2

Vgl. Eito, 2004.

3

Vgl. Mieze, 2004; Eito, 2004.

4

Vgl. Krcmar, 2004.

5

Vgl. Gutenberg, 1994; Bellmann 2003.

6

Vgl. Scheer/Cocchi, 2006.

IT als Befähiger in der Produktion

19

Als Betriebsmittel steht IT zum einen als eigenständiges Betriebsmittel und zum anderen in integrierter Form in anderen Betriebsmitteln dem Produktionsprozess zur Verfügung. IT steht als eigenständiges Betriebsmittel in Form der IT-Infrastruktur dem Produktionsprozess zur Verfügung. Dazu zählen die im Unternehmen vorhandene Hardware (Rechnersysteme, DesktopInfrastruktur, sonstige Endgeräte), die Telekommunikationsinfrastruktur (Leitungen, Switches, Router) sowie die Anwendungs- und Geschäftsprozess-Software. Integriert in anderen Betriebsmitteln geht IT in Form von Infrastrukturkomponenten in Robotersystemen, halb- und vollautomatischen Maschinen, Steuerungssysteme, Anlagen sowie Logistik- und Transportsystemen ein. Mit zunehmender Vernetzung der Systeme wird die Grenze zwischen IT als eigenständigem Betriebsmittel und integriert in anderen Betriebsmitteln immer fließender. Die Vernetzung der Systeme selbst erfordert wiederum IT-Leistungen. Eine Abgrenzung und genaue Zuordnung wird damit immer schwieriger. Es ergeben sich Implikationen besonders für Qualitätsmanagement, Fehlermanagement und IT-Kostenrechnung. IT kann auch als Werkstoff im Produktionsprozess betrachtet werden. Dies ist dann der Fall, wenn die IT-Komponenten im Produktionsprozess verbraucht werden, weil sie als Bestandteil in das Produkt eingehen. Hierzu zählen Hardwarekomponenten, die in das Endprodukt integriert werden, Software, die entweder in das Endprodukt integriert wird oder nur für den einmaligen Verbrauch bei der Produkterstellung lizenziert ist; darüber hinaus Telekommunikationsleistungen, die dem Verbrauch unterliegen wie Leitungs- und Übertragungskapazitäten. Entsprechend der Differenzierung in Potenzialfaktoren und Repetierfaktoren nach Gutenberg gibt es beide Zuordnungsmöglichkeiten für die IT. IT in seiner Form als Werkstoff ist den Repetierfaktoren zuzuordnen. In allen übrigen Ausprägungsformen ist IT den Potenzialfaktoren zuzuordnen.

3 Entwicklungspfade der IT und der Produktion Die Erfindung des Transistors vor 50 Jahren stellte die Grundlage für den rasanten Aufstieg elektronischer Geräte wie Computer, Fernseher oder Handy dar. Begleitet wurde dieser Aufstieg von Beginn an von einer stetigen Miniaturisierung elektronischer Bauteile, die es ermöglichte, immer kleinere elektronische Bauteile in immer größeren Stückzahlen immer günstiger herzustellen.7 Dies eröffnete ständig neue Anwendungsmöglichkeiten: Angefangen von Großrechnern in den siebziger Jahren stellte die Erfindung des PC die nächste große Revolution in der IT dar, während zur selben Zeit ebenso verstärkt Elektronikkomponenten in Fahrzeuge eingebaut wurden, gefolgt von Notebooks und Mobiltelefonen in den neunziger Jahren. Der nächste große Trend wird nach Meinung von Experten die umfassende, allgegenwärtige, globale und drahtlose Vernetzung aller elektronischen Geräte darstellen. Langfristig werden diese Netzwerke über eine eigene Intelligenz verfügen und anhand vordefinierter Regeln automatisch miteinander kommunizieren. 7

Vgl. Fricke/Müller/Butscher, 2004.

20

H. Wildemann

In die Produktion hielt die IT Einzug, als es amerikanischen Technikern und Ingenieuren gelang, Bearbeitungsabläufe mit NC-Maschinen zu automatisieren. Durch die Möglichkeit, auf einer Maschine verschiedene Programme zu verwenden, ließen sich verschiedene Bauteile fertigen. Beherrschendes Prinzip dabei war die Verbesserung der Produktivität durch die Automatisierung von Bearbeitungsabläufen. Im Laufe der Zeit veränderten technische Entwicklungen bei Rechnern, Betriebssystemen, Software, Datenbanksystemen, Netzwerken und Peripheriegeräten nachhaltig die industrielle Produktion. Die Produktionsstrategie des Computer Integrated Manufacturing (CIM) setzte sich zu Beginn der 80er Jahre durch Fortschritte auf dem Gebiet der graphischen Datenverarbeitung fort, welche die Einführung so genannter Computer Aided Design (CAD) und Computer Aided Manufacturing (CAM)-Technologien ermöglichten.8 Dadurch war es das erste Mal möglich, Produkte und Produktionsprozesse vorab auf dem Rechner virtuell zu entwickeln und später in die Realität umzusetzen. In den frühen 80er Jahren ermöglichte der technologische Fortschritt die Nutzung von Robotern in der Produktion, was zu einer weiteren Steigerung der Produktivität führte. Durch Produktionsplanungs- und Steuerungssysteme (PPS) wurde es Mitte der 80er Jahre schließlich möglich, die komplette Supply Chain in den Produktionsprozess mit einzubeziehen und die Lieferanten in die betrieblichen Abläufe zu integrieren. Die Etablierung des Internets in der Produktion ab Ende der 90er Jahre ermöglichte eine noch engere und standardisierte Vernetzung zwischen den einzelnen Partnern in der Wertschöpfungskette. Mit dieser Entwicklung ist eine ständige Miniaturisierung verbunden. Die Entwicklungen zeigen, dass moderne Informationstechnologien eine der wichtigsten Grundlagen für das zukünftige Management aller Geschäftsprozesse eines Unternehmens darstellen.9 Mit ihrer Hilfe können neue Geschäftsmodelle und Wertschöpfungspotenziale wie beispielsweise Betreibermodelle im industriellen Anlagenbau erschlossen werden.10 InternetTechnologien können in vielen Bereichen der Logistikkette zur Potenzialsteigerung beitragen: Internet-Kanban, E-Sourcing, Produktionsplanungs- und -steuerungssysteme sowie Collaborative Planning and Forecasting sind nur einige der weitläufigen Anwendungsfelder.

4 Der Einsatz von IT in der Produktion IT fließt in alle Gestaltungsbereiche der Produktion ein. Nachdem zunächst die Hardware einen großen Anteil der IT-Investitionen darstellte, sind dies verstärkt auch Telekommunikationsund IT-Dienstleistungen. Dabei bestimmt sehr häufig die eingesetzte Software – entweder im Produkt selbst oder im Produktionsprozess – den Wert des hergestellten Gutes und damit die Differenzierung zu Konkurrenzprodukten.11 Der hohe Anteil der IT-Dienstleistungen an den IT-Ausgaben unterstreicht den Trend zu Individualisierung und ausgelagerten IT-Funktionen und Dienstleistungen. 8

Vgl. Wildemann, 1986; Wildemann, 1990.

9

Vgl. Wildemann, 2000.

10

Vgl. Wildemann, 2003a.

11

Vgl. bmb+f, 2004.

IT als Befähiger in der Produktion

21

IT fließt in die folgenden Gestaltungsbereiche des Produktionsprozesses ein: • Produktionsmanagement, • Standortmanagement, • Sonstige Unternehmensfunktionen wie Einkauf, Forschung und Entwicklung, Administration und Vertrieb, • Produktionssubsysteme wie Materialfluss und Logistik, Maschinen und Anlagen, Mitarbeiter und Organisation, Planung und Steuerung sowie Qualitätssicherung. Die folgende Betrachtung fokussiert auf die Bereiche mit dem höchsten technologischen Innovationsbedarf und auf die aussichtsreichsten Technologien hinsichtlich ihres Verbreitungspotenziales. Die IT-Innovationen mit den stärksten Auswirkungen auf die Gestaltungsbereiche der Produktion sind die Mobilfunktechnologie, die Breitbandtechnologie, Information Lifecycle Management (ILM), Radio Frequency Identification (RFID), Biometrie, Open Source Software und Supply Chain Management-Systeme.12 Die Einflussgrößen bei der Gestaltung von IT-Systemen können sich je nach Anwendungsfall erheblich unterscheiden. Neben der Berücksichtigung marktseitiger Entwicklungen hat auch die Umsetzung technologischer Innovationen hinsichtlich der Produkte sowie der Fertigungstechnik maßgeblichen Einfluss auf die aktuellen Anforderungen an die Gestaltung von IT-Systemen. Produktionsmanagement IT findet Eingang in das Produktionsmanagement, das die gesamte Prozesskette der Leistungserstellung integriert betrachtet. Die IT ist hierbei insbesondere in Informationssysteme zur strategischen Entscheidungsunterstützung integriert. Im Wesentlichen zählen hierzu: • Management Information Systems (MIS), • Customer Relation Management (CRM), • Customer Value Management (CVM) und • Product (Life Cycle) Management (LCM). Diese Systeme sind mittlerweile soweit ausgereift, dass sie eine Darstellung der Kunden, Produkte, Wertschöpfungskette und finanziellen Unternehmenssituation ermöglichen. Die Innovationen bei diesen Systemen sind moderat. Insbesondere wurden seitens der IT-Dienstleister und Unternehmensberatungen umfangreiche MIS-, CRM- und CVM-Systeme diskutiert, die hohe Potenziale aufweisen sollten, jedoch ebenso hohe Investitionskosten (> 100 Mio. EUR) aufwiesen.13 Die Güte der Information aus diesen Systemen ist jedoch in starkem Maße von den Inputdaten abhängig. So zeigt sich gerade im Bereich CRM, dass die Inputdaten (Kundenhistorie, Nutzungsverhalten) häufig eine unzureichende Qualität aufweisen und daher die Potenziale komplexer und teurer CRM-Systeme nur unzureichend genutzt werden können. Diese Erkenntnis führte zum Entstehen sehr einfach strukturierter Systeme mit Fokus auf wenigen Kennzahlen, vergleichsweise niedrigen Investitionskosten und damit kurzen „Return on Investment“Zeiten. Diese Systeme zur strategischen Entscheidungsunterstützung und -findung liefern Entscheidungshilfen. Die unternehmerischen Entscheidungen selbst und die Kopplung und 12

Vgl. Bullinger 2006; Heng 2004.

13

Vgl. Feldhusen/Gebhardt, 2007; Bellmann/Himpel 2006a.

22

H. Wildemann

Verarbeitung der bereitgestellten Informationen mit der Unternehmensstrategie können diese Systeme nicht liefern. Dieser Aspekt wurde von vielen Unternehmen in der Vergangenheit falsch eingeschätzt.14 Unter ERP-Systemen versteht man ganzheitliche, prozessorientierte Softwarelösungen, die den betriebswirtschaftlichen Ablauf steuern, kontrollieren und auswerten. Die Basisfunktionalität ist bereits sehr umfassend. ERP-Systeme greifen dabei in die Abteilungen Produktion, Vertrieb, Logistik, Personal, Verwaltung etc. ein und bilden die Basis für eine Vielzahl weiterer Managementprogramme. ERP-Lösungen versuchen Informationsflüsse wie z. B. Kapital, Produktion oder Input/Output im Unternehmen als Ganzes zu erfassen und abzubilden.15 Weitere Aufgaben sind beispielsweise das Aufdecken von Engpässen sowie die Analyse der optimalen Auslastung sämtlicher Ressourcen wie Personal, Kapital, Material, Maschinen. Heute verwenden viele ERP-Systeme Zusatzsysteme (sog. APS = Advanced Planning Systems), die z. B. Auftragszeitberechnung und Planung (engl. Finite Scheduling) anstelle der fixen Laufzeiten in die ERP-Systeme einfüttern. Dies kollidiert aber mit der beschränkten Einsicht in die tatsächlich verfügbaren Kapazitäten und erhöht die Komplexität der Systeme erheblich. Eine endgültige Lösung für das Materialplanungsproblem stellen ERP-Systeme also nicht dar. Standortmanagement Die Produkt- und Prozessinnovationen der IT ermöglichen weltweit vernetztes Arbeiten mit geringen Transaktionskosten und haben damit erheblichen Einfluss auf das Standortmanagement. Wesentliche Treiber sind dabei die fortentwickelten Mobilfunktechnologien, VoIP, UMTS sowie die Internet-Breitbandtechnologien. Für große Unternehmen mit weltweit verstreuten Standorten reduziert die Internettelefonie VoIP – deren Voraussetzung zumindest ein DSLAnschluss ist – die Telefonkosten um durchschnittlich 20–30 Prozent. Breitband-Internettechnologie ermöglicht diesen international operierenden Konzernen die dezentrale Speicherung und Verwaltung von Daten über eine Vielzahl von Standorten hinweg. Mit diesen Technologien lassen sich weltweit integrierte Anwendungen realisieren und führen zu einer konsistenten Datenhaltung in einem System.16 Mit der Internet-Breitbandtechnologie lassen sich innovative Konzepte wie das Information Lifecycle Management (ILM), dessen Kern die zentrale Verwaltung dezentraler Speicherkapazitäten beinhaltet, realisieren. Sie vermindern Redundanzen und führen zu erheblichen Kosteneinsparungen. Gegenüber Cap Gemini Ernst & Young geben 90% der deutschen Unternehmen an, in ILM den besten Weg bei der Nutzung von Konzernressourcen zu erkennen.17 Unterstützende Unternehmensfunktionen IT fließt in hohem Maße auch in die unterstützenden Unternehmensfunktionen Einkauf, F&E, Administration und Vertrieb ein. IT-getriebene Prozess- und Produktinnovationen zeigen sich besonders im Einkauf und der F&E. 14

Vgl. Bellmann, 2006.

15

Vgl. Wildemann, 2007.

16

Vgl. DB Research 2004.

17

Vgl. Thome, 2007; Heng 2004.

IT als Befähiger in der Produktion

23

Im Bereich F&E konnten signifikante Fortschritte bei der Zusammensetzung und Zusammenarbeit von Entwicklungsteams sowie bei der virtuellen Prototypensimulation erzielt werden. Entwicklungsteams arbeiten heutzutage international vernetzt und unternehmensübergreifend zusammen. Kelly umschreibt das Verschwinden der Bedeutung räumlicher Distanz vor dem Hintergrund der New Economy kurz und bündig mit „Geography is dead“.18 Picot drückt dies moderater aus und spricht von reduzierter Bedeutung identititätsbildender Unternehmensmerkmale wie administrative, finanzielle und soziale Grenzen sowie physische Standortbeschaffenheit.19 Die Teammitglieder arbeiten an verschiedenen Standorten und kommunizieren über standardisierte Informations- und Kommunikationsplattformen und Lösungselemente (Programmbausteine, Katalogteile, Maschinenbauelemente) miteinander. Im Einkauf konnten in den letzten zehn Jahren durch Innovationen wie Purchasing Cards, Online Broker, elektronische Ausschreibungen, Online-Auktionen, Online-Kataloge, WebParks und elektronische Einkaufsmarktplätze erhebliche Effizienzgewinne realisiert werden. ITunterstützte Komponentenwettbewerbe zwischen Zulieferern sowie eine stärkere internationale Ausrichtung des Einkaufs via Internettechnologien führten zu Kosteneinsparungen im Bereich von 25–40%.20 Bei der Prototypenerstellung können heute mit Hilfe komplexer Graphik- und Simulationsprogramme geometrisch angenäherte Prototypen dargestellt werden – in Kürze werden diese Darstellungen sehr nah an das Endprodukt reichen. Entwicklungsumgebungen verfügen zunehmend über eingebettete Software, Methoden-Baukästen mit neuen rechnerunterstützten Modellierungs- und Analysewerkzeugen und sind objektorientiert aufgebaut. Die Einbettung und die Methoden-Baukästen vermindern den Anpassungsaufwand an unternehmensindividuelle Anforderungen und erhöhen die Entwicklungsgeschwindigkeit.21 Materialverwaltung und Logistik Die Entwicklung der Informationstechnologie hat wesentlich zur Innovation im Bereich Supply Chain Management beigetragen. Fokussierten MRP-Systeme der 80er Jahre auf einzelne Prozesse, umfassten ERP-Systeme der 90er Jahre bereits sämtliche Unternehmensprozesse. Mit den deutlichen Leistungssteigerungen der IT-Systeme können heutzutage bereits ganze Wertschöpfungsnetzwerke digital abgebildet werden. Bei Logistiksystemen wurden Tracking- und Tracingsysteme entwickelt, die eine Nachvollziehbarkeit von Material und Ware im Produktions- und Distributionsprozess für Kunden und Lieferanten, zumeist auf Basis von Internettechnologien, ermöglichen. In der Materialwirtschaft erleichtern mobile Endgeräte die Erfassung der Bestände in Lägern und Überführung in ERPSysteme via Funkterminals und Funk Access Points. Die effiziente Gestaltung des Leistungserstellungsprozesses wird wesentlich durch die IT-Unterstützung bestimmt. Sie bewirkt durch Parallelisierung und Dezentralisierung von Prozessen deren Beschleunigung und Rationalisierung. Die elektronische Vernetzung entlang der 18

Vgl. Kelly, 1998.

19

Vgl. Picot, 1996.

20

Vgl. Wildemann, 2001.

21

Vgl. Wildemann, 2003b.

24

H. Wildemann

Prozesskette bindet im Zeitalter leistungsfähiger Internettechnologien kurzfristig EngineeringDienstleister, Lieferanten sowie Kunden in den Geschäftsprozess ein. „E-Manufacturing“ ermöglicht eine standort- und unternehmensübergreifende, integrierte Planung und Steuerung der Produktion hinsichtlich der Prozesse als auch der Produktionsanlagen auf allen Ebenen der Fabrik. Unterschiedlichste Konzepte optimieren dabei die Prozesse im Bereich Beschaffungsund Produktionslogistik unter Nutzung von E-Technologien. Beispiele hierfür sind E-KanbanLösungen, SCM-Systeme, APS-Konzepte, Sendungsverfolgungssysteme sowie Supply Chain Event Management-Ansätze.22 Großunternehmen und Mittelständler halten E-Manufacturing nicht für eine Modeerscheinung, sondern erkennen darin ein bemerkenswertes Zukunftspotenzial. Unternehmen erhoffen sich von der elektronischen Verknüpfung ihrer Kunden- und Lieferantensysteme mit den Produktions- und Lieferketten eine bessere Kundenorientierung, eine größere Transparenz der innerbetrieblichen Abläufe, eine höhere Planungsgenauigkeit und einen leichten Zugriff auf aktuelle Maschinendaten. Auf Zellenebene wird das Ziel verfolgt, eine vollständige, weltweit einheitliche Datenerfassung durch die Anwendung von Smartcard-Systemen, WLAN und RFID-TransponderTechnologien zu erreichen. Der Einsatz von Etiketten mit hoher Informationsdichte und vielen dezentralen Lesegeräten ermöglicht die Realisierung des Wunsches nach der Synchronisation von Material- und Informationsfluss.23 Abgesehen vom hohen Preis für die Umstellung und möglichen Schnittstellenproblemen in der Einführungsphase überwiegen die Vorteile dieser neuen Technik. Auch ohne Sichtkontakt ist bei diesen Systemen eine zuverlässige Identifikation möglich. Die Lesbarkeit ist von allen Seiten gegeben und die Lesegeräte können an jedem Ort flexibel positioniert werden. Außerdem ist die hohe Robustheit der Transponder ein weiterer Pluspunkt. Die technische Bandbreite von RFID reicht von passiven Labels für die Identifikation von Waren bis hin zu Minicomputern in Streichholzschachtelgröße, die aktiv miteinander kommunizieren. Besonders diese Eigenschaft empfiehlt solche aktiven Transponder für Anwendungsbereiche mit hohen Anforderungen an eine permanente Identifikationsfähigkeit. Als Nebeneffekt lässt sich hiermit auch eine Verbesserung des Schutzes vor Produktpiraterie erreichen.24 Maschinen und Anlagen Bei Maschinen und Anlagen findet IT insbesondere in den Steuerungsbereich Eingang durch verteilte Steuersysteme (DCS) und speicherprogrammierbare Steuerungen (SPS). Diese Steuerungen führen logische Operationen wie das sequenzielle Anfahren und Stoppen von Motoren, die Regelung von Verfahren zum Mischen von Batchprodukten und ganz allgemein die Verarbeitung von auf Maschinenebene generierten Signalen aus. Kürzere Produktlebenszyklen und die Globalisierung erfordern jedoch eine fortschreitende Flexibilisierung der Produktion hinsichtlich Automatisierungsgrad, Umrüstbarkeit, Anpassbarkeit, Erweiterbarkeit und Verlagerbarkeit – bei gleichzeitig sinkenden Kosten und problem22

Vgl. Wildemann, 2005.

23

Vgl. Bullinger, 2006.

24

Vgl. Wildemann et al., 2007.

IT als Befähiger in der Produktion

25

loser Wartung. Darüber hinaus erfordern sie eine Reduktion von diskontinuierlichen Entwicklungen.25 Diskontinuierliche Entwicklungen liegen genau dann vor, wenn mit der Einführung einer neuen Produktionsanlage bzw. -abfolge die zugehörigen Unternehmensorganisationen, Prozesse und IT-Systeme nicht gleichzeitig mit Auftreten der auslösenden Strukturveränderung angepasst werden können. Anders gesagt: Häufig sind die IT-Systeme der Engpass, können nicht ausreichend schnell angepasst werden und sind daher der Grund für diskontinuierliche Entwicklungen und erhebliche Zeitverzögerungen. IT-Tools zur Produktionsstrukturierung unterstützen die Planung und Formulierung von Produktionsaufgaben. Typische Einsatzfelder sind beispielsweise die Produkt- und Teilfamilienbildung, Zuordnung von Produkt- und Teilefamilien zu Betriebsmittelgruppen sowie die Bildung von Produktbereichen. Mit einer stärkeren Modularisierung kann die geforderte Flexibilisierung sukzessive erreicht werden. Hierzu ist eine Modularisierung der Maschinen- und Anlagen selbst, z. B. durch modulare Ein- und Ausgänge mit integrierten austauschbaren Anschlüssen, erforderlich. Gleichzeitig ist aber auch eine Modularisierung der Systemsoftware erforderlich. Flexibilisierung in der Produktion, d. h. Montage und Demontage wird hier durch einen höheren Standardisierungsgrad der genutzten Software, durch objektorientiert aufgebaute Software mit wieder verwendbaren Softwarebausteinen sowie durch standardisierte IT-Einführungsprozesse stark unterstützt. Im Bereich der Wartung wurden ebenfalls Fortschritte erzielt. Moderne Telekommunikationstechnologien ermöglichen es, Maschinen und Anlagen über beliebige Distanzen hinweg vom Hersteller zu warten. Von diesen Innovationen profitieren KMU besonders, da Märkte erschlossen werden können, in die sich der Markteintritt auf Grund des teuren Aufbaus eines Serviceund Wartungsnetzwerkes nicht lohnte. IT-Tools zur Bereichs- und Arbeitsplatzgestaltung unterstützen die detaillierte Ausgestaltung der Produktion. Typische Anwendungsfelder sind dabei die Gestaltung gesamter Bereichslayouts, des Materialflusses, der Fördertechnik sowie der Austaktung. Die Detailplanung einzelner Arbeitsplätze, die Anordnung von Montageplätzen und Maschinen sowie deren Untersuchung auf Ergonomie sind weitere Aufgaben derartiger IT-Tools.26 Ein Kernelement stellt dabei das sog. Digital Mock-Up (DMU) dar, welches ein digitales Versuchsmodell, das die Produktstruktur (Baugruppen, Einzelteile) und deren lagerichtige Geometrie eines Produktes repräsentiert, bezeichnet. Hierdurch kann eine Vielzahl von Untersuchungen wie Ein- und Ausbauuntersuchungen, Kollisionsprüfungen sowie Baubarkeitsprüfungen ausgeführt werden. Die Funktionalität von Softwarelösungen zur Anlagensimulation umfasst den Daten-Transfer mit CAD-/CAM-System, 3D-Visualisierungen, statische und dynamische Kollisionserkennung sowie die Bereitstellung von Roboter- und Werkstückbibliotheken. Die Simulationsmodelle können somit direkt als Basis für die automatische Programmierung von Robotern eingesetzt werden.27 Mitarbeiter und Organisation Im Bereich Mitarbeiter und Organisation sind die stärksten IT-getriebenen Innovationen auf den Gebieten Kommunikation, Sicherheit und Open Source Software vorzufinden. Die Innovatio25

Vgl. Wildemann, 1987.

26

Vgl. Westkämper, 2006.

27

Vgl. Bullinger, 2002.

26

H. Wildemann

nen im Bereich der Mobilfunk- und Breitbandtechnologien führen zu erheblichen Produkt- und Prozessinnovationen in den Anwendungen und der Datenkommunikation. Wireless Local Area Networks (WLAN) unterstützen im lokalen Umkreis bis zu 500 m das mobile Arbeiten von Mitarbeitern. Sobald die mobilen Lösungen in die bestehenden IT-Unternehmensstrukturen integriert sind, können die Kundenbetreuung, Vertrieb, Auftragsplanung und Rechnungsstellung unter Zugriff von zentralen Datenbanken über mobile Endgeräte standortunabhängig erfolgen. Mit zunehmender Konvergenz und Integration der IT-Technologien sowie unternehmensübergreifender Produktionsvernetzung sind neben organisatorischen Sicherheitskonzepten auch höhere Anforderungen im Bereich der IT-Sicherheit zu bewältigen.28 Dabei bestimmen primär die alltäglichen Arbeitsabläufe, ein sicherer Datenverkehr sowie die Authentifizierung der Geschäftspartner das Sicherheitsniveau des Systems. Vertraulichkeit und Integrität der Information bei der Datenübermittlung sind zentrale Geschäftsgrundlage. Im Bereich Identifizierung und Authentifizierung von Kunden, Mitarbeitern oder Geschäftspartnern entwickelt sich die Biometrie stetig voran und steht kurz vor dem Durchbruch in den Massenmarkt. Biometrische Verfahren werden in Unternehmen (Geldwesen, Pharma, Medizin und Chemie) bereits großflächig bei Zugangskontrollen zu stark sicherheitssensitiven Produktionsbereichen eingesetzt. Im Bereich der Software zeigt sich ein Trend zu Open Source Software. Open Source Software folgt bei der Entwicklung einem dezentralen Ansatz ähnlich dem Grid Computing und ist kostengünstiger als kommerzielle Software. Open Source Software ist lizenzgebührenfrei – Kosten entstehen für Dokumentation, Supportleistungen oder Individualisierungen. Schwerpunkte des Einsatzes sind die Bereiche Serverbetrieb, aber auch Desktop-Anwendungen und Desktop-Betriebssysteme. Open Source Software ist auf Grund der niedrigeren Kosten mittlerweile in vielen Unternehmen integriert – Tendenz ansteigend.29 Sektoren mit starker Verbreitung sind die Industrie, der Handel, die Telekommunikation sowie der öffentliche Sektor. Auch im Bereich der Personalplanung rückt bedingt durch immer flexiblere Personalkonzepte die Simulation immer mehr in den Vordergrund. Durch eine simulationsgestützte Bewertung unterschiedlicher Konzepte können Qualifikations- und Ressourcenengpässe analysiert und wirtschaftlich optimale Lösungen gefunden werden. Auswirkungen und Potenziale aus der Flexibilisierung von Arbeitszeiten werden durch die Abbildung in einem Simulationsmodell transparent und bewertbar.30 Planung und Steuerung IT-Systeme sind nicht nur im operativen Geschäft unverzichtbar, bereits in der Planungsphase von komplexen Logistiknetzen benötigt man Instrumente, die Anhaltspunkte über die künftig zu erwartende Kostensituation geben. Die Notwendigkeit einer integrierten Sicht auf das Unternehmen hat in den letzten Jahren das Thema Supply Chain Management (SCM) entstehen lassen.31 Wesentliches Ziel ist die Reduktion von Pufferbeständen im Produktionsprozess. Die 28

Vgl. Söllner, 2006.

29

Vgl. Mauch/Wildemann, 2006a.

30

Vgl. Brumberg/Hüttemann, 2002.

31

Vgl. Christopher, 2007.

IT als Befähiger in der Produktion

27

derzeitig noch vergleichsweise einfach strukturierten SCM-Systeme konzentrieren sich auf die Aggregation von Daten aus den ERP-Systemen. Sie bleiben damit deutlich hinter den Erwartungen der letzten Jahre zurück und sind noch weit entfernt von integrierten Systemen, die eine ganzheitliche Sicht auf die Wertschöpfungskette ermöglichen sollen.32 Es bleibt zu zeigen, inwiefern überhaupt komplexe Produktionssysteme zentral geplant werden können und die dafür erforderlichen Planungsinformationen seitens der Lieferanten zur Verfügung gestellt werden können. Weitaus realistischer erscheinen in diesem Zusammenhang die neuerdings diskutierten Supply Net Simulation (SNS) Systems, die mit Hilfe von Szenariotechnik versuchen, die Gesamtprozesse der Supply Chain auf Basis von Vergangenheitsdaten zu simulieren.33 In der Produktion zeigt sich ein Trend über die Unternehmensgrenzen hinweg zu virtuellen Fabriken und Wachstumsstrategien über Kooperationsnetzwerke (Leveraged Growth).34 In der Informationswirtschaft wird dieser Trend als Cooperative Commerce bezeichnet.35 Dabei werden verstärkt ganze Teile der Produktion ausgelagert. Die Potenziale dieser neuen Produktionsformen werden hoch beziffert, sind aber nur dann zu realisieren, wenn die Integration und der Austausch von Kooperationspartnern in der Produktion sowie der Datenaustausch zwischen den Kooperationspartnern vergleichsweise einfach funktioniert – also die entsprechenden Transaktionskosten gering sind. Die virtuelle Fabrik bedient sich im Bereich der Produktentstehung etablierter Methoden und Systeme wie dem Computer Aided Design (CAD) und dem Produktdatenmanagement (PDM). Verfahren zur Prozessmodellierung- und -simulation, zur Fabriksimulation und zur Maschinen-, Anlagen- und Steuerungssimulation ermöglichen in Kombination mit Virtual Reality (VR) die Erzeugung einer virtuellen dreidimensionalen Realität, in der sich der Mensch intuitiv bewegen kann. Mittels „Force-Feedback-Systemen“ kann diese virtuelle Realität um haptische oder kinästhetische menschliche Empfindungen erweitert werden, so dass der Mensch beispielsweise Widerstände von Werkstücken fühlen kann. Das Konzept der virtuellen Fabrik ist besonders für Branchen geeignet, die ein hohes Maß an Flexibilität benötigen.36 Neben der Automobilindustrie, die bei der Umsetzung der virtuellen Fabrik eine Vorreiterrolle innehat, wird dem Konzept in der Luft- und Raumfahrt, der Elektrotechnik und dem Maschinen- und Anlagenbau eine große Bedeutung beigemessen.37 Eine durchgängige und integrierte Virtualisierung der kompletten Produkt- und Prozessentstehung wird nach Einschätzung von Experten in fünf bis 15 Jahren Realität sein. Alle deutschen Automobilhersteller messen der digitalen Fabrik eine zentrale Bedeutung zu und betreiben auch die konkrete Umsetzung. Die Umsetzung der digitalen Fabrik ist dabei weniger ein IT-Thema als vielmehr ein Prozessthema. Bevor spezifische Software-Tools implementiert und integriert werden, müssen bestehende Methoden und Prozesse optimiert und standardisiert werden, Organisationsstrukturen angepasst und bestehende Datenbestände integriert werden. 32

Vgl. Wildemann, 2003.

33

Vgl. Baumgärtl, 2004.

34

Vgl. Hagel, 2003.

35

Vgl. Krcmar, 2004.

36

Vgl. Reinhart, 2000.

37

Vgl. Fricke/Müller/Butscher, 2004.

28

H. Wildemann

Qualitätssicherung Im Kern ist Qualitätssicherung in der Produktion kein sehr IT-bezogenes Thema. Unter Qualitätssicherung wird die Sicherung eines definierten technischen Ergebnisses durch Überwachung des Produktionsprozesses bezeichnet. Die Qualitätssicherung erfolgt im Wesentlichen durch organisatorische Prozesse – wie beispielsweise die Normierung der Qualität sowie durch die Auditierung und Zertifizierung des Produktionsprozesses. Der Qualitätserreichungsgrad wird durch Messverfahren festgestellt und diese erfolgen häufig unter Zuhilfenahme von ITSystemen. Der erforderliche Technologiegrad dieser Systeme ist jedoch niedrig. Die Innovationen in diesem Bereich waren in den letzten Jahren übersichtlich.38 Mit dem zunehmenden Einsatz von IT in der Produktion, der stetig steigenden Integration der Informations- und Produktionssysteme sowie der unternehmensübergreifenden Vernetzung gewinnt IT im Kontext der Qualitätssicherung eine neue Bedeutung. Die zunehmende Integration der IT in der Produktion erfordert eine verbesserte Qualitätssicherung der IT selbst und der IT-Prozesse, insbesondere im Bereich der Dokumentation. Die zunehmende Integration der Informations- und Produktionssysteme führt zu einer höheren Systemanfälligkeit, schwierigeren Schwachstellenidentifikation und damit erhöhten Qualitätssicherungsanforderungen. Der Begriff „Totally Integrated Automation“ beschreibt hierbei ein hierarchisch aufgebautes Prozessleitsystem, das von der Leitebene bis hinunter zur Feldebene gegliedert ist. Die unternehmensübergreifende Vernetzung der Produktion erfordert zunächst eine organisatorische Qualitätssicherung durch Service Level Agreements (SLA) sowie Überprüfung durch informationstechnologisch gestützte Systeme und Verfahren. SLA bezeichnet eine Vereinbarung zwischen Auftraggeber und Dienstleister, die wiederkehrende Dienstleistungen für den Auftraggeber in den Kontrollmöglichkeiten transparenter gestaltet, indem zugesicherte Leistungseigenschaften wie etwa Reaktionszeit, Umfang und Schnelligkeit der Bearbeitung genau beschrieben werden. Wichtiger Bestandteil ist hierbei die Dienstgüte, der sog. Servicelevel.39 Die aufgezeigten Beispiele zeigen, dass erheblicher Innovationsbedarf im Bereich IT und Qualitätssicherung besteht. Die erforderlichen Verbesserungen sind aber vor allem im Bereich der Organisation und dadurch weniger im Bereich der Technologie zu suchen.40

5 Potenziale des IT-Einsatzes in der Produktion Die Einführung der IT in der Produktion birgt eine Vielzahl unterschiedlicher Potenziale. Sie hat zu neuen Produktionsprozessen und -verfahren, zur Reorganisation von Wertschöpfungsschritten und zu neuen Formen der Zusammenarbeit mit Kunden und Lieferanten geführt. Insgesamt hat sich die Effizienz der Produktion erheblich erhöht. Durch IT-gestützte Innovationen kann: • das Innovationspotenzial durch Simulationstechniken in der Entwicklung erhöht werden und Produktentwicklungszeiten reduziert werden, 38

Vgl. Kamiske/Brauer, 2005.

39

Vgl. Mauch/Wildemann, 2006a.

40

Vgl. Wildemann, 2006.

IT als Befähiger in der Produktion

29

• die Inbetriebnahme von neuen Produktionssystemen beschleunigt werden, • die Installations- und Deinstallationszeit von Produktionsanlagen- und -komponenten reduziert werden, • die Auftragsdurchlaufzeit reduziert werden, • die Ausfallzeit von Produktionsanlagen reduziert und die Wiederinbetriebnahme beschleunigt werden, • die Integration von Lieferanten wettbewerbsintensiver in die Sourcing-Prozesse erfolgen, • die Integration von Kunden in die Vertriebsprozesse kundenfreundlicher erfolgen und • die Integration von Kunden und Lieferanten in den Produktentstehungsprozess einfacher erfolgen. In welchem Umfang ein Unternehmen die aufgezeigten Potenziale der IT realisieren kann, wird dabei wesentlich durch seine Management- und Innovationsfähigkeiten bei Produkten, Geschäftsmodellen und Technologien bestimmt.

6 Entwicklungen und Fazit In den kommenden Jahren erfolgt bei der nahtlosen, durchgängigen, mobilen Kommunikation mittels der Mobilfunktechnologie Worldwide Interoperability for Microwave Access (WIMAX) ein Quantensprung. Mit einem Zelldurchschnitt von 50 km bei Übertragungsraten von 70 Mbit/s löst WIMAX zwei Probleme: Zum einen müssen auf Grund der geringen Reichweite der Zelle bei WLAN die Daten derzeit noch häufig in die terrestrischen DSL-Netze übergeben werden – dabei entstehen viele Schnittstellenprobleme. Zum anderen sind die DSL-Netze gerade in ländlichen Regionen nicht flächendeckend ausgebaut. Zusammengefasst bringt WIMAX flächendeckend hohe Übertragungsraten mit niedrigerer Fehleranfälligkeit. WIMAX bildet damit die Voraussetzung zur Erschließung von kostengünstigen Produktionsstandorten in Nicht-Ballungsräumen bzw. ermöglicht gerade für KMU in ländlichen Gebieten eine effiziente Produktion mit State-of-the-Art-Technologien. Fernwartung und -steuerung, die lückenlose Überwachung von Maschinen bis hin zur Idee der vernetzten Fabrik werden einfach realisierbar. Standorte und Maschinenparks gewinnen an Flexibilität. Fingerzeig statt Fernbedienung wird die Form der Mensch-Maschine-Interaktion der Zukunft sein. Experten rechnen mit ersten Einsatzformen in fünf bis zehn Jahren. Bei dieser intuitiven Form der Kommunikation wird angestrebt, dass zukünftig Maschinen und Anlagen mittels Gestik, Mimik und Sprachsteuerung bedient werden können. Sie überwinden damit das Problem der immer schwieriger werdenden Bedienbarkeit von technischen Neuerungen und damit ständig vorhandenen Lernanforderung an den Bediener in seinen unterschiedlichen Rollen.41 Und umgekehrt sollen Roboter nicht mehr isoliert in Produktionshallen „vor sich hinarbeiten“, sondern mittels integrierter Gestik und Sprachsteuerung den Menschen bei seiner Arbeit unterstützen. Einsatzbereiche von intuitiven Kommunikationsformen werden sich künftig von Service-Robotern bis hin zu intelligenten Produktionsanlagen erstrecken.42 Bei der digitalen Fabrik erfolgt eine komplette virtuelle Planung von Produkt und Produktionsprozess am PC. Entwicklungszeiten und Fehler in der Produktion durch falsche Konzep41

Vgl. Bullinger, 2007.

42

Vgl. Fricke/Müller/Butscher, 2004.

30

H. Wildemann

tion lassen sich durch die simulierte Produktion im Rahmen der digitalen Fabrik signifikant reduzieren. Experten gehen davon aus, dass die vollständige Umsetzung der digitalen Fabrik in 5 bis 15 Jahren Realität sein wird.43 Bei der optimalen Prozesskopplung werden bisher nacheinander geschaltete Prozessschritte mittels IT integriert und führen in der Vision zu einem „Fließprozess“ ohne Liegezeiten. Dabei werden bisher sequenziell auf mehreren Maschinen ablaufende Einzelprozesse parallelisiert oder hinsichtlich ihrer Interaktion optimiert. So kann beispielsweise die in einem Arbeitsschritt erzeugte Wärme für den nächsten Schritt indirekt genutzt werden. Darüber hinaus werden komplexe physikalische Prozesse, die bisher nicht wirtschaftlich in die Produktion eingebunden werden konnten (wie z. B. Plasma- oder Wärmebehandlung) in den Produktionsprozess integriert.44 Die Potenziale der optimalen Prozesskopplung liegen in reduzierten Durchlaufzeiten und Herstellungskosten. Der Realisierungszeitraum ist mit einem Zeithorizont von 15 bis 20 Jahren einzuschätzen. Diese Entwicklung wird durch die Vernetzung autonomer, intelligenter Agentensysteme fortgesetzt, die im Sinne des Holonic Manufacturing eigenständig miteinander kommunizieren. Holonische Strukturen beinhalten insbesondere Aspekte wie Dezentralität und Kooperation. Sie sollen im Ergebnis ein ausgeglichenes Verhältnis von Stabilität einerseits und Flexibilität andererseits gewährleisten. Diese neue Technologie ist ein viel versprechender Ansatz zur Umsetzung des Strukturierungsparadigmas „Holonic Manufacturing“.45 Um gute IT-bezogene Effizienz- und Effektivitätsratios zu erzielen, müssen die IT-Investitionen auf Basis einer umfassenden Kosten-Nutzen-Analyse und zum richtigen Zeitpunkt getätigt werden. Die Einführung neuer IT-Systeme gilt als eine der teuersten, komplexesten und zeitintensivsten Aufgaben, die eine Unternehmung verfolgen kann. Die hohen Investitionsvolumina und hohe Unsicherheiten führen zur erhöhten Bedeutung der Wirtschaftlichkeitsanalysen für IT-Investitionen. Sowohl in der Praxis als auch in der Wissenschaft werden die Wirtschaftlichkeitsanalysen als eines der wichtigsten ungelösten Probleme im Bereich des Informationsmanagements angesehen. Bei der Anwendung der in der Praxis existierenden Wirtschaftlichkeitsanalyseverfahren auf IT-Investitionsprojekte sehen sich die Unternehmen mit dem Defizit an erprobten methodischen Vorgehensweisen und gravierenden Quantifizierungsproblemen vor allem des Nutzens solcher Projekte konfrontiert. Darüber hinaus ist Stetigkeit im Handeln erforderlich, was auch bedeutet, IT-Investitionen nicht unnötig herauszuzögern oder gänzlich zu unterlassen. Viele Ineffizienzen hätten vermieden werden können, wenn die Unternehmen, die Ende des letzten Jahrhunderts weitgehend unreflektiert in IT investiert und darauf folgend sich in den letzten drei Jahren „tot gespart“ haben, dieser Frage frühzeitig gestellt hätten.46 Im Bereich F&E konnten signifikante Fortschritte bei der Zusammensetzung und Zusammenarbeit von Entwicklungsteams sowie bei der virtuellen Prototypensimulation erzielt werden. Entwicklungsteams arbeiten heutzutage international vernetzt und unternehmensübergreifend zusammen. Der Einsatz einzelner Methoden der digitalen Fabrik nimmt zu und hilft, Produkt43

vgl. Dowidat, 2002

44

vgl. bmb+f, 2004

45

vgl. Krallmann/Albayrak, 2002

46

vgl. Pritsch/Gushurst, 2006

IT als Befähiger in der Produktion

31

anläufe virtuell vorauszuplanen, zu simulieren und mögliche Schwierigkeiten oder Fehlerquellen frühzeitig zu identifizieren und zu vermeiden. Mit ähnlichen Werkzeugen lassen sich spätere Produktionsabläufe entwickeln und simulieren. Damit ist eine direkte Rückkopplung in die Entwicklung möglich und die produktionsgerechte Produktgestaltung wird zum Muss. Literatur Baumgärtl, H. (2004): Gestaltung effizienter Supply Net Prozesse unter Einbeziehung menschlichen Entscheidungsverhaltens und komplexer IT-Systeme. Vortrag anlässlich des 2. Wissenschaftssymposiums Logistik. Bundesvereinigung Logistik, Berlin. Bellmann, K./Himpel, F. (2006a): Operations Management – das industrielle strategisch-taktische und operative Produktionsmanagement, Wiesbaden. Bellmann, K. (2003): Grundlagen der Produktionswirtschaft, 3. Aufl., Edingen. Bellmann, K./Himpel, F. (2006): Fallstudien zum Produktionsmanagement, Wiesbaden. bmb+f, Bundesministerium für Bildung und Forschung (2004): Rahmenkonzept „Forschung für die Produktion von morgen“, Berlin. Brumberg, C./Hüttemann, A. (2002): Flexible Personalstrukturen – Variable Arbeits- und Organisationsstrukturen im e-Business, München. Bullinger, H.-J. (Hrsg.) (2007): Technologieführer – Grundlagen, Anwendungen, Trends, Berlin. Bullinger, H.-J. (Hrsg.) (2006): Internet der Dinge – Selbststeuernde Objekte und selbstorganisierende Systeme, Berlin. Bullinger, H.-J. (2002): Technologiemanagement – Forschen und Arbeiten in einer vernetzten Welt, Berlin (u. a.). Carr, N. G. (2003): It doesn’t matter. In: Harvard Business Review, 2003, Vol. 81, T. 5, S. 41–59. Christopher, M. (2007): Supply Chain Management – creating value-adding networks, 3. Aufl., Harlow/ Munich (u. a.). Heng, S. (2004): Deutsche Bank Research: Wegweisende Innovationen der Informations- und Kommunikationstechnologien, veröffentlicht am 19. 10. 2004; http://www.dbresearch.com/PROD/DBR_INTERNET_EN-PROD/PROD0000000000180580.pdf. Dowidat, A.(2002): Delmia und Opel verwirklichen die Digitale Fabrik. In: wt Werkstatttechnik online, 92. Jahrgang, Heft 4. S. 171ff. Eito (2004): European Information Technology Observatory. Feldhusen, J./Gebhardt, B. (2007): Product Lifecycle Management für die Praxis, Berlin. Fricke, F./Müller, B./Butscher, R. (2004): 12 Leitinnovationen, die Deutschland voranbringen. In: Bild der Wissenschaft – Sonderdruck, Ausgabe 1. Gutenberg, E. (1994): Grundlagen der Betriebswirtschaftslehre, Berlin. Hagel, J. (2003): Die Zukunft des Wachstums. In: Harvard Business Manager, 06/2003, S. 23–35. Heinen, E. (1991): Industriebetriebslehre – Entscheidungen im Industriebetrieb, Wiesbaden. Kamiske, G. F./Brauer, J.-P. (2005): Qualitätsmanagement von A–Z, 5. Aufl., München. Kelly, K. (1998): New Rules for the New Economy, 10 Radical Strategies for a Connected World, Middlesex, England. Krallmann, H./Albayrak. S. (2002): Holonic Manufacturing – Agentenorientierte Techniken zur Umsetzung von holonischen Strukturen, TCW-report Nr. 29, München. Krcmar, H. (2004): Informationsmanagement, Berlin.

32

H. Wildemann

Mauch, C./Wildemann, H. (Hrsg.) (2006): Handbuch IT-Management, München. Mauch, C./Wildemann, H. (2006a): Thema: Wettbewerbsfaktor IT. Wettbewerbsfaktor IT – Wege zur erfolgreichen IT-Gestaltung. Ergebnisse einer empirischen Untersuchung, München. Mieze, T. (2004) Beyond Carr – und sie bewegt sich doch. In: Fröschle, H.: Wettbewerbsvorteile durch IT, HMD – Praxis der Wirtschaftsinformatik Nr. 239, Heidelberg. Picot, A., u. a. (1996): Die grenzenlose Unternehmung – Information, Organisation und Management, Wiesbaden. Pritsch, E./Gushurst, K.-P. (2006): Effizienzsteigerung in der IT – Hebel zur Kostensenkung und Leistungssteigerung. In: Mauch, C./Wildemann, H. (Hrsg.): Handbuch IT-Management, München, S. 105–128. Reinhart, G. (2000): Virtuelle Fabrik – Wandlungsfähigkeit durch dynamische Unternehmenskooperation, München. Scheer, A.-W./Cocchi, A. (2006): Prozessorientiertes Product-Lifecycle-Management, Berlin (u. a.). Söllner, M. (2006): Informationssicherheit. In: Mauch, C./Wildemann, H.: Handbuch IT-Management, München, S. 337–380. Thome, G. (2007): Grundlagen und Modelle des Information Lifecycle Management, Berlin (u. a.). Westkämper, E./Decker, M. (2006): Einführung in die Organisation der Produktion, Berlin (u. a.). Wildemann, H. et al. (2007): Plagiatschutz. Handlungsspielräume der produzierenden Industrie gegen Produktpiraterie, München. Wildemann, H. (2007): Informationstechnologie – IT als Enabler in Produktion und Logistik, TCW-report Nr. 61, München. Wildemann, H. (2005): Logistik – Prozessmanagement, München. Wildemann, H. (2003b): Entwicklungszeitreduzierung. Beschleunigte Entwicklungsprozesse in der Elektronikindustrie, München. Wildemann, H. (2003a): Betreibermodelle und Pay-on-Production: Strategien, Bedeutung, Chancen und Risiken. In: ders. (Hrsg.): Moderne Produktionskonzepte für Güter- und Dienstleistungsproduktionen, München, S. 133–159. Wildemann, H. (2003): Supply Chain Management – Optimierung der Wertschöpfungskette, TCW-report Nr. 39, München. Wildemann, H. (2001): Online-Auktionen – Neue Wege zur Erschließung von Einsparpotenzialen im Einkauf, TCW-report Nr. 36, München. Wildemann, H. (2000): Wertsteigerung durch E-Technologien, TCW-Report, München. Wildemann, H. (1987): Produktionstechnologien als Wettbewerbsfaktor. In: Technologie, Wachstum und Beschäftigung, hrsg. v. R. Henn, Berlin 1987, S. 707–722. Wildemann, H. (1986): Strategische Investitionsplanung für CAD, CAM, Stuttgart 1986; Wildemann, H. (1990): Einführungsstrategien für die computerintegrierte Produktion, München 1990). Weitere Literatur unter www.tcw.de.

Umsetzung multilokaler-hybrider Wettbewerbsstrategien mit Internationalen Wertschöpfungsnetzwerken Bernd Kaluza und Herwig Winkler

1

Problemstellung

In vielen Branchen reicht es heute nicht mehr aus, ausschließlich Leistungen zu niedrigen Kosten oder mit einer hohen Qualität herzustellen. Zur Aufrechterhaltung ihrer Wettbewerbsfähigkeit sind die Unternehmen viel mehr gefordert, hybride Wettbewerbsstrategien umzusetzen, um möglichst alle strategischen Erfolgsfaktoren wie Kosten, Zeit, Qualität, Flexibilität, Service und Erzeugnisvielfalt gleichzeitig zu verfolgen.1 Immer mehr Unternehmen versuchen diese schwierigen Anforderungen durch den Einatz von Internationalisierungsstrategien zu bewältigen, indem sie die Chancen der Globalisierung nützen und Rohstoffe und Güter in verschiedenen Ländern einkaufen, weiterverarbeiten und vermarkten. In den 1980er Jahren wurden verschiedene Internationalisierungsstrategien intensiv und kontrovers diskutiert.2 Häufig gebrauchte Schlagworte waren damals ‚think global, act lokal“ oder ‚global vision with lokal touch“. Im Mittelpunkt dieser Debatte stand dabei die Frage, ob Unternehmen ihre Leistungen eher global standardisiert oder regional differenziert anbieten sollten, um Gewinne zu erzielen.3 Heute ist es möglich, z. B. mit verschiedenen Kooperationsformen, dem Einsatz moderner IuK-Technologien sowie von geeigneten Logistiksystemen, beide Alternativen erfolgreich miteinander zu verbinden. Die simultane Verfolgung von Globalisierungsund Lokalisierungsvorteilen wird im Schrifttum als „multilokale-hybride Wettbewerbsstrategie“ behandelt.4 Zur Umsetzung dieser anspruchsvollen Wettbewerbsstrategie ist es erforderlich, spezielle Wertschöpfungsstrukturen und -prozesse zwischen den an der Leistungserstellung und -verwertung beteiligten Unternehmen zu entwickeln.5 Dafür sind verschiedene Maßnahmen, wie Stand1

Vgl. dazu z. B. Kaluza (1995a), S. 6ff.

2

Abele et al. (2006), S. 3ff. unterscheiden drei Phasen der Globalisierung: Phase 1: Vor 1930 vorwiegend Vertriebsstandorte im Ausland, Phase 2: Von 1930 bis 1980 weitgehend unabhängige Auslandsproduktion und ab 1980 (Phase 3) weltweit vernetzte Produktion und cross-funktionale Zusammenarbeit.

3

Vgl. dazu u. a. Meffert (1989), S. 445 und die dort zitierte Literatur.

4

Vgl. dazu z. B. Fleck (1995), S. 82 f.

5

Vgl. auch Bellmann (1996), S. 47ff.

34

B. Kaluza und H. Winkler

ortverlagerungen, Outsourcing unterschiedlicher Teile der Produktion, neue Formen der Zusammenarbeit mit Zulieferern und Kunden sowie interne und externe Vernetzung ausgewählter Unternehmensfunktionen, zu ergreifen.6 Durch den Einsatz dieser Maßnahmen sind die Qualität der Produkte und der Service zu verbessern, Prozesse zu beschleunigen, die Produktivität zu erhöhen sowie die Flexibilität zu steigern. Zur erfolgreichen Umsetzung multilokaler-hybrider Wettbewerbsstrategien empfehlen wir, Internationale Wertschöpfungsnetzwerke zu bilden. Mit diesen speziellen Unternehmensnetzwerken sind die erforderlichen Wertschöpfungsstrukturen und -prozesse zweckmäßig zu gestalten. Durch eine effektive Spezialisierung verschiedener Partner, insbesondere kleiner und mittlerer Unternehmen (KMU), und der Konzentration auf Kernkompetenzen sowie einer effizienten Koordination der Wertschöpfungsaktivitäten sind die erforderlichen Leistungen in geeigneter Weise zu erbringen.7 Es sollen damit die lokalen kundenspezifischen Bedürfnisse befriedigt und gleichzeitig niedrige Beschaffungs-, Produktions- und Distributionskosten erzielt werden. Mit einer umfassenden Abstimmung der Ressourcen und Prozesse zwischen den beteiligten Partnern sind die notwendigen Informations-, Material- und Geldströme erfolgreich zu handhaben, um Globalisierungs- und Lokalisierungsvorteile simultan zu erreichen.8 Es werden hier zunächst die Grundzüge multilokaler-hybrider Wettbewerbsstrategien kurz vorgestellt sowie die Anforderungen an das Wertschöpfungsmanagement zur Umsetzung dieser Strategien herausgearbeitet. Dabei wird gezeigt, wie die Wertschöpfungsstrukturen zu gestalten und die Wertschöpfungsprozesse durchzuführen sind, um die angestrebten Ziele zu realisieren. Darauf aufbauend werden Maßnahmen für die Gestaltung und den Betrieb Internationaler Wertschöpfungsnetzwerke entwickelt sowie die Konfiguration und Koordination der Wertschöpfungsprozesse vorgestellt.

2

Grundlagen der Internationalisierungsstrategien und des Wertschöpfungsmanagement

2.1 Unterscheidung verschiedener Internationalisierungsstrategien Die starke Zunahme des Welthandels in den 1970er und 1980er Jahren führte in Wissenschaft und Praxis zu einer intensiven Diskussion über die Zweckmäßigkeit zukünftiger strategischer Orientierungsrichtungen der anzubietenden Produktkonzeptionen. Im Mittelpunkt dieser Debatte stand dabei die Frage, ob eher eine globale oder eine lokale Ausrichtung der Produktkonzeption zum Erfolg führt.9 Mit global ausgerichteten Produktkonzeptionen wurde meist eine weltweite Standardisierung angestrebt, während lokale Produktkonzeptionen primär eine regionale Differenzierung der Produkte verfolgten. Die Vorteilhaftigkeit der weltweiten Standardisierung gegenüber der lokalen Differenzierung wurde damit begründet, dass bei einer zukünftig stärkeren Homogenisierung der Weltmärkte international tätige Unternehmen mit standardisier6

Vgl. Bellmann/Hippe (1996a), S. 3f. und Bellmann/Hippe (1996b), S. 55ff.

7

Vgl. Meffert (1989), S. 447.

8

Vgl. Bellmann (1997), S. 79ff., Bellmann (1999), S. 195ff. sowie Kaluza/Kemminer (1997), S. 3f.

9

Vgl. Meffert (1989), S. 445f., Perlmutter/Heenan (1986), S. 136, Porter (1989), S. 17f., Fleck (1995), S. 42f. und die dort zitierte Literatur.

Internationale Wertschöpfungsnetzwerke

35

ten Produkt- und Marketingkonzepten Skalenerträge und Synergievorteile nutzen könnten. Damit sollten Kosten- und Preisvorteile erreicht werden, die zu einer hohen Umsatzrentabilität führen.10 Demgegenüber wurde von Kritikern der globalen Standardisierung darauf hingewiesen, dass mit einer regional orientierten und differenzierten Marktbearbeitung Wettbewerbsvorteile zu erzielen sind. Dies ist insbesondere dann der Fall, wenn eine Fragmentierung und Hypersegmentierung der Nachfragestrukturen, z. B. aufgrund unterschiedlicher Verhaltensmuster der Kunden, abweichender Normen und Standards sowie geänderter gesetzlicher Rahmenbedingungen, eintreten sollte.11 Als Ergebnis dieser kontrovers geführten Diskussion ist heute festzuhalten, dass sich weder die eine noch die andere extreme Auffassung bewahrheitet hat. Es ist vielmehr festzustellen, dass beide Denkrichtungen sowohl einzeln als auch kombiniert erfolgreich umgesetzt werden. Dadurch haben Unternehmen bei der Bestimmung ihrer Internationalisierungsstrategien die Möglichkeit, grundsätzlich zwischen mehreren Alternativen zu wählen. Als Auswahlkriterien kommen Globalisierungs- und/oder Lokalisierungsvorteile in Betracht. Aus der Gegenüberstellung geringer und großer Globalisierungsvorteile mit geringen und großen Lokalisierungsvorteilen ergeben sich vier Felder für die wählbaren Internationalisierungsstrategien.12 Meffert unterscheidet zwischen den Strategietypen „International“, „Global“, „Multinational“ und „Dual“.13 Bei der „internationalen Internationalisierungsstrategie“ werden die Originalprodukte ohne Modifikationen auf Auslandsmärkten abgesetzt. Diese Strategie entspricht daher einer gewöhnlichen Exporttätigkeit. Bei der „globalen Internationalisierungsstrategie“ werden demgegenüber Produkte und Produktion international standardisiert. Dadurch sollen die Leistungen so kostengünstig wie möglich bereitgestellt werden. Eine regionale Anpassung des Leistungsangebots ist dabei nicht vorgesehen. Die „multinationale Strategie“ legt den Schwerpunkt hingegen auf eine regionale Anpassung der Leistungen. Es stehen hier nicht primär niedrige Kosten im Vordergrund, sondern vielmehr die Erzielung eines hohen regionalen Differenzierungsgrades und damit eines großen Kundennutzens. Bei der „dualen Internationalisierungsstrategie“ werden gleichzeitig sowohl große Globalisierungs- als auch Lokalisierungsvorteile angestrebt. Diese Strategie sehen wir deshalb als eine multilokale-hybride Wettbewerbsstrategie an, d. h. es ist zur erfolgreichen Umsetzung dieser Strategie erforderlich, Prozesse und Produktkomponenten einerseits zu standardisieren sowie andererseits die bereitzustellenden Produkte an die regionalen Bedürfnisse anzupassen.14 In der Abbildung 1 (s. S. 36) wird diese Matrix zur Bestimmung der Internationalisierungsstrategie dargestellt. Bei einem Vergleich dieser vier Internationalisierungsstrategien mit den generischen Wettbewerbsstrategien von Porter zeigt sich, dass die globale Internationalisierungsstrategie der Kosten- und Preisführerschaft und die multinationale Internationalisierungsstrategie der Differenzierungsstrategie zu zuordnen sind. Der dualen Internationalisierungsstrategie würde die von 10

Vgl. Welge/Böttcher (1991), S. 438, Buzzell (1968), S. 102f.

11

Vgl. Levitt (1983), S. 92f., Meffert (1989), S. 448, Porter/Millar (1985), S. 149ff., Bartlett (1983), S. 138f.

12

Siehe dazu u. a. auch Perlitz (1995), S. 15 der in Anlehung an Porter mit den beiden Kriterien „Koordination“ und „Konfiguaration“ der Aktivitäten vier Varianten von Internationalisierungsstrategien bildet.

13

Vgl. Meffert (1986), S. 691 und Fleck (1995), S. 71f.

14

Vgl. Welge/Böttcher (1991), S. 435f.

36

B. Kaluza und H. Winkler

Abbildung 1: Varianten von Internationalisierungsstrategien [Quelle: Meffert (1989), S. 450 modifiziert]

Porter bezeichnete Misserfolgsposition des „stuck in the middle“ entsprechen.15 Porter erklärt die Unvereinbarkeit dieser Strategien damit, dass es entweder Unternehmen gibt, die aufgrund der globalen Standardisierung Kostenvorteile und damit niedrigere Preise erzielen, oder Unternehmen, die eine regionale Differenzierung vornehmen, um einen höheren Kundennutzen zu erzielen. Wir gehen jedoch in Anhlehnung an die Konzepte der hybriden Wettbewerbsstrategien16 davon aus, dass mit einer engen Zusammenarbeit verschiedener Partner bei der Leistungserstellung und -verwertung, dem Einsatz neuer Technologien sowie leistungsfähiger Logistiksystemen die duale Internationalisierungsstrategie erfolgreich umzusetzen ist. Voraussetzung für die Realisierung der dualen Internationalisierungsstrategie ist insbesondere die dislozierte Erstellung der Leistungen. Essentiell ist dabei die Beachtung des Konzentrations- und Konsistenzprinzips von Porter.17 Das Konzentrationsprinzip fordert, dass alle Aktivitäten und Ressourcen, je nach angestrebter Spitzenposition, entweder auf die Erzielung von Kosten- oder von Erlösvorteilen zu richten sind. Das Konsistenzprinzip besagt, dass eine gleichzeitige Verfolgung von Kosten- und Erlösvorteilen grundsätzlich nicht möglich ist, da ab einem bestimmten Punkt Zielkonflikte zwischen Kosteneinsparung und höherer Differenzierung auftreten. Wenn die duale Internationalisierungsstrategie erfolgreich umgesetzt werden 15

Vgl. dazu die kritischen Anmerkungen bei Kaluza/Blecker (2000c) sowie Fleck (1995), S. 48f.

16

Als Beispiele sind hier die Outspacing Strategies von Gilbert und Strebel, die Strategie der Mass Customization von Pine sowie die Dynamische Produktdifferenzierungsstrategie von Kaluza anzuführen.

17

Vgl. Porter (1992a), S. 71ff. sowie Porter (1992b), S. 38f.

Internationale Wertschöpfungsnetzwerke

37

soll, so bedeutet dies, dass mit bestimmten Komponenten des zu erstellenden Produkts globale Kostenvorteile, mit anderen Komponenten/Modulen lokale Differenzierungsvorteile erzielt werden müssen. Dazu sind Partner zu suchen, die nach dem Konzentrationsprinzip entweder eine Kostenführerschafts- oder eine Differenzierungsstrategie verfolgen und die erforderlichen Teile in der benötigten Qualität und zu den günstigen Kosten bereitstellen. Durch die Bildung spezieller Partnerschaften zur Durchführung der notwendigen Wertschöpfungsprozesse gelingt es, das Konzentrationsprinzip auf der Unternehmensebene beizubehalten und das Konsistenzprinzip durch die Schaffung einer kooperativen Metaebene zu umgehen. Damit ist sicherzustellen, dass die durch die globale Standardisierung erzielten Kostenvorteile nicht durch die lokale Differenzierung verloren gehen. Die Entwicklung der erforderlichen Metaebene stellt die eigentliche Herausforderung für das Wertschöpfungsmanagement bei der Umsetzung multilokaler-hybrider Wettbewerbsstrategien dar.

2.2 Grundzüge des Begriffs „Wertschöpfung“ Der Terminus „Wertschöpfung“ wird im Schrifttum nicht einheitlich definiert. Begriffe, wie Werterhöhung, Wertzuwachs, Wertauftrieb, Mehrwert oder Transformationsbeitrag werden häufig synonym verwendet.18 Der Wertschöpfungsbegriff im betriebswirtschaftlichen Schrifttum steht vielfach für das Ergebnis verschiedener Leistungserstellungsprozesse. Diese Auffassung ist jedoch zu kritisieren, da die beiden Wortteile „Wert“ und „Schöpfung“ eigentlich stärker auf eine bestimmte Tätigkeit abzielen. Der in diesem Beitrag verwendete Begriff Wertschöpfung soll beiden Sichtweisen entsprechen, d. h., er wird deshalb als Prozess und als Ergebnis betrachtet. Weiters ist kritisch anzumerken, dass in der Vergangenheit die Wertschöpfung ausschließlich im Kontext von Industrieunternemen diskutiert wurde. Heute ist jedoch, aufgrund der zunehmenden Bedeutung von Leistungsbündeln,19 die Wertschöpfung auch im Zusammenhang mit verschiedenen Dienstleistungen zu untersuchen. Im betriebswirtschaftlichen Sinn20 umschreibt der Begriff „Wertschöpfung“ wirtschaftliche Aktivitäten, die das Ziel verfolgen, den Wert eines Gutes und/oder einer (Vor-)Leistung zu steigern. Dazu sind unterschiedliche Produktions-, Verarbeitungs- und Veredelungsprozesse durchzuführen, um eine Umformung und/oder Umwandlung des jeweiligen Gutes oder der Leistung zu erzielen. Häufig sind dafür mehrere verschiedene Wertschöpfungsstufen erforderlich, für die unterschiedliche Unternehmen verantwortlich sind. Ein bestimmtes Unternehmen auf einer vorgegebenen Wertschöpfungsstufe übernimmt dabei die erstellte Leistung des vorgelagerten Unternehmens und führt weitere Produktionsschritte durch, um so zu einem höherwertigen Gut zu gelangen. Der dadurch erzielte Wertzuwachs wird als Wertschöpfung bezeichnet. Die Wertschöpfung repräsentiert damit den monetären Wert aller Leistungen eines Unternehmens zur Produktion und Bereitstellung eines bestimmten Produkts. Ein zu erzielender Wertzuwachs eines Gutes und/oder einer Leistung hängt von der Knappheit der vergleichbaren nachgefragten Güter/Leistungen, den Kundenvorstellungen sowie den Möglichkeiten eines Unternehmens ab, 18

Vgl. z. B. Haller (1997), S. 32 und die dort zitierte Literatur.

19

Vgl. Engelhardt (1993), S. 395f.

20

Grundsätzlich kann der Begriff Wertschöpfung auch im ästhetischen oder ethischen Kontext verwendet werden. Die Wertschöpfung bezieht sich dann auf die Herstellung z. B. von künstlerisch wertvollen Leistungen oder auf Aktivitäten mit positiver Wirkung auf gesellschaftliche Bereiche. Vgl. Wenke (1987), S. 1 sowie Haller (1997), S. 30 und die dort zitierte Literatur.

38

B. Kaluza und H. Winkler

mit geeigneten Mitteln die vorhandene Knappheit zu überwinden und die Kundenvorstellungen zu realisieren. Von Knappheit ist dann zu sprechen, wenn Güter mit bestimmten Eigenschaften nicht in beliebiger Menge vorhanden und/oder verfügbar sind. Die Zielvorgaben für die Durchführung der Wertschöpfungsprozesse sind aus der verfolgten strategischen Positionierung, z. B. Standardleistung zu niedrigen Preisen oder Spezialleistung zu höheren Preisen, abzuleiten.21 Kunden, die Güter nachfragen, sind bereit, ein Entgelt für den Erwerb oder die Nutzung des nachgefragten Gutes zu bezahlen. Diese Kaufbereitschaft ist abhängig von Angebot und Nachfrage und der daraus abzuleitenden Preisbildung. Der Grad der Nachfrage nach einem Gut hängt wesentlich von den Vorstellungen des Kunden über das Potential zur Bedürfnisbefriedigung eines Gutes ab. Güter mit einer hohen potentiellen Bedürfnisbefriedigung erfahren eine hohe Wertschätzung durch die Kunden. Der Wert solcher Güter ist demnach groß und Kunden sind bereit, höhere Preise zu bezahlen. Es ist daher davon auszugehen, dass die Wertschöpfung teilweise unabhängig von der physischen Produktion als ein rein subjektiver Mehrwert anzusehen ist, der individuell verschieden ist. Ob knappe Güter mit hoher Wertschätzung jedoch auch tatsächlich angeboten werden, hängt davon ab, ob Wirtschaftseinheiten die erforderlichen Wertschöpfungsprozesse so durchführen können, dass ein zufriedenstellendes Entgelt für die erbrachte Leistung zu erzielen ist. Ein Mehrwert für die Unternehmen liegt dann vor, wenn das Entgelt für die Bereitstellung der nachgefragten Güter die Kosten für die Vorleistungen sowie den durch die Leistungserstellung notwendigen Wertverzehr innerhalb des Unternehmens übersteigt. In diesem Fall korrelieren Nutzenvorstellungen der Kunden und der Unternehmen positiv miteinander. Da der für die Kunden realisierbare Mehrwert demnach auch zu einem Mehrwert für die Unternehmen führt, werden Güter produziert und bereitgestellt. Die für Produktion und Bereitstellung von Gütern erforderlichen Wertschöpfungsstrukturen und -prozesse sind daher mit der verfolgten Wettbewerbsstrategie eines Unternehmens abzustimmen. Das Ergebnis der Zusammenarbeit von F&E, Beschaffung, Produktion, Absatz und Service bestimmt den Kundennutzen sowie die Kosten eines Produktes. Die Umsetzung einer modernen Wettbewerbsstrategie muss daher so ausgelegt sein, dass diese Produkte mit einem besseren Preis-Leistungs-Verhältnis als die Konkurrenzprodukte angeboten werden können.

3

Anforderungen an das Wertschöpfungsmanagement und Gestaltung Internationaler Wertschöpfungsnetzwerke zur Umsetzung multilokaler-hybrider Wettbewerbsstrategien

3.1 Anforderungen an das Wertschöpfungsmanagement zur Umsetzung multilokaler-hybrider Wettbewerbsstrategien Erfolgreiche globale Strategiekonzepte basieren auf einer spezifischen organisatorischen Verankerung sowie geeigneten Planungs-, Entscheidungs-, Steuerungs- und Kontrollprozessen. Es sind daher für die Umsetzung mulilokaler-hybrider Wettbewerbsstrategien nach dem Leitsatz von Chandler: „structure follows strategy“ die erforderlichen Wertschöpfungsaktivitäten mit allen für die Leistungserstellung benötigten Unternehmen zu koordinieren. Dazu sind gezielte Konfigurations- und Koordinationsaufgaben durchzuführen.22 Insbesondere sind spezielle 21

Vgl. auch Winkler (2006b), S. 47f.

22

Vgl. Meffert (1989), S. 451ff., Kaluza (1995b).

Internationale Wertschöpfungsnetzwerke

39

Wertschöpfungsstrukturen und -prozesse zwischen den beteiligten Unternehmen festzulegen. Es müssen hier Entscheidungen über die Dislozierung der Wertschöpfungsaktivitäten auf Unternehmen in verschiedenen Ländern sowie die Interaktion dieser Unternehmen getroffen werden. Dabei kann eine Verteilung, eine Konzentration oder eine teilweise Verteilung und Konzentration aller Wertschöpfungsaktivitäten auf die beteiligten Unternehmen in den verschiedenen Ländern erfolgen.23 Das Wertschöpfungsmanagement ist so zu gestalten, dass gleichzeitig Globalisierungsund Lokalisierungsvorteile zu realisieren sind.24 Globalisierungsvorteile werden aufgrund von Integrationsbemühungen erzielt, bei denen eine hohe Standardisierung der Leistungen und damit die Verbesserung der Kostenposition angestrebt wird. Kostenvorteile ergeben sich z. B. aus den durch Zentralisationsmaßnahmen resultierenden Skalenerträgen, aus komparativen Vorteilen einzelner Länder aufgrund niedriger Faktorkosten sowie Verbundvorteilen, die aus der gemeinsamen Nutzung von Inputfaktoren und Ressourcen abzuleiten sind. Lokalisierungsvorteile ergeben sich aus der regionalen Differenzierung der anzubietenden Produkte und Dienstleistungen. Es erfolgt hier eine regionale Anpassung der Produkt- und Vertriebskonzeption, ohne dass dadurch die gewonnenen Globalisierungsvorteile verloren gehen. Es sind dazu insbesondere länderspezifische Varianten zu bilden, mit denen die regionalen Kundenbedürfnisse befriedigt werden.25 In der Automobilindustrie sind z. B. für den asiatischen Markt Fahrzeuge zu produzieren, die für die dortigen Straßenverhältnisse geeignet sind. In Nordamerika legen die Kunden größeren Wert auf andere Merkmale, z. B. auf ein spezielles Design sowie die Gestaltung und Funktion der „cup holder“. Zur Bereitstellung der regionalen Produktvarianten sind Geschäftsbeziehungen zu Partnern aufzubauen, die bei der Herstellung und Montage des Endprodukts bestimmte Teile und Komponenten durch regional angepasste Varianten ersetzen. Damit ist es möglich, die standardisierte Produktkonzeption beizubehalten und die geforderte regionale Anpassung vorzunehmen. Zur Realisierung der angestrebten Globalisierungs- und Lokalisierungsvorteile ist zu klären, welche Wertschöpfungsaktivitäten von welchem Unternehmen erbracht werden sollen. Zudem ist hier zu prüfen, wie diese Aktivitäten durchzuführen sind, um Differenzierungs- oder Kostenvorteile zu erzielen.26 Zur Bestimmung der zu ergreifenden Globalisierungs- und Lokalisierungsmaßnahmen sind die bei den Partnern vorhandenen Potentiale/Ressourcen, z. B. Spezialmaschinen, flexible Fertigungsanlagen und Patente, zur Erreichung von Kosten- und Differenzierungsvorteilen zu untersuchen. Anschließend wird jede Wertschöpfungsaktivität der beteiligten Partner geprüft, ob sie zur Erzielung von Globalisierungs- und/oder Lokalisierungsvorteilen geeignet ist, z. B. ob eine Zentralisierung des Einkaufs bei einem Unternehmen, der gemein0same Einsatz bestimmter Logistikdienstleister, die Verlagerung von Produktionsstandorten in spezielle Regionen, Kostenvorteile bringt. Weiters wird analysiert, ob z. B. mit einem regional angepassten Kundenservice oder veränderter Produktkomponenten Lokalisierungsvorteile zu erzielen sind. Dabei ist besonders darauf zu achten, dass durch die lokale Anpassung der Leistungen keine Kostennachteile entstehen.27 Abbildung 2 zeigt für ein bestimmtes Produkt X die 23

Vgl. Welge/Böttcher (1991), S. 437f., Doz et al. (1981), S. 63f., Doz (1986), Engelhoff (1984), S. 425f.

24

Vgl. zum Wertschöpfungsmanagement als Kernkompetenz Bellmann (2004), S. 24ff.

25

Vgl. Meffert (1989), S. 445f., Bartlett/Ghoshal (1989).

26

Vgl. Fleck (1995), S. 73f. und früher bereits Chandler (1962), S. 1ff.

27

Vgl. Kogut (1984), S. 15f., Kogut (1985), S. 47f.

40

B. Kaluza und H. Winkler

zur Leistungserstellung und -verwertung erforderlichen länderspezifischen Wertschöpfungsfunktionen. Weiters werden die zur Herstellung und Vertrieb benötigten Wertschöpfungsfunktionen für die regionalen Varianten dargestellt. Die Realisierung der regionalen Varianten erfolgt mit Hilfe der Zusammenarbeit regional tätiger Unternehmen.

Abbildung 2: Verteilung der Wertschöpfungsfunktionen [Quelle: Griese (1992), S. 171, modifiziert]

Damit die durch die multilokale-hybride Wettbewerbsstrategie verfolgten Kosten- und Differenzierungsvorteile simultan realisiert werden können, sind spezielle Koordinationsmaßnahmen zwischen den beteiligten Partnern durchzuführen. Für die Koordination der Wertschöpfungsaktivitäten sind grundsätzlich alle Formen von einer autonomen dezentralisierten Abwicklung bis hin zu hierarchischen, weisungsgebundenen Vorgaben einzusetzen. Die Koordinationsaktivitäten sind so zu gestalten, dass eine Vielzahl räumlich verteilter Wertschöpfungsaktivitäten zielorientiert abgestimmt werden können. Besonders zu beachten ist dabei, dass die durch die Koordinationsmaßnahmen erzielten Kostenvorteile aus der globalen Integration nicht wieder verloren gehen.28

3.2 Gestaltung Internationaler Wertschöpfungsnetzwerke zur Umsetzung multilokaler-hybrider Wettbewerbsstrategien Meffert schlägt für die Umsetzung multilokaler-hybrider Wettbewerbsstrategien den Einsatz „hybrider Organisationsformen“ vor. Darunter versteht er eine konzernähnliche Organisations-

28

Vgl. Welge/Böttcher (1991), S. 442, Daniels et al. (1985), S. 223f., Daniels et al. (1984), S. 292f.

Internationale Wertschöpfungsnetzwerke

41

struktur, bei der die Zentrale mit den Tochterunternehmen eng verbunden ist. Es sind damit, aufgrund der auftretenden gegenseitigen Abhängigkeiten, eine globale Integration sowie eine regionale Marktanpassung sicherzustellen.29 An dieser Aussage ist jedoch zu kritisieren, dass die Abstimmungsprozesse zwischen Mutter- und Tochterunternehmen meist zeitaufwendig sind, notwendige Anpassungsprozesse bei den Tochtergesellschaften häufig viel zu langsam umgesetzt werden und radikale Veränderungen, wie der Verkauf einer Tochtergesellschaft, zu massiven Problemen bei der Wettbewerbsfähigkeit und dem Erfolg des betreffenden Unternehmens führen können. Zur Umsetzung multilokaler-hybrider Wettbewerbsstrategien schlagen wir deshalb vor, statt der Bildung von Konzernen spezielle Wertschöpfungsnetzwerke mit Partnern aus unterschiedlichen Ländern30 zu entwickeln. Die so konzipierten Wertschöpfungsnetzwerke, an denen sich also internationale Partner beteiligen, bezeichnen wir als Internationale Wertschöpfungsnetzwerke. Diese Internationalen Wertschöpfungsnetzwerke basieren auf den vielfältigen Geschäftsbeziehungen eines bestimmten Unternehmens zu mehreren Unternehmen in verschiedenen Ländern.31 Die Leistungen, die innerhalb des Internationalen Wertschöpfungsnetzwerkes erbracht werden, gehen entweder als Input in die Wertschöpfungsprozesse anderer Unternehmen ein und/oder werden direkt für die Endkunden erbracht.32 Internationale Wertschöpfungsnetzwerke sind somit als ein spezifisches Wertschöpfungssystem aufzufassen, in dem definierte Inputfaktoren zielorientiert in gewünschte Outputgüter transferiert werden. Das gesamte Wertschöpfungssystem setzt sich aus den Wertketten der verschiedenen am Internationalen Wertschöpfungsnetzwerk beteiligten Zulieferern, Dienstleistern und Abnehmern zusammen. Die Wertketten jedes Unternehmens enthalten spezifische Wertschöpfungselemente, z. B. Ressourcen und Systeme, mit denen die notwendigen Wertschöpfungsaktiviäten für die Leistungserstellung und -verwertung zu erbringen sind. Die speziellen Eigenschaften der Wertschöpfungselemente und -aktivitäten der Wertketten determinieren die Kosten sowie die Qualität der Leistungen für die Endkunden.33 Die Fähigkeiten und Möglichkeiten des Wertschöpfungsmanagement in Internationalen Wertschöpfungsnetzwerken ein zweckmäßiges Wertschöpfungssystem gezielt zu definieren und zu betreiben, bestimmt die Wettbewerbsfähigkeit und den potentiellen Erfolg eines Internationalen Wertschöpfungsnetzwerks.34 Zur Gestaltung des Wertschöpfungssystems sind, ausgehend von den Kundenanforderungen, jene Elemente und Aktivitäten der Wertschöpfungsketten auszuwählen, die einen bestimmten Kundennutzen erzeugen sollen und eine definierte Kostenbasis garantieren. Dazu ist das Wertschöpfungsnetzwerk so zu konfigurieren, dass bei den „upstream activities“, wie F&E, Beschaffung und teilweise Produktion, tendenziell Globalisierungsvorteile, bei den „downstream activities“, z. B. teilweise Produktion, Distribution und Service, Lokalisierungsvorteile entstehen.35 29

Vgl. Meffert (1989), S. 452f.

30

Vgl. Winkler (2005), S. 45f., Harvey/Richey (2001), S. 105f. Zur Wahl der Wertschöpfungstiefe vgl. auch Koch (2006), S. 1ff.

31

Vgl. Ricardo/Bardio (2000), S. 495f.

32

Vgl. Tan (2001), S. 39 f.

33

Vgl. Kaluza (1996), S. 193f., Davis (1979), S. 193f.

34

Vgl. Beamon (1999), S. 275 f. und Gunasekaran et al. (2001), S. 71ff.

35

Vgl. Fleck (1995), S. 71ff. und Chopra/Meindl (2007), S. 73f.

42

B. Kaluza und H. Winkler

Internationale Wertschöpfungsnetzwerke sind strategische Unternehmensnetzwerke, an denen die für die Wertschöpfung relevanten Unternehmen beteiligt sind. Dabei steht keine Konzernbildung im Vordergrund, sondern es erfolgt eine enge Zusammenarbeit auf freiwilliger Basis.36 Von den beteiligten Unternehmen wird eine Konzentration auf Kernkompetenzen und eine enge Zusammenarbeit angestrebt, um Ressourcenkomplementaritäten zu nutzen.37 Für den Daten- und Informationsaustausch der Partner sind moderne Informations- und Kommunikationstechnologien (IuK) und Netzwerksysteme einzusetzen.38 Weiters sind geeignete Logistikkonzepte und -systeme umzusetzen, um eine effektive und effiziente Bereitstellung der benötigten Güter zu gewährleisten. Die Bildung Internationaler Wertschöpfungsnetzwerke wird meist von einem fokalen Unternehmen initiiert. Dieses fokale Unternehmen kann z. B. ein bedeutendes Industrie- oder Handelsunternehmen sein, das international tätig ist und aufgrund seines großen Einflusses die Rahmenbedingungen für die Zusammenarbeit bestimmt. Zur Bildung des Internationalen Wertschöpfungsnetzwerks werden vom fokalen Unternehmen Partner für die Durchführung der Wertschöpfungsprozesse ausgewählt. Die Partnerbewertung und -auswahl ist eine besonders wichtige Aufgabe und spielt eine große Rolle für den späteren Erfolg.39 In bilateralen, teilweise nur informellen, Gesprächen zwischen dem fokalen Unternehmen und den potentiellen Partnern sind zunächst grundsätzliche Interessen für eine enge internationale Zusammenarbeit abzustimmen. Anschießend wird konkret über eine Kooperation und Netzwerkbildung verhandelt.40 In der Initiierungsphase werden vom fokalen Unternehmen bedeutende Aufgaben an die beteiligten Partner vergeben und die Geschäftsbeziehungen entsprechend der vorliegenden Anforderung gestaltet. Abbildung 3 (s. S. 43) zeigt die mögliche Struktur eines Internationalen Wertschöpfungsnetzwerks. Ein Internationales Wertschöpfungsnetzwerk ist ein Unternehmensnetzwerk, welches Beschaffungs-, Produktions- und/oder Distributionsnetzaufgaben wahrnimmt.41 Zudem wird hier eine umfassende Kooperation bei allen Unternehmensfunktionen angestrebt, um die Wertschöpfung zu optimieren.42 Zur erfolgreichen Führung des Internationalen Wertschöpfungsnetzwerks ist daher ein unternehmensübergreifendes Leitungsgremium zu bilden.43 Dieses Gremium, das aus Mitgliedern der beteiligten Unternehmen besteht, legt die langfristigen Ziele fest, plant die Inhalte der Wertschöpfungsstrategie und beschließt die notwendigen Umsetzungsmaßnahmen. Zudem kontrolliert es die Implementierung der Wertschöpfungsstrategie

36

An dem Internationalen Wertschöpfungsnetzwerk können auch innovative kleine und mittlere Unternehmen beteiligt sein. Vgl. zu den Netzwerkstrategien und Netzwerkmanagement von KMUs z.B. Bellmann (2005), S. 32f. sowie Bellmann/Gerster (2006), S. 53f.

37

Vgl. Cooper et al. (1997), S. 1ff. und Christopher/Lee (2001).

38

Vgl. Fischer (2005), S. 323f.

39

Vgl. Lambert et al. (1996), S. 1ff.

40

Vgl. Lambert/Cooper (2000), S. 75f.

41

Vgl. zum Management von Beschaffungsnetzwerken auch Bellmann/Himpel (2002), S. 859 f.

42

Es sind zwischen den beteiligten Partnern langfristige Geschäftsbeziehungen aufzubauen, um das Risiko für die Teilnehmer besser einschätzen zu können und so eine höhere Stabilität der Zusammenarbeit zu gewährleisten. Vgl. dazu generell Handfield/Nichols (1999) und Tan et al. (1999), S. 1034ff.

43

Vgl. dazu Winkler (2005), S. 40ff., der einen hierarchischen Ansatz verfolgt. Bellmann (2001), S. 31ff. schlägt demgegenüber eine heterarchische Gestaltung von Produktionsnetzwerken vor.

Internationale Wertschöpfungsnetzwerke

43

Abbildung 3: Struktur eines Internationalen Wertschöpfungsnetzwerks [Quelle: Winkler (2005), S. 42, modifiziert]

in den einzelnen Unternehmen und überprüft den Zielerreichungsgrad der umgesetzten Maßnahmen.44 Damit gelingt es, die sonst häufig in konzernähnlichen Organisationsformen auftretenden Widerstände bei der Verfolgung von Globalisierungsstrategien, erfolgreich zu vermeiden.45

44

Vgl. Simchi-Levi et al. (2000), S. 1ff., Cooper/Ellram (1993), S. 13f. Zur Zielplanung und -abstimmung in strategischen Supply Chain Netzwerken vgl. Winkler (2006a), S. 237f.

45

Vgl. Meffert (1989), S. 448.

44

4

B. Kaluza und H. Winkler

Konfiguration und Koordination Internationaler Wertschöpfungsnetzwerke zur Realisierung von Globalisierungs- und Lokalisierungsvorteilen

Mit Internationalen Wertschöpfungsnetzwerken sollen jene strategischen Erfolgsfaktoren gebündelt werden, die zur Umsetzung einer multilokalen-hybriden Wettbewerbsstrategie erforderlich sind. Zur Erzielung von Wettbewerbsvorteilen sind insbesondere die Netzwerkorganisation, moderne IuK-Technologien sowie die Logistik als besonders relevante Erfolgspotentiale einzusetzen.46 Mit Hilfe der Netzwerkorganisation sind die Wertschöpfungsstrukturen und -prozesse für die Zusammenarbeit festzulegen. Moderne IuK-Technologien dienen der Aufbereitung der benötigten Informationen für die Leistungserstellung und -verwertung. Die Logistik hat die Aufgabe, den erforderlichen Materialfluss wirtschaftlich durchzuführen. Die vorhandenen Erfolgspotentiale des Internationalen Wertschöpfungsnetzwerks sind so zu konfigurieren und koordinieren, dass Globalisierungs- und Lokalisierungsvorteile simultan zu realisieren sind und gleichzeitig niedrige Kosten, eine hohe Qualität, ein überragender Service, kurze Zeiten sowie eine große Flexibilität erzielt werden.47 Die erforderliche Konfiguration und Koordination der Erfolgspotentiale zur Erzielung von Globalisierungs- und Lokalisierungsvorteilen ist in Abbildung 4 dargestellt.

Abbildung 4: Erfolgspotentiale und Zielgrößen eines Internationalen Wertschöpfungsnetzwerks [Quelle: Winkler (2005), S. 92, leicht modifiziert]

46

Vgl. Bellmann/Müller (2007), S. 903f., Kaluza/Blecker (2000a), S. 533f.

47

Vgl. Fleck (1995), S. 158f., Doran (2004), S. 102f.

Internationale Wertschöpfungsnetzwerke

45

4.1 Konfiguration der Wertschöpfungsaktivitäten des Internationalen Wertschöpfungsnetzwerks Zur Gestaltung und Umsetzung der erforderlichen Wertschöpfungsstrukturen und -prozesse in Internationalen Wertschöpfungsnetzwerken sind spezielle Formen für die Zusammenarbeit festzulegen.48 Mit einer adäquaten Netzwerkorganisation soll eine zweckgebundene Bündelung von Fähigkeiten, Ressourcen und Systemen erzielt werden.49 Dazu ist zunächst der Grad der Arbeitsteilung zu bestimmen. Das fokale Unternehmen und seine Partner haben dabei „make or buy“ Entscheidungen zu treffen, d.h. sie kaufen Leistungen entweder am Markt zu oder erstellen diese selbst. Leistungen sollen nach dem Kernkompetenzansatz dann selbst erstellt werden, wenn sie zu den Kernkompetenzen des Unternehmens zählen und eine hohe strategische Bedeutung aufweisen. Dies ist häufig bei sehr spezifischen und komplexen Leistungen der Fall, die zur regionalen Differenzierung eingesetzt werden sollen oder mit denen überragende Kostenvorteile zu erzielen sind. Der Fremdbezug von Leistungen ist dann sinnvoll, wenn die definierten Leistungen von anderen Unternehmen preiswerter, flexibler, in kürzerer Zeit und/oder besserer Qualität erbracht werden können. Zudem soll er in den Fällen erfolgen, wo eine kurzfristige Selbsterstellung, z. B. aufgrund von Kapazitätsengpässen, nicht möglich ist.50 Dies betrifft primär jene Teile und Komponenten eines Produkts, die zur globalen Standardisierung vorgesehen sind oder die für die regionale Differenzierung nicht besonders relevant sind.51 Aufgrund der vorherrschenden Arbeitsteilung entstehen spezifische Transaktionskosten. Die aufzubauenden Wertschöpfungsstrukturen und -prozesse im Internationalen Wertschöpfungsnetzwerk sind daher nicht nur nach den Anforderungen der zu erbringenden Leistung zu gestalten, sondern es ist auch auf die Durchführung einer effizienten Koordination zu achten.52 Durch eine enge strategische Kooperation verschiedener bedeutender Partner und einer virtuellen Integration von Kernkompetenzen wird eine problemadäquate Struktur zur Zielerreichung geschaffen.53 Das Internationale Wertschöpfungsnetzwerk ist aufgrund der dezentralen Organisation in der Lage, schnell auf Markttrends zu reagieren, indem eine Modifikation der Wertschöpfungsstruktur vorgenommen wird. Zur Veränderung der vorhandenen Kernkompetenzen sind Geschäftsbeziehungen zu entsprechenden Unternehmen je nach Bedarf und Möglichkeit auf- und auszubauen oder auch abzubauen. Aufgrund der engen Zusammenarbeit sind Synergieeffekte zwischen den beteiligten Unternehmen zu nutzen, was sich insbesondere positiv auf die Technologieposition der Unternehmen auswirkt.54 Ein Wissenstransfer und ein Erfahrungsaustausch ermöglichen den Aufbau spezieller Kenntnisse und Fähigkeiten sowie eine Knowhow-Bündelung. Dies führt dazu, dass verschiedene Wertschöpfungsprobleme leichter zu lösen 48

Vgl. Sydow (1993), S. 79 und Sydow/Möllering (2004), S. 71ff.

49

Vgl. Prater et al. (2001), S. 929f.

50

Vgl. Kara/Kayis (2004), S. 466f.

51

Vgl. Wilding (1998), S. 599f., Doran (2003), S. 316f.

52

Vgl. Welge/Böttcher (1991), S. 438, Kaluza/Blecker (2000b), S. 117f., Christopher/Towill (2001), S. 235f. sowie Christopher (1998).

53

Vgl. Meffert (1989), S. 447f., Levy/Grewal (2000), S. 415f., Ellram/Cooper (1990), S. 1ff.

54

Vgl. Bellmann/Mildenberger/Haritz (2000), S. 119 f., Stockton/Bateman (1995), S. 27f., Brook (1978).

46

B. Kaluza und H. Winkler

sind. Der Abschluss langfristiger Verträge zwischen den Partnern dient dazu, Erfahrungskurveneffekte zu realisieren und Rationalisierungsmaßnahmen sowohl innerhalb als auch zwischen den Unternehmen zu ergreifen. Zudem sind Hardware und Software für das Informationsmanagement sowie moderne Anlagen und Systeme für die Produktion und die Logistik zu beschaffen und einzusetzen.55 Damit im Internationalen Wertschöpfungsnetzwerk gleichzeitig sowohl niedrige Kosten durch die globale Standardisierung als auch eine hohe regionale Differenzierung erzielbar sind, müssen effektive und effiziente Logistik- und Materialflusssysteme eingesetzt werden. Eine Maßnahme richtet sich auf den Abbau von Redundanzen und die Verringerung des administrativen Aufwands.56 Ziel der Logistik ist es, den Partnern im Internationalen Wertschöpfungsnetzwerk die richtigen Produkte in der entsprechenden Menge, am richtigen Ort, zur richtigen Zeit, in der richtigen Qualität kostengünstig zur Verfügung zu stellen.57 Die Logistik orientiert sich dazu an Just-in-Time- und an Just-in-Sequence-Konzepten. Mit dem Einsatz von Just-inSequence-Konzepten wird erreicht, dass Transportsysteme und Ladungsträger genau in jener Reihenfolge beladen werden, die anschließend für die Produktion notwendig ist. Dadurch sind zeitaufwendige Sortier- und Verteilprozesse zu vermeiden.58 Es ist ein intensiver Informationsaustausch durchzuführen, um Lagerbestände zu senken und Transporte zu optimieren. Ein optimales Bestandsmanagement wird durch den Einsatz moderner IuK-Technologien erzielt.

4.2 Koordination der Wertschöpfungsaktivitäten des Internationalen Wertschöpfungsnetzwerks Aufgrund der geforderten engen Zusammenarbeit der einzelnen Unternehmen des Internationalen Wertschöpfungsnetzwerks ist die Koordination der Informations- und Materialflüsse von zentraler Bedeutung.59 Daraus sind besondere Anforderungen an die Durchführung der Planung und Steuerung sowie der Produktions- und Logistikprozesse abzuleiten. Zudem sind die bei den Partnern vorhandenen Informations-, Planungs-, Steuerungs- und Kontrollsysteme abzustimmen und kompatibel zu gestalten. Die einzelnen Teilpläne für die Wertschöpfung sind zu koordinieren, damit falsche Absatzplanungen, Fehlauslastungen bei den Ressourcen, hohe Kapitalbindungskosten, Entwertungsrisiken von Materialien und Fertigwaren, teuere Quertransporte sowie entgangene Umsätze aufgrund eines schlechten Lieferservices vermieden werden. Dabei muss die Prognosegenauigkeit in den einzelnen Wertschöpfungsstufen verbessert, das Flexibilitätspotential der Dispositionssysteme aufgrund der hohen Marktdynamik erhöht, eine umfassende Informationsversorgung aufgebaut und die wesentlichen Planungs- und Steuerungsobjekte identifiziert werden.60

55

Vgl. Bellmann/Haritz (2001), S. 271ff., Lau (1999), S. 328f., Frohlich/Westbrook (2001), S. 185f.

56

Vgl. Ndubisi et al. (2005), S. 330 ff.

57

Vgl. Chopra/Meindl (2007), S. 385f.

58

Vgl. Lau/Yam (2005), S. 432f.

59

Vgl. Kaluza/Blecker (1999), S. 261ff. sowie Robinson (1993).

60

Vgl. Christopher/Towill (2000), S. 206f. und Cooper/Slagmulder (1999).

Internationale Wertschöpfungsnetzwerke

47

Für die Koordination der Produktions- und Logistikprozesse fordern wir den umfassenden Einsatz moderner IuK-Technologien. Damit wird ein globaler Abbau von Informationsasymmetrien, die Erzeugung von Transparenz, eine bessere Prozessbeherrschung und -geschwindigkeit sowie die Nutzung bestimmter Fähigkeiten erreicht.61 Große räumliche Distanzen stellen somit keine Barriere mehr für eine enge Zusammenarbeit dar. Im Beschaffungsbereich des Internationalen Wertschöpfungsnetzwerks sind geeignete E-Procurement-Lösungen einzusetzen. Dadurch werden die Informationsbeschaffung, Beschaffungsausschreibungen, Preisverhandlungen sowie die Bestell- und Zahlungsabwicklung elektronisch unterstützt.62 Allgemein helfen IuK-Systeme in der Logistik bei der Auswahl der erforderlichen Transportmittel und erleichtern die Erstellung von Transport- und Frachtdokumenten sowie die Auftragsverrechnung.63 Zur Bestandsführung bei den Partnern sind moderne Warenwirtschaftssysteme einzusetzen, mit denen Bestände und Lagerflächen zu reduzieren sind. Zudem sind Bestandslücken erfolgreich aufzudecken und zu beseitigen. Mit Barcodelesern können produktspezifische Informationen beim Lageraus- und/oder -eingang automatisiert erfasst werden. Die zunehmende Nutzung des Internets als Beschaffungs- und Verkaufsmedium führt dazu, dass auch der Leistungsumfang für die einzubindenden Logistikdienstleister wächst.64 Der Einsatz moderner Enterprise Resource Planning-Systeme (ERP) bildet häufig die Grundlage für das Informationsmanagement in Industriebetrieben. Mit diesen Systemen sind Informationen im Bereich der Produktionsplanung und -steuerung, der Personalverwaltung, des Rechnungswesens und der Materialwirtschaft bereit zu stellen. Da der Einsatz für netzwerkbezogene Problemstellungen mit traditionellen ERP-Systemen jedoch nur eingeschränkt möglich ist,65 wurden neue Informationssysteme für den unternehmensübergreifenden Einsatz konzipiert, z. B. Supply Chain Management-Software, Advanced Planning und Scheduling-Systeme sowie Supply Chain Planning & Execution-Systems. Diese Systeme ermöglichen eine ganzheitliche dynamische Gestaltung und Lenkung der Produktions- und Logistikprozesse.66 Vorteilhaft bei diesen Software-Systemen67 ist, dass sie modulweise aufgebaut sind und deshalb individuell an die jeweilige Situation im Wertschöpfungsnetzwerk angepasst werden können. Damit erfüllen sie sehr gut die Anforderungen an das Informationsmanagement. Das Supply Chain Planning-System umfasst alle strategischen, taktischen und operativen Planungsaufgaben der unternehmensübergreifenden Materialflüsse. Als Instrumente dienen dabei Planungsalgorithmen und Simulationstools. Unter Supply Chain Execution werden Kommunikations-, Visualisierungs-, Informations- und E-Commerce-Lösungen subsumiert, die operative Aufgaben unterstützen.68 Damit ist aufgrund optimierter Prozesse eine höhere Produktivität im Wertschöpfungsnetzwerk zu erzielen. 61

Vgl. Fleck (1995), S. 55f., Lummus et al. (2003), S. 9 .

62

Vgl. auch Bellmann (2002), S. 361ff.

63

Vgl. Baumgarten et al. (2002), S. 28f.

64

Vgl. Nissen/Bothe (2002), S. 16f., Bretzke (2002), S. 41ff.

65

Vgl. Helo/Szekely (2005), S. 18ff.

66

Vgl. dazu als ein Beispiel für viele Tracey et al. (2005), S. 179f.

67

Siehe hierzu z.B. auch neuere Entwicklungen wie die Business Network Transformation (BNT) und die Enterprise SOA Roadmap der SAP.

68

Vgl. Larson (1998), S. 128ff.

48

5

B. Kaluza und H. Winkler

Fazit

Im heutigen wirtschaftlichen Umfeld wird es für viele Unternehmen immer wichtiger, ihre Geschäftsaktivitäten global auszudehnen, um wettbewerbsfähig zu bleiben. Eine multilokalehybride Wettbewerbsstrategie verfolgt simultan eine globale Standardisierung und eine regionale Differenzierung von Geschäftsaktivitäten und Produkten. Dies führt aufgrund der damit zu erzielenden überragenden Wettbewerbsposition zu großen Wettbewerbsvorteilen und ermöglicht im Vergleich zu den Mitbewerbern einen höheren Erfolg. Für die Realisation einer multilokalen-hybriden Wettbewerbsstrategie ist der Einsatz eines effektiven und effizienten Wertschöpfungsmanagement erforderlich. Wir schlagen dazu vor, ein spezielles netzwerkbasiertes Wertschöpfungsmanagement in der Form eines Internationalen Wertschöpfungsnetzwerks zu schaffen. Globalisierungsvorteile werden durch die integrierte Organisationsgestaltung ermöglicht. Es sind redundante Prozesse und Verfahren abzubauen, wodurch Kostensenkungen bei den einzusetzenden Produktionsfaktoren, z. B. beim Personal oder den maschinellen Anlagen, möglich sind. Der umfassende Einsatz von IuK-Technologien führt zu geringeren Transaktionskosten, die direkt oder indirekt beim Bezug und/oder dem Vertrieb von Waren anfallen. Aufgrund der besseren Verfügbarkeit von Informationen werden Probleme schneller gelöst, wodurch ebenfalls Kosten, z. B. durch Produktionsstillstände, vermieden werden. Weiter trägt die Fremdvergabe der Lagerhaltung und weiterer logistischer Leistungen zur Reduzierung der Logistikkosten bei. Aufgrund der gemeinsamen Nutzung spezieller Ressourcen sind zudem Kostensenkungen zu erzielen. Durch Synergieeffekte, z. B. im Rahmen einer gemeinsamen Forschung & Entwicklung, sind weitere Kostensenkungspotentiale zu erschließen. Zur Erzielung von Lokalisierungsvorteilen sind bestimmte Produktmerkmale zu beachten, die für die subjektive Qualitätswahrnehmung der regionalen Kunden besonders wichtig sind. Regionale Produktanpassungen können damit zu einer Verbesserung des Preis-Leistungs-Verhältnisses führen. Zusätzlich zur Produktqualität ist auch beim Service eine regionale Anpassung erforderlich, da aktuell nicht mehr allein materielle Güter verkauft werden, sondern häufig sogenannte „Leistungsbündel“ angeboten werden, die neben Produkten auch Dienstleistungen enthalten. Durch eine effektive und effiziente Konfiguration und Koordination des Wertschöpfungsmanagements im Internationalen Wertschöpfungsnetzwerk sind gleichzeitig Kosten- und Differenzierungsvorteile zu erzielen. Damit gelingt es Unternehmen, die multilokale-hybride Wettbewerbsstrategie erfolgreich umzusetzen und dadurch auch weiterhin wettbewerbsfähig zu bleiben. Literatur Bartlett, C. A. (1983): MNC: Get off the Reorganization Merry-Go-Round. In: Harvard Business Review, Mar–Apr, S. 138–146. Bartlett, C. A./Ghoshal, S. (1989). Managing across Borders – The Transnational Solution, Boston. Baumgarten, H./Kasiske, F./Zadek, H. (2002): Logistik Dienstleister – Quo vadis? – Stellenwert der Fourth Logistics Provider (4 PL). In: Logistik Management, Vol. 4 No. 1, S. 27–40. Beamon, B. M. (1999): Measuring supply chain performance. In: International Journal of Operations & Production Management, Vol. 19 No. 3, S. 275–292. Bellmann, K. (1996): Produktionsnetzwerke – ein theoretischer Bezugsrahmen. In: Wildemann, H. (Hrsg.): Produktions- und Zuliefernetzwerke, München, S. 47–63.

Internationale Wertschöpfungsnetzwerke

49

Bellmann, K./Hippe, A. (1996a): Netzwerkansatz als Forschungsparadigma im Rahmen der Untersuchung interorganisationaler Unternehmensbeziehungen. In: Bellmann, K./Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Wiesbaden, S. 3–18. Bellmann, K./Hippe, A. (1996b): Kernthesen zur Konfiguration von Produktionsnetzwerken. In: Bellmann, K./Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Wiesbaden, S. 55–85. Bellmann, K. (1997): Konfiguration von Produktionsnetzwerken. In: Pfeiffer, R. (Hrsg.): Systemdenken und Globalisierung: Folgen für die lernende Organisation im internationalen Umfeld, Wirtschaftskybernetik und Systemanalyse, Band 18, Berlin, S. 79–100. Bellmann, K. (1999): Produktion im Netzwerkverbund – Strategischer Faktor im globalen Wettbewerb. In: Nagel, K./Erben, R./Piller, F. (Hrsg.): Industriebetriebslehre 2000 – Perspektiven für die Fabrik der Zukunft, Wiesbaden, S. 195–216. Bellmann, K./Mildenberger, U./Haritz, A. (2000): Management von Technologienetzwerken. In: Kaluza, B./Blecker, Th. (Hrsg.): Produktions- und Logistikmanagement in Unternehmensnetzwerken und Virtuellen Unternehmen, Berlin u. a., S. 119–146. Bellmann, K./Haritz, A. (2001): Innovationen in Netzwerken. In: Blecker, Th./Gemünden, H. G. (Hrsg.): Innovatives Produktions- und Technologiemanagement, Berlin u. a., S. 271–297. Bellmann, K. (2001): Heterarchische Produktionsnetzwerke – ein konstruktivistischer Ansatz. In: Bellmann, K. (Hrsg.): Kooperations- und Netzwerkmanagement, Berlin, S. 31–54. Bellmann, K./Himpel, F. (2002): Management von Beschaffungsnetzwerken. In: Hahn, D./Kaufmann, L. (Hrsg.): Handbuch Industrielles Beschaffungsmanagement: Internationale Konzepte – Innovative Instrumente – Aktuelle Praxisbeispiele, 2., überarb. und erw. Aufl., Wiesbaden, S. 859–882. Bellmann, K. (2002): Produktion und Beschaffung – Management einer innerbetrieblichen Schnittstelle. In: Hahn, D./Kaufmann, L. (Hrsg.): Handbuch Industrielles Beschaffungsmanagement: Internationale Konzepte – Innovative Instrumente – Aktuelle Praxisbeispiele, 2., überarb. und erw. Aufl., Wiesbaden, S. 361–379. Bellmann, K. (2004): Wertschöpfungsmanagement als Kernkompetenz. In: Bertelsmann Stiftung u. a. (Hrsg.): Unternehmensnetzwerke – Fragen der Forschung, Erfahrungen der Praxis, Bielefeld, S. 24–30. Bellmann, K./Gerster, B. (2005): Netzwerkstrategien kleiner und mittlerer Unternehmen in Deutschland – Eine theoretische und empirische Untersuchung. In: Bildungsministerium der Russischen Förderation (Hrsg.): Unternehmensstrategien in Russland und in Deutschland, St. Petersburg, S. 32–50. Bellmann, K./Gerster, B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen – Eine theoretische und empirische Untersuchung. In: Blecker, Th./Gemünden, H. G. (Hrsg.): Wertschöpfungsnetzwerke, Berlin, S. 53–68. Bellmann, K./Müller, D. (2007): Auswirkungen der Globalisierung auf die Qualität von Automobilen. In: Hausladen, I. (Hrsg.): Management am Puls der Zeit – Strategien, Konzepte und Methoden, München, S. 903–921. Bretzke, W. R. (2002): SCM Collaboration und 4PL’s: Bemerkungen über die Grenzen eines Paradigmas. In: Logistik Management, Vol. 4 No. 1, S. 41–44. Brooke, M. Z./Remmers, L. H. (1978): The Strategy of Multinational Enterprise-Organization and Finance, 4. Ed., London. Buzzell, R. D. (1968): Can you Standardize Multinational Marketing. In: Harvard Business Review, Nov–Dec, S. 102–113. Chandler, A. D. (1962): Strategy and Structure Chapters in the History of the Industrial Enterprise, Cambridge/London. Chopra, S./Meindl, P. (2007): Supply Chain Management. Strategy, Planning and Operations. 3. Ed., Upper Saddle River (N.J.).

50

B. Kaluza und H. Winkler

Christopher, M. (1998): Logistics and Supply Chain Management. Strategies for reducing cost and improving service, 2. Ed., Edinburgh. Christopher, M./Hau, L. L. (2001): Supply Chain Confidence. The key to effective Supply Chains through improved visibility and reliability, o.O. Christopher, M./Towill, D. R. (2000): Supply chain migration from lean and functional to agile and customised. In: Supply Chain Management: An International Journal, Vol. 5 No. 4, S. 206–213. Christopher, M./Towill, D. (2001): An integrated model for the design of agile supply chains. In: International Journal of Physical Distribution & Logistics Management, Vol. 31 No. 4, S. 235–246. Cooper, M. C./Ellram, L. M. (1993): Characteristics of Supply Chain Management and the Implications for Purchasing and Logistics Strategy. In: The International Journal of Logistics Management, Vol. 4 No. 2, S. 13–22. Cooper, R./Slagmulder, R. (1999): Supply Chain Development fort he Lean Enterprise, Portland et al. Cooper, M./Lambert, D. M./Pagh, J. D. (1997): Supply Chain Management. More than a new name for logistics. In: The International Journal of Logistics Management, Vol. 8 No. 1, S. 1–14. Davis, S. M. (1979): Basic Structures of Multinational Corporations. In: Davis, S. M. (Ed.): Managing and Organizing Multinational Corporations, New York, S. 193–211. Daniels, J. O. et al. (1984): Strategy and Structure of U.S. Multinationals. An Exploratory Study. In: Academy of Management Journal, Vol. 27, S. 292–307. Daniels, J. O. et al. (1985): Organizing for dual Strategies of Product Diversity and International Expansion. In: Strategic Management Journal, Vol. 6, S. 223–237. Doran, D. (2003): Supply Chain implications of modularization. In: International Journal of Operations & Production Management, Vol. 23 No. 3, S. 316–326. Doran, D. (2004): Rethinking the supply chain: an automotive perspective. In: Supply Chain Management: An international Journal, Vol. 9 No. 1, S. 102–109. Doz, Y. L. et al. (1981): Global Competitive Pressures and Host Country Demands. In: California Management Review, Vol. 23, Spring, S. 63–73. Doz, Y. L. (1986): Strategic Management in Multinational Companies, Oxford. Duclos, L. K./Vokura, R. J./Lummus, R. R. (2003): A conceptual model of supply chain flexibility. In: Industrial Management & Data Systems, Vol. 106 No. 6, S. 446–456. Ellram, L. M./Cooper M. C. (1990): Supply Chain Management, Partnerships and the Shipper-Third Party Relationship. In: The International Journal of Logistics Management, Vol. 1 No. 2, S. 1–10. Engelhardt, W. H. et al. (1993): Leistungsbündel als Absatzojekte – Ein Ansatz zur Überwindung der Dichotomie von Sach- und Dienstleistungen, in: Zeitschrift für betriebswirtschaftliche Forschung, Vol. 45 No. 5, S. 395–426. Engelhoff, W. G. (1984): Strategy and Structure in Multinational Corporations. An information processing approach. In: Administrative Science Quarterly, Vol. 27, S. 425–458. Fischer, J. (2005): Flexibilität in betriebswirtschaftlichen Informations- und Kommunikationstechnologien. In: Kaluza, B./Blecker, Th. (Hrsg.): Erfolgsfaktor Flexibilität. Strategien und Konzepte für wandlungsfähige Unternehmen, Berlin, S. 323–341. Fleck, A. (1995): Hybride Wettbewerbsstrategien. Zur Synthese von Kosten- und Differenzierungsvorteilen, Wiesbaden. Frohlich, M. T./Westbrook, R. (2001): Arcs of integration: an international study of supply chain strategies. In: Journal of Operations Mangement, Vol. 19, S. 185–200. Griese, J. (1992): Auswirkungen globaler Informations- und Kommunikationssysteme auf die Organisation weltweit tätiger Unternehmen. In: Staehle, W. H./Conrad, P. (Hrsg.): Managementforschung, Berlin-New York 1992, S. 163–175.

Internationale Wertschöpfungsnetzwerke

51

Gunasekaran, A./Patel, C./Tirtiroglu, E. (2001): Performance measures and metrics in a supply chain environment. In: International Journal of Operations & Production Management, Vol. 21 No. 1/2, S. 71–87. Haller, A. (1997): Wertschöpfungsrechnung – Ein Instrument zur Steigerung der Aussagefähigkeit von Unternehmensabschlüssen im internationalen Kontext, Stuttgart. Handfield, R. B./Nichols, E. L. (1999): Introduction to Supply Chain Management. New Jersey. Harvey, M. G./Richey, R. G. (2001): Global Supply Chain Management – The selection of globally competent managers. In: Journal of International Management, Vol. 7, S. 105–128. Helo, P./Szekely, B. (2005): Logistics information systems. An analysis of software solutions for supply chain co-ordination. In: Industrial Management & Data Systems, Vol. 105 No. 1, S. 5–18. Kaluza, B. (1995a): Dynamische Produktdifferenzierungsstrategie und moderne Produktionskonzepte, Diskussionsbeitrag Nr. 211 des Fachbereichs Wirtschaftswissenschaft der Gerhard-Mercator-Universität – GH Duisburg, Duisburg. Kaluza, B. (1995b): Wettbewerbsstrategien und sozioökonomischer Wandel. In: Corsten, H. (Hrsg.): Produktion als Wettbewerbsfaktor. Beiträge zur Wettbewerbs- und Produktionsstrategie – ein Reader, Wiesbaden, S. 85–98. Kaluza, B. (1996): Dynamische Produktdifferenzierungsstrategie und moderne Produktionssysteme. In: Wildemann, H. (Hrsg.): Produktions- und Zuliefernetzwerke, München, S. 193–238. Kaluza, B./Blecker, Th. (1999): Dynamische Produktdifferenzierungsstrategie und Produktionsnetzwerke. In: Nagel, K./Erben, R. F./Piller, F. T. (Hrsg.): Produktionswirtschaft 2000. Perspektiven für die Fabrik der Zukunft, Wiesbaden., S. 261–280. Kaluza, B./Blecker, Th. (2000a): Strategische Optionen der Unternehmung ohne Grenzen. In: Kaluza, B./Blecker, Th. (Hrsg.): Produktions- und Logistikmanagement in virtuellen Unternehmensnetzwerken, Berlin et al., S. 533–567. Kaluza, B./Blecker, Th. (2000b): Supply Chain Management und Unternehmung ohne Grenzen – Zur Integration zweier interorganisationaler Konzepte. In: Wildemann, H. (Hrsg.): Supply Chain Management, München, S. 117–152. Kaluza, B./Blecker, Th. (2000c): Wettbewerbsstrategien – Markt- und ressourcenorientierte Sicht der strategischen Führung, München. Kaluza, B./Kemminer, J. (1997): Dynamisches Supply Management und Dynamische Produktdifferenzierungsstrategie – Moderne Konzepte für schlanke Industrieunternehmen. In: Kaluza, B./Trefz, J. (Hrsg.): Herausforderung Materialwirtschaft – Zur Bedeutung internationaler und nationaler Beschaffung, Hamburg, S. 3–53. Kara, S./Kayis, B. (2004): Manufacturing flexibility and variability: an overview. In: Journal of Manufacturing Technology Management, Vol. 115 No. 6, S. 466–478. Koch, W. J. (2006): Zur Wertschöpfungstiefe von Unternehmen. Die strategische Logik der Integration, Wiesbaden. Kogut, B. (1984): Designing Global Strategies: Comparative and Competitive Value Added Chains. In: Sloan Management Review, Vol. 27, Summer, S. 15–28. Kogut, B. (1985): International Sequential Advantages and Network Flexibility. In: Bartlett, C. A. et al. (Eds.): Managing the Global Firm, London/New York, S. 47–69. Lambert, D. M./Cooper, M. C. (2000): Issues in Supply Chain Management. In: International Marketing Management, Vol. 29 No. 1, S. 65–83. Lambert, D. M./Emmelhainz, M. A./Gardner, J. T. (1996): Developing and Implementing Supply Chain Partnerships. In: The International Journal of Logistics Management, Vol. 7 No. 2, S. 1–17. Larson, K. D. (1998): The role of service level agreements in IT service delivery. In: Information Management & Computer Security, Vol. 6 No. 3, S. 128–132.

52

B. Kaluza und H. Winkler

Lau, R. S. M. (1999): Critical factors for achieving manufacturing flexibility. In: International Journal of Operations & Production Management, Vol. 19 No. 3, S. 328–341. Lau, R. S. M./Yam, R. C. M. (2005): A case study of product modularization on supply chain design and coordination in Hong Kong and China. In: Journal of Manufacturing Technology Management, Vol. 16 No. 4, S. 432–446. Levitt, T. (1983): The Globalization of Markets. In: Harvard Business Review, Vol. 61, May–June, S. 92–102. Levy, M./Grewal, D. (2000): Supply Chain Management in a Networked Economy. In: Journal of Retailing, Vol. 76 No. 4, S. 415–429. Lummus, R./Duclos, L. K./Vokurka, R. J. (2003): Supply Chain Flexibility: Building a New Model. In: Global Journal of Flexible Systems Management Vol. 4 No. 4, S. 1–13. Meffert, H. (1986): Marketing im Spannungsfeld von weltweitem Wettbewerb und nationalen Bedürfnissen. In: Zeitschrift für Betriebswirtschaft, Vol. 56, S. 689–712. Meffert, H. (1989): Globalisierungsstrategien und ihre Umsetzung im internationalen Wettbewerb. In: Die Betriebswirtschaft, Vol. 49 No. 4, S. 445–463. Ndubisi, N. O./Jantan, M. & Hing, L. C./Ayub, M. S. (2005): Supplier selection and management strategies and manufacturing flexibility. In: The Journal of Enterprise Information Management, Vol. 18 No. 3, S. 330–349. Nissen, V./Bothe, M. (2002): Fourth Party Logistics – ein Überblick. In: Logistik Management, Vol. 4 No. 1, S. 16–26. Perlitz, M. (1995): Internationales Management, 2. Aufl., Stuttgart-Jena. Perlmutter, H. V./Heenan, D. A. (1986): Cooperate to Compete Globally. In: Harvard Business Review, Vol. 64, S. 136. Porter, M. E./Millar, V. (1985) How information gives you competitive advantage. In: Harvard Business Review, Vol. 63, Jul–Aug, S. 149–160. Porter, M. E. (1992a): Wettbewerbsstrategie. Methoden zur Analyse von Branchen und Konkurrenten, 7. Aufl., Frankfurt am Main – New York. Porter, M. E. (1992b): Wettbewerbsvorteile. Spitzenleistungen erreichen und behaupten, 3. Aufl., Frankfurt am Main-New York. Porter, M. E. (1989): Der Wettbewerb auf globalen Märkten – Ein Rahmenkonzept. In: Porter, M. E. (Hrsg.): Globaler Wettbewerb. Strategien der Internationalisierung, Wiesbaden, S. 17–68. Prater, E./Biehl, M./Smith, M. (2001): International supply chain agility: tradeoffs between flexibility and uncertainty. In: International Journal of Operations and Production Management, Vol. 22 No. 8, S. 929–947. Ricardo, E./Bardio, K. (2000): Evaluation of supply chain structures through modularization and postponement. In: European Journal of Operational Research, No. 124, S. 495–510. Robinson, St. (1993): The Application of Computer Simulation in Manufacturing. In: Integrated Manufacturing Systems, Vol. 4 No. 4., S. 123–137. Simchi-Levi, D./Kaminsky, Ph./Simchi-Levi, E. (2000): Designing and Managing the Supply Chain, Concepts. Strategies and Case Studies, Boston et al. Stockton, D./Bateman, N. (1995): Measuring the production range flexibility of a FMS. In: Integrated Manufacturing Systems, Vol. 6 No. 2, S. 27–34. Sydow, J. (1993): Strategische Netzwerke. Evolution und Organisation, Wiesbaden. Sydow, J.; Möllering, G. (2004): Produktion in Netzwerken. Make, Buy, Cooperate, München. Tan, K. C. (2001): A framework of supply chain management literature. In: European Journal of Purchasing & Supply Management, No. 7, S. 39–48.

Internationale Wertschöpfungsnetzwerke

53

Tan, K. C./Kannan, V. R./Handfield, R. B./Ghosh, S. (1999): Supply chain management: an empirical study of its impact on performance. In: International Journal of Operations & Production Management, Vol. 19 No. 10, S. 1034–1052. Tracey, M./Lim, J.-S./Vonderembse, M. A. (2005): The impact of supply chain management capabilities on business performance. In: Supply Chain Management: An International Journal, Vol. 10 No. 3, S. 179–191. Welge, M. K./Böttcher, R. (1991): Globale Strategien und Probleme ihrer Implementierung. In: Die Betriebswirtschaft, Vol. 51 No. 4, S. 435–454. Wenke, K.-G. (1987): Theorie der Wertschöpfung und der Wertschöpfungsrechnung, Dissertationsschrift, Mainz. Wilding, R. (1998): The supply chain complexity triangle. Uncertainty generation in the supply chain. In: International Journal of Physical Distribution & Logistics Management, Vol. 28 No. 8, S. 599–618. Winkler, H. (2005): Konzept und Einsatzmöglichkeiten des Supply Chain Controlling. Am Beispiel einer Virtuellen Supply Chain Organisation (VISCO), Wiesbaden. Winkler, H. (2006a): Zielplanung und -abstimmung in strategischen Supply Chain Netzwerken, in: Blecker, Th./Gemünden, H.G. (Hrsg.): Wertschöpfungsnetzwerke. Festschrift für Bernd Kaluza zum 65. Geburtstag, Berlin, S. 237–251. Winkler, H. (2006b): Entwicklung von Supply Chain Strategien für eine Virtuelle Supply Chain Organisation (VISCO). In: Zeitschrift für Planung und Unternehmenssteuerung, Vol. 17 No. 1, S. 47–72.

Geschäftsprozessorientiertes Risikomanagement am Beispiel der industriellen Produktion Eva-Maria Kern und Thomas Hartung

1

Einleitung

Störungen im Leistungsprozess eines produktionsorientierten Unternehmens können in Extremfällen zu massiven Beeinträchtigungen der Unternehmensstabilität führen. Zahlreiche Beispiele belegen die erheblichen Bedrohungen, die etwa durch Betriebsunterbrechungsschäden ausgelöst werden können. So verursachte etwa am 22. Juni 2006 ein Großbrand in einem Stahlwerk der Thyssen-Krupp Nirosta GmbH einen Sach- und Produktionsausfallschaden von ca. 285 Millionen Euro.1 Ein Jahr zuvor, am 1. Juni 2005, verursachte ebenfalls ein Großbrand im Hauptwerk des Halbleiterproduzenten Schweizer Electronic AG im Schwarzwald einen geschätzten Schaden von 140 Millionen Euro2, wobei erst nach etwa 2 Jahren die vollen Produktionskapazitäten wieder hergestellt werden konnten. Derartige Fälle weisen auf die herausragende Bedeutung des Risikomanagements hin, wenn es gilt, aufgrund von im leistungswirtschaftlichen Bereich zu verortenden Schadenfällen Übersprungseffekte auf die finanzielle Stabilität eines Unternehmens zu verhindern. Diese Sichtweise vertritt seit einigen Jahren auch der Gesetzgeber, der deshalb für zahlreiche Unternehmen ein sorgsam betriebenes Risikomanagement gesetzlich zu verankern versucht. So wurde als Folge einiger spektakulärer Unternehmensschieflagen bzw. -zusammenbrüchen und einer dadurch ausgelösten Diskussion über Corporate Governance im März 1998 das Gesetz zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) verabschiedet, das unter anderem umfangreiche Überwachungs- und Informationspflichten des Managements regelt und damit zur frühzeitigen Erkennung und Begrenzung von Risiken im Unternehmen führen soll.3 Durch eine Erweiterung des § 91 AktG wird der Vorstand einer Aktiengesellschaft4 verpflichtet, für die Implementierung eines angemessenen Frühwarnsystems und eines internen Überwachungssystems, das die Anwendung des ersteren kontrollieren und gewährleisten soll, 1

Vgl. GenRe, 2006, S. 8.

2

Vgl. ebenda, S. 9.

3

Vgl. Zimmer/Sonneborn, 2001, S. 41; Lingemann/Wasmann, 1998, S. 853.

4

Zwar ist durch die Kodifizierung der Vorschrift im Aktiengesetz primär die Rechtsform AG durch diese Regelung betroffen, allerdings ging der Gesetzgeber von einer Ausstrahlungswirkung auch auf andere Rechtsformen aus. Vgl. Picot, 2001, S. 14; Salzberger, 2000, S. 757.

56

E.-M. Kern und Th. Hartung

Sorge zu tragen.5 Allerdings werden weder durch den Wortlaut des Gesetzes noch durch die Gesetzesbegründung konkrete Vorgaben gesetzt, wie die jeweiligen Systeme in praxi auszugestalten sind.6 Mittelbare Forderungen nach einem unternehmensweiten Risikomanagement lassen sich auch aus den Vorschriften über die Eigenkapitalanforderungen für Kreditinstitute (Basel II) ableiten. Werden die Entscheidung über die Kreditvergabe sowie die Kosten der Kreditfinanzierung deutlich auf die Ausfallgefahr des Kreditnehmers abgestellt, lässt sich insbesondere für diejenigen Unternehmen, die ihre Kapitalbeschaffung überwiegend über Bankkredite praktizieren, eine zwingende Notwendigkeit für die Implementierung eines Risikomanagementsystems konstatieren. Da der Regelungsrahmen von Basel II sich aber auf die Kreditwirtschaft bezieht, können für die betroffenen Kreditnehmer hieraus ebenfalls keine unmittelbaren und nur wenig konkrete Handlungsanweisungen für die Gestaltung ihres Risikomanagements abgeleitet werden. Lediglich Hinweise auf zu erfüllende Anforderungen von bankinternen oder öffentlichen Rating-Verfahren stecken einen gewissen Rahmen für eine mögliche Reichweite des betrieblichen Risikomanagements ab. Zusammenfassend kann festgehalten werden, dass die Vorgaben des Gesetzgebers nur einen allgemeingültigen und vagen Rahmen zur Ausgestaltung des Risikomanagements liefern. Praktische Hilfestellungen zur unternehmensspezifischen Operationalisierung werden nur unzureichend zur Verfügung gestellt. Unternehmen stehen daher vor der Herausforderung, selbst einen wirkungsvollen, d. h. ihren Bedürfnissen gerecht werdenden Risikomanagement-Ansatz zu entwickeln. Erschwerend kommt hierbei hinzu, dass das in Unternehmen betriebene traditionelle Risikomanagement vorwiegend in der Unternehmensführung verankert ist, damit leitungszentriert und im Schwerpunkt lediglich strategisch ausgerichtet betrieben wird. Daraus resultiert eine oftmals nur rudimentäre Integration in die eigentlichen Wertschöpfungsprozesse. Insbesondere wird dadurch ein zielorientiertes Management der sogenannten leistungswirtschaftlichen Risiken erschwert7. Da diese im direkten Zusammenhang mit den eigentlichen betrieblichen Leistungsprozessen stehen, d. h. entweder die Risikoursache und/oder die Risikowirkung im Prozesskontext anzusiedeln ist, ist es für ein effektives Risikomanagement zwingend erforderlich, die Geschäftsprozesse als Informationsquelle für die Risikoidentifikation und -bewertung heranzuziehen. Nur so kann gewährleistet werden, dass relevante Risiken auch mit dem nötigen Detaillierungsgrad erfasst werden. Dies ermöglicht einerseits eine gezielte Bestimmung von rein operativen Maßnahmen zur Risikobewältigung, andererseits können sich daraus aber auch relevante Implikationen für das strategische Risikomanagement ergeben. Zielsetzung des vorliegenden Beitrags ist somit, einen Ansatz vorzustellen, der das leistungswirtschaftliche Geschehen im Unternehmen und das Erfordernis einer dort dezentral angesiedelten Verankerung von Risikomanagementaktivitäten in den Mittelpunkt rückt. Hierzu werden zunächst – in Form des Risikomanagementprozesses – die Bestandteile eines systematisch vor5

„Der Vorstand hat geeignete Maßnahmen zu treffen, insbesondere ein Überwachungssystem einzurichten, damit den Fortbestand der Gesellschaft gefährdende Entwicklungen früh erkannt werden.“ (§ 91 Abs. 2 AktG).

6

Entsprechend hat sich die Meinung durchgesetzt, dass die Anforderungen unter Berücksichtigung vernünftiger betriebswirtschaftlicher Aspekte zu formulieren sind. Vgl. Lück, 1999, S. 142.

7

Zur Systematisierung von Risiken vgl. Kremers 2002, S. 47ff.; Beispiele für leistungswirtschaftliche Risiken sind z. B. Sachrisiken, Personenrisiken oder Marktrisiken, vgl. Hölscher 2002, S. 6.

Geschäftsorientiertes Risikomanagement

57

gehenden Risikomanagements vorgestellt, bevor auf deren meist unzulängliche Umsetzung in Unternehmen eingegangen wird. Im Anschluss erfolgt die Darlegung des Konzeptes eines geschäftsprozessorientierten Risikomanagements, dessen mögliche Anwendung dann am Beispiel der Produktion skizziert werden soll.

2

Die grundlegende Konzeption des traditionellen Risikomanagments

2.1 Bestandteile eines systematischen Risikomanagements In einer generischen Sichtweise umfasst Risikomanagement die systematische Analyse und koordinierte Führung aller betrieblichen Risiken eines Unternehmens.8 Unter Berücksichtigung der Gesamtheit aller in einem Unternehmen existierenden Risiken lässt sich die Hauptaufgabe des Risikomanagements darin sehen, dafür Sorge zu tragen, dass ein unternehmenspolitisch vorgegebenes, relativ zu den vorhandenen Risikopuffern definiertes Risikoakzeptanzniveau bzw. Risikolimit nicht überschritten wird.9 Spezifiziert auf einen speziellen Unternehmensbereich kann die Aufgabe des Risikomanagements so interpretiert werden, dass es gilt, für diesen Bereich eine tolerable Risikolage zu gestalten. Wenn als Zweck des Risikomanagements vor allem die Erhaltung und Weiterentwicklung der Unternehmung durch die Bewusstmachung und die dadurch stimulierte Bewältigung von Risiken bei allen unternehmerischen Führungs- und Durchführungsprozessen anerkannt wird10, ist Risikomanagement zwangsläufig als kontinuierlich verlaufender Prozess zu begreifen, der nicht isoliert neben den eigentlichen Unternehmensaktivitäten verlaufen darf, sondern der in die wesentlichen Unternehmensprozesse integriert werden muss.11 Entsprechend finden sich die Bestandteile eines systematischen Risikomanagements und ihre strukturierte Abfolge im Modell des Risikomanagementprozesses wieder. Dieser ist darauf fokussiert Risiken zu analysieren, d. h. zu identifizieren und zu bewerten, Gestaltungsempfehlungen für die Umsetzung risikopolitischer Maßnahmen zu liefern sowie die Wirksamkeit dieser Maßnahmen zu überprüfen. In der Literatur existiert eine Vielzahl unterschiedlicher Varianten des Risikomanagementprozesses, die jedoch letztendlich alle auf die drei Grundphasen Risikoanalyse, Risikosteuerung und Risikoüberwachung zurückgeführt werden können (vgl. Abb. 1, s. S. 58).12 Zweck der Risikoanalyse ist es, durch die Erfassung und Bewertung der aktuellen Risikolage eines Unternehmens Ansatzpunkte für die Entwicklung und die Umsetzung risikopolitischer Maßnahmen zu liefern. Dazu ist es im Rahmen der Risikoidentifikation erforderlich, alle unternehmensrelevanten Risiken strukturiert zu erfassen, hinsichtlich ihres Ursachensystems zu klassifizieren sowie deren Risikowirkungen darzustellen. Zudem werden in diesem Schritt mögliche Interdependenzen zwischen den Einzelrisiken beleuchtet13. 8

Vgl. Helten, 1984, S. 16.

9

Vgl. Gebhardt/Mansch, 2001, S. 32. Ziel des Risikomanagements kann es hingegen nicht sein, alle betrieblichen Risiken absolut und in ihrer Gänze zu vermeiden, da dies nur durch die Einstellung jeglicher unternehmerischer Tätigkeit zu erreichen wäre.

10

Vgl. Hahn, 1987, S. 138.

11

Vgl. KPMG Deutschland, 1998, S. 17.

12

Vgl. Schradin, 2007, Sp. 1588.

13

Vgl. ebenda.

58

Abbildung 1:

E.-M. Kern und Th. Hartung

Risikomanagementprozess

Das Identifizieren von Risiken ist vornehmlich ein Problem strukturell-systematischer Vollständigkeit. Unbeachtete oder unterschätzte Ursachen können aufgrund verborgener oder nur schwer erkennbarer nicht-linearer Effekte und Rückkopplungen unkalkulierte Wirkungen auslösen. Umso bedeutender ist es, die Potenziale für Zielabweichungen, insbesondere die Ursachen der möglichen Schadengefahren, möglichst vollständig zu erfassen. Die Risikoidentifikation umfasst daher sowohl das Erkennen neuer Risiken als auch die Aufdeckung von Veränderungen bei bereits bestehenden Risiken. Folglich ist die Identifikation der Risiken nicht als einmaliger Vorgang zu begreifen, sondern als kontinuierlich ablaufender Prozess, der das Unternehmen und sein Umfeld systematisch auf bestehende Risiken, auf neu entstehende Risiken und auf denkbare Veränderungen des betrieblichen Risikoprofils zu untersuchen hat. Den zweiten Schritt der Risikoanalyse stellt die Bewertung der identifizierten Risiken dar. Basisaufgabe einer Risikobewertung ist die Bereitstellung der für risikopolitische Entscheidungen erforderlichen Informationen, mittels derer Erkenntnisse über alle wirtschaftlichen Folgen potenzieller Stör- bzw. Schadenereignisse gewonnen werden können.14 Wesentlich hierfür sind insbesondere Informationen, die eine Einschätzung über die Tragweite oder die Gefährlichkeit eines Risikos zulassen.15 Ergebnis der Risikoanalyse ist eine umfassende Darstellung unternehmensrelevanter Risiken, der ihnen zugrundeliegenden Ursachenkomplexe sowie deren Auswirkungen in qualitativer und quantitativer Hinsicht.16 Auf Basis der Risikoanalyse kann nun entschieden werden, welche Risiken gezielt gesteuert werden müssen. Risikosteuerung bedeutet dabei, gezielt Maßnahmen zur Beeinflussung von Risiken zu definieren und umzusetzen. Dabei können prinzipiell ursachen- bzw. wirkungsbezogene Maßnahmen unterschieden werden.17 Ursachenbezogene Maßnahmen zielen auf die Reduktion der Gefährdung ab, d. h. die entsprechenden Maßnahmen greifen vor Eintreten des Risikos (Prävention). Wirkungsbezogene Maßnahmen dienen dagegen dazu, die Auswirkungen des eingetretenen Risikos auf das Unternehmen zu vermindern, d. h. sie greifen nach dem Eintreten des Risikos. 14

Vgl. Hoffmann, 1985, S. 61.

15

Entsprechend ist Risiko so zu operationalisieren, dass der Gefährlichkeitsgrad eines Risikos gemessen bzw. eingestuft werden kann.

16

Vgl. Schimmelpfeng, 2001, S. 282.

17

Vgl. exemplarisch Philip, 1967, S. 70.

Geschäftsorientiertes Risikomanagement

59

In der Prozessphase der Risikoüberwachung wird die Wirksamkeit und Effizienz des Risikomanagements beurteilt18. Hierbei wird einerseits überprüft, ob die definierten Maßnahmen zur Risikosteuerung den gewünschten Erfolg hatten; andererseits muss jedoch auch kritisch hinterfragt werden, ob die bei der Risikoidentifikation ermittelte Risikobasis zweckmäßig gewählt war bzw. ob die Bewertung der Risiken korrekt durchgeführt wurde, bzw. angesichts von Änderungen in den Rahmenbedingungen noch seine Gültigkeit besitzt.

2.2 Defizite des traditionellen Risikomanagements Im traditionellen Risikomanagement leidet der Risikomanagementprozess in der überwiegenden Zahl der Fälle an dem Manko, aufbauorganisatorisch zentral im Umfeld der Unternehmensführung positioniert zu werden. Risikomanagementaufgaben werden gerne in zentralen Risikomanagementabteilungen gebündelt oder als Teilaufgabe dem Unternehmenscontrolling zugewiesen.19 Daraus resultiert jedoch ein überwiegend strategisch geprägtes Risikomanagementverständnis, das zwar weitreichende Maßnahmenkataloge gegen Risiken, die die unternehmerischen Formalziele bedrohen, und – als klassischer Untersuchungsgegenstand des Risikomanagements – gegen finanzwirtschaftliche Risiken zur Verfügung stellt, jedoch nur wenige Handlungsanweisungen für Risikomanagementaktivitäten auf operativ-leistungswirtschaftlicher bzw. produktionsorientierter Ebene bietet.20 Damit einher geht das fast durchwegs hohe Abstraktionsniveau, auf dem der Risikomanagementprozess beschrieben wird, so dass nur globale Risikoanalysen resultieren, die zwar die Risikolage auf der obersten Unternehmensebene darlegen, jedoch keinerlei Gestaltungsempfehlungen zur Operationalisierung von Maßnahmen auf produktionstechnischer Ebene zulassen. Dies ist nicht zuletzt auch den Informationsdefiziten aufgrund einer nur unzureichenden Berücksichtigung der konkreten Ausprägungen leistungswirtschaftlicher Risiken auf Geschäftsprozessebene geschuldet. Als Ergebnis lässt sich dann eine ungenügende Operationalisierung des Risikomanagements auf dieser Ebene konstatieren. Damit werden aber Risikomanagementaktivitäten nicht oder zumindest nicht in ausreichendem Umfang in die täglichen Arbeitsabläufe integriert. Als Zwischenfazit bleibt festzuhalten, dass ein umfassendes und effektives Risikomanagement einer strategischen und einer operativen Komponente bedarf, die integriert werden müssen. Da die operative Leistungserstellung in den Geschäftsprozessen eines Unternehmens erfolgt, bietet es sich an, die operative Komponente des Risikomanagements im leistungswirtschaftlichen Bereich der Ablauforganisation des Unternehmens zu verankern.

3

Konzept eines geschäftsprozessorientierten Risikomanagements

Das in diesem Beitrag beschriebene Konzept schlägt zur Behebung der oben beschriebenen Defizite vor, das traditionell leitungszentrierte, strategische Risikomanagement durch eine geschäftsprozessorientierte und damit operativ ausgerichtete Risikomanagement-Komponente 18

Vgl. Hölscher, 2002, S. 16.

19

Vgl. Glaum, 2000, S. 18–19.

20

Beispielsweise fokussiert das KonTraG übergreifend auf die Erfassung risikobehafteter Geschäfte, die Aufdeckung von Unrichtigkeiten in der Rechnungslegung und die Identifizierung sonstiger Verstöße gegen gesetzliche Vorschriften, die sich auf die Vermögens-, Finanz- und Ertragslage des Unternehmens wesentlich auswirken können. Vgl. Deutscher Bundestag, 1998, S. 37–38.

60

E.-M. Kern und Th. Hartung

zu erweitern. Diese Komponente dient zur Erfassung der leistungswirtschaftlichen Risiken direkt auf der Ebene der Wertschöpfungsprozesse. Die Analyseobjekte der geschäftsprozessorientierten Risikomanagement-Komponente sind die Kern- und Supportprozesse21 des Unternehmens sowie deren Schnittstellen (vgl. Abb. 2). Betrachtet werden jene Risiken, die einen direkten Einfluss auf die Zielerreichung der einzelnen Geschäftsprozesse haben, d. h. Risiken, die mit dem Leistungserstellungprozess unmittelbar in Verbindung stehen.22 Hierzu zählen z. B. (Input-) Faktorrisiken, (Output-) Produktrisiken, Verarbeitungs- bzw. Transformationsrisiken, Transportrisiken und Personalrisiken.

Abbildung 2:

Analyseraum der geschäftsprozessorientierten Risikomanagementkomponente

Betrachtet werden neben unternehmensinternen Risikoquellen wie z. B. anderen Geschäftsprozessen insbesondere auch Risiken, deren Ursachen im Bereich von Wertschöpfungspartnern bzw. von Kunden liegen oder im Unternehmensumfeld angesiedelt sind.

3.1 Durchführung des geschäftsprozessorientierten Risikomanagements Zur Realisierung des geschäftsprozessorientierten Risikomanagements werden die unternehmensspezifischen Kern- und Supportprozesse konsequent als Basis für die Durchführung der einzelnen Phasen des Risikomanagementprozesses herangezogen. Zur Gewährleistung einer fundierten Risikoanalyse ist es erforderlich, für die zu betrachtenden Prozesse sowohl Transparenz in Bezug auf deren Struktur als auch deren Leistung herzustellen. Prozessstrukturtransparenz wird am besten durch die Erstellung einer Prozessbeschreibung (z. B. in Form eines Prozessmodells) erzielt, die die wesentlichen Prozessschritte, die daran beteiligten Unternehmensfunktionen, sowie die Schnittstellen und Interdependenzen zu anderen internen Geschäftsprozessen sowie zu Wertschöpfungspartnern bzw. Kunden beinhaltet. Prozessleistungstransparenz wird durch die Definition der relevanten Prozessziele sowie deren Operationalisierung durch Leistungskennzahlen geschaffen. Ausgangspunkt für den ersten Teilschritt der Risikoanalyse, die Risikoidentifikation, ist die Frage, das Eintreten welcher Risiken verhindern kann, dass die definierten Prozessziele erreicht werden. Durch die Orientierung am Prozess können detaillierte Einzelrisiken ermittelt werden; 21

Zur Begriffsdefinition vgl. Becker/Kahn, 2005, S. 7.

22

Vgl. exemplarisch Wolke, 2007, S. 197ff.

Geschäftsorientiertes Risikomanagement

61

insbesondere der Zielbezug erleichtert dabei die Identifikation prozessspezifischer und damit auch tatsächlich relevanter Risiken. Für eine systematische Durchführung der Risikoidentifikation kann es zweckmäßig sein, als Strukturierungshilfe allgemeine übergeordnete Risikokategorien vorzugeben, und deren untergeordnete Einzelrisiken geschäftsprozessspezifisch zu ermitteln. Bereits bei der Identifikation sollte eine Klassifikation der ermittelten Risiken hinsichtlich der Lokalisierung ihrer Ursache vorgenommen werden (vgl. Abb. 3). Unterschieden wird dabei zwischen prozessinternen Risikoursachen, die im Geschäftsprozess selbst liegen, und prozessexternen Risikoursachen, die entweder in anderen Geschäftsprozessen bzw. Bereichen des Unternehmens oder aber außerhalb des Unternehmens liegen. Wie später erläutert wird, erweist sich diese Klassifikation als bedeutsam für die Maßnahmendefinition im Rahmen der Risikosteuerung. Auch bei der Durchführung der Risikobewertung sollte eine Klassifikation der Risiken durchgeführt werden, diesmal in Bezug auf ihre Wirkung. Unterschieden wird hierbei nach Maßgabe der Reichweite der Wirkung, d. h. ob nach Eintreten des Risikos nur die Zielerreichung des Prozesses selbst beeinflusst wird, oder aber andere Geschäftsprozesse bzw. Wertschöpfungspartner oder Kunden oder das weitere Unternehmensumfeld betroffen sind. Beispielsweise kann ein Brand an einer Produktionsanlage nicht nur den eigentlichen Produktionsprozess stören, son-

Abbildung 3:

Beispielhafte Verortung des Anlagenausfallrisikos in der Risiko-Klassifikationsmatrix

62

E.-M. Kern und Th. Hartung

dern auch die Belieferung des Kunden verhindern oder aber sogar zu einer Gefährdung der Anrainer bzw. zu Umweltschäden führen. Die bei der Risikoanalyse durchgeführte Klassifikation der identifizierten Risiken wird nun als Basis für die Risikosteuerung herangezogen. Ansatzpunkt des vorliegenden Konzeptes ist es, die Maßnahmendefinition und -umsetzung gezielt auf die Unternehmensebenen zu verlagern, die vom Risiko betroffen sind. Damit bleibt einerseits die Risikothematik für die Mitarbeiter durch den unmittelbaren Bezug zu ihrem Tätigkeitsbereich nicht abstrakt; vielmehr wird deutlich, dass die Umsetzung geeigneter Maßnahmen zur Risikosteuerung für die reibungslose Aufgabenerfüllung unabdingbar ist. Andererseits ist auf den entsprechenden Ebenen auch das fundierteste Wissen zur jeweiligen Problemlösung vorhanden, wodurch die Qualität der definierten Maßnahmen steigt. Demgemäß sollten z. B. bei einem Risiko, dessen Ursache prozessintern lokalisiert ist, zunächst Vorschläge für ursachenbezogene Maßnahmen direkt von den Prozessverantwortlichen bzw. deren Mitarbeitern erstellt werden. In Abhängigkeit von der Komplexität der Maßnahmen bzw. der für ihre Umsetzung letztendlich benötigten Kompetenz kann dann deren gezielte Delegierung in die entsprechenden Unternehmensbereiche bzw. Hierarchieebenen durchgeführt werden. Beispielsweise sind bei einem Anlagenausfall in der Produktion der Produktionsleiter und seine Mitarbeiter gefordert, geeignete Maßnahmen zu definieren, die die Eintrittswahrscheinlichkeit eines solchen Ausfalls reduzieren. Während die Durchführung präventiver Instandhaltungsmaßnahmen jedoch ohne weiteres vom Produktionsleiter selbst verantwortet werden kann, bedarf die Beschaffung einer neuen Produktionsanlage zu ihrer Umsetzung eines Entscheiders einer höheren Hierarchieebene. Bei der Definition von wirkungsbezogenen Maßnahmen gestaltet sich die Vorgehensweise analog. In Abhängigkeit von der Reichweite des Risikos müssen die jeweilig Betroffenen bzw. Verantwortlichen in die Maßnahmendefinition involviert werden. Der Produktionsleiter, der nach einem Anlagenausfall sein Produktivitätsziel nicht mehr erreichen kann, wird danach trachten, möglichst schnell eine Reparatur der Anlage zu bewerkstelligen; damit ist jedoch nur die prozessinterne Risikowirkung „Produktionsausfall“ minimiert. Im Sinne der Maßnahmendelegierung ist nun dafür Sorge zu tragen, dass der für den Kunden verantwortliche Vertriebsbzw. Innendienstmitarbeiter die nötigen Maßnahmen ergreift, um den Schaden beim (am stärksten betroffenen) Kunden in Grenzen zu halten. Die nach dem dargestellten Schema vorgenommene Klassifikation der Risiken ermöglicht es somit, eine Maßnahmenhierarchie aufzustellen. Dies hat den Vorteil, dass eine Durchgängigkeit der Maßnahmen auf allen Unternehmensebenen sichergestellt werden kann und klare Verantwortlichkeiten für die Maßnahmendefinition und -umsetzung festgelegt werden können. Diese Vorgehensweise stellt auch eine fundierte Basis für eine in sich schlüssige Risikoüberwachung dar, die durch eine Integration finanzwirtschaftlicher Risiken komplettiert wird.

3.2 Zusammenwirken von leitungszentriertem und geschäftsprozessorientiertem Risikomanagement Zur Gewährleistung eines wirkungsvollen, konsistenten Risikomanagements im Gesamtunternehmen ist eine enge Verzahnung zwischen dem leitungszentrierten und dem geschäftsprozessorientierten Risikomanagement erforderlich. Abbildung 4 beschreibt die spezifischen Aufgaben und das Zusammenwirken zwischen diesen beiden Komponenten.

63

Geschäftsorientiertes Risikomanagement

Betrachtete Risikokategorien

Verankerung

Hauptaufgaben

leitungszentriertes Risikomanagement

• • • • •

Aufbauorganisation

• • • • • • • • • • • • • • • • •

Vorgabe Risikopolitik Anwendung des Risikomanagementprozesses auf übergeordneter Ebene Erstellung eines generischen Risikoportfolios für das Unternehmen – Definition von relevanten Risikoklassen Definition, Umsetzung und Überwachung strategischer Maßnahmen Vorgaben für das geschäftsprozessorientierte Risikomanagement Überwachung der Konsistenz und „Politikkonformität“ aller Risikomanagementmaßnahmen Aggregation von Informationen aus dem geschäftsprozessorientierten Risikomanagement …

geschäftsprozessorientiertes Risikomanagement

• Leistungs• wirtschaftliche • Risiken

Ablauforganisation

• • • • • • • • • •

Anwendung des Risikomanagementprozesses auf Ebene der Geschäftsprozesse Klassifikation von Risiken zur „ebenengerechten“ Maßnahmendefinition Definition, Umsetzung und Überwachung operativer Maßnahmen Informationsversorgung des leitungszentrierten Risikomanagements …

Finanzwirtschaftliche Risiken Leistungswirtschaftliche Risiken

Abbildung 4: Aufgaben und Zusammenwirken von leitungszentriertem und geschäftsprozessorientiertem Risikomanagement

Wie nun das vorgeschlagene Risikomanagementkonzept angewendet werden kann, und welcher Nutzen daraus entsteht, wird im Folgenden am Beispiel der Produktion näher ausgeführt.

3.3 Geschäftsprozessorientiertes Risikomanagement in der Produktion Die besondere Risikolastigkeit der industriellen Produktion lässt sich einerseits mit der hohen Kapitalbindung in komplexen, automatisierten Produktionssystemen und der damit verbundenen Wertekonzentrationen begründen, andererseits wird sie im Rahmen arbeitsteilig organisierter industrieller Leistungserstellungsprozesse durch eine hohe Zahl an Schnittstellen verursacht.23 Vor diesem Hintergrund soll Risikomanagement dazu beitragen, Ziele der industriellen Produktion mit höherer Wahrscheinlichkeit oder mit höherem Erreichungsgrad zu erfüllen. 23

Störeinflüsse bei vorgelagerten Teilleistungen führen im Ablauf vorgegebener Ursache-Wirkungs-Mechanismen durch Fehlerfortpflanzung zwangsläufig zu weiteren Störungen bei nachgelagerten Teilleistungen beziehungsweise bei der Gesamtleistung. Vgl. Helten/Hartung, 2002, S. 258.

64

E.-M. Kern und Th. Hartung

Konkret sollen insbesondere ein hohes Verfügbarkeitsniveau der Produktionsanlagen sowie eine hohe Stabilität der Produktionsprozesse sichergestellt werden, um eine planmäßige Erstellung der Produktionsergebnisse zu gewährleisten. Vornehmlich werden in der industriellen Produktion technisch orientierte Vorgänge betrachtet, so dass unter Risiken der industriellen Produktion in einem engen Begriffsverständnis all diejenigen Risiken subsumiert werden, die mit dem industriell orientierten Leistungserstellungsprozess unmittelbar in Verbindung stehen.24 Für die Einteilung von Risiken der industriellen Produktion hat sich in der Literatur demgemäß die folgende Kategorisierung etabliert:25 – sachbezogene Risiken, die sich in erster Linie durch Substanzschäden, wie beispielsweise Maschinenschäden oder Materialverluste, konkretisieren, – personenbezogene Risiken, die mögliche Personenschäden umfassen, aber auch die Rubrik des gerne zitierten „menschlichen Versagens“ sowie den ungeplanten Verlustes von KnowHow-Trägern beinhalten, – Unterbrechungsrisiken, die maßgeblich durch Störungen im Produktionsprozess zum Tragen kommen, sowie – Haftpflichtrisiken, die auf unerwünschte Ausstrahlungseffekte der Produktionsergebnisse im Rahmen ihrer weiteren Verwendung fokussiert sind. Werden diese Risiken nur im Rahmen einer leitungszentrierten Risikosteuerung behandelt, besteht die Gefahr einer zu pauschalen und oberflächlichen Zusammenstellung risikoreduzierender Maßnahmen. Diese Gefahr wird noch verstärkt, wenn unternehmensspezifische Gegebenheiten außer Acht gelassen werden und nur auf standardisierte Maßnahmenportfolios abgestellt wird. Andererseits führen im Falle von Leistungsstörungen die gerade in der Produktion vielfach üblichen ad hoc Eingriffe zwar kurzfristig zur Aufrechterhaltung des Produktionsbetriebs, jedoch nicht zwingend zu nachhaltig effizienten und Wechselwirkungen mit anderen Prozessen berücksichtigenden Lösungen. Auf Prozessebene vorhandene Problemlösungsansätze müssen zwar als „Notfallmaßnahme“ genutzt werden, sollten aber auch als Impulsgeber für strategische Maßnahmenpakete dienen. Dies kann nur durch kontinuierliche Interaktion zwischen leitungszentriertem und geschäftsprozessorientiertem Risikomanagement bewerkstelligt werden. Im Falle des oben bereits angeführten Anlagenausfalls gilt es zunächst, die Produktionsunterbrechung schnellstmöglich zu beheben. Hierfür können ex ante von einem leitungszentrierten Risikomanagement durchaus allgemeine Notfallpläne bereit gestellt werden, die das Verhalten bei Anlagenausfällen auf generischer Ebene behandeln. Allerdings besteht aufgrund der Distanz zum tatsächlichen Produktionsgeschehen die Gefahr, hierin nur abstrakte Vorgehensweisen festzulegen und dabei Anlagen- und Prozessspezifika sowie Fortplanzungseffekte über Prozessschnittstellen zu vernachlässigen. Spezifische, auf die zeitnahe Wiederherstellung der Produktionsfähigkeiten und/oder -kapazitäten abzielende Maßnahmen oder auch die Durchführung vorbeugender Instandhaltungsmaßnahmen sollten daher lokal verantwortet werden. 24

Eine derartige Sichtweise schließt dann zum Beispiel finanzwirtschaftliche Risiken aus, die beispielsweise mit der Finanzierung kapitalintensiver Produktionssysteme in Zusammenhang stehen.

25

Vgl. Farny, 1996, Sp. 1802. Weitere, regelmäßig angeführte Kategorien wie beispielsweise Naturkatastrophen oder Terrorismus beschreiben die Ursache beziehungsweise den Auslöser des Risikos und lassen sich somit in die oben angeführte Einteilung subsumieren.

Geschäftsorientiertes Risikomanagement

65

Je nach Risikowirkungen auf nachfolgende Unternehmensprozesse, beispielsweise auf Vertriebsprozesse, sollte die Maßnahmenauswahl aber auch in Kooperation mit den dort betroffenen Prozessverantwortlichen getroffen werden. So könnte, je nach Störungsintensität, für betroffene besondere Key Accounts durchaus eine Anpassung der Produktionsplanung in anderen Produktionslinien oder sogar eine Auslagerung der Produktion an Drittfirmen in Betracht gezogen werden, um den Ausfall zu kompensieren. Um ein solches schnittstellenübergreifendes Vorgehen realisieren zu können, ist die Anwendung einer geschäftsprozessorientierten Risikomanagementkonzeption wie in Abschnitt 3.1 beschrieben erforderlich. Insgesamt sollte jedoch auch durchaus eine strategische Sichtweise eingenommen werden. So wäre im vorliegenden Beispiel die Frage zu klären, ob nicht ein kompletter Ersatz einer bestehenden, jedoch störungsanfälligen Anlage, der zu zeitgemäßen und auf aktuellem Stand befindlichen technischen Systemen führt, langfristig eine zielführendere Lösung darstellt.

4

Fazit

– Risikomanagement kann nur dann für ein Unternehmen den gewünschten Erfolg bringen, wenn es gelingt, dessen strategische Vorgaben zu operationalisieren und damit gezielt Risikomanagementaktivitäten in den operativen Geschäftsbetrieb einzubinden. Nur so wird gewährleistet, dass das unternehmensspezifische Risikoprofil umfassend analysiert werden kann, und dass in Abhängigkeit von der Lokalisierung von Risikoursache bzw. -wirkung Maßnahmen zur Risikobewältigung auf derjenigen hierarchischen Stufe des Unternehmens definiert werden können, auf der sie am wirkungsvollsten greifen. – Die Hauptaufgabe des Risikomanagements ist darin zu sehen, dafür Sorge zu tragen, dass ein unternehmenspolitisch vorgegebenes, relativ zu den vorhandenen Risikopuffern definiertes Risikoakzeptanzniveau bzw. Risikolimit nicht überschritten wird. Dazu ist Risikomanagement zwangsläufig als kontinuierlich verlaufender Prozess zu begreifen, der nicht isoliert neben den eigentlichen Unternehmensaktivitäten verlaufen darf, sondern der in die wesentlichen Unternehmensprozesse integriert werden muss. Im „traditionellen“ Risikomanagement leidet der Risikomanagementprozess in der überwiegenden Zahl der Fälle an dem Manko, aufbauorganisatorisch lediglich zentral im Umfeld der Unternehmensführung positioniert zu werden. – Zur Behebung der Defizite sollte das traditionell leitungszentrierte, strategische Risikomanagement durch eine geschäftsprozessorientierte und damit operativ ausgerichtete Risikomanagement-Komponente erweitert werden. Dies bietet sich insbesondere für die industrielle Produktion an, deren besondere Risikosituation zu einem großen Teil auf die hohe Kapitalbindung sowie ihre hohe Zahl an Schnittstellen zurückzuführen ist. – Zur Gewährleistung eines wirkungsvollen, konsistenten Risikomanagements im Gesamtunternehmen ist eine enge Verzahnung zwischen dem leitungszentrierten und dem geschäftsprozessorientierten Risikomanagement erforderlich. Dafür sind die produktionsorientierten Risiken systematisch auf Geschäftsprozessebene zu analysieren und zu deren Handhabung geeignete Strukturen und Instrumentarien zu schaffen.

66

E.-M. Kern und Th. Hartung

Literatur Becker, Jörg/Kahn, Dieter (2005): Der Prozess im Fokus. In: Becker, Jörg/Kugeler, Martin/Rosemann, Michael (Hrsg.): Prozessmanagement: Ein Leitfaden zur prozessorientierten Organisationsgestaltung, 5. Auflage, Berlin et al., S. 3–16. Deutscher Bundestag (1998): Entwurf eines Gesetzes zur Kontrolle und Transparenz im Unternehmensbereich (KonTraG) (allgemeine Begründung), Berlin. Farny, Dieter (1996): Risikomanagement in der Produktion. In: Kern, W./Schröder, H.-H./Weber, J., Handwörterbuch der Produktionswirtschaft, 2. Auflage, Stuttgart, Sp. 1798–1806. Gebhardt, Günther/Mansch, Helmut (2001): Risikomanagement und Risikocontrolling in Industrie- und Handelsunternehmen, Empfehlungen des Arbeitskreises „Finanzierungsrechnung“ der SchmalenbachGesellschaft für Betriebswirtschaft e.V., Zfbf Sonderheft 46, Düsseldorf/Frankfurt am Main. GenRe (2006): Großschadenbericht Schaden/Unfall, Köln. Glaum, Martin (2000): Finanzwirtschaftliches Risikomanagement deutscher Industrie- und Handelsunternehmen, Frankfurt am Main. Hahn, Dietger (1987): Risiko-Management: Stand und Entwicklungstendenzen. In: Zeitschrift für Organisation, Nr. 3, S. 137–150. Helten, Elmar (1984): Strategische Unternehmensplanung und Risk-Management. In: Gaugler, E./Jacobs, O. H./Kieser, A. (Hrsg.): Strategische Unternehmensführung und Rechnungslegung, Stuttgart, S. 15–29. Helten, Elmar/Hartung, Thomas (2002): Instrumente und Modelle zur Bewertung industrieller Risiken. In: Hölscher, Reinhold/Elfgen, Ralph (Hrsg.): Herausforderung Risikomanagement, Wiesbaden, S. 255–271. Hoffmann, Klaus (1985): Risk Management – Neue Wege der betrieblichen Risikopolitik, Karlsruhe. Hölscher, Reinhard (2002): Von der Versicherung zur integrativen Risikobewältigung: Die Konzeption eines modernen Risikomanagements; in: Hölscher, Reinholde, Elfgen, Ralph: Herausforderung Risikomanagement; S. 5–31. KPMG Deutschland (1998): Integriertes Risikomanagement, Berlin. Kremers, Markus (2002): Risikoübernahme in Industrieunternehmen. Der Value-at-Risk als Steuerungsgröße im industriellen Risikomanagement, dargestellt am Beispiel des Investitionsrisikos, Sternenfels/ Berlin. Lingemann, Stefan/Wasmann, Dirk (1998): Mehr Kontrolle und Transparenz im Aktienrecht: Das KonTraG tritt in Kraft, in: Betriebs-Berater, 53. Jg., Nr. 17, S. 853–862. Lück, Wolfgang (1999): Betriebswirtschaftliche Aspekte der Einrichtung eines Über-wachungssystems und eines Risikomanagementsystems. In: Dörner, Dietrich/Menold, Dieter/Pfitzer, Norbert (Hrsg.): Reform des Aktienrechts, der Rechnungslegung und Prüfung, Stuttgart, S. 139–176. Philipp, Fritz (1967): Risiko und Risikopolitik, Stuttgart. Picot, Gerhard (2001): Überblick über die Kontrollmechanismen im Unternehmen nach KonTraG. In: Lange, Werner/Wall, Friederike (Hrsg.): Risikomanagement nach KonTraG: Aufgaben und Chancen aus betriebswirtschaftlicher und juristischer Sicht, München, S. 5–37. Salzberger, Wolfgang (2000): Die Überwachung des Risikomanagements durch den Aufsichtsrat. In: Die Betriebswirtschaft, 60. Jg., Nr. 6, S. 756–773. Schimmelpfeng, Katja (2001): Risikomanagement in Industrieunternehmen. In: Götze, Uwe/Henselmann, Klaus/Mikus, Barbara (Hrsg.): Risikomanagement, Heidelberg 2001, S. 277–297. Schradin, Heinrich R. (2007): Risikomanagement. In: Köhler, Richard/Küpper, Hans-Ulrich/Pfingsten, Andreas (Hrsg.): Handwörterbuch der Betriebswirtschaft, 6. Auflage, Stuttgart 2007, Sp. 1584–1592. Wolke, Thomas (2007): Risikomanagement, München/Wien 2007. Zimmer, Daniel/Sonneborn, Andrea Maria (2001): § 91 Abs. 2 AktG – Anforderungen und gesetzgeberische Absichten, in: Lange, Werner/Wall, Friederike (Hrsg.): Risikomanagement nach KonTraG: Aufgaben und Chancen aus betriebswirtschaftlicher und juristischer Sicht, München, S. 38–59.

Der Serienanlauf in der Automobilindustrie: Technische Änderungen als Ursache oder Symptom von Anlaufschwierigkeiten? Peter Milling und Jan Jürging

Die Automobilindustrie stellt in Deutschland aufgrund des Umsatzes und der Anzahl der beschäftigten Mitarbeiter eine Schlüsselbranche dar. Durch den enormen Wettbewerbsdruck ist sie häufig Schrittmacher für neue Technologien und neue Methoden in der Produktion. Die Maßnahmen der Hersteller als Reaktionen auf den Wettbewerbsdruck sind insbesondere Modelloffensiven, kürzere Entwicklungszeiten und Produktlebenszyklen sowie eine höhere Variantenvielfalt innerhalb der Modellreihen. Bei allen Bemühungen, dem Wettbewerb zu begegnen, nimmt der Serienanlauf von neuen Fahrzeugmodellen eine zentrale Rolle ein, da nicht nur operative Kennzahlen von dessen Verlauf, sondern auch strategische Ziele der Unternehmung betroffen sind. Serienanläufe gestalten sich zunehmend schwieriger und sind in immer kürzer werdenden Abständen durchzuführen, sodass deren Beherrschung entscheidende unternehmerische Bedeutung zukommt. Aus aktuellen Studien ist bekannt, dass das Gros der deutschen Hersteller die Anlaufprozesse noch nicht in zufrieden stellendem Umfang beherrscht und die Kosten-, Qualitäts- und Zeitziele der Anlaufphase nicht erreicht werden können. Immer wieder ist zu beobachten, dass gerade beim Serienanlauf noch eine Vielzahl von Änderungen an Produkt und Prozess umzusetzen sind. Im Rahmen dieser Analyse wird erörtert, ob Änderungen ursächlich sind für Schwierigkeiten in der Anlaufphase, oder ob der Kern des Problems ein anderer ist und die Notwendigkeit zur Umsetzung von Änderungen lediglich Symptom dieser Ursachen darstellt. Im Anschluss an eine Analyse zu den Auswirkungen von Änderungen können Handlungsoptionen zum Umgang mit ihnen während der Serienanlaufphase abgeleitet werden.

1

Innovationsprozesse in der Automobilindustrie

In der Literatur finden sich weder ein einheitliches Phasenmodell des Produktentstehungsprozesses noch eine allgemeingültige Nomenklatur der einzelnen Phasen und deren Inhalte. Speziell in der Automobilbranche lassen sich jedoch Gemeinsamkeiten in der Planung und Durchführung von Entwicklungsprojekten finden.1 So zeigt Abbildung 1 (s. S. 68) einen generischen Ablaufplan von Entwicklungsprojekten in der Automobilindustrie, von dem einige Unternehmen im Detail abweichen können.2 1

Vgl. Gentner, Andreas: Entwurf eines Kennzahlensystems zur Effektivitäts- und Effizienzmessung von Entwicklungssystemen, München 1994, S. 62f.

2

Vgl. Smith, Preston G. und Donald G. Reinertsen: Developing products in half the time, New York, NY 1991, S. 154.

68

Abbildung 1:

P. Milling und J. Jürging

Generischer Ablauf der Serienanlaufphase in der Automobilindustrie3

Aufgrund der Komplexität der Entwicklungsaufgabe wird der gesamte Entwicklungsumfang unterteilt in einzelne Fahrzeugmodule. Die gängige Unterteilung ist hier: Karosserie, Interieur, Fahrwerk, Aggregate und Elektronik.4 Karosserie, Elektronik und Interieur sind fahrzeugspezifisch und Bestandteil jeder Neuentwicklung. Motor und Getriebe sind Aggregate, die häufig getrennt von einem neuen Fahrzeugmodell entwickelt werden, da sie fahrzeugübergreifend in mehreren Baureihen zum Einsatz kommen. Der Produktentstehungsprozess wird in eine Serienentwicklungs- und eine Serienanlaufphase unterteilt. Die Produktentstehung beinhaltet die Ebenen Produktionsprozess und Produkt5 sowie die Ebene der Integration von Produkt- und Prozessentwicklung bis zum Erreichen der Kammlinie.6 Die Serienentwicklungsphase startet auf Produktebene mit der Konzeptphase und endet mit der Komponentenintegration, in der Prototypen zum Einsatz kommen. Im Anschluss an den Prototypenbau setzt mit der Freigabe der Vorserie die Anlaufphase ein. Eine Voraussetzung dafür ist, dass die Entwicklung bzw. der Aufbau des Produktionssystems einen für die Freigabe ausreichenden Stand erreicht hat.7 Die Vorserie fertigt erstmals Produkte mit Serienwerkzeugen 3

Diese Abbildung basiert auf Erkenntnissen von Kuhn, Axel et. al.: Fast Ramp-Up: Schneller Produktionsanlauf von Serienprodukten – Ergebnisbericht, in: Praxiswissen, 54. Jg. (2002), S. 8 und Risse, Jörg: Timeto-Market-Management in der Automobilindustrie. Ein Gestaltungsrahmen für ein logistikorientiertes Anlaufmanagement, Bern 2003, S. 173 sowie Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 19.

4

Vgl. Clark, Kim B. und Takahiro Fujimoto: Product Development Performance: Strategy, Organization and Management in the World Auto Industry, Boston, MA 1991, S. 98ff.; Gentner, Andreas: Entwurf eines Kennzahlensystems zur Effektivitäts- und Effizienzmessung von Entwicklungssystemen, München 1994, S. 46.

5

Vgl. Kuhn, Axel et. al.: Fast Ramp-Up: Schneller Produktionsanlauf von Serienprodukten – Ergebnisbericht, in: Praxiswissen, 54. Jg. (2002), S. 8.

6

Vgl. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 26.

7

Vgl. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 19ff.

Der Serienanlauf in der Automobilindustrie

69

in geringen Stückzahlen. Vorrangige Ziele der Vorserie sind die Erfassung denkbarer Produktund Fertigungsprozessprobleme, die Aufdeckung von Optimierungspotenzialen sowie die Schulung der Mitarbeiter für die Serie.8 Das primäre Ziel der Serienanlaufphase liegt darin, ein neues Produkt aus den laborähnlichen Bedingungen der Entwicklung sukzessive in ein stabil produzierbares Serienprodukt zu überführen.9 Diese Phase beginnt sobald eine Integration aller Produktkomponenten im Prototypenbau erfolgreich ist und endet mit der Fähigkeit zur Produktion in der gewünschten Qualität und Quantität. Für die Produktion steht die Erreichung der geplanten Produkt- und Prozessqualität im Vordergrund. Terwiesch und Bohn formulieren: „The period between completion of development and full capacity utilization is known as production ramp-up. During that time the new production process is ill understood, which causes low yields and low production rates“.10 Störquellen sind auf ein Minimum zu reduzieren, indem es gelingt, produktseitige und prozessseitige Fehler aufzudecken und abzustellen, damit die Produkt- und Prozessqualitätsziele erreicht werden.11

2

Der Einfluss technischer Änderungen während der Serienanlaufphase

Technische Änderungen bilden einen festen Bestandteil fast aller Produktentwicklungsprozesse. Sie resultieren aus der Tatsache, dass die Produktentwicklung keinen rein linearen, sondern einen iterativen Prozess darstellt.12 Sie betreffen aber nicht nur die Entwicklungsabteilung, sondern haben, wie zu zeigen sein wird, weit reichende Auswirkungen auf die Serienanlaufphase. Häufig sind Änderungen während und nach der Serienanlaufphase zum Zwecke der Kostenreduzierung oder Verbesserung der Montagefähigkeit zu beobachten. Solche Maßnahmen sollen den Produktionsprozess effizienter gestalten, jedoch stellt Adler bei der Untersuchung von Produktionsanläufen von Hightech-Produkten fest: „But the cure was almost as painful as the disease“.13 So gehen mit der Intention zur Verbesserung des Produktes und der Produktionsprozesse Auswirkungen einher, die den Serienanlauf von Produkten belasten und erschweren. Diese Analogie zur Medizin wirft die Frage nach Ursache oder Symptom erneut auf. So geht der Volksmund davon aus, dass kalte Füße die Ursache einer Erkältung sind. Dabei liegt die Ursache – eine Virusinfektion – schon mehrere Tage zurück und kalte Füße sind tatsächlich ein Symptom einer Erkältung. Übertragen auf die hier behandelte Fragestellung gilt es zu klären, ob technische Änderungen ursächlich sind für Anlaufschwierigkeiten, oder ob die Wurzeln der Probleme schon früher im Entwicklungsprozess zu suchen sind. 8

Vgl. Fitzek, Daniel: Anlaufmanagement in interorganisationalen Netzwerken – Eine empirische Analyse von Erfolgsdeterminanten in der Automobilindustrie, Bamberg 2005, S. 51f.

9

Vgl. Clark, Kim B. und Takahiro Fujimoto: Product Development Performance: Strategy, Organization and Management in the World Auto Industry, Boston, MA 1991.

10

Siehe Terwiesch, Christian und Roger E. Bohn: Learning and Process Improvement during Production Ramp-up, in: International Journal of Production Economics, 70. Jg. (2001), Nr. 1, S. 1.

11

Vgl. Terwiesch, Christian und Roger E. Bohn: Learning and Process Improvement during Production Ramp-up, in: International Journal of Production Economics, 70. Jg. (2001), Nr. 1, S. 3.

12

Siehe Terwiesch, Christian und Christoph H. Loch: Managing the Process of Engineering Change Orders: The Case of the Climate Control System in Automobile Development. 1999, S. 160.

13

Siehe Adler, Paul S.: Shared Learning, in: Management Science, 36. Jg. (1990), Nr. 8, S. 948.

70

P. Milling und J. Jürging

2.1 Technische Änderungen in der Entwicklungs- und Anlaufphase Die Auslöser technischer Änderungen können in neuerungs- und fehlerbedingt unterschieden werden.14 Dabei werden die Änderungen, die auf einen unvorhergesehenen Wandel der Entwicklungsaufgabe zurückzuführen sind, als neuerungsbedingt bezeichnet.15 Anlässe können neue oder modifizierte Gesetze oder Kunden- und Marktanforderungen sein,16 die jedoch über den zeitlichen Horizont, der im Zusammenhang mit Serienanläufen betrachtet wird, hinausgehen. Fehlerbedingte Änderungen sind hingegen auf Mängel im Entwicklungsprozess zurückzuführen.17 Als Beispiele können Abweichungen von den Kundenanforderungen, mangelnde Funktionsfähigkeit des Produkts oder Sicherheitsrisiken angeführt werden.18 Empirischen Studien zufolge liegt der Anteil der neuerungsbedingten Änderungen bei 47%, während der Anteil der fehlerbedingten Änderungen 53% beträgt.19 Interessant ist hierbei besonders der hohe Anteil fehlerbedingter Änderungen, da diese nach Expertenmeinung durch Fehlervermeidungsmaßnahmen in der Produktentwicklung um 40% reduziert werden könnten.20

Abbildung 2:

Verteilung neuerungsbedingter und fehlerbedingter Änderungen

14

Vgl. Conrat, Juan-Ignacio und Dieter Riedel: Änderungskosten: Wirtschaftliche Auswirkungen von technischen Änderungen, in Lindemann, Udo und Ralf Reichwald (Hrsg.): Integriertes Änderungsmanagement, Berlin, Heidelberg 1998, S. 28.

15

Vgl. Conrat, Juan-Ignacio: Änderungskosten in der Produktentwicklung, München 1997, S. 23.

16

Siehe Aßmann, Gert: Gestaltung von Änderungsprozessen in der Produktentwicklung, München 2000, S. 37 und Zanner, Stefan, et al.: Änderungsmanagement bei verteilten Standorten, in: Industrie Management, 18. Jg. (2002), Nr. 3, Nr. 3, S. 41.

17

Vgl. Conrat, Juan-Ignacio: Änderungskosten in der Produktentwicklung, München 1997, S. 23.

18

Vgl. Aßmann, Gert: Gestaltung von Änderungsprozessen in der Produktentwicklung, München 2000, S. 37.

19

In der empirischen Studie aus dem Jahre 1997 wurden Unternehmen aus dem Bereich elektromechanische Kleingeräte in Bezug auf technische Änderungen in der Produktentwicklung untersucht.

20

Vgl.Conrat, Juan-Ignacio: Änderungskosten in der Produktentwicklung, München 1997, S. 131.

Der Serienanlauf in der Automobilindustrie

71

Analysen von Wildemann zufolge stellen Veränderungen an Produkt und Prozess zur vereinfachten Fertigung und Kostenreduktionen die Hauptauslöser der fehlerbedingten technischen Änderungen dar.21 Das breite Spektrum kostenrelevanter Änderungsfolgen kontrastiert stark mit den bisher in der Praxis erfassten Änderungskosten. Zu den unmittelbaren Kosten technischer Änderungen zählen der Arbeitsaufwand für die Änderungsplanung und -verwaltung, Nacharbeit, Verschrottungskosten, Werkzeugänderungskosten und die Entwertung von vorhandenen Beständen.22 Als Determinante der Änderungskosten spielt der Änderungszeitpunkt eine wesentliche Rolle. Die so genannte „rule of ten“ besagt, dass sich die Kosten einer Änderung in jeder weiter fortgeschrittenen Entwicklungsphase um den Faktor 10 erhöhen. Trotz dieses Zusammenhangs treten späte Änderungen in der Praxis, besonders im europäischen und US-amerikanischen Raum, häufig auf. So sind nach Sullivan bei japanischen Unternehmen kaum noch technische Änderungen nach dem Produktionsstart notwendig, während in westlichen Unternehmen nach diesem noch eine Vielzahl von Änderungen vorgenommen wird.23 Hierin liegt ein großes Problem in der industriellen Praxis; empirische Studien zeigen, dass ca. 40% der Änderungen erst ab der Nullserienphase und somit nach der Erstellung der Serienwerkzeuge bzw. während und nach dem Serienanlauf durchgeführt werden.24 Auch innerhalb der Vorserienphase ist der Anteil an Änderungen mit 18% sehr hoch.

2.2 Auswirkungen der Abwicklung von technischen Änderungen auf den Serienanlauf Bei der Analyse von Änderungen widmet sich der vorliegende Beitrag auch der wechselseitigen Interaktion bei der Implementierung von Produkt- und Prozessänderungen und den daraus resultierenden Auswirkungen auf den Verlauf des Serienanlaufs. Änderungen an Produkt und Prozess sind nicht voneinander unabhängig.25 Aus dem engen Zusammenhang von Produktmerkmalen und den Eigenschaften und Parametern der Prozesse ihrer Herstellung resultieren starke Wechselwirkungen. So haben Veränderungen des Produktes signifikante Auswirkungen auf die zugrunde liegenden technischen und administrativen Prozesse im Unternehmen und ziehen hier zahlreiche Veränderungen nach sich.26 Während die resultierenden Wechselwirkungen erst mit der Implementierung der Änderung wirksam werden, können deren Ursachen bereits in 21

Vgl. Wildemann, Horst: Produktionscontrolling: Systemorientiertes Controlling schlanker Produktionsstrukturen, München 1997, S. 201–205. 22 Vgl. Conrat, Juan-Ignacio und Dieter Riedel: Änderungskosten: Wirtschaftliche Auswirkungen von technischen Änderungen, in Lindemann, Udo und Ralf Reichwald (Hrsg.): Integriertes Änderungsmanagement, Berlin, Heidelberg 1998, S. 35. 23 Vgl. Sullivan, Lawrence P.: Quality Function Deployment, in: Quality Progress, 19. Jg. (1986), Nr. 6, S. 39 und Boznak, Rudolph G.: When doing it right the first time is not enough, in: Quality Progress, 25. Jg. (1994), Nr. 7, S. 77. 24 Vgl. Aßmann, Gert: Gestaltung von Änderungsprozessen in der Produktentwicklung, München 2000, S. 57, Conrat, Juan-Ignacio: Änderungskosten in der Produktentwicklung, München 1997, S. 23 und Gemmerich, Marcus: Technische Produktänderungen: Betriebswirtschaftliche und empirische Modellanalyse, Wiesbaden 1995, S. 87–92. 25 Vgl. Kraft, Kornelius: Are Product- and Process Innovations Independent of Each Other?, in: Applied Economics, 22. Jg. (1990), S. 1029. 26 Vgl. Kim, Jay, et al.: Linking Product Planning and Process Design Decisions, in: Decision Sciences, 23. Jg. (1992), Nr. 1, S. 44f.; Hayes, Robert H. und Steven C. Wheelwright: Link Manufacturing Process and Product Life Cycles, in: Harvard Business Review, 57. Jg. (1979), Nr. 1, S. 133ff.

72

P. Milling und J. Jürging

frühen Phasen des Änderungsprozesses liegen. Die Kenntnis und Berücksichtigung der zugrunde liegenden Interdependenzen ist demnach sowohl in der Phase der Entwicklung, als auch bei der Implementierung von Änderungen von Bedeutung. Schieferer stellt schon früh die Auswirkungen von Änderungen auf den Lernprozess während der Serienanlaufphase exemplarisch dar, wobei es zu Sprungstellen in der Lernkurve kommt (Abb. 3). Dass technische Änderungen hierfür die Ursache darstellen, ist durch empirische Untersuchungen belegt.27

Abbildung 3:

Auswirkung von Änderungen auf den Lernfortschritt28

Durch Eingriffe in den Produktionsprozess, die unter anderem durch eine Änderung des Produktes notwendig werden, wird ein Teil des Lernerfolges obsolet. Der Produktionsprozess beginnt nach Einführung der Änderung auf einem höheren Niveau und wird nicht wieder auf den Verlauf der ursprünglichen Lernkurve zurückkehren können.29

3

Simulationsbasierte Analyse zu den Auswirkungen von Änderungen in der Seriananlaufphase

3.1 System Dynamics zur Modellierung von Serienanläufen Forrester entwickelte die System-Dynamics-Methode in den späten 1950er Jahren aus der Steuer- und Regelungstheorie sowie aus Erkenntnissen der Servo-Mechanik heraus.30 Ursprünglich zur Analyse von Industrieunternehmen entwickelt,31 kommt die Methode heute bei der 27

Vgl. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 185ff.

28

Vgl. Schieferer, Günther: Die Vorplanung des Anlaufs einer Serienfertigung, Stuttgart 1957, S. 72.

29

Vgl. Schuster, Barbara: Die Vorbereitung der Fertigung – Eine theoretische Untersuchung ihrer Gestaltung auf Basis des Lerngesetzes, Köln 1973, S. 168.

30

Vgl. Richardson, George P.: System Dynamics: Simulation for Policy Analysis from a Feedback Perspective, in Fishwick, Paul. A. und Paul A. Luker (Hrsg.): Qualitative Simulation Modeling and Analysis, New York 1991, S. 144ff. und Milling, Peter M.: Der technische Fortschritt beim Produktionsprozeß: ein dynamisches Modell für innovative Industrieunternehmen, Wiesbaden 1974, S. 58ff.

31

Vgl. Forrester, Jay W.: Industrial Dynamics – A Major Breakthrough for Decision Makers, in: Harvard Business Review, 36. Jg. (1958), Nr. 4, S. 17.

Der Serienanlauf in der Automobilindustrie

73

Untersuchung jeglicher sich im Zeitablauf verändernder Systeme zum Einsatz, wobei ein Schwerpunkt in der Modellierung sozio-ökonomischer Systeme liegt.32 Im Folgenden wird eine Reihe von Simulationsergebnissen präsentiert, die auf einem umfangreichen System-Dynamics-Modell basieren.

3.2 Strategien zur Umsetzung von technischen Änderungen Die Auswirkungen technischer Änderungen sind ein viel beleuchteter Aspekt im Bereich der Produktentwicklung, jedoch hat die Thematik technischer Änderungen in der Anlaufphase neuer Produkte bisher nur geringfügige Beachtung gefunden.33 Ein Zusammenhang zwischen der Anzahl technischer Änderungen und einer Verlängerung der Serienanlaufphase ist prinzipiell nachgewiesen.34 Das Ziel einer Änderung von Produktkomponenten liegt in der Verbesserung des Produktes oder in einer Effizienzverbesserung des Produktionsprozesses.35 Andrew führt eine Liste positiver Ereignisse an, die er in Zusammenhang mit technischen Änderungen bringt.36 Solche Feststellungen sind nur nachzuvollziehen, wenn die Unvermeidbarkeit technischer Änderungen vorausgesetzt wird. Hier gibt es aber zu bedenken, dass die Umsetzung während der Serienanlaufphase massive Probleme bereitet und den im Aufbau befindlichen Produktionsprozess stört. Treten während der Serienanlaufphase technische Änderungen auf, wird eine Klassifizierung der Änderung als erster Schritt im Änderungsprozess vorgeschlagen. Ho und Li sowie DiPrima unterteilen technische Änderungen nach deren Dinglichkeit in: (1) immediate (sicherheitsrelevante Änderungen oder Versagen des Bauteils, die eine sofortige Umsetzung nötig machen), (2) mandatory (Änderungen, die so zügig wie möglich umgesetzt werden sollten) und (3) convenient (umzusetzen wenn möglich).37 Gerade für Änderungen mit dem Status „convenient“ ergeben sich zeitliche Handlungsspielräume bei deren Umsetzung. Durch die Änderungseinsteuerung zu einem geeigneten Zeitpunkt lassen sich Mehrarbeit und Störungen begrenzen sowie die Transparenz erhöhen.38 In Anlehnung an Burghardt lassen sich die kontinuierliche und die getaktete (bzw. eingeschobene) Änderungseinsteuerung als wesentlichste Grundverfahrensweisen unterscheiden.39 Im ersten Fall erfolgen die Änderungen zum frühest32

Vgl. Sterman, John D.: Business dynamics: systems thinking and modeling for a complex world, Boston 2000, S. 5ff.; Milling, Peter M.: Systemtheoretische Grundlagen zur Planung der Unternehmenspolitik, Berlin 1981, S. 113. 33 Vgl. Terwiesch, Christian und Christoph H. Loch: Managing the Process of Engineering Change Orders: The Case of the Climate Control System in Automobile Development. 1999, S. 161. 34 Vgl. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 183. 35 Vgl. Ho, Chrwan-Jyh und Jing Li: Progressive Engineering Changes in Multi-level Product Structures, in: Omega – International Journal of Management Science, 25. Jg. (1997), Nr. 5, S. 586. 36 Vgl. Andrew, C. G.: Engineering Changes to the product structure opportunity for MRP users, in: Production and Inventory Management Journal, 16. Jg. (1975), Nr. 3, S. 78. 37 Vgl. DiPrima, M.: Engineering Change Control and Implementation Considerations, in: Production and Inventory Management Journal, 23. Jg. (1982), Nr. 1, S. 82. 38 Siehe Hiller, Frank: Ein Konzept zur Gestaltung von Änderungsprozessen in der Produktentwicklung, S. 64–65. 39 Vgl. Burghardt, Manfred: Einführung in Projektmanagement: Definition, Planung, Kontrolle, Abschluss, Erlangen 2002, S. 41–43.

74

P. Milling und J. Jürging

möglichen Zeitpunkt. Die kontinuierliche Einsteuerung zieht eine permanente Unsicherheit bzgl. der Aktualität von Produktionsabläufen nach sich.40 Angewendet wird dieses Verfahren bei Änderungen mit hoher Priorität.41 Die Vorgehensweise der getakteten Einsteuerung sieht das Sammeln von Änderungen vor, die gebündelt zur Umsetzung kommen. Diese beiden Verfahren stellen die gängigsten Einsteuerungsverfahren dar und kommen auch nebeneinander zum Einsatz.42 Viele Arbeiten zeigen die grundsätzlichen Möglichkeiten zum Umgang mit Änderungen auf, jedoch bleibt eine quantitative Bewertung der Handlungsoptionen aus. Aus diesem Grund soll zunächst der Einfluss von technischen Änderungen auf den Verlauf des Serienanlaufs anhand des System-Dynamics-Modells aufgezeigt werden. Die Anzahl zu erwartender technischer Änderungen ergibt sich aus dem Serienreifegrad bei Produktionsbeginn.43 Die Auswirkungen auf den Produktionsprozess veranschaulicht das Ursache-Wirkungs-Diagramm in Abbildung 4.

Abbildung 4:

40

Ursache-Wirkungs-Diagramm für technische Änderungen

Vgl. Burghardt, Manfred: Projektmanagement: Leitfaden für die Planung, Überwachung und Steuerung von Entwicklungsprojekten, Erlangen 2002, S. 58f.

41

Vgl. Hiller, Frank: Ein Konzept zur Gestaltung von Änderungsprozessen in der Produktentwicklung, S. 66.

42

Vgl. Burghardt, Manfred: Einführung in Projektmanagement, S. 42–43 und Hiller, Frank: Ein Konzept zur Gestaltung von Änderungsprozessen in der Produktentwicklung, S. 66.

43

Vgl. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998, S. 58.

Der Serienanlauf in der Automobilindustrie

75

Zu Produktionsbeginn ist die Anzahl der umzusetzenden technischen Änderungen vorbestimmt. Es gilt, die sich daraus ergebende Lücke in der Produkt- und Prozess-Konformanz zu schließen, bis das Produkt sowie die Produktionsprozesse die etablierten Standards erfüllen. Zunächst muss der Änderungsbedarf entdeckt werden. Die Entdeckungsrate ist am Beispiel der technischen Änderungen von mehreren Faktoren abhängig. Zum einen vom Zeitdruck, da bei zu kurzen Taktzeiten Fehler nicht kommuniziert werden können, und zum anderen auch von der Produktionsgeschwindigkeit. Bei zu hoher Produktionsgeschwindigkeit ergeben sich negative Auswirkungen. Sind die Taktzeiten zu niedrig, können aufgrund der zeitlichen Spielräume Fehler in der Montageplanung unentdeckt bleiben, da eine fehlerhafte Montageoperation unter Umständen erst bei Erreichen der Taktzeit des Kammlinienniveaus sichtbar wird. Die folgenden Simulationsläufe zeigen die Entwicklung der täglich produzierten Einheiten sowie der kumulierten Produktionsrückstände eines typischen Serienanlaufs bei unterschiedlichen Serienreifegraden. Den Simulationsläufen liegt ein neues Fahrzeugmodell zugrunde, bei dem auch die Produktionsprozesse erhebliche 0Neuerungen erfahren und die Kammlinie soll in drei Monaten erreicht werden. Den Verlauf der täglich produzierten Einheiten bei unterschiedlichen Serienreifegraden gibt Abbildung 5 wieder.

Abbildung 5:

Anlaufkurve bei unterschiedlichen Änderungsumfängen

Bis zum Tag 15 wird in der Simulation das alte Fahrzeugmodell gefertigt, in den folgenden sieben Tagen die Fließbänder umgerüstet und an Tag 22 findet der Start of Production (SOP) statt. Circa 80 Tage nach Produktionsbeginn am Simulationstag 105 erreicht das Produktionssystem die Kammlinie von 150 Fahrzeugen/Tag im Fall des Serienreifegrades von 98 Prozent. Dabei kommt es zu sehr geringen Produktionsrückständen. Schon ein um drei Prozentpunkte niedrigerer Serienreifegrad macht Überstunden nach Erreichen der Kammlinie notwendig, um die während der Anlaufphase eingetretenen Produktionsrückstände abzubauen. Bei einem

76

P. Milling und J. Jürging





➀ ➀ ➁

Abbildung 6:



➂ ➃

Produktionsrückstände bei unterschiedlichen Serienreifegraden

Serienreifegrad von 85 Prozent ist die Kammlinie circa 30 Tage später erreicht. Für den Abbau der dabei angehäuften Produktionsrückstände benötigt das Produktionssystem weitere 3 Monate. Die kumulierten Produktionsrückstände dieser vier Simulationsläufe fasst Abbildung 6 zusammen. Bei einem Serienreifegrad von 85 Prozent sind so viele technische Änderungen umzusetzen, dass es zu kumulierten Produktionsrückständen von bis zu 1900 Fahrzeugen kommt. Dies entspricht ungefähr der 12-fachen Tagesproduktion. Fraglich ist, ob bei gegebener Ausgangssituation zu Produktionsbeginn noch Handlungsmöglichkeiten zur Einflussnahme bestehen. Die Einteilung der technischen Änderungen nach deren Dringlichkeit hat gezeigt, dass es Änderungen gibt, die zurückgestellt werden können, woraus sich Handlungsspielräume ergeben. Zum einen können alle „convenient“ Änderungen bis zum Erreichen der stabilen Serienproduktion zurückgestellt werden. Zum anderen eröffnet eine Differenzierung in Änderungen, die das Produkt oder den Produktionsprozess betreffen, weitere Optionen. Es ergeben sich vier grundsätzliche Alternativen: 1. Alle aufgedeckten Änderungen werden direkt umgesetzt („direkte Implementierung“). 2. Die Verhängung einer Sperre zur Umsetzung von Änderungen („keine Änderungen“). 3. Nur Änderungen umsetzten, die das Produkt betreffen („Produktänderungen“). 4. Nur Änderungen umsetzten, die den Produktionsprozess betreffen („Prozessänderungen“).

77

Der Serienanlauf in der Automobilindustrie

➀ ➁ ➂ ➃

➂ ➃

➀ ➁

➀ ➁ ➂ ➃

➀ ➁

Abbildung 7:

➂ ➃

Produktionsrückstand bei unterschiedlicher Behandlung von Änderungen

Für die vier Handlungsoptionen zeigt Abbildung 7 die Entwicklung der Produktionsrückstände zweier Szenarien, wobei die Skalierung der Ordinate beim Serienreifegrad von 85 Prozent und von 95 Prozent unterschiedlich ist. Entsprechend verhält sich die Anzahl der Änderungen: Je niedriger der Serienreifegrad bei Produktionsbeginn, desto mehr Änderungen fallen in der Serienanlaufphase an. In beiden Fällen, bei hohem und niedrigem Änderungsbedarf, zeigt sich, die Zurückstellung von Änderungen ist am wirkungsvollsten. Die reine Umsetzung von Prozessänderungen verhält sich in Bezug auf den Produktionsrückstand recht ähnlich. Im Fall des Serienreifegrades von 85% wird zwar während der Serienanlaufphase ein höherer Rückstand aufgebaut, jedoch kann

78

P. Milling und J. Jürging

dieser zehn Tage früher als im Fall der kompletten Rückstellung von allen Änderungen abgebaut werden. Die reine Änderung von Produktkomponenten ist den Simulationsergebnissen nach als kritisch anzusehen. Bei hohem Änderungsbedarf (Serienreifegrad 85 Prozent) stellt sie diese Handlungsoption als mit den größten Nachteilen behaftet dar. Auch bei höherem Serienreifegrad stellt sich diese Option den Alternativen gegenüber als unterlegen heraus. Ebenfalls abzuraten ist von dem Vorgehen, alle Änderungen direkt zu implementieren. Diese Option ist in jedem Fall wesentlich ungünstiger als die Option, alle Änderungen zurückzustellen oder nur die Prozessänderungen umzusetzen. Die Ursachenanalyse dieser Ergebnisse beginnt am Ursache-Wirkungs-Diagramm, in dem nur die wesentlichen Variablen erfasst sind (Abb. 8). Das Implementieren von Prozessverbesserungen sowie von technischen Änderungen hat positive wie negative Auswirkungen. Die negativen Auswirkungen weisen zeitliche Verzögerungen auf die Erfahrung mit dem Produktionsprozess auf. Mit jeder Änderung wird ein Teil der gesammelten Erfahrung obsolet und muss erneut erarbeitet werden. Das Potenzial Werker setzt sich multiplikativ aus der Anzahl der Werker in der Montage und der Erfahrung mit dem Produktionsprozess zusammen. Dieses Potenzial bestimmt die maximal mögliche Bandgeschwindigkeit. Durch die Umsetzung von Änderungen wird somit direkt die Anzahl der täglich produzierbaren Fahrzeuge reduziert.

Abbildung 8:

Die Auswirkungen von Änderungen

Weitere Beschränkungen der Tagesproduktion entstehen durch Störungen im Produktionsprozess. Diese Störungen sind bedingt durch die mangelnde Fertigungsreife des Produktes und die Qualität der Betriebsmittel und führen zu Bandstillständen. Änderungen haben zum Ziel, diese beiden Komponenten zu verbessern, jedoch geschieht dies zeitlich verzögert. Jeder neu gestaltete Produktionsprozess hat seine eigene Anlaufphase und muss sich erst einspielen. Bei den Produktkomponenten sieht dies ähnlich aus. Jeder neue Montageprozess läuft zu Beginn langsamer und unter Umständen fehlerbehaftet ab. Die Produktkomponenten durchlaufen einen Reifeprozess, da zum Beispiel bei übereilter Entwicklung eine geänderte Produktkomponente ein weiteres Mal neu entwickelt oder angepasst werden muss. Weiterhin geht mit jeder Änderung des Produktes auch in gewissem Umfang eine Anpassung der Produktionsprozesse einher.

Der Serienanlauf in der Automobilindustrie

79

Dies erklärt das schlechte Abschneiden der reinen Umsetzung von Produktänderungen während der Serienanlaufphase, da hier immer der Produktionsprozess mit angepasst wird. Generell ist festzustellen, dass in der Hochlaufphase jegliche Störung des Lernprozesses zu vermeiden ist.

4

Handlungsempfehlungen zur Beherrschung des Serienanlaufs

Der Serienreifegrad, mit dem die Entwicklungsergebnisse an die Produktion übergeben werden, ist maßgeblich vom Management beeinflussbar. Zur Generierung von Wettbewerbsvorteilen steht häufig die time-to-market im Vordergrund. Dabei bleiben deren Auswirkungen auf die time-to-volume oftmals außer acht. Empirische Untersuchungen konnten hier zunächst paradoxe Zusammenhänge belegen.44 Abbildung 9 zeigt anhand zwei belegter Fälle, wie unterschiedlich sich die time-to-volume darstellen kann.

Abbildung 9:

Zusammenhang zwischen der time-to-volume und der time-to-market

Ein Unternehmen mit schneller Entwicklung benötigte 30 Monate vom Entwicklungsbeginn bis zum SOP; die Kammlinie war in diesem Fall innerhalb von 4 Monaten erreicht. Paradox ist dabei, dass im Fall einer Entwicklungszeit von 42 Monaten die Vorserien und der Hochlauf deutlich mehr Zeit in Anspruch nahmen. Hier wäre davon auszugehen, dass der Serienanlauf besser vorbereitet und mit geringerer Schwierigkeit durchzuführen ist. Der einzige Erklärungsansatz für dieses Paradoxon liegt im Simultaneous Engineering, das im Falle des schnellen Entwickelns zum Einsatz gekommen ist und dessen Hauptwirkung in der Entwicklungszeitverkürzung liegt. Als Nebeneffekt können sich die Entwicklungsergebnisse und der Serienreifegrad verbessern. Dies ist keine zwangsläufige Entwicklung und tritt nur ein, wenn das Simultaneous Engineering richtig eingesetzt und vom Unternehmen „gelebt“ wird. 44

Vgl. Gentner, Andreas: Entwurf eines Kennzahlensystems zur Effektivitäts- und Effizienzmessung von Entwicklungssystemen, München 1994, S. 83.

80

P. Milling und J. Jürging

Dann kommt es zur Änderungsvorverlagerung und besseren Abstimmung zwischen Abteilungen. Hier liegt die Vermutung nahe, dass durch einen höheren Serienreifegrad eine kurze timeto-volume ermöglicht wurde. Dies bedeutet für die Ausgangsfragestellung, dass Änderungen während der Serienanlaufphase zwar für Schwierigkeiten bei der Beherrschung des Serienanlaufs verantwortlich sind, diese allerdings nur das Symptom einer „Krankheit“ sind. Die Ursache für die Schwierigkeiten liegt in einer niedrigen Qualität der Entwicklungsergebnisse. Die Simulationsergebnisse belegen die starken Auswirkungen eines niedrigen Serienreifegrades. Die Anzahl der notwendigen Änderungen während der Anlaufphase verhält sich entgegengesetzt proportional. Viele Änderungen während der Anlaufphase sind direkt zu beobachten und könnten fälschlicherweise als Ursache für Schwierigkeiten in der Anlaufphase identifiziert werden. Die Untersuchungen untermauern somit den Stellenwert der Methoden zur Änderungsvermeidung und -vorverlagerung. Viele Arbeiten beschäftigen sich zwar mit dem Potenzial der Methoden zur Änderungsvorverlagerung; der Nutzen einer erfolgreichen Anwendung kann bei ihnen jedoch nicht hinreichend genau herausgestellt werden. Mithilfe der Simulation wird hier der Mehrwert des Einsatzes von Methoden zur Änderungsvermeidung und -vorverlagerung quantifiziert. Die Ursache für das Verfehlen von Anlaufzielen liegt im unzureichenden Verständnis über die Vorgänge während der Anlaufphase. Dies äußert sich in der Formulierung unrealistischer Ziele. Betriebe, die 100 oder mehr Änderungen gleichzeitig bearbeiten und während der Anlaufphase umsetzen, können den Ergebnissen des Serienanlaufmodells zufolge nicht mit einer steilen Anlaufkurve rechnen.45 Da sich Änderungen nicht vollständig vermeiden lassen, ist deren Handhabung während der Anlaufphase ebenso wichtig. Die unterschiedlichen Handlungsoptionen bei der Umsetzung haben im Zuge der Analyse mit dem Serienanlaufmodell ihre starken Auswirkungen auf den Verlauf der Anlaufkurve gezeigt. Dies unterstreicht umso mehr die Relevanz des richtigen Umgangs mit Änderungen. Ohne die speziellen Gegebenheiten bei einzelnen Betrieben zu berücksichtigen, scheint die Zurückstellung aller „convenients“ als guter Weg. Bei eingehender Untersuchung der Rahmenbedingungen kann sich die Umsetzung von Prozessänderungen als vorteilhaft herausstellen. Die Umsetzung von Produktänderungen hat sich als sehr kritisch erwiesen. Hier können Ansätze zur Verbesserung bei der Änderungsbewertung ansetzen. Insbesondere Änderungen mit dem Status „mandatory“ sind darauf hin zu untersuchen, ob sie ebenso zurückgestellt werden können. Bei Produktänderungen, die aufgrund von Kostensenkungspotenzialen ausgelöst sind, kann das Serienanlaufmodell Entscheidungsunterstützung bieten. Durch die Umsetzung solcher Änderungen verlängert sich der Serienanlauf; die Rechtfertigung zur Umsetzung einer Änderung zeigt sich bei der Gegenüberstellung von Kostensenkungspotenzial und Verlängerung des Serienanlaufs. An Unternehmen geht die zweistufige Empfehlung, erstens Änderungen soweit wie möglich zu vermeiden oder vorzuverlagern und zweitens – soweit dies nicht zu realisieren ist – die Umsetzung der Änderungen überlegt durchzuführen. Bei der Analyse der richtigen Implementierung bietet das Serienanlaufmodell eine Unterstützung und kann vorteilhafte Optionen identifizieren. 45

Vgl. zum Umfang der Änderungen Terwiesch, Christian und Christoph H. Loch: Managing the Process of Engineering Change Orders: The Case of the Climate Control System in Automobile Development. 1999, S. 163; vgl. zum empirisch nachgewiesenen Zusammenhang zwischen Änderungen und einem verlängerten Produktionshochlauf Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998.

Der Serienanlauf in der Automobilindustrie

81

Literatur Adler, Paul S.: Shared Learning, in: Management Science, 36 Jg. (1990), Nr. 8, S. 938–957. Andrew, C. G.: Engineering changes to the product structure opportunity for MRP users, in: Production and Inventory Management Journal, 16 Jg. (1975), Nr. 3, S. 76–87. Aßmann, Gert: Gestaltung von Änderungsprozessen in der Produktentwicklung, München 2000. Boznak, Rudolph G.: When doing it right the first time is not enough, in: Quality Progress, 25 Jg. (1994), Nr. 7, S. 74–78. Clark, Kim B. und Takahiro Fujimoto: Product Development Performance: Strategy, Organization and Management in the World Auto Industry, Boston, MA 1991. Conrat, Juan-Ignacio: Änderungskosten in der Produktentwicklung, München 1997. Conrat, Juan-Ignacio und Dieter Riedel: Änderungskosten: Wirtschaftliche Auswirkungen von technischen Änderungen, in Lindemann, Udo und Ralf Reichwald (Hrsg.): Integriertes Änderungsmanagement, Berlin, Heidelberg 1998. DiPrima, M.: Engineering Change Control and Implementation Considerations, in: Production and Inventory Management Journal, 23 Jg. (1982), Nr. 1, S. 81–87. Fitzek, Daniel: Anlaufmanagement in interorganisationalen Netzwerken – Eine empirische Analyse von Erfolgsdeterminanten in der Automobilindustrie, Bamberg 2005. Forrester, Jay W.: Industrial Dynamics – A Major Breakthrough for Decision Makers, in: Harvard Business Review, 36 Jg. (1958), Nr. 4, S. 34–66. Gemmerich, Marcus: Technische Produktänderungen: Betriebswirtschaftliche und empirische Modellanalyse, Wiesbaden 1995. Gentner, Andreas: Entwurf eines Kennzahlensystems zur Effektivitäts- und Effizienzmessung von Entwicklungssystemen, München 1994. Hayes, Robert H. und Steven C. Wheelwright: Link Manufacturing Process and Product Life Cycles, in: Harvard Business Review, 57 Jg. (1979), Nr. 1, S. 133–140. Ho, Chrwan-Jyh und Jing Li: Progressive Engineering Changes in Multi-level Product Structures, in: Omega – International Journal of Management Science, 25 Jg. (1997), Nr. 5, S. 585–594. Kim, Jay, Larry P. Ritzman, W.C. Benton und David L. Snyder: Linking Product Planning and Process Design Decisions, in: Decision Sciences, 23 Jg. (1992), Nr. 1, S. 44–61. Kraft, Kornelius: Are Product- and Process Innovations Independent of Each Other?, in: Applied Economics, 22 Jg. (1990), S. 1029–1038. Kuhn, Axel et. al.: Fast Ramp-Up: Schneller Produktionsanlauf von Serienprodukten – Ergebnisbericht, in: Praxiswissen, 54 Jg. (2002). Milling, Peter M.: Der technische Fortschritt beim Produktionsprozeß: ein dynamisches Modell für innovative Industrieunternehmen, Wiesbaden 1974. Milling, Peter M.: Systemtheoretische Grundlagen zur Planung der Unternehmenspolitik, Berlin 1981. Richardson, George P.: System Dynamics: Simulation for Policy Analysis from a Feedback Perspective, in Fishwick, Paul. A. und Paul A. Luker (Hrsg.): Qualitative Simulation Modeling and Analysis, New York 1991, S. 144–169. Risse, Jörg: Time-to-Market-Management in der Automobilindustrie. Ein Gestaltungsrahmen für ein logistikorientiertes Anlaufmanagement, Bern 2003. Schieferer, Günther: Die Vorplanung des Anlaufs einer Serienfertigung, Stuttgart 1957. Schuster, Barbara: Die Vorbereitung der Fertigung – Eine theoretische Untersuchung ihrer Gestaltung auf Basis des Lerngesetzes, Köln 1973. Smith, Preston G. und Donald G. Reinertsen: Developing products in half the time, New York, NY 1991.

82

P. Milling und J. Jürging

Sterman, John D.: Business dynamics: systems thinking and modeling for a complex world, Boston 2000. Sullivan, Lawrence P.: Quality Function Deployment, in: Quality Progress, 19 Jg. (1986), Nr. 6, S. 39–50. Terwiesch, Christian und Roger E. Bohn: Learning and Process Improvement during Production Ramp-up, in: International Journal of Production Economics, 70 Jg. (2001), Nr. 1, S. 1–19. Terwiesch, Christian und Christoph H. Loch: Managing the Process of Engineering Change Orders: The Case of the Climate Control System in Automobile Development., 1999, S. 160–172. Wangenheim, Sascha von: Planung und Steuerung des Serienanlaufes komplexer Produkte, Frankfurt 1998. Wildemann, Horst: Produktionscontrolling: Systemorientiertes Controlling schlanker Produktionsstrukturen, München 1997. Zanner, Stefan, Stephan Jäger und Christof Stotko: Änderungsmanagement bei verteilten Standorten, in: Industrie Management, 18 Jg. (2002), Nr. 3, S. 40–43.

Strategische und praktische Implikationen einer Verringerung der Fertigungstiefe Dagmar Kessler

1 Einleitung Im Rahmen der Diskussion zur Steigerung der Wettbewerbsfähigkeit in globalen Märkten werden in Theorie und Praxis u. a. die Beschränkung auf Kernkompetenzen und ein verstärktes Outsourcing zur Reduzierung der Fertigungstiefe favorisiert. Traditionelle Unternehmen, die eine hohe Wertschöpfung mit großer Fertigungstiefe realisieren, werden zunehmend mit dem Modell spezialisierter kleiner Unternehmenseinheiten in flexibel konfigurierten Wertschöpfungsketten konfrontiert. In den vergangenen Jahren zeigen sich jedoch die Grenzen einer weiteren Verringerung der Fertigungstiefe sowie eine Verlagerung der Optimierungsschwerpunkte und Kernkompetenzbetrachtungen, insbesondere in der Automobilindustrie.

2 Begriffsklärungen Die Fertigungstiefe bezeichnet im allgemeinen den Grad der Vollständigkeit, mit der ein Betrieb die für die Herstellung seiner Endprodukte erforderlichen aufeinander folgenden Bearbeitungsvorgänge bzw. Wertschöpfungsstufen selbst durchführt. Als Quotient dargestellt ergibt sich für die Fertigungstiefe folgender Ausdruck: Fertigungstiefe = Eigenfertigung / gesamte Fertigung = Eigenfertigung / (Anteil Eigenfertigung + Anteil Fremdbezug) Die „Vertikale Integration“ ist die Zusammenfassung bzw. Kombination von technologisch eigenständigen Prozessen bzw. funktionaler Einheiten, welche in der Wertschöpfungskette voroder nachgelagert sind. In Rahmen der Diskussion um die Reduzierung der Wertschöpfungstiefe wird häufig von „Outsourcing“, Kurzform von „outside resources using“, gesprochen. Dabei bezeichnet Outsourcing die Auslagerung von Unternehmensaufgaben an Drittunternehmen. Ziel ist es, ineffizient oder zu teuer ausführbare Aufgaben von spezialisierten Dienstleistern erledigen zu lassen, z. B. Supportprozesse, die imitierbar und substituierbar sind sowie von der Konkurrenz billiger

84

D. Kessler

und/oder besser erbracht werden können, beispielsweise durch die Nutzung von Größeneffekten und/oder Spezialisierung. Der Focus liegt hierbei auf den eigenen Kernkompetenzen, also auf Tätigkeiten, die nicht imitierbar und nicht substituierbar sind und demnach einen Wettbewerbsvorteil darstellen können. Die Entscheidung zwischen Eigenfertigung oder Fremdbezug wird in Praxis und Literatur häufig als „Make-or-Buy Entscheidung“ bezeichnet, wobei die Anwendung des Begriffes nicht nur auf den Produktionsbereich beschränkt ist. Die Bestimmung der betrieblichen Fertigungstiefe ist das Resultat einer gesamtproduktionsprozessbezogenen Make-or-Buy Entscheidung. Dabei wird die gesamte Wertkette des Unternehmens auf deren Beitrag zur Wertschöpfung betrachtet. „Die Wertkette erfasst den Gesamtwert bestehend aus den wertschaffenden Tätigkeiten (,Wertaktivitäten‘) einer Unternehmung. Die Summe der Kosten der Wertaktivitäten und der Gewinn entsprechen zusammen der betrieblichen Leistung der betrachteten Periode“.1 Die folgende Abbildung 1 zeigt schematisch die Wertkette, aufgegliedert in neun Basiskategorien, denen sich nach Porter alle betrieblichen Funktionen eines Unternehmens zuordnen lassen. Die neun Basiskategorien lassen sich zu zwei Hauptgruppen zuordnen: den Primäraktivitäten, die alle Aktivitäten umfassen, die sich direkt auf die Produktherstellung und den Versand des Produktes zum Kunden beziehen sowie den flankierenden Maßnahmen, welche die Aufgabe haben, den Primäraktivitäten den entsprechenden Input zur Verfügung zu stellen und einen reibungslosen Ablauf zu ermöglichen.2 Die einzelnen Aktivitäten der Wertkette eines Unterneh-

Abbildung 1: 1

Wertkette nach Porter3

Volck, S.: Die Wertkette im prozessorientierten Controlling, Wiesbaden 1997, S. 15. Vgl. Porter, M. E.: Wettbewerbsstrategie: Methoden zur Analyse von Branchen und Konkurrenten, 10. Aufl., Frankfurt/Main 1999, S. 23. 3 Vgl. ebenda. 2

Strategische und praktische Implikationen einer Verringerung der Fertigungstiefe

85

mens sind durch zahlreiche Querverbindungen, von Porter als „Schnittstellen“ bezeichnet, miteinander verknüpft. Die Durchführung einer Aktivität beeinflusst im allgemeinen Kosten und Effektivität weiterer Aktivitäten und kann somit nicht isoliert betrachtet werden. Die Verknüpfungen innerhalb des Wertsystems stellen einen zentralen Ansatzpunkt zur Sicherung eines Wettbewerbsvorteils dar. Ein gutes Beispiel dafür, wie derartige Verknüpfungen in Wettbewerbsvorteile transformiert werden können, ist das häufig in der Automobilindustrie umgesetzte Just-in-time-Konzept, das nur bei enger Abstimmung der Wertschöpfungsketten des Unternehmens und seiner Zulieferer realisiert werden kann.4 Ziel muss es sein, die Agilitätsvorteile flexibel vernetzter Spezialisten zu nutzen, ohne die Synergievorteile von hohen Fertigungstiefen zu verlieren.

3 Die Entwicklung der betrieblichen Wertschöpfungskette Ursprünglich galt das Interesse der Optimierung sämtlicher Wertschöpfungsprozesse in einem Unternehmen (von Beschaffung über Lagerhaltung bis zum Absatz). Rationalisierung und Optimierung sind mittlerweile allerdings weitgehend abgeschlossen. Heute liegt der Focus auf der Verbesserung der gesamten Wertschöpfungskette vom Lieferanten bis zum Endkunden (Supply Chain Management) unter Vermeidung von etwaigen Suboptima zu ungunsten des Geschäftspartners. So dominiert zukünftig ein Wettbewerb zwischen kooperierenden Netzwerken. Das Wettbewerbsmodell „Unternehmen gegen Unternehmen“ verliert an Bedeutung. Die Netzwerkmitglieder müssen Eigenschaften mitbringen, die Bellmann und Hippe als „Komplementaritätskompetenzen“ bezeichnen. „Als solche sind bspw. übergreifend Logistikkompetenz, Koordinations- und Kommunikationskompetenz zu nennen“5. Das Netzwerk gewinnt seine Schlagkraft durch Kompetenz und flexible Spezialisierung der Akteure sowie Flexibilität und Schnelligkeit in der Aufgabenerfüllung.6 Make-or-Buy Entscheidungen sind Investitionsentscheidungen, bei welchen es um langfristige und zuverlässige Kooperationsbeziehungen zwischen Unternehmen geht. Diese können nur nach ausführlicher Gesamtbetrachtung und -bewertung des zukünftigen Partners geschlossen werden. Die Folge zeigt sich in einem erhöhten Koordinationsbedarf – auch über die Unternehmensgrenzen hinweg.

4 Die Optimierung der Fertigungstiefe Traditionell erfolgte die Optimierung der Fertigungstiefe unter Kostengesichtspunkten der direkten Kosten, wie Produktions-, Transaktions- und Schnittstellenkosten. 4

Vgl. Kreikebaum, H.: Strategische Unternehmensplanung, 6. Aufl., Stuttgart 1997, S. 138.

5

Bellmann, K.; Hippe, A.: Kernthesen zur Konfiguration von Produktionsnetzwerken, in: Bellmann, K.; Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken: interorganisationale Konzepte und praktische Umsetzung, Wiesbaden 1996, S. 70f.

6

Vgl. Bellmann, K.: Heterarchische Produktionsnetzwerke – ein konstruktivistischer Ansatz, in: Bellmann, K. (Hrsg.): Kooperations- und Netzwerkmanagement: Festgabe für Gert v. Kortzfleisch zum 80. Geburtstag, Berlin 2001, S. 48.

86

D. Kessler

Ziel ist es heute, durch gesteigerte Innovationskraft und schnellere Innovationszyklen den Vorsprung vor dem Wettbewerb ausbauen. Dabei liegt der Focus auch auf der Reduzierung des Kapitalbedarfs bei fixkostenintensiven Ressourcen. Outsourcing bietet die Möglichkeit, die Mitarbeiterzahl zu verringern und damit eine gesteigerte Fixkostenflexibilisierung zu erzielen. Zudem erfolgt durch die Verlagerung von Aktivitäten an Dritte eine Reduktion des Investitionskapitals, d. h. das beschäftigungsabhängige Risiko wird so auf das gesamte Netzwerk der Zulieferer übertragen. Neben dem Kommunikations- und Koordinationsmanagement erlangt in komplexen Strukturen auch das Konfliktmanagement eine steigende Bedeutung. Durch Lösung der Schnittstellenprobleme übersteigt der Synergienutzen tatsächlich die Synergiekosten einer Wertschöpfungskette. Die genaue und überdachte Auswahl der Fremdlieferanten ist von existenzieller Bedeutung, dies wird bei der Betrachtung der Wertschöpfungsketten, insbesondere in der Automobilindustrie, deutlich.

5 Merkmale der neuen Arbeitsteilung – dargestellt am Beispiel der Automobilindustrie Die Studie „FAST 2015“ von Mercer/FhG aus dem Jahr 2003 gibt einen Überblick über die Entwicklung der Automobilindustrie bis 2015.7 Nach der Massenproduktion in den 20er Jahren und „schlanker“ Produktion in den 80ern vollzieht sich jetzt eine weitere Produktionsrevolution. Standen zu Beginn der strukturellen Anpassungen Kostensenkungen im Vordergrund, so gewinnen die Innovationsfähigkeit und die Flexibilität der industriellen Cluster immer mehr an Bedeutung. Die Wertschöpfung der Automobilhersteller reduziert sich auf Komponenten mit hoher Bedeutung für die Marke. Markenpflege wird eines der wichtigsten Themen für Automobilhersteller. Massenmarken wie VW und Renault stehen unter Preisdruck, werden ihre Wertschöpfung stärker reduzieren als Premium-Marken, die mehr exklusive Eigenschaften benötigen. Produzenten in den Premiumbereichen wie Audi und BMW erhöhen wieder ihre Eigenleistung, um exclusive Eigenschaften in ihren Modellen zu verbauen. Sogar der Bereich der Entwicklung, der zuvor als Kernkompetenz galt, wird ausgelagert. Die jeweiligen Marken bedienen sich der Technologie der Konzernmütter. Parallel sind die Zulieferer bestrebt, mehrere OEMs8 zu beliefern. Neben der verstärkten Konzentration der OEMs ist auch eine weitere Reduzierung der Anzahl der Zulieferer zu erwarten. Damit steigt der Leistungsumfang pro Zulieferer und es kann eine höhere Integration der bezogenen Vorleistungen (Module) realisiert werden. Der Wertschöpfungsanteil der Zulieferer nimmt zu, insb. deren Anteil an den Investitionen und vor allem auch am FuE-Aufwand.9 7

Die Studie „Future Automotive Industry Structure 2015“ basiert u. a. auf 60 Interviews mit Entscheidern aus der Automobilindustrie.

8

OEM = Original Equipment Manufacturer, ein Auftragshersteller.

9

Vgl. Hild, R.: Automobilindustrie: stark reduzierte Wertschöpfungsquote und gebremste Produktivitätsentwicklung, IFO Institut, ifo Schnelldienst 21/2005, 58. Jahrgang, S. 40.

Strategische und praktische Implikationen einer Verringerung der Fertigungstiefe

87

Vor dem Hintergrund einer starken Konzentration der Entwicklung bei den wenigen noch verbleibenden Konzernmüttern und der weiteren Verringerung der Anzahl von Lieferanten, die immer mehr OEMs beliefern, stellt sich die Frage nach dem Differenzierungsmerkmal der einzelnen Marke. Lag bislang der Focus auf der Endmontage und der Entwicklung von Kerntechnologien, werden künftig die Bereiche Marketing, Design und Vertrieb im Vordergrund stehen und die Alleinstellungsmerkmale erarbeiten müssen. Die Automobilhersteller werden zu High-Tech-Markenartiklern. Die Wachstumsbereiche liegen im Premiumbereich sowie im Bereich der Low-cost und Small Cars. Die Markt- und Produktstruktur der Zukunft gestaltet sich also entweder extrem teuer und extrem qualitativ oder extrem billig und trotzdem funktionell. Die deutsche Industrie konzentriert sich jeweils auf die hochwertigen Varianten in den einzelnen Marktsegmenten. Hinzu kommt innerhalb dieser strategischen Ausrichtung das gezielte Angebot einer großen Varianten- und Ausstattungsvielfalt, die dem speziellen Image der deutschen High-End-Produkte zusätzlich förderlich ist. Diese Ausrichtung auf die flexible Fertigung eines komplizierten und vielschichtigen Produkts, das im Wesentlichen in Großserie hergestellt wird, erfordert in besonderer Weise die Beherrschung hochkomplexer Fertigungskonzepte und Logistikstrukturen, wobei die Anwendung der jeweils modernsten IKT-Systeme die Basis bildet. Die Zulieferer profitierten zum einen von den Verlagerungen im Zuge der Reorganisation der Wertschöpfungsketten (Outsourcing der OEMs) und zum anderen vom Trend zum immer hochwertiger und reichhaltiger ausgestatteten Fahrzeug (z. B. elektronische Sicherheits- und Komfortelemente, Klimaanlagen, Navigationssysteme). Hinzu kommt allerdings auch in der KfzTeileindustrie eine deutliche Exportintensivierung. Die Intensivierung des weltweiten Wettbewerbs durch ausländische Konkurrenten führt zur Verdrängung inländischer Produktion durch die Auslandsfertigung.

6 Zukünftige Gestaltung von Wertschöpfungsketten Die Verbesserung des Qualitätsmanagements (operative Exzellenz) und Anpassung des Qualitätssicherungssystems werden aufgrund der vielschichtigen Zulieferbeziehungen einen hohen Stellenwert einnehmen. Die Optimierung der logistischen Ketten (just-in-time) sowie die stärkere Einbindung der Systemlieferanten in die Produktentwicklung (simultaneous engineering zur Verkürzung der Entwicklungszeiten und Erhöhung der Flexibilität) gewinnen weiter an Bedeutung. Premium-Marken werden zu den Leitbildern ihrer Konzerne. Hier sind die Kernkompetenzen angesiedelt, hier wird der Management-Nachwuchs ausgebildet. Technik und Know-how fließen von den Premium-Marken zu den Massenmarken. Jede Marke benötigt künftig eine klare Wertschöpfungsstrategie, in der das Eigenleistungsprofil und die dazu notwendigen Kompetenzen, Kapazitäten und Partnerschaften festgelegt sind. In den engen Netzwerken aus Herstellern und Zulieferern wird es entscheidend sein, frühzeitig die richtigen Partner an sich zu binden. Die gemeinsamen Ziele müssen klar sein ebenso wie die Rollenverteilung, um eine neue Qualität in der Zusammenarbeit zu schaffen.

88

D. Kessler

Die Zulieferer werden künftig die Hauptlast der Investitionen tragen. Deren nicht selten ungenügende Eigenkapitalausstattung wird Börsengänge, den Einstieg von Investorengruppen oder Anschubhilfen seitens der Autohersteller erfordern. Aber auch in neuen Industriefeldern, beispielsweise dem Solarenergiemarkt, zeigt sich, dass die Reduzierung der Fertigungstiefe als alleiniges Optimierungsziel ausgedient hat. So gründeten der Mainzer SCHOTT Konzern und die WACKER Chemie AG im Jahr 2007 ein Joint Venture für Entwicklung, Herstellung und Vertrieb von Siliciumwafern. Für den Hersteller von Solarzellen, -wafern und -modulen SCHOTT stellt dies die Integration seines Roh-SiliziumLieferanten WACKER10 und somit eine Erhöhung der Fertigungstiefe dar. Im PhotovoltaikKollektorbereich bedient SCHOTT Solar das Premium-Segment und forciert gezielt seine Branding-Aktivitäten. Wie in der Automobilindustrie sind das Eingehen einer strategischen Allianz und die vertikale Integration des Zulieferers sowie die zunehmende Gewichtung der Markenpolitik das Ergebnis einer gezielten strategischen Ausrichtung der SCHOTT AG. Literatur Bellmann, K.: Heterarchische Produktionsnetzwerke – ein konstruktivistischer Ansatz, in: Bellmann, K. (Hrsg.): Kooperations- und Netzwerkmanagement: Festgabe für Gert v. Kortzfleisch zum 80. Geburtstag, Berlin 2001, S. 31–54. Bellmann, K.; Hippe, A.: Kernthesen zur Konfiguration von Produktionsnetzwerken, in: Bellmann, K.; Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken: interorganisationale Konzepte und praktische Umsetzung, Wiesbaden 1996, S. 55–86. Hild, R.: Automobilindustrie: stark reduzierte Wertschöpfungsquote und gebremste Produktivitätsentwicklung, IFO Institut, ifo Schnelldienst 21/2005, 58. Jahrgang, S. 39–46. Kreikebaum, H.: Strategische Unternehmensplanung, 6. Aufl., Stuttgart 1997. Mercer Management Consulting; Fraunhofer-Institut für Produktionstechnik und Automatisierung – IPA –, Stuttgart; Fraunhofer-Institut für Materialfluß und Logistik – IML –, Dortmund: Future Automotive Industry Structure (FAST) 2015 – die neue Arbeitsteilung in der Automobilindustrie, VDA, Frankfurt/ Main 2004. Porter, M. E.: Wettbewerbsstrategie: Methoden zur Analyse von Branchen und Konkurrenten, 10. Aufl., Frankfurt/Main 1999. Volck, S.: Die Wertkette im prozeßorientierten Controlling, Wiesbaden 1997.

10

Weltweit Rang Nr. 2 der Solarsilicium-Anbieter.

Outsourcing von Logistikleistungen in Produktionsunternehmen – eine vergleichende Analyse im Ostseeraum Wolfgang Kersten, Meike Schröder, Carolin Singer und Jan Koch

1

Einleitung

Die Konzentration auf Kernkompetenzen und die Bildung von Unternehmensnetzwerken, mit der sich Klaus Bellmann in seinen wissenschaftlichen Werken intensiv beschäftigt (Bellmann, Gerster, 2006; Bellmann, 2005; Bellmann, Mildenberger, 1996; u. a.), geht häufig einher mit dem Outsourcing von Logistikleistungen. Gegenstand dieses Beitrags ist es, zunächst eine theoretische Einordnung des Outsourcing-Konzepts vorzunehmen und aufzuzeigen, welche Ursachen und Vorteile mit einer Fremdvergabe von Logistikleistungen verbunden sind. Anschließend werden die theoretischen Erkenntnisse anhand empirischer Ergebnisse einer länderübergreifenden Studie im Ostseeraum überprüft. Hierbei werden zunächst die aktuellen Logistikkosten sowie ihre zukünftige Entwicklung beschrieben. Darauf folgend wird analysiert, welche Logistikdienstleistungen von Produktionsunternehmen im Ostseeraum fremd vergeben werden und wie sich diese Entwicklung aus Sicht der Logistikdienstleister weiter fortsetzen wird. Die Ergebnisse weisen darauf hin, dass sich der Trend zum Outsourcing in der Logistik weiter verstärken und auch in den neuen EU-Ländern in Richtung einer Vergabe umfangreicherer Leistungspakete (Kontraktlogistik) gehen wird.

2

Outsourcing von Logistikleistungen

Der Begriff „Outsourcing“ wird in der Literatur nicht einheitlich definiert.1 Es werden vielmehr allgemeine Möglichkeiten der Nutzung externer Ressourcen zur Optimierung betrieblicher Leistungen beschrieben, die zuvor unternehmensintern ausgeführt wurden.2 Im Folgenden wird Outsourcing als Fremdbezug von zuvor unternehmensinternen Leistungen verstanden.

2.1 Theoretischer Bezugsrahmen Als betriebswirtschaftliches Erklärungsmodell zur Optimierung der Beschaffungssituation wird im Zusammenhang mit der Auslagerung von Unternehmensleistungen häufig der Ressourcenorientierte Ansatz (Resource Based View) genannt. Dieser basiert auf der Annahme, dass unter1

Vgl. Schätzer, S. (1999), S. 42.

2

Vgl. Horchler, H. (1996), S. 1.

90

W. Kersten, M. Schröder, C. Singer und J. Koch

nehmensspezifische Ressourcen und unternehmenseigene Fähigkeiten, Wissen und Können den Erfolg eines Unternehmens bestimmen. Nach Penrose bestehen Ressourcen dabei aus „tangible things“, wie Einrichtungen, Gebäude, Maschinen und Rohmaterial, aber auch aus „intangible things“, nämlich den technischen sowie den Managementfähigkeiten der Mitarbeiter.3 Statt den Bedarf an Ressourcen aus dem Markt abzuleiten, werden die vorhandene Ressourcenausstattung und Erfahrungen ausgebaut. Es handelt sich um eine Inside-Out-Perspektive. Aufbauend auf Penroses Arbeiten wendet Wernerfelt das Fünf-Kräfte Modell Porters auf diversifizierte Unternehmen an und untersucht, unter welchen Umständen eine Ressource längerfristig zu einer hohen Rendite führt. Analog zu Eintrittsschranken werden hier so genannte „resource position barriers“ festgestellt. Weiterhin müssen Unternehmen ein Gleichgewicht zwischen der Ausnutzung vorhandener und der Entwicklung neuer Ressourcen finden.4 Im Vergleich zu Penrose unterscheidet Barney hingegen zwischen drei Klassen von Unternehmensressourcen, nämlich physischem Kapital, Humankapital sowie organisatorischem Kapital. Unter den Annahmen, dass strategische Ressourcen innerhalb einer Industrie heterogener sowie immobiler Natur sind, werden vier Eigenschaften von Ressourcen diskutiert, die erfüllt sein müssen, um einen nachhaltigen Wettbewerbsvorteil zu generieren: wertvoll, selten, nicht imitierbar und nicht substituierbar.5 Prahalad und Hamel zeigen in ihrem Konzept der Kernkompetenzen anhand einer Vielzahl von Fallbeispielen, dass die einzigartige Kombination von Produktionsfertigkeiten mit einer Technologie die Generierung von Wettbewerbsvorteilen ermöglicht. Stalk, Evans und Shulman erweitern diese Perspektive zusätzlich um die besonderen Fähigkeiten entlang der gesamten Wertschöpfungskette als Bündel von Prozessen. Die daraus entstehenden Kernkompetenzen sind schließlich die herausragenden, starken und dauerhaft im Wettbewerb führenden Fähigkeiten, die zu einem hohen differenzierten Kundennutzen beitragen.6

2.2 Ursachen und Vorteile des Logistik-Outsourcing Als treibende Kraft für die Entwicklung des Logistikoutsourcing wird in der Literatur zunächst insbesondere die fortschreitende Globalisierung angegeben. Das anhaltende Wachstum der globalen Märkte und der internationalen Vernetzung haben zu gestiegenen Anforderungen an die Logistik, begleitet von erhöhter Komplexität und Risikoanfälligkeit von Wertschöpfungsketten geführt. Outsourcing bietet die Möglichkeit, Komplexität und Risiken zu reduzieren oder besser zu beherrschen, indem Logistikaufgaben an kompetente Partner in der Wertschöpfungskette übertragen werden. Viele Autoren geben auch die Zunahme von Just-in-Time-Zulieferungen als Treiber für das Outsourcing an, ebenso wie die höhere Flexibilität von Dienstleistungsunternehmen.7 Auf der Basis dieser externen Treiber lassen sich konkrete Ziele identifizieren, die Unternehmen zum Outsourcing von Logistikdienstleistungen veranlassen. Skalen- und Lernkurven3

Vgl. Penrose, E.T. (1995), S. 24f. und S. 67. Die Veröffentlichung erschien erstmals 1959.

4

Vgl. Wernerfelt, B. (1984), S. 172ff.; Porter M. E. (1998), S. 5ff.

5

Vgl. Barney, J. (1991), S. 101ff.

6

Vgl. Prahalad, C. K./Hamel, G. (1990), S. 79ff.; Stalk, G./Evans, P./Shulman, L. (1992), S. 57ff.

7

Vgl. Goldberg, D. (1990), S. 26.

Outsourcing von Logistikleistungen in Produktionsunternehmen

91

effekte, die Dienstleister durch die Konzentration auf wenige Aktivitäten erzielen, stellen die Vorteile des Outsourcing unter Kostengesichtspunkten dar. Die Nachteile lassen sich als Transaktionskosten (beispielsweise Koordinations- oder Überwachungskosten) ausdrücken. Nach dieser Sichtweise wird ein Unternehmen einen bestimmten Teil seiner Wertschöpfung ausgliedern, wenn die Kostenvorteile eines anderen Unternehmens, die dieses über den Preis weitergibt, die Transaktionskosten übersteigen.8 Eine vollständige Kalkulation der Kosten und Einsparungen durch Outsourcing ist jedoch schwierig, weil eine Einschätzung der tatsächlichen Qualität der zugekauften Leistungen und der Kosten, die für die Koordination anfallen, ex ante kaum möglich ist. Dies ist jedoch nicht der einzige Grund, warum Kostenüberlegungen heutzutage in vielen Fällen nicht mehr alleine ein wichtiges Motiv für die Nutzung von Outsourcing sind. Seit dem Ende des vergangenen Jahrzehnts werden bei Befragungen vermehrt Strategieaspekte als Gründe für Outsourcing genannt. Kakabadse und andere zeigen ein neues Outsourcing-Paradigma auf, das eine engere Zusammenarbeit zwischen Unternehmen und Dienstleistern bzw. Zulieferern fordert. Die dadurch entstehenden langfristigen, auf gegenseitigem Vertrauen aufbauenden Partnerschaften reduzieren die Koordinationskosten und Informationsasymmetrien in der Outsourcing-Beziehung und ermöglichen so strategische Vorteile.9 Ein solcher Vorteil entsteht, wenn sich die beteiligten Unternehmen auf ihre Kernkompetenzen konzentrieren und nur noch solche Tätigkeiten jeweils selbst ausgeführt werden, die zur Wertschöpfung des Unternehmens beitragen. Durch diese Konzentration wird die Flexibilität der einzelnen Wertschöpfungspartner in der Reaktion auf technologische Fortschritte und sich verändernde Rahmenbedingungen erhöht. Ein Unternehmen, das Tätigkeiten ausgliedert, muss auch die zu deren Durchführung nötigen Anlagen und Betriebsmittel nicht mehr vorhalten, so dass die Kapitalbindung reduziert wird. Auch die Personalproduktivität kann gesteigert werden, da die Mitarbeiter durch die Konzentration auf das Kerngeschäft in den verbleibenden Tätigkeitsfeldern eine größere Expertise entwickeln können.10 Die Bedeutung einer effizienten Logistik für Unternehmen ergibt sich auch daraus, dass Wettbewerbsvorteile nicht nur aus Produkten, sondern auch aus Prozessen erwachsen können. Logistik ist ein integratives Konzept, das verschiedene traditionelle Funktionen in sich vereint. Auch in der Realisierung des Supply Chain Management kommt ihr eine Schlüsselrolle zu. Dennoch wird sie in zahlreichen Unternehmen nur bedingt als wertschöpfende Tätigkeit verstanden. Darüber hinaus ist ihre eigenständige Durchführung oft mit hohen Investitionen verbunden. All diese Aspekte machen die Logistik zu einem Bereich mit hohem OutsourcingPotenzial.11 Tabelle 1 stellt die Rangfolge der konkreten Ziele beim Logistikoutsourcing in unterschiedlichen empirischen Studien dar. Dabei wird deutlich, dass die Kosten nach wie vor das Hauptziel für Logistikoutsourcing darstellen, auch wenn weitere gewichtige Ziele existieren.

8 9

Vgl. Williamson, O. E. (1996), S. 135f. Vgl. Kakabadse, N./Kakabadse, A. (2000), S. 703–713.

10

Vgl. Lynch, C. F. (2004), S. 45.

11

Vgl. Wildemann, H. (1988), S. 15–21; Christopher, M. (2005), S. 15.

92

W. Kersten, M. Schröder, C. Singer und J. Koch

Tabelle 1:

Bedeutung der Ziele von Logistik-Outsourcing

Motiv

(Sink/ Langley 1997)

(Boyson et al. 1999)

(Weber/ Engelbrecht 2002)

(Davis et al. 2004)

(Jung 2004)

Bewertungsskala

% der Befragten

% der Befragten

Skala von 1–5

% der Befragten

% der Befragten

Verringerung der Logistikkosten

57,7%

41,0%

4,1

77%

80%

Erhöhung der Flexibilität

56,3%

Serviceverbesserung

52,1%

Erhöhung der Personalproduktivität

50,7%

Konzentration auf Kernkompetenzen

38,0%

Geringere Kapitalbindung

31,0%

3,3

Nutzung von Expertise der Dienstleister

26,8%

3,3

Fortgeschrittene IT-Systeme

19,7%

26,5%

3,4

50%

1,7

20%

53%

Ähnlich stellt sich die Situation in der so genannten Kontraktlogistik dar, in der umfangreiche Dienstleistungspakete an Logistikdienstleister vergeben werden. Auch hier stehen kosten- und erlösorientierte Ziele vor Serviceverbesserung, Flexibilität und Konzentration auf Kernkompetenzen an erster Stelle. Allerdings steigen durch den größeren Umfang der fremd vergebenen Tätigkeiten und die schlechtere Substituierbarkeit die Bedeutung der Partnerschaft und die Konsequenzen einer Schlecht- oder Nichtleistung.

3

Empirische Ergebnisse der Logistik-Studie im Ostseeraum

Im Folgenden soll am Beispiel des Ostseeraums eine empirische Bestandsaufnahme zur Kostensituation der Logistik und zur Entwicklung von Logistikdienstleistungen erfolgen. Dazu werden die Ergebnisse einer empirischen Studie aufgezeigt, die im Rahmen des von der EU geförderten Projektes „LogOn Baltic“ in den Regionen des Ostseeraums durchgeführt wurde.

3.1 Zielgruppe und Stichprobe In der Studie wurden zahlreiche Unternehmen des produzierenden Gewerbes sowie Handelsunternehmen und Logistikdienstleister in den Regionen des Ostseeraumes zum Thema Logistik befragt. Insgesamt nahmen über 1.200 Unternehmen an der Studie teil. Mehr als 90% konnten dabei als kleine und mittelständische Unternehmen (KMU) klassifiziert werden, unter ihnen gehörten 38% zu dem Bereich Industrie, 33% zum Handel und 29% zu Logistikdienstleistern.

Outsourcing von Logistikleistungen in Produktionsunternehmen

93

3.2 Logistikkosten der Produktionsunternehmen Die Logistikkosten der produzierenden Unternehmen im Ostseeraum liegen zwischen 8% und 14% des Umsatzes (Abb. 1). Lediglich Mecklenburg-Vorpommern weicht mit Logistikkosten von knapp über 20% deutlich ab. Dies ist zum einem auf die eher ländliche Gegend und zum anderen auf die Vielzahl von kleinen Unternehmen zurückzuführen, welche die Unternehmensstruktur in dieser Region prägen. Größere Unternehmen sind dort hingegen eher selten zu finden.12

Abbildung 1: Logistikkosten produzierender Unternehmen Quelle: Eigene Darstellung, Projektergebnisse LogOn Baltic

Auffallend ist weiterhin, dass die Region Südwest-Finnland neben Lettland und Östergötland (Schweden) die geringsten Logistikkosten aufweist. Frühere Studien kamen oftmals zu dem Ergebnis, dass die Logistikkosten in Finnland aufgrund der geringen Dichte der Besiedlung und der großen Entfernungen zwischen den Städten bis zu zweimal größer sind als in anderen Ländern. Zumindest für Südwest-Finnland scheint dies nicht zu gelten. Die betrachtete Region weist nach Helsinki die höchste Bevölkerungsdichte auf. Zudem verfügt sie über eine gut ausgebaute Infrastruktur. Bezüglich der Zusammensetzung der Logistikkosten wird deutlich, dass keine signifikanten Unterschiede zwischen den Regionen bestehen. Die Ergebnisse der Befragung haben gezeigt, dass für alle Regionen neben Lager- und Lagerverwaltungskosten die Transportkosten den größten Teil der Logistikkosten ausmachen (siehe Abb. 1). 12

Vgl. hierzu und im Folgenden Kersten et al. (2007).

94

W. Kersten, M. Schröder, C. Singer und J. Koch

Auch was die zukünftige Entwicklung der Logistikkosten betrifft, so zeigen die Ergebnisse, dass ein Anstieg in allen Kostenbereichen (Transport, Lager, Administration, Sonstige) erwartet wird. Den größten Anstieg verzeichnen wieder die Transportkosten. Hier wird insbesondere in denjenigen Regionen ein Anstieg bis 2010 erwartet, in denen die Transportkosten bereits heute den größten Anteil der Logistikosten ausmachen, nämlich in den Regionen MecklenburgVorpommern, Estland und Hamburg. Als Gründe für den erwarteten Anstieg der Transportkosten wurden die Entwicklung des Ölpreises sowie die Kosten genannt, die durch lange Wartezeiten bei Staus entstehen, aber auch die unzureichend ausgebaute Infrastruktur zur Anbindung an Städte. In Deutschland sind darüber hinaus die Einführung und die Höhe der LKW-Maut auf Autobahnen Verursacher des Kostenanstiegs. Oberstes Ziel der Unternehmen ist es daher, die Kosten in verschiedenen Unternehmensbereichen langfristig zu senken und zu minimieren. Wie bereits in Kapitel 2.2 beschrieben, kann das Outsourcing von kostenintensiven Logistikleistungen ein Erfolg versprechender Lösungsansatz dazu sein.

3.3 Outsourcing von Logistikdienstleistungen Alle beteiligten Regionen des Ostseeraumes weisen ähnliche Tendenzen beim Outsourcing einzelner Funktionsbereiche auf. Lager- und Bestandsmanagement sowie die Auftragsabwicklung werden z. B. nur von den wenigsten Unternehmen der Regionen fremd vergeben. Die Leistungen im Bereich Transport hingegen werden vor allem bei skandinavischen Produktionsunternehmen ausgelagert. Interessante Ergebnisse weisen die Bereiche der nationalen und internationalen Transporte auf. Hier ist bei allen befragten Unternehmen des Ostseeraums der größte Anteil an Outsourcing zu finden. Im Bereich der Auslagerung nationaler Transporte führen die logistisch vergleichsweise weit entwickelten Regionen Hamburg, Östergötland und Südwest-Finnland. Etwa drei Viertel aller befragten Produktionsunternehmen vergeben mehr als 75% dieser Dienstleistungen an externe Unternehmen. Gleichzeitig wurden die Logistikdienstleister gebeten, zu schätzen, wie viel Prozent ihrer Umsätze in verschiedenen Dienstleistungsbereichen im Jahr 2006 generiert wurden und wie sich diese bis 2010 entwickeln werden. Hierbei wurde zwischen reinen Transportleistungen, reinen Lagerleistungen, standardisierten Logistikpaketen und individuell auf den Kunden zugeschnittenen Logistikdienstleistungen differenziert. Abbildung 2 zeigt, dass trotz regionaler Unterschiede die reinen Transportleistungen in allen beteiligten Ostseeregionen in 2006 den größten Anteil aufwiesen, hier exemplarisch dargestellt für die Regionen St. Petersburg, Mecklenburg-Vorpommern, Estland und Hamburg. Gleichzeitig ist zu erkennen, dass der Anteil an reinen Transportleistungen in allen Regionen bis 2010 stark zurückgehen wird. Reine Lagerleistungen und standardisierte Logistikpakete hingegen zeigen nur minimale Änderungen auf. Stattdessen ist ein deutlicher Trend hin zu individualisierten Leistungspaketen zu erkennen. Logistikdienstleistungen, die individuell auf den Kunden zugeschnitten sind und ein umfangreiches Leistungspaket umfassen (Kontraktlogistik), werden zukünftig vom Endkunden verstärkt nachgefragt. Wie bereits in Kapitel 2.2 beschrieben, werden die langfristigen, auf gegenseitigem Vertrauen aufbauenden Partnerschaften in der OutsourcingBeziehung in Zukunft an Bedeutung gewinnen und strategische Vorteile ermöglichen. Nur diejenigen Logistikdienstleister, die die Kontraktlogistik in ihre Unternehmensstrategie einbinden, können sich von der Konkurrenz abheben und entscheidende Wettbewerbsvorteile generieren.

Outsourcing von Logistikleistungen in Produktionsunternehmen

95

Abbildung 2: Entwicklung des Umsatzes von Logistikdienstleistern in den verschiedenen Dienstleistungsbereichen (2006 bis 2010) Quelle: Eigene Darstellung, Projektergebnisse LogOn Baltic

4

Zusammenfassung

Die Reduktion von Kosten stellt nach wie vor das Hauptziel für Logistikoutsourcing dar. Dieser Befund wird durch den Trend zu steigenden Logistikkosten eher weiter verstärkt. Zunehmend wird jedoch auch der Serviceumfang von Logistikdienstleistern entscheidend sein. Die Nachfrage nach individuell auf den Kunden zugeschnittenen Logistikdienstleistungen sowie die Mehrwerte, die durch eine enge Zusammenarbeit im Rahmen der Kontraktlogistik entstehen können, werden in den nächsten Jahren deutlich steigen. Diese Konstellation hilft den Logistikdienstleistern und den Verladern, eine Win-win-Situation zu erzeugen, die ein wirtschaftliches Auffangen des Kostendrucks ermöglicht. Zugleich treten hier neue Wettbewerber aus dem Baltikum auf. Logistikdienstleister müssen sich daher rechtzeitig auf die genannten Veränderungen einstellen, um langfristig wettbewerbsfähig zu bleiben. Literatur Barney, J. (1991): Firm resources and sustained competitive advantage, in: Journal of Management, 17. Jg., Nr. 1, S. 99–120. Bellmann, K. (2005): Flexibilisierung der Produktion durch Dienstleistungen, in: Kaluza, B./Blecker, T. (Hrsg.): Erfolgsfaktor Flexibilität – Strategien und Konzepte für wandlungsfähige Unternehmen, Berlin, S. 153–174. Bellmann, K./Gerster, B. (2006): Netzwerkmanagement kleiner und mittlerer Unternehmen, in: Blecker, T./ Gemünden, H. (Hrsg.): Wertschöpfungsnetzwerke – Festschrift für Bernd Kaluza, S. 53–68.

96

W. Kersten, M. Schröder, C. Singer und J. Koch

Bellmann, K./Mildenberger, U. (1996): Komplexität und Netzwerke, in: Bellmann, K./Hippe, A. (Hrsg.): Management von Unternehmensnetzwerken – Interorganisationale Konzepte und praktische Umsetzung, Wiesbaden, S. 121–156. Christopher, M. (2005): Logistics and supply chain management: creating value-adding networks, 3. Aufl., Harlow u. a. Goldberg, D. (1990): JIT’s Next Step Moves Cargo and Data, in: Transportation and Distribution, 31. Jg., Nr. 13, S. 26–29. Horchler, H. (1996): Outsourcing: eine Analyse der Nutzung und ein Handbuch der Umsetzung: Markt Recht Management Abwicklung Vertragsgestaltung, Datakontext-Fachverlag, Köln. Kakabadse, N./Kakabadse, A. (2000): Critical review – outsourcing: A paradigm shift, in: The Journal of Management Development, 19. Jg., Nr. 8, S. 670–728. Kersten, W./Böger, M./Schröder, M./Singer, C. (2007): Developing Regions through Spatial Planning and Logistics & ICT competence – final report, as part of the publication series of the EU project LogOn Baltic, report no. 1: 2007. Lynch, C. F. (2004): Why outsource? In: Supply Chain Management Review, 8. Jg., Nr. 7, S. 44–51. Penrose, E. T. (1995): The theory of the growth of the firm, 3rd edition, Oxford, New York, Athen, u. a. Porter, M. E. (1998): Competitive Advantage: Creating and sustaining superior performance, Free Press, New York. Prahalad, C. K./Hamel, G. (1990): The core competence of the corporation, in: Harvard Business Review, May-June, S. 79–91. Schätzer, S. (1999): Unternehmerische Outsourcing-Entscheidungen: eine transaktionskostentheoretische Analyse, Dissertation, Institut für Betriebswirtschaftslehre – Abteilung Produktion und Wirtschaftsinformatik, Universität Lüneburg, Lüneburg. Stalk, G./Evans, P./Shulman, L. E. (1992): Competing on capabilities: The new rules of corporate strategy, in: Harvard Business Review, March-April, S. 57–69. Wernerfelt, B. (1984): A resource-based view of the firm, in: Strategic Management Journal, 5. Jg., Nr. 2, S. 171–180. Wildemann, H. (1988): Die modulare Fabrik: kundennahe Produktion durch Fertigungssegmentierung, München. Williamson, O. E. (1996): Economics and organization: A primer, in: California Management Review, 38. Jg., Nr. 2, S. 131–146.

Using Suitable Key Metrics for the Management of Complexity in Variety-Rich Environments Thorsten Blecker and Nizar Abdelkafi

Introduction In today’s business environment, many companies are striving to extend their product lines. For many of them, the transition from mass manufacturing to flexible and variety-rich production is not a voluntary but a compulsory choice. An empirical study conducted by Fraunhofer Institute shows that product variety has considerably increased in the last years. The study also reports on decreasing average of order quantities and an increasing number of required materials in production (Kinkel 2005, pp. 2–6). In the automotive industry, many manufacturers are providing their customers with astronomical levels of product variations. The average number of car models offered by US and European manufacturers has risen from two to seven models between 1960 and 2000 (Holweg, Pil 2004, pp. 64). Variety is, however, not for free; the design, development, production and distribution of high variety can adversely affect the company’s operations (e.g. Fisher, Ittner, 1999). This results in a drastic increase of costs and considerable reduction of profit (e.g. Lingnau 1994). The costs of variety are generally hidden; they emerge in the form of overheads and are referred to as complexity costs in the business administration literature (e.g. Child et al. 1991). Because of this, the capability of managing variety and complexity seems to be a necessary competence for firms that operate in dynamic business environments in which customer requirements change rapidly (Blecker et al. 2005). To cope with complexity effectively, companies need appropriate management tools. The use of complexity costs as a decision criterion is inadequate because of many reasons. First, a large portion of these costs is not incurred immediately, but within a certain time delay (Adam, Johannwille 1998, p. 12). Second, Complexity costs are irreversible. Once the firm has accumulated a high level of fixed costs because of complexity, it cannot go back to its initial cost position, even after complexity reduction. In this chapter, we intend to close this gap by developing a key metrics-based tool for the management of complexity in variety-rich environments.

Defining Complexity in Variety-Rich Environments Complexity has been dealt with in many research fields. Each field shaped the meaning of the term in a specific way. For instance, complexity can be understood as the system entropy (Shan-

98

Th. Blecker and N. Abdelkafi

non 1948), logical depth (Bennett 1990), algorithmic complexity (Chaitin 1974), a state between order and randomness or schema representing the system regularities (Gell-Mann 1994). In operations and production management, researchers frequently use the system theoretical point of view to analyze complexity. Very often, product variety is used as a surrogate for complexity. Thus, complexity gets higher as variety increases. Defining variety and complexity in the same way means that the most relevant action to reduce complexity is to reduce the level of variety. But this is misleading, as variety is reversible whereas complexity is not. Furthermore, consider a system handling two times as much variety as another; is it therefore twice more complex? Intuitively, the answer is not obvious. In addition to the system theoretical perspective, the entropic measure has also been applied to examine the complexity of manufacturing systems (e.g. Deshmukh et al. 1998; Frizelle, Woodcock 1995) and supply chains (e.g. Sivadasan et al. 2002). The problem with entropy is that it is not intuitive, thereby making its use in the practice very limited. The complexity framework we use in this chapter is based on Suh’s complexity theory (Suh 2005), which relies on axiomatic design. “Many of the past ideas of complexity are not consistent with that defined in axiomatic design. In many of the past works, complexity was treated in terms of an absolute measure. In axiomatic design, information and complexity are defined only relative to what we are trying to achieve and/or want to know” (Suh 1999, p. 117). Using Suh’s theory, Abdelkafi (2008) and Blecker, Abdelkafi (2006a) develop a theoretical framework for complexity in variety-rich environments. In simple terms, this framework defines the level of complexity as the extent to which the manufacturing firm cannot achieve costs and delivery lead times objectives in the presence of high variety. That is, the more the firm encounters difficulties in fulfilling its efficiency and responsiveness targets, the higher the level of complexity.

Variety Management Strategies To evaluate the level of complexity, the technical literature recommends using measures such as the number of end variants and product models, active part numbers, number of different processes on the shop floor, etc. It is often stated that the level of complexity is increasing in these measures. For instance, complexity increases when processes proliferate on the shop floor. These measures reflect the level of irregularities inside a production environment. They do not capture the extent to which manufacturing firms are able to cope with complexity. Knowing the absolute number of product or process varieties does not provide any information on the company’s endeavors to manage complexity. More important, there is also no method that identifies an exhaustive list of all measures that describe the irregularities within a system. Consistent with Gell-Man’s interpretation of complex systems, we only focus on system regularities in order to define the indicators that capture complexity in a variety-rich environment. An analysis of the literature shows that the level of regularities in variety-rich manufacturing systems is dependent on the degree of application of six variety management strategies: at the product and process levels. The strategies at the product level are: component commonality, product modularity, and product platforms; at the process level: process commonality, process modularity, and delayed differentiation.

Key Metrics for the Management of Complexity

99

Component Commonality Component commonality aims to use a few components in as many products as possible, as long as it is economical. High end variety need not necessarily require a large number of parts (e.g. Moscato 1976). The attempt to increase commonality between products, however, can result in over designed components. Though such a functional congestion incurs additional direct costs, the benefits due to lower overheads can be larger (Anderson 2004). Product Modularity Product modularity characterizes the ability to mix and match independent and interchangeable product building blocks with standardized interfaces in order to create product variants. Whereas a one-to-one mapping between functional elements and physical parts is advantageous, it refers to an extreme and ideal form of modularity, often difficult to achieve in the practice (Blecker, Abdelkafi 2006b). Modularity enables the production of variety while achieving the economies of scale and scope (Pine 1993). Platforms A product platform can be described as a basic common module that is used on several variants of a product family. A Platform is cost-intensive and planned for a long period of time; it supports the concentration on core competencies and decouples the life cycles of the product family derivatives (Nilles 2001). Process Commonality Process commonality reflects the degree to which products can be manufactured and assembled on the basis of a few processes. It is an indicator of the difficulty of internal production planning and controlling. Process commonality necessarily improves with higher component commonality, but the reverse is not true because many distinct parts can be manufactured on the same process (Treleven, Wacker 1987). Process Modularity Process modularity consists in dividing a large process into smaller sub-processes that can be designed and carried out independently, while still ensuring that the whole process fulfills its objectives (Baldwin, Clark 2000). Product modularity improves process modularity, in that product modules are manufactured and tested within independent and decoupled process modules, thus considerably decreasing production lead times (Ericsson, Erixon 1999). Delayed Differentiation Delayed product differentiation calls for the redesign of products and processes in order to delay the point at which product variations assume their unique identities. In this way, the process would not commit the work-in-process into a particular product until a later point (Lee and Tang, 1997).

Key Metrics for Complexity Control Variety management strategies are effective to react to the internal complexity. The mere implementation of these strategies, however, does not necessarily imply high performance. After all,

100

Th. Blecker and N. Abdelkafi

each manufacturing system has its own limits in handling variety. In spite of using highly flexible modular architectures, platform strategy, delayed differentiation, etc. every system is expected to break down when variety reaches a certain scale. Suppose a firm with a sophisticated manufacturing system that can produce a high variety at low costs and within fast delivery times. As long as variety does not change, the system can actually achieve the required performance. But because customer requirements are dynamic, variety must be updated in the course of time. These changes in the extent of variety can affect (even to a small extent) the product architecture and production processes. As a result, efficiency and responsiveness can be negatively influenced. The question is therefore, “how can a variety manufacturer be sure that performance will not deteriorate?” Successful variety production highly depends on the degree to which the variety management strategies are implemented. For instance, we expect that the higher the degree of commonality or modularity, the more likely the manufacturer can mitigate complexity. To control this complexity in an effective manner, we should be capable of measuring how well these strategies are fulfilled. We choose a key metrics-based approach to achieve this goal. Component Commonality Measurement The measurement of component commonality by means of key metrics has drawn a lot of attention in the literature. Researchers have recognized the importance of this issue since more than twenty years. The scientific contributions can be classified into two main research streams. The first stream of research proposes relatively simple key metrics, as the main focus is not commonality per se, but rather the analysis of its impacts on operational performance. The second research stream emphasizes the importance of commonality as a product design decision. The developed measures in this regard are more complicated and especially addressed to design engineers who intend to evaluate commonality in an accurate way. For variety-rich environments, we propose two commonality metrics. The first key metric has been developed by Kota et al. (2000, p. 406); it is called the Product Line Commonality Index (PCI) and penalizes the product differences that should ideally be common. This index only considers non-differentiating components and can be interpreted as the percentage of non-differentiating components that are identical. The second key metric is a modified version of the component part commonality index CI© by Jiao, Tseng (2000, p. 232). It evaluates the bills-of-materials that are used in production. Its value depends on the number of immediate parents for each component and the quantities per operation required. Product Modularity Measurement Many metrics have been proposed in the literature for the measurement of product modularity. Out of these metrics, we recommend using three measures, which capture different modularity dimensions. The first metric is proposed by Guo, Gershenson (2003); it evaluates the decoupling degree between modules. The higher the coupling levels between the components inside the modules and the lower the interactions between the modules themselves, the higher the degree of decoupling and subsequently the level of modularity. The second metric which is suggested by Hölttä-Otto, de Weck (2007, p. 8) calculates the ratio of the number of functions to the number of modules. A one-to-one mapping between functional and physical elements cor-

Key Metrics for the Management of Complexity

101

responds to perfect product structure, as it “… allows the firm to minimize the physical changes required to achieve a functional change” (Ulrich, Eppinger, 2000, p. 187). Finally, the third metric evaluates the degree to which a few modules can generate a high level of end variety. In effect, a modular architecture is more advantageous, if product variants can be created using a fewer product building blocks. In addition, we believe that these three metrics are interdependent, in the sense that the decoupling level and the ratio of the number of functions to physical elements influence the capability of creating more end variety on the basis of a few modules. Platform Measurement An analysis of the literature shows that among the metrics proposed until now, no metric can comprehensively evaluate product platforms. A platform has important implications for product development and operations. In product development, it supports the derivation of end variants over time, and in operations, it stabilizes the production process. To evaluate product platforms adequately, both aspects must be taken into account. From a product development perspective, the performance of a platform should be assessed with respect to time and costs efficiency. An efficient platform makes it possible for the manufacturing firm to derive follow-on products at low costs and high speed, as compared to the engineering costs and time initially spent to develop the platform itself (Meyer, Lehnerd 1997, p. 159). From an operational perspective, the index by Siddique et al. (1998, pp. 8, 10) is appropriate. It considers four parameters: the extent to which platforms are assembled out of the same components, degree of commonality of component connections, similarity between assembly sequences, and extent to which the platforms use the same workstations in the assembly process. Overall platform commonality is the weighted sum of these parameters, whereas the weighting factors depend on the designer preferences. The platform commonality index, however, measures the level of commonality of single platforms, not of all platforms within the family. To mitigate this problem, the arithmetic mean of the metric values obtained for each platform should be calculated (Thevenot 2003, p. 71). In this way, a single value can be assigned to the whole family. Process Commonality Measurement A comprehensive metric for the measurement of process commonality should at least depend on three parameters: process sharing, lot sizing, and sequencing flexibility. The degree of process sharing on the shop floor corresponds to the level to which components are assembled and/or manufactured on the basis of the same processes. The lot sizing parameter reflects the flexibility resulting from short setup times and small economic order quantities. Sequencing flexibility measures the degree to which setup times are identical and sequence-independent. Maximum flexibility is achieved when the setup variance is equal to zero, that is there is no particular preference what component or final product to be produced next. A good index, which takes all these parameters into account is suggested by Jiao, Tseng (2000). Process Modularity Measurement To measure process modularity on the shop floor, Abdelkafi (2008) recommends using the metrics proposed by Blackenfelt (2001): the module interdependence metric (MI), and the average ratio of potential metric (ARP). Whereas MI assesses the level of interactions between process

102

Th. Blecker and N. Abdelkafi

modules, ARP evaluates the coupling inside the modules. In addition, Abdelkafi (2008) adapts the lead time in assembly metric by Ericsson, Erixon (1999) in order to evaluate the degree of parallel work on the shop floor. Modularity should enable processes to be carried out independently and simultaneously. Thus, the more production processes can be done in parallel, the higher the level of process modularity and the shorter the lead time. Delayed Differentiation Measurement To evaluate delayed differentiation, one should consider the level of variety proliferation within the production process. It is more advantageous to let variety increase at the end of the process than at the beginning. The best case corresponds to the situation where all product varieties are created at the last process in production. In addition, a metric evaluating delayed differentiation must consider the algebraic product of throughput times and added values at each process. In effect, it is better that the processes that add high values to the product are placed nearest to sales , in order to minimize capital commitment. For instance, when high value added parts are assembled at the beginning of the process, and it takes a long time for the resulting subassembly to go through the process, then the level of delayed differentiation will be negatively influenced. A comprehensive metric that considers all these variables is developed by Martin, Ishii (1996).

Integration of the Metrics into a System Individual key metrics have low explanatory power. A metric’s potential to support engineering and management tasks increases considerably, if it can be integrated with other related metrics into a comprehensive system. To create a structured system, we distinguish between metrics that can be calculated at early stages of product development and those that can be computed after products are launched. For example, the metrics that use sales volume data can be computed, only after products are placed in the market. For a proactive management of complexity in variety-rich production systems, the indexes that can be calculated at the very early phases of product design are especially useful. They support engineers in the task of evaluating new designs and comparing between alternative concepts. Excepting platform time efficiency, platform costs efficiency and degree of parallel work, the other metrics we introduced earlier can support variety decisions at early stages of product development. The resulting key metrics system is provided by the next figure. The directed arrows show how key metrics are influencing each other. For example, it is obvious that when average platform commonality increases or decreases, the product line commonality index behaves in the same manner. Having established the key metrics system for the proactive management of complexity in variety-rich production environments, the question is now how to use it in order to support management and engineering tasks. There are many thinkable ways of applying this system in the practice. The most straightforward way is to include the key metrics system into the management tools available to engineering design, so as to support the comparison between different design solutions. The system can assist the decision making process at the early phases of product development.

Key Metrics for the Management of Complexity

Figure 1:

103

Key metrics system for the management of complexity in high-variety production environments

In contrast to previous works on variety and complexity management, either focusing on product modularity or component commonality, the key metrics system integrates all variety management strategies into a comprehensive framework. When comparing between different design alternatives, the solution with the best metrics values should be prioritized against the other design concepts. The tool can also be useful even if a single design concept is available. Engineers may use the key metrics that are calculated for earlier developed products as a benchmark. The comparison of metrics enables the discovery of design problems before products go to manufacturing. The key metrics system is also useful when a product family is to be updated in the course of time. If the key metrics of the upgraded product family are worse than those calculated for the old version, this indicates an increase in the complexity. Because of this, design changes that aim to improve the indexes are necessary. The key metrics in the system can be used to predict in a quantitative way the effects of variety on efficiency and responsiveness. To achieve this goal, a record with past values of the metrics is needed. A factor analysis can help identify the minimum number of significant metrics. Subsequently, a regression analysis can serve to study how costs and delivery lead times are influenced by the metrics of the reduced set.

Conclusions The diversity of customers’ requirements and the intensification of competition drive many companies to offer high product varieties to the market. Variety, however, must be managed adequately; otherwise it can have negative effects on the company’s operations. High-variety com-

104

Th. Blecker and N. Abdelkafi

panies must implement a mix of variety management strategies. In addition, they must control these strategies in the course of time by means of appropriate tools. In this chapter, we provide a key metrics system, which integrates many complexity metrics into a comprehensive system. A first application of this system in industry has shown it has a high potential to capture complexity and the problems triggered by variety in the practice. In the future, we intend to develop a computer-based application that uses the key metrics system in order to help companies better manage their complexity that is due to variety. References Abdelkafi, Nizar (2008): Variety-Induced Complexity in Mass Customization – Concepts and Management, PhD Thesis, Hamburg University of Technology. Adam, Dietrich/Johannwille, Ulrich (1998): Die Komplexitätsfalle, in: Dietrich Adam (Ed.): Komplexitätsmanagement, Schriften zur Unternehmensführung, No. 61, Wiesbaden: Gabler, pp. 5–28. Anderson, David (2004): Build-to-Order & Mass Customization – The Ultimate Supply Chain Management and Lean Manufacturing Strategy for Low-Cost On-Demand Production without Forecasts or Inventory, Cambria, California: CIM Press. Baldwin, Carliss Y./Clark, Kim B. (2000): Design Rules – The Power of Modularity: Cambridge, Massachusetts: The MIT Press. Bennett, Charles H. (1990): How to Define Complexity in Physics, and Why, in: Wojciech H. Zurek (Ed.): Complexity, Entropy and the Physics of Information, Volume VIII, Redwood City, California: AddisonWesley Publishing Company pp. 137–148. Blackenfelt, Michael (2001): Managing Complexity by Product Modularisation: Balancing the Aspects of Technology and Business during the Design Process, Doctoral Thesis, Department of Machine Design, Royal Institute of Technology Stockholm, Sweden. URL: http://www.diva-portal.org/kth/abstract.xsql? dbid=3097 (Retrieval: June 1, 2007). Blecker, Thorsten/Friedrich, Gerhard/Kaluza, Bernd/Abdelkafi, Nizar/Kreutler, Gerold (2005): Information and Management Systems for Product Customization, New York: Springer. Blecker, Thorsten/Abdelkafi, Nizar (2006a): Complexity and Variety in Mass Customization Systems: Analysis and recommendations, Management Decision, Vol. 44, No. 7, pp. 908–929. Blecker, Thorsten/Abdelkafi, Nizar (2006b): Modularity and Delayed Product Differentiation in Assembleto-Order Systems: Analysis and Extensions from a Complexity Perspective, in: Thorsten Blecker, Gerhard Friedrich (Eds.): Mass Customization: Challenges and Solutions, New York: Springer, pp. 163–186. Chaitin, Gregory J. (1974): Information-Theoretic Computational Complexity, IEEE Transactions on Information Theory, Vol. 20, No. 1, pp. 10–15. Child, Peter/Diederichs, Raimund/Sanders, Falk-Hayo/Wisniowski, Stefan (1991): SMR Forum: The Management of Complexity, Sloan Management Review, Vol. 33, No. 1, pp. 73–80. Deshmukh, Abhijit V./Talavage, Joseph J./Barash, Moshe M. (1998): Complexity in Manufacturing Systems: Part 1 – Analysis of Static Complexity, IIE Transactions, Vol. 30, No. 7, pp. 645–655. Ericsson, Anna/Erixon, Gunnar (1999): Controlling Design Variants: Modular Product Platforms, Dearborn/Michigan: Society of Manufacturing Engineers. Fisher, Marshall L./Ittner, Christopher D. (1999): The Impact of Product Variety on Automobile Assembly Operations: Empirical Evidence and Simulation Analysis, Management Science, Vol. 45, No. 6, pp. 771–786. Frizelle, Gerry/Woodcock, E. (1995): Measuring Complexity as an Aid to Developing Operational Strategy, International Journal of Operations & Production Management, Vol. 15, No. 5, pp. 26–39.

Key Metrics for the Management of Complexity

105

Gell-Mann, Murray (1994): The Quark and the Jaguar – Adventures in the Simple and the Complex, London: Abacus. Guo, F./Gershenson, John K. (2003): Comparison of Modular Measurement Methods Based on Consistency and Sensitivity Analysis, Proceedings of ASME Design Engineering Technical Conferences, Chicago, IL. Holweg, Matthias/Pil, Frits K. (2004): The Second Century – Reconnecting Customer and Value Chain through Build-to-Order, Cambridge/London: The MIT Press. Hölttä-Otto, Katja/de Weck, Olivier (2007): Degree of Modularity in Engineering Systems and Products with Technical and Business Constraints, URL: http://strategic.mit.edu/PDF_archive/2%20Refereed%20Journal/2_18_CERA20060315sub.pdf (retrieval: May 29, 2007). Jiao, Jianxin/Tseng, Mitchell (2000): Understanding Product Family for Mass Customization by Developing Commonality Indices, Journal of Engineering Design, Vol. 11, No. 3, pp. 225–243. Kinkel, Steffen (2005): Anforderungen an die Fertigungstechnik von morgen: Wie verändern sich Variantenzahlen, Losgrößen, Materialeinsatz, Genauigkeitsanforderungen und Produktlebenszyklen tatsächlich? Mitteilungen aus der Produktionsinnovationserhebung, Fraunhofer Institut System und Innovationsforschung, September 2005. Kota, Sidhar/Sethuraman, Kannan/Miller, Raymond (2000): A Metric for Evaluating Design Commonality in Product Families, Journal of Mechanical Design, Vol. 122, No. 4, pp. 403–410. Lee, Hau L./Tang, Christopher S. (1997): Modelling the Costs and Benefits of Delayed Product Differentiation, Management Science, Vol. 43, No. 1, pp. 40–53. Lingnau, Volker (1994): Variantenmanagement: Produktionsplanung im Rahmen einer Produktdifferenzierungsstrategie, Berlin: Erich Schmidt Verlag. Martin, Mark V./Ishii, Kosuke (1996): Design For Variety: A Methodology For Understanding the Costs of Product Proliferation, Proceedings of The 1996 ASME Design Engineering Technical Conferences and Computers in Engineerinflflg Conference, California, August 18–22, 1996. Meyer, Marc H./Lehnerd, Alvin P. (1997): The Power of Product Platforms: Building Value and Cost Leadership, New York: The Free Press. Moscato, Donald R. (1976): The Application of the Entropy Measure to the Analysis of Part Commonality in a Product Line, International Journal of Production Research, Vol. 14, No. 3, pp. 401–406. Nilles, Volker (2001): Effiziente Gestaltung von Produktordnungssystemen – Eine theoretische und empirische Untersuchung, München: TCW Transfer-Centrum GmbH. Pine II, B. Joseph (1993): Mass Customization: The New Frontier in Business Competition, Boston, Massachusetts: Harvard Business School Press. Shannon, Claude E. (1948): A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27, pp. 379–423. Siddique, Zahed/Rosen, David W. (1998): On the Applicability of Product Variety Design Concepts to Automotive Platform Commonality, Proceedings of DETC’98, ASME Design Engineering Technical Conferences, September 13–16, 1998, Atlanta, Georgia. Sivadasan, Suja/Efstathiou, Janet/Frizelle, Gerry/Shirazi, Rabia/Calinescu, Ani (2002): An InformationTheoretic Methodology for Measuring the Operational Complexity of Supplier-Customer Systems, International Journal of operations and Production Management, Vol. 22, No. 1, pp. 80–102. Suh, Nam P. (1999): A Theory of Complexity, Periodicity and the Design Axioms, Research in Engineering Design, Vol. 11, No. 2, pp. 116–131. Suh, Nam P. (2005): Complexity: Theory and Applications, New York: Oxford University Press. Thevenot, Henry J. (2003): A Comparison of Commonality Indices for Product Family Design, Master Thesis, The Pennsylvania State University, College of Engineering.

106

Th. Blecker and N. Abdelkafi

Treleven, Mark/Wacker, John G. (1987): The Sources, Measurements, and Managerial Implications of Process Commonality, Journal of Operations Management, Vol. 7, No. 1–2, pp. 11–25. Ulrich, Karl T./Eppinger, Steven D. (2000): Product Design and Development, 2nd Edition, Boston et al.: McGraw Hill.

Corporate Social Responsibility – Theoriekonzepte und Praxisansätze Udo Mildenberger, Anshuman Khare und Christoph Thiede

Das Thema Corporate Social Responsibility (CSR), gewinnt national und international zunehmend an Relevanz. Dabei ist jedoch der Inhalt dessen, was in Theorie und Praxis unter CSR subsumiert und thematisiert wird, nicht einheitlich und allgemein anerkannt. Das Verständnis des Begriffs bzw. der Begriffsinhalts von CSR reicht von einer stark meta-theoretisch geprägten Führungsphilosophie bis hin zum unmittelbar praxisbezogenen Gestaltungsansatz. Entsprechend vielfältig und unterschiedlich sind die CSR-Konzepte sowie die in den einzelnen Konzepten herangezogenen Beschreibungs-, Erklärungs- und Gestaltungsdimensionen. Der vorliegende Beitrag analysiert und systematisiert die CSR-Konzeptvielfalt anhand der, den Konzepten jeweils zugrunde liegenden Erklärungsperspektiven sowie Argumentationsleitlinien und gibt damit einen einführenden Überblick zum Themengebiet.

1

Erste Annäherung an das Themengebiet

Das Thema Corporate Social Responsibilty (CSR) ist zwar kein neues Thema in der nationalen und internationalen betriebswirtschaftlichen Diskussion, es hat jedoch in den letzten Jahren dramatisch an Bedeutung gewonnen. In den ersten Dekaden der Auseinandersetzung mit Fragen der gesellschaftlichen Verantwortung von Unternehmen (Zeitraum 1950–1990), wurde die Diskussion mehr oder weniger ausschließlich von theoretisch orientierten Wirtschaftsethikern geprägt; für die Praxis spielten sie keine Rolle. Unternehmen haben in der Vergangenheit bestenfalls Lob für gesellschaftliches Engagement geerntet. Die Nichtbeachtung sozialer, ethischer und ökologischer Aspekte hatte in der Regel keine Konsequenzen. Seit Beginn der 90er Jahre wird jedoch zunehmend erwartet, dass Unternehmen über ökonomisches Handeln hinaus, auch gesellschaftliche Verantwortung übernehmen und ihre Geschäftstätigkeit mit den Erwartungen und Interessen aller relevanten Anspruchsgruppen in Einklang bringen. Eine Nichtbeachtung gesellschaftlicher (inkl. ökologischer) Interessen wird leicht zu einem Wettbewerbsnachteil. CSR erlangt damit zunehmend ähnliche Bedeutung wie Kundenorientierung oder Qualitätsmanagement und kann einem wichtigen oder gar entscheidenden Kriterium für den Unternehmenserfolg werden.1

1

Vgl. Burson-Marsteller (2004).

108

U. Mildenberger, A. Khare und Ch. Thiede

Grundlegend liegt dem Thema CSR die simple Idee zugrunde, dass Unternehmen der Gesellschaft gegenüber auch über bloßes Profitstreben hinaus gewisse Verpflichtungen haben.2 Seit Beginn der Diskussion in den 50er Jahren suchen Akademiker unterschiedlicher Fachrichtungen jedoch vergeblich nach einer klaren und allgemein akzeptierten weiteren Eingrenzung von CSR. Um die Vielfalt und Bandbreite existierender Begriffsdefinition darzustellen ohne in eine seitenumfassende Aufzählung zu verfallen, werden als erste Annäherung im folgenden zwei exemplarische, aus völlig unterschiedlichen Zeiten stammende Definitionen für CSR angeboten: Bowen hat 1953 CSR definiert als „die Verpflichtungen von Geschäftsleuten, eine solche Politik zu verfolgen, solche Entscheidungen zu fällen oder solche Betätigungsfelder zu ergreifen, die in Hinblick auf die Ziele und Werte der Gesellschaft wünschenswert sind“3. Knapp 50 Jahre später wird CSR durch die EU-Kommission definiert als „Konzept, das den Unternehmen als Grundlage dient, auf freiwilliger Basis soziale Belange und Umweltbelange in ihre Unternehmenstätigkeit und in die Wechselbeziehungen mit den Stakeholdern zu integrieren“4. An diesen unterschiedlichen Begriffsdefinitionen lässt sich der typische Charakter der CSREvolution bereits deutlich ablesen. Die ursprünglichen „Verpflichtungen“ sind in eine „freiwillige Basis“ mutiert. „Ziele und Werte der Gesellschaft“ hingegen wurden durch „soziale Belange und Umweltbelange“ präzisiert. Bereits dieser kurze und sehr oberflächliche Vergleich zeigt, warum die Diskussion um eine CSR-Definition bislang end- und/oder ergebnislos ist. Ziel des vorliegenden Beitrags ist es darum, eine Bestandsaufnahme theoretischer Konzepte, begrifflicher Fundamente, Argumentationsmuster und Erklärungsansätze zum Thema CSR vorzunehmen. Dabei werden nicht enumerativ sämtliche theoretischen Ansätze zum Themenkreis wiedergegeben, sondern die Konzepte werden zu wesentlichen Diskussionsleitlinien zusammengefasst und gruppenweise diskutiert.

2

Wissenschaftliche CSR-Konzepte und Diskussionsleitlinien

Aufgrund der zahlreichen Schnittstellen des Themas CSR mit anderen Forschungsbereichen wie beispielsweise Unternehmensethik, Wohltätigkeit (Philanthropie), Corporate Citizenship, Nachhaltigkeit und ökologischer Verantwortung bezeichnen Matten und Moon CSR als „cluster concept“5. Mit dieser sehr treffenden Bezeichnung machen sie auf die große Begriffsvielfalt und konzeptuelle Diversität der CSR-Forschung aufmerksam. Nur sehr vereinzelt haben sich Autoren der schwierigen Aufgabe gestellt, der terminologischen und inhaltlichen Vielfalt durch eine Systematisierung Herr zu werden.6 Als Ausgangspunkt der Systematisierung im vorliegenden Beitrag dient die Arbeit von Garriga und Melé, die CSR-Ansätze anhand der jeweiligen sozialwissenschaftlicher Forschungsbasis kategorisieren.7 Garriga und Melé differenzieren in vier unterschiedliche CSR-Konzeptgruppen: 2

Vgl. stellvertretend Godfrey, P./Hatch, N. (2006), S. 87.

3

Bowen, zitiert nach Falck, O./Heblich, S. (2007), S. 248; eigene Übersetzung.

4

Europäische Kommission (2001), S. 10.

5

Matten, D./Moon, J. (2005), S. 335.

6

Systematisierungsversuche finden sich beispielsweise in: Carroll, A. (1991); Garriga, E./Melé, D. (2004) oder Godfrey, P./Hatch, N. (2006).

7

Vgl. Garriga, E./Melé, D. (2004).

Corporate Social Responsibility

109

Ökonomisch-instrumentelle, politische, sozial-integrative und ethische Konzepte. Diesem Zuordnungsraster legen sie die sozialwissenschaftliche These von Parson zugrunde, nach der jedes Sozialsystem von der Art und Weise der Adaption an die Umwelt (bezugnehmend auf Ressourcen und wirtschaftliche Gegebenheiten), von einem Streben nach Zielerreichung (bezugnehmend auf Politik), von sozialer Integration sowie von der Wahrung oder des impliziten Vorhandenseins von Werten und Grundmustern (bezugnehmend auf Werte und Ethik) geprägt ist.8

2.1 Ökonomisch-Instrumentelle Konzepte In der ersten Konzeptgruppe werden Unternehmen als Instrumente reiner Profitmaximierung angesehen. Entsprechend wird auch CSR ausschließlich als Instrument zur Gewinnsteigerung konzeptualisiert. Leitgedanke hierbei ist, dass jedem unternehmerischen Handeln, das auch als gesellschaftlich verantwortlich gewertet werden kann, stets eine kurz- oder langfristige Wertsteigerung zugrunde liegen muss. Unternehmen stellen bei Bewertung von und Entscheidung über CSR-Maßnahmen oder Strategien stets die Maximierung des Shareholder-Values als Entscheidungskriterium in den Mittelpunkt. Nach Friedmann, einem wesentlichen Repräsentanten dieser Konzeptgruppe, liegt die alleinige Verantwortung von Unternehmen gegenüber der Gesellschaft in der Maximierung von Profit und Shareholder-Value.9 Die Argumentation Friedmans folgt dem etablierten neo-liberalen Argumentationsmuster.10 Investive Maßnahmen in Soziales und Gesellschaft von Unternehmensseite werden nur dann durchgeführt, wenn Sozialinvestitionen oder eine verantwortungsvolle Prozessgestaltung einen positiven Beitrag zum Unternehmenswert leisten.11 Mit seiner Position rief Friedman eine ganze Reihe von Studien hervor, die sich der Korrelation von CSR und CFP (Corporate Financial Performance) widmen. Ein signifikanter Zusammenhang ist jedoch bis heute empirisch in keiner der Studien nachweisbar.12 In konsequenter Fortführung seiner Argumentation kritisiert Friedmann CSR-Investitionen von Unternehmen in finanziell unproduktive Bereiche und führt sie auf das Ausnutzen von Informationsvorsprüngen des Managements zu Lasten der Anteilseigner zurück. Sozial ambitionierten Führungskräften schlägt er deshalb vor, sich nicht mit Unternehmensmitteln, sondern im privaten Rahmen und mit privatem Vermögen entsprechend zu engagieren.13 Die Grenzen einer verantwortungsfreien Gewinnsteigerung liegen nach Friedman vor allem in der Forderung von Gesetzestreue, Ehrlichkeit (Absenz von Täuschung und Betrug) und der Orientierung an ethischen Sitten der Gesellschaft.14 Aufbauend auf der grundlegenden Argumentation Friedmans lassen sich drei wesentliche Entwicklungslinien ökonomisch-instrumenteller Konzepte unterscheiden.15 Gemeinsames Merkmal 8

Vgl. Garriga, E./Melé, D. (2004), S. 52.

9

Vgl. Friedman, M. (1970).

10

Nach neo-liberaler Argumentation sind kollektive Probleme durch die Selbstregulation des Marktes (unsichtbare Hand) oder durch Eingriffe des Staates, nicht jedoch durch Verhaltenskorrekturen von Unternehmen zu lösen. Vgl. Heugens, P./Dentchev, N. (2007), S. 152.

11

Vgl. Friedman, M. (1970).

12

Vgl. u. a. Clark, C. (2000), S. 373; Becker-Olsen, K. et al. (2006), S. 47.

13

Vgl. Friedman, M. (1970).

14

Vgl. Friedman, M. (1970).

15

Vgl. Garriga, E./Melé, D. (2004), S. 54ff.

110

U. Mildenberger, A. Khare und Ch. Thiede

der Ansätze ist die Übersetzung bzw. Konkretisierung des Konzepts der Unternehmenswertsteigerung durch CSR-Investitionen durch den Aufbau und die Entwicklung von strategischen Wettbewerbsvorteilen. Unterschiedlich an den Konzepten ist die Art und Weise wie Wettbewerbsvorteile und damit die Möglichkeit zur Erzielung höherer Renditen erklärt wird. • Market-Based-View: Nach Porter und Kramer16 können Unternehmen durch gezielte Investitionen in die Unternehmensumwelt bzw. gezielte Anpassungsmaßnahmen an die Marktstrukturen strategische Wettbewerbsvorteile erzeugen. CSR-relevante Maßnahmen wären dabei beispielsweise die Aufwertung lokaler Produktionsfaktoren durch Mitarbeiterfortbildung und/oder durch Entwicklung der Infrastruktur, die Beeinflussung der Nachfragestruktur durch Bildungs- und Technologieförderung oder der Schutz des Wettbewerbs vor Korruption und Kartellen. • Resource-based-View und Dynamic Capabilities: Hier beschreiben die Autoren, dass die Entwicklung von Prozessen und Routinen mit CSR-Fokus zu einem Kompetenzaufbau führt, welche die Entstehung einzigartiger Unternehmensressourcen fördert. Je spezifischer diese Ressourcen anschließend genutzt werden, desto größer ist der potentielle Wettbewerbsvorteil. Der Prozess moralischer Entscheidungsfindung, Sensibilität und Reaktionsfähigkeit in Hinsicht auf die Unternehmensumwelt und zentrale Stakeholder bergen vor allem in einem dynamischen Wettbewerbsumfeld und in Hinsicht auf langfristige Herausforderungen ein beträchtliches Potenzial. • Marktchancen in den armen Teilen der Welt: Mit Innovationen und technisch minimalistischen Produkten kann den Bedürfnissen und finanziellen Möglichkeiten der vier Milliarden Menschen in den armen Teilen der Welt begegnet werden. Hierin steht ein Weg offen, im Wege sozialer Besserung langfristig Wettbewerbsvorteile in neuen Märkten zu erarbeiten. Der Reigen instrumenteller CSR-Konzepte wird durch Konzepte abgerundet, die auf ökonomische Effekte des Cause-Related Marketing abheben. Leitidee ist es, durch eine Verknüpfung des Produktverkaufes mit einem wohltätigen Zweck sowohl den Absatz zu stimulieren als auch einem sozialen Zweck zu dienen.17 Wie empirische Beispiele belegen, sind derartige Projekte z. T. wirtschaftlich sehr erfolgreich.18 Bei erfolgreicher Assoziation des Markennamens mit dem gemeinnützigen Zweck, kann der positive Absatzeffekt durch die Attribuierung der Marke mit Zuverlässigkeit, Ehrlichkeit und Verantwortungsbewusstsein auch längerfristig erhalten bleiben. Problematisch für alle ökonomisch-instrumentellen Konzepte ist die Abgrenzung von unternehmerischem Handeln, das ökonomischen Nutzen durch CSR-relevante Investitionen erreicht und unternehmerischem Handeln, bei dem ökonomische Interessen lediglich unter dem Deckmantel sozialer Verantwortung durchgesetzt werden.19

16

Vgl. Porter, M./Kramer, M. (2002).

17

Vgl. Berglind, M./Nakata, C. (2005), S. 444.

18

General Mills spendete beispielsweise zehn Cent pro verkauften Becher des Joghurt Yoplait an ein Institut für Brustkrebsforschung. Sowohl das Markenimage als auch der Absatz von Yoplait erfuhren eine deutliche Stärkung und in den acht Jahren der Kooperation wurden mehr als $ 12 Millionen für die Brustkrebsforschung zusammengetragen. Vgl. Berglind, M./Nakata, C. (2005), S. 443f.

19

Eine ausführlichere Diskussion dieses, auch als „enlighted self interest-Phänomen“ bezeichneten Problemkreises findet sich in Garriga, E./Melé, D. (2004), S. 53 sowie Keim, G. (1978).

Corporate Social Responsibility

111

2.2 Politische Konzepte Diese Gruppe von CSR-Konzepten verfolgt den Leitgedanken, dass Unternehmen sehr machtvolle und einflussreiche Institutionen sind. Macht und Einfluss entspringen ihrem Wissen über die Gesellschaft, ihren, im Gegensatz zu politischen und staatlichen Institutionen, sehr proaktiven und flexiblen Organisationen, ihrem Ressourcenreichtum und ihrer engmaschigen Verknüpfung mit sozialen Lebensbereichen wie Arbeit und Medien.20 Im Rahmen der CSR-Diskussion können zwei wesentliche Konzepte unterschieden werden, die die Frage nach der Art und Weise in der Unternehmen mit ihrer aus Macht und Einfluss resultierenden Verantwortung umgehen, in den Mittelpunkt des Interesses rücken: Corporate Constitutionalism und Corporate Citizenship. Das Corporate Constitutionalism-Konzept wurde in den 1960er Jahren von Davis formuliert und basiert auf folgender Argumentationskette:21 Unternehmen sind sowohl durch ihre innere Struktur als auch durch den dynamischen Wandel wirtschaftlicher, sozialer und politischer Prozesse in starkem Maße mit sozialer Macht ausgestattet. Aus dieser Machtposition resultiert eine entsprechende soziale Verantwortung. Kommen Unternehmen dieser Verantwortung nicht nach, verlieren sie im Zeitablauf ihre Legitimität, die Gesellschaft weicht dann auf andere, verantwortungsvoller handelnde Akteure aus. M. a. W., soziale Macht und Einfluss von Unternehmen bzw. der unternehmerischen Sphäre gehen langfristig verloren, wenn sie nicht verantwortungsvoll ausgeübt werden. Das Konzept Corporate Citizenship (CC) oder auch „korporative Bürgerschaft“, wie Seitz22 es übersetzt, ist seit Mitte der 90er Jahre vor allem in der Unternehmenspraxis sehr populär. Als Gründe für die Popularität weisen Crane und Matten neben den konzeptionell-inhaltlichen Eigenarten vor allem auf die vorteilhafte Terminologie hin, die auf die, als sehr stark idealisierenden und wertenden empfundenen, Begriffsbestandteile „social“, „responsibility“ und „ethics“ verzichtet.23 Citizenship hingegen betont die Interkonnektivität von Unternehmen und Gesellschaft und impliziert auf natürliche Weise die mit lokaler und globaler Bürgerschaft einhergehenden Rechte und Pflichten. In inhaltlicher Hinsicht lassen sich drei wesentliche Entwicklungslinien der CC-Forschung identifizieren24: • Dem Limited View of CC sind jene wirtschaftlichen Akteure zuzuordnen, die sich in ihrem unmittelbaren physischen Umfeld freiwillig wohltätig zeigen und diese traditionell unter dem Begriff Philanthropie gefassten Aktivitäten nach außen als Corporate Citizenship bezeichnen. • Dem View Equivalent to CSR gehören jene Akademiker und Praktiker an, die ihre herkömmlichen Konzepte für den Umgang mit gesellschaftlicher Verantwortung mit dem fortschrittlichen Terminus des CC neu etikettieren. So umfasst die Begriffsdefinition CC von Carroll aus dem Jahr 1998 exakt das Gleiche, das er 1991 als Definition des Begriffs CSR vorgestellt hat.25 20

Vgl. hierzu Falck, O./Heblich, S. (2007), S. 248; Brink, A. (2002), S. 17; Kirchhoff, K. (2007), S. 13f. sowie Davis, K. (1967), S. 47 f.

21

Vgl. Garriga, E./Melé, D. (2004), S. 55f.

22

Vgl. Seitz, B. (2002), S. 3.

23

Vgl. Crane, A./Matten, D. (2004), S. 61ff.

24

Vgl. Garriga, E./Melé, D. (2004), S. 57 sowie Crane, A./Matten, D. (2004), S. 63ff.

25

Vgl. Crane, A./Matten, D. (2004), S. 67.

112

U. Mildenberger, A. Khare und Ch. Thiede

• Der Extended View of CC nimmt den politischen Begriff der Bürgerschaft zum Ausgangspunkt und verknüpft ihn mit Beispielen aus der Wirtschaftspraxis, in denen Unternehmen als machtvolle Akteure eine Rolle einnehmen, die originär dem Staat gebührt. Der Bürgerschaftsbegriff ist mit sozialen, zivilen und politischen Rechten des Individuums verknüpft und macht es zur Aufgabe der vom Staat aufrecht zu erhaltenden Grundordnung, diese zu ermöglichen, zu erhalten und zu kräftigen. In der Realität sind jedoch einige Unternehmen aufgrund ihrer Übermacht weit besser dazu in der Lage, die Wirksamkeit dieser Rechte zu beeinflussen, als staatliche Organisationen. Deswegen nehmen Unternehmen teilweise die Rolle des Staates ein, wo dieser versagt. Dabei treten sie in unterschiedlichen Formen auf. Soziale Bürgerrechte lassen sich bspw. durch Armenspeisungen oder den Ausbau von Bildungseinrichtungen verwirklichen. In diesem Fall tritt die Korporation als Versorger auf. Zur Stärkung ziviler Bürgerrechte wie dem Schutz von Menschenrechten können machtvolle Firmen in der Rolle eines Adjutanten Regierungen unter Druck setzen. Um sich im Sinne politischer Bürgerrechte Gehör zu verschaffen, können zur Bekämpfung von Missständen öffentlichkeitsnahe Unternehmungen als Sprungfeder dienen. So verklagten z. B. britische Greenpeace-Aktivisten die McDonald’s Corporation anstelle der Regierung, um öffentliches Interesse auf politische Missstände zu lenken.26 Besonders deutlich kommt dies beispielsweise in der Begriffsdefinition von Crane und Matten zum Tragen: „Corporate Citizenship describes the corporate function for administering citizenship rights for individuals“27. In den politischen CSR-Konzepten wird also davon ausgegangen, dass Unternehmen ihre politische Machtstellung im Sozialgefüge erkennen und nach Möglichkeiten suchen, verantwortungsvoll mit dieser Macht umzugehen. Je größer und/oder einflussreicher Unternehmen sind oder werden, desto mehr wird eine entsprechende Sorge um die (angrenzende) Gemeinschaft unumgänglich.

2.3 Sozial-integrative Konzepte Leitidee der dritten Gruppe von CSR-Konzepten ist, dass die Existenz, die Kontinuität und das Wachstum von Unternehmen vollständig in der Gesellschaft gründen. Die Funktionen, die Unternehmen für die Gemeinschaft erfüllen, legitimieren sie auch gleichzeitig in der Gemeinschaft. Die Integration gesellschaftlicher Interessen und Belange in unternehmerische Aktivitäten ist vor diesem Hintergrund essentieller Bestandteil allen Managementhandelns.28 Das umfassendste und vor allem das in der Unternehmenspraxis dominierende CSR-Konzept dieser Gruppe ist das Issues Management.29 Unter Issues werden dabei alle von der Umwelt an Unternehmen herangetragenen Ereignisse verstanden (z. B. soziale, politische, ökologische Belange), die für Unternehmen Relevanz aufweisen. Das wesentliche Ziel des Issues Management besteht nun darin, Prozesse zu entwickeln und zu initiieren, die zur Perzeption von Umweltsignalen und zur Aggregation der Signale zu für Unternehmen adressierbaren Issues geeignet sind. Während der Betrachtungsfokus zu Beginn der Diskussion (1986 bis 1992) auf 26

Beispiele für Aktivitäten im Rahmen des Extended View of CC sowie eine Beschreibung des McDonaldsRechtsstreits finden sich bei Crane, A./Matten, D. (2004) S. 32–35 und 67ff.

27

Crane, A./Matten, D. (2004), S. 69.

28 29

Vgl. Garriga, E./Melé, D. (2004), S. 55. Vgl. stellvertetend Lütgens, S. (2002).

Corporate Social Responsibility

113

reaktives Handeln, d. h. das Erkennen und Handhaben von Ereignisse mit signifikantem Einfluss auf die Organisation begrenzt blieb, wird der Fokus heute auf aktives Abtasten der Umwelt nach Issues, ihrer Aufbereitung und Interpretation sowie das Potenzial von Issues Management als Frühwarnsystem und Risiko-Management-Tool gelegt. Neben deutlich elaborierteren Identifikations- und Managementtools hat die Weiterentwicklung auch zu einer erhöhten Einbindung gesellschaftlicher Interessen in unternehmerische Aktivitäten und Entscheidungen geführt.30 Das zweite sozial-integrative CSR-Konzept ist das Principle of Public Responsibility. Leitidee dieses Konzepts ist die Orientierung unternehmerischen Verhaltens an der öffentlichen Ordnung und den gesellschaftsüblichen Sitten (Public Policy). Das Konzept erweitert den Fokus von bloßen Reaktionen auf induzierte Signale (Responsiveness) auf die intrinsische Ausrichtung an gesellschaftlichen Orientierungs- und Handlungsmustern. Selbst Preston und Post, die wesentlichen Protagonisten des Ansatzes, räumen jedoch ein, dass gesellschaftliche Orientierungsmuster nur schwierig zu identifizieren sind.31 Neben kodifizierten Verhaltensregeln basieren diese Muster auch maßgeblich auf der herrschenden öffentlichen Meinung und auf aktuell vorherrschenden Diskussionen und politischen Trends. Ein zweiter kritischer Punkt des Konzepts stellt das Postulat der ganzheitlichen Einbettung korporativen Wirkens in das dynamische Sozialgefüge dar. In theoretischer Hinsicht ist diese integrative Konzeptualisierung zielführend, für die Unternehmenspraxis wäre jedoch ein Erklärungsmodell zielführender, das es ermöglicht, die Gesamtheit der sozialen Umwelt zu segmentieren und jedes (relevante) Segment einzeln zu thematisieren. Genau an diesem Punkt setzt der Stakeholder-Management-Ansatz an. Als Stakeholder können nach Freeman all diejenigen Individuen und Gruppen bezeichnet werden, die auf ein Unternehmen Einfluss haben und/oder von seinen Aktivitäten in irgendeiner Form betroffen sind.32 Crane und Matten präzisieren diese allgemeingültige Formulierung Freemans in Bezug auf CSR. Stakeholder eines Unternehmens sind demnach Individuen und Gruppen, die aus den Handlungen eines Unternehmens unmittelbare Vor- oder Nachteile haben oder deren Rechte angetastet werden können bzw. geachtet werden müssen.33 Im Gegensatz zu den ökonomischinstrumentellen Konzepten hebt der Stakeholder-Ansatz damit nicht nur auf Eigentümeransprüche ab, sondern er stellt alle durch unternehmerisches Handeln betroffenen Gruppen grundsätzlich gleichberechtigt gegenüber. An das Management eines Unternehmens stellt der Ansatz hohe Ansprüche. Er fordert von Managern, ihre ökonomischen Verpflichtungen gegenüber den Kapitalgebern mit den konkurrierenden Ansprüchen anderer Interessengruppen in Einklang zu bringen. Vor allem NGOs, Aktivistengruppen und Medien nutzen zunehmend die breite Öffentlichkeit, um kundzutun, was aus ihrer Sicht verantwortungsvolles unternehmerisches Handeln darstellt. Zu welchen Folgewirkungen eine geringe Sensitivität gegenüber diesen Stakeholdergruppen führen kann, lässt sich am Beispiel der Auseinandersetzung des Shell-Konzerns mit Greenpeace um die Versenkung der Ölplattform Brent Spar ablesen.34 30

Vgl. Garriga, E./Melé, D. (2004), S. 58.

31

Vgl. Obermann, W. D. (1996), S, 470.

32

Vgl. Freeman, R. (1984), S. 46.

33

Vgl. Crane, A./Matten, D. (2004), S. 50.

34

Vgl. Greenpeace e.V. (2005).

114

U. Mildenberger, A. Khare und Ch. Thiede

2.4 Ethische Konzepte Unter die vierte Konzeptgruppe werden alle Erklärungsansätze subsumiert, die CSR in erster Linie ethisch-normativ konzeptualisieren. Bedingt durch ihren normativen Charakter begründen diese Ansätze nicht, warum Unternehmen als ökonomische Institutionen gesellschaftlich verantwortungsvoll handeln sollten, sondern sie setzen dies als gegeben oder sogar als notwendig voraus. Erklärungsobjekt ist stattdessen die Norm selbst, d. h. die Ansätze beschreiben und erklären, was gesellschaftlich verantwortungsvollem Handeln eines Unternehmens bedeutet und unter welchen Bedingungen von gesellschaftlich verantwortungsvollem Handeln eines Unternehmen gesprochen werden kann. Im Folgenden werden stellvertretend vier ethisch-normative CSR-Ansätze vorgestellt und diskutiert: Der normative Stakeholder-Ansatz, der Ansatz universeller (Menschen-)Rechte, das Konzept nachhaltiger Entwicklung sowie der Common-GoodAnsatz.35 Der normative Stakeholder-Ansatz erweitert den dargestellten Stakeholder-ManagementAnsatz, indem er den zentralen Begriff Stakeholder neu und unabhängig vom ökonomischen Einfluss definiert. Stakeholder sind damit Personen und Gruppen mit legitimem Interesse an den Unternehmensaktivitäten, unabhängig davon, ob das Unternehmen auch ein reziprokes Interesse an ihnen hat.36 Darüber hinaus wird in dem Ansatz davon ausgegangen, dass Stakeholder um ihrer selbst Willen Beachtung finden, ungeachtet ihrer Fähigkeit, anderen Gruppen wie beispielsweise den Aktionären zum Vorteil zu gereichen. Die ethische Komponente des Ansatzes lässt sich damit etwas vereinfacht ausdrücken mit: Aus der Machtposition, die Unternehmen in der Gesellschaft zukommt, erwächst Unternehmen auch Verantwortung in und für die Gesellschaft. Diese Verantwortung ist dabei völlig losgelöst von der Frage, ob die entsprechenden Handlungen von Unternehmen zu einer Unternehmenswertsteigerung führen oder nicht. Im Gegenteil, da sich viele Vertreter des normativen Stakeholder-Ansatzes explizit auf Rawls Theorie der Gerechtigkeit beziehen,37 wird gerechtes, verantwortungsvolles Handeln auch dann von Unternehmen gefordert, wenn sich dieses Handeln im Einzelfall als ungünstig für sie erweist bzw. zu wirtschaftlichen Nachteilen führt. Die Überlegungen Rawls’ prägen auch die gesamte wissenschaftliche Diskussion des Ansatzes.38 Im Mittelpunkt der Diskussion steht damit die Frage, wie die berechtigten Eigeninteressen von Individuen und Unternehmen in gerechter Weise mit der Maximierung des allgemeinen Wohlergehens der Gesellschaft in Einklang zu bringen sind. Dabei wird im normativen Stakeholder-Ansatz, ganz in der Logik von Rawls, davon ausgegangen, dass die Autonomierechte der Stakeholder grundsätzlich über pragmatische Nützlichkeitsüberlegungen des Unternehmens dominieren bzw. dominieren sollten. In ähnlicher Art und Weise argumentieren auch die Vertreter von ethikbasierten CSR-Ansätzen, die sich zur Ableitung von verantwortungsvollen Handlungsmaximen auf universelle Menschenrechte berufen. Basis dieser Ansätze ist die Übertragung der Allgemeinen Erklärung der Menschenrechte der Vereinten Nationen in universelle „Business Principles“, d. h. Leitfäden für sozial verantwortliches Verhalten von Unternehmen. Aus der Vielfalt unterschiedlicher Leit35

Nach Garriga und Melé stellen diese vier Ansätze die wichtigsten Vertreter der ethikbasierten CSR-Forschung dar. Vgl. Garriga, E./Melé, D. (2004), S. 61.

36

Vgl. Donaldson, T./Preston, L. (1995), S. 65–91.

37

Zur Darstellung der Theorie der Gerechtigkeit vgl. Rawls, J. (1975) sowie (1977).

38

Vgl. Garriga, E./Melé, D. (2004), S. 60f.

Corporate Social Responsibility

115

fäden werden im Folgenden stellvertretend nur drei herausgegriffen:39 Der United Nations Global Compact (UNGC), die Global Sullivan Principles of Social Responsibility (GSP) sowie das Zertifikat SA8000 der Initiative Social Accountability International. • Der United Nations Global Compact (UNGC) wurde im Jahr 2000 von Kofi Annan ins Leben gerufen und umfasst 10 als Forderungen formulierte Prinzipien für Menschenrechte, mitarbeiterbezogene Standards, Umweltstandards und Anti-Korruptionsleitsätze.40 Beispielhaft seien hier zwei Forderungen bzw. zwei Prinzipien aufgeführt: „Businesses should support and respect the protection of internationally proclaimed human rights“; „Businesses should uphold the freedom of association and the effective recognition of the right to collective bargaining“.41 Unternehmen, die sich gemäß der UNGC-Prinzipien verhalten, dürfen dies durch die Verwendung des UNGC-Logos dokumentieren. Bedingung ist jedoch, dass eine explizite Bereitschaftserklärung eingereicht wird sowie eine jährliche Berichterstattung über die Art und Weise der Umsetzung der Prinzipien.42 • Die Global Sullivan Principles of Social Responsibility (GSP) wurden 1997 formuliert und verfolgen das Ziel „to be a catalyst and compass for corporate responsibility and accountability“43. Der in acht hochaggregierte Leitsätze gefasste Standard bietet einen Handlungsrahmen für Unternehmen jeder Größe und Branche an, der ihnen helfen soll, ihre wirtschaftlichen Ziele mit den Anforderungen der Mitarbeiter und der Gesellschaft in Einklang zu bringen. • Ein deutlich eingeschränkteres Ziel verfolgt die Initiative Social Accountability International mit ihrem Social Accountability 8000-Zertifikat.44 Basierend auf den Prinzipien von 13 Menschenrechtskonventionen konzentriert sich der Standard ausschließlich auf ethische korrekte Arbeitsbedingungen in den Produktionsstätten eines Unternehmens. CSR wird damit nicht gesamtgesellschaftlich, sondern in erster Linie als ein unternehmensinternes Gerechtigkeitsbzw. Verantwortungsproblem interpretiert. Die dritte Gruppe ethikbasierter Ansätze versteht unter CSR nicht den Umgang von Unternehmen mit Individuen und Gesellschaften, sondern thematisiert den Begriff in erster Linie in Bezug auf den Umgang von Unternehmen mit der natürlichen Umwelt. Ausgangspunkt dieser Ansätze ist das Konzept der nachhaltigen Entwicklung (Sustainable Development) der Weltkommission für Umwelt und Entwicklung der Vereinten Nationen.45 Nachhaltige Entwicklung ist dabei als eine Entwicklung definiert, die die derzeitigen Bedürfnisse der Bevölkerung befriedigt, ohne die Fähigkeit zukünftiger Generationen zu gefährden, ihre eigenen Bedürfnisse zu befriedigen. Seinen ethischen Gehalt bezieht das Sustainable Development aus der Überlegung, dass Unternehmen sehr wohl nicht-nachhaltig handeln können, ohne dabei Normen und gesetz39

Zur Übersichtsdarstellung unterschiedlicher Business Principles vgl. Perrini, F. (2005), S. 614.

40

Zur ausführlichen Darstellung www.unglobalcompact.org.

41

http://www.unglobalcompact.org/AboutTheGC/TheTenPrinciples (Stand: 10. 10. 2007).

42

Einen Erfahrungsbericht zur Implementierung des UNGC bei Novartis bietet Leisinger. Vgl. Leisinger, K. (2002).

43

www.thegsp.org (Stand 10. 10. 2007).

44

Vgl. www.cepaa.org (Stand 10. 10. 2007).

45

Zur ausführlichen Darstellung des Konzepts vgl. United Nations World Commission on Environment and Development (1987).

116

U. Mildenberger, A. Khare und Ch. Thiede

liche Vorschriften einer Gesellschaft zu übertreten. Aus diesem Grund ist ein über gesetzliche Regelungen hinausgehender Kodex notwendig, in dem sich Unternehmen durch die Internalisierung externer Effekte verpflichten, auf mögliche Erträge der Ausbeutung der natürlichen Umwelt zum Wohle zukünftiger Generationen zu verzichten. Während in den bisher genannten Ansätzen versucht wird, CSR nicht nur zu definieren, sondern auch pragmatische Umsetzungshinweise zu geben, verbleit das Konzept des Common Good vollständig auf der ethisch-normativen Ebene. Der wesentliche Kern des stark philosophisch anmutenden Konzepts besteht aus einem Forderungskatalog an Unternehmer, in ihrem Wirken zu einem harmonischen, gerechten, friedlichen und kollegialen Zusammenleben beitragen. Ungeachtet aller wirtschaftlichen Rahmenbedingungen werden Unternehmen zu einem positiven Beitrag zum Allgemeinwohl verpflichtet. Dies kann durch die Erschaffung von gesellschaftlichem Wohlstand oder durch die effiziente und faire Erstellung von Gütern und Dienstleistungen erfolgen, wobei die Leitmaxime des Handelns stets der Respekt für die Menschenwürde und die unveräußerlichen Grundrechte des Individuums sein muss.46

2.5 Übergreifende Konzepte Das Grundproblem jeder Systematisierung besteht in der trennscharfen Abgrenzung einzelner Kategorien. Vor allem bei komplexen und mehrdeutigen Phänomenen ist eine derartige Abgrenzung häufig schwierig und auch nur bedingt möglich. Dieses generelle Urteil trifft auch auf den hier vorgestellten Versuch zu, unterschiedliche Denk-, Beschreibungs- und Erklärungsansätze von CSR zu systematisieren. Schon Garriga und Melé weisen darauf hin, dass das Phänomen CSR wie nahezu jedes soziale Phänomen grundsätzlich die Dimensionen ökonomisch, politisch und ethisch aufweist.47 Dass jede der Dimensionen in gewissem Maße allen umrissenen CSRKonzepten innewohnt, lässt sich relativ einfach feststellen. So zieht sich beispielsweise die ökonomische Leitmotivation für die Auseinandersetzung mit CSR auch durch die politisch orientierten und sozial-integrativen Ansätze. Der Begriff des enlighted self interest als Brücke zwischen Profit und Verantwortung lässt sich beispielsweise auch im Stakeholder-Management wiederfinden. Ist es doch im Sinne des Handelnden ökonomisch vernünftig, Interessengruppen je nach Einfluss entweder wirklich zu beachten oder sie durch scheinbare Integration zumindest unter Kontrolle zu halten.48 Auch der politisch orientierte Corporate Constitutionalism Ansatz, der zu verantwortungsvollem Umgang mit sozialer Macht aufruft, impliziert, dass soziale Macht etwas ökonomisch Vorteilhaftes und damit Erhaltenswertes ist. Die vor allem in der praxisorientierten Diskussion dominante ökonomische Dimension tritt im Konzept von Friedman sehr deutlich in Erscheinung. Doch selbst dieser zunächst gewissenlos klingende Ansatz bekommt durch Friedmans oft vernachlässigten Zusatz, dass Unternehmen ihren Wert nur unter Rücksichtnahme auf die Regeln des Spiels, das Gesetz und ethische Sitten maximieren sollen, ein ethisches Gewicht.49 Zusammenfassend lässt sich feststellen, dass nahezu sämtliche der bisher diskutierten CSRAnsätze mehrere Perspektiven beinhalten und die Zuordnung zu einer Gruppe lediglich auf 46

Vgl. Garriga, E./Melé, D. (2004), S. 62.

47

Vgl. Garriga, E./Melé, D. (2004), S. 65.

48

Vgl. Schlegelmilch, B. (1998), S. 141f.

49

Vgl. Friedman, M. (1970).

Corporate Social Responsibility

117

Basis der dominierenden Perspektive bzw. des dominierenden Argumentationsmusters vorgenommen wurde. Abschließend wird daher der Corporate Social Performance-Ansatz (CSP) von Carroll vorgestellt und diskutiert, der explizit den Anspruch vertritt, CSR umfassend zu definieren und ökonomische, legale, ethische und freiwillige (wohltätige) Aspekte in ein Beschreibungs- und Erklärungsmodell zu integrieren.50 Basis des CSP-Ansatzes ist eine vierstufige „Pyramid of Corporate Social Responsibility“, in der die vier CSR-Erklärungsperspektiven in eine feste hierarchische Ordnung gebracht werden.

Abbildung 1:

Die Corporate Social Responsibility-Pyramide nach Carroll51

Ähnlich wie Friedman stellt auch Carroll die ökonomisch motivierte Herstellung von Gütern und Dienstleistungen als die fundamentale Verantwortung eines Unternehmens gegenüber der Gesellschaft heraus. Wirtschaftliches Handeln sollte immer auch einen akzeptablen Profit abwerfen, denn so Carroll „All other business responsibilities are predicated upon the economic responsibilities of the firm, because without it the others become mood considerations“52. Der ökonomischen folgt auf der nächsten Verantwortungsstufe die Maxime stets nach „den Regeln des Spiels“ zu arbeiten, d. h. gesetzliche Regelungen einzuhalten. Gesetze werden dabei als die Kodifizierung 50

Zur ausführlichen Darstellung vgl. Carroll, A. (1991).

51

Entnommen aus: Carroll, A. (1991), S. 42.

52

Carroll, A. (1991), S. 41.

118

U. Mildenberger, A. Khare und Ch. Thiede

ethischer Vorstellungen der Gesellschaft betrachtet und nur die Konformität des Unternehmenshandelns mit Gesetzen legitimiert Unternehmen als Bestandteile des gesellschaftlichen Systems. Die dritte Stufe der Pyramide stellt die ethische Verantwortung dar. Unternehmen sollen demnach auch diejenigen Regeln, Normen und Werte beachten, die in der Gesellschaft gerade erst in Erscheinung treten. Diese veränderlichen Werte und Ansprüche der Gesellschaft werden bei ausreichender Substanz zu Gesetzen gemacht und verdienen nach Carroll bereits vor ihrer Kodifizierung Beachtung durch Unternehmen, denn sie stellen auch unkodifiziert gemeinschaftlichen Willen dar. An der Spitze der Pyramide steht die freiwillige philanthropische Verantwortung eines Unternehmens gegenüber der Gesellschaft. Unter philanthropische Verantwortung wird dabei in erster Linie die freiwillige Bereitstellung von finanziellen oder auch personellen Ressourcen zum Wohle der Gesellschaft im Sinne von Mildtätigkeit verstanden. Nach Carroll ist diese letzte Verantwortungsstufe deutlich von den anderen Stufen abzugrenzen. Spenden sind zwar ein Teil sozialer Verantwortung, jedoch nicht ihr Wesensbestandteil.53 Ein guter korporativer Bürger zu sein, wird von der Gemeinschaft sehr gewünscht und gelobt, ist jedoch deutlich weniger bedeutsam als die anderen drei Bereiche von CSR. Aufgrund der intuitiven Nachvollziehbarkeit hat Carrolls CSP-Ansatz eine hohe Bekanntheit und Akzeptanz in der CSR-Diskussion gefunden. Dennoch bleibt der Ansatz nicht ohne Kritik. Visser wirft dem Ansatz beispielsweise fehlende konzeptionelle Klarheit sowie mangelnde deskriptive Präzision vor. Es werde nicht vollständig klar und an verschiedenen Stellen unterschiedlich begründet, warum die unterschiedlichen CSR-Perspektiven als Hierarchie dargestellt werden. Auch bleibe unklar, ob Carrolls Modell aufgrund historischer Herleitung deskriptiv oder durch eine starke empirische Legitimierung normativ Standpunkt beziehe.54 Die Vermutung liegt nahe, dass die hierarchische, pyramidale Struktur als in der Wirtschaft gängige Darstellungsform gewählt wurde und mehr oder weniger lediglich die von Managern empfundene Relevanz der unterschiedlichen Verantwortungsbereiche widerspiegelt. Carroll selbst bekräftigt diese Hypothese in einer empirischen Studie zum Pyramidenmodell, in der die Gewichtung der vier Bereiche bei europäischen Managern gemessen wird.55 Das wenig überraschende Ergebnis der Studie ist die Feststellung, dass das Pyramidenmodell perfekt mit den Vorstellungen der befragten Manager harmoniert. Ein weiterer wesentlicher Kritikpunkt Vissers ist die einfache, wenig komplexe Konstruktion des Pyramidenmodells. So ist das Modell beispielsweise nicht in der Lage, Lösungen für Konflikte zwischen den unterschiedlichen Ebenen der Pyramide anzubieten.56 Möglicherweise als Reaktion auf die Kritik bauen Schwartz und Carroll auf dem Pyramidenmodell auf und entwickeln daraus den wesentlich präziseren „Three-Domain Approach“57. Die auf drei verkürzten CSR-Kernbereiche ökonomischer, legaler und ethischer Verantwortung erzeugen hierbei durch die Darstellung in einem Venn-Diagramm58 insgesamt sieben mögliche Bereiche gesellschaftlicher Verantwortung. Der ehemals vierte Bereich, die freiwillige philan53

Vgl. Carroll, A. (1991), S. 42.

54

Vgl. Visser, W. (2006), S. 43ff.

55

Vgl. Pinkston, T./Carroll, A. (1996).

56

Vgl. Visser, W. (2006), S. 45.

57

Vgl. Schwartz, M./Carroll, A. (2003).

58

Venn-Diagramme sind Mengendiagramme, in denen alle möglichen Relationen der Mengen einer Grundgesamtheit abbildet werden können. Vgl. http://www.begriffslogik.de/artikel/bookdip/bookdip.html (Stand 10. 10. 2007).

Corporate Social Responsibility

119

thropische Verantwortung, fällt der Überlegung zum Opfer, dass sich Unternehmen aus ethischen oder ökonomischen Motiven ebenso wie aus ihrer Kombination freiwillig sozial engagieren können. Neben dieser konzeptionellen Modifikation erscheint vor allem die Abschaffung des wenig begründeten hierarchischen Gefüges der Verantwortungsbereiche als wesentlicher Forschritt. Von einem einfachen hierarchischen Übereinander der CSR-Komponenten wird auf ein komplexes Nebeneinander ausgewichen, so dass nun alle denkbaren komplementären und konfliktären Beziehungen zwischen den Verantwortungsbereichen thematisiert werden können.

3

Leitlinien der CSR-Praxis

3.1 CSR-relevante Berichtspraxis europäischer Unternehmen Die in der wissenschaftlichen Diskussion immer noch dominierende Hypothese des Business First bietet Anlass, den Fokus der Analyse über die wissenschaftliche Seite hinaus, auch auf die CSR-Praxis von Unternehmen auszuweiten. Als Basis wird auf eine Studie von Perrini zurückgegriffen, in der CSR-Berichte von 90 europäischen Unternehmen analysiert und die Ergebnisse zu einem „European Portrait of Corporate Social Responsibility“ zusammengefasst wurden.59 Obwohl die Perrini-Studie keine expliziten Aussagen zu den Motivatoren des CSR-Engagements macht, lässt sich aus den Ergebnissen der Studie ableiten, dass CSR-Aktivitäten von Unternehmen in erster Linie Reaktionen auf Marktanforderungen darstellen. Die deutlich ausgeprägteste Forderung des Marktes ist dabei ökologische Nachhaltigkeit. Das Umweltthema decken alle untersuchten Firmen ab; selbst die an der Studie beteiligten Dienstleistungsunternehmen mit geringem Umwelteinfluss legen i. d. R. einen Umweltbericht ab. Nach Perrini liegt dem eine stark verbreitete Berichtskultur nach der Triple Bottom Line (ökonomische, soziale und ökologische Ziele) zugrunde. Eine Umweltstrategie, die Energieverbrauch, den Umgang mit Ressourcen sowie Emissionen einschließt, gilt in der Praxis als unabdingbar. Je nach Branche schließt dies vor allem den Umgang mit Wasser, Rohstoffen und Verpackungen ein. Ein weiteres Berichtsfeld mit Konsensstatus60 ist das lokale und globale Gemeinwesen. Konkret fallen darunter vor allem das Stakeholder-Engagement und die Korruptionsprävention. In Ersterem stellen Unternehmen die Prozesse dar, mit denen sie den Dialog und die Konfrontation mit Stakeholdern suchen, um deren Bedürfnisse und Anliegen zu identifizieren. Diskussionsforen und Tage der offenen Tür werden als wesentliche Instrumente genannt. Zur Vermeidung von Korruption und unmoralischem Verhalten fokussieren die Berichte auf die eingesetzten Methoden der Selbstkontrolle wie beispielsweise Kodizes und betriebliche Regelungen. Spendenverhalten und Wohltätigkeit der Unternehmen weisen in den Berichten ebenfalls einen hohen Stellenwert auf. Dabei wird in erster Linie auf Sponsoring von Sport- und Kulturevents rekurriert. Zwei Drittel der Firmen thematisieren in CSR-Berichten ihre Verantwortung gegenüber den Verbrauchern. Im Vordergrund stehen i. d. R. Aspekte wie die Werbestrategie, ethisch-ökologische Produkteigenschaften sowie Ethik- und Umweltlabels. Unternehmen informieren die 59

Vgl. Perrini, F. (2005). Unter dem hier verwendeten Begriff CSR-Bericht werden alle bei Perrini aufgeführten nicht finanziellen Reports von Unternehmen wie beispielsweise Nachhaltigkeitsbericht, Umweltbericht, Verantwortungsbericht, Sozial- und Umweltbericht usw. subsumiert.

60

Unter Konsens stuft Perrini CSR-Bereiche ein, die mehr als zwei Drittel der Berichte abdecken. Eine Abdeckung von ein bis zwei Dritteln stuft er als mittelmäßig, eine Abdeckung von unter einem Drittel als schwach ein. Vgl. Perrini F. (2005), S. 620.

120

U. Mildenberger, A. Khare und Ch. Thiede

Leser, über welche Kanäle sie aktiv kommunizieren und welche Methoden sie zur Verkaufsförderung nutzen. Dabei heben sie die ökologischen und ethischen Bestandteile der Unternehmensstrategie hervor und festigen gleichzeitig ihr Image als sozial verantwortliche, fest im Wertesystem der Gesellschaft verankerte Institutionen. Auch die beiden Themengebiete ethischökologische Produkteigenschaften und Ethik- bzw. Umwelt-Labels werden breit ausgeführt. In aller Regel beschränken sich die Darstellungen dabei auf Verweise auf technische Eigenschaften spezifischer Produkte oder Dienstleistungen (Qualitäts- und Umweltaspekte sowie Produktsicherheit) sowie auf Labels, mit denen umweltfreundliche und/oder ethisch korrekte Produkte und Produktionsprozesse zertifiziert sind. Ein im europäischen Kontext sehr traditioneller Teil unternehmerischen Sozialengagements ist die Sorge für das Personal.61 Grundbestandteile im Umgang mit dem Personal sind die Aspekte Gesundheit und Sicherheit am Arbeitsplatz. Berichtet wird darüber hinaus über Aktionspläne zur Unfallvermeidung und Risikominderung im Betrieb. Darüber hinaus sind die interne Kommunikation über das Unternehmensgeschehen im Ganzen, Strategien, Ziele und Ergebnisse sowie die Art und Weise des Dialogs mit den Mitarbeitern wichtige Themen. Berichte über umfangreiche Sozialleistungen schaffen dem Unternehmen dabei eine positive Reputation, welche qualifiziertes Personal anzieht und somit einen Wert darstellt. Kulturelle Diversität wird als Quelle von Kreativität und Innovation genannt. Bildungsprogramme für Mitarbeiter helfen, das soziale Umfeld zu entwickeln und strategische Wettbewerbsvorteile zu bilden. Bezüglich Mitarbeiter- bzw. Arbeitnehmerrechten berichten die meisten Firmen nach den Konventionen der Internationalen Arbeitsorganisation (ILO). Ebenfalls recht hohe Aufmerksamkeit schenken die CSR-Berichte der Entwicklung des Personalstandes. Bei negativen Trends, sprich Personalabbau, werden die Gründe klar erklärt. Perrini sieht darin einen Zwang. Wer Personalabbau nicht begründet und keine Auskunft über die zukünftige Trends und Arbeitsplatzsicherheit gibt, zeige sich wenig glaub- und vertrauenswürdig. Eher zurückhaltend zeigen sich Firmen hingegen mit Statistiken zur Personalstruktur wie Alter, geographischer Herkunft, Nationalität und Qualifikation. Lohntabellen, Absentismus und die Häufigkeit von Disziplinarmaßnahmen bleiben ebenfalls zurück. Rund die Hälfte der untersuchten CSR-Reports befasst sich zudem mit Lieferanten und deren Geschäftsprozessen; wenige jedoch nur mit dem Beschaffungswesen im Sinne von Verhaltensoder Verhandlungskodizes und Fairness. Geringe Beachtung finden die Verantwortungen gegenüber Behörden und Kapitalgebern. Behörden wird teilweise in Form von internen Audits begegnet; Kapitalgeber werden im Rahmen von nicht finanziellen Reports am ehesten durch eine Darstellung der Corporate Governance (Grundsätze der Unternehmensführung) und der Investor Relations adressiert. Hierfür finden bevorzugt die Methoden zur Einbindung der Aktionäre und die Existenz unabhängiger Berater im Vorstand Erwähnung.

3.2 Gegenüberstellung der CSR-Berichtspraxis und der wissenschaftlichen Diskussionsleitlinien Eine Gegenüberstellung der in der Unternehmenspraxis am stärksten berücksichtigten CSRBereiche (Umwelt, Gemeinschaft, Verbraucher, Personal) mit den im ersten Teil der Arbeit vorgestellten CSR-Konzepten soll Parallelen und Unterschiede zwischen der wissenschaftlichen Diskussion und der Handeln der Unternehmenspraxis aufzeigen. 61

Vgl. Habisch A./Wegner, M. (2005), S. 112ff.

Corporate Social Responsibility

121

Die Umweltberichterstattung kann dem Namen und der Zielrichtung nach prinzipiell dem ethisch orientierten Konzept der nachhaltigen Entwicklung zugeordnet werden. Ob ein Unternehmen den Umwelteinfluss seiner Produkte und seiner Produktionsprozesse aus ethischen Motiven und/oder Allgemeinwohlinteresse oder aus unmittelbar ökonomischen Gründen analysiert und dokumentiert, lässt sich nicht oder nur schwer beurteilen. Ein umweltschonendes Verhalten kann auch direkt ökonomischen Zielsetzungen folgen, da mit der Reduktion des Ressourcenverbrauchs i. d. R. auch Kosteneinsparungen oder mit der Reduktion von Emissionen die Freisetzung handelbarer Zertifikate einhergehen. Im CSR-Feld des lokalen und globalen Gemeinwesens lassen sich verschiedene CSR-Konzepte wiederfinden. Der Stakeholder-Dialog folgt relativ eindeutig dem sozial-integrativen Ansatz sozialer Verantwortung. Ob er als umfassender, gar normativer, Teilhaber-Dialog geführt oder im Sinne des Issues Management eher pragmatisch gehalten wird, hängt vom Einzelfall ab. Korruptionsprävention und Wohltätigkeit findet sich als strategische Sozialinvestitionen in den ökonomisch-instrumentellen Konzepten wieder. Im Rahmen des Corporate Citizenship können Unternehmen als wohltätige Versorger auftreten, wo es durch das Versagen der Regierung erforderlich ist. Verbraucher sind eine wichtige Stakeholder-Gruppe. Sie werden in CSR-Berichten allein schon aus diesem Grund angesprochen. Transparenz der Werbekanäle, ethisch gehaltvolle und umweltfreundliche Produkte und Prozesse etc. sind jedoch, ausgehend von der Motivation des Managements, unterschiedlich zu bewerten. Projekte im Cause-Related Marketing verbinden ökonomische und wohltätige Zwecke. Ethisch und ökonomisch intakte Prozesse und Produkte sprechen am deutlichsten auf Nachhaltigkeit und die Allgemeinwohl-Konzepte an. Werden hingegen beispielsweise ethische Finanzprodukte präsentiert, folgt das möglicherweise einem rein ökonomischen Leitbild. Unternehmen aus Branchen, die in ethischer Hinsicht starke Imageverluste erlitten haben, greifen aus rein wirtschaftlichen Motiven auf entsprechende Kompensationsstrategien zurück. Der Berichterstattung zu den Humanressourcen lässt sich neben der Einordnung zum Friedman-View und dem Stakeholder-Management ebenfalls eine ethische Relevanz bescheinigen. So zielen die meisten der oben besprochenen Business Principles auf die ethisch einwandfreie Behandlung von Mitarbeitern ab. Anhand des Beispiels Arbeitskräfte scheint es besonders gut sichtbar, dass eine ethisch korrekte Unternehmensführung (hier im Sinne von Mitarbeiter- und Menschenrechten) auch ökonomische Vorteile nach sich zieht. Denn Mitarbeiterloyalität, Arbeitsmoral und Motivation korrelieren empirisch nachweisbar mit unternehmerischen Grundwerten.62 Die vergleichende Analyse der europäischen CSR-Berichtspraxis mit den wissenschaftlichen CSR-Diskussionsleitlinien zeigt eine hohe Übereinstimmung auf. Dennoch folgen die Berichtspraktiken bei weitem keinem einheitlichen Bild. Die eingangs aufgeführte Business-FirstHypothese kann nur in Form einer Tendenzaussage aufrecht erhalten werden, da sowohl die grundsätzlichen Motive für das Bekenntnis zu CSR als auch die Motive für ein verstärktes Engagement in dem einen oder anderen CSR-Bereich im Dunkeln bleiben. Haigh und Jones nennen sechs grundlegende Faktoren, die auf die CSR-Gestaltung von Unternehmen Einfluss

62

Vgl. Vogel, D. (2005), S. 56ff.

122

U. Mildenberger, A. Khare und Ch. Thiede

nehmen:63 Firmeninterner Druck auf die Manager, externer Druck von Konkurrenten, Investoren und Verbrauchern sowie Druck von Seiten von Regierungs- und Nicht-Regierungs-Organisationen. Das führt ihrer Beobachtung nach zu einer enormen Vielzahl von CSR-Orientierungen und deklarativen Definitionen, die auf Erfahrungen, Bequemlichkeit und Benchmarks basieren. Sie sehen die Gefahr in dem derzeitigen CSR-Trend, dass Unternehmen aus Panik vor Wettbewerbsnachteilen scheinbar erfolgreiche CSR-Praxis anderer imitieren und mangels eigens entwickelter Werte und Verständnis für die Thematik dabei die Anforderungen an ihre spezifische Situation aus den Augen verlieren.

3.3 CSR – Risikopotenziale für die Unternehmenspraxis Ein Bekenntnis zu CSR ist ein relativ irreversibles Unterfangen. Es erfordert eine hinreichende Vorsicht und strategisch planvolles Handeln. Das Experimentieren mit CSR, in der Hoffnung, zum Allgemeinwohl beizutragen oder vor anderen besser dazustehen kann erhebliche Gefahren für die Wettbewerbsfähigkeit eines Unternehmens zur Folge haben. Dies ist die Schlussfolgerung der Studie von Heugens und Dentchev, die das bislang in der Literatur vernachlässigte Feld der CSR-Risiken thematisiert.64 Die Studie zeigt, dass sich Unternehmen in gravierender Gefahr befinden, wenn sie ein halbherziges CSR-Profil anstreben, ungenügende ManagementRessourcen zur Verfügung stehen oder die neuen Aktivitäten bisher unerkannte StakeholderGruppen wecken. Heugens und Dentchev identifizieren zunächst die Breite möglicher Risiken und systematisieren die Risiken anschließend in zwei Risikocluster (intraorganisationale und relationale Risiken) und in sieben Riskogruppen mit aufsteigender Relevanz, die im Folgenden kurz dargestellt werden: 1. Mangel an Manageraufsicht. Aus Sicht eines Managerportfolios bringt CSR zunächst neuartige Aktivitäten mit sich, die gewisser Aufmerksamkeit bedürfen und knappe Ressourcen (in erster Linie Zeit) binden. Die Gefahr liegt sowohl in dem Verlust des Fokus auf die Kerngeschäfte als auch in der Vernachlässigung der neuen CSR-Aktivitäten. Da sich dieses Risiko in der Praxis-Studie als wenig bedeutsam herausstellt, beschränken sich Heugens und Dentchev auf die generelle Handlungsempfehlung, das Aufgabenspektrum nicht schneller als die Managementkapazitäten wachsen zu lassen. 2. Unproduktiver Aufwand. Da der Inhalt von CSR nicht eindeutig bestimmt ist, riskieren Unternehmen mit dem Bemühen sozial verantwortlich zu arbeiten eine ineffiziente Ressourcenallokation und/oder Wettbewerbsnachteile. Um dieses Risiko möglichst gering zu halten, empfehlen die Autoren ein systematisches Auswahlverfahren für CSR-Investitionen anhand folgender Bewertungsfaktoren: (a) Nutzen für die Stakeholder, (b) finanzieller Nutzen der Investition, (c) Vor- und Nachteile für die Lieferkette, (d) Zusammenhang mit dem Verhalten der Wettbewerber sowie demographischen Trends und Gesetzen. 3. Überlastung der Organisationsschnittstellen. Unternehmen haben Partner und Stakeholder, die sie bei der Gestaltung von Geschäftsprozessen berücksichtigen müssen. Durch über das Kerngeschäft hinausgehende CSR-Aktivitäten werden die organisatorischen Schnittstellen multipliziert. Die Berücksichtigung zusätzlicher Inputs beansprucht limitierte Kapazitäten und primäre Stakeholder können unter einer Überlastung leiden. Als Nebenwirkung könnten 63

Vgl. Haigh, M./Jones, M. (2007), S. 16ff.

64

Vgl. zu allen folgenden Aussagen Heugens, P./Dentchev, N. (2007), S. 151ff.

Corporate Social Responsibility

123

sogar Lieferanten oder Kunden abspringen. Als Handlungsempfehlung weisen Heugens und Dentchev auf ein Managerverhalten hin, das einen umfangreichen Stakeholderdialog beinhaltet, aber dennoch auf die für das Unternehmen und seine Stakeholder wichtigen Punkte fokussiert bleibt. 4. Strategie-Fehlimplementierung. Eine fehlerhafte Implementierung von CSR-Strategien stellt ein Risiko dar, das in der Unternehmenspraxis sehr hohe Relevanz aufweist. Als wesentliche Gründe für das Scheitern einer CSR-Strategieeinführung nennt die Studie Motivations- und Überblicksverluste aufgrund unzureichender Leistungsindikatoren und Messwerte, die als Konsequenz zu Glaubwürdigkeits- und Reputationsverlusten führen können. Zur Prävention schlagen die Autoren vor, bei der Implementierung CSR wie jedes andere Strategiethema zu behandeln. D. h. die Entwicklung und Einführung einer CSR-Strategie ist idealtypischerweise durch entsprechende Interventionstaktiken (z. B. Kopplung der CSR-Ziele an die Unternehmens- und/oder Bereichsziele) oder akzeptanzsteigernde Maßnahmen (z. B. Mitwirkung an der Strategieentwicklung) zu begleiten. 5. Legitimitätsverlust. Wenn CSR-Aktivitäten durchgeführt werden, erwarten Stakeholder ein Mindestmaß an Quantität und Qualität. Inhaltsleere Floskeln oder sogar Missbrauch des Konzeptes, um Imageschäden zu kompensieren, schaden der Glaubwürdigkeit und können aus Kunden- oder Investorensicht einen Legitimitätsverlust bedeuten. Abhilfe soll die Erzeugung von Ernsthaftigkeit bei den CSR-Anstrengungen durch klar definierte Ziele und Kenngrößen schaffen. Zertifizierungen durch unabhängige Dritte haben einen vergleichbaren Effekt. 6. Problemverhaftung. Unternehmen die sich bestimmter, kontrovers diskutierter ethischer oder sozialer Probleme annehmen, laufen Gefahr, in den Augen Außenstehender mit diesen Problemen in Verbindung gebracht und in gewissem Maße sogar für diese verantwortlich gemacht zu werden. In der Folge kann das Unternehmen durch äußeren Druck zu immer größerem Engagement gezwungen werden. Darüber hinaus besteht die Gefahr in eine defensive, stark durch Abwehrmechanismen geprägte Kommunikationsrolle zu verfallen. In der CSRPraxis erweist sich dieses Risiko sehr relevant. Einen Lösungsansatz sehen die Autoren in einer umfassenden, offensiven Kommunikationspolitik. Vor Ergreifung einer Maßnahme sollten wesentliche Stakeholder über die Absichten informiert sein und bei Aufkommen des beschriebenen Log-In-Phänomens sollte nur zusammen mit den Stakeholdern über weitere Investitionen entschieden werden. 7. Mangel der Risikokommunikation. CSR-Aktivitäten bergen vor allem bei ungenügender oder misslingender Kommunikation das Risiko, dass sich das adressierte Problem durch Veränderung des Wahrnehmungsfilters in der Gesellschaft selbst verstärkt. Dies trifft vor allem auf Unternehmen mit relativ deutlicher Umwelteinwirkung wie beispielsweise Raffinerien oder Atomkraftwerken zu. Auch wenn das objektive Umweltrisiko rein wissenschaftlich minimal ist, kann die subjektive Risikowahrnehmung in der Gesellschaft zu weitreichenden Konsequenzen führen. Die große Zahl öffentlichkeitswirksame Protestaktionen, Kampagnen oder Boykottaufrufe unterschiedlicher Selbsthilfegruppen und NGO’s sind ein deutliches Indiz hierfür. Heugens und Dentchev empfehlen deshalb eine sehr vorsichtige Risikokommunikation, die latente Ängste von möglichen Betroffenen antizipiert und sehr sensibel adressiert. Eine kontinuierliche Kommunikation mit den Betroffenen, die gleichermaßen sachliche und emotionale Aspekte berücksichtigt, ist in diesen Fällen unabdingbar.

124

U. Mildenberger, A. Khare und Ch. Thiede

In Summe lassen sich die unterschiedlichen Handlungsempfehlungen von Heugens und Dentchev in zwei wesentliche Bereiche differenzieren. Dies ist zum einen die Bewahrung der Verhältnismäßigkeit von Aufgabenspektrum und Managementressourcen, um die Organisation nicht überzustrapazieren. Zum anderen ist dies eine umfassende, individuell auf die jeweiligen Adressaten zugeschnittene Kommunikationspolitik. Die Einführung von CSR bringt für Unternehmen daher Verpflichtungen und unvorhergesehene Nebeneffekte mit sich, zu deren Bewältigung frei Ressourcen und spezialisiertes Know How vorhanden sein müssen, wenn die Kerngeschäfte nicht in Mitleidenschaft gezogen werden sollen.

4

Zusammenfassung und Ausblick

Zusammenfassend lässt sich konstatieren, dass sich wesentliche CSR-Konzepte an vier Argumentationsleitlinien aufreihen lassen: der ökonomischen, der politischen, der sozial-integrativen und der ethischen Leitlinie. In der im Laufe der Zeit entstandenen Konzept-Vielfalt lässt sich die Komplexität des Themengebiets gut erkennen. Trotz etlicher sogenannter CSR-Standards und zahlreicher CSR-Initiativen existiert bis heute kein allgemeingültiges Begriffsverständnis und keine einheitliche Beschreibungs- und Erklärungsbasis für CSR. Aktuell scheint die Forschung dahingehend paralysiert und nicht im Stande, weitere Lösungen anzubieten.65 Dies mag daran liegen, dass die fundamentale Diskussion von Verantwortung und Nachhaltigkeit zwangsläufig eine normative Auseinandersetzung erfordert, auf die sich die Forschung nur ungern einlässt. Es ist eine Debatte, die an den Wurzeln individueller und kollektiver Werte rüttelt. In der aktuellen Lebenswirklichkeit jedoch setzt sich CSR modeartig als ein Konzept des enlighted self interest durch, das sich etwas überspitzt mit „man tut Gutes und tut sich selbst damit etwas Gutes“ ausdrücken lässt. Nach Ulrich ist die ethische Dimension, in ihrer originären Rolle als normativer Richtungsweiser allen menschlichen Handelns, in den aktuell diskutierten CSR-Konzepten nicht integriert, sondern für das Streben nach Profit instrumentalisiert.66 Er weist vehement darauf hin, dass aktuell viele Konzepte Gefahr laufen, „Ethik als Gegengift gegen zu viel ökonomische Rationalität“ anzuwenden oder gar als „Schmiermittel für noch mehr ökonomische Rationalität“ zu nutzen.67 Anstatt den Zwiespalt von Profit und Ethik einfach als gegeben und häufig auch unreflektiert hinzunehmen, geht Ulrich weiter und begibt sich auf die Suche nach einer integrativen Lösung. Ausgangspunkt der Lösung ist die Feststellung, dass das Kernproblem der Dichotomie von Mainstream Economics und Ethik darin besteht, dass ihnen zwei konkurrierende normative Logiken innewohnen. Auch wenn die reine Ökonomik häufig als wertfrei und ethisch neutral bezeichnet wird, liegt auch ihr eine implizite normative Orientierung zugrunde. So stellt etwa die normative Idee der Nutzenmaximierung unter Knappheitsbedingungen (Effizienzidee) eine, allen ethischen Begründungsansprüchen entzogene, Grundnorm der ökonomischen Rationalität dar. Um ökonomisch rational zu sein, muss das Handeln dieser Grundnorm folgen, auch wenn andere Handlungsalternativen durchaus existieren. Die Ökonomik folgt somit also keinen durch die Natur festgelegten Sachzwängen, wie durchaus häufig behauptet wird, sondern selbst auferlegten Denkzwängen, die ihre Kraft aus unangetasteten, normativen Grundsätzen beziehen. 65

Vgl. Haigh, M./Jones, M. (2007), S. 23.

66

Vgl. Ulrich, P. (2001), S. 118.

67

Ulrich, P. (2001), S. 126.

Corporate Social Responsibility

125

Auf Basis dieser Erkenntnis entwickelt Ulrich seine Integrative Wirtschaftsethik als Grundlage einer lebensdienlichen Ökonomie. Das Ziel dieses Ansatzes liegt darin, das tief implementierte normative Fundament des ökonomischen Rationalitätsverständnisses vernunftethisch zu rekonstruieren und somit einer lebensnahen Ökonomik als Fusion von ethischen Normen (die das Zwischenmenschliche betreffen) und Ökonomie (die lebensdienlich sein soll) den Weg zu ebnen.68 Ulrichs integrative Wirtschaftsethik ist jedoch kein unmittelbar operationalisierbares CSR-Konzept. Doch nach Auffassung der Autoren bietet es für den, die gesamte CSR-Diskussion kennzeichneten, Zwiespalt zwischen Ökonomie und Ethik eine mit Sicherheit interessante, wenn nicht sogar eine notwendige Reflexions- und/oder Weiterentwicklungsgrundlage. Literatur Becker-Olsen, K./Cudmore, B./Hill, R. (2006): The impact of percieved corporate social responsibility on consumer behaviour. In: Journal of Business Research 59, S. 46–53. Berglind, M./Nakata, C. (2005): Cause-related marketing: More buck than bang? In: Business Horizons 48, S. 443–453. Brink, A. (2002): Value-Based Responsibility: VBR. Theoretischer Ansatz zur Integration ethischer Aspekte in die wertorientierte Unternehmensführung, München/Mering. Burson-Marsteller (2004) (Hrsg.): Corporate Social Responsibility; http://www.burson-marsteller.de/pages/ expertise/corporateresp (Stand 25. 10. 2007). Carroll, A. (1991): The Pyramid of Corporate Social Responsibility: Toward the Moral Management of Organizational Stakeholders. In: Business Horizons 34, S. 39–48. Clark, C. (2000): Differences Between Public Relations and Corporate Social Responsibility: An Analysis. In: Public Relations Review 26, S. 363–380. Crane, A./Matten, D. (2004): Business Ethics: A European Perspective. Managing corporate citizenship and sustainability in the age of globalization, Oxford. Davis, K. (1967): Understanding The Social Responsibility Puzzle. What Does The Businessman Owe to Society? In: Business Horizons 10, S. 45–51. Europäische Kommission (2001): Europäische Rahmenbedingungen für die soziale Verantwortung der Unternehmen – Grünbuch, Luxemburg. Falck, O./Heblich, S. (2007): Corporate Social responsibility: Doing well by doing good. In: Business Horizons 50, S. 247–254. Freeman, R. (1984): Strategic Management: A Stakeholder Approach, Boston. Friedman, M. (1970): The social responsibility of business is to increase its profits. In: New York Times Magazine, 13. 08. 2007. Garriga, E./Melé, D. (2004): Corporate Social Responsibility Theories: Mapping the Territory. In: Journal of Business Ethics 53, S. 51–71. Godfrey P./Hatch, N. (2006): Researching Corporate Social Responsibility: An Agenda for the 21st Century. In: Journal of Business Ethics 70, S. 87–98. Greenpeace e. V. (2005): Brent Spar und die Folgen, Hamburg. Habisch, A./Wegner, M. (2005): Overcoming the Heritage of Corporatism. In: Habisch, A./Jonker, J./Wegner, M./Schmidpeter, R. (Hrsg.): Corporate Social Responsibility Across Europe, Berlin Heidelberg, S. 111–124.

68

Vgl. Ulrich, P. (2001), S. 116 sowie S.127.

126

U. Mildenberger, A. Khare und Ch. Thiede

Haigh, M./Jones, M. (2007): A Critical Review of Relations between Corporate Responsibility Research and Practice. In: Electronic Journal of Business Ethics and Organizational Studies 12, S. 16–28. Heugens, P./Dentchev, N. (2007): Taming Trojan Horses: Identifying and Mitigating Corporate Social Responsibility Risks. In: Journal of Business Ethics 71, S. 151–170. Kirchhoff, K. (2007): CSR als strategische Herausforderung. In: Gazdar K./Habisch, A./Kirchhoff, K./ Vaseghi, S. (Hrsg.): Erfolgsfaktor Verantwortung, Corporate Social Responsibility professionell Managen, Berlin, S. 13–34. Leisinger, K. (2002): Globalisierung mit menschlichem Antlitz: Die Möglichkeiten und Grenzen des United Nations Global Compact bei Novartis. In: zfwu 3, S. 406–437. Lütgens, S. (2002): Potentiellen Krisen rechtzeitig begegnen – Themen aktiv gestalten, Schifferstadt. Matten, D./Moon, J. (2005): A Conceptual Framework for Unterstanding CSR. In: Habisch, A./Jonker, J./ Wegner, M./Schmidpeter, R. (Hrsg.): Corporate Social Responsibility Across Europe, Berlin/Heidelberg, S. 335–356. Obermann, W. D. (1996): Preston, Post, and the Principle of Public Responsibility. In: Business & Society 35, S. 465–478. Perrini, F. (2005): Building a Eurporean Portrait of Corporate Social Responsibility Reporting. In: European Management Journal 23, S. 611–627. Pinkston, T./Carroll, A. (1996): A Retrospective Examination of CSR Orientations: Have They Changed? In: Journal of Business Ethics 15, S. 199–206. Porter M./Kramer, M. (2002): The Competitive Advantage of Corporate Philantrophy. In: Harvard Business Review 80, S. 56–69. Rawls, J. (1975): Eine Theorie der Gerechtigkeit. Frankfurt a. M.. Rawls, J. (1977): Gerechtigkeit als Fairneß. Freiburg/München. Rieth, L. (2003): Deutsche Unternehmen, Soziale Verantwortung und der Global Compact. Ein empirischer Überlick. In: zwfu 4, S. 372–391. Schlegelmilch, B. (1998): Marketing Ethics: An International Persective, London. Schwartz, M./Carroll, A. (2003): Corporate Social Responsibility: A Three-Domain Approach. In: Business Ethics Quarterly 13, S. 503–530. Seitz, B. (2002): Corporate Citizenship. Reche und Pflichten der Unternehmung im Zeitalter der Globalität, Wiesbaden. Ulrich, P. (2001): Integrative Wirtschaftsethik. Grundlagen einer lebensdienlichen Ökonomie, 3. Aufl., Bern/Stuttgart/Wien. United Nations World Commission on Environment and Development (1987): Our Common Future: Report of the World Commission on Environment and Development (UN Dokument A/42/427), http://www.are.admin.ch/themen/nachhaltig/00266/00540/00542/, Stand: 10. 10. 2007. Visser, W. (2006): Revisiting Carroll’s CSR Pyramid: An African Perspective. In: Pedersen, E./Huniche, M. (Hrsg.): Corporate Citizenship in Developing Countries, Kopenhagen, S. 29–56. Vogel, D. (2005): The Market for Virture: The Potential and Limits of Corporate Social Responsibility, Washington 2005.

Die Abbildung von Prozesskompetenz in der Abschlussprüfung für die neuen industriellen und handwerklichen Elektroberufe1 Klaus Breuer und Rüdiger Tauschek

1

Intentionen der neuen Prüfung

Veränderte betriebliche Strukturen wirken auf die Qualifikationen zurück, die von Facharbeitern erbracht werden müssen, um in solchen Strukturen qualifiziert tätig sein zu können. Umgekehrt sind betriebliche Strukturen nur in dem Ausmaß gestaltbar, wie sie durch die Qualifikation der darin tätigen Facharbeiter getragen werden können. Sie müssen sich auf die berufliche Handlungsfähigkeit der Mitarbeiter stützen. Durch eine Abschlussprüfung zu einem Ausbildungsberuf soll festgestellt werden, ob ein Prüfling über die notwendige berufliche Handlungsfähigkeit verfügt, um Facharbeiter-/Gesellentätigkeiten qualifiziert ausführen zu können. Die neue Prüfungsstruktur und die neuen Prüfungsformen setzen in diesem Verständnis eine umfassenden berufliche Handlungskompetenz in den Mittelpunkt der Leistungsmessung und Leistungsbeurteilung. Waren bisher die Zwischenprüfung als Lernstandskontrolle und die Abschlussprüfung zum Ende der Ausbildung die Regel, so ermöglicht die Neuorganisation der Prüfung in Form einer gestreckten Abschlussprüfung nun einen zweckgerichteteren Gestaltungsrahmen. In den neuen Ausbildungsordnungen wurden die Prüfungsbereiche nicht mehr wie in den 87er Verordnungen nach Prüfungsmethoden (Prüfstück, Arbeitsprobe bzw. Prüfungsfächer) differenziert, sondern stellen die angestrebten Qualifikationen selbst in den Mittelpunkt der Abschlussprüfung, womit nicht mehr die Verfahrensweisen der Prüfung, sondern die Ziele der Ausbildung, die beurteilt werden sollen, fokussiert werden.2 Durch die neuen Prüfungsformen wird die bisher vorwiegend fachsystematische Strukturierung der Prüfungsaufgaben durch eine handlungsbezogene Aufgabenstruktur, die stärker an beruflichen Tätigkeitsfeldern und Arbeitsprozessen orientiert ist, ersetzt. Bei der Bearbeitung der Prüfungsaufgaben fließen die zugehörigen fachlichen Kenntnisse als notwendige Voraussetzungen ein, die in der Abschlussprüfung als berufstypische Arbeitsabläufe abgebildet werden. 1

Der Beitrag geht auf die Beteiligung der Autoren im Entwicklungsprojekt „Umsetzungshilfen für die neue Prüfungsstruktur in den industriellen und handwerklichen Elektroberufen“ für das Bundesministerium für Bildung und Forschung im Zeitraum vom Juli 2004 bis Januar 2006 zurück. Er stützt sich auf die Langfassung des Beitrags: Borch, H., Breuer, K., Müller, K. & Tauschek, R. (2006): Umsetzungshilfen für die Abschlussprüfung der neuen industriellen und handwerklichen Elektroberufe. Intentionen, Konzeptionen und Beispiele. Herausgegeben vom Bundesministerium für Bildung und Forschung. Bonn, Berlin.

2

Dieses Vorgehen entspricht dem Ansatz, der in der Diagnostik international als kriteriumsorientierte Leistungsmessung und -beurteilung bezeichnet wird.

128

K. Breuer und R. Tauschek

Die Ausbildungsstruktur sowie die Inhalte der neu geordneten industriellen und handwerklichen Elektroberufe sind somit konsequent an den Qualifikationsanforderungen der berufstypischen Arbeits- und Geschäftsprozesse orientiert. Die Ausbildung fördert daher nicht nur die Vermittlung von Fachkompetenzen sondern nimmt auch gezielt die Entwicklung von Prozesskompetenzen auf3. Diese umfassen die Befähigung, Arbeitsabläufe zu organisieren, sich mit Anderen abzustimmen, die Prozesse fehlerfrei zu halten, flexibel auf Störungen und unvorhersehbare Ereignisse reagieren zu können und Prozesse hinsichtlich Qualität und Effizienz zu optimieren.

2

Kernpunkte der neuen Abschlussprüfung

2.1 Strukturelle Veränderungen Ein zentrales Element der neuen Prüfungsstruktur ist die gestreckte Abschlussprüfung mit zwei Prüfungsteilen. Wesentliches Ziel der neuen Abschlussprüfung ist es, die typischen Handlungen aus den jeweiligen beruflichen Tätigkeitsfeldern stärker abzubilden. Dies erfordert eine authentischer Ausgestaltung der Prüfungsaufgaben als dies bisher der Fall war. In der Umsetzung dieses Ziels sind in Teil 1 der Abschlussprüfung nun eine komplexe Arbeitsaufgabe und situative Gesprächsphasen neben schriftlichen Aufgabenstellungen beinhaltet. In Teil 2 befinden sich die Prüfungsbereiche Arbeitsauftrag, Systementwurf sowie Funktionsund Systemanalyse und als vierter Prüfungsbereich der Arbeitsauftrag in zwei möglichen Varianten. Im Prüfungsbereich Arbeitsauftrag werden als ein neues Element der Abschlussprüfung erstmals explizit prozessrelevante Qualifikationen4 geprüft. Für die Prüfungsbereiche Systementwurf und Funktions- und Systemanalyse sind durch die Verordnung berufstypische Aufgabenstellungen im Sinne vollständiger beruflicher Handlungen vorgegeben. Abbildung 1 zeigt die Struktur der neuen Abschlussprüfung im Überblick. Teil 1 der Abschlussprüfung ist eine berufsspezifische Prüfung, die auf die verschiedenen Ausbildungsberufe zugeschnitten ist und sich auf die Qualifikationen bzw. die Inhalte der ersten 18 Monate der Ausbildung in Betrieb und Schule bezieht. Bei den industriellen Elektroberufen orientiert sie sich an den im Ausbildungsrahmenplan ausgewiesenen ersten sechs Zeitrahmen. Diese unterscheiden sich in den jeweiligen Ausbildungsberufen sowohl hinsichtlich der unterschiedlichen Kombination aus berufsübergreifenden Kern- und berufsspezifischen Fachqualifikation als auch hinsichtlich des hierfür zur Verfügung gestellten zeitlichen Umfangs (Zeitrahmenmethode). Die ersten 6 Zeitrahmen weisen bei allen Ausbildungsberufen die gleichen Kernqualifikationen aus. Diese sind jedoch berufsspezifisch mit unterschiedlichen Fachqualifikationen kombiniert und haben unterschiedliche zeitliche Umfänge. Bei den handwerklichen Elektroberufen orientiert sie sich entsprechend an den im Ausbildungsrahmenplan für die ersten 18 Monate ausgewiesenen Qualifikationen (Zeitrichtwertmethode). Diese sind im ersten Ausbildungsjahr identisch und unterscheiden sich im dritten Ausbildungshalbjahr. Beide Gruppen beziehen sich auf die im Rahmenlehrplan der Berufsschule ausgewiesenen ersten sechs 3

Generell liegt dem systematischen Vorgehen bei der Bearbeitung beruflicher Aufgaben das Prinzip der vollständigen Handlung – selbständiges Planen, Durchführen und Kontrollieren – zu Grunde. Es kommt in gleicher Weise im Kontext der Entwicklung umfassender Fachqualifikationen als auch vielschichtiger Prozessqualifikationen zum tragen. Die vollständige Handlung entspricht dabei aber nicht der Prozesskompetenz. Diese wird durch die Vorgaben der Normen bestimmt.

4

In der Gesellenprüfung kundenrelevante Qualifikationen.

129

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

4 Prüfungsbereiche

Arbeitsauftrag

Teil 2 der Abschlussprüfung

Variante 1: Betrieblicher Auftrag höchstens 18 bis 30 Stunden (je nach Beruf) und Fachgespräch von höchstens 30 Minuten

Systementwurf

Funktionsu. Systemanalyse

WiSo

höchstens 120 Minuten

höchstens 120 Minuten

höchstens 60 Minuten

Variante 2: Praktische Aufgabe höchstens 18 Stunden, davon 7 Stunden Durchführungszeit sowie begleitendes Fachgespräch von höchstens 20 Minuten

Teil 1 der Abschlussprüfung

Abbildung 1:

Komplexe Arbeitsaufgabe einschließlich situative Gesprächsphasen (höchstens 10 Minuten) und schriftliche Aufgabenstellungen (höchstens 120 Minuten)

}

insgesamt höchstens 10 Stunden

Struktur der Abschlussprüfung industrielle Elektroberufe

Lernfelder. Diese sind für die ersten vier Lernfelder für die industriellen und handwerklichen Elektroberufe identisch und unterscheiden sich im Lernfeld 5 und 6 je nach Beruf. In der „komplexen Arbeitsaufgabe“ werden schwerpunktmäßig Fachqualifikationen geprüft: Neben dem Montieren, Verdrahten und Verbinden gehören dazu auch die Funktionsprüfung sowie das Suchen und Beseitigen von Fehlern und die Inbetriebnahme und Übergabe. Eingeschlossen sind die spezifischen Qualifikationen zur Beurteilung der Sicherheit von elektrischen Anlagen und Betriebsmitteln (Handeln als Elektrofachkraft). Der Nachweis der Qualifikationen erfolgt – berufstypisch unterschiedlich – an funktionsfähigen Teilsystemen, Anlagenteilen, Komponenten oder Geräten. Teil 2 der Abschlussprüfung gliedert sich in die Prüfungsbereiche „Arbeitsauftrag“, „Systementwurf“, „Funktions- und Systemanalyse“ sowie „Wirtschafts- und Sozialkunde“. Im Prüfungsbereich „Arbeitsauftrag“ werden bei den industriellen Elektroberufen die prozessrelevanten Qualifikationen in Bezug auf die Durchführung eines betrieblichen Auftrages bzw. einer praktischen Aufgabe bewertet. In diesem Prüfungsbereich steht die Abwicklung eines Arbeitsauftrages im betrieblichen, technischen und organisatorischen Umfeld eines Facharbeiters im Kontext der Geschäftsprozesse und des Qualitätsmanagements im Vordergrund. Vergleichbar dazu werden bei den handwerklichen Elektroberufen die zur Durchführung eines Kundenauftrages notwendigen Qualifikationen geprüft.

2.2 Abbildung der beruflichen Handlungskompetenz In der Ausbildungsordnung wird jeder Einzelne der unterschiedlichen Prüfungsteile und -bereiche der Abschlussprüfung so beschrieben, dass er weitgehend überschneidungsfrei eine spezifische Facette der beruflichen Handlungskompetenz prüft und dafür einen eigenständigen Beitrag zur Bewertung leistet.

130

K. Breuer und R. Tauschek

Berufliche Handlungskompetenz

Fachkompetenz Handeln als Elektrofachkraft 40%

Prozesskompetenz Handeln in Geschäftsprozessen 30%

Fachkompetenz Handeln im techn. Anwendungsbezug 24%

Komplexe Arbeitsaufgabe

• Arbeitsauftrag Varianten (Industrie): – Betrieblicher Auftrag oder – Praktische Aufgabe

• Funktions- und Sytemanalyse

Abschlussprüfung Teil 1

Abbildung 2:

• Systementwurf

Zusammenhänge Berufs- u. Arbeitswelt 6%

• WiSo

Abschlussprüfung Teil 2

Überschneidungsfreie Prüfung aller Facetten beruflicher Handlungskompetenz

Komplexität in Sinne der komplexen Arbeitsaufgabe wird als „Verknüpfung von verschiedenen Teilen zu einem verflochtenen Ganzen“ definiert. Eine komplexe Aufgabe ist daher, im Unterschied zu einer komplizierten Aufgaben, eine Aufgabe, die sich aus unterschiedlichen – inhaltlich aber aufeinander bezogenen – Teilen zusammensetzt. Es handelt sich somit um eine Aufgabe, die ein geschlossenes Ganzes bildet. Die komplexe Arbeitsaufgabe stellt somit eine neue Prüfungsform dar. Sie unterscheidet sich von anderen Prüfungsformen, wie „Prüfstück“ (Endergebnis wird bewertet), „Arbeitsprobe“ (Zwischenergebnisse und Vorgehensweise wird bewertet) und „Schriftliche Prüfung“ (Lösungen/Lösungswege werden bewertet). Die komplexe Arbeitsaufgabe ist eine inhaltlich integrierte Prüfung, in der die bisherigen Prüfungsinstrumente miteinander verflochten zur Anwendung kommen. In der Verordnung sind die explizit aufgeführten Zugänge „situative Gesprächsphasen“ und „schriftliche Aufgabenstellungen“ mit den zugehörigen zeitlichen Vorgaben eingebunden. Über diese Zugänge werden die bei der Bearbeitung komplexer Aufgaben erbrachten Leistungen bewertbar. Situative Gesprächsphasen sind in den Verordnungen vorgesehen, um Elemente der beruflichen Handlungskompetenz zu erfassen, die mit anderen Prüfungsformen nicht oder nur sehr aufwendig erfasst werden können. Situative Gesprächsphasen sind aber keine eigenständig und organisatorisch losgelöst zu erbringende mündliche Prüfungsleistungen. Sie sind mit dem Handeln des Prüflings (seinem praktischen Tun) verflochten. Die situativen Gesprächsphasen unterscheiden sich hier ausdrücklich von einem gesondert zu bewertenden Fach- oder Prüfungsgespräch. „Situativ“ bedeutet „durch die jeweilige Situation bedingt“. Die während der komplexen Arbeitsaufgabe durchzuführenden Gesprächsphasen müssen folglich durch die jeweilige Handlungssituation bedingt sein, d. h. die Beobachtung des Prüflings gehört unabdingbar zur situativen Gesprächsphase.

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

131

In den Verordnungen wird neben den situativen Gesprächsphasen die Bearbeitung schriftlicher Aufgabenstellungen geregelt. Das heißt, dass sie genauso wie die situativen Gesprächsphasen ein Teil der komplexen Aufgabe sind, der mit den anderen Aufgabenteilen integrativ verbunden ist. Schriftliche Aufgabenstellungen sind deshalb keine inhaltlich eigenständig oder strukturell losgelöst zu erbringende schriftliche Prüfungsleistungen wie bei einer „schriftlichen Prüfung“. Prüfungsorganisatorisch können die schriftlichen Aufgabenstellungen getrennt von der praktischen Bearbeitung durchgeführt werden. Komplexe Arbeitsaufgaben umfassen demnach nachfolgende zentrale Merkmale: – ein Szenario, das in sich ein geschlossenes Ganzes bildet – mit Aufgabenstellungen, die betriebsüblichen5 Arbeiten entsprechen und – an funktionsfähigen Teilsystemen/Anlagenteilen/Komponenten oder Geräten bearbeitet werden.

2.3 Kriteriumsorientierte Leistungsbewertung Im Hinblick auf die geforderte Authentizität kommen für die Abschlussprüfung nur solche Aufgabenteile in Frage, die den berufstypischen Handlungen entsprechen sowie die tatsächliche Anwendungssituation in ihrer gegebenen Komplexität wiederspiegeln und im Zusammenhang einer für den jeweiligen Beruf relevanten Gesamtsituation verknüpft sind.6 Die Entwicklung der Aufgaben erfolgt am besten mit Hilfe einer Matrix7 (Abb. 3). Zu jeder der fünf in der Verordnung genannten und in Teil 1 der Prüfung nachzuweisenden Qualifikation werden dabei Teilaufgaben festgelegt und die vom Prüfling zu erbringenden Leistungen – also die beruflichen Handlungsvollzüge – ermittelt. Der der Verordnung zu Grunde liegende kriteriumsorientierte Prüfungsansatz erfordert dazu Aufgaben, die die nachzuweisenden Qualifikationen der Ausbildung gültig und authentisch abbilden. Die Beurteilung der Ergebnisse stützt sich auf die Auswertung von Arbeitsergebnissen und/ oder auf die Auswertung von Lösungen bzw. Lösungswegen in den korrespondierenden schriftlichen Aufgabenstellungen. Die Beurteilung von Arbeitsprozessen stützt sich auf ihre Beobachtung durch die Prüfer und/oder auf die Reflexion von Entscheidungen oder Vorgehensweisen in den situativen Gesprächsphasen. Aus diesen Überlegungen bestimmt sich gleichzeitig der Einsatz der schriftlichen Aufgabenstellungen. Es können nur solche Sachverhalte als Gegenstand der Prüfung dienen, die im direkten Handlungsvollzug der Arbeitsaufgaben stehen und in der Regel auch im Beruf als schriftliche Arbeitsleistung zu erbringen sind. Auch für die situativen Gesprächsphasen ergibt sich daraus, dass sie nicht auf die Arbeitsergebnisse oder auf fachliche Kenntnisse zielen sollen, sondern auf die Entscheidungen und Vorgehensweisen der Auszubildenden bei der Durchführung der Aufgabe. Anforderungen wie 5

Damit kommen für die Abschlussprüfung keine „künstlichen“ – ausschließlich für die Prüfung entwickelten – Aufgaben in Frage, sondern nur reale Aufgabenstellungen, die in der Thematik auf dem Einsatzgebiet der Auszubildenden basieren und wie sie auch von Facharbeitern in der betrieblichen Praxis zu bewältigen sind.

6

Die Autoren der Umsetzungshilfen haben in der ausführlichen Fassung sehr anschaulich hergeleitet und dargelegt, was geprüft werden soll.

7

In der ausführlichen Fassung der Umsetzungshilfen ist eine solche Matrix zur Ermittlung von gültigen Aufgabenteilen abgebildet (vgl. Abbildung 8, S. 16).

132

K. Breuer und R. Tauschek

beispielsweise „Arbeitsaufgabe planen“ oder „technische Unterlagen erstellen“ kommen eher als schriftlich nachzuweisende Anforderungen in Betracht, während „Auftragsdurchführungen … erläutern“ eher im Rahmen situativer Gesprächsphasen geprüft werden sollten. Die einzusetzenden Prüfungsinstrumente müssen sich jedoch stets von den zu prüfenden Qualifikationen her begründen lassen. Dabei ist es letztlich von der konkreten Aufgabenstellung abhängig, welche Anforderungen sinnvoller Weise durch schriftliche Aufgaben oder Gesprächsphasen nachgewiesen werden können und sollen. Zur Abbildung der in den Verordnungen vorgegebenen Qualifikationen kommen die jeweils geeigneten Zugänge in integrierter Form zum Einsatz. nachzuweisende Qualifikationen

Beurteilungsbereiche Prozessbeurteilung

Ergebnisbeurteilung

Beobachten des Arbeitsprozesses

Auswerten der praktischen Arbeitsergebnisse

Reflektieren von Entscheidungen und Vorgehensweisen in situativen Gesprächsphasen

Auswerten von Lösungen/ Lösungswege zu schriftlichen Aufgabenstellungen

Technische Unterlagen auswerten, technische Parameter bestimmen, … Teilsysteme montieren, demontieren, verdrahten, verbinden und konfigurieren … Die Sicherheit von elektrischen Anlagen und Betriebsmitteln beurteilen … Elektrische Systeme analysieren und Funktionen prüfen … Produkte in Betrieb nehmen, übergeben und erläutern … Abbildung 3:

Zugänge für die Leistungsbeurteilung

Aus der Matrix ergibt sich, dass die Beurteilung der Leistung eines Prüflings in einem Aufgabenteil immer eine Aussage in Bezug auf die Ausprägung der definierten Qualifikationen ergibt. Die Beurteilung erfolgt daher stets kriteriumsorientiert. In den Ausbildungsverordnungen wurde keine Gewichtung der angewandten Prüfungsinstrumente vorgegeben, weil die Beherrschung der in der Verordnung vorgegebenen Qualifikationen selbst im Mittelpunkt der Prüfung stehen. Zu jedem der Qualifikationsbereiche soll über die Nutzung der verschiedenen Prüfungsinstrumente eine Leistungsbewertung erfolgen. Prinzip ist dabei, im Hinblick auf Validität und Ökonomie der Prüfung den jeweils geeignetsten Zugang zur Leistungsmessung (Prüfungsinstrumente) auszuwählen: Die Gesamtsicht auf die Leistung des Prüflings ergibt sich über die Leistungen zu den einzelnen Qualifikationsbereichen8, die zur Gesamtleistung addiert werden. 8

Die Qualifikationsbereiche wurden in allen Verordnungen als gleichwertig beschrieben.

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

Abbildung 4:

133

Kriteriumsorientierte Bewertungsform (Horizontale Bewertung)

2.4 Prüfung prozessrelevanter Kompetenzen im Rahmen der Geschäftsprozesse und des Qualitätsmanagements Neben einer fundierten Fachkompetenz wird von Facharbeitern auch eine umfassende Prozesskompetenz gefordert. Die hiermit korrespondierenden Anforderungen wurden in der Ausbildungsordnung der industriellen Elektroberufe spezifisch aufgenommen (siehe jeweils Berufsbildposition 17). Bei den Gesellen des Handwerks sind es insbesondere kundenspezifische Kompetenzen, die in der Ausbildungsordnung der handwerklichen Elektroberufe entsprechend beschrieben sind (siehe jeweils Berufsbildposition 7). Bei der Bewertung der Prozesskompetenz geht es insbesondere um die Beurteilung der Wechselwirkungen zwischen denen am Prozess beteiligten Fachkräften, zu den vor- und nachgelagerten Bereichen und zwischen Produktions- und den parallel laufenden Service-/Supportprozessen9. Kennzeichen des Arbeitsauftrages im Teil 2 der Abschlussprüfung sind deshalb Abstimmungs- und Entscheidungsprozesse und nicht eine – im Vergleich zur komplexen Arbeitsaufgabe im Teil 1 der Abschlussprüfung – schwierigere Fachaufgabe oder umfangreichere Technik. Die Ausbildungsordnung legt ausdrücklich fest, dass die prozessrelevanten Qualifikationen/ Kompetenzen in Bezug zur Durchführung des Arbeitsauftrags zu bewerten sind. Das heißt, dass der Prüfungsausschuss auch nur die – im Zusammenhang mit den dort genannten vier Anforde9

Beispielsweise Instandhaltung der Betriebsmittel oder Zulieferung von Teilen.

134

K. Breuer und R. Tauschek

rungsbereichen stehenden – prozessrelevanten Qualifikationen zu bewerten hat. Eine rückwirkende Beurteilung der „Prozessqualität“ über die im Rahmen des Arbeitsauftrages erbrachte „Produktqualität“ ist nach den in der Verordnung formulierten Anforderungen nicht angebracht: Die Qualität des hergestellten Produkts bzw. der erbrachten Leistung wird durch sachgerechtes Handeln im Rahmen der Festlegungen des Qualitätsmanagement-Systems (DIN ISO 9000 ff.) gesichert. Im Prüfungsbereich „Arbeitsauftrag“ ist ausschließlich dieses sachgerechte Handeln zu beurteilen. Die Qualität der Arbeitsausführung ist Gegenstand der komplexen Arbeitsaufgabe in Teil 1 der Abschlussprüfung.

3

Komplexe Arbeitsaufgabe

Die durch die komplexe Arbeitsaufgabe nachzuweisenden Qualifikationen sind in der Verordnung explizit genannten und damit zentraler Gegenstand einer kriterienorientierten Bewertung durch den Prüfungsausschuss. Der Begriff „Arbeitsaufgabe“ fordert den Bezug zu einer realistischen Handlungssituation und damit zu einer hohen Authentizität der Prüfungsaufgabe. Dem Ausbildungsstand entsprechend muss die Aufgabe z. B. in Form eines Szenarios mit vordefinierten „Außenbeziehungen“ zu einem betrieblichen Umfeld beschrieben werden (vgl. Abb. 5).

Abbildung 5:

Komplexe Arbeitsaufgabe (Beispiel Elektroniker/-in für Automatisierungstechnik)

Ausführen einer komplexen Arbeitsaufgabe heißt, dass die beschriebenen Qualifikationen an einer funktionsfähigen Hardware nachzuweisen sind. Die vom Prüfling durchzuführenden Handlungen sollen sich am Ablauf eines Arbeitsauftrages orientieren. In die komplexe Arbeitsaufgabe eingebunden sind die in der Verordnung aufgeführten Prüfungsinstrumente „situative Gesprächsphasen“ und „schriftliche Aufgabenstellungen“ mit den zugehörigen zeitlichen Vorgaben. Die situativen Gesprächsphasen sind ausdrücklich vorgesehen, um Elemente der beruflichen Handlungskompetenz zu erfassen, die mit anderen Prüfungsformen nicht oder nur sehr aufwändig erfasst werden können. Situative Gesprächsphasen sind aber keine eigenständig und organi-

135

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

satorisch losgelöst zu erbringende mündliche Prüfungsleistungen. Sie sind mit dem Handeln des Prüflings (dem praktischen Tun) verflochten. Die situativen Gesprächsphasen unterscheiden sich hier ausdrücklich von einem gesondert zu bewertenden Fach- oder Prüfungsgespräch. Da situativ bedeutet „durch die jeweilige Situation bedingt“, müssen die während der komplexen Arbeitsaufgabe durchzuführenden Gesprächsphasen folglich durch die jeweilige Handlungssituation bedingt sein – d. h. die Beobachtung des Prüflings gehört unabdingbar zur situativen Gesprächsphase. Situative Gesprächsphasen zielen dabei auf die Reflexion von Handeln, d. h. sie beziehen sich nicht auf Arbeitsergebnisse sondern auf Vorgehensweisen und Entscheidungen. Sie sind insbesondere dann einzusetzen, wenn zu bewerten ist, wie sich ein Prüfling zwischen Handlungsalternativen entscheidet, bei denen z. B. technische Gegebenheiten, zeitliche Abläufe, organisatorische und wirtschaftliche Bedingungen oder Vorschriften (gegeneinander) abgewogen werden müssen.10 Situative Gesprächsphasen können sich aber auch auf hypothetische Entscheidungssituationen beziehen, für die der Prüfling begründen soll, wie er in diesen Situationen vorgehen würde. In den Verordnungen wird neben diesen situativen Gesprächsphasen die Bearbeitung schriftlicher Aufgabenstellungen geregelt. Das heißt, dass diese genauso wie die situativen Gesprächsphasen Teil der komplexen Aufgabe sind und mit anderen Teilen der komplexen Aufgabe inhaltlich integrativ verbunden sind. Die schriftlichen Aufgabenstellungen sind damit ausdrücklich keine eigenständig und inhaltlich11 oder strukturell losgelöst zu erbringende schriftliche Prüfungsleistungen wie bei einer „schriftlichen Prüfung“. Die Beurteilung von Arbeitsergebnissen stützt sich, wie in Prüfungen bisher auch üblich, auf Gesichtspunkte wie die Normengerechtheit oder die Funktionsfähigkeit. Als übergeordnetes Kriterium kann man die „Brauchbarkeit“ einer vorgelegten Lösung als Bezug wählen. Zur Vermeidung von Beurteilungsfehlern wird jeder, der zu prüfenden Qualifikationsbereiche entsprechend dem gleitenden Punkteschlüssel in seinen Abstufungen situativ beschrieben. Als „Werkzeuge“ für die Leistungsmessung werden bei der komplexen Arbeitsaufgabe die Arbeitsergebnisse, die Lösungen/Lösungswege aus der Bearbeitung der schriftlichen AufgabenVDE-Prüfplan festlegen (schriftliche Aufgabenstellung ) Ausprägungsmerkmal

Punktvorgabe

Die Planung ist (fast)vollständig, die Besichtigungen, Messungen und Erprobungen sind bestimmungsgemäß und (fast) vollständig ausgewählt

8–10

Die Planung enthält die (unbedingt) nötigen Prüfungen

5–7

In der Planung fehlen (wesentliche) Prüfungen bzw. Planung ist unbrauchbar/keine Prüfungsleistung erbracht

0–4

Abbildung 6:

erzielte Punktzahl

Beispiel für die Bewertung von Lösungen/Lösungswegen

10

Die vom DIHK im Jahr 2005 herausgegebene DVD „Situative Gesprächsphasen in der Prüfung Industrielle Elektro- und Metallberufe“ zeigt solche natürlichen Gesprächsanlässe.

11

Schriftliche Aufgabenstellungen stehen inhaltlich in direktem Zusammenhang zur komplexen Arbeitsaufgabe!

136

K. Breuer und R. Tauschek

stellungen, das beobachtbare Vorgehen beim Arbeitsprozess und die Begründungen des Prüflings zu Entscheidungen und zum gewählten Vorgehen in den situativen Gesprächsphasen herangezogen. In der Logik der Leistungsmessung werden damit vier unterschiedliche und voneinander unabhängige Quellen für Informationen zum Leistungsstand der Auszubildenden eingesetzt.

Abbildung 7:

Beurteilung der Handlungskompetenz durch die komplexe Arbeitsaufgabe

Eine gültige Abbildung der Handlungskompetenz kann demnach nur erreicht werden, wenn die verschiedenen Werkzeuge in der komplexen Arbeitsaufgabe entsprechend den realen Aufgaben in der Praxis genutzt werden: Dazu müssen schriftliche Aufgabenstellungen Lösungen/ Lösungswege erfordern, wie sie auch in der Praxis zu berechnen bzw. zu entwickeln sind. Es muss an einer Prüfungshardware gearbeitet werden, die auch im realen betrieblichen Zusammenhang vorkommt und berufstypische Arbeitsergebnisse ermöglicht. Auch die Beobachtung im Arbeitsprozess und die Begründungen von Entscheidungen und Vorgehensweisen sollen der tagtäglichen Betriebspraxis entsprechend angelegt sein (Fachgespräch unter Kollegen, Produktübergabe). Die nachzuweisenden Qualifikationen bestimmen sich dabei aus den Inhalten der Ausbildungsrahmenpläne und den jeweiligen Lernfeldern der Berufsschule. In der Regel können in einer Prüfung – und damit auch in der komplexen Arbeitsaufgabe – nicht alle Qualifikationen der ersten 18 Monate abgedeckt werden. Die Prüfung muss aber einen bedeutsamen Ausschnitt erfassen, der den für Teil 1 der Abschlussprüfung vorgesehenen Ausschnitt der Berufsfähigkeit einschließt. Über mehrere Jahre hinweg sollen durchaus unterschiedliche Teilmengen des Ausbildungsrahmenplans und Rahmenlehrplans in der komplexen Arbeitsaufgabe angesprochen werden. Für die systematische Entwicklung der Teilaufgaben und der zugehörigen Bewertungen kann die nachfolgende Tabelle genutzt werden12. 12

Siehe hierzu Kapitel 4.2 und Beispielaufgaben Kapitel 7.

137

Auswerten von Lösungen/ Lösungswegen schriftlicher Aufgabenstellungen

Auswerten der praktischen Arbeitsergebnisse

Reflektieren von Entscheidungen und Vorgehensweisen in Situativen Gesprächsphasen

Beobachten des Arbeitsprozesses

Bewertungsfragen

Beurteilungsbereiche

zu erbringende Leistung

Teilaufgaben

nachzuweisende Qualifikationen

Zusatzinformationen/ Dokumente zu den Teilaufgaben

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

Technische Unterlagen auswerten, technische Parameter bestimmen, Arbeitsabläufe planen und abstimmen, Material und Werkzeug disponieren Teilsysteme montieren, demontieren, verdrahten, verbinden und konfigurieren, Sicherheitsregeln, Unfallverhütungsvorschriften und Umweltschutzbestimmungen einhalten Die Sicherheit von elektrischen Anlagen und Betriebsmitteln beurteilen, elektrische Schutzmaßnahmen prüfen Elektrische Systeme analysieren und Funktionen prüfen, Fehler suchen und beseitigen, Betriebswerte einstellen und messen Produkte in Betrieb nehmen, übergeben und erläutern, Auftragsdurchführung dokumentieren, technische Unterlagen, einschließlich Prüfprotokolle, erstellen Abbildung 8:

Matrix zu Entwicklung der Teilaufgaben

In der ausführlichen Fassung der Umsetzungshilfen für die Abschlussprüfung befinden sich noch weitergehende Ausführungen zu den Aspekten Prüfungshardware, Prüfungsablauf sowie zu Einzelaspekten der Entwicklung komplexer Arbeitsaufgaben.

4

Prüfungsbereich Arbeitsauftrag

4.1 Nachzuweisende Qualifikationen Der Prüfungsbereich „Arbeitsauftrag“ unterscheidet sich in seiner Zielsetzung klar vom Teil 1 der Abschlussprüfung. Während im Teil 1 der Prüfung eine komplexe Arbeitsaufgabe bearbeitet wird, die es dem Prüfungsausschuss ermöglicht, die Fachkompetenz des Prüflings zu bewerten, geht es beim Prüfungsbereich „Arbeitsauftrag“ im Teil 2 der Abschlussprüfung um das Be-

138

K. Breuer und R. Tauschek

werten der Prozesskompetenz im Rahmen der Geschäftsprozesse und des Qualitätsmanagement im betrieblichen Gesamtzusammenhang. Zur Bewertung kommen die Qualitäten, mit denen die das berufliche Handeln bestimmenden Abstimmungen und Entscheidungen in den Arbeitsabläufen wahrgenommen werden können. Kennzeichen des Arbeitsauftrages sind umfassende und vielschichtigere Arbeitsprozesse (z. B. Abstimmungs- und Entscheidungsprozesse) und nicht eine – im Vergleich zur komplexen Arbeitsaufgabe – schwierigere Fachaufgabe oder umfangreichere Technik. 1. Arbeitsaufträge analysieren, Informationen beschaffen, Schnittstellen klären … 2. Auftragsabläufe planen und abstimmen, Teilaufgaben festlegen, Planungsunterlagen erstellen …

Selbständiges Planen, Durchführen und Kontrollieren – Handeln in betrieblichen Gesamtzusammenhängen

3. Aufträge durchführen, Funktion und Sicherheit prüfen und dokumentieren … 4. Produkte frei- und übergeben, Fachauskünfte erteilen, Abnahmeprotokolle anfertigen …

Abbildung 9:

Betrieblicher Auftrag oder praktische Aufgabe mit umfassendem Prozessbezug

Arbeitsauftrag

In den Normen ist ein Prozess als „Satz von in Wechselbeziehung oder Wechselwirkung stehenden Tätigkeiten“ beschrieben. In diesem Sinne geht es bei einem betrieblichen Leistungsprozess (beispielsweise dem Herstellung eines Produktes oder der Instandhaltung einer Anlage) um aufeinander bezogene Teilprozesse, die durch Wechselwirkungen zwischen den am Prozess beteiligten Personen, zwischen vor- und nachgelagerten Bereichen sowie zwischen dem Hauptund den parallel laufenden Service-/Supportprozessen – wie beispielsweise Instandhaltung der Betriebsmittel oder Zulieferung von Teilen – bestimmt sind. In der Verordnung sind die Anforderungen explizit formuliert, die der Prüfling im Prüfungsbereich Arbeitsauftrag nachweisen soll. Diese Anforderungen sind berufspezifisch beschrieben – auch wenn sich die Formulierungen nur geringfügig unterscheiden. So ist beispielsweise für den Beruf Elektroniker/in für Automatisierungstechnik festgelegt: „Der Prüfling soll im Prüfungsbereich Arbeitsauftrag zeigen, dass er 1. Arbeitsaufträge analysieren, Informationen beschaffen, technische und organisatorische Schnittstellen klären, Lösungsvarianten unter technischen, betriebswirtschaftlichen und ökologischen Gesichtspunkten bewerten und auswählen, 2. Auftragsabläufe planen und abstimmen, Teilaufgaben festlegen, Planungsunterlagen erstellen, Arbeitsabläufe und Zuständigkeiten am Einsatzort berücksichtigen, 3. Aufträge durchführen, Funktion und Sicherheit prüfen und dokumentieren, Normen und Spezifikationen zur Qualität und Sicherheit der Anlagen beachten sowie Ursachen von Fehlern und Mängeln systematisch suchen und beheben,

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

139

4. Produkte übergeben, Fachauskünfte erteilen, Abnahmeprotokolle anfertigen, Arbeitsergebnisse und Leistungen dokumentieren und bewerten, Leistungen abrechnen und Systemdaten und -unterlagen dokumentieren kann.“ Für die Fachkräfte geht also um – Entgegennahme von Aufträgen – Erläuterungen, Abstimmungen, Klärungen – Risikoabschätzungen und Abwägungen im Hinblick auf möglicher Weise auftretenden Fehlern und Störungen – Dokumentationen von Teilprozessen – Aufgaben des Qualitätsmanagements – Entscheidungen, Optimierungen – Beauftragungen und Abnahme vom Leistungen – Übergabe von Arbeitsergebnissen. Die damit verbundenen Anforderungen ergeben sich im einzelnen aus den Festlegungen der Normen DIN ISO 9000ff. Die oben genannten Prozessqualifikationen sind tätigkeitsbezogen im Rahmen berufstypischer Leistungsprozesse und Beauftragungen nachzuweisen. Diese Tätigkeitsfelder sind in den einzelnen Ausbildungsberufen unterschiedlich. In der nachfolgenden Tabelle ist die technikbezogene Beschreibung der Nachweise bei der komplexen Arbeitsaufgabe der – im Hinblick auf die Prüfung der Prozessqualifikationen – tätigkeitsbezogenen Beschreibung beim Arbeitsauftrag gegenüber gestellt. Im Prüfungsbereich „Arbeitsauftrag“ werden in der Verordnung zwei Möglichkeiten für die Umsetzung angeboten. Der Ausbildungsbetrieb wählt die Prüfungsvariante aus und teilt sie dem Prüfling und der zuständigen Stelle mit der Anmeldung zur Prüfung mit. • Variante 1: Ein „betrieblicher Auftrag“, der mit praxisbezogenen Unterlagen dokumentiert wird. Die Bearbeitungszeit ist berufsspezifisch unterschiedlich und liegt zwischen 18 und 30 Stunden. Unter Berücksichtigung der praxisbezogenen Unterlagen sollen durch ein Fachgespräch von höchstens 30 Minuten die prozessrelevanten Qualifikationen im Bezug zur Auftragsdurchführung bewertet werden. Dieser betriebliche Auftrag soll ein konkreter Auftrag aus dem Einsatzgebiet des Auszubildenden sein. Gefordert ist kein speziell für die Prüfung konstruiertes „Projekt“, sondern das originäre berufliche Handeln im betrieblichen Alltag. Der betriebliche Auftrag muss allerdings so angelegt sein, dass die vom Prüfling geforderten prozessrelevanten Qualifikationen angesprochen werden können und sich über praxisbezogene Unterlagen in einem reflektierenden Fachgespräch für eine Bewertung erschließen lassen. Dem Prüfungsausschuss ist vor der Durchführung des Auftrages die Aufgabenstellung einschließlich eines geplanten Bearbeitungszeitraumes zur Genehmigung vorzulegen. Die Prüfung, ob ein geeigneter betrieblicher Auftrag vorliegt, wird mit der in den weiteren Ausführungen dargestellten „Matrix für die Auswahl/Genehmigung eines betrieblichen Auftrags“ vorgenommen.

140

K. Breuer und R. Tauschek

Ablauf Betrieblicher Auftrag Bearbeiten des betrieblichen Auftrags

Beantragung und Genehmigung des betrieblichen Auftrags



Abbildung 10:

Fachgespräch max. 30 Min.

Dokumentieren mit praxisbezogenen Unterlagen

in höchstens 18 / 24 oder 30 Stunden je nach Beruf



Grundlagen für das Fachgespräch

Ablauf/Bewertungsinstrumente – Betrieblicher Auftrag

• Variante 2: Eine „praktische Aufgabe“, die mit aufgabenspezifischen Unterlagen dokumentiert und über die ein begleitendes Fachgespräch von höchstens 20 Minuten geführt wird. Die Höchstdauer für die Vorbereitung, Durchführung und Nachbereitung der praktischen Aufgabe, einschließlich der Dokumentation mit aufgabenspezifischen Unterlagen, beträgt insgesamt 18 Stunden. Für die Durchführung der praktischen Aufgabe selbst stehen sieben Stunden zur Verfügung. Durch Beobachtungen bei der Durchführung der praktischen Aufgabe, der Sichtung der aufgabenspezifischen Unterlagen und durch das Fachgespräch sollen prozessrelevanten Kompetenzen in Bezug zur Durchführung der praktischen Aufgabe bewertet werden. Die praktischen Aufgaben werden von überregionalen Aufgabenerstellungsausschüssen (PAL) erarbeitet. Wenn eine nennenswerte Anzahl von Unternehmen eine regionale Aufgabenstellung für erforderlich hält, können solche Aufgaben auch auf Kammerebene erstellt werden. Die praktische Aufgabe muss so angelegt sein, dass die vom Prüfling geforderten prozessrelevanten Qualifikationen angesprochen werden und sich über die aufgabenspezifischen Unterlagen, durch Beobachtung während der Durchführung und über das begleitende Fachgespräch für eine Bewertung erschließen lassen. Im Neuordnungsverfahren wurde die Gleichwertigkeit beider Varianten ausdrücklich festgelegt. Ziel der Bewertung ist in beiden Varianten die Prozesskompetenz in Kontext der Geschäftsprozesse und des Qualitätsmanagement. Analog zur betrieblichen Praxis müssen dazu auch in

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

Abbildung 11:

141

Ablauf/Bewertungsinstrumente – Praktische Aufgabe

der praktischen Aufgabe in einem genügenden Ausmaß Möglichkeiten zur Wahrnehmung von operativen und von kooperativen Prozessschritten gegeben sein (siehe unten). Im betrieblichen Zusammenhang liegen sie in authentischer Form vor. Für die praktischen Aufgaben müssen sie bei der Entwicklung berücksichtigt und über die Ausgestaltung von entsprechenden Szenarien ermöglicht werden. Unter dieser Voraussetzung kann ein Kandidat auch in der praktischen Aufgabe solche operativen und kooperativen Prozessschritte wahrnehmen. Sie werden wie in einem betrieblichen Auftrag dokumentiert. Die Prüfer können das Vorgehen des Kandidaten dabei beobachten und auf der Grundlage der entstandenen Unterlagen im Fachgespräch analysieren.

4.2 Bewertung prozessrelevanter Qualifikationen Der Prüfungsbereich Arbeitsauftrag fokussiert sich zum einen auf die im Kontext des beruflichen Handelns im Arbeitsprozess (Workflow) verknüpften Entscheidungen. Der andere Schwerpunkt liegt auf dem Handeln an den Schnittstellen (Interaktionen) und den damit verbundenen Abstimmungen zwischen unterschiedlichen Personen, Bereichen und Prozessen.

142

Abbildung 12:

K. Breuer und R. Tauschek

Beispiel für einen betrieblichen Leistungsprozess

Der Auszubildende erbringt seine Prüfungsleistung in einem, in seinen Kernpunkten dargestellten, (Teil-) Prozess. Die auszuführenden Tätigkeiten ergeben sich aus dem Arbeitsauftrag. Dies kann z. B. auch eine spezifizierte Störungsmeldung oder eine Leistungsanforderung sein. Innerhalb des zu bearbeitenden (Teil-) Prozesses selbst entstehen entsprechend den Festlegungen des Qualitätsmanagements verschiedene Unterlagen. Das können z. B. Stücklisten, Messprotokolle, Belegpläne, Programmpläne oder Qualitätsnachweise sein. Auch am Ende des (Teil-) Prozesses entstehen eine oder mehrere entsprechende Unterlagen. Das kann z. B. ein Übergabeprotokoll, eine Freigabevermerk, ein Abnahmenachweis, ein Nachweis zum Materialverbrauch oder ein Nachweise zur Arbeitszeit sein. Diese Unterlagen werden vom Prüfling selbst bearbeitet bzw. erstellt. Sie sind operativer Art und werden deshalb im Weiteren als „Unterlagen zum operativen Handeln“ bezeichnet. Beim Bearbeiten des (Teil-)Prozesses entstehen aus dem Bezug zu parallel laufenden Serviceund Supportprozessen Unterlagen, die das entsprechende Handeln des Prüflings widerspiegeln. Das ist z. B. gegeben, wenn zusätzliche Materialien angefordert werden, wenn fehlerhafte Teile erkannt und zur Nachbesserung abgegeben bzw. ausgetauscht werden. Allgemein gesagt geht es im Einzelnen um Informationen, Materialien, Werkzeuge und Leistungen, die nicht der unmittelbaren Verfügung im auszuführenden (Teil-)Prozess unterliegen und entsprechende Abstimmungen oder eine Zusammenarbeit erforderlich machen. Auch dabei entstehen Unterlagen, die dieses kooperative Handeln und die damit verbundenen Interaktionen belegen. Sie werden deshalb im Weiteren als „Unterlagen des kooperativen Handelns“ bezeichnet. Abbildung 13 gibt eine beispielhafte Übersicht über beide Arten prozessbezogener Unterlagen. Über diese Unterlagen wird das qualifizierte prozessbezogene Handeln in beiden Varianten einer Bewertung zugänglich gemacht. Im Fachgespräch kann im Bezug auf die vorgelegten Unterlagen das zugehörige „Warum“, „Wie“, „mit Wem“ und die Betrachtung möglicher Alternativen oder möglicher Konsequenzen geleistet werden. Der Prüfling „reflektiert“ sein Handeln

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

143

Prüfungsbereich Arbeitsauftrag: Betrieblicher Auftrag

Abbildung 13:

Bewertung – Betrieblicher Auftrag

bei der Durchführung des betrieblichen Auftrags bzw. bei der praktischen Aufgabe im Gespräch mit den Prüfern in der Rolle von Experten. In beiden Varianten lässt sich durch das Fachgespräch erkennen, auf welchem Niveau das Handeln des Prüflings, sein Verständnis für die Geschäftsprozesse und das Qualitätsmanagement im betrieblichen Gesamtzusammenhang einzuordnen ist. Aus diesem Zusammenhang leiten sich die Anforderungen für die Zusammenstellung der Unterlagen ab, mit denen der Prüfling die Durchführung des betrieblichen Auftrages bzw. der praktischen Aufgabe dokumentiert: Die Unterlagen müssen zum einen die vier durch die Aus-

144

K. Breuer und R. Tauschek

Auftrag abschließen und bewerten Produkte übergeben

Auftrag und Prüfungen durchführen

Arbeitsabläufe planen

Auftrag annehmen, Lösung auswählen

bildungsordnung vorgegebenen Qualifikationsbereiche – zum anderen die Aspekte des operativen und des kooperativen Handelns abdecken. Zusätzlich tritt die Erfordernis hinzu, die Einschätzungen zum Leistungsvermögen des Prüflings nicht zu punktuell vorzunehmen. Sonst wird das Risiko groß, zufällig auf eine Schwachstelle oder auch auf eine starke Seite eines Prüflings zu treffen. nachzuweisende Qualifikationen

Unterlagen zum operativen (O) und kooperativen (K) Handeln

Reflexives/begleitendes Fachgespräch

Arbeitsaufträge analysieren

Dokument O 1



Informationen beschaffen, technische und organisatorische Schnittstellen klären

Dokument K 1



Auftragsabläufe planen und abstimmen

Dokument K 2



Teilaufgaben festlegen, Planungsunterlagen erstellen

Dokument O 2



Funktion und Sicherheit prüfen und dokumentieren, Normen und Spezifikationen zur Qualität und Sicherheit der Anlagen beachten

Dokument O 3



Ursachen von Fehlern und Mängeln systematisch suchen und beheben

Dokument K 3



Produkte übergeben, Fachauskünfte erteilen, Abnahmeprotokolle anfertigen

Dokument O 4



Arbeitsergebnisse und Leistungen dokumentieren und bewerten, Leistungen abrechnen

Dokument K 4



Lösungsvarianten unter technischen, betriebswirtschaftlichen und ökologischen Gesichtspunkten bewerten und auswählen

Arbeitsabläufe und Zuständigkeiten am Einsatzort berücksichtigen Aufträge durchführen

Systemdaten und -unterlagen dokumentieren

Abbildung 14:

Bewertungsschema für den Arbeitsauftrag, beispielhaft ausgefüllt für die Variante 1

145

Prozesskompetenz in der Abschlussprüfung für die Elektroberufe

Das Ziel, möglichst viele Eindrücke zum Leistungsvermögen eines Prüflings sammeln zu können, um sein „tatsächliches“ Leistungsvermögen umfassend bewerten zu können, muss auch mit der für das Fachgespräch vorgesehenen Zeit abgeglichen werden: Wenn man bei der Variante 1 die vorgegebenen 30 Minuten zu Grunde legt, dann ergibt sich als eine sinnvolle Vorgabe, dass ein Prüfling die Durchführung des betrieblichen Auftrags in jedem der vier QualifiBeobachtung der Durchführung

Teilleistungen nach Punkten (0–10)

Gewichtung

Gewichtete Leistungspunkte

(25%)

Q 1: _____

(25%)

Q 2: _____

(25%)

Q 3: _____

(25%)

Q 4: _____

Summe:

_____

– –

Mittel zu Q 1: _____ – –

Mittel zu Q 2: _____



– Mittel zu Q 3: _____ –



Mittel zu Q 4: _____

146

K. Breuer und R. Tauschek

kationsbereiche mit Unterlagen belegen muss, die jeweils in einen operativen und einem kooperativen Handlungsbezug stehen; also mit insgesamt 8 Dokumenten (vgl. Abb. 14). Für die Bewertung der Leistung ergibt sich damit ein Schema, wie es in der Abbildung 14 mit einem Beispiel für die Variante 1 dargestellt ist. In diesem Fall stützt sich das reflexive Fachgespräch auf insgesamt 8 Unterlagen. Davon beziehen sich 4 auf operatives (O) und 4 auf kooperatives (K) Handeln. Weil zu den vier Qualifikationsbereichen mehr als ein Dokument vorgelegt wird, muss für jeden Bereich die durchschnittliche Teilleistung ermittelt werden. Diese Teilleistungen werden im 100-Punkte-Schema zur Gesamtleistung summiert. Die vier Qualifikationsbereiche wurden in den Verordnungen gleichwertig beschrieben. Das Beispiel geht deshalb als Zielorientierung von einer Gleichgewichtung der Qualifikationsbereiche aus. Die Prüfung für die neuen Elektroberufe erhebt damit den Anspruch, das qualifizierte Handeln von Fachkräften im Rahmen der betrieblichen Organisation, der Prozesse im Workflow und zum Qualitätsmanagement zu testieren. Dieser Ansatz trägt der Gegebenheit Rechnung, das Facharbeiter nicht mehr in einem unabhängigen Handlungsrahmen tätig, sondern in Prozesse und in deren aktive Wahrnehmung eingebunden sind. Die zugehörige Befähigung ist als „Prozesskompetenz“ definiert worden.

Produkt- und Prozessinnovation

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement René Rohrbeck und Hans Georg Gemünden

Während die Technologische Frühaufklärung seit den 70er Jahren als eine wichtige Aktivität zur Erhaltung der technologischen Wettbewerbsfähigkeit angesehen wird, hat die marktseitige Frühaufklärung bisher deutlich weniger Beachtung gefunden. Erst durch die erhöhte Frequenz von marktseitigen Disruptionen ist das Interesse in Wirtschaft und Wissenschaft gewachsen. Von einer marktseitigen Frühaufklärung wird hierbei die Aufdeckung wichtiger Veränderungen im soziokulturellen, politischen und Wettbewerbsumfeld erwartet, sowie die Auslösung geeigneter Reaktionen. Unter dem Begriff der Strategischen Frühaufklärung (SF) werden Ansätze diskutiert, die marktseitige und technologische Frühaufklärung integrieren. In diesem Beitrag werden Daten aus einer Benchmarking-Studie mit neun multinationalen Unternehmen genutzt, um die Rolle der SF für das Innovationsmanagement zu untersuchen. Hierbei wurden drei Rollen identifiziert: Erstens die Rolle als Impulsgeber für neue Produkt- und Serviceinnovationen, zweitens die Rolle als strategisches Instrument, welches neue Geschäftspotentiale aufdeckt und strategische Innovationsinitiativen auslöst und drittens die Rolle des Dienstleisters im Innovationsprozesses, der die technologische und marktseitige Wettbewerbsfähigkeit gewährleistet.

Einleitung Die Strategische Frühaufklärung (SF) zielt darauf ab, Diskontinuitäten und relevante Trends zu erkennen und geeignete Maßnahmen auszulösen, um diesen zu begegnen (Krystek, 2007; Liebl, 2005). Hierfür müssen schwache Signale [„weak signals“, (Ansoff et al., 1976)] im Umfeld des Unternehmens identifiziert, interpretiert und bewertet werden (Andriopoulos and Gotsi, 2006; Day and Schoemaker, 2005). Die gesammelten Informationen dienen zur Vorbereitung von Management-Entscheidungen, die adäquate Reaktionen auf Disruptionen betreffen (Ashton and Klavans, 1997; Lichtenthaler, 2002). Dabei ist zu unterscheiden, ob die SF einen pro-aktiven oder reaktiven Charakter hat. Pro-aktive SF stellt gesammelte Informationen zur Verfügung, die Entscheidungen und Veränderungsprozesse in der Unternehmung auslösen. Reaktive SF reagiert hingegen lediglich auf Informationsbedarf, der durch aktuelle Entscheidungen ausgelöst wird (Savioz, 2006).

150

R. Rohrbeck und H. G. Gemünden

In diesem Beitrag gehen wir der Frage nach, welchen Wertbeitrag die SF für das Innovationsmanagement leistet. Zur Beantwortung dieser Frage greifen wir auf qualitative Daten zurück, die durch neun Fallstudien in multinationalen Unternehmen generiert wurden. Insgesamt wurden bisher über 60 Interviews geführt. Die Stichprobe ist hierbei industrieübergreifend und enthält Unternehmen, die in unterschiedlichen Abschnitten der Wertschöpfungskette tätig sind. In allen Unternehmen wurden nicht nur die Verantwortlichen der SF befragt, sondern auch die „internen Kunden“. Hiermit wird erreicht, dass valide Informationen zum Wertbeitrag der SF erhoben werden können.

Bestandsaufnahme der Forschung Vorangegangene Forschungsrichtungen Die Forschung im Bereich der SF setzt sich aus unterschiedlichen Forschungsrichtungen zusammen, die in englischsprachiger Literatur u. a. unter den Begriffen Technology Forecasting, Technology Foresight, Consumer Foresight, Competitive Intelligence, Technology Intelligence, Strategic Issue Management, Strategic Foresight, Peripheral Vision und Future Research beschrieben werden. In der Forschung zu Technology Forecasting werden vor allem Methoden betrachtet, die Informationen aus der Vergangenheit nutzen, um Trends und Entwicklungen in der Zukunft vorherzusagen (Cuhls, 2003; Van der Heijden, 2005). Technology Foresight erweitert diesen Rahmen um Methoden zur Nutzung der gewonnen Einsichten und zur Planung von Maßnahmen zur Vorbereitung auf die Zukunft (Lichtenthaler, 2002; Tsoukas and Shepherd, 2004). Der Einsatz der Methoden kann hierbei sowohl auf nationaler Ebene (Heraud and Cuhls, 1999; Martin, 1995; Wagner and Popper, 2003), auf supranationaler Ebene, wie etwa auf europäischer Ebene (Cruz-Castro and Sanz-Menendez, 2005), oder auf Unternehmensebene (Krystek and MüllerStewens, 1993) erfolgen. Ein nahezu analog verwendeter Begriff ist der der Technology Intelligence (Brenner, 1996; Lichtenthaler, 2002; Savioz, 2002). Die Competitive Intelligence beschäftigt sich mit der Identifizierung, Bewertung und Verwendung von Informationen aus dem Wettbewerbsumfeld des Unternehmens. Sie zielt darauf ab, bessere Entscheidungen zu ermöglichen, um die Wettbewerbsfähigkeit des Unternehmens zu erhöhen (Bergeron and Hiller, 2002; Lackman et al., 2000). In der Literatur zur Consumer Foresight werden vor allem Methoden diskutiert, die es ermöglichen, Kundenbedürfnisse zu erkennen, zu bewerten und zu antizipieren. Die vorwärtsgerichtete Antizipation von Kundenbedürfnissen ist besonders in schnelllebigen und stark umkämpften Märkten wichtig. Hier reicht es nicht aus, nur auf die Befriedigung der Bedürfnisse abzuzielen, die vom Kunden bereits benannt sein können. Vielmehr werden latente Kundenbedürfnisse identifiziert, z. B. mit der Methode der Ethnografischen Studien. Eine explizite Verbindung der Frühaufklärung mit dem strategischen Management wurde bereits von Ansoff unter dem Begriff des Strategic Issue Managements vorgestellt. Hierbei wird davon ausgegangen, dass die Frühaufklärung primär die Aufgabe hat, Disruptionen zu erkennen und geeignete Reaktionen auszulösen. Diese Überlegungen liegen auch den Ansätzen der Strategic Foresight zugrunde, jedoch wird die Rolle der Erkennung von Disruptionen erweitert und Slaughter fordert, dass die Strategische Frühaufklärung einen funktionalen Zukunftsausblick

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

151

generieren soll, der für ein Unternehmen nutzbringend verwendet werden kann. Hierbei betont er die Verwendung zur Identifikation von Risiken, zur Entwicklung unternehmenspolitischer Leitplanken, zur Strategieentwicklung und zur Exploration von neuen Märkten, Produkten und Dienstleistungen (Slaughter, 1996; Slaughter, 1997). Ein weiteres verwandtes Konzept wurde von Day und Shoemaker unter der Bezeichnung Peripheral Vision eingeführt. Day und Shoemaker gehen davon aus, dass Unternehmen allgemein, und insbesondere diejenigen, die in komplexen und volatilen Branchen operieren, verschiedene Systeme für ein kontinuierliches Umfeld-Scanning brauchen (Day and Schoemaker, 2004; Day and Schoemaker, 2005). Die Literatur zu Future Research oder Future Analysis (im Deutschen: Zukunftsforschung (Burmeister et al., 2002; Dürr et al., 2004)) ist stark auf die Weiterentwicklung der eingesetzten Methoden fokussiert. Diskutiert werden der Einsatz der Methoden sowohl auf MakroEbene, zur Unterstützung der Politik und Wirtschaftsförderung, als auch auf Mikro-Ebene, zur Unterstützung des Innovations- und Strategischen Managements. In diesem Beitrag wird der Begriff Strategische Frühaufklärung (SF) verwendent, um eine integrierte markt- und technologieseitige Frühaufklärung zu bezeichnen. Diskutiert wird der Wertbeitrag dieser SF für das Innovationsmanagement. Nicht diskutiert werden die Wertbeiträge für andere Bereiche des Unternehmens, wie das Strategische Management, die Unternehmensentwicklung, oder das Risikomanagement.

Forecasting vs. Foresighting und operative vs. strategische Frühaufklärung Auch wenn in der Chronologie der Forschung Forecasting vor Foresighting entstanden ist, wurde das erste Konzept nicht von dem zweiten abgelöst, sondern beide existieren nebeneinander weiter. In der Forschungsgemeinschaft besteht zwar über die genaue Abgrenzung keine allgemein gültige Meinung, dennoch werden unter den beiden Begriffen zumeist unterschiedliche Inhalte diskutiert. Unter Forecasting werden hierbei meist Konzepte diskutiert, die auf Grundlage von Vergangenheitsdaten und Indikatoren Zukunftsprognosen ableiten (Gordon et al., 2005; Meade and Islam, 1998). Ein typischer Vertreter für eine Forecasting-Methode ist die S-Kurvenanalyse, bei der auf Grundlage von Daten zu Leistungsfähigkeit von Technologien im Zeitverlauf zukünftige Entwicklungen der Technologie extrapoliert werden (Saffo, 2007). Dem gegenüber zielt Foresighting auf die Identifizierung emergenter Entwicklungen auf Grundlage von eher qualitativen Daten ab. Die Unsicherheit wird bei diesem Ansatz nicht nur akzeptiert, sondern explizit zugelassen (Gordon et al., 2005). Eine analoge Abgrenzung für die deutsche Begriffswelt macht Krystek zwischen Operativer und Strategischer Frühaufklärung. Hierbei wird die Operative Frühaufklärung als auf Indikatoren beruhende, hochrechnungsorientierte Aktivität beschrieben, die vom Top-Management delegiert werden kann. Die Strategische Frühaufklärung ist hingegen nicht delegierbar, weil die emergenten Themen im Vorhinein nicht als Bedrohung oder Chance klassifiziert werden können und schlecht strukturierte, qualitative Daten von den Entscheidungsträgern selber interpretiert werden müssen (Krystek, 2007). Haeckel geht daher auch davon aus, dass die Interpretation von schwachen Signalen nicht automatisiert werden kann, sondern von Menschen erarbeitet werden muss (Haeckel, 2004).

152

R. Rohrbeck und H. G. Gemünden

Forschung zur integrativen Frühaufklärung Wie oben beschrieben, ist die Forschung zur SF noch ein relativ junges Forschungsfeld. Während im Bereich der Technologischen Frühaufklärung bereits viele qualitative und einige quantitative Befunde vorliegen, existieren in der integrierten Betrachtung der SF ausschließlich qualitative Studien, die einer deduktiven Forschungslogik folgen (Becker, 2002; Daheim and Uerz, 2006; Nick, 2008; Rauscher, 2004; Roll, 2004).

Das Planungsparadigma des Innovationsmanagements als Untersuchungsrahmen Zur Untersuchung des Wertbeitrags der SF für das Innovationsmanagement verwenden wir das Planungsparadigma des Innovationsmanagements (siehe Abb. 1). Dieses beschreibt die Annahme, dass die Entstehung von Innovationen und deren Planung auf verschiedenen Ebenen erfolgt und innerhalb der Ebenen eine Koordination zwischen Markt (Probleme, Market-Pull) und Technologie (Lösungen, Technology-Push) erfolgen muss (Gemünden, 2001).

Strategische Koordination Auf der Ebene der strategischen Koordination werden auf der Marktseite Erkenntnisse zu neuen Märkten und Marktchancen erwartet. Diese Märkte können durch geographische Diversifikation, durch die Erschließung neuer Kundengruppen und durch Befriedigung von neuen Kundenbedürfnissen entstehen. Technologieseitige Erkenntnisse, die aus der Frühaufklärung erwartet werden können, sind neue Technologien, die neue Funktionen, neue Risiken und neue Entwicklungen bewirken oder ermöglichen.

Abbildung 1:

Planungsparadigma des Innovationsmanagements (Gemünden, 2001)

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

153

Taktische Koordination Bei der taktischen Koordination werden marktseitig neue Zielgruppen und technologieseitig neue Quellen (für die benötigten Technologien) identifiziert. Hierbei kann die Beschaffung durch FuE-Kooperationen, Lizenz- oder Patentkauf oder durch Akquisition erfolgen (Kondo, 2005; Tschirky et al., 2004).

Operative Koordination Auf der Ebene der operativen Koordination konkretisieren sich auf der Marktseite die Produktkonzepte und auf der Technologieseite die verfügbaren Technologien, die zur Realisierung des Produktes in Frage kommen.

Umzusetzende Projekte Im Y-Schema des Planungsparadigmas folgt aus den ersten drei vorgestellten Ebenen die Definition der umzusetzenden FuE-Projekte. Der Logik der sequentiellen Planung folgend sind die FuE-Projekte vor allem die Empfänger der schon aufbereiteten Informationen. Nachdem marktseitig bereits das grundsätzliche Potential für das Produkt erkannt und technologieseitig die Machbarkeit bestätigt wurde, findet erst in der Aufsetzung des Projekts die tatsächliche Investitionsentscheidung statt. Darüber hinaus findet zu diesem Zeitpunkt auch häufig der Übergang vom Innovationsmanagement auf Konzernebene auf das Innovationsmanagement auf Bereichsebene statt.

Wertbeitrag der Strategischen Frühaufklärung Beobachtungsbereiche der Frühaufklärung Zentrales Ziel der SF ist die Generierung eines konsistenten und funktionalen Zukunftsausblicks, welcher für heutige Entscheidungen nutzbar ist. Um die Konsistenz und die Abdeckung aller relevanten Umfeldeinflüsse zu gewährleisten, nutzt die SF verschiedene Beobachtungsbereiche, die sich nach Inhalt und der Nähe zum aktuellen Geschäft unterscheiden lassen (siehe Abb. 2). Hierbei muss die SF gewährleisten, dass neben dem gerichteten Suchen (Monitoring), welches häufig durch das aktuelle Geschäft und persönliche Interessensgebiete des TopManagements getrieben ist, auch ungerichtete Suche (Scanning) stattfindet (Krystek, 2007; Patton, 2005). Bei dem Inhalt kann man zwischen Technologien, Wettbewerbern, Kunden und Politischen Themen unterscheiden. Bei der Nähe zum aktuellen Geschäft lassen sich das aktuelle Geschäft, das benachbarte Umfeld und die sogenannten weißen Felder unterscheiden. Zur Planung von Frühaufklärungsaktivitäten ist es wichtig, auf die beiden äußeren Ringe (weiße Felder und benachbartes Umfeld) einen besonderen Schwerpunkt zu legen (Reger, 2001). In den untersuchten Unternehmen konnte überwiegend eine gute Kenntnis der Einflüsse auf das aktuelle Geschäft festgestellt werden. Im benachbarten Umfeld gab es gute Informationen zu den Themen, für die bereits eine Relevanz für das eigene Geschäft erkannt wurde. In einem Unternehmen aus der Energiebranche war beispielsweise der Einfluss der Informations- und Kommunikationstechnologie auf das aktuelle Geschäft bekannt, da hier bereits erste Überlegungen und Gesetzesvorlagen bestanden, die Ablesung der Stromzähler elektronisch zu realisieren.

154

Abbildung 2:

R. Rohrbeck und H. G. Gemünden

Beitrag der Strategischen Frühaufklärung für die Innovationsplanung

Schwieriger fällt es Unternehmen, Veränderungen oder Disruptionen in weißen Feldern zu identifizieren. Daher ist es auch die Aufgabe der SF, an dieser Stelle Unterstützung zu leisten. Insbesondere bei einer gerichteten Suche (Monitoring) werden Disruptionen aus weißen Feldern zumeist erst dann erkannt, wenn sie schon zu einer Gefahr für das Unternehmen geworden sind. Neben der geeigneten Informationsgenerierung und der Einspeisung dieser Informationen kommt der SF auch die Aufgabe zu, geeignete Reaktionen auszulösen (Winter, 2004). Hierfür ist die Vernetzung der Frühaufklärung mit anderen Prozessen und insbesondere dem Innovationsprozess wichtig. Der Logik des Planungsparadigmas folgend kann erwartet werden, dass die SF auf der Markt- und Technologieseite, sowie auf den verschiednen Ebenen Beiträge liefern kann (siehe Abb. 3). Bei der Auswertung der neun Fallstudien konnten hierfür auch Indizien und Beispiele gefunden werden. Zur Diskussion der einzelnen Wertbeiträge verwenden wir die Unterscheidung in Marktseitige Frühaufklärung, die die Beobachtungsbereiche Politik, Kunden und Wettbewerb umfasst, sowie die Technologieseitige Frühaufklärung.

Marktperspektive Neue Märkte Nach einer Phase der Restrukturierung und der Auslagerung sind viele Unternehmen heute wieder auf der Suche nach neuen Wachstumsmöglichkeiten (Garvin and Levesque, 2006). Hierbei kommt dem Innovationsmanagement eine Schlüsselrolle zu. Zur Identifizierung neuer Märkte kann die Frühaufklärung verschiedene Beiträge leisten. Bei der Deutschen Telekom gibt es gleich mehrere Aktivitäten, die hierfür zum Einsatz kommen.

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

155

Zur Identifizierung neuer und latenter Kundenbedürfnisse kommen in der SF Ethnografische Studien zum Einsatz. Durch Day in the life visits, 24-Stunden-Beobachtungen von Kunden, werden Bedürfnisse aufgedeckt, die durch konventionelle Marktforschung verborgen bleiben. Eine weitere Methode, die ebenfalls latente Bedürfnisse aufdeckt, ist Diary Research. Hierbei führen Kunden ein Tagebuch, in das alle Erlebnisse beim Umgang mit Informations- und Kommunikationstechnologie eingetragen werden. Diese Methode, die auf die Critical Incident Technique (Flanagan, 1954) zurückgeht, ermöglicht die Dokumentation von Barrieren beim Umgang mit Produkten, die in einer retrospektiven Befragung nicht mehr in Erinnerung der Interviewten verfügbar wären. In Anlehnung an das Lead-Market-Konzept (Beise, 2004) werden bei der Deutschen Telekom auch Märkte, die den Heimatmärken voraus sind und besondere Charakteristika aufweisen, gezielt untersucht. Hierbei wird beispielsweise in Süd-Korea, das weltweit die höchste Penetration von Breitband-Internetanschlüssen aufweist, nach transferierbaren Produkten und Dienstleistungen gesucht. In Japan, Vorreiter bei der Breitband-Mobilfunk-Penetration, wird nach neuen Diensten auf dem mobilen Endgerät gesucht. Neue Zielgruppen Während die Operative Frühaufklärung das Innovationsmanagement unterstützt, um Marktpotentiale für neue Zielgruppen zu bewerten, kommt der SF die Rolle der Überprüfung von Kundensegmentierungen zu. In den letzten Jahren hat diese Tätigkeit aus drei Gründen an Relevanz zugenommen: Erstens ist eine Polarisierung der Nachfrage zu beobachten, die dazu führt, dass Kundensegmente ihre Nachfrage stärker in Richtung niedriger Preise oder höchster Qua-

Abbildung 3:

Beitrag der Strategischen Frühaufklärung für die Innovationsplanung

156

R. Rohrbeck und H. G. Gemünden

lität ausrichten. Dies hat zur Folge, dass sich die Kundensegmentierungen für Umsatzpotentialanalyse nur noch bedingt eignen. Zweitens ist zu beobachten, dass die Nachfrage und Präferenz der Kunden immer stärker von der Situation, bzw. dem Kontext des Kaufs abhängt und nur noch in geringem Maße von soziokulturellen Faktoren, die zumeinst Grundlage von Kundensegmentierungen sind. So kauft heute ein Mercedes-E-Klasse-Fahrer genauso bei Saturn und Aldi ein, was in vielen Marktsegmentierungslogiken, wie etwa den Sinus Milieus, einen Widerspruch bedeutet. Drittens stehen Unternehmen vor der Herausforderung, bei globaler Präsenz in unterschiedlichen Ländern auch unterschiedliche Marktsegmentierungen zu verwenden. Ein Beispiel, wie die SF hier unterstützen kann, ist das Projekt „Moonraker“ der Volkswagen AG (Jasner, 2006). Diese Aktivität der Kunden-Frühaufklärung bestand im Einsatz von 25 rotierenden Mitarbeitern der Volkswagen AG, die jeweils für mehrere Monate in Kalifornien wohnten und arbeiteten mit dem Ziel, ein besseres Verständnis für US-amerikanische Kundenbedürfnisse zu erlangen. Zum Einsatz kamen hierbei verschiedene Methoden der Ethnografischen Forschung, sowie explorative und narrative Marktforschungsmethoden. Die Kommunikation der Ergebnisse an das operative und strategische Innovationsmanagement erfolgte über multiple Kanäle, wie Großveranstaltungen in der Zentrale in Wolfsburg und Studien und Videodokumentationen, die im Volkswagen-Intranet zur Verfügung gestellt wurden (Liske, 2007). Ergebnisse der Untersuchung waren beispielsweise die Erkenntnis, dass die Marke Volkswagen in den USA mit deutlich anderen Attributen verbunden wurde als in Europa, oder dass die Produkte der Volkswagen Gruppe in keinem der sogenannten Sweet-Spots (Marktsegmente, die besonders attraktiv sind) waren. In Konsequenz konnten sowohl neue Fahrzeug- und Ausstattungsvarianten als auch eine überarbeitete Kundensegmentierung erarbeitet werden (Liske, 2007). Produktkonzepte Bei der Definition von neuen Produktkonzepten ist die Wettbewerbsbeobachtung von besonderer Bedeutung. Insbesondere in stark saturierten Märkten ist die Differenzierung gegenüber Wettbewerbsprodukten eine kritische Erfolgsbedingung. Während eine Wettbewerbsanalyse für direkte Alternativprodukte zumeist vom Innovationsmanagement selber durchgeführt wird, kommt der Strategischen Frühaufklärung die Aufgabe zu, Produkte zu identifizieren, die ähnliche Kundenbedarfe, jedoch mit sehr unterschiedlichen Lösungsansätzen adressieren. Bei der Deutschen Telekom gibt es eine kontinuierliche Marktscanning-Aktivität, die unter dem Namen Product & Service Radar weltweit emergente Produktkonzepte und neue Businessmodelle identifiziert. Hierbei wird auf ein Netzwerk von Scouts zurückgegriffen, die unter anderem im Silicon Valley Start-Up-Unternehmen und deren Produkte analysieren. Die Ergebnisse können genutzt werden, um neue Produktkonzepte zu generieren oder die Konzepte für neue Produkte auf Wettbewerbsfähigkeit zu überprüfen.

Technologieperspektive Neue Technologien Die Suche nach neuen Technologien beschränkte sich für viele Firmen traditionell auf das Dreieck USA, Europa und Japan. Inzwischen verlagern aber immer mehr Firmen Forschungs-

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

157

und Entwicklungskapazität in Länder wie China und Indien. Beispielsweise investiert das Schweizer Pharmaunternehmen Novartis 100 Millionen US$ in ein neues F&E-Zentrum in Shanghai, China oder das Softwareunternehmen SAP 125 Millionen US$ in ein neues Entwicklungszentrum in Bangalore, Indien. Um die in einer globalisierten F&E-Landschaft entstehenden Technologien frühzeitig zu erkennen, spielt die Strategische Frühaufklärung eine wichtige Rolle. Unternehmen wie Siemens, British Telecom oder Deutsche Telekom unterhalten große Netzwerke von Universitätskooperationen, um an neuen Entwicklungen direkt zu partizipieren und informelle Netzwerke zur Informationsnutzung zu etablieren (Rohrbeck and Arnold, 2006). Zusätzlich nutzt die Deutsche Telekom auch ihr internationales Scouting-Netzwerk der SF für die Erstellung des sogenannten Technology Radars, der die weltweit aufgespürten technologischen Entwicklungen und Trends bewertet und nach technologischen Feldern und Relevanz für die Deutsche Telekom sortiert. Dieser Technology Radar wird sowohl an das Top-Management und an das bereichsübergreifende Innovationsmanagement als auch an Produktmanagement und F&E-Projektmanager verteilt (Rohrbeck, 2007). Neue Quellen Um die identifizierten Technologien auch für das Unternehmen verfügbar zu machen, gibt es in den untersuchten Unternehmen verschiedene Ansätze. Bei der Deutschen Telekom wird das Netzwerk der SF als Intermediär oder als Technologischer Gatekeeper (Taylor, 1975) genutzt. Über die Technologiescouts wird ein Kontakt zu Forschungsinstituten oder technologischen Start-Up-Unternehmen hergestellt und dann selbstständig von der F&E verwendet, um die Technologien zu akquirieren. Andere Firmen, wie die Siemens AG, haben für die Akquise von Technologien spezielle funktionale Einheiten: Das Technology-to-Business Center ermöglicht beispielsweise Start-UpUnternehmen oder auch Einzelpersonen, ihre Technologie vorzustellen und unterstützt bei gegenseitigem Interesse die Akquise und Integration der Technologie in das Innovationsmanagement der Siemens AG. Verfügbare Technologien Während bei dem Management der verfügbaren Technologien der SF keine direkte Rolle zufällt, kann sie aber einen wichtigen Beitrag dadurch leisten, dass sie disruptive Technologien erkennt, die die Wettbewerbsfähigkeit der verfügbaren Technologien gefährden. Da das Produktmanagement oder die Projektleiter der F&E-Projekte stark auf die Beobachtung der Alternativtechnologien fokussiert sein müssen, würden Technologien, die Substitutionsprodukte ermöglichen, zumeist unerkannt bleiben.

Umzusetzende Projekte Ähnliches gilt für die Rolle der SF bei der Unterstützung der in der Umsetzung befindlichen Projekte. Hier übernimmt die SF zwar auch keine direkte Rolle, dennoch stellt das Scannen des Umfelds nach Disruptionen einen wichtigen Wertbeitrag dar. Insbesondere Disruptionen aus anderen Beobachtungsbereichen werden von Projektteams in der Regel nicht systematisch erkannt.

158

R. Rohrbeck und H. G. Gemünden

Ein Beispiel, bei dem eine Disruption zu spät erkannt wurde, ist der Fall gentechnisch veränderter Lebensmittel. Während die Entwicklung von verbesserten Obst- und Gemüsepflanzen mit hohem finanziellem Aufwand vorangetrieben wurde, mehrten sich die kontroversen Diskussionen von Umwelt- und Verbraucherschützer-vereinigungen. Dennoch ging die Entwicklung mit unvermindertem Aufwand weiter. Als dann 1999 die EU ein Verbot für gentechnisch veränderte Lebensmittel verhängte, war der überwiegende Teil der beteiligten Unternehmen nicht nur überrascht, sondern auch finanziell stark angeschlagen. In unserer Unersuchung zur SF hat sich gezeigt, dass bei nur sehr wenigen der teilnehmenden Unternehmen eine Explizierung der kritischen Prämissen stattfindet und in einem noch kleineren Anteil diese Annahmen auch kontinuierlich überprüft werden. Zusammenfassend lässt sich feststellen, dass in den verschiedenen Bereichen der Innovationsplanung nicht nur Beiträge der SF erwartet werden können, sondern diese auch in den teilnehmenden Unternehmen beobachtet werden konnten. Im folgenden Abschnitt werden aus diesen verschiedenen Aktivitäten drei generische Rollen der SF im Innovationsmanagement herausgebildet.

Die Rollen der Strategischen Frühaufklärung im Innovationsmanagement Bei der Analyse der verschiedenen Aktivitäten, die durch unsere Fallstudien aufgedeckt wurden, konnten die drei Rollen Inputgeber, strategisches Instrument und kontinuierliche Dienstleistung identifiziert werden (siehe Abb. 4).

Abbildung 4:

Beitrag der Strategischen Frühaufklärung entlang des Innovationsprozesses

1. Rolle: Inputgeber Das im Innovationsmanagement allgemein akzeptierte Trichterparadigma geht davon aus, dass der Innovationstrichter im Bereich der Ideen-Generierung möglichst breit sein soll, um nach

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

159

mehrstufiger Filterung noch ausreichend viele im Markt erfolgreiche Innovationen zu generieren (Gemünden, 2001; Stevens and Burley, 1997). Neben Kreativprozessen im Unternehmen, eingereichten Kundenideen und der Kommerzialisierung von intern entwickelten Technologien, sollte auch die SF einen Beitrag zum Ideenpool am Anfang des Innovationstrichters liefern können. Hierzu müsste die Identifizierung von neuen Kundenbedürfnissen und neuen Technologien zusammengeführt werden, um neue Ideen und Konzepte zu generieren. Bei der Deutsche Telekom gibt es hierfür einen speziellen Prozess, der Impulse der technologieseitigen und marktseitigen Frühaufklärung integriert. Hierbei werden in Workshops die Ergebnisse des Technology Radars und des Product & Service Radars diskutiert und neue Innovationsinitiativen angestoßen (Rohrbeck et al., 2007). Eine andere Möglichkeit stellt die Identifizierung von Aktivitäten von Wettbewerbern dar. Hierbei können nicht nur Produkte identifiziert werden, mit dem Ziel, diese nachzuahmen, sondern Innovationsimpulse können auch durch die Untersuchung von Unternehmen aus anderen Industrien entstehen. Im Rahmen des Scoutings der Volkswagen AG in China wurde über sogenannte Scouting-Ringe kollaborative SF-Aktivität angestoßen. Ziel der Scouting-Ringe ist hierbei neben der kollaborativen Trend-Identifikation und -Interpretation auch der Wissenstransfer. Durch den industrieübergreifenden Austausch können erfolgreiche Methoden, Produkte und Prozesse identifiziert und Kernkompetenzen aus anderen Industrien übertragen werden (Liske, 2007).

2. Rolle: Strategisches Instrument In vielen Industrien kann beobachtet werden, dass kleine Unternehmen besser in der Lage sind, neue Geschäftsfelder zu erkennen und zu besetzen. In Konsequenz gelingt es diesen kleinen Unternehmen, die etablierten Firmen in sich verändernden Branchen zu gefährden oder zu verdrängen. Was Foster und Kaplan positiv als kreative Destruktion bezeichnen, ist für die etablierten Unternehmen lebensbedrohend (Foster and Kaplan, 2001). Der SF fällt hier eine Schlüsselrolle zu, das Umfeld nach neu entstehenden Geschäftsfeldern zu scannen und mit geeigneten Systemen den Erneuerungs- und Neupositionierungsprozess zu ermöglichen und anzustoßen. Bei der Siemens AG wurde ein spezielles Verfahren entwickelt, welches den strategischen Review von Geschäftseinheiten ermöglicht und für die Exploration von neuen Geschäftsgebieten verwendet wird. Diese Methode, die unter dem Namen Pictures of the Future vom Zentralbereich Corporate Technologies betrieben wird, besteht aus Szenarioanalyse, Trend-Extrapolation und Roadmapping (Gruber et al., 2003).

3. Rolle: Kontinuierliche Dienstleistung Die dritte Rolle der SF ergibt sich insbesondere aus den Aufgaben, die sich im Sinne des Planungsparadigmas des Innovationsmanagements auf der operativen Ebene und bei der Umsetzung der F&E-Projekte ergeben. Zusammenfassend lassen sich hier drei Aufgaben identifizieren, die die Rolle der kontinuierlichen Dienstleistung kennzeichnen: Erstens muss durch ein kontinuierliches Monitoring des relevanten technologischen Umfeldes gewährleistet werden, dass die Ideen, Konzepte und Projekte in der Umsetzung dem Stand der

160

R. Rohrbeck und H. G. Gemünden

Technik entsprechen. Hierbei erfüllt die SF eine Informationsfunktion und hat in einigen Beispielen ein implizites oder explizites Veto-Recht bei den Entscheidungen im Innovationsprozess. Zweitens stellt die SF durch das Monitoring des Marktumfeldes sicher, dass die Nachfrage weiter gesichert ist und keine Hemmnisse existieren. Solche Hemmnisse können wie beim Beispiel der gentechnisch veränderten Lebensmittel Gesetze sein, die das in der Entwicklung befindliche Produkt verbieten oder wegen regulatorischer Eingriffe stark verteuern und für den Kunden unattraktiv machen. Drittens ist das Scanning von weißen Feldern eine wichtige Unterstützung im Produktentstehungsprozess, da auch aus weißen Feldern Disruptionen entstehen können, die den Erfolg des Produktes gefährden. In den von uns untersuchten Unternehmen zeigte sich eine durchschnittlich gute Abdeckung der drei Aufgaben mit leichten Schwächen bei der dritten. Obwohl die Informationsgenerierung durchaus gut ist, zeigten sich Schwächen bei der Informationsweitergabe. Da nicht zuletzt durch das Internet und den leichten Zugriff auf eine Vielzahl elektronischer Medien die Menge an verfügbaren Informationen rapide gestiegen ist, ist die wichtigste Barriere, die einen guten Informationsfluss behindert, die begrenzte Aufnahmekapazität des Empfängers. In Konsequenz müssen Unternehmen, die die Nutzung von Informationen aus der SF verbessern möchten, nach Lösungen suchen, diese Informationsüberflutung zu kanalisieren. Ein Beispiel für eine solche Lösung kann bei British Telecom beobachtet werden. Um den Austausch zwischen den Mitarbeitern der F&E und der SF zu verbessern, wurde ein WikiSystem etabliert. Dieses System ermöglicht es den Nutzern nicht nur, selber auf einfache Art und Weise Informationen einzustellen, sondern auch Beiträge von anderen zu verändern, zu kommentieren oder zu erweitern. Durch dieses System wird erreicht, dass der teilnehmende Mitarbeiter nicht nur vorgefilterte und vorinterpretierte Informationen erhalten, sondern das System auch für sein eigenes Wissensmanagement nutzen kann (Brown, 2007).

Zusammenfassung Wie unsere Bestandsaufnahme zeigt, gibt es bei den betrachteten Unternehmen bereits gute Ansätze, die die SF mit dem Innovationsmanagement vernetzen. Es konnten verschiedene Beispiele für Aktivitäten identifiziert werden, die einen wichtigen Wertbeitrag für das Innovationsmanagement der Unternehmen leisten. Es hat sich aber auch gezeigt, dass weder in der Literatur noch in der Praxis ein ganzheitliches Verständnis über eine wirkungsvolle Integration von Frühaufklärung und Innovationsmanagement besteht. Diese Erkenntnis hat auch deshalb eine besonders hohe Relevanz, weil in der Vergangenheit bereits verschiedene Beispiele gefunden wurden, bei denen die Wettbewerbsfähigkeit von Unternehmen oder sogar deren Überleben gefährdet war, weil auf Grundlage von alarmierenden Umfeldinformationen nicht schnell genug adäquate Reaktionen ausgelöst werden konnten. Mit unserem Beitrag möchten wir motivieren, den wissenschaftlichen Austausch zur SF zu verstärken und die Anwendung der von uns identifizierten Ansätze zur Verbindung der SF mit dem Innovationsmanagement in der Praxis zu erhöhen.

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

161

Literatur Andriopoulos, C. and M. Gotsi (2006): Probing the future: Mobilising foresight in multiple-product innovation firms. Futures 38 (1), 50–66. Ansoff, H. I., et al. (1976): From strategic planning to strategic management. London; New York: Wiley. Ashton, W. B. and R. A. Klavans (1997): Keeping abreast of science and technology: technical intelligence for business. Columbus, Ohio: Battelle Press. Becker, P. (2002): Corporate Foresight in Europe: A First Overview Working Paper European Commission, ftp://ftp.cordis.europa.eu/pub/foresight/docs/st_corporate_foresight_040109.pdf, date last accessed: 10th Jan 2008 31. Beise, M. (2004): Lead markets: country-specific drivers of the global diffusion of innovations. Research Policy 33 (6–7), 997–1018. Bergeron, P. and C. A. Hiller (2002): Competitive intelligence. Annual Review of Information Science and Technology 36, 353–390. Brenner, M. S. (1996): Technology Intelligence and Technology Scouting. Competitive Intelligence Review 7 (3), 20–27. Brown, D. (2007): Foresight in BT – and some of the (collaborative) tools we use euroSF 2007 – European Conference on Strategic Foresight. Berlin, Germany: Chair for Technology and Innovation Management, Technische Universität Berlin, 34. Burmeister, K., et al. (2002): Zukunftsforschung und Unternehmen – Praxis, Methoden, Perspektiven. Essen: Druck- und Verlagskooperative stattwerk e. G. Cruz-Castro, L. and L. Sanz-Menendez (2005): Politics and institutions: European parliamentary technology assessment. Technological Forecasting & Social Change 72 (4), 429–448. Cuhls, K. (2003): From forecasting to foresight processes – New participative foresight activities in Germany. Journal of Forecasting 22 (2–3), 93–111. Daheim, C. and G. Uerz (2006): Corporate Foresight in Europe: Ready for the Next Step? Second International Seville Seminar on Future-Oriented Technology Analysis: Impact of FTA Approaches on Policy and Decision-Making. Seville, Spain, 16. Day, G. S. and P. Schoemaker (2004): Peripheral Vision: Sensing and Acting on Weak Signals. Long Range Planning 37 (2), 117–121. Day, G. S. and P. J. H. Schoemaker (2005): Scanning the periphery. Harvard Business Review 83 (11), 135–148. Dürr, H.-P., et al. (2004): Werkstattbericht Nr. 64: Zukunftsforschung im Spannungsfeld von Visionen und Alltagshandeln. Berlin: IZT. Flanagan, J. C. (1954): The critical incident technique. Psychol Bull 51 (4), 327–358. Foster, R. N. and S. Kaplan (2001): Creative destruction: why companies that are built to last underperform the market, and how to successfully transform them. New York: Currency/Doubleday. Garvin, D. A. and L. C. Levesque (2006): Meeting the challenge of corporate entrepreneurship. Harvard Business Review 84 (10), 102. Gemünden, H. G. (2001): Die Entstehung von Innovationen: Eine Diskussion theoretischer Ansätze. In: W. Hamel and H. G. Gemünden, eds. Außergewöhnliche Entscheidungen – Festschrift für Jürgen Hauschildt. München: Vahlen, 409–440. Gordon, T. J., et al. (2005): Frontiers of futures research: What’s next? Technological Forecasting & Social Change, 72(9), 1064–1069. Gruber, M., et al. (2003): Die Rolle des Corporate Foresight im Innovationsprozess: Ziele, Ausgestaltung und Erfahrungen am Beispiel der Siemens AG. Zeitschrift Führung + Organisation (zfo) 2003 (5), 285–290.

162

R. Rohrbeck und H. G. Gemünden

Haeckel, S. H. (2004): Peripheral Vision: Sensing and Acting on Weak Signals: Making Meaning out of Apparent Noise: The Need for a New Managerial Framework. Long Range Planning 37 (2), 181–189. Heraud, J. A. and K. Cuhls (1999): Current foresight activities in France, Spain, and Italy. Technological Forecasting and Social Change 60 (1), 55–70. Jasner, C. (2006): Walk of Pain. McKinsey Wissen, 1744–1749. Kondo, M. (2005): Networking for technology acquisition and transfer. International Journal of Technology Management 32 (1–2), 154–175. Krystek, U. (2007): Strategische Frühaufklärung. Zeitschrift für Controlling & Management (Sonderheft 2), 50–58. Krystek, U. and Müller-Stewens (1993): Frühaufklärung für Unternehmen: Identifikation und Handhabung zukünftiger Chancen und Bedrohungen. Stuttgart: Schäffer-Poeschel. Lackman, C. L., et al. (2000): Organizing the Competitive Intelligence Function: A Benchmarking Study. Competitive Intelligence Review 11 (1), 17–27. Lichtenthaler, E. (2002): Organisation der Technology Intelligence – Eine empirische Untersuchung der Technologiefrühaufklärung in technologieintensiven Grossunternehmen: Verlag Industrielle Organisation. Liebl, F. (2005): Technologie-Frühaufklärung: Bestandsaufnahme und Perspektiven. In: S. Albers and O. Gassmann, eds. Handbuch Technologie- und Innovationsmanagement: Strategie Umsetzung – Controlling. Wiesbaden Gabler, 119–136. Liske, S. (2007): Integrating Market & Customer Scouting into strategic and operational Innovation Management euroSF 2007 – European Conference for Strategic Foresight. Berlin, Germany: Chair for Technology and Innnovation Management, Technische Universität Berlin, 1–27. Martin, B. R. (1995): Foresight in Science and Technology. Technology Analysis & Strategic Management 7 (2), 139–168. Meade, N. and T. Islam (1998): Technological forecasting – Model selection, model stability, and combining models. Management Science 44 (8), 1115–1130. Nick, A. (2008): Wirksamkeit strategischer Frühaufklärung – Eine empirische Untersuchung Fakultät für Technologie und Management. Berlin: Berlin, University of Technology 232. Patton, K. M. (2005): The role of scanning in open intelligence systems. Technological Forecasting & Social Change 72 (9), 1082–1093. Rauscher, L.-H. (2004): Strategische Frühaufklärung: neuer Vorschlag zur finanziellen Bewertung. Lohmar; Köln: Eul. Reger, G. (2001): Technology foresight in companies: From an indicator to a network and process perspective. Technology Analysis & Strategic Management 13 (4), 533–553. Rohrbeck, R. (2007): Technology Scouting – a case study of the Deutsche Telekom Laboratories ISPIMAsia 2007 conference. New Delhi, India: International Society for Professional Innovation Management (ISPIM). Rohrbeck, R. and H. M. Arnold (2006): Making university-industry collaboration work – a case study on the Deutsche Telekom Laboratories contrasted with findings in literature. In: M. Torkkeli, R. Zutshi and S. Conn, eds. ISPIM 2006 Conference: “Networks for Innovation”. Athens, Greece: International Society for Professional Innovation Management (ISPIM), 11. Rohrbeck, R., et al. (2007): Strategic Foresight in multinational enterprises – a case study on the Deutsche Telekom Laboratories ISPIM-Asia 2007 conference. New Delhi, India: International Society for Professional Innovation Management (ISPIM). Roll, M. (2004): Strategische Frühaufklärung: Vorbereitung auf eine ungewisse Zukunft am Beispiel des Luftverkehrs. Wiesbaden: Dt. Univ.-Verl.

Die Rolle der Strategischen Frühaufklärung im Innovationsmanagement

163

Saffo, P. (2007): Six rules for effective forecasting. Harvard Business Review 85 (7–8), 122–131. Savioz, P. (2002): Technology Intelligence in technology-based SMEs. Zurich: ETH Zurich. Savioz, P. (2006): Entscheidungen in risikoreichen Projekten unterstützen. In: O. Gassmann and C. Kobe, eds. Management von Innovation und Risiko. Quantensprünge in der Entwicklung erfolgreich managen. Berlin: Springer, 331–357. Slaughter, R. A. (1996): Foresight beyond strategy: Social initiatives by business and government. Long Range Planning 29 (2), 156–163. Slaughter, R. A. (1997): Developing and Applying Strategic Foresight. ABN Report 5 (10), 13–27. Stevens, G. A. and J. Burley (1997) 3,000 raw ideas equal 1 commercial success! Research-Technology Management 40 (3), 16–27. Taylor, R. L. (1975): Technological Gatekeeper. R & D Management 5 (3), 239–242. Tschirky, H., et al. (2004): Technology marketing: a firm’s core competence? International Journal of Technology Management 27 (2–3), 115–122. Tsoukas, H. and J. Shepherd (2004): Coping with the future: developing organizational foresightfulness – Introduction. Futures 36 (2), 137–144. Van der Heijden, K. (2005): Scenarios: the art of strategic conversation. Chichester, West Sussex; Hoboken, N.J.: John Wiley & Sons. Wagner, C. S. and S. W. Popper (2003): Identifying critical technologies in the United States: A review of the federal effort. Journal of Forecasting 22 (2, 3), 113–128. Winter, S. G. (2004): Specialised Perception, Selection, and Strategic Surprise: Learning from the Moths and Bees. Long Range Planning 37 (2), 163–169.

Innovationsfördernde Unternehmensmerkmale und ihre Umsetzung durch computergestützte Informationssysteme Hermann Krallmann, Philipp Offermann und Annette Bobrik

In der globalisierten Welt ist die Innovationsfähigkeit eines Unternehmens zu einem entscheidenden Wettbewerbsfaktor geworden. Anhand einer Analyse von innovationsfördernden Organisationsstrukturen und Fallbeispielen kann festgestellt werden, dass es Unternehmensmerkmale gibt, die besonders in der Anfangsphase des Innovationsprozesses vorteilhaft sind. Diese Unternehmensmerkmale wie beispielsweise eine offene Unternehmenskultur, ein partizipativer Führungsstil und flache Hierarchien gilt es mit Hilfe von computergestützten Informationssystemen zu fördern. So bieten Groupware-Systeme und Social Software Möglichkeiten, die gewünschten Merkmale umzusetzen, und analytische Informationssysteme erleichtern die spezifische Ideenfindung.

Einführung Der globale, intensive Wettbewerbsdruck macht es für viele Unternehmen zunehmend schwerer, Wettbewerbsvorteile zu erlangen und gegen die Konkurrenz zu verteidigen. So sind Unternehmen immer mehr auf Innovationen angewiesen, da diese es ermöglichen, neue Märkte zu erschließen, sich an Kundenwünsche anzupassen und Effizienzgewinne zu erzielen. Der Innovationsprozess kann grundlegend in vier Phasen unterteilt werden. So findet die Problemerkennung und Ideensuche in der kreativen Phase, die Ideenauswahl und Weiterentwicklung in der selektiven Phase, die wirtschaftliche Betrachtung einer Innovation in der Planungsphase und die Markteinführung in der Realisierungsphase statt. Im Folgenden werden Organisationsstrukturmerkmale herausgearbeitet, welche die erste Phase des Innovationssprosses, also die Ideensuche, begünstigen. Die Mitarbeiter eines Unternehmens sind nach einer weltweiten Umfrage von IBM unter 965 Vorstandsvorsitzenden die bedeutendste Quelle an Innovationen für Unternehmen. Diesem Umstand wird Rechnung getragen, indem vor allem auf interne Prozesse und nicht auf die Bedeutung von Forschungs- und Entwicklungsabteilungen eingegangen wird, welche einen deutlich geringeren Einfluss bei der Innovationsfindung haben.1

1

Vgl. IBM (2006), S. 5f.

166

H. Krallmann, Ph. Offermann und A. Bobrik

Zunächst wird auf innovationsfördernde Strukturen aus Literatur und Praxis eingegangen, anschließend werden entscheidende innovationsfördernde Organisationsmerkmale herausgearbeitet und schließlich werden Möglichkeiten vorgestellt, wie diese Merkmale durch Informationstechnologien unterstützt werden können.

Innovationsfördernde Strukturen aus Literatur und Praxis Um Innovationen zu fördern, ist eine Organisationsstruktur erforderlich, die Formen der Kommunikation und Koordination über Abteilungsgrenzen hinaus zulässt. Dabei ist zu beachten, dass sowohl eine funktionale Organisation gewährleistet werden muss, die eine nach Verrichtung orientierte Routineorganisation berücksichtigt, als auch eine flexible Organisationsform, die parallel dazu abläuft. Zu den Anforderungen einer derartigen Organisationsform zählt zum einen eine hohe Leistungsfähigkeit, die Flexibilität, Veränderungsfähigkeit sowie Kooperationsbereitschaft innerhalb der Unternehmenseinheiten beinhaltet. Zum anderen ist eine Humanisierung des Unternehmens vonnöten, welche die Demokratisierung, Persönlichkeitsentfaltung, Selbstverwirklichung und Arbeitszufriedenheit der Mitarbeiter gewährleistet.2 Aus der Literatur sind hier vor allem die Matrixorganisation, die Projektorganisation, das Technologie-Monitoring, Kleingruppen und der Qualitätszirkel bekannt. Charakteristisch für eine Matrixorganisation ist eine zweidimensionale Hierarchie, welche einen simultanen Einsatz von Experten aus unterschiedlichen Disziplinen benötigt.3 Bei reinen Projektorganisationen werden die für das Projekt vorgesehenen Mitarbeiter im Unternehmen aus ihren Bereichen für die Dauer des Projektes freigestellt und im Projekt einem bestimmten Bereich zugeordnet.4 Technologie-Monitoring zeichnet sich dadurch aus, dass eine Vielzahl von Personen, die mit dem Unternehmen verbunden und für bestimmte technologische Themen sensibilisiert sind, miteinander in Kommunikation treten. Die Erkenntnisse, Informationen und Einfälle bezüglich ihrer Kernkompetenzen, Innovationsfelder oder Schlüsseltechnologien werden strukturiert gesammelt um sie schließlich auszuwerten.5 In Kleingruppen finden sich Teilnehmer für die Dauer eines Innovationsprojektes zusammen. Sie werden in die Instanzen Entscheidungsgremium, Projektgruppe und Prozessinnovationsteam unterteilt. Dabei bilden Vertreter der Geschäftsleitung, des Betriebsrates, sowie die Bereichs- und Projektleiter das Entscheidungsgremium. Die Projektgruppe ist zuständig für das Veranlassen der systematischen Planung, Koordination und Umsetzung des Innovationsprozesses. Die Prozessinnovationsteams bilden bereichsspezifische Kleingruppen, welche aufkommende Probleme während des Innovationsprozesses lösen.6 Ein Qualitätszirkel wird als eine Gruppe von sechs bis zwölf freiwilligen Mitarbeitern aus unterschiedlichen Bereichen beschrieben, die sich nach oder während der Arbeitszeit gemeinsam mit einem Problem beschäftigen und dem Management Bericht erstatten.7 2

Vgl. Thom (1992), S. 51.

3

Vgl. Holt (1991), S. 92.

4

Vgl. Siemers (1997), S. 87.

5

Vgl. Hasler und Hess (1996), S. 165f.

6

Vgl. Zink et al. (1993), S. 20ff.

7

Vgl. Siemers (1997), S. 95.

Innovationsfördernde Unternehmensmerkmale

167

Die Analyse der Unternehmen Google und Oticon soll nun weitere innovationsfördernde Aspekte verdeutlichen. Beide Unternehmen sind heute für ihre erfolgreichen Innovationskulturen bekannt, haben diese allerdings sehr unterschiedlich entwickelt. Google stellte seine Strukturen von der Gründung im Jahr 1998 an flexibel auf und stellt die Mitarbeiter in den Mittelpunkt. So ist die Gestaltung der Arbeitsräume modern und Meetings werden in entspannter Atmosphäre abgehalten. Es existieren flache Hierarchien, bei denen jeder Mitarbeiter als aktiver Mitwirkender der Firma angesehen wird. Die Mitarbeiter werden auch motiviert, bis zu 20 Prozent ihrer Arbeitszeit mit der Entwicklung eigener Ideen zu verbringen. Es wird in kleinen projektbezogenen Teams mit einem hohen Maß an lateraler Kommunikation und internem Wettbewerb gearbeitet.8 Entwicklungen werden auf der Google-Labs-Webseite für andere Mitarbeiter veröffentlicht, so dass diese Verbesserungen vorschlagen können.9 Der dänische Hörgerätehersteller Oticon wurde 1904 mit dem Ziel gegründet stetig neue Lösungen für Menschen mit Hörbehinderungen anzubieten. Das Unternehmen ist aufgrund seiner flexiblen „Spaghetti-Struktur“, die in den 90er Jahren im Zuge einer internen Neustrukturierung zustande gekommen ist, hervorzuheben. Dabei wurden die Mitarbeiter Projektteams zugeteilt, in denen sie selbstständig und gleichberechtigt ihre Aufgaben verrichten sollten. Es zeigte sich, dass die Mitarbeiter zwar motivierter aufgrund des gewonnenen Entscheidungsspielraums waren, allerdings eine gewisse Unzufriedenheit aufgrund fehlender monetärer Anreize aufkam.10 Diese Unstimmigkeiten wurden in der Folge behoben und eine klare Hierarchie innerhalb der Projektgruppen eingeführt.

Innovationsfördernde Unternehmensmerkmale Als Ergebnis einer detaillierten Analyse der genannten innovationsfördernden Organisationsformen und Fallbeispielen kann festgestellt werden, dass es Unternehmensmerkmale gibt, die besonders in der Anfangsphase des Innovationsprozesses vorteilhaft sind. Dazu gehören eine offene Unternehmenskultur, der Führungsstil des Managements, Mitarbeiterbeteiligung, flache Hierarchien, eine dezentrale Unternehmensstruktur, eine projektorientierte Arbeitsorganisation und ausgeprägte Kommunikationsnetze.

Unternehmenskultur Ein grundlegendes innovationsförderndes Merkmal stellt die Unternehmenskultur dar. Damit ein Unternehmen Innovationen hervorbringen kann, muss es über eine notwendige Innovationsbereitschaft verfügen und diese in seiner Unternehmenskultur verankern. Die Verantwortung dabei liegt beim obersten Management, welches für eine erfolgreiche Umsetzung der Kultur in die Unternehmensstrategie und der Organisation verantwortlich ist.11 Nach Homburg und Krohmer wird eine Unternehmenskultur aus vier Ebenen gebildet, wie in Abbildung 1 dargestellt.

8

Vgl. Google (2007).

9

Vgl. Hamel (2006), S. 35.

10

Vgl. Picot et al. (2003).

11

Vgl. Ebner und Walti (1996), S. 18.

168

Abbildung 1:

H. Krallmann, Ph. Offermann und A. Bobrik

Ebenen der Unternehmenskultur nach Homburg und Krohmer (2005), S. 1084

Werte drücken prinzipielle Zielsetzungen eines Unternehmens aus, die unternehmensweit für jeden Mitarbeiter gelten und meist in Leitsätzen formuliert werden. Für ein Unternehmen mit dem Ziel, Innovativität in der Unternehmenskultur zu kommunizieren und danach zu agieren, sind Werte wie Offenheit der internen Kommunikation, Qualität und Kompetenz, abteilungsübergreifende Zusammenarbeit und Wertschätzung der Mitarbeiter Voraussetzung.12 Siemers erklärt dabei folgende „Core values“ als grundlegend:13 • • • • • • •

Entwicklung kundenbezogener Technologien, Individuelle Autonomie und organisatorische Identifizierung, Risikobereitschaft und Fehlertoleranz, Informalität bei der Problemlösung, Effektivität innerhalb der Organisation und den Fachgebieten, hohe Leistungsstandards für kurz- und langfristige Planung und Betonung der Human Resources und die Wichtigkeit individuellen Wachstums und Entwicklung.

Normen stellen Verhaltensregeln dar, welche die Unternehmenswerte konkretisieren. Diese können beispielsweise die abteilungsübergreifende Zusammenarbeit zur Erfüllung von Kundenbedürfnissen oder die unternehmensinterne Weitergabe von Informationen sein.14 Auch weisen innovative Unternehmen Normen wie • informelles Verhalten, • keine spezifische Definition der Arbeitskleidung, lockeres Verhältnis zwischen Vorgesetzten und Untergebenen, • Flexibilität in der Entscheidungsfindung und bei Problem- und Konfliktlösungen und • starke informelle Bindungen innerhalb und außerhalb des Unternehmens auf.15 Werte und Normen in schriftlich verfasster Form wirken sich allein nicht auf die Ebene der Verhaltensweisen von Mitarbeitern aus. Vielmehr müssen sie über Artefakte umgesetzt 12

Vgl. Homburg und Krohmer (2005), S. 1078f.

13

Vgl. Siemers (1997), S. 72f.

14

Vgl. Homburg und Krohmer (2005), S. 1079.

15

Vgl. Siemers (1997), S. 74.

Innovationsfördernde Unternehmensmerkmale

169

werden, damit gewünschte Verhaltensweisen innerhalb des Unternehmens gelebt werden. Artefakte lassen sich durch Erzählungen, Sprache, Rituale oder Arrangements direkt wahrnehmen.

Führungsstil Das Führungsverhalten soll die beschriebenen Werte anwenden und auf das Mitarbeiterverhalten übertragen. Daher stellen Führungskräfte eine Schlüsselposition bei der Realisierung von Innovationskulturen dar. Jedes Management sollte sich im Rahmen seiner Innovationsstrategie ein klares Bild darüber gemacht haben, welche Kernwerte kommuniziert werden sollen und was Innovation für sie bedeutet. Ist diese Strategie noch nicht eindeutig entwickelt und formuliert, kann sie nur schwer im Unternehmen verbreitet werden. Durch zweifelsfreie Aktionen und Veröffentlichungen ist es möglich, Unsicherheiten auf Seiten der Mitarbeiter zu verhindern.16 Ziel eines innovationsfördernden Führungsstils sollte die Schaffung einer Unternehmenskultur ohne Misstrauen sein. Dabei ist es zentrale Aufgabe der Führungskräfte, ihre Mitarbeiter zum Mitdenken anzuregen. Zwingende Voraussetzung dafür ist die Bereitschaft der Manager, Macht nach unten abzugeben („empowerment“).17 Entscheidend dabei ist ein partizipativer Führungsstil mit dem Fokus auf Mitarbeiterorientierung.18 Das Delegieren von Aufgaben und damit auch von Verantwortung fördert die Autonomie der Mitarbeiter; die übertragenen Informations- und Entscheidungskompetenzen führen damit zu ihrer aktiven Einbindung.19

Beteiligung der Mitarbeiter Wie im vorangegangenen Abschnitt aufgezeigt, ist der Grad der Beteiligung der Mitarbeiter an Entscheidungsprozessen abhängig vom Führungsstil des Managements. Deren Aufgabe für die Schaffung eines innovativen Umfelds ist es, Mitarbeiter dahingehend zu motivieren und zu begeistern, dass sie für eine entsprechende Beteiligung bereit sind. In der Praxis hat sich gezeigt, dass die Beteiligten dafür idealer Weise über folgende Kriterien verfügen sollten:20 • Sich selbst steuernde und eigenverantwortlich handelnde Menschen. • Menschen, die selbst Initiative ergreifen und nicht auf die Anordnung von oben oder anderer warten. • Experten in ihrem Bereich, die jedoch offen für Schnittstellen und Übernahmen anderer Aufgaben sein sollten, um ihre funktionale und personale Kompatibilität zu stärken. • Informatoren, die Informationen als Hol- und Bringschuld sehen, danach handeln und nicht auf Informationen von anderen warten bzw. sie zurückhalten. • Innovatoren und Probierer mit Inspiration für Neues. • Partner, die sich selbst im Netzwerk sehen und partnerschaftlich und zielorientiert für die Integration anderer Mitglieder agieren. Für die Kommunikation zwischen den Mitarbeitern muss eine Struktur aufgebaut werden, die es ermöglicht, dass alle Beteiligten im Informationsaustausch aktiv integriert sind. Eine Tren16

Vgl. Siemers (1997), S. 75.

17

Vgl. Fischer (2000), S. 55.

18

Vgl. Nedeß und Mallon (1995), S. 222.

19

Vgl. Gebert (2004), S. 38.

20

Vgl. Pischetsrieder (2000), S. 183.

170

H. Krallmann, Ph. Offermann und A. Bobrik

nung Einzelner oder von Gruppen führt zu einem ungenügenden Informationsaustausch und lässt die Kommunikationsstruktur scheitern. In der Praxis zeigt sich oft, dass latentes Wissen einer Unternehmung nur einigen wenigen Mitarbeitern bekannt ist. Von allen Mitarbeitern werden oft nur wenige Wissenselemente aufgrund mangelnder Kommunikation, ungleicher Verteilung der Information oder mangelhafter Koordination geteilt. Auch zeitliche Engpässe oder räumliche Distanzen können Gründe für eine Behinderung von Informationsflüssen, was die Übermittlung von individuellem Wissen impliziert, während Entscheidungsprozessen oder Diskussionen sein. Ein entscheidendes Hindernis beim Informationsaustausch stellen strukturelle Organisationsfaktoren dar. Die Kombination von Hierarchie, Spezialisierung, Bereichsdenken und Überzentralisierung des Informationsmanagements hat strukturbedingte Wissensinseln zur Folge (siehe Abb. 2), die Wissens- und Informationsflüsse verhindern.21

Abbildung 2:

Entstehung von Wissensinseln nach Hasler und Hess (1996), S. 161

Hierarchie Der letzte Abschnitt hat gezeigt, dass eine aktive Beteiligung der Mitarbeiter durch Wissensaustausch erreicht werden kann. Diese setzt jedoch schwach ausgeprägte hierarchische Strukturen voraus. Solche zeichnen sich durch die Loslösung von starren Über- und Unterordnungsverhältnissen und das Ablegen von Herrschafts- und Machtverständnissen aus. Hierarchiegrenzen verschwimmen aufgrund der Beteiligung und Verantwortungsübertragung der Mitarbeiter und dem Kommunikationsaustausch zwischen den höheren und unteren Ebenen. Unter dem heutigen Hierarchieverständnis wird die Positionierung in Bewertungs- und Entscheidungsfindungsprozessen verstanden, in denen Prioritäten gesetzt sowie Ziele und Strategien gestaltet, modifiziert und durchgesetzt werden. Das Hierarchieverständnis zeigt eine Entwicklung weg von generellen, klar abgegrenzten Strukturen hin zu temporären und funktionalen Differenzierungen mit personeller Variabilität.22

Zentralisierungsgrad Aus flachen Hierarchien und einem innovationsfördernden Führungsstil ergibt sich die Anforderung an eine dezentrale Unternehmensstruktur. Um Transparenz zu gewährleisten, sind über21

Vgl. Hasler und Hess (1996), S. 161.

22

Vgl. Pischetsrieder (2000), S. 177.

Innovationsfördernde Unternehmensmerkmale

171

schaubare Strukturen erforderlich, die am besten durch Prozessausrichtung umgesetzt werden können. Bei der Bearbeitung der Prozesse ist es wichtig, dass nicht zu viele Arbeitseinheiten existieren, um die Anzahl der Schnittstellen zu minimieren und so Komplexität zu verringern.23 Charakteristika dieser Prozessbearbeitung sind die verteilten Verantwortungen und Kompetenzen der einzelnen Organisationseinheiten und die damit verbundene ausgeprägte Autonomie der Prozess- bzw. Problembearbeitung. In welcher Form die Prozessbearbeitung von Seiten der Mitarbeiter bewältigt werden, wird im nächsten Abschnitt behandelt.

Arbeitsorganisation Für die Prozessbearbeitung ist eine Festlegung der Arbeitsorganisation erforderlich. Dabei ist eine Arbeit in Projekten vorzuziehen, die von Teams betreut und bearbeitet werden. Das Arbeitsumfeld der Mitarbeiter sollte so gestaltet werden, dass die beteiligten Personen innerhalb des Unternehmens sowohl im Team auf Probleme stoßen und kreativ agieren, als auch allein kreative Beiträge beisteuern können. Dabei kann ein einzelner z. B. seine Anregungen direkt mit dem Vorgesetzten besprechen, als auch schriftlich ablegen. Darüber hinaus hat er die Möglichkeit, seine Ideen mit anderen Kollegen zu diskutieren. Mithin birgt diese Form der engen Zusammenarbeit das Potenzial, zusätzliche Informations- und Kommunikationsebenen zu nutzen und stärker mit Experten anderer Gebiete zu kooperieren, um auf Probleme zu stoßen und diese zu lösen.24 Das Arbeitsumfeld sollte den Ansprüchen der Kreativität gerecht werden, indem es das Potenzial der Mitarbeiter fördert und die Möglichkeit eröffnet, dass sich jeder Einzelne hervortun und entfalten kann. Dafür sind vor allem drei Voraussetzungen wichtig: Komplexität der Tätigkeit, unterstützende nicht-autoritative Vorgesetzte und anregende Kollegen. Die Bewältigung komplexer Tätigkeiten motiviert die Mitarbeiter und macht sie zufriedener und oft auch produktiver.25 Dabei müssen die einzelnen Mitarbeiter einerseits über ein breit gefächertes Fachwissen verfügen, die in kleinen und flexiblen Teams zum Einsatz kommen, andererseits ist eine Zusammenarbeit zwischen Experten erforderlich, welche divergierende Kompetenzen aufweisen sollten. Eine effektive Zusammenarbeit erfordert in diesem Zusammenhang die Abschätzung der Auswirkungen eigener Veränderungen oder Festlegungen auf die Arbeitsinhalte anderer Teammitglieder.26

Teamarbeit Es zeigt sich, dass Teamarbeit den Schlüssel für eine innovationsfördernde Organisationsstruktur darstellt. Sie wird von vielen Unternehmen eingesetzt um schlanke Unternehmenshierarchien zu gewährleisten.27 Unter einem Team wird eine Anzahl von Personen verstanden, die aufgrund ihrer Arbeit und ihrer Aktivitäten miteinander verbunden sind. Diese Verbundenheit ist für die Freisetzung von Kreativität von immenser Bedeutung. Die Kombination aus einer 23

Vgl. Nedeß und Mallon (1995), S. 224.

24

Vgl. Bullinger (1995), S. 191.

25

Vgl. Cummings und Oldham (1998), S. 36.

26

Vgl. Bullinger (1995), S. 191.

27

Vgl. Wildemann (1995), S. 20.

172

H. Krallmann, Ph. Offermann und A. Bobrik

eindeutigen Zielorientierung und der Freiheit, den Weg zum Ziel selbst zu bestimmen, fördert den Teamgeist und den -erfolg.28 Gerade der Teamgeist beschreibt ein besonderes Gefühl der Zusammengehörigkeit, wodurch sich ein Team von einer Gruppe unterscheidet.29 Dieses drückt sich durch das Verantwortungsgefühl für das Team und dessen Aufgaben, die Hilfsbereitschaft als Norm und Handlung, die Lernintensität sowie das Generieren und Implementieren von neuen Vorgehensweisen aus.30 Die dabei entstehende Identifikation und Akzeptanz auf Gefühlsebene hat wiederum einen Einfluss auf die Bewusstseinsinhalte der Mitglieder im Sinne der Unternehmenskultur. Innerhalb von Teams ist eine Koordination und Integration individueller Fähigkeiten und Kenntnissen möglich, wodurch kreative Potenziale der Teammitglieder entfaltet werden können, die vor allem auf qualitativer Ebene über die Einzelleistungen der Mitglieder hinausgeht (Synergie-Effekt). Der bedeutendste Vorteil solcher Arbeitsgruppen liegt in der Verfügung über eine größere Informationsmenge, durch dessen Zusammenführungen Probleme schneller erkannt werden können und aufgrund der Kooperation mit anderen bessere Problemlösungen und produktive Lerneffekte erzielt werden.31

Kommunikation Bei der Kommunikation mit anderen Mitarbeitern innerhalb eines Unternehmens ist in der Regel festzustellen, dass nicht oder ungenügend zwischen Teams oder Bereichen kommuniziert wird. Grafisch lässt sich dies wie in Abbildung 3 modellieren, in der jeder Punkt einen Bereich, ein Team oder eine Einzelperson darstellt, die über eine gewisse Menge an Informationen und Wissen verfügt. Die Verbindungen zwischen den Punkten kennzeichnen vorhandene Kommunikationswege und beziehen damit auch Wissensaustausch mit ein. Es zeigt sich, dass eine ungenügende Kommunikation zu Informations- bzw. Wissensinseln führt.

Abbildung 3: Wissensinseln aufgrund ungenügender Kommunikation

28

Vgl. Gebert (2004), S. 38.

29

Vgl. Siemers (1997), S. 83.

30

Vgl. Gebert (2004), S. 38f.

31

Vgl. Fischer (2000), S. 61f.

Abbildung 4: Ausgebaute Kommunikarionsnetze zwecks Wissensverknüpfung

Innovationsfördernde Unternehmensmerkmale

173

Um ein Problem zu erkennen, ist der Wissensaustausch von Mitarbeitern aus verschiedenen Abteilungen essentiell, da nur dadurch unterschiedliche Denkansätze von Mitarbeitern aus verschiedenen Fachbereichen für die Problemerkennung zur Verfügung stehen können. Somit definiert sich das Ziel, einzelne Bereiche, Teams und Mitarbeiter über Kommunikationswege zusammenzubringen um einen Wissenstransfer zu erreichen. Abbildung 4 lässt darauf schließen, dass eine stark ausgeprägte Kommunikation zwischen den Einheiten stets netzartig ausgeprägt ist. Diese Netzstruktur erfordert informelles Verhalten zwischen den Einheiten und vor allem einen intensiven Informationsaustausch über Abteilungsgrenzen hinweg. Informelles Verhalten erfordert eine offene Kommunikation und Aussprache zwischen den Mitarbeitern und stellt die Basis des Informationsaustauschs dar. Dabei ist die Offenheit dahingehend eingeschränkt, dass gewisse Kommunikationsspielregeln eingehalten werden müssen, die dafür sorgen sollen, dass sich alle Mitarbeiter respektieren und auf einer konstruktiven Ebene diskutieren können. Mithin wird eine Atmosphäre angestrebt, welche unterschiedliche Ansichten erwünscht, die von übrigen Mitarbeitern auch erkannt und für den Informationsaustausch genutzt werden. Diese Offenheit zwischen den Mitarbeitern und ihren Vorgesetzten zu bewirken, ist Aufgabe des Führungsmanagements.

Computergestützte Informationssysteme Während des gesamten Innovationsprozesses können computergestützte Informationssysteme als „Enabler“ eingesetzt werden. Gerade bei der wichtigen Vernetzung der Mitarbeiter und Ermöglichung informellen Informationsaustauschs über Hierarchien hinweg bieten GroupwareSysteme und Social Software gute Möglichkeiten. Analytische Informationssysteme und der sogenannte Kreativitätsassistent hingegen können gezielt zur Unterstützung bei der Ideenfindung eingesetzt werden.

Groupware-Systeme Der Einsatz von Groupware-Systemen stellt ein geeignetes Instrument für die Unterstützung der Informationsweiterleitung bei der Teamarbeit dar. Unter Groupware versteht man computergestützte Systeme, welche einer Gruppe von Personen unterstützend bei ihrer Aufgabenerfüllung beiseite stehen.32 Sie unterstützen die kooperative Arbeit und erlauben den Austausch von Informationen und Dokumenten auf elektronischem Wege. Zudem besteht die Möglichkeit, Materialien in gemeinsamen Speichern zu bearbeiten und zu koordinieren.33 Ziel dabei ist es, das gemeinschaftliche Arbeiten der Gruppe dahingehend zu verbessern, dass die Arbeitsabläufe flexibler und effizienter werden. Im allgemeinen Sinne stellt Groupware ein Informations- und Kommunikationsinstrument dar, was bei der Entwicklung und Umsetzung von organisatorischen Konzepten zum Einsatz kommt. Lotus Notes/Domino, Novell Groupwise und Microsoft Exchange sind Beispiele für kommerziell erfolgreiche Groupware-Systeme. Besondere Anwendung finden diese Systeme bei elektronischen Nachrichtenversendungen, Mehr-Autoren-Systemen, welche die Bearbeitung eines gemeinsamen Dokumentes unterstützen, Planungs- und Koordinierungs-Systeme, die individuelle Aufgaben und Aktivitäten planen und individuelle 32

Vgl. Frosch-Wilke (2003), S. 462.

33

Vgl. Luczak (1995), S. 139.

174

H. Krallmann, Ph. Offermann und A. Bobrik

Handlungen anderer Gruppenmitglieder koordinieren sowie Systeme zur Unterstützung von synchronen und asynchronen Sitzungen.34

Social Software Im Hinblick auf die Realisierung einer innovationsfreundlichen Unternehmenskultur und einem entsprechenden Führungsstil ist es wichtig, informelle Kommunikationswege zu fördern. Social Software wird heute viel im privaten Bereich genutzt und einige bemerkenswerte Unternehmenserfolge wie Facebook und das deutsche StudiVz können auf dem Gebiet verzeichnet werden. Diese Firmen stellen Netzwerke im Internet zur Verfügung, mit denen sich private Nutzer austauschen und in Kontakt bleiben. Sie basieren auf dem gleichen Gedanken, den es in Unternehmen zu fördern gilt, nämlich der Vernetzung und dem Wissensaustausch. Unternehmen könnten die Technologie auf ähnliche Weise nutzen und so den Mitarbeiterzusammenhalt fördern. Gerade die angesprochenen Werte und Normen wie Offenheit der internen Kommunikation, informelles Verhalten, ein lockeres Verhältnis zwischen Vorgesetzten und Untergebenen und starke informelle Bindungen innerhalb und außerhalb des Unternehmens können anhand solcher Netzwerke unterstützt werden. Andere Beispiele für Social Software sind Weblogs und Wikis. Über Weblogs können Einträge erstellt und kommentiert werden, die über eine Webseite bereitgestellt werden. Diese Art der personalisierten Nachrichtendarstellung hat den Vorteil, dass Nachrichten nicht einzeln, sondern zentral abgerufen, sortiert und archiviert werden können und dadurch einen Überblick über eine große Anzahl an Beiträgen gewährleisten. Gründe für die Nutzung eines Weblogs liegen darin, Ideen aufzugreifen, zu kommentieren und zu verlinken. Suchfunktionen und die Zuordnung der Einträge nach Kategorien erlauben das Organisieren, Archivieren und Wiederauffinden von Informationen.35 Diese Art von Informationsbereitstellung ist ein potenzielles Mittel für die Verwendung in Bereichen von Unternehmen, in denen prozessgebundenes Wissen entsteht. Beispiele hierfür sind die Dokumentation von Entwicklungsprojekten oder die Kommunikation zwischen Mitarbeitern oder im Austausch mit Kunden.36 Somit stellen Weblogs eine ideale Unterstützung für kollaborative Entwicklungsprozesse dar. Wikis umfassen eine Sammlung von Webseiten, die jeder Nutzer editieren kann. Texte werden nach eigenem Wissen und eigenen Vorstellungen geändert und abgespeichert. Zudem verfügen Wikis über Markups, um Texte zu strukturieren und zu verlinken. Mittels einer Volltextsuche können alle Seiten nach bestimmten Themen durchsucht werden. Während die interne Nutzung von „Communites“ im Stil von Facebook eher der Umsetzung einer innovationsfördernden Unternehmenskultur dient, ermöglichen Weblogs und Wikis eine individuelle als auch eine kollaborative Wissensverarbeitung für die Mitarbeiter. Zum einen können diese Technologien persönlich als Ort für die Speicherung von Gedanken bzw. Notizen genutzt werden, zum anderen dienen sie als Kommunikationskanal für eine Gruppe von Menschen oder können als Koordinationswerkzeug bei Projektarbeiten eingesetzt werden. Diese 34

Vgl. Frosch-Wilke (2003), S. 462ff.

35

Vgl. Robes (2005), S. 3f.

36

Vgl. Fraunhofer IESE (2005), S. 7ff.

Innovationsfördernde Unternehmensmerkmale

175

Verwendungsarten unterstützen die Umsetzung des Wissensmanagements innerhalb eines Unternehmens. Für beide Technologien gilt, dass sich Menschen selbst organisiert mit einem bestimmten Thema befassen und die Auseinandersetzung für sich selbst und für andere offen und transparent zugänglich machen.

Analytische Informationssysteme Innovationen werden in der Privatwirtschaft mit einem wirtschaftlichen Zweck umgesetzt. So ist es wichtig, möglichst früh während des Innovationsprozesses auf umfassende Daten über Kundenverhalten, interne Prozessabläufe oder Markentwicklungen zugreifen zu können. Auch können derartige Daten den Ansatz für einen Innovationsprozess liefern. Für die themengebundene Informationsbereitstellung können analytische Informationssysteme eingesetzt werden. Daten werden in einem Data Warehouse themenorientiert, vereinheitlicht, zeitorientiert und beständig zur Verfügung gestellt. Analysesysteme wie Data Access, On-Line Analytical Processing (OLAP) oder Data Mining werden anschließend für die Aufbereitung der Daten eingesetzt.

Kreativitätsassistent Grabowsky und Kurz stellten bereits 1995 einen sogenannten Kreativitätsassistenten vor, der bei der Koordination von Kreativitätstechniken wie Brainwriting und Brainstormingsitzungen verwendet werden kann.37 Diese Techniken werden oft in Teams während der Phase der Ideensuche genutzt. Ziel ist es, durch die Kombination des Wissens unterschiedlicher Gruppenmitglieder Ideen zu einem gegebenen Problem zu generieren und diese Ideen anschließend zu bewerten. Dabei obliegt es einem Gruppenleiter, Anschauungsmaterial zu sammeln und die Sitzung zu moderieren. Der Kreativitätsassistent ist ein technisches Hilfsmittel derartiger Sitzungen, mit dem standortübergreifend eine schnelle Visualisierung der Ergebnisse unterstützt wird.

Zusammenfassung Die kontinuierliche Entwicklung von Innovationen erfordert im ersten Schritt die Erkennung von Problemen oder die Suche nach Ideen. Das Bewusstsein über die Existenz eines Missstandes regt die Kreativität an, neue Ideen zu generieren. Der kontinuierliche Innovationsprozess erfordert Kommunikation im Team, was unterschiedliche Anforderungen an eine Organisationsstruktur stellt. In Bezug auf die Unternehmenskultur steht die Mitarbeiterorientierung im Fokus, welche durch Werte wie Offenheit und individuelle Wertschätzung geprägt ist. Zudem muss eine klare Linie des informellen Verhaltens zwischen Führendem und Geführten verfolgt werden. Die Umsetzung dieser ist Element des Führungsstils. Ein kooperatives und partizipatives Führungsverhalten führt zu einer höheren Beteiligung der Teammitglieder. Eine offene Kommunikation begünstigt flache Hierarchien und fördert den Austausch von Informationen, was die Bildung von Wissensinseln schwächt.

37

Vgl. Grabowski und Kurz (1995), S. 176ff.

176

H. Krallmann, Ph. Offermann und A. Bobrik

Diese Organisationsstrukturen können mittels computergestützter Informationssysteme unterstützt werden, da insbesondere Kommunikationswege erleichtert werden, wodurch Wissen generiert und weiterentwickelt wird. So sind Groupware-Systeme vorteilhaft für die Informationsweiterleitung bei der Teamarbeit und Social Software kann zur Umsetzung einer innovationsfördernden Unternehmenskultur eingesetzt werden. Analytische Informationssysteme können bei der Problemerkennung und -analyse eingesetzt werden. Literatur Bullinger, H.-J. (1995): Methodische Unterstützung zur kreativen Produktentwicklung. In: [Buchverf.] R. Reichwald und H. Wildemann. Kreative Unternehmen: Spitzenleistungen durch Produkt- und Prozessinnovationen. Stuttgart: Schäffer-Poechel. Cummings, A. und Oldham, G. (1998): Wo Kreativität am besten gedeiht. Harvard Business Manager. 1998, 4. Ebner, M. und Walti, A. (1996): Innovationsmanagement als Antwort auf den zunehmenden Wettbewerbsdruck. In: [Buchverf.] M. Gassmann O./v. Zedtwitz. Internationales Innovationsmanagement. München: Vahlen. Fischer, U. (2000): Ideenmanagement: Förderung der Mitarbeiterkreativität als Erfolgsfaktor im Unternehmen. Frankfurt am Main: Bund-Verlag. Fraunhofer IESE (2005): [Online] 6. Oktober 2005. [Zitat vom: 4. Januar 2008.] http://66.102.1.104/scholar?hl=de&lr=lang_de&q=cache:AVRzuRjM9YEJ:www.iese.fraunhofer.de/pdf_files/iese-030_05.pdf+ social+software. Frosch-Wilke, D. (2003): Spezielle Anwendungskonzepte: Groupware und Workflow-Management-Systeme. In: [Buchverf.] G. Disterer; F. Fels und A. Hausotter. Taschenbuch der Wirtschaftsinformatik, 2. Auflage. München: Fachbuchverlag Leipzig. Gebert, D. (2004): Innovation durch Teamarbeit: Eine kritische Bestandsaufnahme. Stuttgart: Kohlhammer. Google (2007): The Google Culture. [Online] 2007. [Zitat vom: 5. Januar 2008.] http://www.google.de/intl/ de/corporate/culture.html. Grabowski, H. und Kurz, A. (1995): Produktentwicklung mit kreativitätsunterstützenden Systemen. In: [Buchverf.] R. Reichwald und H. Wildemann. Kreative Unternehmen: Spitzenleistungen durch Produktund Prozessinnovationen. Stuttgart: Schäffel-Poechel. Hamel, G. (2006): Die besten Managementkonzepte. Harvard Businessmanager. Hasler, R. und Hess, F. (1996): Management der intellektuellen Ressourcen zur Steigerung der Innovationsfähigkeit. In: [Buchverf.] O. Gassmann und M. v. Zedtwitz. Internationales Innovationsmanagement. München: Vahlen. Holt, K. (1991): What is the best way of organizing projects? In: [Buchverf.] W. Heyde. Innovationen in Industrieunternehmen: Prozesse, Entscheidungen und Methoden. Wiesbaden: Gabler. Homburg, C. und Krohmer, H. (2005): Marketinginstrumente: Strategie – Instrumente – Umsetzung – Unternehmensführung. Wiesbaden: Gabler. IBM (2006): Global CEO Study 2006 – Expanding the Innovation Horizon. [Online.] [Zitat vom: 4. Januar 2008.] https://www-5.ibm.com/webutils/sendmail.pl?form_cfg=/services/uk/ceo_form–ceo_form_form. Lee, S. (2006): Innovationsfördernde Ausprägungen von Organisationsstrukturmerkmalen. Berlin: Fachgebiet Systemanalyse und EDV, Technische Universität Berlin. Luczak, H. (1995): Kooperative Konstruktion und Entwicklung. In: [Buchverf.] R. Reichwald und H. Wildemann. Kreative Unternehmen: Spitzenleistungen durch Produkt- und Prozessinnovationen. Stuttgart: Schäffer-Poechel. Nedeß, C. und Mallon, J. (1995): Die Neue Fabrik. In: [Buchverf.] R. Reichwald und H. Wildemann. Kreative Unternehmen: Spitzenleistungen durch Produkt- und Prozessinnovationen. Stuttgart: SchäfferPoechel.

Innovationsfördernde Unternehmensmerkmale

177

Picot, A.; Reichwald, R. und Wigand, R. (2003): Die grenzenlose Unternehmung, 5. Auflage. Wiesbaden: Gabler. Pischetsrieder, G. (2000): Organisationsentwicklung 2010 – Veränderung und Kontinuität als Erfolgssymbiose. In: [Buchverf.] S. Haarbeck. Deutschland 2010 – Szenarien der Arbeitswelt von morgen. Köln: Dt. Wirtschaftsdienst. Robes, J. (2005): What’s in it for me? Über den Nutzen von Weblogs für Wissensarbeiter. [Online] Juli 2005. [Zitat vom: 4. Januar 2008.] http://www.weiterbildungsblog.de/archives/whats_in_it_for_me.pdf. Siemers, S. (1997): Innovationsprozess im Mittelstand: teamorientierte Arbeitsformen zur Förderung von Innovationen. Wiesbaden: Deutscher Universitäts-Verlag. Thom, N. (1992): Innovationsmanagement. Bern: Schweizerische Volksbank. Wildemann, H. (1995): Restrukturierung und Mitarbeiterinvolvierung: Strategien zur Neupositionierung von Unternehmen. In: [Buchverf.] R. Reichwald und Wildemann H. Kreative Unternehmen: Spitzenleistungen durch Prozessinnovationen. Stuttgart: Schäffer-Poechel. Zink, A.; Ritter, A. und Thul, M. (1993): Mitarbeiterbeteiligung bei Prozessinnovationen – Verknüpfbarkeit von Wirtschaftlichkeit und Humisierung der Arbeit bei der Einführung neuer Technologien. Bremerhafen: Wirtschaftsverlag NW.

Innovation, Produktion, Expansion – Toyota oder wie eine Managementphilosophie die Leistungspotentiale der Mitarbeiter systematisch nutzt René Haak

Toyota – herausragende Gewinne, weitere Expansion Toyota weist von Jahr zu Jahr immer höhere Gewinne aus und setzt seine Expansion auf den unterschiedlichsten Märkten der Welt rasant fort. Neue Produktionsstätten entstehen in den wichtigsten Nachfragezentren der Welt. Innovative Produkte und Produktionsverfahren stützen die Expansionsanstrengungen des japanischen Autobauers, der im Jahr 2007 nach eigenen Angaben 9,366 Millionen Fahrzeuge verkauft hat. Damit liegt Toyota zwar noch rund 3000 Fahrzeuge hinter dem amerikanischen Wettbewerber General Motors Corp. (GM), der vorläufig für das Jahr 2007 den Verkauf von 9,369 Millionen Fahrzeugen gemeldet hat, aber bei den reinen Produktionszahlen für 2007 liegt Toyota mit 8,535 Millionen Fahrzeugen um rund 2000 Fahrzeugen über den Zahlen von GM. Aber nicht nur das zeigt den Aufstieg von Toyota zur „number one“ der international aktiven Automobilhersteller. Auch gemessen an wirtschaftlichen Kenndaten wie Gewinn oder Marktkapitalisierung, führt Toyota klar vor GM- und dies nicht erst seit dem letzten Jahr. Nachdem Toyota vor allem in den 80er Jahren Produktionsstätten in den USA errichtete, dann verstärkt in den 90er Jahren einen durchgreifenden Trend zur Internationalisierung mit weltweit neuen Fertigungsstätten betrieb, wurden die Produktions- und Absatzzahlen kontinuierlich gesteigert. Vor allem auch das zunächst zaghafte, dann seit 2002 verstärkte Engagement in China, Westund Mitteleuropa, Russland und die weiterführende Expansion in den USA führten zu einer dynamischeren Entwicklung als diejenige von GM, Ford und Volkswagen. General Motors beispielsweise setzt eher auf Kooperationen und Firmenübernahmen, um seine Marktstellungen auszubauen und zu festigen, während sich Toyota in erster Linie auf sein eigenständigen Fertigungs- und Management Know-how verlässt, um seine Expansion fortzusetzen. Auch der frühe Einstieg in die Entwicklung umweltfreundlicher Hybridauto verschaffte dem Unternehmen im internationalen Wettbewerb grundlegende Vorteile. Die Produktions- und Innovationspolitik eingebettet in eine spezifische Unternehmensphilosophie bei Toyota spielt für den rasanten Aufstieg von Toyota an die Spitze eine zentrale Rolle. Grund genug, einmal einen Blick auf die Managementphilosophie des japanischen Automobilbauers zu werfen.

180

R. Haak

„The Toyota Way“ Die intensive Beschäftigung und Auseinandersetzung mit dem japanischen Management aus westlicher Perspektive hat nun mittlerweile eine mehr als zwanzigjährige Tradition. So gab es vor allem in den achtziger und frühen neunziger Jahre einen wahren Boom von wissenschaftlichen und populärwissenschaftlichen Veröffentlichungen, deren Autoren dem „Geheimnis des japanischen Erfolges“ auf die Spur kommen wollten. Das Unternehmen Toyota bildete einen zentralen Kern der Betrachtungen. Zu der bekanntesten Schrift westlicher Forscher zählt die Arbeit mit dem einprägsamen Titel The Machine that Changed the World der Wissenschaftler Womack, Jones und Ross vom MIT (Massachusetts Institute of Technology) aus dem Jahre 1990, die ganze Legionen von Produktionswissenschaftlern, Managementforschern und Praktikern in ihren Bann zog und wesentlich das Bild über das japanische Produktionsmanagement im Westen und die weitere Forschung bestimmte, aber auch das Selbstverständnis des japanischen Produktionsmanagements beeinflusste. Im Verlauf des internationalen Forschungsprogramms IMVP (International Motor Vehicle Program) erhoben die Forscher am MIT zwischen den Werken der Automobilindustrie bestehende Produktivitätsunterschiede weltweit. Die Forscher leiteten aus den Daten dieser Studie die Grundzüge des japanischen Produktionssystems ab, das unter dem von ihnen geprägten Begriff Lean Production bekannt und in der Folge mit dem japanischen Produktionsmanagement in der Automobilindustrie, vor allem mit dem Toyota-Produktions-System (TPS), häufig gleichgesetzt wurde. War es wirklich nur eine Technik, waren es im Kern nur Instrumente eines Systems, dass den Erfolg insbesondere von Toyota bis heute bestimmen?

Managementphilosophie Toyota Welche Managementphilosophie steht hinter diesem Erfolg? Wie kommt es, dass Toyota von Jahr zu Jahr seinen Gewinn steigert, das Unternehmen weiter weltweit expandiert, auch wenn die japanische Wirtschaft zwischenzeitlich in schwieriges Fahrwasser geriet und andere japanischer Automobilhersteller lange kämpfen mussten, um sich im Marktgeschehen weiter zu behaupten? Das Toyota-Produktions-System, welches auf die industrielle Praxis und die produktionswissenschaftliche Forschung nicht nur in Japan prägend wirkte, verkörpert in der Produktionsform des Lean Production (Boesenberg, Metzen, 1993; Clark, Fujimoto, Stotko, 1992) den unternehmerischen Ansatz, die Fabrik als Gesamtsystem zu begreifen. Die grundlegende Unternehmungsstrategie hat den einzelnen Arbeitsplatz und auch die gesamte Werkstatt als übergreifendes Arbeitssystem im Blick. Im Kern berührt der Toyotismus die Entwicklungssäulen des Produktionsmanagements: Fertigungstechnik und Arbeitsorganisation. Er versucht unter Vermeidung jeglicher Verschwendung, die Vorteile handwerklicher Produktion – Taylors zentrales Rationalisierungsinteresse – mit den Vorteilen der Massenproduktion (Ideen des Fordismus) zu vereinigen (Clark, Fujimoto, Stotko, 1992). Neben Arbeitsorganisation und Fertigungstechnik (System der Autonomatisierung, japanisch jidoka) erlangte die interne und externe Produktionslogistik (Just-in-Time) im Zuge der Verbreitung des Toyotismus eine Schüsselstellung für den Unternehmungserfolg (Clark, Fujimoto, Stotko, 1992). Das Management von Toyota versteht Just-in-Time und jidoka als die zwei

Innovation, Produktion, Expansion

181

zentralen Säulen des Toyota-Produktion-Systems (Ohno, 1978; Nihon Noritsu Kyokai, 1978, Monden, 1983), wobei die spezifische Arbeitsorganisation nicht explizit betont wird, obwohl sie einen erheblichen Anteil an dem Erfolg des Toyota-Produktions-Systems hat (Boesenberg; Metzen, 1993; Whitehill, 1995). Der Begriff jidoka kann mit dem Begriff der Autonomatisierung umschrieben werden. Dieser Begriff umfasst zum einen das Konzept der Automatisierung und zum anderen das der autonomen Fehlerkontrolle und Ursachenbeseitigung. Bei automatisierten Arbeitsprozessen kommt es zum Stillstand der Werkzeugmaschinen, sobald ein Fehler bzw. Qualitätsmängel aufgetreten sind. Weitergearbeitet werden kann erst dann wieder, wenn die Ursache für diese Problem beseitigt wurde (Jürgens, 1993). Durch die Unterbrechung eines Arbeitsschrittes kann es zum Stillstand der gesamten Produktion kommen, da unter den Voraussetzungen des Kanban-Systems nur minimale Zwischenlager vorgesehen sind. Teilweise entfallen diese Zwischenlager oder auch Puffer sogar ganz. Die Mitarbeiter im Produktionsprozess müssen daher in der Lage sein, den Fehler so schnell als möglich zu erkennen und umgehend die entsprechenden Schritte zur Fehlerbeseitigung einzuleiten, um die Produktionsunterbrechungszeiten zu minimieren (Clark, Fujimoto, Stotko, 1992). So sind beispielsweise für alle Arbeitsplätze Leuchtanzeigen, sogenannte Andon vorgesehen, die im Falle eines auftretenden Problems die hierfür im Produktionsabschnitt vorgesehenen Mitarbeiter alarmieren. Die potentielle Störanfälligkeit des Produktionssystem auf der Basis von Autonomatisierung, Qualitätssicherung und Kostensenkung hat dem Toyotismus auch den Beinamen des Management by Stress eingetragen (Parker, Slaughter, 1988). Bei diesem Produktionssystems ist zu bedenken, dass sich die Überstundenproblematik der Mitarbeiter in der Produktion verschärft, da vor allem Maschinenausfallzeiten zur Fehlerkorrektur nachgeholt werden müssen. Darüber hinaus kann auch der soziale Druck auf weniger leistungsstarke Mitarbeiter in der Gruppe zu einem Problem für die Leistungsfähigkeit und Motivation aller Gruppenmitglieder werden. Unter dem Blickwinkel der Unternehmung als lernende Organisation kann Stress jedoch auch lern fördernd wirken, solange er sich in einem bestimmten Rahmen bewegt (zu beachten hierbei beispielsweise Intensität, Zeitdauer, individuelle Konstitution, soziale Normen etc.). Die Betrachtung des Systems Autonomatisierung aus lerntheoretischer Betrachtungsweise wertet Stress somit nicht durchgehend negativ. Lean Production wurde bei der Produktion von Personenkraftwagen in den Betrieben der Toyota Motor Company entwickelt. Anwendung fand das System vornehmlich in der Automobil- und Automobilzulieferindustrie. Beschränkt auf Japan blieb dieses Produktionssystem nicht, auch in anderen Volkswirtschaften wurden durch die wirkungsvollen Produktionsstrukturen erhebliche Produktivitäts- und Qualitätseffekte erzielt (Schmitt, 1998; Yui, 1999). Der Ansatz der schlanken Produktion geht zurück auf Eiji Toyoda und Taiichi Ôno. In der bekannten Schrift The Machine that Changed the World werden die Erfolgsfaktoren von Toyota mit Technologieführerschaft, Kostenführerschaft und Zeitführerschaft benannt (Womack, Jones, Roos, 1990). Die Autoren sehen in ihrer vergleichenden Studie als Haupterfolgsfaktor japanischer Unternehmungen ihre spezifische Produktionsweise, Lean Production genannt, die sich von den europäischen und amerikanischen Unternehmungen unterscheidet. In der schlanken Produktion werden nach Auffassung der Autoren die Vorzüge der handwerklichen Produktion mit denen der

182

R. Haak

Massenproduktion verknüpft, wobei der Versuch unternommen wurde, die hohen Kosten der handwerklichen Fertigung und die Starrheit der Massenproduktion zu vermeiden. Hierbei arbeiten auf der einen Seite, wie auch bei der handwerklichen Produktion, vielseitig ausgebildete Arbeitskräfte in Gruppen zusammen, auf der anderen Seite werden ähnlich der Massenproduktion große Produktionsmengen aus standardisierten Teilen mit Hilfe von flexiblen, automatisierten Fertigungsmaschinen hergestellt (Womack, Jones und Roos 1990). Der internationale Vergleich zwischen Massenproduktion und schlanker Produktion ergibt folgende Charakteristika der schlanken Produktion (Womack, Jones, Roos, 1990): • • • • • • • •

weniger Fehler bei der Herstellung von Automobilen, der Herstellungsprozess ist erheblich schneller, der Reparaturbereich in der Unternehmung ist geringer, der Lagerbestand in der Unternehmung ist geringer, die Arbeiter arbeiten überwiegend in Teams, die Arbeiter wechseln häufiger die Stelle innerhalb der Unternehmung im Produktionsbereich, die Arbeiter bringen mehr Vorschläge ein und werden länger eingearbeitet, die Organisationsstrukturen sind flacher.

Im Kern geht es um den organisationalen Lernprozess bei Toyota, der sich als Ergebnis in den Fortschritten der Fertigungstechnologie, der Arbeitsorganisation, der erhöhten Qualität der Produkte sowie als sparsamer Umgang mit Ressourcen zeigt. Weitere Ausdrucksformen dieses organisationalen Lernsystems sind niedrigere Lagerbestände, kürzere Produktentwicklungszeiten und ein geringer Personaleinsatz. Hinzu kam noch, insbesondere bei Toyota, die Einbeziehung der Montagearbeiter in die permanente Qualitätskontrolle und den kontinuierlichen Verbesserungsprozess (kaizen) (Shimizu, 1988; Imai, 1993). Produktionsfehler gingen damit drastisch zurück, und die kostenintensive Nacharbeit wurde minimiert (Geißler, 1996; Boesenberg, Metzen, 1993). In der Forschung ist man sich weitgehend darüber einig, dass die guten Ergebnisse von Toyota in den letzten Jahren das Resultat produktions- und produkttechnischer Exzellenz sind (Clark, Fujimoto, Stotko, 1992; Imai, 1993). Toyota hat es geschafft, sein Produktions- und Qualitätssystem als strategische Unternehmensstärke einzusetzen. Die produktions- und produkttechnische Exzellenz basiert im Wesentlichen auf produktionswirtschaftlichen- und ingenieurwissenschaftlichen Werkzeugen sowie Qualitätsverbesserungsmethoden, die durch Toyota in der Welt der Produktion bekannt wurden (Yamashiro, 1997). Just-in-time, kaizen, jidoka und heijunka sind Begriffe, die mit dem Unternehmen Toyota auf das Engste verbunden sind. Aber sind es wirklich nur diese Werkzeuge und Techniken, die ja im Grunde in unterschiedlichen Ausprägungen auch von anderen Automobilherstellern eingesetzt werden, durch die Toyota seine erstaunliche Leistungskraft erhält? Es lässt sich vermuten, dass der anhaltende erfolgreiche Einsatz dieser Instrumente auf der Grundlage einer spezifischen Managementphilosophie basiert, die der Motivation der Mitarbeiter, der Bildung von Teams, der Qualifizierung von Führungspersonen, der Pflege der Zulieferbeziehungen und vor allem der stetigen Weiterentwicklung des Unternehmens als lernende Organisation besonderen Wert beimisst (Geißler, 1996; Imai, 1993). Die Managementphilosophie der kontinuierlichen Verbesserung von Strukturen und Systemen (kaizen) wirkt als Katalysator des lernenden Unternehmens Toyota (Senge, 1999). Orga-

Innovation, Produktion, Expansion

183

nisationales Lernen wird als die Weiterentwicklung eines von den Organisationsmitgliedern geteilten Wissensbestandes interpretiert. Toyota hat ein Lernsystem entwickelt, das in der Managementphilosophie des kaizen zur täglichen Routine geworden ist (Senge, 1999; Yamashiro, 1997). Im Unterschied zur traditionellen westlichen Organisationsentwicklung, die Wandel eher als Sonderfall versteht, wird bei Toyota Wandel als Regelfall konzipiert. Im Verlauf des organisatorischen Lernprozesses werden Organisationsstrukturen, die sich im Zeitverlauf verfestigt haben, auf ihre Koordinationseffizienz hin geprüft und bei Feststellung eines sogenannten „performance gap“, einer negativen Abweichung, verändert, um die Effizienz der Geschäftsprozesse sicherzustellen (Senge, 1999; Imai, 1993). Die Ergebnisse dieser Managementphilosophie zeigen sich bei Toyota in den Fortschritten der Fertigungstechnologie, der Arbeitsorganisation, der hohen Qualität der Produkte sowie im sparsamen Umgang mit den Unternehmensressourcen. Weitere Ausdrucksformen dieses Lernsystems sind niedrige Lagerbestände, kurze Produktentwicklungszeiten und engagierte Mitarbeiter. Der gedankliche Kristallisationspunkt der Managementphilosophie ist die Motivation und das Leistungspotential der Mitarbeiter bei Toyota: „We respect our employees and believe that the success of our business is led by each individual’s creativity and good teamwork. We stimulate personal growth for our employees“ (Guiding Principles at Toyota, 2005). Das Management von Toyota geht davon aus, dass jeder Mitarbeiter täglich mit einer Vielzahl von Problemen im Betrieb konfrontiert wird. Auftretende Probleme in einem Unternehmensbereich werden jedoch nicht als produktionshemmend angesehen, sondern als Chance zur Verbesserung der gesamten Produktion begriffen (Suzuki, 1994). Schwierigkeiten im Produktionsalltag werden bei Toyota demnach nicht problematisiert, sondern durch die spezifische Lernund Verbesserungskultur gelöst: Jeder Mitarbeiter kann ungestraft auf Fehler hinweisen und Probleme benennen, für die durch systematische und bereichsübergreifende Zusammenarbeit Lösungen erarbeitet werden.

Teambildung Die Managementphilosophie der kontinuierlichen Verbesserung ist Maxime bei allen Entscheidungen des japanischen Automobilherstellers. So stellt Toyota bereits auf der Ebene der Produktion Teams zusammen. Die Arbeitsorganisation in Teams wird vor allem unter den Gesichtspunkten von Kommunikation und Erfahrungsaustausch zur Verbesserung der Leistungsfähigkeit der Gruppenmitglieder gesehen (Suzuki, 1994; Yamashiro, 1997). Hierbei spielt das Instrument der Rotation innerhalb der für die Gruppe vorgesehenen Arbeitsplätze eine wesentliche Rolle der Mitarbeiterqualifizierung. Die Rotationspläne werden vom Vorgesetzten auf Tagesbasis so zusammengestellt, dass leistungsschwächere Gruppenmitglieder ihre Fähigkeiten verbessern können, leistungsstärkere Mitarbeiter hingegen als Springer für Produktionsunterbrechungen eingeplant werden können (Whitehill, 1995; Sebestyén, 1994). Die Form der Arbeitorganisation in Teams ist dem Oberziel der Kostensenkung (Vermeidung von Verschwendung) und der Produktivitätssteigerung verpflichtet, die Mitarbeiterqualifizierung wird als Instrument zur Zielerreichung verstanden. Die Qualifizierung der Gruppenmitglieder dient der Planung und Durchsetzung eines möglichst flexiblen Personaleinsatzes.

184

R. Haak

Einige Mitarbeiter, wie z. B. kurzzeitig Eingestellte, Neueingestellte, Bereichsfremde, kommen jedoch für einen Einsatz in solche Job-Rotation-Systeme von vornherein nicht in Frage. Und auch der Zeitaspekt spielt eine Rolle, denn es braucht es eine gewisse Zeit, bis die nötige Arbeitserfahrung vorliegt, um die Gruppenmitglieder in das Rotationsschema einteilen zu können (Suzuki, 1994).

Nutzung der Mitarbeiterpotentiale Die vorhandenen Qualifikations- und Problemlösungspotentiale der Mitarbeiter, die im Rahmen der umfangreichen Verbesserungsaktivitäten genutzt werden, bilden eine wesentliche Informationsquelle zur Schaffung flexibler und effizienter Arbeitssysteme (Sebestyén, 1994). Die strukturelle Integration und Nutzbarmachung des individuellen Erfahrungswissens läuft dabei als umfassendes Programm auf allen Ebenen bei Toyota ab. Für den Bereich der Produktion sind dies vor allem Qualitätszirkel, das Vorschlagswesen sowie Verbesserungsaktivitäten auf der individuellen Arbeitsebene. Alle diese Aktivitäten werden von Arbeitsgruppen, Expertenteams oder von Individuen getragen. Zu den Grundüberzeugungen von Toyota zählt, dass niemand so gut seinen Arbeitsplatz kennt, wie der Mitarbeiter, der tagtäglich im Produktionsprozess seine Leistung erbringt. Als vorrangiges Ziel der kontinuierlichen Verbesserung definiert Toyota die Erhöhung der Produktivität jedes einzelnen Mitarbeiters. Jeder Mitarbeiter ist weiterhin vor die Aufgabe gestellt, Verschwendungen jeder Art systematisch und konsequent zu erkennen und zu beseitigen (Suzuki, 1994). Jeder einzelne im Produktionsprozess eingebundene trägt also Verantwortung und ist angehalten aktiv zu werden, was sich positiv auf die Motivation der Mitarbeiter auswirkt. Auch erhöhte Bonuszahlungen aufgrund der guten Gesamtleistung des Unternehmens stimulieren die Motivation des Einzelnen, seinen Beitrag für Verbesserungen zu leisten (Suzuki, 1994; Sebestyén, 1994). Auf allen Ebenen des Unternehmens sehen sich die Mitarbeiter immer wieder mit der Frage konfrontiert: Wie kann das Arbeitsumfeld von Verschwendungen befreit werden? Das Arbeitsund Produktionssystem unter Einbeziehung des Wissens, der Erfahrungen und Fertigkeiten der Mitarbeiter erhält seine optimale Gestaltung durch die Erweiterung des Handlungs- und Entscheidungsspielraums der Mitarbeiter und der Arbeitsgruppe. Die Managementphilosophie von Toyota basiert gerade darauf, jedem Mitarbeiter mehr Macht für Veränderungen im Unternehmen einzuräumen, quer durch die Hierarchien. Durch die Einbindung des einzelnen Mitarbeiters in Teams bündelt sich bei Toyota das spezifische Wissen von Ingenieuren, Maschinenbedienern, Qualitätsexperten, Teamleadern usw. Als besonders erfolgreiches Instrument dieser Teamarbeit ist die „5 S-Vorgehensweise“ zu nennen. Die 5 S-Vorgehensweise kann sich auf das gesamte Unternehmen beziehen oder aber nur den einzelnen Arbeitsplatz im Fokus haben und wird wie folgt definiert: 1 S (seiri):

2 S (seiton):

Es gilt für den Mitarbeiter/für das Team zu unterscheiden, welche Arbeitsund Hilfsmittel am Arbeitsplatz unnötig sind; Aufgabe: Aussortieren des Unnötigen; Es gilt für den Mitarbeiter/für das Team, die für notwendig erachteten Arbeitsund Hilfsmittel zu ordnen, um diese beim Arbeitseinsatz griffbereit am richtigen Platz zur richtigen Zeit zu haben; Aufgabe: Ordnen des Notwendigen;

Innovation, Produktion, Expansion

185

3 S (seiso):

Es gilt für das Team seinen Arbeitsplatz/das Arbeitssystem sauber zu halten, d. h., den geordneten Arbeitsplatz und die entsprechenden Arbeits- und Hilfsmittel zu reinigen und zu pflegen; Aufgabe: Arbeitsplatz sauber halten und pflegen; 4 S (seiketsu): Es gilt für das Team, Standards, Regeln und Vorschriften einzuhalten; Aufgabe: Anordnungen zu Regeln machen; 5 S (shitsuke): Es gilt für das Team, alle genannten Punkte einzuhalten und ständig zu verbessern, Aufgabe: Ständige Verbesserung des Arbeitsumfeldes. Die 5 S-Vorgehensweise ist eine Errungenschaft von Toyota und kein kurzfristiger Managementtrend. Um diese Vorgehensweise erfolgreich umzusetzen, sind Anstrengungen hinsichtlich guter Aus- und Weiterbildung, kontinuierliches Training und fortwährendes Engagement der Mitarbeiter auf allen Ebenen des Unternehmens erforderlich.

Identifikation mit dem Ganzen Die Managementphilosophie von Toyota basiert auf der Erkenntnis, dass nicht einzelne Leitlinien, Methoden oder auch Werkzeuge zur Steigerung der Leistungsfähigkeit des Unternehmens zu berücksichtigen sind, sondern dass alle Komponenten in einen Gesamtzusammenhang gebracht und zielorientiert eingesetzt werden müssen. Durch die Managementphilosophie, die ihren deutlichsten Ausdruck im kontinuierlichen Verbesserungsprozess findet, wird die Motivation und Kreativität der Mitarbeiter stimuliert und koordiniert, um den Anteil der Mitarbeiter an der Wertschöpfung zu erhöhen und Verschwendungen bei Toyota zu minimieren. Die Partizipation des Einzelnen an den Erfolgen des Unternehmens erhöht gleichzeitig seine Identifikation mit der Managementphilosophie, die nicht nur auf die Produktion beschränkt ist, sondern alle Wertschöpfungsbereiche des Unternehmens erfasst. Literatur Boesenberg, D. and H. Metzen (Hrsg.) (1993): Lean Management. Vorsprung durch schlanke Konzepte, Landsberg/Lech: Verlag Moderne Industrie. Clark, K. B., T. Fujimoto and E. C. Stotko (Hsrg.) (1992): Automobilentwicklung mit System. Strategie, Organisation und Management in Europa, Japan und USA, Frankfurt am Main: Campus-Verlag. Ducan, R. B. and Weiss, A. (1979): Organizational Learning: Implications for organizational design. In: Staw, B. W. (Hrsg.): Research in Organizational Behavior 1, S. 75–123. Garratt, B. (1990): Creating a Learning Organisation. A Guide to Leadership, Learning and Development, Cambridge: Director Books. Geißler, H. (1996): Vom Lernen in der Organisation zum Lernen der Organisation. In: Sattelberger, T. (Hsrg.): Die lernende Organisation: Konzepte für eine neue Qualität der Unternehmensentwicklung, Wiesbaden: Gabler, S. 79–95. Haak, René (2002): Japanische Zuliefernetzwerke in der Globalisierung. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb (ZWF), Jahrgang 97 (3), S. 133–136. Haak, René (2003b): Japanisches Produktionsmanagement – Organisationales Lernen als strategischer Erfolgsfaktor. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb (ZWF), Jahrgang 98, S. 7–8. Haak, René (2004): Japanese supplier network system in transition – Survival strategies. In: Innovation: management, policy & practice, Volume 6, April (1), S. 45–49.

186

R. Haak

Hanft, A. (1996): Organisationales Lernen und Macht – Über den Zusammenhang von Wissen, Lernen, Macht und Struktur. In: G. Schreyögg and P. Conrad (Hrsg.), Wissensmanagement, Berlin and New York: de Gruyter, S. 133–162. Imai, M. (1993): Kaizen, Frankfurt am Main: Ullstein. Jung, H. F. (1992): Lean-Management. Arbeitswelt und Unternehmensethik in Japan in: Lean-Management. Ideen für die Praxis. Dokumentation einer Informations- und Diskussionsreihe (WiSo-FührungskräfteAkademie Nürnberg), Ausgabe 1, 102–130. Jürgens, U. (1991): Kaizen – die Organisation von Verbesserungsaktivitäten zwischen Industrial Engineering und Qualitätszirkelaktivitäten, Wissenschaftszentrum Berlin, Berlin. Jürgens, U. (1993): Lean-Production. In: Corsten, H. (Hrsg.): Handbuch Produktionsmanagement, Wiesbaden: Gabler. Monden, Y. (1983): Toyota Production System, Norcross, Ga.: Indsutrial Engineering and Management Press, Institute of Industrial Engineering. Nakamura, K. (1993): Subvontracting System and Segmented Labour Market in Japan, Musashi University, Tokyo. Nihon Kôsaku Kikai Kôgyôkai (1982): Haha-naru kikai: 30 nen no ayumi [Japan Machine Tool Builders Association, The Mother of Machines: Thirty Years of History], Tokyo: Nihon Kôsaku Kikai Kôgyôkai, S. 81–83. Nihon Noritsu Kyokai (1978): Toyota no Genba Kanri, Tokyo: Nihon Noritsu Kyokai. Nonaka, I. (1990): Redundant, overlapping organization: A Japanese approach to managing the innovation process. California Management Review 32 (3), pp. 27–38. Nonaka, I. and H. Takeuchi (1997): Die Organisation des Wissens. Wie japanische Unternehmen eine brachliegende Ressource nutzbar machen, Frankfurt am Main, New York: Campus-Verlag. Ohno, T. (1978): Toyota Production System: Beyond Large-Scale Production, Cambrigde: Productivity Press. Parker, M. und Slaughter, J. (1988): Choosing Sides: Union and Team Concept, Boston: South End Press. Sebestyén, O. G. (1994): Management-Geheimnis Kaizen. Der japanische Weg zur Innovation, Vienna: Wirtschaftsverlag Ueberreuter. Senge, P. M. (1999): Die fünfte Disziplin. Kunst und Praxis der lernenden Organisation, Stuttgart: KlettCotta. Shimizu, T. (1988): Japanisches Management. In: W. Busse von Colbe, K. Chmielewicz, E. Gaugler and G. Laßmann (Hrsg.): Betriebswirtschaftslehre in Japan und Deutschland. Unternehmensführung, Rechnungswesen und Finanzierung, Stuttgart: Poeschel, S. 173–191. Suzuki, Y. (1994): Nihon Teki Seisan Shisutemu to Kigyo, Sapporo: Hokkaido Daigaku Tosho Suppan Kai. Taylor, F. W. (1903): Shop Management. New York. Taylor, F. W. (1911): The Principles of Scientific Management. New York; deutsch: Die Grundsätze der wissenschaftlichen Betriebsführung. Berlin, München. Whitehill, Arthur M. (1995): Japanese Management. Tradition and Transformation, London. Womack, J. P., Jones, D. T. and D. Roos (1990): The Machine that Changed the World: New York: Rawson. Yamashiro, A. (1997): Japanische Managementlehre. Keieigaku, Munich: Oldenbourg.

Wertschöpfungsmanagement im demographischen Kontext* Andrea Berzlanovich und Regine Lampert

1

Wertschöpfungsmanagement im „Kaufkraftwettbewerb“

Nach dem Ende des Zweiten Weltkriegs stand aus betriebswirtschaftlicher Sicht zunächst insbesondere die Transformation von Verkäufermärkten in Käufermärkte im Fokus des Managements.1 Marketingseitig haben sich im Zuge dieser Entwicklung bis heute vielfältige, theoretisch-konzeptionelle und größtenteils empirisch fundierte Zugänge etabliert, die das Konstrukt des Käuferverhaltens ausgesprochen facettenreich unterfüttern.2 Produktionsseitig hat sich, in im Zeitablauf immer geeigneterer Entsprechung der käufermarktseitigen Anforderungen, mittlerweile gleichfalls eine Vielzahl an Produktionskonzepten und -verfahren etabliert, um die einerseits ausdifferenzierten Kundenbedarfe mit der andererseits hervorbringungsseitig erforderlichen Produktionsökonomik, -effektivität und -effizienz in Einklang bringen zu können.3 Die Produktion von Gütern und Dienstleistungen, in erster Annäherung verstanden als für Konsumenten und Produzenten „Werte schöpfende“ Aktivität durch in sozio-techno-ökonomischen Planungs-, Steuerungs- und Gestaltungssystemen effektuierte Transformationsprozesse, ist in dieser Sinnentsprechung kein Selbstzweck.4 Die Produktion von Konsumgütern schöpft bzw. schafft Werte für Nachfrager mit Blick auf den Grad der Abdeckung ihrer jeweils individuellen Nutzenstruktur und -konjektur.5 Sie schöpft bzw. schafft ökonomische Werte für (Konsum-) *

Wir bedanken uns bei Dr. Frank Himpel für zahlreiche inhaltliche Impulse bei der Konzeptualisierung und für zahlreiche konstruktive Anregungen im Rahmen der Ausarbeitung dieses Beitrags. 1 Marketing und Produktion standen bereits hier in einem grundsätzlich bedeutsamen Zusammenhang. Siehe originär Gutenberg (1951) sowie Gutenberg (1955). Der Band zur Produktion erschien nachfolgend in 24 Auflagen, der Band zum Absatz nachfolgend in 17 Auflagen. 2 Zu den grundlegenden Konzepten des Käuferverhaltens siehe Kroeber-Riel/Weinberg (1996). 3 Siehe mit Blick auf die Gestaltung der Produktionsprogramme zum Beispiel das Konzept der Mass Customization bei Piller (2006). Siehe zur Verzahnung von Faktor- und Prozessgestaltung das innovative Konzept Pay-as-built bei Bellmann (2002). Die innovationsbasierten Prinzipien des „technology push“ und „demand pull“ schlagen hier an. 4 Dieses „Werte schöpfen“ wird aus produktionswirtschaftlicher Sicht durch (Faktor-)Transformationsprozesse realisiert. 5 Siehe zum Konzept der nachfrageorientierten Produktgestaltung Herrmann (1996). Hier orientiert sich Wertschaffung an der Erfüllung von kundenindividuellen Werthaltungen (hervorgerufen durch Nutzenstiftung anhand von Funktionserfüllung). Zum Wertbegriff in diesem Sinne siehe Kroeber-Riel/Weinberg (1996), S. 541.

188

A. Berzlanovich und R. Lampert

Güterhersteller, wenn mit Hilfe der Transformation von Input- in Outputfaktoren die zielsystembezogene Existenz des produktionsbasierten sozio-techno-ökonomischen Planungs-, Steuerungs- und Gestaltungssystems abgestützt bzw. gewährleistet werden kann.6 Aus Sicht des betrieblichen Wertschöpfungsmanagements bedingen dabei die konsumentenseitige und die produzentenseitige Fokussierungsrichtung einander. Denn ohne ausreichende Marktnachfrage erscheint eine längerfristige – über Absatzmarktrückflüsse finanzierte – Amortisation produktionswirtschaftlicher Transformationssysteme als schwierig.7 Ebenso erscheint die detaillierte und individualisierte Fokussierung und Abbildung von Nutzenerwartungen und -wahrnehmungen von Nachfragern – insbesondere auf den stark ausdifferenzierten, saturierten Konsumentenmärkten in entwickelten Industrienationen – mittlerweile kaum mehr realisierbar ohne hinreichend geeignete Produkt- und Prozesstechnologien, Konzepte und Verfahren zur Hervorbringung von Gütern und Dienstleistungen im jeweils erforderlichen physikalisch-chemisch-technischen Maßstab. Dabei orientiert sich das Management eines Produktionssystems an den Kontextfaktoren seiner mediaten und immediaten sozio-techno-ökonomischen und natürlichen Umwelt einerseits sowie an den zur Verfügung stehenden, aktuellen und potentiellen Ressourcen andererseits. Im Abgleich aus outside/in-orientierter, von der Notwendigkeit zur Komplexitätsreduktion getriebenen, Kontextstrukturation und inside/out-fokussierter, auf die Aufrechterhaltung und den Ausbau der „Handlungsbereitschaft“ ausgerichteten, Ressourcenallokation wird die Wertschöpfung für Käufermärkte laufend kalibriert.8 Diese Überlegung mag in erster Annäherung mittlerweile durchaus „klassisch“ erscheinen; zumindest ist sie betriebswirtschaftlich nicht grundständig neu. Sie rekurriert nämlich – implizit auf das Primat der dualen Wertstiftung für Konsumenten und Produzenten fokussierend – auf den (für Zwecke einer produktionswirtschaftlich „geeigneten“ Wertschöpfung fundamentalen) innerbetrieblichen Ursache-Wirkungs-Zusammenhang der geeigneten Interaktionsrelationierung von Produktmanagement und Produktionsmanagement.9 Das betriebliche Spannungsfeld zwischen Marketing und Produktion,10 ausgerichtet an der Orientierung auf Käufermarktkontexte,

6

Eine der gegenwärtig prominentesten ökonomischen Wertgrößen ist der Shareholder Value. Die Transformationsprozesse in den Leistungserstellungssystemen werden letztlich daraufhin kalibriert, dass die durch sie erzielbare Wertschöpfung auf Absatzmärkten eine mit Kaufkraft versehene Nachfrage findet, wodurch ein Austauschverhältnis zwischen Anbieter und Nachfrager effektuiert wird, der zu einem „Return on Transformation“ führt. Dieser „Return on Transformation“ entspricht gedanklich dem „Return on Investment“, den Kapitalgeber bei alternativer Kapitalallokation auf andere als die gewählten Transformationssystem-Investments erzielen könnten. Besonders bedeutsam wird dieser Aspekt, da viele leistungswirtschaftlich ausgerichteten ökonomischen (Transformations-)Systeme über global alloziertes Kapital aufgefüttert sind. Dieses Kapital sucht sich nunmehr auf globalem Maßstab seine „produktivste“ (also mit dem relativ höchsten „Return on Transformation“ versehene) Kapitalverwendung bzw. Produktion.

7

Alternative Verwendungen für investiv alloziertes Kapital bauen einen hohen Substitutionsdruck unter mehreren zur Wahl stehenden (Produktiv-)Systemen im Hinblick auf ihre ökonomische, wertmäßige Performanz auf.

8

Zur Argumentation siehe ausführlicher Himpel/Lampert (2004), Kapitel 2.

9

Siehe zu den Grundlagen des marktorientierten Produkt- und Produktionsmanagements Himpel (2004). Siehe zum Produktmanagement insbesondere Herrmann (1996) und Albers/Herrmann (2007) sowie Herrmann/Huber (2008).

10

Siehe zur Interaktion von Marketing und Produktion Wermeyer (1994).

Wertschöpfungsmanagement im demographischen Kontext

189

ist im Wesentlichen beeinflusst von der Konkurrenz der Produzenten um die im Verhältnis zum Angebot knappe Kaufkraft der Nachfrager. Dieser „Kaufkraftwettbewerb“ ist marketingseitig darauf ausgelegt, ein produktionsseitiges Angebot zu konfektionieren, welches die knappe Kaufkraft von Nachfragern im Optimalfall auf exakt dieses Angebot alloziert – unter Verdrängung einer (un-)bekannten Vielzahl von Alternativangeboten und unter expliziter Orientierung an der möglichst umfassenden Erfüllung von Erwartungs-, Werte-, Motivations- und Nutzenstrukturen der Nachfrager in vom Anbieter als relevant erachteten Nachfragersegmenten. Damit werden strategiegemäß Marktanteile von Alternativangeboten auf das eigene Angebot umgelenkt. Der „Kaufkraftwettbewerb“ ist produktionsseitig darauf ausgelegt, eine marketingseitige Segmentierung und Zielgruppenentsprechung zu parametrisieren, welche produktionsseitig in ökonomisch plausiblen Losgrößen – unter Berücksichtigung des Einsatzes geeigneter Fertigungstechnologien zur Hervorbringung der gewünschten physikalisch-chemisch-technischen Produkteigenschaften – abgebildet werden kann. Damit werden produktionswirtschaftliche Ertragspotentiale aufgebaut und nutzbar gemacht, welche die ökonomische Erfolgsposition des anbietenden Unternehmens stärken kann. Das Maß der „Verteidigbarkeit“ der erworbenen Marktanteile nimmt in der Regel zu, wenn Produkt- und/oder Prozessinnovationen den ökonomischen Druck auf Wettbewerber aufrecht erhalten und die von den Nachfragern wahrgenommene Attraktivität der angebotenen Produkte noch ausgebaut werden kann. Im „Kaufkraftwettbewerb“ ist die Orientierung an Entwicklungen im marktlichen Umfeld damit ausgesprochen virulent und relevant. Eine der herausforderndsten Entwicklungen im sozioökonomischen Umfeld zahlreicher (Konsum-)Güterhersteller ist der demographische Wandel. Auch die Interaktionsrelationierung von Produkt- und Produktionsmanagement wird deshalb zukünftig verstärkt vom demographischen Wandel in den saturierten Käufermärkten beeinflusst.

2

Wertschöpfungsmanagement im demographischen Kontext

2.1 Der Silbermarkt als Zustandsbeschreibung der Struktur demographischer Prozessdynamik Die demographische Entwicklung kennzeichnet die im Zeitablauf veränderlichen Altersstrukturanteile einer Bevölkerung. Eine zu einem Betrachtungszeitpunkt gezogene Systemgrenze mit dem Fokus auf die Konsumenten ab 60 bzw. 65 Jahre (gemeinhin als „Silbermarkt“ bezeichnet) versteht sich deshalb quasi als zeitpunktabhängige Zustandsbeschreibung der Struktur von Altersanteilen in einem betrachteten, ökonomisch relevanten, mit Kaufkraft zur Effektuierung von monetären und produktseitigen Austauschverhältnissen (und deshalb als Markt interpretierten) Bevölkerungsausschnitt. Die demographische Entwicklung – insbesondere in Japan und der Bundesrepublik Deutschland – beeinflusst auch das Austarieren des Wechselspiels von kundenindividuellen, kognitiv verankerten Werthaltungen und unternehmensbezogenen, ökonomisch manifestierten Wertmaßstäben. In beiden Gesellschaften nimmt die Zahl der „silbernen Konsumenten“ ab 65 Jahren Lebensalter in den kommenden Dekaden zu,11 jeweils sowohl absolut als auch gemessen am Anteil der Gesamtbevölkerung. So arbeiten japanische Konsumgüterhersteller seit einigen Jahren intensiv an der Hervorbringung von Marketing- und Produktionskonzep-

11

Siehe zur Entwicklung in Japan und zur Argumentation Himpel/Berzlanovich (2007).

190

A. Berzlanovich und R. Lampert

ten für die Konsumenten ihres Silbermarkts (shirubâ maketto).12 Deutsche Unternehmen können in dieser Hinsicht von Best Practices zum japanischen Silbermarkt lernen, denn die demographische Entwicklung hier und in anderen geographischen Märkten (wie zum Beispiel auch in Italien und China) läuft dabei zeitlich der japanischen Entwicklung nur knapp ein bis zwei Dekaden hinterher – sie verläuft aber nicht grundständig unterschiedlich. Für japanische Konsumgüteranbieter ist es heute zu einem wesentlichen Teil bereits erfolgsentscheidend, inwieweit es ihnen gelingt, die speziellen Prädispositionen und Wertmaßstäbe älterer Japaner in ihren Leistungsangeboten abzubilden. Diese Entwicklung dürfte aufgrund der weitgehend kommensurabel verlaufenden demographischen Entwicklung auch auf deutsche Leistungsanbieter zukommen. In der altersbedingten „Ausreifung“ von kaufverhaltensrelevanten Prädispositionen (wie der altersabhängigen Verfestigung von individuellen Werten und Nutzenanforderungen) liegen für Anbieter gleichermaßen Chancen und Risiken. Risiken einer Nicht-Berücksichtigung dieser silberkonsumentenseitigen Entwicklungen im strategischen Entscheidungskalkül des Anbieters liegen darin, dass der hieraus resultierende geminderte Erfolgsbeitrag – gemessen am jeweiligen Faktoreinsatz – die langfristige Unternehmensexistenz in einer fluktuierenden Unternehmensumwelt gefährdet. Die vorhandenen Chancen für einen Anbieter hingegen liegen ergebnisbezogen in einer geeigneten Abschöpfung des insgesamt im Silbermarkt vorhandenen Umsatzvolumens mittels der Orientierung an den spezifischen Anforderungen dieses Marktsegments. Diese Anforderungen sind vielschichtig; sie werden nachfolgend auf einen zentralen Aspekt verdichtet. Als eines der entscheidenden Konstrukte zur Aktivierung von Nachfrage in saturierten Märkten des „Kaufkraftwettbewerbs“ hat sich die Markensympathie herauskristallisiert.13 Der Stellenwert der Marke ist auf Käufermärkten in den vergangenen Jahren gestiegen.14 Entsprechend hat sich der innerbetriebliche Stellenwert des Markenmanagements „strategisiert“. Insbesondere für auf dem Silbermarkt anbietende Transformationssysteme hat das Markenmanagement einen ausnehmend hohen Stellenwert erreicht. Dies resultiert daraus, dass die Marke zu einer Vereinfachung der Kaufentscheidung führt, insbesondere bei Konsumgütern.15 Da die Kaufentscheidung eine mitunter komplizierte, kognitive Abwägungsentscheidung in der Konsumentenpsyche darstellt, neigen insbesondere Senioren zu einer bewussten Vereinfachung der wahrgenommenen Entscheidungskompliziertheit. Dies wiederum ist insofern zu begründen, als dass das physiologische Balancesystem von Silberkonsumenten auf ein hohes Maß an emotionaler „Stabilität“ und subjektivierter, „gefühlter“ Sicherheit ausgerichtet ist. Dies bedeutet, dass emotionale Facetten der Markeneinstellung bei Silberkonsumenten einen hohen Stellenwert im Rahmen von Markenwahlentscheidungen erlangen. Aus Anbietersicht stellt sich im skizzierten demographischen Kontext die Frage, ob für die Ausprägung dieser emotionalen Markeneinstellungsfacetten primär harte, funktionale oder primär weiche, expressive Kriterien zentral sind. 12

So ist der Forschungsschwerpunkt des Deutschen Instituts für Japanstudien (DIJ) in Tokyo auf den demographischen Wandel fokussiert. Dabei stehen neben gesellschaftlich-sozialen auch ökonomische Artefakte, Antezedenzen und Ursache-Wirkungs-Beziehungen im Forschungsblickpunkt. Das Aufbereiten von Best Practices japanischer Unternehmen, die auf dem japanischen Silbermarkt agieren, ist für deutsche Unternehmen in der Konsequenz der aufgezeigten Entwicklung von hoher Relevanz. Siehe zum Forschungsschwerpunkt die Internetpräsenz des DIJ unter http://www.dijtokyo.org/ sowie Coulmas (2007).

13

Siehe Lampert (2008).

14

Siehe insbesondere Huber (2004).

15

Siehe mit Blick auf empirisch gestützte Erkenntnisse (allerdings nicht auf den Silbermarkt, sondern allgemein auf Käufermärkte kalibriert) Huber/Meyer/Vollhardt/Schuhmann (2007).

Wertschöpfungsmanagement im demographischen Kontext

191

2.2 Die Markensympathie als kaufverhaltensrelevante Größe im Silbermarkt Im Kontext der anthropologischen Theorie des Animismus16 „beseelen“ Menschen die sie umgebenden Gegenstände. In dieser Sicht rücken zunächst sozialpsychologische Phänomene in den Blickpunkt des Markenmanagements. Sympathie als zentrales psychosoziales, emotionales Element zwischenmenschlicher Beziehungen17 wird damit von Silberkonsumenten auch auf die Marken von Produkten attribuiert – Marken werden damit zu einem „emotionalen Thema“ für Silberkonsumenten. Die das Konsumverhalten von Silberkonsumenten beeinflussende Markensympathie lässt sich als gefühlsmäßige, positive Valenz gegenüber einer Marke interpretieren, die bereits nach kurzen bzw. wenigen Kontakten mit einer Marke auftritt. In Anlehnung an entsprechende marketingtheoretische Überlegungen lässt sich die Position ableiten, wonach Markensympathie über die Wahrnehmung von funktionalen Merkmalen einerseits sowie über die wahrgenommene Ähnlichkeit einer Marke mit dem faktischen Selbstbild eines Silberkonsumenten andererseits in dessen „Wahrnehmungswelt“ aufgebaut wird. Während letztgenannte wahrgenommene Ähnlichkeit zwischen dem tatsächlichen Selbst und der „beseelten“ Marke in der Marketingliteratur als „faktische Selbstkongruenz“ rezipiert wird, trägt analog die wahrgenommene Übereinstimmung von idealen Ausprägungen funktionaler Merkmale und deren erwarteter Ausprägung die Bezeichnung „funktionale Kongruenz“. Während faktische Selbstkongruenz damit als „weiche“, expressive Imagekomponente interpretiert wird, konzeptualisiert sich funktionale Kongruenz in diesem Sinnzusammenhang als „harte“, funktionale Komponente. Drei Hypothesen lassen sich zunächst für den erläuterten Wirkungsmechanismus von faktischer Selbstkongruenz und funktionaler Selbstkongruenz auf die Markensympathie formulieren.18 H1: Je größer die Selbstkongruenz zu einer Marke ist, desto größer ist die vom (Silber-)Konsumenten empfundene Markensympathie. H2: Je größer die funktionale Kongruenz zu einer Marke ist, desto größer ist die vom (Silber-) Konsumenten empfundene Markensympathie. H3: Je größer die Selbstkongruenz zu einer Marke ist, desto größer ist die funktionale Kongruenz. Anhand der Überprüfung dieser Hypothesen können sodann die Anforderungen von Silbermarktkonsumenten weitergehend präzisiert werden. Die empirische Überprüfung auf Bewährung des vorgenannten Hypothesensystems basiert auf einer Online-Panel-Befragung mit 621 Personen (3.726 Fälle, davon 684 Fälle von Personen mit über 65 Jahren Lebensalter) vom Oktober 2006, bei der sechs Marken aus drei Branchen (Bekleidung, Automobil und Telekommunikation) der Konsumgüterindustrie in der Bundesrepublik Deutschland konzeptualisiert wurden. Zur Ermittlung eines markenübergreifenden Ergebnisses für Zwecke des hier im Anschlag stehenden Untersuchungsfokus wurde das dem Hypothesensystem zugrundeliegende lineare Strukturgleichungsmodell auf der Grundlage eines Softwareprogramms zur linearen Strukturgleichungsanalyse jeweils global und sektoral geschätzt und parametrisiert (siehe Abb. 1, S. 178).

16

Siehe zur umfassenden Abbildung dieses Gedankens im Original Gilmore (1919).

17

Siehe vertiefend Mikula (1977).

18

Siehe zur Deduktion der drei Hypothesen Lampert (2007), S. 349f.; die Darstellung erfolgt hier aus Zweckmäßigkeitsgründen auf der Konstruktebene bzw. Ebene der latenten Variablen.

192

A. Berzlanovich und R. Lampert

Lebensalter 17 bis 24 Jahre

Lebensalter 25 bis 44 Jahre

Lebensalter 45 bis 64 Jahre

Lebensalter ab 65 Jahre

Fälle

n = 270

n = 1.362

n = 1.410

n = 684

Hypothese 1: Faktische Selbstkongruenz wirkt gleichgerichtet auf Markensympathie

0,38

0,32

0,23

0,19

Hypothese 2: Funktionale Kongruenz wirkt gleichgerichtet auf Markensympathie

0,53

0,51

0,55

0,58

Hypothese 3: Faktische Selbstkongruenz wirkt gleichgerichtet auf funktionale Kongruenz

0,41

0,44

0,38

0,34

Anteil erklärter Varianz für funktionale Kongruenz

0,17

0,19

0,14

0,12

Anteil erklärter Varianz für Markensympathie

0,59

0,51

0,45

0,44

Abbildung 1:

Wirkungen der Persönlichkeitskongruenz auf die Markensympathie19

Die Selbstkongruenz hat insgesamt einen gleichgerichteten direkten Effekt auf die Markensympathie.20 Es ist erkennbar, dass sich dieser direkte Einfluss der Selbstkongruenz auf die Markensympathie im Alter halbiert. Auch die Selbstkongruenz weist einen gleichgerichteten direkten Effekt auf die funktionale Kongruenz auf.21 Die Stärke dieses Zusammenhangs nimmt jedoch mit zunehmendem Alter leicht ab. Schließlich wirkt die funktionale Kongruenz ihrerseits gleichgerichtet auf die Markensympathie.22 Dieser direkte Effekt nimmt mit zunehmendem Alter leicht zu. Die Betrachtung des indirekten Gesamteffekts zwischen Selbstkongruenz und Markensympathie über die funktionale Kongruenz legt den Befund nahe, wonach bei Silberkonsumenten die Selbstkongruenz im Verhältnis zu jüngeren Konsumenten vergleichsweise stark abnimmt, wohingegen der Stellenwert der funktionalen Kongruenz für die Ausprägung von Markensympathie bei ihnen im Verhältnis gegenüber jüngeren Konsumenten leicht zunimmt.23 Im Gesamteffekt legen die Ergebnisse den Befund nahe, wonach die funktionale Kongruenz relativ bedeutsamer als die Persönlichkeitskongruenz zur Ausprägung von Marken19

Die Gütemaße zur Beurteilung der empirischen Bewährung des analysierten Strukturgleichungsmodells lauten: NFI 0,998, IFI 0,999, AGFI 0,985, GFI 0,997, Chi2/Anzahl der Freiheitsgrade = 2,325, SRMR 0,0218, RMSEA 0,019. Siehe inhaltlich zu den einzelnen Gütekriterien Himpel (2004), Ohlwein (1999) sowie Hu/Bentler (1995). Der Terminus gleichgerichtet rekurriert auf Ursache-Wirkungs-Beziehungen im Sinne von je mehr desto mehr bzw. je weniger desto weniger.

20

H1 wird entsprechend angenommen.

21

H3 wird entsprechend angenommen.

22

H2 wird entsprechend angenommen.

23

So ist der Totaleffekt der Selbstkongruenz auf die Markensympathie von Silbermarktkonsumenten [(0,19 * 0,34 * 0,58) + 0,19 = 0,228] fast nur halb so stark wie jener Totaleffekt für junge Konsumenten im Alter zwischen 17 und 24 Jahren [(0,38 * 0,41 * 0,53) + 0,38 = 0,463]. Der Befund, dass die Relevanz von Ähnlichkeit bei der Ausprägung von Sympathie im Alter abnimmt, deckt sich mit einer sozialpsychologischen Studie von Izard aus dem Jahr 1963. Siehe hierzu Berscheid/Walster (1978), S. 77.

Wertschöpfungsmanagement im demographischen Kontext

193

sympathie bei Silberkonsumenten beiträgt. Die wahrgenommene Erfüllung von funktionalen Anforderungen wird somit insbesondere im Silbersegment zu einem ausschlaggebenden Faktor zur Ausprägung von kaufverhaltensrelevanter Markensympathie. M. a. W., ältere Menschen unterliegen verstärkt biologischen Alterungsprozessen, welche ihre physiologische Leistungsfähigkeit jeweils gleichsam beeinflussen. Diese biologisch-physiologischen Aspekte sind daher insbesondere bei der Formulierung von funktionalen Leistungsanforderungen in der Silberkonsumentenpsyche beteiligt. Letztlich dienen sie damit als Grundlage zur Konzeptualisierung von Produkten und Leistungen zur Abbildung von funktionalen Leistungsanforderungen im angeführten demographischen Kontext.

2.3 Physiologische Antezedenzen funktionaler Leistungsanforderungen Mit Blick auf geriatrisch-medizinische und gerontologisch-verhaltenswissenschaftliche Erkenntnisse zeigt sich, dass unter anderem eine Reihe an physiologischen Veränderungen emergiert, die für unterschiedliche Menschen mit zunehmendem Alter in nahezu gleichartigem Umfang auftreten und damit ältere Menschen sui generis betreffen. Die physiologischen Veränderungen schlagen sich in erster Linie in den sensorischen, kognitiven, motorischen und emotionalen Fähigkeiten von Silberkonsumenten nieder.24 Sensorische Veränderungen betreffen visuelle und auditive Fähigkeiten des Menschen. Presbyopie, Verengungen der Pupille, Linsentrübung und Gesichtsfeldeinschränkungen sind häufig auftretende Entwicklungen, in deren Folge die Blendempfindlichkeit steigt und sich die Adaptions- und Akkomodationsfähigkeit der Augen verschlechtert, die Unterscheidung von Farbverläufen erschwert sowie die Wahrnehmung von sich bewegenden Objekte am Gesichtsfeldrand deutlich reduziert wird. Das sich verschlechternde Zusammenspiel zwischen Gehirn und Augen führt zu einer rudimentär werdenden, mangelhaften Einschätzung von Entfernungen, Geschwindigkeiten und Bewegungsrichtungen von beobachteten Gegenständen. Produktbeschreibungen sollten auf Verpackungen und Displays demgemäß deutlich herausgearbeitet und abgebildet werden und Bilder mit Wischeffekten sind geeignet zu vermeiden. Packungsbeilagen sollten an die veränderte Informationsaufnahme und Lesefähigkeit der Silberkonsumenten angepasst werden. Im Rahmen der sensorisch-auditiven Veränderungen treten ggf. umweltabhängige Hochtonverluste auf, in deren Folge die Hörschwelle steigt und hohe Frequenzen kaum mehr wahrgenommen werden können. Wortdiskrimination bei Hintergrundgeräuschen ist ein häufig beobachtetes Phänomen. Kognitive Veränderungen betreffen die Denk-, Merk- und Informationsverarbeitungsfähigkeit des Menschen. Die Kapazität zur Datenhaltung im Ultrakurzzeit-, Kurzzeit- und Langzeitspeicher wird niedriger. Die Großhirnrinde enthält weniger Neurotransmitter und weniger Nervenzellen, die Nervenleitungsgeschwindigkeit wird reduziert und Hirnwindungen verschmälern sich. Silberkonsumenten haben es deshalb schwer, zu entscheiden, welches die „relevanten“ Informationen aus einer – unter Umständen überhaupt nur rudimentär empfangenen – „Datenflut“ sind (hier verstärken sich sensorisch-auditive und kognitive Defizite). Die Erinnerungsleistung älterer Menschen geht zurück, längere Informationsverarbeitungszeiten gehen häufig mit längeren Reaktionsgeschwindigkeiten einher (hier verstärken sich kognitive und motorische Defizite). 24

Siehe ergänzend Himpel/Berzlanovich (2007).

194

A. Berzlanovich und R. Lampert

Motorische Defizite erstrecken sich auf eine verringerte physische Belastbarkeit von Bändern, Sehnen, Muskeln und Knochen. Die Gelenkbeweglichkeit geht zurück, der Mineralstoffgehalt der Knochen verringert sich. Das Herzschlagvolumen wird reduziert. Bei Stürzen sind ältere Menschen sehr viel häufiger anfällig für Knochenbrüche. Bemerkenswert ist darüber hinaus die eingeschränkte Körperkraft und Beweglichkeit von Silberkonsumenten. Sie weisen diesbezüglich auch eine verringerte „Fingerfertigkeit“ im Umgang mit Gegenständen auf – beispielsweise beim Umgang mit kleinen Reißverschlüssen, die kaum mehr präzise greifbar sind. Das „Abschluckvermögen“ geht zurück, dadurch steigt zum Beispiel die Erstickungsgefahr beim Konsum pulverisierter Lebensmittel. Die emotional durchschlagenden Defizite älterer Menschen emergieren primär auf Grundlage der Veränderung von Nervenbotenstoffen und Hormonen. Menschliches Verhalten wird im Gehirn vom limbischen System gesteuert, welches seinerseits von drei Subsystemen (Stimulanz, Dominanz, Balance) handlungsleitende Impulse erhält. Das Stimulanzsubsystem wird von Dopamin beeinflusst, das Dominanzsubsystem von Testosteron, und das Balancesystem von Cortisol (als Stress- und Angsthormon) beeinflusst. Die relativen Anteile von Dopamin, Testosteron und Cortisol im limbischen System ändern sich mit zunehmendem Lebensalter. Bei den Silberkonsumenten ist Cortisol das vorwiegende Hormon, welches aus physiologischer Sicht einen Großteil des Konsumentenverhaltens steuert. Die Balancefunktion des limbischen Systems ist damit größtenteils handlungsleitend, wobei „Balance“ durch ein hohes Maß an Stressund Angstbegegnung effektuiert wird, was sich – wie bereits dargestellt – durch ein im Vergleich zu jüngeren Konsumenten deutlich höheres Maß an Sicherheitsbedürfnissen von Silberkonsumenten exemplifiziert. Produktmanagement fokussiert in dieser Sicht auf die die Vermittlung einer ausnehmend hohen und verlässlichen Qualität des Leistungsangebots. Eingeschränkt werden diese Bemühungen des Anbieters jedoch dadurch, dass der Anbieter nur die physikalischchemisch-technischen Eigenschaften seines Angebots immediat beeinflussen kann – Silberkonsumenten aber auf Grundlage ihrer jeweils individuellen Wahrnehmung von der Vorziehenswürdigkeit dieser „Sicherheitsbotschaften“ ihre konsumseitigen Wahlhandlungen effektuieren (und dieses wiederum vor dem Hintergrund bzw. unter dem Einfluss der skizzierten physiologischen Defizite). Neben dem im Alter steigenden relativen Anteil an Cortisol beeinflusst auch Serotonin das Balancesystem im Alter. Serotonin, welches innerlich gelassener macht, wird von Silberkonsumenten verhältnismäßig schneller abgebaut als von jüngeren Konsumenten. Die „Balance“ – aufgebaut auf der mental konjekturierten Begegnung von Angst und Stress – wird durch schneller abgebautes Serotonin aus ihrem Ruhezustand gebracht, wenn sich die Stärke einer Erregung aktiviert und intensiviert. Jede kleinste Aufregung verursacht mitunter heftigste emotionale Ausbrüche. In der Folge sinkt die Risikobereitschaft von Silberkonsumenten. Für das Produktmanagement bedeutet das, dass impulsive, spontane Kaufhandlungen zurückgehen; folglich favorisieren Silberkonsumenten habitualisierte Konsumgüterkäufe. Silberkonsumenten fragen verstärkt Produkte nach, deren „Verlässlichkeit“ in ihrer Wahrnehmung durch ein langes Bestehen am Markt und durch eine längerfristige eigene Konsumption des betreffenden Produkts aus ihrer Sicht „nachgewiesen“ ist. Sofern Silberkonsumenten nicht über hinreichend eigene Konsumerfahrung mit einem Produktangebot verfügen, rückt die Marke und die von den Silberkonsumenten wahrgenommene Verlässlichkeit bzw. Glaubwürdigkeit der Marke in den Vordergrund.25 Die im Marketing bekannten Effekte des „variety seeking“ – sofern Konsumen25

So werden zum Beispiel auch Empfehlungen von Freunden und Bekannten für Silberkonsumenten handlungsleitend. Siehe insgesamt zum Thema Weiterempfehlung v. Wangenheim (2003).

Wertschöpfungsmanagement im demographischen Kontext

195

ten also einen „Nutzen an sich“ aus dem Wechsel eines Produktangebots ziehen – erscheinen vor diesem Hintergrund als nur bedingt denkbar. Silbermarktorientiertes Produkt- und Produktionsmanagement fokussiert auch auf den Umstand, dass bekannte Effekte zur Herausbildung von konsumentenseitigen Zufriedenheits- und Loyalitätsurteilen im Silbermarkt mitunter andersartig ausgestaltet sein können.

3

Vorläufige Gestaltungsempfehlungen und zukünftiger Forschungsbedarf

Aus den in diesem Beitrag präsentierten Befunden lassen sich zunächst im Ansatz Gestaltungsempfehlungen für das Wertschöpfungsmanagement im demographischen Kontext ableiten. Darüber hinaus eröffnen sie die Blickrichtung auf zukünftigen Forschungsbedarf, der sich im Lichte dieser Befunde abzeichnet. Der grundlegende Stellenwert einer engen Interaktionsrelationierung von Marketing und Produktion in corpore bzw. von Produkt- und Produktionsmanagement in concreto auf den saturierten Nachfragermärkten gegenwärtiger Prägung wird sowohl in Wissenschaft als auch Praxis einhellig konzediert. Da in den hierzu entwickelten Konzepten, welche von der Erfassung der Nachfragerwünsche über die eigentliche Faktortransformation zur Hervorbringung von Produkten bis hin zur laufenden Analyse von Kundenzufriedenheit und -bindung reichen, ein weiter Rahmen gespannt wird, fokussiert der Untersuchungskern dieses Beitrags auf eine Abschätzung des Stellenwerts der zentralen Determinanten der Markensympathie als kaufverhaltensprägendes Konstrukt. Die Markensympathie wird von expressiven und funktionalen Kongruenzperzeptionen ausgestaltet. Auf den als „Silbermarkt“ bezeichneten Märkten, auf denen Nachfrager ab 60 bzw. 65 Jahren Lebensalter agieren, entstehen Werte für Silberkonsumenten primär dann, wenn die angebotenen Produkte und Leistungen funktionale Leistungsanforderungen abbilden können. Die hierzu erforderliche physikalisch-chemisch-technische Struktur der Produkte sollte auf die biologisch-physiologischen Einschränkungen der älteren Nachfrager eingehen. Die UrsacheWirkungs-Kette ist cum grano salis gekennzeichnet davon, dass die Leistungsangebote der Hersteller sensorische, kognitive, motorische und emotionale Potentiale verbessert adressieren. Hieraus erwächst aus Sicht der Nachfrager eine wahrgenommene funktionale Kongruenz, die Markensympathie induziert. Das Empfinden von Sympathie gegenüber einem Produkt prägt das Kaufverhalten und aktiviert Entscheidungsprozesse, da die Wahrnehmung von Komplexität in Entscheidungssituationen reduziert wird. Es lässt sich durchaus argumentieren, dass die Markensympathie als zentrale kaufverhaltensprägende Determinante für Silberkonsumenten bislang nicht eindeutig identifiziert ist. An dieser Stelle besteht also Forschungsbedarf. Es lässt sich jedoch auf der Grundlage der oben angeführten Befunde argumentieren, dass Silberkonsumenten wegen der im Alter zwangsläufig emergierenden kognitiven Einschränkungen nicht mehr eindeutig und trennscharf relevante Daten aus einer empfangenen Datenflut ausfiltern können. Sensorisch-auditive und kognitive Defizite interferieren. In dieser Konsequenz wird es aus Sicht von Silberkonsumenten umso wichtiger, anhand von wenigen Indikatoren auf die Vorziehenswürdigkeit eines Leistungsangebots schließen zu können. Ein solcher Indikator wird in der Markensympathie gesehen. Dieser Indikator wiederum differenziert sich primär funktional aus. Das Herausstellen von Produktbeschreibungen auf den Verpackungen, das Vermeiden von Graphiken mit Wischeffekten oder Nebeleffekten, und das Wiederholen wichtiger Informa-

196

A. Berzlanovich und R. Lampert

tionen auf dem Produkt und seiner Verpackung unterstützt die Ausprägung von funktionaler Kongruenz und führt mithin zum Aufbau von Markensympathie. Produkte und Verpackungsgrößen sind an die eingeschränkten motorischen Fähigkeiten der Silberkonsumenten anzupassen. Die Darreichungsform von Produkten und Präparaten sollte auf die verringerte Körperkraft und Leistungsfähigkeit der Senioren abgestimmt sein. Handlungsleitend für das Agieren der Silberkonsumenten sind die Instruktionen im limbischen System. Bei älteren Menschen ist der relative Anteil von Cortisol an den insgesamt vorhandenen Nervenbotenstoffen und Hormonen am größten. Cortisol als Stress- und Angsthormon induziert in Silberkonsumenten das Bedürfnis nach „sicheren“ Produkten. Aus Sicht eines Leistungsanbieters sollten seine Produkte dem Silberkonsumenten also ein Gefühl von Sicherheit und Stabilität vermitteln. Gleichzeitig spielt Serotonin eine wichtige Rolle. Die innerliche Gelassenheit wird durch den im Vergleich zur Jugend deutlich schnelleren Abbau von Serotonin sehr leicht aus dem Gleichgewicht gebracht. Silberkonsumenten sind in der Folge nur sehr eingeschränkt risikobereit. Risikoaversität manifestiert sich aus Sicht von Silberkonsumenten durch den regelmäßigen, gleichlaufenden und gleichbleibenden Konsum eines Produkts – eines als sympathisch empfundenen Produkts. In dieser Sicht erwächst Forschungsbedarf, um herauszufinden, in welchem Umfang Kundenloyalität und Kundenbindung bei Silberkonsumenten auf der Grundlage der Veränderungen im limbischen System kaufverhaltensbeeinflussend sind. Grundsätzlich erscheint von großem Stellenwert, zu erforschen, inwieweit die biologisch-physiologischen Veränderungen der Nachfrager im skizzierten demographischen Kontext die bislang erforschten Ursache-Wirkungs-(Ursache-)Zusammenhänge zum Konsumentenverhalten bestätigen, ergänzen, oder abändern. Aus produktionswirtschaftlicher Sicht schlägt sich die Entwicklung im demographischen Kontext gleichsam auf das komplette Produktionsmanagement im strategisch-taktischen Handlungsgefüge durch. Angefangen von denkbaren Modifikationen im Produktionsprogramm können weitere Anpassungen auch im Faktor- und Prozeßmanagement erforderlich werden. Eine Reihe an offenen Forschungsfragen erstreckt sich zum Beispiel auf kosten-, qualitäts- und zeitoptimale Koordinations- und Interaktionsrelationierungsformen für industrielle Wertschöpfung, sofern der Qualitätsbegriff nicht mehr technisch bzw. undifferenziert-kundenorientiert interpretiert wird, sondern silbermarktkundenorientiert unterfüttert und präzisiert ist. Die im Alter veränderten Qualitätsanforderungen von Silberkonsumenten sind durch die Veränderungen im limbischen System induziert. Die genaue Stärke dieses Ursache-Wirkungs-Zusammenhangs jedoch ist noch unerforscht. Diese Forschung erscheint jedoch notwendig, nicht zuletzt, weil die Gestaltung der Qualität eine Scharnierfunktion zur Kopplung von Anbieter und Nachfrager einnimmt. Die bestehenden Modelle und Erklärungssysteme zur Interaktionsrelationierung von Produkt- und Produktionsmanagement werden also ggf. in Sinnzusammenhang des demographischen Kontexts bestätigt, ergänzt, oder abgeändert. Diese Überlegung berührt im Kern das Postulat, wonach Marketing und Produktion auch im demographischen Kontext auf den Märkten der Zukunft zwei zentrale Funktionsbereiche betrieblicher Wertschöpfung darstellen werden. Während die Interaktionsrelationierung von Produkt- und Produktionsmanagement bislang allerdings dominiert war von der Orientierung an der Erfüllung von Nutzenvorstellungen und Werthaltungen der Nachfrager, wird sich diese Sicht voraussichtlich modifizieren. Auf den Silbermärkten der Zukunft sind die Nutzenvorstellungen und Werthaltungen nach wie vor, die Allokation der Wertschöpfung treibende, Einflussfaktoren. Sie werden jedoch zu ergänzen sein um die Fokussierung auf die hinreichende Unterfütterung der biologisch-physiologischen

Wertschöpfungsmanagement im demographischen Kontext

197

Veränderungen, die für eine Mehrzahl der Silberkonsumenten auf saturierten Märkten mehr und mehr handlungsleitend werden. Letztlich stehen damit hinter den Nutzenvorstellungen und Werthaltungen der Konsumenten deren durch biologisch-physiologische Veränderungen im limbischen und körperlichen System induzierten Kaufverhaltensmerkmale. In dieser Sicht wären dann zum Beispiel auch Konzepte zum marktorientierten Produkt- und Produktionsmanagement entsprechend an die Bedürfnisse der Silbermärkte anzupassen bzw. weiterzuentwickeln. Literatur Albers, S.; Herrmann, A. (Hrsg.) (2007): Handbuch Produktmanagement. Strategieentwicklung, Produktplanung, Organisation, Kontrolle, 3., überarbeitete und erweiterte Auflage, Wiesbaden. Bellmann, K. (2002): Pay-as-built. Innovative Organisationsmodelle in der Automobilproduktion. In: Albach, H.; Kaluza, B.; Kersten, W. (Hrsg.): Wertschöpfungsmanagement als Kernkompetenz. Festschrift für Horst Wildemann, Wiesbaden, S. 219–237. Berscheid, E.S.; Walster, E. (1978): Interpersonal Attraction, 2. Auflage, Reading. Coulmas, F. (2007): Die Gesellschaft Japans. Arbeit, Familie und demographische Krise, München. Gilmore, G. W. (1919): Animism, Boston. Gutenberg, E. (1951): Grundlagen der Betriebswirtschaftslehre, Band 1 – Die Produktion, Berlin. Gutenberg, E. (1955): Grundlagen der Betriebswirtschaftslehre, Band 2 – Der Absatz, Berlin. Herrmann, A. (1996): Nachfragerorientierte Produktgestaltung. Ein Ansatz auf Basis der „means end“Theorie, zugl.: Mannheim, Univ., Habil.-Schr., Wiesbaden. Herrmann, A.; Huber, F. (2008): Produktmanagement. Grundlagen, Methoden, Beispiele, 2., vollständig überarbeitete Auflage, Wiesbaden (forthcoming). Himpel, F.; Berzlanovich, A. (2007): Produkt- und Produktionsmanagement für Konsumgüter auf dem japanischen Silbermarkt, in: Bellmann, K.; Haak, R. (Hrsg.): Der japanische Markt. Herausforderungen und Perspektiven für deutsche Unternehmen, Wiesbaden, S. 87–100. Himpel, F. (2004): Marktorientiertes Produkt- und Produktionsmanagement. Zur Gestaltung der Interaktion zwischen Marketing und Produktion, zugl.: Mainz, Univ., Diss. 2003, Wiesbaden. Himpel, F.; Lampert, R. (2004): Markenmanagement und Qualitätsmanagement. Eine empirische und simulationsbasierte Analyse ihrer Wechselwirkungen, Wiesbaden. Hu, L.; Bentler, P. M. (1995): Evaluating model fit, in: Hoyle, R. H. (Hrsg.): Structural Equation Modeling. Concepts, Issues, and Applications, Thousand Oaks, S. 76–99. Huber, F. (2004): Erfolgsfaktoren von Markenallianzen. Analyse aus der Sicht des strategischen Markenmanagements, zugl.: St. Gallen, Univ., Habil.-Schr. 2002, Wiesbaden. Huber, F.; Meyer, F.; Vollhardt, K.; Schuhmann, S. (2007): Ist weniger mehr? Die negativen Wirkungen der Produktvielfalt auf das Nachkaufempfinden, Wissenschaftliches Arbeitspapier F20, Center of MarketOriented Product and Production Management (CMPP), Johannes Gutenberg-Universität Mainz, Mainz. Kroeber-Riel, W.; Weinberg, P. (1996): Konsumentenverhalten, 6. Auflage, München. Lampert, R. (2008): Markensympathie. Konzeptionelle Grundlagen und Determinanten. In: Bauer, H. H.; Huber, F.; Albrecht, C.-A. (Hrsg.): Erfolgsfaktoren der Markenführung. Know-how aus Forschung und Management, München, S. 343–356. Mikula, G. (1977): Interpersonale Attraktion. Ein Überblick über den Forschungsgegenstand, in: Mikula, G.; Stroebe, W. (Hrsg.): Sympathie, Freundschaft und Ehe. Psychologische Grundlagen zwischenmenschlicher Beziehungen, Bern, S. 13–40. Ohlwein, M. (1999): Märkte für gebrauchte Güter, zugl.: Mannheim, Univ., Diss., Wiesbaden.

198

A. Berzlanovich und R. Lampert

Piller, F. T. (2006): Mass Customization. Ein wettbewerbsstrategisches Konzept im Informationszeitalter, 4., überarbeitete und erweiterte Auflage, Wiesbaden. Reichwald, R. (2007): Technologieorientierte Betriebswirtschaftslehre, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, Sonderheft 56/07: Zukunft der Betriebswirtschaftslehre, herausgegeben von Elmar Gerum und Georg Schreyögg, Düsseldorf, S. 112–139. v. Wangenheim, F. (2003): Der ökonomische Wert der Weiterempfehlung. Konzeptionelle Grundlagen, empirische Ergebnisse und Management-Implikationen, zugl.: Mainz, Univ., Diss. 2002, Wiesbaden. Wermeyer, F. (1994): Marketing und Produktion. Schnittstellenmanagement aus unternehmensstrategischer Sicht, zugl.: Köln, Univ., Diss., Wiesbaden.

Die Wirkung der Vergleichbarkeit von Merkmalsausprägungen auf die Wichtigkeit des Produktmerkmals Andreas Herrmann, Mark Heitmann, Frank Huber und Jan R. Landwehr

1

Bedeutung der Vergleichbarkeit von Merkmalsausprägungen als Determinante der Wichtigkeit des Produktmerkmals

Die Bestimmung der aus Perspektive der Kunden wichtigen Produktmerkmale gehört zu den zentralen Anliegen im Rahmen einer marktorientierten Produktgestaltung (Urban, Hauser, 1993; S. 176ff.; Brockhoff, 1999, S. 119ff.). Zumeist erhebt der Anbieter im Vorfeld der Produktentwicklung bzw. -erzeugung die Wünsche und Vorstellungen seiner tatsächlichen oder potenziellen Nachfrager, um daraus Anhaltspunkte für die Wichtigkeit einzelner Produktmerkmale abzuleiten. Die Merkmalswichtigkeiten liefern den Produktgestaltern Hinweise auf jene Leistungsdimensionen, die für den Markterfolg von zentraler Bedeutung sind. Damit lässt sich der Prozess der Produktgestaltung über die verschiedenen Entwicklungs- und Produktionsstufen hinweg auf die Markterfordernisse ausrichten. Zudem können die zumeist auf individuellem Niveau erhobenen Merkmalswichtigkeiten als Basis für eine Kundensegmentierung herangezogen werden (Wedel, Kamakura, 1999). Ist die Anzahl der zu betrachtenden Segmente bekannt, lässt sich darüber hinaus die Frage beantworten, wie viele Produktvarianten zur Marktbearbeitung erforderlich sind (Kahn, 1998; Lehmann, 1998). In Anbetracht der besonderen Relevanz der Merkmalswichtigkeiten ist es nicht überraschend, dass zu deren Erfassung zahlreiche Verfahren entwickelt wurden. Neben einer Reihe von qualitativen Methoden (Urban, Hauser, 1993, S. 253ff.), die auf unterschiedlichen Interaktionstechniken beruhen, existieren auch quantitative, von denen das Conjoint Measurement sehr bekannt und weit verbreitet ist (Perry, 1996). Zahlreiche Autoren weisen bei der Diskussion dieser multivariaten Technik immer wieder darauf hin, dass von der Art und Weise des Untersuchungsdesigns eine Wirkung auf die Urteile der Befragten bezüglich der Wichtigkeit von Produktmerkmalen ausgeht (Sattler, Hensel-Börner, Krüger, 2001). Diese Ausführungen betreffen die Anzahl der Merkmalsausprägungen, die man Individuen zur Bewertung vorlegt und kreisen um Möglichkeiten, Merkmalsausprägungen sinnlich erlebbar zu machen. Darüber hinaus erörtern Autoren die Schwierigkeit, die individuellen Heuristiken zur Herausbildung von Merkmalswichtigkeiten zu erfassen und betonen das Problem der zeitlichen, produktbezogenen und gattungsübergreifenden Stabilität der Wichtigkeitsurteile (Sattler, Gedenk, Hensel-Börner, 2002; Tybout et al., 2005). Weitere Überlegungen gelten den emotionalen Einflüssen auf die Wichtigkeitsurteile sowie dem Umstand, dass die Merkmalswichtigkeiten zumeist aus Präfe-

200

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

renzurteilen und nicht aus dem tatsächlichen Wahlverhalten abgeleitet sind (Bradlow, Huy, 2004; Sattler, Ernst, 2000). Ohne Zweifel sind diese designspezifischen und entscheidungstheoretischen Aspekte zu bedenken, zielt man darauf ab, die Wichtigkeit von Produktmerkmalen aus Kundenperspektive zu bestimmen. Was in den Schriften zum Conjoint Measurement und zu allen anderen Verfahren jedoch fehlt, ist eine Erörterung jener Determinanten der Merkmalswichtigkeit, die im Wesen der Merkmale bzw. deren Ausprägungen liegen. Den Erkenntnissen von Markman und Medin (1995, S. 120 ff.) zufolge spielt insbesondere die „attribute alignability“ bei der Erklärung der Merkmalswichtigkeit eine zentrale Rolle (Markman, Gentner, 1997, S. 365 ff.; Lassaline, 1996, S. 758ff.). Aus ihren Studien geht hervor, dass die Vergleichbarkeit der Ausprägungen eines Merkmals (so kann „attribute alignability“ für das erste, schnelle Verständnis übersetzt werden) für dessen Wichtigkeit bedeutsam ist. Insofern kommt dieses Konstrukt in Betracht, die Urteile von Individuen über die Wichtigkeit von Produktmerkmalen zu analysieren. Hierbei ist zu klären, ob und inwieweit sich die Relevanz eines Merkmals für eine Person durch eine Veränderung der Vergleichbarkeit seiner Ausprägungen beeinflussen lässt. Zur Bewältigung dieser Aufgabe soll wie folgt vorgegangen werden: Zunächst interessiert der Ansatz der „attribute alignability“, aus dem sich im Folgenden Hypothesen über die Wirkung der Vergleichbarkeit von Merkmalsausprägungen auf die Wichtigkeit eines Produktmerkmals formulieren lassen. Im Rahmen einer empirischen Untersuchung sollen die Hypothesen getestet werden. Aus den erzielten Ergebnissen ergeben sich Implikationen für die Produktgestaltung und das Design von empirischen Studien zur Erfassung der Merkmalswichtigkeiten.

2

Urteile über Produktunterschiede und Produktähnlichkeiten auf Basis der Vergleichbarkeit von Merkmalsausprägungen

Im Mittelpunkt der Rekonstruktion zahlreicher mentaler Prozesse in der Kundenpsyche steht das Konzept der (Un-)Ähnlichkeit von Objekten (oder Subjekten). Ihm liegt die Idee zugrunde, dass eine Person bei der Beurteilung der Ähnlichkeit zweier oder mehrerer Objekte alle für sie wichtigen Objektfacetten zu einem Gesamturteil verknüpft. Hierbei gelangen Gentner und Markman (1994, S. 152) zu der Erkenntnis, dass „… the general consensus of research on simularity is, that pair’s simularity increases with its commonalities and decreases with its differences …“ (Medin, Goldstone, Gentner, 1990; McGill, 2002). In dieser Tradition sind eine Reihe von empirischen Untersuchungen entstanden, die auf die Erfassung von Gemeinsamkeiten und Unterschieden zwischen Objekten bei der Herausbildung von Ähnlichkeitsurteilen abzielen (Zhang, Markman, 2001; Zhang, Kardes, Cronley, 2002). Die vom Individuum erlebte Ähnlichkeit zwischen zwei oder mehreren Produkten dient zur Erklärung der Objektwahrnehmung und der sich anschließenden Kategorisierungs- und Auswahlentscheidung (Markman, 1996). Diese Überlegungen vor Augen sind in den letzten Jahren Ansätze zur Erklärung der Wahrnehmung von Gemeinsamkeiten und Unterschieden zwischen Objekten auf Basis von Merkmalen entwickelt worden. Zhang und Markman (1998, S. 414) zur Folge bilden Individuen Ähnlichkeitsurteile mittels „… three types of represented properties: commonalities, which are matching elements between a pair of items; alignable differences, which are corresponding aspects of a pair that differ; and non-alignable differences, which are aspects of one object that have no correspondence with the other …“. Die Grundidee dieses Konzepts der Vergleichbar-

Vergleichbarkeit von Merkmalsausprägungen

201

keit von Merkmalen bringen Gourville und Soman (2005, S. 384; Zhang, Fitzsimons, 1999) wie folgt zum Ausdruck: Sie definieren „… an alignable difference in terms of an attribute that is readily comparable between the two alternatives. Thus, the fact that one car gets 24 miles per gallon and the second car gets 28 miles per gallon would be an alignable difference …“. Im Gegensatz dazu verstehen sie „… a non-alignable difference in terms of an attribute that is possessed by one alternative, but not by the other. Thus, one car having the sunroof and a second car having leather interior would constitute a non-alignable difference …“. Zur Verdeutlichung dieser Idee seien die drei Handys Samsung SGH-D820, Motorola A780 und BenQ-Siemens S81 betrachtet. Diese Geräte weisen die Gemeinsamkeit („commonality“) auf, dass sie alle mit der Speicherkarte Transflash/Micro SD ausgestattet sind. Das Gewicht der Handys verkörpert hingegen einen „alignable difference“; das Gerät von Samsung wiegt 90 g, das von Motorola 130 g und das von BenQ-Siemens 99 g. Bei einem „non-alignable difference“ besitzt ein Produkt eine Facette, der bei einem anderen Erzeugnis nichts Vergleichbares gegenübersteht. Im Beispiel gehören hierzu der TV-Ausgang beim Samsung-Handy, die Linux-Oberfläche des Motorola A780 und die Blitzlichtkamera beim Gerät von BenQ-Siemens. Die Idee der Vergleichbarkeit von Merkmalen („attribute alignability“) lässt sich mit Blick auf die Ausführungen von Johnson (1984, S. 741ff.) vertiefen, der zwischen vergleichbaren und nicht-vergleichbaren Alternativen unterscheidet. Dabei bringt die Vergleichbarkeit von Optionen zum Ausdruck, inwieweit diese durch identische Merkmale beschrieben werden können. Ein Urteil über vergleichbare Produkte (z. B. zwei TV-Geräte) erfordert „within attribute tradeoffs“, die ohne besondere Anstrengungen zu bewältigen sind. Die beiden Erzeugnisse weisen eine gemeinsame Menge von Merkmalen (z. B. Anzahl Programme) auf, so dass sie lediglich in den Ausprägungen (z. B. 60 oder 80 Programme) bei diesen Merkmalen variieren. Dagegen verlangt die Bewertung von nicht-vergleichbaren Alternativen (z. B. ein Kühlschrank und eine Wochenendreise) die emotional und kognitiv anstrengenden „between attributes tradeoffs“. Die beiden Optionen zeichnen sich durch unterschiedliche Merkmale (z. B. Wasserverbrauch und Fassungsvermögen versus Kulturprogramm und Hotelkategorie) aus, weshalb ein Vergleich nicht ohne Weiteres möglich ist. Johnson (1984, S. 744 ff.) stellt im Rahmen empirischer Untersuchungen fest, dass Individuen nach abstrakten Merkmalen suchen, die es ihnen ermöglichen, beide Produkte anhand der gleichen Attribute einzuschätzen. Zu diesen Merkmalen gehören im betrachteten Beispiel etwa der Preis, der Komfort, die Lebensqualität etc. Sind diese Attribute identifiziert, lassen sich selbst auf den ersten Blick nicht-vergleichbare Optionen schnell und einfach anhand von Unterschieden bei den Ausprägungen (im Preis niedrig, im Preis hoch oder schafft mehr bzw. weniger Lebensqualität) beurteilen. Auf dem Weg der sukzessiven Abstraktion von Merkmalen wandeln sich vordergründig nicht-vergleichbare Produkte schrittweise in vergleichbare, oder in der Sprache von Markman und Medin (1995, S. 118 ff.): Individuen generieren „alignable“ Merkmale, um emotional und kognitiv bewältigbare Entscheidungen über Produkte treffen zu können.

3

Hypothesen über die Wirkung der Vergleichbarkeit von Merkmalsausprägungen auf die Wichtigkeit des Produktmerkmals

Erste empirische Untersuchungen zur Produktevaluation erweckten den Eindruck, dass Individuen bei der Herausbildung von Ähnlichkeitsurteilen vor allem nach Gemeinsamkeiten („commonalities“) zwischen den interessierenden Objekten suchen (Gentner, Markman, 1994; Gold-

202

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

stone, Medin 1994; Yamauchi, Love, Markman, 2002). Die zwischen Objekten bestehenden „commonalities“ wurden von vielen Forschern als die für den Produktvergleich relevanten Beurteilungsdimensionen betrachtet. Aus neueren Arbeiten geht hingegen die Bedeutung der „alignable differences“ für einen Entscheider hervor, da sie sowohl Gemeinsamkeiten als auch Unterschiede zwischen den Objekten ausdrücken (Chernev, 2003). Sie verkörpern Gemeinsamkeiten insofern, als ein Ähnlichkeitsvergleich von Objekten auf Basis gemeinsamer Merkmale möglich ist. Zudem repräsentieren sie Unterschiede, da die betrachteten Objekte im Hinblick auf ihre verschiedenen Ausprägungen bei diesen Merkmalen voneinander abweichen. „This dual identity makes alignable differences special and makes them the focal output of comparison. In contrast, non-alignable differences are not a focal output of comparison and often are ignored …“ (Zhang, Markman 1998, S. 414). Aus der neueren Wahrnehmungsforschung geht hervor, dass ein Kunde bei der Betrachtung von „alignable differences“ (im Unterschied zu „non-alignable differences“) die Ähnlichkeit zwischen Produkten ohne besondere kognitive und emotionale Anstrengungen zu beurteilen vermag (Zhang, Markman, 2001; Markman, Gentner 2005; Gentner, Gunn 2001). Ein „alignable“ Attribut verkörpert ein Kriterium, das einen Vergleich der zur Auswahl stehenden Produkte auf einem Kontinuum erlaubt, wobei ein Produkt (z. B. 80 g Gewicht) einen Anker für ein anderes (z. B. 96 g Gewicht) bildet. Dagegen erfordert ein Produktvergleich auf Basis von „nonalignable“ Attributen einen gedanklichen Abstraktionsprozess, um die verschiedenen Merkmale und deren Ausprägungen (z. B. mit Blitzlichtkamera, mit TV-Ausgang) auf einer gemeinsamen abstrakten Skala miteinander vergleichen zu können. Diese Informationseffizienz und das damit verbundene kognitive und emotionale Wohlbefinden beim Entscheider ist es, was Zhang und Markman zur Vermutung veranlasst, dass Individuen bei Ähnlichkeitsurteilen nach „alignable differences“ Ausschau halten und dass diese Unterschiede eine zentrale Bedeutung bei Produktvergleichen besitzen1. Insofern liegt folgende Hypothese auf der Hand: H1: „Alignable“ Merkmale sind für ein Individuum im Rahmen der Wahrnehmung und Beurteilung von Produkten wichtiger als „non-alignable“ Merkmale. Dabei interessiert die relative Wichtigkeit zwischen diesen beiden Merkmalsarten, da nicht davon ausgegangen werden kann, dass alle „alignable“ Attribute per se wichtiger sind als alle „non-alignable“. Diese Argumentation lässt sich entscheidungstheoretisch durch einen Rückgriff auf die „time costs“ vertiefen, die alle gedanklichen und emotionalen Bemühungen eines Individuums bei der Produktwahl umfassen (Loewenstein, 2000, S. 17ff.). Damit gemeint ist insbesondere die Anwendung jener Entscheidungsregeln, die bei der Evaluation und Selektion komplexer bzw. polytroper Produkte zum Einsatz kommen. Hierzu zählen etwa die Dominanz-, die lexikografische, die konjunktive und die disjunktive Regel, die allesamt bei einer Produktwahl nach Attributen Verwendung finden. Es liegt auf der Hand, dass diese Heuristiken im Falle von vergleichbaren Attributen schneller und leichter einsetzbar sind als bei der Wahrnehmung und Beurteilung von 1

„Alignable attributes“ tragen zudem dazu bei, dass eine Person das Gefühl entwickelt, ein Ähnlichkeitsurteil abgegeben zu haben, mit dem sie zufrieden sein kann. Die Zufriedenheit mit dem Produktvergleich ist bei Ähnlichkeitsurteilen auf der Basis von „alignable differences“ gegenüber Aussagen auf der Grundlage von „non-alignable differences“ zumeist besser. Wie verschiedene Studien zeigen, wirkt die vom Individuum erlebte Zufriedenheit mit der Kaufentscheidung auf seine Konsumzufriedenheit. Damit liegen Erkenntnisse vor, wonach die Vergleichbarkeit der Ausprägungen von Merkmalen die Zufriedenheit mit Produkten beeinflussen. Vgl. Zhang/Fitzsimons 1999 und Fitzsimons/Greenleaf/Lehmann (2004).

Vergleichbarkeit von Merkmalsausprägungen

203

Produkten mittels nicht-vergleichbarer Merkmale (Markman, Gentner 2005, S. 113 ff.). Empirische Untersuchungen, die die niedrigeren „time costs“ bei „attribute alignability“ im Vergleich zu den Kosten bei „non-alignability“ im Rahmen der Beurteilung komplexer Erzeugnisse belegen, liefern Medin, Goldstone und Gentner (1993, S. 260 ff.; Markman, Gentner 1994). Daneben existieren auch „error costs“, die die Vermutung des Kunden reflektieren, trotz umfassender Suche und Bewertung doch nicht das beste Erzeugnis gefunden zu haben. Diese Bedenken münden in „psychic costs“, unter denen man die Befürchtung eines Individuums versteht, Bedauern über das gewählte Produkt zu empfinden (Loewenstein 2000; Chapman, Johnson, 1999). Zahlreiche Studien belegen die Wirkung des antizipierten „regret“ auf das individuelle Entscheidungsverhalten, wobei vielfältige Kognitionen und Emotionen das Bedauern begleiten (Zeelenberg 1999; Tsiros, Mittal 2000). Zhang, Kardes und Cronley (2002, S. 305 ff.) zeigen, dass bei einer Entscheidung für ein Produkt die „error“ und „psychic costs“ niedriger sind, sofern dieses Gut mit „alignable attributes“ wahrgenommen und beurteilt werden kann. Liegt eine beachtliche Menge von zur Auswahl stehenden Produkten vor, wirken die „psychic costs“ in besonderer Weise. Individuen müssen zahlreiche Optionen ausschlagen und mögen sich stets vor Augen führen, dass sie das passende Produkt in Anbetracht der Vielzahl kaum finden und im Anschluss an den Kauf und Konsum die getroffene Entscheidung bedauern (Heitmann, Herrmann, 2006). Insofern stellen „non-alignable attributes“ eine besondere kognitive und emotionale Herausforderung bei der Produktwahl dar, weshalb sich viele Kunden an „alignable attributes“ orientieren. Diesen kommt daher bei der Wahrnehmung und Beurteilung insbesondere von komplexen bzw. polytropen Produkten eine zentrale Bedeutung zu: H2: „Alignable“ Merkmale sind für ein Individuum umso wichtiger, je mehr Ausprägungen die Merkmale aufweisen. Liegen Attribute mit wenigen Ausprägungen vor, ist die Merkmalsart („alignable, non-alignable“) unbedeutend. Bei Attributen mit vielen Ausprägungen spielt die Merkmalsart eine wichtige Rolle für die Merkmalswichtigkeit. Autoren weisen darauf hin, dass sich Experten durch die Art und Weise der Präsentation von Produktinformationen in ihrem Urteil über Produkte bzw. deren Eigenschaften und Ausprägungen in geringerem Maße beeinflussen lassen als etwa Personen ohne besondere Expertise (Chernev, 2003; Alba, Hutchinson, 1987). In zahlreichen empirischen Untersuchungen fungiert die individuelle Expertise als Moderator des Zusammenhangs zwischen der Beschaffenheit von Produktmerkmalen und dem Urteil einer Person über diese Attribute (Flynn, Goldsmith, 1999; Johnson, Russo 1984). Diese Arbeiten zeigen Unterschiede zwischen Experten und Laien bei der Aufnahme und Verarbeitung von Produktinformationen sowie der Wirkung von Emotionen auf den kognitiven Beurteilungsprozess. Solche Erkenntnisse sind auch für den in diesem Beitrag diskutierten Sachverhalt relevant, da die Vermutung auf der Hand liegt, dass sich Laien in stärkerem Maße als Experten durch die „attribute alignability“ in ihren Wichtigkeitsaussagen manipulieren lassen. Vor einer Hypothesenformulierung bedarf es jedoch zunächst einer Präzisierung des Konstrukts der Expertise. In Anlehnung an die Literatur zu diesem Thema lässt sich mit Johnson, Fornell und Lehmann postulieren, dass zwischen Wissen und Erfahrung zu unterscheiden ist (Johnson, Fornell, Lehmann, 1988). Der Grund hierfür liegt in der Erkenntnis, dass Wissen nicht zwingend aus Erfahrung resultiert. „Expertise constitutes the stored or available information which may or may not result from experience. We distinguish knowledge from experience

204

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

in this regard and … treat knowledge as the memory-based information available to the consumer …“ (Johnson, Fornell, Lehmann, 1988, S. 7; Johnson, 1987). Dieser Idee zufolge erwirbt ein Individuum dann mit Produkten Erfahrung, wenn eine praktisch-gegenständliche Begegnung mit den Erzeugnissen erfolgt. Erfahrung in diesem Sinne ist gewonnen aus einer bestimmten Anzahl von Produktwahlhandlungen sowie einem sich anschließenden Ge- oder Verbrauch und hat als solche exemplarischen Charakter. Sie vermittelt der Person jedoch die Fähigkeit einer schnellen, einfachen und sicheren Orientierung im Rahmen des Auswahlprozesses. Insofern lässt sich Produkterfahrung als ein durch tatsächliche Kauf- und Konsumhandlungen erlerntes empirisches Wissen über Produkte auffassen, das man sich aneignen kann, ohne dass ein Rückgriff auf ein hiervon unabhängiges theoretisches Wissen erforderlich wäre (Johnson et al., 1992, S. 135 ff.). Letzteres verkörpert Sachverhalte, die begrifflich oder bildlich kodiert sind und ein Kunde unabhängig von der tatsächlichen Begegnung mit dem Erzeugnis erwirbt (Johnson, 1987). Es ist unbestritten, dass die Bewältigung vielfältiger Aufgaben verschiedene Typen von theoretischem und empirischem Wissen erfordert. Alba and Hutchinson (1987, S. 412 ff.) postulieren fünf Facetten des Produktwissens (gemeint ist hier Wissen und Erfahrung), die sich entweder auf dem Wege einer gegenständlichen Begegnung oder allein durch eine gedankliche Auseinandersetzung vertiefen lassen. Nahezu alle Studien, die an diese Arbeiten anknüpfen, gelangen zu dem Resultat, dass Produktwissen eine Wirkung auf die Wahrnehmung und Beurteilung auch von „alignable“ bzw. „non-alignable“ Attributen entfaltet (Zhang, Markman, 2001, S. 15ff.). Experten sind im Unterschied zu Laien eher in der Lage, Produktattribute (auch „nonalignable“ Merkmale) ohne besondere Anstrengungen zu erfassen, miteinander zu vergleichen und zu beurteilen. Zudem neigen erfahrene Individuen nur selten dazu, fehlerhafte Folgerungen etwa über Produktverwendungen aus den Produktinformationen abzuleiten. Sie verfügen darüber hinaus über gedankliche Mechanismen zur Reduktion und Verdichtung von Produktmerkmalen und deren Ausprägungen. Viele Experten besitzen Muster, um technische oder nicht ohne Weiteres verständliche Produktinformationen zuverlässig etwa in Nutzenstiftungen zu übersetzen. Fasst man alle diese Argumente zusammen, so liegt folgende Hypothese nahe: H3: Die individuelle Expertise reduziert den relativen Wichtigkeitsunterschied zwischen „alignable“ und „non-alignable“ Attributen. Sie dreht ihn nicht um in dem Sinne, dass nicht-vergleichbare Merkmale relativ wichtiger sind als vergleichbare, schwächt ihn jedoch ab.

4

Eine empirische Untersuchung

4.1 Untersuchungsdesign und Datensatz Zur Überprüfung der zuvor formulierten Hypothesen kommt eine empirische Untersuchung unter Rückgriff auf einen Fahrzeugkonfigurator in Betracht. Bei der Gestaltung eines Erzeugnisses mittels des Konfigurators treffen Individuen zahlreiche Entscheidungen über bestimmte Ausprägungen von Produktmerkmalen. Diese können ohne besonderen technischen Aufwand für jedes einzelne Individuum z. B. entweder als „alignable“ oder als „non-alignable“ dargeboten werden. Damit lassen sich die Veränderungen der Merkmalsausprägungen in eine vielen Kunden vertraute Spielart der Produktgestaltung (eben die der Konfiguration) integrieren.

205

Vergleichbarkeit von Merkmalsausprägungen

Folglich sind die Experimente sehr realitätsnah, was ihre Bedeutung für die Ableitung praxisrelevanter Handlungsempfehlungen und für das Verständnis von Entscheidungsverhalten unterstreicht. Zur Durchführung der einzelnen Studien wurde sechs Items (Radio, Räder/Reifen, Außenspiegel, Lenkräder, Informationssystem, Sicherheitssystem) ausgewählt, wobei die Räder/Reifen für eine Manipulation geeignet erscheinen. Tabelle 1 zeigt diese Ausstattungskomponente in ihrer „alignable“ und „non-alignable“ Spielart. Dieses Item ist wie fast alle anderen Pkw-Merkmale nicht per se „alignable“ oder „non-alignable“. Beispielsweise bildet das Radio ein „alignable“ Attribut, sofern jede Ausprägung eine bestimmte Anzahl von Lautsprechern (z. B. 4, 6 oder 8) aufweist. Besitzt hingegen eine Ausprägung einen CD Wechsler und eine andere ein Dolby Sound System, ist dieses Item als „non-alignabale“ zu kennzeichnen. Offenbar hängt das Ausmaß, in dem Eigenschaften als vergleichbar oder nicht-vergleichbar gelten, von deren Präsentation durch das Unternehmen und von der Wahrnehmung durch die Kunden ab. Tabelle 1:

Ausprägungen des Items „Räder/Reifen“

Räder/Reifen als „alignable“ Item

Räder/Reifen als „non-alignable“ Item

Gussräder aus Aluminium im 7-SpeichenStern-Design, 7 J × 16

Gussräder aus Aluminium im 6-Speichen-StrukturDesign, 7,5 J × 17, diebstahlsichere Radschrauben

Gussräder aus Aluminium im 7-SpeichenStern-Design, 7,5 J × 16

Gussräder aus Aluminium im 7-DoppelSpeichen-Design, 7,5 J × 17, einteilig

Gussräder aus Aluminium im 7-SpeichenStern-Design, 7,5 J × 17

Gussräder aus Aluminium im 20-SpeichenDesign, 7,5 J × 17, zweiteilig

Gussräder aus Aluminium im 7-SpeichenStern-Design, 8 J × 17

Schmiederäder aus Aluminium im 7-ArmDynamik-Design, 7,5 J × 17, einteilig

Gussräder aus Aluminium im 7-SpeichenStern-Design, 8 J × 18

Gussräder aus Aluminium im Kreuz-SpeichenDesign, 7,5 J × 17, zweiteilig

Gussräder aus Aluminium im 7-SpeichenStern-Design, 8,5 J × 19

Gussräder aus Aluminium im 16-SpeichenDesign, 7,5 J × 17, diebstahlsichere Radschrauben

Gussräder aus Aluminium im 7-SpeichenStern-Design, 9 J × 20

Schmiederäder aus Aluminium im 12-SpeichenDesign, 7,5 J × 17, poliert

Darüber hinaus spielt der Nutzen, den ein Item stiftet, eine Rolle für seine Typisierung als „alignable“ oder „non-alignable“. Hierzu sei das in Tabelle 1 dargestellte Item mit seinen sieben als „non-alignable“ charakterisierten Ausprägungen betrachtet (rechte Spalte). In der Tat mögen die meisten Individuen zu dem Urteil gelangen, dass es sich hierbei um ein nicht-vergleichbares Attribut handelt. Mehrere Dimensionen sind erforderlich, um die verschiedenen Levels miteinander vergleichen zu können. Hat eine Person jedoch allein die Sportlichkeit der Räder/Reifen im Blick und evaluiert die Optionen allein auf dieser Dimension, transferiert sie ein „non-alignable“ in ein „alignable“ Merkmal. Diese Diskussion wirft das Problem unterschiedlicher Abstraktionsniveaus von Attributen und deren Ausprägungen auf. Beispielsweise umfasst das Merkmal Räder/Reifen das Level Gussräder aus Aluminium im 7-Speichen-Stern-Design bei einer Radgröße von 7 J × 16. Diese Ausprägung könnte wiederum ein Attribut sein, das seinerseits eine Reihe von Levels aufweist.

206

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

Insofern ist es unerlässlich, das Abstraktionsniveau der Merkmale und Levels unter Berücksichtigung der individuellen Wahrnehmung zu definieren. Hält man sich diese Ausführungen vor Augen, wird deutlich, das die „(non-)alignability“ eines Items von seiner Darbietung sowie dem Wahrnehmungs- und Beurteilungsverhalten der Individuen abhängt. „In the end, however, it comes down whether consumers are being asked to make trade-offs within a single, compensatory dimension or across multiple, non-compensatory dimensions …“ (Gourville, Soman, 2005, S. 385). Insofern sind die in Tabelle 1 dargestellten Ausprägungen des Items Räder/Reifen das Resultat einer Vorstudie, bei der jeweils 30 Probanden aufgefordert wurden, die Levels der „alignable“ bzw. „non-alignable“ Variante miteinander zu vergleichen. Aus den Äußerungen der Probanden ließ sich erkennen, ob und inwieweit die Ausprägungen entlang einer einzelnen Dimension oder mehreren Dimensionen bewertet wurden. Es zeigte sich, dass die als vergleichbar gekennzeichneten Levels von den Kunden schnell und leicht in eine Rangreihung gebracht werden konnten; zudem verwendete jeder Kunde nur eine Dimension wie etwa Radumfang, Sportlichkeit oder Fahrkultur. Dagegen war der Prozess der Rangbildung bei den als nicht-vergleichbar charakterisierten Ausprägungen schwieriger, und jedes Individuum benötigte mehrere Dimensionen für den Vergleich der Levels. Ferner ist zu beachten, dass jede Transformation eines „alignable“ in ein „non-alignable“ Attribut und umgekehrt einen materiellen Eingriff bedeutet. Selbst Markman und seinen Kollegen (vgl. die im Literaturverzeichnis zitierten Arbeiten) ist es im Rahmen ihrer Laborexperimente nicht möglich, den materiellen Gehalt eines Merkmals bei einer solchen Transformation in allen seinen Details konstant zu halten. Folglich war eine weitere Vorstudie notwendig, um das unter den beiden Bedingungen („alignable“ bzw. „non-alignable“) dargebotene Spektrum der Optionen auf Vollständigkeit zu prüfen. Dabei stellte sich heraus, dass die jeweils 30 Probanden das Sortiment der vorliegenden Räder/Reifen als umfassend erachteten. Offenbar gelingt es mit den jeweils sieben Optionen, ein für die Ausstattung der Fahrzeuge ausreichendes Spektrum bereit zu stellen. Zur Verankerung des Begriffs der individuellen Expertise in der empirischen Ebene liegt es in Anbetracht der voranstehenden Diskussion nahe, zwischen den Konstrukten Wissen und Erfahrung zu unterscheiden. Im Einklang mit den Ausführungen von Johnson, Gächter und Herrmann (2005) soll der Terminus Erfahrung mit Automobilen auf dem Wege einer direkten Abfrage der Nutzungsintensität operationalisiert werden. Dieser Indikator weist folgende Ausprägungen auf: „ich nutze ein Fahrzeug mehr als einmal täglich, einmal täglich, drei- bis viermal pro Woche, einmal pro Woche, einmal in zwei Wochen, einmal pro Monat, weniger als einmal pro Monat“ (Sambandam, Lord, 1995). Bezüglich der Operationalisierung des Konstrukts Wissen über Automobile liegen eine ganze Reihe und im Rahmen zahlreicher empirischer Untersuchungen überprüfter Messvariablen vor (Srinivasan, Ratchford, 1991; Park/Mothersbangh, Flick, 1994). Für die Zwecke dieser Arbeit kommen drei Indikatoren in Betracht: „ich kenne mich mit den vielfältigen Facetten eines Fahrzeugs aus“, „andere Personen suchen bei mir Rat bezüglich der Ausstattung eines Fahrzeugs“ und „ich traue mir zu, anderen Personen Auskunft über die vielfältigen Facetten eines Fahrzeugs zu erteilen“. Jeder Messgröße liegt eine 7erSkala zugrunde, die von „stimme überhaupt nicht zu“ bis „stimme uneingeschränkt zu“ reicht. Im Rahmen der Datenauswertung wurde zunächst für jede Auskunftsperson ein Mittelwert über die Werte der drei Wissensskalen errechnet. Daraufhin bildete man aus diesem Mittelwert und dem Wert für die Erfahrung einen Durchschnittswert, der die Expertise reflektiert.

207

Vergleichbarkeit von Merkmalsausprägungen

4.2 Vorgehensweise zur Datenerfassung Zur Durchführung der empirischen Untersuchung ist es erforderlich, den Fahrzeugkonfigurator quasi in Form eines Fragebogens mit allen Abbildungen und Tabellen nachzubauen und entsprechende Manipulationen einzufügen. Hierzu kommt eine laptop-gestützte Befragung in Betracht, wobei der Fragebogen alle spezifizierten Items und deren Ausprägungen umfasst. Zudem sind die experimentellen Bedingungen berücksichtigt. Für die Experimente wurden Individuen rekrutiert, die vor einem Fahrzeugkauf standen. Über 400 Individuen, die alle potenzielle Neuwagenkäufer sind, wurden im Vorfeld kontaktiert, um insgesamt 280 Probanden zu erhalten. Alle diese Individuen waren zum Zeitpunkt der Studie im Begriff, ein neues Fahrzeug zu erwerben, wobei das in der Studie betrachtete Fahrzeug zum „evoked set“ gehörte. Diese Einschränkung des Probandenkreises erschien erforderlich, um das notwendige Involvement der Personen sicher zu stellen.

4.3 Ergebnisse der empirischen Studien • Überprüfung der Hypothesen 1 und 3 Um die Wirkung der Vergleichbarkeit der Merkmalsausprägungen auf die Wichtigkeit des Merkmals (unter kontrollierten Bedingungen) zu testen, wurde das Item Räder/Reifen im Hinblick auf die „alignability“ seiner Items variiert. Einer ersten Gruppe von 50 Probanden legte man dieses Items als „alignable“ vor, während die anderen fünf Merkmale (Radio, Räder/ Reifen, Außenspiegel, Lenkräder, Informationssystem, Sicherheitssystem, Informationssystem) als „non-alignable“ manipuliert wurde. Auch die 50 Individuen der zweiten Gruppe wurden mit diesen sechs Items konfrontiert, jedoch waren diesmal alle Items als „non-alignable“ dargestellt. Im Anschluss an die Fahrzeugkonfiguration wurden die Probanden gebeten, 100 Punkte, die die Wichtigkeit zum Ausdruck bringen, auf die sechs Items zu verteilen (Levav et al., 2005). Zur Analyse des Zusammenhangs zwischen der Vergleichbarkeit von Merkmalsausprägungen und der Merkmalswichtigkeit kommt eine zweifaktorielle Varianzanalyse in Betracht, wobei die zwei Gruppen mit ihren verschiedenen Stimulimengen die Stufen des ersten Faktors bilden. Die Expertise verkörpert den Moderator im Modell und repräsentiert damit den zweiten Faktor. Bei einer Darbietung der Räder/Reifen als „alignable“ lautet der Mittelwert der Wichtigkeit dieses Merkmals 20,14 (in Gruppe 1; vgl. Tabelle 2). Ist diese Pkw-Ausstattung jedoch als „non-alignable“ präsentiert, beträgt der entsprechende Wert 16,59 (in Gruppe 2). Tabelle 2:

Merkmalswichtigkeiten in Abhängigkeit von der Vergleichbarkeit der Ausprägungen Mittelwerte der Merkmalswichtigkeiten

Merkmal

Gruppe 1 (Wichtigkeitsurteile nach der Itemwahl, Räder/Reifen sind „alignable“, alle anderen Items sind „non-alignable“)

Gruppe 2 (Wichtigkeitsurteile nach der Itemwahl, alle Items sind „non-alignable“)

Radio Räder/Reifen Außenspiegel Lenkräder Informationssystem Sicherheitssystem

15,32 20,14 5,18 9,90 19,48 29,98

16,53 16,59 4,85 9,25 20,31 32,48

208

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

Ob diese Effekte unter Berücksichtigung des Moderators statistisch signifikant sind oder lediglich auf Zufallsschwankungen beruhen, lässt sich mit dem Hypothesentestverfahren klären. Die Nullhypothese postuliert die Unabhängigkeit der Zielvariablen von der Art und Weise der Itemdarbietung („alignable“ versus „non-alignable“), der Expertise der Individuen sowie der Interaktion aus der Itemdarbietung und der Expertise. Mit der Gegenhypothese behauptet man den Einfluss dieser Faktoren und des Interaktionsterms auf die Merkmalswichtigkeit. Tabelle 3 zeigt (grau hinterlegt), dass die Nullhypothese bezüglich der Itemdarbietung für die Räder/Reifen bei einer Irrtumswahrscheinlichkeit von 5% zurückzuweisen ist. Offenbar geht von der Darstellung der Merkmalsausprägungen als „alignable“ bzw. „non-alignable“ eine statistisch signifikante Wirkung auf die Merkmalswichtigkeit aus. Bei den anderen Items ist hingegen keine Veränderung ihrer Wichtigkeit über die beiden Gruppen nachzuweisen. Darüber hinaus fällt auf, dass von der Expertise lediglich beim Item „Räder/Reifen“ ein Effekt auf die Zielgröße ausgeht, der sich deutlich von Null unterscheidet. Tabelle 3:

Statistische Signifikanz der beiden Faktoren und des Interaktionsterms bei den einzelnen Items Item

F-Wert (p-Wert)

Räder/ Reifen F-Wert (p-Wert)

Außenspiegel F-Wert (p-Wert)

Lenkräder F-Wert (p-Wert)

Infosystem F-Wert (p-Wert)

Sicherheitssystem F-Wert (p-Wert)

Darbietung des Items

0,032 (0,859)

10,075 (0,002)

0,721 (0,398)

0,155 (0,694)

0,753 (0,388)

1,534 (0,219)

Expertise des Individuums

0,219 (0,804)

4,742 (0,011)

0,354 (0,702)

0,620 (0,540)

0,221 (0,803)

0,484 (0,618)

Darbietung × Expertise

0,182 (0,834)

5,072 (0,008)

2,009 (0,140)

0,921 (0,402)

0,440 (0,645)

3,001 (0,055)

Faktor

Radio

Zudem ist bei diesem Merkmal der entsprechende Interaktionsterm statistisch signifikant. Dies bedeutet, dass die Expertise der Individuen den Einfluss der Itemdarbietung (als „alignable“ bzw. „non-alignable“) moderiert. Wie Abbildung 1 verdeutlicht, ist die Wirkung der Itemdarbietung auf die Merkmalswichtigkeit (fast) allein auf das Beurteilungsverhalten der Laien (niedrige Expertise) zurückzuführen. Diese Individuen empfinden die Räder/Reifen im Vergleich zu den Experten (mittlere und hohe Expertise) als besonders wichtig, sofern diese Items in seiner „alignable“-Variante präsentiert ist. Dagegen lassen sich die beiden anderen Typen von Kunden (jene mit mittlerer und hoher Expertise) durch die Art und Weise der Itemdarbietung kaum in ihrem Urteil über die Itemwichtigkeit beeinflussen. • Überprüfung der Hypothese 2 Zur Überprüfung der Vermutung, dass „alignable“ Merkmale für ein Individuum umso wichtiger sind, je mehr Ausprägungen die betrachteten Merkmale aufweisen, dient die folgende Analyse. Wie Tabelle 1 verdeutlicht, lassen sich Räder/Reifen sowohl als vergleichbares („alignable“) wie auch als nicht vergleichbares („non-alignable“) Item präsentieren. Was die Anzahl der Ausprägungen betrifft, sollen in Anlehnung an erste Studien hierzu Mengen mit drei, fünf und sieben Items gebildet werden (Gourville, Soman, 2005; Herrmann, Schaffner, Heitmann, 2006). Kombiniert man die beiden Kriterien („attribute alignability“ mit zwei Ausprägungen

Vergleichbarkeit von Merkmalsausprägungen

Abbildung 1:

209

Wichtigkeit der Items „Räder/Reifen“ in Abhängigkeit von der Expertise der Probanden

Gruppe 1: Wichtigkeitsurteile nach der Itemwahl; Räder/Reifen sind „alignable“, alle anderen Items (Radio, Außenspiegel, Lenkräder, Informationssystem, Sicherheitssystem) sind „non-alignable“. Gruppe 2: Wichtigkeitsurteile nach der Itemwahl; alle anderen Items sind „non-alignable“.

und drei mögliche Ausprägungsmengen) ergeben sich sechs verschiedene Bedingungen. Beispielsweise wurde eine Gruppe (30 Probanden) mit drei Räder/Reifen konfrontiert, die man als vergleichbare Levels darbot. Dagegen hatten 30 andere Individuen aus sieben Räder/Reifen zu wählen, wobei es sich hierbei um nicht vergleichbare Ausprägungen handelte. Zudem bat man die Probanden im Anschluss an den Konfigurationsprozess 100 Punkte auf sechs Items (Radio, Räder/Reifen, Außenspiegel, Lenkräder, Informationssystem, Sicherheitssystem) im Hinblick auf deren Wichtigkeit zu verteilen. Den in Tabelle 4 dargestellten Zahlen zufolge lässt sich die Wichtigkeit des Items Räder/ Reifen durch eine Steigerung der Ausprägungszahl erhöhen. Eine andere Möglichkeit, die Itemwichtigkeit zu verbessern, besteht darin, es in der „alignable“- und nicht der „non-alignable“- Version zu präsentieren. Mit einem Hypothesentestverfahren kann die statistische Signifikanz dieser Befunde geklärt werden. Drei ANOVAs zeigen, dass im Fall von sieben Ausprägungen die mit „alignable“ Räder/Reifen konfrontierten Individuen diesem Item eine deutlich höhere Wichtigkeit beimessen als jene Kunden, denen „non-alignable“ Räder/Reifen vorlagen (Fbei sieben Ausprägungen = 6,332, p = 0,015). Bei drei und fünf Ausprägungen ist der Unterschied in der Itemwichtigkeit zwischen den beiden Gruppen (konfrontiert mit vergleichbaren bzw. nichtvergleichbaren Räder/Reifen) auf Zufallsschwankungen zurückzuführen (Fbei drei Ausprägungen = 0,001, p = 0,974; Fbei fünf Ausprägungen = 0,645, p = 0,425). Da Hypothese H2 zumindest teilweise

210

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

Tabelle 4:

Wichtigkeiten des Items „Räder/Reifen“ in Abhängigkeit von der Art der Itempräsentation

Mittelwerte der Wichtigkeit des Items „Räder/Reifen“ Anzahl Ausprägungen

Ausprägungen sind „non-alignable“

Ausprägungen sind „alignable“

3 5 7

15,45 16,29 16,50

15,53 18,33 22,07

bestätigt werden konnte, sind „alignable“ Merkmale offenbar für eine Person dann besonders wichtig, wenn die betrachteten Merkmale viele Ausprägungen besitzen.

5

Implikationen für Wissenschaft und Praxis

Die empirische Untersuchung führt zu der Erkenntnis, dass die Vergleichbarkeit der Ausprägungen eines Merkmals („attribute alignability“) auf die vom Individuum erlebte Wichtigkeit dieses Attributs wirkt. Eine Person stuft eine Produkteigenschaft als relativ wichtiger ein, sofern die Ausprägungen dieses Merkmals „alignable“ (vergleichbar) und eben nicht „non-alignable“ (nicht-vergleichbar) sind. Die Expertise des Individuums schwächt diesen Effekt ab, hebt ihn jedoch nicht auf, wobei insbesondere Kunden mit geringer Expertise geneigt sind, bei der Produktwahl den „alignable“ Merkmalen eine besondere Bedeutung beizumessen. Darüber hinaus zeigt sich, dass „alignable“ Attribute für ein Individuum umso wichtiger sind, je mehr Ausprägungen die Merkmale aufweisen. Liegen Eigenschaften mit wenigen Ausprägungen vor, spielt die Merkmalsart („alignable“ bzw. „non-alignable“) keine Rolle; bei vielen Ausprägungen ist sie hingegen von zentraler Bedeutung für die Merkmalswichtigkeit. Offenbar übt die Art und Weise der Merkmalspräsentation bzw. die Beschaffenheit der Attribute einen Einfluss auf das Entscheidungsverhalten aus. Damit ist die Vorstellung zu korrigieren, Kunden verfügen über ein umfassendes Gefüge verankerter Präferenzen, die sie invariant gegenüber einer variierenden Darbietung von Produktinformationen machen (Heitmann, Herrmann, 2006, S. 223ff.). Im Gegenteil, eine vermeintlich unbedeutende Manipulation der Itempräsentation beeinflusst die Wichtigkeit der Produktmerkmale und damit auch das schließlich gewählte bzw. konfigurierte Erzeugnis. Diese Einsicht lässt sich durch einen Blick auf neuste verhaltenswissenschaftliche Forschung bestätigen, wonach Kundenpräferenzen in vielen Fällen nicht vorliegen, sondern erst im Rahmen der Kaufentscheidung bzw. Produktkonfiguration konstruiert werden (Herrmann, Schaffner, Heitmann, 2006; Weber, Johnson 2004). Offenbar dient ein umfassender Kaufentscheidungsprozess (und damit auch der Prozess der Produktkonfiguration) einem Individuum eben auch dazu, sich über seine Präferenzen bewusst zu werden (Simonson, 2005, S. 35ff.). Aus diesem Grund haben mitunter kleinste Veränderungen in der Itemdarbietung einen Effekt auf die kognitiven und emotionalen Prozesse des Kunden und beeinflussen seine Wahlhandlung (Bettman, Luce, Payne, 1998, S. 190 ff.). Diese Befunde sind insbesondere für die Gestaltung von Mass Customization-Systemen von Bedeutung. Im Mittelpunkt stehen „toolkits“ (Konfiguratoren), die inzwischen in nahezu allen Industrien verbreitet sind. Mit Konfiguratoren lassen sich nicht mehr nur Computer, sondern auch Autos, Uhren, Sportschuhe, Hemden oder Sonnenbrillen gestalten. Flexible Fertigungs-

Vergleichbarkeit von Merkmalsausprägungen

211

techniken kommen zum Einsatz, um Angebote für jeden nur erdenklichen Kundenwunsch zu erstellen. Dahinter steckt die Vorstellung, der Nachfrager habe für jedes der vielen Extras sowie „features and functions“ klare und eindeutige Präferenzen. Diese Annahme über die Präferenzbildung ist jedoch mit wachsender Auswahl und Verästelung der Offerten in Frage zu stellen, da Individuen über eine mehr oder weniger konstante kognitive und emotionale Kapazität verfügen (Levav et al., 2005; Loewenstein et al., 2001, S. 270 ff.). Im Hinblick auf die weiteren Forschungsaktivitäten ist zu hoffen, dass die kognitiven und affektiven Prozesse identifiziert werden können, die die Wahrnehmung und Beurteilung einer Menge von nicht auf einer Dimension vergleichbaren Items erschweren und das Individuum veranlassen, nach „alignable“ Attributen Ausschau zu halten. Hierzu bedarf es in jedem Fall ergänzender sozialpsychologischer Studien. Darüber hinaus ist einzuräumen, dass in den präsentierten Studien und in allen bislang veröffentlichten empirischen Untersuchungen entweder Attribute mit vergleichbaren oder mit nicht vergleichbaren Ausprägungen betrachtet wurden. Viele Merkmale weisen jedoch Ausprägungen beider Spielarten auf, oder einzelne Eigenschaften lassen sich als Mischform aus vergleichbaren („alignable“) und nicht vergleichbaren („non-alignable“) Ausprägungen charakterisieren. Beispielsweise boten einige Elektro- und Hifi-Händler bis vor einigen Jahren die Radiogeräte „Paris“, „Berlin“, „London basic“, „London advanced“ und „London superior“ an. Daher bedarf es zwingend einer theoretischen Herleitung und empirischen Überprüfung von Hypothesen über die Wirkung von „Mischattributen“ auf das Entscheidungsverhalten der Individuen. Literatur Alba, J. W./Hutchinson, W. J. (1987): Dimensions of Consumer Expertise. In: Journal of Consumer Research, Vol. 13, S. 411–454. Bettman, J. R./Luce, M. F./Payne, J. W. (1998): Constructive Consumer Choice Processes. In: Journal of Consumer Research, Vol. 25, S. 187–217. Bradlow, E. T./Huy, O. T. (2004): Modeling Behavioral Regularities of Consumer Learning in Conjoint Analysis. In: Journal of Marketing Research, Vol. 61, S. 392–396. Brockhoff, K. (1999): Produktpolitik, 4. Aufl., Stuttgart. Chapman, G. B./Johnson, E. J. (1999): Anchoring, Activation, and the Construction of Values. In: Organisational Behavior and Human Decision Processes, Vol. 58, S. 115–153. Chernev, A. (2003): When More Is Less and Less Is More: The Role of Ideal Point Availability and Assortment in Consumer Choice. In: Journal of Consumer Research, Vol. 30, S. 170–183. Flynn, L. R./Goldsmith, E. R. (1999): A short, reliable Measure of subjective Knowledge. In: Journal of Business Research, Vol. 46, S. 57–67. Fitzsimons, G./Greenleaf, E./Lehmann, D. (2004): Decision and Consumption Satisfaction: Implications for Channel Relations, Arbeitspapier, Columbia University. Gentner, D./Gunn, V. (2001): Structural Alignment facilitates the Noticing of Differences. In: Memory and Cognition, Vol. 29, S. 565–578. Gentner, D./Markman, A.B. (1994): Structural Alignment in Comparison: No Difference without Similarity, in: Psychological Science, Vol. 5, S. 152–158. Goldstone, R. L./Medin, D. L. (1994): Time Course of Comparison. In: Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol. 19, S. 29–50.

212

A. Herrmann, M. Heitmann, F. Huber und J. R. Landwehr

Gourville, J.T./Soman, D. (2005): Overchoice and Assortment Type: When and Why Variety Backfires. In: Marketing Science, Vol. 24, S. 382–395. Heitmann, M./Herrmann, A. (2006): Produktkonfiguration als Präferenzkonstruktion. In: Die Unternehmung, Vol. 60, S. 223-238. Herrmann, A./Schaffner, D./Heitmann, M. (2006): Individuelles Entscheidungsverhalten bei Variantenvielfalt – die Wirkung der „attribute alignability“, in: Zeitschrift für Betriebswirtschaft, Vol. 76, S. 309–337. Johnson, E. J./Gächter, S./Herrmann, A. (2005): The Why, Where and What of Loss Aversion, Arbeitspapier, Columbia University, New York. Johnson, E. J./Russo, E. J. (1984): Product Familiarity and Learning new Information. In: Journal of Consumer Research, Vol. 11, S. 542–530. Johnson, M. D. (1984): Consumer Choice Strategies for Comparing Noncomparable Alternatives. In: Journal of Consumer Research, Vol. 11, S. 741–753. Johnson, M. D. (1987): The Nature and Methodological Implications of the Cognitive Representation of Products. In: Journal of Consumer Research, Vol. 14, S. 214–228. Johnson, M.D./Fornell, C./Lehmann, D. R. (1988): Thinking about Products: A Model of Consumer Cognitive Representation, Arbeitspapier, University of Michigan. Johnson, M. D./Lehmann, D. R./Fornell, C./Horne, D. R. (1992): Attribute Abstraction, Feature-Dimensionality, and the Scaling of Product Similarities. In: International Journal of Research in Marketing, Vol. 9, S. 131–147. Kahn, B. E. (1998): Dynamic Relationships with Customers: High Variety Strategies. In: Journal of the Academy of Marketing Science, Vol. 26, S. 139–148. Lassaline, M. (1996): Structural Alignment in Induction and Similarity. In: Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol. 23, S. 754–770. Lehmann, D.R. (1998): Customer Reactions to Variety. In: Journal of the Academy of Marketing Science, Vol. 26, S. 62–65. Levav, J./Heitmann, M./Iyengar, S. S./Herrmann, A. (2005): The Effect of Variety on Sequential Choice. Präsentation an der Annual Conference for Judgment and Decision Making, Toronto. Loewenstein, G. (2000): Is More Choice Always Better? Costs and Benefits of Health- and RetirementRelated Choice. In: Burke, S./Kingson, E./Uwe, R. (Hrsg.): Social Security and Medicare: Individual vs. Collective Risk and Resposibility, Washington D.C., S. 36–49. Loewenstein, G./Weber, E. U./Hsee, C. K./Welch, N. (2001): Risk and Feelings. In: Psychological Bulletin, Vol. 122, S. 267–286. Markman, A. B. (1996): Structural Alignment in Similarity and Difference Judgements. In: Psychometric Bulletin and Review, Vol. 37, S. 227–230. Markman, A. B./Gentner, D. (1994): Splitting the Difference: A Structural Alignment View of Similarity. In: Journal of Memory and Language, Vol. 32, S. 517–535. Markman, A. B./Gentner, D. (1997): The Effects of Alignability on Memory. In: Psychological Science, Vol. 8, S. 363–367. Markman, A. B./Gentner, D. (2005): Nonintentional Similarity Processing. In: Hassin, R./Bargh, J. A./Uleman, J. S. (Hrsg.): The new Unconcious, New York, S. 110–127. Markman, A. B./Medin, D. L. (1995): Similarity and Alignment in Choice. In: Organizational Behaviour and Human Decision Processes, Vol. 63, S. 117–130. McGill, A. L. (2002): Alignable and nonalignable Differences in causal Explanations. In: Memory and Cognition, Vol. 30, S. 456–469. Medin, D. L./Goldstone, R. L./Gentner, D. (1990): Similarity Involving Attributes and Relations: Judgements of Similarity and Difference are not inverses. In: Psychological Science, Vol. 2, S. 64–69.

Vergleichbarkeit von Merkmalsausprägungen

213

Medin, D. L./Goldstone, R. L./Gentner, D. (1993): Respects for Similarity. In: Psychological Review, Vol. 100, S. 254–273. Park, W .C./Mothersbangh, D. L./Flick, L. (1994): Consumer Knowledge Assessment. In: Journal of Consumer Research, Vol. 21, S. 71–84. Perry, J. (1996): Erhebungsdesign-Effekte bei der Conjoint Analysis. In: Marketing ZFP, Vol. 18, S. 105–116. Pullman, M. E./Dodson, K. J./Moore, W. L. (1999): A Comparison of Conjoint Methods when there are many Attributes. In: Marketing Letters, Vol. 10, S. 1–14. Sambandam, R./Lord, K. R. (1995): Searching Behavior in Automobile Markets: A Consideration-Sets Model. In: Journal of the Academy of Marketing Science, Vol. 23, S. 57–65. Sattler, H./Ernst, O. (2000): Validität multimedialer Conjoint-Analysen. Ein empirischer Vergleich alternativer Produktpräsentationen. In: Marketing ZFP, Vol. 22, S. 161–172. Sattler, H./Gedenk, K./Hensel-Börner, S. (2002): Bandbreiten-Effekte bei multiattributiven Entscheidungen: Ein empirischer Vergleich von alternativen Verfahren zur Bestimmung von Eigenschaftsgewichten. In: Zeitschrift für Betriebswirtschaft, Vol. 72, S. 953–977. Sattler, H./Hensel-Börner, S./Krüger, B. (2001): Die Abhängigkeit der Validität von Conjoint-Studien von demographischen Probanden-Charakteristika: Neue empirische Befunde. In: Zeitschrift für Betriebswirtschaft, Vol. 71, S. 771–787. Simonson, I. (2005): Determinants of Customers’ Responses to Customized Offers: Conceptual Framework and Research Propositions. In: Journal of Marketing, Vol. 69, S. 32–45. Srinivasan, N./Ratchford, B. T. (1991): An Empirical Test of External Search for Automobiles. In: Journal of Consumer Research, Vol. 18, S. 233–242. Tsiros, M./Mittal, V. (2000): Regret: a Model of its Antecedents and Consequences in Consumer Decision Making. In: Journal of Consumer Research, Vol. 27, S. 401–417. Tybout, A. M./Sternthal, B./Malaviya, P./Bakamitsos, G. A./Park, S. B. (2005): Information Accessibility as a Moderator of Judgments: The Role of Content versus Retrieval Ease. In: Journal of Consumer Research, Vol. 32, S. 76–85. Urban, G. L./Hauser, J. (1993): Design and Marketing of New Products, 2. Aufl., Engelwood Cliffs. Weber, E./Johnson, E. (2004): Constructing Preferences from Memory, Arbeitspapier, Columbia University, New York. Wedel, M./Kamakura, W. A. (1999): Market Segmentation, 2. Aufl., Berlin. Yamauchi, T./Love, B. C./Markman, A. B. (2002): Learning Nonlinearity separable Categories by Inference and Classification. In: Journal of Experimental Psychology: Learning, Memory, and Cognition, Vol. 27, S. 167–195. Zeelenberg, M. (1999): Anticipated Regret, Expected Feedback and Behavioral Decision Making. In: Journal of Behavioral Decision Making, Vol. 12, S. 93–106. Zhang, S./Fitzsimons, G. (1999): Choice Process Satisfaction. In: Organizational Behavior and Human Decision Processes, Vol. 87, S. 192–214. Zhang, S./Kardes, F. R./Cronley, M. L. (2002): Comparative Advertising: Effects of Structural Alignability on Target Brand Evaluations. In: Journal of Consumer Psychology, Vol. 12, S. 303–311. Zhang, S./Markman, A. B. (1998): Overcoming the early Entrant Advantage: the Role of alignable and nonalignable Differences. In: Journal of Marketing Research, Vol. 35, S. 413–426. Zhang, S./Markman, A. B. (2001): Processing Product Unique Features: Alignability and Involvement in Preference Construction. In: Journal of Consumer Psychology, Vol. 11, S. 13–27.

Target Value Pricing im Produktentstehungsprozess innovationsorientierter Unternehmen – ein konzeptioneller Ansatz Jochen Wittmann

1

Preisbildung als Erfolgs- und Engpassfaktor innovationsorientierter Unternehmen

Preisbildung für strategische Produktprojekte gilt als zentrale Voraussetzung zur Ertragssteigerung und damit zur langfristigen Unternehmenssicherung von innovationsorientierten Unternehmen, wie z. B. in der Automobilindustrie. Nachdem in den letzten Jahren verschiedene Methoden zur Kostensenkung und Produktivitäts- sowie Flexibilitätssteigerung eingeführt und weiterentwickelt wurden (z. B. Lean-Management), treten Erlösaspekte immer stärker in den Vordergrund.1 Dabei schränken dynamische Umfeldbedingungen, wie z. B. intensiver Wettbewerb, emanzipierte Kunden sowie zunehmende technologische, ökonomische und politische Diskontinuitäten, die Spielräume für die Preisbildung strategischer Produktprojekte in erheblichem Maße ein. Für innovative Unternehmen besteht zudem das Dilemma, dass einerseits Innovationsführerschaft nur mittels hohem Technologieeinsatz und dem damit verbundenen hohen Ressourceneinsatz realisierbar ist, andererseits aber hohe Unsicherheit über die Kundenakzeptanz der technischen Innovationen vorliegt, die sich insbesondere an dem Preis für das Gut orientiert. Ein sorgfältiges, simultanes Ausbalancieren zwischen Markt- und Technologieaspekten stellt unter dynamischen Umfeldbedingungen eine marktadäquate Preisbildung sicher, die zur Beantwortung der folgenden Frage führt: „Wie hoch darf der Preis für ein Produkt bei Innovationsführerschaft sein?“. Im Folgenden soll ein Weg aufgezeigt werden, wie Wettbewerbsvorteile durch Innovationen im Prozess der Preisbildung antizipiert werden. Vorausgehend sind grundlegend der Zusammenhang zwischen „value extraction“ und „value delivery“, die zunehmende Bedeutung und die Arten von Pricing-Prozessen gegenüber der traditionellen Preisoptimierung, die herkömmlichen Methoden zur Preisbildung sowie die Spezifika von Produktentstehungsprozessen zu erläutern. Die Erkenntnisse fließen in ein Anforderungsprofil, das in einen konzeptionellen Lösungsansatz, dem „Target Value Pricing“, mündet, aufgezeigt am Beispiel der Automobilindustrie.

1

Vgl. Simon, H.: Ertragssteigerung durch effektivere Pricing-Prozesse. In: ZfB, 74. Jg. 2004, S. 1083–1102, hier: S. 1084.

216

J. Wittmann

2.1 Preisbildung als Mittel zur Umsetzung von Wettbewerbsvorteilen in Profitabilität Der Preis ist neben der Menge und der Kosten der wichtigste Gewinntreiber für das Unternehmen. Jedoch sind Preisentscheidungen per se keine Garantie für Gewinnerhöhungen, da es ebenso auf die Durchsetzungsmöglichkeit von Preisen im Markt ankommt. Porter hat frühzeitig auf den komparativen Produktvorteil hingewiesen2, der ein wesentliches Kriterium für die Preisdurchsetzung, insbesondere für innovationsorientierte Unternehmen, darstellt. Komparative Wettbewerbsvorteile lassen sich vor allem durch technologische Produktneuerungen, Innovationen, ausbauen, die eine Grundvoraussetzung für eine hohe Preisdurchsetzung bilden und dadurch die Chance zur Ertragssteigerung nachhaltig sichern. Dranove und Marciano argumentieren mittels einer Kundenwert-Kosten-Position, die im Falle einer Überlegenheit gegenüber dem Wettbewerb dazu führt, dass höhere Preise durchgesetzt werden können. Die Preisbildung ist letztendlich das Mittel, diesen Wettbewerbsvorsprung in Profitabilität umzusetzen.3 Dabei wird Wert wie folgt definiert: „Value is the difference between the benefits enjoyed by a firm’s customers and its cost of production.“4 Anhand des ökonomischen Werts eines Produkts für den Kunden wird der Preis mit dem Verfahren des Value Pricing ermittelt.5

2.2 Der Zusammenhang zwischen „value delivery“ und „value extraction“ Für innovationsorientierte Unternehmen ist es wesentlich, mittels Innovationen Wettbewerbsvorteile zu generieren, die im Rahmen von Pricing-Prozessen in Profitabilität umgewandelt werden. Als wichtige Eckpfeiler des Pricing-Prozesses sieht Simon einerseits die Wertlieferung („value delivery“) an den Kunden und andererseits die Erzielung eines angemessenen Gegenwertes für die eigene Produktleistung an den Kunden („value extraction“).6 So gelten beispielsweise deutsche Produkte in Japan oft als exzellent mit einem schlagkräftigen Vertrieb vermarktet, also einem hohen „value delivery“, dagegen treten Schwierigkeiten auf beim sog. „value extraction“ (siehe Abb. 1).7 Diese Einschätzung zeigt, dass Preisbildung oftmals reaktiv und eher kurzfristig orientiert und organisiert ist. „When managers in these companies formulate pricing strategies, too often the unfortunate outcome is a patchwork of ad hoc tactical decisions masquerading as strategy.“8 Nagle und Hogan führen Schwierigkeiten bei der Preisbildung darauf zurück, dass es für die Preisbildung oftmals an einem systematischen Prozess zum Austarieren der unterschiedlichen Interessen, insbesondere der Unternehmensbereiche Vertrieb, Marketing und Finanzen, mangelt.9 2

Vgl. Porter, M. E.: Wettbewerbsvorteile, 4. Aufl., Frankfurt/Main, New York 1996, S. 21. Vgl. Dranove, D.; Marciano, S.: Kellog on strategy, Hoboken, N.J. 2005, S. 22. 4 Dranove, D.; Marciano, S.: a. a. O. , S. 30. 5 Vgl. Weber, J.; Florissen, A.: Preiscontrolling, Weinheim 2005, S. 35. 6 Vgl. Simon, H.: a. a. O., S. 1088f. 7 Vgl. Kommender, P. et al.: Ein Erfolgskonzept für deutsche Unternehmen in Japan – Optimierung von Pricing-Prozessen. In: Bellmann, K.; Haak, R. (Hrsg.): Management in Japan, Wiesbaden 2005, S. 177–194, hier: S. 180. Vgl. Hayes, R. H.; Wheelwright, S. C.: Industrielles Management in Deutschland. In: Simon, H. (Hrsg.): Wettbewerbsvorteile und Wettbewerbsfähigkeit, Stuttgart 1988, S. 150–164, hier: S. 153. 8 Nagle, T. T.; Hogan, J. E.: The strategy and tactics of pricing, 4. Aufl., Upper Saddle River, N.J., 2006, S. 14. 9 Vgl. Nagle, T. T.; Hogan, J. E.: a. a. O., S. 22. 3

Target Value Pricing im Produktentstehungsprozess

Abbildung 1:

217

Zusammenhang zwischen „value delivery“ und „value extraction“

2.3 Die Relevanz von Pricing-Prozessen In Wissenschaft und Praxis stehen neben der eigentlichen Preisfestsetzung zunehmend die Pricing-Prozesse im Fokus der Betrachtung10, wobei bisher der Zusammenhang zwischen Innovationsprozess und Preisbildungsprozess weitgehend unberücksichtigt bleibt. Doch gerade hier liegen Verbesserungspotentiale für den Pricing-Prozess, um insbesondere das „value extraction“ sicherzustellen. Im Folgenden stehen die Pricing-Prozesse im Vordergrund der Betrachtung, wogegen bezüglich der Methoden und Instrumente der Preisfestsetzung auf die einschlägige Literatur verwiesen wird.11 Als Pricing-Prozess ist zu verstehen, ein „System von organisatorischen Regeln, Strukturen und Maßnahmen, die dazu dienen, Preise festzulegen und zu implementieren“.12 Simon definiert: „Ein Pricing-Prozess ist ein System von Regeln und Verfahren zur Festlegung und Durchsetzung von Preisen.“13 Entsprechend dieser Definitionen bildet die Preisfestsetzung bzw. Preisoptimierung einen Teilprozess des Pricing-Prozesses. In der Literatur gibt es unterschiedliche Ansätze, den Pricing-Prozess zu gestalten. Weber und Florissen unterscheiden den Preismanagementprozess in drei Phasen.14 In der Phase der Preisziel- und Preisstrategiebildung wird ein genereller Rahmen für die Preissetzungen geschaffen, wogegen am Ende der zweiten Phase der operativen Preisbildung der konkrete Preis für ein 10

Vgl. Kommender, P. et al.: a. a. O., S. 181.

11

Vgl. Weber, J.; Florissen, A.: a. a. O., S. 33ff.

12

Wübker, G.: Optimierung der Pricing-Prozesse: Der Weg aus der Ertragskrise für Banken. In: Thexis, 21. Jg. 2005, H.3, S. 29–35, hier: S. 31.

13

Simon, H.: a. a. O.: S. 1087.

14

Vgl. Weber, J.; Florissen, A.: a. a. O., S .12.

218

J. Wittmann

Produkt zur Auswahl steht, der die Preisziele am besten im Einklang mit der Preisstrategie umsetzt. Die Phase der Preisdurchsetzung zielt darauf ab, dass die gebildeten Preise am Markt realisiert werden.15 Nagle und Hogan fokussieren auf eine „strategic pricing pyramid“16, die einem Prozess entspricht, der auf Wertgenerierung, Preisstrukturierung, Preis-/Wertkommunikation, Preispolitik und Preisniveau fokussiert. Hauptziel dieses Prozesses ist die Steigerung der Profitabilität.17 Monroe präferiert das „proactive pricing“, das den Preis nicht nur als Indikator für die Preisbereitschaft des Kunden, sondern auch für die Produktqualität darstellt.18 Dabei unterteilt dieser das Preismanagement in drei Ebenen: die Ebene des Verstehens des Markt- und Wettbewerbsumfeldes, der Entwicklung der Preis- und Marketingstrategie und der Durchführung des Pricing-Prozesses.19 Pricing-Prozesse beginnen oft in der Endphase der Produktentstehung, wenn sämtliche Inhalte eines Produkts final festgelegt sind und „nur noch“ der Preis entschieden werden muss.20 Die dargestellten Pricing-Prozesse stellen lediglich konzeptionelle Rahmenprozesse dar, die jeweils auf die spezifischen Verhältnisse der Unternehmen adaptiert werden müssen. Die spezifischen Anforderungen an die Preisbildung im Produktentstehungsprozess werden nicht berücksichtigt.

2.4 Target Costing und Target Pricing Weiterhin ist zwischen einer Preisbildung in der frühen Phase der Produktentstehung und der Preisfestsetzung vor der Markteinführung zu unterscheiden. Die Literatur fokussiert meist auf die Preisfestsetzung vor der Markteinführung und vernachlässigt dabei die Diskrepanz zwischen den Anforderungen des Finanzbereichs nach frühzeitiger Festlegung eines Zielpreises zur Projektsteuerung und Ergebnisanalyse und der Anforderung des Vertriebs und Marketings, möglichst spät den Preis zu fixieren, wenn die relevanten Informationen über den Wettbewerb vorliegen. Dieser Fokus der späten Preisfestsetzung im Produktentstehungsprozess ist vermutlich auf die lange Zeit weithin etablierte Kosten-Plus-Methode (progressive Kalkulationsmethode) zurückzuführen. Das Target Costing, basierend auf der Vorgehensweise der retrograden Kalkulation, ist stark kostenfokussiert und verwendet undifferenziert einen einheitlichen Zielpreis, wodurch u. a. die Gestaltungsoptionen des Preismanagements auf die Zielkosten nicht betrachtet werden.21 Dieser Ansatz der starren Preisfestlegung widerspricht dem praxeologischen Aspekt des Pricing-Prozesses. Horváth und Möller fordern eine Integration des Target Costing, Target Pricing und Profit 15

Vgl. Weber, J.; Florissen, A.: a. a. O., S. 12.

16

Vgl. Nagle, T. T.; Hogan, J. E.: a. a. O., S. 16.

17

Vgl. Nagle, T. T.; Hogan, J. E.: a. a. O., S. 22.

18

Vgl. Monroe, K. B.: Pricing, 3. Aufl., New York 2003, S. 17f.

19

Vgl. Monroe, K. B.: a. a. O., S. 21f.

20

Simon führt beispielsweise an, dass es sich bei der Einführung eines Automodells primär um ein Preisoptimierungsproblem handelt. Vgl. Simon, H.: a. a. O., S. 1087.

21

Vgl. Horváth, P.; Möller, K.: Target Pricing und Profit Planning. In: Diller, H.; Herrmann, A. (Hrsg.): Handbuch Preispolitik, 1. Aufl., Wiesbaden 2003, S. 455–480, hier: 466.

Target Value Pricing im Produktentstehungsprozess

219

Planning, um auch Aspekte der Anteilseigner stärker zu berücksichtigen.22 Für das Target Costing wird ein vom Markt abgeleiteter Zielpreis verwendet. Zur Festlegung dieses Preises werden aus theoretischer Sicht die Conjoint-Analyse sowie Preis-/Absatzkurven vorgeschlagen.23 Die Unternehmenspraxis präferiert dagegen Wettbewerbsanalysen und Referenzpreise.24 Desweiteren ist die Wirkweise des Target Pricing in Innovationsprozessen stark eingeschränkt aufgrund der hohen Unsicherheit und der mangelnden Fähigkeit der (potentiellen) Kunden, innovative Produktinhalte auf ihren Kundenwert und ihre Kaufbereitschaft richtig einzuschätzen. Laker weist darauf hin, dass mit zunehmender Konkretisierung des Produktkonzepts die Zielvorgaben, und damit auch der Zielpreis, überprüft und das Produktkonzept von Produktneukonzeptionen und -modifikationen während des Produktentstehungsprozesses adjustiert werden müssen.25

2.5 Spezifika des Produktentstehungsprozesses Produktentstehungsprozesse charakterisieren sich durch eine phasenbezogene Einteilung. Exemplifiziert an einem Automobilentwicklungsprozess sind das die Initiations-, die Definitions-, die Gestaltungs-, die Serienentwicklungs- und die Serienanlaufphase, denen sich die Markt(einführungs)phase des Produkts bis zum Auslauf des Produkts am Markt, eine Produktlebenszyklussicht vorausgesetzt, anschließt. Die Produkte, die diesen Prozess durchlaufen, können nach dem Neuheits- bzw. Innovationsgrad in Neu- und Weiterentwicklungen unterschieden werden. Damit sind ebenso unterschiedliche Ausprägungen von Unsicherheiten verbunden. Der Produktentstehungsprozess ist ein Konkretisierungsprozess, in dem in frühen Stadien grobe Plangrößen verwendet werden, die sich über den Prozessverlauf bis zum Produktionsstart des Produkts stetig mit abnehmender Unsicherheit konkretisieren.

2.6 Anforderungsprofil an die Preisbildung im Produktentstehungsprozess innovationsorientierter Unternehmen Komplexe Produktentstehungsprozesse und der damit einhergehende Konkretisierungsprozess einerseits sowie kaum ausreichende Kunden- und Wettbewerbsinformationen andererseits, führen oftmals zu hoher Unsicherheit, die in konservativen Abschätzungen der technisch-betriebswirtschaftlichen Machbarkeitsstudie münden. Inkrementale Preisbildung ist dabei häufig anzutreffen.26 Innovative Produktinhalte werden deshalb oft zurückgestellt und zur späteren Genehmigung vorgehalten oder sind zum Entscheidungszeitpunkt noch im Vorentwicklungsstadium. Eine empirische Untersuchung über die europäische Automobilindustrie zeigt den hohen Anteil an Innovationen insbesondere bei Ober- und obere Mittelklasse-Fahrzeugen auf und unterstreicht die hohe Bedeutung für das Premiumsegment.27 22

Vgl. Horváth, P.; Möller, K.: a. a. O., S. 466. Vgl. Laker, M.: Produkt-/Preisstrategie und Target Costing, in: Schmalenbach-Gesellschaft – Deutsche Gesellschaft für Betriebswirtschaft e.V. (Hrsg.): Reengineering, Stuttgart 1995, S. 159–172, hier: S. 165ff. 24 Franz, K.-P.: Target Costing – Konzept und kritische Bereiche. In: Controlling, 5. Jg. 1993, S. 124–130, hier: S. 129f. 25 Vgl. Laker, M.: a. a. O., S. 161. 26 Vgl. Weber, J.; Florissen, A.: a. a. O., S. 35. 27 Vgl. Wittmann, J.: Target Project Budgeting, zugl. Diss. Mainz, Wiesbaden 1998, S. 263. 23

220

J. Wittmann

Wertorientierung in der Preisbildung erfordert, dass in den frühen Phasen der Produktentstehung (strategische) Preisaussagen notwendig sind. 90–100% der funktionalen Produktmerkmale werden nach Platz in den frühen Phasen festgelegt28, weshalb auch die Einflussmöglichkeit des Top-Managements auf produktbezogene Entscheidungen in den frühen Phasen der Produktentstehung am größten ist.29 Dies gilt insbesondere auch für die Preisbildung, wenn von rigiden Preisspielräumen ausgegangen werden muss.30 Dabei muss sichergestellt sein, dass bspw. das Top-Management zu jeder Zeit während des Produktentstehungsprozesses ein PreisMonitoring durchführen kann. Die Preisbildung muss dem Konkretisierungscharakter während des Produktentstehungsprozesses Rechnung tragen, flexibel sein und dynamische Marktbegebenheiten internalisieren können. Sie soll einerseits den Kundenwert in Profitabilität umsetzen können und andererseits eine Teilbasis für proaktive Wirtschaftlichkeitsbetrachtungen bilden. Zusammenfassend sind für die Preisbildung im Produktentstehungsprozess folgende Kriterien relevant: • • • • • •

Strategische Orientierung, Prozessuale Strukturierung, Initiation in der frühen Phase der Produktentstehung, Retrograde Planbarkeit, Steigerung des Unternehmenswerts und Einbindung in einen gesamtheitlichen Managementprozess.

Die Frage stellt sich, wie ist der Pricing-Prozess zu gestalten, um eine marktadäquate und profitabilitätsorientierte Einpreisung und die Erzielung des „value extraction“ sicherzustellen? Im Folgenden muss ein ganzheitlicher, integrierter Pricing-Ansatz entwickelt werden, der frühzeitig im Produktentstehungsprozess einsetzt und der währenddessen flexibel gestaltbar sowie adaptionsfähig ist. Dabei sind die automobilen Spezifika besonders zu berücksichtigen, die insbesondere in der Komplexität des Produktangebotes zu finden sind und in der Diskrepanz zwischen marktlichen und technologischen Anforderungen.

3

Grundlagen des Target Value Pricing im Produktentstehungsprozess innovationsorientierter Unternehmen

3.1 Eckpunkte des Modells Ziel der Modellbildung ist es, einen Pricing-Prozess zu entwerfen, der aufgrund seiner strukturellen und prozessualen Aspekte sicherstellt, dass Wettbewerbsvorteile in Form von Innovationen angemessen in den Zielpreisen strategischer Produktprojekte antizipiert werden („value extraction“) und damit die Durchsetzung des „value extraction“ beim Kunden erreicht werden kann. Dabei zielt die Grundidee des Modells darauf ab, die einzelnen Eckpunkte und Phasen 28

Vgl. Platz, J.: Hat das FuE-Projektmanagement versagt? In: Balck, H. (Hrsg.) Neuorientierung im Projektmanagement, Köln 1990, S. 42.

29

Vgl. Hayes, R. H.; Wheelwright, S. C.; Clark, K. B.: Dynamic Manufacturing, New York 1988, S. 279 zit. nach Wheelwright, S. C.; Clark, K. B.: Revolutionizing Product Development, New York 1992, S. 33.

30

Der Zusammenhang zwischen Produktentstehungsprozess und Preisbildung wird bei Wheelwright/Clark nicht behandelt. Vgl. Wheelwright, S.; Clark, K. B.: a. a. O., S. 23.

Target Value Pricing im Produktentstehungsprozess

221

des Pricing-Prozesses in Übereinstimmung mit den konkretisierenden Phasen des Produktentstehungsprozesses zu bringen. Der Zielpreis ist bei mehrteiligen High-Tech-Produkten mit hoher Variantenvielfalt, wie dem Automobil, keine exakte, feste Größe und schwer zu planen. Im Gegensatz zum Target Costing, in dem der Zielpreis als feste Größe definiert wird, gilt es, den Zielpreis im Modell einerseits als Vorschaugröße, andererseits als flexible Größe zu behandeln, die sich im Rahmen eines Planungskorridors bewegen kann. Dies schafft für das Top-Management während des Produktentstehungsprozesses Handlungsspielräume, die dazu genutzt werden können, frühzeitig Produktsubstanzfestlegungen zu treffen bzw. diese wieder aufgrund von Markt- und Wettbewerbseinflüssen zu verändern, ohne dass das Geschäftsmodell beeinträchtigt wird. Über die einzelnen Phasen des Produktentstehungsprozesses unterliegen die wesentlichen Führungsgrößen ebenso einem Konkretisierungsprozess (siehe Abb. 2). Es ist dabei zwischen Plangrößen und Zielgrößen zu unterscheiden. Plangrößen sind in diesem Zusammenhang Orientierungs- bzw. Referenzgrößen, wohingegen Zielgrößen einen deutlich höheren Verbindlichkeits- und vor allem einen Vorgabecharakter haben. Neben Plan- bzw. Zielgrößen, die feste Wertgrößen darstellen, gilt es einen Zielkorridor bzw. eine -spanne zu etablieren, in deren Bandbreite unter bestimmten, festgelegten Kriterien und Regeln Veränderungen des Niveaus der Ziel- bzw. Plangrößen vorgenommen werden. Diese Niveauveränderungen sind nach Festlegen der Zielgröße als Zielgrößenkonkretisierung im Sinne einer Wertfortschreibung der Zielgröße zu verstehen. Eine finale Festlegung der Zielgröße „Preis“ bedeutet, dass es sich um den Preis handelt, der zum Zeitpunkt der Markteinführung gültig ist. Für strategische Produktprojekte ist ein Pricing-Prozess in den frühen Phasen der Produktentstehung notwendig, der relevante Zielpreisgrößen generiert und über die Projektlaufzeit bei Entscheidungen zur Serienübernahme von Innovationen anpassbar ist. Dies ermöglicht dem TopManagement, proaktiv steuernd in den Produktentstehungsprozess bei Preisentscheidungen einzugreifen.

Abbildung 2:

Zusammenhang zwischen Phasen des Produktentstehungs- und des Preisbildungsprozesses

3.2 Vorgehensmodell „Target Value Pricing“ Das zu konzipierende Vorgehensmodell „Target Value Pricing“ soll zum einen auf die Preismethodik des Value Pricing abstellen und zum anderen auf die im Produktentstehungsprozess gängige Planungs- und Managementmethodik des Target Costing, die als Anknüpfungspunkt

222

J. Wittmann

für eine produktorientierte Wirtschaftlichkeitsrechnung31 dient. Obwohl sich dieses Modell im Wesentlichen auf die Betrachtung von Preisgrößen fokussiert, soll die Einbindung in einen übergreifenden Managementansatz zwingend sein. Bezüglich der Darstellung eines übergreifenden Managementansatzes wird auf die einschlägige Literatur verwiesen.32 Als die wesentlichen strukturellen Aspekte des Modells sind die für den Entscheidungsprozess wichtigen Teilprozesse Planung, Koordination, Kontrolle und Entscheidung zu nennen (siehe Abb. 3). Planungsaktivitäten finden insbesondere im Hinblick auf die Festlegung von Produktinhalten statt, die die Ausgangslage für die Preisbildung begründen. Koordinationsaufgaben fokussieren auf den Abgleich von marktlichen und finanziellen Preisgrenzen (Preisoberund -untergrenze), die die Grundlage für die Preisansätze bilden. Kontrollfunktionen sind im Modell an den Stellen notwendig, an denen es zu Abweichungen innerhalb der Preisspanne kommt, beziehungsweise, wenn bei der turnusmäßigen Prüfung der Preis-/Volumenansätze Planabweichungen während des Produktentstehungsprozesses auftreten. Die Entscheidungsebene des Modells wird immer dann relevant, wenn es um Änderungen der Produktinhalte sowie der Preisansätze geht; dies ist im Wesentlichen Aufgabe des Top-Managements. Die prozessualen Aspekte des Vorgehensmodells sind am besten entlang der einzelnen Phasen des Produktentstehungsprozesses darstellbar. In der Initiationsphase des Produktentstehungsprozesses wird über den formalen Beschluss des Top-Managements hinaus eine inhaltliche Grobdefinition des Produkts vorgenommen. Hierzu ergänzend ist die Ermittlung eines Referenzpreises, oftmals abgeleitet aus Vorgängerprodukten bzw. Wettbewerberprodukten, notwendig. Im Anschluss ist in der eigentlichen Definitionsphase eine Präzisierung des Volumens auf Basis des Referenzpreises erforderlich. Parallel ist es essentiell, die für das Produktprojekt relevanten Innovationskompetenzen und -inhalte sowie den notwendigen Preisspielraum zu prüfen. Wesentliches Prüfkriterium ist hierbei, ob Innovationen anhand ihres abgeschätzten Wertbeitrages preislich berücksichtigt werden können. Das Ergebnis aus dieser Prüfung kann u. a. eine Priorisierung der Innovationen nach Muss-, Soll- und Kann-Umfängen sein. Auf Grundlage dieser Informationen sowie aus Markt- und Wettbewerbsanalysen ist ein Planpreis für das Produktprojekt und eine nach dem Kriterium des Premiumanspruchs, des Innovationsinhaltes und der Durchsetzungsmöglichkeit des Preises festgesetzten Zielpreisspanne festzulegen, in der der Planpreis liegt. Im Rahmen der Definitionsphase wird oftmals mit unterschiedlichen Produktszenarien gearbeitet. Die Festlegung auf ein bestimmtes Szenario am Ende der Definitionsphase führt zu einem konkretisierten Zielpreis und der damit verbundenen Zielpreisspanne. Nach dieser Festlegung sind Änderungen der Produktsubstanz hinsichtlich Innovationen stets auf ihre Preisauswirkung und dem Vorhandensein eines Preisspielraums innerhalb der Zielpreisspanne zu prüfen. Dies ist notwendig, um zu vermeiden, dass mehr/weniger innovative Produktsubstanz in das Produkt aufgenommen wird als der Kunde bereit ist zu zahlen und dies folglich zu einem am Markt nicht durchsetzbaren Preis bzw. von der Marktwahrnehmung überhöhten Preis führt. Beides kann den Premiumanspruch und das Markenimage eines innovationsorientierten Unternehmens in Frage stellen. 31

Vgl. Bellmann, K.: Die Bedeutung chaostheoretischer Erkenntnisse für die Betriebswirtschaftslehre. In: Gesellschaft der Freunde der Universität Mannheim e.V. (Hrsg.): Mitteilungen Nr. 1, Mannheim 1992, S. 47.

32

Vgl. Seidenschwarz, W.: Target Costing, München 1993, S. 115ff. Vgl. Wittmann, J.: Strategisches Budgetmanagement für Entwicklungsprojekte: der Ansatz des Target Project Budgeting. In: Jung, K.; Mildenberger, U.; Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, Wiesbaden 2003, S. 73–87, hier: S. 76ff.

Target Value Pricing im Produktentstehungsprozess

223

Laker weist zu Recht auf die Notwendigkeit von Änderungen am Produktkonzept während des Produktentstehungsprozesses hin, das durch geänderte Kunden- und Wettbewerbsinformationen und -anforderungen sowie aufgrund der Konkretisierung von Planungsinhalten ausgelöst wird. Diese zwar nicht idealtypische, sondern durchaus reale Annahme, ist ein wesentlicher Grund für den folgenden Regelkreisablauf im Preisbildungsprozess. Nach Festlegen des Zielpreises und der Zielpreisspanne am Ende der Definitionsphase sind Innovationen, die im Produktkonzept ergänzt werden sollen, hinsichtlich ihres Wertbausteins interdisziplinär abzustimmen. Mit diesem Wertansatz erfolgt im Anschluss die Prüfung, ob dieser Innovationsumfang im Rahmen der Zielpreisspanne realisierbar ist. Ist das der Fall, dann ist die Umsetzung der Innovation im Serienumfang des Produkts entscheidbar und der Wertbaustein auf den Zielpreis zu addieren. In der Regel wird z. B. turnusgemäß, z. B. halbjährlich, eine Prüfung des Preis-/Volumenansatzes vorgenommen. Ist der Wertansatz der Innovation zu hoch für die Zielpreisspanne, gibt es zwei Handlungsalternativen. Die erste ist, den Innovationsumfang als Sonderausstattung zu prüfen. Ist dies nicht wirtschaftlich, wird die Entwicklung des Innovationsumfanges eingestellt (Abbruch). Die zweite Möglichkeit besteht darin, dass bezüglich der bisher entschiedenen Produktsubstanz des Projekts eine Überprüfung möglicher Entfallumfänge durchgeführt wird mit der Alternative, diesen als Sonderausstattungsumfang anzubieten. Entsprechend ist es dann bei Entfall des bisherigen Serienumfanges möglich, den Wertbaustein entsprechend aus dem Zielpreis herauszunehmen und den Innovationsumfang im Serienumfang zu ergänzen. Kurz vor Beginn der Markteinführung erfolgt dann die finale Festlegung, bzw. Bestätigung, des fortgeschriebenen Zielpreises, der in die entsprechenden Kundenpreislisten überführt werden kann.

Abbildung 3:

Vorgehensmodell „Target Value Pricing“ (schematische Darstellung)

224

4

J. Wittmann

Zusammenfassung und Ausblick

Dieses Vorgehensmodell zur wertadäquaten Berücksichtigung von Innovationen im Preisbildungsprozess erfüllt die gestellten Anforderungen, da es proaktiv ausgerichtet ist, eine permanente Preisverfolgung/-monitoring über den Produktentstehungsprozess zulässt, zu hoher, durchgängiger Entscheidungstransparenz führt und sich dementsprechend als managementorientierter Pricing-Prozess, Target Value Pricing, nahtlos in übergreifende Managementkonzeptionen/-instrumente wie z. B. dem Target Costing oder Target Project Budgeting, einfügen lässt. Weitere Forschungsanstrengungen sind sicherlich hilfreich, damit dieses Vorgehensmodell z. B. um Lebenszyklusaspekte sowie Adaptionsmöglichkeiten auf Unternehmensnetzwerke erweiterbar ist. Literatur Franz, K.-P.: Target Costing – Konzept und kritische Bereiche. In: Controlling, 5. Jg. 1993, S. 124–130. Bellmann, K.: Die Bedeutung chaostheoretischer Erkenntnisse für die Betriebswirtschaftslehre. In: Gesellschaft der Freunde der Universität Mannheim e. V. (Hrsg.): Mitteilungen Nr. 1, Mannheim 1992, S. 41–47. Dranove, D.; Marciano, S.: Kellog on strategy, Hoboken, N.J. 2005. Hayes, R. H.; Wheelwright, S. C.: Industrielles Management in Deutschland. In: Simon, H. (Hrsg.): Wettbewerbsvorteile und Wettbewerbsfähigkeit, Stuttgart 1988, S. 150–164. Hayes, R. H.; Wheelwright, S. C.; Clark, K. B.: Dynamic Manufacturing, New York 1988. Horváth, P.; Möller, K.: Target Pricing und Profit Planning. In: Diller, H.; Herrmann, A. (Hrsg.): Handbuch Preispolitik, 1. Aufl., Wiesbaden 2003, S. 455–480. Kommender, P.; Schmidt-Gallas, D.; Himpel, F.: Ein Erfolgsrezept für deutsche Unternehmen in Japan: Optimierung von Pricing-Prozessen. In: Bellmann, K.; Haak, R. (Hrsg.): Management in Japan, Wiesbaden 2005, S. 177–194. Laker, M.: Produkt-/Preisstrategie und Target Costing. In: Schmalenbach-Gesellschaft – Deutsche Gesellschaft für Betriebswirtschaft e. V. (Hrsg.): Reengineering, Stuttgart 1995, S. 159–172. Monroe, K. B.: Pricing, 3. Aufl., New York 2003. Nagle, T. T.; Hogan, J. E.: The strategy and tactics of pricing, 4. Aufl., Upper Saddle River, N.J., 2006. Platz, J.: Hat das FuE-Projektmanagement versagt? In: Balck, H. (Hrsg.) Neuorientierung im Projektmanagement, Köln 1990. Porter, M. E.: Wettbewerbsvorteile, 4. Aufl., Frankfurt/Main, New York 1996. Seidenschwarz, W.: Target Costing, München 1993. Simon, H.: Ertragssteigerung durch effektivere Pricing-Prozesse. In: Zeitschrift für Betriebswirtschaft (ZfB), 74. Jg. 2004, S. 1083–1102. Weber, J.; Florissen, A.: Preiscontrolling, Weinheim 2005. Wheelwright, S. C.; Clark, K. B.: Revolutionizing Product Development, New York 1992. Wittmann, J.: Target Project Budgeting, zugl. Diss. Mainz, Wiesbaden 1998. Wittmann, J.: Strategisches Budgetmanagement für Entwicklungsprojekte: der Ansatz des Target Project Budgeting. In: Jung, K.; Mildenberger, U.; Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, Wiesbaden 2003, S. 73–87. Wübker, G.: Optimierung der Pricing-Prozesse: Der Weg aus der Ertragskrise für Banken. In: Thexis, 21. Jg. 2005, H. 3, S. 29–35.

Reflexionen zum Innovationsmanagement im Kontext Technologischer Konvergenz André Krauß

1 Technologische Konvergenz als Herausforderung für Theorie & Praxis des Innovationsmanagements Die Hervorbringung von Innovationen ist von großer Bedeutung für die Wettbewerbsfähigkeit von Volkswirtschaften und Unternehmen. Dies gilt insbesondere in einer durch steigende Komplexität und Dynamik sowie Diskontinuitäten und Wandel geprägten Unternehmensumwelt. Technologische Konvergenz stellt sich hierbei als Phänotypus dieser verschärften Wettbewerbssituation dar. Für Unternehmen in diesem Kontext wird die Hervorbringung und Durchsetzung der „richtigen“ Innovationen zu einer existenziellen Frage der Überlebensfähigkeit. Das Phänomen der Technologischen Konvergenz ist hierbei kein historischer Einzelfall, sondern in unterschiedlichen Branchen und verschiedenen Zeiträumen zu beobachten.1 Aus Sicht der betrieblichen Praxis des Innovationsmanagement besteht im Konvergenzkontext das Problem, dass existierende Ansätze und Methoden des Innovationsmanagements nicht zum gewünschten Innovationserfolg führen bzw. nicht anwendbar sind. Die betriebliche Innovationstätigkeit ist infolgedessen eher von einem Trial & Error-Vorgehen als von einer systematischen Vorgehensweise geprägt. Dies kann u. a. darauf zurückgeführt werden, dass für die Managementpraxis das Konvergenzphänomen hinsichtlich seiner Wirkungsmechanismen und Prozessverläufe nach wie vor weitestgehend intransparent ist. In der Managementforschung wird das Konvergenzphänomen in jüngster Zeit zwar zögerlich aufgegriffen2, es fehlen aber nach wie vor geeignete theoretische Fundierungen des Konvergenzphänomens. Vor allem aber fehlt eine zufriedenstellende Berücksichtigung des Konvergenzphänomens in der Innovationsmanagementforschung verbunden mit zweckmäßigen Lösungsansätzen zum Innovationsmanagement im Kontext technologischer Konvergenz. Im Rahmen dieses Beitrags soll nach ersten Ansätzen für ein Innovationsmanagement im Kontext Technologischer Konvergenz gesucht werden. Aufbauend auf einem rekonstruierten Innovationsmanagementverständnis wird ein Ansatz zur Beschreibung Technologischer Konver1

Von aktueller Relevanz ist die Konvergenz im Bereich der Informations- und Kommunikationsindustrien (Digitale Konvergenz) sowie die Konvergenz im Bereich der Life Science-Industrien.

2

Vgl. stellvertretend Stieglitz 2004.

226

A. Krauß

genz als Phänomen und Managementkontext vorgestellt, auf dessen Basis konzeptionelle und gestalterische Überlegungen für ein Innovationsmanagement in diesem Kontext angestellt und thesenartig formuliert werden können.

2 Innovationsmanagement – Begriff und Forschungsperspektiven Das Innovationsmanagement erfährt in Theorie und Praxis eine große Verbreitung. Während hierbei Einigkeit über die Notwendigkeit des Managements von Innovationen besteht, hat sich dennoch bisher weder ein einheitlicher Begriff noch ein einheitliches Konzept durchgesetzen können.3 Im Folgenden sollen daher die Grundzüge des Innovationsmanagements nachgezeichnet werden. Innovationsmanagement basiert auf dem Begriff der Innovation, der sich zwar in der Betriebswirtschaftslehre etabliert hat, aber in der Literatur nach wie vor unterschiedlich abgegrenzt wird. Gemeinsames Merkmal von Innovationen ist die Schaffung von „etwas Neuem“, wobei sich bei der Frage, aus wessen Sicht etwas neu ist oder nicht, der subjektive Innovationsbegriff durchgesetzt. Zur Unterscheidung von Innovationsarten finden sich in der Literatur diverse Klassifizierungsansätze, wobei die Klassifizierung von Innovationen nach dem Innovationsgrad in inkrementale und radikale Innovationen sowie nach dem Innovationsobjekt in Produkt-, Prozess-, Sozial- und Geschäftsmodellinnovationen dominiert. Produkt- und Prozessinnovationen werden hierbei oftmals als technologische Innovationen zusammengefasst. Neben diesem ergebnisorientierten Innovationsbegriff werden Innovationen in einer weiteren Sichtweise auch als Prozess der Entstehung von Innovationen aufgefasst werden. Zum besseren Verständnis wird dafür im Folgenden der Begriff des Innovationsprozesses verwendet, während der Innovationsbegriff für das Ergebnis des Innovationsprozesses vorbehalten bleibt.4 In engem Zusammenhang mit dem Innovationsbegriff, insbesondere als Quelle technologischer Innovationen, steht der Technologiebegriff. Technologie bezeichnet die Wissenschaft von der Technik und umfasst somit das Wissen über naturwissenschaftlich-technische Zusammenhänge, die zur Lösung technischer Probleme genutzt werden können und die sich dadurch in Produkten und Verfahren niederschlagen. In Abgrenzung zur Technologie wird Technik als die konkrete Anwendung der Technologie in materieller Form mit dem Ziel der Problemlösung angesehen.5 Während Innovationen in der Vergangenheit häufig zufällig entstanden, ist die systematische Planung, Steuerung und Überwachung der Innovationshervorbringung die zentrale Aufgabe des Innovationsmanagements. Damit ist die zielorientierte und effiziente Durchführung aller Planungsprozesse und Maßnahmen zur Hervorbringung und erfolgreichen Verwertung von Innovationen die zentrale Intension des Innovationsmanagements. Wesentliche Teilaufgaben sind dabei die Definition von Innovationszielen, die Festlegung von Innovationsstrategien sowie die Planung und Steuerung der Aktivitäten des Innovationsprozesses, die einer Umsetzung der Ziele und Strategien dienen.6 3

Vgl. stellvertretend Hauschildt 1997, S. 25f.

4

Vgl. Brockhoff 1997, S. 27ff., Hauschildt 1997, S. 3ff., Thom 1980, S. 39ff.

5

Vgl. Wolfrum 1994, S. 4.

6

Vgl. Corsten 1989, S. 6.

Reflexionen zum Innovationsmanagement

227

Innovationsmanagement ist Gegenstand intensiver Forschung, wobei sich das Forschungsfeld „Innovationsmanagement“ durch eine starke Interdisziplinarität und Fragmentierung auszeichnet. Grundsätzlich lassen sich drei wesentliche Forschungsrichtungen unterscheiden: Während sich die ökonomische Innovationsforschung auf der Makroebene vorrangig mit der Generierung und Diffusion von Technologien und Innovationen in Ländern, Branchen oder Populationen von Unternehmen beschäftigt, betrachtet die organisationsorientierte Innovationsforschung (Innovationsmanagementforschung) in Abgrenzung dazu die Hervorbringung und Verwertung von Innovationen auf Organisations- resp. Unternehmensebene (Mikroebene). Hierzu zählt die Erfolgsfaktorenforschung, die sich mit strukturellen Determinanten von Innovationsfähigkeit und Innovationserfolg beschäftigt, sowie die Prozessforschung, in deren Mittelpunkt Ablauf und Gestaltung von Innovationsprozessen in Unternehmen stehen. Die Forschungsergebnisse der Innovationsmanagementforschung sind jedoch oft widersprüchlich. Widersprüchliche Forschungsergebnisse sowie die generelle Fragmenetierung des Forschungsfeldes sind insofern unbefriedigend, als dass zwar viele Einsichten zu einzelnen Aspekten des Innovationsmanagements gewonnen werden, diese aber letztlich nicht in einer holistischen Sichtweise münden.7 Die Gründe für diese widersprüchlichen Ergebnisse können insbesondere an der ungenügenden Berücksichtigung oder Klärung relevanter Kontextfaktoren festgemacht werden. Sowohl empirische als auch theoretisch-konzeptionelle Arbeiten verwenden unterschiedliche Begrifflichkeiten und grenzen den Objektbereich des Innovationsmanagements unterschiedlich ab. Es werden unterschiedliche Analyseebenen und situative Faktoren betrachtet, die aber nicht immer explizit gemacht werden.8 Mittlerweile hat sich die Einsicht durchgesetzt, dass es keine einheitliche Theorie der Innovation mit allgemeingültigen Aussagen geben kann, sondern im Sinne des Kontingenzansatzes verschiedene Theorien, Prozessmodelle und Ansätze in Abhängigkeit der jeweiligen Kontextfaktoren zweckmäßig sind.9 Dies bedeutet allerdings zu akzeptieren, dass es keine für alle Situationen gültige Erklärung des Innovationserfolgs bzw. Gestaltungsempfehlungen für ein erfolgreichen Innovationsmanagement gibt. Der Vorteil bei diesem Vorgehen liegt darin, dass innerhalb definierter Kontextfaktoren jeweils geeignete Erklärungs- und Gestaltungsmodelle aus der Innovationsforschung genutzt werden können. Desweiteren dürfte dies auch dazu betragen, die Unzufriedenheit der Managementpraxis hinsichtlich der Gestaltungsempfehlungen der Forschung zu verringern, führten die „one-size-fits-all“-Empfehlungen der Forschung aufgrund fehlender Berücksichtigung der tatsächlichen Managementsituation bisher oft zu ungewollten Ergebnissen oder gar zu neuen Problemen in der Praxis.10

3 Technologische Konvergenz als Phänomen und Managementkontext Dem Verständnis zur Notwendigkeit kontextspezifischer Innovationsmanagementansätze anschließend, wird in diesem Beitrag Technologische Konvergenz als derartiger Managementkontext resp. Kontingenzfaktor für das Innovationsmanagement konzeptualisiert. Allerdings ist 7

Vgl. Wolfe 1994, S. 405f.

8

Vgl. Scigliano 2003, S. 31ff.

9

Vgl. Hauschildt 1997, S. 29ff.

10

Vgl. Christensen/Raynor 2003, S. 12ff.

228

A. Krauß

das Phänomen der Technologischen Konvergenz bisher nur unzureichend erforscht. Bisherige Forschungsbeiträge beschränken sich weitestgehend auf deskriptive Fallstudienanalysen des historischen Einzelfalls der Digitalen Konvergenz in der Informations- und Kommunikationsindustrie.11 Nach wie vor dominiert weitestgehend das unpräzise Schlagwort der Konvergenz von Technologien, Produkten, Branchen und Märkten. Infolgedessen fehlen präzise Begriffe und Transparenz hinsichtlich der Wirkungsmechanismen und Abläufe der Technologischen Konvergenz. Die Verfügbarkeit eines theoretischen Verständnisses des Wesens der Technologischen Konvergenz ist m. E. aber die Voraussetzung zur Integration der Technologischen Konvergenz als Managementkontext in das Innovationsmanagement. Zur Minderung dieses Defizits resp. zur Erzielung eines derart zweckmäßig vertieften Verständnisses über Technologische Konvergenz als sozio-ökonomisches Phänomen und Managementkontext, erscheint ein Ansatz sinnvoll, der zwischen mehreren Erkenntnis- resp. Beschreibungsebenen differenziert12 (vgl. Abb. 1): Hierbei soll zwischen einer Makro- und Mikroperspektive unterschieden werden: Eine Betrachtung aus der Makroperspektive erlaubt die Beschreibung der Technologischen Konvergenz als sozio-ökonomisches Phänomen – quasi aus der Vogelperspektive, wodurch das Wesen der Technologischen Konvergenz charakterisierbar wird. Die Betrachtung aus der Mikroperspektive hingegen erlaubt die Einnahme der Sichtweise eines konkreten Unternehmens, für welches Technologische Konvergenz den Managementkontext darstellt, und erlaubt damit die Analyse der betriebswirtschaftlichen Implikationen der Technologischen Konvergenz. Aus der Makroperspektive wird weiterhin zwischen zwei Analyseebenen differenziert: Auf einer begrifflich-phänomenologischen Ebene wird, ausgehend vom nebulösen Schlagwort der Konvergenz und einer Analyse existierender Konvergenzbegriffe und -konzepte, die Schaffung eines zweckmäßigen Konvergenzbegriffs angestrebt. Darauf aufbauend wird auf einer modelltheoretischen Ebene die Offenlegung der Wirkungsmechanismen und Abläufe der Konvergenz versucht, so dass im Ergebnis ein theoretischer Bezugsrahmen als Fundament

Abbildung 1:

Betrachtungsebenen der Technologischen Konvergenz

11

Vgl. Baer 2004, Rockenhäuser 1998, Stieglitz 2004, Thielmann 2000, Yoffie 1997.

12

Zur Entwicklung und Darstellung dieses Beschreibungsansatzes vgl. Krauß 2008.

Reflexionen zum Innovationsmanagement

229

für das Verständnis des Konvergenzphänomens vorliegt. Zur Analyse der betriebswirtschaftlichen Implikationen aus der Mikroperspektive wird zwischen zwei Analyseebenen differenziert: Während auf einer Mikroebene die Wettbewerbssituation untersucht wird, stehen auf der zweiten Mikroebene die Analyse der Managementherausforderungen und -implikationen im Fokus, so dass im Ergebnis eine umfassende Charakterisierung der Technologischn Konvergenz als Managementkontext vorliegt. Die Analyse der Technologischen Konvergenz anhand dieses Beschreibungsansatzes führt zu folgenden (skizzenhaften) Erkenntnissen je Analyseebene13: Der Begriff der Technologischen Konvergenz bezeichnet einen komplexen, indeterminierten Prozess der Interaktion zwischen Unternehmensumwelt und -verhalten, der durch die Konvergenz von Technologien induziert wird und im Ergebnis zur Verbindung bislang getrennter Branchenwertschöpfungsstrukturen führt. Um der Komplexität der Technologischen Konvergenz terminologisch gerecht zu werden, erweist sich eine Operationalisierung dieses Begriffs in verschiedene Begriffsebenen als notwendig. Unterschieden wird zwischen den Begriffsebenen Technologie-, Produkt-, Anbieterund Nachfragerkonvergenz. Technologische Konvergenz ist ein komplexes und dynamisches Phänomen, welches auf mehreren Wirkungsebenen abläuft, zwischen denen interdependente Wirkungszusammenhänge bestehen. Der Verlauf des Konvergenzprozesses wird beeinflusst von Determinanten wie z. B. spezifischen technologischen Entwicklungen, Tendenzen der Deregulierung von Märkten sowie gesellschaftlichem Wandel. Eine herausragende Bedeutung in diesem Wirkungsmechanismus der Technologischen Konvergenz kommt dabei technologischen Innovationen zu, weil sie einerseits als Einflussfaktor den Verlauf des Konvergenzprozesses entscheidend beeinflussen, aber andererseits vom Konvergenzverlauf die Hervorbringung und der Markterfolg der Innovationen abhängen. Aufgrund dieses interdependenten Verhältnisses von Innovation und Konvergenz spielt die unternehmerische Innovationstätigkeit eine zentrale Rolle im Wirkungsmechanismus der Technologischen Konvergenz. Als Akteur der Technologische Konvergenz sehen sich Unternehmen mit einer konvergenzspezifischen Wettbewerbssituation konfrontiert: Technologische Konvergenz führt zu einer extremen Verschärfung des Innovations- und Zeitwettbewerbs, was nicht zuletzt zu einer weiteren Zunahme des Innovationsdrucks führt. Gleichzeitig verschiebt sich der intraindustrielle Wettbewerb zu einem interindustriellen branchenübergreifenden Wettbewerb. Die Unternehmen der beteiligten Branchen bewegen sich nun in einem wesentlich komplexeren und unsichereren Wettbewerbsumfeld als vor Einsetzen des Konvergenzprozesses. An den Schnittstellen zwischen den zusammenwachsenden Branchen müssen sich die Unternehmen zunehmend Knowhow aus bislang isolierten Branchen aneignen, um in bestehenden und neuen Geschäftsfeldern gegen die neue Konkurrenz wettbewerbsfähig zu bleiben. Gleichzeitig stehen Unternehmen verschiedener Branchen und Wertstufen in wichtigen Marktsegmenten mehr und mehr im Wettbewerb zueinander und konkurrieren um die gleichen Kundengruppen. Insgesamt weist die konvergenzspezifische Wettbewerbssituation mehr Ähnlichkeiten zur Wettbewerbssituation des Hyperwettbewerbs als zu der in der klassischen Managementlehre implizierten Wettbewerbssituation auf.14 13

Zu einer detaillierten Darstellung der Analyseergebnisse und Analysemethodik vgl. Krauß 2008.

14

Zum Konzept des Hyperwettbewerbs vgl. D’Aveni 1996.

230

A. Krauß

Aus dieser Wettbewerbssituation resultieren situationsspezifische Managementherausforderungen, die von den beteiligten Unternehmen bewältigt werden müssen, um im Konvergenzkontext wettbewerbsfähig bleiben resp. überleben zu können. Hierbei stellt sich die Technologische Konvergenz als ambivalentes Phänomen dar, welches sowohl Risiken als auch neue Chancen mit sich bringt. Zu den zentralen Herausforderungen zählt angesichts konvergenzinduziert veränderter Wertschöpfungs- und Marktstrukturen in erster Linie die Notwendigkeit zur strategischen Neupositionierung in selbigen. Wesentliches Element der Neupositionierung ist ein zweckmäßiges Innovationsmanagement, dessen zentraler Beitrag in der Ausnutzung der konvergenzinduzierten Innovationspotentiale, aber auch in der Bewältigung der konvergenzinduzierten Innovationsrisiken zu sehen ist. Restriktiv wirken dabei die aktuelle Kompetenzen- und Ressourcenausstattung der Unternehmen, nicht zuletzt die beschränkte finanzielle Ressourcenausstattung in Verbindung mit eingeschränkten Finanzierungsmöglichkeiten bei technologiebedingt hohem Kapitalbedarf und konvergenzbedingt technologischer, marktlicher und finanzieller Unsicherheiten.

4 Grenzen existierender Innovationsmanagementansätze im Kontext Technologischer Konvergenz An ein zweckmäßiges Innovationsmanagement stellen sich im Kontext Technologischer Konvergenz kontextspezifische Anforderungskriterien, die aus den Charakteristika des skizzierten Managementkontextes resultieren. Hierzu zählen u. a. die Berücksichtigung hoher konvergenzbedingter Umweltkomplexität und -dynamik, hoher technologischer, marktlicher und finanzieller Unsicherheiten, die Berücksichtigung des konvergenzbedingt verschärften Finanzierungsdilemmas sowie die Berücksichtigung der Charakteristika technologischer Konvergenzinnovationen. Werden die existierenden Ansätze der Innovationsmanagementforschung hinsichtlich der Erfüllung dieser Anforderungskriterien geprüft, offenbaren sich sowohl konzeptionelle als auch gestalterische Problemfelder resp. Schwachstellen. Dies gilt, jeweils mit unterschiedlichen Schwerpunkten, für die generischen Ansätze15, aber auch für existierende kontextspezifische Ansätze der Innovationsmanagentlehre16. Auf konzeptioneller Ebene lassen sich drei Problemfelder identifizieren, die weitestgehend auf die impliziten Annahmen klassischer Innovationsmanagementansätze zurückzuführen sind: So wird in den Ansätzen eher von inkrementalen Innovationen, relativ statischen Branchen- und Marktstrukturen sowie einem Innovationsprozess, der wie der klassische Neuproduktentstehungsprozess mit einer Erfindung oder Idee startet und zur Einführung der Innovation auf existierenden Märkten führt, ausgegangen. In der Folge weist das klassische Innovationsmanagement eine unzureichende Kopplung mit der strategischen Unternehmensplanung resp. den Entwicklungen der Unternehmensumwelt auf, was insbesondere in einer dynamischen Umwelt im Konvergenzkontext zu Problemen bzw. zum Innovationsmisserfolg führen kann. Zweitens ist die hohe Unsicherheit charakteristisch für den Konvergenzkontext; diese hohe Unsicherheit und insbesondere die aus ihr resultierende Notwendigkeit, ausreichende Handlungsflexibilität vorzuhalten, wird in klassischen Ansätzen ebenfalls nicht ausreichend berücksichtigt. Der dritte 15

Vgl. stellvertretend Pleschak/Sabisch 1996.

16

Vgl. stellvertretend zum Innovationsgrad als Kontingenzvariable Scigliano 2003.

Reflexionen zum Innovationsmanagement

231

Problembereich bezieht sich auf die unzureichende Berücksichtigung der Finanzierungsproblematik. Nach wie vor wird die Innovationsfinanzierung entweder gar nicht oder bestenfalls als Gestaltungsparameter des Innovationsmanagement berücksichtigt. Dabei wird vernachlässigt, dass die Innovationsfinanzierung insbesondere im Konvergenzkontext aufgrund ihrer restriktiven Rahmenfunktion für das Innovationsmanagement eher den Charakter einer Kontingenzvariable haben sollte, an der sich der gesamte Gestaltungsansatz auszurichten hat. Die Schwachstellen auf gestalterischer Ebene resultieren indirekt aus den konzeptionellen Problemfeldern und beziehen sich auf die Gestaltungsparameter des Innovationsmanagements, von denen im Folgenden der Innovationsprozess und die Innovationsstrategie beispielhaft hervorgehoben werden. Hinsichtlich des Innovationsprozesses basieren die „Standard“-Phasenkonzepte auf einer klaren Trennung und einer linearen bzw. überlappenden Abfolge von Teilaktivitäten. Ein derartiger Prozessablauf setzt voraus, dass in der Konzipierungsphase die für die Realisierung der Produktidee relevanten Informationen vorhanden sind und sich im veränderten Verlauf nur ein geringfügiger Änderungsbedarf der festgelegten Produktkonzeption ergibt. Diese Voraussetzung ist aber im Konvergenzkontext aufgrund der hohen Unsicherheit nicht gegeben. Desweiteren findet sich in den „Standard“-Phasenmodellen die konzeptionelle Schwäche einer fehlenden Kopplung des Innovationsprozesses mit der Unternehmensplanung wider, was sich im Konvergenzkontext als unzureichend herausstellt. Eine Orientierung des Innovationsprozessdesigns an den Anforderungen der Innovationsfinanzierung fehlt ebenfalls. Hinsichtlich der Innovationsstrategie zeigt sich, dass die verfügbaren Strategieoptionen nicht deckungsgleich auf den Konvergenzkontext übertragbar sind bzw. dort zu anderen Resultaten führen, oder aber es stehen völlig neue Strategieoptionen zur Verfügung. Beispielsweise muss im Konvergenzkontext eher von einer Marktentwicklung als einer Markteinführung von Innovationen ausgegangen werden, weshalb auch die Marktstrategien andere Schwerpunkte bzw. Optionen aufweisen sollten.

5 Implikationen für ein Innovationsmanagement im Kontext Technologischer Konvergenz Die im Rahmen dieses Beitrags angestellten Überlegungen haben verdeutlicht, dass im Managementkontext der Technologischen Konvergenz ein Innovationsmanagement im Sinne einer systematischen Planung & Steuerung der Innovationstätigkeit zwar zwingend notwendig ist, aber die Konzepte des traditionellen Innovationsmanagements nicht problemlos auf diesen Managementkontext übertragen werden können. Aufbauend auf dieser Erkenntnis, einschließlich der identifizierten Schwachstellen traditioneller Ansätze, sollen im Folgenden zehn konzeptionelle und gestalterische Implikationen für ein zweckmäßiges Innovationsmanagement thesenartig skizziert werden. Konzeptionelle Implikationen für ein Innovationsmanagement im Konvergenzkontext: • • • • •

Berücksichtigung von Unsicherheit und Managementflexibilität Einführung einer strategischen Perspektive Integration der Innovationsfinanzierung als Kontingenzvariable Konstruktion eines Umwelt-gekoppelten Innovationsmanagementprozesses Einbettung des konvergenzspezifischen Innovationsmanagementansatzes in eine Metatheorie der Innovation

232

A. Krauß

Gestalterische Implikationen für ein Innovationsmanagement im Konvergenzkontext: • • • • •

Erweiterung des klassischen Innovationszielsystems, z.B. um Flexibilitätsziele Anpassung des Innovationsprozessmodells, z.B. an Unsicherheit, Finanzierung Enge Kopplung des Innovationsprozesses an die Unternehmensplanung Entwicklung zweckmäßiger Innovationsstrategien und Strategieoptionen Entwicklung zweckmäßiger Evaluierungsmethoden und Steuerungskonzepte

Mit der Entwicklung eines solchen Innovationsmanagementansatzes können die beiden eingangs aufgezeigten Defizite in Theorie & Praxis behoben werden: Die Managementpraxis erhält ein geeignetes Konzept zur systematischen Planung und Steuerung der Innovationstätigkeit im Konvergenzkontext. In der Innovationsforschung wird mit der Integration des Konvergenzphänomens eine weitere Forschungslücke geschlossen und die Entwicklung einer umfassenden Innovationstheorie vorangetrieben. Literatur Baer, M. (2004): Kooperation und Konvergenz, Frankfurt am Main. Brockhoff, K. (1997): Forschung und Entwicklung, 4. erg. Aufl., München. Christensen, C. M./Raynor, M. E. (2003): Innovator’s Solutions, Boston. Corsten, H. (1989): Überlegungen zu einem Innovationsmanagement – organisationale und personale Aspekte, in Corsten, H. (Hrsg.): Die Gestaltung von Innovationsprozessen, Berlin. D’Aveni, R. A. (1996): Hyperwettbewerb – Strategien für die neue Dynamik der Märkte, Frankfurt am Main. Hauschildt, J. (1997): Innovationsmanagement, 2. Aufl., München. Krauß, A. (2008): Ansätze zur Explikation Technologischer Konvergenz, Arbeitspapier des CMPP, Mainz. Pleschak, F./Sabisch, H. (1996): Innovationsmanagement, Stuttgart. Rockenhäuser, J. (1999): Digitale Konvergenz und Kompetenzenmanagement, Wiesbaden. Stieglitz, N. (2004): Strategie und Wettbewerb in konvergierenden Märkten, Wiesbaden. Thielmann, B. (2000): Strategisches Innovationsmanagement in konvergierenden Märkten: Medien & Telekommunikationsunternehmen in Online Diensten und digitalen Fernsehen, Wiesbaden. Thom, N. (1980): Grundlagen des Innovationsmanagements, 2. neu bearb. Aufl., Königstein. Wolfe, R.A. (1994): Organizational Innovation: Review, Critique and Suggested Research Directions. In: JoMS, Vol. 31, Nr. 3, 1994, S. 405–431. Wolfrum, B. (1994): Strategisches Technologiemanagement, 2. überarb. Aufl., Wiesbaden. Yoffie, D. (1997): Competing in the Age of Digital Convergence, Boston.

Know-how als Schutzobjekt im Rahmen des Innovationsmanagements Jan Wirsam

1

Einleitung

Technologieintensive Unternehmen verzeichnen eine hohe Innovationsdynamik, die u. a. auf steigenden Wettbewerbsdruck, neue Marktanforderungen, kürzer werdende Produktlebenszyklen und eine volatilere Nachfrage zurückzuführen ist.1 Für die langfristige Existenzsicherung und Wettbewerbsfähigkeit von Unternehmen ist die Innovationsfähigkeit mitentscheidend. Innovationspotentiale in Bezug auf neue oder verbesserte Produkte und Prozesse zu aktivieren, stellen Aktivitätsfelder dar, auf die Wettbewerbsdynamik zu reagieren. Die Entwicklung von innovativen Verfahren und Produkten alleine sichert jedoch noch nicht den langfristigen Erfolg. Damit sich längerfristige Wettbewerbsvorteile einstellen, ist eine Imitation der innovativen Produkte und Verfahren durch Konkurrenten zu verhindern oder zu verzögern. Das für die Innovationen erforderliche Know-how über die Produktionsprozesse und Herstellverfahren ist vor einem unkontrollierten Abfluss zu schützen und stellt daher das primäre Objekt des Schutzes dar. Die erfolgreiche Einführung einer neuen Entwicklung und der Aufbau gewinnträchtiger Nachfragepotentiale wecken das Interesse von Imitatoren durch Wettbewerber, die durch eigene, alternative, ähnliche Produkte oder Verfahren oder durch direkte Imitationen am Erfolg partizipieren wollen. Imitierende Marktakteure versuchen, besonders schnell und kostengünstig an das erforderliche Entwicklungs- und Produktions- Know-how zu gelangen,2 so dass innovierende Pionier-Unternehmen verstärkt auf das Thema des ungewollten Know-how-Verlustes durch Spionage, Ideendiebstahl oder Produktimitation reagieren müssen. Besonders häufig werden dabei Markenprodukte aller Preisgruppen mit zunehmender Dreistigkeit imitiert oder plagiiert. In letzter Zeit sind aber auch Unternehmen aus dem Investitionsgüterbereich von dieser Entwicklung verstärkt betroffen.3 1

Vgl. Stern, T.; Jaberg, H.: Erfolgreiches Innovationsmanagement – Erfolgsfaktoren-Grundmuster-Fallbeispiele. Wiesbaden, 2003, S. 2.

2

Vgl. Teece, D.: Managing intellectual capital – organizational strategic and policy dimensions. Oxford Scholarship Online, März 2002, S. 117.

3

Vgl. Rauen, H.; Beplat, H.: Produktpiraterie – nicht nur ein Fall für die Konsumgüter. In: VDMA Nachrichten, Heft 1, Januar 2006, S. 17f.

234

J. Wirsam

Die wirtschaftliche Dimension der Problematik kann nur geschätzt werden. Exakte Zahlen liegen nicht vor, da Unternehmen einerseits den ungewollten Know-how-Abfluss monetär nicht bewerten und zum Teil auch nicht sofort bemerken können. Auf der anderen Seite halten sich viele von Wirtschaftsdelikten betroffene Unternehmen mit öffentlichen Äußerungen bedeckt, um negative Auswirkungen auf das Image zu verhindern. Eine erste Annäherungsgröße erlaubt der Blick in die Statistiken des europäischen Zolls. Allein die vom europäischen Zoll beschlagnahmten Fälschungen nahmen zwischen 1998 und 2004 um etwa 1000 Prozent zu und umfassten im Jahre 2005 über 75 Mio. Artikel.4 Dies führt mittelfristig und langfristig im Ergebnis zu Umsatzverlusten in den Unternehmen, gefolgt von Arbeitsplatzverlusten und Steuerausfällen.5 Um das Know-how über neue Produkte und Verfahren zu schützen, sind Maßnahmen und Strategien zu erarbeiten, die den ungewollten Wissensabfluss und das Imitieren verhindern oder zumindest erschweren und im Ergebnis den wirtschaftlichen Erfolg des Innovators sichern.

2

Aktivitätsfelder zum unternehmensindividuellen Schutz des Know-hows

Durch den Erwerb des „kritischen“ Know-hows und der Umwandlung des Wissens in innovative Produkte sichern und verbessern die Unternehmen ihre Wettbewerbspositionen. Um diese Positionen abzusichern, ist die Gefahr des Know-how-Abflusses zu minimieren.6 Durch die Integration direkter Schutzvorkehrungen versuchen sich die Unternehmen vor zunehmender Industriespionage, Wirtschaftsspionage und unkontrollierter Wissens-Diffusion zu schützen.7 Potentielle Konkurrenten und Wirtschaftsstraftäter werden daran gehindert, sich Zugang zum „innovations-kritischen“ Know-how des eigenen Unternehmens zu schaffen. Durch Maßnahmen zur Geheimhaltung und juristische Maßnahmen kann das Know-how aktiv geschützt werden. Der Aufbau von Schutzvorkehrungen zur Verhinderung der ungewünschten Wissensdiffusion bedingt die Identifikation unternehmensindividueller Schwachstellen. Die systematische Erfassung und Beurteilung von möglichen Angriffspunkten betrifft materielle, technische, rechtliche, personelle und strategische Schwachstellen.

2.1 Strategische Aktivitätsfelder zum Know-how-Schutz Die Verankerung des Schutzes von Innovationen wird häufig nur nebensächlich oder zum Teil auch gar nicht im Rahmen des strategischen Managements berücksichtigt und kann bedeuten, dass auf Führungsebene und Geschäftsfeldebene keine umfassend ausgearbeiteten Strategien zum Innovationsschutz vorliegen.8 Das Bewusstsein über die Bedeutung des Know-how4

Vgl. o.V.; Presseerklärung der EU-Kommission vom 10. 11. 2006.

5

Vgl. Vgl. Fischer, S. et al.: Was sich gegen Produkt- und Markenpiraterie tun lässt. In: Harvard Business Manager. 24 Jg., Heft 1, S. 80ff.

6

Vgl. Wildemann, H.: Konzeptwettbewerb und Know-how-Schutz in der Automobil und Zuliefererindustrie. München 2004, S. 51.

7

Vgl. Maier, E.: Der Schutz des „kritischen“ Know-how vor Industriespionage. Idstein 1992, S. 35f.

8

Vgl. Hungenberg, H.: Strategisches Management in Unternehmen: Ziele-Prozesse-Verfahren. Wiesbaden, 2001, S. 15f.

Kmow-how als Schutzobjekt im Rahmen des Innovationsmanagements

235

Schutzes in Bezug auf Innovationen und die Kommunikation sowie Etablierung von entsprechenden Maßnahmen zur Umsetzung sollte im Rahmen der Unternehmensstrategie verankert sein. Aus einer übergeordneten Unternehmensstrategie lässt sich eine geschäftsfeldbezogene Innovations- und Technologiestrategie ableiten,9 die Maßnahmen zur Umsetzung des Knowhow-Schutzes beinhaltet. Dabei ist die Relevanz der Anfertigung eines Know-how-Schutzprogramms von verschiedenen Faktoren abhängig. Entscheidend ist, wie die Unternehmensleitung das Gefahrenpotential und die Gefährdung des jeweiligen Know-hows und des Innovationsfeldes einschätzt.10 Überlegungen zur Strategiedefinition berücksichtigen politische, wirtschaftliche, rechtliche und sicherheitsrelevante Umweltaspekte und sind in einem Sicherheitskonzept zu verankern. Das zu schützende Know-how, in Form von wettbewerbsrelevanten Ressourcen, ist dem jeweiligen Gefahrenpotential gegenüberzustellen und zu bewerten.11 In interdisziplinären Teams mit Mitarbeitern aus allen betroffenen Abteilungen sollte kritisches Know-how bewertet und kategorisiert werden. Operatives Ziel ist die Erstellung eines Know-how-Schutz-Portfolios, welches die Risiken erfasst und bewertet. Drei Dimensionen sind zu unterscheiden:12 1. Bedeutung der Technologie oder Innovation. 2. Wahrscheinlichkeit des Know-how-Abflusses. 3. Tragweite des Know-how-Abflusses. Bei der Bedeutung der Technologie oder Innovation ist zu berücksichtigen, welchen Beitrag die Innovation zum Umsatz leistet und wie weit der Technologielebenszyklus fortgeschritten ist. Es werden Erfahrungswerte, die Vertrauenswürdigkeit der Kooperationspartner und Lieferanten sowie die Substituierbarkeit der Innovation beurteilt. Die Know-how-Abflusswahrscheinlichkeit wird über die Imitierbarkeit mit Hilfe von zeitlichen, wirtschaftlichen, ressourcenbezogenen und qualitativen Faktoren beurteilt. Die Tragweite des Know-how-Abflusses versucht die Folgen monetär zu bewerten. Als Kennzahlen eignen sich potentielle Entwicklungen der Deckungsbeiträge oder zu erwartende Umsatzrückgänge. Die Verankerung von Leitlinien zum Schutz von Innovationen ist bereits auf strategischer Ebene zu verorten und durch die Unternehmensleitung aktiv zu kommunizieren. Abgeleitet aus der Strategiedefinition ergeben sich Vorgaben für rechtliche, personelle und organisatorische Maßnahmen.

2.2 Rechtliche Aktivitätsfelder zum Know-how-Schutz Die Sicherung von betriebskritischem, geistigem Eigentum ist durch gewerbliche Schutzrechte für Marken und Patente im Rahmen von geografisch abgegrenzten Regionen juristisch geregelt. Die weltweite Durchsetzung der wirtschaftlichen Verwertung von Innovationen gestaltet sich aber schwierig, da von einer Harmonisierung der nationalen Rechtsauffassungen in Bezug auf den Schutz des geistigen Eigentums nicht die Rede sein kann. Auch wenn es eine Gesetz9

Vgl. ebenda, S. 34f.

10

Vgl. Sommerlatte, T.: Technologiestrategien. In: Welgem M.; Al-Laham, A.; Kajüter, P. (Hrsg.): Praxis des strategischen Managements – Konzepte, Erfahrungen, Perspektiven. Wiesbaden 2000, S. 224.

11

Vgl. Wildemann, H.: Kompetenzwettbewerb. a.a.O., S. 6.

12

Vgl. ebenda, S. 67f.

236

J. Wirsam

gebung in den einzelnen Ländern gibt, so kann noch nicht von einer Durchsetzung der Schutzrechte ausgegangen werden.13 Vielfache Beispiele belegen zwar den Willen verschiedener Nationen, das Thema Imitationen besonders im Kontext eines Rechtsverstoßes durch Plagiate anzugehen, oftmals werden diese Schutzrechte dann aber gar nicht oder nur verzögert durchgesetzt.14 Rechtliche Schwachstellen betreffen den Umgang mit gewerblichen und nicht-gewerblichen Schutzrechten in Form von Patenten, Gebrauchsmustern, Geschmacksmustern, Halbleiterschutz, Urheberrechten und vertraglichen Vereinbarungen.15 Schwachstellen und Probleme ergeben sich dadurch, dass bei registrierbaren Schutzrechten und vertraglichen Vereinbarungen (Arbeitsverträge, Kooperationsverträge) wichtige Details vergessen oder unklar definiert werden, die einen direkten oder indirekten Wissensabfluss ermöglichen oder zumindest nicht sanktionieren. Neben unzureichend ausformulierten Rechtsklauseln führen oft Rechtsunkenntnis, Rechtsunsicherheit und mangelnde Strafverfolgung von Schutzrechtsverletzungen zu schwerwiegenden Schäden.16 Die Beanspruchung gewerblicher und nicht-gewerblichen Schutzrechte stellt daher eine wichtige Maßnahme zur Sicherung von Innovationen dar. Ein Blick in die Statistik zeigt, dass in Deutschland vermehrt von Schutzrechten Gebrauch gemacht wird. Im Jahre 2006 gab es 60.585 Patentanmeldungen, 19.766 Gebrauchsmusteranmeldungen und 72.321 Markenanmeldungen sowie 51.014 Geschmacksmusteranmeldungen.17 Das Patentrecht ist das bedeutendste der gewerblichen Schutzrechte, um technisches Wissen vor Imitation zu schützen, und ist Bestandteil der vom Staat vorgegeben Rahmenbedingungen zur Förderung der technologischen und wirtschaftlichen Weiterentwicklung. Das Patent gewährt dem Inhaber ein zeitlich begrenztes Recht der alleinigen wirtschaftlichen Verwertung einer Erfindung und gilt für die Länder, in denen sie auch beantragt werden. Auslandsanmeldungen können mittels Kooperationsvereinbarungen bei der World Industrial Property Organisation (WIPO) eingereicht werden.18 Im Rahmen des Entscheidungsverfahrens wird die Patentanmeldung eingehend begutachtet, um festzustellen, ob alle formalen Anforderungen erfüllt sind. Wichtig in diesem Zusammenhang ist die vollständige Beschreibung der Erfindung durch den Antragsteller, da nachträgliche Änderungen später nicht mehr möglich sind. Eine Veröffentlichung der Erfindung vor der Patentanmeldung ist unbedingt zu verhindern, da das „Neuheitskriterium“ erfüllt sein muss. Die Offenlegung der Patentschrift erfolgt spätestens 18 Monate nach Anmeldung. Einwände können dann innerhalb einer Frist von drei Monaten eingereicht werden. Damit eine Patentanmeldung formal und inhaltlich den Anforderungen entspricht, sollte im Rahmen der Anmeldung ein Patentanwalt eingeschaltet werden. 13

Vgl. Harte-Bavendamm, H.: Handbuch der Markenpiraterie in Europa. München 2000, S. 7f.

14

Vgl. Schnitzler, L. et al.: Gefährlicher Genuss, Fake. In: WirtschaftsWoche, 59. Jg., Heft 27, S. 64.

15

Vgl. Möller, D.: Keine Gnade für Plagiate – Gewerbliche Schutzrechte nutzen. Bonn 2001, S. 56.

16

Vgl. Woll, H. u. a.: Betriebsspionage-Begehungsformen-Schutzmaßnahmen-Rechtsfragen. Ingelheim 1987, S. 215.

17

Gemäß Statistik des Deutschen Patentamts.

18

Vgl. Schrader, J.: Anmeldung von Schutzrechten – Vorgehensweise und Unterstützung von Patentanwälten. In: Koschorke, W. (Hrsg.): Schutz und Vermarktung von Innovationen – Praxisseminar zu Innovationsfragen im Handwerk I/1998, Hannover 1998, S. 20f.

Kmow-how als Schutzobjekt im Rahmen des Innovationsmanagements

237

Patente können für alle technischen Erfindungen angemeldet werden, die sich vom Stand der Technik abheben und daher als „neu“ eingestuft werden können sowie Ergebnis einer ausreichenden erfinderischen Aktivität sind und sich gewerblich verwerten lassen können.19 Ausgenommen vom Patentschutz sind Pflanzen, Tiere, Veröffentlichungen und Verwertungen, die sich gegen die öffentliche Ordnung verstoßen oder gesundheitsgefährdend sind. Des Weiteren sind mathematische Methoden, wissenschaftliche Theorien und Entdeckungen ausgeschlossen. Gebrauchsmuster sind, bis auf wenige Ausnahmen, identisch mit einem Patent. Es handelt sich dabei um ein gewerbliches Schutzrecht für technische Erfindungen (ausgenommen Verfahrenserfindungen), wenn eine gewerbliche Verwertbarkeit gegeben ist. Im Gegensatz zum Patent genügt eine geringere erfinderische Leistung. Der Gebrauchsmusterschutz ist auf drei Jahre festgesetzt und kann maximal auf 10 Jahre erweitert werden.20 Nach der Beantragung wird kein Prüfverfahren angestoßen, so dass, im Gegensatz zur Anmeldung eines Patentes, keine Prüfung auf Neuheit oder Erfindungsqualität vorgenommen wird. Durch die Einleitung eines Verletzungsverfahrens kann eine nachträgliche Prüfung eingeleitet werden. Im Vergleich zum Patent stellt das Gebrauchsmuster eine kostengünstigere, schnellere und einfachere Alternative dar, erwirkt aber eine geringere Schutzdauer und ist durch Konkurrenten leichter angreifbar. Ziel des Geschmacksmustergesetzes ist die gesetzliche Regelung zur Verhinderung der Imitationen von Geschmacksmustern im Sinne der äußeren, ästhetischen Gestaltung von Gütern des täglichen Bedarfs oder von Maschinen, Fahrzeugen oder Anlagen. Geschützt werden können zwei- oder dreidimensionale Gegenstände durch die Einreichung graphischer Darstellungen. Der Schutz erlischt nach spätestens 25 Jahren. Der Halbleiterschutz ist ein weiteres spezielles Schutzrecht, welches für die Topologie von Mikrochips besteht. Geschützt werden kann die geometrische Struktur des Chips, sofern sie nicht auf dem gängigen Stand der Technik beruht. Die technische Funktion alleine kann nicht gesichert werden.21 Unter Einbeziehung von speziell ausgebildeten Experten gilt es die jeweiligen Rechtsbestimmungen auf konkrete Schutzobjekte anzuwenden. Aus betriebswirtschaftlichen Gesichtspunkten ist im Rahmen der unternehmensindividuellen Budgetvorgaben zu prüfen, ob eine Anmeldung der Schutzrechte weltweit oder nur auf einzelne Länder bezogen erfolgen soll.

2.3 Personalbezogene Aktivitätsfelder zum Know-how-Schutz Das Personal ist die zentrale Ressource im Rahmen der Forschungs- und Entwicklungsaktivitäten und wird in der Regel als größte Schwachstelle im Kontext des Technologie- und Innovationsschutzes gesehen. Ergänzend zu den unternehmens-internen Trägern des kritischen Knowhows sind zusätzlich interne und externe Personengruppen zu berücksichtigen, die Zugang zu Know-how-sensiblen Bereichen und Informationen haben. Neben den hauseigenen Mitarbeitern betrifft dies auch bspw. Praktikanten, Geschäftspartner, Lieferanten, Berater oder Besucher als externe Personengruppen, da sie ggf. auch temporär Zugang zu sensiblen Daten erlangen können. Die Ursachen personeller Schwachstellen sind in der Regel auf eine nachlässige Be19

Vgl. Definition des deutschen Patentamtes.

20

Vgl. Möller, D.: Keine Gnade. a.a.O., S. 18.

21

Vgl. ebenda, S. 33f.

238

J. Wirsam

werberauswahl, schlechte Schulung oder Ausbildung, Selbstüberschätzung der Angestellten, Neid, Habgier sowie auf mangelnde Betreuung, Förderung und Kontrolle zurückzuführen.22 Das Betriebsklima ist für das Verhalten der Mitarbeiter mitentscheidend und kann sich positiv, wie negativ auf den Technologieschutz auswirken. Ursachen für ein schlechtes Betriebsklima und ein entsprechendes Verhalten sind in der Unternehmenspolitik, dem Führungsstil oder im Umgang der Mitarbeiter untereinander zu suchen. Die Reaktionen der Mitarbeiter können sich durch eine mangelnde Identifikation mit dem Unternehmen sowie auch durch mangelndes Verständnis für die Notwendigkeit des Know-how-Schutzes äußern. Im Ergebnis ist eine erhöhte Mitarbeiter-Unzufriedenheit zu beobachten, was zu einer erhöhten MitarbeiterFluktuation führen kann. Als Folge dessen wird die Funktionalität und Wirksamkeit anderer Schutzmechanismen beeinträchtigt, die von Menschenhand überwacht werden.23 Die Unternehmenskultur und das Betriebsklima beeinträchtigen im Wesentlichen die Verhaltensweisen der Mitarbeiter und beeinflussen die Werte, Normen, Überzeugungen und Einstellungen, an denen sich das Personal orientiert.24 Die Unternehmenskultur wird durch das Management, die Unternehmensstruktur und das Vorleben der Kultur durch die Führung geprägt. Das Management verkörpert das Selbstbild der Unternehmung und hat nachhaltigen Einfluss auf Ziele und Visionen. Eine offene, zukunftsorientierte, veränderungsbereite, dynamische und kreative Unternehmenskultur fördert nicht nur neue Innovationen, sondern weckt auch das Bewusstsein für die wirtschaftliche Bedeutung von Forschung und Entwicklung und in diesem Zusammenhang auch das Verständnis des Schutzes von Innovationen.25 Das Management trifft die Entscheidung zum Schutz des relevanten Know-hows. Die Umsetzung der Strategien und der sich daraus ergebende Erfolg wird durch das Verhalten und die Arbeit der Mitarbeiter bestimmt. Im Rahmen der Personalpolitik sind Maßnahmen zu ergreifen, die zum Einen die Innovationsbereitschaft der Mitarbeiter steigern, aber auch den mitarbeiterbedingten unerwünschten Wissensabfluss zu potentiellen Wettbewerbern reduzieren oder ganz verhindern. Die Personalpolitik umfasst hierbei zu Beginn die Auswahl der Mitarbeiter, vertragliche Regelungen, die Ausstattung mit Aufgaben und Arbeitsbereichen und den notwendigen Werkzeugen sowie Maßnahmen zur Pflege und Betreuung der Mitarbeiter.26 Die charakterliche Eignung bei der Bewerberauswahl ist unter diesen Gesichtspunkten ähnlich wichtig wie die fachliche Qualifikation. Vertrauenswürdigkeit und Verschwiegenheit sind Eigenschaften der Bewerber, die im Rahmen von Auswahlgesprächen und schriftlichen Dokumenten (bspw. Arbeitszeugnisse, polizeiliches Führungszeugnis) zu überprüfen sind.27 Sämtliche Prüfungen können aber einen späteren Missbrauch des Vertrauens nicht verhindern. Kriminologische Studien haben gezeigt, dass das Täterprofil oft keine Auffälligkeiten aufweist und statistisch gesehen Wirtschaftsdelikte erst nach längerer Betriebszugehörigkeit begangen werden.28 Weitere direkte Maßnahmen zur Sicherstel22

Vgl. Woll, H. u. a.: Betriebs-Spionage. a.a.O., S. 211ff.

23

Vgl. ebenda, S. 211.

24

Vgl. Hungenberg, H.: Strategisches Management. a.a.O., S. 34f.

25

Vgl. Hungenberg, H.: Strategisches Management. a.a.O., S. 36.

26

Vgl. Maier, E.: Schutz des kritischen Know-how vor Industriespionage. Idstein, S. 66.

27

Vgl. ebenda, S. 70f.

28

Vgl. o.V.: Wirtschaftskriminalität 2005 – Internationale und deutsche Ergebnisse. PWC, S. 21.

Kmow-how als Schutzobjekt im Rahmen des Innovationsmanagements

239

lung der Verschwiegenheit umfassen arbeitsvertragliche Regelungen, die die Fürsorgepflicht des Arbeitgebers und die Treuepflicht des Arbeitnehmers regeln.29 Letztere umfasst die Verpflichtung, Betriebsgeheimnisse auch über das Beschäftigungsende hinaus nicht an Dritte weiterzugeben. Eine weitere Maßnahme zum Schutz des Know-hows eines Unternehmens ist die selektive Ausstattung der Angestellten mit Wissen.30 Mitarbeiter erhalten somit nur das Wissen und nur die Informationen, die zur Erledigung ihrer Aufgaben notwendig sind. Da die Arbeitnehmer nur über Bruchteile des Wissens verfügen, kennen oder verstehen sie das Produkt oder Verfahren nicht in der Gesamtheit. Die selektive Ausstattung von Arbeitnehmern mit Informationen kann aber auch auf der anderen Seite dazu führen, dass der Sache dienliches, kreatives Gedankengut aus Nachbarfunktionen ungenutzt bleibt. Es gilt einen adäquaten Mittelweg zu finden, der bei projektgebundenen Aktivitäten den Grad der Geheimhaltung und Informationsversorgung ausbalanciert. In sensiblen Projekten sollte die Anzahl der beteiligten Personen überschaubar gehalten werden.31 Die Heterogenität der Personalstruktur ist bei der Planung von Schutzmaßnahmen zu berücksichtigen. Insbesondere Mitarbeiter der F&E-Abteilung sind als Träger von sensiblem Knowhow auf den Schutz ihres Wissens zu unterrichten. Wissenschaftler bspw. streben häufig nach Autonomie und fühlen sich externen Gruppen und Interessensgemeinschaften zugehörig, in denen sie ihre Forschungsergebnisse austauschen.32 Die Unternehmensleitung hat die Aufgabe, die Know-how-Träger von der Relevanz und Notwendigkeit des Know-how-Schutzes zu überzeugen. Es muss ein Weg gefunden werden, der es bspw. den Wissenschaftlern erlaubt, weiterhin an wissenschaftlichen Tagungen teilzunehmen und in Fachmagazinen zu veröffentlichen, ohne dass „kritisches“ Know-how preisgegeben wird.33 Die Motivation der Mitarbeiter, die Sensibilisierung in Bezug auf kritisches Know-how, die Beeinflussung des Betriebsklimas sind Aktivitätsfelder, die den Umgang mit Know-how direkt und indirekt beeinflussen. Maßgeblichen Einfluß darauf haben die Entgeltpolitik, die Aufstiegspolitik, die Anerkennungspolitik, der Führungsstil und die Informationspolitik.34 Mit Konzepten zur Steigerung der Motivation und Zufriedenheit kann die Identifikation der Mitarbeiter mit dem Unternehmen erhöht und die Gefahr des ungewollten Know-how-Abflusses gemindert werden. Damit die Angestellten das im Umfeld ihrer Aufgabe erarbeitete Wissen dem Unternehmen nicht vorenthalten, können erfolgsabhängige Entgelte im Sinne der Prämierung von Ideen oder Patenten in Aussicht gestellt werden. Abschließend ist darauf hinzuweisen, dass nur durch vertragliche Regelungen alleine ein umfassender Schutz des Know-hows nicht gewährleistet werden kann. Vertrauensbildende Maßnahmen, persönliche Beziehungen und gegenseitiger Respekt in Bezug auf die Mitarbeiter 29

Vgl. Maier, E.: Schutz. a.a.O., S. 74.

30

Vgl. Pfaffmann, E.: Kompetenzbasiertes Management in der Produktentwicklung, Make-or-Buy Entscheidungen und Integration von Zulieferern. Wiesbaden 2001, S. 162.

31

Vgl. Wildemann, H.: Kompetenzwettbewerb. a.a.O., S. 106ff.

32

Vgl. Maier, E.: Schutz. a.a.O., S. 80.

33

Vgl. Engberding, R. O. M.: Spionageziel Wirtschaft – Technologie zum Nulltarif. Düsseldorf 1993, S. 78f.

34

Vgl. Maier, E.: Schutz. a.a.O., S. 67ff.

240

J. Wirsam

und externen Partner sind oftmals unterschätzte Faktoren im Rahmen des Technologie- und Innovationsschutzes.

2.3 Organisationsbezogene Aktivitätsfelder zum Know-how-Schutz Neben den strategischen, rechtlichen und personellen Überlegungen sind auch organisatorische Aspekte mit in ein Gesamtkonzept zu integrieren. Um ein angemessenes Sicherheitsniveau zu gewährleisten, sind Regeln und Maßnahmen zu implementieren, die Sicherheitslücken vermeiden oder Angriffe auf die Sicherheit aufdecken. Organisatorische Defizite sind bei nicht geklärten Zuständigkeiten und Zutrittsrechten, fehlenden oder mangelhaften Verhaltensrichtlinien, mangelnder Kompetenzdefinition, unzureichender Kommunikation von Sicherheitsmaßnahmen und unzureichender Aufklärung von Mitarbeitern in Bezug auf geheim zu haltende Daten zu beobachten. Neben organisatorischen Schwachstellen sind auch technische Schwachstellen zu berücksichtigen. Bei technischen Schwachstellen handelt es sich um fehlerhafte oder untaugliche Systeme, die das kritische Know-how ungenügend vor unerlaubtem Zugriff schützen.35 Hierzu zählen Zutritts- und Zugriffskontrollsysteme, Überwachungssysteme, Informations- und Kommunikationssysteme sowie bauliche Maßnahmen. Die verschiedenen Schutzmaßnahmen setzen zunächst die Existenz eines Organisationskonzeptes voraus, in dem Schutzobjekte und -verfahren geregelt werden. Die Schutzvorkehrungen können von externen und internen Einrichtungen umgesetzt werden. Die Komplexität der Sicherheitsanforderungen erfordert vermehrt den Einsatz externer, auf Know-how-Schutz spezialisierter Sicherheits- und Beratungsorganisationen, die bei Planung und Umsetzung aktiv das Unternehmen schützen. Die Sicherheitsberater verfügen über ein breites Erfahrungs- und Wissensrepertoire und können kundenorientiert Konzepte und Maßnahmenpakete entwickeln.36 Eine interne Organisation des Technologie- und Innovationsschutzes kann in zentraler und dezentraler Weise erfolgen. Eine dezentrale Organisation liegt vor, wenn die Geschäftsbereiche in Eigenregie die Ausgestaltung der Schutzmaßnahmen vornehmen. Im Gegensatz wird bei einer zentralen Organisation der Know-how-Schutz von einer Stabsstelle gesteuert, welche aus Mitarbeitern aus allen Funktionsbereichen bestehen kann.37 Der Vorteil einer zentralen Stelle ist in der ganzheitlichen Planung und Steuerung der Schutzmaßnahmen zu sehen. Als Stabsstelle ist sie in der Regel direkt der Geschäftsführung unterstellt und koordiniert die Schutzmaßnahmen in den einzelnen Geschäftsbereichen.38 Weiterhin sind im Rahmen der Aufbauorganisation auch die Zuständigkeitsbereiche und die Zuordnung von Kompetenzen zu definieren. Das Aufgabenfeld der einzelnen Mitarbeiter ist zu erfassen und die Informationsversorgung sowie Kompetenzen sind zu regeln. Jedem Arbeitsplatz ist eine Vertraulichkeitsstufe zuzuweisen und jeder Mitarbeiter ist entsprechend über Verhaltensweisen in Bezug auf unternehmens-kritisches Know-how zu unterweisen.39 Die Problematik der Geheimhaltung betrifft ebenfalls externe, kooperierende Einrichtungen, die zur Erfüllung einer 35

Vgl. Woll, H. u.a.: Betriebs-Spionage. a.a.O., S. 213.

36

Vgl. Maier, E.: Schutz. a.a.O., S. 131ff.

37

Vgl. ebenda, S. 132.

38

Vgl. Wildemann, H.: Konzeptwettbewerb. a.a.O., S. 6.

39

Vgl. Woll, H.: Betriebs-Spionage. a.a.O., S. 528.

Kmow-how als Schutzobjekt im Rahmen des Innovationsmanagements

241

gemeinsamen Aufgabe „kritisches“ Know-how austauschen müssen. Bei Missbrauch von ausgetauschten Informationen werden die Risiken und Nachteile der kooperativen Zusammenarbeit verdeutlicht. Einer überbetrieblichen Zusammenarbeit ist deshalb eine genaue Auswahl der Kooperationspartner voranzustellen. Dabei ist zu berücksichtigen, ob der potentielle Partner bereits mit anderen Unternehmen kooperiert, und ob er in Vergangenheit Patentrechtsverletzungen oder Vertragsbrüche begangen hat.40 Geheimhaltungsvereinbarungen bei zwischenbetrieblichen Kooperationsprojekten erfordern eine exakte Bezeichnung des zu schützenden Gegenstandes und der gemeinsamen Verwendung von Informationen. Ausnahmen, Beweislast, Patentvorbehalte und Mitarbeiterverpflichtungen sind zu regeln sowie ggf. Vertragsstrafen zu vereinbaren.41 Die zu Beginn angesprochenen technischen Defizite betreffen Zugangs- und Zugriffskontrollsysteme, Überwachungssysteme und bauliche Maßnahmen. Mit Hilfe von baulichen Maßnahmen lassen sich getrennte Bereiche schaffen, die zum einen materielles, aber auch immaterielles Know-how räumlich voneinander trennen. Mit Hilfe von Zugriffs- und Überwachungssystemen können diese separierten Bereiche vor unbefugtem Zutritt geschützt werden und dienen der Überwachung und Kontrolle von Personalbewegungen, der Identifizierung von Personen, der Feststellung der Zutrittsberechtigung und dem Auslösen von Alarm bei fehlender Berechtigung.42 Durch den fortschreitenden Einsatz von IT-Systemen hat sich die digitale Speicherung von Informationen, Daten und Wissen in nahezu allen Geschäftsbereichen etabliert. Die IT-gestützte Verarbeitung von Daten birgt erfahrungsgemäß erhebliche Risiken in Bezug auf das unternehmens-kritische Know-how. Zum Einen werden Informationen den Mitarbeitern schneller zur Verfügung gestellt, zum Anderen steigt durch die weltweite Vernetzung und die Gefahr unerlaubter Zugriffe das Risiko eines ungewollten Know-how-Abflusses. Hacker nutzen hierzu gezielt Sicherheitslücken im System. Mit Hilfe von Zugriffskontroll-, Überwachungssystemen und Firewalls wird versucht, die Sicherheit und Verfügbarkeit von Daten zu gewährleisten. Dabei ist es von besonderer Relevanz, die IT-Umgebung an die aktuellsten Entwicklungen im Bereich IT-Sicherheit anzupassen. Ein hundertprozentiger Schutz von Daten ist nahezu unmöglich, und es muss im Einzelfall geprüft werden, in welcher Form die Datenspeicherung und Informationsweitergabe am sichersten ist. Abschließend sind auch Nachteile von zu übertriebenen Schutzmaßnahmen anzusprechen. Die Implementierung von Schutzroutinen führt zur Veränderung etablierter Arbeitsweisen und Organisationsstrukturen und kann ggf. die Handlungsfähigkeit der Betroffenen einschränken. Eine nachhaltig negative Beeinflussung des Betriebsklimas kann die Folge sein. Es ist darauf zu achten, in wie weit die Schutzmaßnahmen das Arbeitsklima der Mitarbeiter oder Kooperationspartner beeinträchtigen.43

3

Handlungsempfehlungen und Abschlussbetrachtung

Zielsetzungen und Maßnahmen eines umfassenden Innovationsmanagements in einem Unternehmen sollten zwingend Maßnahmen zum Schutz von Innovationen beinhalten. Es sollte 40

Vgl. Altin-Sieber, I.: Joint-Ventures, Technologietransfer und -schutz. Heidelberg 1996, S. 192.

41

Vgl. Wildemann, H.: Konzeptwettbewerb. a.a.O., S. 51.

42

Vgl. Maier, E.: Schutz. a.a.O., S. 104.

43

Vgl. Woll, H. u. a.: Betriebs-Spionage. a.a.O., S. 212.

242

J. Wirsam

bewusst werden, dass jedes Unternehmen von Wirtschaftsdelikten und Know-how-Verlust betroffen sein kann und dass darin ein nachhaltiges Schadenspotential zu sehen ist. Das Bewusstsein der Unternehmen ist dahingehend zu schärfen, dass Wissen ein bedrohtes, und somit sorgfältig zu schützendes, immaterielles Gut darstellt und bedeutenden Einfluß auf den Ausbau und die Verteidigung von Wettbewerbsvorteilen haben kann.44 Um diese wettbewerbsrelevante Ressource zu schützen, sollten sich Unternehmen über Subjekte, Objekte und Motive eines potentiellen Know-how-Abflusses bewusst werden und im gleichen Zuge entsprechende Gegenmaßnahmen initiieren. In einem ersten Schritt ist die Aufmerksamkeit aktiv auf das Thema Know-how-Schutz auf Geschäftsführungsebene zu lenken, um im Anschluss zum Einen daraus Anforderungen an die Unternehmensstrategie zu formulieren und in weiteren Schritten die rechtlichen, personellen und organisatorischen Gegebenheiten im Unternehmen entsprechend zu überprüfen und anzupassen. Entlang der gesamten Wertschöpfungskette des Unternehmens gilt es „wettbewerbsrelevantes“ Know-how zu identifizieren, um zu überlegen, welche Maßnahmen zum Schutz ergriffen werden könnten. Es ist nur bedingt möglich, eine allgemeingültige Empfehlung über die zu wählenden Instrumente und Maßnahmen auszusprechen, da eine zu große Abhängigkeit von der jeweiligen Ausgangsposition besteht und auch den innovationsspezifischen Eigenschaften und dem betrieblichen Umfeld entsprechen muss. Abschließend ist auch der Wirkungsgrad des Innovationsschutzes aus wirtschaftlicher Sicht zu beurteilen. Dass die Implementierung von Schutzvorkehrungen den wirtschaftlichen Erfolg eines Unternehmens mitbestimmt, ist unbestritten. Die Wirtschaftlichkeit der Maßnahmen im Sinne einer Kosten-Nutzen-Gegenüberstellung lässt sich insgesamt nur schwer bestimmen. Die Bewertung des Nutzens stellt die Unternehmen vor eine Herausforderung in dem Sinne, dass festgestellt werden muss, welche Wirkungen die einzelnen Schutzmaßnahmen haben und ob sie einen potentiellen Schadenseintritt verhindern oder reduzieren können. Die Feststellung der Schadenswahrscheinlichkeit und die Analyse, welche Schutzmaßnahme den Wissensabfluss abwendet, ist häufig nicht exakt aufzuschlüsseln. Die Schätzung des möglichen Schadensumfangs und der potentiellen Schadenshöhe kann nur Annahmen-basiert erfolgen, da das exakte Ausmaß nicht exakt beziffert werden kann, bzw. erst wenn ein Schaden eingetreten ist oder. wenn die Informationen von Dritten genutzt werden.45 Ein Richtwert kann über den größtmöglichen, kleinstmöglichen und den am wahrscheinlichsten Schaden ermittelt werden.46 Bei der Kostenaufteilung existiert ein weiteres Bewertungsproblem. Schutzmaßnahmen lassen sich zwar direkt auf Sach- und Personalkosten zurechnen, kompliziert wird es aber, wenn die Kosten indirekt auf andere Bereiche umgelegt werden. Hierunter fallen bspw. Beeinträchtigungen im Produktionsprozess durch erhöhte Sicherheitsvorkehrungen oder zusätzliche Kontrollroutinen, die die Arbeitsabläufe beeinträchtigen. Auch an dieser Stelle muss auf Schätz- und Erfahrungswerte zurückgegriffen werden.47 44

Vgl. Einsporn, T.; Risch, B.: Produktionsfaktor Wissen – Patente und Lizenzen in Unternehmen und Hochschulen. Köln 2002, S. 7f.

45

Vgl. Maier, E.: Schutz. a.a.O., S. 164f.

46

Vgl. Jacobs, L.: Samli, A. C.; Jedlik, T.: The Nightmare Of International Product Piracy – Exploring Defensive Strategies. In: Industrial Marketing Management, Volume 30, Number 6, August 2001, S. 508.

47

Vgl. Maier, E.: Schutz, a.a.O., S. 166f.

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven Joachim Fischer

1 Einleitung Controlling lässt sich als Führungsansatz für Unternehmen in einem Regelkreisprozess von Zielsetzung, Planung, Steuerung und Kontrolle definieren. Während die Manager handlungsstark die Entscheidungen treffen sollen, versorgt der Controller analysestark diese mit Informationen und koordiniert den Regelkreisprozess. Verursacht unter anderem durch steigende Gemeinkosten und Entwicklungszeiten entstand in den siebziger Jahren als spezieller Zweig das Forschungs- und Entwicklungscontrolling. Da sich die F&E-Ergebnisse nur schwer quantitativ messen und bewerten lassen, war dies zunächst ein ungeliebter Ableger für die nach harten Zahlen suchenden Controller. Und die Ingenieure und Wissenschaftler argumentierten, dass sich ebenso der erforderliche Input an Kreativität und Probieren den Produktivitäts- und Wirtschaftlichkeitsmaßstäben entzieht. Dreißig Jahre später ist das F & E-Controlling in den Unternehmen etabliert. Während Ingenieure und Wissenschaftler diese Entwicklung als Ausdruck eines technokratischen Regelkreisdenkens und damit eher skeptisch verfolgen (Symposium AK F & E 2007), wollen Protagonisten des Controllings dieses zum „Process Promotor“ der Innovation erheben (Weber, Zayer, 2007, S. 30).

2 Begriffe Forschung/Entwicklung, Invention/Innovation, Controlling Forschung (speziell von Grundlagen) wird nur in wenigen Branchen von Unternehmen betrieben und dann meist mit staatlicher Unterstützung; Entwicklung von Produkten und Prozessen hingegen in den meisten (Domsch, Fischer, 1990). Während Forschung und Entwicklung (F & E) als betriebliche Funktion, somit als Mittel angesehen wird, interpretiert man „Inventionen“ als Sachziele, dazu gehören neben Neuigkeiten in der Technologie solche auf dem Markt, in der Organisation oder im Umfeld. Erfüllen diese Neuigkeiten die wirtschaftlichen Formalziele werden daraus „Innovationen“ (Fischer, Lange, 2005). Dieser Begriff kennzeichnet zurzeit den „wirtschaftlichen und gesellschaftlichen Königsweg“, wird zum Allgemeinplatz und löst darin die desavouierte „Reform“ ab. F & E kann in Unternehmen in unterschiedlichen Formen der Aufbau- und Ablauforganisation (z. B. Prozess- oder Projektorganisation) betrieben werden (Kern, Schröder, 1977; Specht,

244

J. Fischer

Beckmann, Amelingmeyer, 2002). In wichtigen Branchen werden zunehmend Teilaufgaben der F & E von Dritten bezogen; etwa in der Kfz-Industrie die Fahrzeuge komplett zu entwickeln (z. B. SUV von BMW, DB, Porsche) oder in der Pharmaindustrie Wirkstoffe zu erforschen (z. B. der Biotechnologie). Die Ausrichtung der Funktion „Controlling“ auf Informationsversorgung und Koordination von Planung und Kontrolle ist spezifisch für deutsche Unternehmen (Ahrens, Chapman, 2004; Weber, 2007), besonders sofern die strategische, taktische und operative Planung mit allen zugehörigen Informationen darunter gefasst wird. Controller in den angloamerikanischen Ländern sind enger dem Rechnungswesen verhaftet. Den deutschen Controllern wird die Aufgabe einer „second opinion“ in der Unternehmensführung zugestanden, sie verlassen dazu die „neutrale Ebene“ eines Methoden- und Informationszulieferers (vgl. Abb. 1). Dazu haben angloamerikanische Controller gegenüber dem Management kaum das „standing“. Die Rolle des deutschen Controllers erinnert an die Praxis im Militär, Kommandeure durch Stäbe aus gleichrangig ausgebildeten Offizieren zu unterstützen. Einflüsse mögen der spezifische Zweiklang von dualer Berufsausbildung und akademischen Kaufleuten, Ingenieuren und Juristen sowie der hohe Entwicklungsstand der Kosten-/Leistungsrechnung und entsprechender Standardsoftware in Deutschland haben (Sharman, Vikas, 2004; Merwe, 2004). Informationsversorgung

Plan – Soll – Ist Regelkreise Abbildung 1:

Neutrale Ebene des Controllings

Ähnlich wie militärische Stäbe besitzt das Controlling eine Binnensicht, die auf Effizienz der eigenen Kräfte ausgerichtet ist, und eine „Butensicht“, die sich auf Effektivität der eigenen Operationen angesichts der „Feindlage“ fokussiert. Sollen Controller über die methodisch neutrale Ebene hinaus das Management durch ggf. abweichende Zweitmeinungen unterstützen, stellt sich die Frage nach deren Sachkompetenz hinsichtlich externer Entwicklungen (z. B. Technologien) und interner Prozesse sowie nach der Verantwortung für die Urteile.

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven

Abbildung 2:

245

Binnen- und „Butensicht“ des Controllings

Denkbar ist die Rekrutierung entsprechend kompetenter Controller, die nach dem Konzept militärischer Stäbe von Dienstgrad und Ausbildung fast gleichrangig sind. Einige Unternehmen verfolgen die „Durchlauferhitzerqualifizierung“, in dem eine Führungskraft Controller des Funktionstyps wird, deren Leitung (meist in einer anderen Gesellschaft oder Region) sie nach ihrer Controllerzeit übernehmen soll.

3 Wandel von Forschung und Entwicklung und resultierende Anforderungen an das F & E-Controlling F & E wurde seit der industriellen Revolution als wichtige Unternehmerfunktion angesehen, oft in der Tradition der Handwerksmeister von diesem persönlich wahrgenommen und erst langsam als Organisationseinheit institutionalisiert. 1. In den fünfziger und sechziger Jahren existierte in der F & E deutscher Unternehmen eine autokratische Labororganisation, in der die Laborleiter sowohl die Ausrichtung ihrer Arbeiten als auch die erforderlichen Mittel im „Einklang“ mit ihren Kollegen festlegten und den Ressourceneinsatz steuerten. 2. Diese wandelte sich in den siebziger Jahren zu einer Projektorganisation. Zum einen verursacht durch den wissenschaftlichen Fortschritt, durch den Erkenntnisse aus mehr Disziplinen in den Prozess einzubeziehen waren. Zum anderen forderten die gesättigten Märkte größere

246

J. Fischer

Produktfamilien, die nur bei stärkerer Arbeitsteilung produktiv zu entwickeln waren. Verstärkt durch den wachsenden Kosten- und Termindruck wurde vom Management nach Instrumenten gesucht, die Effizienz der arbeitsteiligen Abläufe zu steuern. Man fand diese Werkzeuge in der Netzplantechnik und deren Derivaten, die mit Hilfe der sich verbreitenden EDV praktikabel wurden. Organisatorisch etablierte sich das Projektmanagement. Allerdings forderten dessen Instrumente von den F & E-Mitarbeitern eine ungewohnte Disziplin bei der Aufgabenstrukturierung und -verfolgung, die bis heute auf Widerstände bei den kreativ Schaffenden trifft. vor 1970: Zeit der Chefentwickler

um 1970: Zeit der Projekte

um 1980: Zeit des Controllings

um 1990: Zeit der Mergers & Acquisitions

heute: Zeit der globalen Netze

Organisation

Labor

Projekt

Multiprojekt

Interne Netze

Externe Netze

Inventionsquellen

Chefentwickler

Technikvorstand + Stab

Strategische Planung

Technologieroadmap

Szenarios

Inventionstechnologie

Eine Disziplin

Kerndisziplin + Randdisziplinen, Technologien stabil

Kerndisziplin + Randdisziplinen, Technologiedynamik

Disziplinnetze, TechnologieTechnologieund Marktnetz brüche

Inventionsprozess

Probieren

Studieren (Prototypen)

Optimieren (Wirkmodelle)

Simulieren (Brutal force)

Innovationsziel

Produkt, Verfahren

Produktfamilie

Kundennutzen

ConF & E-Budget trollingProbleme

Entwicklungszeiten

Gemein- & Fixkosten

M &A Goodwill

Netz- & Unternehmenswert

ControllingAnliegen

Termindenke

Kostendenke

Invention zu Innovation

Netzpartner finden

ControllingInstrumente

Projektmanagement Entwicklungsbegleitende

Prozess-/Zielkostenrechnung, Value Added, Net Present Kalkulation

Wertorientierte Integrierte wie Economic IKT

Abbildung 3:

Integrieren

Systemprodukte

Value

F & E Controlling im Wandel

3. In den achtziger Jahren wurde der Kostendruck bei den personalintensiven, zu dieser Zeit nur gering automatisierbaren Ingenieur- und Wissenschaftlertätigkeiten durch steigende Gehälter und abnehmende Jahresarbeitszeiten so groß, dass nach größerer Effizienz in der F & EOrganisation gesucht wurde.

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven

247

In vielen Unternehmen war dies die Geburtsstunde des F & E-Controllings. Zuerst wurden die klassischen Instrumente der Leistungs- und Kostenrechnung in F & E angewendet und diese in die Budgetierungs- und Regelkreisabläufe integriert. Dann wurden die Instrumente mit dem Projektmanagement verschmolzen, z. B. zur Projektkosten- oder Produktlebenszyklusrechnung. 4. In den neunziger Jahren forderten die Kunden eine größere Variantenvielfalt und Strukturkomplexität; immer mehr Technikdisziplinen (u. a. Elektronik, Informatik) wurden in den F & E-Prozess involviert. Um sich die Zeit und Kosten für Grundlagenforschung zu sparen, wurde das Know How durch Verschmelzungen und Käufe von Unternehmen gewonnen. Bei der Bewertung dieser M & A-Aktivitäten wirkte das Controlling mit und gewann dabei Expertise, Technologien und Produkte zu bewerten. Zusätzlich wurden global verteilte F & E-Standorte gegründet, um das Wissen der Universitäten vor Ort zu nutzen. Auch weil jeder Standort sich rechtfertigen wollte, überlud sich die vergrößerte F & E-Organisation mit Projekten; die Arbeitsteilung wurde global praktiziert. Gleichzeitig wurden F & E-Ressourcen automatisiert (z. B. Robotik in den Laboren, CADSysteme) und verursachten Fixkosten. Ein vermeintlicher Königsweg war es, die Wertschöpfungstiefe zu verringern, um u.a. fixe in variable Kosten zu verwandeln und die eigene Flexibilität zu steigern. Dadurch wurde jedoch der Aufwand für die Spezifikation der zu liefernden Leistung und für die Koordination im F & E- Prozess gesteigert. Das Controlling versuchte mit modifizierten Leistungs- und Kostenrechnungsinstrumenten (wie Prozesskostenrechnung, entwicklungsbegleitende Kalkulation) den Kostendruck durch „fette Produkte“ und Automatisierung in der F & E zu mindern. Gleichzeitig erforderten die internationalen M & A-Aktivitäten vom Controlling, dass auch Aspekte der Bilanzierung, Finanzierung und Investitionsrechnung (u. a. Net Present Value, Capital Asset Pricing Model) in die F & E-Regelkreise aufgenommen wurden. 5. Etwa seit dem Jahrtausendwechsel stehen Wertschöpfungsnetze, die Herstellerketten und Nutzer umfassen, und die resultierenden Netzprodukte im Mittelpunkt des Innovationsprozesses. Zum einen sind die Bündel aus • Hardware unterschiedlicher Technologiedisziplinen sowie Software, • Sensorik, Transformation und Aktuatorik, • Content und Kommunikation. auch von großen Unternehmen kaum beherrschbar. Oft verfügen junge Unternehmen, Universitätsinstitute oder Nutzernetze (communities) über die kreativeren Lösungsansätze und bilden die Inventoren. Die Innovationsrolle übernehmen oft etablierte Unternehmen, die sich als „Systemintegratoren“ o. ä. bezeichnen. Vermarktet werden „hybride Produktbündel“ aus Gütern und Dienstleistungen, die von Wertschöpfungspartnern global bezogen und mit diesen vermarktet werden. Zum zweiten sind Netzprodukte dadurch gekennzeichnet, dass sich nur wenige Standards auf dem Markt durchsetzen („the winner takes it all“), so dass Netzpartner sich polygam verhalten, so lange sie keine Chance sehen, selbst ein Netz zu prägen.

248

J. Fischer

passiv

aktiv

monogam

Adapter akzeptieren Netzstandards und richten ihre Leistung daran aus

Shaper schaffen und kontrollieren Netzstandards

polygam

Lurker nutzen konkurrierende Netzstandards

Builder schaffen alternative Netzstandards

Abbildung 4:

Typen von Netzpartnern

Auf sich ergänzenden Netzproduktfeldern können sich Standards alternativer Anbieter durchsetzen. So hat sich das Microsoft/INTEL-Netz bei Bürosoftware und Prozessoren durchgesetzt, inzwischen nutzt der Konkurrent APPLE diese Komponenten. Er führt ein eigenes Netz bei Consumer Content (Musik, Filme) mit seiner ITunes Plattform und abgestimmten Endgeräten; dieses nutzt auch Microsoft. Die Beispiele zeigen, dass Netze von charismatischen Unternehmerpersönlichkeiten bisher konkurrierende Ansätze aus propagierten Unternehmensstrategien dominieren. Angesichts der Dominanz weniger Netze auf dem Markt ist die Wahl der richtigen hinsichtlich Technologie, Partner und Nutzer von strategischer Bedeutung; die Unternehmens- wird von der Netzstrategie bestimmt (AK F & E 2001).

4 Heterogenität des F & E-Controllings und Einflussfaktoren Seit Entstehen des F & E-Controllings hat sich in den deutschen Unternehmen kein einheitlicher Aufgabenkanon herausgebildet. Idealtypisch lassen sich vier Kategorien von F & E-Controllern bilden. F & E-Controller Typ I strebt nach der Termin- und Ressourceneffizienz der in F & E durchgeführten Projekte. Betrieben wird zum einen eine erweiterte Form des Multiprojektmanagements, bei dem Sach- und Finanzressourcen den Projekten zugeordnet werden und speziell auf Termine und Auslastung geachtet wird. Zum zweiten wird versucht, die eigene Effizienz durch Vergleiche mit anderen („Benchmark“) zu verbessern. Infolgedessen konkurriert dieser Controller mit allen anderen Stellen, die der Effizienz verpflichtend sind (z. B. REFA-Ingenieure). F & E-Controller Typ II priorisiert zum einen die Projekte des Portfolios aus der Wettbewerbsund Technologiesituation und der Unternehmensstrategie heraus, bevor Sach- und Finanzressourcen ihnen zugeordnet werden. Zum anderen strebt er nach besserer Produktivität und kürzeren Entwicklungszeiten im Vergleich zum Wettbewerb.

Binnensicht dominiert

Butensicht dominiert

Mengen- und Zeitziele dominieren

Typ I „Multiprojektmanager“

Typ II „Projektpriorisierer“

Wert- und Zahlungsziele dominieren

Typ III „Budgetierer“

Typ IV „Value oriented“

Abbildung 5: Idealtypische Kategorien des F & E-Controllers

249

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven

F & E-Controller Typ III ist dem Ursprung des deutschen Controllings, der Kosten- und Leistungsrechnung verhaftet. Dessen Wertansätze waren (im Unterschied zur deutschen Bilanzierung mit ihrem Vorsichtsprinzip) immer an Verwendungsalternativen von materiellen und personellen Ressourcen orientiert. Daher stammen die Plankosten- und Budgetierungsansätze des Controllings, die ursprünglich weniger auf die Zukunft als auf die Koordination des betrieblichen Handelns und auf das Erkennen von Engpässen ausgerichtet waren. Controller Typ III arbeitet zum einen mit wertmäßigen Plan-, Prognose- und Istbudgets pro Steuerungsobjekt, z. B. pro Kostenstelle und Projektarbeitspaket. Vorgeschlagen werden neben der Plan- oder Projektkostenrechnung in betriebswirtschaftlicher Standardsoftware (z. B. SAP R/3) u. a. die „Earned Value Method“ (Niemand, 2005). F & E-Controller Typ IV stellt den Marktbezug der F & E-Aktivitäten her. Zum einen strebt er nach dem Konzept des vom Markt ausgehenden, retrograden „Target Costing“ danach, „bereits in frühen Phasen der Produkt- und Prozessgestaltung die Kostenstrukturen dahingehend zu beeinflussen, dass sie den Marktanforderungen und damit den vom Kunden gewünschten Produktmerkmalen gerecht werden“ (Horvath, Möller, 2005, 366). Zum anderen versucht er erlösbestimmende Leistungs- und Gütermerkmale über den gesamten Kunden-Produktlebenszyklus zu erheben, um im Wechselspiel von Zielerlösen und -kosten das Handeln in F & E und Vertrieb zu beeinflussen und den Unternehmenswert zu steigern. Dabei sind auch die Auswirkungen auf das externe Rechnungswesen zu betrachten. Nach den Vorschriften des IFRS sind Forschungsund speziell Entwicklungsaufgaben je nach Marktnähe zu aktivieren. Es stellt sich die Frage, woraus der F & E-Controllertyp resultiert. Unterscheiden lassen sich drei Einflusspaare: 1. Die Forschungsorganisation und -methodik 2. Die Entwicklungsorganisation und -methodik 3. Die Controllingorganisation und -methodik

experimentell œ

wirkmodellbasiert

wiss. gesetzbasiert

Ing. erfahrungsbasiert

œ

œ

œ

Spartenabgabe œ Make or Buy œ

Unternehmenstopf

staatliche Subventionen (direkt/indirekt)

œ

œ

zentrale/ dezentrale œ

Finanzierung œ Sparten

FMethodik

F-Organisation

‹ Aufbau

generell œ ƒ F&Espezifisch

Kosten-/ Leistungs- ¦ rechnung

œ ƒ Funktionen

Finanzen Instrumente ¦

Controlling¦ Methodik

‹‹ F&E-Control- ¦ ‹ ling ¦

Bilanzierung¦

Controlling‹ Organisation

¦

generell

‹ Abgrenzung

Investitions-/ œ ¦ Finanzƒ rechnung F&Espezifisch

ƒ Organisation

œ ƒ Gesellschaften Interne Revision œ ƒ Rechnungswesen

‹ Strategische Planung E-Methodik

ƒ Prototypen

Physisch ¦

ƒ Wirkgesetze ‹ Rechnermodelle

E-Organisation ƒ Make or Buy

‹ Ablauf

ƒ

ƒ

Steuerungsobjekte

Steuerungsziele

‹ ¦ Projekte Portfolios

Virtuell ¦

Abbildung 6:

œ

Werke

Einflussfaktoren auf das F & E-Controlling

‹ Taktische Planung

ƒ

ƒ

ƒ

Kosten

Zeiten

Steuerungstechnik

¦ Meilensteine

‹ Netzpläne

‹ Strategische Planung

Regelfrequenzen œ ƒ Regelgrößen

250

J. Fischer

Die Methodik wird weitgehend durch den „Stand der Technik“ der Branche bestimmt, der auf den Vorarbeiten von Forschungsinstituten und Pionieranwendern sowie auf den Anforderungen der Schlüsselkunden oder gesetzlichen Vorgaben beruht. So forschen und entwickeln z. B. alle deutschen Pharma- oder Autoelektrikproduzenten einer Größenordnung mit gleicher Methodik; ähnliches gilt auch für die Controllinginstrumente. Inwieweit die branchenweit bekannte Methodik adaptiert und implementiert wird, bestimmt die vom Management für die Ziele und Markterfordernisse eingeführte Organisation. Neben der Führungs- sind die Eigentümerstruktur und die Wettbewerbsverhältnisse wichtige Einflussgrößen. Die Controllingorganisation und damit der F & E-Controllertyp ist kaum rasch änderbar, da die Implementierung der jeweils adäquaten Instrumente und Abläufe mehrere Jahre dauert.

5 F & E-Controlling – quo vadis? Die Debatte um das F & E-Controlling ist eine Stellvertreterdebatte zwischen der Auffassung, dass Innovationen ureigenste Aufgabe des schöpferischen Unternehmers und Ingenieurs und als solche nicht planbar sind (unternehmerisches Paradigma), und der Meinung, die auf die innovative Kraft des methodischen, arbeitsteiligen Handelns in großen Organisationen setzt, bei dem die Controller zumindest die betriebswirtschaftlichen Methodiken beisteuern (planerisches Paradigma). Beide Auffassungen haben ihre Berechtigung: Solange eine Industrie sich in einem Umfeld ohne Strukturbrüche planmäßig z. B. auf einer Technologiekurve (S-Kurve) bewegt, kann das methodische Vorgehen seine Vorzüge ausspielen. Sobald eine Industrie mit Strukturbrüchen, z. B. mit neuen Technologiebündeln oder Geschäftsmodellen konfrontiert wird, dümpeln Branchen oft so lange vor sich hin, bis Mut und Ideenreichtum eines Pionierunternehmers einen Erfolg versprechenden Weg aufzeigt (z. B. zurzeit in der Musik- oder auch in der Pharmaindustrie). Dies verstärkt sich in einem interaktiven Innovationsmodell (open innovation – Reichwald, Piller, 2006), in dem Hochschulen am Markt agieren, Konsumenten in Gruppen Technologien fort entwickeln, Unternehmen automatisiert Grundlagen erforschen; somit Inventionen im Überfluss existieren, Innovationen jedoch knapp sind (zurzeit z. B. in der Bio- und Gentechnologie, im Web 2.0) (Lehner, 2001). Man spricht von „radikalen Innovationen“. Oft ist der technische Neuartigkeitsgrad nicht erfolgsentscheidend (Hauschildt, Salomo, 2005). Treffender erscheint der Begriff „asymetrische Innovationen“, da mit kleinen Inventionsinvestitionen große Innovationen = Markterfolge erzielbar sind und umgekehrt der Erfolg großer Investitionen kaum planbar ist. Die traditionelle Einteilung in eine, auf die Binnenorganisation gerichtete „Effizienzsicht“ des Controlling und eine zweite, auf die externe Marktsituation („Butensicht“) gerichtete „Effektivitätssicht“ wird durch eine ganzheitliche Sicht des Innovationsprozesses ersetzt werden müssen. Vorgeschlagen wird u. a. Inventions-, Innovations- und Produktionsphasen stärker zu parallelisieren, zu verzahnen und die Potenziale aller internen und externen Beteiligten über eine forcierte, nachhaltige Kooperation im Sinne der Wertschöpfung zu nutzen (Lehner, 2001). Bisher entstehen „asymetrische Innovationen“ durch Unternehmerpersönlichkeiten; die nur wenige Vertraute in ihre Überlegungen mit einbeziehen. Zumeist spielen Controller mit ihrem

Forschungs- und Entwicklungscontrolling – Fortschritt und Perspektiven

251

eher rationalen Planungsansatz dabei eher eine dienende als eine gestaltende Rolle. Ob F & EController sich auf diese ganzheitliche Sicht des Innovationsprozesses emotional einstellen („über den eigenen Tellerrand gucken“) und diese methodisch vorantreiben („Wertschöpfungsnetze analysieren und fair abrechnen“) können, wird über ihre Zukunft entscheiden. Sofern nachhaltige Netze eine Rolle spielen, bedarf es beidseitiger Vertrauensbeziehungen, die vertraglich fundiert werden sollten. Die Verträge werden den technologischen und geschäftlichen Beitrag jedes Partners zum Wertschöpfungsnetz in inhaltlicher und zeitlicher Hinsicht mit hoher Flexibilität beschreiben und fair dokumentieren müssen. Meist hat jedes Mitglied eines Konsortiums ein eigenes Portfolio von Schutzrechten, kann aber wirtschaftlich nicht agieren, ohne auch Schutzrechte anderer Mitglieder zu benutzen (o.V., 2008). Vielleicht ist dies das Arbeitsfeld des FuE-Controllers der 6. Generation? Literatur Ahrens, T./Chapman, C. S.: Occupational Identity of management accountants in Britain and Germany. In: The European Accounting Review 9 (2000), 4, S. 477–498. Ansoff, H. I./Steward, J. M.: Strategies for a technology based business. In: Harvard Business Review 45 (1967), Nov/Dec., S. 71–83. Arbeitskreis F & E-Management der Schmalenbach-Gesellschaft für Betriebswirtschaftslehre (Hrsg.): F & EKooperationen in der „Net Economy“ – Passen die alten Muster für den Controller noch? Köln-Paderborn 2001. Arbeitskreis F & E-Management der Schmalenbach-Gesellschaft für Betriebswirtschaftslehre (Hrsg.): F & EInformationssysteme: Hilfsmittel oder Treiber im Innovationsprozess? Köln-Paderborn 2003. Arbeitskreis F & E-Management der Schmalenbach-Gesellschaft für Betriebswirtschaftslehre (Hrsg.): Effizienz in Forschung & Entwicklung: Messbar? Steuerbar? Wünschenswert? Köln-Paderborn 2004. Arbeitskreis F & E-Management der Schmalenbach-Gesellschaft für Betriebswirtschaftslehre: Innovationsschwäche in Deutschland – mehr Emotionen in den Prozess. 3. Symposium Bingen, März 2007. Bellmann, K.: Produktionsnetzwerke – ein theoretischer Bezugsrahmen. In: Wildemann, H. (Hrsg.): Produktions- und Zuliefernetzwerke, München 1996, S. 47–63. Bellmann, K./Haritz, A.: Innovationen in Netzwerken. In: Blecker/Gemünden (2001), S. 271–298. Blecker, T./Gemünden, H.G. (Hrsg.): Innovatives Produktions- und Technologiemanagement – Festschrift für Prof. Bernd Kaluza, Berlin-Heidelberg 2001. Brockhoff, K.: Forschung und Entwicklung – Planung und Kontrolle, 5. Aufl. München-Wien 1999. Brockhoff, K.: Schnittstellen-Management: Abstimmungsprobleme zwischen Marketing und Forschung und Entwicklung, Stuttgart 1989. Domsch, M./Fischer, J.: Entscheidungsgremien und strategisches Forschungsmanagement. In: Zeitschrift für betriebswirtschaftliche Forschung 42 (1990), 10, S. 851–868. EIRMA (European Industrial Research Management Association): How Much R & D, Paris 1983. Fischer, J.: Informationswirtschaft: Anwendungsmanagement, München 1999. Fischer, J.: Controlling im F & E-Bereich – Einige Thesen zum Forschungs- und Entwicklungscontrolling. In: Controlling (1990),6, S. 306–311. Fischer, J./Hluchy, H. (Hrsg.): Prozessteams als eigenständige Akteure im Unternehmen, Heidelberg 2001. Fischer, J./Lange, U.: Invention und Innovation – (nicht immer) zwei Seiten einer Medaille. In: Amelingmeyer, J./Harland, P. E. (Hrsg.): Technologie- und Innovationsmanagement – Festschrift für Prof. Günter Specht, Wiesbaden 2005, S. 367–380.

252

J. Fischer

Fischer, J./Lange, U.: Measuring R & D Efficiency with a Balanced Scorecard. In: Pacl, H./Festl, G./Wess. G.; a.a.O., S. 186–193. Fischer, J./Spiekermann, M.: Grundlagen von Projektmanagementsystemen – mit einer Einführung in SAP R/3 PS, 5. Aufl. Bingen-Paderborn 2006. Hauschildt, J./Salomo, S.: Je innovativer, desto erfolgreicher? In: Journal für Betriebswirtschaft 55 (2005), S. 3–20. Horvath, P.: Controlling, 9. Aufl. München 2003. Horvath, P./Möller, K.: Integration von Target Costing, Target Pricing und Profit Planning. In: Jander/Krey (2004), S. 363–382. Jander, H./Krey, A. (Hrsg.): Betriebliches Rechnungswesen und Controlling im Spannungsfeld von Theorie und Praxis – Festschrift für Prof. Jürgen Graßhoff, Hamburg 2004. Kern, W./Schröder, H. H.: Forschung und Entwicklung in der Unternehmung, Reinbek bei Hamburg 1977. Lehner, F.: Innovatives Management – Ein Widerspruch in sich selbst? In: Blecker/Gemünden (2001), S. 253–270. Merwe van der, A.: Chapter Zero in Perspective. In: Management Accounting Quarterly 5 (2004), 2. Niemand, S.: Die Integration der Earned Value-Methode in das Konzept des Target Costing. In: Jander/Krey (2004), S. 333–403. Reichwald, R./Piller, F.: Interaktive Wertschöpfung. Wiesbaden 2006. Schmelzer, H. J.: Organisation und Controlling von Produktentwicklungen. Stuttgart 1992. Sharman, P. A./Vikas, K.: Lessons from German Cost Accounting. In: Strategic Finance (2004), S. 28–35. Specht, G./Beckmann, Ch./Amelingmeyer, J.: F & E-Management – Kompetenz im Innovationsmanagement, 2. Aufl. Stuttgart 2002. Pacl, H./Festel, G./Wess, G. (eds): The Future of Pharma R & D-Challenges and Trends, Hueneberg 2004. Weber, J. (Hrsg.): Controlling und Innovation, in: Zeitschrift für Controlling & Management (2007), Sonderheft 3. Werner, B.: Messung und Bewertung der Leistung von Forschung und Entwicklung im Innovationsprozeß – Methodenüberblick, Entwicklung und Anwendung eines neuen Konzepts. Diss. TU Darmstadt 2002. o.V.: Milliardenklage gegen Nokia. In: Handelsblatt (2008) 22, 31. Jan., S. 11.

Zur Messung des wirtschaftlichen Erfolges in der F & E Robert Hauber

1

Einführung und Problemstellung

Der Wunsch, den wirtschaftlichen Erfolg der unternehmensinternen Forschung & Entwicklung messen zu können, ist ein Forschungsfeld, das die Betriebswirtschaftslehre bereits seit Jahrzehnten beschäftigt. Vor dem Hintergrund, dass in einigen Branchen bis zu 20 Prozent des Umsatzes (vereinzelt sogar noch mehr) des Umsatzes für F & E-Aufwendungen investiert werden, die erst nach Entwicklungszyklen von bis zu über zehn Jahren beginnen, sich zu amortisieren, verwundert es wenig, dass das Thema „Wirtschaftlichkeit“ in der F & E sowohl in der Praxis als auch in der betriebswirtschaftlichen Forschung eine große Aufmerksamkeit genießt. Ein zufrieden stellender Ansatz, der es ermöglicht, Antworten auf diese Fragen zu geben, ist bisher jedoch nicht entwickelt worden. Zwar existieren eine Vielzahl von Überlegungen und Ansätzen, die sich dieser Thematik widmen. Diese sind indes mit zahlreichen Mängeln behaftet und bieten zahlreiche Ansatzpunkte für Kritik.

2

Bisherige Ansätze

In der Vergangenheit sind zahlreiche Ansätze entwickelt worden, um die Wirtschaftlichkeit der F & E messen zu können oder zumindest über Hilfskonstrukte Anhaltspunkte zu gewinnen, die Aufschluss darüber geben, wie erfolgreich die F & E ist. Bedeutende Ansätze werden im Folgenden skizziert.

2.1 F & E-Produktivität Verschiedene Beratungsunternehmen haben versucht, die Wirtschaftlichkeit der F & E in einer einzigen Kennzahl abzubilden. Vorgeschlagen wird daher, die F & E-Produktivität zu messen. Die F & E-Produktivität wird dabei unterschiedlich definiert: F & E-Produktivität1 = 1

Umsätze F & E-Aufwendungen

Vgl. Arthur D. Little (Hrsg.): Management der Lernprozesse im Unternehmen, Wiesbaden 1995, S. 118; vgl. Gaiser, B.; Horváth, P.; Mattern, K.; Servatius, H.: Wirkungsvolles F & E-Controlling stärkt die Innovationskraft. In: Harvard Manager, 11. Jg., 1989, 3, S. 35.

254

R. Hauber

F & E-Produktivität2 =

Gewinne F & E-Aufwendungen

F & E-Produktivität3 =

Umsätze Anzahl der Entwickler

Ob diese Kennzahlen ein sinnvolles Abbild der Wirtschaftlichkeit ergeben, ist indessen mehr als fraglich. Die Aussagekraft dieser Kennzahlen ist sehr begrenzt, da zwischen den aktuellen Umsätzen und Gewinnen und den aktuellen F & E-Aufwendungen kein direktes Input-OutputVerhältnis besteht und valide Aussagen nur bei (in der Praxis seltenen) konstanten F & E-Intensitäten abgeleitet werden können. Insbesondere die Verknüpfung von Umsätzen und Gewinnen mit den F & E-Aufwendungen derselben Periode ist wenig sinnvoll, da F & E-Aufwendungen in der Regel erst Umsätze und Gewinne in späteren Perioden verursachen und dadurch ein Output mit einem Input in Relation gebracht wird, zwischen denen aber gar kein Zusammenhang besteht. Fraglich ist zudem, ob die Umsätze ein geeignetes Outputmaß für die F & E darstellen, da zum einen die Umsätze nicht nur aus neuen Produkten, sondern auch aus älteren Produkten generiert werden und zum anderen die Höhe der Umsätze, die aus Produktinnovationen generiert werden, nicht nur durch die F & E beeinflusst werden können. Andere Wertschöpfungsstufen, wie die Produktion und Marketing haben ebenfalls einen erheblichen Einfluss auf die Höhe der anfallenden Umsätze. Um dieses Defizit zu beseitigen, müssten zumindest die vergangenen F & E-Inputs mit den aktuellen Outputs auf einer Projektbasis in Relation gebracht werden. Angesichts dieser methodischen Schwächen eignet sich die Produktivität nicht zur Messung und Evaluierung der Wirtschaftlichkeit der F & E.

2.2 Effektivitätsindex von McGrath & Romeri Auf eine einzige Kennzahl beschränken sich McGrath und Romeri, um die Effektivität der Produktentwicklung zu messen.4 Der Effektivitätsindex

Effektivitätsindex

=

Anteil des Umsatzes von neuen Produkten *

(Umsatzrendite + F & EIntensität)

F & E-Intensität

2

Vgl. Foster, R. N.; Linden, L. H.; Whiteley, R. L.; Kantrow, A. M.: Improving the Return on R & D – I. In: Research Management, 28. Jg., 1985, 1, S. 13; vgl. Foster, R. N.; Linden, L. H.; Whiteley, R. L.; Kantrow, A. M.: Improving the Return on R & D – II, in: Research Management, 28. Jg., 1985, 2, S. 14.

3

Vgl. McKinsey & Company (Hrsg.): Wachstum durch Verzicht: schneller Wandel zur Weltklasse: Vorbild Elektronikindustrie. Stuttgart 1994, S. 90.

4

Vgl. McGrath, M. E.; Romeri, M. N.: The R & D Effectiveness Index: A Metric for Product Development Performance. In: Journal of Product Innovation Management, 11. Jg., 1994, S. 213ff.

Zur Messung des wirtschaftlichen Erfolges in der F & E

255

soll Auskunft darüber geben, wie vorteilhaft Investitionen in die F & E sind. Ein Index größer 1.0 sage aus, dass die neuen Produkte mehr Gewinn erzielen, als für sie in die F & E investiert wurde. Problematisch an dieser Formel erscheint die Wahl der Bezugsgrößen. Der Umsatz von neuen Produkten wird von Investitionen generiert, die aus davor liegenden Perioden stammen, insofern müsste als Bezugsgröße nicht die aktuelle F & E-Intensität,5 sondern die tatsächlichen Investitionen gegenübergestellt werden. Dies setzt jedoch eine projektspezifische Betrachtung voraus. Kritikbehaftet ist außerdem die Aggregation von Umsatz- und Gewinngrößen zu einem Index. Die Aussagekraft des Index muss daher als sehr eingeschränkt betrachtet werden. Letztendlich ist der Effektivitätsindex nichts anderes als eine Variante der F & E-Produktivität und durch die gleichen Kritikpunkte angreifbar.

2.3 Tobin’s Q Ein weiterer Ansatz, den wirtschaftlichen Erfolg der F & E zu messen, liefert der Nobelpreisträger für Wirtschaft James Tobin. Tobin’s q ist eine Relation des Marktwerts immaterieller Investitionen in Relation zu den Wiederbeschaffungskosten. Ein q < 1 bedeutet dabei, dass der Marktwert der Aktiva unter den Wiederbeschaffungskosten liegt, und dementsprechend diese Investition nicht lohnenswert wert ist. Ein q > 1 bedeutet, dass der Marktwert über den Wiederbeschaffungskosten liegt und damit die Investition rentabel ist. Einer Anwendung dieses theoretischen Ansatzes stehen zwei Dinge im Wege: Zum einen bestehen F & E-Investitionen nicht nur aus immateriellen Investitionen, sondern auch zu einem großen Teil aus materiellen Investitionen. Zum anderen ist fraglich, ob die Messbarkeit immer gegeben ist, da sowohl der Marktwert und der Wiederbeschaffungswert der F & E-Investitionen nur in wenigen Fällen einfach bestimmbar sind.

2.4 Innovationsrate Eine weitere Kennzahl, die in der F & E häufig verwendet wird, ist die Produktinnovationsrate.6 Diese wird durch den Anteil des Umsatzes aus neuen Produkten definiert. Als neu werden häufig die Produkte verstanden, die nicht länger als die Hälfte der durchschnittlichen Lebenszyklusdauer der Branche auf dem Markt sind. Dieser Leistungsmaßstab ist ein guter Indikator für den „Neuheitsgrad“ eines Produktprogramms. Über die Wirtschaftlichkeit dieses Programms sagt er aber nichts aus und ist daher als Kennzahl für die Wirtschaftlichkeit nur eingeschränkt brauchbar.

2.5 Weitere Leistungsmaßstäbe in der F & E Neben den vorangegangenen Konzepten existieren eine Reihe vereinzelter weiterer Ansätze, anhand derer versucht wird, den Erfolg der F & E an nicht-monetären Hilfsgrößen zu messen. Eine Hilfsgröße dieser Art ist bspw. die Anzahl von Patenten die innerhalb einer Periode von 5

Unter der F & E-Intensität wird die Relation aus F & E-Aufwendungen in Relation zu den Umsätzen des Unternehmens innerhalb einer Periode verstanden.

6

Vgl. Brockhoff, K.: Die Produktinnovationsrate als Instrument der strategischen Unternehmensplanung. In: ZfB, 55. Jg., 1985, 5, S. 452.

256

R. Hauber

der F & E angemeldet werden. Diese ist ebenfalls nur eingeschränkt als Indikator für die Wirtschaftlichkeit geeignet, da dabei nicht die unterschiedliche Werthaltigkeit von Patenten berücksichtigt wird, sondern pauschal jedes Patent gleich gewichtet wird. Um das Problem der pauschalen Gleichbehandlung von Patenten zu lösen wird von Harhoff et al. die Zitierungshäufigkeit der Patente vorgeschlagen.7 Dennoch verbleibt daraus das Problem, dass der Zusammenhang zwischen der Anzahl der Patente und den monetären Größen wie Free Cash Flow nicht bekannt ist. Zwar wird vermutet, dass langfristig eine positive Korrelation zwischen der Anzahl von Patenten und dem Cash Flow eines Unternehmens existiert, mehr als Vermutungen und empirisch basierten Hypothesen sind dazu nicht bekannt.

3

Hindernisse bei der Messung der Wirtschaftlichkeit in der F & E

Auf der Ebene des Gesamtunternehmens oder einzelner Divisionen eines Unternehmens, bei denen Kosten und Erlöse sowie eingesetzte Kapitalgüter eindeutig zueinander zurechenbar sind, ist die Bildung dieser Leistungsmaßstäbe sehr einfach möglich. In der F & E hingegen existieren hingegen eine Reihe von Hindernissen, die eine Messung der Wirtschaftlichkeit in der F & E erschweren (vgl. Abb. 1). Das Haupthindernis bei der Messung der Wirtschaftlichkeit der F & E besteht darin, dass den F & E-Aufwendungen keine direkten Erlöse für die Wertschöpfung der F & E gegenüberstehen. Diese Situation existiert lediglich für den Fall der Auftragsforschung und -entwicklung. In dieser Ausnahmesituation können Erlöse und Aufwendungen einander zugeordnet werden, die zur Bildung eines Profit Centers erforderlich wären.

Abbildung 1:

7

Hindernisse zur Messung der Wirtschaftlichkeit in der F & E

Vgl. Harhoff, D.; Scherer, F. M.; Vopel, K.: Exploring the Tail of Patented Invention Value Distributions, Discussion Paper No. 97–30, Centre for European Economic Research, Mannheim 1997, S. 21.

Zur Messung des wirtschaftlichen Erfolges in der F & E

257

Der Regelfall in der industriellen Praxis ist indessen der, dass die F & E Leistungen für das Mutterunternehmen erbringt, die aber selten monetär in Form von Verrechnungspreisen quantifiziert werden. Eine Quantifizierung mit Verrechnungspreisen macht auch wenig Sinn, da es in der Regel aufgrund der Einzigartigkeit der Leistungen keine Marktpreise für F & E-Leistungen gibt und daher diese Verrechnungspreise auf Basis von Verhandlungen gebildet werden müssten. In dieser Konstellation besitzt die F & E eine Monopolsituation, die im Extremfall dazu führen kann, dass die F & E die Preise für die eigenen Leistungen diktieren kann, was im Hinblick auf das Gesamtoptimum des Unternehmens und der Wirtschaftlichkeit innerhalb der F & E nicht zweckdienlich erscheint. Die Sinnhaltigkeit der organisatorischen Konstruktion eines F & E-Profit Centers muss daher in Frage gestellt werden. Ein weiteres Hindernis bilden die langen Zeitspannen zwischen Aufwendungen und daraus induzierten Erträgen. Folgerichtig ist eine periodenbezogenen Gegenüberstellung von Aufwendungen und Erträgen nicht sinnvoll, da Outputs mit Inputs in Relation zueinander gebracht wird, zwischen denen kein Zusammenhang besteht. Ein weiteres Problemfeld bildet die enge Verknüpfung von Leistungen von F & E, Produktion und Marketing. Die interdisziplinäre Verknüpfung dieser Funktionen macht es unmöglich, einen getrennten Wertbeitrag abzuleiten. Letztlich gibt es in der F & E zahlreiche Aktivitäten, denen sich kein monetärer Nutzen zuordnen lässt. Alle Aktivitäten, die in keinem Zusammenhang mit einem Produktprojekt stehen, können keine Erlöse zugeordnet werden. Eine Kostenträgerbetrachtung ist folgerichtig nicht immer möglich.

4

Wirtschaftlichkeitsbetrachtung einzelner Projekte

Ein sinnvoller Ansatz, die Wirtschaftlichkeit der F & E zu messen, besteht darin, die Betrachtung auf einzelne Projekte, vornehmlich Produktprojekte zu konzentrieren. Bei einer Wirtschaftlichkeitsbetrachtung einzelner Projekte muss aber auch berücksichtigt werden, dass nicht alle Projekte zu Erlösen führen und daher auch keine Wirtschaftlichkeitsbetrachtung möglich ist. Teilprojekte eines Produktprojektes, abgebrochene F & E-Projekte oder Forschungsprojekte können daher nicht auf diese Art und Weise evaluiert werden. Letztlich ist die Frage nach dem Zeitpunkt der Wirtschaftlichkeitsmessung mit einem Dilemma verbunden (vgl. Abb. 2).

Abbildung 2:

Dilemma im Hinblick auf den Zeitpunkt der Wirtschaftlichkeitsbetrachtung

258

R. Hauber

Eine frühe Messung ist wünschenswert, da die Beeinflussbarkeit des Ergebnisses noch gegeben ist, die Verfügbarkeit von Daten hingegen sehr eingeschränkt ist und häufig nur mit Schätzwerten wie Absatzzahlen und antizipierten Aufwendungen gearbeitet werden kann. Bei einer Messung zu einem späten Zeitpunkt hingegen ist die Datenverfügbarkeit eher gegeben, im Rahmen einer ex-post-Wirtschaftlichkeitsrechnung sogar zu 100% möglich, die Beeinflussbarkeit des Ergebnisses nimmt indessen mit zunehmenden Projektfortschritt ab. In anderen Worten: Zu einem Zeitpunkt, an dem gemessen werden kann, ist es bereits häufig zu spät, um auf eine Verbesserung des Ergebnisses einzuwirken. Um diesem Dilemma zu entgehen, ist es üblich, Hilfsgrößen zu verwenden, die als Indikatoren für den späteren wirtschaftlichen Erfolg dienen sollen.

4.1 Klassische (effizienzorientierte) Leistungsmaßstäbe von F & E-Projekten In der Literatur als auch in der Praxis werden besonders die effizienzorientierten Leistungsmaßstäbe Zeit Kosten und Qualität in den Vordergrund gestellt, durch deren Steigerung eine Verbesserung des wirtschaftlichen Erfolges erzielt werden soll. Eine Senkung der Entwicklungszeiten, eine Senkung der Entwicklungskosten sowie eine Steigerung der Qualität werden als Maßnahmen propagiert, um die Wirtschaftlichkeit zu steigern.8 Die Zielerreichung einzelner Ziele stehe dabei häufig im Konflikt zu einem oder mehreren anderen Zielen. Daher wird auch häufig von einem magischen Dreieck gesprochen. Übersehen wird dabei häufig, dass diese effizienzorientierten Leistungsmaßstäbe nur Hilfsgrößen repräsentieren, die nicht direkt, sondern nur indirekt auf die Wirtschaftlichkeit einwirken. Beachtet werden muss bspw., dass der Zusammenhang zwischen diesen Hilfsgrößen und der Wirtschaftlichkeit eines Produktprojektes nur selten linear ist, und der Zusammenhang häufig – wenn überhaupt – qualitativ bekannt ist. In vielen Fällen wird dennoch versucht, diese Hilfsgrößen zu optimieren, obwohl dadurch ein negativer Einfluss auf die Wirtschaftlichkeit ausgeübt wird. Berücksichtigt werden muss bei diesen effizienzorientierten Leistungsmaßstäben zudem, dass empirische Beobachtungen implizit als gültig angenommen werden, die teilweise nicht unumstritten sind. Bspw. wird ein Ergebnis der PIMS-Studie9 (Profit Impact on Market Studies), dass die Qualität von Produkten einen positiven Einfluss auf den wirtschaftlichen Erfolg eines Unternehmens habe, als Prämisse stillschweigend vorausgesetzt. Ebenso wird ein positiver Zusammenhang zwischen kurzen Entwicklungszeiten und dem wirtschaftlichen Erfolg eines Unternehmens als zentrale Prämisse gesetzt. Beachtet werden muss aber in diesem Zusammenhang, dass eine Verkürzung der Entwicklungszeiten und eine Senkung der Entwicklungskosten die Wirtschaftlichkeit eines Produktprojektes zwar steigern kann, dies aber keineswegs als gültiges Phänomen für alle denkbaren Fälle angenommen werden kann. Wird eine Verkürzung der Entwicklungszeiten angestrebt, um schneller das Produkt am Markt einzuführen, 8

Zeitgewinne bei der F & E steigern den Gewinn, behaupten: Seifert, H.; Steiner, M. (1995): F+E: Schneller, schneller, schneller, in: Harvard Business Manager, 17. Jg., 1995, 2, S. 16.

9

Vgl. Buzzel, R. D.; Gale, B. T. (1989): Das PIMS-Programm. Strategien und Unternehmenserfolg, Wiesbaden 1989.

Zur Messung des wirtschaftlichen Erfolges in der F & E

259

muss beachtet werden, dass ein früher Markteintritt auch im Hinblick auf die Wirtschaftlichkeit eines Produktprojektes nachteilig sein kann.10 Die Prämisse, dass eine Pionierstrategie immer die erfolgreichere Handlungsalternative repräsentiere, ist in der Literatur durchaus umstritten, da eine Folgerstrategie unter gewissen Rahmenbedingungen zu einem höheren Erfolg als eine Pionierstrategie führt. Diese Problemfelder sollen aber nicht grundsätzlich die Eignung dieser Leistungsmaßstäbe als Steuerungsinstrumente in Frage stellen. Vielmehr muss deren Einsatz situationsspezifisch geprüft werden und auch das Augenmerk auch auf andere Leistungsmaßstäbe gelegt werden.

4.2 Wertorientierte (effektivitätsorientierte) Leistungsmaßstäbe in der F & E Von den diskutierten Ansätzen haben die monetären Leistungsmaßstäbe den Nachteil, dass sie erst zu einem sehr späten Zeitpunkt generiert werden können. Die nicht-monetären Leistungsmaßstäbe haben den Nachteil, dass der Einfluss dieser Größen auf die Wirtschaftlichkeit oft nicht bekannt ist oder Zusammenhänge häufig nur auf Vermutungen basieren. Wünschenswert sind aber Größen, die zukunftsorientiert sind und deren Einfluss auf die Wirtschaftlichkeit valide abgeschätzt werden kann. In anderen Worten – die Forderung nach effektivitätsorientierten Leistungsmaßstäben bedeutet, dass Leistungsmaßstäbe generiert werden müssen, die einen direkten Einfluss auf den wirtschaftlichen Erfolg haben und auch zu einem Zeitpunkt evaluiert werden können, solange das Ergebnis auch noch beeinflussbar ist. Geeignet sind daher alle Leistungsmaßstäbe, die direkt den wirtschaftlichen Erfolg beeinflussen und als Planungsgröße verwendet werden können. Wird der wirtschaftliche Erfolg an einer Steigerung des Unternehmenswertes gemessen, so kann der Unternehmenswert durch die F & E durch drei Hebel gesteigert werden (vgl. Abb. 3, S. 246). Eine Steigerung der Rentabilität, eine angemessene Risikostruktur der Projekte und profitables Wachstum. Eine Steigerung der Rentabilität kann bspw. dadurch erzielt werden, dass ein Produktentwicklungsprojekt ein Produkt hervorbringt, das entweder zu einer überdurchschnittlichen Rentabilität bzw. Kapitalverzinsung führt oder ein altes Produkt ablöst, das eine geringere Rentabilität generierte. Profitables Wachstum wird durch Produktentwicklungsprojekte generiert, deren Produkte zu Umsatzwachstum führen mit einer Kapitalverzinsung, die über den Kapitalkosten liegt. Die Risikostruktur der Projekte ist insofern bedeutsam im Hinblick auf die Schaffung von Unternehmenswert, als dass ein Unternehmen zum einen nur begrenzte Finanzmittel zur Verfügung besitzt, Entwicklungsprojekte umzusetzen und daher nicht jedes Projekt mit einem positiven Net Present Value umsetzen kann. Zum anderen ist angesichts der Risiken, die mit F & EVorhaben verbunden sind, eine Auswahl der Projekte auch nach Risikoprofilen durchzuführen und eine angemessene Balance zwischen risikoreicheren und risikoärmeren Projekten anzustreben.

10

Vgl. Tellis, G. T.; Golder, P. N.: Der erste am Markt – auch als erster wieder draußen? In: Harvard Business Manager, 18. Jg., 1996, 3, S. 75; vgl. Perillieux, R.: Einstieg bei technischen Innovationen: früh oder spät? In: ZfO, 59. Jg., 1989, 1, S. 24; vgl. Oelsnitz, D. von der; Heinecke, A.: Auch der Zweite kann gewinnen. In: IO Management, 66. Jg., 1997, 3, S. 36.

260

Abbildung 3:

R. Hauber

Magisches Dreieck zur Schaffung von Unternehmenswert

Grundsätzlich ist aus der Perspektive des Kapitalmarktes der Wert der unternehmensinternen F & E in der Marktkapitalisierung des Unternehmens enthalten. Wird durch die F & E Wert geschaffen, schlägt sich dies im Unternehmenswert nieder bzw. bei börsen-notierten Unternehmen in der Marktkapitalisierung nieder, vorausgesetzt die Informationen sind allen Marktteilnehmern bekannt. Verkündet ein Pharmahersteller einen Durchbruch in einem Forschungsprojekt, so schlägt sich dies häufig direkt in der Aktienkursentwicklung nieder. Ein direkter Niederschlag des Wertes der F & E im Unternehmenswert setzt indessen effiziente Märkte voraus, in denen alle Marktteilnehmer über vollständige Informationen verfügen. Dies ist in der Realität sicher nur im Ausnahmefall gegeben, zumal gerade für F & E-Vorhaben im Hinblick auf das Verhalten der Wettbewerber oft eine zurückhaltendere Kommunikation gegenüber der Öffentlichkeit betrieben wird. Nichtsdestotrotz ist dieser Zusammenhang zwischen dem Wert der F & E und dem Unternehmenswert, der kurzfristig vielleicht nur modelltheoretisch existiert, wichtig im Hinblick auf eine Ableitung von Steuerungsgrößen für das F & E-Management.

4.2.1 F & E-Wert Zielsetzung bei der Ableitung von Steuerungsgrößen für das F & E-Managment muss daher sein, den F & E-Wert zu messen. Der Wert der firmeninternen F & E manifestiert sich in der Summe der Einzelwerte der einzelnen Projekte, die ein Unternehmen in der „Pipeline“ hat. F & E-Wert = Summe der Werte aller Produktprojekte Der Wert eines Produktprojektes kann durch den Net Present Value der antizipierten Net Cash Flows eines Projektes bewertet werden. Der F & E-Wert quantifiziert den zeitpunktabhängigen Wert der F & E und verändert sich im Laufe des Zeitablaufs. Da der Wert eines Projektes mit hohem Wert nach der Markteinführung mit zunehmender Marktreife sinkt, muss der F & E-Wert und durch neue initiierte Projekte wieder erhöht werden.

Zur Messung des wirtschaftlichen Erfolges in der F & E

261

Der F & E-Wert müsste eigentlich der zentrale Leistungsmaßstab für das F & E-Management sein, da er quasi eine Spitzenkennzahl für die Wirtschaftlichkeit der F & E bildet und ein wichtiger Indikator dafür ist, inwiefern die F & E zur Schaffung von Unternehmenswert beiträgt. Interessant auch im Hinblick auf die Steuerung der F & E ist auch eine Betrachtung der F & EWert-Quote, die sich durch den F & E-Wert als Prozentsatz des Gesamtunternehmenswerts berechnet. Sie drückt aus, wie wichtig die zukünftigen Produktinnovationen für die Erhaltung und Steigerung des zukünftigen Unternehmenswertes sind. Eine hohe F & E-Wert-Quote kann bei einem börsennotierten Unternehmen, bei dem wichtige Produktinnovationsvorhaben noch nicht bekannt sind, ein Indikator für ein weiteres Steigerungspotenzial des Unternehmenswertes sein. Beachtet werden muss aber insbesondere bei börsennotierten Unternehmen, dass beim Unternehmenswert externe Erwartungen der Marktteilnehmer mit internen Erwartungen von Insidern verglichen werden, die sich nicht nur hinsichtlich der Bewertungsmethode unterscheiden, sondern auch auf unterschiedlich optimistischen Einschätzungen basieren. Dies ist besonders dann kritisch, wenn von Insidern zu positive Erwartungen in die Bewertung eingehen, um die Projekte am Leben zu erhalten, bzw. individuelle Motive Ursache für eine falsche Bewertung eines Projektes sind. Essentiell für eine erfolgreiche Verwendung des F & E-Wertes als Bewertungsmaßstab ist daher, dass die Bewertung möglichst nicht von Personen durchgeführt wird, die ein besonderes Interesse an einer Weiterverfolgung des Projektes haben könnten, damit vermieden wird, dass Projekte „schön gerechnet“ werden.

4.2.2 Cash Flow Return on Investment Neben dem Wachstum profitabler Geschäftsaktivitäten ist die Steigerung der Rentabilität bestehender Geschäfte ein zweiter wichtiger Hebel zur Steigerung des Unternehmenswertes. Neue Produkte, die aus der F & E hervorgehen, ersetzen häufig alte Produkte, um die Wettbewerbsfähigkeit des Unternehmens zu sichern. Der Erfolg der F & E besteht dabei darin, die Wirtschaftlichkeit dieser Geschäftsfelder zu erhöhen. Die F & E muss daher auch daran gemessen werden, inwiefern die Rentabilität dieses Geschäftsfeld erhöht wird. Als Leistungsmaßstab eignet sich dazu der Cash Flow Return on Investment (CFROI, interner Zinsfuß)11 der einzelnen Produktprojekte. Ein Projekt ist dann wirtschaftlich, wenn der CFROI höher als die spezifischen Kapitalkosten des Unternehmens ist. Ziel der F & E muss es jedoch auch sein, den CFROI gegenüber dem Vorgängerprodukt möglichst zu steigern.

4.2.3 Standardabweichung zum Net Present Value der Produktprojekte Ein Themenfeld, das im Zusammenhang mit wertorientierter Führung häufig ausgeklammert wird, ist der Aspekt des Managements des Risikos.12 Ein Verzicht auf die Berücksichtigung des Risikos impliziert, dass sich das Management ausschließlich an dem Fall mit der höchsten 11

Vgl. Lewis, T. G.; Stelter, D.: Mehrwert schaffen mit finanziellen Ressourcen. In: Harvard Business Manager, 15. Jg., 1993, 4, S. 111.

12

Vgl. Völker, R.: Wertorientierte Planung und Steuerung von F & E: Anwendung des Wertmanagementkonzeptes bei strategischen und operativen Technologie- und F & E-Entscheiden, in: Zeitschrift für Planung, 8. Jg., 1997; vgl. Rappaport, A.: Shareholder Value: Wertsteigerung als Maßstab für die Unternehmensführung, Stuttgart; vgl. Lewis, T. G.; Stelter, D. M.: Steigerung des Unternehmenswertes: Total Value Management, Landsberg/Lech 1994.

262

R. Hauber

Wahrscheinlichkeit, dem Erwartungswert orientiert. Dieses Verhalten entspricht aber keinem rationalen Verhalten wie Bernouli bereits 1738 anhand des Petersburger Spieles gezeigt hat.13 Eine ausschließliche Berücksichtigung des Risikos im Rahmen der Kapitalkosten ist nicht ausreichend, da gerade innerhalb der F & E große technische und wirtschaftliche Risiken existieren. Eine sinnvolle Möglichkeit, Risiken zu quantifizieren ist eine Darstellung der einzelnen Produktprojekte durch Wahrscheinlichkeitsverteilungen der möglichen NPVs. Hier geht es keinesfalls um eine detaillierte Abschätzung eines Risikoprofils. Vielmehr erscheint es als praktikabel, die Darstellung unter der Prämisse einer Normalverteilung als Gauß’sche Verteilung darzustellen. Als Risikomaß eignet sich die Standardabweichung zu dem NPV eines Projektes, der mit höchster Wahrscheinlichkeit eintritt. Die Standardabweichung m quantifiziert, welche Abweichung mit einer Wahrscheinlichkeit von 66.67% nicht überschritten wird.14 Gegebenfalls kann auch ein Worst-Case-Szenario für das Intervall 3m gebildet werden, das mit einer Wahrscheinlichkeit von 97% nicht überschritten wird. Da ein Unternehmen keine beliebigen Risiken eingehen kann und sich nur einem angemessenen Risk Exposure aussetzen kann, ist die durchschnittliche Standardabweichung ein wichtiges Maß eines Einzelprojektes für das F & E-Management im Rahmen des Management des Risikos. Um die Risikostruktur des gesamten F & E-Portfolios evaluieren zu können, eignet sich die durchschnittliche Standardabweichung, die durch folgende Vorgehensweise ermittelt werden kann: n

Durchschnittliche Standardabweichung = Y mn * NPVn : n 1

Wobei:

NPV: der Net Present Value ist n: die Anzahl der Projekte mit direktem Produktbezug in der F & E ist

Grundsätzlich sinnvoll erscheint, die durchschnittliche Standardabweichung mit den Net Present Values der Einzelprojekte zu gewichten, da ansonsten ein risikoreiches Projekt mit geringen F & E-Aufwendungen und geringen Ertragsaussichten mit gleicher Gewichtung in die durchschnittliche Standardabweichung eingeht wie ein risikoarmes Projekt mit hohen Ertragsaussichten. Gleichzeitig kann so vermieden werden, dass bspw. bei Portfoliobereinigungen Risikoaspekte und Ertragsaussichten balanciert in den Entscheidungsprozess einfließen.

5

Projektübergreifende Messung des wirtschaftlichen Erfolges

Generell ist ein geringes Risiko und eine geringe erwartete Standardabeichung wünschenswert, dem sich das Unternehmen aussetzt. Es entspricht aber auch der unternehmerischen Natur, dass ein gewisses Maß an Risiko eingegangen werden muss, um eine gewünschte Rentabilität überhaupt erst erreichen zu können. Veränderungen der durchschnittlichen Standardabweichung im 13

Vgl. Bernoulli, D.: Die Grundlage der modernen Wertlehre: Versuch einer neuen Theorie der Wertbestimmung von Glücksfällen; Leipzig 1896, S. 23ff.

14

Zur Vereinfachung wird eine Normalverteilung der Ergebnisse angenommen.

Zur Messung des wirtschaftlichen Erfolges in der F & E

263

Ablauf der Zeit deuten an, inwiefern sich die Risikostruktur des F & E-Portfolios verändert. Eine steigende durchschnittliche Standardabweichung deutet bspw. an, das sich die Risikostruktur des F & E Portfolios verschlechtert. Neben einer Betrachtung der (gewichteten) durchschnittlichen Standardabweichung ist eine einzelne Betrachtung von Projekten sinnvoll, um ein besseres Verständnis der Risikostruktur des Portfolios zu entwickeln (vgl. Abb. 4) Eine Diskussion anhand von simplen unterstützenden Instrumenten wie Portfolios können eine Diskussion ermöglichen, bei der Ertragsaspekte und Risikoaspekte ausgewogen in Relation zueinander gebracht werden.

Abbildung 4:

F&E Wert-Risiko-Portfolio

Bei den in Abbildung 4 dargestellten Projekten sind grundsätzlich die „Werttreiber“ gegenüber den „Risikotreibern“ vorzuziehen, da es wohl nicht einem rationalen Verhalten entspricht, ein höheres Risiko einzugehen bei gleichem oder geringerem Erwartungswert eines Projektes. Daher müssen bei einer Bestandsaufnahme der Projekte besonders die „Risikotreiber“ in Frage gestellt werden, da es nicht einem rationalen Verhalten entspricht, diese Projekte gegenüber den „Werttreibern“ vorzuziehen. Das Gleiche kann für die „Value for Risk“ Projekte gelten. In Abbildung 4 weist bspw. Projekt D gegenüber Projekt A eine höhere Risikoerwartung und eine geringere Werterwartung auf. Daher müssen alle Projekte, die sich im schraffierten Quadranten eines anderen Projektes befinden, einer kritischen Überprüfung unterziehen. Es muss nicht zwingend dieses Projekt abgebrochen werden, da in Abhängigkeit der spezifischen Risikoneigung des Unternehmens es theoretisch durchaus Sinn machen kann, sich auch für ein solches

264

R. Hauber

Projekt zu entscheiden, wenn es bspw. zu wenig Alternativprojekte gibt und das erwartete Risiko immer noch im Vergleich zur Werterwartung akzeptabel erscheint. Praktisch ist angesichts der Vielzahl von möglichen Projekten, die häufig in der F & E vorzufinden sind, eine Weiterverfolgung dieser Projekte nicht sinnvoll, da es meistens andere Projekte mit einem besserem WertRisiko-Profil gibt. In Abbildung 5 sind bspw. die Projekte C und B gegenüber den Projekten D bzw. E vorzuziehen. Beachtet werden muss, dass das F & E-Wert-Risiko-Portfolio jeweils eine Momentanaufnahme der jeweiligen Projektstruktur ist und die Position der einzelnen Projekte in diesem Portfolio sich im Zeitablauf verschieben können. Dies muss berücksichtigt werden, wenn dieses Instrument zur Entscheidung über Projektabbruch oder -fortsetzung eingesetzt wird. Ein natürlicher Ausleseprozess, der darin besteht, dass Projekte mit längerer Laufzeit mit geringeren (Rest-) Risiken behaftet sind, sorgt in vielen Fällen dafür, dass nicht die Projekte mit den höchsten „Sunk Costs“ abgebrochen werden. Umgekehrt muss natürlich bei langfristigen Projekten berücksichtigt werden, dass Projekte mit hohem Risiko im im Portfolio im Lauf der Zeit von rechts nach links entwickeln können. Das F & E-Management muss daher durchaus die Fristigkeit der einzelnen Projekte im Auge behalten, um zu verhindern, dass Forschungsprojekte ausschließlich durch Entwicklungsprojekte substituiert werden. Technisch im Portfolio umgesetzt kann dies bspw. dadurch, dass die Größe der Kreise, die die einzelnen Projekte repräsentieren, die Laufzeit des Projektes darstellt. Damit kann in dieser Entscheidungssituation, neben der Risiko- und der Werterwartung auch die Fristigkeit als zusätzlich Dimension dargestellt werden. Insgesamt weist das F & E-Wert-Risiko-Portfolio gegenüber herkömmlichen Portfolio-Techniken, die für die F & E verbreitet sind, einen wesentlichen Vorteil auf, dass die Priorisierung der Projekte mit quantitativen Daten unterlegt sind und daher die Priorität der Projekte deutlicher und ergebniszielorientierter wird als bei rein qualitativen Betrachtungen. Letztlich ermöglicht es ein besseres Herausarbeiten der Ressourcenpriortäten der einzelnen Projekte, da der Beitrag zur Wertgenerierung der F & E und damit für das Gesamtunternehmen transparenter abgebildet wird.

Organisations- und Leistungskoordination

Anforderungen an ein Kostenmanagement im Service Engineering Marion Steven und Katja Wasmuth

1

Problemstellung

Die gesamtwirtschaftliche Bedeutung von Dienstleistungen nimmt seit mehreren Jahrzehnten beständig zu, wie die Entwicklung des Dienstleistungsanteils gegenüber dem Sachleistungsanteil sowohl in der deutschen Volkswirtschaft (vgl. Statistisches Bundesamt, 2004, S. 11) als auch in anderen westlichen Volkswirtschaften zeigt. Im Zuge dieser Entwicklung gewinnen auch industrielle Dienstleistungen, die von Unternehmen der Investitionsgüterindustrie ergänzend zu ihren Sachleistungen angeboten werden, zunehmend an Bedeutung, um sich im Anbieterwettbewerb zu behaupten. Allerdings hat sich die Ertragssituation vieler Investitionsgüterhersteller trotz des Angebots von industriellen Dienstleistungen nur unwesentlich verbessert, weil bei der Dienstleistungsentwicklung häufig die Erschließung neuer Umsatzpotenziale für die Sachleistungen im Vordergrund steht, die Profitabilität der Dienstleistungen hingegen vernachlässigt wird. Die Kosten, die durch die zukünftige Erbringung der Dienstleistung anfallen, bleiben bei ihrer Entwicklung vielfach unberücksichtigt, da das Wissen um die entsprechenden Zusammenhänge fehlt. So werden Dienstleistungen entwickelt, die von den Unternehmen später nicht kostendeckend erbracht werden können, so dass sie die Ertragslage der Unternehmen negativ beeinflussen. Vor diesem Hintergrund zeigt sich die Notwendigkeit eines frühzeitigen Kostenmanagements, das bereits bei der Dienstleistungsentwicklung einsetzt.

2

Bedeutung des Kostenmanagements in der Dienstleistungsentwicklung

2.1 Industrielle Dienstleistungsentwicklung Für Unternehmen der deutschen Investitionsgüterindustrie wird es immer schwieriger, nachhaltige Wettbewerbsvorteile allein über ihre technischen Produkte zu erzielen. In Anbetracht der intensiven technischen Entwicklung in anderen Staaten sowie des Zusammenwachsens der weltweiten Märkte sind die Unternehmen einem verschärften Wettbewerb ausgesetzt. Dieser hat in den letzten Jahren zu einer technischen Angleichung der Sachgüter und zu einem Preiswettbewerb mit sinkenden Margen geführt (vgl. Spath, Demuß, 2006, S. 465). Vor diesem Hinter-

268

M. Steven und K. Wasmuth

grund nutzen viele Unternehmen insbesondere des Maschinen- und Anlagenbaus industrielle Dienstleistungen, um sich im Wettbewerb gegenüber den Konkurrenten zu differenzieren und Umsatzrückgänge im Sachleistungsgeschäft durch die Erschließung neuer Absatzmärkte zu kompensieren (vgl. Bellmann, 2005, S. 171; Steven, Große-Jäger, 2003, S. 27 f.). In der Praxis sind die vorwiegend sachleistungsorientierten Investitionsgüterhersteller den Herausforderungen einer solchen dienstleistungsgestützten Marktbearbeitung allerdings häufig nicht gewachsen (vgl. Schuh, Speth, Schwenk, 1999, S. 32). Zum einen fehlt es an einer zielgerichteten und kundenorientierten Planung und Entwicklung industrieller Dienstleistungen und damit an einer konsequenten Ausrichtung am Kundennutzen. Zum anderen bleibt weitgehend unberücksichtigt, dass Dienstleistungen einen erheblichen Kostenfaktor darstellen. Es fehlt den Unternehmen somit nicht nur das Know-How, sondern auch das Bewusstsein für die besonderen Anforderungen und die Notwendigkeit eines professionellem Umgangs mit industriellen Dienstleistungen. Dies liegt unter anderem an den speziellen Eigenschaften von Dienstleistungen, die den Entwicklungsprozess erschweren und von den Unternehmen eine besondere Sensibilität bei der Entwicklung von Dienstleistungen im Vergleich zur Sachleistungsentwicklung erfordern. Nach dem konstitutiven Dienstleistungsansatz lassen sich diese als Leistungen definieren, • „bei denen ein Leistungspotential existiert, welches die Fähigkeit und Bereitschaft zur Erbringung einer Leistung umfasst, • in deren Erstellungsprozesse externe Faktoren integriert werden, an denen oder mit denen die Leistung erbracht wird, und • deren Ergebnisse bestimmte materielle oder immaterielle Wirkungen an externen Faktoren darstellen“ (Kleinaltenkamp, 2001, S. 40). Die Analyse der dieser Definition zugrunde liegenden Leistungsdimensionen zeigt, dass Dienstleistungen zwei wesentliche Charakteristika aufweisen, die eine adäquate Planung und Entwicklung erschweren. Es handelt sich um die Immaterialität und die Integrativität, die sich wie folgt konkretisieren lassen: Auf der Ergebnisebene von Dienstleistungen liegt ein immaterielles Ergebnis vor, welches sich in Eigenschaftsveränderungen der beteiligten externen Faktoren zeigt. Daraus folgt, dass Dienstleistungen einen hohen Abstraktionsgrad aufweisen. Dies führt aufgrund fehlender materieller Bezugspunkte zu erheblichen Evaluierungsproblemen bei der Ableitung von Kundenbedürfnissen und -anforderungen und erschwert infolgedessen die Konkretisierung des angestrebten Kundennutzens und damit des Dienstleistungsergebnisses. Der Leistungserstellungsprozess wird durch die Integration externer Faktoren des Dienstleistungsnachfragers ausgelöst, an denen eine nutzenstiftende Wirkung hervorgerufen werden soll. Dies bedeutet, dass die Leistungserstellung nicht vollständig autonom durch den Dienstleistungsanbieter disponiert werden kann. Folglich ist die Einbindung des externen Faktors in die Leistungserstellung von essentieller Bedeutung für den Prozessablauf und für die daraus hervorgehende Qualität des Leistungsergebnisses ist. Daher muss bei der Planung und Entwicklung der Leistungserstellungsprozesse berücksichtigt werden, inwiefern ein externer Faktor in die Leistungserstellung eingeht und welche Ausprägung der Integrativität damit verbunden ist. Somit stellen Dienstleistungen für Unternehmen der Investitionsgüterindustrie komplexe Entwicklungsobjekte dar, die im Vergleich zur Sachleistungsentwicklung, auf die sich die Entwick-

Kostenmanagement im Service Engineering

269

lungsaktivitäten der Maschinen- und Anlagenbauer bislang konzentriert haben, neuartige Anforderungen stellen. Die derzeitigen Unternehmensstrukturen sind für eine erfolgreiche Entwicklung und Erbringung von Dienstleistungen oftmals nicht geeignet, weshalb die Dienstleistungen, d. h. die Leistungsinhalte, die Leistungserstellungsprozesse sowie die erforderlichen Ressourcen nicht klar definiert werden (vgl. Bullinger, Meiren, 2001, S. 151). Die Konsequenz ist, dass undurchdachte und unausgereifte Dienstleistungen auf dem Markt eingeführt werden, die häufig ineffizient und ineffektiv erstellt werden und somit zu einer Verschärfung der unternehmerischen Kostensituation führen (vgl. Schuh, Speth, 2000, S. 455).

2.2 Kostenbeeinflussungsmöglichkeiten Für den Sachleistungsbereich haben empirische Studien und praktische Erfahrungen gezeigt, dass 70–80 Prozent der Kosten der Leistungserstellung bereits bei der Entwicklung festgelegt werden und sich in der Absatzphase nur mit hohem Änderungsaufwand senken lassen, da die Leistungserstellung weitgehend nach den Vorgaben der Entwicklung erfolgt (vgl. Ehrlenspiel et al., 2000, S. 11f.). Auch wenn bislang nicht untersucht wurde, zu welchem Grad die Dienstleistungskosten bei der Entwicklung festgelegt werden, ist davon auszugehen, dass auch sie maßgeblich in dieser Phase determiniert werden. Wie Abbildung 1 zeigt, entstehen die Kosten einer Dienstleistung aufgrund spezifischer Bestimmungsfaktoren, die durch die Ausprägung des Leistungsergebnisses und die Ausgestaltung der erforderlichen Leistungserstellungsprozesse und Ressourcen beeinflusst werden. Jede technische Entscheidung, die das Ergebnis, die Prozesse oder das Leistungspotenzial einer Dienstleistung betrifft, führt zu einer Festlegung dieser Kostenbestimmungsfaktoren und damit auch der Dienstleistungskosten. Aufgrund der konstitutiven Merkmale der Immaterialität und Integrativität hängen die Kosten von Dienstleistungen insbesondere von der Gestaltung des Leistungspotenzials und der Leistungserstellungsprozesse ab. Da sich Dienstleistungen als immaterielle Leistungen nicht auf Vorrat produzieren lassen, muss eine ausreichende Leistungsbereitschaft vorgehalten werden, die die Höhe und das Ausmaß der Bereitschaftskosten und damit auch der Fixkosten

Abbildung 1:

Kostenverursachende Bestimmungsfaktoren

270

M. Steven und K. Wasmuth

beeinflusst (vgl. Reckenfelderbäumer, 1998, S. 398). Diese Kosten können in der Absatzphase kurzfristig nicht reduziert werden, so dass aufgrund der Risiken von Fix- und Leerkosten einerseits und Kapazitätsengpässen andererseits einer adäquaten und kostenorientierten Kapazitätsplanung bei der Dienstleistungsentwicklung eine große Bedeutung zukommt. Weiter hat die Gestaltung der Leistungserstellungsprozesse großen Einfluss auf die Höhe der variablen Kosten. Einerseits hängen die Kosten von den Abläufen und den Bearbeitungszeiten sowie von der Anzahl der Prozessschnittstellen ab, andererseits werden sie vom Grad der Integrativität beeinflusst. Je stärker und aktiver der Kunde in die Leistungserstellung eingebunden wird, desto höher ist das Risiko zusätzlicher Kosten, die z. B. durch zusätzliche Organisationsund Koordinationstätigkeiten aufgrund von Störungen der Prozessabläufe und unangemessenen Verhaltensweisen der Kunden entstehen. Nicht rechtzeitig erkannte Kostenwirkungen der Ergebnis-, Prozess- und Potenzialgestaltung bergen somit die Gefahr kostenmäßiger Fehlentwicklungen, aufgrund derer die zukünftige Dienstleistung nicht kostendeckend erstellt werden kann. Daher sollten bereits bei der Dienstleistungsentwicklung die Dienstleistungsdimensionen Potenzial, Prozess und Ergebnis im Hinblick auf ihre spätere Kostenverursachung so ausgestaltet werden, dass durch niedrige Kosten ein angemessener Unternehmenserfolg sichergestellt wird. Dies ist der Ansatzpunkt des Kostenmanagements, das die Gesamtheit von Maßnahmen zur frühzeitigen Beeinflussung und Gestaltung von Kosten beziehungsweise ihrer Bestimmungsfaktoren umfasst (vgl. Horváth, Seidenschwarz, 1991, S. 300).

3

Kostenmanagement in der Dienstleistungsentwicklung

3.1 Kostenmanagement-Anforderungen Damit ein wirkungsvolles Kostenmanagement in die Dienstleistungsentwicklung integriert werden kann, muss dieses bestimmten Anforderungen gerecht werden, um Maßnahmen zur Beeinflussung und Verbesserung der Dienstleistungseigenschaften und -kosten ergreifen zu können. Vor dem Hintergrund, dass die Möglichkeiten zur Beeinflussung der Dienstleistungskosten in der Entwicklungsphase am größten sind, muss das Kostenmanagement frühzeitig einsetzen, um alle Kostensenkungspotenziale im Hinblick auf die drei Dienstleistungsdimensionen umfassend ausschöpfen zu können. Sind die mit einer Dienstleistung verbundenen Kosten erst gegen Ende oder nach der Entwicklung bekannt sind, kann häufig nur noch eine kosten- und zeitintensive Kostenreduzierung auf Basis des Ergebnisses der Entwicklung erfolgen, da dann im Anschluss an eine Kostenanalyse zahlreiche Entwicklungsschritte erneut zu durchlaufen sind. Daher sind kurze Regelkreise (vgl. Ehrlenspiel et al., 2000, S. 51) anzustreben, bei denen – wie in Abbildung 2 dargestellt – die Kosten fortlaufend, mindestens aber zu bestimmten Meilensteinen des Entwicklungsprozesses ermittelt und überprüft werden. Eine solche Vorgehensweise gewährleistet, dass Fehlentwicklungen frühzeitig identifiziert und kostenorientierte Anpassungsmaßnahmen durch Rückschritte in vorangegangene Phasen eingeleitet werden können. Die Realisierung kurzer Regelkreise setzt voraus, dass die Entscheidungsträger, die bei der Entwicklung in den verschiedenen Entwicklungsteilprozessen über Dienstleistungsmerkmale, Prozesse und Ressourcen entscheiden, so früh wie möglich mit Kosteninformationen unterstützt werden. Damit die Dienstleistung den Entwicklern kostenmäßig ebenso transparent ist wie hin-

Kostenmanagement im Service Engineering

Abbildung 2:

271

Regelkreise in der Entwicklung

sichtlich ihrer technischen Eigenschaften, sind frühestmögliche Rückkopplungen zwischen den technischen und den betriebswirtschaftlichen Prozessen erforderlich. Nicht zuletzt ist bei der Integration des Kostenmanagements in die Dienstleistungsentwicklung zu berücksichtigen, dass Kostenmanagement und Kostensenkung nicht gleichbedeutend sind. Pauschale Kostensenkungen können einerseits die Leistungsfähigkeit eines Unternehmen beeinträchtigen und andererseits dazu führen, dass nicht marktgerechte Dienstleistungen entwickelt werden, die für potenzielle Nachfrager in Bezug auf den Leistungsinhalt und -umfang unattraktiv sind. In der Literatur wird in diesem Zusammenhang eine so genannte „EntwederOder“-Problematik (Homburg, Daum, 1997, S. 189) konstatiert, bei der die Kosteneffizienz im Sinne der wirtschaftlichen Realisierbarkeit als konkurrierendes Ziel zur Effektivität als Kundenbeziehungsweise Marktorientierung gesehen wird. Daher muss das Kostenmanagement die Erfüllung der Marktanforderungen und gleichzeitig die wirtschaftliche und technische Realisierbarkeit durch kostengestaltende sowie kostensenkende Maßnahmen unterstützen.

3.2 Kostenmanagement-Aufgaben Die bewusste und zielgerichtete Kostenbeeinflussung und Kostensenkung als Zielsetzung des Kostenmanagements kann in die drei Hauptaufgaben der Kostenplanung, Kostensteuerung und Kostenkontrolle differenziert werden (vgl. Friedl, 1994, S. 499 f.; Kajüter, 2000, S. 84 ff.). Die Aufgabe der Kostenplanung besteht darin, zur Sicherung des Unternehmenserfolgs Kostenziele in Form von Obergrenzen für die Kosten zu formulieren (vgl. Reiß, Corsten, 1992, S. 1489). Für die Dienstleistungsentwicklung erweist sich eine retrograde Kostenplanung als sinnvoll, bei der die Kostenziele vom Markt abgeleitet werden, denn in den Unternehmen des Maschinen- und Anlagenbaus kann bei einer neuen Dienstleistung meist nicht auf Erfahrungswerte in Form von Standardkosten zurückgegriffen werden kann. Da eine progressive Kosten-

272

M. Steven und K. Wasmuth

planung, bei der die Kosten „bottom up“ ermittelt werden, erst relativ spät im Entwicklungsprozess möglich ist, würde kaum noch Handlungsspielraum für das Kostenmanagement bestehen. Neben der Kostenplanung stellt die entwicklungsbegleitende Kostenkontrolle eine weitere Aufgabe des Kostenmanagements dar. Je früher Abweichungen von den Kostenzielen erkannt werden, desto größer ist die Wahrscheinlichkeit, dass adäquate und nicht zu kostenintensive Gestaltungsmaßnahmen eingeleitet werden können. Die Kostenkontrolle hat folglich die Funktion, über Kostenabweichungen zu informieren, indem den geplanten Soll-Kosten die zukünftigen Wird-Kosten der Dienstleistung gegenübergestellt werden. Hierdurch lassen sich potenzielle negative Abweichungen bereits vor ihrem Entstehen identifizieren (vgl. Kajüter, 2000, S. 142) und Handlungsbedarfe erkennen. Da eine solche Kostengegenüberstellung weder die Abweichungsursachen noch Möglichkeiten zu ihrer Beseitigung aufzeigt, ist zusätzlich im Rahmen der Kostensteuerung eine Kostenanalyse erforderlich, die die Ursachen für Kosten(-probleme) diagnostiziert und darauf aufbauend eine angemessene Maßnahmenplanung und -implementierung vornimmt (vgl. Reiß, Corsten, 1992, S. 1490). Insgesamt weist das Kostenmanagement durch das koordinierte Zusammenspiel der genannten Aufgaben einen prozessualen Charakter auf. Dabei bestehen zwischen den Aufgaben, wie in Abbildung 3 veranschaulicht, vielfältige Interdependenzen und Rückkopplungen. Nur die integrierte Erfüllung aller drei Aufgaben kann zur nachhaltigen Kostenbeeinflussung und Kostengestaltung führen und damit zur Erreichung einer höheren Effizienz und Effektivität bei der Erstellung industrieller Dienstleistungen beitragen.

Abbildung 3:

Kostenmanagement-Aufgaben (in Anlehnung an Kajüter, 2000, S. 84)

Kostenmanagement im Service Engineering

4

273

Erfolgsfaktoren des Kostenmanagements in der Dienstleistungsentwicklung

4.1 Konzeptioneller Rahmen für das Kostenmanagement Wie die bisherigen Ausführungen gezeigt haben, geht es beim Kostenmanagement in der Dienstleistungsentwicklung darum, während des Entwicklungsprozesses die für die Dienstleistungsgestaltung entscheidungsrelevanten Kosteninformationen zu gewinnen und so zu nutzen, dass in der Absatzphase ein angemessener Unternehmenserfolg durch eine kostengünstige Dienstleistungserstellung sichergestellt wird. Der in Abbildung 4 dargestellte konzeptionelle Rahmen, in dem sich das Kostenmanagement in der Dienstleistungsentwicklung bewegt, ergibt sich durch die Berücksichtigung der zuvor abgeleiteten Aufgaben (Kostenplanung, -steuerung und -kontrolle) und aus den Ansatzpunkten der Ergebnis-, Prozess- und Potenzialebene, durch die eine Dienstleistung gekennzeichnet ist. Während es auf der Ergebnisebene um die Gestaltung und Beeinflussung der mit den qualitativen und quantitativen Dienstleistungsinhalten und -umfängen verbundenen Kosten geht, die vom Erfüllungsgrad der Kundenbedürfnisse und -anforderungen abhängen, steht auf der Prozessebene die kostenorientierte Gestaltung der Leistungserstellungsprozesse im Vordergrund. Dabei geht es einerseits um die Frage, auf welche Art und Weise die einzelnen Prozesse erbracht werden und andererseits um die Reihenfolge, in der sich die einzelnen Prozesse vollziehen sollten. In diesem Zusammenhang stehen im Rahmen der Kostenplanung, -steuerung und -kontrolle die Kostenwirkungen der Integrativität und des Zeitverbrauchs im Vordergrund. Die Felder auf der Potenzialebene zielen auf eine kostenorientierte Ressourcenplanung und -gestaltung im Sinne einer optimalen Kapazitätsauslastung aufgrund der Fix- und Bereitschaftskostendominanz ab. Nur die gemeinsame Betrachtung und Gestaltung dieser Dimensionen kann zu einer nachhaltigen Kostenverbesserung führen, da kostenpolitische Maßnahmen, die lediglich bei einer der drei Dimensionen ansetzen, gegebenenfalls unerwünschte Kostenwirkungen in den unberück-

Abbildung 4:

Konzeptioneller Rahmen des Kostenmanagements in der Dienstleistungsentwicklung

274

M. Steven und K. Wasmuth

sichtigten Dimensionen verursachen. Dies setzt eine systematische und strukturierte Vorgehensweise in der Dienstleistungsentwicklung voraus. Die Dienstleistungen müssen insoweit definiert werden, dass mit ausreichender Genauigkeit ersichtlich ist, wie sie zukünftig durchgeführt werden und welche Abhängigkeiten zwischen den einzelnen Dienstleistungsdimensionen bestehen, damit ihre Kosten geplant und adäquate Kostengestaltungsmaßnahmen abgeleitet und umgesetzt werden können. Hierzu müssen fortlaufend alle verfügbaren Informationen über die voraussichtlichen Kosten aufbereitet werden. Denn nur durch die Berücksichtigung des Entwicklungsstands der zu entwickelnden Dienstleistung kann das Kostenmanagement Informationen für adäquate Gestaltungsentscheidungen generieren und nutzen und damit eine ausreichende Entscheidungsgrundlage für kostensenkende Gestaltungsmaßnahmen herstellen (vgl. Friedl, 1994, S. 508).

4.2 Service Engineering Für eine strukturierte und systematische Vorgehensweise im Rahmen der Dienstleistungsentwicklung hat sich seit Mitte der 1990er Jahre das Service Engineering als Methode und Informationsgrundlage etabliert. „Service Engineering beschäftigt sich mit der systematischen Entwicklung und Gestaltung von Dienstleistungen unter Verwendung geeigneter Vorgehensmodelle, Methoden und Werkzeuge“ (vgl. Bullinger, Meiren, 2001, S. 152). Es ist weitgehend ingenieurwissenschaftlich geprägt und überträgt erprobte Erkenntnisse aus der Sachleistungsentwicklung auf die Dienstleistungsentwicklung. Das wesentliche Ziel des Service Engineering besteht darin, eine angemessene Transparenz bezüglich des Entwicklungsobjekts „Dienstleistung“ herzustellen. Dies geschieht einerseits durch den Einsatz so genannter Vorgehensmodelle, welche die Planung, Steuerung und Kontrolle von Dienstleistungsentwicklungsprojekten durch die Vorgabe von Beziehungen und Reihenfolgen von Entwicklungsschritten dokumentieren. Andererseits unterstützt das Service Engineering die Dienstleistungsentwicklung mithilfe einer Dienstleistungsmodellierung, welche an den drei Dienstleistungsdimensionen – dem Leistungsergebnis, der Leistungserstellung und der Leistungsbereitschaft – anknüpft (vgl. Bullinger, Schreiner, 2006, S. 58; Fähnrich, Meiren, 1999, S. 15ff.). Für jede dieser Dimensionen werden im Service Engineering korrespondierende Modelle herangezogen, mit denen sich die in der Entwicklung befindliche Dienstleistung strukturiert beschreiben lässt. Voraussetzung für die Modellierung des Leistungsergebnisses ist die Übersetzung der Bedürfnisse und Anforderungen in Leistungseigenschaften und Wirkungen beziehungsweise Funktionen. Hier setzen die so genannten Produktmodelle an (vgl. Fähnrich, Meiren, 1999, S. 16). Die Darstellung eines Dienstleistungsergebnisses anhand eines Produktmodells besteht in der Regel aus der Strukturdarstellung der Dienstleistungen sowie der Definition ihrer Leistungsinhalte. Dazu wird eine funktionale Strukturierung der Dienstleistung vorgenommen und die Gesamtfunktion des Entwicklungsobjekts „Dienstleistung“ hierarchisch zerlegt, indem jedes funktionale Element in Beziehung zu anderen Elementen gesetzt wird (vgl. Scheer, Grieble, Klein, 2006, S. 34). Produktmodelle zeigen somit auf, was eine Dienstleistung leisten beziehungsweise am externen Faktor bewirken soll. Um das im Produktmodell abgebildete Dienstleistungsergebnis zu erreichen, wird mithilfe des Prozessmodells die Frage beantwortet, wie das Dienstleistungsergebnis zustande kommt (vgl. Fähnrich, Meiren 1999, S. 16). Im Prozessmodell wird detailliert beschrieben, wie die

Kostenmanagement im Service Engineering

275

jeweilige Dienstleistung zeitlich und sachlich erbracht wird. Dabei spielt die Festlegung der einzelnen Prozessschritte und der Schnittstellen eine große Rolle, um die Darstellung der Dienstleistung transparent und übersichtlich zu gestalten. Auch die Integrativität der Dienstleistung, d. h. die Eingriffsintensität, -dauer, -häufigkeit sowie die Eingriffzeitpunkte in die Leistungserstellung und die daraus resultierenden Auswirkungen auf die Prozessabläufe müssen im Prozessmodell erfasst werden. Im Ressourcenmodell werden die im Prozessmodell abgebildeten Prozess- und Tätigkeitsfolgen, die zur Erbringung eines verfolgten Dienstleistungsergebnisses erforderlich sind, in die erforderlichen Ressourcen übersetzt. Ressourcenmodelle geben Aufschluss darüber, womit die Leistungserstellung realisiert wird, und dienen zur Planung des quantitativen und qualitativen Ressourceneinsatzes (vgl. Scheer, Grieble, Klein, 2006, S.42). Darunter fallen sowohl die Planung des Personalbedarfs, d. h. welche Mitarbeiter mit welchen Qualifikationen benötigt werden, als auch die Planung des Betriebsmitteleinsatzes und der erforderlichen Informations- und Kommunikationstechnologien. Zwischen den verschiedenen Modellierungsebenen bestehen vielfältige Abhängigkeiten. Zum einen ist die prozess- und ressourcenbezogene Leistungsgestaltung abhängig von den Festlegungen im Produktmodell. Zum anderen sind die Potenzialmerkmale dafür verantwortlich, dass die Prozessmerkmale und damit auch die Leistungsmerkmale tatsächlich umgesetzt werden können. Dementsprechend basiert die Dienstleistungsmodellierung auf der Berücksichtigung dieser Abhängigkeiten.

4.3 Integration von Kostenmanagement und Service Engineering Mit dem Einsatz von Modellen zur Beschreibung der in der Entwicklung befindlichen Dienstleistungen schafft das Service Engineering die Informationsgrundlage des Kostenmanagements. Da die eigentlichen Entwicklungsobjekte im Service Engineering die einer Dienstleistung zugrunde liegenden Leistungsdimensionen sind, die anhand der Modelle strukturiert beschrieben werden, stellen diese Dimensionen und die korrespondierenden Modelle die Anknüpfungspunkte eines entwicklungsbegleitenden Kostenmanagements für Dienstleistungen dar. Hieraus folgt, dass aus den Produkt-, Prozess- und Ressourcenmodellen die für das Kostenmanagement relevanten Informationen abzuleiten und, wie in Abbildung 5 (S. 262) dargestellt, in Kosteninformationen zu überführen sind. Die Aufbereitung und Nutzung der im Service Engineering generierten Informationen erfordert den Einsatz von betriebswirtschaftlichen Instrumenten, die zur Erfüllung der Aufgaben des Kostenmanagements beitragen. Da eine genaue Beurteilung der durch die Entwicklungsschritte festgelegten Dienstleistungskosten aufgrund eines sukzessiven Kenntniszuwachses über die Eigenschaften der Dienstleistungsdimensionen erst gegen Ende des Entwicklungsprozesses möglich ist, sind Instrumente erforderlich, die bei den unterschiedlichen Detaillierungsgraden der Dienstleistungsmodellierung sinnvoll eingesetzt werden können und sich dem im Entwicklungsprozess zunehmenden Informationsstand anpassen. Dabei ist zu berücksichtigen, dass auf der Ebene der Produktmodelle lediglich abstrakte Vorstellungen über die zu entwickelnde Dienstleistung vorliegen, indem Kundenbedürfnisse und -wünsche in Anforderungen und schließlich in Funktionen überführt werden. Eine Kostenabschätzung ist auf Basis des Produktmodells daher noch nicht möglich. Allerdings können zu

276

Abbildung 5:

M. Steven und K. Wasmuth

Modellintegration zur Ableitung von Kosteninformationen

diesem Zeitpunkt schon wesentliche Informationen für die Kostenplanung und die spätere Ausgestaltung abgeleitet werden, indem die Kundenanforderungen und die entsprechenden Zahlungsbereitschaften als Ausgangspunkt für eine marktorientierte Kosten- und Erlösplanung herangezogen werden. In den Prozessmodellen erfolgt die Beschreibung, wie die Funktionen einer Dienstleistung in zeitlicher und sachlicher Hinsicht erfüllt werden. Dabei wird die Dienstleistung in einzelne Prozesse zerlegt, so dass ein höherer Detaillierungsgrad vorliegt. Informationen, die das Kostenmanagement hier erheben kann, sind die festgelegten Prozessschritte und Schnittstellen, die eine Prozessstrukturtransparenz und damit auch eine Prozessleistungstransparenz ermöglichen. Für eine genaue Kostenbestimmung sind schließlich auch Informationen aus den Ressourcenmodellen erforderlich, denn dort wird die Frage beantwortet, mit welchen Ressourcen die Prozesse erbracht werden. Somit besteht ein enger Zusammenhang zwischen den Ressourcen- und den Prozessmodellen. Zum einen werden durch die Prozessmodelle die erforderlichen Ressourcen determiniert, indem z. B. eine gewisse Qualifikationsanforderung für die Mitarbeiter, die einen Prozess durchführen, vorgegeben wird. Zum anderen hängt von der Ausgestaltung der Prozesse auch der Ressourcenverbrauch ab. Durch das Zusammenspiel von Ressourcen- und Prozessmodell wird die Abhängigkeit der Kosten einer Dienstleistung von ihrer Ausgestaltung deutlich. Für die Aufbereitung und Nutzung dieser im Service Engineering generierten Informationen kann im Rahmen des Kostenmanagements auf die Instrumente des Target Costings, die Prozesskostenrechnung und die Prozesswertanalyse zurückgegriffen werden, die sich, wie in Abbildung 6 dargestellt, wie folgt in den konzeptionellen Rahmen einordnen lassen.

Kostenmanagement im Service Engineering

277

Abbildung 6: Gegenüberstellung von Kostenmanagement-Instrumente und ihrer Einsatzschwerpunkte im Service-Engineering

Die Zielsetzungen des Target Costings liegen in der frühzeitigen Ermittlung und Einbeziehung von Kundenanforderungen in den Gestaltungsprozess von Leistungen, der marktorientierten Festlegung von Kostenobergrenzen sowie der Sicherstellung eines kunden- und kostenorientierten Einsatzes aller Unternehmensressourcen. Über die Ermittlung der Kundenanforderungen und Zahlungsbereitschaften (Untersuchungsfokus) und mit der Ausrichtung der Entwicklungsprozesse auf diese Anforderungen strebt das Target Costing eine verbesserte Informationsbasis für die Entwicklung neuer Dienstleistungen mit einem günstigeren Preis-Leistungs-Verhältnis an. Das Target Costing kann die Entscheidungsfindung im Service Engineering bei der Beantwortung unterstützen, was der zukünftige Erstellungsprozess einer noch in der Entwicklung befindlichen Dienstleistung kosten darf, damit dieser wirtschaftlich ist. Damit übernimmt das Target Costing die Kostenmanagement-Aufgabe der Kostenplanung (Zweck). Es erstreckt sich zum einen auf die Gesamtleistungs- beziehungsweise Ergebnisebene, indem die Zielkosten für die Gesamtleistung vorgegeben werden, und zum anderen über die Zielkosten der einzelnen Prozesse auf die Prozessebene der Dienstleistung (Einsatzgebiet). Hierfür muss das Target Costing auf entsprechende Informationen aus den Produkt- und Prozessmodellen zurückgreifen. Die Prozesskostenrechnung kann im Rahmen des Service Engineering einen wesentlichen Beitrag dazu leisten, eine höhere Transparenz hinsichtlich der Tätigkeiten und Teilprozesse sowie deren Zusammenhängen bei der Dienstleistungserstellung zu schaffen. Durch die systematische Aufdeckung der Kostentreiber wird die Transparenz nicht nur hinsichtlich der der Dienstleistung zugrunde liegenden Prozesse, sondern auch im Hinblick auf den hierfür erforderlichen Ressourcenverbrauch erhöht (Untersuchungsfokus). Somit erstreckt sich die prozessorientierte Kostenerfassung und -bewertung zum einen über die Prozessebene und zum anderen über die Potenzialebene in der Dienstleistungsentwicklung (Einsatzgebiet). Mit ihrer Hilfe können die Kosten im Rahmen der entwicklungsbegleitenden Kostenkontrolle dazu genutzt werden, kostenreduzierende Handlungsbedarfe zu identifizieren (Zweck).

278

M. Steven und K. Wasmuth

Durch den Einsatz der Prozesswertanalyse kann im Rahmen der Service Engineering zum einen die Notwendigkeit und zum anderen die Kostenintensität der Dienstleistungsprozesse hinterfragt werden. Es wird untersucht, ob die jeweiligen Teilprozesse der Dienstleistungen einen Kundennutzen stiften, indem die durch sie erreichte Funktionserfüllung aus Kundensicht ermittelt wird (Untersuchungsfokus). Das Ziel der Prozesswertanalyse besteht vor diesem Hintergrund darin, die aus Kundensicht gewünschte funktionale Leistungsausrichtung unter dem Aspekt der Kosten/Nutzen-Abwägung zu optimieren (Zweck). Dieser Kosten- und Prozessgestaltungsaspekt basiert auf der Notwendigkeit einer entwicklungsbegleitenden Kostensteuerung. Die Ermittlung der von der Dienstleistung zu erfüllenden Funktionen setzt Informationen aus den Produktmodellen des Service Engineering voraus, da in ihnen beschrieben wird, was eine Dienstleistung zu leisten hat. Die Identifizierung der zur Funktionserfüllung erforderlichen Prozesse resultiert aus den Prozessmodellen (Einsatzgebiet). Um den Kostenmanagement-Aufgaben im Service Engineering in vollem Umfang gerecht zu werden, müssen die vorgestellten Instrumente zu einem Kostenmanagement-System verknüpft werden. Aus der Einordnung der Instrumente in den konzeptionellen Rahmen ist deutlich geworden, dass sie verschiedene Kostenmanagement-Aufgaben übernehmen und die Dienstleistungsdimensionen unterschiedlich fokussieren. Darüber hinaus ist das Kostenmanagement-System mit dem Service Engineering zu verzahnen. Eine solche Verzahnung muss im Rahmen eines iterativen Prozesses erfolgen, indem technische und kostenorientierte Rückkopplungsschleifen durchlaufen werden. Dabei muss ein kontinuierlicher Abgleich zwischen Zielkosten, prognostizierten Prozesskosten, Steuerungsmaßnahmen und technischen Informationen stattfinden. Diese Vorgehensweise entspricht der Realisierung kurzer Regelkreise und erfüllt somit die Anforderung eines frühzeitigen und kontinuierlichen Kostenmanagements in der Dienstleistungsentwicklung.

5

Ausblick

Industrielle Dienstleistungen werden zunehmend von Unternehmen der Investitionsgüterindustrie eingesetzt, um Umsatzrückgänge infolge des technischen Angleichungsprozesses und des intensiven Preiskampfes im Neugeschäft ihrer technischen Systeme durch die Erschließung neuer Absatzmärkte zu kompensieren. Damit sich die Ertragslage der Unternehmen zukünftig durch das Angebot dieser Leistungen tatsächlich verbessert, ist es erforderlich, ein frühzeitiges Kostenmanagement in das Service Engineering zu implementieren, welches sicherstellt, dass die Kosten der Dienstleistungserstellung bereits in der Entwicklung in das leistungsgestalterische Kalkül miteinbezogen werden. Für die Implementierung des Kostenmanagements in das Service Engineering gilt es daher, ingenieurwissenschaftliche und betriebswirtschaftliche Methoden und Analysetechniken aufzuzeigen, mit deren Hilfe konkrete Informationen aus der Dienstleistungsmodellierung für das Kostenmanagement gewonnen werden können. Literatur Bellmann, K.: Flexibilisierung der Produktion durch Dienstleistungen. In: Kaluza, B., Blecker, T. (Hrsg.): Erfolgsfaktor Flexibilität – Strategien und Konzepte für wandlungsfähige Unternehmen. E. Schmidt Verlag, Berlin 2005, S. 153–174.

Kostenmanagement im Service Engineering

279

Bullinger, H.-J., Meiren, T.: Service Engineering – Entwicklung und Gestaltung von Dienstleistungen. In: Bruhn, M., Meffert, H. (Hrsg.): Handbuch Dienstleistungsmanagement. Gabler Verlag, Wiesbaden, 2. Auflage, 2001, S. 145–175. Bullinger, H.-J., Schreiner, P.: Service Engineering – Ein Rahmenkonzept für die systematische Entwicklung von Dientleistungen. In: Bullinger, H.-J., Scheer, A.-W. (Hrsg.): Service Engineering: Entwicklung und Gestaltung innovativer Dienstleistungen. Springer Verlag, Berlin u. a., 2. Auflage, 2006, S. 53–84. Ehrlenspiel, K., Kiewert, A., Lindemann, U.: Kostengünstig Entwickeln und Konstruieren – Kostenmanagement bei der integrierten Produktentwicklung. Springer Verlag, Berlin u. a., 3. Aufl., 2000. Fähnrich, K.-P., Meiren, T.: Service Engineering. Ergebnisse einer empirischen Studie zum Stand der Dienstleistungsentwicklung in Deutschland. Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO, Fraunhofer IRB Verlag, Stuttgart, 1999. Friedl, B.: Kostenplanung und -steuerung in der Entwicklung. In: Corsten, H. (Hrsg.): Handbuch Produktionsmanagement: Strategie – Führung – Technologie – Schnittstellen. Gabler Verlag, Wiesbaden, 1994, S. 497–515. Homburg, Ch., Daum, D.: Marktorientiertes Kostenmanagement: Gedanken zur Präzisierung eines modernen Kostenmanagementkonzepts. In: Kostenrechnungspraxis 41, 1997, Heft 4, S. 185 – 190. Horváth, P., Seidenschwarz, W.: Strategisches Kostenmanagement der Informationsverarbeitung. In: Heinrich, L. J., Pomberger, G., Schauer, R. (Hrsg.): Die Informationswirtschaft im Unternehmen. Universitätsverlag Trauner, Linz, 1991, S. 297–322. Kajüter, P.: Proaktives Kostenmanagement: Konzeption und Realprofile. Deutscher Universitätsverlag, Wiesbaden, 2000. Kleinaltenkamp, M.: Begriffsabgrenzungen und Erscheinungsformen von Dienstleistungen. In: Bruhn, M., Meffert, H. (Hrsg.): Handbuch Dienstleistungsmanagement: Von der strategischen Konzeption zur praktischen Umsetzung. Gabler Verlag, Wiesbaden, 2. Aufl., 2001, S. 27–50. Reckenfelderbäumer, M.: Marktorientiertes Kosten-Management von Dienstleistungs-Unternehmen. In: Meyer, Anton (Hrsg.): Handbuch Dienstleistungs-Marketing, Bd. 1. Schäffer-Poeschel Verlag, Stuttgart 1998b, S. 394–418. Reiß, M., Corsten, H.: Gestaltungsdomänen des Kostenmanagements. In: Männel, W. (Hrsg.): Handbuch Kostenrechung. Gabler Verlag, Wiesbaden, 1992, S. 1478–1491. Scheer, A.-W, Gribele, O., Klein, R.: Modellbasiertes Dienstleistungsmanagement. In: Bullinger, H.-J., Scheer, A.-W.: Service Engineering: Entwicklung und Gestaltung innovativer Dienstleistungen. Springer Verlag, Berlin u. a., 2. Auflage, 2006, S. 19–52. Schuh, G., Speth, C., Schwenk, U.: Controlling industrieller Dienstleistungen – Mit der Service-Scorecard die eigenen Dienstleistungen bewerten und strategisch steuern. In: io Management 68, 1999, Heft 11, S. 32–39. Schuh, G., Speth, C.: Gestaltung von industriellen Dienstleistungen. In: Belz, Ch., Bieger, T. (Hrsg.): Dienstleistungskompetenz und innovative Geschäftsmodelle. Thexis Verlag, St. Gallen, 2000, S. 454–464. Spath, D., Demuß, L.: Entwicklung hybrider Produkte – Gestaltung materieller und immaterieller Leistungsbündel. In: Bullinger, H.-J., Scheer, A.-W. (Hrsg.): Service Engineering – Entwicklung und Gestaltung innovativer Dienstleistungen. Springer Verlag, Berlin u. a., 2. Auflage, 2006, S. 463–502. Statistisches Bundesamt (Hrsg.): Produktbegleitende Dienstleistungen 2002 bei Unternehmen des Verarbeitenden Gewerbes und des Dienstleistungssektors. Wiesbaden 2004. Steven, M., Große-Jäger, S.: Industrielle Dienstleistungen in Theorie und Praxis. In: WiSt 32, 2003, Heft 1, S. 27–33.

Implikationen defizitärer Entscheidungsmodelle – Ein Beispiel aus der Produktionswirtschaft – Karsten Junge

1

Defizitäre Entscheidungsmodelle in Wissenschaft und Praxis

Viele Jahrzehnte marktwirtschaftlicher Übung boten den Wirtschaftsunternehmen die Gelegenheit, die Art und Weise der Entscheidungsfindung und damit die von den handelnden Managern eingesetzten Entscheidungsmodelle zu perfektionieren. Dennoch lassen sich regelmäßig teils spektakuläre Fälle dramatischer Misserfolge von Wirtschaftsunternehmen beobachten, vielleicht in gegenwärtig steigender Häufigkeit. Unter den Annahmen, dass Manager in der Praxis ihre Maßnahmen aufgrund von Entscheidungen vornehmen, die Entscheidungen bewusst treffen und die Maßnahmen tatsächlich Einfluss auf den Erfolg der Unternehmen haben können, muss hier eine einfache Kausalkette gelten: Misserfolge resultieren aus fehlerhaften Maßnahmen, diese aus Fehlentscheidungen und

Symbolverzeichnis Variable

Erläuterung

Primärbedarf oder Primärbedarfsgrenze für den Teiletyp j in Periode t Produktionskoeffizient: Belastungskoeffizient für die Kapazität einer Ressource bei Produktion einer Einheit des Teiletyps j Ct Kapazität der in Periode t j, 1 ) j ) J Index für die Teiletypen, insbesondere die Bestandsteiletypen J Menge aller (Bestands-) Teiletypen j bzw. letztes Element dieser Menge JR Menge der Teiletypen j, die mit einer Ressource r hergestellt werden, bzw. letztes Element dieser Menge kmi Lagerkostensatz: Lagerkosten pro Einheit des Teiletyps i pro Periode ksi Rüst- bzw. Schaltkostensatz: Kosten beim Schalten für den Teiletyp i Entscheidungsvariable: Materialbestand an Teiletyp j am Ende von Periode t qmjt Entscheidungsvariable: Produktionsmenge an Teiletyp j am Ende von Periode t qpjt t, 1 ) t ) T Index für die Periode T Anzahl der Planungsperioden (Planungszeitraum) xjt Entscheidungsvariable: binäre Rüst- bzw. Schalthergangsvariable, die anzeigt, ob ein Rüstbzw. Schalthergang für Teiletyp j in Periode t durchgeführt wird (xjt = 1) oder nicht (xjt = 0) yjt Entscheidungsvariable: binäre Schaltzustandsvariable, die anzeigt, ob ein Rüst- bzw. Schaltzustand für Teiletyp j in Periode t vorliegt (yjt = 1) oder nicht (yjt = 0) Bjt cj

282

K. Junge

letztere wiederum aus der Anwendung defizitärer Entscheidungsmodelle. Natürlich darf dabei auch die Unterlassung von Aktivitäten als „Maßnahme“ verstanden werden. Zudem sei darauf hingewiesen, dass unter Gültigkeit der o. g. Annahmen jede Entscheidung zwingend aus einem Entscheidungsmodell stammen muss – andernfalls wäre die Entscheidung nicht bewusst. Etwas anders formuliert: Auch wenn nach dramatischen Misserfolgen von Wirtschaftsunternehmen häufig Legenden der „Unvermeidbarkeit“ gestrickt werden, treten solche Misserfolge nicht zufällig auf und auch nicht durch plötzliche „unvorhersehbare“ Umwelteinflüsse.1 Sie sind vielmehr die Folge von Fehlentscheidungen der handelnden Manager und gehen somit auf die Anwendung defizitärer Entscheidungsmodelle zurück. Die Feststellung, dass Fehlentscheidungen und hieraus resultierende dramatische Misserfolge selbstverständlich schon immer in allen Lebensbereichen aufgetreten sind, steht zur o. g. Kausalkette nicht im Widerspruch. Lässt sich bis hierhin die Argumentation sehr allgemein entwickeln, so sind die sich nun ergebenden Fragen nach möglichen Defiziten eines gegebenen Entscheidungsmodells in der Managementpraxis und nach entsprechenden Verbesserungen nur im Einzelfall zu klären. Dass eine solche kritische Analyse und geeignete Schlussfolgerungen grundsätzlich möglich sind, soll nachfolgend an einem einfachen Beispiel aus der wissenschaftlichen Literatur demonstriert werden: einem produktionswirtschaftlichen Modell zur Optimierung eines Produktionsprogramms durch Minimierung der Summe aus Rüst- und Lagerkosten. Anhand dieses Beispiels wird deutlich, dass seit langem etablierte Entscheidungsmodelle einer grundsätzlichen Kritik durchaus zugänglich sind und Lösungen für aufgedeckte Probleme entwickelt werden können.

2

Überwindung von Defiziten bei der Losgrößenoptimierung

2.1 Unzulänglichkeiten der üblichen Zielfunktion Die Literatur behandelt viele formalmathematische Modelle zur „Optimierung“ der Losgrößen eines Produktionsprogramms, deren vielfältige Formen vor allem Probleme der formalmathematischen Abbildung, berücksichtigen sollen.2 Bemerkenswerterweise wird dabei in aller Regel als übliche Zielfunktion die Minimierung der Summe aus Rüst- und Lagerkosten formuliert. Diese Form der Zielfunktion wurde bereits im wahrscheinlich ersten quantitativen Modell zur Produktionsplanung, dem aus dem Jahre 1913 stammenden Modell zum Problem der optimalen Bestellmenge von Harris,3 verwendet, das im deutschsprachigen Raum nach einer Dissertation von Andler – wenn auch inhaltlich nicht völlig zutreffend – als das Andlersche Losgrößen-

1

Vgl. Junge, K./Zeng, M.: Entscheidungsfaktoren für industrielle Investitionen in China, in: AussenWirtschaft, 6/2001 und 7/2001.

2

Vgl. Junge, K.: Planung von Logistiknetzen, 2003; vgl. Junge, K.: Moden und Methoden in der Logistik, Ein kurzer Überblick über Ansätze zur Planung von Logistiknetzen, 2003, in Junge, K./Mildenberger, U./ Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, 2003.

3

Vgl. Harris, F. W.: How many parts to make at once, in: OR, Vol. 38, 1990, S. 947ff., Nachdruck aus Factory, Vol. 10, 1913, S. 135ff.

283

Implikationen defizitärer Entscheidungsmodelle

modell rezipiert wurde.4 Sie ist auch in einem vergleichsweise jungen Optimierungsmodell enthalten, dem PLSM (Proportional Lot sizing and Scheduling Problem):5 Tabelle 1:

Formulierung der Grundform des PLSM

Zielfunktion T

J

min Y Y (ksj xjt + kmj qmjt)

Zielfunktion PLSM

t =1 j =1

Restriktionen qmj,t–1 – qmjt + qpjt = Bjt

j = 1, …, J t = 1, …, T

Materialbilanzen

Y cj qpjt ) Ct

t = 1, …, T

Kapazitätsbegrenzungen

cj qpjt ) Ct (yj,t–1 + yjt)

j = 1, …, J t = 1, …, T

Rüstzustandsvoraussetzungen

Y yjt ) 1

t = 1, …, T

Rüstzustandsexklusivität

xjt * yjt – yj,t–1

j = 1, …, J t = 1, …, T

Rüstvariablenrelation

yjt ⑀ {0, 1}

j = 1, …, J t = 1, …, T

Binärisierung der Rüstzustandsvariablen

qmjt, qpjt, xjt * 0

j = 1, …, J t = 1, …, T

Nichtnegativitätsbedingungen

J

j =1

J

j =1

Entscheidungsvariable qmjt

Materialbestand an Teiletyp j am Ende von Periode t

qpjt

Produktionsmenge an Teiletyp j am Ende von Periode t

xjt

Rüsthergangsvariable

yjt

binäre Rüstzustandsvariable

Wie auch ohne detaillierte Analyse der mathematischen Form an den Indices leicht erkennbar ist, erlaubt das Modell die Abbildung einer Produktionsaufgabe mit mehreren herzustellenden Teilen j in mehreren Perioden t. Die Form der Zielfunktion als zu minimierender Summe aus Rüst- und Lagerkosten ist offenbar seit der ursprünglichen Form des Lösgrößenmodells von Harris sehr beständig, gleichwohl aber genauso problematisch, denn sie ist Teil eines Widerspruchs in den Annahmen des Modells: Einerseits folgt als Voraussetzung für die Zielvorgabe der Kostenminimierung die Annahme, dass gegebene Bedarfe Bjt im Planungszeitraum exakt zu decken sind. Dies ist auch in der Restriktion der Materialbilanzen formuliert. Andererseits werden die Rüst- (bzw. Schalt-) Kosten in 4

Vgl. Andler, K.: Rationalisierung der Fabrikation und Optimale Losgrösse, 1929.

5

Vgl. Drexl, A./Kimms, A.: Lot sizing and scheduling, in: EJOR, Vol. 99, 1997, S. 227; Vgl. Meyr, H.: Simultane Losgrößen- und Reihenfolgeplanung, 1999, S. 66.

284

K. Junge

aller Regel als Opportunitätskosten interpretiert. Da tatsächlich ausgabenwirksame Kosten – z. B. für Schmiermittel etc. – meist vernachlässigbar sein dürften, wird angenommen, dass durch den Rüstvorgang Opportunitätskosten entstünden, weil während eines Rüstvorgangs keine Produktion stattfinden könne, die weiteren Umsatz ermöglichen würde. Hierbei wird offenkundig vernachlässigt, dass weiterer Umsatz nach den Modellannahmen nicht möglich ist, weil die gegebenen Bedarfe im Planungszeitraum exakt zu decken sind. Neben diesem Widerspruch ist einsichtig, dass komplexen Produktionssituationen mit dem einzigen Ziel der Kostenminimierung kaum begegnet werden kann. Es muss also möglich sein, sinnvolle Zielfunktionen zu entwerfen, welche die reale Planungssituation adäquat abbilden, etwa die Absatz-, Umsatz-, Gewinn-, Rendite- oder Barwertmaximierung oder die Zykluszeitminimierung. Trotz dieses immanenten Widerspruchs einerseits und der Unzulänglichkeit der angeführten Form der Zielfunktion andererseits werden Modelle mit dieser problematischen Zielfunktion in der Literatur vielfältig diskutiert – und in Software zur Produktionsplanung umgesetzt.6 Dabei spricht prinzipiell nichts gegen eine andere Formulierung der Zielfunktion. Im gegebenen Fall etwa könnten unter Vernachlässigung der sogenannten Rüstkosten schlichtweg lediglich die Lagerkosten minimiert oder andere Elemente in der Zielfunktion formuliert werden. Allerdings ist es bei der Änderung des Optimierungsziels leicht möglich, dass die „Schalthergangsvariable“ xjt in der Zielfunktion nicht mehr benötigt wird und deren Verbleiben in der Zielfunktion nicht sinnvoll ist. Dies hat zur Folge, dass das im gezeigten Modell verwendete Konzept zur Schaltsteuerung, also die vom Modell vorgenommene Zu- und Abschaltung der Ressourcen durch das Zusammenwirken der Zielfunktion mit der Rüstvariablenrelation und anderen Restriktionen, nicht mehr möglich ist. Denn sofern die Schalthergangsvariable xjt (nichtnegativ und) realwertig definiert ist, muss sie als zu minimierende Entscheidungsvariable in der Zielfunktion enthalten sein. Ein Blick auf einen der vier möglichen Fälle für Schalthergänge (Anschalten oder Abschalten einer Ressource, kein Schalthergang bei geschalteter Ressource oder kein Schalthergang bei ungeschalteter Ressource) kann dies verdeutlichen: Soll eine Ressource aus dem ungeschalteten in einen geschalteten Zustand wechseln, so bedeutet dies, dass die Schaltzustandsvariable yj, t–1 den Wert 0 und die Schaltzustandsvariable yjt den Wert 1 aufweist, womit deren Differenz yjt – yj, t–1 den Wert 1 annimmt. Da die als Ungleichung formulierte Restriktion der Rüstvariablenrelation es einer realwertigen Schalthergangsvariablen xjt gestattet, alle Werte größer oder gleich 1 anzunehmen, ist die zu minimierende Zielfunktion erforderlich, um xjt auf 1 zu zwingen. Aber auch bei binärer – und damit komplexitätssteigernder – Definition der Schalthergangsvariablen xjt ist ihre Aufnahme in eine zu minimierende Zielfunktion erforderlich, um die Funktion der Schaltsteuerung zu ermöglichen. Denn im Falle der Fortführung eines Schaltzustands von der Periode t – 1 auf die Periode t ergibt sich wegen yjt = yj, t–1 = 1 für die Differenz yjt – yj, t–1 der Wert 0. Ohne Aufnahme in die zu minimierende Zielfunktion könnte die Schalthergangsvariable xjt unter Verwendung der o. a. Rüstvariablenrelation als Ungleichung damit auch den 6

Vgl. Junge, K.: Planung von Logistiknetzen, 2003.

285

Implikationen defizitärer Entscheidungsmodelle

Wert 1 annehmen und so einen überflüssigen Schalthergang bewirken. Der nun naheliegende Vorschlag, die Rüstvariablenrelation als Gleichung zu formulieren, ist nicht zielführend, weil im Falle des Abschaltens mit yj, t–1 = 1 und yjt = 0 die Differenz yjt – yj, t–1 den Wert –1 liefert, der aufgrund der Nichtnegativitätsbedingungen unzulässig ist. Zusammenfassend lässt sich festhalten, dass die Entfernung der Schalthergangsvariablen xjt aus der Zielfunktion des PLSM zum Versagen der Schaltsteuerung und somit des gesamten Modells führt. Aus der o. a. Forderung nach Formen der Zielfunktion, welche die reale Planungssituation adäquat abbilden, folgt somit die Notwendigkeit der Entwicklung einer konzeptionell neuen Modellierung der Schaltsteuerung. Ein Vorschlag hierfür wird nachfolgend dargestellt.

2.2 Zielfunktionsunabhängige Schaltsteuerung Die Literatur weist bereits einen Vorschlag für eine zielfunktionsunabhängige Schaltsteuerung auf,7 der nachfolgend angegeben ist. Dabei wird die Anwendung sogenannter Mikroperiodenmodelle vorausgesetzt, die genau einen Schaltvorgang pro Periode erlauben. Tabelle 2: Zielfunktionsunabhängige Schaltsteuerung Restriktionen xjt = (1 – yj,t–1) * yjt = yjt – yj,t–1* yjt

j = 1, …, JR r = 1, …, R t = 1, …, T

Zielfunktionsunabhängige Schaltsteuerung

yjt ⑀ {0, 1}

j = 1, …, JR r = 1, …, R t = 1, …, T

Binärisierung der Schaltzustandsvariablen

r = 1, …, R t = 1, …, T

Schaltzustandsexklusivität

JR

Y yjt = 1 j =1

Die in der zielfunktionsunabhängigen Schaltsteuerung verwendete Gleichung bewirkt, dass der jeweils passende binäre Wert der Schalthergangsvariablen xjt erzwungen wird, da die Schaltzustandsvariablen yjt bereits binär definiert sind. Hieraus ergibt sich eine Komplexitätsreduktion, weil weitere Nebenbedingungen zum Definitionsbereich der Schalthergangsvariablen xjt, insbesondere eine eigene Nebenbedingung zur Erzwingung eines binären Definitionsbereichs, aber auch Nichtnegativitätsbedingungen, nicht erforderlich sind. Anstatt einer Gleichung können auch zwei Ungleichungen eingesetzt werden. Natürlich ist eine Restriktion zur Erzwingung eines exklusiven Schaltzustands auch hier zu verwenden, wenn die Ressource nur für jeweils einen Teiletyp geschaltet werden kann. Diese Restriktion ist als Gleichung formuliert, womit die Annahme ausgedrückt wird, dass der Nullzustand, d. h. das Fehlen eines spezifischen Schaltzustands zur Verarbeitung eines Teils, formal als Schaltzustand definiert ist. Ist diese Restriktion – wie z. B. beim PLSM – als Ungleichung formuliert, so besteht die Annahme, dass der Nullzustand formal keinen eigenen Schaltzustand darstellt. Die Wirkung der zielfunktionsunabhängigen Schaltsteuerung lässt sich wie folgt erläutern (s. Tabelle 3, S. 286). 7

Vgl. Junge, K.: Planung von Logistiknetzen, 2003, S. 188ff.

286

K. Junge

Tabelle 3: Erläuterung der zielfunktionsunabhängigen Schaltsteuerung yj, t–1

yjt

xjt = yjt – yj,t–1 * yjt

Bemerkungen

(a)

0

0

0

Ressource ungeschaltet für j in t – 1 und t, kein Schalten für j in t, Gleichung zwingt xjt auf 0

(b)

1

1

0

Ressource geschaltet für j in t – 1 und t, kein überflüssiges Schalten für j in t, Gleichung zwingt xjt auf 0

(c)

0

1

1

(An-)Schalten der Ressource von jv, jv & j, auf j in t, Gleichung zwingt xjt auf 1

(d)

1

0

0

(Ab-)Schalten der Ressource von j auf einen anderen Teiletyp jn, jn & j, in t, Gleichung zwingt xjt auf 0

Die zielfunktionsunabhängige Schaltsteuerung erlaubt also die freie Wahl einer beliebigen Zielfunktion, weil sie den Zusammenhang zwischen der Schalthergangs- und der Schaltzustandsvariablen nur mittels der angegebenen Restriktionen bestimmt.

3

Forschungspotential für Entscheidungsmodelle im Management

Wie durch die obige Darstellung deutlich wird, kann eine vorbehaltlose Prüfung herkömmlicher, in der wissenschaftlichen Diskussion seit langem etablierter Entscheidungsmodelle durchaus aufschlussreich sein – und letztlich zur grundsätzlichen Revision der Modelle führen. Da auch Entscheidungsmodelle in der Managementpraxis einer kritischen Analyse zugänglich sind, darf angenommen werden, dass auch hier – gerade weil es sich um häufig etablierte Entscheidungsstrukturen und -modelle handelt – aufschlussreiche Ergebnisse erzielt werden können. Als Voraussetzung hierfür müssen diese Modelle aufgedeckt und vollständig beschrieben werden, auch wenn dies nicht durch eine mathematische Formalisierung erfolgen kann. Vielmehr darf vermutet werden, dass die Beschreibung von Entscheidungsmodellen im Management nicht nur die Sprache und die Instrumente der Psychologie und der Soziologie, sondern auch der Soziobiologie und der Ethik verwenden wird. Neben der Fortsetzung der produktionswirtschaftlichen Forschung zu klassischen quantitativen Modellen dürfte ferner auch die Einbettung dieser Modelle in einen psychologischen, soziologischen, soziobiologischen und schließlich ethischen Kontext interessante Gestaltungsvorschläge für die Praxis erwarten lassen. Literatur Andler, K.: [Rationalisierung der Fabrikation und Optimale Losgrösse, 1929] Rationalisierung der Fabrikation und Optimale Losgrösse, Oldenbourg, 1929, zugl.: Rationalisierung der Produktion und optimale Losgröße, Stuttgart, Univ., Diss. 1929. Drexl, A./Kimms, A.: [Lot sizing and scheduling, in: EJOR, Vol. 99, 1997] Lot sizing and scheduling – survey and extensions. In: European Journal of Operational Research, Vol. 99, 1997, S. 221–235.

Implikationen defizitärer Entscheidungsmodelle

287

Harris, F.: [How many parts to make at once, in: OR, Vol. 38, 1990, S. 947 ff., Nachdruck aus Factory, Vol. 10, 1913] How many parts to make at once, in: Operations Research, Vol. 38, 1990, S. 947–950, Nachdruck aus Factory, The Magazine of Management, Vol. 10, 1913, S. 135–136. Junge, K.: [Planung von Logistiknetzen, 2003] Planung von Logistiknetzen, Modellierung und Optimierung verteilter Produktionssysteme. Wiesbaden: Gabler, 2003, zugl. Universität Mainz, Diss., 2002. Junge, K.: [Moden und Methoden in der Logistik, Ein kurzer Überblick über Ansätze zur Planung von Logistiknetzen, 2003, in Junge, K./Mildenberger, U./Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, 2003], Moden und Methoden in der Logistik, Ein kurzer Überblick über Ansätze zur Planung von Logistiknetzen, 2003, in Junge, K./Mildenberger, U./Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, 2003 S. 117–128. Junge, K./Mildenberger, U./Wittmann, J. (Hrsg.): Perspektiven und Facetten der Produktionswirtschaft, Schwerpunkte der Mainzer Forschung. Wiesbaden: Gabler, 2003. Junge, K./Zeng, M.: [Entscheidungsfaktoren für industrielle Investitionen in China, in: AussenWirtschaft, 6/2001 und 7/2001], Entscheidungsfaktoren für industrielle Investitionen in China, in: AussenWirtschaft, Die Zeitschrift für Export und Import – Branchen und Märkte, Nr. 6/2001 (Teil 1) und Nr. 7/2001 (Teil 2). Meyr, H.: [Simultane Losgrößen- und Reihenfolgeplanung, 1999] Simultane Losgrößen- und Reihenfolgeplanung für kontinuierliche Produktionslinien, Wiesbaden: Gabler, 1999, zugl.: Augsburg, Univ., Diss., 1999.

DIMA – Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und Logistiknetzwerken auf einer interdisziplinären methodologischen Basis Dmitry Ivanov und Joachim Käschel

1

Einleitung

Planung und Steuerung von Supply Chains, insbesondere innerhalb von temporären, auftragsbezogenen Netzwerken, werden einerseits wegen ihrer hohen Komplexität und andererseits wegen großer Unsicherheiten in allen Prozessen erschwert. Die Aktivität der Netzwerkelemente, eine höhere Strukturdynamik, eine große Menge an unkontrollierbaren Faktoren, die Wechselbeziehungen zwischen konzeptionellen Modellen, mathematischen Modellen und deren informationstechnischer Umsetzungen sowie die Wechselbeziehungen von Planungs-, Monitoring- und Rekonfigurierungsmodellen gehören zu den wesentlichen Besonderheiten der Supply Chain Modellierung. Zur Modellierung solcher komplexer Systeme kann nicht auf eine einzelne in sich geschlossene Methode zurückgegriffen werden. Deshalb wird die Erarbeitung einer einheitlichen methodologischen Basis zur integrierten Analyse und Modellierung komplexer Produktions- und Logistiknetzwerke1 aufgrund eines intelligenten Zusammenspiels verschiedener Modellierungsverfahren angestrebt. Neue Perspektiven eröffnet hierzu die DIMA-Methodologie. Diese stellt einen interdisziplinären Ansatz zur Modellierung von Produktions- und Logistiknetzwerken dar, der sowohl für das Generieren solcher Netzwerke als auch für deren Betreiben geeignet ist. Der vorliegende Beitrag betrachtet folgende Aspekte: • Besonderheiten der Modellierung von Produktions- und Logistiknetzwerken und die Grenzen einer isolierten Anwendung konventioneller Modellierungsansätze in Bezug auf Produktionsund Logistiknetzwerke, • interdisziplinäre Behandlung der Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und Logistiknetzwerken, • einheitliche interdisziplinäre methodologische Basis (DIMA) zur Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und • Leistungsfähigkeit der DIMA-Methodologie.

1

Unter dem Begriff „Produktions- und Logistiknetzwerke“ werden in diesem Beitrag sowohl die konventionellen Supply Chains mit stabiler Lieferantenstruktur und einem Produktionsprogramm als auch temporäre, auftragsbezogene Netzwerke mit Strukturdynamik wie etwa virtuelle Unternehmen verstanden.

290

D. Ivanov und J. Käschel

2

Modellierung von Netzwerken: Besonderheiten und Anforderungen

2.1

Besonderheiten der Modellierung von Produktionsund Logistiknetzwerken

Die Unterschiede der Anforderung an die Modellierung von Produktions- und Logistiknetzwerken einerseits und von innenbetrieblichen Problemen andererseits bestehen vor allem in der Darstellung der Aktivität der Netzwerkelemente selbst, in einer höheren Strukturdynamik, in der Kombination von zentraler und dezentraler Koordination auf unterschiedlichen Ebenen der Entscheidungsunterstützung, in einer großen Menge an unkontrollierbaren Faktoren und in schwer formalisierbaren Soft-Faktoren (Ziele und Rahmenbedingungen). Außerdem existieren enge Wechselbeziehungen zwischen Planungs-, Monitoring- und Rekonfigurierungsmodellen. Weiter werden Netzwerke als komplexe Planungs- und Steuerungsobjekte mit Hilfe unterschiedlicher Modelle und Modellierungsmethoden beschrieben. Zusätzlich wird der Netzwerkbetrieb in der Realität von unterschiedlichen störenden Einwirkungen begleitet. Diese können sowohl externer Natur (objektive Änderungen der Umgebung) als auch interner Natur (subjektive Faktoren, wie z. B. Zieländerungen der Netzwerkpartner) sein. Ein weiteres Problem der Modellierung von Produktions- und Logistiknetzwerken besteht in den Wechselbeziehungen zwischen konzeptionellen und mathematischen Modellen und deren informationstechnischer Umsetzung. Dadurch können ungeplante Unausgewogenheiten unterschiedlichster Art in den Supply Chains entstehen. So ergibt sich die Forderung nach der Erarbeitung einer einheitlichen methodologischer Basis zur integrierten Analyse und Modellierung komplexer Produktions- und Logistiknetzwerke.

2.2

Modellierungsansätze zur Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und Logistiknetzwerken

Modelle zur Entscheidungsunterstützung bei der Planung und Steuerung von Produktions- und Logistiknetzwerken lassen sich mit Hilfe verschiedener Modellierungsansätze, wie die des Operations Research, der Agenten-Systeme, der Steuerungstheorie oder der Fuzzy-Logic, erstellen2. Zur Ermittlung von Lösungen können exakte Optimierungsmethoden, Heuristiken, statistische Methoden oder Simulationsverfahren angewendet werden. Allerdings sind die Möglichkeiten einer isolierten Anwendung klassischer Modelle und Algorithmen der Produktionsplanung und -steuerung in der Modellierung von Supply Chains, insbesondere innerhalb von temporären, auftragsbezogenen Netzwerken3, begrenzt. Die genannten Modellierungsansätze und Lösungsinstrumente sind im Vergleich unter einander weder besser noch schlechter, sie sind einfach unterschiedlich, haben ihre Vor- und Nachteile sowie ihre eigenen Anwendungsbereiche. Sie basieren auf bestimmten Voraussetzungen hinsichtlich der Daten und ihrer Zusammenhänge sowie auf bestimmten Lösungsprozeduren. Dadurch entstehen verschiedene Restriktionen, die im Endeffekt zu (oft unzulässigen) Verein2

Vgl. Simchi-Levi et al., de Kok et al., Dangelmeier et al., Ivanov (Decentralized Integrated Modelling Approach).

3

Vgl. Teich.

Planung und Steuerung von Produktions- und Logistiknetzwerken

291

fachungen oder nur sehr groben Problemdarstellungen führen. Die Vorteile und Anwendungsbereiche konventioneller Modellierungsansätze wurden bereits ausführlich dargestellt4. An dieser Stelle wird nun speziell auf die Nachteile eingegangen. Die analytischen Rahmenkonzepte erweisen sich als zu wenig flexibel und damit als ungeeignet für große Probleme. Sie berücksichtigen die Aktivitäten der Netzwerkelemente und die Unsicherheitsfaktoren nur ungenügend. Die weit verbreiteten Agentenrahmenkonzepte (CAS – Complex Adaptive Systems und MAS – Multi-Agenten-Systeme) können als eine Ideologie zur Modellierung komplexer offener dezentraler Systeme mit autonomen aktiven Elementen sowie aus der Simulationssicht in Betracht gezogen werden. Die CAS und MAS sind sehr hilfreich bei der Untersuchung von Emergenzeigenschaften. Die aufwendige Definition von Agenten selbst und ihre schwache Anpassungsfähigkeit gehören aber zu den Nachteilen solcher Methoden. Die Agenten werden meist als opportunistisch definiert und handeln aufgrund schwach begründeter Heuristiken. Es gibt keine ausreichend entwickelte theoretische Basis der Multi-Agenten-Systeme. Deshalb können die Agentensysteme zwar einen großen, aber eben nur einen Teil des gesamten Modellierungsspektrums abdecken. Für das Rahmenkonzept der System- und Steuerungstheorie liegen weit entwickelte theoretische Grundlagen, Methoden und Algorithmen zur Modellierung komplexer Systeme vor. Es ist aber vor allem für technische und biologische Systeme geeignet, denn es berücksichtigt das aktive zielorientierte Verhalten der Netzwerkteilnehmer in einer Kombination mit dezentraler Auftragskoordination nicht.

2.3

Notwendigkeit eines interdisziplinären Ansatzes

Um eine der Komplexität und der Unsicherheit adäquate Modellierungsmethode zu entwickeln, ist eine Kombination und das Zusammenspiel verschiedener Modellierungskonzepte notwendig, um isolierte, nichtkonsistente und in der Praxis kaum anwendbare Modellfragmente sowie unrealistische Zielstellungen und manchmal einfach anekdotische Verifikationen zu vermeiden5. Es ist hervorzuheben, dass Probleme der Planung und Steuerung von Produktions- und Logistiknetzwerken von vornherein bereits eine interdisziplinäre Natur haben6. Entscheidungen der strategischen Ebene (z. B. Netzwerkplanung) und der taktischen Ebene (z. B. Produktionsprogrammplanung) hängen stark mit einander zusammen. Auch taktische und operative Entscheidungen (z. B. Bedarfsplanung und Scheduling) sind ebenso eng miteinander verknüpft. Sogar innerhalb einer Planungsebene finden sich konventionell getrennt behandelte Probleme, wie etwa die Sicherheitsbestandsermittlung, die Preisbildung, die Transportplanung und die Bedarfsplanung, in engem Zusammenhang. Dabei sollen speziell Transport- und Lagerprobleme unter der Zielstellung einer maximalen Kundenzufriedenheit gelöst werden7, die Lieferantenauswahl soll nicht nur auf die Kapazitäten, Kosten usw. sondern auch auf die Kollaborationsfähigkeiten, insbesondere im Hinblick auf IKT-Systeme, abzielen usw. In verschiedenen Phasen des Netzwerklebenszyklus und auf verschiedenen Ebenen der Entscheidungsunterstützung sind die Planungs- und Steuerungsprobleme auf engste Weise mit4

Vgl. Teich.

5

Vgl. Teich, Kuehnle, Camarinha-Matos et al., Ivanov (DIMA).

6

Vgl. Beamon et al.

7

Vgl. Harrison et al.

292

D. Ivanov und J. Käschel

einander verknüpft. Ein und dasselbe Problem kann mit verschiedenen Methoden in Abhängigkeit von der Datenmenge, -qualität, -sicherheit und -dynamik gelöst werden. Es kann aber auch ein konkretes Problem mit einer Kombination verschiedener Methoden gelöst werden. In beiden Fällen ist eine korrekte kombinierte Anwendung verschiedener Modellierungsansätze und Lösungsmethoden von entscheidender Bedeutung für die Qualität der Lösung.

3

DIMA (Decentralized Integrated Modelling Approach): Grundlagen

3.1

Basisprinzipien

Dieser Abschnitt stellt die Basisprinzipien von DIMA (Decentralized Integrated Modelling Approach) vor8. Die üblicherweise isolierten Betrachtungen verschiedener Modellierungsrahmenkonzepte und verschiedener Phasen und Ebenen der Entscheidungsunterstützung sollen im DIMA-Konzept zu einer ganzheitlichen Betrachtungsweise zusammengeführt werden. Es entsteht dadurch ein erweitertes Modellierungsrahmenkonzept, das die Vorteile konventioneller Rahmenkonzepte miteinander verknüpft, ohne zugleich deren Nachteile zu vereinen. Damit entstehen Voraussetzungen zur Bildung einer ganzheitlichen Betrachtungsweise, mit deren Hilfe verschiedene Problemklassen des Unternehmensnetzwerkmanagements auf einer einheitlichen methodologischen Basis behandelt werden können. Die Basisprinzipien der DIMA-Methodologie sind folgende: • • • •

Berücksichtigung der Aktivität von Netzwerkelementen, Multi-Modell-Komplexe, Integration und Dezentralisierung.

Abbildung 1:

8

Interdisziplinäre Modellierung von Netzwerken

Vgl. Teich, Ivanov (DIMA).

293

Planung und Steuerung von Produktions- und Logistiknetzwerken

Im DIMA-Konzept wird die Integration aus drei Sichten betrachtet: Integration von Planungsund Steuerungsmodellen, Integration von Entscheidungsunterstützungsebenen und Implementierung des Konzepts der durchgängigen Modellierung „Konzeptionelles Modell A Mathematisches Modell A Software“ unter Benutzung integrierter mathematischer Modelle. Unter Dezentralisierung wird in diesem Ansatz das Managementprinzip verstanden, das die Entscheidungsunterstützung auf dezentralisierte Weise gewährleistet. In Abbildung 2 wird der Prozess der Entscheidungsfindung dargestellt, der auf einer kombinierten Anwendung der Rahmenkonzepte der Agenten- und Steuerungstheorie beruht. Kunde

1 Auftragsparameter

7 Umplanung

2

9

Netzwerk-Koordinator 8 Endentscheigung Akzeptierung der Agentenpläne

Idealer Plan

6

Evaluierung der Agentenpläne Übertragung der durch Agenten korrigierten Pläne

Übertragung der Planentwürfe zu den Agenten

3

Anforderungen an die Auftragsparameteränderungen

a

b…n–1

n

5

Unternehmen

4

Abbildung 2:

Multi-Agenten-Simulation

Konzeptionelles Modell zur Entscheidungsunterstützung

Algorithmen der Steuerungstheorie und des Operations Research dienen zur Generierung idealer Musterpläne. Diese werden durch Agenteninteraktionen hinsichtlich der Agentenpräferenzen und der aktuellen Situation präzisiert. Ein solcher kombinierter Prozess der Entscheidungsfindung erlaubt damit die Implementierung eines dezentralisierten Managementkonzepts.

3.2

Bausteine

Die grundlegenden Bausteine der DIMA-Methodologie sind das General Systems Framework, das Integrated Modelling Framework und das Computing Framework9. Das General Systems Framework (GSF) liefert konzeptionelle Modelle, Meta-Methodologien sowie Kernkategorien, -definitionen, -spezifikationen und ein Kennzahlensystem. Das GSF wird der einheitlichen methodologischen Basis der Unternehmensnetzwerkmodellierung zugrunde gelegt. Als Beispiele des GSF lassen sich (i) eine Meta-Methodologie als Kombination der Rahmenkonzepte von Steuerungstheorie und Agententheorie, (ii) konzeptionelle Modelle der Planung und Steue9

Vgl. Ivanov (DIMA).

294

D. Ivanov und J. Käschel

rung, des Risikomanagements und der Entscheidungsunterstützung in Unternehmensnetzwerken, (iii) systemtheoriebasierte Kategorien zur Unternehmensnetzwerkanalyse, wie z. B. Stabilität, Zuverlässigkeit, Empfindlichkeit usw., nennen. Praxisorientiert bietet das GSF methodische Richtlinien für eine systematische Analyse von Komplexität und Unsicherheit in Produktionsund Logistiknetzwerken an, wodurch sowohl bei der Synthese neuer Supply Chains als auch bei dem Re-Design vorhandener Supply Chains die entsprechenden Geschäftsprozesse zielgerichteter gestaltet werden können. Diese Richtlinien erlauben u. a., die Redundanzen im Netzwerk zu vermeiden sowie das Netzwerk im Hinblick auf Unsicherheiten stabiler zu gestalten. Das GSF bildet die konzeptionelle Basis, auf der die mathematischen Modelle praxisgerecht entwickelt werden können. Das Integrated Modelling Framework definiert die Regeln der integrativen interdisziplinären Bildung von mathematischen Modellen. In diesem Framework werden die konstruktiven Methoden zur (i) Kombination verschiedener Modellklassen und (ii) zur Verbindung der Teilprobleme Synthese und Analyse von Unternehmensnetzwerken zusammen gefasst. Das Computing Framework integriert die Bildung mathematischer Modelle, Algorithmen und deren Implementierung als Entscheidungsunterstützungssoftware. Basierend auf dem Integrated Modelling Framework werden interdisziplinäre Modelle, Algorithmen und Simulationswerkzeuge erarbeitet. Durch bestimmte Methoden (vgl. folgenden Abschnitt) wird es möglich, ein Konzept einer „virtuellen“ Modellierung zu entwickeln, das auf einer gezielten Auswahl verschiedener Modellklassen zur Problemsstellung, Problemlösung und Ergebnisdarstellung entsprechend der Modellierungsziele, der Datenstruktur usw. beruht. Als Beispiele solcher Modelle und Algorithmen wurden die Probleme der Planung, der operativen Steuerung und der dynamischen Anpassung von Unternehmensnetzwerken bearbeitet10. Die DIMA-Methodologie trägt den Besonderheiten der Netzwerkmodellierung Rechnung. Dieser Ansatz bildet die einheitliche methodologische Basis der Unternehmensnetzwerkmodellierung, ausgehend von konzeptionellen Modellen über die mathematischen Modelle bis hin zu Lösungsalgorithmen und Software. Da die Darstellung aller drei Frameworks den Rahmen des Beitrages sprengen würde, erfolgt eine Konzentration auf das Integrated Modelling Framework, das auch wissenschaftlich von besonderer Bedeutung ist.

3.3

Integrated Modelling Framework

Das Integrated Modelling Framework definiert die Regeln zur Erstellung von mathematischen Modellen. Dazu gehören: • die aktiven Elementen sollen als Agenten beschrieben werden; • ein Problem soll mit verschiedenen Methoden bzw. einer Kombination von Methoden gelöst sowie mit weiteren relevanten Problemen verknüpft werden; • die Modelle sollen miteinander verknüpft werden und anpassungsfähig sein. Die grundlegenden Bausteine des Integrated Modelling Framework sind ein Multi-AgentenModellierungsrahmenkonzept als konzeptioneller Modellträger, Multimodell-Komplexe und ein System adaptiver Planung und Steuerung. 10

Vgl. Ivanov (DIMA).

Planung und Steuerung von Produktions- und Logistiknetzwerken

295

3.3.1 Agenten als konzeptionelle Modellträger CAS kann als eine Theorie koordinierter Interaktionen von zielorientiert und konkurrierend agierenden Wirtschaftsagenten verstanden werden. Die CAS und MAS sind dabei als Ansätze für die Unterstützung der Modellierung offener Systeme mit aktiven Elementen zu betrachten. Die MAS werden aber meist aus der Sicht des Software Engineering und der computergestützten Simulation, und nicht aus einer allgemein systematischen methodologischen Sicht heraus behandelt. Im DIMA-Konzept wird vorgeschlagen, die Agenten zusätzlich auch aus der allgemeinsystematischen methodologischen Sicht als konzeptionelle Modellträger zu behandeln. Ein Agenten-System wird so als ein Rahmenkonzept mit den drei Bestanteilen • konzeptionelle Modellierung in den Begriffen der CAS und MAS, • mathematische Modellierung aufgrund einer Kombination von CAS und MAS und klassischen Theorien, • MAS als ein Teil der Softwareumgebung verstanden. Es wurden ein funktionales Agenten-Modell für die Beschreibung aktiver Elemente in verschiedenen Modellen (z. B., in einem analytischen Graph-Modell), ein allgemeines Schema von Agenten-Interaktionen für die Auftragsabwicklung im Netzwerk (integriert mit einem Optimierungsverfahren für lineare dynamische Systeme) sowie ein konzeptionelles Modell zur dezentralen Entscheidungsunterstützung (kombinierte Anwendung der Rahmenkonzepte der Agenten- und Steuerungstheorie) geschaffen. Im konzeptionellen Modell zur Entscheidungsunterstützung dient die Agenten-Ideologie als Grundlage der Modellierung aktiver Elemente auf konzeptioneller, mathematischer und Softwareebene. Die Steuerungstheorie liefert den theoretischen Hintergrund sowie mathematische Modelle und Algorithmen zur Netzwerksynthese und -analyse. Algorithmen der Steuerungstheorie und des Operations Research dienen zur Generierung idealer Musterpläne. Diese Pläne werden als Basisschablone der Evaluierung der von den Agenten generierten Lösungen hinsichtlich ihrer Qualität, Vollständigkeit und Zuverlässigkeit (Stabilität) genutzt. Ein weiterer Nutzen entsteht durch die Bilanzierung globaler Netzwerkkriterien und lokaler Agentenkriterien. Die durch den Netzwerkkoordinator generierten Musterpläne werden durch die Interaktionen der Agenten hinsichtlich ihrer Präferenzen und der aktuellen Situation präzisiert. Ein solcher kombinierte Prozess der Entscheidungsfindung erlaubt somit die Implementierung eines dezentralisierten Managementkonzepts. Basierend auf der DIMA-Methodologie wurde ein Rahmenkonzept zur Entscheidungsunterstützung in Unternehmensnetzwerken erarbeitet. Zu den Bestandteilen dieses Rahmenkonzepts gehören neben dem konzeptionellen Modell das Konzept der Netzwerkmodellierung unter Berücksichtigung der Unsicherheitsfaktoren und mathematische Modelle und Algorithmen der Entscheidungsfindung.

3.3.2 Multimodell-Komplexe Wegen der bereits beschriebenen Aspekte der Komplexität und der Unsicherheit der Produktions- und Logistiknetzwerke ist ihre adäquate Beschreibung mit Modellen einer einzigen Typklasse nicht möglich. Damit wird der Übergang zur komplexen Netzwerkmodellierung auf der Grundlage einer Multimodellbeschreibung erforderlich. Um dies zu ermöglichen, kann eine konstruktive Basis zur Verwendung kombinierter Methoden, Modelle und Algorithmen einge-

296

D. Ivanov und J. Käschel

setzt werden. In den Multimodell-Komplexen werden die einzelnen Elemente und die Prozesse mit Hilfe verschiedener Modellklassen auf einer bestimmten Detaillierungsebene beschrieben. Die Zusammenhänge und die Übergänge zwischen den Modellen werden als die Funktoren (F) realisiert. Zwei weitere Werkzeuge von Multimodell-Komplexen sind der Dynamische Alternative Multi-Graph und die Mehrstrukturmakrozustände11. Die Multimodell-Komplexe lassen so ein Konzept „virtueller“ Modellierung entstehen, das auf einer gezielten Auswahl verschiedener Modellklassen zur Problemdarstellung, Problemlösung und Ergebnisdarstellung entsprechend der Modellierungsziele, der Datenstruktur usw. beruht. Eine besondere Anwendung der Multimodell-Komplexe ist die Verbindung statischer und dynamischer Modelle. Das Problem der Synthese von Unternehmensnetzwerken wird häufig durch Graphenmodelle oder Modelle der linearen Programmierung formalisiert. Das Problem des Netzwerkbetreibens wird aber in der Regel mit Hilfe dynamischer Modelle gelöst. Deshalb bleiben die meisten Fragen der Übereinstimmung beider Modellklassen und der Übertragbarkeit der Ergebnisse offen. Es wurde vorgeschlagen, den funktoralen Übergang von der Kategorie der Digraphen, die die Netzwerkkonfiguration darstellen, in die Kategorie dynamischer Modelle, die die Betreiberprozesse beschreiben, zu verwenden. In diesem Fall stellt ein konstruktiver Kovarianzfunktor eine Wechselbeziehung zwischen den Knoten eines Digraphs in einem statischen Schedulingmodell und dem dynamischen Modell auf. Eine weitere Wechselbeziehung wird zwischen den Bögen des statischen Graphenmodells und den Abbildungen des dynamischen Modells aufgestellt. Ein solcher Multimodell-Komplex ermöglicht es, Modelle verschiedener Klassen zur Planung und Steuerung zu verknüpfen und somit ihre Qualität und Leistungsfähigkeit zu erhöhen.

3.3.3 Ein System adaptiver Planung und Steuerung Die Probleme der Planung und Steuerung von Produktions- und Logistiknetzwerken sind konzeptionell eng miteinander verbunden. Für die Planadaptierung werden gleichzeitig die Informationen über die vergangenen, laufenden und prognostizierten Systemzustände einbezogen. Dies ermöglicht, die Phasen des Netzwerkbildens und -betreibens komplex zu betrachten und die entsprechenden Modelle an die laufenden Betreiberbedingungen, durch z. B. Änderungen der Partnerauswahlprinzipien, der Algorithmusstruktur, der Parameter und Kriterien des Planungsmodells usw., anzupassen. Das erarbeitete Konzept einer ganzheitlichen Unternehmensnetzwerkanpassung besitzt eine 5-Ebenen-Struktur. Jede Ebene (parametrische Anpassung, strukturfunktionale Anpassung, Auftragszielanpassung, Modellanpassung und Netzwerkzielanpassung) bildet einen bestimmten Regelkreis ab. Die Unterscheidung erfolgt nach Art der Schwankungen und der Abweichungen. Die Besonderheiten dieses Konzeptes stellen die Regelkreise, die die Anpassung der Netzwerkmodelle und der Managementziele im Falle maßgeblicher Störungen bzw. Änderungen der aktuellen Betreibersituation berücksichtigen, dar.

4

Zusammenfassung

Im Beitrag wurde das Konzept Decentralized Integrated Modelling Approach (DIMA) dargestellt, das auf eine ganzheitliche Betrachtung komplexer, dynamischer Unternehmensnetzwerke 11

Vgl. Simchi-Levi et al., de Kok et al.

Planung und Steuerung von Produktions- und Logistiknetzwerken

297

abzielt. Mit der DIMA-Methodologie wurde ein interdisziplinärer Ansatz zur Modellierung von Produktions- und Logistiknetzwerken mit dezentraler operativer Koordination erarbeitet. Die isolierten Betrachtungen verschiedener Modellierungsmethoden in den verschiedenen Phasen des Unternehmensnetzwerkmanagements wurden im DIMA-Konzept zu einer ganzheitlichen Betrachtungsweise zusammengeführt. Die DIMA-Methodologie ermöglicht es, die Produktions- und Logistiknetzwerke unter Berücksichtigung der Aktivität der Systemelemente (Unternehmen), der Unsicherheitsfaktoren, der Abstimmung von Planungs- und Steuerungsmodellen sowie der permanenten Anpassung der Netzwerke und deren Modelle zu modellieren. Sie stellt somit zugleich eine einheitliche, methodologische Basis zur Modellierung und Optimierung von Produktions- und Logistiknetzwerken dar. Sie ermöglicht es, das Prinzip der durchgängigen Modellierung „Konzeptionelles Modell A Mathematisches Modell A Software“ zu implementieren. • • • • • • • •

Auf der Basis der DIMA-Methodologie wurden die folgenden Ergebnisse gewonnen12: Konzeptionelles Modell zum Bilden und Betreiben von Unternehmensnetzwerken, Methodische Richtlinien und ein Rahmenkonzept für eine systematische Analyse von Komplexität und Unsicherheit in Produktions- und Logistiknetzwerken, Methoden zur Bildung integrierter komplexer Modelle von Unternehmensnetzwerken, Methodologie einer dynamischen Anpassung der Unternehmensnetzwerke, Rahmenkonzept zur Entscheidungsunterstützung in Unternehmensnetzwerken, Rahmenkonzept für ein integriertes Risikomanagement mit systematischer Einbettung der Unsicherheitsfaktoren in die Planungs- und Steuerungsmodelle, Mathematische Modelle und Algorithmen für das Unternehmensnetzwerkmanagement, Software-Prototyp „Supply Network Dynamics Control“. Der praktische Nutzen der o. a. Aspekte lässt sich wie folgt zusammenfassen:

Tabelle 1: Praktischer Nutzen der DIMA-Methodologie

12

Modellierungsebenen

Praktischer Nutzen

Konzeptionelle Ebene

methodische Richtlinien für eine systematische Analyse von Komplexität und Unsicherheit in Produktions- und Logistiknetzwerken, wodurch sowohl bei der Synthese neuer Supply Chains als auch bei dem Re-Design vorhandener Supply Chains die entsprechenden Geschäftsprozesse zielgerichteter und in Bezug auf die Projektrealisierung mit dem notwendigen Stabilitätsgrad gestaltet werden können;

Mathematische Ebene

ein kombiniertes Modellierungsrahmenkonzept, das die Elemente verschiedener Modellierungsmethoden integriert und die Vorteile konventioneller Modellierungsrahmenkonzepte miteinander verknüpft; flexible interdisziplinäre Modelle und Algorithmen zur Planung und Steuerung von Supply Chains;

Informationstechnische Ebene

Entwicklung von IT-Technologien für das Netzwerkmanagement, die ein intelligentes Zusammenspiel verschiedener Modellierungsmethoden realisieren und sowohl Komplexität als auch Unsicherheit von und in Unternehmensnetzwerken berücksichtigen

Vgl. Teich, Ivanov (DIMA), Ivanov et al. (Intelligent Planning/Special Issue/Integrated Modelling/Quantitative Models).

298

D. Ivanov und J. Käschel

Abschließend ist festzustellen, dass die in der vorliegenden Arbeit behandelten Aspekte an einigen Stellen noch weitere Untersuchungen erfordern. Die erarbeiteten konzeptionellen Modelle sind z. T. Rahmenkonzepte und sollen aufgrund von Erfahrungen aus praktischen Anwendungen und der Realisierung von Prototypen erweitert werden. Der Erweiterung bedürfen auch einige methodologische Aspekte, wie z. B. die Untersuchungen zur Stabilitätsanalyse, zu einer Supply Chain Rekonfigurierung u. a. Das Forschungsfeld der komplexen Unternehmensnetzwerkmodellierung ist noch relativ jung und wird sich in den nächsten Jahren intensiv entwickeln. Dies lässt auf neue theoretische Erkenntnisse und praktische Realisierungen hoffen. Literatur Blecker, T. und W. Kersten (Hrsg.) (2006): Complexity Management in Supply Chains, Erich Schmidt Verlag. Simchi-Levi, D.; Wu, S. D.; Zuo-Yun, S. (Eds.) (2004): Handbook of quantitative supply chain analysis. New York, Springer. Kok de A. G.; Graves S. C. (Eds.) (2004): Supply Chain Management: Design, Coordination and Operation. Amsterdam, Elsevier. Dangelmaier, W.; U. Pape; M. Rüther (2004): Agentensysteme für das Supply Chain Management: Grundlagen, Konzepte, Anwendungen. Wiesbaden. Ivanov D. (2007): DIMA – Decentralized Integrated Modelling Approach – ein interdisziplinärer Ansatz zur Modellierung von Produktions- und Logistiknetzwerken. Verlag der GUC. Teich, T. (2003): Extended Value Chain Management – ein Konzept zur Koordination von Wertschoepfungsnetzen. Verlag der GUC, Chemnitz. Kuehnle, H. (2007): A system of models contribution to production network (PN) theory. Journal of Intelligent Manufacturing, in print. Camarinha-Matos, L., Afsarmanesh, H. and A. Ortiz (eds.) (2005): Collaborative Networks and Their Breeding Environments, Springer. Ivanov D. (2008): DIMA – A Research Methodology for Comprehensive Multi-Disciplinary Modelling of Production and Logistics Networks. International Journal of Production Research, in print. Beamon, B. M.: Supply Chain Design and Analysis: Models and Methods. International Journal of Production Economics 55(3), 281–294. Harrison, T. P., Lee, H. L., Neale J. J. (Eds.) (2005): The Practice of Supply Chain Management. New York. Springer. Ivanov, D., Arkhipov, A., Sokolov, B. (2007): Intelligent planning and control of manufacturing supply chains in virtual enterprises. International Journal of Manufacturing Technology and Management, Special Issue on modelling and optimisation of supplier-based manufacturing and management 11(2), 209–227. Ivanov, D., Kaeschel, J., Sokolov, B. (2008): Structure dynamics control-based framework for adaptive reconfiguration of collaborative enterprise networks, in: International Journal of Manufacturing Technology and Management, Special Issue on Reconfigurable Manufacturing Systems: Concepts, Technologies and Applications, in print. Ivanov, D., Kaeschel, J., Sokolov, B. (2007): Integrated Modelling of agile enterprise networks. International Journal of Agile Systems and Management 2(1), 23–49. Ivanov, D., Käschel, J., Arkhipov, A., Sokolov, B., Zschorn, L. (2005): Quantitative Models of Collaborative Networks. In: Camarihna-Matos, L.M., Afsarmanesh, H., Ortiz, A. (Eds.): Collaborative Networks and Their Breeding Environments, Springer, 387–394.

Marktorientierte Steuerung unternehmenseigener Absatzorgane von Versicherungsunternehmen Hans Meissner und Sascha Kwasniok

1

Veränderte Rahmenbedingungen für den Versicherungsvertrieb

„Der Stammvertrieb ist wahnsinnig ineffizient.“1 Dieses nicht gerade milde Urteil über die Marktfähigkeit der unternehmenseigenen Vertriebsmannschaft ist Ausdruck eines bei deutschen Versicherungsunternehmen zu beobachtenden zunehmend kritischen Umgangs mit den eigenen Vertriebsstrukturen. Die mit neuen Informationstechnologien einhergehende wachsende Markttransparenz und die für Kunden damit verbundene vereinfachte Vergleichbarkeit von Kostensituation und Produktqualität der Versicherer stellt eine anspruchsvolle Herausforderung für die künftige Vertriebssteuerung dar.2 Erste Tendenzen weisen dabei eine intensivere, bisweilen zum Teil auch unbekannte Marktorientierung der Absatzorgane auf.3 Ein einheitlicher Trend ist dabei jedoch noch nicht feststellbar. Dieser Beitrag soll Anlass geben, die aktuellen Strömungen in der marktorientierten Steuerung der unternehmenseigenen Absatzorgane zu systematisieren und ihre Auswirkungen unter Koordinations- und Motivationsgesichtspunkten aufzuzeigen. Die Untersuchung ist dabei nicht ausschließlich für vertriebsnahe Einheiten von Relevanz. Es wird vielmehr deutlich, dass durch eine stärkere Marktorientierung des Vertriebs das gesamte Versicherungsunternehmen gezwungen ist, kundenintegrativ und -orientiert zu agieren. Das gilt gleichermaßen im Hinblick auf eine innovative und bedarfsgerechte Produktgestaltung als auch hinsichtlich einer effizienten Nutzung der vorhandenen Ressourcen. Auf Basis des zunächst vorgestellten Organisationskonzepts sollen die Alternativen marktlicher Steuerungsinstrumente präsentiert werden, ehe im Anschluss die Überprüfung ihrer Tauglichkeit hinsichtlich des Untersuchungskonzepts erfolgt. 1

Walter Thießen, Vorstandsvorsitzender der AMB Generali; zitiert nach Knospe (2006).

2

Zu diesem Ergebnis kommen auch aktuelle Studien von Horváth & Partners (2007), Simon-Kucher & Partners (2007) sowie Psychonomics (2007).

3

Exemplarisch seien hier die gescheiterten Bestrebungen der Axa zur Ausgliederungen ihres Vertriebs, die Gründung der Allianz Beratungs- und Vertriebs-AG, die Übertragung der Ausschließlichkeitsorganisation der AachenMünchener auf die Deutsche Vermögensberatung AG sowie die Gründung der unabhängigen Vertriebsgesellschaft 1:1 AG durch die WWK genannt.

300

2

H. Meissner und S. Kwasniok

Organisationstheoretischer Bezugsrahmen

Im Folgenden werden die wesentlichen Elemente des zugrunde liegenden organisationstheoretischen Konzepts beschrieben. Zunächst ist es hierzu zweckmäßig, die relevanten Dimensionen der Koordination und Motivation zu unterscheiden.4 Im Anschluss werden die organisatorischen Steuerungsinstrumente präsentiert.

2.1 Koordination und Motivation als Bewertungsdimensionen organisatorischer Strukturen Die Koordinationsdimension abstrahiert weitgehend von individuellen Einstellungs- und Verhaltensmustern der separat gegliederten Einheiten. Somit wird unterstellt, dass die Einheiten sich generell an der vorgegebenen Zielsetzung orientieren und stets die beste der verfügbaren Handlungsalternativen wählen. Im Mittelpunkt steht die Frage, inwiefern organisatorische Regelungen den inhaltlichen Aufgabenanforderungen genügen und hierdurch einzelnen Einheiten die Voraussetzung dafür schaffen, zur Gesamtunternehmenszielerreichung beizutragen.5 Die Motivationsdimension ergänzt die logisch greifbarere Koordinationsdimension, indem diese explizit die individuellen Einstellungs- und Verhaltensmuster der Organisationsmitglieder berücksichtigt und somit die Koordinationsentscheidung flankiert bzw. modifiziert.6 In diesem Kontext stellt sich die elementare Frage, wie sich die individuellen Zielorientierungen mit einem unternehmenszielkonformen Verhalten in Einklang bringen lassen. Für die Beurteilung der Motivationsdimension werden die Kriterien der Eigenverantwortung, der – u. a. auch die Zurechenbarkeit von Arbeitsergebnissen determinierenden – Ganzheitlichkeit und Überschaubarkeit einer Aufgabe sowie des Marktdrucks als Ausdruck bestehender Möglichkeiten der Konfrontation von Arbeitsergebnissen mit marktlichen Alternativen herangezogen.7

2.2 Steuerungsinstrumente zwischen Plan und Markt Coase unterscheidet in seinem grundlegenden Aufsatz „The Nature of the Firm“8 die zwei sich ausschließenden Steuerungsinstrumente des Preises (unternehmensexterner Markt) und der Planung (unternehmensinterne Hierarchie). Hierbei geht es um die klassische Entscheidung zwischen der Eigen- (Plan) oder der Fremderstellung (Markt) von Sach- und Dienstleistungen, also dem In- bzw. Outsourcing.9 Die rigide Trennung Coases bereitet jedoch Schwierigkeiten bei der Einordnung von Strukturen, die sowohl marktliche als auch hierarchische Elemente aufweisen und somit zwischen den beiden definierten Idealtypen stehen. Beachtenswerte Hinweise im Zusammenhang mit dieser Fragestellung finden sich in den ebenfalls vielbeachteten Forschungsarbeiten von Schmalenbach, die zeitlich noch vor den Überlegungen Coases einzuordnen sind.10 4

Vgl. zu dieser Unterscheidung u. a. Milgrom; Roberts (1992), S. 25 sowie Frese (2005), S. 6.

5

Vgl. ausführlich Frese (2005), S. 315ff.

6

Vgl. von Werder (1999), S. 416 sowie Frese (2005), S. 333.

7

Vgl. ausführlich Frese (2005), S. 331ff. sowie Frese; von Werder (1994), S. 12.

8

Vgl. Coase (1937).

9

Vgl. Frese; Lehmann (2000), S. 204.

10

Vgl. Schmalenbach (1908/09).

Absatzorgane von Versicherungsunternehmen

301

Schmalenbach betrachtet Märkte und Unternehmen keineswegs als nicht miteinander vereinbare institutionelle Regelungen.11 Die vielfältigen Ausprägungen marktlicher und hierarchischer Elemente konstituieren vielmehr hybride Erscheinungsformen.12 Der institutionelle Rahmen legt dabei fest, ob es sich um interne oder externe Hybride handelt.13 Die folgende Abbildung schafft einen Überblick über die in diesem Beitrag relevanten Steuerungsinstrumente.

Abbildung 1:

Übersicht der Steuerungsinstrumente

Externe Hybride kennzeichnen sich durch unternehmensübergreifende, marktbezogene Transaktionsbeziehungen, die um hierarchische Elemente erweitert sind. Letztere äußern sich überwiegend durch langfristige Vertragsverhältnisse, die grundsätzliche Rahmenbedingungen determinieren.14 Externe Hybride unterscheiden sich von internen Hybriden insbesondere dadurch, dass die organisationale Entscheidungsautonomie und die Verfügungsrechte dezentral bei den jeweiligen Transaktionspartnern liegen. Dies impliziert, dass jede Vertragspartei nach Beendigung des Vertragsverhältnisses als autonomer Akteur auf den Markt zurückkehrt und entsprechend neue Beziehungen eingehen kann.15 Interne Hybride treten auf, wenn marktliche Elemente in ein hierarchisches System integriert werden, d. h. der Markt gewissermaßen in das Unternehmen geholt wird. In konsequenter Ausprägung entstehen dann sog. interne Märkte.16 Die Anwendung marktnaher Steuerungsinstru11

Vgl. Schmalenbach (1908/09), S. 167 sowie ebenfalls zu der Koexistenz von Markt und Unternehmen Hennart (1993).

12

Vgl. Williamson (1991), S. 280, Zenger (2002) sowie zu Beispielen Nooteboom (2000), S. 109.

13

Vgl. zu dieser Unterscheidung Frost (2005), S. 37ff.

14

Vgl. Zenger; Hesterly (1997), S. 211 sowie Williamson (1999), S. 1091.

15

Williamson spricht in diesem Kontext von der „ownership autonomy“; vgl. Williamson (1991), S. 280.

16

Zu der Kritik an der Gleichstellung von internen Hybriden und internen Märkten sowie zur generellen Kritik an der Existenz interner Märkte vgl. Hodgson (2002), S. 54 sowie zusammenfassend Schreyögg (2003), S. 203.

302

H. Meissner und S. Kwasniok

mente in Form von internen Preisen erfolgt also innerhalb derselben hierarchischen Binnenstruktur. Im Gegensatz zu externen Hybriden verteilen sich dadurch die Verfügungsrechte wesentlich zentraler. Die internen Marktteilnehmer sind dann nicht lediglich über den Preis, sondern zusätzlich durch eine übergeordnete Zielsetzung miteinander verbunden.17

2.3 Ausprägungsformen interner und externer Hybride Die externen und internen Hybride finden ihre Ausprägung in Quasi-Märkten sowie in realen und fiktiven internen Märkten. Auf fiktiven internen Märkten substituiert die hierarchische Planung von transaktionsbezogenen Mengenvorgaben wesentliche Teile der Entscheidungsautonomie. Das Koordinationsproblem gilt somit als bereits gelöst und existente interne Marktbeziehungen gleichen einer Simulation. Folglich interessiert hier primär die Motivationsdimension.18 Dafür werden die simulierten Input-Output-Beziehungen monetär mit Verrechnungspreisen bewertet, womit sich der Transaktionserfolg eines internen Akteurs feststellen lässt. Für die Motivationswirkung ist insbesondere relevant, dass sich aus dem Transaktionserfolg geeignete Maßnahmen ableiten lassen, die eine Steigerung der Leistungsanstrengung fördern.19 Auf realen internen Märkten herrscht die Marktorientierung vor, womit sich Planungsaktivitäten gegenüber einem internen fiktiven Markt deutlich minimieren. Die hiermit verbundene Entscheidungsautonomie führt dazu, dass die Einheiten auf Basis der individuellen Nutzenvorstellung und der vorliegenden Verrechnungspreise über das Zustandekommen einer Transaktion frei entscheiden.20 Die damit verbundene Eigenverantwortung fördert die Motivation, am internen Marktgeschehen teilzunehmen und sich zur individuellen Nutzenerhöhung einem stetigen Verbesserungsprozess zu unterwerfen.21 In diesem Fall kann die Unternehmensleitung lediglich über die Festsetzung des Verrechnungspreises hierarchisch eingreifen und somit das Angebot und die Nachfrage durch die Attraktivität einer Ressource beeinflussen. Reale interne Märkte weisen aufgrund dieser Eigenschaften sowohl eine Motivations- als auch eine Koordinationsfunktion auf.22 Dem realen internen Markt kommt dabei als Steuerungsinstrument eine Sonderrolle zu. Seine inhaltlichen Voraussetzungen können neben internen auch für externe Hybride gelten, obwohl beide unterschiedlichen institutionellen Arrangements angehören. Diese besondere Konstellation findet sich bei solchen Vertragssystemen, die Transaktionsbeziehungen ausschließlich mit einem definierten Vertragspartner vorsehen.23 In diesem Kontext kann der reale interne Markt als inhaltliche Brücke zu stark hierarchisch ausgeprägten Formen externer Hybride eingeordnet werden.24 17

Vgl. Frese (1999), S. 219.

18

Vgl. Graumann; Müller (2001a), S. 1365.

19

Vgl. Frese (1999), S. 222.

20

Vgl. Frese (1999), S. 221 sowie Graumann; Müller (2001b), S. 1481.

21

Vgl. Staubach (2005), S. 23.

22

Vgl. Frese (2005), S. 199 sowie implizit bereits Schmalenbach, der in diesem Kontext den Begriff der pretialen Lenkung prägt; vgl. Schmalenbach (1948), S. 8ff.

23

Ein auf die Versicherungsbranche bezogenes Beispiel ist die Ausschließlichkeitsvereinbarung des rechtlich selbständigen Versicherungsvermittlers nach § 84 HGB.

24

Vgl. Abbildung 1.

Absatzorgane von Versicherungsunternehmen

303

Eine weitaus stärkere Markorientierung externer Hybride findet seine Ausprägung in QuasiMärkten. Die Verfügungsrechte liegen überwiegend dezentral, womit eine tendenziell hohe Entscheidungsautonomie der Akteure verbunden ist. Im Gegensatz zu den bisher vorgestellten Hybridformen besteht somit kein Zwang, Transaktionen ausschließlich mit internen Marktteilnehmern einzugehen. Es existiert vielmehr ein expliziter externer Marktzugang. Der QuasiMarkt grenzt sich damit von einer externen Marktsteuerung in Reinform nur noch durch die Existenz grundlegender hierarchischer Elemente ab, die wiederum vertraglich geregelt sind. Hierbei kann es sich beispielsweise um die Vereinbarung von Qualitätszielen oder Provisionen handeln.25 Die folgende Abbildung gibt eine Übersicht der präsentierten Ausprägungsformen interner und externer Hybride.

Abbildung 2:

3

Ausprägungsformen interner und externer Hybride

Zur Typisierung der Absatzorgane von Versicherungsunternehmen

Der Versicherungsmarkt kennzeichnet sich in vielen Fällen, u. a. zusammenhängend mit oftmals vergleichsweise komplexen Produkteigenschaften, durch eine stark ausgeprägte Asymmetrie hinsichtlich der Informationsverteilung zwischen Kunden und Absatzorganen. Die Konsequenzen dieses unvollkommenen Markts sowie der aktuellen Entwicklungen, die zur Verringerung solcher Asymmetrien beitragen, sollen im Folgenden näher beleuchtet werden, ehe die konkreten Differenzierungsmerkmale der Absatzorgane analysiert werden.

3.1 Informationsasymmetrie zwischen Absatzorganen und Kunden Die Vielschichtigkeit und Komplexität vieler Versicherungsprodukte führen zu einer gewissen Unsicherheit und Intransparenz im Versicherungsmarkt. Die klassische Annahme, dass wohlinformierte Konsumenten ihre Nachfrage rational an ihrer individuellen Nutzenfunktion ausrichten, kann daher nicht ohne weiteres aufrechterhalten werden.26 So sieht sich der potenzielle Versicherungskunde in aller Regel nicht in der Lage, die elementaren Charaktereigenschaften verschiedener Versicherungsproduktlösungen vor Vertragsabschluss zu erkennen und auf diese 25

Vgl. Behrens; Schmitz (2005), S. 31.

26

Vgl. Varian (1985), S. 298.

304

H. Meissner und S. Kwasniok

Weise den wesentlichen Nutzen zu identifizieren.27 Geht man folglich von einem unvollkommenen Markt aus, auf dem die Beseitigung dieser Informationsasymmetrie und der daraus resultierenden Unsicherheit Kosten verursacht, stellt sich für den Kunden zwangsläufig die Frage nach der günstigsten Bewältigung dieser Problematik.28 Mit der Übertragung der Such- und Beratungsaufgabe auf ein Absatzorgan bietet sich dem Kunden die Möglichkeit, dessen versicherungsspezifisches Wissen zu nutzen.29 Zwischen dem Kunden und dem Absatzorgan besteht aus institutionsökonomischer Sicht somit eine klassische Prinzipal-Agenten-Beziehung. Mit steigender Asymmetrie hinsichtlich der Informationsausstattung beider Akteure muss sich der Kunde vermehrt auf die Such- und Beratungsleistungen des Absatzorgans verlassen und hat entsprechend zunehmend größere Probleme bei der Nachvollziehbarkeit seiner Handlungen.30 Die unterschiedliche Informationsverteilung in Verbindung mit den bestehenden Interessenunterschieden zwischen dem Kunden, der für einen gegebenen Produktanspruch eine preisgünstige Alternative sucht, und dem Absatzorgan, das eigene ökonomische Interessen verfolgt, gefährden im Fall eines nicht auszuschließenden opportunistischen Verhaltens des Absatzorgans solche Lösungen, denen sich der Kunde bei vollständiger Information zugewandt hätte.31 Dem Kunden fehlt mit anderen Worten aufgrund des bestehenden Informationsungleichgewichts also die Möglichkeit, ein etwaiges fehlleitendes Beratungsverhalten des Absatzorgans aufzudecken.32 Mit der Ausweitung der Internetnutzung und des dadurch erleichterten Informationszugangs lassen sich Versicherungsprodukte einfacher und kostengünstiger vergleichen.33 Die hier zum Ausdruck kommenden verbesserten Möglichkeiten zur Bewältigung von Komplexität äußern sich in Form einer verminderten Informationsasymmetrie zwischen dem Kunden und dem Absatzorgan.34 Das Ausmaß der Marktunvollkommenheit für Versicherungsprodukte nimmt somit ab.35 Die damit einhergehende geringere Abhängigkeit vom Versicherungsagenten spiegelt sich beispielsweise in einer stärker ausgeprägten Informationssuche, so etwa über geeigne27

Dieser Fall vorvertraglicher Informationsasymmetrien wird in der Agenten-Theorie auch mit „hidden characteristics“ umschrieben. Für den Kunden besteht so die Gefahr, ein unpassendes Versicherungsprodukt zu erwerben (Problematik der adversen Selektion); vgl. u. a. Milgrom; Roberts (1992), S. 149ff.

28

Vgl. Varian (1985), S. 298, Williamson (1985), S. 57, Gümbel; Stadler (1988), S. 186, Wenger; Terberger (1988), S. 510 sowie Horsch (2004), S. 531.

29

Informationsvorteile resultieren beispielsweise aus einer spezifischen Ausbildung, Berufserfahrung, entsprechender Produktkenntnisse sowie einen transaktionskostengünstigen Zugang zu weiterführenden Informationsquellen.

30

In der Agenten-Theorie spricht man auch von „hidden intention“ und „hidden action“; vgl. Arrow (1985), S. 38ff.

31

Dabei soll freilich nicht generell unterstellt werden, dass der Opportunismus ein expliziter Bestandteil des Handelns der Absatzorgane darstellt. Vielmehr sollte sich der Kunde bewusst sein, dass sich die Absatzorgane in bestimmten Situationen auf Kosten des Kunden einen Vorteil verschaffen können, der ohne geeignete Kontrollmechanismen verdeckt bleibt; vgl. u. a. Kräkel (2007), S. 8, Fn. 7.

32

Vgl. Ebers; Gotsch (2006), S. 264.

33

Ein Beispiel sind sog. „shopbots“, die automatisiert das Internet nach der preisgünstigsten Alternative einer bestimmten Leistung durchsuchen; vgl. Picot; Heger (2001), S. 131.

34

Vgl. Graumann; Wellhöfer (2002), S. 687, Holtrop et al. (2004), S. 80 sowie Knospe (2006), S. 792.

35

Vgl. Benölken et al. (2005), S. 27. Ein vollkommener Markt bleibt weiterhin eine idealtypische Annahme, der in der Realität faktisch nicht existiert; vgl. Robinson (1950), S. 4.

Absatzorgane von Versicherungsunternehmen

305

te Marktalternativen, wider.36 Konfrontiert der Kunde als Prinzipal seinen Agenten im Rahmen der Versicherungsvermittlung mit seinem Wissen, wird der Agent nicht umhinkommen, ggf. zu Lasten seiner persönlichen Ziele bei der Beratung Produkte zu fokussieren, die dem Interesse des Kunden in einem wesentlich stärkeren Maße Genüge leisten. Der Prinzipal optimiert also auf der Grundlage zunehmend transparenter Marktverhältnisse, die ihn zur Kontrolle der Handlungen und Entscheidungen des Agenten befähigen, sein Ergebnis.37 Spielräume für opportunistisches Verhalten, die mit einer stark asymmetrischen Informationsverteilung verbunden sind, reduzieren sich somit erheblich.38 Wollen die Absatzorgane als Agenten und Intermediäre weiterhin als Anbieter in diesem durch vermehrte Transparenz gekennzeichneten Markt agieren, müssen sie konsequenterweise über die Möglichkeit verfügen, auf den verbesserten Informationszugang des Kunden mit einem breiten und wettbewerbsfähigen Produktangebot zu reagieren. Die diesbezügliche Handlungsfähigkeit hängt allerdings wesentlich von den institutionellen Rahmenbedingungen ab.

3.2 Klassische organisatorische Typisierung der Absatzorgane von Versicherungsunternehmen Die in der Versicherungswirtschaft für die Absatzfunktion vorzufindenden institutionellen Lösungen lassen sich anhand verschiedener Ausprägungen bei den rechtlichen und wirtschaftlichen Beziehungen zwischen dem Versicherer und seinen Absatzorganen differenzieren. In verschiedenen Merkmalskombinationen spiegeln sich Regelungen wider, die wesentliche Konsequenzen für die Steuerungsmöglichkeiten und den Marktzugang der Absatzorgane bedeuten. Mit den unternehmenseigenen, den unternehmensgebundenen sowie den unternehmensfremden Absatzorganen lassen sich drei konkrete Ausprägungen unterscheiden.39 Unternehmensfremde Absatzorgane zeichnen sich durch ihre rechtliche und wirtschaftliche Selbständigkeit aus. Als Beispiel wird typischerweise der Makler angeführt. Die an den Umfang der abgesetzten Versicherungen geknüpfte variable Entlohnung begründet hierbei die wirtschaftliche Autonomie. Die rechtliche Selbständigkeit ergibt sich aus den Vorschriften des Handelsgesetzes.40 Eine weiterführende organisationstheoretische Untersuchung erübrigt sich an dieser Stelle, da es sich hier um eine rein externe Marktbeziehung zwischen zwei selbständigen Unternehmen handelt, die über jeweils vollkommene Entscheidungsautonomie verfügen.41 Gemäß der Argumentation von Coase existiert folglich kein internes Koordinations-, sondern vielmehr ein Transaktionsproblem zwischen externen Marktteilnehmern.42 Der Makler kann den Regelungen des Markts folgend dem Kunden prinzipiell jedes Produkt des Versicherungs36

In besonders transparenten Märkten kann dann der Bezug eines Versicherungsprodukts ganz ohne die Nutzung eines intermediären Absatzorgans erfolgen. Das ist z. B. durch die Wahl eines Direktversicherers der Fall. Dieser Aspekt bleibt bei dieser Untersuchung jedoch unberücksichtigt.

37

Vgl. Picot; Michaelis (1984), S. 260f., die exemplarisch einen funktionsfähigen Arbeitsmarkt für Manager mit weitreichenden Konsequenzen für ein eigentümerorientiertes Handeln anführen.

38

Vgl. ausführlich Koch (2005), S. 218ff.

39

Vgl. zu dieser Einteilung und dem Folgenden Farny (2006), S. 715ff.

40

Vgl. § 93 Abs. 1 HGB.

41

Vgl. Frese (1999), S. 219.

42

Vgl. Coase (1937), S. 388.

306

H. Meissner und S. Kwasniok

markts anbieten und somit auf einer wesentlich breiteren Arbeitsgrundlage den Interessen des Kunden gerecht werden. Er stellt somit diejenige institutionelle Regelung für den Vertrieb dar, in der sich Marktorientierung am stärksten abbildet. Die unternehmensgebundenen Absatzorgane charakterisiert ihre aus vertraglichen Regelungen resultierende Abhängigkeit vom Versicherungsunternehmen, wobei sie rechtlich selbständig sind. Die gängige Ausprägungsform ist der selbständige Handelsvertreter im Sinne des Handelsgesetzes.43 Die wirtschaftliche Abhängigkeit ergibt sich aus der vertraglichen Verpflichtung, ausschließlich für den Vertragspartner Versicherungen auf dem Markt anzubieten. Selbst wenn die Vertragskonstellationen mehrere Vertragspartner zulassen, verfügen selbständige Handelsvertreter in aller Regel nur über ein eingeschränktes Produktangebot, was unter der Maßgabe einer zunehmenden Transparenz im Versicherungsmarkt wie beschrieben zu Problemen führen kann. Insofern liegt die Feststellung nahe, dass sich Absatzorgane nur über die Gewährung bestimmter Anreize rechtlich und wirtschaftlich an einen bestimmten oder an mehrere Versicherer binden lassen. Solche Anreize finden sich regelmäßig in Gestalt der Zuweisung eines Kundenbestandes durch das Versicherungsunternehmen mit der Konsequenz daraus resultierender, gewissermaßen dem Absatzorgan als Grundsicherung dienender Bestandsprovisionen.44 Da in dieser Vertragskonstellation grundsätzlich sowohl der zugewiesene als auch der durch die Absatzaktivitäten des Vermittlers hinzugekommene Bestand im Verfügungsbereich des Versicherungsunternehmens liegt, ergibt sich eine Abhängigkeit des Absatzorgans daraus, dass bei Auflösung der Vertragsbeziehung der Vermittler nicht einfach seinen Bestand „zusammenpacken“ kann, um sich dann auf der Grundlage einer neu zu formulierenden Zusammenarbeit, so etwa als Makler, die Bestandspflege durch das Versicherungsunternehmen weiter vergüten zu lassen. Den handelsrechtlich vorgeschriebenen Ausgleichszahlungen45, die das Versicherungsunternehmen im Fall der Auflösung der Vertragsbeziehung mit dem Handelsvertreter zu leisten hat, kann von den gesetzlich und in der Rechtsprechung zur Geltung kommenden Ausgleichsansprüchen her in aller Regel ein existenzsichernder Charakter nicht zugesprochen werden. Insofern impliziert die Bestandsübertragung eine langfristig angelegte Vertragsbeziehung zwischen Absatzorgan und Versicherungsunternehmen, deren vorzeitige Auflösung in aller Regel mit erheblichen Nachteilen für das Absatzorgan verbunden ist.46 In der institutionellen Betrachtungsweise ist diese Lösung aufgrund der bestehenden rechtlichen Selbständigkeit der Handelsvertreter gleichwohl den externen Hybriden zuzuordnen. Die sich aus der Bestandsübertragung ergebende starke Abhängigkeit der unternehmensgebundenen Absatzorgane sowie die Ausschließlichkeitsvereinbarung lassen folgerichtig den Schluss zu, dass es sich hierbei um eine stark planbasierte Ausprägung externer Hybride handeln muss. 43

Vgl. § 84 HGB i. V. m. § 92 Abs. 1. Als Ausprägungsformen finden sich der Einfirmenvertreter und der Mehrfachagent. Die Interpretation des Mehrfachagenten als unternehmensgebundenes Absatzorgan widerspricht dabei der Einteilung Farnys; vgl. Farny (2006), S. 720. Aufgrund der gemeinsamen handelsrechtlichen Grundlage des Einfirmenvertreters und des Mehrfachagenten und damit verbundenen Ähnlichkeiten macht diese Einteilung im Kontext dieser Arbeit jedoch Sinn.

44

Um neben der reinen Bestandsverwaltung einen zusätzlichen Anreiz für die Generierung von Neugeschäft zu erwirken, wird vermehrt die Höhe der Bestandsprovision in relativer Abhängigkeit zum erbrachten Neugeschäft bemessen; vgl. Horváth & Partners (2007). In der Praxis findet man diese relativen Provisionssysteme u.a. bei der DKV und der ARAG; vgl. z. B. Knospe (2005), S. 1152ff.

45

Vgl. § 89 b HGB.

46

Vgl. auch Umhau (2003), S. 43.

Absatzorgane von Versicherungsunternehmen

307

Die unternehmenseigenen Absatzorgane stehen gegenüber dem Versicherungsunternehmen sowohl in einer rechtlichen als auch in einer wirtschaftlichen Abhängigkeit. Sie führen kein eigenes Unternehmen und tragen daher kein Unternehmerrisiko. Die Vergütung erfolgt überwiegend auf der Grundlage eines Festgehaltes und wird um variable, erfolgsabhängige Elemente ergänzt. Das zugrunde liegende Angestelltenverhältnis räumt dem Versicherer als Arbeitgeber ein weitgehendes Weisungsrecht ein. Diese Prämissen ermöglichen es dem Versicherer, die Absatzaktivitäten ganz im Sinne einer hierarchischen Plansteuerung zu gestalten. Im Fokus steht somit der Abgleich des realisierten Ergebnisses mit den planbasierten Zielvorgaben (SollIst-Vergleich) sowie die Ableitung regulativer und steuernder Maßnahmen. Die unternehmenseigenen Absatzorgane teilen somit das Schicksal der unternehmensgebundenen, dem Kunden nur eine beschränkte Produktauswahl anbieten zu können. Hieraus ergeben sich die bereits dargelegten negativen Konsequenzen hinsichtlich ihrer Marktberechtigung. Die folgende Abbildung veranschaulicht die institutionelle Zuordnung der vorgestellten Absatzorgane.

Abbildung 3:

4

Absatzorgane zwischen Markt und Hierarchie47

Marktsteuerung bei unternehmenseigenen Absatzorganen

Unternehmensfremde sowie unternehmensgebundene Absatzorgane unterliegen aufgrund ihrer rechtlichen Selbständigkeit bereits einer natürlichen, mehr oder weniger stark ausgeprägten Marktsteuerung. Mit Blick auf die sich daran anknüpfende Leitidee, unternehmenseigene Absatzorgane marktorientiert zu steuern, ist es hilfreich, die Ausprägungen interner und externer Hybride stärker zu beleuchten.

4.1 Unternehmenseigene Absatzorgane im fiktiven internen Markt Die Konsequenzen der marktorientierten Steuerung unternehmenseigener Absatzorgane48 mittels fiktiver interner Märkte hinsichtlich der Koordinations- und Motivationsdimension erfolgt systematisch anhand zweier Kriterien. Sie basieren auf einer Verdichtung der in der aktuellen Diskussion zahlreich vorgebrachten Argumente für eine stärkere Marktorientierung und korrespondieren mit den eingangs vorgestellten organisationstheoretischen Dimensionen:49 47

In Anlehnung an Picot (1982), S. 274.

48

Im Folgenden werden sie nur noch als „Absatzorgane“ bezeichnet.

49

Vgl. insbesondere AachenMünchener (2007), S. 14ff., Allianz (2007), S. 226ff. und WWK (2007), S. 26 sowie ergänzend Horváth & Partner (2007).

308

H. Meissner und S. Kwasniok

a) Kundenorientiertes Produktangebot durch marktliche Ausgliederung b) Konfrontation mit marktlichen Alternativen a) Kundenorientiertes Produktangebot durch marktliche Ausgliederung Begünstigt durch die Deregulierung und Liberalisierung der Versicherungsmärkte Anfang der 90er Jahre sowie durch die aktuellen informationstechnischen Rahmenbedingungen mit den hiermit verbundenen vereinfachten Möglichkeiten des Aufbaus eines umfassenden, dem präziseren Marktvergleich dienenden Marktwissens ist ein zunehmender nachfragerseitiger Druck auf das Produktangebot der Versicherungswirtschaft festzustellen.50 Ein sich in die Richtung verminderter asymmetrischer Informationsverteilung entwickelnder Markt mit zunehmend aufgeklärten Kunden erfordert eine stärkere Orientierung der Absatzorgane an den Kosten-NutzenKalkülen der Kunden. Die Absatzorgane sehen sich in diesem Zusammenhang regelmäßig einem Dilemma gegenüber, wonach einerseits für die gestiegenen Kundenansprüche ein breiteres Produktangebot benötigt wird, andererseits aber die Produktionsseite aus Kostengründen tendenziell zur Standardisierung ihrer Produkte neigt.51 Aufgrund der starken hierarchischen Elemente des fiktiven internen Markts haben die Absatzorgane jedoch faktisch kaum Möglichkeiten, zielgerichtet im Sinne der Befriedigung der Kundenwünsche auf dieses Dilemma zu reagieren. Die Absatzorgane können in der Regel nur auf ein beschränktes internes Produktangebot zurückgreifen. Einflussnahmen auf die Angebotspalette existieren in der Unternehmenspraxis bei unternehmenseigenen Absatzorganen zumindest nicht in einem als Problemlösung zu bezeichnenden Ausmaß. Das Produktportfolio und somit die rein internen Transaktionen zwischen Absatz und Produktion sind bereits im Vorfeld durch die hierarchische Planung determiniert. Es sind starke Zweifel angebracht, dass ein solch rigides Konzept der Marktsteuerung eine befriedigende Antwort auf die zunehmende Transparenz des Versicherungsmarkts bietet. b) Konfrontation mit marktlichen Alternativen Im fiktiven internen Markt kann ein Marktdruck im Sinne eines sog. Benchmarkings sowohl durch Ergebnisvergleiche zu unternehmensexternen Alternativen als auch zwischen unternehmensinternen Absatzorganen erzeugt werden, sofern hierfür die entsprechenden Voraussetzungen existieren.52 Der Erfolgsausweis basiert dabei auf den mit Verrechnungspreisen bewerteten, im Vorfeld determinierten Transaktionen zwischen Produktion und Absatz. Die tatsächlich realisierten Motivationseffekte hängen wesentlich von der Akzeptanz des Verrechnungspreises ab. Nur wenn er von beiden Akteuren als angemessen empfunden wird, sind die Voraussetzungen für eine tendenziell hohe Motivationseffizienz erfüllt.53 Die aufgrund hierarchischer Planung faktisch vorhandene Kompetenzbeschränkung hinsichtlich der durchzuführenden Transaktionen erschwert es jedoch, den Absatzorganen das Gefühl 50

Vgl. Benölken et al. (2005), S. 36 sowie die Erläuterungen in Abschnitt 3.1.

51

Vgl. zu diesem Zielkonflikt Cyert; March (1963), S. 40ff., Lawrence; Lorsch (1967), S. 37 sowie versicherungsspezifisch Farny (2006), S. 678.

52

Bspw. durch eine, entsprechende Vergleichbarkeit unterstellt, regionale Untergliederung der Gesamtheit der Absatzorgane.

53

Vgl. Kreisel (1995), S. 254. Eine Übersicht relevanter Verrechnungspreise geben u. a. Meissner (2000), S. 133ff. sowie Wagenhofer (2002), Sp. 2074ff.

Absatzorgane von Versicherungsunternehmen

309

eigenverantwortlich handelnder Intrapreneure54 zu verleihen und die hiermit verbundenen positiven Motivationswirkungen zu realisieren. Gelingt es jedoch, diese Gegebenheit zu verschleiern, indem man den unternehmensinternen Transaktionspartnern beispielsweise über die Etablierung aushandelbarer Verrechnungspreise die Beeinflussbarkeit der wesentlichen Erfolgskomponenten suggeriert, können trotz mangelnder Voraussetzungen positive Motivationseffekte generiert werden. Umschrieben wird ein solches Vorgehen auch mit der Herstellung einer Autonomie-Illusion.55 Zusammenfassend ist der Einsatz des fiktiven internen Markts als Steuerungsinstrument der unternehmenseigenen Absatzorgane als kritisch zu beurteilen. Aus der Perspektive der Koordinationsdimension hängt die Gestaltung des Sortiments nicht von der internen Nachfrage der Absatzorgane, sondern von der hierarchischen Planung ab. Eine explizite Marktorientierung der Produktlandschaft ist somit nicht gewährleistet. Ähnlich problematisch stellt sich diese institutionelle Regelung insofern auch unter Motivationsgesichtpunkten dar, als Motivationswirkungen nur auf der Basis einer illusorischen Autonomiesituation im Wege der Verschleierung weitgehender Autonomiebeschränkungen generiert werden können.

4.2 Unternehmenseigene Absatzorgane im realen internen Markt Nachdem die Implikationen des fiktiven internen Markts für die Steuerung der unternehmenseigenen Absatzorgane untersucht wurden, sollen nun die Konsequenzen des realen internen Markts aufgezeigt werden.56 a) Kundenorientiertes Produktangebot durch marktliche Ausgliederung Wie bereits bei den Ausführungen zu den fiktiven internen Märkten festgestellt wurde, betrifft die Intensivierung der Kundenorientierung überwiegend die Koordinationsdimension.57 Offen bleibt weiterhin die Frage, ob und in welcher Form die Absatzorgane aktiv auf das Produktangebot Einfluss nehmen können, um den Anforderungen informierter Kunden gerecht zu werden. Grundsätzlich sind auf realen internen Märkten die Akteure autonom hinsichtlich der Entscheidung über das Zustandekommen einer Transaktion. Bestimmt wird diese Entscheidung von den existierenden Verrechnungspreisen und der individuellen Nutzeneinschätzung hinsichtlich der angebotenen Produkte. Ist das Produktangebot nicht mit den Ansprüchen der Absatzorgane bezüglich der Qualität für den Kunden und der eigenen Verdienstmöglichkeiten vereinbar, so kommt die angestrebte Transaktion nicht zustande. Welchen Wert diese Entscheidungsautonomie tatsächlich impliziert, entscheidet die Ausgestaltung des hierarchischen Systems.58 54

Zum Begriff des Intrapreneures vgl. Pinchot (1986).

55

Vgl. Frese; Glaser (1980), S. 122.

56

Die Aussagen gelten im gleichen Umfang für die unternehmensgebundenen Absatzorgane, die bereits als externe Hybride charakterisiert wurden. Die stark hierarchisch geprägte Ausschließlichkeitsvereinbarung schließt alles andere als eine Steuerung über reale interne Märkte aus; vgl. Abschnitt 3.2.

57

Vgl. Abschnitt 2.3.

58

Vgl. hierzu und zum Folgenden auch Lange (1995), S. 80ff., der in diesem Zusammenhang (planbasierte) direkte und (anreizorientierte) indirekte Instrumente der Koordination unterscheidet.

310

H. Meissner und S. Kwasniok

Finden sich auf einem realen internen Markt stark planbasierte Elemente wieder, rückt die eingeräumte Entscheidungsautonomie in den Hintergrund. Beispielhafte und weitverbreitete Instrumente dieser Plansteuerung sind Geschäftsplanausschreibungen bezogen auf Produkte oder Sparten. Die Absatzorgane erhalten erst nach Verkauf einer hierarchisch vorgegebenen Stückzahl oder der Zuführung eines vorgegebenen Beitragsvolumens eine zusätzlich zu den Provisionen ausgezahlte Bonifikation.59 So kann das Versicherungsunternehmen zwar eine Vertriebsplanung hinsichtlich besonders rentabler Produkte vornehmen, auf dieser Grundlage jedoch nicht von der Umsetzung einer Marktsteuerung im eigentlichen Sinne sprechen. Die Absatzorgane können dann entsprechend ihrem Kompetenzrahmen freilich über das Zustandekommen der Transaktionen entscheiden. Alternativen, die im Fall der Ablehnung die Erreichung der Planvorgaben kompensieren und damit zur Nutzung des mit den Bonifikationen verbundenen Ertragspotentials führen, bestehen jedoch nicht. Insofern finden sich mit Blick auf die Wirkung der hier eingeräumten Entscheidungsspielräume bei einer solchen institutionellen Regelung wieder Elemente einer Autonomie-Illusion. Absatzorgane sehen sich auf solch einem realen internen Markt dem permanenten Spannungsfeld gegenüber, entweder die internen Planvorgaben zu erfüllen oder den absatzmarktbezogenen Produktanforderungen der Kunden gerecht zu werden, wobei Letzterem allein durch die Ablehnung einer Transaktion, nicht jedoch durch eine das Handlungsspektrum erweiternde Beeinflussung des Produktangebots im Sinne des Kundeninteresses Rechnung getragen werden kann. Verzichtet die Unternehmensleitung bei der Gestaltung eines realen internen Markts weitgehend auf die beschriebenen restriktiven Planelemente, so ergeben sich verbesserte Voraussetzungen für eine intensivere Marktsteuerung der Absatzorgane. Der hierarchisch vorgegebene Geschäftsplan beinhaltet dann beispielsweise lediglich Angaben über einen zu erfüllenden Gesamtumsatz, ohne dabei nach Sparten oder Produkten zu differenzieren. Auf diese Weise können die Absatzorgane diejenigen internen Produkte nachfragen, die im Interesse des Kunden liegen und mit unternehmensexternen Versicherungsprodukten konkurrenzfähig sind. Spartenspezifische Produkteinheiten, deren Versicherungsprodukte nicht nachgefragt werden, sind angehalten, sich im Sinne der Wettbewerbsfähigkeit zu verbessern. Andernfalls droht ihnen langfristig die Substitution durch den externen Markt. Für die Absatzorgane besteht über die Ausübung ihrer Entscheidungsautonomie so die Möglichkeit, mittelbar auf das interne Produktangebot Einfluss zu nehmen. b) Konfrontation mit marktlichen Alternativen Die bereits festgestellten Motivationseffekte des fiktiven internen Markts lassen sich weitgehend auf den realen internen Markt übertragen. Mit zunehmender Reduzierung hierarchisch geprägter Steuerungselemente verbessern sich beim internen realen Markt die Voraussetzungen dafür, auf das fragwürdige Motivationskonzept nur mit Scheinautonomie verbundener Kompetenzzuweisungen verzichten zu können. Die beiden Akteure entscheiden frei, ob eine Transaktion zustande kommt. Indem die Absatzorgane frei über das Zustandekommen einer Transaktion entscheiden können und die planorientierten Anreizsysteme dabei uneingeschränkte Kompensationsmöglichkeiten für damit ggf. einhergehende, von den Absatzorganen beispielsweise mit Marktschwäche begründete Defizite beim Verkauf bestimmter Produkte zulassen, sind die Absatzorgane also entsprechend ihrer Transaktionsentscheidung für den individuellen Erfolgsausweis eigenverantwortlich. Eine Autonomie-Illusion muss in diesem Fall zumindest nicht in dem bisher beschriebenen Ausmaß inszeniert werden. 59

Vgl. Umhau (2003), S. 35 ff.

Absatzorgane von Versicherungsunternehmen

311

Neben der unmittelbaren Rückkopplung durch den Erfolgsausweis wirkt sich die eingeräumte Entscheidungsautonomie zusätzlich positiv auf die Motivationsdimension aus. Entsprechend der Vermeidung hierarchischer Elemente reduzieren sich für die Absatzorgane im Fall des Misserfolgs nun die Möglichkeiten, auf die hemmende Wirkung hierarchischer Vorgaben zu verweisen, was sich dann wiederum positiv auf eine den erbrachten Leistungen entsprechende Zuordenbarkeit von Erfolgen auswirkt.60 Sind die hierarchischen Planelemente auf dem realen internen Markt jedoch stark ausgeprägt, lassen sich Motivationswirkungen nur auf Basis einer in ihrer Stabilität vom Aufklärungsgrad der Absatzorgane abhängigen Autonomie-Illusion erzielen. Zusammenfassend kann festgehalten werden, dass beim weitgehenden Verzicht auf hierarchische Planung der reale interne Markt mit durchaus positiven Wirkungen auf die Koordinationsund Motivationsdimension verbunden ist. Die eingeräumte Entscheidungsautonomie der internen Marktteilnehmer ermöglicht es den Absatzorganen, durch die Ausübung eines Nachfragedrucks mittelbar auf das Produktangebot Einfluss zu nehmen und somit den Kundenanforderungen in höherem Maße gerecht zu werden. Insofern verbessern sich auch die Voraussetzungen für einen unternehmensinternen und -externen Marktvergleich in dem Maße, in dem die Absatzorgane bei der Ergebnisbeurteilung sich nicht auf solche hierarchischen Elemente berufen können, die sich ihrer Meinung nach negativ auf die Ergebniserzielung auswirken.

4.3 Unternehmenseigene Absatzorgane im Quasi-Markt Mit dem Quasi-Markt als stärkste marktorientierte Ausprägung der externen Hybride soll abschließend eine Steuerungsform für unternehmenseigene Absatzorgane präsentiert werden, die in der Praxis zwar diskutiert wird, Anwendung jedoch, wenn überhaupt, bisher nur ansatzweise findet. a) Kundenorientiertes Produktangebot durch marktliche Ausgliederung Die als Quasi-Markt gesteuerten Absatzorgane stellen die konsequenteste Form der Marktsteuerung unter dem Einfluss von Hierarchieelementen dar. Wie eingangs beschrieben, äußert sich dies vor allem durch den bei dieser Regelung möglichen Zugang zum externen Markt.61 Die Absatzorgane entscheiden daher nach Sondierung des vorliegenden Angebots darüber, ob sie Versicherungsprodukte von internen Einheiten oder über externe Anbieter beziehen.62 Mit der sich auf diese Weise eröffnenden Möglichkeit, auf ein breiteres, unternehmensunabhängiges Produktangebot zurückzugreifen, wird dem Absatzorgan der Umgang mit zunehmend informierten Kunden erleichtert. Die Transaktionen vollziehen sich somit auf einem realen Wettbewerbsbedingungen unterliegenden realen Markt. Ein Markt, mit dem ein gewisser Wettbewerb verbunden ist, wird also nicht mehr unternehmensintern simuliert, sondern findet weitgehend real statt. Kann ein Absatzorgan mit den intern angebotenen Versicherungsprodukten die Kundenanforderungen hinsichtlich des Preises oder des Deckungsumfangs nicht erfüllen, so fragt es ein passendes Produkt bei einem Konkurrenten auf dem externen Markt nach. Auf diese Weise gibt für eine defi60

Vgl. Graumann, Müller (2001b), S. 1481f.

61

Vgl. Abschnitt 2.3.

62

Vgl. hierzu auch Ebers; Gotsch (2006), S. 249.

312

H. Meissner und S. Kwasniok

nierbare Produktqualität die Informationsfunktion des Preises direkt Aufschluss über die Wettbewerbsfähigkeit der internen Produktionseinheit. Ferner können auf dieser Grundlage die Absatzorgane die Produktionseinheit hinsichtlich einer zu erhöhenden Wettbewerbsstärke ihrer Produkte unter Druck setzen. Insofern kann diesem vom Markt ausgehenden Informationsfluss ein fördernder Charakter für die Entwicklung neuer Produkte sowie kostengünstiger Verwaltungs- und Produktionsmethoden zugesprochen werden. Für die Missachtung dieser Signale drohen der Produkteinheit bzw. dem Versicherungsunternehmen als Ganzes dann kurzfristig Verluste und langfristig die Verdrängung aus dem Markt.63 Die Steuerung der Absatzorgane auf der Grundlage externer Hybride in Gestalt von QuasiMärkten ist in aller Regel mit der rechtlichen Verselbständigung der ursprünglich unternehmenseigenen Absatzeinheit verbunden.64 In diesem Rahmen bietet sich die saubere namentliche Trennung zwischen dem produzierenden Versicherungsunternehmen und seiner ausgegliederten Absatzorgane an, in der sich die Kompetenzabgrenzung klar dokumentiert. Andernfalls fällt es schwer, dem Kunden zu erklären, warum er von den Absatzorganen des Versicherers A ein Produkt des Versicherers B kaufen soll.65 Zudem erleichtert ein getrenntes Auftreten die Vermarktung der bei Kunden in aller Regel gern gesehenen Unabhängigkeit von einem bestimmten Versicherer. Die in der Unternehmenspraxis regelmäßig vorzufindende Beibehaltung hierarchischer Elemente lässt sich mit einem weiterhin existenten Kontroll- und daraus abgeleiteten Sicherheitsbedürfnis der Unternehmensleitung hinsichtlich der existenzsichernden Absatzfunktion begründen.66 Dabei ist zu berücksichtigen, dass die Planung eine untergeordnete Rolle spielen und daher eine geringe Komplexität aufweisen sollte. Neben der hieraus sich ergebenden größeren Akzeptanz der Planelemente bei den ausgegliederten Absatzorganen lässt sich hier auch mit institutionsökonomischen Aspekten argumentieren. Sollten die Kosten für die Planung den daraus generierten Nutzen übersteigen, ist die Wahl des Quasi-Markts ungeeignet. In diesem Fall bietet sich eine gänzliche Marktzuführung der Absatzorgane als bessere Alternative an.67 b) Konfrontation mit marktlichen Alternativen Die mit dem Quasi-Markt einhergehenden Motivationseffekte gehen weit über die der bisher beschriebenen Steuerungsformen hinaus. Von auf Marktdruck zurückzuführenden positiven Motivationswirkungen konnte bisher nur ausgegangen werden, wenn der Produkteinheit seitens der Unternehmensleitung glaubhaft gemacht werden konnte, im Fall der fortlaufenden Lieferung von dem Marktvergleich nicht standhaltenden Produkten über neue institutionelle Regelungen, die den Marktzugang ermöglichen, nachzudenken.68 Der Quasi-Markt bietet dagegen 63

Vgl. Tolksdorf (1994), S. 23f.

64

In der Praxis findet z. B. die Rechtsform der Aktiengesellschaft Anwendung; vgl. Allianz (2007), S. 94 sowie WWK (2007), S. 26.

65

Die zur WWK gehörenden 1:1 AG bietet sich hier als adäquates Praxisbeispiel an; vgl. zu dieser Problematik Nickel-Waninger (2005), S. 646.

66

Beispiele von Hierarchieelementen, die, wie dies für die in der Praxis realisierten Fälle zutrifft, sich auf eine Mehrheitsbeteiligung des Versicherungsunternehmens an den ausgegliederten und rechtlichen selbständigen Absatzeinheiten stützen, können beispielsweise Planvereinbarungen sein, an die besondere finanzielle Anreize gekoppelt sind.

67

Vgl. Schneider (1985), S. 1239.

68

Diese Suggestion dürfte vor allem bei solchen Produkteinheiten schwierig sein, die aufgrund ihres für die Wettbewerbsstellung des Unternehmens wichtigen Spezialwissens auf das Insourcing vertrauen können; vgl. Frese; Lehmann (2000), S. 217.

Absatzorgane von Versicherungsunternehmen

313

durch seine umfassendere Marktorientierung einen erheblich konsequenteren Sanktionierungsmechanismus, indem ineffizienten Akteuren eine Verschlechterung ihrer Einkommenssituation droht und sie in letzter Instanz aus dem Markt verdrängt werden. Insofern wird der den Marktgesetzen folgende Kampf um die Existenz Absatzorgane dazu verleiten, einerseits sich vermehrt mit der Wettbewerbsfähigkeit der eigenen Strukturen auseinanderzusetzen und andererseits den ihr entgegenwehenden „kalten Wind“ in Gestalt drohender marktlicher Selektionsprozesse an ihre Transaktionspartner weiterzuleiten.69 Existenzsicherndes Verhalten vollzieht sich bei den Produkteinheiten dann konsequenterweise durch ein umfassend auf die Nachfrage der Absatzorgane und somit auf die Kundenbedürfnisse ausgerichtetes Produktangebot. Die Alternative des Quasi-Markts stellt auf diese Weise das konsequenteste marktorientierte Steuerungsinstrument der Absatzorgane dar. Der Zugriff auf eine externe Produktauswahl impliziert dabei eine bewusste Marktorientierung des gesamten Versicherungsunternehmens, das sich mit Blick auf die eigene Wettbewerbsfähigkeit mit den absatzmarktbezogenen Informationen permanent auseinandersetzen muss. Analog zur Steuerung lässt sich der Quasi-Markt in seiner Konsequenz der Marktorientierung auch für die Motivationsdimension beschreiben. Sicherheitsfördernde Planfaktoren, beispielsweise in Gestalt von Bestandsübertragungen als ausgleichendes Element für mögliche, den Widrigkeiten des Markts unterliegende Erfolgsschwankungen, stehen aufgrund fehlender hierarchischer Durchgriffsmöglichkeiten, mit denen solche Transfers kontrolliert werden könnten, nahezu im Widerspruch zu dieser institutionellen Regelung.70 Insofern geht es – überspitzt formuliert – im täglichen Handeln immer auch um die eigene Existenz. Hinweise auf die Motivationsstärke des Quasi-Markts geben zudem auch die mit ihm verbundenen Vorteile in Gestalt der zugebilligten Entscheidungsautonomie und der darauf zurückzuführenden verbesserten Zurechenbarkeit von Erfolgsgrößen.

5

Zusammenfassung und Ausblick

Neuere technologische und gesellschaftliche Entwicklungen, darunter die Ausbreitung und Nutzung moderner Informationstechnologien, sind für viele Versicherungsunternehmen mit erheblichen Herausforderungen mit Blick auf die Erhaltung der Wettbewerbsfähigkeit ihrer Strukturen verbunden. Indem sich dem Kunden daraus die Möglichkeit ergibt, im Vorfeld ein gewisses Marktwissen über ein präferiertes Versicherungsprodukt aufzubauen, können Absatzeinheiten nicht mehr auf solche bestehenden Informationsvorteile vertrauen, die zuvor dazu geeignet waren, den Verkauf ihres Produktportfolios nach Maßgabe ihrer vielfach durch das Versicherungsunternehmen gesteuerten Präferenzen zu forcieren. Ausgehend von einem wesentlich höheren Kundenanspruch sind Versicherungsunternehmen in einem erheblich stärkeren Maße dazu gezwungen, die Überlebensfähigkeit ihrer Produkte im Wettbewerb permanent zu überprüfen.

69

Vgl. Theuvsen (2001), S. 40f.

70

So kann es nicht im Interesse des Unternehmens liegen, den Absatzeinheiten über Bestandzuweisungen eine Einkommensabsicherung zukommen zu lassen, ohne dabei auf solche, der Grundidee des QuasiMarkts allerdings widersprechende Hierarchieelemente zurückgreifen zu können, die den Verkauf der eigenen Produkte absichern.

314

H. Meissner und S. Kwasniok

Vor diesem Hintergrund wurden mit dem fiktiven und realen internen Markt sowie dem Quasi-Markt drei konkrete marktorientierte Steuerungsalternativen diskutiert. Sie unterscheiden sich dabei im Wesentlichen durch den Grad der Marktorientierung. Während auf dem fiktiven internen Markt lediglich Motivationsaspekte eine Rolle spielen, erweitert sich beim realen internen Markt sowie beim Quasi-Markt die Betrachtung auf hier stattfindende Koordinationswirkungen. Der Quasi-Markt stellt die Ausprägung mit der stärksten Marktorientierung dar, indem sowohl interne als auch externe Transaktionsbeziehungen zugelassen werden. Auf diese Weise sind nicht nur die Absatzeinheiten, sondern auch die internen Produktgeber dem Druck des Markts ausgesetzt. Die Produktgeber können sich bei einer solchen Regelung nicht mehr darauf verlassen, dass Mängel im Hinblick auf Kundenorientierung und Kosteneffizienz im Wege eines hierarchisch vollzogenen planorientierten Steuerungsdrucks auf die Absatzeinheiten ausgeglichen werden. Vielmehr werden bei konsequenter Umsetzung sowohl die Produktgeber als auch die Absatzeinheiten den marktlichen Selektionsprozessen überlassen. Die bisher auf die Realisierung von Quasi-Märkten hindeutenden Ansätze in der Unternehmenspraxis lassen eine vergleichsweise vorsichtige Annäherung an diese regelmäßig den betreffenden Unternehmen recht radikal erscheinende institutionelle Regelung erkennen. Inwieweit sich vor allem diejenigen Versicherungsunternehmen, die sich mit diesem Schritt sehr aktiv auseinandersetzen, in naher Zukunft weiter in die Richtung einer konsequenteren Umsetzung dieses Ansatzes heranwagen, wird sicherlich in der Beobachtung sehr spannend sein. Literatur AachenMünchener Versicherung AG (2007): Geschäftsbericht 2006. Allianz SE (2007): Geschäftsbericht 2006. Arrow, Kenneth J. (1985): The Economics of Agency. In: Pratt, Stanley, E. (Hrsg.): Principals and Agents. The Structure of Business. Boston, S. 37–51. Behrens, Stefan; Schmitz, Christopher (2005): Ein Bezugsrahmen für die Implementierung von IT-Outsourcing-Governance. In: HMD: Praxis der Wirtschaftsinformatik, Heft 245, S. 28–36. Benölken, Heinz; Gerber, Emma; Skudlik, Reinhard M. (2005): Versicherungsvertrieb im Wandel. Schlüsselfaktor: Kundenbeziehungsmanagement. Wiesbaden. Coase, Ronald H. (1937): The Nature of the Firm. In: Economica, 4. Jg., S. 386–405. Cyert, Richard M.; March, James G. (1963): A Behavorial Theory of the Firm. Englewood Cliffs N.J. Ebers, Mark; Gotsch, Wilfried (2006): Institutionsökonomische Theorie der Organisation. In: Kieser, Alfred; Ebers, Mark (Hrsg.): Organisationstheorien, 6. Auflage, S. 247–308. Farny, Dieter (2006): Versicherungsbetriebslehre. 4. Auflage, Karlsruhe. Frese, Erich (1999): Unternehmensinterne Märkte – unter besonderer Berücksichtigung des Prozeßverbundes in Großunternehmungen. In: WiSt, 28. Jg., S. 218–222. Frese, Erich (2005): Grundlagen der Organisation. Entscheidungsorientiertes Konzept der Organisationsgestaltung. 9. Auflage, Wiesbaden. Frese, Erich; Glaser, Horst (1980): Verrechnungspreise in Spartenorganisationen. In: DBW, 40. Jg., S. 109–123. Frese, Erich; Lehmann, Patrick (2000): Outsourcing und Insourcing. Organisationsmanagement zwischen Markt und Hierarchie. In: Frese, Erich (Hrsg.): Organisationsmanagement. Neuorientierung der Organisationsarbeit. Stuttgart, S. 199–238. Frese, Erich; von Werder, Axel (1994): Organisation als strategischer Wettbewerbsfaktor. Organisationstheoretische Analyse gegenwärtiger Umstrukturierungen. In: Frese, Erich; Maly, Werner (Hrsg.): Organi-

Absatzorgane von Versicherungsunternehmen

315

sationsstrategien zur Sicherung der Wettbewerbsfähigkeit. Lösungen deutscher Unternehmungen – ZfbfSonderheft 33. Düsseldorf u. a., S. 1–27. Frost, Jetta (2005): Märkte in Unternehmen. Organisatorische Steuerung und Theorien der Firma. Wiesbaden. Graumann, Matthias; Müller, Silke (2001a): Organisatorische Steuerung des Kumulcontrollings (I). In: Versicherungswirtschaft, 56. Jg., S. 1362–1366. Graumann, Matthias; Müller, Silke (2001b): Organisatorische Steuerung des Kumulcontrollings (II). In: Versicherungswirtschaft, 56. Jg., S. 1480–1484. Graumann, Matthias; Wellhöfer, Alexander (2002): E-Insurance und die Organisation von Versicherungsunternehmen. In: WiSu, 31. Jg., S. 682–688. Gümbel, Rudolf; Stadler, Daniela (1988): Absatztheorie und Theorie der Verfügungsrechte. In: Budäus, Dietrich; Gerum, Elmar; Zimmermann, Gebhard (Hrsg.): Betriebswirtschaftslehre und Theorie der Verfügungsrechte. Wiesbaden, S. 171–195. Handelsgesetzbuch (HGB): Ausfertigungsdatum: 10. 05. 1897, zuletzt geändert am 16. 7. 2007. Hennart, Jean-Francois (1993): Explaining the Swollen Middle: Why most Transaction are a Mix of “Market” and “Hierarchy”. In: Organization Science, 4. Jg., S. 529–547. Hodgson, Geoffrey M. (2002): The Legal Nature of the Firm and the Myth of the Firm-Market Hybrid. In: International Journal of the Economics of Business, 9. Jg., S. 37–60. Holtrop, Thomas; Döpfner, Mathias; Wirtz, Bernd W. (2004): Deutschland-Online. Entwicklungsperspektiven der Medien- und Internetmärkte. 2. Auflage, Wiesbaden. Horsch, Andreas (2004): Agency und Versicherungsintermediation. In: WiSt, 33. Jg., S. 531–536. Horváth & Partners GmbH (2007): Fokusstudie Versicherungen – Vertriebssteuerung. Knospe, Jörg (2005): Stammvertriebe vor umwälzenden Veränderungen. In: Versicherungswirtschaft, 60. Jg., S. 1152–1155. Knospe, Jörg (2006): Der Stammvertrieb ist wahnsinnig ineffizient. In: Zeitschrift für Versicherungswesen, 57. Jg., S. 791–794. Koch, Jochen (2005): Markt und Organisation? – Eine Dekonstruktion. In: Schauenberg, Bernd; Schreyögg, Georg; Sydow, Jörg (Hrsg.): Managementforschung 15 – Institutionsökonomik als Managementlehre? Wiesbaden, S. 185–227. Kräkel, Matthias (2007): Organisation und Management. 3. Auflage, Tübingen. Kreisel, Henning (1995): Zentralbereiche. Formen, Effizienz und Integration. Wiesbaden. Lange, Wilfried (1995): Verteiltes Vertriebscontrolling in Versicherungsunternehmen. Karlsruhe. Lawrence, Paul R.; Lorsch, Jay W. (1967): Organization and Environment. Managing Differentiation and Integration. Boston. Meissner, Hans (2000): Center-Konzepte. Ein integrierter theoretischer Bezugsrahmen. Wiesbaden. Milgrom, Paul; Roberts, John (1992): Economics, organization and management, Englewood Cliffs et al. Nickel-Warninger, Hartmut (2005): Vertriebsausgliederung: Wem gehört die Marke und wem der Vertrieb? In: Zeitschrift für Versicherungswesen, 56. Jg., S. 644–647. Nooteboom, Bart (2000): Learning and Innovation in Organizations and Economies. Oxford. Picot, Arnold (1982): Transaktionskostenansatz in der Organisationstheorie: Stand der Diskussion und Aussagewert. In: DBW, 42. Jg., S. 267– 284. Picot, Arnold; Heger, Dominik K. (2001): Handel in der Internet-Ökonomie. Entbündelung von Wertschöpfungsstufen des Handels. In: ZfO, 70. Jg., S. 128–134. Picot, Arnold; Michaelis, Elke (1984): Verteilung von Verfügungsrechten in Großunternehmungen und Unternehmensverfassung. In: ZfB, 54. Jg., S. 252–272.

316

H. Meissner und S. Kwasniok

Pinchot, Gifford (1986): Intrapreneuring. Why you don’t have to leave the corporation to become an entrepreneur. New York et al. Psychonomics AG (2007): Versicherungsvertrieb der Zukunft: Qualitative und quantitative Akzeptanzuntersuchung im Privatkundenmarkt. Robinson, Joan (1950): The Economics of imperfect Competition. London. Nachdruck der Erstauflage von 1933. Schmalenbach, Eugen (1908/09): Über Verrechnungspreise. In: Zeitschrift für handelswissenschaftliche Forschung, 3. Jg., S. 165–185. Schmalenbach, Eugen (1948): Pretiale Wirtschaftslenkung. Band 2: Pretiale Lenkung des Betriebes. Bremen. Schneider, Dieter (1985): Die Unhaltbarkeit des Transaktionskostenansatzes für die „Markt oder Unternehmen“-Diskussion. In: ZfB, 55. Jg., S. 1237–1254. Schreyögg, Georg (2003): Organisation. Grundlagen moderner Organisationsgestaltung. 4. Auflage, Wiesbaden. Simon-Kucher & Partners (2007): Erfolgsfaktor Pricing: Strategisch erkannt, operativ noch zu schwach. Staubach, Stefan (2005): Effektiver Einsatz von Verrechnungspreisen. Eine Untersuchung aus organisationstheoretischer Sicht. München u. a. Theuvsen, Ludwig (2001): Ergebnis- und Marktsteuerung öffentlicher Unternehmen. Eine Analyse aus organisationstheoretischer Sicht, Stuttgart. Tolksdorf, Michael (1994): Dynamischer Wettbewerb. Eine Einführung in die Grundlagen der deutschen und internationalen Wettbewerbspolitik, Wiesbaden. Umhau, Gerd (2003): Vergütungsysteme für die Versicherungsvermittlung im Wandel, Karlsruhe. Varian, Hal R. (1985): Mikroökonomie, 2. Auflage, München u. a. von Werder, Axel (1999): Effizienzbewertung organisatorischer Strukturen. In: WiSt, 28. Jg., S. 412–417. Wagenhofer, Alfred (2002): Verrechnungspreise. In: Küpper, Hans-Ulrich; Wagenhofer, Alfred (Hrsg.): Handwörterbuch Unternehmensrechung und Controlling (HWU). 4. Auflage, Stuttgart, Sp. 2074–2083. Wenger, Ekkehard; Terberger, Eva (1988): Die Beziehung zwischen Agent und Prinzipal als Baustein einer ökonomischen Theorie der Organisation. In: WiSt, 17. Jg., S. 506–514. Williamson, Oliver E. (1985): The Economic Institutions of Capitalism. Firm, Markets, Relational Contracting. New York. Williamson, Oliver E. (1991): Comparative Economic Organization: The Analysis of Discrete Structural Alternatives. In: Administrative Science Quarterly, 36. Jg., S. 269–296. Williamson, Oliver E. (1999): Strategy Research: Governance and Competence Perspectives. In: Strategic Management Journal, 20. Jg., S. 1087–1108. WWK Versicherungen (2007): Geschäftsbericht. Zenger, Todd R. (2002): Crafting Internal Hybrids: Complementarities, Common Change Initiatives, and the Team-Based Organization. In: International Journal of the Economics of Business, 9. Jg., S. 79–95. Zenger, Todd R.; Hesterly, William S. (1997): The Disaggregation of Corporations: Selective Intervention, High-powered Incentives, and Molecular Units. In: Organization Science, 8. Jg., 209–222.

Konzepte zur Industrialisierung der Rechnungswesenprozesse dargestellt am Beispiel der Fraport AG Guido Kaupe und Ruth Evers

1

Notwendigkeit der Industrialisierung von Rechnungswesenprozessen

Die Luftfahrtindustrie durchläuft zur Zeit tiefgreifende Strukturänderungen. Haupteinflussfaktoren sind dabei die gestiegene Nachfrage nach Low-Cost-Flugleistungen, die Entwicklung von Großraum-Flugzeugen (A380), eine Verdichtung des Wettbewerbs der Fluggesellschaften durch Insolvenzen und Übernahmen1, die Veränderung der Streckennetze der Fluggesellschaften durch die Steigerung der Direktverbindungen sowie die Erschließung neuer und schnell wachsender Märkte in Osteuropa, den arabischen Ländern und Asien. Des Weiteren erhöhen die gesteigerten Sicherheitsanforderungen des Gesetzgebers, der Verfall der Gewinnmargen der Luftverkehrsgesellschaften aufgrund sinkender Flugpreise bei stetig steigenden Kerosinpreisen sowie neue Wettbewerber, wie alternative Flughafen-Drehkreuze, den Kosten- und Wettbewerbsdruck auf die etablierten Flughafen-Dienstleister. Um die Wettbewerbsfähigkeit ihrer Organisation zu sichern und weiter auszubauen, steht die Steigerung der Effizienz und Effektivität der betrieblichen Prozesse und Abläufe auch im Mittelpunkt der Anstrengungen der Flughafen-Betreiber. Nachdem zuerst die produzierenden bzw. direkt wertschöpfenden Prozesse im Rahmen der betrieblichen Maßnahmen zur Effizienz- und Effektivitätssteigerung fokussiert wurden, stehen nun auch vermehrt die administrativen Abläufe der Unternehmungen im Fokus der Analysen. Diese umfassen alle die Wertschöpfung unterstützenden Funktionen, wie z. B. das Personalwesen, den Einkauf sowie das Finanz- und Rechnungswesen. Zur Realisierung von Effizienz- und Effektivitätspotenzialen werden häufig auch Konzepte aus dem Produktionsbereich adaptiert herangezogen, weshalb diese Vorgehensweise in der einschlägigen Literatur auch als „Industrialisierung des Rechnungswesens“ bezeichnet wird.2 Da1

In der nahen Vergangenheit hat die Deutsche Lufthansa u.a. durch die Übernahme der Swiss International Air Lines AG ihre Marktposition im internationalen Flag-Carrier-Segment deutlich gestärkt. Aktuell verhandelt die Deutsche Lufthansa mit TUI Travel über die Fusion von Tuifly (Hapag Lloyd und Hapag Lloyd Express), Germanwings und Eurowings. Mit der Verschmelzung dieser Gesellschaften über eine eigenständige Holding wird das Ziel verfolgt, neben der Fluggesellschaft Air Berlin einen großen nationalen Wettbewerber im nationalen Low-Cost-Segment zu etablieren. Nicht zuletzt durch diesen Konzentrationsprozess wird der Kostendruck auf die Airline-Dienstleister – also auch die Airports – weiter zunehmen.

2

Vgl. hierzu Frettlöhr, S: Industrialisierung der betrieblichen Verwaltungsfunktionen – Offshoring – Phänomen mit Halbwertszeit? München 2006, http://www.atkearney.de/content/servicekompetenz/servicekompetenz_knowhow.php/practice/orgtransform, 23. 01. 2008 16.00 MEZ, S. 1.

318

G. Kaupe und R. Evers

bei wird im Rahmen dieser Diskussion unter Industrialisierung eine systematische Standardisierung und Automatisierung sowie generelle Optimierung der administrativen Prozesse verstanden.3 Die gedanklichen Eckpfeiler dieser Optimierung finden sich in der betriebswirtschaftlichen Dokumentation zur effizienten und effektiven Ausrichtung der Massenproduktion im Automobilbau sowie im Lean Management-Konzept.4 Bei der Analyse administrativer Unternehmensfunktionen hinsichtlich ihres Potenzials für Effizienz- und Effektivitätssteigerungen kristallisieren sich fünf Hebel für eine Industrialisierung heraus: Ausrichtung der Organisation an Prozessen, Standardisierung, Automatisierung, Konsolidierung sowie das Shared Service Center-Konzept. Diese Instrumente können sowohl in einem Gesamtkonzept gleichzeitig als auch teilweise unabhängig voneinander angewendet werden, wobei dem effizienten Einsatz die Forderung eines kontinuierlichen Verbesserungsprozesses gemeinsam ist. Die organisatorische Ausrichtung des betrieblichen Rechnungswesens an den bereichsimmanenten Prozessen ist Voraussetzung für die Industrialisierung der administrativen Abläufe. Diese Gestaltungsform, im Gegensatz zur funktionalen Organisation, rückt den prozessualen, transaktionsorientierten Charakter des Rechnungswesens in den Vordergrund, trägt dabei in hohem Maße zur Reduktion von Schnittstellen bei und ist somit Grundlage für die weiteren Schritte der Industrialisierung. Die Standardisierung von betrieblichen Abläufen ist eine nächste Stufe zur Industrialisierung der administrativen Prozesse. Mittels standardisierter Prozesse wird die Anzahl der Transaktionen erhöht und in diesem Zuge werden Skaleneffekte (Economies of Scale)5 und damit einhergehend Effizienzpotenziale realisiert. Die Automatisierung als folgender Hebel forciert die Industrialisierung zusätzlich: der Einsatz von IT ermöglicht die Speicherung, Verarbeitung und Verifizierung von Massendaten und unterstützt ebenfalls – mit verringertem Personaleinsatz – die Erzielung von Skaleneffekten und Zeitvorteilen. Unter der Konsolidierung6 der administrativen Funktionen wird die Umkehrung aller dezentralisierenden Bestrebungen und somit die organisatorische Konzentration der Verwaltungsprozesse innerhalb der Unternehmung verstanden. Dieser folgt die Bildung von so genannten Shared Services (engl. für geteilte Dienstleistungen) in Unternehmen. Als ein Shared Service Center ist eine Organisationseinheit definiert, in welcher ausgewählte, aus anderen Einheiten 3

Zur Industrialisierung der administrativen Unternehmensfunktionen vgl. Franke, J.; König, W.; Weitzel, T.: Industrialisierung von Finanzprozessen – Herausforderungen, Chancen, Vorgehensmodell, in: Zeitschrift für Controlling & Management, 50. Jg., Sonderheft 2, 2006, S. 101 sowie Michel, U.: Shared Services als Organisationsform für das Controlling, in: Gleich, R.; Michel. U. (Hrsg.): Organisation des Controlling – Grundlagen, Praxisbeispiele und Perspektiven. Freiburg 2007, S. 273. 4 Für Erläuterungen zur Massenproduktion im Allgemeinen sowie speziell im Automotive-Bereich vgl. Duguay, C. R.; Landry, S.; Pasin, F.: From mass production to flexible/agile production, in: International Journal of Operations & Production Management, 17. Jg., Heft 12, 1997, S. 1183ff. und West, P.; Burnes, B.: Applying organizational learning: lessons from the automotive industry, in: International Journal of Operations & Production Management, 20. Jg., Heft 10, 2000, S. 1242ff. Für weitere Ausführungen bzgl. Lean Management vgl. Arnheiter, E. D.; Maleyeff, J.: The integration of lean management and Six Sigma, in: The TQM Magazine, 17. Jg., Heft 1, 2005, S. 9f. 5 Skaleneffekte werden erzielt, wenn bei der Leistungserbringung mit ansteigender Ausbringungsmenge die durchschnittlichen Produktionskosten sinken (vgl. hierzu Ross, S. A.; Westerfield, R. W. Jaffe, J.: Corporate Finance, 7. Auflage, New York 2005, S. 803 sowie Bratton, W. J.; Bennett, R. J.; Robson, P. J. A.: Critical mass and economies of scale in the supply of services by business support organizations, in: Journal of Services Marketing, 17. Jg., Heft 7, 2003, S. 733.). 6 Der Begriff Konsolidierung bzw. das Verb konsolidieren bedeuten in diesem Zusammenhang „etwas in seinem Bestand zu festigen bzw. zusammenzulegen“.

Industrialisierung der Rechnungswesenprozesse

319

ausgegliederte Verwaltungs- und Unterstützungsprozesse zusammengefasst werden. Das Service Center bietet diese Prozesse für einzelne oder auch für alle Unternehmens- und Konzerneinheiten als Dienstleistung an, welche sich damit die Leistungen des Service Centers teilen.7 Das Shared Service Center-Konzept ist ein moderner Ansatz, der die organisatorische Grundlage zur Industrialisierung der Rechnungswesenfunktionen in Unternehmen bildet. Die vorliegende Arbeit untersucht den Einsatz der fünf beschriebenen Instrumente allgemein am Beispiel der Finanz- und Rechnungswesenprozesse und wendet diese nachfolgend im Rahmen eines Praxisbeispiels auf das Rechnungswesen der Fraport AG an.

2

Industrialisierung unternehmensinterner Rechnungswesenprozesse

2.1 Standardisierung und Automatisierung von Dienstleistungsprozessen im Rechnungswesen Unternehmensinterne Dienstleistungsprozesse unterstützen administrativ das betriebliche Kerngeschäft und haben damit keine direkt wertschöpfende Funktion für die Unternehmung.8 Dabei ist eine Dienstleistung bzw. eine Serviceleistung als eine Leistung definiert, die an einer Person oder einem Objekt ohne die Transformation von Sachgütern erbracht wird. Dienstleistungen sind somit durch ihre Immaterialität, die Simultanität von Produktion und Konsum sowie die Integration eines externen Faktors – des Kunden – gekennzeichnet.9 Die Prozesse des Rechnungswesens werden als unternehmensinterne Dienstleistungen verstanden, die hoheitliche und serviceorientierte Funktionen und Tätigkeiten umfassen. Hoheitsfunktionen sind Aufgaben, die sich insbesondere durch eine hohe strategische Bedeutung der Leistung für die Unternehmung sowie eine starke Wissensintensität im Sinne von für die Leistungserstellung erforderlichem Know how auszeichnen, wie z. B. die Interpretation und Auslegung neuer IFRS-Regularien.10 Serviceorientierte Leistungen weisen vor allem einen repetitiven und transaktionsorientierten Charakter auf, wie bspw. die Tätigkeiten des Debitoren- und Kreditorenbereichs. Bei der Gestaltung der hoheitlichen Rechnungswesenaufgaben steht die Qualität der Leistungen im Mittelpunkt; bei der Durchführung der Servicefunktionen dominieren dagegen Zeit- und Kostenaspekte. In einer klassisch funktionalen Organisation des Rechnungswesens wird dieser Unterschiedlichkeit der Leistungen (Qualitäts- vs. Kosten- und Zeitorientierung) nicht Rechnung getragen, was zu einem Dilemma bei der wirtschaftlich-optimalen Ausrichtung und Steuerung der Rechnungswesenstrukturen führt. Um aber Effizienz- und 7

Vgl. Kagelmann, U.: Shared Services als alternative Organisationsform – Am Beispiel der Finanzfunktion im multinationalen Konzern, Wiesbaden 2001, S. 69.

8

Miller/Vollmann bezeichnen dieses Phänomen bereits 1985 als „The Hidden Factory“, da den administrativen Bereichen in aller Regel nur eine geringe kalkulatorische Beachtung geschenkt wird, diese jedoch gemessen an den Gesamtkosten eines Unternehmens zwischenzeitlich hohe Volumina generieren. Vgl. hierzu Miller, J. G.; Vollmann, T. E.: The Hidden Factory, in: Harvard Business Review, 63. Jg., 1985, S. 142–150 sowie Horváth, P; Mayer, R.: Prozesskostenrechnung – Der neue Weg zu mehr Kostentransparenz und wirkungsvolleren Unternehmensstrategien, in: Controlling, 1. Jg., Heft 4, 1989, S. 214–219.

9

Vgl. hierzu Bieger, T.: Dienstleistungs-Management, 2. Auflage, Bern 2000, S. 7 sowie Ramme, I.: Darstellung und Bedeutung von Dienstleistungen, in: Pepels, W. (Hrsg.): Betriebswirtschaft der Dienstleistungen – Handbuch für Studium und Praxis, Berlin 2003, S. 5.

10

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: Shared Service Centers – Neue Formen der Organisation und des Projektmanagements für interne Service Units, in: Controlling, 19. Jg., Heft 8/9, 2007, S. 478.

320

G. Kaupe und R. Evers

Effektivitätssteigerungen zu erzielen, ist es erforderlich, dass sich die Unterschiedlichkeit der Dienstleistungen auch in der organisatorischen Gestaltung des Rechnungswesens widerspiegelt. Ein erster Schritt zur Industrialisierung ist daher die Konzentration auf eine prozessuale Ausrichtung der Organisationsstrukturen. Exemplarisch lassen sich die administrativen Services am Prozess der finanziellen Wertschöpfungskette (Financial Chain) darstellen.11 Diese beginnt bereits vor der eigentlichen wertschöpfenden Leistungserstellung und umfasst aus debitorischer Sicht den unternehmensübergreifenden Handel von Gütern und Dienstleistungen bis hin zur Zahlung durch den Kunden.12 Das Modell der Financial Chain setzt sich aus zwei Bereichen zusammen, die durch die Leistungserfüllung, d. h. die Erbringung der Leistung für den Kunden, getrennt sind.13 Der Geschäftsprozess der Geschäftsanbahnung umfasst alle Hauptprozesse, die vor der Leistungserfüllung erforderlich sind, der Geschäftsprozess der Geschäftsabwicklung beinhaltet alle Hauptprozesse, die nach der Leistungserbringung erfolgen. Die einzelnen Hauptprozesse werden wiederum in Teilprozesse aufgegliedert.

Abbildung 1:

Theoretisches Modell der finanziellen Wertschöpfungskette14

Neben dem Prozess der Financial Chain gibt es im Finanz- und Rechnungswesen eines Unternehmens eine ganze Reihe anderer administrativer Prozesse, wie z. B. den Kreditorenbereich15, die Anlagenbuchhaltung sowie ausgewählte (Teil-)Bereiche der Kosten- und Ergebnisrechnung, der Bilanzierung, des Treasury und des Controllings. 11

Für detaillierte Informationen zu Effizienzsteigerungen in der Financial Chain der Fraport AG vgl. Kämer, J.; Kaupe, G.; Evers, R.: Performancesteigerung in der Financial Chain der Fraport AG, in: Zeitschrift für Controlling & Management, 50. Jg., Sonderheft 2, 2006, S. 56ff.

12

Vgl. Skiera, B.; Pfaff, D.: Financial Supply Chain Management: Wie Sie Ihren Cash-flow Cycle in den Griff bekommen!, in: Der Controlling-Berater, o. Jg., Heft 6, 2003, S. 50.

13

Vgl. Skiera, B.; König, W.; Gensler, S.; Weitzel, T.; Beimborn, D.; Blumenberg, S.; Franke, J.; Pfaff, D.: Financial Chain Management. Prozessanalyse, Effizienzpotenziale und Outsourcing, Norderstedt 2004, S. 17.

14

Darstellung in Anlehnung an Arkhipov, A. V.; Yong, A. Y. C.: „Show Me the Money“: How e-Business Will Transform the B-to-B Financial Process, Report, Aberdeen Group, Inc., Boston, Massachusetts 2001, S. 9 sowie Skiera, B.; König, W.; Gensler, S.; Weitzel, T.; Beimborn, D.; Blumenberg, S.; Franke, J.; Pfaff, D.: Financial Chain Management. Prozessanalyse, Effizienzpotenziale und Outsourcing, a. a. O., S. 18.

15

Der Prozess des Kreditorenbereichs ist ein Teilprozess des gesamten Bestell- und Beschaffungsprozesses. Aufgabe dieses Teilprozesses ist es, nach dem Rechnungseingang eine an den Grundsätzen ordnungsgemäßer Buchführung orientierte Rechnungsprüfung zu gewährleisten. D. h., der Kreditorenbuchhalter stellt sicher, dass eine am 4-Augen-Prinzip orientierte Rechnungsprüfung erfolgt, Wertgrenzen zur Rechnungsprüfung eingehalten werden und eine Prüfung in Abhängigkeit zur Bestellung und Leistungserfüllung erfolgt. Erst nach dieser erfolgreichen Prüfung wird die eingegangene Rechnung zur Zahlung frei gegeben, die Rechnung gekürzt oder storniert.

Industrialisierung der Rechnungswesenprozesse

321

Die Durchführung von Standardisierungs- und Automatisierungsmaßnahmen ist ein weiterer Schritt zur Industrialisierung der Rechnungswesenprozesse. Übergeordnetes Ziel ist hierbei, die Prozesskosten und die Prozessdurchlaufzeit bei gleichzeitiger Sicherstellung der vorgegebenen bzw. definierten Qualität zu reduzieren, was sich insbesondere bei transaktionsorientierten Prozessen realisieren lässt.16 Der Hebel Standardisierung setzt an der Vereinheitlichung der betrieblichen Abläufe an, um Ineffektivitäten und Ineffizienzen zu beseitigen. Mit einer Prozessdurchführung nach fest definierten Vorgaben wird die prozessinhärente Komplexität reduziert. Aufgrund der konstanten Struktur der Abläufe werden gleichzeitig die Durchlaufzeit sowie die Fehlerquote der Prozesse gesenkt, woraus sich eine Reduktion der Prozesskosten ergibt. So reduzieren unternehmensbzw. konzernweit einheitliche Strukturen der systemischen Rechnungswesenobjekte, wie Kostenarten, Kostenstellen und Profit Center, den Pflegeaufwand im Rechnungswesen. Die Automatisierung baut auf der Prozessstandardisierung auf. Im Mittelpunkt der Betrachtung steht hierbei die Erzielung von Verbesserungen bezüglich Effektivität und Effizienz der Prozessabläufe durch den Einsatz von IT- und Kommunikationssystemen. Mittels Nutzung technologischer Infrastrukturen, wie z. B. Workflow-Systeme sowie automatisierte Auswertungen im Business Warehouse-System (bspw. zur Prozessüberwachung), wird die effiziente Durchführung vorgegebener Prozesse unterstützt. Beide Hebel bewirken vor allem eine Erhöhung der Anzahl der ausgeführten Transaktionen sowie die damit einhergehende Realisierung von Skaleneffekten. Die dargestellten Instrumente der Industrialisierung Standardisierung und Automatisierung fokussieren unterschiedliche Ansatzpunkte, um Effizienz- und Effektivitätssteigerungen in den Rechnungswesenprozessen zu erzielen. Dabei werden organisatorische Gestaltungsaspekte von Serviceeinheiten weitgehend außer Acht gelassen. Um aber eine nachhaltige Wettbewerbsorientierung der administrativen Funktionen sicherzustellen, ist die Wahl einer immanent effizienzund effektivitätsorientierten Organisationsform unabdingbar.

2.2 Grenzen klassischer Organisationsformen Die traditionelle betriebswirtschaftliche Forschung hat sich in der Diskussion um eine effiziente Organisation und Steuerung unternehmensinterner Dienstleistungen vor allem mit den Vorund Nachteilen von Zentralisierungs- und Dezentralisierungsansätzen auseinandergesetzt.17 Die Kernpunkte der beiden Organisationsformen lassen sich wie folgt zusammenfassen. Im Rahmen der Dezentralisierung werden Aufgaben organisatorisch dezentral in den einzelnen Geschäftsbereichen der Unternehmung angeordnet. Eine dezentrale Leistungserbringung findet vor allem bei Prozessen statt, bei denen ein hoher Bedarf an Informationen aus einer dezentralen, meist operativen Unternehmenseinheit erforderlich ist.18 Die Vorteile der dezentra16

Zu weiteren Ausführungen bezüglich der Prozessqualität vgl. Seghezzi, H. D.: Integriertes Qualitätsmanagement, 2. Auflage, München 2003, S. 38ff.

17

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: Shared Service Centers – Neue Formen der Organisation und des Projektmanagements für interne Units, a. a. O., S. 473.

18

Vgl. Breuer, C.; Breuer, W.: Shared-Services in Unternehmensverbünden und Konzernen – Eine Analyse auf der Grundlage der Transaktionskostentheorie, in: Keuper, F.; Oecking, C. (Hrsg): Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern, Wiesbaden 2006, S. 111.

322

G. Kaupe und R. Evers

lisierten Gestaltung sind insbesondere die größere Nähe zum operativen Geschäft der Unternehmung und eine erhöhte Flexibilität bei Informationsänderungen. Ein Nachteil dieser Organisationsform ist allerdings die mehrfache Ausführung gleicher oder gleichartiger Dienstleistungsfunktionen innerhalb des Unternehmens. Durch die redundante Aufgabenwahrnehmung sinkt die Prozesseffizienz, wodurch die Kosten der Leistungserbringung steigen. Des Weiteren ist eine unternehmensweite Standardisierung dezentral ausgeführter Prozesse aufgrund der heterogenen Strukturen einzelner Unternehmenseinheiten nur rudimentär möglich.19 Bei der Zentralisierung werden die unternehmensinternen Dienstleistungsprozesse in der Unternehmenszentrale zusammengefasst und dort für alle Einheiten der Unternehmung gemeinsam und einheitlich ausgeführt. Ziel ist dabei, durch eine zentrale Ausführung von Prozessen Synergie- und Skaleneffekte zu erzielen. Doppelarbeiten im Unternehmen werden vermieden, Prozesse standardisiert und optimiert sowie durch die Aufgabenbündelung Kompetenzen aufgebaut.20 Nachteilig sind dagegen die geringe Markt- und Kundenorientierung, die verminderte Flexibilität sowie die erhöhte Distanz zum operativen Geschäft durch zentral organisierte Dienstleistungen.21 Die Konsolidierung zielt ebenfalls auf die Ausnutzung von Economies of Scale ab. Der Schwerpunkt liegt hier allerdings in der Zusammenführung von Services in einer Organisationseinheit im Unternehmen bzw. im Konzern; die Einheit muss dabei kein Bestandteil der Unternehmenszentrale sein, wodurch sich die Konsolidierung von der Zentralisierung unterscheidet. Zusammenfassend lässt sich konstatieren, dass eine Industrialisierung von Rechnungswesenprozessen in einer extrem ausgeprägten dezentralisierten Form gleichermaßen an die Grenzen möglicher Effizienzsteigerungspotenziale stößt wie das Gegenteil in Form einer unkontrolliert aufgeblähten zentralen Ausprägung. Gleichzeitig lassen diese Organisationsformen die strukturellen Unterschiede sowie die somit erforderliche differenzierte wirtschaftliche Ausrichtung und Steuerung der Rechnungswesenleistungen außer Acht. Vor diesem Hintergrund wird im Nachfolgenden ein moderner Ansatz der Bündelung unternehmensinterner Dienstleistungen diskutiert. Gegenstand der Diskussion ist die markt- und wettbewerbsorientierte Ausrichtung konzerninterner Support- bzw. Dienstleistungseinheiten.22

2.3 Shared Service Center – Konzerninternes Dienstleistungskonzept In der betriebswirtschaftlichen Lehre wird unter dem Konzept der Shared Services die Separierung von Verwaltungs- und Unterstützungsprozessen aus einzelnen Organisationseinheiten eines Unternehmens und die Übertragung dieser Prozesse auf ein Shared Service Center ver19

Vgl. Deimel, K.: Möglichkeiten und Grenzen des Wertmanagements durch Shared-Service-Center?, in: Keuper, F.; Oecking, C. (Hrsg): Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern, Wiesbaden 2006, S. 200.

20

Beispielsweise lassen sich durch eine zentrale Pflege von systemischen Stammdaten, wie Kundenstammdaten, deutliche Effizienzen heben. Einerseits reduziert sich hierdurch die Fehlerquote bei der Stammdatenpflege, andererseits wird der zeitliche Aufwand für die Durchführung der Tätigkeit vermindert.

21

Vgl. Deimel, K.: Möglichkeiten und Grenzen des Wertmanagements durch Shared-Service-Center?, a. a. O., S. 199.

22

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: Shared Service Centers – Neue Formen der Organisation und des Projektmanagements für interne Units, a. a. O., S. 473.

Industrialisierung der Rechnungswesenprozesse

323

standen. Dabei ist das Service Center eine separate Organisationseinheit, welche die nicht wertschöpfenden administrativen Prozesse als Dienstleistung für andere Einheiten der Unternehmung bzw. des Konzerns erbringt.23 Diese Leistungen stellen die Kernprozesse des Service Centers dar. Das Shared Services-Konzept ist eine Alternative zu den vorangehend vorgestellten klassischen Organisationsformen, wobei die Vorteile einer dezentralisierten und zentralisierten Organisation sowie Aspekte des Outsourcing administrativer Geschäftsprozesse miteinander verknüpft werden. Die bei singulärer Anwendung entstehenden unerwünschten und die Effizienz senkenden Nachteile werden hierbei weitgehend verhindert. Ziel des Konzeptes ist es, durch Konsolidierung und gemeinsame Nutzung von Ressourcen den Einsatz der Produktionseinsatzfaktoren zu optimieren. Aus Prozessoptimierungen folgen deutliche Produktivitätssteigerungen und führen infolgedessen zu Kostensenkungen je erbrachter Leistungseinheit. Des Weiteren wird in den Shared Service Centern Know how gebündelt, wodurch Kernkompetenzen bezüglich der Ausführung administrativer Prozesse aufgebaut werden. Somit wird eine effiziente und effektive Bereitstellung von Leistungen geschaffen.24 Zusammenfassend sind Shared Service Center insbesondere durch folgende Merkmale charakterisiert: • • • • • •

Inhärente Markt- und Kundenorientierung Selbständigkeit der Organisationseinheit Belieferung mehrerer anderer Unternehmenseinheiten mit Leistungen Aufbau von Kernkompetenzen und Wertschöpfungsorientierung Orientierung am unternehmensexternen Wettbewerb Transparenz der Preis-Leistungsgestaltung des Service Centers durch eindeutige Servicevereinbarungen (Service Level Agreements) • Prozessoptimierung mittels Standardisierung.25 Die Entscheidung bezüglich der Implementierung eines Shared Service Centers ist jeweils unternehmensindividuell zu treffen. Die Gestaltungsform jedes Service Centers hängt in hohem Maße von den Bedingungen der Unternehmung sowie des Wettbewerbsumfelds ab, in welchem die Organisation eingebettet ist. Generell sind aber bestimmte Voraussetzungen zu erfüllen, damit eine Steigerung in der Effizienz und Effektivität der in das Service Center integrierten Dienstleistungen erzielt wird. Hierbei wird im Wesentlichen zwischen wirtschaftlichkeitsbezogenen, managementbezogenen und aufgabenbezogenen Prämissen differenziert. Als wirtschaftlichkeitsbezogene Voraussetzung gilt die potenzielle Realisierung von kosten- und nutzenbezogenen Vorteilen. Dabei handelt es sich insbesondere um Skaleneffekte sowie um Spezialisierungs- und Wissensvorteile, die mit der Erbringung von Dienstleistungen 23

Vgl. Kagelmann, U.: Shared Services als alternative Organisationsform – Am Beispiel der Finanzfunktion im multinationalen Konzern, a. a. O., S. 69. Zur begrifflichen Abgrenzung und Ausgestaltungsformen von Shared Service Centern vgl. auch Fischer, T. M.; Sterzenbach, S.: Shared Service Center-Controlling – Ergebnisse einer empirischen Studie in deutschen Unternehmen, in: Controlling, 19. Jg., Heft 8/9, 2007, S. 463ff.

24

Vgl. hierzu Schulman, D. S.; Harmer, M. J.; Dunleavy, J. R.; Lusk, J. S.: Shared Services – Adding Value to the Business Units, New York 1999, S. 9f. sowie Deimel, K.: Möglichkeiten und Grenzen des Wertmanagements durch Shared-Service-Center?, a. a. O., S. 201.

25

Vgl. hierzu Michel, U.: Shared Services als Organisationsform für das Controlling, a. a. O., S. 274.

324

G. Kaupe und R. Evers

in einer separierten Organisationseinheit erreicht werden. Repetitive Aufgaben mit einem hohen Standardisierungsgrad, die in großer Anzahl ausgeführt werden, erzielen Economies of Scale.26 Durch die Know how-Bündelung und den Aufbau von Kernkompetenzen in einer Unternehmenseinheit werden Spezialisierungs- und Wissensvorteile bezüglich der Aufgabendurchführung erreicht. Bei der Übertragung von Dienstleistungsprozessen in eine andere Organisationsform ist zu beachten, dass die mit der erforderlichen Koordination der Transaktionen anfallenden Transaktionskosten nicht die aufgrund von Skaleneffekten realisierten Kostenreduktionen übersteigen.27 Die managementbezogene Voraussetzung bezieht sich auf die erforderliche unternehmenspolitische Durchsetzung der Implementierung eines Shared Service Centers. Zur Bildung der Organisationseinheit sind die Akzeptanz und das langfristige Engagement des Managements der Unternehmung unabdingbar, da insbesondere größere Organisationsänderungen, wie die Abspaltung und Ausgliederung von Unternehmensbereichen, in der Regel erheblichen Widerstand der betroffenen Mitarbeiter hervorrufen.28 Im Rahmen der aufgabenbezogenen Voraussetzungen ist jede potenziell im Service Center auszuführende Dienstleistung zu charakterisieren und zu klassifizieren. Dies bedeutet, dass die Leistungen hinsichtlich der Bestimmungsfaktoren strategische Bedeutung, Spezifität, Standardisierbarkeit, inhärente Wissensintensität und Transferierbarkeit zu analysieren sind.29 Als potenzielle Dienstleistungen eines Shared Service Centers gelten Prozesse, die durch einen administrativen Charakter gekennzeichnet sind. Weisen diese Leistungen eine geringe strategische Bedeutung, Spezifität sowie Wissensintensität auf und sind zudem leicht zu standardisieren und in eine andere Organisationseinheit zu transferieren, so sind die aufgabenbezogenen Prämissen für die Integration dieser Dienstleistungen in ein Service Center erfüllt.30 Sind die wirtschaftlichkeitsbezogenen, managementbezogenen und aufgabenbezogenen Voraussetzungen für die Bildung eines Shared Service Centers erfüllt, ist in einem nächsten Schritt 26

Vgl. Bratton, W. J.; Bennett, R. J.; Robson, P. J. A.: Critical mass and economies of scale in the supply of services by business support organizations, a. a. O., S. 734.

27

Im Prozess der Financial Chain umfasst eine Transaktion die Prozesse der Anbahnung, Vereinbarung, Abwicklung, Kontrolle und Anpassung. Die bei einer Transaktion entstehenden Kosten hängen zum einen von den Charakteristika der zu erbringenden Leistungen und zum anderen von der gewählten Organisationsform ab. Ziel der Transaktionskostentheorie ist es, bei gegebenen Transaktionseigenschaften sowie Produktionskosten und -leistungen diejenige Organisationsform zu finden, bei welcher die Transaktionskosten minimiert sind (vgl. Picot, A; Reichwald, R.; Wigand, R.: Die grenzenlose Unternehmung, 5. Auflage, Wiesbaden 2003, S. 49.).

28

Vgl. Schulman, D. S.; Harmer, M. J.; Dunleavy, J. R.; Lusk, J. S.: Shared Services – Adding Value to the Business Units, a. a. O., S. 44ff.

29

Für weiterführende Erläuterungen bzgl. der Bestimmungsfaktoren der aufgabenbezogenen Voraussetzungen vgl. Picot, A; Reichwald, R.; Wigand, R.: Die grenzenlose Unternehmung, a. a. O., S. 50f. sowie Weber, J.; Neumann-Giesen, A.; Jung, S.: Steuerung interner Servicebereiche, Ein Praxisleitfaden, Advanced Controlling, Band 53, Weinheim 2006, S. 13f. sowie Martín-Pérez, N.-J.; Berger, M.: Organisation und Steuerung von internen Dienstleistungseinheiten in multinationalen Unternehmen, Stuttgart 2004, http://www.interman.uni-hohenheim.de/downloads-frei/discussion_papers/DiscussionPaper0401.pdf, 27. 11. 2007 11.00 MEZ, S. 17ff.

30

Vgl. Kagelmann, U.: Shared Services als alternative Organisationsform – Am Beispiel der Finanzfunktion im multinationalen Konzern, a. a. O., S. 88.

Industrialisierung der Rechnungswesenprozesse

325

die Gestaltungsform der Organisationseinheit zu definieren. Dabei sind für ein Service Center verschiedene Ausprägungen hinsichtlich der Fragestellungen, welche Dienstleistungen für welche Kunden erbracht werden und welcher Standort für die Serviceeinheit gewählt wird, denkbar. Gleichzeitig stellen die unterschiedlichen Ausprägungstypen Entwicklungsstufen dar, die nach Schimak und Strobl31 idealtypisch durchlaufen werden.

Abbildung 2:

Gestaltungs- und Entwicklungsstufen eines Shared Service Center32

Das größte Problem administrativer Tätigkeiten im Rahmen einer dezentralisierten oder zentralisierten Variante besteht darin, dass hier sowohl Hoheits- als auch Servicefunktionen erbracht werden. Dadurch lassen sich Servicefunktionen nicht wirtschaftlich gestalten, da weder eine verursachungsgerechte Verrechnung der Leistung erfolgt, noch marktwirtschaftliche Potenziale zur Kostensenkung etabliert werden. Ohne eine Trennung dieser unterschiedlichen Funktionstypen lassen sich keine markt- und/oder wettbewerbskonformen Leistungen erbringen. Im ersten Entwicklungsstadium, dem Kostenorientierten Shared Service Center, steht daher die Trennung der administrativen Supportfunktionen nach Hoheits- und Servicefunktionen im Vordergrund. Hoheitliche Aufgaben, wie die Bilanz- und Steuerpolitik eines Unternehmens, sind Tätigkeiten, die direkt dem Top-Management unterstellt sind. Diese Aufgaben lassen sich aufgrund der strategischen Bedeutung nicht auf Shared Service Center übertragen. Dagegen werden im Unternehmens-Overhead Leistungen ausgeführt, die ihrem Charakter nach repetitiv und abgrenzbar sind und damit als Services erbracht werden. Hierzu zählen klassische Bereiche des Finanz- und Rechnungswesens, wie z. B. das Debitoren- oder Kreditorenmanagement. Diese hochstandardisierten Prozesse lassen sich zu Leistungszentren zusammenfassen und werden in dieser Phase ausschließlich unternehmensintern angeboten. Die Allokation der Kosten, die oftmals auch budgetiert sind, erfolgt i. d. R. über eine Kostenumlage.33 31

Vgl. Schimak, C.; Strobl, G.: Controlling in Shared Service Centern, in: Gleich, R; Möller, K.; Seidenschwarz, W.; Stoi, R. (Hrsg.): Controlling Fortschritte, München 2002, S. 281–301.

32

Schimak, C.; Strobl, G.: a. a. O., S. 284.

33

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: Shared Service Centers – Neue Formen der Organisation und des Projektmanagements für interne Units, a. a. O., S. 474–475.

326

G. Kaupe und R. Evers

In der zweiten Stufe handelt es sich um ein so genanntes Kundenorientiertes Shared Service Center. Hierbei erfolgt in Abstimmung mit dem internen Kunden die Definition des Leistungsumfangs und der -qualität. Die Fixierung dieser Informationen erfolgt in so genannten Service Level Agreements (SLAs). Interne Kunden haben bei dieser Shared Service CenterVariante Wahlfreiheit lediglich hinsichtlich der Höhe der abzunehmenden Leistungsmenge. Bereits in dieser Phase besteht idealtypisch die Möglichkeit, bestimmte Services extern zu beauftragen, sofern sich diese Leistungen damit wirtschaftlicher erbringen lassen. Die Auftragsund Kontrollkompetenz über die erbrachte Leistung bleibt in dieser Phase stets beim internen Dienstleister.34 In der folgenden dritten Entwicklungsstufe wird das Service Center als Marktfähiges Shared Service Center ausgerichtet. Hierzu gehört der Aufbau externer Geschäftsbeziehungen. Weiterer Kostendruck entsteht durch die Aufhebung des Kontrahierungszwangs. Dadurch sind interne Kunden nicht mehr verpflichtet, ihre Leistungen beim internen Dienstleister abzunehmen, sondern besitzen nun die Wahlfreiheit, die Serviceleistungen auch extern einkaufen. Der interne Dienstleister hat nur dann eine langfristige Existenzchance, wenn er seine homogenen Leistungen zu Marktpreisen verrechnet. Dieser Marktpreis lässt sich aus Benchmarks35 ableiten. Trotzdem wird die Hauptleistung für interne Kunden erbracht bzw. der Umsatz setzt sich überwiegend aus internen Erlösen zusammen.36 In der vierten und letzten Ausprägung wird von einem Wettbewerbsorientierten Shared Service Center gesprochen. Hierbei wird das Service Center in eine separate legale Einheit überführt. Das eigenständige Unternehmen agiert selbständig am Markt und akquiriert möglichst viele externe Kunden. Im Gegensatz zu den bisherigen Entwicklungsstufen steht bei dieser Shared Services-Variante die Gewinn- und Wertbeitragsorientierung als Unternehmensphilosophie im Vordergrund. Der hohe Anteil an externen Kunden kann nur dann realisiert werden, wenn die Leistung in entsprechender Qualität und Geschwindigkeit sowie zu niedrigen Preisen erbracht wird.37 Im Folgenden wird die Umsetzung der dargestellten Hebel zur Industrialisierung der Rechnungswesenprozesse am Beispiel der Fraport AG erläutert.

3

Industrialisierung der Rechnungswesenprozesse bei der Fraport AG

3.1 Standardisierung und Automatisierung der Rechnungswesenprozesse der Fraport AG Zur Realisierung von Effizienz- und Effektivitätspotenzialen der Rechnungswesenprozesse wurden bei der Fraport AG bereits unterschiedliche Maßnahmen zur Kostenreduktion und Wert34

Vgl. ebenda, S. 475.

35

Ein Benchmark stellt einen Vergleichs- bzw. Orientierungspunkt dar. Der Begriff Benchmarking bezeichnet einen Vorgang, bei dem eine Unternehmung die eigenen Prozesse, Systeme und Produkte mit denen anderer Unternehmen vergleicht, die höchste Leistungsstandards aufweisen. Ziel ist es, ein Verständnis für die „Best Practices“ zu erhalten und Verbesserungen in das eigene Unternehmen zu übernehmen (vgl. dazu Aaker, D. A.; Kumar, V.; Day, G. S.: Marketing Research, 6. Auflage, New York 1998, S. 721 sowie zur ausführlichen Darstellung Seghezzi, H. D.: Integriertes Qualitätsmanagement, a. a. O., S. 344ff.).

36

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: a. a. O., S. 475.

37

Vgl. Gerybadze, A.; Martín-Pérez, N.-J.: a. a. O., S. 475.

Industrialisierung der Rechnungswesenprozesse

327

schaffung durchgeführt. Ausgangspunkt dieser Industrialisierungsmaßnahmen war die prozessuale Ausrichtung der Rechnungswesenstrukturen. Im Zuge einer Prozessanalyse erfolgte zunächst die Definition der wesentlichen Geschäfts-, Haupt- und Teilprozesse im Rechnungswesen der Fraport AG. In einem nächsten Schritt wurden die Prozesskosten der definierten Prozesse mittels einer Prozesskostenrechnung38 ermittelt. So ist es möglich, die Vollkosten der einzelnen Prozesse, wie z. B. die Erstellung einer Faktura, mit entsprechenden Benchmarks zu vergleichen und damit monetäre Ineffizenzen in den Prozessen aufzuzeigen. Zur konkreten Veranschaulichung der Standardisierungs- und Automatisierungsmaßnahmen beziehen sich die nachfolgenden Beschreibungen auf den Geschäftsprozess Debitoren der Fraport AG.

Abbildung 3: Prozessstruktur des Zentralbereichs „Controlling, Finanzen, Rechnungswesen“ der Fraport AG

Gegenstand der Standardisierungs- und Automatisierungsbestrebungen im Debitorenbereich der Fraport AG sind insbesondere die transaktionsorientierten Prozesse des Debitorenbereichs. Eine weitgehende Standardisierung der Abläufe wurde vor allem mit einer detaillierten und durchgängigen Beschreibung aller Prozesse erreicht, die neben der Dokumentation und Definition auch Vorgaben zur Prozessdurchführung, wie Vorgaben zur Reklamationsbearbeitung, ent38

Für weiterführende Erläuterungen zur Prozesskostenrechnung vgl. Kaupe, G.; Mildenberger, U.: Von der Kostenrechnung zum Kostenmanagement. Traditionelle und moderne Methoden zur Kostenanalyse, 2. Auflage, Wiesbaden 1998, S. 191ff.

328

G. Kaupe und R. Evers

hält. Im Debitorenbereich wurde zusätzlich eine umfangreiche Debitoren-Richtlinie erstellt, welche die nachfolgend aufgeführten Aktivitäten fixiert: • Pflege von Kundenstammdaten jeder Geschäftsbeziehung • Management des Forderungsrisikos – Bonitätsprüfung – Kreditüberprüfung – Konkrete Maßnahmen • Reklamationsbearbeitung sowie • Verantwortlichkeiten im Debitorenmanagement.39 Mit der Festlegung aller debitorischen Aktivitäten in einer unternehmensweit gültigen Richtlinie wurden die Rahmenbedingungen zur Beseitigung von Ineffizienzen im debitorischen Prozess geschaffen. Dies wirkt sich zum einen in reduzierten Prozesskosten aus, was z. B. durch die Vermeidung einer redundanten Vorhaltung von Kundenstammdaten erzielt wird. Zum anderen beeinflusst ein zeitlich verringerter Prozessablauf auch die Days Sales Outstanding40 und wirkt sich damit positiv auf die gesamte Cash Cycle-Zeit41 sowie das Working Capital des Unternehmens aus. Des Weiteren wurden mit dem unternehmensweit einheitlichen ForderungsrisikoManagement die kundenindividuellen Kreditrisiken sowie das Volumen der Forderungsausfälle reduziert. Die Automatisierung der finanziellen Wertschöpfungskette ermöglicht es, weitere Potenziale zur Steigerung der Effektivität und Effizienz in den Rechnungswesenprozessen durch den verstärkten Einsatz von IT-Systemen zu heben. Die automatisierte Erstellung von Berichten unterstützt dabei die Steuerung der Teilprozesse der Financial Chain. Die im SAP Hauptsystem sowie im SAP Business Warehouse konzipierten Reports ermöglichen eine kennzahlengestützte Steuerung des Debitorenmanagements mit dem Ziel, das Forderungsausfallrisiko für die Fraport AG zu reduzieren. Mittels standardisierter Kennzahlenberichte wird die zeitnahe Beurteilung der kritischen Faktoren des Rechnungswesens, wie Mahn- und Zahldaten von Debitoren, ermöglicht. Die automatisierte Rechnungsstellung wird bei Fraport mit der Consolidator-Lösung IATA InvoiceWorks42, einer Branchenlösung für den Aviation-Sektor, umgesetzt. Hierbei ist zwischen Rechnungssteller und Rechnungsempfänger ein Intermediär (Consolidator) geschaltet, der vom rechnungsstellenden Unternehmen alle rechnungsrelevanten Daten erhält und diese in elektro39

Für weiterführende Erläuterungen vgl. Kämer, J.; Kaupe, G.; Evers, R.: Performancesteigerung in der Financial Chain der Fraport AG, a. a. O., S. 60ff.

40

Die Days Sales Outstanding (DSO) oder Außenstandstage dienen der Beurteilung des Zahlungsverhaltens der Kunden und messen die Anzahl der Tage zwischen dem Verkauf der erstellten Leistung und der Begleichung der Forderung mittels Zahlungseingang durch den Kunden. Diese Kennzahl ist damit maßgeblich für die Analyse und die Bewertung der Geschäftsabwicklung der finanziellen Wertschöpfungskette aus Sicht der Lieferanten verantwortlich (vgl. Kaen, F. R.: Corporate Finance, Oxford 1995, S. 734.).

41

Die Cash Cycle-Zeit drückt die Geschwindigkeit aus, in welcher ein Unternehmen die Geldabflüsse in Geldzuflüsse umwandelt und setzt sich aus der Periode der Lagerhaltung zuzüglich der Periode der Forderungen abzüglich der Periode der kurzfristigen Verbindlichkeiten zusammen (vgl. Ross, S. A.; Westerfield, R. W.; Jaffe, J.: Corporate Finance, a. a. O., S. 734f.).

42

Zu Details hinsichtlich Struktur und Nutzen von IATA InvoiceWorks vgl. IATA InvoiceWorks: http://www.iata.org/ps/financial_services/invoiceworks/index.htm, 25. 01. 2008 11.30 Uhr MEZ.

Industrialisierung der Rechnungswesenprozesse

Abbildung 4:

329

Kundenbericht aus dem SAP-System Business Warehouse

nischer Form dem Kunden präsentiert.43 Durch die elektronische Rechnungsstellung wurden in hohem Maße Ineffizienzen bezüglich der Prozesskosten (z. B. Einsparung der Versandkosten von Papierrechnungen) sowie der Prozessdurchlaufzeit (bspw. Einsparung der Versandzeit von Papierrechnungen) beseitigt. Insgesamt haben diese Maßnahmen dazu beigetragen, das Forderungsausfallrisiko deutlich zu senken und die Kennzahl Working Capital wesentlich zu verbessern. In gleicher Weise wie beim debitorischen Prozess wurden alle anderen Geschäfts-, Haupt- und Teilprozesse des FraportRechungswesens hinsichtlich Effizienz- und Effektivitätssteigerungspotenzialen analysiert. Abgeleitet aus Benchmarks konnte auf eine Best-in-Class-Struktur des Rechnungswesens hingearbeitet und die Leistung deutlich gesteigert werden.

3.2 Grenzen der Zentralisierung und Dezentralisierung der Rechnungswesenprozesse der Fraport AG Die Rechnungswesenprozesse der Fraport AG werden im Wesentlichen im Zentralbereich „Controlling, Finanzen, Rechnungswesen“ ausgeführt. Neben den klassischen Funktionen des Rechnungswesens mit Haupt- und Nebenbüchern sind in diesem Overhead-Bereich auch das Controlling sowie die Finanzierungsabteilung angeordnet. Diese Funktionen erbringen ihre Leistungen für die Fraport AG, wobei ausgewählte debitorische, kreditorische und sonstige buchhalterische Funktionen auch als Serviceleistungen für verschiedene Tochterunternehmen des Kon43

Vgl. hierzu Council for Electronic Billing and Payment, National Automated Clearing House Association: Business-to-Business EIPP: Presentment Models and Payment Options, Herndon 2001, http://cebp.nacha.org/documents/b2b-presentment-models.pdf, 08. 01. 2008 14.00 Uhr MEZ, S. 11. Zu den unterschiedlichen Gestaltungsmöglichkeiten der elektronischen Rechnungsstellung vgl. auch Kämer, J.; Kaupe, G.; Evers, R.: Performancesteigerung in der Financial Chain der Fraport AG, a. a. O., S. 62f.

330

G. Kaupe und R. Evers

zerns angeboten werden. Der Zentralbereich besitzt eine konzernweite Richtlinienkompetenz und ist gleichzeitig für die strategische Ausrichtung und Weiterentwicklung der Rechnungswesen-, Controlling- und Finanzierungsprozesse verantwortlich. Durch die Zentralisierung des Rechnungswesens wurden in hohem Maße Kernkompetenzen aufgebaut und deutliche Skaleneffekte bei den transaktionsorientierten Aktivitäten realisiert. Nachteilig erweist sich aber zum einen die geringe Markt- und Kundenorientierung des Bereichs gegenüber externen Dritten sowie eine fehlende Flexibilisierung der Leistungsgestaltung und -abnahme. Zum anderen besteht durch die Zentralisierung eine Distanz zwischen dem zentralen Rechnungswesen und den operativen Bereichen. Dies führt u. a. zu langen Informationswegen mit Schnittstellen, was sich bei kurzfristigen Informationsänderungen im operativen Geschäft nachteilig auf die effektive Leistungsdurchführung auswirkt. Des Weiteren werden die Prozesse der Fakturierung, der kreditorischen Rechnungsprüfung sowie der Kosten- und Ergebnisrechnung auch teilweise dezentral in den operativen Bereichen der Fraport AG ausgeführt. Gründe für die Dezentralisierung einzelner Rechnungswesenprozesse waren vor allem die Entlastung der Zentraleinheit sowie die verbesserte Informationsversorgung zwischen operativen und administrativen Prozessen in den Geschäftsbereichen der Fraport AG. Die Konsequenzen einer zusätzlich dezentralen Prozessdurchführung sind aber auch das Ausführen redundanter Tätigkeiten, damit verbundene höhere Prozesskosten infolge zusätzlich notwendiger Ressourcenausstattung sowie kostenintensiver Informationsaustausche zwischen dem dezentralen und zentralen Rechnungswesen. Insbesondere das Rationalisierungspotenzial transaktionaler Rechnungswesenprozesse wird in dieser Organisationsform nur rudimentär ausgeschöpft. Eine rein dezentral oder rein zentral ausgerichtete Struktur der Rechnungswesenprozesse kann vor diesem Hintergrund nicht zu einer pareto-optimalen Ausrichtung der Prozesse führen. Es ist daher zu prüfen, wie das Shared Service Center-Konzept einen Beitrag zur weitergehenden Industrialisierung des Rechnungswesens bei der Fraport AG führen kann.

3.3 Umsetzung des Shared Service Center-Konzeptes im Rechnungswesen der Fraport AG Wie dargestellt sind die Rechnungswesenprozesse der Fraport AG im Wesentlichen zentral organisiert. Die in der Zentraleinheit erbrachten Rechnungswesenleistungen werden zur Zeit mittels eines definierten prozentualen Schlüssels als Umlage auf die Segmente des Unternehmens verteilt. Hier wird durch sachgerechte Umlageschlüssel der Forderung Rechnung getragen, eine verursachungsgerechte Allokation der Kosten zu gewährleisten. Nur die Rechnungswesenleistungen für einige Tochterunternehmen, die durch die Mandantenbuchhaltung des Zentralbereichs erbracht werden, müssen nach einem festgelegten Satz stundenweise an die Tochtergesellschaften weiterverrechnet werden.44 Darüber hinaus besteht für die unternehmensinternen 44

Diese Verrechnung ist aufgrund der Leistungsbeziehung zwischen zwei legalen Einheiten gesetzlich vorgeschrieben. Eine Diskussion bezüglich der verursachungsgerechten Allokation konzernintern erbrachter Leistungen findet vor allem bei der Bestimmung der Konzernverrechnungspreise statt. Auch in diesem Bereich gibt es unterschiedliche Ansätze zur verursachungsgerechten Kalkulation von Verrechnungspreisen. Die Fraport AG hat sich dazu entschieden, die geplanten Stunden je Mandant bewertet zu den durchschnittlichen Vollkostensätzen je Mitarbeiter und Stunde zu verrechnen.

Industrialisierung der Rechnungswesenprozesse

331

Leistungsempfänger die Pflicht zur Abnahme der Services (Kontrahierungszwang), ohne die Möglichkeit, die Leistungsinhalte flexibel anzupassen. Um die Vorteile der zentralen und dezentralen Organisation von administrativen Prozessen zu verbinden, gleichzeitig die bestehenden Nachteile zu vermeiden sowie eine transparente und marktorientierte Gestaltung der Rechnungswesenservices zu erreichen, werden bei der Fraport AG zur Zeit die Auswirkungen einer Organisation des zentralen Rechnungswesens als unternehmens- und konzernweites Shared Service Center diskutiert. Die bereits dargestellten Industrialisierungsmaßnahmen haben dazu geführt, die existierenden Rechnungswesenprozesse der Fraport AG durch Standardisierung, Automatisierung und Konsolidierung effizient und effektiv auszurichten. Der Grad der erreichten Effizienz und Effektivität oder gar weitere Verbesserungspotenziale lassen sich in einem in sich geschlossenen System nur subjektiv beurteilen. Vor diesem Hintergrund sind zur Objektivierung der Serviceleistungen einige Aspekte aus den beschriebenen Gestaltungs- und Entwicklungsstufen eines Shared Service Center auf die Organisationsstruktur der Fraport AG zu übertragen. Unabhängig von der organisatorischen Zuordnung sind vor allem die folgenden Aspekte zu berücksichtigen: • • • • • •

Trennung von Hoheits- und Servicefunktionen Bündelung der Servicefunktionen Vollkostenrechnung für einzelne Services Definition des Leistungsumfangs und der -qualität durch den internen Kunden Verrechnung marktorientierter Kosten sowie Orientierung an Benchmarks.

Grundvoraussetzung einer markt- oder wettbewerbsorientierten Ausrichtung der administrativen Serviceleistungen ist die Trennung in Service- und Hoheitsfunktionen, da sich nur auf diese Weise die Kosten der reinen Serviceleistungen ohne die Kosten der meist strategisch ausgerichteten Hoheitsfunktionen kalkulieren lassen. Im Zuge der Konsolidierung der Dienstleistungen hat anschließend eine Bündelung der Services auf Konzernebene zu erfolgen. D. h., die standardisierten Leistungen sind konzernweit zu bündeln und zentral zu erbringen. Auf der Basis einer Vollkostenrechnung sind die jeweiligen Serviceleistungen zu kalkulieren, wobei darauf zu achten ist, dass sich die Definition der jeweiligen administrativen Leistungen an der Struktur der Leistungen externer Dienstleister orientiert. Nur so wird gewährleistet, dass sich die Kosten der konzernintern erbrachten Services mit den Preisen externer Dienstleistungsunternehmen vergleichen lassen. Hierzu ist es darüber hinaus erforderlich, dass die konzerninternen Kunden den Leistungsumfang und die -qualität der administrativen Services definieren. Diese Definitionen besitzen einen integrativen Einfluss auf die Erbringung der Serviceleistungen und haben eine direkte Auswirkung auf die Kostenverursachung einzelner Leistungen. Beim Benchmarking ist vor allem darauf zu achten, dass gleiche Service Levels zugrunde liegen, da ansonsten ein Vergleich mit den Leistungen externer Dritten zu unternehmerischen Fehlentscheidungen führen kann. Die Fraport AG setzt die beschriebenen Maßnahmen zur markt- bzw. wettbewerbsorientierten Ausrichtung der Rechnungswesenservices gegenwärtig um. Dabei erfolgt zum jetzigen Zeitpunkt keine Separierung in eine selbständige Organisationseinheit. Wichtig ist es in diesem Fall, die Kosten der jeweiligen Leistungen verursachungsgerecht zu ermitteln, um diese mit den Kosten unternehmensextern erbrachter Services zu vergleichen und an die Leistungsempfänger zu verrechnen. Im Gegensatz zu den beschriebenen Produktivitätssteigerungen aus Standardisierungs-,

332

G. Kaupe und R. Evers

Automatisierungs- und Konsolidierungssachverhalten erfolgen weitere Potenziale aus der partiellen Umsetzung des Shared Services-Ansatzes. Triebfeder ist dabei ein Philosophiewechsel in der Steuerung der administrativen Servicebereiche. Während die klassisch strukturierten Zentralfunktionen ihre Tätigkeiten auftragsorientiert und budgetiert erbringen, werden die Aufgaben in einen Servicecenter kundenorientiert erbracht. Die Definition der Leistung, die Leistungserbringung sowie die Leistungsverrechnung erfolgt in konkreter Abstimmung zwischen dem Leistungserbringer und -empfänger. Somit steht im Service Center die Kunden-Lieferanten-Beziehung im Mittelpunkt der betrieblichen Abläufe, nicht mehr die reine Sachorientierung. Diese marktorientierte Dienstleistungserstellung kann nur dann erfolgen, wenn eine Trennung zwischen Hoheits- und Servicefunktionen erfolgt und Rahmenbedingungen geschaffen werden, die es ermöglichen, das Geschäftsmodell eines Service-Dienstleisters zu implementieren. Deshalb wird die Fraport AG in sich abgegrenzte, virtuelle Servicebereiche schaffen, die den Charakter von Shared Service Center besitzen und eine markt- und wettbewerbsfähige Ausrichtung der Services ermöglichen. Hierbei handelt es sich um separate Abrechnungseinheiten, die eine verursachungsgerechte Kalkulation gewährleisten, jedoch nicht in eine aufbauorganisatorisch gesonderte Einheit überführt werden müssen. Mit der Implementierung von virtuellen Servicebereichen werden wesentliche Elemente des Shared Service Center-Konzeptes, wie definierte Produktstandards und Service Level Agreements, weitgehend etabliert, ohne aber tiefgreifende organisatorische Strukturänderungen und damit einhergehende Aufwendungen in Kauf nehmen zu müssen. Nach der Umsetzung eines virtuellen Service Centers im zentralen Rechnungswesen der Fraport AG wird dieses Dienstleistungskonzept auf weitere Servicefunktionen ausgeweitet und konzernweit erbracht.

4

Chancen und Grenzen der Industrialisierung

Das Rechnungswesen der Fraport AG wurde im Zuge von umfassenden Industrialisierungsmaßnahmen bereits seit dem Börsengang im Jahr 2001 durchgängig prozessorientiert, standardisiert und automatisiert ausgerichtet. Mittels einer detaillierten Prozessanalyse bezüglich bestehender Geschäfts-, Haupt- und Teilprozesse wurde die Transparenz in der Rechnungswesenorganisation deutlich erhöht; Doppelarbeiten und unnötige Schnittstellen wurden aufgezeigt. Die prozessuale Gestaltung des Rechnungswesens ermöglicht zusätzlich genaue Analysen hinsichtlich Kosten- und Zeitaspekten einzelner Prozesse und damit den Vergleich mit entsprechenden unternehmensexternen Dienstleistern. Auf Grundlage einer Prozesskostenanalyse wurden erste Ineffizienzen im Zentralbereich identifiziert und durch prozessuale Veränderungen eliminiert. Gleichzeitig erfolgte eine konsequente Standardisierung in den transaktionsorientierten Abläufen des zentralen Rechnungswesens. Von hoher Bedeutung ist hier vor allem die starke Einbindung der betroffenen Mitarbeiter sowie die kontinuierliche Verbesserung der Standardisierungsmaßnahmen. Diese Maßnahmen werden insbesondere durch einen umfangreichen Systemeinsatz unterstützt. Durch das Zusammenspiel von Standardisierung und Automatisierung der Rechnungswesenprozesse wurden wesentliche Effizienzsteigerungen erzielt. Im Rahmen des exemplarisch dargestellten Debitorenbereichs drückt sich dies insbesondere in verkürzten Bearbeitungszeiten aus, wie bspw. bei der Rechnungsstellung und der Reklamationsbearbeitung. Bei der Erhöhung des Automatisierungsgrades der Prozessabläufe ist allerdings zu beachten, dass die mit der Automatisierung entstehenden Kosten (z. B. Anschaffungskosten der ITLösung) durch die realisierten Effizienzsteigerungen gedeckt werden.

Industrialisierung der Rechnungswesenprozesse

333

Analog zu den beschriebenen Hebeln der Industrialisierung wird bei der Fraport AG nun eine durchgängige Konsolidierung der Rechnungswesenprozesse vorangetrieben. Dazu werden alle Rechnungswesenservices der AG im Zentralbereich gebündelt. Ziel hierbei ist es, durch die zentrale Aufgabenbündelung Skalen- und Synergieeffekte zu realisieren, Doppelarbeiten zu vermeiden und schließlich Effizienzpotenziale zu heben, wodurch die Rahmenbedingungen zu weiteren Senkungen der Prozesskosten – sowie eine Annäherung an entsprechende Benchmarks – im zentralen Rechnungswesen geschaffen werden. Zusätzlich wird die konzernweite Erbringung von Rechnungswesenleistungen deutlich ausgeweitet. Basierend auf definierten Service Level Agreements werden Shared Services für weitere Konzerngesellschaften des Fraport Konzerns erbracht, wodurch die konzernweite Industrialisierung des Rechnungswesens forciert wird. Zusammenfassend lässt sich feststellen, dass die dargestellten Konzepte einen hohen Beitrag zur Industrialisierung der betrieblichen Verwaltungsfunktionen leisten. Das Organisationskonzept der Shared Service Center verursacht dabei die tiefgreifendsten Veränderungen in bestehenden Strukturen und erfordert damit einhergehend im Vergleich zu den anderen Instrumenten der Industrialisierung i. d. R. auch den höchsten Umsetzungsaufwand. Aus diesem Grund hat sich die Fraport AG dazu entschieden, zunächst das Konzept der virtuellen Servicebereiche zu forcieren, wodurch Gestaltungselemente des Shared Service Center-Ansatzes bei relativ geringen organisatorischen Veränderungen umgesetzt werden. Mit der konsequenten Umsetzung dieser Stufen der Industrialisierung werden zukünftig weitere deutliche Effizienzund Effektivitätspotenziale im Rechnungswesen der Fraport AG realisiert werden. Das Prinzip der Massenproduktion, große Stückzahlen zu minimalen Kosten bei hoher Qualität zu erzielen, dient dabei als Wegweiser zu einer Accounting Factory. Literatur Aaker, D. A.; Kumar, V.; Day, G. S.: Marketing Research. 6. Auflage, New York 1998. Arkhipov, A. V.; Yong, A. Y. C.: „Show Me the Money“: How e-Business Will Transform the B-to-B Financial Process. Report, Aberdeen Group, Inc., Boston, Massachusetts 2001. Arnheiter, E. D.; Maleyeff, J.: The integration of lean management and Six Sigma. In: The TQM Magazine, 17. Jahrgang, Heft 1, 2005, S. 5–18. Bieger, T.: Dienstleistungs-Management, 2. Auflage, Bern 2000. Bratton, W. J.; Bennett, R. J.; Robson, P. J. A.: Critical mass and economies of scale in the supply of services by business support organizations. In: Journal of Services Marketing, 17. Jahrgang, Heft 7, 2003, S. 730–752. Breuer, C.; Breuer, W.: Shared-Services in Unternehmensverbünden und Konzernen – Eine Analyse auf der Grundlage der Transaktionskostentheorie. In: Keuper, F.; Oecking, C. (Hrsg): Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern. Wiesbaden 2006, S. 97–119. Council for Electronic Billing and Payment, National Automated Clearing House Association: Business-toBusiness EIPP: Presentment Models and Payment Options, Herndon 2001, http://cebp.nacha.org/documents/b2b-presentment-models.pdf, 08. 01. 2008 14.00 Uhr MEZ. Deimel, K.: Möglichkeiten und Grenzen des Wertmanagements durch Shared-Service-Center? In: Keuper, F.; Oecking, C. (Hrsg): Corporate Shared Services – Bereitstellung von Dienstleistungen im Konzern. Wiesbaden 2006, S. 195–223. Duguay, C. R.; Landry, S.; Pasin, F.: From mass production to flexible/agile production. In: International Journal of Operations & Production Management, 17. Jahrgang, Heft 12, 1997, S. 1183–1195.

334

G. Kaupe und R. Evers

Fischer, T. M.; Sterzenbach, S.: Shared Service Center-Controlling – Ergebnisse einer empirischen Studie in deutschen Unternehmen. In: Controlling, 19. Jahrgang, Heft 8/9, 2007, S. 463–472. Franke, J.; König, W.; Weitzel, T.: Industrialisierung von Finanzprozessen – Herausforderungen, Chancen, Vorgehensmodell. In: Zeitschrift für Controlling & Management, 50. Jahrgang, Sonderheft 2, 2006, S. 101–106. Frettlöhr, S: Industrialisierung der betrieblichen Verwaltungsfunktionen – Offshoring – Phänomen mit Halbwertszeit? München 2006, http://www.atkearney.de/content/servicekompetenz/servicekompetenz_ knowhow.php/practice/orgtransform, 23. 01. 2008 16.00 MEZ. Gerybadze, A.; Martín-Pérez, N.-J.: Shared Service Centers – Neue Formen der Organisation und des Projektmanagements für interne Units. In: Controlling, 19. Jahrgang, Heft 8/9, 2007, S. 473–481. Horváth, P.; Mayer, R.: Prozeßkostenrechnung – Der neue Weg zu mehr Kostentransparenz und wirkungsvolleren Unternehmensstrategien. In: Controlling, 1. Jahrgang, Heft 4, 1989, S. 214–219. IATA InvoiceWorks: http://www.iata.org/ps/financial_services/invoiceworks/index.htm, 25. 01. 2008 11.30 Uhr MEZ. Kaen, F. R.: Corporate Finance, Oxford 1995. Kämer, J.; Kaupe, G.; Evers, R.: Performancesteigerung in der Financial Chain der Fraport AG. In: Zeitschrift für Controlling & Management, 50. Jahrgang, Sonderheft 2, 2006, S. 56–65. Kagelmann, U.: Shared Services als alternative Organisationsform – Am Beispiel der Finanzfunktion im multinationalen Konzern. Wiesbaden 2001. Kaupe, G.; Mildenberger, U.: Von der Kostenrechnung zum Kostenmanagement. Traditionelle und moderne Methoden zur Kostenanalyse. 2. Auflage, Wiesbaden 1998. Martín-Pérez, N.-J.; Berger, M.: Organisation und Steuerung von internen Dienstleistungseinheiten in multinationalen Unternehmen, Stuttgart 2004, http://www.interman.uni-hohenheim.de/downloads-frei/discussion_papers/DiscussionPaper0401.pdf, 27. 11. 2007 11.00 MEZ. Michel, U.: Shared Services als Organisationsform für das Controlling. In: Gleich, R.; Michel. U. (Hrsg.): Organisation des Controlling – Grundlagen, Praxisbeispiele und Perspektiven, Freiburg 2007, S. 269–294. Miller, J. G.; Vollmann, T. E.: The Hidden Factory. In: Harvard Business Review, 63. Jahrgang, 1985, S. 142–150. Picot, A; Reichwald, R.; Wigand, R.: Die grenzenlose Unternehmung, 5. Auflage, Wiesbaden 2003. Ramme, I.: Darstellung und Bedeutung von Dienstleistungen. In: Pepels, W. (Hrsg.): Betriebswirtschaft der Dienstleistungen – Handbuch für Studium und Praxis, Berlin 2003, S. 3–22. Ross, S. A.; Westerfield, R. W.; Jaffe, J.: Corporate Finance. 7. Auflage, New York 2005. Schimak, C.; Strobl, G.: Controlling in Shared Service Centern. In: Gleich, R; Möller, K.; Seidenschwarz, W.; Stoi, R. (Hrsg.): Controlling Fortschritte, München 2002, S. 281–301. Schulman, D. S.; Harmer, M. J.; Dunleavy, J. R.; Lusk, J. S.: Shared Services – Adding Value to the Business Units. New York 1999. Seghezzi, H. D.: Integriertes Qualitätsmanagement. 2. Auflage, München 2003. Skiera, B.; Pfaff, D.: Financial Supply Chain Management: Wie Sie Ihren Cash-flow Cycle in den Griff bekommen! In: Der Controlling-Berater, ohne Jahrgang, Heft 6, 2003, S. 47–67. Skiera, B.; König, W.; Gensler, S.; Weitzel, T.; Beimborn, D.; Blumenberg, S.; Franke, J.; Pfaff, D.: Financial Chain Management. Prozessanalyse, Effizienzpotenziale und Outsourcing. Norderstedt 2004. Weber, J.; Neumann-Giesen, A.; Jung, S.: Steuerung interner Servicebereiche. Ein Praxisleitfaden. Advanced Controlling, Band 53, Weinheim 2006. West, P.; Burnes, B.: Applying organizational learning: lessons from the automotive industry. In: International Journal of Operations & Production Management, 20. Jahrgang, Heft 10, 2000, S. 1236–1251.

Branchenkultur und Netzwerke – eine komplexitätstheoretische Annäherung Thiemo Kohlsdorf

1 Unternehmen und Umwelt aus Komplexitätstheoretischer Sicht Unternehmen als ökonomisch handelnde Systeme sind eingebettet in übergeordnete Systeme mit denen sie in Interaktion stehen. Diese Austausch- und Einflussbeziehungen untereinander werden seit einiger Zeit als zunehmend komplex und dynamisch bezeichnet. Vor dem Hintergrund einer solchen Generalthese von Dynamisierung und Komplexitätszunahme innerhalb beliebiger Branchen, wie sie in zahlreichen Veröffentlichungen aus Forschung und Praxis postuliert wird,1 stellt sich die Frage, wie Unternehmen, als in ihre Umwelt eingebettete Systeme, dieser Entwicklung begegnen. Es rückt die Frage der Komplexitätsbewältigung durch Unternehmen in den Mittelpunkt. Von und in Unternehmen geteilte Konstrukte der Selbst- und Umweltwahrnehmung sollten dabei grundsätzlich in der Lage sein, kooperatives ökonomisches Handeln hinsichtlich seiner Komplexität und Dynamik zu reduzieren. Dabei steht allerdings zumeist die Betrachtung einer Netzwerkkultur als Akkulturationsprozess im Mittelpunkt. Die gezielte Betrachtung und Nutzung von Branchenkultur zum Zweck der Reduzierung der Komplexität bei der Koordination von Kooperationen innerhalb oder zwischen Branchen findet hingegen kaum Beachtung. Insbesondere aber bei einem Neueintritt von Unternehmen in eine Kooperation oder bei Branchenkonvergenzprozessen gewinnt eine solche Betrachtung vor dem Hintergrund einer komplexitätstheoretischen Argumentation deutlich an Interesse. Um sich dabei den populärwissenschaftlichen Postulaten zu entziehen, ist zunächst eine differenzierte Betrachtung des Komplexitätsbegriffes zwingend von Nöten. Unterscheiden lassen sich struktur- und verhaltensorientierte Ansätze.2 In den strukturorientierten Ansätzen ergibt sich Komplexität aus der Anzahl und Art der einzelnen Systemelemente, sowie ihrer Anzahl und Art der Beziehung untereinander. Augenfällig ist aber, dass einem solchen Verständnis eine dynamische Komponente fehlt. Komplexität ist Summe statischer Beziehungen von Elementen. Demgegenüber stellen verhaltenstheoretische Ansätze auf die Veränderung der Elemente und ihrer Beziehungen ab. Komplexität entsteht hier durch die Veränderung von Austauschbeziehungen. So können Veränderungen einzelner Elementen direkt 1

Vgl. Rasche, C.: Multifokales Management, Wiesbaden 2002, S. 46f.

2

Zelewski, S.: Komplexitätstheorie als Instrument zur Klassifizierung und Beurteilung von Problemen des Operation Research, Braunschweig und Wiesbaden, 1989, S. 1.

336

T. Kohlsdorf

oder indirekt kausal für die Veränderung weiterer Elemente eines Systems sein. Dadurch wird das System gleichzeitig auch befähigt im Laufe der Zeit verschiedene Systemzustände anzunehmen. Aus einer Synthese der beiden Ansätze sollte Komplexität dann sowohl den strukturellen als auch den dynamischen Aspekt beinhalten und kann dann umfassend als Grad der Vielschichtigkeit, Vernetzung und Folgelastigkeit eines Systems definiert werden.3 Damit können Unternehmen mittels der Konnektivität ihrer Elemente als relativ-geschlossene Systeme in Bezug zu ihrer Umwelt interpretiert werden, die selber ein bestimmtes Ausmaß an Komplexität aufweisen.4 Diese Komplexität wird aus Unternehmenssicht als Innenkomplexität betrachtet und beinhaltet auch die Fähigkeit verschiedene Unternehmenszustände annehmen zu können. Es entsteht daraus auch die Notwendigkeit der Integration und Koordinierung der einzelnen Unternehmenselemente um als Gesamtsystem eine einheitliche Zielverfolgung zu gewährleisten. Demgegenüber ist die Außenkomplexität zunächst alles außerhalb des Unternehmens. Augenscheinlich ist dabei die Komplexität der Umwelt wesentlich größer als die des Unternehmens. Diese Asymmetrie wird dann als Komplexitätsgefälle zwischen dem System Unternehmen und seiner Umwelt begriffen.5 Die Bewältigung dieses Gefälles wird zur eigentlichem Aufgabe der Unternehmensführung. In Hinblick auf die Umweltkomplexität muss das Unternehmen mit einer angemessenen Innenkomplexität reagieren. Ashby’s Gesetz der erforderlichen Varietät stellt hierzu einen geeigneten Interpretationsrahmen bereit.6 Dort stehen dem Unternehmen verschiedene, selbst zu schaffende potentielle Handlungsalternativen in verschiedenen realen oder denkbaren Umwelthandlungsalternativen zur Verfügung, die jeweils unterschiedliche Ergebnisalternativen generieren. Diese Varietät der Ergebnisse stellt das Unternehmen nun vor das Problem aus den denkbaren Handlungsalternativen, beispielsweise in Form einer Gesamtunternehmensstrategie, diejenige zu entwickeln und auszuwählen, die ein Optimum oder zumindest, unter Berücksichtigung der beschränkten Wahrnehmung, ein lokales, temporäres Optimum7 darstellt. Zudem wird unter dem Aspekt der möglichen Dynamik der Umwelt und ihrer Elemente, die in Ashby’s Modell auch über die verschiedenen Umwelthandlungsalternativen in der Zeit abbildbar wäre, die Notwendigkeit der Entwicklung von internen Handlungsmöglichkeiten bei sich änderndem Umweltzustand deutlich.

2 Koordinationsinstrumente zur Beherrschung von Komplexität Wie bereits angeführt, entsteht bei der Generierung von Innenkomplexität in Organisationen in Hinblick auf das Systemziel die Notwendigkeit die einzelnen Elemente des Systems effektiv 3

Vgl. Wilke, H.: Systemtheorie, 3. Auflage, Stuttgart 1991, S. 16; mit Vielschichtigkeit ist dabei das Ausmaß der funktionalen Differenzierung und der bedeutsamen Referenzebenen des Systems (Struktur) gemeint, während die Vernetztheit auf Art und Intensität der Konnektivität zwischen den Elementen abstellt. Mittels dieser Vernetzung ist dann auch die Folgelastigkeit im Sinne der Auslösung kausaler Ketten erklärbar.

4

Ob Unternehmen als Systeme relativ-geschlossen oder relativ-offen sind, muss hier nicht diskutiert werden. Von besonderer Relevanz ist lediglich ihre Verknüpfung mit (definierten) Umweltschnittstellen.

5

Vgl. Luhmann, N.: Soziale Systeme, Frankfurt 1984, S. 249.

6

Vgl. Ashby, W.: An introduction into cybernetics, London 1956, S. 202ff.

7

Durch eine dreidimensionale Darstellung der Dimensionen Unternehmenshandlung, Umwelthandlung bzw. -zustand und Handlungsergebnis lässt sich ein Ertragsgebirge formulieren. Vgl. auch Beinhocker, E. D., Robust Adaptive Strategies, in: Sloan Management Review, Volume 40 Number 3, 1999, S. 98–101.

Branchenkultur und Netzwerke

337

und effizient miteinander zu koordinieren.8 Dazu stehen dem Unternehmen mehrere grundsätzliche Instrumente zur Verfügung. Die klassische Dichotomie der Koordinationsinstrumente basiert dabei auf Preis und Weisung als Instrumente der Beherrschungsstrukturen Markt und Hierarchie.9 Beide Koordinationsinstrumente dienen der Abstimmung der ökonomischen Aktivitäten der Elemente in arbeitsteiligen Systemen und schränken mögliche Handlungen ein oder lassen bestimmte Handlungen zu. Diese Perspektive soll nun vor dem Hintergrund der Problemstellung um Kultur als weiteres Koordinationsinstrument erweitert werden. Eine detaillierte Herleitung von Kultur als Koordinationsinstrument erfolgt bei Vogt.10 Dort wird neben Markt und Bürokratie (im Sinne von Hierarchie) als drittes Koordinationsinstrument zur Beherrschung von Innenkomplexität der Clan (im Sinne eines kooperativen Systems) etabliert. Dessen Koordinationsinstrument ist Kultur. Diese Kultur basiert auf geteilten Werten und Normen, die eine ähnliche Sinnverarbeitung und Handlung wahrscheinlich machen. Daher folgt, dass ähnliche oder gar einheitliche Handlungen erwartet werden können. Ein solches kulturgeleitetes Instrument stimmt bei den beteiligten Systemelementen ökonomische Aktivitäten auf Basis erwarteter Handlungen ab. Auf einer intraorganisationalen Ebene kann die Funktion von Kultur als Koordinationsinstrument zwischen Unternehmen und Umwelt folgendermaßen beschrieben werden. Eine komplexe Umwelt ist ihrer Art nach von Individuen oder Organisationen nicht überschaubar, dass heißt, nicht alle möglichen Handlungen können antizipiert werden. Kultur zeichnet sich dadurch aus, dass bestimmte unerwünschte Handlungen ex ante ausgeschlossen werden können bzw. dass ähnliches Verhalten unterstellt wird.11 Die Komplexität der Umwelt lässt sich dadurch enorm reduzieren, wie auch in Bezug auf das Gesetz der erforderlichen Varietät deutlich wird. Es wird die Zahl der möglichen Umwelthandlungsalternativen reduziert und damit die Unsicherheit aus Informationsdefiziten über die gesamte Umwelt kompensiert. Mit anderen Worten werden solche Handlungen, die gegen die gemeinsamen kulturellen Wertvorstellungen verstoßen, bereits vorher ausgeschlossen. Bereits hier deutet sich das Konfliktpotential an, das bei Interaktivität von Systemen entsteht, die nicht dieselben kulturellen Wertvorstellungen und Normen teilen. In der Regel werden diese drei Koordinationstypen nun als wechselseitig exklusive Instrumente zur Beherrschung von Organisationsstrukturen gesehen. Bei Versagen eines der Instrumente wird dann ein anderes eingesetzt. Der vollständige sich gegenseitig ausschließende Ersatz von Koordinationsinstrumenten lässt aber nur Idealtypen der Koordination zu. Hier wird hingegen das Konzept vertreten, dass ein Mischungsverhältnis der Koordinationsinstrumente in prinzipiell beliebiger Form möglich ist.12 Dadurch lässt sich ein dreidimensionaler Raum konstruieren, innerhalb dessen sich beliebige Beherrschungsstrukturen auf Basis von Koordinationsmechanismen konstruieren lassen (vgl. Abb. 1, S. 338). 8

Vgl. Mildenberger, U.: Selbstorganisation von Produktionsnetzwerken, Wiesbaden 1998, S. 80f.

9

Vgl. Williamson, O. E.: Comparative Economic Organization, in: Ordelheide, D./Rudolph, B./Büsselmann, E.: Betriebswirtschaftslehre und ökonomische Theorie, Stuttgart 1991, S. 13–49.

10

Vogt, J.: Vertrauen und Kontrolle in Transaktionen, Wiesbaden 1997, S. 53–83.

11

Sjurts, I.: Kollektive Unternehmensstrategie, Wiesbaden 2000, S. 250.

12

Vgl. Bradach, J. L./Eccles, R. G.: Price, authority and trust – from ideal types to plural forms, in: Thompson, G. et al. (Hrsg.): Markets, hierarchies and networks, London 1991, S. 286.

338

T. Kohlsdorf

Abbildung 1: Dreidimensionale Matrix der Koordinationsmechanismen, in Anlehnung an Vogt, J.: a. a. O.: S. 59.

Das Unternehmen kann nun über die Erhöhung der eigenen Handlungsvarietät und deren Beherrschung über verschiedene Koordinationsinstrumente das Komplexitätsgefälle aus eigener Anstrengung verringern. Ebenso wird die Komplexität der Umwelt von dem Unternehmen reduziert, indem es nicht der gesamten Komplexität der Umwelt begegnen muss, sondern seine Umweltsicht strukturiert und nur die für das Unternehmen als relevant wahrgenommenen Umweltausschnitte strukturiert. Es bildet quasi ein Modell der Umwelt. Über Ausblendung weitgehend irrelevanter Umweltausschnitte reduziert sich die Komplexität bereits erheblich. Die Verknüpfung mit der Umwelt wird dabei über die Koordination von Schnittstellen vorgenommen.13 Analog zu einer ressourcenorientierten Sichtweise könnte von einer Kernkomplexität gesprochen werden, die entsprechend der Umweltkomplexität anzupassen ist. Begreiflicherweise problematisch ist aber, dass die Erhöhung der Innenkomplexität grundsätzlich die Beherrschbarkeit des gesamten Systems schwieriger macht.14 Die Koordination der Unternehmenselemente mittels der drei Koordinationsinstrumente wir zunehmend anspruchsvoller. Aufgrund einer begrenzten Verarbeitungsfähigkeit bei der Lenkung des Systems müsste somit eine Grenze der Lenkungsfähigkeit denkbar sein. Um bei sich erhöhender Anzahl der Unternehmenselemente dennoch eine Beherrschbarkeit ermöglichen zu können, werden die Koordinationsinstrumente als stabilisierende Größen eingesetzt. Über ihre teils redundante Replikation im Unternehmen bilden sie die Grundstruktur innerhalb derer sich die Handlungen der Systemelemente vollziehen. 13

Bellmann, K.: Konfiguration von Produktionsnetzwerken, in: Pfeifer, R.: Systemdenken und Globalisierung, Berlin 1997, S. 83f.

14

Vgl. Mildenberger, U.: a. a. O., S. 82.

Branchenkultur und Netzwerke

339

3 Kooperationen und Netzwerke als interorganisationale Strukturierungsform Die Problematik, dass steigende Innenkomplexität zu erheblichen Problemen ihrer Beherrschung und im Extremfall zum Kontrollverlust führen kann, wird innerhalb der Kooperationsund Netzwerkforschung wieder aufgenommen. Dem Unternehmen als System stehen mit den oben angeführten Koordinationsinstrumenten drei idealtypische Beherrschungsinstrumente von Innenkomplexität zur Verfügung. Demgegenüber wird über definierte Schnittstellen zum Umsystem und einer daraus folgenden subjektiven Strukturierung der Umwelt die Außenkomplexität reduziert. An eben diesen beiden Gedanken der Reduzierung des Komplexitätsgefälles setzt auch der konstruktivistische Netzwerkansatz von Bellmann an.15 Während hierarchische Netzwerke über Schnittstellendefinition und standardisierte Austauschbeziehungen die Komplexität der Umwelt subjektiv zu reduzieren suchen, sind heterarchische Netzwerke bestrebt, über die Quasi-Erhöhung ihrer gemeinsamen Innenkomplexität das System-Umweltgefälle zu beherrschen. Netzwerke als Unterform von Kooperationsformen zwischen Unternehmen werden also als Strukturierungsform neben Markt und Unternehmen etabliert, mittels derer Komplexität beherrscht wird. Netzwerke werden hier typologisch nach ihrem Aspekt der Führung16 bzw. der Beherrschung der Systemstruktur differenziert. In Verknüpfung mit dem Gedanken der dreidimensionalen Matrix der Koordinationsinstrumente lassen sich solche Netzwerkbeziehung typologisch aber über eine dichotome Vorstellung hinaus entwickeln. Netzwerke als kooperative Beziehungen können dann auf Basis beliebiger Kombinationen von Instrumenten zu ihrer Beherrschung basieren. Auch hier dürften Idealtypen, die nur durch ein Koordinationsinstrument gesteuert werden, die Ausnahme sein. Vor dem Hintergrund der Problemstellung rückt nun insbesondere das Koordinationsinstrument Kultur in den Betrachtungsmittelpunkt, das aber in Bezug auf das Kooperations- und Netzwerkkonzept zunächst näher zu definieren ist. Daher wird in Anlehnung an ein Verständnis von Unternehmenskultur17 ein Netzwerkkulturbegriff abgeleitet. Netzwerkkultur entwickelt sich in einem Akkulturationsprozess, der durch Interaktion der Netzwerkpartner entsteht. Es bilden sich kooperationstypische Werthaltungen und Verhaltensweisen heraus, welche die Interaktionen zwischen den Netzwerkpartnern in charakteristischer Weise prägen und bei Eintritt von neuen Netzwerkmitgliedern in gleicher Art und Weise erwartet werden. Ähnlich wie die Unternehmenskultur besitzt die Netzwerkkultur bestimmte Prinzipien, wie spezifische Verhaltens- und Orientierungsmuster sowie Netzwerksymbole.18 Wie in dem Drei-Ebenen-Modell der Unternehmenskultur bei Schein besitzen dabei die erkennbaren Netzwerksymbole eine untergeordnete Rolle, während die intransparenten Tiefenkomponenten über gemeinsam geteilte Werte und Normen und den daraus erwachsenden Verhaltens- und Orientierungsmustern die wesentliche Wirkung haben. Diesem Netzwerkkulturverständnis liegt ein systemtheoretisches Verständnis eines Austausches von System und Supersystem zugrunde. Die einzelnen Unternehmenskulturen der Netzwerkteilnehmer bilden in 15

Vgl. Bellmann, K.: Heterarchische Produktionsnetzwerke – ein konstruktivistischer Ansatz, in: Bellmann, K: Kooperations- und Netzwerkmanagement, Berlin 2001, S. 40f.

16

Vgl. Sydow, J.: Management von Netzwerkorganisationen – Stand der Forschung, in: Sydow J.: Management von Netzwerkorganisationen, 2. Auflage, Wiesbaden 2001, S. 298–300.

17

Vgl. Schein, E. H.: Organizational culture and leadership, San Francisco und Oxford 1991, S. 5–21.

18

Vgl. Wohlgemuth, O.: Management netzwerkartiger Kooperationen: Instrumente für die unternehmensübergreifende Steuerung, Wiesbaden 2002, S. 291.

340

T. Kohlsdorf

einem Interaktionsprozess eine neuartige Netzwerkkultur hervor, deren Elemente in Form von Werten und Normen nicht notwendigerweise vollständig mit den Unternehmenskulturen übereinstimmen müssen. Eine wechselseitige Beeinflussung der kulturellen Teilsysteme ist aber anzunehmen, so dass sich ein Kultur-Schachtel-Modell ergibt.19 Werden die Funktionen einer Netzwerkkultur analog aus denen einer Unternehmenskultur abgeleitet, ergeben sich drei wesentliche Funktionen. Zunächst wirken Netzwerkkulturen koordinierend, in dem Sinne wie es bereits ausführlich diskutiert wurde. Über die Teilung gemeinsamer Werte und Normen werden die Interaktionen der Netzwerkteilnehmer grundsätzlich eingeschränkt bzw. es werden nur bestimmte oder erwartete Handlungen zugelassen. Es ergibt sich in der Regel auch ein geringerer Bedarf an Abstimmung in Hinblick auf gemeinsame Ziele. Da in Hinblick auf kollektiv vorliegende Denkmuster ein gewisser Grundkonsens vorherrscht, verringert sich der Bedarf an formalen, administrativen Reglungen. Daraus wird ersichtlich, dass durch die koordinierende Funktion von Kulturen die Innenkomplexität von Unternehmen in Kooperationen und Netzwerken zunächst geringer gehalten werden kann und dadurch die noch freie Verarbeitungsfähigkeit als Problemlösungskapazität für den Aufbau neuer Innenkomplexität genutzt verfügbar ist. Eine Integrationsfunktion bewirkt, dass die denkbaren Rollen und Aufgaben der Netzwerkteilnehmer bereits vorweggenommen werden. Das Selbstverständnis der Netzwerkteilnehmer wird nachhaltig geprägt. Eine solche Identität des Netzwerkes und ihrer Teilnehmer basiert auf geteilten Werten und Normen.20 Auf Basis dieses Selbstverständnisses kann dann auch die explizite oder implizite Legitimität einer Führungsrolle in Netzwerken beruhen. Entsprechend werden auch die Austauschprozesse innerhalb des Netzwerkes bezüglich ihrer Struktur und Art vorgeprägt. Durch diese Integrationsfunktion werden Schnittstellen zwischen Netzwerkteilnehmern vorstrukturiert. Dies führt dann zu einer Verringerung der Komplexität zwischen den Teilnehmern, wodurch sich sowohl die Innenkomplexität verringern mag, aber insbesondere die wahrgenommene Außenkomplexität reduziert wird. Schließlich kann die Motivationsfunktion zu einer höheren intrinsischen Kooperationsbereitschaft der Netzwerkmitglieder führen. Der Auslöser wird durch die kulturelle Integration und ein ausgeprägtes „Wir-Gefühl“ begründet.21 Über ein Identifikationsgefühl soll mittelbar eine höhere Leistungsbereitschaft erreicht werden. Die vorgenannten Effekte bedingen aber die Teilung der Werte und Normen. Dies wird insbesondere vor dem in der Problemstellung angesprochenen Hintergrund der steigenden Dynamik in mehrfacher Hinsicht problematisch. So können technologische Konvergenzen es zunehmend nötig machen Netzwerkpartner zusammenzuführen, die aus unterschiedlichen Branchen mit divergierendem Werte- und Normensystem stammen. Ebenso können Kooperationen aufgrund von Fluktuationen und Neustrukturierungen der Teilnehmer zu Phasen führen, in denen die Werte- und Normensysteme der Kooperationspartner zeitweise divergieren. Hier könnte es nun von Vorteil sein über ein allgemein geteiltes Kultursystem zu verfügen, dass in Form eines kulturellen Koordinationsinstrumentes die Beherrschung der Komplexität mittels der Koordinations- und Integrationsfunktion vereinfacht. 19

Vgl. Kasper, H.: Organisationskultur, Wien 1987, S. 33.

20

Vgl. Hinterhuber, H. H./Stahl, H. K.: Unternehmensnetzwerke und Kernkompetenzen, in: Management von Unternehmensnetzwerken, Wiesbaden 1996, S. 111f.

21

Vgl. Wohlgemuth, O.: Management, a. a. O., S. 295–296.

Branchenkultur und Netzwerke

341

4 Branchenkultur als komplexitätsreduzierende Koordinationsform Dem systemischen Schachtel-Modell von Kulturen folgend, wäre ein solches übergeordnetes Konstrukt den Subsystemen vorgeordnet. Es stellt sich allerdings die Frage, wie ein solches übergeordnetes kulturelles System entstehen kann. Hierzu lassen sich drei verschiedene Gruppen zur Entstehung von Branchenkultur ausmachen.22 Die erste Gruppe beschreibt das Verhältnis von Branchen- zu Unternehmenskultur aus Sicht des Unternehmens als ein umweltinduziertes Phänomen unter vorherrschenden Branchenmerkmalen, die Unternehmenskulturen im Sinne einer Umwelt-Unternehmens-Kontingenz entstehen lassen. Der Gedanke ist wenig zweckmäßig, da er, wie es kontingenztheoretischen Ansätzen eigen ist, zu einer Uniformität der Unternehmenskulturen führt. Dies entspricht aber kaum den empirischen Erfahrungen, die ein durchaus heterogenes Bild von Unternehmenskulturen in Branchen aufzeigen. Die zweite Gruppe untersucht Branchenkultur lediglich als existentes Phänomen, ohne dabei einen wechselseitigen Bezug der kulturellen Ebenen aufzuzeigen und ist somit systemisch wenig interessant. Die dritte Gruppe schließlich beschreibt Branchenkultur als ein makrokulturelles Phänomen. Hierbei werden die heterogenen Unternehmenskulturen in ein Interaktionsverhältnis gesetzt. Branchenkultur entsteht aus dem fortlaufenden Aufeinandertreffen von kulturellen Subsystemen. Dabei können sich die kulturellen Subsysteme auch wechselseitig beeinflussen. Die sich dabei entwickelnden geteilten Werte und Normen bilden als gemeinsame Schnittmenge die Branchenkultur. Dieser Ansatz ist in systemischer Sicht besonders fruchtbar, denn er erlaubt auf der einen Seite das Vorhandensein heterogener Subkulturen und damit auch grundsätzlich, dass (heterogene) Unternehmenskulturen weiterhin als Wettbewerbsvorteil gesehen werden können, und auf der anderen Seite die Herausbildung eines gemeinsamen kulturellen Systems, dass Koordinations- und Integrationsfunktionen übernehmen kann. Ein fließender, aber dennoch trennbarer Übergang zwischen den verschiednen kulturellen Systemen wird konzeptionalisierbar. Ebenso lassen sich dann Netzwerkkulturen, wie oben beschrieben, als weiteres interorganisationales kulturelles Konstrukt interpretieren, dass zwischen Branchen- und Unternehmenskulturen anzusiedeln ist. Solche Netzwerkkulturen können dabei auch als Vorstufe mit hohem Einflussfaktor auf das übergeordnete Konstrukt von Branchenkulturen interpretiert werden. Hinsichtlich der Wirkung von Branchenkulturen auf Kooperationen und Netzwerke sind grundsätzlich zwei Fälle zu unterscheiden. Zum einen der Fall von Intra-Branchenkooperation und zum anderen Kooperationen zwischen Branchen (Inter-Branchenkooperation). Dies ist deswegen von Relevanz, da im ersten Fall die Kooperationsmitglieder eine gemeinsame Branchenkultur teilen und damit bereits über einen Pool von teilweise gemeinsamen Werten und Normen verfügen. Im zweiten Fall hingegen können vollkommen konträre Branchenkultursysteme aufeinander treffen. In der Kooperations- bzw. Netzwerkkonstitutionsphase bei Intra-Branchenkooperation herrscht zunächst ein erhöhter Unsicherheitsfaktor. Die Interaktionsmuster der Beteiligten müssen erst abgestimmt werden und damit grundsätzliche Ziele und Aufgaben bestimmt werden. Wie oben angeführt, kommt es dabei aufgrund der enormen Komplexität und Dynamik der Umwelt zu Situationen, die nicht ex ante vollständig (vertraglich) planbar sind. Bei einem Versagen der Koordinationsinstrumente Hierarchie und Markt kann nun ein kulturelles Koordina22

Vgl. Schreyögg, G., Grieb, C.: Branchenkultur – Ein neues Forschungsgebiet, in: Glaser, H./Schröder, E./ Werder, A.: Organisationen im Wandel der Märkte, Wiesbaden 1998, S. 364–380.

342

T. Kohlsdorf

tionsinstrument über gemeinsame geteilte Werte und Normen Unsicherheitssituationen reduzieren. Die Umweltkomplexität sinkt durch Reduzierung von zugelassenen Handlungen. Branchenkulturen haben dabei gegenüber Netzwerkkulturen den Vorteil, dass sie in einer etablierten Branche als übergeordnetes kulturelles System bereits vor Konstitution der Kooperation existieren und daher in der Bildungsphase bereits als Koordinationsinstrument genutzt werden können. Zudem wird die Phase der Netzwerk-Akkulturation, das heißt die Dauer der Netzwerkkulturentstehung, durch das Vorhandensein von Branchenkultur verkürzt, da bereits ein gemeinsames (begrenztes) Kultursystem existiert, auf dem aufgebaut werden kann. Neben dem Effekt der Reduzierung von wahrgenommener Umweltkomplexität für das einzelne Unternehmen werden auch über den Koordinationseffekt von Branchenkulturen die notwendigen formalen, administrativen Reglungen reduziert. Die Innenkomplexität der Kooperation als systemische Bezugseinheit kann damit geringer gehalten werden und ermöglicht es, die freie Verarbeitungskapazität für andere Problemlösungen frei zu halten. In Hinblick auf die Integrationsfunktion sind Branchenkulturen auch für das interorganisationale Selbstverständnis von Unternehmen von großer Relevanz. Erst unter Abgleich des eigenen Identitätsverständnisses mit anderen Branchenteilnehmern innerhalb einer Branche kann die eigene Stellung in Kooperationen bestimmt werden (Macht, Vertrauen, implizite Interaktionsregeln). Ob eine starke Motivationsfunktion von Branchenkulturen ausgeht, wird hier bezweifelt. Zwar ist über eine gemeinsame Identität eine kulturelle Abgrenzung zu anderen Branchen möglich, da aber der Wettbewerb zwischen Branchen in der Regel gering ist, dürfte der Kohäsionsgedanke hier nicht sonderlich relevant sein. treten aber solche Fälle gemeinsamen Handelns aufgrund gemeinsamer Interessen auf, dürfte eine Branchenkultur die Abstimmung der Ziele solcher Handlungen vereinfachen (Lobbyarbeit, Tarifverträge, etc.). Etwas anders gelagert ist die Situation bei Inter-Branchenkooperationen. Hier können, wie oben erläutert, heterogene Branchenkulturen aufeinander treffen. In einem solchen Falle reduzieren sich die gemeinsamen Werte und Normen grundsätzlich auf ein geringeres Maß. Die koordinierenden und integrierenden Effekte sind zunächst nicht gegeben. Aus Sicht der Unternehmen erhöht sich sogar die Außenkomplexität bei Interaktion mit heterogenen Kulturen, da für die Varietät der kulturellen Umwelt erst interne Problemlösungsfähigkeit aufgebaut werden muss. Dennoch kann auch hier die Kenntnis von Branchenkultur eine nützliche Wirkung haben. Denn werden Selbst- und Umweltverständnis der Branchen der beteiligten Partner offengelegt, können die Integrationsmuster der Kooperation ex ante ebenfalls schneller gebildet werden, da die Unsicherheitssituation aufgrund von fehlenden Informationen reduziert werden kann. Hier erhält Branchenkultur aber eher einen Informationscharakter, als dass ein koordinierender oder integrierender Effekt unmittelbar eintritt. Wenn nun das Konstrukt Branchenkultur, das gezielt Handlungen der Unternehmen als Subsysteme steuert, auf einer den Unternehmen und Kooperationen übergeordneten Ebene gedacht wird, stellt sich die Frage nach der Veränderbarkeit bzw. Steuerbarkeit solcher übergeordneter Systeme. Folgt man einem objektivistischen Branchenkulturverständnis, ist Branchenkultur eine bewusst gestaltbare Variable. Es können dann Soll-Kulturen entwickelt werden, die von den Subsystemen im Interaktionsprozess hervorgebracht und mitgetragen werden. Für eine solche Branchenkultursteuerung und -Veränderung wäre dann die Konzeptionalisierung eines Branchenkulturmanagement notwendig. Folgt man aber dem makrokulturellen Branchenkulturverständnis, entsteht Branchenkultur durch einen Interaktionsprozess der Branchenmitglieder und emergiert auf einer dem Unternehmenssystem übergeordneten Ebene. Dadurch ist dem ein-

Branchenkultur und Netzwerke

343

zelnen Unternehmen aber eine intensive und direkte Einflussnahme in Form einer unmittelbaren Steuerung der Branchenkultur in der Regel nicht möglich.23 Zweckmäßigerweise wäre eine solche Aufgabe also auch auf einer den einzelnen Unternehmen übergeordneten Ebene anzusiedeln. Für Kooperationen und Netzwerke kann eine solche Aufgabe vom fokalen Unternehmen oder einem Netzwerkbroker übernommen werden. Aber auch hier wäre zunächst die Legitimität der Aufgabenwahrnehmung zu begründen. Auf Branchenebene scheinen Branchenverbände die geeignete Institution der Lokalisierung dieser Aufgabe. Ihnen kommt dabei aber weniger die Rolle einer steuernden als einer moderierenden Institution zu. Zum einen sollten durch einen Branchenverband Plattformen geschaffen werden, auf denen der Interaktionsprozess zur Branchenkulturbildung bewusst stattfindet. Zu anderen sollten dann das Werte- und Normensystem, das sich entwickelt, transparent gemacht werden, so dass brancheninterne wie -externe Unternehmen dieses kulturelle System wahrnehmen können und zur Reduzierung ihrer Unsicherheitssituation verarbeiten können.

5 Fazit Die vorangegangene Diskussion sollte gezeigt haben, dass neben den bereits stärker beforschten Konzepten der Unternehmens- und Netzwerkkulturen systemisch gesehen auf einer übergeordneten Ebene das Branchenkultur-Konzept weitere Koordinierungs- und Integrationseffekte bereithält. Diese Effekte werden derzeit aber noch nicht umfassend genug von Forschung und Praxis aufgegriffen. Mit dem hier umrissenen Konzept der Branchenkultur und ihrer Wirkung auf Kooperationen und Netzwerke stellt sich ebenfalls die Frage, ob und wie ein Branchenkulturmanagement zu gestalten wäre. Gerade vor dem Hintergrund von zusammenwachsenden Branchen aufgrund technologischer Konvergenz oder der zunehmenden Globalisierung und dem damit einhergehenden Problem des Aufeinandertreffens von branchenähnlichen aber heterogenen Landeskulturen sollte dem Branchenkulturkonzept weitere Beachtung geschenkt werden.

23

Dies mag anders sein in Branchen bzw. Märkten, in denen einzelne Unternehmen als Quasi-Monopolisten agieren und somit die Branchenregeln stark determinieren. Auch für den Fall von engen Oligopolen dürfte der Einfluss über die Interaktion relativ groß sein.

Kompetenzentwicklung in Unternehmensnetzwerken – eine spieltheoretische Betrachtung André Haritz und Oliver Mack

1

Unternehmensnetzwerke als Realphänomen und Untersuchungsobjekt und der Betriebswirtschaftslehre

Vertikal hoch integrierte und funktional ausgerichtete Unternehmen offenbaren angesichts veränderter wettbewerblicher Anforderungen Anpassungsprobleme. Traditionelle Organisationsstrukturen und Prozesse der betrieblichen Wertschöpfung verlieren im Rahmen veränderter Umfeldbedingungen ebenso an Gültigkeit wie klassische Managementvorstellungen. Vor diesem Hintergrund erscheint eine vollständige Neuausrichtung der betrieblichen Wertschöpfung sowie vorhandener Steuerungs- und Lenkungsansätze notwendig, um Unternehmen neue Möglichkeiten der Nutzengenerierung und damit Erfolgs- und Wettbewerbspotentiale in einem globalen Verdrängungswettbewerb zu ermöglichen. Ein gegenwärtig in diesem Kontext intensiv in Theorie und Praxis diskutierter Ansatz ist die unternehmensübergreifende Vernetzung von wirtschaftlich relativ autonomen und auf Kernkompetenzen fokussierten Unternehmen bzw. Unternehmensteilen zu Unternehmensnetzwerken.1 Eine terminologische Präzisierung von Unternehmensnetzwerken bereitet jedoch erhebliche Probleme, was u. a. auf die existierende „babylonische Begriffsvielfalt“2 im Forschungsfeld Netzwerke zurückzuführen ist. Als Referenzobjekt der weiteren Ausführungen zu Unternehmensnetzwerken soll daher folgende axiomatische Begriffsdefinition dienen. Unternehmensnetzwerke verkörpern eine polyzentrische und eigenständige Organisationsform sozio-ökonomischer Aktivität zwischen wirtschaftlich relativ autonomen Unternehmen bzw. Unternehmensteilen, die zwecks Realisierung von Erfolgs- und Wettbewerbspotentialen über eine kollektive Ziel- und Marktausrichtung verfügen. Zur Abstimmung der zwischen den Organisationen bestehenden komplexreziproken, gleichsam kooperativen und kompetitiven sozio-ökonomische Beziehungen werden nicht nur marktliche und hierarchische, sondern insbesondere auch vertrauensorientierte Koordinationsmechanismen verwendet.3

1

Vgl. Bellmann/Hippe (1996), S. 59.

2

Vgl. Mildenberger (1998), S. 15.

3

Vgl. Sydow (1993), S. 79, der eine weitgehend identische Begriffsexplikation wählt.

346

A. Haritz und O. Mack

Unternehmensnetzwerke sind als polyzentrische Organisationsform auf komplexe und i. d. R. funktionale Problemlösungen ausgerichtet und stellen eine befristet-projektorientierte, heterarchische, gering formalisierte sowie weitgehend interdependente Form einer zwischenbetrieblichen Zusammenarbeit dar. Aus Sicht der partizipierenden Unternehmen ist eine derartige Vernetzung ein kollektives Mittel, um individuelle Unternehmensstrategien zu realisieren. Insofern verkörpern Unternehmensnetzwerke die Umsetzung einer kollektiven Strategie, die auf die Erreichung von übergeordneten Individualstrategien ausgerichtet ist. Das Eingehen von derartigen Unternehmensnetzwerken kann als strategische (Re)Aktion der Unternehmen auf Umfeldveränderungen verstanden werden. Aus organisationsstrategischer Sicht besteht die Absicht einer Netzwerkbildung darin, durch Fokussierung auf Kernkompetenzen die Selbststeuerungsfähigkeit zu verbessern und gleichzeitig den gesamten funktionalen Prozess der Leistungserstellung effizient zu koordinieren. M. a. W., Unternehmensnetzwerke sind auf die Bewältigung der Diskrepanz zwischen Autonomie und Kontrolle sowie Größe, Komplexität und Flexibilität ausgerichtet.4 Um synergetische Vorteile gemeinsamer Geschäftsaktivitäten in Netzwerken wahrnehmen zu können, bündeln die partizipierenden Unternehmen resp. Unternehmensteilbereiche projektbezogen ihre weitgehend komplementären Kernkompetenzen, die durch harmonisierte Komplementaritätskompetenzen ergänzt werden.5 Maßgeblich für die Wettbewerbsfähigkeit des gesamten Unternehmensnetzwerkes ist aber nicht nur die Qualität der individuellen Kernkompetenzen, sondern auch die Güte der Kompetenzvernetzung, wobei das Ziel derartiger Bestrebungen in einer netzwerkoptimierten Anordnung dislozierter „Economies of skill“ liegt.6 Hierbei ist es völlig unerheblich, welcher Wertschöpfungsstufe die jeweiligen Unternehmen angehören. Entscheidend ist nur, dass sich das Unternehmensnetzwerk aus wenigen, jedoch leistungsstarken Unternehmen konstituiert, die aufgrund ihrer spezifischen Kompetenzen befähigt sind, in bezug auf die Gesamtaufgabe einen hohen Leistungsbeitrag zu erbringen. Die einem Unternehmensnetzwerk zuzurechnenden Aufgabenstellungen lassen sich generell als nicht-routinisiert, komplex-individuell charakterisieren. Die netzwerkinterne Aufteilung einer derartigen Aufgabe auf die einzelnen Netzwerkpartner erfolgt nach Maßgabe individueller Kern- und Komplementaritätskompetenzen und führt zur Herausbildung eines Unternehmensgrenzen überschreitendes System, das „partnerschaftlich verteilte Transformationsleistungen zu einer kollektiven Leistung zusammenführt. Hierbei müssen die Leistungseinheiten die Eigenschaft eines Holon entfalten, d. h. eines teilautonomen und kooperativen Elements mit Ausrichtung auf die gemeinsamen Ziele. Die direkten und indirekten Prozesse der Leistungserstellung unterstehen deshalb weitgehend der individuellen Kontrolle der Akteure“7, während die unternehmensübergreifende Koordination der individuellen Teilleistungen in den meisten Fällen durch den fokalen Partner erfolgt. Charakteristisches Kennzeichen der Zusammenarbeit in Unternehmensnetzwerken ist somit eine weitgehende Independenz der Netzwerkpartner im Rahmen der eigenen Know-How-Generierung, jedoch eine weitgehende Interdependenz bei der Know-How-Integration. 4

Vgl. Klein (1996), S. 27.

5

Der Begriff der Komplementaritätskompetenzen geht auf Bellmann zurück, der damit auf Koordinations-, Kommunikations- oder Logistikkompetenzen abstellt. Vgl. Bellmann/Hippe (1996), S. 70ff.

6

Vgl. Bellmann/Hippe (1996), S. 71.

7

Bellmann/Hippe (1996), S. 63f.

Kompetenzentwicklung in Unternehmensnetzwerken

347

Darüber hinaus kennzeichnen sich Unternehmensnetzwerke durch eine simultane Realisation von wettbewerblichen und kooperativen Verhaltensmustern (Co-opetition). Unternehmensnetzwerke bewegen sich also auf einem schmalen Pfad zwischen strukturstabiler Kooperation und kooperationswidrigem Wettbewerb, den es im Hinblick auf die angestrebten Erfolgspotentiale auszutarieren gilt. Ursache und zugleich Notwendigkeit für die Institutionalisierung einer sich scheinbar widersprechenden Verhaltensdualität liegt darin begründet, dass ausschließlich kooperative Koordinationsmuster unter dem Zwang operativen Erfolgs wohlstrukturierbare Effizienzkalküle priorisieren und dabei jedoch die Notwendigkeit strategischer Effektivität übergehen.8

2

Ressourcen und (Kern-)Kompetenzen in Unternehmensnetzwerken: Ein theoretischer Diskurs

Der ressourcenorientierte Ansatz (Resource-based-view) untersucht, auf welche Einflussfaktoren ökonomischer Erfolg bei wettbewerblich agierenden Unternehmen derselben Branche zurückzuführen ist. Insbesondere besteht Erklärungsbedarf dahingehend, warum die von einem Unternehmen erzielte ökonomische Rente trotz eines existierenden Wettbewerbes nicht wegerodiert.9 Während der „Market-based-view“ die Existenz einer dauerhaften ökonomischen Rente gemäß der zugrunde liegenden „Structure-Conduct-Performance-Hypothese“ auf die Struktur und Attraktivität einer Branche, das strategische Verhalten sowie eine entsprechende ProduktMarkt-Positionierung der Unternehmen zurückführt (Outside-In-Perspektive),10 ist der ökonomische Erfolg im ressourcenorientierten Ansatz eine Funktion der Einzigartigkeit von Ressourcen bzw. der strategischen Ressourcenvorteile in Relation zu den Wettbewerbern (InsideOut-Perspektive). Erkenntnisgegenstand im ressourcenorientierten Ansatz ist somit der Konnex zwischen Ressourcenausstattung, Wettbewerbsvorteilen und Unternehmenserfolg (ResourcesConduct-Performance-Hypothese).11 Der unterstellte Wirkungszusammenhang fußt auf den Basisannahmen der Ressourcenheterogenität einerseits und der unvollständigen Ressourcenmobilität andererseits. Die unterschiedliche Ressourcenausstattung von Unternehmen innerhalb einer Branche ist im wesentlichen damit zu erklären, dass aufgrund der Nicht-Transferierbarkeit unternehmensspezifischer, intangibler Ressourcen die Faktormärkte ihre Allokationsfunktion nicht ausüben können.12 Ursächlich für asymmetrische Ressourcenverteilungen sind aber auch Wettbewerbsbehinderungen, die bewirken, dass erwartete Renten von Dritten nicht antizipiert und folglich auch nicht im Ressourcenpreis miteinbezogen werden können.13 Wird der Auffassung des Ressourcenansatzes gefolgt, wonach strategische Wettbewerbsvorteile eines Unternehmens aus dessen Ressourcenbeständen abzuleiten sind, so stellt sich ökonomischer Erfolg für Unternehmen nur dann ein, wenn neben den Basisannahmen, die auch 8

Vgl. Bellmann/Hippe (1996), S. 68.

9

Vgl. Rühli (1994), S. 33.

10

Vgl. zum Market-based-view insbesondere Porter (1981), S. 609ff.

11

Vgl. Bongartz (1997), S. 25.

12

Vgl. Rasche/Wolfrum (1994), S. 503.

13

Vgl. Peteraf (1993), S. 185.

348

A. Haritz und O. Mack

als notwendige Bedingungen anzusehen sind,14 weitere hinreichende Bedingungen hinzutreten, die in ihrer Gesamtheit die Nachhaltigkeit der Ressourcenvorteile betonen. Im einzelnen hängt die Möglichkeit, Quasi-Renten zu erzielen, von dem Wert und der Knappheit der Ressourcen, von deren Nicht-Imitierbarkeit, von deren Nicht-Substituierbarkeit sowie von deren Potential zur Nutzenstiftung ab. – Der Wertbedingung zur Folge besitzen Ressourcen dann einen Wert, wenn sie die Effektivität und/oder die Effizienz von Unternehmen erhöhen; wenn sie ergo die Fähigkeit besitzen, Quasi-Renten zu erzielen.15 Der Ressourcen inhärente Wert ist aber keine konstante Größe über die Zeit. Der Wert kann zum einen sinken, wie im Fall materieller Ressourcen, die einer Abnutzung unterliegen. Zum anderen kann der Wert aber auch im Zeitablauf steigen, wie dies bei immateriellen Ressourcen vorstellbar ist. Zudem ist der ökonomische Erfolg von Ressourcen an die Knappheitsbedingung geknüpft. – Ob Ressourcen imitierbar sind und damit ihr Quasi-Renten-Potential verlieren, wird determiniert durch (a) die Historizität, also deren spezifischen Evolutionspfad, durch (b) das Ausmaß an Interdependenz zwischen tangiblen und intangiblen Ressourcen (Ressourcenkomplexität) sowie durch (c) den Grad der Unklarheit über vermutete Wirkungszusammenhänge zwischen den Wettbewerbsvorteilen und der zugrunde liegenden Ressourcenbasis (causal ambiguity).16 – Das Quasi-Renten-Potential erfolgskritischer Ressourcen ist weiterhin von deren Nicht-Substituierbarkeit abhängig. Insbesondere durch technologische Innovationen im Sinne neuartig konfigurierter Ressourcenbündel können bspw. Technologiebrüche erzeugt werden, in deren Folge bestehende Ressourcen und Wettbewerbsvorteile entwertet werden. Das Kriterium der Nicht-Substituierbarkeit ist als jenes anzusehen, das aus Sicht der einzelnen Unternehmung die geringste Beeinflussbarkeit aufweist, da sich das Bedrohungspotential alternativer Ressourcenkombinationen ex ante nicht vorhersagen und bewerten lässt.17 – Das Kriterium der Nutzenstiftung verdeutlicht abschließend die Interdependenz zwischen Ressourcen- und Marktperspektive.18 Ressourcen führen nur dann zum Erfolg, wenn sie ein breites Spektrum an (end)produktbezogenen Verwendungsmöglichkeiten offenbaren, die einen signifikanten Zusatznutzen (Erfüllung von Begeisterungsmerkmalen) beim Kunden darstellen, der diesen auch perzipieren muss.19 Zudem muss das Unternehmen auch in der Lage sein, sich seine Quasi-Rente selbst anzueignen. Einzelne Individuen oder Interessengruppen dürfen Quasi-Renten also nicht eigenmächtig abschöpfen können.20 Sind diese erfolgsgenerierenden Anforderungen hinsichtlich der Beschaffenheit von Ressourcen erfüllt, besteht für Unternehmen die Möglichkeit, auf Basis derartiger Ressourcen eine 14

Vgl. Mildenberger (1998), S. 66.

15

Vgl. Bongartz (1997), S. 29 und Knyphausen-Aufseß (1997), S. 468.

16

Vgl. Rasche/Wolfrum (1994), S. 504.

17

Vgl. Rasche/Wolfrum (1994), S. 506.

18

Damit einhergehend wird die klassische Inside-Out-Perspektive des Resourced-based-view verlassen und durch eine kombinierte Sichtweise, die inside-out und outside-in gleichermaßen integriert, substituiert. Auf dieser integrierenden Sichtweise basiert auch der Kernkompetenzansatz.

19

Vgl. Bruck (1996), S. 245 und Reiß/Beck (1995), S. 37.

20

Vgl. Knyphausen-Aufseß (1997), S. 84.

Kompetenzentwicklung in Unternehmensnetzwerken

349

Marktposition einzunehmen, die dauerhafte und signifikante Wettbewerbsvorteile ermöglicht. Solche strategischen, erfolgspotentialorientierten Ressourcen resp. Ressourcenbündel werden auch als „Kernkompetenzen“ oder „Kernfähigkeiten“ bezeichnet. In Anlehnung an Rasche ist diese kernkompetenzorientierte Sichtweise auch als Derivat des Resourced-based-view anzusehen.21 Dieses Verständnis konkretisierend bestehen Kernkompetenzen, als wertschöpfender Mechanismus, überwiegend aus intangiblen, wissensbasierten, komplexen und unternehmensspezifischen Ressourcenbündeln höherer Ordnungsstufe (Knowledge set)22, die sowohl entstehungs- als auch verwendungsseitig generisch-integrativ sind und einen Mehrwert stiften.23 Ein solches „Knowledge-Set“ kennzeichnet sich zum überwiegenden Teil aus intangiblen und lediglich zu einem geringen Anteil aus tangiblen Bestandteilen. Wird die intangible Komponente einer Kernkompetenz weiter differenziert, so setzt sich diese i. d. R. aus subjektivem, soziotechnischem und normativem Wissen zusammen. Das subjektive Wissen umfasst die personalen, innovationsbezogenen Fachkompetenzen von Organisationsmitgliedern wie z. B. technologisches Wissen, das Dritten nicht frei zugänglich ist. Die sozio-technische Kompetenzdimension beinhaltet das kollektivierte und innerhalb einer Gruppe bzw. der gesamten Organisation verfügbare technisch-ökonomische Wissen. Hierbei handelt es sich „um intersubjektives Wissen, das durch die Transparentmachung individuellen Wissens entstand und so im Zeitablauf ein ,Objektivierung‘ erfahren hat“24. Organisationale Routinen sind in diesem Zusammenhang als institutionalisierte Wissensintegrationsmechanismen hinsichtlich bestimmter Problemlösungen zu verstehen.25 Unternehmensspezifische technische Systeme als Resultat akkumulierten Humanwissens, aber auch das Wissen um sowie das Beherrschen von Managementsystemen lassen sich diesem Punkt unterordnen. Werden die einzelnen Zuordnungen zusammengeführt, ist die sozio-technische Kompetenzdimension auch als Prozesskompetenz26 zu interpretieren, die sowohl das kollektive Wissen um technische Transformationsprozesse als auch um soziale Interaktionsprozesse, die in einem intra- und/oder interorganisatorischen Kontext ablaufen, umfasst. Dabei können diese Wissenskomponenten unterschiedlichen organisatorischen Ebenen zugeordnet werden. Während das Wissen um transformationsbezogene, organisationale Routinen überwiegend im operativen Kern inkorporiert sein dürfte, ist bspw. das Wissen in bezug auf die Gestaltung und Lenkung komplexer Prozesse der strategischen Spitze zuzuordnen.27 Bei diesem dem strategischen Kern zuordnenbaren Wissen handelt es sich zum überwiegenden Teil um eine Art Meta-Wissen, das zum einen die Fähigkeit der Steuerung und Koordination „operativen Wissens“ und zum anderen die Fähigkeit zur Erlangung von Wissen umfasst.28 Ein weiterer, integraler und intangibler Bestandteil von Kernkompetenzen sind organisationale Werte und 21

Vgl. Rasche (1994), S. 91ff.

22

Vgl. zu diesem Begriff Leonhard-Barton (1992), S. 113.

23

Die Attribution generisch-integrativ verdeutlicht in diesem Kontext, dass Kernkompetenzen zum einen Eingang in mehrere Geschäftsfelder resp. Endprodukte finden (Verwendungsseite) und zum anderen auf unterschiedliche Wissensbasen aufbauen (Entstehungsseite). Vgl. hierzu Reiß/Beck (1995), S. 37.

24

Rasche (1994), S. 116f.

25

Vgl. Raub/Büchel (1996), S. 27.

26

Vgl. hierzu Reiß/Beck (1995), S. 39.

27

Vgl. zu den Begriffen „strategischer Spitze“ und „operativer Kern“ Mintzberg (1981), S. 103ff.

28

Vgl. Bruck (1996), S. 250.

350

A. Haritz und O. Mack

Normen sowie die Reputation der Unternehmung. Diese Kernkompetenzelemente sind auch als normatives Wissen zu bezeichnen. Zu den tangiblen Bestandteilen von Kernkompetenzen zählen einerseits objektives Wissen, das aufgrund seiner hohen Transparenz und seiner ubiquitären Zugänglichkeit auch als „migratory knowledge“29 bezeichnet wird sowie andererseits das materielle Anlage- und Umlaufvermögen. Diese „Aktiva“ im Sinne physischer, transaktionsfähiger Ressourcen erhalten jedoch nur als Teil eines komplexen Ressourcenbündels idiosynkratischen Charakter und können nur unter diesen Bedingungen einen Beitrag zum „Quasi-Renten-Potential“ einer Kernkompetenz leisten. Zusammenfassend ist festzustellen, dass keinesfalls nur die technologischen Fähigkeiten und Fertigkeiten sowie die Qualität physischer Ressourcen das „Quasi-Renten-Potential“ einer Kernkompetenz determinieren.30 Das Erfolgspotential einer Kernkompetenz wird vielmehr durch das koordinierte Zusammenwirken subjektiver, sozio-technischer und normativer Kompetenzbestandteile zu einem idiosynkratischen, das Kernwissen umfassenden Ressourcenbündel, entscheidend beeinflusst.31 Wird der skizzierten Sichtweise gefolgt, wonach Kernkompetenzen eine Art Derivat des ressourcenorientierten Ansatzes darstellen, so können in Anlehnung an Mildenberger in bezug auf eine interorganisationale Bündelung von Kernkompetenzen zwei unterschiedliche Perspektiven unterschieden werden, auf Basis derer eine Beschreibung und Analyse des Konstruktes Ressourcenvernetzung erfolgen kann.32 Zum einen kann eine „individualistische Kernkompetenzperspektive“ eingenommen werden. Hiernach sind Formen interorganisationaler Zusammenarbeit ausschließlich als Mittel zum Zweck einer Aneignung von externen Wissen anzusehen, das unternehmensintern weder problemlösungs- noch zeitgerecht hervorgebracht werden kann.33 Rasche, als Protagonist des individualistischen Ansatzes, betrachtet Strategien unternehmensübergreifender Zusammenarbeit als einzig realistische Alternative der Internalisierung von relevanten und intern nicht vorhandenen Kompetenzen.34 Die Strategie der Internalisierung externen Wissens und anschließender Transformation in eigene Kompetenzbasis vollzieht sich innerhalb von zeitlich befristeten und i. d. R. dyadischen Unternehmensverbindungen auf Basis unternehmensübergreifender Lernprozesse (Inter-Partner-Learning).35 Es ist jedoch zu bezweifeln, ob es Unternehmen gelingt, innerhalb derartiger „race to learnPartnerschaften“36 sämtliche Wissenskomponenten einer Kernkompetenz zu internalisieren und nutzendstiftend einzusetzen. Zutreffend ist sicherlich, dass objektives, also explizit benennbares 29

Vgl. Badaracco (1991), S. 45ff.

30

Vgl. Prahalad/Hamel (1990), S. 79ff., die einen eher technologisch orientierten Kernkompetenzbegriff vertreten.

31

Vgl. Mildenberger (1998), S. 66.

32

Vgl. zu den folgenden Ausführungen Prahalad/Hamel (1990), S. 70ff.

33

Vgl. Zahn (1997), S. 45.

34

Vgl. Rasche (1994), S. 230. Eine in diesem Kontext weitere Handlungsalternative zur Internalisierung externen Wissens stellt auch die Unternehmensakquisition dar. Vgl. hierzu Müller-Stewens/Osterloh (1996), S. 19.

35

Unternehmensverbindungen sind aus dieser Perspektive dann beendet, wenn ein Unternehmen seine angestrebten Lernziele erreicht hat und sich das idiosynkratische Wissen angeeignet hat. Vgl. Rasche (1994), S. 231.

36

Vgl. Hamel (1991), S. 85.

Kompetenzentwicklung in Unternehmensnetzwerken

351

Wissen relativ problemlos internalisiert, imitiert und rekombiniert werden kann.37 Ob eine Übertragbarkeit in dieser Form auch für sozio-technisches und normatives Wissen Gültigkeit besitzt, ist jedoch anzuzweifeln. Derartige, gelegentlich auch als Kontextwissen bezeichnete, Kernkompetenzbestandteile sind sehr stark mit dem organisationalen Erfahrungs- und Erlebnishintergrund verwachsen und können nur bedingt separiert werden. Dieses hat zur Konsequenz, dass solches Wissen lediglich in Fragmenten herauslösbar und übertragbar ist.38 Eine Übertragung von Kontextwissen setzt vielmehr ein kollektives, gleichgerichtetes und vertrauensbasiertes Handeln voraus; also eine Form der Zusammenarbeit, die angesichts der inhärenten Antagonismus- und Opportunismusproblematik in „race to learn-Partnerschaften“ nicht gegeben sein dürfte. M. a. W., „eine partnerschaftliche Zusammenführung von Erfolgspotentialen mit dem Ziel, innerhalb der Kooperation einzigartige und langanhaltende Wertpotentiale zu schöpfen, ist in der Argumentationslogik“39 der individualistischen Kernkompetenzperspektive nicht vorgesehen. Zwar arbeiten auch hier die einzelnen Unternehmen sachzielbezogen zusammen, die Qualität der Partnerschaft ist jedoch eine andere, so dass insbesondere ein kurzfristiger Transfer von Kontextwissen in diesem organisatorischen Rahmen überaus problematisch erscheint. Das Pendant zu der individuellen Perspektive ist die „kollektive Kernkompetenzperspektive“. In dieser Denkrichtung verkörpern interorganisationale Netzwerke kein zweckrationales Mittel zur Aneignung idiosynkratischer Kernkompetenzen, sondern sie sind als unternehmensübergreifender, strategischer Wertschöpfungsverbund zu verstehen, der ein Verbesserungspotential von Prozessen der betrieblichen Leistungserstellung hinsichtlich Zeit, Qualität, Verwendungsflexibilität und Reagibilität beinhaltet.40 Gemäß dem zuvor skizzierten Begriffsverständnis lassen sich nach Maßgabe des kollektiven Kernkompetenzansatzes, Netzwerke als Konglomerat von auf Kernkompetenzen fokussierten Unternehmen bzw. Unternehmensteilbereichen verstehen, deren reziprok-komplementäre Leistungsbeiträge zu einer einheitlichen und das Problemlösungspotential einzelner überschreitenden Netzwerkleistung integriert werden, um im Sinne strategischer Handlungsalternativen, eigene Kernkompetenzen einzusetzen und im Hinblick auf „Economies of Scope“ zu entwickeln. Ein Verlust eingebrachter Kernkompetenzen ist deshalb nicht zu befürchten, weil infolge der ausgeprägten Kernkompetenzorientierung der einzelnen Unternehmen eine wechselseitige Interdependenz und ein Gefühl des „Aufeinander-angewiesensein“ zu verzeichnen ist, die netzwerkinterne opportunistische Verhaltensweisen weitgehend unterdrücken.41 Zentrales Charakteristikum des kollektiven Kernkompetenzansatzes ist die strategische, handlungsleitende Intention der Netzwerkpartner, Erfolgspotentiale gemeinsam zu erschließen.42 Diesem „Strategic Intent“ liegt die Erkenntnis zugrunde, das Anwendungspotential ein37

Müller-Stewens/Osterloh bezeichnen diese Art von Wissensinternalisierung auch als „Know-How-Transfer“, während die Internalisierung impliziten Wissen mit dem Begriff „Kontext-Transfer“ belegt wird. Vgl. Müller-Stewens/Osterloh (1996), S. 19.

38

Vgl. Müller-Stewens/Osterloh (1996), S. 18.

39

Duschek (1998), S. 232.

40

Vgl. Mildenberger (1998), S. 72.

41

Vgl. Hippe (1997), S. 174.

42

Duschek unterscheidet hierbei zwei Optionen zur Entwicklung von Erfolgspotentialen: Zum einen die (langfristige) Nutzung der Kernkompetenzen der Netzwerkpartner und zum anderen die Evolution von kooperativen Kernkompetenzen. Vgl. Duschek (1998), S. 233.

352

A. Haritz und O. Mack

gebrachter Kernkompetenzen in qualitativer und quantitativer Hinsicht über Lernprozesse zu steigern. Durch die Ressourcenverknüpfung sind folglich nicht nur „Economies of Scale und Speed“-Vorteile zu erwarten, sondern gleichsam synergetische „Economies of Scope“-Effekte, die das inhärente Differenzierungspotential des kollektiven Kernkompetenzansatzes unterstreichen. Dessen Erfolgspotential resultiert somit nicht aus der temporär überlegenen Internalisierungs- und Imitationsstrategie einzelner Netzwerkunternehmen und damit aus dem Versuch, Wissensvorsprünge innerhalb des Netzwerkes aufzubauen, sondern aus der kollektiven Nutzung der gesamten Kernkompetenzbasis in Verbindung mit hohen Lernpotentialen infolge einer intraorganisationalen Fokussierung auf nur wenige Kernkompetenzen. In diesem Kontext formuliert Mildenberger zutreffend, dass „individuelle Erfolgspotentiale nicht erst nach der Kooperation realisiert werden, wie im individuellen Ansatz, sondern sie sind in der Kooperation selbst begründet“43. Entscheidend für eine Realisation der Erfolgspotentiale ist nicht nur die Qualität und Quantität der von den Netzwerkunternehmen eingebrachten Kernkompetenzen, sondern zugleich die Art und Weise der Kompetenzvernetzung im Hinblick auf die zu erbringende Netzwerkleistung, wobei derartige integrative Fähigkeiten Komplementaritätskompetenzen44 darstellen. Insbesondere Komplementaritätskompetenzen kommen in Form von Kommunikations- und Koordinationskompetenzen sowie in Form von gegenseitigen Abstimmungskompetenzen hinsichtlich individuell erstellter Leistungsbeiträge eine entscheidende Bedeutung zu. Diese Form einer reziproken Vernetzung von komplementären Kernkompetenzen ist in Anlehnung an Badaracco auch als Wissenskopplung45 zu verstehen. Mit diesem Begriff assoziiert er im Vergleich zur Produktkopplung eine höhere Form der interorganisationalen Zusammenarbeit, mit Hilfe derer strategische Erfolgspotentiale erschlossen werden können. Hierbei besteht die Möglichkeit, durch Zugriff auf Kernkompetenzen Dritter, kollektiv neue Fähigkeiten zu erlernen, die die Grundlage für kollektive, netzwerkinterne Wertschöpfungsprozesse bilden.46 Infolge derartiger Wissenskopplungen sind einzelne Netzwerkpartner i. d. R. nicht bestrebt, Kernkompetenzen anderer zu imitieren und zu internalisieren. Unter den Netzwerkpartnern besteht vielmehr Einigkeit darüber, aufgrund rekursiver Abhängigkeiten „die Komplementaritätskompetenzen zu harmonisieren und die Kernkompetenzen zu komplementarisieren“47. Vor dem Hintergrund des auf mehreren Ebenen ablaufenden, gleichsam netzwerkinternen und -externen Leistungswettbewerbs sind die einzelnen Netzwerkpartner jedoch gezwungen, ihre jeweiligen Kompetenzen kontinuierlich weiterzuentwickeln, so dass infolge dieses „Inter-Partner-Learning“ eine evolutionäre Kompetenzentwicklung sichergestellt ist, wodurch die zukünftige Wettbewerbsfähigkeit einzelner Netzwerkpartner aber auch des gesamten Netzwerkes entscheidend determiniert wird. Eine theoriegeleitete Modellierung wie Konkretisierung der Weiterentwicklung der Kompetenzbasen der Netzwerkpartner aus Sicht der beiden Perspektiven (individualistische und kol43

Mildenberger (1998), S. 73.

44

Vgl. Bellmann/Hippe (1996), S. 71. Vgl. auch Hinterhuber/Stahl, die diese Fähigkeit zur Kompetenzvernetzung als integrative Kompetenz bezeichnen. Hinterhuber/Stahl (1996), S. 109ff.

45

Vgl. Badaracco (1991), S. 123ff.

46

Vgl. Prange (1994), S. 29.

47

Mildenberger (1998), S. 75.

Kompetenzentwicklung in Unternehmensnetzwerken

353

lektive Kompetenzperspektive) ist bisher nur beschränkt erfolgt.48 Der dargestellte Sachverhalt der Kompetenzvernetzung soll im Folgenden mit Hilfe der Argumentationslogik der Spieltheorie vorgenommen werden, wobei eine Fokussierung auf die interorganisatorischen Lernprozesse unter expliziter Berücksichtigung der beiden Kompetenzperspektiven erfolgt.

3

Spieltheoretische Betrachtung der Kompetenzentwicklung in Unternehmensnetzwerken

Anhand eines spieltheoretischen Modells mit zwei Akteuren soll das interorganisationale Lernen als Grundlage für den Transfer von Kompetenzen zwischen Partnern in einem Unternehmensnetzwerk näher untersucht und folgende Fragen beantwortet werden: – Unter welchen Bedingungen kommt ein Lernen in Unternehmungsnetzwerken zustande? – Inwieweit lässt sich der individualistische sowie kollektive Kernkompetenzansatz hierbei abbilden? – Welche Auswirkungen haben unterschiedliche Arten von Kompetenzen auf einen beiderseitigen Lernprozess? Den Ausgangspunkt hierzu stellt ein spieltheoretisches Modell in Form des Gefangenendilemmas von van Hippel und Schrader dar, welches von Loebecke, van Fenema, Powell aufgegriffen und weiterentwickelt wurde.49 Dieses wird zunächst erläutert, auf die hier verfolgte Problemstellung angewandt sowie kritisch bewertet. In einem weiteren Schritt wird das Modell um verschiedene Aspekte erweitert.

3.1 Basismodell von Loebecke, van Fenema, Powell Ausgehend von den Grundannahmen des dargelegten ressourcenorientierten Ansatzes wird ein Zwei-Spieler-Gefangenendilemma modelliert. Die beiden Spieler A und B stellen Unternehmen eines hier betrachteten Unternehmensnetzwerks dar, die in einem co-opetitiven Verhältnis zueinander stehen. Hierunter wird der Zustand verstanden, der durch das gleichzeitig Vorliegen von Kooperation und Wettbewerb zwischen den beiden Unternehmen gekennzeichnet ist. Dabei kooperieren die Netzwerkpartner in spezifischen Bereichen, während sie auf den Absatzmärkten weiterhin im Wettbewerb stehen.50 Basierend auf den dargelegten Grundannahmen lässt sich folgendes modellieren: Die Netzwerkpartner A und B haben jeweils ein Knowledge-Set im Sinne einer Menge an Kernkompetenzen CA, CB. Diese Kompetenzen haben den Wert vA bzw. vB, der sich in einen Basiswert rx und einen Zusatzwert vax unterteilen lässt (vA = rA + vaA; vB = rB + vaB). Der Basiswert rx stellt den Beitrag der Kompetenz zum Wertschöpfungsprozess des Unternehmens dar, der vom Kunden entsprechend honoriert wird. Der Zusatzwert vax ergibt sich als zusätzlicher Mehrwert der Kompetenzbasis aus der Tatsache heraus, dass das jeweilige Unternehmen Kompetenzen hat, 48

Vgl. für die Betrachtung aus Sicht der neuen Systemtheorie sowie einer Modellierung mit Hilfe von System Dynamics Mildenberger (1998).

49

Vgl. van Hippel (1988); Schrader (1990); Loebecke/van Fenema/Powell (1999). Grundlegend zum Gefangenendilemma vgl. Axelrod (2000), S. 7f.

50

Vgl. Loebecke/van Fenema/Powell (1999), S. 15f.

354

A. Haritz und O. Mack

die das andere Unternehmen nicht kennt. Er verkörpert damit den besonderen Zusatzwert einer Kernkompetenz für das jeweilige Unternehmen und kann auch als die monopolistische Rente der einzigartigen Kompetenzen verstanden werden.51 Der komparative Vorteil des Mehrwerts vax geht im Rahmen von Lernprozessen verloren, da im Ergebnis kein Kompetenzmonopol mehr vorliegt.52

Abbildung 1:

Basismodell 1a

In einem nächsten Schritt wird nun untersucht, welche Effekte auftreten, wenn die beiden Unternehmen A und B nun als Partner in einem Unternehmensnetzwerk in eine Kooperation eintreten und dabei Kompetenzen ausgetauscht werden. Bei einer Öffnung von A und B im Rahmen von Kompetenzaustauschprozessen wird unterstellt, dass der gesamte Basiswert rx einer Kompetenz auf das empfangende