Managementwissen für Naturwissenschaftler und Ingenieure: Leitfaden für die Berufspraxis  [2., erw. u. ergänzte Aufl.]
 3540692444, 9783540692447 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Olaf E. Kraus, Hrsg.

Managementwissen für Naturwissenschaftler und Ingenieure Leitfaden für die Berufspraxis 2., erw. u. ergänzte Aufl.

1  3

Dr. Olaf E. Kraus Krelingstr. 24 90408 Nürnberg Deutschland [email protected]

ISBN 978-3-540-69244-7 e-ISBN 978-3-540-69245-4 DOI 10.1007/ 978-3-540-69245-4 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 2010 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speiche-rung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätz-lich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheber-rechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: Bauer, Thomas Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)

...dem Staat ist es ebenso wenig als der Menschheit um Wissen und Reden, sondern um Charakter und Handeln zu tun. W. v. Humboldt, 1810

Vorwort

Seit mehr als zehn Jahren ist der Inhalt dieses Buches Thema einer Vorlesung mit Übungen an der Universität Erlangen-Nürnberg. Die Veranstaltung richtete sich zunächst an Naturwissenschaftler, wurde dann für Ingenieurstudenten geöffnet und wird inzwischen überwiegend von Letzteren besucht. Darin spiegelt sich auch der Bedarf wieder, denn an Ingenieure werden im Berufsleben besonders häufig Management-Anforderungen gestellt und entsprechend lebendig haben wir den Wunsch junger Ingenieurstudenten gespürt, auch auf diesem Gebiet für den Berufseinstieg vorbereitet zu werden. Vor diesem Hintergrund haben wir die hiermit vorgelegte zweite Auflage des Buches nicht auf Naturwissenschaftler begrenzt (wie die erste Auflage), sondern für Ingenieure erweitert. Das erforderte eine völlige Neubearbeitung des Buches. So wurden teilweise neue Schwerpunkte und Akzente gesetzt, andere Themen weggelassen. Dabei haben wir auch von Erfahrungen profitieren können, die Absolventen unserer Veranstaltung inzwischen in der Berufspraxis machten. Eine weitere grundsätzliche Änderung besteht darin, dass die erste Auflage allein vom Herausgeber verfasst worden war, für die zweite Auflage sich die Dozenten der Universitäts-Veranstaltung dankenswerterweise bereit erklärt haben, als Autoren an dem Buch mitzuarbeiten. Auch das hat zu gründlicher Überarbeitung und Aktualisierung geführt. Geblieben ist die strikte Ausrichtung des Buches auf den praktischen Bezug zum Berufsleben. Wir legen hier kein Betriebwirtschafts-Buch vor, sondern behandeln über betriebswirtschaftliche Grundlagen hinaus alle Managementaspekte, die unserer Meinung nach für Naturwissenschaftler und Ingenieure im Berufsleben wichtig sind: Projektmanagement, Innovations- und Wissensmanagement, Marketing, Personalführung, Planung und Strategie, Qualitätsmanagement usw. Alle Autoren bringen außer einer naturwissenschaftlichen oder technischen Ausbildung auch eine betriebswirtschaftliche und/oder persönliche Industrie- und Wirtschaftserfahrung mit. Das stellt den praxisnahen Ansatz sicher. Dabei limitiert die Vielfalt der Themen naturgemäß die Tiefe. Wir haben uns daran orientiert, welche Anforderungen das normale Berufsleben an einen „Nicht-Betriebswirt“ stellen mag. Jedes Kapitel des Buches ist in sich abgeschlossen und kann für sich gelesen werden. Es enthält jeweils weiterführende aktualisierte Literatur, mit der man sich die Vertiefung erarbeiten kann. Unser übergeordnetes Ziel war es, mit unserem Buch allvii

viii

Vorwort

gemeine Orientierung und Überblick zu bieten, so dass man im Berufsleben von keinem Management-Thema überrascht oder gar verunsichert wird. Dabei wendet sich das Buch nicht nur an Berufseinsteiger, sondern wir hoffen, dass es auch für „gestandene“ Firmenmitarbeiter zum nützlichen Wegbegleiter im Berufsleben werden kann. Als Herausgeber möchte ich vor allem Herrn Prof. Dr.-Ing. E. Schlücker, Inhaber des Lehrstuhls für Prozessmaschinen und Anlagentechnik am Department für Chemie- und Bioingenieurwesen der Technischen Fakultät der Universität Erlangen-Nürnberg dafür danken, dass er die oben genannte Veranstaltung über alle die Jahre an seinem Institut unterstützt und gefördert hat und sich sowohl an der Veranstaltung als auch am Buch mit eigenen Beiträgen beteiligt hat. Danken möchte ich auch den Mitautoren Herrn Nicolas Alt, Herrn David Bolz, Herrn Axel Fronek, Frau Renate Kränzle-Fronek, sowie besonders Frau Nina Ebel, die zusätzlich dankenswerterweise die häufig nicht ganz einfache Koordination zwischen den Autoren, dem Korrekturlesen usw. übernommen hat. Für die sorgfältige Erstellung der Abbildungen danke ich Herrn Hans Bührer bestens. Freiwilligkeit ist bekanntlich der beste Motivator. Alle, die an der Veranstaltung und an diesem Buch mitgearbeitet haben, taten dies völlig freiwillig und hatten dabei nur im Sinn, einen Beitrag für die Berufsausbildung junger Menschen zu leisten. Das hat eine Atmosphäre und eine Stimmung geschaffen, die mir ein Erlebnis war, das ich nicht missen möchte und für welches ich sehr dankbar bin. Nürnberg, Mai 2009 

Olaf E. Kraus

Inhalt

1  Einführung ������������������������������������������������������������������������������������������������    1 2  Einstieg Projektmanagement ������������������������������������������������������������������    5 2.1  Diplomarbeit ��������������������������������������������������������������������������������������    6 2.2  Die wesentlichen Elemente des Projekt-Management ����������������������   10 2.2.1  Zielfestlegung ������������������������������������������������������������������������   11 2.2.2  Projektorganisation ����������������������������������������������������������������   11 2.2.3  Zeitplan ����������������������������������������������������������������������������������   13 2.2.4  Kostenplanung ����������������������������������������������������������������������   14 2.2.5  Projektsteuerung ��������������������������������������������������������������������   15 2.2.6  Innovationsgrad und Projektstrukturierung ��������������������������   23 2.3  Projekte im Anlagenbau ��������������������������������������������������������������������   24 2.3.1  Projektphasen ������������������������������������������������������������������������   25 2.3.2  Front-End Loading ����������������������������������������������������������������   28 2.3.3  Projektorganisation ����������������������������������������������������������������   28 2.3.4  Investitionskostenschätzung von Chemieanlagen ������������������   30 2.4  Netzplantechnik ��������������������������������������������������������������������������������   31 3  Betriebswirtschaftliche Grundlagen ������������������������������������������������������   3.1  Wirtschaftlichkeitsstudie ��������������������������������������������������������������������   3.1.1  Argumentationsbilanz ������������������������������������������������������������   3.1.2  Amortisationsrechnung ����������������������������������������������������������   3.1.3  Kapitalwertverfahren ������������������������������������������������������������   3.1.4  Kalkulationszinssatz ��������������������������������������������������������������   3.1.5  Interner Zinsfuß ��������������������������������������������������������������������   3.1.6  Erweiterungen ������������������������������������������������������������������������   3.1.7  Sensitivitätsanalyse ����������������������������������������������������������������   3.1.8  Vergleich mehrer Investitionen ����������������������������������������������   3.1.9  Firmenwert und ewige Rente ������������������������������������������������   3.2  Internes Rechnungswesen ������������������������������������������������������������������   3.2.1  Generelle Aufgaben der Kostenrechnung ������������������������������   3.2.2 Die Kosten eines Produktes nach der traditionellen Vollkostenrechnung ����������������������������������������������������������������  

37 37 39 40 42 43 44 45 46 49 49 50 51 59 ix



Inhalt

3.2.3  Flexiblere Konzepte der Kosten- und Leistungsrechnung ����   3.2.4  Kostencontrolling und Kostenmanagement ��������������������������   3.3  Externes Rechnungswesen ����������������������������������������������������������������   3.3.1  Doppelte Buchführung ����������������������������������������������������������   3.3.2  Grundbegriffe ������������������������������������������������������������������������   3.3.3  Das Konto ������������������������������������������������������������������������������   3.3.4  Der Buchungsvorgang �����������������������������������������������������������   3.3.5  Gewinn- und Verlustrechnung ����������������������������������������������   3.3.6  Bilanzen ��������������������������������������������������������������������������������   3.3.7  Bilanzierungsgrundsätze ��������������������������������������������������������   3.3.8  Aktuelle gesetzliche Veränderungen im Bilanzrecht ������������   3.3.9  Einige wichtige Kennziffern ��������������������������������������������������   3.3.10 Case Study: Ein Sanierungsansatz auf Basis von Bilanz und GuV ��������������������������������������������������������������������  

66 71 73 74 75 77 79 81 84 89 90 93 94

4  Rechtliche und organisatorische Grundlagen ����������������������������������������   101 4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen ����������   101 4.1.1  Allgemeiner Überblick ������������������������������������������������������������   102 4.1.2  Einzelunternehmen ������������������������������������������������������������������   103 4.1.3  Personengesellschaften ������������������������������������������������������������   104 4.1.4  Kapitalgesellschaften ��������������������������������������������������������������   108 4.2  Steuern ������������������������������������������������������������������������������������������������   113 4.2.1  Einkommensteuer ��������������������������������������������������������������������   113 4.2.2  Körperschaftsteuer ������������������������������������������������������������������   116 4.2.3  Gewerbesteuer ��������������������������������������������������������������������������   117 4.2.4  Umsatzsteuer ����������������������������������������������������������������������������   119 4.3  Kleine Vertragskunde ��������������������������������������������������������������������������   120 4.3.1  Vertragsformen ������������������������������������������������������������������������   120 4.3.2  Zustandekommen eines Vertrages ��������������������������������������������   125 4.3.3  Gefahrenübergang beim Kaufvertrag ��������������������������������������   126 4.3.4  Sicherung des Verkäufers ��������������������������������������������������������   127 4.3.5  Allgemeine Geschäftsbedingungen (AGB) ������������������������������   130 4.3.6  Lösen von Verträgen ����������������������������������������������������������������   131 4.3.7  Vertragsmanagement ����������������������������������������������������������������   134 5  Methoden des operativen Managements ��������������������������������������������������   137 5.1  Kommunikationsmethoden ������������������������������������������������������������������   137 5.1.1  Besprechungen ������������������������������������������������������������������������   138 5.1.2  Präsentationen ��������������������������������������������������������������������������   138 5.1.3  Moderation – gemeinsam zum Ziel ����������������������������������������   140 5.1.4  Verhandlungstechnik ����������������������������������������������������������������   143 5.2  Kreativmethoden – Ideen finden in Teamarbeit ����������������������������������   148 5.3  Qualitätsmanagement ��������������������������������������������������������������������������   152 5.3.1  Die ISO 9000 Normenfamilie ��������������������������������������������������   155 5.3.2  TQM – Total Quality Management ������������������������������������������   159

Inhalt

xi

5.3.3  KVP – Kontinuierlicher Verbesserungsprozess ����������������������   159 5.3.4  Six Sigma ��������������������������������������������������������������������������������   160 5.3.5  TPS – Toyota Produktions System ������������������������������������������   163 5.3.6  Wertorientiertes Prozess Design ����������������������������������������������   165 6  Personalführung ������������������������������������������������������������������������������������������   169 6.1 Das Polaritätsprinzip als Denkmodell für die Ambivalenz von Führung ������������������������������������������������������������������������������������������������   172 6.2 Zum Umgang mit Führungsmacht – am Beispiel von Xenophons „Anabasis“ (400 v. Chr.) ����������������������������������������������������������������������   174 6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld zwischen „Unterdrückung“ und „Freiheit“ ������������������������������������������   177 6.3.1 Teamarbeit bei gleichzeitiger erfolgsabhängiger individueller Entlohnung? ��������������������������������������������������������   178 6.3.2 Wie verträgt sich der Trend, jeden Mitarbeiter zum „Prozess-Eigner“ aufzuwerten mit der Diktatur durch das Qualitäts-Handbuch? ��������������������������������������������������������   182  6.3.3  Motivation zu Innovation trotz 360-Grad-Beurteilung? ����������   183 6.4  Beurteilung, Lob und Tadel ����������������������������������������������������������������   185 6.4.1  Beurteilung ������������������������������������������������������������������������������   186 6.4.2  Lob und Tadel ��������������������������������������������������������������������������   187 7  Markt-Management ������������������������������������������������������������������������������������   191 7.1  Einführung ������������������������������������������������������������������������������������������   191 7.2  Ein erfolgreiches Beispiel ��������������������������������������������������������������������   193 7.3  Die vier klassischen Säulen des Marketing ����������������������������������������   197 7.4  Der strategische Marketingansatz nach Porter ������������������������������������   200 7.5  „Quantensprung“ durch Schaffung von Netzwerken ��������������������������   204 8  Strategisches Management ������������������������������������������������������������������������   207 8.1  Strategische Planung ����������������������������������������������������������������������������   207 8.1.1  Definition ��������������������������������������������������������������������������������   207 8.1.2  Strategische Planung als kontinuierlicher Regelprozess ����������   208 8.1.3  Einige Analysen-Methoden ������������������������������������������������������   209 8.1.4  Case Study „Planungs- und Beratungs-GmbH“ ����������������������   213 8.1.5  Controlling/Steuerung ��������������������������������������������������������������   225 8.1.6  Business Plan als Sonderfall der Strategischen Planung ��������   228 8.2  Innovationsmanagement ����������������������������������������������������������������������   230 8.2.1  Das Innovationspotential des Menschen ����������������������������������   230 8.2.2 Grundlegende Vorgehensweisen im Innovationsmanagement ����������������������������������������������������������   237 8.2.3  Absicherung von Innovationen ������������������������������������������������   242 8.3  Wissensmanagement ����������������������������������������������������������������������������   244 8.3.1  Innovation durch Synergie ������������������������������������������������������   246 8.3.2  Transparenz ������������������������������������������������������������������������������   247

xii

Inhalt

8.3.3 Erzeugung von Identifikationsempfinden mit dem eigenen Unternehmen ��������������������������������������������������������������   247 8.3.4  Wissensmanagement und Informationstechnologie ����������������   248 9  Ausblick ��������������������������������������������������������������������������������������������������������   253 Autoren ������������������������������������������������������������������������������������������������������������   255 Sachverzeichnis ����������������������������������������������������������������������������������������������   257

Kapitel 1

Einführung O. Kraus

Management-Kenntnisse sind heute für jede Berufslaufbahn wichtig. Vom Projektingenieur ebenso wie vom Forscher in der Industrie, aber auch vom Universitätsprofessor und vom Laborchef wird heute erwartet, dass er seinen Verantwortungsbereich aktiv gestaltet und dabei die Gesamtstrategie seines Institutes oder seiner Firma managementmäßig begleitet. Vor diesem Hintergrund versucht das vorliegende Buch aus einem strikt pragmatischen Blickwinkel einen Überblick über das riesige Gebiet von Management zu geben. Sozusagen als erste Einführung und als Leitfaden. Unser Ziel ist es, zu erreichen, dass kein Berufsanfänger mit diesem Buch von irgendwelchen Aufgaben oder Anforderungen, die an ihn gestellt werden, verschreckt oder verunsichert wird und dass das Buch für jeden Ingenieur oder Naturwissenschaftler im Beruf Orientierung über Managementaufgaben bietet, die vielleicht nicht zum Tagesgeschäft gehören und deshalb auch nicht immer präsent sein können. Da somit die breite Orientierung im Vordergrund steht, haben wir bewusst auch Lücken in Kauf genommen, die sich jedoch für den Interessierten anhand der angegebenen Literatur leicht schließen lassen sollten. Andererseits haben wir uns bei bestimmten Themen, das gilt vor allem für die Betriebswirtschaft, nicht gescheut, auch sehr elementare Abläufe Schritt für Schritt durchzugehen, da sich unserer Auffassung nach erst damit das dahinter stehende Gedankengebäude dem betriebswirtschaftlichen „Laien“ erschließt. Für den Einstieg haben wir das Projekt-Management gewählt, da Ingenieure und Naturwissenschaftler damit am ehesten vertraut sind. Die Investitionsrechnung (häufig wichtiger Teil der Projektarbeit) leitet dann zu den betriebswirtschaftlichen Grundlagen. Es folgen rechtliche und organisatorische Grundlagen. Aus den „Werkzeugen“, mit denen der Manager heute arbeitet, haben wir diejenigen dargestellt, die uns für den Leserkreis des Buches wichtig erscheinen. Die letzten Kapitel behandeln dann Kernthemen jeder Management-Tätigkeit: Personal, Markt, Strategie. Jedes Kapitel ist für sich abgeschlossen, kann für sich gelesen werden und enthält auch ein separates Literatur-Verzeichnis. Trotzdem hoffen wir, dass sich das Buch – das ja aus einer Universitäts-Veranstaltung entstand – als geschlossenes Ganzes darstellt und lesen lässt.

O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_1, © Springer-Verlag Berlin Heidelberg 2010





1 Einführung

Was ist Management? „Management“ ist ein Modewort und entsprechend gedankenlos wird es gebraucht. Man kann zunächst feststellen, was Management nicht ist: Es ist nicht Betriebswirtschaft, es ist nicht Unternehmertum, es ist nicht Menschenführung – alle diese Begriffe haben mit Management zu tun, Management geht jedoch darüber hinaus. Nähert man sich dem Begriff von der Wortbedeutung her, so erläutert das englische Wörterbuch „…to control a business“. Das Verb „to control“ entspricht dabei nicht dem deutschen „kontrollieren“, sondern ist korrekt mit „steuern/lenken“ zu übersetzen. Der Manager führt und steuert also eine Geschäftstätigkeit. Diese Steuerungsfunktion lässt sich systemtechnisch definieren, wie es Abb. 1.1 mit der Darstellung eines Regelkreises zeigt. In einem Regelkreis wird ein „Soll“Wert (Erfolg SOLL), also das Ziel vorgegeben. Das operative Geschäft stellt sich darauf ein. Der „output“ (Erfolg IST) wird von der Messeinrichtung (dem „Controlling“) gemessen und an den „Regler“, das Management zurückgemeldet. Bei Abweichungen kann entweder auf der Regelstrecke, also im operativen Geschäft, eingegriffen und gegengesteuert werden, oder das obere Management verändert die „Soll“-Vorgabe. Diese Rückkopplungs-Schleifen sind für das Verständnis von Management als Regelprozess entscheidend. Werden in einem Regelsystem mehrere Regelkreise aufgebaut, spricht man von einem „kaskadierten Regler“. Nach diesem Leitbild bemüht man sich in modernen Organisationen möglichst viele, weitgehend autonome Regelkreise zu etablieren, die jedoch in einem großen Regelungssystem (dem Gesamtunternehmen) koordiniert werden und auf ein übergreifendes Gesamtziel hinarbeiten. Entscheidend ist die Zielorientierung, die entsprechendes „Handeln“ verlangt. Man kann Management deshalb auch als „Handwerk“ bezeichnen (Malik 2005). Management ist keine Wissenschaft, sie arbeitet jedoch – etwa entsprechend der Medizin – mit wissenschaftlichen Vorgehensweisen und Verfahren. Der Managementvordenker Peter Drucker (2000) sagt, das Management verlange „…die Beachtung der Regeln wissenschaftlicher Beobachtung, wie sie sich seit Aristoteles in unserer Kultur bewährt haben“.

Abb. 1.1   Der Managementprozess als Regelprozess (nach Schwab 2004)

1 Einführung



Die oben angesprochene Führungs- und Steuerungs-Kompetenz basiert sowohl auf spezifischem Wissen, wie es v. a. von der Betriebswirtschaftslehre vermittelt wird als auch auf einer Reihe von Verhaltensfähigkeiten, wie z. B. der Kunst der Menschenführung, dem Organisationsgeschick, der Fähigkeit zur Kommunikation, der Redekunst, dem Verhandlungsgeschick, der Motivationskunst etc. Für erfolgreiches Management ist entscheidend, dass beides zu zielgerichtetem Handeln führt. Wichtiger als Wissen ist dabei zweifellos das Verhalten, ein Aspekt, der in der Management-Ausbildung generell zu kurz kommt. Wissensdefizite kann man später in seinem Berufsweg ausgleichen und deshalb kann aus einem Ingenieur oder Naturwissenschaftler durchaus ein guter Manager werden. Aus diesem Grunde haben wir das von Wilhelm von Humboldt stammende Motto der ersten Auflage auch für diese Auflage übernommen. Wir halten es für wichtiger denn je und sind überzeugt, dass die darin genannten klassischen Ausbildungsziele „Charakter“ und „Handeln“ besonders gut die Anforderungen kennzeichnen, welche die moderne Wirtschaft an den Manager stellt. Natürlich steht das in krassem Gegensatz zu dem Erscheinungsbild, welches von „dem Manager“ in Medien und Öffentlichkeit zur Zeit wahrgenommen wird. Die angeprangerten moralischen Verfehlungen sind auch durch nichts zu entschuldigen. Jedem muss aber auch klar sein, dass der Manager – mehr als in fast allen anderen Tätigkeiten – der Ambivalenz menschlichen Verhaltens in besonderem Maße ausgesetzt sein wird. Als Manager brauchen wir auf der einen Seite den entschlossenen, durchsetzungsstarken „Tatmenschen“, der handelt. Fehlt auf der anderen Seite das Korrektiv des „Charakters“, entwickeln sich moralische Monster. Diesem Spannungszustand, dem menschliches Verhalten ganz allgemein ausgesetzt ist, darf und kann der Manager in besonderer Weise nicht ausweichen. Dabei sind die Antagonisten „Handeln“ und „Charakter“ nicht nur unverzichtbare Voraussetzungen für ein humanes und von Kultur getragenes Menschenbild. Es sind auch die Grundvoraussetzungen – wie wir im Kap. 6 über Menschenführung näher ausführen werden – für langfristigen wirtschaftlichen Management-Erfolg. Denn an vielen Beispielen lässt sich zeigen, dass Unternehmen dauerhaft nur dann erfolgreich und überlebensfähig sind, wenn sie einer klaren Werteorientierung folgen. Auf entsprechende Belege werden wir immer wieder hinweisen und hoffen, damit nebenbei auch zum Nachdenken über die tieferen Beweggründe und Grundlagen des Managerberufes anzuregen.

Literatur Drucker PF (2000) Die Kunst des Managements. Econ Verlag, München Humboldt W v (1964) Über die innere und äußere Organisation der höheren wissenschaftlichen Anstalten in Berlin (1810). In: Flemmer W (Hrsg.) Wilhelm von Humboldt. Schriften. Wilhelm Goldmann Verlag, München, S 300–309 Kraus O (2006) Tatmenschen mit Charakter. Leserzuschrift. HBM Okt. 2006. S 130 Malik F (2005) Management. Das A und O des Handwerks. Frankfurter Allgemeine Buch, Frankfurt /Main Mintzberg H (2004) Der Managerberuf: Dichtung und Wahrheit. HBM Okt. 2004, S 72–89 Schwab A (2004) Managementwissen für Ingenieure. Springer-Verlag, Berlin

Kapitel 2

Einstieg Projektmanagement D. Bolz, O. Kraus

Ingenieure und Naturwissenschaftler wachsen mit Projekten auf. Jedes Experiment, jeder Laborversuch, jede technische Planungsaufgabe, jede Pflanzen- oder Tierbeobachtung, jede Exkursion oder Kartierungsmaßnahme, Seminar- oder Diplomarbeit ist ein Projekt: ein in sich abgeschlossener Vorgang, der durch eine bestimmte Zielvorstellung ausgelöst wird und mit bestimmtem Zeit-, Finanz- und Personal-Aufwand zu einem Ergebnis – positiv oder negativ – geführt wird. Es hat sich gezeigt, dass diese aus der Wissenschaft stammende Arbeitsweise auch im Geschäftsleben außerordentlich erfolgreich eingesetzt werden kann, gerade weil sie sich auf ein begrenztes Gebiet konzentriert – oder „fokussiert“ – und alles daran gesetzt wird, das gesamte verfügbare Wissen und Können für die Lösung eines bestimmten und begrenzten Problems einzusetzen. Zumal sich damit auch entscheidende Zeitgewinne realisieren lassen und Zeit immer mehr zu der überragenden Wettbewerbskomponente der global agierenden Wirtschaft wird. Nicht nur F+E- (Forschungs- und Entwicklungs-) Projekte, sondern auch andere Aufgabenstellungen, die früher in die fest definierten Kompetenzen der hierarchischen Linienorganisation gehörten, werden heute projektartig organisiert und durchgeführt: die Investition in eine neue Fabrikhalle ebenso wie die Untersuchung eines bestimmten Kundenverhaltens, die Umstrukturierung einer Abteilung, die Verbesserung der Qualität, die Verkürzung von Produktions-Durchlaufzeiten, die Reduzierung der Lagerbestände usw. Jede „einmalige“ Maßnahme, die nicht zum Tagesgeschäft der Linienorganisation gehört, wird demnach in der Industrie als „Projekt“ bezeichnet und entsprechend behandelt. Projektorganisationen sind dadurch gekennzeichnet, dass sie Menschen aus unterschiedlichen Hierarchiestufen und Sachgebieten in Teams zusammenfassen. Die „Teamfähigkeit“ von Mitarbeitern ist deshalb zu einem zentralen Anforderungselement des Personalwesens geworden. Gleichzeitig lösen sich dadurch die alten hierarchischen Strukturen mehr und mehr auf, wie wir noch sehen werden. Es entsteht ein neues Führungsverhalten, das durch Delegieren von Entscheidungsbefugnis Autonomie, Motivation, Eigeninitiative, unternehmerisches Denken fördert und damit die wirkungsvollsten Erfolgs-„Treiber“ der menschlichen Natur freimacht. Die modernen Qualitätsmanagement-Methoden (s. Kap. 5.3) und viele andere Erfolgskonzepte basieren darauf.

O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_2, © Springer-Verlag Berlin Heidelberg 2010





2 Einstieg Projektmanagement

Auch wenn die Methodik der Projektarbeit aus der Wissenschaft stammt, die Werkzeuge und Vorgehensweisen wurden in der Industrie systematisiert und verfeinert. Eine umfangreiche Literatur beschäftigt sich mit den verschiedenen Aspekten von Projektmanagement. Da sie gewöhnlich von besonders komplexen Projekten ausgeht, erscheint sie dem Rat suchenden Praktiker meist zu theoretisch und zu überfrachtet. Der folgende Überblick versucht deshalb, möglichst praxisorientiert vorzugehen.

2.1 Diplomarbeit Als junger Mensch ist man zum ersten Mal „managementmäßig“ gefordert, wenn man das Thema für seine Diplom-, Seminar- oder Studienabschluss-Arbeit erhält. Nur, das sagt einem in der Regel niemand! Und wie oft kommt es dann vor, dass man sich mit allem wissenschaftlichen Enthusiasmus der Jugend in seine Aufgabe stürzt und nach einigen Monaten entsetzt feststellen muss, dass man sich hoffnungslos an einem unbedeutenden Teilproblem festgebissen hat. Bei Einstellungsgesprächen mit Hochschulabsolventen wird selten nach der Note der Diplomarbeit, aber immer nach der benötigten Zeit und den Ergebnissen der Arbeit gefragt. Der Schwerpunkt einer Diplomarbeit sollte eigentlich bei der Management-Funktion liegen. Denn auch für einen angehenden Wissenschaftler oder Ingenieur ist entscheidend, dass er ein Thema oder eine Aufgabe zielführend und effizient bearbeitet und das muss er spätestens während seiner Diplomarbeit gelernt haben. Wir schauen uns deshalb zunächst beispielhaft an, welche organisatorischen Aspekte man bei einer Diplom- oder ähnlichen Arbeit zu beachten hat und leiten dann zum professionellen Projektmanagement über, wo wir die gleichen fünf Kern-Elemente finden werden. Es sind: 1. Ziel des Projektes 2. Projekt-Team/Organisation 3. Zeitplan 4. Kostenplan 5. Projektsteuerung Der erste Punkt klingt lächerlich – das ist doch selbstverständlich, dass zunächst das Projektziel feststehen muss! Die langjährige Berufserfahrung zeigt jedoch, dass die häufigsten Fehler gerade bei diesem Punkt gemacht werden. Weil nämlich oft nicht eindeutig feststeht, definiert und auch niedergeschrieben ist, was bei dem Projekt, der Maßnahme, der Marketing-Aktion usw. eigentlich herauskommen soll. Wir springen jetzt einmal in unser Beispiel. Es greift das Thema einer geologischen Diplomarbeit auf und zwar der des Herausgebers, die in den 60er Jahren des vorigen Jahrhunderts erstellt wurde. Mit der Zielsetzung – dem ersten Element – haben wir hier im Allgemeinen keine Probleme, denn das Projektziel steht bei Diplomarbeiten meist fest, auch wenn es häufig nicht vorher schriftlich

2.1 Diplomarbeit



fixiert wird (worauf man immer bestehen sollte). Im vorliegenden Beispiel hieß die Aufgabe: • Geologische Kartierung des Westteils der Heiterwand (Lechtaler Alpen) im Maßstab 1:10.000. • Klärung der tektonischen Verhältnisse im Bereich der Inntal-Deckenstörung. • Klärung der faziellen und sedimentologischen Entwicklung des Ladin. Auf die Zielfestlegung folgt laut Lehrbuch der Projektstrukturplan. Dessen wesentliche Elemente sind unserer Meinung nach: • Projektorganisation, • Zeitplan und • Kostenplan Der Umfang der Strukturierung unterscheidet sich jedoch abhängig von Art und Komplexität des Projektes. So zeigt das Beispiel des Anlagenbaus (Kap. 2.3), dass eine Reihe weiterer Elemente dazu kommen können, aber die genannten sind die Kernelemente und für ein Kleinprojekt wie für eine Diplomarbeit sind diese Elemente auch ausreichend. Beim Element der „Projektorganisation“ sind wir dabei in unserem Beispiel mit einem schwierigen Problem konfrontiert: Als Diplomand ist man sozusagen auf dem hierarchischen Niveau des „Lehrlings“ in einer Institutsorganisation (s. Abb. 2.1). Man braucht aber Mithilfe von Werkstatt-Meister, den Assistenten und sogar den Professoren. Wie schafft man das? Dazu eine Zwischenbemerkung: Wir werden später sehen (Kap. 6), dass in Wirtschaft und Industrie die traditionellen hierarchischen Ordnungen mehr und mehr von projektbezogenen Organisationsformen abgelöst werden. Wesentliche Merkmale einer Projektorganisation sind, dass es einen Projektleiter gibt, der die Verantwortung trägt (ganz unabhängig von seiner hierarchischen Position) und dass

Abb. 2.1   Der Diplomand in der Institutsorganisation



2 Einstieg Projektmanagement

Abb. 2.2   Angestrebte Projektorganisation der Diplomarbeit

das Team aus Mitgliedern unterschiedlicher Hierarchie-Stufen und Fachgebiete zusammengesetzt ist. Um sicherzustellen, dass Entscheidungen des Teams in der Gesamtorganisation auch durchgesetzt werden, gibt es einen sogenannten „Lenkungsausschuss“, an den der Projektleiter in regelmäßigen Sitzungen berichtet und der die hierarchisch übergeordnete Ebene repräsentiert. Was hier beschlossen wird, wird auch durchgesetzt. Eine entsprechende Projektorganisation könnte man sich auch für Diplomarbeiten vorstellen (s. Abb. 2.2), auch wenn sie im Universitäts-Umfeld unüblich ist. In unserem Fallbeispiel könnte das bedeuten, dass der „Diplomvater“ mit einem Kollegen oder Assistenten, welcher beispielsweise die Arbeit betreut, einen „Lenkungsausschuss“ bildet, der sich – ohne bestimmte Formalitäten – einmal am Anfang der Arbeit mit dem Projektleiter (Diplomanden) trifft, um festzulegen, welche InstitutsRessourcen der Diplomarbeit zur Verfügung stehen sollen (Werkstatt, Röntgengeräte etc.) und welche Personen am Institut welche Hilfestellungen leisten mögen. Weitere Treffen wären bei wichtigen Entscheidungen, ansonsten eventuell erst dann notwendig, wenn die wesentlichen Ergebnisse vorliegen und der Diplomand mit dem Formulieren der Arbeit beginnt. Im weiteren Verlauf der Arbeit kann sich dann der Diplomand selbständig der Ressourcen bedienen. Der dritte Schritt ist der Zeitplan (s. Abb. 2.3). Dabei muss man sich zuerst überlegen, wann man mit der Arbeit fertig sein will oder muss (weil z. B. sonst das Geld ausgeht) und dann die Einzelschritte sorgfältig planen: Geländeaufenthalt im Sommer, Literaturstudien, Laborarbeit im Winter, Zeiten für schreiben, zeichnen, Fotoarbeiten etc. ausreichend berücksichtigen. Das Ganze stellt man in einem sogenannten Balkendiagramm dar.

2.1 Diplomarbeit



Abb. 2.3   Zeitplan als Balkendiagramm

Der vierte Schritt ist jetzt einfach: Man kalkuliert oder schätzt die Kosten, welche die einzelnen Arbeitsschritte in den vorgesehenen Zeitabschnitten verursachen werden und erhält damit das wichtigste Dokument jeden Projektplanes, die Datentabelle mit den Kosten (s. Abb. 2.4). Nun hat man die Basis geschaffen, um das fünfte entscheidende Element zu organisieren, die Projektsteuerung. Man kann z. B. wie in Abb. 2.5 die Kosten (in Prozent der Gesamtkosten) pro Quartal auftragen, um zu visualisieren, in welchen Quartalen die wesentlichen Kostenlasten anfallen werden oder man kann eine Summenkurve des Verlaufs der Gesamtkosten erstellen, wie es bei allen größeren Projekten gemacht wird. So eine Summenkurve gibt einem sehr schnell Indikationen, wenn irgendetwas aus dem Ruder läuft. Beispiel: Im 2. Quartal ‘64 stellt man fest,

Abb. 2.4   Kostenplanung der Diplomarbeit

10

2 Einstieg Projektmanagement

Abb. 2.5   Auswertung des Datengerüstes der Kosten der Diplomarbeit. Balkendiagramm = Kosten pro Quartal, Summenkurve = Gesamtkosten

dass die Kurve viel steiler ansteigt als geplant. Was tun? Managen! Wie immer stehen zwei Steuerungsoptionen offen (s. auch Abb. 1.1): • In der „Regelstrecke“ eingreifen: In den Folgequartalen schneller und mit weniger Kosten arbeiten, um den Kostenplan einzuhalten (Gegensteuern!). • Am „Regler“ eingreifen: Den Plan ändern, noch einmal kalkulieren und das Kostenbudget entsprechend erhöhen (falls Eltern oder sonstige Sponsoren mitspielen!). Man sieht: Plötzlich hält man ein Instrument in der Hand. Ein sehr simples und einfach zu erstellendes, aber es ist Voraussetzung dafür, dass man steuern, also managen kann. Es werden Werte geplant, ein „SOLL/IST-Vergleich“ wird durchgeführt (d. h. Messwerte werden erfasst) und auf dieser Basis werden Gegensteuerungsmaßnahmen beschlossen und eingeleitet. Dabei hat man grundsätzlich immer zwei Handlungsoptionen: Entweder man ändert etwas an der Durchführung (Gegensteuerungsmaßnahmen) oder man ändert den Plan. Wichtig ist, dass man etwas unternimmt. Managen heißt immer handeln und niemals Ereignisse schicksalsergeben und passiv hinnehmen!

2.2 Die wesentlichen Elemente des Projekt-Management Es gibt völlig verschiedene Arten von Projekten in allen denkbaren Sachgebieten und mit ganz unterschiedlichen Zielsetzungen. Dennoch lässt sich zeigen, dass einige wenige Grund-Elemente – nach unserer Meinung die fünf oben am Beispiel der Diplomarbeit gezeigten Kern-Elemente – die Basis jeden Projekt-Managements bilden sollten. Wir werden deshalb diese Elemente im Folgenden etwas ausführlicher behandeln. Allerdings dürfen sie niemals zu einem starren Gerüst werden. Man

2.2 Die wesentlichen Elemente des Projekt-Management

11

kann Projekte auch leicht „übersteuern“ und formelles, bürokratisches Vorgehen ist genauso unproduktiv wie zu wenig Steuerung. Am Beispiel der Varianten „Innovationsgrad“ und „Strukturierungsgrad“ werden wir im Abschn. 2.2.5 auf diesen wichtigen Zusammenhang gesondert eingehen.

2.2.1  Zielfestlegung Wie wir gesehen haben, ist die Zielfestlegung bei der Diplomarbeit einfach und klar durch die Themenstellung definiert. Aber auch in diesem einfachen Beispiel wird deutlich: Es kommt sozusagen ein Vertrag zwischen Diplomvater, der das Thema vorschlägt, und Diplomand zustande, der das Thema annimmt. Das gilt generell für alle Projekte: Es gibt einen Auftraggeber und einen Auftragnehmer. Der Projektauftrag sollte dabei so klar wie möglich definiert sein: mit den Projektzielen, aber auch mit den übrigen Rahmenbedingungen wie dem Zeitbedarf, den zur Verfügung stehenden Kapazitäten, den bewilligten Geldmitteln, den Entscheidungsbefugnissen des „Auftragnehmers“ – des Projektmanagers – usw. An unklaren Zieldefinitionen scheitern die meisten Projekte in der Industrie (Platz 1990) und sicherlich auch in der Forschung. Der Projektmanager muss in dieser Phase auch darauf achten, dass die Ziele nicht überfrachtet und damit unrealistisch werden. Schließlich muss er die Zielerfüllung am Ende verantworten. Deshalb liegt es auch in seinem Interesse, dass vor Beginn der Arbeiten die Messgrößen für die Zielerreichung klar definiert werden. Ist die wichtigste Messgröße die zur Verfügung stehende Zeit oder – in einem Kostensenkungsprojekt – die erreichten 10% Einsparung oder die Reduzierung der Abwasserfracht in einem Umweltprojekt? Woran wird die Arbeit des Teams und die des Projektmanagers gemessen werden? Häufig lässt sich – und das gilt nicht nur für Forschungsprojekte – das endgültige Ziel noch gar nicht definieren. Forschungsprojekte sind häufig Suchbewegungen. Dann muss man stufenweise vorgehen, von einem Meilenstein (s. unten) zum anderen. Der Weg bis zum nächsten „Entscheidungsknoten“ muss jedoch eindeutig definiert sein. Wie in Kap. 2.3 gezeigt wird, werden auch große Anlagenprojekte in der Regel stufenweise realisiert. Ein „basic engineering“ klärt zunächst die technische Machbarkeit, darauf folgt eine grobe Wirtschaftlichkeitsuntersuchung und erst wenn diese zu positiven Resultaten kommt, wird die detaillierte Projektstudie in Auftrag gegeben und erst wenn diese zu einem positiven Ergebnis kommt, erhält der Bau der Anlage grünes Licht. Das Gesamtprojekt besteht also aus mehreren Einzelprojekten, die aufeinander aufbauen.

2.2.2  Projektorganisation Ein Projekt-Team ist ein Unternehmen im Unternehmen oder ein „Institut“ im Institut einer wissenschaftlichen Organisation. D. h. es steht neben der normalen, hierar-

12

2 Einstieg Projektmanagement

chisch gegliederten „Linienorganisation“. Der Projektleiter ist der „Unternehmer“, der oberste Verantwortliche dieser Parallelorganisation und benötigt entsprechende Machtbefugnisse. Damit sind Konflikte zur „Linienorganisation“ sozusagen vorprogrammiert, manchmal sind sie durchaus gewollt! Das macht die Aufgabe für den Projektleiter so ungeheuer schwer und ist einer der häufigsten Gründe für das Scheitern von Projekten. Deshalb ist die Institution eines Lenkungsausschusses aus unserer Sicht unverzichtbar. Der Lenkungsausschuss ist sozusagen der „Aufsichtsrat“ des kleinen Projekt-„Unternehmens“. In ihm müssen Vertreter einer höheren Hierarchiestufe vertreten sein, die bestimmte Machtbefugnisse an den Projektleiter delegieren und dafür sorgen, dass diese auch durchgesetzt werden. Nur wenn das gewährleistet ist, kann der Projektleiter die volle Verantwortung für ein Projekt übernehmen. In Unternehmen, die ausschließlich Projektarbeit betreiben, ist der Lenkungsausschuss häufig als oberstes Unternehmensgremium institutionalisiert. Bei großen Engineering-Firmen übernimmt in der Regel der Vorstand direkt diese Funktion. Die Projektleiter, die teilweise Projekte in Milliardenhöhe verantworten, berichten direkt an den Vorstand. Matrixartig vernetzt besteht daneben eine funktionale Organisation mit den Arbeitsgebieten Engineering, Einkauf, Baukonstruktion etc. Diese Abteilungen entsenden die entsprechenden Experten in die Projekt-Teams. In der Literatur wird häufig eine interne Matrixorganisation empfohlen. Der Projektleiter erhält dabei die Aufgabe sozusagen als Koordinator die Arbeit verschiedener Mitglieder der Linienorganisation zu überwachen. Davor sei gewarnt. Meist wird die Kompetenz des Projektleiters dann nicht ernst genommen und der Lenkungsausschuss, v. a. sein Vorsitzender muss sich massiv in die operativen Aufgaben einschalten. Dann sollte der aber konsequenterweise die Projektleitung direkt übernehmen und das Projekt innerhalb der Linienorganisation abwickeln. Gerade weil sich Gruppenarbeit, Teamwork, workshops etc. großer Beliebtheit erfreuen und den Anstrich von „political correctness“ haben, ist es wichtig sich klar zu machen, dass ein Projekt-Team (oder irgendeine andere Gruppe) nur funktionieren wird, wenn die Verantwortlichkeiten klar geregelt sind. Das kann durchaus so erfolgen, wie im Beispiel Kap. 2.3.3, dass eine „Doppelspitze“ berufen wird. Die Rechte, Pflichten und die Aufgabenstellung müssen jedoch klar und transparent bekannt sein. Natürlich wird der Projektleiter nicht weit kommen, wenn er seine Teammitglieder majorisiert, unterdrückt, schlecht informiert – kurz Führungsfehler macht. Um solche Fehler ggf. zu korrigieren, ist aber unter anderem der Lenkungsausschuss da. Insgesamt ist das Führen von Projekt-Teams eine der heikelsten und anspruchsvollsten Tätigkeiten, die es in der Personalführung gibt. Sie ist eine echte Bewährungsprobe für den Projektleiter. Seine Führungsqualität ist der eigentliche Erfolgs„Treiber“ eines Projektes. Alles, was in Kap. 6 über Menschenführung gesagt wird, sollte in der Projektführung besonders beherzigt werden. Wie solch eine Projektorganisation aussieht, zeigen Abb. 2.2 und 2.12 für das Beispiel eines großen Anlagenprojektes.

2.2 Die wesentlichen Elemente des Projekt-Management

13

2.2.3  Zeitplan So einfach die Planung unseres Eingangsbeispieles Diplomarbeit auch ist, erfordert sie doch eine Reihe planerischer Überlegungen: In den Wintermonaten ist Geländearbeit nicht möglich, bevor man in das Gelände geht, muss man sich Karten, Luftbilder etc. besorgen, die Auswertung der Proben kann erst geplant werden, sobald man die Proben gesammelt hat usw. Die Planung von Großprojekten mit vielen – ggf. internationalen – Teilprojekten ist natürlich ungleich komplexer. Seit den 60er Jahren wurden viele Planungstechniken entwickelt und eingeführt. Sie werden heute wirkungsvoll von EDV-Programmen unterstützt, so dass man für jeden Zweck die geeignete Technik finden wird. Das ist auch wichtig, denn gerade die Zeitplanung darf nicht zu starr sein und soll dem jeweiligen Zweck angepasst werden. Die wichtigsten Planungstechniken sind. Balkenplan Die einfachste und allgemein verständliche Planungstechnik ist der Balkenplan, wie wir ihn auch für die Zeitplanung der Diplomarbeit eingesetzt haben. Wir haben ihn in Abb. 2.6 noch etwas vereinfacht und nur die wesentlichen Phasen (Vorbereitung, Geländearbeit, Auswertung, Redaktion) dargestellt. Man könnte jetzt die Teilprojekte gesondert und detailliert aufgliedern, wie man es bei größeren Projekten auch tut. Der Balkenplan hat den großen Vorteil, dass man auch komplexe Projekte sehr gut visualisieren kann. Zusätzlich lässt sich der jeweilige Arbeitsfortschritt gut illustrieren, meist werden geplante Tätigkeiten mit „offenen“ Balken, abgeschlossene mit geschlossenen, schwarzen Balken dargestellt. So erhält man einen schnellen Überblick über die Projektsituation. Der Nachteil des Balkenplanes besteht darin, dass die Abhängigkeiten der einzelnen Vorgänge voneinander nicht oder nur unzureichend dargestellt werden können. Man behilft sich dabei mit Pfeilen, mit denen gekennzeichnet wird, welcher

Abb. 2.6   Grobplan Diplomarbeit als Balkenplan mit Meilensteinen

14

2 Einstieg Projektmanagement

Arbeitsschritt erst begonnen werden kann, wenn ein vorhergehender abgeschlossen ist. Sehr detaillierte Balkenpläne werden heute über die EDV generiert. Meilensteine Als Meilensteine bezeichnet man die wichtigsten, nachprüfbaren Projektdaten. Typische Meilensteine sind: • • • • •

Anfang und Ende von Projektphasen, Teilprojekten und Arbeitspaketen Test- und Lieferereignisse Planungsverknüpfungen Projektüberprüfungen etc.

In unserem Beispiel Diplomarbeit sind das außer Start- und Übergabe-Termin die klimabedingten Anfangs- und End-Termine der Geländearbeit sowie die Abnahme der Geländearbeiten (Abb. 2.6). Dies sind die Hauptmeilensteine, daneben gibt es natürlich weitere Termine geringerer Bedeutung. D. h. man untergliedert auch die Meilensteine hierarchisch entsprechend ihrer Bedeutung und der Ebene im Projektstrukturplan. Der Startpunkt eines Projektes wird häufig durch ein sogenanntes „Kick-offmeeting“ markiert. Lenkungsausschuss, Projektleiter und Kernteam treffen sich und legen die wichtigsten Termine, vor allem jedoch die wesentlichen Regeln der Zusammenarbeit für das Projekt, fest. Für das Top-Management ist es meist ausreichend, eine Liste der wichtigsten „Meilensteine“ eines Projektes zu erhalten, mit der die wesentlichen Projektereignisse verfolgt und verifiziert werden können. Das ist ein übersichtliches und handliches Werkzeug zur groben Projektsteuerung. Die zeitliche Distanz von zwei Meilensteinen sollte drei Monate nicht übersteigen, damit gesichert ist, dass „reviews“ – also Lenkungsausschuss-Meetings – in nicht zu weiten Abständen stattfinden. Der Ablauf komplexer Projekte wird heute mit der Methode der Netzplantechnik optimiert, die in Kap. 2.4 erläutert wird.

2.2.4  Kostenplanung Der nächste Schritt der Projektplanung ist die Kostenplanung. Obwohl er keine besonderen Anforderungen an die Planungstechnik stellt, ist er besonders heikel und verantwortungsvoll. Im Allgemeinen beginnt diese Phase mit der Kapazitätsplanung, vor allem bei Planungs-, Entwicklungs- und Engineering-Projekten. Das Volumen von Ingenieursstunden, Montagestunden, Fertigungsstunden etc. ist zunächst zu schätzen und anschließend so detailliert wie möglich zu planen. Im Übrigen lässt sich bei der Kapazitätsplanung die Netzplantechnik (s. Kap. 2.4) sinnvoll einsetzen, da sich mit ihr verschiedene Projektabläufe über die EDV simulieren lassen. Man wird versuchen, Kapazitätsengpässe zu vermeiden und z. B. die kostenträchtige Häufung von Ingenieursstunden in kurzen Zeiträumen auszugleichen, in-

2.2 Die wesentlichen Elemente des Projekt-Management

15

dem man Vorgänge so verschiebt (ohne den kritischen Weg zu verlängern), dass sie nacheinander angeordnet sind (Wischnewski 1999). Das kann zu entscheidenden Kostenreduzierungen führen. Wie problematisch Kostenschätzungen sind, erleben wir fast täglich aus Skandalmeldungen der Tagespresse, wenn bei großen öffentlichen Bauvorhaben die Kosten um 40% oder gar 50% überschritten werden. Versagt hier die Planungstechnik? Sicherlich liegt es nicht an den Methoden, sondern es sind andere Managementfehler dafür verantwortlich. Es verdeutlicht jedoch die Brisanz der Kostenplanung. Wenn bei anderen Elementen der Projektplanung häufig übersteuert wird, wird im Allgemeinen oft leichtsinnigerweise nicht daran gedacht, dass die Kosten eines Projektes ganz am Projektanfang determiniert werden. Zeitverzögerungen kann man später durch Einsatz zusätzlichen Personals etc. aufholen, Kostenüberschreitungen nicht. Deshalb muss die Kostenplanung ganz besonders sorgfältig durchgeführt werden (s. Abb. 2.11). Je weiter die Projektrealisierung fortschreitet, desto geringer werden die Möglichkeiten für Kostengegensteuerungen. Auch bei öffentlichen Bauten werden Überschreitungen ja im Allgemeinen erst dann publik, wenn die Maßnahme fast abgeschlossen ist und keine Möglichkeiten mehr für Korrekturen bestehen. Die Kostenplanung muss also das Herzstück der Projektsteuerung bilden und als Frühwarnsystem fungieren. Auch die technische Qualität der Kostenplanung muss vor dem Projektstart besonders kritisch überprüft werden. Wie das Target Costing bei Industrieprodukten gezeigt hat, kann Vermeidung von „overengineering“ zu Kosteneinsparungen von 40% und mehr führen (Frech 1997). Das gilt entsprechend für Bau-, Anlagen- und vermutlich auch für Forschungsprojekte. Bei Großprojekten ist ein Nebenprodukt der Kostenplanung von immer größer werdender Bedeutung: die Finanzierungs- oder „Cash-Flow“-Planung eines Projektes. Stets „cash positiv“ zu sein, ist zu einem wesentlichen Erfolgsfaktor für große Anlagenprojekte geworden.

2.2.5  Projektsteuerung Wir haben jetzt die wesentlichen Instrumente einer professionellen Projektplanung kennen gelernt. Was macht ein Manager mit so einem Plan? Setzt er alles daran, ihn möglichst detailgenau umzusetzen? NEIN! Managen bedeutet niemals bürokratisches, starres Abarbeiten eines Planes. Der Manager wird alles daran setzen, jeden Einzelschritt seines Planes zu optimieren. Laufend besser werden als der Plan! Und gleichzeitig wird ihm „Murphy’s Law“ (was schief gehen kann geht auch schief) ein ums andere Mal ein Bein stellen. Es gibt immer Rückschläge. Managen ist also ein schöpferischer, innovativer Prozess, der einer fortwährenden Steuerung bedarf. Und dafür brauchen wir ein funktionierendes Projekt-Controlling, eine effiziente Projektsteuerung. In unserem Eingangsbeispiel der Diplom-Arbeit ist das „Controlling“ einfach: Ich brauche nur ein ordentliches Kassenbuch führen, das ich entsprechend den ge-

16

2 Einstieg Projektmanagement

Abb. 2.7   Prinzip der Projektsteuerung bei Engineering-Projekten (nach Löffler 1997)

planten Kostenkategorien (Geländearbeit, Zeichenmaterial, Fotomaterial etc.) gegliedert habe. Nach einem Quartal wird Kassensturz gemacht und schon sehe ich, wo mein „IST“ über dem „SOLL“ ist und wo nicht. Und dann kann ich mich sehr schnell entscheiden, mit welchem der beiden Steuerungs-Hebel ich eingreifen muss: mit Gegensteuerungsmaßnahmen oder mit der Änderung der Planziele. In Großprojekten ist es natürlich aufwändiger, die Messdaten zu generieren. Das Prinzip ist jedoch das gleiche, wie Abb. 2.7 am Beispiel der Steuerung von Großprojekten zeigt. Wir sehen das vertraute Bild eines Regelungssystems. Die Steuerungskriterien sind hier die „SOLL/IST“-Vergleiche von „Stundenverbrauch“, „Arbeitsfortschritt“, „Kosten“ und „Terminen“. Wenn Abweichungen auftreten, muss die Analyse zeigen, welche der beiden Steuerungsoptionen gewählt werden: Gegensteuerungsmaßnahmen oder Änderung der Projektziele. Dieser Regelungskreis unterstreicht deutlich den Prozesscharakter von Projektmanagement (s. auch Schulte u. Stumme 1998). Entscheidend für den Aufbau einer effektiven Projektsteuerung ist, dass das Projekt-Controlling die geeigneten Messdaten richtig und zeitnah zur Verfügung stellt. Auch hier bestimmen Komplexität und Größe der Projekte, mit welchen Steuerungskriterien man arbeiten will. Dabei zeigt die Praxis manchmal überraschende Einblicke, wie zwei persönliche Erfahrungen des Herausgebers illustrieren mögen. Ein persönlich bekannter kleinerer Bauunternehmer, der Objekte in der Größenordnung 0,5 bis max. 3 Mio. € erstellt und selbst vertreibt, antwortete verblüffenderweise auf die Frage, welche Steuerungs- und Überwachungsinstrumente er einsetzt, folgendes: Seiner Erfahrung nach sei es unwirtschaftlich und würde zu viel

2.2 Die wesentlichen Elemente des Projekt-Management

17

Planungsaufwand verursachen, seine Objekte detailliert steuern zu wollen. Er hält lediglich die aufgelaufenen Gesamtkosten einer Baumaßnahme ständig nach und weiß aus Erfahrung, wenn diese Gesamtkosten in Bezug auf einen bestimmten Baufortschritt abweichen oder nicht. Wichtigeres Steuerungsinstrument seien für ihn die Geldeingänge der – während der Bauzeit – verkauften Wohnungen. Das bestimme, wann er mit dem generierten „cash“ eine neue Maßnahme beginnen könne ohne Kredite aufnehmen zu müssen (was er ablehne). D. h. in diesem Fall werden nur die kumulierten Gesamtkosten und der Projekt-cash-flow als Messdaten herangezogen, der Rest wird aus Erfahrung und „aus dem Bauch“ entschieden. In die gleiche Richtung geht die Aussage eines erfahrenen Mittelständlers, der mit beispielhafter Energie eine Ingenieursgesellschaft mit ca. 500 Mitarbeitern und bis zu 50 Mio. € Honorar-Umsatz pro Jahr aufgebaut hat. Er beschäftigte bewusst keinen Controller, lediglich einen Buchhalter alten Stils. In seiner Firma kümmerte er sich vornehmlich um die Akquisition der Neuaufträge. Sein Steuerungsinstrument bestand darin, immer so viele Aufträge im Hause zu haben, dass er – aus seiner jahrzehntelangen Erfahrung – wusste, dass die Bearbeitung an die Kapazitätsgrenze seiner Belegschaft ging. Das sorgte für den notwendigen Druck. Diese Methode funktionierte erstaunlich gut, solange der Unternehmer persönlich die Zügel in der Hand hielt. Kaum war er aus Altersgründen ausgeschieden und hatte die Geschäftsführung an einen der Abteilungsleiter übertragen, schlitterte das Unternehmen in kürzester Zeit in eine existenzbedrohende Krise. Erste Aufgabe während der folgenden Sanierung war es, ein modernes Berichtswesen und Controlling aufzubauen. Die Beispiele zeigen, unternehmerisches Gefühl, jahrelange Erfahrung usw. sind außerordentlich riskante Steuerungsfaktoren. Beide oben genannten, bei Erscheinen der 1. Auflage noch existierenden Firmen, haben nicht überlebt. Natürlich gilt das nicht nur für die Bauindustrie, aus der die Beispiele stammen, sondern entsprechend auch für andere Bereiche und vor allem für die Forschung, wo ebenfalls gelegentlich mit dem Argument der Erfahrung die Notwendigkeit konsequenten Einsatzes moderner Steuerungsmethoden in Frage gestellt wird. Es liegen heute so ausgewogene, einfache, billige und übersichtliche Steuerungs- und Messmöglichkeiten vor, dass es als fahrlässig gelten muss, sie nicht einzusetzen. Aufwand und Nutzen jeder Messmethode müssen jedoch bei jedem Projekt neu überlegt, abgewogen und festgelegt werden. Berichtswesen, Dokumentation, Strukturierung Die Qualität einer Projektsteuerung hängt zunächst entscheidend davon ab, dass die Messwerte zeitnah, regelmäßig, verlässlich und richtig generiert werden, „garbage in – garbage out“ sagen die Amerikaner und deuten damit an, dass man mit falschen „input“-Werten keinen korrekten „output“ erwarten kann. Die wesentlichen Messwerte in der Projektarbeit sind: • Termine • Kapazitäten • Kosten

18

2 Einstieg Projektmanagement

Das Berichtswesen wird entsprechend dem Projektstrukturplan aufgebaut. Je übersichtlicher dieser ist, desto einfacher wird das Berichtswesen strukturiert sein. Die Planung des Berichtswesens ist eine zentrale Aufgabe des Projektleiters, die nach der „top down“ Methodik erfolgt, d. h. sie muss vom Projektleiter vorgegeben werden und darf nicht darauf basieren, was die einzelnen Unter-Teams und TeamMitglieder für angemessen halten. Die Berichte selbst werden dann „bottom up“ generiert, d. h. die höhere Projektebene baut ihre Berichte auf den Informationen der jeweils tieferen Ebene auf. Wie das Berichtswesen, so muss auch das Dokumentationswesen von Anfang an hierarchisch entsprechend dem Projektstrukturplan aufgebaut werden. Die Datenbasis muss in der EDV hinterlegt werden, alle Dokumente müssen schnell und mit einfachem Zugriff zugänglich sein. Bei komplexen Projekten wird vorgeschlagen, ein Projekthandbuch anzulegen, das dem Qualitätshandbuch des Projektes entspricht und alle wesentlichen Dokumente des Projektes enthält (Schulte u. Stumme 1998). Die Berichtsfrequenz hängt von Projekttyp und der Größenordnung ab. Es gibt durchaus tägliche Berichterstattung, bei mittelgroßen Objekten wöchentliche, in jedem Fall monatliche Information. Die Berichte sollten auf Formularen vorgefertigt sein, nach Wischnewski (1999) soll die Abfassung in fünf Minuten erledigt sein, wobei dieser Autor vorschlägt, darauf zu achten, dass das Berichtswesen nicht hierarchie-konform, sondern rein sachbezogen organisiert wird. Die Berichte haben sonst die Tendenz, die Position der jeweiligen Hierarchie-Stufe zu verteidigen, schlechte Nachrichten werden verzögert. Es muss dafür gesorgt werden, dass wichtige Informationen, wie z. B. Änderungsmeldungen ungefiltert vom Sachbearbeiter zur Projektleitung gelangen. Neben Grafiken, Tabellen und formularmäßig vorgegebenen Informationen sollte der Bericht unbedingt auch einen narrativen Teil enthalten, in dem kurz auf wichtige Situationen, Trends und vor allem auf Risiken hingewiesen wird, eine DIN A4 Seite pro Bericht muss jedoch genügen. Je höher aggregiert die Einzelberichte werden, umso wichtiger wird es, die wesentliche Projektsituation darzustellen und anschaulich zu machen. Es ist immer auch eine Management-Aufgabe, Komplexität zu reduzieren. Abbildung 2.8 zeigt eine Gesamt-Projektübersicht eines Anlagenprojektes. Es handelt sich um einen Balkenplan, der die Teilprojekte, sowie die wichtigsten Arbeitspakete darstellt. Mit den dunklen Zusatzbalken ist der IST-Stand jeden Arbeitspaketes markiert. Die Hauptmeilensteine machen den groben Projektstand deutlich. Die Summenkurve vergleicht unmittelbar SOLL und IST: Während die Engineering-Arbeiten gut im Plan liegen, begann die Montagephase mit kräftiger Verzögerung. Mit so einer Darstellung kann man die Projektsituation ausgezeichnet visualisieren und dem Team, der Projektleitung und dem Lenkungsausschuss den Projektstand anschaulich vermitteln. Natürlich wird man im narrativen Berichtsteil die Angabe der Gründe für die Montageverzögerung erwarten, mit einer Trendaussage und den eingeleiteten Gegensteuerungsmaßnahmen. Die wichtigste Dimension des Berichtswesens ist das Geld. Die Kostensituation bestimmt über Erfolg oder Misserfolg eines Projektes. Zu der Kostenanalyse gehören bei großen Industrieanlagen-Projekten nicht nur die aufgetretenen Kostenab-

2.2 Die wesentlichen Elemente des Projekt-Management

19

Abb. 2.8   Beispiel einer Projekt-Gesamtübersicht eines Anlagen-Projektes (nach Löffler 1997)

weichungen, sondern v. a. Restkostenanalyse und Risikoanalyse. Bei Großprojekten werden Risikoanalysen laufend über EDV-Systeme simuliert, um jederzeit angeben zu können, wie groß das wirtschaftliche Risiko eines Projektes ist und welche Risikovorsorge in den wirtschaftlichen Prognosen für das Projekt vorzusehen ist. Abweichungen Damit sind wir beim zentralen Anliegen des Berichtswesens, bei den Abweichungen. Auf die Abweichungen muss sich das Projektmanagement konzentrieren. Damit die Änderungsmeldungen schnell und ungefiltert zur Projektleitung vordringen, muss man durch entsprechende Menschenführung dafür sorgen, dass Änderungsmeldungen nicht als Angst auslösend empfunden werden. Wenn sich in einem Projekt-Team das Gefühl durchsetzt, dass der Überbringer schlechter Nachrichten abgestraft wird, lebt der Projektleiter gefährlich. Dann wird er früher oder später über das „90%-Syndrom“ stolpern: die Tendenz von Projekt-Mitarbeitern und Verantwortlichen von Arbeitspaketen, die Projektleitung mit „fast fertig“-Meldungen zu beruhigen und Probleme zu verheimlichen. Das Problem kommt dann regelmäßig erst dann hoch, wenn es für Gegensteuerungsmaßnahmen bereits zu spät ist. Änderungsmeldungen sollten enthalten: • Datum und Kennzeichnung des Vorganges • Zeitlicher Mehraufwand

20

• • • •

2 Einstieg Projektmanagement

Mehrkosten Verursacher der Abweichung Trendaussage über Auswirkungen der Abweichung (Termin, Kosten) Gegensteuerungsmaßnahmen

Wichtig sind v. a. die letzten beiden Punkte. Ohne eine Trendaussage können die Gesamtfolgen der Abweichung für das Projekt nicht abgeschätzt werden, es können keine Simulierungen mit dem Rechner gefahren werden, um zu versuchen, auf höherer Ebene die Folgen der Abweichung aufzufangen usw. Die Angabe von Gegensteuerungsmaßnahmen ist bei jeder Art von Abweichung die selbstverständliche Pflicht jedes managementmäßig arbeitenden Menschen. Das hat sich allerdings noch lange nicht überall herumgesprochen. Es ist Aufgabe und Verpflichtung jeder Führungskraft gerade in der Projektarbeit durch Vorbild und „Erziehung“, seinen Mitarbeitern dieses Grundprinzip ständig nahe zu bringen. Die vorgeschlagenen Gegensteuerungsmaßnahmen können sehr unterschiedlich sein. Sie können darauf abzielen, die Kapazitäten zu erhöhen (z. B. durch Überstunden), Arbeiten fremd zu vergeben, Personal oder Lieferanten auszuwechseln, preiswertere Materialien einzusetzen, die Spezifikation oder das technische Konzept zu ändern etc. Sollten keine sinnvollen Gegensteuerungsmaßnahmen existieren, muss man auf die verbleibende zweite Steuerungsoption zurückgreifen: den Vorschlag einer Planänderung, der dann jedoch besonders plausibel und gründlich zu begründen ist. Bei Forschungsprojekten, Entwicklungsprojekten, innovativen Vorhaben können Änderungsmeldungen wichtige positive Weichenstellungen bedeuten. Sie markieren häufig den Ausgangspunkt neuer Ideen. Für den Projektleiter ist es wichtig, verstehen zu lernen, dass es seine zentrale Aufgabe ist, Abweichungen zu managen. Die Begleitung des normalen Arbeitsfortschrittes kann er getrost seinen Mitarbeitern überlassen. Wesentliche Erfolgsfaktoren Die eigene Erfahrung wird beim Durchsehen der einschlägigen Literatur bestätigt. Es gibt drei wesentliche Gründe für das Scheitern von Projekten: 1. Unklare Zielformulierung 2. Unklare Führung 3. Unklare Kompetenzen Alle drei Gründe haben ihren Ursprung in unzulänglicher Personalführung. Die Führungsqualität, die menschliche Atmosphäre, die Motivation des Projektteams, die Zielorientierung sind ebenso entscheidend wie klare Kompetenzen und der Umgang mit natürlichen Konflikten. Diese Punkte werden in Kap. 6 behandelt und sollen deshalb hier nicht vertieft werden. Bezüglich der Problematik von Kompetenzüberschneidungen sei ein Beispiel eigenen fehlerhaften Verhaltens angeführt, weil es deutlich macht, wie schwierig die á priori bestehende Konfliktsituation zwischen Projektorganisation und Linienorganisation zu lösen ist. In einem Konzern wurde dem Herausgeber die Projektleitung eines konzernweiten Einkaufsprojektes übertragen. In den Vorarbeiten mit einem Beraterteam

2.2 Die wesentlichen Elemente des Projekt-Management

21

wurde die Zielvorstellung formuliert: Vom beeinflussbaren Einkaufsvolumen des Konzerns sollten innerhalb von 12 Monaten 15% eingespart werden. Das bedeutete einen beträchtlichen zweistelligen Millionenbetrag. Nach „Kick-off“-meeting und Beginn der Arbeiten stellte sich sehr schnell heraus, dass von allen Seiten „gemauert“ wurde, das Projekt kam nicht voran. Ein Kollege – auf gleicher Hierarchie-Stufe – öffnete sich eines Tages: Wenn das Projektziel erreicht würde, müsste er sich sagen lassen, er hätte vorher seine „Hausaufgaben“ nicht gemacht. Deshalb sein passiver Widerstand. Unabhängig davon, ob der Lenkungsausschuss seine Funktion richtig wahrgenommen hatte, musste der Projektleiter sich eingestehen, an der Situation nicht unschuldig gewesen zu sein. Zwar wurden Mitarbeiter aus allen Bereichen in das Projektteam berufen, aber er hatte versäumt, die Chefs der Bereiche so einzubinden, dass sie sich mögliche Erfolge selbst anheften konnten. Daraufhin wurde die Arbeit stärker in die Bereiche verlagert, dort hat man dann kräftig daran gearbeitet, möglichst viel der Zielvorgabe zu realisieren. Trotzdem war das Projekt teilweise gescheitert – wegen einer psychologischen Unachtsamkeit. Die Lehre daraus: Man muss bei Projekten darauf achten, mögliche „Verlierer“ früh mit einzubinden. Der Lenkungsausschuss hat allerdings darauf zu achten, dass obstruktives Verhalten sanktioniert und unterbunden wird. Das Beispiel mag beleuchten, wie schwierig Projektarbeit gerade bezüglich der menschlich/psychologischen Aspekte sein kann. Exkurs Projektmanagement in Forschung und Entwicklung Zur Definition: In der Privatwirtschaft sind Forschung und Entwicklung stets marktgetrieben. Die Unterscheidung der beiden Begriffe erfolgt nach dem Kriterium der Zeit bis zur Marktreife (time to market): der kurzfristigen – im Projektmanagement straff strukturierbaren – Entwicklung steht die langfristige, innovative Forschung gegenüber. Arbeiten, welche erst für die übernächste Produktgeneration oder für Zeiträume von 15 Jahren und mehr relevant sind, werden bereits der Grundlagenforschung zugeordnet (u. E. handelt es sich dabei allerdings immer noch um „angewandte Forschung“). Insgesamt befindet sich der FuE-Bereich in einer dynamischen Entwicklung. Die schnelle Produktinnovation ist zum entscheidenden Wettbewerbsfaktor geworden und der FuE-Bereich ist aus seinem beschaulichen „Elfenbeinturm“-Dasein ins Zentrum der Aufmerksamkeit gerückt. Die FuE-Aufwendungen von technologisch geprägten Unternehmen haben sich in den letzten Jahren vervielfacht und übersteigen sogar in Industrieunternehmen heute die Höhe der Anlageninvestitionen (Boutellier et al. 2000). Diese stürmische Entwicklung hat zu veränderten Anforderungen an die Leistungsträger der FuE-Bereiche geführt, die sich zunächst zu widersprechen scheinen, genauer betrachtet jedoch in einem polaren Spannungsverhältnis stehen: die Forderung nach höherer Disziplin und gleichzeitig nach gesteigerter Kreativität. Disziplin fordert v. a. das Diktat der Schnelligkeit, dem die Entwicklungs-Anstrengungen heute unterliegen. Die zeitliche Beschleunigung wurde besonders dadurch erreicht, dass die früher nacheinander ablaufenden Phasen von Forschung, Entwicklung, Produktion und Vermarktung heute so weit wie möglich parallel und

22

2 Einstieg Projektmanagement

zeitgleich geschaltet werden. Sogar externe Zulieferfirmen aus dem internationalen Lieferanten-Netzwerk werden häufig direkt in die Entwicklungsarbeiten mit eingebunden. Das erfordert naturgemäß hohen Koordinationsaufwand, tiefe Projektstrukturierung und die disziplinierte Anwendung aller modernen Planungs- und Steuerungstechniken, wie wir sie in den vorhergehenden Abschnitten kurz behandelt haben und wie sie in den einschlägigen Lehrbüchern detailliert beschrieben sind. Die Tagesarbeit findet in hierarchie- und spartenübergreifenden Arbeitsgruppen statt, die man sich nicht als lockere Diskussionsrunden, sondern als straff geführte Einheiten mit klarer Kompetenz- und Verantwortungsverteilung und eindeutigen Zeitund Ressourcen-Vorgaben vorzustellen hat. Der hier eingebundene Ingenieur oder Naturwissenschaftler wird sich auch mit den ihm fremden Disziplinen der Produktion und Vermarktung beschäftigen müssen, um Verständnis für deren Problematik zu gewinnen. Auf die Forderung nach gesteigerter Kreativität in der Forschung hat man v. a. mit organisatorischen Maßnahmen reagiert. Waren die Forschungsbereiche früher eher „Spielwiesen“, die in hierarchisch untergeordneter Position angesiedelt waren, hat man jetzt den Grundsatz verstanden, dass eine Aktivität hierarchisch umso höher angesiedelt sein muss, je innovativer und langfristiger sie angelegt ist. Alle innovativen internationalen Großfirmen haben ihre Forschungsabteilungen inzwischen direkt dem Top-Management unterstellt. Das ist auch insofern folgerichtig, als von diesen Abteilungen Anstöße zu langfristig neuen Entwicklungen erwartet werden. Alles wirklich Neue ist jedoch nicht nur unsicher, sondern auch riskant (Drucker 2000) und deshalb müssen die entsprechenden Weichenstellungen für ein Unternehmen frühzeitig mit dem Top-Management abgestimmt und von diesem an die Organisation kommuniziert werden. Forschung braucht Kreativität und Freiheit und keine bürokratische Gängelung. Sie bewegt sich im Spannungsfeld zwischen Disziplin und Chaos. Entsprechend der Abb. 2.9 ist sie mit umso geringerer Strukturierung zu organisieren, je höher ihr erwarteter Innovationsgrad ist. Allerdings: Je weniger Struktur ein Projektmanagement verträgt, desto stärker ist die Menschenführung gefordert. Forschungsabteilungen sind deshalb als echte Teams zu organisieren. Echt deshalb, weil sie nicht – wie das häufig mit der etwas unaufrichtigen Modeerscheinung von „Teambildung“ in Unternehmen geschieht – als „Feigenblatt“-Funktion die immer noch bestehende Kommando-Struktur verschleiern sollen, sondern aus individualistischen Experten gebildet werden müssen, von denen jeder ein bestimmtes Spezialwissen mitbringt, von dem die übrigen Mitglieder in gewisser Weise abhängig sind. Die Team-Mitglieder müssen sich ergänzen. Es müssen die Regeln gelten, die in Kap. 6 generell für Teamarbeit gefordert werden. Die Forschungsteams sollten außerdem unbedingt Kontakte zu Hochschulen und Forschungsinstituten des öffentlichen Sektors pflegen und erweitern. Die Privatwirtschaft versucht, diese Institutionen aus Gründen des Zeitgewinnes und der Ressourcenknappheit immer enger in ihre internationalen FuE-Netzwerke einzubinden. Forschungsaufgaben werden dabei durch „outsourcing“ an öffentliche Institute übertragen. Andererseits „outsourcen“ auch öffentliche Institute zunehmend anwendungsnahe Aufgaben an private Unternehmen. Die Vorgehensweisen

2.2 Die wesentlichen Elemente des Projekt-Management

23

Abb. 2.9   Je innovativer ein Projekt, desto geringer der Strukturierungsgrad

von öffentlichen und privaten Institutionen müssen dementsprechend kompatibel sein. Damit ist auch bereits eine wesentliche Anforderung an die öffentlichen Forschungsinstitute angesprochen: Sie sollten sich bemühen, die gleichen Planungsund Steuerungsmethoden einzusetzen, die sich in der Privatwirtschaft bewährt haben. Neben den Projektmanagement-Aufgaben im Bereich Forschung und Entwicklung wird der Leserkreis dieses Buches vor allem mit Anlagenprojekten konfrontiert werden. Ob mit dem Aufbau einer Versuchsanlage, der Erweiterung einer Industrieanlage, dem Aufstellen einer neuen Produktionsmaschine, eines neuen Montagebandes, ob in der Industrie oder bei Behörden, mit diesen oder ähnlichen Aufgaben werden Naturwissenschaftler und Ingenieure – gerade in jungen Jahren – besonders häufig gefordert. In Kap. 2.3 sollen daher die Besonderheiten beim Bau großer Industrie-Anlagen – hier in der chemischen Industrie – erläutert werden, da sie eine Orientierung auch für das Management weniger komplexer und kleinerer Projekte bieten können. Davor wird im folgenden Abschnitt dargelegt, welche Kriterien für die Strukturierung von Projekten maßgeblich sind.

2.2.6  Innovationsgrad und Projektstrukturierung Die eingesetzten Methoden müssen stets dem Anwendungszweck angepasst sein. Jedes Projekt ist ja bereits laut Definition ein „einmaliger“ Vorgang. Deshalb stößt das Bemühen, allgemeingültige Regeln und Methoden für alle Arten von Projekten aufzustellen an Grenzen.

24

2 Einstieg Projektmanagement

Man bemerkt das auch bei der Durchsicht der Literatur: Ob der Autor mehr von Mammutprojekten der Raumfahrt, von Projekten des industriellen Anlagenbaues, von Engineering-Tätigkeiten, vom FuE-Bereich der Industrie etc. geprägt ist, wird sich in seiner Methodenbeschreibung und in seinen Handlungsempfehlungen niederschlagen. Wir haben uns deshalb vor allem um eine grobe Übersicht bemüht, um die entscheidenden und möglichst für alle Projektarten gültigen Grundsätze herauszuarbeiten. Wenn man in Großprojekte eingebunden ist, muss man sich ohnehin die geforderten Sonderkenntnisse z. B. über Netzplantechnik, Kalkulation von Preisgleitklauseln, Vertragsgestaltung etc. anhand der Spezialliteratur aneignen. Wie detailliert ein Projekt organisiert wird und welche Instrumente sinnvoll einzusetzen sind, hängt naturgemäß zunächst von Größe und Komplexität des Vorhabens ab. Unabhängig davon wird jedoch der Strukturierungsgrad eines Projektes entscheidend vom Innovationsgrad abhängen. Abbildung 2.9 versucht, diesen Zusammenhang deutlich zu machen. Forschungsprojekte sind ja häufig Suchbewegungen, deren Ablauf höchst unsicher ist und gar nicht starr geplant werden darf. Allerdings sind auch manche Unternehmertätigkeiten entsprechend innovativ, wie z. B. die Gründung einer neuen Firma oder die Sanierung von Unternehmen. Auch diese Aktivitäten verlangen v. a. Kreativität und – oft blitzschnelles – situatives Handeln und Reagieren auf neue Konstellationen und nicht starres Abarbeiten eines Planes. Ein Bauprojekt muss dagegen in allen Abläufen sorgfältig geplant sein und strikt planmäßig ablaufen. Dieser Zusammenhang darf allerdings nicht zu dem Trugschluss verleiten, bei innovativen Projekten könne auf Planung und Projektmanagement weitgehend verzichtet werden. Das Gegenteil ist der Fall: Die Instrumente und die Vorgehensweise sind nur andere. Es gibt mehr Entscheidungsknoten und meist lässt sich der Ablauf nur bis zum nächsten Entscheidungsknoten exakt planen. Das muss man dann aber auch tun. Keinesfalls darf man planlos suchen, planlos forschen, planlos entwickeln oder in einer existenzbedrohten Firma planlosen Aktivismus an den Tag legen. Konsequente planerische Gedankenarbeit und systematisches PersonalManagement sind gerade bei innovativen Vorhaben besonders wichtig und für den Erfolg entscheidend. Die fünf Kernelemente von Projekt-Management (Zielfestlegung, Projektorganisation, Zeitplan, Kostenplan und Projektsteuerung) müssen auch bei Projekten mit hohem Innovationsgrad die Orientierungslinien für das Projektmanagement bilden.

2.3 Projekte im Anlagenbau Chemieanlagen gehören zu den komplexesten Systemen, die die Technik aktuell hervorbringt. Während der Planung einer typischen Chemieanlage sind etwa 10.000 Einzelaktivitäten und oft mehr als 40.000 Einzelpositionen der Anlagenstücklisten zu bearbeiten (Sattler u. Kasper 2000). Ein Bau mit dieser hohen Detaillierung ist für eine Strukturierung in Projekten geeignet (Lester 2007). So verwundert es auch nicht, dass im chemischen Anlagenbau die Disziplin des Projektmanagements einen besonders hohen Stellenwert hat. In einem typischen

2.3 Projekte im Anlagenbau

25

Anlagenbauprojekt verwaltet der Projektmanager ein Budget in der Größenordnung von ca. 100 bis 250 Mio. €. Um hier das finanzielle Risiko durch Fehler in der Projektabwicklung zu minimieren, wurden spezifische Vorgehensweisen entwickelt (Rinza 1998). Wesentliche Elemente wollen wir in diesem Abschnitt genauer betrachten.

2.3.1  Projektphasen Jedes Projekt sollte mit einer Zieldefinition starten. Dies ist auch im Chemieanlagenbau nicht anders. In ihr werden alle wesentlichen Eckpunkte der projektierten Anlage wie z. B. Produktspezifikation, Kapazität, Termine etc. schriftlich festgehalten. Die Zieldefinition ist dabei die Grundlage des Vertrages zwischen Auftragnehmer (z. B. Engineering-Abteilung) und Auftraggeber (Business-Unit). Jedes Anlagenbauprojekt ist anders, gemeinsam ist allen jedoch, dass der Detaillierungsgrad in der Planung schrittweise zunimmt. Dazu teilt man ein Gesamtprojekt in die folgenden Projektphasen (vgl. Abb. 2.10), sozusagen in mehrere Teilprojekte (Wagner 1998): • • • • • •

Machbarkeitsstudie (Feasibility) Vorplanung (Prebasic-Engineering) Basisplanung (Basic-Engineering) Ausführungsplanung (Detail-Engineering) Montage (Construction) Inbetriebnahme (Start up)

In der Machbarkeitsstudie wird für bestimmte Standorte geprüft, ob eine Projektidee technisch machbar ist und welche Investitionskosten damit verbunden sind.

Abb. 2.10   Projekt-Phasen eines Anlagenbau-Projekts (interne Veröffentlichung Evonik Industries)

26

2 Einstieg Projektmanagement

Die Kostenschätzungen sind zu diesem Wissensstand noch relativ ungenau (±30%). Am Ende dieser Projektphase werden den Entscheidern die verschiedenen Konzepte vorgelegt. Erfüllt das Projekt nicht die Erwartungen, so kann es hier mit noch geringen Kosten abgebrochen werden. Ist das Projekt hingegen wirtschaftlich interessant, so wird die nächste Phase begonnen, die Vorplanung. Hier wird der Prozess genauer beleuchtet. Beispielsweise werden verschiedene Reaktorkonzepte und Anlagenverschaltungen hinsichtlich ihrer Wirtschaftlichkeit miteinander verglichen. Zunächst müssen die Massen- und Energiebilanzen vorliegen, womit in einem weiteren Schritt die variablen Kosten (s. Kap 3.2) für die Utilities (Kühlwasser, Druckluft, elektrische Versorgung) abgeschätzt werden. Diese Bilanzen werden auf der Basis eines Grundfließbildes (Blockschemas) und eines Verfahrensfließbildes erarbeitet, das sinnvollerweise auch die Ergebnisse einer numerischen Verfahrenssimulation enthält. Eine Verfahrenssimulation ist ein numerisches Modell der realen Anlage mit dem sämtliche Verfahrensparameter, Ströme und Zusammensetzungen berechnet werden können. Mit den detaillierten Informationen aus der Prozesssimulation können nun auch die wichtigsten Apparate ausgelegt werden (VDI 1997; Perry et al. 1997; Nauman 2002). Sämtliche Apparate werden in der Equipmentliste aufgeführt, welche die Basis für die Investitionskostenschätzung darstellt. Daneben enthält das Verfahrensfließbild auch ein Konzept zur Automatisierung. Anschließend wird meist ein erstes Konzept zur Positionierung der Apparate (Aufstellungskonzept) erarbeitet. Überlegungen zum Materialfluss stehen in engem Zusammenhang mit dem Logistikkonzept, der Versorgung mit Rohstoffen und der Entsorgung von Abwasser, Abluft und festen Abfällen. Auf Grund des Gefahrenpotentials in der chemischen Industrie (giftige Stoffe, Explosionsgefahr) werden entsprechende Ansprüche an die Sicherheit gestellt. Die Erarbeitung von notwendigen Sicherheits- und Schutzmaßnahmen nimmt deshalb bereits in der Vorplanung einen erheblichen Raum ein. Um Altlasten im Bauareal auszuschließen, werden Bodenproben genommen. Bestätigen alle diese Voruntersuchungen die Wirtschaftlichkeit des Projekts, wird der Antrag auf Basisplanung gestellt. Der Antrag enthält eine Kostenschätzung mit einer Genauigkeit von etwa ±20%. In der Basisplanung wird das Konzept weiter ausgearbeitet. Zu Beginn dieser Phase wird ein Terminplan bis zur Inbetriebnahme festgelegt. Das Verfahrensfließbild wird detaillierter ausgeführt, die Massen- und Energiebilanzen werden verfeinert. Damit kann der Verbrauch von Energien, Einsatzstoffen und Utilities verlässlich angegeben werden. Zusätzlich wird noch ein R&I-Fließbild (Rohrleitungs- und Instrumente) erstellt, das sämtliche zum Bau der Anlage notwendigen Informationen enthält. Dazu gehören zum Beispiel eine genaue Beschreibung aller Steuerungen und Regelkreise, aller Armaturen und Rohrleitungen. Für jeden Apparat werden Verfahrensdatenblätter angelegt, die genaue Angaben über die Prozessbedingungen enthalten. Analog dazu werden auch Datenblätter für die EMR (Elektro-, Messund Regelungstechnik) in die Projektdatenbank eingestellt. Für das gesamte Projekt wird eine Auslegungsspezifikation festgelegt, die für sämtliche Apparate vorschreibt, nach welchen Regelwerken ausgelegt werden muss (z. B. USA, China: ASME, Russland: GOSHT, Südkorea: KOSHA). Mit der Auslegungsspezifikation

2.3 Projekte im Anlagenbau

27

können nun auch für die „Key-Equipments“ (wichtige Apparate) technische Spezifikationsblätter verfasst werden, die sämtliche technisch notwenigen Informationen wie Wandstärken, Skizzen und Stutzen enthalten. Mit ihnen werden die Apparate bei verschiedenen Herstellern angefragt. Der Aufstellungsplan wird um Lastangaben ergänzt, die für eine Planung des Hochbaus, also z. B. eine Statik des Stahlbaus, erforderlich sind. Jedes Detail der Anlage wird in ein 3D-Modell eingefügt. Mit spezieller Ausrüstung kann dann ein virtueller Rundgang durch die Anlage gemacht werden. So können Fehler in der Planung gefunden werden, wie zum Beispiel eine Rohrleitung, die einen Fluchtweg kreuzt. Auch das Sicherheits- und Brandschutzkonzept wird weiter ausgearbeitet. Da in dieser Phase bekannt ist, wo die Anlage gebaut wird, können nun Konzessionierungsunterlagen angefertigt werden, die für das sogenannte Behörden-Engineering, also das Genehmigungsprozedere der Anlage, notwendig sind. Auf Grund des nun schon relativ weit fortgeschrittenen Planungsstandes können die Kosten mit einer Genauigkeit von etwa ± 10% angegeben werden. Auf dieser Basis wird nun eine detaillierte Wirtschaftlichkeitsstudie erarbeitet, deren wichtigste Kennzahl heute bei Anlagenbauprojekten häufig die discounted cash flow rate (DCF-Rate) ist (s. Kap. 3.1.5). Deren Höhe bildet meist ein firmeninternes Freigabekriterium. Das Management prüft die vom Projektteam im Antrag auf Durchführung vorgelegten Informationen und genehmigt bei entsprechender Wirtschaftlichkeit anschließend das Projekt. Damit ist entschieden, dass das Projekt realisiert wird. Die Projektphasen Vorplanung und Basisplanung haben weitreichenden Einfluss auf die Kosten, den Projektablauf und auf die Terminsicherheit. Für ein erfolgreiches Projekt sollten die Planungsunterlagen bereits zu diesem Zeitpunkt eine hohe Qualität aufweisen (vgl. Front-End-Loading Kap. 2.3.2). Zu Beginn der Ausführungsplanung (Detail Engineering) steht die erweiterte Basisplanung. Dabei werden beispielsweise noch ausstehende technische Spezifikationen für Maschinen und Apparate fertig gestellt. Weitere wichtige Tätigkeiten sind die tabellarische Erfassung von elektrischen Verbrauchern (Motoren, elektrische Begleitheizungen usw.) und Dämmungen. Auch wird in dieser Phase ein Konzept zur Instandhaltung erarbeitet. Nun tritt das Projekt in die letzte planerische Phase ein, die eigentliche Ausführungsplanung. In dieser Phase werden sämtliche planerischen Unterlagen zum Bau der Anlage komplettiert. Zu den wichtigsten Aktivitäten gehören: • Erstellung der letzten Revision des R&I-Fließbilds • Fertigstellung des Aufstellungskonzeptes (inklusive Plänen für Fundamente, Stahlbau und Gebäude) • Planung sämtlicher Details der Infrastruktur • Komplettierung des Automatisierungskonzepts • Rohrleitungsplanung inklusive sämtlicher Armaturen In dieser abschließenden Phase werden sämtliche Bauteile wie die Apparate, Armaturen, Rohrleitungen und EMSR-Technik montiert. Nun müssen sämtliche Steue-

28

2 Einstieg Projektmanagement

rungs- und Regelsysteme eingehend getestet werden. Zur Vermeidung von Unfällen ist die Einhaltung der Sicherheitsvorschriften auf der Baustelle besonders wichtig. Die Montage wird mit der mechanischen Fertigstellung der Anlage abgeschlossen. Anschließend kann die Anlage in Betrieb genommen und nach einem Leistungstest dem Auftraggeber übergeben werden. Während der Zusammenarbeit mit einem Engineering-Kontraktor ergeben sich gelegentlich vom Auftraggeber gewünschte Änderungen. Dem Change-Management kommt dabei eine wichtige Bedeutung zu. Jede Änderung muss vom Kontraktor erneut bearbeitet werden und ist deshalb mit Mehrkosten verbunden. Wie wir bereits im Unterpunkt „Abweichungen“ (Kap. 2.2.5) diskutiert haben, ist hier eine genaue Dokumentation besonders wichtig, um vom Projektmanagement gegensteuern zu können.

2.3.2  Front-End Loading Im Kapitel Kostenplanung sind wir bereits auf den Umstand eingegangen, dass die Kosten maßgeblich am Anfang eines Projektes festgelegt werden. Dies ist auch bei Anlagenbauprojekten nicht anders. Die Ergebnisse der Machbarkeitsstudie, die Vor- und Basisplanung haben einen besonders großen Einfluss auf die späteren Investitionskosten. Wird ein Projekt zu diesem frühen Zeitpunkt abgebrochen, so fallen im Vergleich nur geringe Kosten an, nämlich die Kosten für die Planungsstunden. Nach der Basisplanung kehrt sich dieser Zusammenhang um. Die Beeinflussbarkeit des Projektes nimmt rapide ab, während nun sehr hohe Ausgaben, zum Beispiel für die Apparate und Rohrleitungen anfallen (vgl. Abb. 2.11). Dieser Zusammenhang wird als Front-End-Loading bezeichnet. Die Investitionskosten werden zu einem großen Teil in der Vorplanung festgelegt. Als grober Anhaltswert gilt: 1% der Kosten, die für die Vorplanung ausgegeben werden, entscheiden über 70% der späteren Investitionskosten. Das Front-End-Loading-Konzept fordert deshalb, dass für jede Planungsphase eine angemessene Bearbeitungstiefe bei hoher Planungsqualität erreicht werden muss. Um Planungsfehler zu minimieren und Know-How-Schutz sicherzustellen, werden die Projektphasen bis einschließlich Basic-Engineering meist mit firmeneigenem Personal bearbeitet. Für das Detailengineering werden oft lokale Engineeringkontraktoren in das Projekt eingebunden, die aktuell zum Beispiel in China oder Indien noch deutlich niedrigere Stundensätze verrechnen.

2.3.3  Projektorganisation Auch ein Anlagenbauprojekt wird hierarchisch untergliedert. Im Folgenden wird eine Organisationsform beschrieben, wie sie bei der Firma Evonik Industries üblich ist (s. Abb. 2.12). An der Spitze des Projektes steht der Projektmanager (PM), der die

2.3 Projekte im Anlagenbau

29

Abb. 2.11   Front-End-Loading eines Anlagenbau-Projektes (interne Veröffentlichung Evonik Industries)

Verantwortung für Kosten und Termine, sowie die ingenieurtechnische Umsetzung des Verfahrens trägt. Der Projektmanager führt das Team zusammen mit einem sogenannten Projektverantwortlichen (PV). Der Projektverantwortliche kümmert sich um das Verfahren, die Sicherheit und die Konzession. Der Projektmanager wird

Abb. 2.12   Beispiel für eine Projektorganisation (interne Veröffentlichung Evonik Industries)

30

2 Einstieg Projektmanagement

dabei häufig von der internen Engineering-Abteilung gestellt, der Projektverantwortliche ist meist ein prozesserfahrener Mitarbeiter aus der investierenden Business-Unit. Der PM trägt die Verantwortung für Kosten, Termine und die Funktion der Anlage bis zur mechanischen Fertigstellung. Die Inbetriebnahme liegt in der Verantwortung des PV und seiner Betriebsmannschaft. PM und PV berichten in regelmäßigen Abständen an den Lenkungsausschuss der meist aus Mitgliedern des Managements, dem Leiter des Engineerings, bei strategisch wichtigen Projekten aber auch aus Vorstandsmitgliedern bestehen kann. Im Gegensatz zu dieser Organisationsform findet man bei den meisten anderen Firmen einen einzelnen Projektmanager an der Spitze eines Projektes. Wie in Abb. 2.12 zu erkennen ist, wird das Projekt-Team aus den verschiedenen Fachdisziplinen rekrutiert. Die Budgetgruppenverantwortlichen kommen aus den Bereichen: Bautechnik, Projektierung und Equipment, EMSR (Elektro-, Mess-, Stell- und Regelungstechnik), Rohrleitungstechnik und Montageleitung. Jede Fachdisziplin stellt einen Leadingenieur, der dafür verantwortlich ist, dass die fachspezifischen Aufgaben mit dem zugewiesenen Budget erfüllt werden.

2.3.4  Investitionskostenschätzung von Chemieanlagen Am Ende jeder Projektphase müssen Kosten mit über die Dauer der Projektbearbeitung zunehmender Genauigkeit abgegeben werden, um Aussagen über die Wirtschaftlichkeit des Projektes machen zu können. In Abb. 2.13 sind die dazu eingesetzten Methoden in Abhängigkeit von der Projektphase dargestellt.

Abb. 2.13   Eingesetzte Methoden zur Kostenschätzung (interne Veröffentlichung Evonik Industries)

2.4 Netzplantechnik

31

Während der Vorplanung können Investitionskosten basierend auf einer bereits bestehenden Anlage mit einer unterschiedlichen Kapazität mit Hilfe der sogenannten Kapazitätsmethoden geschätzt werden. Dabei wird mit Kapitalumschlagskoeffizienten (Kölbel u. Schulze 1960), spezifischen Kapitalbedarfszahlen (Gallager 1967), produktspezifischen Kostenkurven (Chilton 1950; Guthrie 1970) oder mit Durchschnittskosten von Produktionsanlagen gearbeitet (Zevnik u. Buchanan 1963; Wilson 1971). Verwendet man einen Degressionskoeffizienten, so berechnen sich die neuen Anlagenkosten wie folgt:   Cneu m  Kneu = Kalt · (2.1) Calt Kneu: Kalt: m:

Anlagenkostenneu Calt: Anlagenkapazitätalt Anlagenkostenalt Cneu: Anlagenkapazitätneu Degressionskoeffizient ca. 0,67 je nach Verfahren

Sind die Kosten der Hauptausrüstungsgegenstände (Maschinen und Apparate) bekannt, so kann mit einem sogenannten Anlagenfaktor, der je nach Projekt bzw. Anlagentyp zwischen 3 und 6 liegt, auf die Gesamtkosten hochgerechnet werden. Man bezeichnet dies als die Faktorenmethode. Die Genauigkeit dieser Methode liegt bei geringem Aufwand bei zirka 30%. In den Strukturmethoden (auch parametrische Methoden) unterteilt man die Chemieanlagen in Hauptpositionen (Maschinen und Apparate) und Nebenpositionen (Rohrleitungstechnik, EMSR-Technik, Bautechnik etc.). Ausgehend von den Kosten für Maschinen und Apparate (Prinzig u. Rödl 1985), die vorher ermittelt werden müssen, können nun die Kosten für die Nebenpositionen über einzelne Faktoren abgeschätzt werden. Diese Methoden erreichen eine Genauigkeit von 15–25%. Will man ein genaueres Ergebnis erhalten, so müssen die Kosten für die Nebenpositionen auf der Grundlage von Materialauszügen detailliert kalkuliert werden. Dies geschieht bei der Mengengerüstmethode, die auch als Kalkulationsmethode bezeichnet wird. Sie hat eine Genauigkeit von bis zu 10%, ist jedoch auch mit dem größten Aufwand verbunden.

2.4 Netzplantechnik Die ursprünglich für besonders komplexe Projektabläufe, wie sie in der Raumfahrt üblich sind, auf Basis der mathematischen Graphen-Methode entwickelte Netzplantechnik ist in der Zwischenzeit über entsprechende Software-Programme einer breiten Anwendung auf normalen Personalcomputern zugänglich geworden (z. B. Windows „Project“). Da die Vorgehensweise den Anleitungen zu den entsprechenden Software-Programmen zu entnehmen ist, wollen wir im Folgenden lediglich

32

2 Einstieg Projektmanagement

einige Grundelemente der Technik erläutern und die drei gebräuchlichen Methoden kurz vorstellen. Grundsätzlich eignet sich die Netzplantechnik zur Terminplanung und zwar von Zeit, Kapazitäten und Kosten. Mit ihr können komplexe, parallel laufende Vorgänge eines Projekts und ihre Abhängigkeiten zueinander dargestellt, berechnet und damit optimiert werden. Dazu müssen zunächst sämtliche Vorgänge des Projekts und ihre Abhängigkeiten zueinander dargestellt werden. Trägt man die zugehörigen ZeitBedarfe ein, kann man sowohl Projektdauer als auch Pufferzeit berechnen. Die Abfolge von Vorgängen ohne Pufferzeit bezeichnet man als „kritischen Pfad“, auf den besonderes Augenmerk zu richten ist, weil Verzögerungen bei diesen Vorgängen sofort zur Gesamtverzögerung des Projekts führen würden. Zur grundsätzlichen Vorgehensweise: 1. Erstellen einer Vorgangsliste: Vorgänge sind nicht weiter zerlegbare Tätigkeiten mit einem definierten Anfang und Ende. Zusätzlich zur Tätigkeitsbeschreibung sollen auch Dauer, vertragliche Termine, bei Bedarf auch benötigte Betriebsmittel und anfallende Kosten aufgelistet werden. Eine solche Vorgangsliste ist für das Beispiel eines PKW-Kundendienstes in Tab. 2.1 dargestellt. 2. Strukturanalyse: Die gelisteten Vorgänge werden in Beziehung zu einander gesetzt und Abhängigkeiten aufgezeigt. 3. Zeitanalyse: Anhand der Strukturanalyse werden Zeitpunkte definiert, an denen der jeweilige Vorgang begonnen und abgeschlossen werden kann oder muss. Außerdem können Kontrollereignisse terminiert werden. 4. Eventuell Kapazitäts- und Kostenanalyse: Da durch die jeweilige Tätigkeitsbeschreibung auch der Kapazitätsbedarf z. B. an Personal bekannt ist, gilt es nun die Auslastung bei beschränkten Ressourcen mittels Reihenfolgenplanung zu optimieren und die anfallenden Kosten zu beschreiben. Die Strukturelemente in der Netzplantechnik sind Vorgänge und Ereignisse, sie werden durch Pfeile und Knoten graphisch dargestellt. Erstere stellen Tätigkeiten dar, letztere definierte Zustände im Projektablauf. Je nach Methode kann ein Netzplan Vorgangs- oder Ereignis-orientiert erstellt werden, je nachdem worauf das Augenmerk gerichtet werden soll. Der Netzplan vermittelt also einen optischen Überblick Tab. 2.1   Vorgangsliste PKW-Kundendienst Vorgangsbezeichnung

Vorgangsbeschreibung

Dauer [min]

A B C D E F G H … Z

Öl ablassen Reifen, Luftdruck, Radschrauben prüfen Kühlflüssigkeit prüfen Bremsen und Bremsflüssigkeit checken Neues Öl einfüllen Unterboden auf Rost untersuchen Fahrzeug mit Hebebühne anheben Fahrzeug ablassen

15 20 5 10 5 20 5 5

Endkontrolle

10

2.4 Netzplantechnik

33

über den Arbeitsablauf und zeigt logistische Verknüpfungen zwischen den Tätigkeiten. Da er stärker ins Detail geht als übliche Terminpläne, lässt er kritische Stellen erkennen und erhöht dadurch die Kontrollierbarkeit des Projektablaufs. Beim Erstellen eines Netzplans, egal mit welcher Methode gilt zu beachten: • • • • •

Es gibt nur einen Anfangs- (Start) und einen Endpunkt (Ziel). Man beginnt am Start oder am Ziel. Es dürfen keine Schleifen entstehen. Die Reihenfolge der Tätigkeiten entspricht der Vorgangsliste. Zeitangaben orientieren sich an Terminen der Vorgangsliste.

Jetzt sollen die drei wichtigsten Netzplanarten – Critical Path Method (CPM), Metra Potential Method (MPM) und Programm Evaluation and Review Technique (PERT) – vorgestellt werden. Critical Path Method (CPM) Bei CPM werden Vorgänge als Pfeile und Ereignisse als Knoten dargestellt. Die Ereignisknoten dürfen jeweils nur durch eine Tätigkeit verbunden werden, daher sind zur eindeutigen Darstellung häufig Hilfsknoten und -pfeile, sogenannte Scheintätigkeiten, notwendig. Zur Zeitanalyse wird die Vorgangsdauer am Ereignispfeil notiert und daraus vom Start vorwärts rechnend der früheste Zeitpunkt, an dem das Ereignis eintreten kann, bestimmt. Der späteste Termin jedes Ereignisses wird durch Rückwärtsrechnen vom Ziel aus ermittelt. Es gilt dabei immer; die Scheintätigkeiten zu beachten. Die Angaben frühester und spätester Zeitpunkt (FZ, SZ) werden im Knoten wie in Abb. 2.14 dargestellt. Der aus den frühesten und spätesten Zeitpunkten resultierende Puffer lässt sich folgendermaßen berechnen, wobei i und j aufeinanderfolgende Ereignisse sind:

Pufferij = SZj − FZi − Dauerij

Anhand aller Ereignisse mit einem Puffer von null ergibt sich der kritische Pfad (in Abb. 2.15 dick gezeichnet). Auf diese Tätigkeiten ist besonderes Augenmerk zu richten, da bei einer Verzögerung an diesen Stellen der termingerechte Projektabschluss gefährdet ist.

Abb. 2.14   Ereignis als Knoten (CPM und PERT)

34

2 Einstieg Projektmanagement

Abb. 2.15   PKW-Kundendienst als CPM-Netzplan

Program Evaluation and Review Technique (PERT) Auch bei PERT sind die Ereignisse Knoten, Pfeile sind „Geschehnisse zwischen Ereignissen“ ohne weiter durch Vorgänge spezifiziert zu werden. Es werden also nur die Ereignisse explizit benannt. Diese Technik findet besonders in der Entwicklung Anwendung, da sie im Gegensatz zu CPM keine Zeitmessung vorsieht und in der Entwicklung Termine häufig keine große Rolle spielen oder zumindest mit geschätzten Zeitbedarfen gearbeitet werden kann. Metra Potenial Method (MPM) Im Gegensatz zu CPM und PERT sind bei MPM Vorgänge Knoten und die Pfeile stellen reine Anordnungsbeziehungen dar. Dadurch werden keine Scheintätigkeiten benötigt, was die Lesbarkeit erheblich vereinfacht. Da die Knoten Vorgänge darstellen, wird hier der früheste Anfangszeitpunkt (FAZ) und der späteste Endzeitpunkt (SEZ) neben der Dauer (D) der Tätigkeit angegeben (s. Abb. 2.16). Im Gegensatz zur Critical Path Method sieht das Beispiel des PKW-Kundendienstes als MPM-Netzplan folgendermaßen aus (s. Abb. 2.17): All diese Pläne wurden früher von Hand gezeichnet oder mit Magnettafeln umgesetzt. Wie anfangs erwähnt, stehen uns dafür heute verschiedene Software-Programme zur Verfügung. Das hat das Erstellen, vor allem aber das Überarbeiten von Netzplänen erheblich vereinfacht und daher ihren Einsatz bei allen komplexen Projektabläufen ermöglicht.

Abb. 2.16   Vorgang als Knoten (MPM)

2.4 Netzplantechnik

35

Abb. 2.17   PKW-Kundendienst als MPM-Netzplan

Literatur Balck H (Hrsg) (1990) Neuorientierung im Projektmanagement. Verlag TÜV Rheinland, Köln Blum J, Bürgel D, Horvath P (Hrsg) (1993) Wissenschaftsmanagement. Spitzenleistungen trotz knapper Mittel durch Management der Wissenschaft. Schäffer-Poeschel Verlag, Stuttgart Boutellier R, Gassmann O, Zedtwitz M v (2000) Managing global innovation. Uncovering the secrets of future competitiveness. Springer-Verlag, Berlin Chilton CH (1950) Six-tenth Factor applies to complete plant cost. Chem Eng 57:112–114 Drucker PF (2000) Die Kunst des Managements. Econ Verlag, München Frech J (1997) Produktplanung mit Target Costing. In: Bullinger HJ, Warschat J (Hrsg) Forschungs- und Entwicklungsmanagement. Technologiemanagement – Wettbewerbsfähige Technologieentwicklung und Arbeitsgestaltung. BG Teubner, Stuttgart, S 175–194 Gallager JT (1967) Rapid estimation of plant costs. Chem Eng 89–96 Guthrie KM (1970) Capital and operating costs. Chem Eng 140/156 GPM e V, D G f P (1999) Projektmanagement Fachmann, RKW-Verlag, Eschborn Kölbel H, Schulze J (1960) Projektierung und Vorkalkulation in der chemischen Industrie. Springer-Verlag, Berlin Lester A (2007) Project Management, planning and control. Elsevier, New York Löffler N (1997) Brochure of Project Scheduling and Progress Control at LURGI Öl-Gas-Chemie GmbH, Frankfurt Madauss B (2000) Handbuch Projektmanagement. Mit Handlungsanleitungen für Industriebetriebe, Unternehmensberater und Behörden, 6. Aufl. Schäffer-Pöschel, Stuttgart Nauman EB (2002) Chemical reactor design, optimization, and scale up. McGraw Hill, New York Platz J (1990) Hat das FuE-Projektmanagement versagt? In: Balck H (Hrsg) Neuorientierung im Projektmanagement, Verlag TÜV Rheinland, Köln, S 41–59 Perry RH et al (1997) Perry’s chemical engineers’ handbook. McGraw Hill, New York Prinzig P, Rödl R (1985) Investitionskosten-Schätzung für Chemieanlagen. Chem Ing Tech 57(1): 8–14 Reichert O (1994) Netzplantechnik. Vieweg Verlagsgesellschaft, Braunschweig, Wiesbaden Rinza R (1998) Projektmanagement. Springer-Verlag, Berlin Sattler K, Kasper W (2000) Verfahrenstechnische Anlagen. Wiley-VCH Verlag, Weinheim Schulte H, Stumme G (1998) Projektmanagement. In: Kleinaltenkamp M, Plinke W (Hrsg) Auftrags- und Projektmanagement. Projektbearbeitung für den Technischen Vertrieb. SpringerVerlag, Berlin, S 229–266 Schwarze J (2006) Projektmanagement mit Netzplantechnik. NWB Studienbücher – Wirtschaftswissenschaften. NWB Verlag Steinle C (Hrsg) (1995) Projektmanagement. Instrument effizienter Dienstleistung. Verlag Frankfurter Allgemeine Zeitung, Frankfurt a. M.

36

2 Einstieg Projektmanagement

Verein deutscher Ingenieure (1997) VDI-Wärmeatlas- Berechnungsblätter für den Wärmeübergang. Springer-Verlag, Berlin Wagner W (1998) Planung im Anlagenbau. Vogel, Würzburg Warnecke HJ (1995) Fraktale Organisationsformen in der Forschung. Wissenschaftsmanagement 1(Jan./Febr. 1995): 8–12 Wilson GT (1971) Schätzung der Kosten für Chemieanlagen. Br Chem Eng Process Technol 16(10): 931–934 Wischnewski E (1999) Modernes Projektmanagement. Vieweg, Braunschweig Zevnik FC, Buchanan RL (1963) Generalized correlation of process investment. Chem Eng Prog 59(2): 70–77 Zimmermann J, Stark C, Rieck J (2005) Projektplanung – Modelle, Methoden, Management. Springer-Verlag, Berlin

Kapitel 3

Betriebswirtschaftliche Grundlagen N. Alt, A. Fronek

3.1  Wirtschaftlichkeitsstudie Projekte sind häufig mit großen Investitionsvorhaben verbunden, deren Wirtschaftlichkeit vor der Realisierung geklärt sein muss. Dies ist unabhängig davon, ob es sich um den Abbau einer Rohstoff-Lagerstätte oder die Erweiterung bzw. Optimierung einer bestehenden Industrieanlage handelt. Der Projekt-Manager, der nicht Betriebswirt ist, sollte in der Lage sein, einfache Investitions-Rechnungen selbst durchzuführen und von anderen durchgeführte Berechnungen zu beurteilen. Neben der Feststellung der Wirtschaftlichkeit eines Projektes, ist es mindestens genau so wichtig eine unvorteilhafte Investition zu erkennen und dann auch zu unterlassen. Die wesentliche Methodik soll deshalb im Folgenden erläutert werden. Grundsätzlich geht man bei Investitions-Rechnungen stufenweise von einfachen zu aufwendigeren Methoden vor (s. Abb. 3.1). Umfassend und zuverlässig ist die Berechnung, wenn sie zumindest nach den hier genannten gebräuchlichsten Methoden erfolgt ist, was dank elektronischer Hilfsmittel heutzutage kein Problem mehr darstellt. Zu Beginn müssen die Rahmenbedingungen des Projektes klar definiert werden. Welche Summe steht zur Investition zur Verfügung und handelt es sich um ein eher kurzfristiges oder langfristiges Projekt. Weiterhin wird ein umfangreiches Zahlenwerk benötigt. Hier stellt sich die Frage, welche Höhe hat die Anfangsinvestition, welche jährlichen Rückflüsse sind zu erwarten, wie hoch ist der Restwert, usw. und wie stark risikobehaftet sind diese Annahmen. Bevor man in die Zahlenanalyse einsteigt, empfiehlt es sich, mit einer Argumentationsbilanz auszuloten, ob eine Maßnahme mit den grundsätzlichen strategischen Zielvorstellungen der Unternehmung übereinstimmt, ob sie plausibel ist und den „gesunden Menschenverstand“ überzeugt. Besteht das Projekt diese Hürde, überprüft man die mögliche Wirtschaftlichkeit zuerst mit sogenannten statischen Verfahren. Die Amortisationsrechnung beispielsweise fragt, nach welcher Zeit die Einnahmen einer Maßnahme die Ausgaben übersteigen, ohne dabei Zinsen zu berücksichtigen. Dieser Zeitpunkt wird auch Break-even-Punkt genannt. Liegt dieser Zeitpunkt vor der gesetzten maximalen Projektlaufzeit, so geht man zu den dynamischen Verfahren über. Der etwas hochtrabende Name besagt nur, dass bei diesen O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_3, © Springer-Verlag Berlin Heidelberg 2010

37

38

3 Betriebswirtschaftliche Grundlagen

Abb. 3.1   Stufenweises Vorgehen bei der Investitionsrechnung

Verfahren die Zinsrechnung berücksichtigt wird. Erfüllt die Investition die gesetzte Erwartung nicht, so besteht auch bei Berücksichtigung von Zinsen mit dynamischen Verfahren keine Aussicht auf Besserung. Zur Entscheidung, ob eine Investition vorteilhaft ist oder nicht werden heutzutage unterschiedliche, detailreiche dynamische Verfahren eingesetzt. Abbildung 3.2 zeigt eine Übersicht über verschiedene statische und dynamische Verfahren der Investitionsrechnung. Investitions-Rechnungen sind stets risikobehaftete Näherungslösungen, denn sie basieren auf Annahmen über zukünftige Ereignisse, welche mit unterschiedlich hoher Unsicherheit behaftet sind. Die Berechnungsmethode muss deshalb der Zuverlässigkeit der Daten angepasst sein, was häufig nicht beachtet wird. Das wichtigste Element einer Investitions-Rechnung ist deshalb die Ermittlung der Toleranzgrenzen. Man erhält sie durch eine sogenannte Sensitivitätsanalyse. Eine InvestitionsRechnung ohne Sensitivitäts-Betrachtung ist grundsätzlich ebenso wenig aussagekräftig, wie eine physikalische Messung ohne Angabe der Fehlergrenze. Die gebräuchlichsten Methoden der Investitionsrechnung sollen im Folgenden an einem einfachen Beispiel aus der Praxis gezeigt werden. Eine Investition in eine kleine metallhaltige Blei-/Zink-/Gold-/Silber-Lagerstätte in der Türkei soll untersucht werden. Sie wurde von Geologen einer türkischen Ge-

Abb. 3.2   Übersicht über statische und dynamische Investitionsrechnungsverfahren

39

3.1 Wirtschaftlichkeitsstudie Tab. 3.1   Datenbasis Metall-Lagerstätte Datenbasis Metall-Lagerstätte Gewinnbare Erzreserven: Abbauverfahren: Aufbereitungsverfahren: Abbaurate: Jährliche Produktion Konzentrat: Konzentratgehalte: Lebensdauer der Lagerstätte: Verkaufspreis des Konzentrates: Abbaukosten: Aufbereitungskosten: Investitionskosten a) Erwerb der Abbaurechte: b) Maschinen und Anlagen:

100.000 t Tagebau Flotation 100t/d (8 Monate p. a.) 4000 t/d Pb = 12,6%; Zn = 35% Au = 23 g/t; Ag = 114 g/t 5 Jahre 310 USD/t 125 USD/t Konzentrat (auf Basis der Erfahrungen im Cr Abbau) 15 USD/t 500.000 USD 450.000 USD

sellschaft gefunden, welche eine Reihe von Chromlagerstätten in Anatolien betreibt. Es steht die Entscheidung an, ob die Gesellschaft ihre Aktivitäten auch auf andere Metalle als bisher ausdehnen soll und ob diese Lagerstätte gewinnbringend betrieben werden kann. Dazu sind zunächst eine Reihe von Voruntersuchungen nötig, die wir hier im Wesentlichen überspringen wollen, um direkt auf die Entscheidungsfindung einzugehen. So müssen in diesen Voruntersuchungen die gewinnbaren Erzmengen, die durchschnittlichen Erzgehalte, das wirtschaftlichste Abbauverfahren und ein geeignetes Aufbereitungsverfahren (d. h. wie man am besten das Erz zu einem verkaufsfähigen Konzentrat anreichert) ermittelt werden. Die wesentlichen Ergebnisse dieser Voruntersuchungen fasst die Aufstellung der Tab. 3.1 zusammen. Die Daten ergeben die wichtigsten Eckwerte des Projektes: • Anfangsinvestition: 950.000 USD • Jährliche Ausgaben (Herstellkosten): 560.000 USD • Jährliche Einnahmen (Verkaufserlöse): 1.240.000 USD Aus diesen Werten ergibt sich das Kernelement jeder Investitionsrechnung: Die Datentabelle, welche die Einnahmen und Ausgaben zeitlich differenziert zusammenfasst. Das grundsätzliche Schema dieser Tabelle sieht für jede Investition gleich aus, egal um welche Art von Investition es sich handelt. Im Folgenden soll nun die Theorie und das Vorgehen bei der Investitionsrechnung für ein einzelnes Projekt anhand des genannten Beispiels dargestellt werden. Im Anschluss daran wird schließlich das Vorgehen bei der Auswahl zwischen untereinander konkurrierenden Projekten betrachtet.

3.1.1  Argumentationsbilanz Bevor wir mit den verschiedenen Berechnungen starten, beschäftigen wir uns zunächst mit der Argumentationsbilanz. Hier werden möglichst umfassend qualitative Argumente für oder gegen das Investitionsvorhaben, sowie Chancen und Risiken

40

3 Betriebswirtschaftliche Grundlagen

Tab. 3.2   Argumentationsbilanz Vorteile/Chancen

Nachteile/Risiken

Weitere Einnamequelle ohne ↔ zusätzliches Management Risikominderung durch Diversifizierung ↔

Management verzettelt sich

Gesellschaft erwirbt zusätzliche Kompetenzen Abbauverfahren und Aufbereitungsverfahren sind prinzipiell bekannt Strategisch erweitern sich die Wachstumschancen für die Zukunft



Es handelt sich um verwandte Metallaktivitäten



↔ ↔

Zusätzliche Risiken, da man das Buntmetallgeschäft nicht kennt Die Gesellschaft ist nicht mehr auf ein Produkt fokussiert Aufbereitungsverhalten von Buntmetall-Erzen kann viele Überraschungen bringen Konzern beschäftigt sich bisher nicht mit Buntmetallen. Wer kontrolliert diese Aktivitäten Gesellschaft wird von Kerngeschäft und Kernkompetenz abgelenkt

gegenübergestellt. Dabei ist sowohl auf die Auswirkungen innerhalb des Unternehmens, wie auch auf die Außenwirkung einzugehen. Für die Wirtschaftlichkeit einer Investition ist die Aussagekraft des Verfahrens alleine eher gering. Durch die Bewertung der Argumentationsbilanz im Sinne einer Nutzwertanalyse (s. Kap. 8.1.3) werden die Konsequenzen qualitativ vergleichbar zu anderen Investitionen und anschaulich dargestellt. Bei Betrachtung der Argumentationsbilanz des angeführten Beispiels (Tab. 3.2) wird sehr schnell klar, dass die Entscheidung nur zum Teil auf Basis der wirtschaftlichen Gegebenheiten gefällt werden darf. Es geht in diesem speziellen Fall mehr um die Frage, ob sich eine Gesellschaft, die sich jahrzehntelang erfolgreich mit einem Produkt (Chromerz) beschäftigt hat, in andere Metalle diversifizieren soll oder ob sie sich auf ihr Kerngeschäft konzentrieren möchte. Daraus lässt sich schon ableiten: Die Wirtschaftlichkeit der neuen Lagerstätte muss schon sehr attraktiv, die Risiken sehr gering sein, bevor man eine strategisch so weitreichende Entscheidung treffen wird. Das Beispiel unterstreicht auch, dass Investitionen grundsätzlich zunächst in die Gesamtstrategie eines Unternehmens passen müssen.

3.1.2  Amortisationsrechnung Die nächste Stufe umfasst die statische Amortisationsrechnung. Mit ihrer Hilfe erhält man den Zeitpunkt, zu dem der investierte Betrag wieder eingegangen ist, ohne dabei etwaige Zinseffekte zu berücksichtigen. Dieser Zeitpunkt wird auch Break-even-Punkt genannt. Die Berechnung erfolgt aus Gründen der Übersichtlichkeit in tabellarischer Form. Dabei steht die Periode 0 für den Zeitpunkt der Anfangsinvestition. Die folgenden Perioden charakterisieren das Ende des jeweiligen Investitionsjahres. Sämtliche Geldströme werden in den jeweiligen Perioden erfasst und daraus der Periodenüberschuss ermittelt. Aus der Verrechnung der Pe-

3.1 Wirtschaftlichkeitsstudie

41

Tab. 3.3   Amortisationsrechnung Beispiel Periode (t) in a

0

1

2

Konzessionen Maschinen Investitionsauszahlungen Einzahlungen (Erlöse) Auszahlungen (Herstellkosten) Periodenüberschüsse Kumulierte Periodenüberschüsse Investitionsüberschüsse

−500.000 −450.000 −950.000

3

4

5

1.240.000 560.000

1.240.000 1.240.000 1.240.000 1.240.000 560.000 560.000 560.000 560.000

680.000 680.000

680.000 680.000 680.000 680.000 1.360.000 2.040.000 2.720.000 3.400.000

−950.000 −270.000

410.000 1.090.000 1.770.000 2.450.000

riodenüberschüsse mit der Anfangsinvestition ergeben sich letztlich die Investitionsüberschüsse. Auf den ersten Blick erhält man meist nur die Information, dass der Zeitpunkt der Amortisation im Laufe der Periode eingetreten sein wird. Durch eine lineare Interpolation oder die graphische Darstellung ist einfach ein genauerer Wert zu erhalten. In unserem Beispiel ist die Amortisationszeit bereits nach 1,4 Jahren erreicht (Tab. 3.3). Das bedeutet eine besonders gute Wirtschaftlichkeit. Die Amortisationszeit ist eine grobe Abschätzung über den Daumen. Sie ist aber immer sinnvoll, denn sie gibt eine hervorragende erste Indikation. Gute Amortisationszeiten liegen im Allgemeinen zwischen 2 und 5 Jahren. Wenn sie länger sind, sollte man genauer nachrechnen und analysieren. Manche Investitionen müssen sich allerdings auch schon nach wenigen Monaten amortisieren, um realisiert zu werden. Natürlich hängt diese Zeitspanne auch immer von der strategischen Bedeutung und der Größe der Maßnahme ab. Als Daimler den Chrysler-Konzern übernahm, konnte man lesen, dass die Analysten mit einem Amortisationszeitraum von etwa 20 Jahren rechneten. Das ist typisch für eine strategische Entscheidung. Der Börsenwert des Unternehmens reduzierte sich anschließend schnell um ca. 30%. D. h., den Anlegern erschien die Wirtschaftlichkeit dieser langfristigen Strategie nicht attraktiv genug und die tatsächliche Entwicklung hat in der Zwischenzeit diese Skepsis mehr als bestätigt. Die Amortisationszeit erhält man bei jährlich gleichbleibenden Überschüssen auch durch die Verhältniszahl „Investitionskosten geteilt durch den Periodenüberschuss“ (s. Gl. 3.1). Nimmt man den Kehrwert dieses Verhältnisses und drückt ihn in Prozent aus, so erhält man die Rentabilität oder den Return on Investment =  ROI (s. Gl. 3.2). Der ROI ist eine auch international häufig verwendete Kennzahl. Sie ist eine der beliebtesten Indikatoren für die Profitabilität einer Firma und wird bei den Bilanz-Kennzahlen (s. Kap. 3.3.9) ausführlicher betrachtet. Die Berechnungssystematik ist im Prinzip immer die gleiche, im Einzelfall muss man jedoch genau darauf achten, wie „Return“ und „Investment“ konkret definiert sind. Achtung, hier gibt es große und wichtige Unterschiede, z. B. ob der „Return“ als Ergebnis vor Steuern, nach Steuern oder als cash flow definiert ist, etc. Gute

42

3 Betriebswirtschaftliche Grundlagen

ROI-Werte liegen bei 15–20%. Somit ist das Projekt aus dem Beispiel mit einem Wert von 71,5% offensichtlich außerordentlich attraktiv. Investitionskosten  950..000  = 1, 4 Jahre ,  (3.1) Amortisationszeit =  =  680.000 Perioden berschuss Rentabilität(ROI) =

Periodenüberschuss Investitionskosten

(= 0, 715 = 71, 5%) ,



(3.2)

3.1.3  Kapitalwertverfahren Wir sehen also, je mehr wir rechnen, umso lukrativer scheint diese kleine Lagerstätte zu sein und so analysieren wir jetzt etwas genauer mit den dynamischen Verfahren. Wir sehen uns die beiden grundlegenden Verfahren, das KapitalwertVerfahren (auch discounted cash flow method genannt) und im folgenden Kapitel das Verfahren des internen Zinsfußes an. Gebräuchlich ist auch das AnnuitätenVerfahren, auf das wir aber hier nicht eingehen. Im Gegensatz zu den beiden vorgestellten Verfahren wird nämlich nicht ein Gesamt-Zielwert, sondern ein Zielwert pro Periode ermittelt, was das Verfahren für unsere Herangehensweise nicht empfiehlt. Das Kapitalwert-Verfahren (Tab. 3.4) sagt uns, welchen Geldwert eine Maßnahme zum heutigen Zeitpunkt 0 darstellt, wobei die zukünftigen Überschüsse mit einem marktüblichen Zinssatz auf den Zeitpunkt 0 abgezinst werden. Im Prinzip funktioniert dies genau wie eine Berechnung des Endwertes bei einer Aufzinsung über die Laufzeit einer Geldanlage. Nur eben in entgegengesetzter Richtung. Sie werden sich vielleicht fragen, aus welchem Grund man nicht einfach den Wert der Investition am Ende der Perioden berechnet, sondern den schwierig zu verstehenden Kapitalwert wählt. Nun, eine Maßnahme ist grundsätzlich dann wirtschaftlich, wenn der Kapitalwert größer Null ist. Ansonsten würde man das zu investierende Kapital nämlich besser auf die Bank legen und Zinsen erwirtschaften. Dies entspricht dann der Unterlassensalternative. Man spart sich also die Berechnung der Endwerte der Unterlassensalternative, da diese schon bei der Ermittlung des Kapitalwertes berücksichtigt ist. Ist der Kapitalwert größer Null, so ergibt sich gegenüber der Unterlassensalternative also eine Vermögensmehrung, ist er kleiner Null eine Vermögensminderung. Die Methodik ergibt sich aus der Tab. 3.4. Der Abzinsungsfaktor kann entweder aus einer Tabelle entnommen oder nach Gl. 3.3 berechnet werden. Aus dessen Multiplikation mit Periodenüberschüssen und Investitionszahlungen ergeben sich die diskontierten Barwerte. Durch Aufsummieren dieser Barwerte von Periode zu Periode ergeben sich schließlich die Kapitalwerte. Der Kapitalwert lässt sich aber auch ohne eine solche Tabelle mit Hilfe von Gl. 3.4 berechnen.

3.1 Wirtschaftlichkeitsstudie

43

Tab. 3.4   Kapitalwertverfahren Periode (t)

0

Investitionszahlungen Periodenüberschuss Abzinsungsfaktor Barwerte der Periodenüberschüsse Kapitalwert der Investition

−950.000

1,0000

−950.000

1

2

3

4

5

680.000

680.000

680.000

680.000

680.000

0,9091

0,8264

0,7513

0,6830

0,6209

618.188

561.952

510.884

464.440

422.212

−331.812

230.140

741.024

1.205.464

1.627.676

In unserem Beispiel ist also auch hier der nach fünf Jahren erhaltene Kapitalwert von ca. 1,6 Mio. USD bei einem angenommenen Kalkulationszinssatz von 10% wirtschaftlich hoch attraktiv. Das Kapitalwertverfahren hat noch einen weiteren Nutzen. Nach Durchführung des Kapitalwertverfahrens in einer Tabelle kann die dynamische Amortisationsdauer einfach abgelesen werden. Der Kapitalwert von 0 zeigt den Break-even-Punkt an. In unserem Beispiel ist die Investition bereits im Laufe der zweiten Periode vorteilhafter als die Unterlassung der Investition.

Abzinsungsfaktor = (1 + i)−t , 

C0 = −I0 +

T  � t=1

 (Et − At ) · (1 + i)−t , 

(3.3)

(3.4)

C0  =  Kapitalwert I0  =  Investitionsauszahlung Et  =  Einzahlungen zum Ende der Periode t At  =  Auszahlungen zum Ende der Periode t i  =  Kalkulationszinssatz t  =  Periode T  =  Betrachtungsdauer in Perioden

3.1.4  Kalkulationszinssatz Für Verwirrung sorgt an dieser Stelle oft der Kalkulationszinssatz oder auch Kalkulationszinsfuß, da die Festlegung desselben nicht trivial ist, sondern vielmehr einige Überlegungen erfordert. Auch darf er nicht mit dem Kapitalmarktzins verwechselt

44

3 Betriebswirtschaftliche Grundlagen

werden. Vielmehr muss der Kalkulationszinssatz deutlich über dem marktüblichen Zinssatz liegen. Der Soll- oder Habenszins legt dabei die absolut unterste Grenze fest. Da die erwarteten Wertansätze mit Unsicherheit behaftet sind, wird ein zusätzlicher Risikozuschlag festgelegt. Dieser ergibt zusammen mit dem Kapitalmarktzins den Kalkulationszinssatz. In den vergangenen 30 Jahren wurden in Studien tatsächliche Werte zwischen 7 und 12% ermittelt. Je nach Branche und Unternehmen können diese Werte natürlich abweichen (vgl. Däumler u. Grabe 2007). Meist gibt es aber in den Betrieben aus der Erfahrung festgelegte Werte, die man bei einer Berechnung heranziehen sollte.

3.1.5  Interner Zinsfuß Das Verfahren des internen Zinsfußes (auch discounted cash flow rate oder internal rate of return genannt) gibt uns die Rendite des investierten (betriebswirtschaftlich sagt man: des gebundenen) Kapitals an. Grundsätzlich gilt eine Investition dann als wirtschaftlich vorteilhaft, wenn dieser interne Zinsfuß größer als der (marktübliche) Kalkulationszinssatz ist. Dies entspricht im Prinzip der Betrachtung des Kapitalwertes. Mathematisch ist der interne Zinsfuß etwas komplizierter zu ermitteln. Das Verfahren hat aber den Vorteil, dass es das Ergebnis besonders anschaulich darstellt. Der interne Zinsfuß ist derjenige Zinssatz, bei dem der Kapitalwert bei der angenommenen Nutzungsdauer den Wert Null annimmt. Graphisch kann dieser Zinsfuß grob durch Interpolation ermittelt werden. Moderne Tabellenkalkulationsprogramme erleichtern bei der exakten Bestimmung die Arbeit, so dass die Berechnungen nicht per Hand durchgeführt werden müssen. Zur Bestimmung des internen Zinsfußes werden zuerst mindestens zwei Kapitalwerte mit der Laufzeit des Projektes und verschiedenen Kalkulationszinssätzen berechnet. Dabei muss mindestens je ein Kapitalwert größer und kleiner Null sein. Die so ermittelten Werte werden in einem Diagramm Kapitalwert über Kalkulationszinssatz aufgetragen. Die eingetragenen Datenpunkte werden durch eine Kurve, der sogenannten Kapitalwertkurve, miteinander verbunden. An der Stelle, an der die Kapitalwertkurve die Null-Linie des Kapitalwertes schneidet, erhält man den graphisch bestimmten internen Zinsfuß der Investition. Übersteigt dieser Wert den Kalkulationszinssatz, bedeutet dies, dass die Rendite der Investition höher ist als die geforderte Mindestverzinsung und man erhält einen zusätzlichen Überschuss. Bei der Auftragung sieht man auch, dass das Ergebnis genauer wird, je mehr Datenpunkte vorhanden sind und je näher diese am Schnittpunkt liegen. Abbildung 3.3 zeigt die Bestimmung der Rendite unseres Beispiels. Dabei bestätigt der ermittelte Wert des internen Zinsfußes von über 66% die hervorragende Profitabilität des Projektes. Natürlich kann der interne Zinsfuß auch mathematisch bestimmt werden. Genau wie die graphische Lösung ist auch die arithmetische Berechnung eine Näherungslösung, deren Ergebnis genauer wird, je näher die Wertepunkte am Lösungswert

3.1 Wirtschaftlichkeitsstudie

45

Abb. 3.3   Graphische Bestimmung des internen Zinsfußes

liegen. Zuerst müssen auch hier zwei Kapitalwerte mit unterschiedlichen Kalkulationszinssätzen berechnet wurden. Die Bestimmung erfolgt mit Hilfe des RegulaFalsi Verfahrens, wie es Gl. 3.5 zeigt. i2 − i1 (3.5) r = i1 − C0,1 · ,  C0,2 − C0,1 r    =  interner Zinsfuß ia     =  Kalkulationszins am Berechnungspunkt a C0,a  =  Kapitalwert am Berechnungspunkt a

3.1.6  Erweiterungen Zur besseren Veranschaulichung der Verfahren wurde hier ein einfaches Beispiel für die Demonstration gewählt. Tatsächlich ist die Bestimmung der Investitionsausgaben und der Periodenüberschüsse meist wesentlich umfangreicher. So müssen beispielsweise Abschreibungen auf Anlagen und Maschinen, Steuern und andere Posten mit berücksichtigt werden. Weiterhin ist es wichtig zu wissen, wie sich Aufwand und Ertrag zusammensetzen. Zur Verdeutlichung und Hilfestellung ist in Tab. 3.5 ein Formblatt zur Beantragung von Investitionen dargestellt, wie es z. B. in Unternehmen eingesetzt wird,

46

3 Betriebswirtschaftliche Grundlagen

Tab. 3.5   Formblatt für die Beantragung von Investitionen eines deutschen Konzerns Periode in T € 1. Anschaffungsausgabe 2. Veränderung Umlaufvermögen 3. Liquidationserlöse 4. Zuschüsse 5. Umstellungskosten 6. =  Gesamtkosten 7. Umsatz 8. Materialaufwand 9. = Rohertrag 10. Sonstige Erträge 11. Personalaufwand 12. Abschreibungen 13. Sonstiger Aufwand (keine Zinsen) 14. Betriebsergebnis/Operat. profit 15. Ertragssteuern (…%) 16. Abschreibungen 17. Restwert 18. Cash Flow 19. Diskontierte CashFlows kumulierte diskontierte Cash-Flows

0 –950

1

2

3

4

5

6

bis 20

−950

0 680

0 0 680 680

0 680

0 680

0 0

0 0

0

680

680 680

680

680

0

0

0

680

680 680

680

680

0

0

−950 −950 −950

680 618 −332

680 680 562 511 230 741

680 464 1.206

680 422 1.628

0 0 0

0 0 0

Kapitalwert

1.628

Kapitalkosten

10%

Interne Verzinsung

66%

Steuersatz

%

Kapitalrückflusszeit

1,6 a

um die Wirtschaftlichkeit von Investitionen zu beurteilen und mit alternativen Investitionen zu vergleichen. Neben der Ermittlung der Basisdaten dient es zur Darstellung der Ergebnisse der verschiedenen gezeigten Berechnungsverfahren. Die Daten unseres Beispiels sind zur Veranschaulichung eingetragen.

3.1.7  Sensitivitätsanalyse Um die Vorteilhaftigkeit der Investition abschließend zu bewerten, fehlt uns allerdings noch die Sensitivitätsanalyse, um zu einer wirklich abgewogenen Meinung zu kommen. Dabei werden nicht nur Risiken, sondern auch Chancen aufgezeigt, die möglicherweise durch eine Änderung der Erwartungen auftreten können. Wir gehen einen Moment zu unseren Basisdaten zurück. Wo könnten hier Abweichungen auftreten? Dazu stellen wir uns vor, was in einem schlechtesten Fall passieren könnte, d. h. wir malen „den Teufel an die Wand“ oder wir rechnen mit „Murphy’s Law“ (was schief gehen kann, geht auch schief).

3.1 Wirtschaftlichkeitsstudie

47

Abb. 3.4   Szenario mit Kalkulationszinssatz von 20%

Beispiel: Die Zinsen. Wir befinden uns in einem Land mit hohen Inflationsraten. Nehmen wir einmal an, statt dem derzeitigen Kalkulationszinssatz von 10% werden es im Durchschnitt über fünf Jahre durch steigende Kapitalmarktzinsen 20% (s. Abb. 3.4) sein. Das allein bewirkt eine Reduzierung des Kapitalwertes um etwa 30%, während der Interne Zinsfuß unverändert bleibt. Aber wir müssen ihn jetzt mit 20% und nicht mit 10% Kalkulationszinssatz vergleichen. Sinkt der Kalkulationszins dagegen, steigt damit die Vorteilhaftigkeit der Investition. Dann überprüfen wir die Herstellkosten: Wir haben sie auf Basis unserer Erfahrung im Chrom-Abbau analog geschätzt, haben jedoch bisher keine Erfahrung beim Abbau von Buntmetall-Lagerstätten. Vielleicht erleben wir dabei Überraschungen, mit denen wir gar nicht gerechnet haben? Sind wir einmal vorsichtig und gehen davon aus, dass die operativen Kosten um 25% höher sein könnten als angenommen. Die Erlöse: Metallpreise schwanken in hohen Amplituden, Verdopplung oder Halbierung der Preise innerhalb weniger Monate werden immer wieder registriert. Unsere Basis war das Jahr 1998, in dem das Niveau der Metallpreise eher tief war. Aber gibt einem das Sicherheit? Also rechnen wir für alle Fälle hier mit einer Verschlechterung um 20%. Heute wissen wir, dass die Metallpreise deutlich gestiegen sind. Gerade auf dem Rohstoffmarkt bestehen also auch Chancen auf eine Erhöhung des Gewinns. Jedoch bergen die Preisschwankungen auch ein ebenso großes Risiko. Wenn wir in unsere Rechnung jetzt nur die Verschlechterung bei Erlösen und Herstellkosten aufnehmen, sieht unser Projekt schon ganz anders aus! Die Amortisationszeit verlängert sich auf 3,2 Jahre, der Kapitalwert beträgt nur noch ca. 160.000,- USD und der interne Zinsfuß fällt auf 16% (Abb. 3.5). Und wenn wir dann wieder mit einem Kalkulationszins von 20% statt mit 10% rechnen, schlägt die Wirtschaftlichkeit um: Wie die untere Teil-Tabelle zeigt, ist der Kapitalwert   Da wir in US-Dollar kalkulieren, ist dieses Szenario eher unwahrscheinlich. Es soll jedoch das Prinzip verdeutlicht werden.

48

3 Betriebswirtschaftliche Grundlagen

Abb. 3.5   Sensitivitäts-Analyse: Berechnung der pessimistischen Szenarien

dann negativ, der interne Zinsfuß bleibt bei 16%, liegt aber niedriger als der Kalkulationszins von 20%. Das heißt, unter diesen Rahmenbedingungen darf man das Projekt nicht empfehlen, es ist unwirtschaftlich! Das Beispiel mag Sie warnen: Eine phantastische Profitabilität auf den ersten Blick muss kritisch und sorgfältig hinterfragt werden. Im Übrigen: Sie fragen sich, ob das Projekt realisiert wurde? Nein! Aber das hatte weniger mit der Wirtschaftlichkeit als mit den strategischen Grundüberlegungen zu tun.

3.1 Wirtschaftlichkeitsstudie

49

3.1.8  Vergleich mehrer Investitionen Oft steht man auch vor der Aufgabe eine Variante aus mehreren Investitionsalternativen auszuwählen. Dabei stellt sich die Frage, ob zwingend das Projekt mit dem größten Kapitalwert oder internen Zinsfuß zu bevorzugen ist. So pauschal kann dies aber nicht beantwortet werden. Zwar ist es richtig, dass die Investition vorteilhafter ist, je höher der Kapitalwert ist. Allerdings sollte man auch andere Faktoren berücksichtigen. Zuerst einmal ist ein Vergleich zweier Projekte nur bei Betrachtung der gleichen Laufzeit sinnvoll. Vergleicht man die Zeitpunkte und die Höhe der Zahlungseingänge, so ist es im Allgemeinen besser je früher die Zahlungseingänge (bei gleicher Höhe) erfolgen. Denn je weiter in der Zukunft eine Annahme getroffen wird, desto mehr ist sie mit Unsicherheit behaftet. Als nächstes gilt es auch Risiken und Chancen der Investitionen gegenüberzustellen. Gibt es möglicherweise eine Alternative, die bei Annahme eines schlechten Szenarios trotzdem noch Gewinn erwirtschaftet? Leider gibt es hierfür kein Patentrezept und es ist nicht nur das reine Zahlenwerk entscheidend. Vielmehr ist es hier die Aufgabe Vor- und Nachteile sorgfältig gegeneinander abzuwägen und eine fundierte Argumentationsbasis zu schaffen.

3.1.9  Firmenwert und ewige Rente Bevor wir dieses Kapitel abschließen noch ein kurzer Exkurs zu einem Thema, das methodisch ebenfalls zur Investitionsrechnung gehört. Die Ermittlung des Ertragswertes von Firmen. Auch der Kauf einer Firma ist ja eine Investition. Während bei Firmenkäufen früher der sog. Substanzwert entscheidend war (das ist die Summe der Vermögenswerte wie Grundstücke, Gebäude, Maschinen, etc. abzüglich der Schulden) ist man richtigerweise dazu übergegangen, mehr Augenmerk auf den Marktwert oder den Ertragswert (Beurteilung der Überschüsse) eines Unternehmens zu legen. Ein ausgewogenes Bild ergibt sich erst durch Vergleich und Beurteilung der unterschiedlichen Bewertungsmethoden. Nehmen wir einmal an, wir hätten für unsere Lagerstätte in der Türkei zunächst grünes Licht erhalten, die Konzession erworben, die Anlagen gekauft und aufgestellt. Plötzlich wird aber strategisch entschieden, dass diese neue kleine Firma sofort wieder verkauft werden soll. Zu welchem Preis würde man sie anbieten? Natürlich zu dem Kapitalwert, den wir in Tab. 3.4 ermittelt haben. Ob man den errechneten Betrag erhält, hängt dann natürlich vom Markt, von strategischen Überlegungen, von der Branche und weiteren Faktoren ab. Inzwischen haben sich Marktwerte für Firmenverkäufe aus bestimmten Branchen gebildet, die durch sogenannte „market multiples“ gekennzeichnet sind. Als „market multiple“ wird ganz allgemein der Multiplikationsfaktor einer Bezugsgröße wie z. B. Cash Flow oder EBIT genannt, um den Unternehmenswert zu bestimmen. Mittlerweile existieren verschiedenste Ansätze, die entweder auf den Kursen von

50

3 Betriebswirtschaftliche Grundlagen

börsennotierten Unternehmen oder auf tatsächlichen Preisen von Unternehmensverkäufen beruhen. Ein guter Überblick hierzu findet sich bei Arbenz 2005. Wirft eine Firma konstant den gleichen Jahresgewinn ab, so kann man ihren Kapital- oder Barwert einfach mit der sogenannten „Ewigen Rente“ ermitteln. Das ist deshalb praktisch, weil es für die Ewige Rente eine sehr handliche Näherungsformel gibt:

Barwert = Jahresgeswinn × 1/ Zinssatz,



(3.6)

Angenommen, eine Firma verdient nachhaltig jedes Jahr rund 1 Mio. €, der Marktzins sei 10%. Ihr Barwert ist dann: 1 Mio. × 1/0,1 = 10 Mio.€ Sie werden einwenden: Wann komme ich einmal in die Verlegenheit, eine Firma zu verkaufen oder zu kaufen? Richtig! Aber diese einfache Formel lässt sich als Näherungsmethode auch für viele andere Fragestellungen einsetzen. Beispiele: Der Wert eines Teilbetriebes, z. B. eines Labors, der Wert eines Mietobjektes oder die Fragestellung, welche jährlichen Einkünfte eine Deponie erwirtschaften muss, um die Gesamtinvestitionen zu rechtfertigen. Dem Nicht-Betriebswirt helfen solche Grobmethoden, eine ungefähre Vorstellung von wirtschaftlichen Wertansätzen zu erhalten.

3.2  Internes Rechnungswesen Das externe Rechnungswesen bildet Vorgänge ab, die sich zwischen dem Unternehmen und seiner Umwelt abspielen. Gewinn- und Verlustrechnung sowie die Bilanz informieren über das Periodenergebnis und die finanzielle Situation des Unternehmens und werden Anteilseignern, Banken oder dem Finanzamt vorgelegt (s. Abb. 3.6). Das interne Rechnungswesen hingegen liefert Informationen über die Kostenstruktur und die Wirtschaftlichkeit des Unternehmens und ist als betriebsinterne Information nur der Unternehmensführung zugänglich. Erst die Transparenz bezüglich der Art und der Höhe der anfallenden Kosten liefert der Unternehmensführung Ansatzpunkt und Steuerungsgrößen, um das Unternehmen kontrolliert wirtschaftlich zu führen und auf veränderliche Marktsituationen adäquat zu reagieren. Der Einsatz von Buchhaltungsprogrammen und ERP-Software (Enterprise-Resource-Planning) verzahnen das externe und das interne Rechnungswesen und ermöglichen eine äußerst differenzierte Erfassung der relevanten Informationen. Wesentlicher Unterschied sind die einzuhaltenden Formvorschriften. Während das externe Rechnungswesen den gesetzlichen Regelungen unterworfen ist, kann das interne Rechnungswesen frei gestaltet werden. Mit dem Einführungskapitel in dieses umfangreiche Fachgebiet möchten wir Ihnen die Grundkonzeptionen und elementaren Grundbegriffe der Kostenrechnung

3.2 Internes Rechnungswesen

51

Abb. 3.6   Gliederung des Rechnungswesens (nach Männel 2005)

näher bringen und ein Gefühl dafür vermitteln, wie man Kostenrechnungsergebnisse einordnen und bewerten muss. Die Kostenrechnung ist eines der Kerngebiete der Betriebswirtschaftslehre und wesentlicher Bestandteil des Rechnungswesens eines Unternehmens. Gegenüber dem externen Rechnungswesen, das im Kap. 3.3 behandelt wird, wird die Kostenrechnung dem internen Rechnungswesen zugeordnet. Beide Bereiche sind gleichermaßen wichtig, richten sich mit ihrem Informationsgehalt jedoch an unterschiedliche Zielgruppen.

3.2.1  Generelle Aufgaben der Kostenrechnung Die wesentlichen Aufgaben der Kostenrechnung sind: • • • •

die Vor- und Nachkalkulation der Produkte die Erfassung und Quantifizierung von Kostenstrukturen die interne Steuerung des Betriebsablaufes Erstellung einer differenzierenden Betriebsergebnisrechnung

52

3 Betriebswirtschaftliche Grundlagen

Die Kostenrechnung stellt entscheidungsrelevante Informationen der Unternehmensführung bereit. Auf dieser Basis lassen sich Entscheidungen über das optimale Produktprogramm ableiten, Outsourcing oder Integration von Produktionsschritten begründen und gezielt Gewinne maximieren, aber auch Verluste reduzieren. Im heutigen Wirtschaftsleben muss jeder, der Verantwortung für ein Projekt, eine Arbeitsgruppe, eine Abteilung oder gar ein Unternehmen trägt, nicht nur die Kosten seines Verantwortungsbereiches kennen, sondern auch ein Grundverständnis dafür haben, wie Kosten ermittelt werden. Es sei bereits an dieser Stelle darauf hingewiesen, dass es das „ideale“ Kostenrechnungssystem, welches allen Anforderungen gerecht wird nicht gibt. Häufig wird die unternehmerische Entscheidung erst nach Betrachtung der Ergebnisse verschiedener Kostenrechnungssysteme gefällt. 3.2.1.1  Einige Grundbegriffe der Kostenrechnung Die Betriebswirtschaft ist eine Wissenschaft, die sehr präzise mit Begriffen und Begriffsdefinitionen umgehen muss. Nur damit lässt sich gedankliche Ordnung erreichen. Der nicht betriebswirtschaftlich vorgebildete Praktiker wird durch die vielen Definitionen häufig verwirrt, insbesondere, da diese auch im täglichen Sprachgebrauch teilweise synonym verwendet werden. Kaufleute grenzen die Bedeutung dieser Begriffe jedoch sehr genau voneinander ab. Diese wesentlichen Begriffe wollen wir vorab erläutern. Das interne Rechnungswesen operiert mit dem Begriffspaar Kosten – Erlöse, das externe Rechnungswesen mit dem Begriffspaar Aufwand – Ertrag. Die entsprechenden Rechengrößen sind zum großen Teil deckungsgleich, es gibt jedoch wichtige Unterschiede. Aufwand Unter Aufwand versteht man den erfolgswirksamen und periodisierten Leistungsund Werteverzehr, wie er den Bilanzierungsvorschriften der Gewinn- und Verlustrechnung (GuV) entspricht. Betrachten wir die einzelnen Bestandteile der Definition genauer: Der Leistungsund Werteverzehr umfasst, was im Rahmen der Herstellung eines Produktes oder einer Leistungseinheit an Ressourcen eingesetzt wird. Dabei ist es von Bedeutung, dass nur der Teil als Aufwand verbucht wird, der auch in der relevanten Periode (i. d. R. das Geschäftsjahr) anfällt. Bei Rohstoffen ist es das verbrauchte Material, bei einer auf fünf Jahre abzuschreibenden Produktionsmaschine tragen nur 20% ihres Anschaffungswertes zum periodisierten Aufwand bei. Die meisten Aufwendungen sind deckungsgleich mit den Kosten(s. Abb. 3.7). Darüber hinaus fällt neutraler Aufwand an, der zwar das Betriebsergebnis beeinflusst, der aber nicht zu den Kosten gerechnet wird. Hierunter fallen betriebsfremde Aufwendungen wie z. B. Spenden, periodenfremde Aufwendungen wie z. B. Steuernachzahlungen und außerordentliche Aufwendungen. Diese stehen zwar in

3.2 Internes Rechnungswesen

53

Abb. 3.7   Abgrenzung Aufwand – Kosten

Zusammenhang mit dem Betriebszweck, aber die Aussagekraft des Periodenerfolgs wegen ihres unvorhersehbaren Eintritts beeinträchtigen wie zum Beispiel Schäden durch Naturkatastrophen oder Vandalismus. Solche neutralen Aufwendungen werden nicht in der Kostenkalkulation berücksichtigt. Kosten Kosten sind der bewertete Verbrauch an Gütern und Dienstleistungen zur Leistungserstellung. Neben den aufwandsgleichen Grundkosten wie Personalkosten, Materialkosten, Energiekosten usw. gibt es die kalkulatorischen Kosten, die entweder anders (Anderskosten) sind oder zusätzlich (Zusatzkosten) zum Aufwand anfallen. Die wichtigsten kalkulatorischen Kosten sind: • • • •

kalkulatorische Abschreibungen (Anderskosten) kalkulatorische Zinsen (Anderskosten) kalkulatorische Wagnisse (Zusatzkosten) kalkulatorischer Unternehmerlohn (Zusatzkosten)

Die kalkulatorischen Kosten dürfen im externen Rechnungswesen nicht angesetzt werden, da es sich um keine tatsächlich anfallenden Aufwendungen handelt. Trotzdem müssen sie in der Wirtschaftlichkeitsbetrachtung berücksichtigt werden. Warum macht man sich das Leben so schwer? Dazu ein Beispiel: Eine Firma stellt bestimmte Zulieferteile für die Automobilindustrie her. Der Wettbewerb ist hart. Die wichtigsten Maschinen wurden vor sechs Jahren gekauft und wurden über fünf Jahren abgeschrieben (s. dazu Kap. 3.3.5). Sie sind in gutem Zustand und tun ihren Dienst vielleicht noch weitere zwei, vielleicht drei Jahre. Der Wegfall der Abschreibung bringt dem Unternehmen einen Kostenvorteil. Soll man ihn ausnutzen und die Preise senken? Nein! Denn wenn die Maschinen plötzlich erneuert werden müssen, fällt wieder die Abschreibung für Neumaschinen an, es entsteht ein Bruch, ein Kostensprung, der durch die Verkaufserlöse plötzlich nicht mehr gedeckt werden kann und eine erneute notwendige Preiserhöhung wird am Markt in der Regel nicht durchsetzbar sein. Deshalb setzt man in die Betriebsabrechnung stets die kalkulatorische Abschreibung für eine Neuanlage/-maschine ein und geht in der Kalkulation von einer gleichbleibenden Belastung aus. Die Kosten sind deshalb in der Betriebsabrechnung jeweils höher als die Zweckaufwendungen in der GuV, die Ergebnisse daher niedriger.

54

3 Betriebswirtschaftliche Grundlagen

Analog verfährt man mit den Zinsen. Unabhängig von der aktuellen Liquiditätslage des Unternehmens wird in der Kostenrechnung so kalkuliert, als würde das gesamte betriebsnotwendige Kapital von einer externen Bank finanziert (Außenfinanzierung statt Innenfinanzierung). Damit wird auch eine bessere Vergleichbarkeit der Kosten zwischen Betrieben (für ein sog. „benchmarking“) erreicht. Ähnlich geht man gedanklich bei der Zurechnung von Wagniszuschlägen vor, um z. B. ein mögliches Ausfallrisiko einzupreisen, oder drohende Garantieleistungen bereits zu berücksichtigen, deren Eintritt auf Erfahrungswerten beruht. Der kalkulatorische Unternehmerlohn wird bei Personengesellschaften berücksichtigt, da sich der geschäftsführende Gesellschafter kein Gehalt zahlen darf, sondern die Vergütung seiner Tätigkeit nur in Form von Gewinnausschüttungen erhält. Hier wird in die Kostenrechnung ein kalkulatorischer Betrag eingestellt, den ein für diese Tätigkeit angestellter Geschäftsführer erhalten würde. Die Gründe für die Berücksichtigung der kalkulatorischen Kostenkategorien sind also sinnvoll und sachlich gerechtfertigt. Trotzdem führt das zu einer verwirrenden Situation: zum sogenannten Zweikreis-System. Das bedeutet, es bestehen im Unternehmen zwei Rechenkreise, das Interne und das Externe Rechnungswesen, deren Ergebnisse unterschiedliche Beträge ausweisen. Das sogenannte Betriebsergebnis des Internen Rechenwesens ist grundsätzlich niedriger als das Bilanzergebnis des Externen Rechnungswesens. Das verwirrt nicht nur den Anfänger, sondern es ist auch ein grundsätzliches Problem. Es gibt zwar Überleitungsrechnungen, aber ganz allgemein formuliert bedeutet es, dass das „Regelsystem“ an das Management unterschiedliche Messdaten „sendet“, was durchaus zu gegensätzlichen Steuerungsempfehlungen führen kann. Speziell betriebswirtschaftlich nicht Vorgebildete müssen ihr besonderes Augenmerk darauf legen, um die Steuerung des Unternehmens anhand der Kostenrechnung durchzuführen und sich nicht nur auf Gewinn- und Verlustrechnung und die Bilanz zu stützen. Kostenarten Für die Unternehmensführung ist nicht nur die Kenntnis der Höhe der Kosten von Bedeutung, sondern auch die Unterscheidung der jeweiligen Kostenart. Die Gesamtkosten einer Organisationseinheit, d. h. einer Abteilung, Sparte oder kompletten Firma lassen sich dabei jeweils den korrespondierenden Begriffspaaren zuordnen: Fixkosten Gemeinkosten indirekte Kosten

– – –

variable Kosten Einzelkosten direkte Kosten

Ihre Bedeutung sei kurz erläutert: • Fixkosten: Als fix bezeichnet man diejenigen Kosten die „outputunabhängig“ sind, d. h. die sich nicht ändern, wenn sich die Produktion erhöht oder reduziert.

3.2 Internes Rechnungswesen

55

Das trifft z. B. auf Gebäudemieten zu, auf die Kosten der Geschäftsführung, auf die Verwaltung etc. • Als variabel bezeichnet man diejenigen Kosten, die unmittelbar auf die Produktionsmengenänderung reagieren. Beispielhaft sind hierfür die Materialverbrauchskosten, die Verpackung oder Verkaufsprovisionen eines Produktionsbetriebes. Variable Kosten werden häufig auch als proportionale Kosten bezeichnet. Wirklich proportional sind sie jedoch nur, wenn sie einer linearen Abhängigkeit folgen. Es gibt auch progressive (überproportionale) und degressive (unterproportionale) Kosten, in Sonderfällen auch regressive. Derartige Kostenverläufe kann man in mathematischen Funktionen darstellen, was für bestimmte Fragestellungen bei Massenproduktions-Unternehmen sehr wichtig sein kann, hier jedoch unberücksichtigt bleiben soll. • Die indirekten oder synonym Gemeinkosten sind diejenigen Kosten, die den Produkten nicht unmittelbar zugeordnet werden können. In der traditionellen Kostenrechnung werden sie per Umlage aufgeteilt. Beispiele: Geschäftsführergehalt, Verwaltungskosten, Vertriebskosten, Stromkosten, Heizungskosten, Miete, Instandhaltung/Reparaturen, Abschreibungen. • Die direkten oder Einzelkosten können den Produkten unmittelbar zugeordnet werden. Beispiele: Fertigungslohn, Fertigungsmaterial, Versandkosten Das Begriffspaar fixe – variable Kosten teilt die Gesamtkosten weitgehend gleichermaßen auf wie das Begriffspaar Gemein-/Einzelkosten (indirekt–direkt). Die Aufteilung ist jedoch nicht deckungsgleich: Fertigungslöhne, die unmittelbar mit der Produktion zusammenhängen, sind als Einzelkosten dem Produkt direkt zurechenbar. Sie sind jedoch nicht variabel, denn Kündigungszeiten von 3–6 Monaten verhindern eine sofortige Anpassung des Personals bei verringerter Produktion. Diese Kosten müssen wir daher als fix betrachten. Andererseits ist z. B. der Stromverbrauch in einer Werkshalle überwiegend „variabel“ (er hängt direkt vom Produktionsvolumen ab), er lässt sich (im Allgemeinen) jedoch nicht direkt den einzelnen ggf. sehr unterschiedlichen Produkten zuordnen und muss deshalb zunächst unter den Gemeinkosten verbucht und anschließend über einen Umlageschlüssel verteilt werden. D. h. auch aus Gründen der Praktikabilität werden teilweise variable Kosten bei den Gemeinkosten verbucht. In EDV-unterstützten Rechnungssystemen wird deshalb parallel zu der Unterteilung in „direkt – indirekt“ auch gleichzeitig eine Unterteilung in „variabel – fix“ vorgenommen. Den Zusammenhang zwischen fixen und variablen Kosten und den Einfluss auf das Unternehmensergebnis wollen wir anhand Abb. 3.8 verdeutlichen. Wir sehen dort einen Fixkostenblock, dessen Höhe unverändert bleibt, auch wenn die Produktion einer Firma erhöht wird. Die variablen Kosten steigen dagegen proportional zum Produktionsvolumen stetig an. Aus der Differenz von Gesamterlösen und Gesamtkosten ergibt sich der Unternehmenserfolg.

56

3 Betriebswirtschaftliche Grundlagen

Abb. 3.8   Der Zusammenhang von Fixkosten und variablen Kosten (nach Männel 1998a)

Zunächst befindet sich das Unternehmen noch in der Verlustzone. Bei einem bestimmten Produktionsvolumen wird die Nutzschwelle, der Break-even-Punkt erreicht. An diesem Punkt werden die Fixkosten und die kumulierten variablen Kosten gerade durch den Gesamterlös gedeckt. Bei weiter steigendem Produktionsvolumen werden Gewinne erwirtschaftet (der vollständige Absatz der Produktion ist hierbei vorausgesetzt). Will man das Produktionsvolumen allerdings über die Kapazitätsgrenze steigern, muss man zusätzliche Maschinen anschaffen, Produktionshallen errichten etc. Dann steigen auch die Fixkosten markant an. Diese Art der Fixkosten bezeichnet man daher auch als sprungfixe Kosten. Für das Management ist die Unterscheidung von fixen und variablen Kosten von großer Bedeutung. Diese Unterscheidung erscheint zunächst so eindeutig wie es Abb. 3.8 zeigt: Die Kosten beispielsweise eines Fabrikgebäudes sind fix, die Rohmaterialkosten variabel oder proportional zum Produktionsvolumen. Genauer besehen ist die Definition jedoch von der Bindungsfrist abhängig. Wir haben das an den Fertigungslöhnen gesehen: Da man an festangestellte Mitarbeiter längere Zeit gebunden ist, müssen ihre Kosten als fix gelten. Generell zeigt sich in der modernen Wirtschaft die Tendenz, dass der Gesamtkostenblock kopflastig von Fixkosten dominiert wird. Besonders in der äußerst kapitalintensiven Industrieproduktion stellt das ein Problem dar, welches sich in der Höhe der „Gemeinkosten-Zuschläge“ zeigt (Kap. 3.2.2). Man versucht dieser Tendenz mit einer „Variabilisierung von Fixkosten“ entgegenzusteuern. Bekanntestes Beispiel ist das sog. „Outsourcing“: Wartung und Instandhaltung von Anlagen werden nicht mehr von betriebseigenen Handwerkern durchgeführt, sondern an externe Wartungs- und Montagefirmen ver-

3.2 Internes Rechnungswesen

57

geben, Analysen werden vom eigenen Labor auf externe Labors übertragen, die Forschung an öffentliche Institute verlegt, ja ganze Produktionsschritte an externe Zulieferer ausgelagert. Darin spiegelt sich der Zwang, angesichts unserer dynamischen Wirtschaftsentwicklung flexibel auf Änderungen des Marktes und des Umfeldes reagieren zu können. Je höher die Fixkosten, desto träger die möglichen Reaktionszeiten. Die Dienstleistungsbranche ist nicht wie die Industrie von kapitalintensiven Investitionen abhängig und genau genommen verliert die traditionelle Aufteilung in fixe und variable Kosten hier an Bedeutung. Es werden sich in dieser Branche prozessorientierte Systeme durchsetzen (s. Kap. 3.2.3.2). Allerdings besteht die Problematik der Bindungsfrist von Kosten ebenfalls. Das wird an zwei Modellen aus kulturellen Betrieben deutlich. Die Filmindustrie arbeitet strikt projektbezogen. Alle Mitwirkenden werden nur für einen Film angeheuert. Nach Beendigung geht jeder wieder seine eigenen Wege. Die öffentlichen Opernhäuser agieren dagegen mit festen Ensembles, an die sie sich langfristig binden, es werden Sänger und Musiker „vorgehalten“. Die Zukunft der Dienstleistungsgesellschaft wird sich zweifellos am Modell der Filmindustrie orientieren, da dieses den Dienstleistern mehr Autonomie und Unabhängigkeit, den Unternehmern größere Flexibilität und „Variabilisierung“ der Kosten sichert. 3.2.1.2  Systematischer Aufbau einer Kostenrechnung Die Kostenrechnung lässt sich in drei Teilgebiete wie in Abb. 3.9 dargestellt gliedern. Die Teile der Kostenrechnung beantworten die Fragen: 1. Welche Kosten fallen an 2. Wo fallen Kosten an 3. Wofür fallen Kosten an

→ → →

Kostenarten-Rechnung Kostenstellen-Rechnung Kostenträger-Rechnung

Kostenarten-Rechnung Zunächst werden alle primären Kostenarten systematisch erfasst. Kosten werden auf diese Weise in Cluster zusammengefasst, z. B. Materialkosten, Personalkosten, Abschreibungen, Gebühren usw. Diese Strukturierung stellt die Basis für alle Kostensteuerungsmaßnahmen dar. In Benchmarking Projekten wird die Kostenstruktur der am Markt agierenden Wettbewerber ermittelt. Ein Ergebnis kann z. B. sein, dass die Vertriebs- und Verwaltungskosten bei einem Unternehmen deutlich über dem der Wettbewerber liegen. Diese Erkenntnis bietet dem Management die Möglichkeit zu reagieren und z. B. Effizienzsteigerungsmaßnahmen zu veranlassen. Die Kostenarten können einen beliebig hohen Detaillierungsgrad aufweisen. Das Datenvolumen der Kostenarten-Rechnung ist dabei auch bei mittelgroßen Unternehmen sehr hoch: Allein für die Verbuchung der Kostenart „Personalkosten“ sind

58

3 Betriebswirtschaftliche Grundlagen

Abb. 3.9   Gliederungssystematik der Kostenrechnung (nach Männel 1997)

etwa 50 Unterpositionen (Lohn, Fertigungslohn, Steuern, Krankenkasse, usw.) je Mitarbeiter vorgesehen, die ggf. beachtet werden müssen. Eine wesentliche Einteilung in Kostenarten ist die bereits behandelte Unterscheidung in Einzel- und Gemeinkosten. Kostenstellen-Rechnung Die Kostenstellen-Rechnung beantwortet die Frage: Wo fallen die Kosten an. Dazu wird das Unternehmen abrechnungstechnisch in Teilbereiche untergliedert, in die sogenannten Kostenstellen. Die Aufgliederung orientiert sich meist an der Organisationsstruktur des Unternehmens, die Tiefe der Untergliederung richtet sich nach dem angestrebten Genauigkeitsgrad, der erreicht werden soll. Eine starke Differenzierung entspricht der Tendenz, Budgetverantwortung immer weiter nach unten zu delegieren und damit die Kostensensibilität zu erhöhen. Durch den Einsatz der EDV gelingt es problemlos, eine stets aktuelle und detaillierte Kostenaufstellung für jede Einheit bereitzustellen. Für jede Kostenstelle gibt es einen Verantwortlichen, der seine Kosten plant und für die Einhaltung seines Budgets verantwortlich ist. Gleichzeitig führt eine zu tiefe Untergliederung zu hohem administrativen Aufwand und in der Folge zu Ineffizienz, da jeder Verantwortliche einen Teil seiner Arbeitszeit mit Planen und Kontrollieren verbringt. Häufig begegnen einem die Begriffe Cost Center und Profit Center. Bei beiden handelt es sich um eine Kostenstelle oder um die Zusammenfassung mehrerer Kostenstellen zu Kostenbereichen. Cost Center sind ausschließlich Kostenverursacher, wie z. B. die F&E Abteilung, Profit Center hingegen haben den Zweck mit Produkten oder Leistungen Erlöse zu erwirtschaften, welche die Kosten übersteigen.

3.2 Internes Rechnungswesen

59

Kostenträger-Rechnung Die Bezeichnung „Kostenträger“ zeigt bereits an, dass alle Kosten eines Unternehmens letztlich von den Produkten bzw. Dienstleistungen „getragen“ werden müssen. Die zu tragenden Kosten müssen über Umlagen auf die Kostenträger verteilt werden. Mit der Kostenträgerrechnung werden damit die Preise ermittelt, die für Produkte oder Dienstleistungen verlangt werden müssen, um Kosten zu decken und Gewinne zu erwirtschaften. Hierbei bedient man sich verschiedener Methoden, die im Folgenden erläutert werden. Es sei an dieser Stelle bereits erwähnt, dass es nicht die richtige Methode gibt, sondern dass je nach wirtschaftlicher Situation des Unternehmens oder Art der Produkte mit Hilfe der einen oder anderen Kostenrechnung kalkuliert werden muss. Als Beispiel betrachten wir die verschiedene Produkte umfassende Produktionspalette eines Druckerherstellers. Nicht alle Produkte sind gleichermaßen in der Lage Kosten zu tragen. So werden die Geräte selbst häufig einen geringeren Teil der Gemeinkosten des Unternehmens tragen als die Verbrauchsprodukte wie Tinte und Toner.

3.2.2  D  ie Kosten eines Produktes nach der traditionellen Vollkostenrechnung Die vorstehenden Ausführungen und Einteilungen der Kosten liefern die Grundlage für Kostenrechnungsverfahren. Eine wichtige Variante ist hierbei die Vollkostenrechnung. In der Vollkostenrechnung werden die Kosten eines Produktes über Umlageverfahren ermittelt. Die Grundlage hierfür bildet die Zusammenführung von Kostenarten und Kostenstellen im Betriebsabrechnungsbogen. In dieser Matrix werden die Kostenarten in den horizontalen Zeilen auf die Kostenstellen in den vertikalen Spalten aufgeteilt (Abb. 3.10). Dabei greifen wir auf die oben ausgeführte Kosteneinteilung in Einzel- und Gemeinkosten zurück. Einzelkosten lassen sich leicht mit dem definierbaren Anfall der jeweiligen Kostenstelle zuordnen. Gemeinkosten hingegen müssen über einen Verteilungsschlüssel im Umlageverfahren auf die Kostenstellen möglichst verursachergerecht aufgeteilt werden. Man bedient sich hierzu den Hilfskostenstellen, auf denen die Gemeinkosten gesammelt und dann über eine prozentuale Verteilung den Hauptkostenstellen zugerechnet werden. Typische Hilfskostenstellen sind: Grundstücke und Gebäude, Energieversorgung oder Instandhaltung. In unserem Beispiel erfolgt die Aufteilung der Grund- und Gebäudekosten auf Basis der anteiligen Flächennutzung. Als Schlüsselkriterium wird dabei die von den einzelnen Hauptkostenstellen genutzte Fläche (in m²) herangezogen. Die Hilfskostenstelle „Grundstücke und Gebäude“ fasst zunächst alle Kostenarten zusammen, die Grund und Gebäude zugerechnet werden können. Die Summe – als Primärkosten bezeichnet – wird nach obigem Schlüssel auf die einzelnen Hauptkostenstellen aufgeteilt. Abbildung 3.11 zeigt das noch einmal im Zusammenhang der vollständigen Kostenrechnung. An

60

3 Betriebswirtschaftliche Grundlagen

Abb. 3.10   Das Umlageverfahren zur Verteilung von Gemeinkosten auf die Hauptkostenstellen. Hier: Raumkosten (nach Männel 1997)

den Pfeilen lässt sich verfolgen, wie die Kosten der Vorkostenstelle GG (Grundstücke und Gebäude) auf die Endkostenstellen umverteilt werden. Die Fläche als Schlüsselungskriterium heranzuziehen, klingt plausibel. Man könnte jedoch mit vermutlich gleicher Berechtigung die Kopfzahl der Beschäftigten jeder Hauptkostenstelle als Schlüsselungskriterium festlegen. Oder man könnte nach der zeitlichen Belegung der Räumlichkeiten fragen, wobei sich dann herausstellen könnte, dass die 3-schichtig arbeitende Produktion die Räumlichkeiten sehr viel intensiver nutzt als der 1-schichtig arbeitende Vertrieb. Das wäre ein prozessorientierter Ansatz (s. Kap. 3.2.3.2). Anders ausgedrückt: Umlagen sind immer in gewisser Weise willkürlich und basieren auf Festlegungen, mit denen durchaus „politische“ Steuerungsfunktionen angestrebt werden. Auf die vorstehende Weise werden sämtliche Hilfskostenstellen auf die Hauptkostenstellen umgelegt. Es werden hierbei die Kostenstellen soweit zusammengefasst, dass eine Einteilung in folgende Kostenstellen erfolgt: • • • •

Materialkostenstelle Fertigungskostenstelle Verwaltungskostenstelle Vertriebskostenstelle

3.2 Internes Rechnungswesen

61

Abb. 3.11   Schema der Zusammenhänge zwischen Kostenarten- und Kostenträgerrechnung (nach Männel 1997)

62

3 Betriebswirtschaftliche Grundlagen

Auf diesen Kostenstellen befinden sich nun Einzelkosten und Gemeinkosten. Um unserem Ziel der Zuschlagskalkulation näher zu kommen, müssen wir diese ins Verhältnis setzen um daraus die gesuchten Zuschlagsfaktoren zu errechnen. Wir betrachten hierzu beispielhaft die Materialkosten. Die Materialkosten umfassen die Materialeinzelkosten und die Materialgemeinkosten. Die Materialgemeinkosten (MGK) lassen sich als prozentualer Anteil bezogen auf die Materialeinzelkosten angeben, womit der Materialkostenzuschlagssatz ermittelt ist:  Materialgemeinkosten · 100% , (3.7) Zuschlagssatz MGK = Materialgemeinkosten + Materialeinzelkosten Dieser Prozentsatz wird innerhalb einer Periode als gleichbleibend angenommen. Das gleiche Verfahren erfolgt bei der Ermittlung des Zuschlagssatzes für die Fertigungskosten. Die Summe aus Materialkosten und Fertigungskosten wird als Herstellkosten bezeichnet. Auf die gesamten in der Periode kalkulierten Herstellkosten bezieht man rechnerisch die Verwaltungskosten, um daraus den Verwaltungsgemeinkostenzuschlag zu erhalten. Diese Bezugsbasis wählt man auch für die Vertriebsgemeinkosten. Hier ist ein Unterschied zu den Materialkosten anzumerken, da nicht die Vertriebseinzelkosten als Bezugsgröße herangezogen werden. Mit den jeweiligen Einzelkosten und den ermittelten Zuschlagsfaktoren lässt sich über das nachfolgende Schema in Abb. 3.11 die Kostenträgerrechnung auf Vollkostenbasis durchführen. Mit der Abb. 3.11 haben wir die Systematik der Vollkostenrechnung zusammengefasst. Mit der Abb. 3.12 wollen wir die Kalkulation eines industriell gefertigten Produktes nach dieser Systematik exemplarisch durchgehen: • Die Systematik der Ermittlung der Materialkosten haben wir oben (Abb. 3.11) bereits erläutert. • Fremdleistungskosten fallen an, wenn das Werkstück z. B. bei einem Unterlieferanten eine Vorbearbeitung (Härten, Schleifen etc.) erfährt. • Die Fertigungskosten decken die gesamte Eigenfertigung ab. Der hohe Fertigungsgemeinkosten-Zuschlag von 250% deutet darauf hin, dass es sich um eine kapitalintensive Fertigung mit hohen Abschreibungsbeträgen für Fabrikhallen und moderne Maschinen handelt. • Herstellkosten (HK) werden aus der Summe von Materialkosten + Fremdleistungskosten + Fertigungskosten gebildet. Die Zwischensumme der HK muss das Rechnungswesen alleine schon deswegen kennen, weil Produkte, die noch nicht verkauft sind und auf Lager liegen, mit HK zu bewerten und in der Bilanz zu verbuchen sind (bzw. zu Marktpreisen, sollten diese niedriger liegen als die HK). • Die Gemeinkostenzuschläge für den Vertrieb und die Verwaltung (Geschäftsführung, Rechnungswesen, Büromieten, Telefon etc.) werden hier als Prozentverhältnisse zu den Herstellkosten HK ermittelt.

3.2 Internes Rechnungswesen

63

Abb. 3.12   Kalkulation von Herstellkosten, Selbstkosten und Angebotspreis eines Produktes (nach Männel 1997)

• Die Zwischensumme „Selbstkosten“ enthält alle Kosten des Betriebes. • Mit dem Gewinnzuschlag (hier 10% der Selbstkosten) erhält man den Angebotspreis, den hoffentlich der Kunde auch als Verkaufspreis akzeptiert. Das Beispiel zeigt, dass über die Kalkulationsstufen der Angebotspreis schließlich 6-fach höher ausfällt als die Rohstoffkosten des Materials und man erkennt, dass die direkten (im wesentlichen variablen) Kosten nur etwa ein Drittel der Gesamtkosten, die Gemeinkosten (im wesentlichen Fixkosten) rund zwei Drittel repräsentieren. Für die Unternehmensführung bedeutet dies, dass sich das Kosten-Management darauf konzentrieren muss die Fixkosten im Auge zu behalten und bei Veränderungen der wirtschaftlichen Lage möglichst frühzeitig Kostensenkungsmaßnahmen einzuleiten, da die Beeinflussbarkeit von Fixkosten in der Regel nur langfristig erfolgen kann. Wir haben festgestellt, dass man zur Berechnung der Produktkosten die Zuschlagsfaktoren ermitteln muss. Dazu ist es erforderlich, die Gesamtkosten einer Abrechnungsperiode zu kennen oder diese sehr genau abschätzen zu können. Dies kann man entweder auf Basis der Vergangenheit oder auf der zu erwartenden Zukunft tun. Die Kostenrechnung wird damit zu Beginn einer Periode zur Planung eingesetzt und während und nach Abschluss der Periode zur Erfassung der Istkosten. Entsprechend unterscheidet man die: • Istkostenrechnung • Plankostenrechnung

64

3 Betriebswirtschaftliche Grundlagen

Das Risiko der Plankosten ist stets, dass die angenommenen Volumina (z. B. der angenommene Absatz oder der kalkulierte Umsatz) des Planes nicht erreicht werden. Damit stimmt die Basis der Kostenträgerrechnung mit den realen Gegebenheiten nicht überein und es werden sich Abweichungen gegenüber dem geplanten Betriebsergebnis einstellen. Dies wollen wir anhand eines Beispiels verdeutlichen. In einem Einproduktunternehmen werden Tische aus Edelhölzern produziert. Es wird zu Beginn der Planungsperiode mit einem Umsatz von 1000 Stück gerechnet. Die Preiskalkulation basiert auf der Annahme, dass diese 1000 Tische Kostenträger sind. Aufgrund der geringeren Nachfrage können nur 700 Stück tatsächlich verkauft werden und wir unterstellen, dass auch nur die nachgefragte Stückzahl produziert wurde. Die Preiskalkulation und die Ergebnisrechnung als Soll-Ist Vergleich ist in Abb. 3.13 dargestellt. Dabei wird deutlich, dass durch die geringere Nachfrage nicht ausreichend Tische verkauft werden konnten, um die angefallenen Gemeinkosten zu decken. Das Unternehmen hat anstelle des geplanten Gewinns einen Verlust erwirtschaftet. Wir haben hier die auf Umlagen (oder Zuschlägen) basierende Vollkostenrechnung kennen gelernt, die v. a. für Betriebe der Serien- und Einzelfertigung weit verbreitet ist. Sie ist leicht nachzuvollziehen, erfordert nur überschaubaren Rechenaufwand und – sind die Zuschlagssätze erst einmal definiert – erlaubt schnelle Angebotskalkulationen für neue Produkte. Die Vollkostenrechnung wird daher häufig als Grundlage für die betriebsinterne Planung und Ergebnisrechnung eingesetzt. Das vorstehende Beispiel zeigt aber auch, dass sie eine Reihe von methodischen Schwächen aufweist. Sie wird deshalb von flexibleren Methoden ergänzt, von denen wir einige weiter unten im Überblick kennen lernen werden. Die wesentliche Schwäche der traditionellen Vollkostenrechnung ist, dass sie ex ante immer nur auf Annahmen beruhen kann und damit nur dann zu verlässlichen Resultaten führt, wenn sich im Jahresablauf weder im Produktionsvolumen noch im Produktmix etwas Wesentliches ändert. Das bedeutet, sie eignet sich für ein stabiles, gleichmäßig operierendes Unternehmen, nicht jedoch für dynamische Verhältnisse, die unser globalisiertes Wirtschaftsleben häufig bestimmen. Unser vorstehendes Beispiel zeigt: Wird der Auftragseingang verfehlt, ändert sich die Produktionsmenge und damit stimmen die Zuschlagssätze nicht mehr. Die Produkte sind damit zu einem zu niedrigen Preis angeboten worden. In Fertigungsbetrieben ist die Problematik v. a. durch die hohen Fertigungsgemeinkosten-Aufschläge (welche die hohe Kapitalintensität widerspiegeln) begründet. Ein Aufschlag von 250% wie im Beispiel der Abb. 3.12 besitzt eine große Hebelwirkung. Werden nicht genügend Produkte und damit Kostenträger verkauft, wird pro Stück ein Betrag des 2,5-fachen der direkten Fertigungskosten an (fixen) Gemeinkosten nicht gedeckt und führt sofort zu empfindlichen Verlusten, die nicht kompensiert werden können. Zusätzlich übt die Zuschlagskalkulation häufig eine falsche Steuerungsfunktion aus. Ein Beispiel: Das prozentuale Aufschlagen von Vertriebs- und Verwaltungsgemeinkosten auf die Herstellkosten kann zwar häufig mit dem Tragfähigkeitsprinzip gut begründet werden, hat allerdings auch zur Folge, dass ein material- und ferti-

3.2 Internes Rechnungswesen

65

Abb. 3.13   Preiskalkulation eines Produktes und Plan-Ist Vergleich

gungsintensives („teures“) Produkt mit höheren absoluten Beträgen belastet wird als ein „billiges“. Wenn die Produktpalette entsprechend zusammengesetzt ist, kann das fatale Auswirkungen haben. Es widerspricht nicht nur dem „Verursachungsprinzip“ (denn teure Produkte erfordern keineswegs generell höheren Verwaltungs- und Vertriebsaufwand), sondern verleitet auch zu strategischen Fehlentscheidungen: „teure“ Produkte sind meist technologisch anspruchsvoller und sollten deshalb keinesfalls ausgerechnet die „billigen“, strategisch unwichtigeren durch die Kalkulations-Methodik „subventionieren“. Eine ähnlich verfehlte Steuerungsfunktion entsteht dadurch, dass die Kosten für interne Prozesse wie Abwicklung von Aufträgen, Rechnungsstellung, Qualitätssicherung etc. gleichmäßig auf die Gesamtstückzahl

66

3 Betriebswirtschaftliche Grundlagen

umgelegt werden. Lose mit hohen Stückzahlen werden dadurch mit zu hohen, kleine Auftragslose – die pro Stück einen viel höheren Aufwand verursachen – mit zu niedrigen Prozesskosten belastet, was strategisch im Allgemeinen ebenfalls zu einer unerwünschten Steuerung führt (s. dazu Kap. 3.2.3.2). Mit diesen Anmerkungen soll auch der Nicht-Betriebswirt angeregt werden, sich Gedanken über die Methodik der Kostenrechnung zu machen, die ggf. in seinem Bereich angewendet wird. Es gibt kein Ideal-System einer Kostenrechnung. Über die Stärken und Schwächen des jeweils eingesetzten Systems sollte man jedoch eine Vorstellung haben.

3.2.3  Flexiblere Konzepte der Kosten- und Leistungsrechnung In der Methodenwahl ist die Kosten- und Leistungsrechnung im Gegensatz zu den Bestandteilen des externen Rechnungswesens wie z. B. der GuV frei, weshalb sich unterschiedliche Systeme herausgebildet haben. Wegen der oben erwähnten Unzulänglichkeiten der traditionellen Vollkostenrechnung werden in der einschlägigen Literatur differierende Methodenansätze diskutiert. Da es ein Idealsystem nicht gibt, besteht häufig die Notwendigkeit, sich aus den verschiedenen Systemen diejenigen Komponenten auszuwählen, die für die eigene Zielrichtung die geeignete Messund Steuerungsfunktion erfüllen. Grundlage der flexibleren Konzepte der Kosten und Leistungsrechnung ist der Deckungsbeitragsgedanke, der sich in verschiedenen Ausgestaltungen in den folgenden Kostenrechnungsarten wiederfindet. 3.2.3.1  Stufenweise Deckungsbeitragsrechnung Das Grundprinzip dieser Methodik ist alt. Es basiert auf dem amerikanischen „direct costing“: Den Erlösen einer Periode werden die Kosten gegenübergestellt, die lediglich in die variablen und fixen Bestandteile gegliedert werden. Erlöse minus variable Kosten werden als „contribution margin“ oder Deckungsbeitrag bezeichnet. Handelsfirmen arbeiten seit jeher nach den Grundgedanken dieser Methode: Die Handelsspanne ist der Überschuss der Warenverkaufserlöse über die Wareneinstandskosten. Die innerhalb einer Periode aufsummierten Handelsspannen entsprechen dem Gesamtdeckungsbeitrag sämtlicher Handelsgeschäfte. Dieser Betrag muss mindestens alle weiteren Betriebskosten der Handelsfirma decken, um ein positives Ergebnis zu generieren. Dieses einfache Verfahren heißt auch einstufige Deckungsbeitragsrechnung, sie wird vor allem für die Nutzschwellen-Analyse (auch Break-even-Analyse) eingesetzt, wobei die Nutzschwelle – wie Abb. 3.8 zeigt – dasjenige Produktionsvolumen markiert, bei dem die Erlöse gerade die Summe aller fixen und variablen Kosten ausgleichen, also weder Verluste noch Gewinne entstehen. Die Deckungsbeitragsrechnung kann auch über mehrere Stufen durchgeführt werden. Eine häufige Unterteilung ist in der nachfolgenden Abb. 3.14 dargestellt.

3.2 Internes Rechnungswesen

67

Abb. 3.14   Das Konzept der Deckungsbeitragrechnung

Dabei werden von den Umsatzerlösen zuerst die variablen Kosten abgezogen, um den Deckungsbeitrag I zu erhalten. Nach Abzug verschiedener Fixkosten erhält man Deckungsbeitrag II und unter Berücksichtigung der noch verbleibenden Fixkosten den Deckungsbeitrag III. Sofern das Unternehmen wirtschaftlich arbeitet, wird dieser Deckungsbeitrag III positiv ausfallen und das Unternehmen erzielt einen Gewinn. An welcher Stelle der Schnitt für den Deckungsbeitrag II gezogen wird, ist dabei eine unternehmerische Entscheidung. Das Management erkennt auf diese Weise, welche Umsatzerlöse erzielt werden müssen oder zu welcher minimalen Preisuntergrenze ein Auftrag angenommen werden kann. Die Abb. 3.15 illustriert die Systematik der stufenweisen Fixkostendeckungsrechnung, einer besonders häufig eingesetzten Variante der Deckungsbeitragsrechnung. Sie eignet sich v. a. für Unternehmen, die in verschiedene Abteilungen oder Produktgruppen gegliedert sind, weil man die Ergebnisse – die Deckungsbeiträge – diesen Bereichen (das können z. B. ergebnisverantwortliche „Profit-Center“ sein) verursachungsgerecht zurechnen kann. Der wesentliche methodische Unterschied zur Vollkostenrechnung besteht darin, dass diese Kostenrechnung nicht primär von der internen Kostensituation, sondern von den am Markt zu erzielenden Verkaufserlösen ausgeht. • Von den Verkaufserlösen werden im ersten Schritt die variablen Kosten (z. B. Materialkosten, Fremdkosten, Fertigungseinzelkosten) abgezogen, es verbleiben die sog. Deckungsbeiträge. • Die Deckungsbeiträge aller Produkte eines „Profit-Centers“ werden addiert. Das ergibt den sog. Deckungsbeitrag I der Sparte, Abteilung oder des „Profit-Centers“. • Davon werden die Spartenfixkosten abgezogen. Das sind z. B. Raumkosten der belegten Fabrikhallen, Personalkosten der Abteilungsleitung, Vertriebskosten, also alle fixen Kostenbestandteile, die unmittelbar den „Profit-Centern“ zugeordnet werden können. • Es verbleiben die Deckungsbeiträge II (DB II) der einzelnen Sparten oder „Profit-Center“.

68

3 Betriebswirtschaftliche Grundlagen

Abb. 3.15   Das Konzept der Fixkostendeckungsrechnung

• Von der Summe der DB II-Beträge werden die Unternehmensfixkosten abgezogen (also Kosten Geschäftsführung, Rechnungswesen, Personalabteilung, Miete Zentralbüro etc.). • Es verbleibt das Unternehmensergebnis, welches mit dem Ergebnis nach Vollkosten-Systematik übereinstimmt. Die Einführung dieses Systems erfordert im Unternehmen die Durchführung einer Kostenspaltung. Zwar verbleibt die Gliederung in Kostenarten, Kostenstellen und Kostenträger, jedoch wird strikt in variable und fixe Kostenanteile getrennt. So muss man beispielsweise sicherstellen, dass produktionsabhängige Stromkosten, welche in der Vollkostenrechnung häufig aus Gründen der Praktikabilität den Gemeinkosten zugeordnet werden, hier wie die Materialeinzelkosten und die Fertigungseinzelkosten als variable Kosten eingestuft und entsprechend behandelt werden.

3.2 Internes Rechnungswesen

69

Das Konzept der Deckungsbeitragsrechnung hat sich sehr positiv auf die Verbreitung unternehmerischen Denkens und auf die Tendenz, Verantwortung auf ProfitCenter-Ebene zu delegieren, ausgewirkt. Es hatte für manche Unternehmen jedoch auch fatale Folgen. Die Deckungsbeiträge (z. B. DB II) können nämlich deutlich positiv sein und für das Gesamtunternehmen trotzdem hohe Verluste bedeuten. Die „Profit-Center“-Chefs werden ihren Bereich hauptsächlich nach dem DB II-Ergebnis steuern und dann kann es geschehen, dass der Vollkosten-Aspekt in einer Organisation zu wenig Beachtung findet. Das marktorientierte Denken wird durch das Deckungsbeitrags-Prinzip jedoch sehr positiv gefördert. Zudem spielt die Deckungsbeitragsrechnung insbesondere in kritischen Zeiten der Unterauslastung eine entscheidende Rolle. Wenn ein Unternehmen die Möglichkeit erhält in dieser Situation einen zusätzlichen Auftrag anzunehmen, der allerdings nur zu schlechten Konditionen zu erhalten ist, kann dies dennoch betriebswirtschaftlich sinnvoll sein, wenn hierdurch ein Teil der Fixkosten gedeckt, also ein Preis größer als Deckungsbeitrag 1 erzielt werden kann. Die Gefahr die hiermit einhergeht ist allerdings, dass damit ein zukünftig höherer Preis ggf. nicht mehr durchgesetzt werden kann, denn langfristig müssen alle Kosten des Unternehmens gedeckt sein. 3.2.3.2  Prozesskostenrechnung Ein entscheidendes Manko der traditionellen Zuschlagskalkulation ist, dass Gemeinkosten oft rein stückzahlbezogen auf die Produkte verteilt werden (siehe hierzu Kap. 3.2.2). und damit jedes Stück mit dem gleichen Betrag belastet wird. Die tatsächlichen spezifischen Kosten pro Stück liegen bei einem Kleinauftrag von 5 Stück jedoch deutlich höher als bei einem Großauftrag von mehreren 100 Stück. Nachvollziehbar am Beispiel des Vertriebsaufwands, der gleichermaßen hoch ausfallen kann unabhängig davon, ob der Kunde eine kleine oder eine große Menge bestellt. Entsprechendes gilt für die Materialdisposition, die Arbeitsvorbereitung, die Maschinenbearbeitung, die Qualitätssicherung, die Verpackung, die Rechnungslegung, die Logistik usw. Tendenziell werden deshalb große Lose mit zu viel Gemeinkosten, kleine mit zu wenig belastet. Das ist strategisch häufig kontraproduktiv und funktioniert nur, solange die Produkte diesen Preis am Markt erzielen können. Bei der unternehmerischen Portfolio Betrachtung kann dies dazu führen, dass „sterbende“ Produkte viel zu lange mitgeschleppt werden, weil eine irreführende Kostenrechnung die tatsächlich anfallenden Kosten für die immer niedrigeren Stückzahlen nicht realistisch wiedergibt. Dem Unternehmer muss daher daran gelegen sein, den spezifischen Kostenanfall der einzelnen Produkte möglichst genau zu quantifizieren. Diese Aufgabe will die Prozesskostenrechnung (Activity-Based Costing, Cooper u. Kaplan 1991) lösen. Sie konzentriert sich v. a. auf die Bereiche außerhalb der – meist ohnehin kostenrechnerisch gut erfassten – Fertigungsbereiche wie z. B. auf die personalintensiven Dienstleistungsbereiche eines Unternehmens wie Einkauf, Materialwirtschaft, Qualitätssicherung, Logistik, Forschung, Entwicklung oder

70

3 Betriebswirtschaftliche Grundlagen

Arbeitsvorbereitung. Ihr Ziel ist es, Kosten-Treiber (cost drivers) zu identifizieren und dafür zu sorgen, dass die Prozesse wirklichkeitsgetreu abgebildet werden. Das wird mit der Einführung zeitbasierter Bezugsgrößen erreicht. Betrachten wir hierzu einen Fertigungsbetrieb mit einem modernen Maschinenpark. Hier werden die Bearbeitungskosten der Produkte anhand von Maschinenstundensätzen kalkuliert. Dazu werden die Gemeinkosten der Maschine (Kapitalzinsen, kalkulatorische Abschreibung, Raumkosten, Wartungskosten, Energie, Schmierstoffe) für eine Periode addiert und durch die Gesamtstundenzeit dividiert. Jedes Produkt wird nun entsprechend der individuellen Bearbeitungszeit belastet, nicht jedes Stück mit dem gleichen Betrag wie es bei der Zuschlagskalkulation geschieht. Die Prozesskostenrechnung hat dieses Prinzip auf weitere Bereiche (wie Einkauf, Materialwirtschaft etc.) verallgemeinert, wobei es ihr immer darum geht, die Nutzung wertvoller Ressourcen offen zu legen. Die anfallenden Prozesskosten werden nach Maßgabe der Prozessinanspruchnahme verrechnet. Dadurch wird erreicht, dass z. B. die Frage der Losgröße entscheidenden Einfluss auf die Kalkulation erhält, was ja auch der Realität entspricht. Die Prozesskostenrechnung wird häufig zusätzlich zu anderen Methoden eingesetzt, wie es bei der Kalkulation von Maschinenstundensätzen ohnehin üblich ist und braucht die klassische Kostenrechnung nicht zu ersetzen. 3.2.3.3  „Target Costing“ Das „Target Costing“ ist kein weiteres Kostenrechnungssystem, sondern eine strategische Führungsphilosophie. Sie setzt wie die Deckungsbeitragsrechnung am Marktpreis an und zielt unter strikter Beachtung der unternehmensspezifisch angestrebten Rentabilität auf eine methodisch untermauerte Strategie der Kostenrechnung ab. Sie orientiert sich nicht daran, was technisch machbar ist, sondern was die Kundenwünsche erfüllt. Sie beginnt mit einer Marktanalyse und der Ermittlung der vom Markt bestimmten Zielkosten. Nach Abzug des geplanten Gewinnes werden die Zielkosten aufgespalten und entsprechend der Bedeutung, die der Kunde den einzelnen Komponenten und Funktionen des Produktes beimisst, werden diese Einzelkomponenten definiert. In „interdisziplinärer“ Teamarbeit werden diese Komponenten dann strikt nach den Kostenvorgaben entwickelt, gebaut und zum Endprodukt zusammengesetzt. Die Einführung dieses Systems wirkt auf die Belegschaft hoch motivierend, da alle Unternehmensbereiche in den Prozess eingebunden sind. Sie stärkt darüber hinaus die Kundenorientierung in der gesamten Organisation und vor allem in den technischen Bereichen. 3.2.3.4  Lebenszyklus-Kosten Die Unternehmen stehen gleichermaßen wie auch Privatpersonen bei Investitionsentscheidungen vor der Überlegung, welche Alternative die günstigere ist. Gleiche

3.2 Internes Rechnungswesen

71

Funktionalität unterstellt, unterscheiden sich Investitionsgüter häufig in Investitions-, Betriebs- und Wartungskosten und der voraussichtlichen Lebensdauer. Teilweise können sogar potenzielle Kostenbelastungen z. B. durch drohende Umweltabgaben die zukünftigen Kosten der Investition beeinflussen. In diesen Fällen führt man die Betrachtung der Lebenszykluskosten oder auch der Total Cost of Ownership durch. Die vollständigen Produktkosten werden nicht nur von den laufenden Kosten (Herstell-, Vermarktungskosten), sondern von Vorlauf- und Nachlaufkosten bestimmt. Vorlaufkosten sind v. a. die Entwicklungskosten, Nachlaufkosten die Entsorgungskosten, für die die Hersteller verantwortlich gemacht werden. Für den FuE-Bereich (also für Vorlaufkosten) wenden High-Tech-Unternehmen bis zu 20% ihrer Umsatzerlöse auf. In der Kostenrechnung werden die Vorlauf- und Nachlaufkosten bisher den Gemeinkosten zugeschlagen und zwar erst dann, wenn sie anfallen. Das ist kostenrechnungsmäßig nicht korrekt. Die lebenszyklus-bezogene Ergebnisrechnung fordert daher, dass die Vorlauf- und Nachlaufkosten über die Dauer des Lebenszyklus verteilt den Deckungsbeiträgen aus den zugehörigen Produkten gegenübergestellt werden. So wie man auch mit Investitionen verfährt. Das sollte zumindest innerhalb des Internen Rechnungswesens so gehandhabt werden (Männel 1998a). Damit wäre ein erster Schritt einer sachgerechten Zuordnung von Entsorgungskosten, die einen wichtigen Teil der Umweltkosten darstellen, getan.

3.2.4  Kostencontrolling und Kostenmanagement Wir haben in diesem Kapitel dargestellt, wie die Daten der Kostenrechnung erfasst und aufbereitet werden. Die Unternehmensführung nutzt dieses Datenmaterial für Kostencontrolling und Kostenmanagement und damit zur Steuerung und Führung der Abteilungen, Teilbereiche und des Gesamtunternehmens. Die Kostensteuerung erfolgt vor allem anhand von Soll/Ist-Vergleichen. Voraussetzung hierfür ist das Vorliegen einer detaillierten Jahresplanung, welche die Jahreserlöse, alle relevanten Kostenarten, Kostenstellen und Kostenträger enthält. Der Soll/Ist-Vergleich wird unterjährig anhand der kurzfristigen Erfolgsrechnung durchgeführt und ist das wichtigste Steuerungsinstrument eines Unternehmens (s. Abb. 3.16). Wie wir bereits mehrfach gesehen haben, steht das Management bei auftretenden Abweichungen vor der Notwendigkeit Gegensteuerungsmaßnahmen zu ergreifen. Diese können bei den Kosten (Kostenmanagement) oder auch bei den Erlösen ansetzen (d. h. auf der Verkaufsseite). Hierbei wird deutlich, dass die detaillierte Kenntnis der Kostenstruktur des Unternehmens für die Unternehmensführung Grundvoraussetzung für die frühzeitige Einleitung von Maßnahmen ist. Das Controlling muss die kurzfristige Erfolgsrechnung laufend dazu nutzen, die Produktkostenkalkulation und v. a. die Zuschlagssätze zu überwachen. Wir haben gesehen, wie dramatisch sich Volumenänderungen auf die Zuschlagssätze auswirken können. Jede Volumenänderung oder jede sonstige Kosten ändernde Ent-

72

3 Betriebswirtschaftliche Grundlagen

Abb. 3.16   Monatliche Erfolgsrechnung eines Industrieunternehmens

wicklung muss in den Kalkulationsansätzen zeitnah berücksichtigt werden, damit vermieden wird, dass Aufträge zu nicht kostendeckenden Konditionen akquiriert werden oder umgekehrt Aufträge trotz Unterauslastung abgelehnt werden, obwohl diese einen Anteil der Fixkosten gedeckt hätten. Eine weitere wichtige Funktion der Kostenrechnung ist es, Entscheidungen zu „make or buy“- Fragestellungen aufzubereiten. Soll man eine Leistung selber machen oder sie besser zukaufen? Z. B.: Lohnt es sich, das eigene Labor aufrechtzuerhalten oder bekommt man die Analysen billiger von einem spezialisierten Laborbetrieb? Jedoch ist Vorsicht beim Kostenvergleich geboten! Wer hier die eigenen Selbstkosten der Kostenstelle Labor mit den Angebotspreisen des externen Anbieters vergleicht, übersieht, dass dem Labor ggf. auch Gemeinkosten belastet wurden, die nunmehr durch andere Kostenstellen getragen werden müssen. Wir sehen an dieser Fragestellung, Kostenrechnungsgesichtspunkte sind stark mit strategischen Fragestellungen vernetzt. Die Leistungsfähigkeit der Kostenrechnung ist ein sehr wichtiger Erfolgsfaktor der Unternehmensführung. Welche Konsequenzen ergeben sich hieraus für Naturwissenschaftler und Ingenieure? Wir haben gesehen, dass Kostenrechnung nicht schwer zu verstehen ist, wenn man erst einmal das Dickicht der Definitionen durchdrungen hat. Für jeden, der Kostenverantwortung trägt ist es wichtig, das Prinzip der eingesetzten Kostenrechnungsmethode zu verstehen. Denn im Gegensatz zum Externen Rechnungswesen ist man beim Internen Rechnungswesen an keine Formvorschriften gebunden und kann die Methodik den jeweiligen Bedürfnissen eines Unternehmens anpassen. Keine Methodik ist die einzig Richtige. Sie müssen nicht in der Lage sein, Kosten selber zu errechnen, aber erst wenn Sie das Grundprinzip verstehen, wird es Ihnen möglich sein, dieses wichtigste Regelungsinstrument der Betriebswirtschaft auch sinnvoll für die Steuerung des eigenen Verantwortungsbereiches einzusetzen.

3.3 Externes Rechnungswesen

73

3.3  Externes Rechnungswesen Grundsätzlich bilden sich alle Geschäftsvorfälle eines Unternehmens im Externen Rechnungswesen ab. Während das Kernprodukt des Internen Rechnungswesens die Ergebnisrechnung ist, werden alle Geschäftsvorfälle des Externen Rechnungswesens letztendlich in der Bilanz zusammengefasst, die den Vermögensstatus eines Unternehmens zum Stichtag des letzten Tages eines Geschäftsjahres dokumentiert. Die Gewinn- und Verlustrechnung GuV stellt im Grunde genommen ein Unterkonto der Bilanz dar. Wie Abb. 3.6 zeigt, hat das Externe Rechnungswesen viel weitergehende Funktionen als das Interne. Nicht nur der internen Unternehmensführung, sondern v. a. den Externen, den sogenannten „stakeholders“, dient es als wichtigste Informationsquelle über den Stand und die Situation eines Unternehmens. Im Unterschied zu dem freiwilligen und individuell gestaltbaren Internen Rechnungswesen ist das Externe obligatorisch und durch Formvorschriften gesetzlich geregelt. Allerdings sind nicht alle Geschäftsbetriebe verpflichtet, ihre Geschäftsaktivitäten nach der Systematik der Doppelten Buchführung zu dokumentieren. Wenn also ein junger Naturwissenschaftler oder Ingenieur nach dem abgeschlossenen Studium eine Beratungsfirma gründet, muss er zunächst nicht die doppelte Buchführung anwenden. Es ist ausreichend, wenn er alle Belege sammelt und in einem Kassenbuch sorgfältig notiert. Bei der Steuererklärung nach Ende des Jahres muss dann die Überschussrechnung wie in Abb. 3.17 gezeigt aufgestellt werden. Die Überschussrechnung ist also eine Auflistung der Ausgaben und Einnahmen mit dem Zweck, den steuerpflichtigen Gewinn auszuweisen. Der Verzicht auf das Führen von Konten ist speziell für kleine, überschaubare Betriebe angemessen und zu empfehlen. Was sind also die wesentlichen Unterschiede zu der im Folgenden dargestellten Doppelten Buchführung?

Abb. 3.17   Überschussrechnung

74

3 Betriebswirtschaftliche Grundlagen

• Die Einnahmen und Ausgaben werden nicht periodisiert, so dass die Messung des Erfolges des Geschäftsjahres ungenau ist. • Da keine Bilanz aufgestellt wird, werden die Vermögensveränderungen, wie sie die Doppelte Buchführung zeigt nicht unmittelbar gemessen. Das bedeutet, dass die Überschussrechnung zwar genau genug für das Finanzamt ist, sie sich aber für eine komplexe Wirtschafts-Organisation nicht anbietet. Sobald das Unternehmen größer und komplexer wird, ist der Einsatz der Doppelten Buchführung unverzichtbar.

3.3.1  Doppelte Buchführung Die entscheidende Messeinheit des Wirtschaftslebens ist das Geld. Sie wird mit dem Messsystem der Doppelten Buchführung gemessen. Sie werden sehen: Wenn man sich die Mühe macht, sich gedanklich etwas eingehender damit zu beschäftigen, wird man fasziniert sein, wie geistreich und effizient dieses System ist. Dabei ist die Doppelte Buchführung keineswegs eine neue Erfindung: Sie wurde von dem italienischen Franziskanermönch Luca Pacioli erfunden, bereits 1494 in einem in Venedig erschienenen Mathematikbuch publiziert und war schon im Mittelalter in Oberitalien verbreitet. Sie begründete unter anderem die Überlegenheit der Bank der Medici aus Florenz zur Zeit der Renaissance. Goethe bezeichnet sie als „eine der schönsten Erfindungen des menschlichen Geistes“ (Wilh. Meisters Lehrjahre), aber in unserer Allgemeinbildung kommt sie kaum noch vor! Man muss allerdings zugeben: So leicht erschließen sich die Schönheiten des Systems vor allem dem Anfänger nicht! Analog zur Messmethodik in den Naturwissenschaften hat man erst Spaß am Messen, wenn man in der praktischen Anwendung erlebt, wie man Ergebnisse erfassen, darstellen und auf dieser Basis dann Entscheidungen treffen und Dinge verändern kann. Also haben Sie etwas Geduld mit dieser Messmethode. Wirkliche Freude werden Sie erst dann daran verspüren, wenn Sie im Wirtschaftsalltag erleben, wie Sie Dinge verändern, indem Sie an gewissen Stellschrauben drehen und wie Sie diese Veränderungen an Ihrem Messsystem auch unverzüglich ablesen können, d. h. wenn Sie nicht nur messen, sondern regeln, steuern und managen. Das folgende Kapitel soll ein Grundverständnis über die Wirkungsweise und Verknüpfungen des Rechnungswesens ermöglichen. Besteht die berufliche Notwendigkeit oder das persönliche Interesse, betriebswirtschaftliche Kenntnisse zu vertiefen, so bieten sich zahlreiche Möglichkeiten. Man kann beispielsweise auch neben der beruflichen Tätigkeit mehrere Semester an einer Fern-Universität studieren (das haben die Autoren praktiziert). Außerdem gibt es hervorragende Seminarangebote. Wenn man Buchungsvorgänge beherrschen muss, so sind audiovisuelle Lehrmaterialien (s. Gabele 1990) besonders zu empfehlen, da man Buchhalten nur beim „Selbermachen“ wirklich lernen kann. Bezüglich weiterführender Literatur weisen wir für den Bereich der Buchhaltung auf Männel (2005) (mit instruktiven

3.3 Externes Rechnungswesen

75

Schema-Abbildungen) sowie für die Zusammenhänge und den Jahresabschluss auf Coenenberg (2005) hin. Grundsätzlich ist jede kaufmännisch tätige Person oder Firma zur sogenannten ordnungsmäßigen Buchführung verpflichtet. Mit wenigen Ausnahmen (s. oben) sind alle Unternehmen gehalten, ihre Bücher von Gesetzes wegen in der Form der Doppelten Buchführung zu führen und für jedes Geschäftsjahr eine Bilanz und Gewinn und Verlustrechnung (GuV) zu erstellen. Doppelte Buchführung bedeutet, dass jeder Geschäftsvorgang doppelt registriert, also gebucht wird. Er berührt jeweils mindestens 2 Konten. Folgerichtig ist der Erfolg (Gewinn oder Verlust) sowohl aus der Bilanz als auch aus der GuV zu entnehmen. Diese Redundanz gewährleistet die hohe Zuverlässigkeit und Kontrollmöglichkeit der Buchhaltung.

3.3.2  Grundbegriffe Um die Vorgehensweise der Doppelten Buchführung zu verstehen, müssen wir uns zunächst anhand der Abb. 3.18 mit einigen Begriffen vertraut machen. Bei der Besprechung der Kostenrechnung war uns bereits das Begriffspaar Kosten – Erlöse begegnet (s. Kap. 3.2.1.1). Dort hatten wir bereits erläutert, dass die Begriffe Aufwand und Kosten nicht deckungsgleich sind und dass die Kostenrechnung mit kalkulatorischen Kosten (Zusatzkosten und Anderskosten) operiert, weshalb Betriebsergebnis und bilanzielles Ergebnis nicht identisch sein können. Für das Verständnis des Externen Rechnungswesens sind die folgenden drei Begriffspaare wichtig: Auszahlung – Einzahlung Ausgabe – Einnahme Aufwand – Ertrag Umgangssprachlich erscheinen die Begriffe fast als synonym, betriebswirtschaftlich werden sie signifikant unterschieden, wie Abb. 3.18 zeigt. • Mit Auszahlung wird ein Vorgang bezeichnet, der die Kasse oder das Bankkonto berührt und zwar durch einen Geldmittelabfluss. Analog dazu bei einer Einzahlung durch einen Geldmittelzufluss. Der Zahlungssaldo, also die Differenz aus Ein- und Auszahlung einer Periode, gibt die Liquidität einer Gesellschaft an. • Mit Ausgabe wird eine monetäre Verpflichtung gegenüber jemandem bezeichnet, unabhängig vom Zeitpunkt ihrer Fälligkeit. Sie entsteht mit der Zahlungsver-

76

3 Betriebswirtschaftliche Grundlagen

Abb. 3.18   Grundbegriffe des Rechnungswesens (nach Männel 1997)

pflichtung zum Zeitpunkt des Gefahrenüberganges (s. Kap. 4.3.3). Die Einnahme entspricht also einem monetären Anspruch. Der Finanzsaldo einer Periode fasst folglich die Finanzierungsrechnung zusammen. • Schließlich wird der Erfolg eines Unternehmens in der Gewinn- und Verlustrechnung gemessen. Aufwendungen sind die einer Abrechnungsperiode zugehörigen (periodisierten) und erfolgswirksamen Ausgaben, wie sie sich nach den relevanten Buchungsregeln ergeben. Erträge sind somit das Pendant als Einnahmen. Dazu ein kurzes Beispiel: Eine Firma kauft einen PKW für € 30.000,-. Sie zahlt € 15.000,- an, für den Rest wird Ratenzahlung im nächsten Geschäftsjahr vereinbart. Die Firma schreibt diesen Vermögensgegenstand PKW in sechs Jahren ab (s. Kap. 3.3.5). Der Abschreibungsbetrag für das laufende Geschäftsjahr beträgt also € 5.000,-. Dann sind: € 15.000,- =  Auszahlung € 30.000,- =  Ausgabe € 5.000,- =  Aufwendung

3.3 Externes Rechnungswesen

77

Für die Kostenrechnung hat man ggf. eine kalkulatorische Abschreibung von drei Jahren definiert, die entsprechenden Kosten wären dann € 10.000,-. Ein anderes Beispiel mag den Unterschied zu der oben erläuterten Überschussrechnung verdeutlichen: In Ihrer Beratungsfirma haben Sie einen Beratungsauftrag für das Jahr 2009 akquiriert. Im Dezember 2008 erhalten Sie 20% Anzahlung. In der Überschussrechnung werden diese 20% als Betriebseinnahme für das Jahr 2008 gebucht. In der Buchführung werden diese 20% zwar als „Einzahlung“ registriert, es wird aber sofort ein Gegenposten (Verbindlichkeiten aus Anzahlungen) gebildet, welcher den Vorgang ertragsmäßig neutralisiert. Erst wenn im Geschäftsjahr 2009 die entsprechende Leistung erbracht ist, wird diese Einzahlung als „Ertrag“ gebucht. So werden in der Buchführung alle Aufwendungen periodengerecht den entsprechenden Erträgen gegenübergestellt, um die wirtschaftliche Leistung richtig messen zu können. Es ist leicht einzusehen, dass obige Verbuchung in der Überschussrechnung die Leistungsmessung beider Jahre verfälscht (was für das Finanzamt jedoch unerheblich ist). Wir versuchen uns zu merken: Aufwendungen sind erfolgswirksame periodisierte Ausgaben und entsprechend sind Erträge erfolgswirksame periodisierte Einnahmen. In letzter Konsequenz vermindern Aufwendungen das Eigenkapital, Erträge vermehren es.

3.3.3  Das Konto Der Grundbaustein der Buchhaltung ist das Konto (italienisch: die Rechnung): Eine zweispaltige Tabelle, deren linke Seite traditionell als „Soll“, deren rechte als „Haben“ bezeichnet wird. Die Bezeichnungen haben wenig inhaltliche Bedeutung und sind historisch bedingt. Zum besseren Verständnis wollen wir in diesem Buch besser von linker und rechter Spalte sprechen. Die unzähligen Konten werden in einem Kontenrahmen systematisch geordnet. In der deutschen Industrie wird dafür i. A. der Industriekontenrahmen der Deutschen Industrie (IKR) oder ein Standardkontenrahmen der DATEV genutzt, seltener der ältere Gemeinschaftskontenrahmen (GKR). Diese Einheitlichkeit hat den Vorteil, dass die Buchhaltung der meisten Firmen nach einem ähnlichen Ordnungsschema organisiert ist. Die wesentliche Grobeinteilung der Sachkonten (es gibt noch die Kunden- und Lieferantenkonten, die hier unberücksichtigt bleiben können) erfolgt entsprechend der Abb. 3.19 in:

78

3 Betriebswirtschaftliche Grundlagen

Abb. 3.19   Einteilungsschema der Sachkonten

• Bestandskonten (Kontenklassen 0–4 des IKR) • Erfolgskonten (Kontenklassen 5–7 des IKR) Die Erfolgskonten teilen sich in Aufwands- und Ertragskonten auf. Aus den Salden dieser Konten ergibt sich am Ende des Geschäftsjahres die GuV, die ein Unterkonto des Bestandskontos „Eigenkapital“ (s. unten) darstellt. Die Aggregierung aller Bestandskonten ergibt schließlich die Bilanz. Auch die Bilanz ist eine zweispaltige Tabelle, deren linke Seite als „Aktiva“, die rechte als „Passiva“ bezeichnet wird (Abb. 3.27), Bezeichnungen, die ebenso wenig Bedeutungsinhalt haben wie „Soll“ und „Haben“. Die linke Seite der Bilanz kann als „Vermögen“, die rechte Seite als „Kapital“ gedeutet werden. Gerade für den Anfänger ist es sinnvoller, sich als Definition zu merken, dass in einer Bilanz auf der linken Seite (unter Aktiva) die Vermögenswerte (assets) stehen, auf der rechten Seite (unter Passiva), wie diese Vermögenswerte finanziert sind (liabilities). Für die rechte Seite wäre deshalb die Bezeichnung „Schulden“-Seite korrekter, denn auch das Eigenkapital der rechten Seite stellt einen Posten dar, welchen das Unternehmen den Eigentümern „schuldet“. Das drückt der angelsächsische Begriff „liabilities“ entsprechend aus. Die offizielle Bezeichnung hält sich jedoch an die traditionellen Begriffe und entsprechend werden die Bestandskonten auch in Aktivund Passivkonten eingeteilt.

 

Die Kontenklassen 8 und 9 sind Konten für die Jahresabschlussbuchungen.

3.3 Externes Rechnungswesen

79

3.3.4  Der Buchungsvorgang Wie bucht man auf diesen Konten nun? Das ist durch Konvention festgelegt, die wir uns in Abb. 3.20 anschauen, aber nicht im Detail eingehen wollen. Wenn man nicht laufend selber bucht, vergisst man es ohnehin bald wieder. Aber es ist wichtig, die Vorgänge einer Buchhaltung in den Grundzügen zu verstehen. Bestandskonten Wie Sie in Abb. 3.20 sehen, werden die Konten spiegelbildlich behandelt. Die Anfangsbestände ergeben sich aus der Eröffnungsbilanz des jeweiligen Jahres (bzw. aus der Schlussbilanz des Vorjahres) und werden bei den Vermögenskonten links (Soll), bei den Kapitalkonten rechts (Haben) eingetragen. Zugänge werden jeweils auf der Seite der Anfangsbestände verbucht, Abgänge auf der Gegenseite. Zum Ende der Abrechnungsperiode werden die Konten durch den Saldo abgeschlossen, das ist die Differenz der beiden Seiten. Diese Salden oder Endbestände werden auf die Schlussbilanz übertragen. Erfolgskonten Aufwendungen werden auf den Aufwandskonten links, Erträge auf den Ertragskonten rechts verbucht, Minderungen jeweils auf der Gegenseite. Die Konten werden zum Abschluss durch die Salden ausgeglichen, die auf die GuV übertragen werden.

Abb. 3.20   Grundlagen der Verbuchung von Geschäftsvorfällen (nach Männel 1997)

80

3 Betriebswirtschaftliche Grundlagen

Die graphische Darstellung der Abb. 3.20 vermittelt bereits eine wichtige Regel: Zum Abschluss der Konten müssen rechts und links stets die gleichen Beträge stehen, was jeweils durch den Saldo (Endbestand) erreicht wird. Um die Vorgänge des Buchens zu erläutern, versuchen wir, uns den Vorgang an dem einfachen Beispiel des oben erwähnten Beispiels des PKW-Kaufs zu verdeutlichen (s. Abb. 3.21). Dazu erinnern wir uns, dass jeder Geschäftsvorfall mindestens zwei Konten berühren muss und zwar mindestens eine Soll- und eine Habenseite von Konten. Die Buchhalter verbalisieren einen Buchungsvorgang mit einem sog. „Buchungssatz“. Konventionsgemäß nennt der Buchungssatz immer zuerst die Buchung auf der linken Sollseite (mit dem Betrag) und dann die auf der rechten Habenseite. Es sind folgende Geschäftsvorfälle zu verbuchen (Abb. 3.21): 1. Zugang zum Vermögenskonto „Sachanlagenvermögen“ von € 30.000,- (Soll – linke Seite) 2. Abgang vom Vermögenskonto „Kasse“ € 15.000,- (Haben – rechte Seite) 3. Zugang zum Schulden-/Kapital-Konto „Verbindlichkeiten“ € 15.000,- (Haben – rechte Seite).

Abb. 3.21   Beispielhafte Verbuchung des Kaufs eines PKW (Kaufpreis € 30.000,-)

3.3 Externes Rechnungswesen

81

Der entsprechende Buchungssatz lautet: „Sachanlagenvermögen 30.000,- an Kasse 15.000,- an Verbindlichkeiten 15.000,- “. Am Jahresende ist noch die Abschreibung (sog. AfA, s. Kap. 3.3.5) zu buchen: 1. Aufwand zum Aufwandskonto „AfA Sachanlagen PKW“ € 5.000,- (Soll – linke Seite) 2. Abgang vom Vermögenskonto „Sachanlagevermögen“ € 5.000,- (Haben – rechte Seite) Der entsprechende Buchungssatz lautet: „AfA Sachanlagen 5.000,- an Sachanlagenvermögen 5.000,- “. In der Praxis sind die Buchungssätze gewöhnlich wesentlich komplexer. Fast immer spielen die sog. „Vorsteuer-Konten“ eine Rolle. Die Mehrwertsteuer/Umsatzsteuer der Einkäufe und Verkäufe wird auf diesen Konten saldiert und in gewissen Abständen wird der Saldo an das Finanzamt abgeführt. Das muss bei jedem Geschäftsvorfall berücksichtigt und entsprechend gebucht werden. Zur Wahrung der Übersichtlichkeit haben wir aber in unserem Beispiel darauf verzichtet.

3.3.5  Gewinn- und Verlustrechnung Für die Darstellung der Gewinn- und Verlustrechnung (GuV) haben wir in Abb. 3.22 eine detaillierte Darstellung gewählt, denn normalerweise schaut man sich diese Aufstellung mit großer Neugier an. Die GuV ermittelt das Geschäftsergebnis einer Gesellschaft als Differenz von Erträgen und Aufwendungen. Die Wege dahin sind aber durchaus unterschiedlich. Wie Sie sehen, haben wir die zwei in Deutschland üblichen Verfahren der Aufstellung einer GuV wiedergegeben: das Gesamtkostenverfahren (die in Deutschland traditionelle Darstellungsform) und das Umsatzkostenverfahren (das modernere und international gebräuchliche). Was sind aber hier die Unterschiede? Während das Gesamtkostenverfahren alle Aufwendungen der Periode, also auch diejenigen, welche für die Produkte des Lagerbestandes aufgewendet wurden, berücksichtigt, misst das Umsatzkostenverfahren die Aufwendungen, welche den zu Umsatz gewordenen Produkten zuzuordnen sind. Trotzdem kommen – wie die Abbildung zeigt – beide Verfahren auf der Ebene des „Betriebsergebnisses“ zum gleichen Ergebnis. Eine GuV nach dem Gesamtkostenverfahren erkennen Sie leicht an den Positionen „Erhöhung oder Verminderung des Bestandes…“ sowie an der Position „Gesamtleistung“. Beides sind Positionen, die im Umsatzkostenverfahren nicht auftauchen. Die entscheidende Größe des Umsatzkostenverfahrens ist die Position 3: „Bruttoergebnis vom Umsatz“, im englischen Sprachgebrauch „gross profit“. Die Struktur der GuV (Abb. 3.22) zeigt, dass das Ergebnis nach mehreren Gesichtspunkten differenziert werden kann. In einem ersten Schritt wird das Betriebs-

82

3 Betriebswirtschaftliche Grundlagen

Abb. 3.22   Gliederung der Gewinn- und Verlustrechnung nach dem Gesamtkosten- und dem Umsatzkosten-Verfahren (nach Männel 1997)

ergebnis, auch EBIT genannt, errechnet, in einem zweiten das Finanzergebnis, aus beiden setzt sich das „Ergebnis der gewöhnlichen Geschäftstätigkeit“ zusammen. Dann erst wird das „außerordentliche Ergebnis“ ermittelt, wodurch man das  

Earning Before Interest and Taxes.

3.3 Externes Rechnungswesen

83

„Ergebnis vor Steuern“ und nach Abzug der Steuern schließlich den „Jahresüberschuss/Jahresfehlbetrag“ erhält, im englischen Sprachgebrauch die berühmte „bottom line“. Einige Begriffe der GuV-Positionen wollen wir kurz erläutern, wobei wir uns auf das Gesamtkostenverfahren beschränken: • Umsatzerlöse: Alle Netto-Erträge aus dem Verkauf der Produkte (Skonti, Rabatte, Mehrwertsteuer, etc. sind abgezogen). • Erhöhung oder Verminderung des Bestandes: Das sind die in Geld bewerteten Bestände an fertigen noch nicht verkauften und halbfertigen Produkten. Kritisch ist hier häufig eine realistische Bewertung. • andere aktivierte Eigenleistungen: z. B. in Geld bewertete selbst gebaute Anlagen oder auch Großreparaturen • sonstige betriebliche Erträge: z. B. Erträge aus dem Verkauf von Anlagegütern. • Unter Materialaufwand werden auch Fremdleistungen verbucht, wie z. B. externe Vor- oder Nachbehandlung von Bauteilen. • Personalaufwand: Alle Personalaufwendungen inkl. Rückstellungen für Pensionen. • Abschreibungen: s. ausführliche Erläuterungen unten. • sonstige betriebliche Aufwendungen: z. B. Mieten, Datenverarbeitung, Werbung, Vertrieb, Transport, usw. • außerordentliche Erträge/Aufwendungen: z. B. Erträge aus Grundstücksverkäufen und Aufwendungen für Umstrukturierungsmaßnahmen. Abschreibungen auf Sachanlagen Gesondert sei noch auf die Position „Abschreibungen auf Sachanlagen“ hingewiesen, welche wir im Beispiel des PKW-Kaufs (Kap. 3.3.2) bereits kennen gelernt haben und die wichtig für das Verständnis des Aufwand-Begriffes ist. Mit Hilfe von Abschreibungen wird die Wertminderung von Vermögensgegenständen, die im Wesentlichen durch die Abnutzung eintritt auf die Nutzungsperioden verteilt. Sie wird entsprechend auch „Absetzung für Abnutzung“, abgekürzt „AfA“, genannt. Es ist einsichtig, dass die Abschreibungsdauer je nach Art des Vermögensgegenstandes unterschiedlich ist. Im Beispiel der Abb. 3.23 handelt es sich z. B. um eine Produktionsmaschine. PKW werden im Allgemeinen über sechs Jahre abgeschrieben, Immobilien über bis zu 50 Jahre. Die Abschreibungszeiten sind dabei, in gewissen Bandbreiten, von der Steuerbehörde vorgegeben. Generell gibt es zwei anerkannte Abschreibungsmethoden, die lineare und die degressive (s. Abb. 3.24). Bei der linearen Methode werden die Abschreibungen gleichmäßig über die Nutzungszeit verteilt. Durch die Verwendung einer degressiven Abschreibung wird es dem Unternehmen ermöglicht in den ersten Nutzungsjahren mehr abzuschreiben, in den späteren weniger. So kann man die Steuerlast eines Unternehmens über die Zeit z. B. durch einen Wechsel von degressiver zu linearer Abschreibung beeinflussen. Allerdings ist die degressive Abschreibung nach aktueller Gesetzgebung nur für einen beschränkten Zeitraum zulässig. Der Trend geht zur einheitlichen linearen AfA.

84

3 Betriebswirtschaftliche Grundlagen

Abb. 3.23   Lineare Abschreibung, jährlicher durch die Nutzung bedingter Aufwand (Abschreibung) sowie Verlauf des Restbuchwertes

Falls Sie sich wundern, wo die Position Abschreibungen in der GuV des Umsatzkostenverfahrens geblieben ist: Sie wird in diesem Verfahren auf die Positionen Herstellkosten, Verwaltungskosten und Vertriebskosten verteilt, mit Verfahren, wie wir sie in Kap. 3.2.2 kennen gelernt haben.

3.3.6  Bilanzen 3.3.6.1  Von der Eröffnungsbilanz zur Schlussbilanz Die Abb. 3.25 zeigt schematisch und beispielhaft den Buchungskreis eines Geschäftsjahres von der Eröffnungsbilanz zur Schlussbilanz. Die „Vermögens“- und „Kapital“-Werte der Eröffnungsbilanz (sie ist identisch mit der Schlussbilanz des Vorjahres) werden auf die Bestandskonten (Aktiv- und Passivkonten) übernommen. Zugänge und Abgänge werden unterjährig wie besprochen gebucht. Die Endbestände oder Salden ergeben sich dann beim Kontenabschluss jeweils auf der Gegenseite der Anfangsbestände. Sie werden mit Buchungssätzen wie wir sie oben kennen gelernt haben („Soll an Haben“ = „Schlussbilanz an Aktivkonten“) wieder auf die „richtige“ Seite der Schlussbilanz hinübergebucht.

3.3 Externes Rechnungswesen

85

Abb. 3.24   Verlauf der Abschreibungsbeträge ( oben) und Restbuchwerte ( unten) bei linearer und degressiver Abschreibung

Entsprechend werden die Salden der Erfolgskonten (Aufwands- und Ertragskonten) in der GuV aggregiert. Deren Endbestand ist der Jahresüberschuss (bzw. -fehlbetrag), welcher dem Eigenkapitalkonto zugute kommt. Dessen Endbestand wird wiederum auf der „Kapital“-Seite der Schlussbilanz übernommen. Das Schema mag deutlich machen, wie geistreich Vermögensaufschreibung und Erfolgsmessung in dem System der Doppelten Buchführung miteinander vernetzt sind. 3.3.6.2  Die Bilanzstruktur Vom Inventar zur Eröffnungsbilanz Um die grundsätzliche Struktur einer Bilanz besser verstehen zu können, verfolgen wir mit der Abb. 3.26, wie eine erste Bilanz einer Firma entsteht, die sog. Eröffnungsbilanz. Wir nehmen an, ein junger Naturwissenschaftler gründe sein eigenes Beratungsunternehmen und entscheide sich, für die Firma von vornherein die Buchführung nach der Doppik einzuführen.

86

3 Betriebswirtschaftliche Grundlagen

Abb. 3.25   Entwicklung des Jahresabschlusses aus den Konten (nach Männel 2005)

Mit seinem gesparten Bargeld, einem Bankkredit (€ 4.500,-) und dem Kredit eines Lieferanten (€ 500,-) erwirbt er ein leistungsfähiges Kopiergerät (€ 4.000,-), einen Vorrat an Zeichen- und Schreibpapier (€ 1.000,-), einen PC mit Drucker (€ 2.000,-) sowie Büromaterial (€ 500,-). An Barmitteln verbleiben ihm € 1.500,-. Die Vermögensgegenstände und die Schulden werden in einer Inventar-Liste aufgeführt. Aus dieser Liste wird die Eröffnungsbilanz entsprechend Abb. 3.26 entwickelt. Wenn man die Werte einträgt, wie wir es gelernt haben, die Vermögenswerte links, die Schulden rechts, fällt einem sofort auf, dass die Bilanz zunächst nicht „aufgeht“ (rechts und links muss immer der gleiche Wert stehen!). Als Differenz zwischen „Schulden“ und „Vermögen“ ergibt sich hier der Betrag, den der Jung-

3.3 Externes Rechnungswesen

87

Abb. 3.26   Vom Inventar zur Eröffnungsbilanz (nach Männel 1997)

unternehmer an eigenem gesparten Geld zur Verfügung hat, nämlich € 4.000,-. Wir erinnern uns: die korrekte Bezeichnung der rechten „Passiv“-Seite der Bilanz ist: Dort steht, wie das Vermögen der linken Seite finanziert wird – und das geschah hier teilweise durch eigenes Geld, das Eigenkapital. Im Übrigen muss die Inventarliste einer Firma jeweils vor der Aufstellung des Jahresabschlusses mit einer sog. Inventur überprüft werden. Dabei werden in jedem Jahr Werthaltigkeit und Vorhandensein der Vermögensgegenstände festgestellt und bestätigt.

88

3 Betriebswirtschaftliche Grundlagen

Tab. 3.6   Gliederung der Bilanz nach deutschen Vorschriften Aktiva Anlagevermögen Umlaufvermögen

Passiva Eigenkapital Fremdkapital

Tab. 3.7   Gliederung der Bilanz nach amerikanischen Vorschriften Assets Liabilities Current assets Current liabilities Longterm liabilities Fixed assets Shareholders equity

Handelsrechtliche Gliederung der Bilanz Damit die Werte der Bilanz in gewisser Ordnung eingetragen werden, gliedert man sie nach der „Fristigkeit“. In Deutschland so, dass die langfristigen Werte oben, nach unten jeweils kurzfristigere aufgelistet werden. Deshalb die Grundstruktur einer deutschen Bilanz. Die angelsächsische Bilanz gliedert genau umgekehrt, die kurzfristigen Werte oben, die langfristigen unten: Im Detail ist die Gliederung einer Bilanz natürlich viel ausführlicher als in Tab. 3.6 und 3.7 dargestellt. Sie brauchen nur einmal in den Jahresabschluss-Bericht einer Großfirma oder eines Konzerns zu sehen, um das festzustellen. Im Prinzip ist das Grundschema jedoch immer das gleiche, wie es zusammenfassend die Abb. 3.27 zeigt. Einige Begriffe sind uns allerdings hier neu, wir wollen sie nachfolgend kurz erläutern: • Immaterielle Vermögensgegenstände: Hierunter fallen z. B. Patente, denen man durchaus einen Geldwert zuordnen und diesen Wert dann auch abschreiben kann. Immer wichtiger werden hier z. B. Software-Entwicklungen, die teilweise einen großen und wettbewerbsmäßig entscheidenden Vermögenswert mancher Firmen darstellen. • Rückstellungen (auf der Passivseite) sind Verpflichtungen, welche die Gesellschaft entweder anderen gegenüber oder sich selbst gegenüber hat. Wichtigstes Beispiel: Pensionsrückstellungen. • Rechnungsabgrenzungsposten finden wir auf beiden Seiten der Bilanz. Mit diesen Buchungen wird sichergestellt, dass periodengerecht gemessen wird. Beispiel: Jemand geht Mitte Dezember für einen Monat in Urlaub. Das erhaltene Urlaubsgeld betrifft nur zur Hälfte das Geschäftsjahr, das muss durch entsprechende Abgrenzung (also eine Gegenbuchung über die Hälfte des Urlaubsgeldes) sichergestellt werden. Diese kurze Erläuterung soll hier genügen. • Die wichtigsten Unterpositionen des Eigenkapitals sehen wir uns gesondert an: • gezeichnetes Kapital: ist bei der GmbH das Stammkapital, bei der AG das Grundkapital, das sogenannte konstante Kapital einer Gesellschaft. • Kapitalrücklage: Variabler Anteil des Eigenkapitals, der von ihren Eignern neben dem gezeichneten Kapital von außen zugeführt wird. • Gewinnrücklage: Wird durch das Einbehalten von Teilen des Unternehmensergebnisses gebildet.

3.3 Externes Rechnungswesen

89

Abb. 3.27   Handelsrechtliche Gliederung der Bilanz

• Gewinnvortrag/Verlustvortrag: Teile des Jahresergebnisses aus dem vorangegangenen Geschäftsjahr, über die noch nicht entschieden wurde. • Bilanzgewinn (bzw. Bilanzverlust) wird dann ausgewiesen, wenn über die Verwendung des Jahresergebnisses bereits entschieden wurde und das Ergebnis verwendet wurde. Ansonsten steht an dieser Position der Begriff Jahresüberschuss/Jahresfehlbetrag. Diese kurzen Kommentare sollen zum ersten Verständnis einer Bilanz genügen, wenn wir weiter unten anhand einer Fallstudie einen Jahresabschluss erläutern, mag manches deutlicher werden.

3.3.7  Bilanzierungsgrundsätze Da die Buchführung eine handelsgesetzlich geregelte Verpflichtung darstellt, gibt es umfangreiche Gesetzesvorschriften zur Durchführung, Dokumentation und Gestaltung der Buchführung. Allerdings sind die gesetzlichen Vorschriften derzeit stark im Fluss, was im nächsten Abschnitt erläutert werden wird. In formaler Hinsicht sind die wesentlichsten Regeln (die sich auch nicht ändern werden): • Belegprinzip: Keine Buchung ohne Beleg. Das ist ein Grundsatz, den auch jeder Nicht-Kaufmann kennen und befolgen muss.

90

3 Betriebswirtschaftliche Grundlagen

• Grundsatz der Vollständigkeit: Alle Geschäftsvorfälle sind in der Buchhaltung zu erfassen. • Grundsatz der Richtigkeit und Willkürfreiheit • Grundsatz der Klarheit • Prinzip der periodengerechten Erfolgsermittlung (Abgrenzungsprinzip) Bezüglich der inhaltlichen Zielrichtung haben sich die Regelungen in Deutschland bisher vor allem am Prinzip des sogenannten „Gläubigerschutzes“ orientiert. Das bedeutet, dass die Institutionen und Personen, welche einer Gesellschaft Finanzmittel zur Verfügung stellen (z. B. Banken und Lieferanten) besonders zu schützen sind. Daraus leiten sich die wichtigsten deutschen Bilanzierungsprinzipien ab: • Vorsichtsprinzip: Unternehmen dürfen sich nicht reicher darstellen, als sie tatsächlich sind • Imparitätsprinzip: Gewinne und Verluste sind ungleich zu behandeln. Verluste sind bereits dann auszuweisen, wenn sie erkennbar sind. • Niederstwertprinzip: Vermögensgegenstände dürfen höchstens mit ihren Anschaffungs- und Herstellungskosten (vermindert um planmäßige Abschreibungen) angesetzt werden. • Realisationsprinzip: Gewinne dürfen erst dann ausgewiesen werden, wenn sie durch den Umsatzprozess realisiert sind. • Grundsatz der Bewertungsstetigkeit: Eine einmal für einen Vermögensgegenstand gewählte Bewertungsmethode ist unverändert beizubehalten. In den USA stand bereits traditionell nicht der Gläubigerschutz, sondern der Schutz der Eigentümer, also vor allem der Anleger im Vordergrund. Damit will der Gesetzgeber dort erreichen, dass vor allem die Kleinaktionäre nicht durch eine zu defensive Bilanzpolitik der Gesellschaften um Teile ihrer Dividenden-Einkünfte kommen. Entsprechend wird eine nach dem sog. US GAAP (generally accepted accounting principles) aufgestellte Bilanz zu anderen Ergebnissen kommen, als der gleiche Geschäftsabschluss, der nach traditionellen deutschen Vorschriften aufgestellt wurde.

3.3.8  Aktuelle gesetzliche Veränderungen im Bilanzrecht Wie oben erwähnt, hat das Bilanzrecht in den USA eine andere Grund-Zielrichtung als beispielsweise das im HGB (Handelsgesetzbuch) niedergelegte deutsche Bilanzrecht. Es ist einsichtig, dass das in der immer stärker globalisierten Weltwirtschaft nicht tragbar ist. Seit dem letzten Jahrzehnt des vergangenen Jahrhunderts wird deshalb international mit Hochdruck an einer Harmonisierung des internationalen Bilanzrechts gearbeitet. Zunächst wurden die Regelungen der IAS (International Accounting Standards) erarbeitet. Sie wurden 2001 in die IFRS (International Finance Reporting Standards) überführt (IAS wird seitdem nicht mehr fortgeführt, hat jedoch weiterhin Geltung). 2002 hat die EU verfügt, dass kapitalmarktorientierte (also z. B. an der Börse ge-

3.3 Externes Rechnungswesen

91

handelte) Muttergesellschaften von Konzernen, welche ihren Sitz in einem EU Mitgliedsland haben, verpflichtet sind den Jahresabschluss nach IFRS aufzustellen. Das bedeutet beispielsweise für solche Unternehmen mit Sitz in Deutschland, dass zwei Handelsbilanzen zu erstellen sind, ein HGB- und ein IFRS-Abschluss. Ende 2007 akzeptierte die USA den IFRS Abschluss ohne Überleitungsrechnung auf die US GAAP Regelungen. Das bedeutet: IFRS setzt sich mehr und mehr durch. Trotzdem hat der deutsche Gesetzgeber das IFRS nicht übernommen, da hier der politische Wille besteht, das bewährte Vorsichts- und Realisationsprinzip des HGB nicht aufzugeben. Stattdessen wurde das HGB durch das so genannte BilMoG (Bilanzmodernisierungsgesetz) umfassend reformiert, wodurch das HGB-Bilanzrecht im Verhältnis zu den IFRS aufgewertet wird. Das BilMoG wird voraussichtlich ab dem 1. Januar 2010 gelten. Darin wird eine punktuelle Angleichung an das IFRS erreicht und zwar so, dass alle einschlägigen EU-Richtlinien abgedeckt sind, ohne jedoch die bewährten Bilanzierungsprinzipien des HGB in Frage zu stellen. Für die Weiterentwicklung des HGB nach dem BilMoG ist jedoch bereits aus heutiger Sicht absehbar, dass die Verwendung der IFRS in Deutschland in absehbarer Zeit unvermeidbar sein wird. Diese hier kurz skizzierten Entwicklungen bedingen massive Umstellungen in den Unternehmungen, natürlich vor allem bei öffentlichen Aktiengesellschaften. Da die Neuerungen des HGB durch das BilMoG auch dazu geführt haben, dass Handels- und Steuerbilanz immer weiter auseinander driften, bedeutet das für viele Firmen, dass sie drei Jahresabschlüsse zu erstellen haben: einen nach HGB (ab 2010 in der BilMoG-Fassung), einen nach IFRS und eine separate Steuerbilanz, was einen hohen Arbeitsbedarf in den entsprechenden Abteilungen der Firmen auslöst. Was sind nun die wesentlichsten Unterschiede, die auch für den Leserkreis dieses Buches relevant sind? Dabei sei nur das IFRS-Regelwerk mit dem nach BilMoG „modernisierten“ HGB verglichen. Auf das „alte“ HGB (vor 2010) wird nicht mehr eingegangen. Zunächst ist das deutsche HGB ein „code law“, in dem die Grundsätze beschrieben sind, es kommt deshalb (in der alten Fassung) mit ca. 50 Seiten aus, während das nach angelsächsischem Muster erstellte „case law“ des IFRS etwa 1000 Seiten Umfang benötigt. Der wesentliche inhaltliche Unterschied besteht darin, dass das HGB am starren Realisations- und Vorsichtsprinzip festhält und stark vergangenheitsorientiert ist, das IFRS dagegen auf einem dynamischen Bilanzverständnis aufbaut, das zukunftsgerichtet Informationen vermitteln soll. Beispiel: Das Vorsichtsprinzip des HGB drückt sich insbesondere an der starken Orientierung an den in der Vergangenheit geleisteten Zahlungen wie den Anschaffungskosten aus, während bei der Bewertung nach den IFRS die zukünftig erwarteten Zahlungsströme stärker im Vordergrund stehen. So werden Vermögenswerte (Bürogebäude, Maschinen, Grundstücke etc.) nach dem deutschen HGB grundsätzlich höchstens mit dem Anschaffungs- oder den Herstellungskosten (ggf. vermindert um laufende Abschreibungen) angesetzt, es sei denn, der Marktwert ist niedriger. Dann muss dieser niedrigere Wert angesetzt werden. Das IFRS erlaubt dagegen unter bestimmten Umständen die Neubewertung zu einem höheren beizulegenden Zeitwert („fair and true value“). Der Gedanke dahinter ist in Deutschland durch eine

92

3 Betriebswirtschaftliche Grundlagen

andere Zielsetzung des HGB im Vergleich zu den IFRS zu sehen. Die HGB-Bilanz dient vor allem der Information für Gläubiger sowie der Zahlungsbemessung für Dividenden und Steuern. Der IFRS-Abschluss dient dagegen vor allem den Informationszwecken für (potenzielle) Anleger. Aus solchen Gründen bestand bisher auch bei der Bewertung der Vorräte stets eine Diskrepanz zwischen HGB- und IFRS-Abschluss, denn beispielsweise Halbfertigfabrikate werden nach IFRS nach Vollkostenansatz bewertet, während das HGB den Ansatz gewisser Verwaltungsgemeinkosten nicht zuließ. Das HGB hat sich jetzt durch das BilMoG internationalen Standards angenähert und Wahlrechte bei dem Ansatz von Gemeinkosten der Verwaltung zugelassen. Tendenziell sind aufgrund der unterschiedlichen Anforderungen an IFRS und HGB die Wertansätze in einem IFRS-Abschluss höher als in einem HGB-Abschluss. Wie man sieht, muss man bei den Beispielen schon sehr ins Detail gehen. Deshalb ist es für den „Laien“ ausreichend, die wesentlichen konkreten Unterschiede zu kennen: • Pensionsrückstellungen: Bei diesem Beispiel ist IFRS sogar „vorsichtiger“ und realistischer als es das HGB war, weshalb das BilMoG den IFRS-Ansatz auch voll übernommen hat. Danach müssen zukünftige Gehalts- und Pensionserhöhungen bei der Berechnung berücksichtigt werden, der Abzinsungs-Satz wird aus dem Durchschnitt des Marktzinses der letzten fünf Jahre gebildet. Tendenziell bedeutet das, dass die Pensionsrückstellungs-Beträge in deutschen Abschlüssen zukünftig höher ausfallen werden. Die Höhereinstufung darf in Jahresschritten bis 2033 nachgeholt werden. • Derivate Finanzierungsinstrumente: Das ist ja aktuell ein „heißes“ Thema. Hier nähert sich das HGB nach BilMoG den IFRS generell an. Die Zeitwert-Bewertung hat das HGB nur für diese Vermögenswerte übernommen, für alle anderen nicht. Für technische Berufe ist noch wissenswert: • Selbst erstellte immaterielle Vermögenswerte: Das sind zum Beispiel Software-Entwicklungen oder sonstige Entwicklungsprojekte. Hier wurde durch das BilMoG der ursprünglich eiserne HGB-Grundsatz, solche selbst geschaffenen Vermögensgegenstände nicht als Vermögenswerte anzuerkennen, fallen gelassen. Sie müssen jetzt auch nach HGB aktiviert werden. • Langfristige Fertigungsaufträge (so genannte „construction projects“): IFRS schreibt für solche Aufträge eine Teilgewinn-Realisierung (entsprechend dem Baufortschritt) vor. Dem ist das BilMoG (u. E. zu Recht) nicht gefolgt. Es bleibt bei der alten HGB-Regelung, dass Gewinne aus solchen Aufträgen erst zu buchen sind, wenn die Anlagen fertig gestellt sind und die Abnahme erfolgreich war. • Mineralische Rohstoffe: Nach IFRS gibt es ein Wahlrecht, den Aufwand für Exploration, also das Aufsuchen und Untersuchen von Lagerstätten sofort als Vermögenswert zu aktivieren. Hier hält der Gesetzgeber an der alten HGB-Regelung fest, nach der solche Aufwendungen erst dann zu aktivieren sind, wenn sie eindeutig einem Vermögensgegenstand, also einer wirtschaftlich abbaubaren Lagerstätte zugerechnet werden können.

3.3 Externes Rechnungswesen

93

Wer sich eingehender über die aktuellen Veränderungen im Bilanzrecht informieren will, dem sei die angegebene Literatur empfohlen. Generell sei noch angemerkt, dass nach den krisenhaften Ereignissen im Finanzsektor Ende 2008 die Diskussion um das adäquate Bilanzierungssystem neu entfacht wurde, wobei von vielen Seiten auf die offensichtlich höheren Risiken hingewiesen wird, die dem angelsächsischen System innewohnen.

3.3.9  Einige wichtige Kennziffern Um die Analyse von umfangreichen Jahresabschlüssen zu vereinfachen und zu beschleunigen wurden sogenannte Kennziffern entwickelt. Sie spielen angesichts der Zunahme der Bedeutung von Aktienmärkten eine immer wichtigere Rolle, weil Börsenanalysten intensiv damit arbeiten. Entsprechend hat sich ein eigenständiges Spezialgebiet entwickelt. Wir wollen nur einige wenige Kennziffern anführen, wobei im nächsten Abschnitt am Beispiel der Fallstudie deutlich werden wird, wie solche Kennziffern die Bilanzanalyse erleichtern. • Eigenkapital-Quote = Eigenkapital geteilt durch Bilanzsumme in Prozent ausgedrückt. Sie gibt eine erste Risiko-Indikation, da ein hohes Eigenkapital den Banken Sicherheit vermittelt. Die erwünschte Höhe schwankt naturgemäß von Branche zu Branche. Für mittelgroße Industrie-Unternehmen gilt ein Wert von ca. 30% als wünschenswert. • Anlagendeckung durch Eigenkapital = Eigenkapital geteilt durch Anlagevermögen. Die Kennziffer vergleicht die langfristigen Positionen der linken und rechten Bilanzseite. Der Wert sollte 1 oder höher sein und entspräche dann der „goldenen Bilanzregel“. Dann sind nämlich die langfristigen Vermögensgegenstände auch langfristig durch Eigenkapital (und nicht durch die Banken!) finanziert. • Umsatzrentabilität = Ergebnis vor Steuern geteilt durch Umsatz (in Prozent). Der Wert sollte über 5% betragen, Top-Gesellschaften erreichen 20% und mehr. • ROI (Return on Investment) = Betriebsergebnis (operatives Ergebnis) geteilt durch Gesamtkapital, wobei näherungsweise das Gesamtkapital der Bilanzsumme entspricht. Aber Vorsicht: Es gibt auch ausgefeiltere und komplexere Berechnungsmethoden und insgesamt unterschiedliche Definitionen, weshalb man vorsichtig sein muss, publizierte ROI-Werte miteinander zu vergleichen. Diese Kennziffer wird aber mehr und mehr zur entscheidenden Richtgröße für Börsen- und Bilanzanalysten, denn sie kennzeichnet die Rendite des eingesetzten Kapitals. Der Wert sollte deutlich höher liegen als andere Geldanlage-Alternativen, womit das höhere Risiko einer Unternehmung berücksichtigt sein sollte. Bei der Kennzeichnung von Investitionen definiert man den ROI als „Periodenüberschuss/Investitionskosten“ (s. Kap. 3.1.2). Häufig wird die Rendite einer Firma auch durch den RONA = Return on Net Assets ausgewiesen. Die „Net Assets“ stellen das Reinvermögen dar, welches die Eigentümer in dem Unternehmen haben, also Eigenkapital plus Rücklagen plus Bilanzgewinn.

94

3 Betriebswirtschaftliche Grundlagen

• Cash Flow: Diese Kennzahl wird – auch international – immer wichtiger. So wird der Firmenwert eines Unternehmens standardmäßig auf Basis des „Discounted Cash Flow“ ermittelt. Bei der Berechnung des Cash Flow werden Aufwendungen, die nicht zu Auszahlungen führen (z. B. Abschreibungen, Bildung langfristiger Rückstellungen) zum Jahresergebnis addiert. Im Einzelnen gibt es jedoch sehr unterschiedlich Definitionen des Cash Flow, was die Vergleichbarkeit erschwert. • Produktivität = Rohertrag geteilt durch durchschnittliche Belegschaftszahl (in Euro). Zur Ermittlung dieser Kennzahl benötigt man die Belegschaftsstärke, die jedoch im Anhang jedes Jahresabschlusses genannt sein muss. Sie ist unseres Erachtens die entscheidende Kennzahl für die „Performance“ jedes produzierenden Unternehmens, wird jedoch erstaunlicher Weise relativ selten genutzt. Wichtig ist die Beachtung der Entwicklung des Wertes über die Jahre hinweg. Die Produktivität muss schneller steigen als die Personalaufwendungen, um das Überleben eines Unternehmens zu sichern. Insofern ist die Zahl auch ein wichtiger Frühindikator. • Kapitalumschlag: Häufig wird auch der Kapitalumschlag – gerade als Zusatzinformation zum ROI – aufgeführt. Er ist als Nettoumsatz (ggf. über zwei Folgejahre gemittelt) pro Bilanzsumme definiert und gibt an, wie schnell sich das eingesetzte Kapital „umschlägt“.

3.3.10  C  ase Study: Ein Sanierungsansatz auf Basis   von Bilanz und GuV Um beispielhaft zu zeigen, wie man die Informationen aus Bilanz und GuV für Analyse und Entscheidungsvorbereitung nutzt, sei eine kleine Case Study angeführt. Deren Aufgabe besteht darin, Ansätze für eine mögliche Sanierung aus Bilanz und GuV abzuleiten. Die Abb. 3.28 und 3.29 zeigen den Jahresabschluss zweier Kliniken, die eine ist eine öffentliche, die andere privat. Die Beispiele beruhen auf tatsächlichen Jahresabschlüssen, sind aber entsprechend anonymisiert und leicht vereinfacht worden. Die Privatklinik ist profitabel, die öffentliche Klinik nicht. (Der Vergleich ist nicht ganz fair, denn eine öffentliche Klinik hat einen Versorgungsauftrag für eine Region, die private kann sich gut zahlende Privatpatienten „herauspicken“). Angenommen, es bestünde die Überlegung, die öffentliche Klinik zu privatisieren. Dann müsste sie wirtschaftlich arbeiten und entsprechend saniert werden. Wo könnten Sanierungsmaßnahmen ansetzen? Dazu zunächst ein Blick auf die Zahlenwerke, wobei noch zuzufügen ist, dass der (durchschnittliche) Belegschaftsstand der Privatklinik 9.432 Mitarbeiter, der der öffentlichen Klinik 4.401 Mitarbeiter beträgt (was im Anhang des Jahresabschlusses aufgeführt sein muss). Hier muss noch eine Besonderheit des Jahresabschlusses der öffentlichen Klinik kurz erläutert werden. Deren Bilanz weist ein sehr geringes Eigenkapital, dafür hohe „Sonderposten“ aus, während in der GuV Erträge aus Zuführungen zum Sonderpos-

3.3 Externes Rechnungswesen

95

Abb. 3.28   Bilanz und GuV des Jahresabschlusses einer öffentlichen Klinik

ten und aus Auflösung von Sonderposten (ca. 48 + 24 Mio. €) durch Aufwendungen aus Zuführung von Sonderposten und durch Abschreibungen (ca. 48 + 23,6 Mio. €) in etwa „neutralisiert“ werden. Das ist eine Folge des deutschen Krankenhausgesetzes. Danach ist die öffentliche Hand verpflichtet, öffentliche Krankenhäuser durch Investitionen jeweils auf einen der modernen Technik entsprechenden Stand zu bringen. Diese Subventionen werden richtigerweise nicht als Eigenkapital, sondern als Sonderposten verbucht und in der GuV wird dafür gesorgt, dass sie das wirtschaftliche Ergebnis nicht verfälschen, weshalb sie „neutralisiert“ werden. Diese pauschale Erläuterung soll hier genügen.

96

3 Betriebswirtschaftliche Grundlagen

Abb. 3.29   Bilanz und GuV des Jahresabschlusses einer privaten Klinik

Man kann jetzt aus dem Zahlenwerk ein „Benchmarking“ ableiten. Beispielsweise: Wenn man jeweils den Personalaufwand durch die „Kopfzahl“ dividiert, sieht man, dass der durchschnittliche Personalaufwand der öffentlichen Klinik mit 45.444,- um ca. 20% höher liegt als der der Privatklinik (€ 36.047,-). Oder: Wenn man die Produktivität (s. Kap. 3.3.9) errechnet, sieht man, dass sie für die Privatklinik € 57.800,-, für die öffentliche Klinik nur € 52.800 pro Kopf beträgt. Wie könnte nun ein Sanierungsansatz aussehen? Aus der Abb. 3.30 sieht man, dass in der GuV die Gesamtleistung um etwa 10% erhöht, der Personalaufwand um ca. 15% reduziert wurde. Ist das realistisch? Evtl. nicht, dann müsste man jedoch die Produktivität um ca. 15% erhöhen (d. h. den „Durchsatz“ bei gleichen Personalaufwendungen erhöhen). Um jedoch die Abschreibungen (die ja nach Wegfall der

3.3 Externes Rechnungswesen

97

Abb. 3.30   Bilanz und GuV der „sanierten“ öffentlichen Klinik

öffentlichen Subventionen erfolgsmindernd zu buchen sind), die dann zu zahlenden Zinsen und noch einen Gewinn in akzeptabler Höhe zu erwirtschaften, bleibt zunächst keine andere Wahl. Die Bilanz der „sanierten“ öffentlichen Klinik zeigt, dass die Sonderposten entfallen. Ein möglicher Investor müsste also Eigenkapital mitbringen und er würde Bankkredite aufnehmen müssen. Die Höhe des Eigenkapitals und der aufzunehmenden Kredite wurde aus dem „benchmark“ Anlagendeckung des Privatklinikums abgeleitet. Dabei wird aufgefallen sein, dass die Privatklinik die „goldene Bilanzregel“ nicht erfüllt, aber trotzdem ja offensichtlich keine Schwierigkeiten hat, von den Banken die erforderlichen Kredite zu erhalten. Das Beispiel zeigt, dass man mit einigen leicht abzuleitenden Kennziffern aus dem Vergleich von Bilanz und GuV einen Ansatz für eine mögliche Sanierung er-

98

3 Betriebswirtschaftliche Grundlagen

hält. Ob die entsprechenden Maßnahmen dann realistisch sind und sich vor allem „politisch“ durchsetzen ließen, bleibt offen. Das Beispiel mag aber zeigen, dass wesentliche Umstrukturierungen, Sanierungsmaßnahmen usw. nur angegangen werden können, wenn man zunächst einmal Bilanz und GuV des Unternehmens (oder der Sparte etc.) analysiert hat. Bilanz und GuV sind für jeden Manager die Schlüsselinformationen über das Unternehmen!

Literatur Arbenz B (2005) Unternehmensbewertung durch Market Multiples. http://www.martin-ra.ch/ commonToAll/docsPublications/Aufsatz%20Market%20Multiples.pdf, Stand 10 Mar 2009 Böcking HJ (2008) Zur Notwendigkeit des Bilanzmodernisierungsgesetzes. Der Konzern (9): 461–466 Coenenberg AG (1999) Kostenrechnung und Kostenanalyse, 4. Aufl. Verlag Moderne Industrie, Landsberg/Lech Coenenberg AG (2005) Jahresabschluss und Jahresabschlussanalyse, 20. Aufl. Schäfer-Poeschel Cooper R, Kaplan RS (1991) Activity-Based Costing: Ressourcenmanagement at its best, Harvard Manager (4): 87–94 Däumler K-D, Grabe J (2007) Grundlagen der Investitions- und Wirtschaftlichkeitsrechnung, 12. Aufl. Verlag Neue Wirtschafts-Briefe GmbH & Co. KG, Berlin Ewert R, Wagenhofer A (2008) Interne Unternehmensrechnung, 7. Aufl. Springer-Verlag, Berlin Frech J (1997) Produktplanung mit Target Costing. In: Bullinger H J, Warschat J (Hrsg), Forschungs- und Entwicklungsmanagement. Technologiemanagement – Wettbewerbsfähige Technologieentwicklung und Arbeitsgestaltung. B.G. Teubner, Stuttgart, S 175–194 Gabele E (1990) Buchführung für Anfänger, Mit dem Computer lernen, Grundkenntnisse sicher beherrschen. Gabler u. a., Wiesbaden Götze U (2008) Investitionsrechnung, Modelle und Analysen zur Beurteilung von Investitionsvorhaben, 6. Aufl. Springer-Verlag, Berlin Gros M (2008) Bilanzmodernisierungsgesetz und Annäherung an die IFRS. Auswirkungen auf Publizität, Auschüttungsbemessung und steuerliche Gewinnermittlung. Der Konzern (9):466–477 Hefermehl W (2009) Handelsgesetzbuch HGB,48. Aufl. DTV-Beck Hennrichs J (2008) Pro und Contra IFRS vs. BilMoG für den Mittelstand. Der Konzern (9): 478–485 Hirschböck G, Kerschbaumer H, Schurbohm A (2007) IFRS für Führungskräfte. Linde Verlag, Wien Horngren C, Forster G, Datar S (2001) Kostenrechnung – Entscheidungsorientierte Perspektive, 9. Aufl. Oldenbourg Verlag, München, Wien Hostettler S, Stern HJ (2007) Das Value Cockpit. Sieben Schritte zur wertorientierten Führung für Entscheidungsträger, 2. Aufl. Wiley-VCH, Weinheim Jost H (1997) Kosten- und Leistungsrechnung – Praxisorientierte Darstellung, 7. Aufl. Gabler Verlag, Wiesbaden Kloock J, Sieben G, Schildbach T (1999) Kosten- und Leistungsrechnung, 8. Aufl. Werner, Düsseldorf Männel W (1997) Buchführung und Grundlagen der Bilanzierung, 9. Aufl. Verlag GAB, Lauf a.d. Pegnitz Männel W (1997) Grundlagen der Kostenrechnung, 8. Aufl. Verlag der GAB, Lauf a.d. Pegnitz Männel W (1998a) Entwicklungsperspektiven der Kostenrechnung, 4. Aufl. Verlag der GAB, Lauf a.d. Pegnitz Männel W (1998b) Kostenrechnung als Führungsinstrument, 4. Aufl. Verlag der GAB, Lauf a.d.Pegnitz

3.3 Externes Rechnungswesen

99

Männel W (2005) Rechnungswesen für Ingenieure, Verlag der GAB, Lauf a.d. Pegnitz Mayer S (2009), Die Fortentwicklung des Jahresabschlusses in Deutschland nach dem BilMoG. DStR 2009 Moews D (2002) Kosten- und Leistungsrechnung, 7. Aufl. Oldenbourg Verlag, München Olfert K (2008) Kostenrechnung, 15. Aufl. Kiehl, Leipzig Preißler P (Hrsg), Dörrie U (2001) Grundlagen Kosten- und Leistungsrechnung, 6. Aufl. Verlag moderne Industrie, Landsberg/Lech Radke H (2006) Kostenrechnung, 4. Aufl. Haufe Verlag, München Schruff W, Melcher W (Hrsg) (2008) Modernisierung der HGB-Bilanzierung. Der Betrieb, Beilage 1 zum Heft 7 vom 15 Wöhe G, Döring U (2000) Einführung in die allgemeine Betriebswirtschaftslehre, 20. Aufl. Vahlens Handbücher der Wirtschafts- und Sozialwissenschaften. Vahlen Verlag, München

Kapitel 4

Rechtliche und organisatorische Grundlagen N. Alt, R. Kränzle-Fronek

Es gibt heute kaum noch Unternehmensentscheidungen, die nicht massiv von rechtlichen und steuerlichen Überlegungen beeinflusst werden. Deshalb soll der Leser mit diesem Kapitel einen ersten Überblick über diesen Bereich erhalten. Zunächst werden die in Deutschland gängigen unterschiedlichen Rechtsformen von Firmen erläutert, im zweiten Abschnitt erhält der Leser einen knappen ersten Einblick in das äußerst komplexe Gebiet der Steuergesetzgebung und im dritten Abschnitt behandeln wir einige elementare Grundsätze und Hinweise, die aus rechtlicher Sicht bei Verträgen und Rechtsgeschäften zu beachten sind.

4.1  Ü  bersicht über die wichtigsten deutschen Gesellschaftsformen Wer am Wirtschaftsleben teilnehmen will, kann dies jederzeit in Form eines Einzelunternehmens tun, d. h. als einzelne, natürliche Person. Häufig übersteigen die Komplexität der Geschäftsvorgänge und der Kapitalbedarf allerdings die Grenzen, die eine einzelne Person alleine tragen kann. In diesen Fällen erfolgt die Gründung einer Gesellschaft. Hierbei stehen viele Möglichkeiten in Form von Personengesellschaften und Kapitalgesellschaften zur Verfügung. Bei der Auswahl der richtigen Gesellschaftsform für ein Unternehmen spielen verschiedene Faktoren eine Rolle, von denen die Nachfolgenden einen Überblick über die Wichtigsten darstellen: • Welche Formvorschriften sind bei der Gründung einzuhalten und wie erfolgt die Gründung? • Wie viel Kapital muss von wem für eine Gründung aufgebracht werden? • Wer trägt in welcher Höhe die Haftung? • Wer übernimmt die Geschäftsführung und die Vertretung? • Wie sieht es mit den Eigentumsverhältnissen am Vermögen aus und wie werden Gewinne und Verluste auseinandergesetzt? • Welche steuerlichen Auswirkungen bestehen für die Inhaber? • Wie kann die Gesellschaft wieder aufgelöst oder beendet werden?

O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_4, © Springer-Verlag Berlin Heidelberg 2010

101

102

4 Rechtliche und organisatorische Grundlagen

Abb. 4.1   Gesellschaftsformen im Überblick

Eine Vielzahl an Fragen, die durch die Wahl der Gesellschaftsform beantwortet werden, deren Abwägung eine fundierte Kenntnis über die Ausgestaltung der jeweiligen Gesellschaftsformen verlangt, weshalb es sich auch empfiehlt, den Rat von Fachleuten einzuholen. Die folgenden Ausführungen möchten jedoch eine erste Übersicht ermöglichen.

4.1.1  Allgemeiner Überblick Im Gesellschaftsrecht unterscheidet man zwischen Personengesellschaften und Juristischen Personen, insbesondere Kapitalgesellschaften (s. Abb. 4.1). Zu den Personengesellschaften zählen die Gesellschaft des bürgerlichen Rechts (GbR), die offene Handelsgesellschaft (OHG) und die Kommanditgesellschaft (KG). Bei den Kapitalgesellschaften unterscheidet man zwischen Gesellschaften mit beschränkter Haftung (GmbH) und Aktiengesellschaften (AG). Daneben sind auch die Mischformen der GmbH & Co. KG oder der KG auf Aktien bekannt, welche die Eigenschaften der beiden Rechtsformen kombinieren. Von allen in Deutschland existierenden Unternehmen wird der zahlenmäßig größte Anteil (ca. 2/3) in der Form einer Einzelunternehmung geführt, wohingegen nur etwa 12% auf die Personen- und etwa 15% auf die Kapitalgesellschaften entfallen. Der Rest sind nicht deutsche Unternehmensformen. Betrachtet man allerdings den jeweiligen Jahresumsatz, so lässt sich feststellen, dass die Kapitalgesellschaften 50% des Gesamtumsatzes generieren, der auch direkt mit der Beschäftigtenzahl korrespondiert. Diese Gegenüberstellung verdeutlicht die große Bedeutung der Kapitalgesellschaften für unsere Wirtschaft. Kapitalgesellschaften und Personengesellschaften unterscheiden sich vor allem erheblich durch die unterschiedlichen Vertretungsbefugnisse und Haftungsgrenzen. Bei Personengesellschaften stehen die Personen als Gesellschafter im Vordergrund, die vollumfänglich und persönlich mit ihrem Privatvermögen haften. Die Gesellschafter führen die Geschäfte und vertreten die Gesellschaft selbst, was als Selbstorganschaft bezeichnet wird. Somit könnte man annehmen, dass nur diese einzelnen Personen Rechts- und Pflichtträger sein können. Allerdings hat der Gesetzgeber in § 124 HGB der Offenen Handelsgesellschaft und der Kommanditgesellschaft das Recht zugesprochen, Träger von Rechten und Pflichten zu sein, wodurch auch sie unter ihrer Firmenbezeichnung Rechte erwerben, Verbindlichkeiten eingehen können, Eigentum erwerben oder vor Gericht klagen und verklagt werden können. Dies gilt auch für die GbR.

4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen

103

Grundsätzlich kann ein Gesellschafter einer Personengesellschaft seine Stellung nicht vererben oder übertragen, es sei denn, es ist im Gesellschaftsvertrag vorgesehen. Damit wird die Gesellschaft mit dem Tod eines Gesellschafters i. d. R. beendet. Bei Kapitalgesellschaften steht hingegen das Kapital im Fokus, die Gesellschafter rücken eher in den Hintergrund. So können die Gesellschafter eine beliebige dritte Person bestimmen, die die Geschäftsführung und damit die Vertretung der Gesellschaft übernimmt, was als Fremdorganschaft bezeichnet wird. Kapitalgesellschaften sind juristische Personen, die wie eine natürliche Person rechtsfähig sind, damit Träger von Rechten und Pflichten sein können (z. B. Eigentümer eines Grundstücks, Gläubiger einer Forderung, können vor Gericht klagen oder verklagt werden). Für Verbindlichkeiten der Gesellschaft haftet nur die Gesellschaft mit ihrem Gesellschaftsvermögen, nicht die einzelnen Gesellschafter mit ihrem Privatvermögen. Jeder Gesellschafter kann seinen Geschäftsanteil veräußern oder vererben, was die Existenz der Gesellschaft nicht berührt. Im Einzelnen sind die gesetzlichen Regelungen für die verschiedenen Rechtsformen recht unterschiedlich. Um die Auswirkungen der Rechtsformen besser vergleichen zu können, werden sie deshalb im folgenden Überblick stets anhand der gleichen Kriterien skizziert.

4.1.2  Einzelunternehmen Gründung Zur Gründung eines Einzelunternehmens ist eine Person ausreichend. Besondere Gründungsformalien sind nicht zu beachten. Die Eintragung in das Handelsregister ist nur notwendig, wenn für den Unternehmer Kaufmannseigenschaft besteht. Dies ist der Fall, wenn ein Handelsgewerbe betrieben wird, also nach Art und Umfang der Tätigkeit ein kaufmännischer Betrieb mit umfangreicher Buchhaltung eingerichtet werden muss. Die Firmenbezeichnung des Einzelunternehmens kann den Vor- und Zunamen des Inhabers beinhalten. Kapitalausstattung und Haftung Eine Einzelunternehmung benötigt kein Mindestkapital, die Finanzierung erfolgt rein aus dem Privatvermögen des Unternehmers. Damit haftet er allerdings auch unmittelbar und unbeschränkt für Verbindlichkeiten des Unternehmens. Geschäftsführung und Geschäftsvertretung Der Firmeninhaber ist alleiniger Geschäftsführer und Vertreter des Unternehmens. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Der Einzelunternehmer ist alleiniger Eigentümer und trägt den Gewinn als auch den Verlust des Unternehmens zu 100%.

104

4 Rechtliche und organisatorische Grundlagen

Auflösung und Beendigung Das Einzelunternehmen kann jederzeit durch den freien Entschluss des Unternehmers beendet werden. Weitere Beendigungsgründe sind der Tod des Inhabers oder der Beschluss des Insolvenzgerichts über die Insolvenz.

4.1.3  Personengesellschaften Die verschiedenen Personengesellschaften sind im Baukastensystem aufgebaut. Die Gesellschaft des bürgerlichen Rechts (GbR) stellt die Grundform dar und wird nach den Vorschriften §§ 705 ff. BGB geregelt. Auf diesen Vorschriften baut auch die Offene Handelsgesellschaft (OHG) auf, die durch weitere Vorschriften in §§ 105 ff. HGB ergänzt wird. Die Kommanditgesellschaft (KG) basiert auf den Vorschriften der GbR und der OHG und unterliegt zudem den eigenständigen Vorschriften in den §§ 161 ff. HGB.

4.1.3.1  Gesellschaft des bürgerlichen Rechts (GbR) Gründung Für die Gründung einer GbR bedarf es des Zusammenschlusses von mindestens zwei Personen, die einen gemeinsamen beliebigen Zweck verfolgen. Es bedarf keiner besonderen Formalien und auch keiner Eintragung in das Handelsregister. Obwohl kein Gründungsvertrag erforderlich ist, empfiehlt sich der Abschluss eines Gesellschaftsvertrages, da in diesem wichtige Details und Ausnahmen von ansonsten greifenden gesetzlichen Regelungen vereinbart werden können. Allerdings ist zu beachten, dass sehr große Unternehmungen, die einen hohen Umsatz generieren und dadurch einer umfangreichen Buchhaltung bedürfen, bereits von Gesetzes wegen als OHG eingestuft werden müssen und nicht mehr als GbR. Kapitalausstattung und Haftung Es ist kein Mindestkapital für die Gründung der Gesellschaft notwendig. Bei Personengesellschaften kann auf dieses verzichtet werden, da es immer mindestens eine Person gibt, die unbeschränkt mit ihrem Privatvermögen haftet. Bei der GbR haftet jeder Gesellschafter neben dem Gesellschaftsvermögen der Gesellschaft unmittelbar und unbeschränkt mit seinem Privatvermögen. Geschäftsführung und Geschäftsvertretung Die Geschäftsführung und Vertretung der Gesellschaft obliegt grundsätzlich allen Gesellschaftern gemeinsam. Nachdem dies in der Praxis nicht sehr praktikabel ist, können abweichende Regelungen im Gesellschaftsvertrag vereinbart werden, wie z. B. die Bestimmung eines Gesellschafters als Geschäftsführer oder als Einzelvertreter für bestimmte Geschäfte. Entscheidungen sind grundsätzlich von den Gesell-

4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen

105

schaftern einstimmig zu fassen. Weitere überwachende oder beschließende Organe, wie bei Kapitalgesellschaften gibt es nicht. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Wenn sich Vermögen ansammelt, so handelt es sich um Gesamthandsvermögen, an dem die Gesellschafter beteiligt sind. Gewinne und Verluste werden bei der GbR i. d. R. zu gleichen Anteilen den Gesellschaftern zugeschrieben, wenn im Gesellschaftervertrag nichts anderes bestimmt ist. Auflösung und Beendigung Die Gesellschaft kann durch Kündigung eines Gesellschafters, durch Beschluss der Gesellschafter, durch Zweckerreichung oder Zeitablauf, wenn nur eine bestimmte Zeit für die GbR vorgesehen war, durch Tod eines Gesellschafters oder durch gerichtliche Entscheidung wegen Insolvenz aufgelöst und beendet werden. Insoweit ein Auflösungserlös vorhanden ist, wird dieser nach Anteilen verteilt. 4.1.3.2  Offene Handelsgesellschaft (OHG) Gründung Für die Gründung einer OHG bedarf es des Zusammenschlusses von mindestens zwei Personen, die notwendigerweise den Betrieb eines kaufmännischen Gewerbes als Zweck verfolgen. Sie müssen also sehr umfangreich am Wirtschaftsverkehr teilnehmen oder zumindest, wenn Ersteres nicht vollumfänglich zutrifft, Kaufmann kraft Eintragung im Handelsregister sein. Die Gesellschafter können natürliche, aber auch juristische Personen sein. Die Eintragung in das Handelsregister ist erforderlich (sog. Publizitätsgrundsatz). Weitere Formvorschriften bei der Gründung sind nicht vorgeschrieben. Es empfiehlt sich allerdings auch für die OHG einen Gesellschaftsvertrag abzuschließen, da in diesem wichtige Details und Ausnahmen von der gesetzlichen Regelung vereinbart werden können. Bei der Firmierung ist darauf zu achten, dass als Zusatz OHG geführt wird. Kapitalausstattung und Haftung Es ist kein Mindestkapital für die Gründung der Gesellschaft notwendig, da jeder Gesellschafter neben der Gesellschaft unmittelbar und unbeschränkt für Verbindlichkeiten, auch mit seinem Privatvermögen haftet. Geschäftsführung und Geschäftsvertretung Die Vertretung der OHG kann von allen Gesellschaftern bzw. von jedem einzeln ausgeübt werden. Bei der OHG sind grundsätzlich alle Gesellschafter zur Geschäftsführung einzeln berechtigt und verpflichtet, wenn der Gesellschaftsvertrag nichts anderes vorsieht.

106

4 Rechtliche und organisatorische Grundlagen

Dies bedeutet, dass jeder einzeln für die OHG handeln und Geschäfte eingehen kann. Die nicht handelnden Gesellschafter haben aber ein Widerspruchsrecht, was dazu führt, dass bei eingelegtem Widerspruch die Handlung zu unterbleiben hat. Durch den Gesellschaftsvertrag kann einem Einzelnen die Geschäftsführung übertragen werden. Dies ist in der Praxis auch der Regelfall. Der Geschäftsführer kann gewöhnliche Geschäfte ausführen und hierüber entscheiden. Gewöhnliche Geschäfte sind grundsätzlich Handlungen, die der gewöhnliche Betrieb des Handelsgewerbes der Gesellschaft mit sich bringt (§ 116 Abs. 1, 1. Halbsatz HGB). Bei Geschäften, die nicht in diesen Rahmen fallen, also außergewöhnlich sind, müssen wiederum alle Gesellschafter zustimmen. Gleiches gilt für Grundlagengeschäfte. Auch bei der OHG gibt es keine weiteren überwachenden oder beschließenden Organe. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Auch das angesammelte Vermögen der OHG ist Gesamthandsvermögen, an dem die Gesellschafter beteiligt sind. Gewinne und Verluste der OHG werden anteilig auf die Gesellschafter verteilt, die ebenfalls mit ihrem Privatvermögen haften. Im Gesellschaftsvertrag kann für die Gewinn- und Verlustverteilung etwas anderes bestimmt werden. Auflösung und Beendigung Die Gesellschaft kann ebenfalls durch Kündigung eines Gesellschafters, durch Beschluss der Gesellschafter, durch Zeitablauf, insoweit die Gesellschaft nur auf Zeit angelegt war, durch Tod eines Gesellschafters oder durch gerichtliche Entscheidung wegen Insolvenz aufgelöst und beendet werden. Insoweit ein Auflösungserlös vorhanden ist, wird dieser nach Geschäftsanteilen verteilt. 4.1.3.3  Kommanditgesellschaft (KG) Gründung Für die Gründung einer KG bedarf es des Zusammenschlusses von mindestens zwei Personen, die notwendigerweise den Betrieb eines kaufmännischen Gewerbes als Zweck verfolgen. Sie müssen also sehr umfangreich am Wirtschaftsverkehr teilnehmen oder zumindest, wenn ersteres nicht vollumfänglich zutrifft, Kaufmann kraft Eintragung im Handelsregister sein. Die Besonderheit bei der KG ist, dass es zwei Arten von Gesellschaftern gibt, nämlich den persönlich haftenden Komplementär und den bis zu seiner vertraglich vereinbarten Einlage haftenden Kommanditisten. Es müssen mindestens ein Komplementär und mindestens ein Kommanditist bei der Gründung vorhanden sein. Eine Eintragung in das Handelsregister hat zu erfolgen (sog. Publizitätsgrundsatz). Weitere Formvorschriften bei der Gründung sind nicht vorgeschrieben.

4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen

107

Es empfiehlt sich natürlich auch bei der KG der Abschluss eines Gesellschaftsvertrages, da in diesem u. a. die Einlageverpflichtung der Kommanditisten konkreter nach Art, Höhe und Zeitpunkt der Einlegung geregelt werden kann. Bei der Firmierung ist darauf zu achten, dass mindestens der Name eines persönlich haftenden Gesellschafters (Komplementärs) mit Zusatz KG geführt wird. Kapitalausstattung und Haftung Ein Mindestkapital für die Gründung der Gesellschaft ist nicht vorgeschrieben. Lediglich die Kommanditisten haben ihre Kapitaleinlage wie vereinbart zu erbringen. Das Gesetz schreibt keine Mindesthöhe dieser Einlagen vor. Die Komplementäre, also die persönlich haftenden Gesellschafter, haften neben der Gesellschaft unmittelbar und unbeschränkt für Verbindlichkeiten, auch mit dem Privatvermögen. Die Kommanditisten haften lediglich beschränkt auf die Höhe ihrer Einlagenverpflichtung. Hat der Kommanditist seine Einlage bereits geleistet, liegt sein Risiko also lediglich darin, dass er diese nicht zurückerhält. Wenn er die Einlage bei einem Haftungsfall noch nicht eingezahlt hat, haftet er persönlich bis zur Höhe der Einlage. Bis zu dieser Höhe besteht die Möglichkeit, auf sein Privatvermögen Zugriff auszuüben. Geschäftsführung und Geschäftsvertretung Bei der KG sind grundsätzlich alle Komplementäre zur Geschäftsführung einzeln berechtigt und verpflichtet, wenn der Gesellschaftsvertrag nichts anderes vorsieht. Dies bedeutet, dass jeder einzeln für die KG handeln und Geschäfte eingehen kann. Die nicht handelnden Komplementäre haben aber ein Widerspruchsrecht, so dass bei Widerspruch die Handlung zu unterbleiben hat. Auch kann wie bei der OHG einem einzelnen Komplementär die Geschäftsführung durch den Gesellschaftsvertrag übertragen werden. Der Geschäftsführer ist befugt, gewöhnliche Geschäfte vorzunehmen und zu entscheiden. Geschäfte, die ungewöhnlich sind oder Grundlagengeschäfte bedürfen der Zustimmung der übrigen Komplementäre. Kommanditisten sind nicht zur Geschäftsführung befugt und haben nur ein Widerspruchsrecht, wenn die Handlung des Geschäftsführers über den gewöhnlichen Betrieb hinausgeht. Auch hinsichtlich der Geschäftsvertretung gilt, dass die KG von allen Komplementären gemeinsam oder einzeln vertreten werden kann. Der Kommanditist hat keine Vertretungsbefugnis. Dies zeigt seine Stellung als reiner Kapitalgeber. Er hat allerdings die Möglichkeit, den Jahresabschluss zu kontrollieren. Weitere überwachende oder beschließende Organe gibt es nicht. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Wenn sich Vermögen ansammelt, so handelt es sich um Gesamthandsvermögen, an dem die Gesellschafter beteiligt sind. Gewinne und Verluste der KG werden eben-

108

4 Rechtliche und organisatorische Grundlagen

falls anteilig auf die Gesellschafter verteilt. Im Gesellschaftsvertrag kann etwas anderes bestimmt werden. Auflösung und Beendigung Die Gesellschaft kann ebenfalls durch Kündigung eines Gesellschafters, durch Beschluss der Gesellschafter, durch Zeitablauf, insoweit die Gesellschaft nur auf Zeit angelegt war, durch Tod eines Komplementärs oder durch gerichtliche Entscheidung wegen Insolvenz aufgelöst und beendet werden. Der Tod eines Kommanditisten hingegen ist kein Auflösungsgrund. Insoweit ein Auflösungserlös vorhanden ist, wird dieser nach Geschäftsanteilen verteilt. 4.1.3.4  GmbH & Co.KG Bei der GmbH & Co. KG handelt es sich um eine Sonderform der KG. Anders als bei einer typischen Kommanditgesellschaft ist der persönlich haftende Gesellschafter (Komplementär) keine natürliche Person, sondern eine Gesellschaft mit beschränkter Haftung (GmbH). Ziel dieser gesellschaftsrechtlichen Konstruktion ist es, Haftungsrisiken für die hinter der Gesellschaft stehenden Personen auszuschließen oder zu begrenzen. Denn Komplementär ist die GmbH und auf deren Gesellschaftsvermögen (mind. 25.000 €) ist die Haftung begrenzt. Die GmbH & Co. KG wird nach außen durch die GmbH vertreten und bei Familienunternehmen fungieren Kommanditisten häufig als Geschäftsführer der GmbH. Die GmbH & Co. KG ist als Rechtsform in Deutschland besonders häufig insbesondere bei Familienunternehmen des Mittelstandes vertreten. Sie kombiniert (oder kombinierte) die oben beschriebenen Haftungsbegrenzungen einer Kapitalgesellschaft mit den steuerlichen Vorteilen einer KG. Durch das Teileinkünfteverfahren (s. Kap. 4.2.2) und weitere Steuerbestimmungen sind die Steuergesetze inzwischen aber so weit harmonisiert worden, dass die Gesamtsteuerbelastung der Anteilseigner bei den unterschiedlichen Rechtsformen nicht mehr wesentlich differiert.

4.1.4  Kapitalgesellschaften 4.1.4.1  Gesellschaft mit beschränkter Haftung (GmbH) Gesetzliche Vorschriften finden sich im GmbH-Gesetz bzw. dem Gesetz zur Modernisierung des GmbH-Rechts und zur Bekämpfung von Missbräuchen (kurz MoMiG genannt). Gründung Die GmbH kann grundsätzlich zu jedem gesetzlich zulässigen Zweck durch eine oder mehrere Personen gegründet werden. Die Formvorgaben sind gegenüber den Personengesellschaften deutlich strikter. So bedürfen der Gründungsvertrag und der

4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen

109

Gesellschaftsvertrag zwingend der notariellen Form und die Gesellschaft muss in das Handelsregister eingetragen werden. Seit 01.11.2008 gilt das neue GmbH-Gesetz, das ein vereinfachtes Verfahren der Gründung einer sog. „Mini-GmbH“ vorsieht, wenn höchstens drei Gesellschafter und ein Geschäftsführer beteiligt sind. Für die Gründung gibt es Musterprotokolle, die bei einem Notar beurkundet werden müssen, bei deren Verwendung geringere Notargebühren anfallen. Zudem wurde die Möglichkeit des Sitzes der Gesellschaft erweitert: Zuvor war der Sitz der Gesellschaft in der Regel der Ort, an dem die Gesellschaft ihren Betrieb hatte. Nach neuem Recht ist der Sitz der Gesellschaft ein beliebiger Ort im Inland, den der Gesellschaftsvertrag bestimmt. Bei der Firmierung ist darauf zu achten, dass der Zusatz GmbH geführt wird. Bei der „Mini GmbH“ muss noch zusätzlich der Zusatz Unternehmensgesellschaft (haftungsbeschränkt) geführt werden. Kapitalausstattung und Haftung Das Mindeststammkapital der Gesellschaft beträgt € 25.000,-. Von diesem Stammkapital müssen zu Beginn mindestens € 12.500,- eingezahlt werden. Neben dieser klassischen Variante der GmbH hat der Gesetzgeber nunmehr die Möglichkeit eröffnet, dass eine “Mini GmbH” zunächst ohne Stammkapital gegründet werden kann. Sie muss allerdings innerhalb der folgenden Jahre ab ihrer Gründung konsequent mindestens 25% des Jahresüberschusses als Rücklagen ansparen bis das Stammkapital von € 25.000,- erreicht ist. Danach kann sie in die klassische Rechtsform der GmbH umgewandelt werden. Nach Eintragung der Gesellschaft haftet das Gesellschaftsvermögen unbeschränkt. Gesellschafter haften nicht privat, sondern nur in Höhe ihres im Gesellschaftsvertrag vereinbarten Gesellschaftsanteils. Geschäftsführung und Geschäftsvertretung Als Geschäftsführer wird vertraglich entweder einer der Gesellschafter oder eine unabhängige dritte Person bestimmt, die die Gesellschaft vertritt. Der Geschäftsführer ist gegenüber dem Beschlussorgan der Gesellschafterversammlung rechenschaftspflichtig. Bei mehr als 500 Beschäftigten bedarf es darüber hinaus eines Aufsichtsrates. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Bei der GmbH handelt sich um eine juristische Person, die ein eigenes Vermögen besitzt. Das Gesetz schreibt vor, dass die Gewinnverteilung entsprechend der Höhe der Geschäftsanteile erfolgt. Eine abweichende Regelung kann allerdings im Gesellschaftsvertrag vereinbart werden. Auflösung und Beendigung Auflösungsgründe sind Zeitablauf, Gesellschafterbeschluss, gerichtliches Urteil u. a. wegen Insolvenz. Liquidatoren sind i. d. R. die/der Geschäftsführer. Da die GmbH keinen persönlich haftenden Gesellschafter besitzt, muss eine GmbH sowohl bei Zahlungsunfähigkeit als auch bei Überschuldung Insolvenz anmelden.

110

4 Rechtliche und organisatorische Grundlagen

Exkurs Limited Company (Ltd.) Bei der Limited handelt es sich um eine nach englischem Recht gegründete Gesellschaftsform, die als Limited in Deutschland erst seit 2003 anerkannt wurde. Vor diesem Zeitpunkt war eine Limited, die in England gegründet worden war, dort aber keine Geschäftstätigkeit entfaltete, sondern ihren Sitz und Hauptverwaltung in Deutschland hatte, in Deutschland ein „rechtliches Nullum“ ohne Rechts- und Parteifähigkeit, da die Gründung nicht den Gründungsvorschriften nach deutschem Recht entsprach. Diese Nichtanerkennung der ausländischen Gesellschaftsform hatte zur Folge, dass die Gesellschafter persönlich unbeschränkt gehaftet haben. Die Europäische Union verpflichtete ihre Mitgliedstaaten nach zwei Entscheidungen des Europäischen Gerichtshofes dazu, auch solche Gesellschaften aufgrund der Niederlassungsfreiheit im Inland anzuerkennen. Die Limited ist am ehesten mit der GmbH vergleichbar. Die Gründung dieser Kapitalgesellschaft ist jedoch sehr viel einfacher, kostengünstiger und schneller zu realisieren. Die Limited benötigt mindestens einen „director“, der die Geschäfte der Gesellschaft leitet und einen „company secretary“, der formelle Aufgaben übernimmt und Verwaltungsangelegenheiten erledigt. Die Gründung erfolgt durch die Eintragung in das Gesellschaftsregister in Großbritannien und durch Aushändigung der Gründungsurkunde durch die englische Behörde. In Deutschland ist die Limited in das Handelsregister einzutragen. Es ist kein Mindestkapital bei der Gründung vorgeschrieben. Die Haftung ist auf das Gesellschaftsvermögen beschränkt. Um unter anderem eine attraktive deutsche Gesellschaftsform als Alternative zur Limited zu schaffen, wurde die Gesellschaftsform der Mini-GmbH eingeführt. Es bleibt abzuwarten, wie diese Alternative angenommen wird. 4.1.4.2  Aktiengesellschaft (AG) Die Gesellschaftsform der Aktiengesellschaft wird besonders für Großunternehmen bevorzugt. Geregelt ist die Aktiengesellschaft in § 1 ff. Aktiengesetz. Zusätzlich können die Vorschriften des eingetragenen Vereins herangezogen werden. Gründung Eine Aktiengesellschaft kann durch eine oder mehrere Personen gegründet werden. Die Gründer haben einen Gesellschaftsvertrag abzuschließen, der notariell zu beurkunden ist. Die Gesellschaft ist in das Handelsregister einzutragen. Der Eintrag erfolgt allerdings erst, wenn das Mindestkapital zur freien Verfügung des Vorstandes eingezahlt wurde. Erst die Eintragung bewirkt, dass die Gesellschaft errichtet ist. Die Aktiengesellschaft ist Handelsgesellschaft und Kaufmann kraft Rechtsform und muss den Zusatz AG in ihrer Firmierung tragen. Kapitalausstattung und Haftung Das Grundkapital einer Aktiengesellschaft beläuft sich auf einen Nennwert von mindestens € 50.000,-.

4.1 Übersicht über die wichtigsten deutschen Gesellschaftsformen

111

Die Gründer verpflichten sich, das Grundkapital durch die Übernahme von Aktien aufzubringen. Eine Aktie ist ein Anteil am Grundkapital. Das Kapital kann durch Bestimmungen in der Satzung erhöht werden. Die AG haftet beschränkt mit der Höhe ihres Gesellschaftsvermögens, d. h. mindestens in Höhe des Grundkapitals. Die Aktionäre haften lediglich in Höhe ihrer Einlage. Geschäftsführung und Geschäftsvertretung Die Aktiengesellschaft wird durch den Vorstand vertreten, der die Geschäfte führt. Seine Vertretungsmacht ist nach außen hin nicht beschränkt. Der Vorstand kann aus einem oder mehreren Mitgliedern bestehen. Bei einem Grundkapital von mehr als 3 Mio. € ist der Vorstand mit mindestens zwei Mitgliedern zu besetzen. Neben dem Vorstand existiert ein Aufsichtsrat, der die Mitglieder des Vorstandes bestellt. Der Aufsichtsrat dient als Kontrollorgan der Aktiengesellschaft und besteht aus mindestens drei Mitgliedern. In der Hauptversammlung üben die Aktionäre ihre Verwaltungsrechte aus. Aktionär wird man durch Erwerb oder Übernahme von Aktien bei der Gründung oder durch die Zeichnung junger Aktien bei einer Kapitalerhöhung und deren Durchführung. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Die AG ist eine juristische Person und hat daher ihr eigenes Vermögen. Die Gesellschafter haben hieran keine direkte Beteiligung. Sie haben lediglich einen Anspruch auf einen Liquidationserlös im Falle der Auflösung. Der Gewinn einer AG wird nach Beschluss der Hauptversammlung als Dividende ausgeschüttet. Auflösung und Beendigung Die Auflösung erfolgt durch Beschluss oder Insolvenz. Da die AG keinen persönlich haftenden Gesellschafter besitzt, muss eine AG sowohl bei Zahlungsunfähigkeit als auch bei Überschuldung Insolvenz anmelden. 4.1.4.3  Kommanditgesellschaft auf Aktien (KGaA) Die Kommanditgesellschaft auf Aktien, oder kurz KGaA, ist eine in der Bundesrepublik Deutschland bislang eher selten vorkommende Rechtsform für Unternehmen. Sie verbindet Elemente der Aktiengesellschaft und der Kommanditgesellschaft miteinander und ist insbesondere für Familienunternehmen interessant, die zwar an der Börse Kapital aufnehmen, aber die Kontrolle über das Unternehmen behalten wollen. Bei der KGaA handelt es sich um eine Aktiengesellschaft, die an Stelle eines Vorstandes über persönlich haftende Gesellschafter (Komplementäre) verfügt. Obwohl die KGaA Merkmale einer Personengesellschaft aufweist, ist sie trotzdem eine Kapitalgesellschaft. Ein Anreiz diese Rechtsform zu wählen besteht vor allem für große Familiengesellschaften, die sich damit Finanzierungsmöglichkeiten durch Nicht-Familien-

112

4 Rechtliche und organisatorische Grundlagen

angehörige oder den Kapitalmarkt erschließen können ohne den bestimmenden Einfluss auf das Unternehmen zu gefährden (bekannte Beispiele sind die Firmen Henkel, Merck und Fresenius) Gründung Neben mind. vier Kommanditisten als Aktionäre, die bloße Kapitalanlagegesellschafter sind, ist eine unbeschränkt geschäftsfähige natürliche Person als voll haftender Komplementär beteiligt. Die Gründung erfolgt durch gerichtlich oder notariell beurkundeten Vertrag mit anschließender erforderlicher Anmeldung zum Handelsregister. Der Zusatz KGaA muss in der Firmenbezeichnung aufgenommen werden. Kapitalausstattung und Haftung Die Kommanditaktionäre stellen das Grundkapital in Höhe von mindestens € 50.000,-. Es gelten die Ausführungen zur AG hinsichtlich der aktienrechtlichen Bestimmungen über die Kapitalaufbringung und –erhaltung sowie über Kapitalmaßnahmen. Die Komplementäre können besondere Einlagen einbringen, die vertraglich geregelt werden können. Die KGaA haftet in voller Höhe mit ihrem Gesellschaftsvermögen. Die Komplementäre haften zudem unbeschränkt mit ihrem Privatvermögen, wohingegen die Kommanditisten als Aktionäre nur mit ihrer Einlage haften. Geschäftsführung und Geschäftsvertretung Die Geschäftsführung und –vertretung übernehmen die Komplementäre insgesamt oder einzeln. Dabei haben sie eine stärkere Stellung als der Vorstand der AG; denn sie müssen grundsätzlich allen außergewöhnlichen Geschäftsführungsmaßnahmen und Grundlagengeschäften zustimmen. Ohne diese geht somit nichts. Der Aufsichtrat ist das überwachende Organ, kann allerdings im Gegensatz zur AG die Geschäftsleitung nicht bestellen und diese auch nicht abberufen. Eigentumsverhältnisse und Gesellschaftervermögen, Gewinn- und Verlustverteilung Als juristische Person besitzt die KGaA eigenes Vermögen, die Gesellschafter sind hieran nicht direkt beteiligt. Auflösung und Beendigung Die Auflösung entspricht den Regelungen der KG. Der Tod eines Kommanditaktionärs ist kein Auflösungsgrund. Liquidatoren sind die Komplementäre und von der Hauptversammlung gewählte Personen. Insoweit ein Auflösungserlös vorhanden ist, wird dieser nach Geschäftsanteilen verteilt. Es ist ersichtlich, dass sich die Unternehmensgründung inmitten einer Fülle von gesetzlichen Vorschriften bewegt. Dadurch ist es nicht immer ganz einfach zu entscheiden, für welche Gesellschaftsform man sich entscheidet. Die Wahl der Rechtsform hat weitreichende Konsequenzen für die Zukunft des Unternehmens. Zwar ist die Entscheidung für die Unternehmensform nicht endgültig, da man die Unternehmens-

4.2 Steuern

113

formen auch wechseln oder ändern kann, wenn sich im Geschäftsleben veränderte Rahmenbedingungen ergeben. Dies ist jedoch mit erheblichem Geld- und Zeitaufwand verbunden. Daher empfiehlt sich bei der Gründung eine detaillierte Analyse.

4.2  Steuern Bereits im vorigen Abschnitt haben wir gesehen, dass steuerliche Aspekte schon bei der Wahl der Rechtsform in der Gründungsphase eines Unternehmens eine wichtige Rolle spielen. So begleiten steuerliche Überlegungen den Manager tagtäglich. Aus diesem Grund soll sich der folgende Abschnitt mit dem Thema Steuern beschäftigen. Allerdings können wir im Rahmen dieses Buches nur generelle Zusammenhänge darstellen. Dazu wird, ausgehend von der jedem bekannten Einkommenssteuer, ein Überblick über die wichtigsten Steuern und ihren grundsätzlichen Aufbau geboten. Sie werden hier umsonst nach guten Steuertipps suchen, aber wenn Sie sich intensiver mit dem Thema Steuern auseinandersetzen möchten, finden Sie im Literaturverzeichnis geeignete Quellen. Leider ist die Gesetzgebung sehr schnelllebig. Die genannten Zahlenwerte und Sachverhalte entsprechen denen zum Zeitpunkt der Drucklegung dieses Buches und können sich im Verlauf der Zeit ändern. Mit Hilfe der angeführten Quellenangaben der Gesetzestexte können Sie aber bei Interesse die jeweils aktuelle Rechtslage leicht herausfinden. Steuern lassen sich unterschiedlich einteilen. Zum Beispiel nach Ihrer Auswirkung in direkte und indirekte Steuern, oder in Ertrags-, Verkehrs- und Substanzsteuern. In Abb. 4.2 ist die Aufteilung in Steuern auf das Einkommen und das Vermögen sowie auf die Verwendung von Einkommen und Vermögen gezeigt. Die Besteuerung erfolgt auf der Grundlage von verschiedenen Rechtsnormen, wie zum Beispiel der Abgabenordnung (AO), dem Einkommen- (EStG) und Umsatzsteuergesetz (UStG), dem Bürgerlichen- (BGB) und Handelsgesetzbuch (HGB). Zusätzlich existieren noch verschiedene Durchführungsverordnungen und Verwaltungsvorschriften wie z. B. die Einkommensteuerrichtlinie (EStR), die die gesetzlichen Vorschriften erläutern. Darüber hinaus hat die laufende Rechtsprechung einen wesentlichen Einfluss auf die deutsche Steuergesetzgebung.

4.2.1  Einkommensteuer Beginnen wir mit der, jedem durch die monatliche Verdienstabrechnung bekannten, Einkommensteuer. Dieser unterliegen alle natürlichen Personen. Neben dem einfachen Arbeitnehmer sind so z. B. auch Einzelgewerbetreibende, Personengesellschaften und freiberuflich Tätige einkommensteuerpflichtig. Als Bemessungsgrundlage dient das zu versteuernde Einkommen, welches nach dem Schema in Tab. 4.1 ermittelt wird. Bei der Ermittlung wird zwischen drei Gewinn- und vier Überschusseinkunftsarten unterschieden. Der Gewinn wird dabei durch einen Be-

114

4 Rechtliche und organisatorische Grundlagen

Abb. 4.2   Einordnung verschiedener Steuerarten

Tab. 4.1   Ermittlung der Einkünfte (nach Beeck 2007) Grundschema zur Ermittlung des zu versteuernden Einkommens ohne Berücksichtigung des Verlustausgleichs Gewinneinkünfte 1. Einkünfte aus Land- und Forstwirtschaft 2. Einkünfte aus Gewerbebetrieb 3. Einkünfte aus selbständiger Arbeit

EStG §§ 13 ff. §§ 15 ff. § 18

Überschusseinkünfte 4. Einkünfte aus nichtselbständiger Arbeit 5. Einkünfte aus Kapitalvermögen 6. Einkünfte aus Vermietung und Verpachtung 7. Sonstige Einkünfte

§§ 19 f. § 20 § 21 §§ 22 ff.

= ./.

Summe der Einkünfte Altersentlastungsbetrag

§ 24a

= ./. ./. ./.

Gesamtbetrag der Einkünfte Verlustabzug Sonderausgaben Außergewöhnliche Belastungen

§ 10d §§ 10 ff. §§ 33 ff.

= ./. ./.

Einkommen Freibeträge der Kinder Haushaltsfreibetrag

§§ 31 f. § 32

=

Zu versteuerndes Einkommen

4.2 Steuern

115

triebsvermögensvergleich bestimmt. Gerade für kleine Gewerbetreibende und freiberuflich Tätige bietet sich die einfachere Einnahmen-Überschuss-Rechnung an. Dabei wird der Gewinn als Differenz der Einnahmen und Ausgaben ermittelt. Bei den vier Überschusseinkünften wird die Differenz aus Einkommen und Werbungskosten berechnet. Dabei haben die Werbungskosten nichts mit Werbung zu tun, sondern es handelt sich vielmehr um Ausgaben oder Aufwendungen, die zum Erhalt, zur Sicherung und zum Erwerb der Einnahmen dienen. Diese können entweder durch Inanspruchnahme eines pauschalen Betrages, dem sogenannten Werbungskostenpauschbetrag oder durch Einzelnachweis geltend gemacht werden. Die gesetzlichen Regelungen hierzu sind in den §§ 9, 9a EStG zu finden. Eine detaillierte Beschreibung zur Ermittlung der Einkünfte findet sich bei Beeck (2007). Neben Einzelgewerbetreibenden fallen auch die Gewinne von Personengesellschaften unter die Einnahmen aus Gewerbebetrieb. Allerdings ist nicht die Personengesellschaft selbst steuerpflichtig, sondern der Gewinn muss von den Gesellschaftern versteuert werden. Verbleibt der Gewinn zur Kapitalerhöhung im Unternehmen, so muss der Unternehmer auf Antrag den Gewinn nur mit 28,25% statt mit seinem persönlichen Steuersatz versteuern. Erfolgt eine spätere Entnahme muss der Betrag allerdings mit 25% zzgl. Solidaritätszuschlag nachversteuert werden. Dagegen fallen Einnahmen als freiberuflich Tätiger unter Einkünfte aus selbständiger Arbeit. Der Arbeitslohn eines Arbeitnehmers gilt als Einkunft aus nichtselbständiger Arbeit. Hierzu zählen auch geldwerte Vorteile aus Sachbezügen, wie z. B. die private Nutzung eines Dienstwagens. Zu den Einkünften aus Kapitalvermögen zählen alle Einnahmen aus Anlagen von Eigen- oder Fremdkapital. Dazu gehören neben Zinseinkünften also auch Dividenden aus der Beteiligung an Kapitalgesellschaften. Genauso fallen Anlagen in Investmentfonds oder stille Einlagen hierunter. Aber auch hier gibt es einen Freibetrag und die Möglichkeit der Geltendmachung von Werbungskosten. Seit 2009 zählen auch Gewinne aus der Veräußerung von Beteiligungen, also z. B. der Verkauf von Aktien, zu den Kapitaleinkünften. Für alle diese Einkünfte aus Kapitalvermögen gilt ein einheitlicher Steuersatz von 25% zuzüglich Solidaritätszuschlag und Kirchensteuer. Nachdem alle Einkunftsarten separat ermittelt wurden, werden diese addiert. Dabei ist der Ausgleich von Verlusten möglich. Danach werden diverse Posten, wie in Tab. 4.1 gezeigt abgezogen. Erwähnt seien an dieser Stelle die Sonderausgaben. Hierbei handelt es sich um einige wenige private Aufwendungen, die durch den Gesetzgeber gefördert werden. Hierzu zählen zum Beispiel Vorsorgeaufwendungen, Beiträge zur Altersvorsorge, die gezahlte Kirchensteuer und bestimmte Spenden. Eine vollständige Aufzählung findet sich in den §§ 10ff. EStG. Ist das zu versteuernde Einkommen bestimmt, so errechnet sich durch Multiplikation mit dem Einkommensteuertarif (§ 32a Abs. 1 EStG) die tarifliche Einkommensteuer. Bei dem Tarif handelt es sich um eine in fünf Abschnitte unterteilte Funktion. Oberhalb eines Grundfreibetrages von derzeit 7.834 € (ab 2010 8.004 €) steigt der Steuersatz rasch von 14% auf 24%. Danach wird die Steigerung in zwei Schritten geringer, bis bei einem Betrag von 52.152 € der Maximalsteuersatz von 42% erreicht ist. Oberhalb eines Einkommens von 250.000 € sind dann noch einmal weitere 3% Abgaben fällig. Abbildung 4.3 zeigt den Grenz- und den Durchschnittsteuersatz.

116

4 Rechtliche und organisatorische Grundlagen

Abb. 4.3   Verlauf des Grenz- und Durchschnittsteuersatzes

Verheiratete haben die Möglichkeit, Ihre Einkommensteuer zusammen zu veranlagen. Hierbei wird aus den Einkünften beider Partner der Mittelwert gebildet. Dieser wird als Bemessungsgrundlage für die Steuerschuld herangezogen, welche schließlich verdoppelt wird, um die Gesamtsteuerschuld des Ehepaares zu berechnen. Um gewerbesteuerliche Nachteile für Einzelunternehmer und Gesellschafter einer Personengesellschaft auszugleichen, ist die gezahlte Gewerbesteuer auf die Einkommensteuer anrechenbar (§ 35 EStG). Für den Anteil der Einkünfte aus Gewerbebetrieb kann der 3,8fache Satz der Gewerbesteuermesszahl von derzeit 3,5% von der tariflichen Einkommensteuer abgezogen werden. Zwar handelt es sich bei der Einkommensteuer um eine Jahressteuer, jedoch erfolgt die Entrichtung schon während des laufenden Jahres. Bei Arbeitslohn und Kapitalerträgen wird der Steueranteil vom Arbeitgeber einbehalten und direkt an das Finanzamt abgeführt. In den anderen Fällen sind quartalsweise zu festgesetzten Terminen Vorauszahlungen auf Grundlage der letzten Veranlagung zu entrichten. Mit der Einkommensteuer alleine ist es aber noch nicht getan. Vielmehr bildet sie die Bemessungsgrundlage von zwei weiteren Abgaben. Dies sind zum einen der Solidaritätszuschlag von 5,5% und zum anderen die Kirchensteuer von 8% bzw. 9%, je nach Bundesland.

4.2.2  Körperschaftsteuer Für die Besteuerung von juristischen Personen (z. B. Kapitalgesellschaften), die ja von der Einkommensteuer nicht erfasst werden, existiert die Körperschaftsteuer. Befindet sich die Geschäftsleitung oder der Sitz in Deutschland, so sind sämtliche

4.2 Steuern

117

Tab. 4.2   Ermittlung des Einkommens für Kapitalgesellschaften (nach Beeck 2007) Grundschema zur Ermittlung des zu versteuernden Einkommens für Kapitalgesellschaften Jahresüberschuss bzw. –fehlbetrag lt. Handelsbilanz + ./. Korrekturen zur Anpassung der Handels- an die Steuerbilanz + nichtabziehbare Betriebsausgaben + sämtliche Spenden ./. Steuerfreie Betriebseinnahmen + Verdeckte Gewinnausschüttungen ./. Verdeckte Einlagen ./. Abziehbare Spenden + Nichtabziehbare Aufwendungen nach § 10 KStG ./. Erstattung nichtabziehbarer Aufwendungen

+ ./.

Zwischensumme Gewinnabführungen ./. Verlustübernahmen aufgrund eines Organschaftverhältnisses Zuzurechnendes Einkommen von Organgesellschaften

=

Einkünfte aus Gewerbebetrieb

= ./.

Gesamtbetrag der Einkünfte Verlustabzug nach § 10d EStG

=

Zu versteuerndes Einkommen

= + ./.

§ 60 EStDV §§ 3c, 4 EstG §§ 8, 8a KStG § 9 KStG

in- und ausländische Einkünfte unbeschränkt steuerpflichtig. Für die Ermittlung der Körperschaftsteuer gelten grundsätzlich die Vorschriften des Einkommensteuergesetzes. Diese werden aber durch zusätzliche Vorschriften aus dem Körperschaftsteuergesetz ergänzt. Kapitalgesellschaften können jedoch ausschließlich Einkünfte aus Gewerbebetrieb erzielen. Die Ermittlung des zu versteuernden Einkommens erfolgt nach dem Schema aus Tab. 4.2. Ausgangspunkt ist stets das Ergebnis der Handelsbilanz. Jedoch sind, wie in der Tabelle gezeigt, eine Reihe von Korrekturen notwendig. Die Höhe der Kapitalsteuerschuld berechnet sich einfach mit einem einheitlichen Steuersatz von 15%. Zusätzlich wird auch hier noch ein Solidaritätszuschlag von 5,5% der Körperschaftsteuerschuld erhoben. Eine erhebliche steuerliche Belastung würde sich somit bei der Ausschüttung von Gewinnen einer Kapitalgesellschaft ergeben, da die Gewinne zunächst mit dem Körperschaftsteuersatz versteuert werden müssen und die Ausschüttung beim Empfänger zu Einnahmen führt, die ebenfalls versteuert werden müssen. Um diese Doppelbesteuerung zu vermeiden, existiert das sogenannte Teileinkünfteverfahren (früher: Halbeinkünfteverfahren). Dies besagt, dass diese Ausschüttungen nur zu einem Teil von 60% steuerpflichtige Einnahmen aus Kapitalvermögen beim Empfänger verursachen.

4.2.3  Gewerbesteuer Für Gewerbetreibende ist neben der Einkommen- oder Körperschaftsteuer eine weitere Abgabe, nämlich die Gewerbesteuer zu entrichten. Hierbei handelt es sich

118

4 Rechtliche und organisatorische Grundlagen

um eine betriebliche Steuer, deren Bemessungsgrundlage der Gewinn des Unternehmens ist. Freiberufler haben hier eine besondere Stellung, da sie nicht gewerbesteuerpflichtig sind. Somit sind Kapitalgesellschaften, Genossenschaften, Personengesellschaften und Einzelunternehmer steuerpflichtig, jedoch ist eine Vielzahl von Gewerbetreibenden nach § 3 GewStG befreit. Von Seiten der Unternehmer steht die Gewerbesteuer stets in der Kritik, da eine vergleichbare Steuer in nur wenigen Ländern der EU existiert. Die Höhe der Gewerbesteuer unterscheidet sich je nach Standort des Unternehmens, da die Gemeinden eigenverantwortlich den so genannten Hebesatz festlegen können. Darüber hinaus existieren noch andere Kritikpunkte, die hier jedoch nicht weiter behandelt werden sollen (vgl. Beeck 2007; Djanani et al. 2008). Wie wird aber nun die Höhe der Gewerbesteuer ermittelt? Ausgangspunkt ist der Gewinn aus Gewerbeertrag, welcher dem Posten Jahresüberschuss aus der Gewinn- und Verlustrechnung entspricht, zuzüglich gewisser nicht abzugsfähiger Betriebsausgaben. Durch verschiedene Hinzurechnungen, Kürzungen und den Verlustabzug ergibt sich erst die eigentliche Bemessungsgrundlage, der Gewerbeertrag. Einzelunternehmen und Personengesellschaften erhalten noch einen Freibetrag in Höhe von 24.500 €, der den zu versteuernden Gewerbeertrag mindert. Tab. 4.3 zeigt das Vorgehen in einer Übersicht. Multipliziert man nun den Gewerbeertrag mit der Steuermesszahl von 3,5%, so erhält man den Steuermessbetrag. Dieser wird wiederum mit dem von der Gemeinde festgelegten Hebesatz (dieser liegt üblicherweise zwischen 200% und 500%) multipliziert und es ergibt sich der Betrag der zu entrichtenden Gewerbesteuer. Dieser Betrag wird dann mit den bereits während des Jahres geleisteten Vorauszahlungen verrechnet. Wie auch schon bei der Einkommensteuer müssen die Vorauszahlungen quartalsweise zu festgelegten Terminen geleistet werden. Auch hier wird die Höhe auf Grundlage der letzten Veranlagung zu je einem Viertel auf die Quartale aufgeteilt. Sehen wir uns diesen Sachverhalt zur Verdeutlichung noch in einem kurzen Beispiel an: Die Müller KG erwirtschaftete im vergangenen Jahr einen Gewerbeertrag von 100.000 €. Da es sich um eine Personengesellschaft handelt, steht Ihr ein Freibetrag von 24.500 € zu. Somit beläuft sich der gekürzte Gewerbeertrag auf 75.500 €. Tab. 4.3   Grundschema zur Ermittlung der Gewerbesteuer Gewinn aus Gewerbebetrieb

§§ 4,5 EStG

+ ./. ./.

Hinzurechnungen Kürzungen Verlustabzug

§ 8 GewStG § 9 GewStG § 10a GewStG

= ./.

Gewerbeertrag Freibetrag nach Unternehmensform

§ 7 GewStG § 11 GewStG

= X

Gekürzter Gewerbeertrag Steuermesszahl

§ 11 GewStG

= X

Steuermessbetrag Hebesatz der Gemeinde

§ 11 GewStG

=

Gewerbesteuer

4.2 Steuern

119

Mit der Steuermesszahl von 3,5% multipliziert ergibt sich ein Steuermessbetrag von 2.642,50 €. Gehen wir nun von einem in Städten üblichen Hebesatz von 410% aus, so ergibt sich für unsere KG eine Steuerschuld von 10.834,25 €. Würde es sich bei unserem Unternehmen um eine Kapitalgesellschaft, also beispielsweise die Müller GmbH handeln, so würde sich die Steuerlast durch den Wegfall des Freibetrages auf 14.350 € erhöhen.

4.2.4  Umsatzsteuer Zuletzt wollen wir uns noch die Umsatzsteuer genauer ansehen. Bekannter hierfür ist die Bezeichnung Mehrwertsteuer. Im Gegensatz zu den vorher betrachteten Abgaben gehört die Umsatzsteuer zu den sogenannten Verkehrsteuern und ist wirtschaftlich gesehen eine allgemeine Verbrauchsteuer. Der Steuersatz beträgt derzeit 19%. Für einige Warengruppen, wie z. B. Lebensmittel, Verlagserzeugnisse und Kunstgegenstände, gilt ein ermäßigter Satz von 7%. Die Höhe der Umsatzsteuer muss auf Rechnungen gesondert ausgewiesen sein, lediglich bei Rechnungsbeträgen unter 150 € kann dies entfallen. Hier muss nur der angewendete Steuersatz vermerkt sein. Bei dieser Steuer trägt der Endverbraucher die volle Steuerlast. Allerdings wird der volle Betrag vom Verkäufer nicht auf einmal an das Finanzamt abgeführt, sondern von den Zwischenhändlern in Teilbeträgen. Die Umsatzsteuer ist für Unternehmen also teilweise ein Durchlaufposten. D. h. es wird zwar beim Einkauf von Waren eine Umsatzsteuer an den Verkäufer entrichtet, diese wird aber als Vorsteuer von der Umsatzsteuerschuld wieder abgezogen. Ein Beispiel soll dies noch verdeutlichen. Unsere bereits bekannte Müller KG kauft für die Herstellung eines Produktes von einem Zulieferer verschiedene Bauteile im Wert von 119 €. Dabei beträgt der eigentliche Warenwert 100 € und die Umsatzsteuer 19 €. Nach dem Zusammenbau wird das fertige Produkt zu einem Preis von 357 € an einen Endverbraucher verkauft. Somit beträgt der Netto-Warenwert 300 € und die Umsatzsteuer 57 €, die vom Endverbraucher in vollem Umfang gezahlt wird. Die Müller KG ist nun verpflichtet diese Umsatzsteuer an das Finanzamt abzuführen. Da sie jedoch selbst 19 € Umsatzsteuer für den Erwerb der Bauteile bezahlt hat, wird dieser Betrag als Vorsteuer von den 57 € abgezogen und die Müller KG muss nur 38 € abführen. Die restlichen 19 € werden vom Zulieferer an das Finanzamt gezahlt. Hat dieser auch die Möglichkeit die Vorsteuer abzuziehen, läuft es dort analog zum beschriebenen Vorgehen ab. Besonders für Kleinunternehmer ist der Verwaltungsaufwand im Zusammenhang mit der Umsatzsteuer sehr hoch. Aus diesem Grund sind nach § 19 UStG Unternehmer, die im Vorjahr weniger als 17.500 € Umsatz und im laufenden Jahr vermutlich weniger als 50.000 € Umsatz erwirtschaften, von der Umsatzsteuerpflicht befreit. Das heißt, der Kleinunternehmer muss für seine Lieferungen und Leistungen keine Umsatzsteuer abführen, ist aber somit auch nicht zum Vorsteuerabzug oder zum gesonderten Ausweis der Umsatzsteuer auf der Rechnung berechtigt.

120

4 Rechtliche und organisatorische Grundlagen

4.3  Kleine Vertragskunde Im Abschnitt 4.1 wurden wir bei Rechtsformen von Unternehmen bereits mit dem Einfluss der rechtlichen Randbedingungen auf die Ausgestaltung der Gesellschaftsform konfrontiert. So bestimmen gesetzliche Regelungen, wer die Unternehmensführung und damit die rechtlich bindende Vertretung des Unternehmens übernehmen kann oder muss. In Deutschland wird jedes Jahr eine unüberschaubare Anzahl neuer Gesetze, Verordnungen, Regelungen, Vorschriften, Ausführungsbestimmungen etc. erlassen. Das Gebiet der rechtlichen Regelungen ist folglich unendlich groß und kann in diesem Buch nur auszugsweise dargestellt werden. Wir beschränken uns an dieser Stelle daher auf den Vertrag, der die Grundlage allen gemeinsamen wirtschaftlichen Handelns darstellt. Nach einem allgemeinen Überblick über unterschiedliche Vertragsformen folgt eine Erläuterung, wie Verträge zustande kommen, womit wir auch ein wenig juristisches Gespür dafür vermitteln wollen, was man generell bei einem Vertragsschluss beachten sollte. Des Weiteren werden auch die Möglichkeiten der Vertragslösung aufgezeigt und ein Überblick über das Vertragsmanagement im Allgemeinen gegeben. Eine grundlegende Kenntnis hiervon ist für Führungskräfte aller Bereiche, für Betriebswirte wie auch Ingenieure, sowie für wirtschaftsberatende Freiberufler notwendig, da deren betriebswirtschaftliches, wirtschaftsberatendes bzw. ingenieurpraktisches Handeln nicht im regelungsfreien Raum stattfindet. Denn was nutzen gute Geschäfte, wenn sie rechtlich nicht haltbar sind und zu Streitigkeiten, Forderungsausfällen, Haftungsfällen, Mehrkosten und damit zu großem Ärger führen. Rechtsanwälte empfehlen Nichtjuristen bei der Abfassung von Verträgen vor allem darauf zu achten, dass Leistung und Gegenleistung, sowie Ort und Zeitpunkt der Leistungserbringung exakt beschrieben werden und nach Möglichkeit zwecks der besseren Nachweisbarkeit mündliche Absprachen exakt und detailliert schriftlich fixiert werden, da Ungenauigkeiten und Unvollständigkeiten zu folgenschweren Streitigkeiten führen können.

4.3.1  Vertragsformen Im Bürgerlichen Recht herrscht der Grundsatz der Privatautonomie, d. h. jeder Einzelne kann bzw. soll seine Lebensverhältnisse und Rechtsbeziehungen eigenverantwortlich regeln und gestalten. Jeder vermag daher Rechte und Pflichten zu begründen, zu ändern, aufzugeben sowie im Rahmen des Gesetzes und der Rechtsprechung eigenverantwortlich zu handeln. Ob man also eine Gesellschaft gründet, ein Geschäft eröffnet, Mitarbeiter einstellt und mit wem man Geschäfte abschließt ist grundsätzlich die eigene Entscheidung. Dies nennt man Abschlussfreiheit. Auch kann man den vertraglichen Inhalt insoweit frei festlegen und von gesetzlichen Vorschriften abweichen, insoweit die gesetzlichen Regelungen dispositiv sind, d. h.

4.3 Kleine Vertragskunde

121

Abb. 4.4   Die verschiedenen Arten von Verpflichtungsverträgen

nicht als zwingende Regelungen vom Gesetzgeber vorgeschrieben sind. Dies nennt man Inhalts- oder Gestaltungsfreiheit. Zwingendes Recht sind u. a. das Arbeitsrecht, weite Teile des Wohnraummietrechts, das Recht über die Inhaltsbestimmungen der Allgemeinen Geschäftsbedingungen, das Sachen-, Familien- und Erbrecht. Darüber hinaus hat der Gesetzgeber für besonders wichtige und häufig vorkommende Vertragstypen gesetzliche Bestimmungen im Bürgerlichen Gesetzbuch (BGB) vorgegeben, die dann vornehmlich eingreifen sollen, wenn keine eigenständigen, individuellen Regelungen zwischen den Vertragspartnern bestehen. Die meisten Verträge legen entweder nur einer Vertragspartei (einseitig verpflichtende Verträge) oder beiden Vertragsparteien (zweiseitig verpflichtende Verträge) bestimmte Leistungspflichten auf. Diese Verpflichtungsverträge (s. Abb. 4.4) werden dem Schuldrecht zugeordnet. Die Arten von Schuldverträgen unterteilen sich in Übertragungsverträge (z. B. Kaufvertrag, Tauschvertrag), Dienstleistungsverträge (z. B. Dienstvertrag, Werkvertrag, Geschäftsbesorgungsvertrag, Verwahrungsvertrag, Maklervertrag) und Gebrauchsüberlassungsverträge (Miete, Pacht, Gelddarlehen). 4.3.1.1  Übertragungsverträge Übertragungsverträge wie z. B. der Kaufvertrag verpflichten eine Vertragspartei der anderen Vertragspartei gegen Zahlung eines Kaufpreises bestimmte Vermögensgegenstände, insbesondere das Eigentum an Sachen zu verschaffen. Beim Tausch werden Vermögensgegenstände lediglich ausgetauscht und jeweils das Eigentum daran verschafft. Kaufvertrag Der Kauf ist das am häufigsten vorkommende Rechtsgeschäft und wird in den §§ 433 ff. BGB geregelt. Für Handelskäufe existieren darüber hinaus Sondervorschriften in den §§ 373 ff. HGB, die für Vertragsparteien mit Kaufmannseigenschaf-

122

4 Rechtliche und organisatorische Grundlagen

ten gelten. Bei grenzüberschreitenden Kaufverträgen, ist UN-Kaufrecht anzuwenden, sofern die Länder der Vertragsparteien diesem Abkommen beigetreten sind. Beim Kaufvertrag handelt es sich um einen gegenseitigen Vertrag, der den Verkäufer dazu verpflichtet eine bestimmte Ware dem Käufer zu übergeben, so dass dieser tatsächlich über die Sache verfügen kann und ihm das Eigentum daran zu verschaffen. Der Käufer wird dazu verpflichtet, den Kaufpreis an den Verkäufer zu bezahlen und die Ware abzunehmen. Der Kauf kommt zustande, wenn sich Verkäufer und Käufer über den Kaufgegenstand und den Preis geeinigt haben. Er bedarf in der Regel keiner bestimmten Form, muss also weder schriftlich noch notariell geschlossen werden. Wichtige Ausnahme von dieser Formfreiheit bildet der Kaufvertrag über ein Grundstück, welcher notariell abgeschlossen werden muss. Beim Handelskauf trifft den Käufer bei Erhalt der Warenlieferung neben der Abnahme und der Kaufpreiszahlung eine zusätzliche wichtige Verpflichtung. Er muss nach Lieferung diese unverzüglich, d. h. innerhalb von drei bis fünf Geschäftstagen auf einen Qualitätsmangel, Quantitätsmangel oder eine Artabweichung überprüfen und unverzüglich rügen, um seine Gewährleistungsrechte gegenüber dem Verkäufer nicht zu verlieren. Ein Qualitätsmangel liegt vor, wenn z. B. die Ware verdorben ist. Bei einem Quantitätsmangel werden z. B. anstatt 10 Zentner Kartoffeln nur 7 Zentner geliefert. Von einer Artabweichung spricht man, wenn man z. B. Fernseher der Marke Sony bestellt hat, aber solche der Marke Samsung erhält. Bei einer Lieferung einer größeren Warenmenge die i. d. R. gut verschlossen ist, bedeutet die unverzügliche Untersuchungs- und Rügepflicht, dass Stichproben innerhalb von drei bis fünf Geschäftstagen zu nehmen sind, wobei 4% der Gesamtmenge als ausreichend angesehen werden. Die Rechtsprechung entscheidet allerdings nach Einzelfällen, so ist es ausreichend, wenn von 2.000 Pilzkonservendosen fünf durch Öffnen überprüft werden, bei einer Bestellung von zehn Dosen, genügt es, wenn man den äußeren Eindruck überprüft. Verstößt man gegen die Untersuchungs- und Rügepflicht, gilt die Ware als genehmigt. Stellt sich später heraus, dass die Ware verdorben ist, kann man diese nicht mehr zurückgeben und unverdorbene Ware dafür erhalten. Der Kaufpreis ist trotzdem zu entrichten. Wird weniger geliefert als bestellt, entfällt der Anspruch auf Nachlieferung, der vereinbarte Preis muss jedoch in voller Höhe bezahlt werden. Erfolgte eine Falschlieferung, so gilt diese als genehmigt. Auch wenn diese weniger wert ist als die eigentlich bestellte Ware, muss der vereinbarte Preis bezahlt werden. Ist sie jedoch wertvoller, ist sogar der höhere Preis zu bezahlen. Also Augen auf beim Handelskauf! 4.3.1.2  Gebrauchsüberlassungsverträge Gebrauchsüberlassungsverträge verpflichten eine Vertragspartei, ihr gehörende Sachen oder Geldkapital der anderen Partei auf Zeit zur Nutzung zu überlassen.

 

int. Bez.: CISG  =  United Nations Convention on Contracts for the International Sale of Goods

4.3 Kleine Vertragskunde

123

Überlassungsverträge sind u. a. der Mietvertrag, der Pachtvertrag, die Leihe oder das Darlehen. Der Mietvertrag nach §§ 535 ff. BGB verpflichtet den Vermieter zur entgeltlichen Gebrauchsüberlassung einer Sache auf Zeit. Der Mieter ist im Gegenzug dazu verpflichtet, die vereinbarte Miete zu bezahlen. Wenn eine Sache dagegen unentgeltlich überlassen wird, spricht man von Leihe, §§ 598 ff. BGB. Vertragsgegenstände können sowohl bewegliche als auch unbewegliche Sachen sein, sowie Sachgesamtheiten oder Sachteile, Räume und im Schiffsregister eingetragene Schiffe. Der Mietvertrag ist ein Dauerschuldverhältnis und grundsätzlich formfrei. Während der Mietzeit hat der Vermieter die Mietsache in einem vertragsgemäßen Zustand zu erhalten. Grundsätzlich ist er für sämtliche erforderlichen Instandhaltungsarbeiten und Reparaturen verantwortlich, wenn diese Arbeiten nicht vertraglich wirksam auf den Mieter abgewälzt wurden. Der Mieter ist während der Mietzeit verpflichtet, Mängel an der Mietsache dem Vermieter anzuzeigen, damit dieser schnellstmöglich diese Mängel beheben kann, z. B. Schimmel an der Wand wegen schlechter Isolierung. Pacht nennt man eine Gebrauchsüberlassung mit dem Recht der Fruchtziehung, §§ 581 ff. BGB. So kann z. B. der Pächter eines landwirtschaftlichen Betriebes den Pachtgegenstand nutzen, um Getreide oder Obst zu ernten und durch deren Verkauf Profit zu erzielen. Es wird also neben der reinen Gebrauchsüberlassung, wie sie im Mietvertrag vorgesehen ist, dem Pächter durch den Verpächter gestattet, sich alle Früchte anzueignen und mit diesen nach seinem Willen zu verfahren. Das Wesen des Darlehensvertrages besteht darin, dass der Darlehensgeber dem Darlehensnehmer Geld oder eine andere vertretbare Sache überlässt und der Darlehensnehmer ihm das Empfangene in Sachen gleicher Art, Menge und Güte zurückerstattet. Das BGB regelt die Darlehensverträge in den §§ 488 ff. und §§ 607 ff. Beispiele: Die Nachbarin entleiht 6 Eier für Käsespätzle und verspricht diese schnellstmöglich zurück zu geben; die Bank gewährt Herrn Müller 2.000 € als Darlehen mit einer jährlichen Verzinsung von 8%, fällig jeweils zum 31.12., ein Rückzahlungstermin wurde nicht vereinbart. Ob eine Verzinsung vereinbart wurde oder nicht, ändert an der Einstufung als Darlehen grundsätzlich nichts. Sind aber Zinsen vereinbart, sind diese zum vereinbarten Zeitpunkt zu erstatten. Ist ein Fälligkeitszeitpunkt für die Rückzahlung oder Rückerstattung eines Darlehens nicht bestimmt, so hängt die Rückzahlung von der Kündigung des Darlehens ab. 4.3.1.3  Dienstleistungsverträge Dienstleistungsverträge verpflichten einen Vertragspartner zur Erbringung bestimmter Dienste gegen die Zahlung einer angemessenen Vergütung. Die Art der Verpflichtung bestimmt die Zuordnung zu den einzelnen im Folgenden beschriebenen Dienstleistungsverträgen. Bei einem Dienstvertrag kommt es nur auf eine fachgerechte Tätigkeit als solche an, es wird nur der Arbeitseinsatz und nicht der Erfolg geschuldet (s. § 611 ff. BGB). Der Dienstverpflichtete hat die vereinbarte Leistung zu erbringen und der

124

4 Rechtliche und organisatorische Grundlagen

Dienstherr diese zu vergüten. Es gibt selbständige und unselbständige Dienstverhältnisse. Bei selbständigen Dienstverhältnissen bleibt der Dienstpflichtige persönlich und wirtschaftlich unabhängig, er kann also seine Tätigkeit im Wesentlichen frei gestalten und seine Arbeitszeit einteilen. Bsp.: Dauernde Beratung durch einen Rechtsanwalt, Behandlung durch einen Arzt. Bei unselbständigen Dienstverhältnissen ist der Dienstpflichtige weisungsgebunden, er kann also weder Inhalt, Zeit und Ort seiner Dienste frei bestimmen. Hierunter fällt das Arbeitsverhältnis. Wurde im Vertrag die Höhe der Vergütung nicht eindeutig bestimmt, so ist beim Bestehen einer Gebührenordnung die entsprechende Vergütung geschuldet, ansonsten die übliche Vergütung als vereinbart anzusehen. Beispiel: RVG = Rechtsanwaltsvergütungsgesetz, GOÄ = Gebührenordnung für Ärzte. Bei einem Werkvertrag verpflichtet sich der Unternehmer zur Herbeiführung eines bestimmten Erfolges, wie die Herstellung eines Werkes geistiger oder körperlicher Art. Der Besteller verpflichtet sich zur Zahlung der vereinbarten Vergütung und der Abnahme des Werkes. Der Werkvertrag ist in den §§ 631 ff. BGB geregelt. Beispiele hierfür sind die Errichtung eines Hauses oder die Reparatur einer Maschine. Haben sich die Vertragsparteien über die Vergütung nicht explizit geeinigt, so kommt der Vertrag trotzdem zustande, da der Gesetzgeber in § 632 BGB dann davon ausgeht, dass die übliche Vergütung als stillschweigend vereinbart gilt. Grundsätzlich ist der Unternehmer vorleistungspflichtig ehe er seinen Werklohn beanspruchen kann. Gem. § 632a BGB kann er für in sich abgeschlossene Teile des Werkes vom Besteller allerdings Abschlagszahlungen verlangen. Der Unternehmer hat das vereinbarte Werk fehlerfrei herzustellen und muss für seine Sach- und Fachkunde einstehen. Der Besteller muss das vertragsgemäß hergestellte Werk abnehmen und die Vergütung bezahlen. Hat der Unternehmer im Voraus kein verbindliches Preisangebot unterbreitet, sondern nur einen Kostenvoranschlag, so dürfen die tatsächlich abgerechneten Kosten diesen Kostenvoranschlag um nicht mehr als 20% überschreiten. Der Werklieferungsvertrag wird vom Gesetzgeber in § 651 BGB geregelt. Auf ihn sind allerdings kaufvertragliche Vorschriften anzuwenden, wenn der Verkäufer von ihm selbst hergestellte Waren vertreibt. Handelt es sich allerdings um ein maßangefertigtes Endprodukt, das letztlich veräußert werden soll, so ist der Vertrag dem Werkvertrag zuzuordnen. Der Geschäftsbesorgungsvertrag wird geschlossen, wenn die Dienstleistung auf die Besorgung eines Geschäftes abzielt, das dem Auftraggeber obläge. Beispiele hierfür sind insbesondere Wahrnehmung von Vermögensinteressen, wie Vermögensverwaltung und Bankgeschäften. Die Geschäfte werden gegen Entgelt für den Auftraggeber erledigt. Ein Verwahrungsvertrag wird geschlossen, wenn die Dienstleistungen in der Aufbewahrung fremder Sachen gegen Entgelt liegen. Der Beratervertrag ist im Gesetz nicht als Vertrag geregelt, dieser ist entweder ein Dienstvertrag, Werkvertrag oder Geschäftsbesorgungsvertrag. Bei der Zuordnung kommt es auf den Vertragsgegenstand an, also was zwischen den Parteien als Vertragsinhalt vereinbart wurde. Der Beratervertrag ist ein Dienstvertrag, wenn le-

4.3 Kleine Vertragskunde

125

diglich sorgfältige, sachlich kompetente Beratung als solche geschuldet ist. Hat der Berater allerdings über die Beratungstätigkeit hinaus noch geistige Werke in Form von Exposés, Plänen und dergleichen zu erstellen, so wird der Beratervertrag nach den werkvertraglichen Vorschriften behandelt. Umfasst der Beratervertrag zusätzlich noch die Wahrnehmung von Vermögensangelegenheiten des Auftraggebers, liegt ein Geschäftsbesorgungsverhältnis vor.

4.3.2  Zustandekommen eines Vertrages Jeder Vertrag kommt durch die Einigung der Vertragsparteien über den wesentlichen Inhalt des Geschäfts zustande. Diese Einigung besteht aus zwei übereinstimmenden Willenserklärungen, dem sogenannten Angebot und der Annahme (s. Abb. 4.5). Die Willenserklärung ist eine Äußerung eines rechtlich erheblichen Willens, die auf einen rechtlichen Erfolg abzielt. Sie besteht aus einem inneren Willen und einem äußeren Willen. Der innere Wille besteht aus dem Handlungswillen, Erklärungsbewusstsein und Geschäftswillen. Der Handlungswille ist das Bewusstsein, überhaupt handeln zu wollen. Keinen Handlungswillen hat derjenige, dem gewaltsam die Hand zur Unterschrift geführt wird oder der im Schlaf, unter Narkose oder unter Hypnose Handlungen ausführt. Erklärungsbewusstsein hat derjenige, der sich im Klaren ist oder im Klaren darüber sein hätte müssen, dass seine Handlung Rechtsfolgen nach sich ziehen kann. Ein beliebtes Beispiel ist der Trierer Weinversteigerungsfall: Nimmt man an einer Versteigerung teil, ist jedem bewusst, dass das Heben der Hand die Abgabe eines Angebots bedeutet. Das Handzeichen ist also als Willenserklärung zu werten. Wenn nun Herr Müller während der Versteigerung einen alten Bekannten in der ersten Reihe sieht und ihm durch Handheben zuwinken will, wirkt dies auf den Auktionator als ob er ein Gebot auf das gerade aufgerufene Angebot über 1.000 Flaschen Silvaner zu 12 € die Flasche abgeben wollte. Er gibt eine Willenserklärung ab, auch wenn er dies in diesem Moment nicht wollte. Er muss sich seine Erklärungsfahrlässigkeit zurechnen lassen und wird so behandelt als ob er volles Erklärungsbewusstsein gehabt hätte. Unter dem Geschäftswillen versteht man die auf einen bestimmten rechtsgeschäftlichen Erfolg gerichtete Absicht. Fehlt dieser, so kommt das Geschäft trotzdem zustande, ist aber ggf. anfechtbar. Als äußeren Willen bezeichnet man die Willensabgabe dem Vertragspartner gegenüber. Eine Erklärung kann mündlich, schriftlich, durch Gestik oder tatsächliches Verhalten (z. B. Einsteigen in die S-Bahn) abgegeben werden. Schweigen ist

Abb. 4.5   Zustandekommen eines Vertrags

126

4 Rechtliche und organisatorische Grundlagen

allerdings keine Willenserklärung, wenn kein Kaufmann am Geschäft beteiligt ist. So ist es also für einen Verbraucher völlig unerheblich, wenn ihm unaufgefordert Waren mit einem Begleitschreiben übersandt werden, das darauf hinweist, dass, wenn man innerhalb von zwei Wochen nichts von ihm hört, davon ausgegangen wird, dass die Ware gewollt und somit der Kaufpreis von 50 € fällig ist. Die Annahme eines nicht bestellten Paketes und die Nichtäußerung sind keine Willenserklärung und somit auch keine Vertragsannahme. Ein Vertrag ist daher nicht zustande gekommen. Anders verhält es sich allerdings dann, wenn der Empfänger Kaufmann ist. Dieser muss auf ein Angebot eines Geschäftspartners unverzüglich reagieren, sonst gilt sein Schweigen als Annahme. Exkurs Kaufmännisches Bestätigungsschreiben Ein wesentlicher Bestandteil beim Zustandekommen eines Vertrages ist die Einigung über den vertraglichen Inhalt. In den Vertragsverhandlungen wird häufig sehr kontrovers über den Leistungsumfang diskutiert. Wenn man einzelne Vertragsbedingungen aushandelt, so empfiehlt es sich, diese des besseren Nachweises wegen schriftlich abzufassen, auch wenn für den üblichen Geschäftsvertrag kein Formzwang vorgeschrieben ist. In der Praxis werden dennoch sehr oft lediglich mündliche Absprachen, insbesondere am Telefon getroffen. Über den Inhalt des so abgeschlossenen Vertrages können allerdings Unklarheiten und Unstimmigkeiten bestehen. Deswegen sollte man im Geschäftsbetrieb dem anderen Geschäftspartner ein Bestätigungsschreiben per Fax oder E-Mail übersenden und die getroffenen Vereinbarungen zusammenfassen. Dieses Schreiben ist als Kaufmännisches Bestätigungsschreiben (KBS) bekannt. Erfolgt hiergegen kein Widerspruch, so gilt das, was schriftlich fixiert wurde. Aber Vorsicht: Derjenige der ein KBS erhält, sollte sich die Zeit nehmen und genau überprüfen, ob der Gesprächsinhalt korrekt zusammengefasst wurde. Ist dies nicht der Fall, so muss man unverzüglich, d. h. innerhalb einer Woche widersprechen, wenn man nicht den Inhalt des Bestätigungsschreibens als rechtsgültigen Vertragsinhalt gegen sich gelten lassen will. Weicht allerdings das Bestätigungsschreiben erheblich von dem Besprochenen ab, sodass man vernünftigerweise nicht mit dem Einverständnis des Empfängers rechnen konnte, so ist der Inhalt nicht Vertragsbestandteil geworden.

4.3.3  Gefahrenübergang beim Kaufvertrag Ein wichtiger Aspekt nach dem Abschluss eines Kaufvertrages ist der sog. Gefahrenübergang. Hierbei handelt es sich um die Risikotragung bei Zerstörung oder Beschädigung der Kaufsache. Der Gefahrenübergang stellt sich am Beispiel des Kaufes eines PKW’s folgendermaßen dar: Der Verkäufer hat nach Abschluss des Kaufvertrages dem Käufer im Büro bereits die Schlüssel des PKW ausgehändigt, allerdings noch nicht den Fahrzeugbrief, als plötzlich der Blitz in den Wagen einschlägt und diesen zerstört. Allein

4.3 Kleine Vertragskunde

127

durch die Übergabe der Schlüssel ging die Sachgefahr auf den Käufer über, welcher sodann auch verpflichtet ist, den Kaufpreis vollumfänglich zu bezahlen. Daher ist es für den Käufer immer ratsam, dass die Versicherungen (Sach-, Transport-, Diebstahlversicherung) so abgeschlossen sind, dass der Kaufgegenstand exakt mit dem Zeitpunkt des Gefahrenüberganges versichert ist. Hätte der Verkäufer die Schlüssel noch nicht übergeben, hätte er die Sachgefahr getragen und der Käufer wäre von seiner Kaufpreiszahlung befreit gewesen und hätte darüber hinaus auch noch Schadensersatzansprüche geltend machen können. Der Zeitpunkt des Gefahrenüberganges kann vertraglich vereinbart werden. Hierfür werden als Vertragssprache die sog. Incoterms von der Internationalen Handelskammer verwendet, die 1936 erstmals aufgestellt und seitdem mehrfach angepasst wurden. Die Incoterms genießen keine Gesetzeskraft, sondern werden nur wirksam, wenn sie im Vertrag vereinbart werden. Sie regeln die Art und Weise der Lieferung von Gütern, welche Transportkosten von dem Käufer oder Verkäufer zu tragen sind und wer im Falle des Verlustes der Ware das finanzielle Risiko trägt. Sie bestimmen allerdings nicht, wann und wo das Eigentum an der Ware von dem Verkäufer auf den Käufer übergeht. Die Incoterm Codes sind in der Abb. 4.6 graphisch dargestellt.

4.3.4  Sicherung des Verkäufers Bei größeren Sachinvestitionen, wie z. B. im Anlagenbau, wird der Kauf nicht unmittelbar Zug-um-Zug gegen Bargeld abgewickelt, sondern der Kaufgegenstand wird geliefert und erst danach vollständig vom Käufer bezahlt. Dies birgt für den in Vorleistung getretenen Verkäufer ein großes finanzielles Risiko, wenn der Käufer nicht bezahlt oder sogar insolvent wird, da der Verkäufer den Kaufgegenstand bereits übereignet hat. Um sich als Verkäufer daher vor dem Eigentumsverlust zu schützen ehe die vollständige Bezahlung erfolgt ist, ist dringend anzuraten, dass ein Eigentumsvorbehalt vereinbart wird. Eigentumsvorbehalt bedeutet, dass der Käufer erst nach vollständiger Kaufpreiszahlung Eigentümer des Kaufgegenstandes wird und bis dahin der Verkäufer das Eigentum daran nicht verliert. Sollte der Käufer also nicht bezahlen, kann der Verkäufer sein Eigentum ohne weiteres zurückholen. Der Käufer darf während des Eigentumsvorbehaltes den Kaufgegenstand weder verpfänden noch anderweitig als Sicherheit übereignen. Der Eigentumsvorbehalt stellt daher die Übereignung unter die aufschiebende Bedingung der vollständigen Kaufpreiszahlung. Hierüber muss man sich grundsätzlich vor Abschluss des Kaufvertrages geeinigt haben. Der Eigentumsvorbehalt kann auch in Allgemeinen Geschäftsbedingungen vorformuliert oder in einem KBS (s. Kap. 4.3.2) bestätigt werden. Unter bestimmten Bedingungen kann ein nachträglich erklärter Eigentumsvorbehalt wirksam werden, sofern die Erklärung des Verkäufers, sich bis zur vollständigen

128

4 Rechtliche und organisatorische Grundlagen

Abb. 4.6   Gefahrtragung und Kostentragung (nach Incoterms 2000)

Bezahlung das Eigentum vorbehalten zu wollen, vor oder zumindest gleichzeitig mit der Übergabe der Ware abgegeben wird. In den meisten Fällen findet sich erst eine Erklärung im Lieferschein. Dies ist nicht ganz risikolos, denn nur, wenn die Ware mit dem Lieferschein von einer Person des Betriebes, die für die inhaltliche Ausgestaltung von Verträgen verantwortlich ist oder von der Geschäftsleitung ent-

4.3 Kleine Vertragskunde

129

gegengenommen wird, kann davon ausgegangen werden, dass der Eigentumsvorbehalt wirksam geworden ist. Wurde die Ware an einen einfachen Angestellten, wie z. B. den Pförtner ausgehändigt und danach erst an eine verantwortliche Person abgegeben, ist der Eigentumsvorbehalt nicht wirksam geworden. Die Übereignung erfolgte somit sofort. Da Maschinen und Anlagen in den seltensten Fällen prompt bezahlt werden, werden die Zahlungseingänge bei Anlagengeschäften, die häufig erst Monate oder Jahre nach der Lieferung erfolgen im Allgemeinen zusätzlich durch sog. Zahlungssicherheiten abgedeckt. Zwar ist der rechtliche Anspruch auf die Zahlungen durch den Kaufvertrag unstrittig, der Sinn der zusätzlichen Sicherheiten ist jedoch, sie so „abstrakt“ wie möglich zu gestalten, damit aus dem Hauptvertrag abgeleitete Einreden – z. B. mögliche Reklamationen bezüglich des Grundgeschäftes wie beispielsweise Qualitätsmängel – nicht zum Anlass genommen werden können, Zahlungen zurückzuhalten. Die gebräuchlichsten Zahlungssicherheiten sind: • Wechsel: Bei dem – meist auf einen festen Termin datierten – Wechsel unterscheidet man den Solawechsel, den der Käufer ausstellt (das ist also ein Zahlungsversprechen des Käufers) und den gezogenen Wechsel, auch „Tratte“ genannt, den der Verkäufer ausstellt und den der Käufer durch Unterschrift akzeptiert (mit dem sog. „Akzept“). Rechtlich gibt der Wechsel eine deutlich höhere Sicherheit als eine einfache schriftliche Zusage, da bei einem Wechselregress (falls die Zahlung ausbleibt) nur die Wechselforderung behandelt wird und nicht etwa mögliche Reklamationen bezüglich des Liefergeschäftes. Der Wechsel ist jedoch auch ein Zahlungsinstrument (wie etwa ein Scheck) und ist vor allem als Finanzierungsinstrument wichtig. Man kann ihn – vor Eintritt des Zahlungstermins – bei einer Bank einreichen, welche ihn „diskontiert“. D. h. sie zahlt den Wechselbetrag abzüglich eines Zinsbetrages, der bis zum Datum der Fälligkeit mit einem „Diskontsatz“ berechnet wird. • Bürgschaft: Die Zahlung der Wechselsumme kann zusätzlich durch Unterschrift einer dritten Partei (eines Privatmannes oder einer Firma, bei Konzernen z. B. durch die Konzern-Zentrale) gesichert werden. Eine Bürgschaft wird auch als „Aval“ bezeichnet. • Bankgarantie/Bankaval: Wird die Bürgschaft von einer Bank geleistet, so spricht man von einer Bankgarantie oder einem Bankaval, womit die Sicherheit erhöht wird, aber auch die Kosten steigen, da die Bank eine Avalgebühr verlangt. • Akkreditiv: Damit werden v. a. Auslandsgeschäfte abgesichert. Der Käufer im Ausland garantiert dem Verkäufer die Zahlung des Kaufpreises dadurch, dass er eine Bank beauftragt, dem Verkäufer gegen Übergabe der Versanddokumente den Kaufpreis zu entrichten. • Letter of Credit (LOC) ist eine Kombination von Akkreditiv und Wechsel. Die Bank, welche das Akkreditiv bestätigt, verpflichtet sich, Wechsel, die der Verkäufer auf diese Bank ausgestellt hat, zu akzeptieren. Auch bei weit in der Zukunft liegenden Zahlungszielen hat der Verkäufer dadurch das Zahlungsrisiko ausgeschaltet.

130

4 Rechtliche und organisatorische Grundlagen

4.3.5  Allgemeine Geschäftsbedingungen (AGB) Um nicht ständig am Verhandlungstisch sitzen zu müssen und immer wieder aufs Neue Rahmenbedingungen aushandeln und zusammenfassen zu müssen, kann man sich allgemeiner Geschäftsbedingungen bedienen. Der Jurist definiert “AGB” als einseitig vorformulierte Vertragsbedingungen, die eine Vertragspartei (Verwender) der anderen Vertragspartei (Kunde) bei Abschluss eines Vertrages stellt und die der Verwender für eine Vielzahl von Verträgen im Geschäftsverkehr verwenden will. Gerade die Vertragsfreiheit lässt es zu, dass Bedingungen unter denen ein Geschäftspartner Geschäfte generell nur eingehen will, im Voraus einseitig festgelegt und dem anderen Vertragspartner als Vertragsgrundlage präsentiert werden. Da Verträge über die Lieferung z. B. von Anlagen und Maschinen außerordentlich komplex sein können, wäre es auch extrem zeit- und kostenintensiv für jedes Geschäft die einzelnen Vertragsbedingungen immer wieder aufs Neue auszuhandeln. AGB vereinfachen und beschränken Risiken. Sie erlauben einem Unternehmen, ein passendes Regelwerk auf seine jeweiligen Bedürfnisse anzupassen. Nach dem Grundsatz der Vertragsfreiheit kann man dabei von gesetzlichen Regelungen abweichen. Die Gestaltungsfreiheit ist allerdings eingeschränkt. Anhand von Schutzvorschriften, die im Bürgerlichen Gesetzbuch in den §§ 311 ff. aufgenommen worden sind, ist vorgegeben, welcher Inhalt gesetzeskonform ist und welcher nicht. Die Überprüfung der einzelnen Klauseln ist sehr komplex, so dass man hierfür am besten einen Rechtsanwalt zu Rate zieht. In der Praxis verwenden viele Unternehmen oder auch Privatleute vorgefertigte Lieferbedingungen/Vertragsbedingungen. AGB sind aus dem Wirtschaftsleben nicht mehr wegzudenken. Die AGB können von den einzelnen Unternehmen selbst erstellt werden. Man kann allerdings auch auf vorformulierte AGB von den jeweiligen zuständigen Unternehmensverbänden, wie z. B. vom Zentralverband Elektrotechnik und Elektroindustrie e. V. (ZVEI) oder vom Verband Deutscher Maschinen und Anlagenbau e. V. (VDMA) zurückgreifen. Auch die im Schreibwarenhandel erhältlichen Mietvertragsformulare sind AGB. In Bauverträgen wird oft die Vergabe- und Vertragsordnung für Bauleistungen (VOB) als AGB vereinbart. Sie präzisiert bzw. wandelt gesetzliche werkvertragliche Regelungen ab, wie z. B. Mängelansprüche, Zahlungen, Verjährung. Sollte daher VOB vereinbart sein, sollte man sich mit dem Regelwerk eingängiger befassen. Auf allgemeine Geschäftsbedingungen muss hingewiesen werden, damit diese auch wirksam in den Vertrag miteinbezogen werden können. Widerspricht der Vertragspartner, gelten diese nicht, sondern die gesetzlichen Regelungen. In der Regel bestimmt meist der wirtschaftlich stärkere Partner die AGB. Allerdings kommt es in der Praxis bei Unternehmen häufig vor, dass beide versuchen, ihre jeweiligen AGB durchzusetzen. Hierbei entstehen dann Probleme, wenn diese sich inhaltlich widersprechen. Dies tut der Gültigkeit des Vertrages allerdings keinen Abbruch; denn widerstreitende AGB’s werden nicht Vertragsbestandteil.

4.3 Kleine Vertragskunde

131

Entsteht hierdurch eine Vertragslücke wird diese durch gesetzliche Bestimmungen geschlossen.

4.3.6  Lösen von Verträgen Es gilt grundsätzlich die Maxime, dass geschlossene Verträge zu halten sind (“pacta sunt servanda”) und somit ein einseitiger “Rückzug” nicht so ohne Weiteres möglich ist. Rechtsgeschäfte können allerdings bereits von Anfang an unter einer aufschiebenden oder auflösenden Bedingung oder Befristung geschlossen werden. Gem. § 158 Abs. 1 BGB liegt eine aufschiebende Bedingung vor, wenn man vereinbart, dass das Rechtsgeschäft nur dann zustande kommen soll, wenn eine gewisse Bedingung eintritt. Bis zum Eintritt der Bedingung ist das Rechtsgeschäft schwebend unwirksam. Es gilt erst als geschlossen, wenn die Bedingung eingetreten ist. Nach § 158 Abs. 2 BGB kann das Rechtsgeschäft auch unter eine auflösende Bedingung gestellt werden. Dies bedeutet für das Rechtsgeschäft, dass dieses sofort als wirksam geschlossen gilt, allerdings bei Eintritt einer bestimmten Bedingung das Rechtsgeschäft mit Eintritt der Bedingung endet. Eine Begrenzung eines Rechtsgeschäftes ist auch zeitlich möglich, § 163 BGB. So endet ein Rechtsverhältnis, wenn die Zeit abgelaufen ist, wie z. B. ein befristeter Arbeitsvertrag auf ein halbes Jahr. Neben dieser vertraglich festgelegten Möglichkeit, den Vertrag zu lösen, besteht auch die Möglichkeit bei Vorliegen von bestimmten Gründen, den Vertrag aktiv zu kündigen oder von diesem zurückzutreten. 4.3.6.1  Rücktritt und Kündigung von Verträgen Ein Vertrag kann auch durch ein einseitiges gesetzliches oder vertragliches Rücktrittsrecht oder eine Kündigung beendet werden. Gesetzliches Rücktrittsrecht Das Gesetz räumt u. a. beim Kauf- und Werkvertrag die Möglichkeit eines Rücktrittes ein, wenn Leistungsstörungen oder erhebliche Pflichtverletzungen des Vertragspartners vorliegen. Ehe der Rücktritt in den meisten Fällen erklärt werden darf, muss dem Vertragspartner i. d. R. nochmals eine zweite Chance unter Setzung einer Nachfrist eingeräumt werden, damit dieser die Möglichkeit hat, den Vertrag ordnungsgemäß zu erfüllen. Beispiel: Die versprochene Leistung war minderwertig oder es wurde zu wenig geliefert. Vertragliches Rücktrittsrecht Nach dem Prinzip der Vertragsfreiheit ist es auch möglich, einen vertraglichen Rücktrittsvorbehalt zu vereinbaren. Dieser kann an Bedingungen geknüpft werden

132

4 Rechtliche und organisatorische Grundlagen

und auch Klauseln über eine Kostentragungspflicht enthalten. Beispiel für die Formulierung einer derartigen Klausel: Allgemeiner Rücktrittsvorbehalt: 1. Jeder Vertragspartner ist berechtigt von dem Vertrag zurückzutreten. Die Rücktrittserklärung ist schriftlich mit Einschreiben und Rückschein dem Vertragspartner zuzustellen. 2. Insoweit einer der Vertragspartner von diesem vertraglich vereinbarten Rücktrittsrecht Gebrauch macht, hat dieser dem anderen die bisher entstandenen Aufwendungen zu ersetzen, wie auch die Vergütung für die bereits durchgeführten und vereinbarten Arbeiten als auch andere durch die Erfüllung des Vertrages entstandenen Vermögensnachteile. 3. Kann der nicht zurücktretende Vertragspartner keinen weiteren Vertrag zur Auslastung seiner durch den Rücktritt entstandenen freien Kapazitäten abschließen, so kann er die volle Vergütung unter Abzug der durch die Beendigung des Vertrages ersparten Aufwendungen verlangen. Folgen eines wirksamen Rücktritts Der Geschäftsvertrag wird in ein gesetzliches Rückgewährschuldverhältnis verwandelt und beiderseitig empfangene Leistungen sind zurückzugeben und Ersatz für bereits gezogene Nutzungen bzw. Wertersatz zu zahlen. Beispiel: Der Händler Bode hat Herrn Schick einen VW für 15.000 € verkauft. Nach einem Jahr bleibt das Auto mit defektem Motor stehen. Trotz der Aufforderung zur Mängelbeseitigung, gelingt dies dem Händler nicht. Herr Schick erklärt darauf hin den Rücktritt und fordert seinen Kaufpreis zurück. Im Gegenzug kann der Händler Ersatz für die Fahrzeugnutzung über das Jahr verlangen. Kündigung Verträge, die auf ständigen Leistungsaustausch gerichtet sind, wie z. B. Miet-, Pacht- oder Arbeitsverträge werden durch eine einseitige Kündigung beendet. Die Vertragsverhältnisse enden durch die wirksame Kündigungserklärung nach Ablauf der gesetzlichen oder vertraglich vereinbarten Kündigungsfrist. Beispiel: Mietverträge können gemäß Gesetz von einem Mieter jeweils zum dritten Werktag eines Monats bis zum Ende des übernächsten Monats gekündigt werden. Der Mieter kann also bis zum 03.12.2008 dem Vermieter gegenüber die Kündigung der Mietwohnung bis zum 28.02.2009 erklären. Unter bestimmten Voraussetzungen ist auch eine sofortige außerordentliche Kündigung möglich. Beispiel: Mietverträge können außerordentlich mit sofortiger Wirkung gekündigt werden, wenn aufgrund des Zustandes einer Mietwohnung wegen gesundheitsgefährdendem großflächigen Schimmelbefalles in allen Zimmern, es dem Mieter nicht zuzumuten ist, länger am Mietverhältnis festzuhalten. Kündigung und Kündigungsfrist können auch vertraglich vereinbart werden. Meist wird in der Praxis eine bestimmte Vertragslaufzeit vereinbart, ehe der Vertrag

4.3 Kleine Vertragskunde

133

mit einer bestimmten Frist gekündigt werden kann. Die Formulierung einer solchen Klausel betreffend einer ordentlichen Kündigung kann wie folgt lauten: 1. Das Vertragsverhältnis hat eine feste Vertragslaufzeit bis 31.12.2009. Es ist für beide Vertragsparteien erstmals bis zum Ablauf der obigen Vertragslaufzeit kündbar, wenn die Kündigung mindestens zwei Monate vor Ablauf schriftlich erklärt wird. 2. Wird das Vertragsverhältnis nicht gekündigt, so läuft es auf unbestimmte Zeit und kann mit einer Frist von vier Wochen jeweils zum Monatsende schriftlich gekündigt werden. 4.3.6.2  Anfechtung Grundlagen der Anfechtung Wenn Vertragsabschlüsse aufgrund von Willensmängeln zustande gekommen sind, besteht die Möglichkeit, den Vertrag anzufechten. Ein Vertrag kann u. a. angefochten werden, wenn eine Vertragspartei beim Abschluss des Vertrages einem Erklärungs-, Inhalts- oder Eigenschaftsirrtum unterlag (§ 119 Abs. 1 und 2 BGB). Des Weiteren besteht auch die Möglichkeit, einen Vertrag anzufechten, wenn ein Vertragspartner durch arglistige Täuschung oder rechtswidrige Drohung (§ 123 Abs. 1 und 2 BGB) zum Vertragsabschluss bewegt worden ist. Ein Erklärungsirrtum liegt vor, wenn der Erklärende bei der Abgabe einer Willenserklärung eine Erklärung diesen Inhalts überhaupt nicht abgeben wollte. Er verspricht, vertippt, verschreibt oder vergreift sich. Beispiel: Der Kunsthändler Herr Müller will Herrn Bauer ein Bild für 2.000 € anbieten; er schreibt irrtümlich 1.000 €. Herr Müller hat sich verschrieben, der Vertrag ist durch ihn anfechtbar. Ein Inhaltsirrtum ist gegeben, wenn der Erklärende zwar erklärt was er will, sich allerdings eine andere Vorstellung vom Inhalt der Erklärung gemacht hat. Beispiel: Der Hersteller H offeriert in einem Katalog eine wertvolle Armbanduhr unter der Artikelnummer 123 für einen Preis von irrtümlich 2.000 € anstatt 5.000 €. Der Käufer K bestellt die Uhr unter der Artikelnummer 123 ohne weitere Preisangabe. H nimmt das Angebot an und schreibt die Rechnung über 5.000 €. Als sich K beschwert, fällt dem H sein Irrtum auf und er kann den Vertrag anfechten. Ein Eigenschaftsirrtum liegt vor, wenn man sich über die verkehrswesentliche Eigenschaft des Vertragspartners oder Vertragsgegenstandes geirrt hat. Eigenschaften sind dauerhafte Merkmale. Verkehrswesentliche Eigenschaften einer Sache sind z. B. alle wertbildenden dauerhaften Faktoren, wie etwa stoffliche Beschaffenheit, Größe, Herkunft, Echtheit, aber nicht der Preis selbst. Beispiel: Der Kunsthändler verkauft ein Gemälde, das von dem Schüler eines bekannten Malers stammen soll für 10.000 €. Später stellt sich allerdings heraus, dass das Bild nicht von dessen Schüler stammt, sondern vom Meister selbst gemalt

134

4 Rechtliche und organisatorische Grundlagen

wurde und der Wert fünf Mal so hoch ist. Der Kunsthändler kann den Kaufvertrag anfechten, weil er sich über eine verkehrswesentliche Eigenschaft des Bildes geirrt hat. In der Praxis sind auch häufig Preisirrtümer respektive Kalkulationsfehler festzustellen. Nach herrschender Meinung handelt es sich hierbei allerdings um schlichte Motivirrtümer, die nicht anfechtbar sind. Beispiel: Der Unternehmer kalkuliert bei der Angebotserstellung zu geringe Personalkosten und stellt bei der Ausführung fest, dass er den Zeitaufwand zu gering angesetzt hat. Diese Irrtümer sind reine Kalkulationsfehler und führen zu keiner Anfechtungsmöglichkeit. Der Unternehmer muss seinen Vertrag erfüllen, auch wenn dies mit Verlusten für ihn verbunden ist. Rechtsfolgen einer wirksamen Anfechtung Hat sich der Vertragspartner in anfechtbarer Weise geirrt, so liegt das rechtliche Schicksal des Vertrages in seinen Händen. Macht er von der Anfechtung keinen Gebrauch, so bleibt der Vertrag wirksam. Will der irrende Vertragspartner allerdings die Anfechtung ausüben, so muss er die Anfechtung unverzüglich nach Kenntnis des Irrtums seinem Vertragspartner gegenüber erklären. Die Rechtsprechung sieht hierfür je nach Einzelfall eine Anfechtungsfrist bis zu zwei Wochen vor. Bei einem Vertragsschluss wegen widerrechtlicher Drohung oder arglistiger Täuschung können die Verträge sogar ein Jahr ab Kenntnis der Drohung oder Täuschung angefochten werden. Durch die wirksame Anfechtung wird der Vertrag von Anfang an nichtig, d. h. als nie zustande gekommen betrachtet. Nach Anfechtung muss der Vertrag rückabgewickelt werden, d. h. die empfangenen Leistungen müssen zurückgewährt werden, gegebenenfalls müssen auch Wertersatz oder gezogene Nutzungen oder Gebrauchsvorteile ausgeglichen werden. Des Weiteren macht sich der irrende anfechtende Geschäftspartner auch für den Schaden schadenersatzpflichtig, der seinem Vertragspartner dadurch entstanden ist, dass er auf die Gültigkeit der Erklärung vertraut hat. Grundsätzlich sind geschlossene Verträge als bindend anzusehen und es kann eine einseitige Lösung von dem Vertrag durch einen Geschäftspartner nicht einfach so hingenommen werden, auch wenn sich der andere falsche Vorstellungen beim Vertragsabschluss gemacht hat. Eine Schadenersatzpflicht besteht allerdings nicht bei der Anfechtung aufgrund von Täuschung oder Drohung, da der Gesetzgeber keinen schützen wollte, der unredliche Mittel verwendet, um zu einem Vertragsschluss zu kommen.

4.3.7  Vertragsmanagement Die Thematik Vertragsmanagement ist ein wesentlicher Aspekt im Projektgeschäft. Das Vertragsmanagement befasst sich systematisch mit allen wichtigen Stationen eines Vertrages. Ausgehend von der Vertragsplanung über die Vertragsgestaltung,

4.3 Kleine Vertragskunde

135 Vertragsmanagement

Vertragsplanung

Vertragsgestaltung

Vertragsverhandlung

Vertragsabschluss

Vertragsdurchführung

Vertragscontrolling

Abb. 4.7   Vertragsmanagement (nach Braun 2007)

-verhandlung und –abschluss bis hin zur Durchführung und dem Vertragscontrolling. Nachfolgend soll hierzu ein kleiner Überblick über diesen komplexen Bereich gegeben werden. Die Vertragsplanung dient der Ermittlung und Realisierung der Vertragsziele. Hierunter fallen auch die Setzung des Rechtsrahmens für Standardgeschäfte und ggf. das Aufstellen von AGB zusammen mit einem Rechtsberater. In der Vertragsgestaltung geht es um den Aufbau, Strukturierung und Ausformulierung eines Vertragstextes Bei Vertragsverhandlungen sollte man Kenntnisse über Verhandlungstechniken mitbringen (s. Kap. 5.1.4). Es gilt Geschäftsinhalte mit dem Vertragspartner zielgerichtet auszuhandeln, am Besten in Kooperation mit eingeschalteten Rechtsberatern oder der Rechtsabteilung. Das Ziel der erfolgreichen Vertragsverhandlung ist der Vertragsschluss. Jetzt muss die Einigung verständlich und klar als Vertragstext formuliert werden. Eine Kontrolle durch Rechtsberater/Rechtsabteilung ist bei komplexen Verträgen in der Praxis sehr empfehlenswert. Bei großen Betrieben sogar als interne Regelung vorgeschrieben. Es verlässt kein Vertrag das Unternehmen, welcher nicht vorher durch die Rechtsabteilung geprüft worden ist. Die Vertragsdurchführung betrifft alle betriebsinternen Abläufe, die für die Abwicklung des Vertrages organisiert und überwacht werden müssen, um die vertraglich übernommene Leistungspflicht korrekt erfüllen zu können. Vertragscontrolling: Nach dem Abschluss der Geschäftsabwicklung wird intern überprüft, ob die gesetzten Geschäftsziele, wie anfangs geplant erreicht werden konnten. Ist dies nicht der Fall wird nach der Ursache dafür geforscht, um diese in Zukunft beheben zu können.

Literatur Bassenge P et al. (2008)  Palandt-Bürgerliches Gesetzbuch-Kurzkommentar, 67. Aufl. C.H. Beck Verlag, München Beck Texte (2008a) Einkommensteuerrecht ESt, 22. Aufl. Beck Texte (2008b) Strafgesetzbuch StGB, 45. Aufl. Beck Texte (2009a) Aktiengesetz – GmbH Gesetz, 41. Aufl. Beck Texte (2009b) Bürgerliches Gesetzbuch BGB, 63. Aufl. Beck Texte (2009c) Steuergesetze SteuerG, 35. Aufl.

136

4 Rechtliche und organisatorische Grundlagen

Beeck V (2007) Grundlagen der Steuerlehre, 4. Aufl. Gabler Verlag, Wiesbaden Braun W (2007) Geschäftsverträge. Schäffer-Poeschel Verlag, Stuttgart Bredow J, Seiffert B (2000) Incoterms 2000, 3. Aufl. Economica Verlag, Heidelberg Breu J, Wissbar R (1997) BGB für Verbraucher-Der aktuelle Rechtsratgeber zum Bürgerlichen Gesetzbuch. Südwest Verlag, München Brox H, Walker W (2008) Allgemeiner Teil des Bürgerlichen Gesetzbuchs, 32. Aufl. Carl Heymanns Verlag, Köln u. a. Brox H (2007) Allgemeines Schuldrecht, 32. Aufl. C.H. Beck Verlag, München Cebulla M, Rodenbeck R (2001) Deutsches Wirtschaftsrecht. C.H. Beck Verlag, München Djanani C, Brähler G, Lösel C (2008) Ertragsteuern, 3. Aufl. utb Verlag Hefermehl W (2009) Handelsgesetzbuch HGB, 48. Aufl. DT V-Beck Medicus D (2007) Bürgerliches Recht, 21. Aufl. Carl Heymanns Verlag KG, Köln u. a. Müssig P (2007) Wirtschaftsprivatrecht, 11. Aufl. C.F. Müller Verlag, Heidelberg u. a. Timm W, Schöne T (2002a) Handels- und Wirtschaftsrecht Band I, 3. Aufl. C.H. Beck Verlag, München Timm W, Schöne T (2002b) Handels- und Wirtschaftsrecht Band II, 2. Aufl. C.H. Beck Verlag, München

Kapitel 5

Methoden des operativen Managements N. Ebel

Das Metier des Managers ist vor allem durch hohe Komplexität gekennzeichnet. Die Methodik des operativen Managements zielt darauf ab, die Komplexität zu reduzieren, sie systematisch anzugehen, gedanklich zu ordnen und zu Handlungsentscheidungen zu kommen. Für den Erfolg sind dabei oft gerade die ganz alltäglichen, banalen Vorgehensweisen entscheidend, wie die Art der Weitergabe von Information, das Delegieren, die Wiedervorlage, das Zeitmanagement usw. Managerkarrieren entscheiden sich oft an diesem trivialen „Kleinkram“. Entsprechende „Techniken“ wollen wir hier nicht empfehlen. Einmal gibt es ausreichend einschlägige Literatur, zum Anderen glauben wir, dass die tagtäglichen Vorgehensweisen jedes Menschen von seiner Herkunft, seinem Umfeld, seinem Naturell etc. individuell beeinflusst sein werden und halten das auch für richtig. Jeder muss für sich seinen eigenen Weg und Arbeitsstil finden. Hinter diesen „Techniken“ steht jedoch eine sehr wichtige ethische Grundhaltung: Ohne Werte wie Verlässlichkeit, systematische Vorgehensweise und Selbstdisziplin kann im Management nichts gelingen, und je mehr Freiräume die moderne Managementlehre dem Einzelnen einräumt, umso wichtiger werden diese Grundeinstellungen. Von den Vorgehensweisen, die über den täglichen „Kleinkram“ hinausgehen, scheinen uns für den Leserkreis dieses Buches vor allem Methoden der Kommunikation (Besprechungen, Präsentation, Moderation, Verhandlungen) relevant, außerdem Kreativitätsmethoden sowie Methoden, die sich in letzter Zeit rund um das Thema „Qualität“ entwickelt haben.

5.1  Kommunikationsmethoden Die Bedeutung von Kommunikationsmethoden als Führungsinstrument steigt in dem Maße, in dem autoritärer Führungshabitus abnimmt. Die wesentlichen Entscheidungen und Weichenstellungen eines Unternehmens werden heute in Gremien erarbeitet und entschieden. Umso wichtiger ist es, die entsprechenden Methoden und Techniken zu beherrschen, was man bei uns leider weder in Schule noch UniO.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_5, © Springer-Verlag Berlin Heidelberg 2010

137

138

5 Methoden des operativen Managements

versität lernt, in krassem Gegensatz zu früherer Zeit, als Rhetorik noch eine hoch angesehene Fachrichtung unserer Universitäten war. Im Folgenden wollen wir die u. E. wichtigsten Methoden kurz darstellen. Zwar existiert eine umfangreiche Literatur, die wir auch auszugsweise anführen, wir wollen jedoch versuchen, mit den folgenden Ausführungen einen schnellen Überblick zu ermöglichen und die entscheidenden Aspekte herauszustellen.

5.1.1  Besprechungen Die Auflösung der starren Organisationsstrukturen, die „Verteamung“ unserer Arbeitswelt hat zur Folge, dass es das Schicksal fast aller „white-collar“-Beschäftigten ist, in irgendwelchen Besprechungen zu sitzen. Ist das effizient? Häufig nicht, denn wenige Besprechungen werden richtig und professionell durchgeführt. Deswegen sollte man zumindest einige wenige, aber wirklich wichtige Grundregeln beherzigen: • Besprechung rechtzeitig einberufen und zwar mit detaillierter Tagesordnung (Ziele angeben) sowie Zeitfenster (Anfang und Ende). • Wen einladen? Grundsätzlich nur Personen, die etwas beitragen können. Niemals Besprechungen dazu missbrauchen, um Informationen weiterzuleiten. Den Kreis so klein wie möglich halten. • Der Besprechungsleiter muss genannt sein. • Den Protokollführer bestimmen. • Ergebnis festhalten! Das ist das Allerwichtigste und in diesem Punkt sind fast alle einschlägigen „Ratgeber“ zu schwammig. Die drei W´s müssen unbedingt beantwortet sein: Wer macht Was bis Wann. Sonst ist die Besprechung völlig nutzlos. Das Protokoll sollte im Telegramm-Stil formuliert sein, es kann ganz auf diese Kernergebnisse begrenzt werden. So ein Protokoll ist dann die Grundlage für das Nachhalten (Wiedervorlage!) und die nachfolgenden Besprechungen. Es gibt Besprechungen ganz unterschiedlicher Art, mit unterschiedlichen Zielen, die an Teilnehmer und Besprechungsleiter unterschiedliche Anforderungen stellen. Mit Präsentation, Moderation und Verhandlung sollen in den folgenden Abschnitten einige besonders wichtige Vorgehensweisen erläutert werden.

5.1.2  Präsentationen Je stärker unsere Arbeitswelt von Gruppenarbeit, Projektarbeit, Diskussionen, Verhandlungen, „meetings“ dominiert wird, desto wichtiger wird es, die „Werkzeuge“ zu beherrschen, in solchen Medien effizient zu arbeiten. Wesentliches Kommunikations-Element in dieser Arbeitskonstellation ist die Präsentation, die auch im wissenschaftlichen Bereich immer wichtiger wird. Denn alle Mühen und Ergebnisse

5.1 Kommunikationsmethoden

139

der eigenen Arbeit sind nur etwas wert, wenn man sie an entsprechender Stelle auch kommunizieren kann. Dazu gehört – auch bei kleineren Runden oder Vorträgen – eine entsprechende Vorbereitung. Wichtig ist dabei, für sich selbst zu klären: • • • •

Wem will ich etwas sagen? Was will ich sagen? Wie will ich es sagen Wo/Wann/Wie lange will ich etwas sagen?

Hat man diese grundlegenden Fragen beantwortet, kann man sich in die Ausarbeitung stürzen. Dabei gilt es, zuerst Stoff zu sammeln und zu selektieren. Da es nicht darum geht, sein Publikum mit dem eigenen umfangreichen Wissen zu beeindrucken, liegt die Kunst darin, die Inhalte auf das Wesentliche zu reduzieren, zu komprimieren. Grundsätzlich gilt: So viel wie nötig, so wenig wie möglich. Steht der Inhalt, geht es an dessen Darstellung. Generell teilt sich jeder Vortrag in Einleitung (10–15% der Zeit), Hauptteil (70–80% der Zeit) und Schluss (5–10% der Zeit). Dabei gilt es, einen Bogen zu spannen, den roten Faden deutlich zu machen und den Zuhörern immer wieder sogenannte „Anker“ zu bieten. Abgerundet wirkt der Vortrag, wenn der Schlusspunkt, das Resümee, wieder zum Anfang zurück führt und die am Anfang aufgeworfene Frage beantwortet. Der Titel einer Präsentation – bzw. der Einstieg in einen vielleicht auch nur kurzen Vortrag – soll neben der Information, um was es eigentlich geht, auch die Neugier der Zuhörer wecken, so dass dem Redner deren volle Aufmerksamkeit gewiss ist. In der Einleitung wird dann das Thema genauer eingegrenzt und die Zielsetzung erklärt. Hierbei ist es wichtig, schon jetzt die Teilnehmer einzubinden, jeden dort abzuholen, wo er steht, also Dolmetscher zwischen Thema und Publikum zu sein. Besonders im Hauptteil ist eine logisch zusammenhängende Struktur wichtig. Oft geht es darum, den Zuhörern komplexe Sachverhalte zu veranschaulichen. Gut ist es hierfür, die Theorie anhand von Praxisbeispielen zu erläutern oder an Modellen und Mustern zu demonstrieren. Wie schon gesagt, soll der Schluss das Ganze abrunden. Wichtige Aussagen werden wiederholt und daraus Empfehlungen oder Zukunftsaussichten abgeleitet. Nun zur Visualisierung, denn „ein Bild sagt mehr als tausend Worte“: Durch das Ansprechen mehrerer Sinne wird das Verständnis erleichtert und der Lerneffekt verbessert. Heute stehen uns dafür verschiedene Medien zur Verfügung wie Tafel, Flipchart, Overhead-Projektor, Beamer usw. Jedes dieser Medien hat Vor- und Nachteile und es gilt, das – oder auch die – zu einem selbst und zum Anlass passende auszuwählen. Die heute fast ausschließlich eingesetzte Power Point Präsentation ist nicht das einzig Wahre. Die gute alte Tafel erlaubt es beispielsweise, anschaulich vor den Augen der Zuhörer Illustrationen zu entwickeln, die auch im weiteren Verlauf noch präsent bleiben. Bei Benutzen von technischem Equipment ist es notwendig, dieses vorher zu „checken“: Passen Computer und Beamer zusammen? Läuft die Software auf dem zur Verfügung stehenden Rechner? Sicherheitshalber sollte man immer mit Ausdrucken seiner Folien gerüstet und in der Lage sein, das Ganze notfalls auch von Hand, nur mit Flipchart vorzutragen. Egal, welche Medien benutzt werden, gilt es neben dem Vortrag selbst auch deren Einsatz zu üben.

140

5 Methoden des operativen Managements

Noch kurz zur Gestaltung von Folien: Grundsätzlich ist hier ein einheitliches Erscheinungsbild und eine ausgewogene Gestaltung wichtig. Sie sollten nicht mit Text überladen und entsprechend der Räumlichkeit gut lesbar sein. Sie können mit Schriftgröße und Anordnung strukturiert werden, eventuell auch mit Farben, wobei aber besonders im wissenschaftlichen Rahmen gilt: „weniger ist oft mehr“. Nach folgenden Grundsätzen kann man sich richten: • • • • • • • •

Schriftgröße: mindestens 24 pt, klares Schriftbild (z. B. Arial), nicht mehr als 3 Farben, 3 Schriftgrößen, maximal 7 Punkte pro Folie, Vorsicht mit Hintergrundfarben/muster, keine ganzen Sätze, keine Abkürzungen, wenig Satzzeichen, selbsterklärende Legenden und Tabellenüberschriften.

Die Folien sollen den Vortrag unterstützen und eignen sich daher nicht als „Handout“, da dieses selbsterklärend sein muss. Bemühen Sie sich während Ihres Vortrags um eine klare und einfache Sprache, vermeiden Sie lange, komplizierte Sätze. Ein angemessenes Tempo und die passende Lautstärke erleichtern es den Zuhörern, dem Vortrag zu folgen. Betonen Sie Wichtiges und vermeiden sie Verlegenheitstöne. Achten Sie auf eine gerade, lockere Körperhaltung und bleiben sie in Gestik und Mimik natürlich. Machen Sie sich „Marotten“ wie Fußwippen oder an den Haaren Rumspielen bewusst und versuchen Sie sie zu vermeiden. Versuchen Sie mit allen Zuhörern immer wieder in Blickkontakt zu kommen. Seien Sie beim Sprechen Sie selbst: voller Selbstvertrauen, voller Überzeugung und vor allem von Ihrem Tun begeistert! Wie Sie sehen, ist es wichtig, Botschaften zu transportieren und es gibt einfach zu erlernende Techniken dafür. Daher können wir nur noch raten: keine Angst und üben, üben, üben! Es ist nie zu spät, seine Präsentationstechnik zu verbessern. Präsentationen vortragen, Reden halten etc. kann jeder lernen.

5.1.3  Moderation – gemeinsam zum Ziel Mit Hilfe eines Moderators können Besprechungen effektiv gestaltet werden. Wie das Wort Moderation im ursprünglichen Sinn schon sagt (moderari, lat. = lenken, leiten, mäßigen), geht es um eine Art und Weise, alle Diskussionsteilnehmer aktiv und zielorientiert zu beteiligen. Denn wir alle wissen: „Das Ganze ist meist mehr als die Summe seiner Teile“. Die Moderationsmethode soll … • • • •

… die Gruppenkommunikation verbessern. … die Kreativität fördern. … Ressourcen aller bestmöglich nutzen. … komplexes Denken in Gruppen ermöglichen.

5.1 Kommunikationsmethoden

• • • • •

141

… Gedanken sichtbar machen und festhalten. … zielgerichtete Problemlösungen ermöglichen. … Entscheidungen herausfordern und nachvollziehbar machen. … zu Ergebnissen führen. … Handlungen nach sich ziehen.

Der Einsatz von Moderationstechniken oder Elementen daraus eignet sich für jegliche Art von Besprechungen, besonders aber für Strategiesitzungen, bei denen es um Problemdefinition, Zielfindung, Planung und Umsetzungen geht. Ziel ist, immer so viel wie möglich aus den Teilnehmern heraus zu holen. Der Moderator (lat. = Mäßiger, Mittler) muss hierzu kein inhaltlicher Experte sein. Er muss sogar seine eigene Meinung zurückhalten, neutral bleiben und darf die Gruppe niemals dominieren. Seine Aufgabe ist es, die Gruppe zu animieren, methodisch – nicht inhaltlich – zu steuern und den Prozess zu visualisieren. Dafür benötigt er Methoden-, Prozess- und Beziehungskompetenz (das hat also gar nichts mit den sogenannten Moderatoren aus Talkshows zu tun!). Im Vorfeld gilt es, das Ziel des anstehenden moderierten Gesprächs zu definieren, denn wenn ich nicht weiß wohin ich will, brauche ich mich auch nicht zu wundern, wenn ich ganz woanders ankomme. Steht also der Inhalt, sind Teilnehmer auszuwählen und die Rahmenbedingungen (Zeit, Ort, Hilfsmittel, etc.) zu organisieren. In diese Vorbereitung ist der Moderator meist intensiv eingebunden. Kommt er von außerhalb – was bei schwierigen Themen und persönlicher Betroffenheit der Teilnehmer gängig ist – muss er sich ganz besonders mit dem Umfeld befassen (Firma, Problem, Teilnehmer, mögliche Schwierigkeiten). Beim Einstieg in die eigentliche Moderation ist neben dem Kennenlernen aller Beteiligten untereinander auch das Vereinbaren von Spielregeln wichtig: • • • • • •

Jeder kommt zu Wort. Jede Meinung ist wichtig. Fragen dürfen gestellt werden. Keine Killerphrasen. Fehler dürfen gemacht werden. Jeder ist für das Gelingen verantwortlich.

Somit soll eine Atmosphäre der Offenheit und von gegenseitiger Achtung und Akzeptanz geschaffen werden, ohne die ein solches Gespräch zum Scheitern verurteilt ist. Treten dennoch Schwierigkeiten auf, gilt: Störungen haben Vorrang. Bei atmosphärischen Störungen bringt es nichts, die Sacharbeit fortzusetzen. Daher lieber erst die Störung behandeln und möglichst beheben, dann wieder an die Sacharbeit gehen. Handelt es sich nicht um Kleinigkeiten, sondern um einen ausgewachsenen Konflikt z. B. der Teilnehmer untereinander, ist die Moderationstechnik an ihren Grenzen. Es bedarf dann einer Mediation oder einer anderen Art der Konfliktlösung, worauf in diesem Rahmen nicht weiter eingegangen werden kann. Wichtig ist: Zuerst den Konflikt lösen, dann erst zurück zur Sacharbeit. Ist also das „Arbeitsfeld“ vorbereitet, gilt es, zu einer konkreten Fragestellung Antworten zu sammeln, ohne sie zu bewerten. Hierbei wird eine gute Identifika-

142

5 Methoden des operativen Managements

tion der Teilnehmer mit den Resultaten erreicht, da die thematischen Aspekte alle aus der Gruppe selbst kommen und nicht von oben vorgegeben werden. Man kann neben einfachem Abfragen und Notieren an Tafel oder Flipchart dazu auch eine Kartenabfrage einsetzen. Mittlerweile gibt es fertige Moderationskoffer zu kaufen, die außer Karten auch andere nützliche Materialien enthalten. Zur anschließenden Auswahl der Antworten müssen diese gruppiert und gewichtet werden. Hierfür können die Teilnehmer zum Beispiel über Kleben von Punkten neben den Themen ihre persönliche Wertung vornehmen. Die wichtigsten Themen können nun am besten in Kleingruppen bearbeitet und anschließend im Plenum präsentiert werden. Generell wird also systematisch ein Problemlösungszyklus abgearbeitet, wie er in Abb. 5.1 dargestellt ist. Wichtig ist, dass am Ende des Gesprächs nichts mehr offen ist. Alles muss in einen Maßnahmenplan mit Terminen und Verantwortlichen münden (auch wenn nur festgehalten wird, dass sich darum in einer weiteren Besprechung gekümmert werden muss, da jetzt die Betroffenen nicht dabei sind). Hierbei ist darauf zu achten, dass alle beschlossenen Tätigkeiten realistisch, konkret und überprüfbar sind. Die festgehaltenen Ergebnisse müssen an die entsprechenden Stellen weitergeleitet werden, was meist auch in den Aufgabenbereich des Moderators fällt.

Abb. 5.1   Problemlösungszyklus

5.1 Kommunikationsmethoden

143

Seitens des Moderators ist es wichtig, einen positiven Abschluss zu finden. Neue Studien von Harvard zeigen, dass der letzte Kontakt der wichtigste ist, von ihm bleibt am meisten hängen. Das soll nicht als „Friede, Freude, Eierkuchen“ verstanden werden, sondern die Teilnehmer sollen den Eindruck mitnehmen, etwas Sinnvolles erarbeitet zu haben. Dies muss noch mal ins Gedächtnis zurückgerufen werden, auch in Verbindung mit beispielsweise einem Dank für die gute Arbeit. Betrachtet man also die Moderationstechnik, fällt auf, dass der Moderator neben Analyse- und Lösungstechniken besonders viel Geschick in Gesprächsführung, Fragetechniken und auch in aktivem Zuhören haben sollte. Zu diesen Techniken finden sich in der genannten Literatur weitere Grundlagen, wobei man seine entsprechende Geschicklichkeit kaum durch Anlesen, sehr wohl aber durch praktisches Training verbessern kann. Und darum heißt es auch hier: üben, üben, üben.

5.1.4  Verhandlungstechnik Verhandeln ist keineswegs nur auf den Manager beschränkt, das tägliche Leben fordert ständig von uns Verhandlungstechnik: So fängt das Kleinkind sofort zu verhandeln an, wenn es abends ins Bett soll, Vater und Mutter verhandeln darüber, welches Fernsehprogramm eingeschaltet werden soll, der Naturwissenschaftler diskutiert im Kollegenkreis seine neue Theorie. Auch das ist eine Verhandlung. Der Berufsanfänger verhandelt seinen Einstellungsvertrag oder sein Gehalt, der Vorgesetzte mit dem Mitarbeiter die Zielerreichung des vergangenen Jahres usw. Keine Verhandlung ist allerdings die Gerichtsverhandlung, trotz der Bezeichnung. Denn hier streiten sich zwei Parteien und ein Dritter (der Richter) entscheidet, wer Recht hat. Eine Verhandlung im hier behandelten Sinn ist immer dadurch gekennzeichnet, dass zwei Parteien (oder Personen) einen strittigen Sachverhalt gemeinsam lösen und zu einem von beiden Seiten akzeptierten Ergebnis gelangen (oder die Verhandlung abbrechen). Die Vorgehensweisen beim Verhandeln gehören zum elementaren Handwerkszeug jedes Managers. Er kann das aber in Deutschland nirgends lernen. Weiter ist man hier in den USA, wo an den bekannten Managementschulen Verhandlungstechnik in praxisnaher Form eingeübt wird. Wir werden uns im Folgenden deshalb auch am berühmten „Harvard Modell“ der Verhandlungsführung (Fisher et al. 2004) orientieren. Zunächst sei jedoch darauf hingewiesen, dass Verhandlungen keineswegs auf der rationalen Ebene entschieden werden. Meist sind sogar emotionale Elemente entscheidend (s. Abb. 5.2) Nur wer den anderen emotionell für sich einnehmen kann, wird ein guter Verhandler sein. Das muss nicht unbedingt Zuneigung bedeuten, eine emotionelle Verbundenheit kann auch auf Respekt, Achtung, Vertrauen etc. basieren. Darüber hinaus ist das gefühlsmäßige Erfassen psychologischer Stimmungslagen wichtig. Droht die Situation zu sehr zu verkrampfen, kann man sie mit einem Witz entspannen. Ein guter Verhandler wird auch Spaß an sportlichem Wettkampf und Wettbewerb mitbringen, Begeisterungsfähigkeit und die Fähigkeit, Emotionen zu zeigen,

144

5 Methoden des operativen Managements

Abb. 5.2   Verhandlungen laufen nur teilweise auf der rationalen Inhalts-Ebene ab. Wichtiger ist die emotionale Beziehungs-Ebene (nach Birkenbihl 1995)

sich deutlich zu ärgern und sich befreiend zu freuen. Ohne dieses gefühlsbetonte, auf einem Wertesystem basierende Verhalten, das heute zusammenfassend als emotionale Intelligenz bezeichnet wird, wird ein guter Verhandler sicher nicht auskommen. Darüber hinaus muss man sich im Klaren darüber sein, dass es bei Verhandlungen immer um Konflikte geht, um gegensätzliche Interessenlagen. Grundvoraussetzung für die Lösung eines Konfliktes ist die Konfliktfähigkeit. Das ist ein zivilisatorisches und kulturelles Element. Konfliktunfähig nennt man einen Menschen, der einem Konflikt entweder ausweicht oder der nur in der Lage ist, ihn emotional nach der Steinzeit-Methode des „Alles oder Nichts“ auszutragen. Konflikte sind ausgesprochen konstruktiv und kreativ, ohne sie gibt es keine Spannung, keine Bewegung, keinen Fortschritt. Ist man allerdings nicht in der Lage, mit Konflikten umzugehen, führen sie direkt ins Chaos, in die Destruktion. Bezüglich der technischen Vorgehensweisen wollen wir im Folgenden einige Grundregeln aus dem Harvard Modell herausgreifen, die unseres Erachtens entscheidend für den Erfolg bei Verhandlungen sind: Nicht auf die vordergründigen Positionen, sondern auf die dahinter liegenden wahren Interessen eingehen! Dieser Appell ist im Grunde genommen auch eine Forderung an das psychologische Einfühlungsvermögen. So kämpft das „bockige“ Kind eigentlich nur um die Aufmerksamkeit der Mutter. Sobald man dies klar erkennt, kann man auch „richtig“ darauf reagieren. Der Autoverkäufer muss zunächst versuchen herauszubekommen, was der eigentliche Antrieb des Kunden ist: will er ein Statussymbol erwerben, einen Modeartikel, eine „Trophäe“, um damit Eindruck zu „schinden“ oder geht es ihm wirklich nur um einen „fahrbaren Untersatz“? Auch bei geschäftlichen Ver-

5.1 Kommunikationsmethoden

145

handlungen ist es oft die wichtigste, aber außerordentlich schwierige Aufgabe, herauszufinden, warum die Gegenseite gerade am Anfang der Verhandlung – was oft geschieht – so unsinnig hoch erscheinende Positionen aufbaut. Als Beispiel für die Wichtigkeit des Erkennens der wahren Beweggründe werden häufig die israelisch-ägyptischen Verhandlungen über die Sinai-Halbinsel 1978 angeführt: Erst als man analysierte, dass es das wesentliche Interesse Ägyptens war, die Souveränität über die Halbinsel wieder zu erhalten, das der Israelis jedoch nur in einem Schutzbedürfnis bestand, erreichte man nach wochenlangem Stillstand das Ergebnis: Ägypten erhielt die Souveränität, Israel die Zusicherung, dass die Halbinsel waffenfrei bleiben würde. Der oben zitierte „harte Verhandler“ steht vielleicht nur intern so unter Druck, weil er gegenüber seinem autoritären Chef nicht als weicher Verhandler dastehen darf. Wenn man diese dahinter liegenden Interessen erkennt, kann man seine Verhandlungsstrategie daran ausrichten: Entweder durch „rationales“ Hinterfragen die Position „demaskieren“ oder dem anderen ermöglichen, nach außen als „hardliner“ dazustehen, solange er in entscheidenden Sachfragen eigenen Interessen entgegen kommt. „ win-win“-Situationen suchen! Niemals soll man sich in Verhandlungen von Anfang an auf die strittigen Punkte stürzen, sondern erst einmal die beiderseits akzeptierbaren Angelegenheiten durchgehen. In dieser Phase ist es besonders hilfreich, wenn man Situationen erarbeitet, die für beide nicht nur akzeptierbar, sondern sogar eindeutig vorteilhaft sind: „win-win“-Situationen. Z. B. in einem Verkaufsgespräch muss man dazu erkunden, was der Kunde denn als zusätzlichen „Gewinn“ empfinden würde. Manchmal gelingt das auch dadurch, dass man „den Kuchen vergrößert“. Das entspricht z. B. der Vertriebspolitik der in Kap. 7 erläuterten Firma „Blech“. Das „hardware“-Produkt wird dort um Leistungen wie extreme Kundenbetreuung, Lagerhaltung, Planungshilfen etc. „vergrößert“, was dem Kunden nutzt, und der Anbieterfirma zur Durchsetzung eines höheren Preises verhilft. Es bringt also beiden Vorteile.  bjektive Kriterien vereinbaren! O Bevor Sachfragen behandelt werden, sollten die Kriterien und Regeln festgelegt werden, welche in der Verhandlung Anwendung finden sollen. Will man z. B. den Wert einer Sache anhand des Bilanzwertes, eines Marktwertes oder auf Basis einer Bewertung durch einen Sachverständigen festlegen. Soll der Unternehmenswert auf Basis des Ertrags- oder des Substanzwertes eingestuft werden und soll dabei die Vergangenheit (wie viele Jahre) maßgeblich sein oder soll auch die Zukunftsplanung berücksichtigt werden. Auch Kriterien wie Gleichbehandlung, Gegenseitigkeit, moralische Grundsätze sollten vorher besprochen werden. Man kann zum Beispiel bei einer Preisverhandlung vereinbaren, dass der Verhandlungspartner nicht mit einem möglichen Zwischenergebnis auf dem Markt „hausieren“ geht, um in einem „Versteigerungsmodus“ den Preis aufzubessern etc. Für die eigene Verhandlungsführung bedingt das natürlich, dass man vorher die Auswirkungen der vereinbarten Kriterien gut durchdacht hat. Denn man muss dann auch akzeptieren, wenn

146

5 Methoden des operativen Managements

man ggf. Abstriche von den eigenen Forderungen hinnehmen muss, sollten die objektiven Kriterien das ergeben. Es wäre tödlich, wollte man dann selber wieder die Kriterien in Frage stellen.  as Ausstiegs-Szenario im Auge behalten D Verhandlung hat immer etwas mit Macht zu tun. Sollte die Verhandlung scheitern und die eigene Situation dann relativ vorteilhaft sein, so hat man ganz andere verhandlungstaktische Möglichkeiten als wenn das Scheitern für einen selbst eine Katastrophe bedeuten würde. Die verschiedenen Szenarien sollte man vorher sorgfältig durchdenken. Dabei sollte man auch versuchen, das beste Ausstiegsszenario der Gegenseite zu entwerfen, um daraus die Stärken/Schwächen-Analyse der Gegenseite abzuleiten. Spürt man, dass die Verhandlung auf ein Scheitern zusteuert, empfiehlt es sich, zunächst eine „Auszeit“ zu nehmen, damit beide Seiten die Lage und mögliche Alternativen zunächst unter sich besprechen können („caucus“ nennen das die Amerikaner). Häufig kommt danach die Verhandlung wieder in Schwung. Wichtig ist es auch, alle möglichen „Knackpunkte“ noch einmal ausdrücklich anzusprechen, bevor man dem Verhandlungsergebnis zustimmt. Denn nach einem „Zuschlag“ hat man kaum noch eine Chance etwas zu ändern, beziehungsweise würde man damit die Atmosphäre endgültig zerstören. Diese wenigen Hinweise mögen zeigen, dass es durchaus erlernbare Methoden gibt, um die handwerklichen Fähigkeiten der Verhandlungsführung entscheidend zu verbessern. Für den Verhandlungserfolg sind neben den Methoden vor allem allgemeine Verhaltensgrundsätze wichtig. Beispielsweise der Grundsatz, weich zu den Personen, aber hart in der Sache zu sein. Moderates persönliches Vorgehen, das sich Hineindenken in die Lage des Anderen, das Suchen nach Gemeinsamkeiten bedeutet nicht, dass man weich und schon gar nicht, dass man „schwach“ verhandelt. Verhandlungen sind Interessenskonflikte und das muss auch deutlich werden. Niemals soll man deshalb Drohungen, Druck oder gar Erpressungen nachgeben. Natürlich kann das auch zu handfestem Streit führen, der dann durchaus auch seinen legitimen Platz hat. So wie der Witz manche Verhandlungssituation entkrampfen kann, vermag im Übrigen auch das reinigende Gewitter eines handfesten Streites durchaus positiv und förderlich zu wirken. Es kann also zu Situationen kommen, wo man sehr deutlich klar macht – auch in entsprechender Erregung – welche Positionen oder Verhaltensweisen man unter gar keinen Umständen akzeptieren wird. Solchen Grenzsituationen kommt man dann ggf. nicht mehr mit dem normalen Handwerkszeug der Verhandlungsführung bei, sondern ist zusätzlich auf sein Gefühl, auf die Erfahrung und letztendlich auf die „Kunst“ des Verhandelns angewiesen.  xkurs Verhandeln in anderen Kulturkreisen E Wirtschaft und Wissenschaft sind heute derart international, dass Verhandlungen mit Menschen anderer Kulturkreise keine Ausnahmesituationen mehr darstellen. In solchen Verhandlungen ist zusätzlich Gespür für die Stimmungslagen, Eigenarten und Gepflogenheiten der Verhandlungspartner gefordert. Da Verhandlungen Konfliktsituationen darstellen, reagiert eine Verhandlungsatmosphäre sehr sen-

5.1 Kommunikationsmethoden

147

sibel auf atmosphärische Störungen und Spannungen. Das Umkippen der Verhandlungsatmosphäre kann noch leichter geschehen als in Verhandlungsrunden des eigenen Kulturkreises. Gleichzeitig machen kulturelle Unterschiede auch die Faszination solcher Verhandlungen aus und sie führen oft zu freundschaftlichen Banden. Emotionale Bindungen baut man gerade zu Menschen auf, mit denen man Konfliktsituationen gemeinsam durchstanden hat und sei es auf verschiedenen Seiten. Es ist problematisch, zu versuchen, Leitlinien für Verhandlungen über Kulturkreise hinweg zu geben, weil es die Gefahr birgt, unselige Vorurteile und Verallgemeinerungen zu verstärken. Die einschlägige Literatur weist u. E. durchweg diesen Mangel auf, weshalb wir sie auch nicht zitieren oder empfehlen wollen. Unbestritten ist jedoch, dass große Unterschiede zwischen Menschen und Vorgehensweisen verschiedener Kulturkreise bestehen. Bei Verhandlungen in den USA wird man z. B. darauf zu achten haben, schnell „zum Punkt zu kommen“, nicht um Dinge herum zu reden, klar „Ja“ oder „Nein“ zu sagen. In Brasilien kann es dagegen tödlich sein, gleich „mit der Tür ins Haus zu fallen“. Ein Brasilianer sagt einem nicht gerne ein glattes „Nein“ ins Gesicht. Man muss also gelernt haben, auf Zwischentöne zu achten, um eine Antwort richtig einordnen zu können. An einer derartigen Gedankenlosigkeit scheiterte der Herausgeber einmal in Japan. Er hatte eine Veranstaltung einer internationalen Assoziation in Tokio zu leiten. Japan war der Vereinigung noch nicht beigetreten und die Europäer hatten sich vorgenommen, das mit dieser Veranstaltung zu forcieren. Im Dinner-Vortrag der Eröffnung hatte er – seiner Meinung nach recht behutsam – die Erwartung geäußert, dass es schön wäre, würden die Japaner der Assoziation beitreten. Es entstand sofort darauf Getuschel am Tisch der Japaner und bei der nachfolgenden Aussprache stand einer von ihnen auf und verkündete verlegen, Japan werde der Assoziation beitreten. Das ist jedoch nie geschehen. Erst später wurde uns klar: Was wir als behutsamen Fingerzeig versucht hatten, haben die Japaner offensichtlich als Gesichtsverlust empfunden. Es war ein grober Fehler, das Thema überhaupt „öffentlich“ vor dem gesamten Auditorium anzuschneiden. Man hätte das vor der Besprechung mit einem Vertreter der Japaner privat behandeln müssen. Bei Erzählungen über Verhandlungen mit ausländischen Partnern wird meist schamlos geprahlt: Wie man die Russen mit Wodka unter den Tisch getrunken habe und sich von den chinesischen gastronomischen Eigenheiten überhaupt nicht beeindrucken ließ usw. Dahinter stehen recht plumpe Anbiederungsversuche an das Fremde. Sie bieten keineswegs eine Erfolgsgarantie. Man kann vielmehr getrost von dem Grundsatz ausgehen, dass man bei Verhandlungen mit Ausländern vor allem man selbst bleiben soll. Nichts einfach imitieren und sich ggf. der Lächerlichkeit preisgeben! Man soll jedoch versuchen, die Eigenarten kennen und verstehen zu lernen und verständnisvoll auf fremdartige Vorgehensweisen reagieren. Respekt wird einem nur zuteil, wenn man sich als glaub- und vertrauenswürdig erweist. Das erreicht man am nachhaltigsten mit einer fairen und harten Verhandlungsführung, bei welcher der Gegenüber jedoch spürt, dass einen der andere Mensch, der fremde Kulturkreis innerlich wirklich und echt interessiert.

148

5 Methoden des operativen Managements

5.2  Kreativmethoden – Ideen finden in Teamarbeit Zum Thema Kreativität gibt es unzählbare Literatur, die ebenso viele Methoden beschreibt. Trotz der Vielfalt an Arbeiten ist es schwer, ein brauchbares, in der Praxis anwendbares Werk zu finden. Daher möchten wir Ihnen die Grundlagen näher bringen, um neue Ideen zu erzeugen und somit Probleme lösen und Visionen entwickeln zu können, jedoch nur einige wenige Techniken konkret vorstellen. Alles Weitere können Sie Sich selbst herleiten oder in Büchern, Seminaren und letztendlich durch Ausprobieren und Üben aneignen. In allen Methoden geht es darum, nicht auf den Geistesblitz zu warten, sondern gezielt zu einer Fragestellung Antworten zu finden. Dabei sollen Denkblockaden gelöst oder durch einen Perspektivwechsel umgangen werden. Gute Ideen können einem schon mal „zufliegen“, allerdings hat man meist keine Zeit, um so auf die Lösung des Problems zu warten. Hier setzen nun die Kreativitätstechniken an, um diesen Ideenfindungsprozess zu beschleunigen. Wichtig für alle Methoden ist, am Anfang die richtige Frage zu stellen, das Problem konkret zu benennen ohne dabei schon zu enge Vorgaben zu machen. Die Kunst ist also die richtige Mischung aus Freiheit (das Problem mal von einer anderen Warte aus betrachten) und Rahmenbedingungen zu schaffen. Völlig freies „Phantasieren“ führt nur in den seltensten Fällen zum Erfolg, da sich viele Menschen durch völlige Freiheit blockiert fühlen und dann viele unerwünschte und unrealistische Lösungen produziert werden, um wenigstens irgendwas zu sagen – je abstrakter desto besser. Die meisten Methoden können sowohl von Einzelpersonen als auch von Gruppen angewandt werden. In der Regel werden Gruppen von fünf bis zehn Teilnehmern gebildet, da die Erfahrung zeigt, dass weniger Personen nicht genügend neue Impulse bringen, viele Menschen sich aber gehemmt fühlen, vor mehr als zehn Personen ihre Gedanken frei zu äußern. Des Weiteren geht es darum, das Team sinnvoll und nicht aus politischen Gründen zusammenzustellen. Die Gruppendynamik kann hierbei zu gewollten Synergieeffekten führen oder aber auch von Blockaden aufgrund eingefahrenen Denkens bis hin zu störenden Konflikten. Hier sei auf die entsprechenden Spielregeln für Teamarbeit (Kap. 6.3.1.) verwiesen. Auch ist es meist sinnvoll, sich in solchen Ideenfindungssitzungen durch einen Moderator anleiten zu lassen (siehe dazu auch Kap. 5.1.3) Einige einfache Techniken wollen wir Ihnen näher vorstellen: das Brainstorming, die Methode 635, den morphologischen Kasten und das Mind Mapping. All diese Methoden ermöglichen einen systematischen und strukturierten Rahmen für kreative Prozesse. Komplexere und sehr abstrakte Methoden wie z. B. die Synektik oder TRIZ nach Altschuller (1986) können Sie in der entsprechenden Literatur nachlesen. Gemeinsam ist allen Methoden: Sie sind keine Algorithmen, die zwangsläufig zum „richtigen“ Ergebnis führen und immer auf einen bestimmten Problemtyp passen. Vielmehr muss jeder für sich bzw. sein Team und die entsprechende Situation das passende Werkzeug finden. Eine absolute Grundregel ist, zuerst Lösungsansätze zu produzieren ohne sie zu bewerten oder näher darauf einzugehen und erst in einem zweiten Schritt alle Ansätze zu sichten, zu sortieren und zu bewerten, um dann

5.2 Kreativmethoden – Ideen finden in Teamarbeit

149

die erfolgversprechendsten weiter zu bearbeiten. Erst diese Trennung von Ideengenerierung und -bewertung erlaubt es, den Kopf frei für weitere unkonventionelle Gedanken zu haben und sich nicht gleich in die erste – und meist nicht beste – Idee zu verrennen. Die bekannteste Kreativitätsmethode ist sicherlich das Brainstorming, welches in den 1950er Jahren von dem Amerikaner Alex Osborn entwickelt wurde (Osborn 1957). Er benannte sie nach ihrer Grundidee „using the brain to storm a problem“. Hierbei gilt es möglichst viele Ideen spontan in kürzester Zeit (5–30 min) zu produzieren, wobei freies Assoziieren und Phantasieren erlaubt ist. Die wichtigsten Regeln, um eine möglichst produktive und erfindungsreiche Stimmung zu schaffen sind: • Jeder darf seine Gedanken frei äußern. • Keine Kritik oder Korrekturen anderer Beiträge (kreative Ansätze können sich auch aus zunächst unsinnig erscheinenden Vorschlägen entwickeln). • Vorerst keine Beurteilung oder Wertung der Ansätze. • Man darf sich von geäußerten Ideen inspirieren lassen und diese aufgreifen oder kombinieren. Während dieser Phase des Sammelns werden alle Ideen protokolliert und erst anschließend sortiert und bewertet. Auch hier gilt es, den Mittelweg zwischen festen Rahmenbedingungen und unkonventionellem Denken zu finden, denn erst mit den richtigen Fragen kann das Team volle Leistung bringen. Dafür sollten die Fragen so formuliert sein, dass die Teilnehmer unbewusst angeregt werden, unkonventionell zu denken. Mit der Frage sollte schon eine neue Perspektive eingenommen werden: • Nicht: Was können wir an unserem Produkt verbessern? • Sondern: „Für welchen Kunden eignet sich das Produkt am wenigsten?“ oder „Was ist das größte Ärgernis beim Gebrauch unseres Produktes?“ (Coyne et al. 2008). Das Verfahren wird erst durch das anschließende Sortieren und Auswerten der Lösungsansätze effizient, die Sitzung ist erst erfolgreich, wenn man auch zu einem Ergebnis gekommen ist (auch hier verweisen wir wieder auf Kap. 5.1.3). Es handelt sich beim Brainstorming um ein einfaches Verfahren, welches sich hervorragend bei Problemen geringer Komplexität oder als Einstieg, so zu sagen „zum Warmmachen“, bei einem komplexeren Thema eignet. Bei „unkontrolliertem“ Einsatz produziert die Methode eine Unmenge unbrauchbarer Ansätze (meist über 90%). Diese Gefahr kann zum Einen durch den Einsatz eines Moderators, der z. B. Abschweifen verhindert, und zum Anderen durch den Schritt zum sogenannten Brainwriting gemindert werden. Beim Brainwriting schreiben die Teilnehmer ihre Ideen auf und werden somit im ersten Schritt noch nicht von den Andern beeinflusst. Als positiven Nebeneffekt schafft man so auch eine Gleichberechtigung zwischen stilleren und verbal aktiveren Teilnehmern. Weder Brainstorming noch Brainwriting zwingen – außer eventuell durch die Art der Fragestellung – wirklich

150

5 Methoden des operativen Managements

zu einem Perspektivenwechsel und sind daher sehr von den Fähigkeiten der Gruppe zur Abstraktion abhängig. Eine Art dieses schriftlichen Brainstorming ist die Methode 635, bei der sechs Personen jeweils drei Lösungsvorschläge innerhalb von fünf Minuten entwickeln. Sie wurde 1968 von Prof. Bernd Rohrbach entwickelt (Rohrbach 1969). Auch hierbei muss im ersten Schritt das Problem definiert werden. Dann haben alle sechs Teilnehmer fünf Minuten Zeit, jeder für sich je drei mögliche Problemlösungen auf ein Blatt Papier zu schreiben. Anschließend werden die Blätter an den Nächsten weitergegeben, welcher die darauf vermerkten Ideen weiterentwickelt, so dass wieder innerhalb von fünf Minuten drei neue Ideen entstehen. Die Blätter werden fünfmal weitergereicht, bis jeder auf jedem Blatt drei Ideen notiert hat. Anschließend werden aus allen entstandenen Ideen die erfolgversprechendsten ausgewählt. Im Gegensatz zum Brainstorming können bei dieser schriftlichen Methode die Ideen nicht zerredet werden und trotzdem erhält man auf eine einfache Weise in relativ kurzer Zeit eine Vielzahl an Lösungen. Dabei kann sich der Zeitdruck sowohl vorteilhaft – der Stress „pusht“ und man denkt nicht lange über die einzelne Idee nach und lässt somit auch irrationale Lösungen zu – als auch nachteilig auswirken – der resultierende Stress blockiert. Auch diese Methode findet vor allem bei Problemen geringer bis mittlere Komplexität Anwendung. Eine auch zur Lösung komplexerer Probleme geeignete Methode ist die in den 1960er Jahren vom Schweizer Astrophysiker Fritz Zwicky entwickelte morphologische Analyse, auch morphologischer Kasten genannt. Die Morphologie ist die Lehre der Gestalt- und Formbildung und die morphologische Analyse ein Weg, um eine neue Gestalt, Form oder Zusammensetzung zu finden (Zwicky 1966). Man entwickelt hierbei systematisch und strukturiert mit Hilfe einer beliebig-dimensionalen Matrix eine Menge möglicher Lösungsalternativen. Dazu geht man folgendermaßen vor: 1. Die Fragestellung oder das Problem wird erfasst und möglichst allgemein formuliert. 2. Das Problem wird in Teilprobleme (auch Teilfunktionen, Komponenten, Parameter, Merkmale genannt) unterteilt. 3. Zu jedem Teilproblem werden möglichst viele Teillösungen / Ausprägungen / Erscheinungsformen erarbeitet. 4. Man stellt sich nun jedes Merkmal als Achse vor, bei drei Merkmalen hat man also die drei Achsen eines Kastens. Auf jeder Achse denkt man sich weiter die jeweiligen Ausprägungen des Merkmals. 5. Nun kombiniert man entweder systematisch oder intuitiv eine Ausprägung jedes Merkmals miteinander. Bei drei Merkmalen liefert eine Kombination der drei Ausprägungen einen Punkt innerhalb des Kastens oder der dreidimensionalen Matrix. Dabei sollten möglichst alle Kombinationen durchgespielt und bewertet werden. 6. Die „beste“ Lösung wird bestimmt. 7. Eventuell werden die zuvor als sinnlos abgetanen Lösungen erneut ausgewertet, denn solche Kombinationen sind oft Grundelemente der Kreativität.

5.2 Kreativmethoden – Ideen finden in Teamarbeit

151

Somit soll erreicht werden, dass komplexe Sachverhalte systematisch in abgrenzbare Einzelelemente (die sogenannten Problemparameter) zerlegt werden und nur zu diesen Einzelelementen Gestaltvariationen gesucht werden. Erst im nächsten Schritt erzeugt man durch die Kombination der Gestaltvariationen neue „Ganzheiten“. Auch hier liegt der Schlüssel zum Erfolg im richtigen Anfang, im Identifizieren der entscheidenden Parameter. Diese müssen • voneinander logisch unabhängig sein, damit später eine freie Kombination möglich ist, • im Hinblick auf die Aufgabenstellung umsetzbar sein und • eine konzeptionelle Relevanz besitzen und nicht unwesentliche Details beschreiben. Diese Problemparameter kann man zum Beispiel durch ein Brainstorming zusammentragen und entsprechend dieser Punkte auswählen. Genauso kann man die Sammlung der Ausprägungen als Kartenabfrage gestalten (siehe Kap. 5.1.3), je nach Komplexität der Teilprobleme. Die morphologische Analyse wird anhand eines Beispiels klarer: ein neues Sitzmöbel soll entwickelt werden. Merkmale und Ausprägungen haben wir der Einfachheit halber tabellarisch in Tab. 5.1 aufgelistet: Es ergibt sich als mögliche Kombination: keine Beine, aus Textilien, mit variablen Armlehnen und einer mit der Sitzfläche verbundenen Rückenlehne, so könnte der gut bekannte Sitzsack entstanden sein. Der morphologische Kasten ermöglicht eine systematische Erarbeitung einer Lösung ohne im Denken eingeengt zu sein, da man sich völlig frei mit den einzelnen Teilfunktionen beschäftigt. Dadurch zieht man auch nicht mit dem ursprünglichen Problem in direktem Zusammenhang stehende extreme Varianten und ungewöhnliche Teillösungen in Betracht. So würde man im ersten Moment nicht an „keine Beine“ bei der Entwicklung eines Stuhls denken. Trotzdem bleibt die Lösung auch im Nachhinein transparent und nachvollziehbar. Allerdings ist die Methode recht zeitaufwendig, da auch Lösungen durchdacht werden müssen, die man vielleicht gleich hätte ausschließen können. Eine weitere, auch den Kreativitätsmethoden zugeschriebene Technik ist die vom britischen Psychologen Tony Buzan eingeführte Gedankenkarte oder Mind Map (Buzan 2002). Sie ist eine graphische Darstellung, die Beziehungen zwischen verschiedenen Begriffen aufzeigt und dient daher grundsätzlich der GedankenstrukTab. 5.1   Beispiel zum morphologischen Kasten: Entwicklung eines Sitzmöbels Merkmal Ausprägungen Anzahl der 0 1 2 3 4 5 Beine Material Holz Metall Kunststoff Textilien Gummi Leder Armlehnen eine zwei keine verstellbar variabel mit Sitzfläche verstellbar keine Rückenlehne breit schmal variabel verbunden

20 Kork

152

5 Methoden des operativen Managements

turierung. Neben der Ideensammlung können mit Hilfe der Mind Map ebenso gut Sachtexte strukturiert, Vorträge entworfen oder komplexe Sachverhalte geordnet werden, sie findet also von der Wissenschaft bis zur Wirtschaft zahlreiche Einsatzmöglichkeiten. Bei einer Mind Map stellt man vom zentralen Thema in der Mitte des Blattes ausgehend die dazugehörenden Informationen mit nach außen ragenden Haupt- und Unterästen ranggerecht dar. Im Gegensatz zum Brainstorming wird hier also von Beginn an eine vernetzte Struktur erzeugt. Durch das Benutzen von Schlüsselworten, Bildern und Farben, wird man der kreativen Arbeitsweise des Gehirns gerecht und kann daher die Mind Map schneller überblicken und lesen. Es gibt heute zahlreiche Computerprogramme, die das kontinuierliche Erstellen und Ändern am Bildschirm vereinfachen. Da wir uns besonders an Naturwissenschaftler und Ingenieure wenden, möchten wir noch kurz den Begriff des Design Thinking (Brown 2008) erwähnen. Hierbei geht es darum, die Bedürfnisse des Kunden optimal mit dem technisch Machbaren zu verknüpfen und so durch eine auf Rentabilität ausgerichtete Geschäftsstrategie, sowohl Kundenwert als auch Marktchancen zu erhöhen. In der Praxis bedeutet das im kreativen Entwicklungsprozess neuer Produkte das Design gleich von Anfang an mit zu berücksichtigen und nicht wie bisher die Funktionalität auszuarbeiten und dann zu sehen, was man aussehenstechnisch noch machen kann. Design kann nicht nur schön, sondern auch funktional sein, bzw. den Wettbewerbsvorteil ausmachen. Wir alle kennen Geräte oder Werkzeuge, die schon nicht gut in der Hand liegen und dann die Qualität oder Zweckerfüllung schon gar keine Rolle mehr spielt, da wir sie nur ungern benutzen. Zusammenfassend kann man sagen, dass sich alle Methoden am typischen Problemlösungszyklus (s. Kap. 5.3.1) orientieren. Wichtig ist, die richtige Frage zu stellen, wobei nicht je offener desto besser bedeutet. Durch Einsatz der passenden Methode und eventuell eines Moderators kann die Ideenfindung effizient und effektiv umgesetzt werden.

5.3  Qualitätsmanagement Da Qualität in der heutigen Zeit des globalen Handels und auch internationalen „Abkupferns“ wichtiger ist denn je, sind Qualitätssicherung (QS) und Qualitätsmanagement (QM) aus unserem Arbeitsalltag nicht mehr wegzudenken. Somit kommt auch jeder Berufseinsteiger vom ersten Tag an mehr oder weniger direkt mit ihnen in Kontakt. Nicht nur in produzierenden Unternehmen trägt jeder die Verantwortung für die von ihm geleistete Arbeit. Bei jedem Arbeitsablauf gilt es sicherzustellen, dass der vorangehende Arbeitsschritt sorgfältig ausgeführt wurde und man selbst qualitativ hochwertige Leistungen an den nachfolgenden Kollegen weitergibt, egal ob es sich um eine Verwaltungstätigkeit, eine Dienstleistung oder die Fertigung eines Produktes handelt. Wir möchten Ihnen daher einen Überblick über die wichtigsten QM-Systeme und -Methoden geben und ihren Nutzen verdeutlichen. Sie sollen Qualitätsmanagement nicht als Last empfinden, sondern in der

5.3 Qualitätsmanagement

153

Lage sein, es sinnvoll einzusetzen. Denn wie wichtig gute Qualität ist, veranschaulichen folgende Beispiele: 99% Qualität bedeutet…(Rehben u. Yurdakul 2005) …10 Unfälle bei Start und Landung am Flughafen Frankfurt am Tag, …90.000 falsche Verurteilungen für Kapitaldelikte im Jahr, …5.000 ärztliche Kunstfehler in der Woche, …200.000 falsche Verschreibungen im Jahr, …7 Stunden ohne Strom im Monat oder …15 min unsicheres Trinkwasser am Tag. Doch was ist überhaupt Qualität? Dazu folgende Definitionen aus der DIN EN ISO 9000:2005: Qualität ist der „Grad, in dem ein Satz inhärenter Merkmale Anforderungen erfüllt“, wobei „inhärent“ „einer Einheit innewohnend“ bedeutet und Anforderungen „Erfordernisse oder Erwartungen sind, die festgelegt, üblicherweise vorausgesetzt oder verpflichtend sind“. Ein Fehler ist dementsprechend die „Nichterfüllung einer Anforderung“. Ziel des modernen Qualitätsmanagements (QM) ist immer noch eine Produktivitätssteigerung, da Qualitätsmängel Ressourcen unnötig binden und somit die Wirtschaftlichkeit reduzieren. Ein QM-System darf aber nicht aufgrund hoher Bürokratisierung zu Mehraufwand führen und dadurch den Wertschöpfungsprozess behindern, sondern muss Entlastung bringen. Es ist nur sinnvoll, wenn es von allen Mitarbeitern auch „gelebt“ wird. Daher ist es auch kontraproduktiv, wenn das System nur zur Erlangung eines Zertifikats implementiert wird.

Abb. 5.3   Anteil der Produktionsstufen an Fehlerentstehung und Fehlerkosten (Masing 2007)

154

5 Methoden des operativen Managements

Warum spricht man aber heutzutage vom ganzheitlichen Qualitätsmanagement und nicht mehr von Qualitätskontrolle oder -sicherung? Dazu zeigt Abb. 5.3 den Anteil der verschiedenen Produktionsschritte an der Entstehung von Fehlern und deren Kosten (Masing 2007). Klar ist: je später ein Fehler entdeckt wird, desto kostspieliger ist seine Behebung. Der größte Anteil an Fehlern entsteht bereits in der Entwicklungsphase und könnte dort so zu sagen durch Versetzen eines Striches auch leicht wieder behoben werden, wird bei der klassischen Qualitätssicherung aber erst in der Prüfung bemerkt und verursacht daher dort den größten Anteil der Fehlerkosten. Es ist also offensichtlich, dass Qualitätskontrolle alleine viel zu spät ansetzt. Planende und ausführende Abteilungen müssen daher im Sinne eines modernen Qualitätsmanagements frühestmöglich zusammenarbeiten. Ein zielgerichteter Mehraufwand in der Planungsphase zahlt sich durch die Senkung der Fehlerkosten mehr als aus. Interessanterweise ist das heutige Qualitätsmanagement eine westliche „Erfindung“, die aber erst nach einem Umweg über Japan, ausgelöst vom Neid auf dessen darauf basierenden wirtschaftlichen Erfolg, in den westlichen Industrienationen Beachtung fand. Der US-amerikanische Physiker und Statistiker William Edwards Deming (1900–1993) wurde nämlich von General Douglas Mc Arthur 1950 als Qualitätsexperte nach Japan geholt, um den dortigen Wirtschaftsaufbau zu unterstützen. In Japan fanden seine Ideen viele Anhänger und es entwickelten sich Kaizen und später das Toyota Produktions System. Erst als 1980 NBC eine Dokumentation mit dem Titel „ If Japan can…Why can’t we?“ ausstrahlte, wurde Deming auch in den USA wahrgenommen. In der westlichen Welt entwickelte sich aus seinen Ansätzen der Kontinuierliche Verbesserungsprozess (KVP), 1987 erschien die erste ISO 9000 Normenfamilie und 1994 tauchte erstmals der Begriff des Total Quality Managements (TQM) auf. Entsprechend der geschichtlichen Entwicklung lassen sich die in Tab. 5.2 folgenden grundsätzlichen Konzeptgruppen unterscheiden (Seghezzi 2007). Somit hat sich im Laufe der Jahre aus einem „gut genug“ der klassischen Qualitätssicherung ein „immer besser“ im modernen Qualitätsmanagement entwickelt. Tab. 5.2   QM-Konzeptgruppen nach Seghezzi (2007) Konzept Qualitätsprüfung Qualitätslenkung Qualitätsverbesserung Prozessorientiertes Qualitätsmanagement Total Quality Management

Inhalt reine Endproduktkontrolle fehlerfreies Ausführen sich wiederholender Prozesse Stetiges Arbeiten an einer Qualitätsverbesserung Augenmerk dem Prozess statt nur dem Produkt betrifft das ganze Unternehmen, also nicht nur Produktion, sondern auch Marketing, Verkauf, Finanz und Personalwesen

Beispiele

Kaizen, Kontinuierlicher Verbesserungsprozess (KVP) ISO 9000 Normenfamilie, Six Sigma Toyota Produktions System (TPS), Excellence Modell der European Foundation for Quality Management (EFQM)

5.3 Qualitätsmanagement

155

Bei uns spielt heute die ISO 9000 Normenfamilie die größte Rolle, weshalb wir uns mit ihr etwas umfangreicher befassen wollen. Wie Sie sehen werden, stellt sie ein Gerüst dar, das jeder mit den für ihn passenden Bausteinen füllen kann. Als mögliche „Bausteine“ wollen wir Ihnen daher das Total Quality Management (TQM), den Kontinuierlichen Verbesserungsprozess (KVP), Six Sigma, das Toyota Produktions System (TPS) und das Wertorientierte Prozess Design vorstellen.

5.3.1  Die ISO 9000 Normenfamilie Der Erfolg der ISO-Normenreihe beruht darauf, dass sie keine normale Norm bzw. kein eigentlicher Standard ist, sondern eine „Metanorm“ (Uzumeri 1997). Sie enthält keine genauen Vorgaben „wie“ etwas gemacht werden muss (Bsp. Produktprüfungen), sondern nur „was“ getan werden soll. Sie legt also fest, was im Rahmen eines Führungssystems passieren muss, nicht aber, wie dies zu geschehen hat. Dies ist leider Vielen nicht bewusst und lässt sie deshalb QM nach „Vorschrift“ als zusätzliche Last empfinden. Ganz wichtig ist auch, dass die neue DIN eine Verbesserung an Qualität nicht nur auf technische Merkmale bezieht, sondern auf Alles, was eine Verbesserung für den Kunden bedeutet. War die alte Normenfamilie noch in ISO 9000 bis 9004 aufgebaut, jeder Teil gültig für einen bestimmten Produktionsbereich, besteht die aktuelle Reihe nach der großen Revision im Jahr 2000 aus folgenden allgemeingültigen Teilen: • ISO 9000:2005 – Qualitätsmanagementsysteme – Grundlagen und Begriffe, • ISO 9001:2000 – Qualitätsmanagementsysteme – Anforderungen, • ISO 9004:2000 – Qualitätsmanagementsysteme – Leitfaden zur Leistungsverbesserung, • ISO 19011:2002 – Leitfaden für Audits von Qualitätsmanagement- und/oder Umweltmanagementsystemen. Hierbei ist ein Zertifikat nach ISO 9001 ein Nachweis, dass ein funktionierendes Qualitätssystem vorhanden ist, bestätigt also die Erfüllung der Mindestanforderung. Die ISO 9004 geht darüber hinaus und gibt eine Anleitung zur kontinuierlichen Verbesserung. Dieser ganzheitliche und prozessorientierte Ansatz der Norm ist neu und hat erst mit der letzten Revision Einzug erhalten, wie auch (Ebel 2001): • die Eignung für kleine und mittlere Unternehmen (kmU) und nicht materiell produzierendes Gewerbe wie Dienstleister und Softwareunternehmen, • die Prozessorientierung, denn Qualität ist das Ergebnis beherrschter Prozesse, • der Kontinuierliche Verbesserungsprozess und Prävention, • eine hohe Kompatibilität mit der Umweltnormenreihe ISO 140000 ff., • ein Verfahren zur Selbstbewertung.

156

5 Methoden des operativen Managements

Dadurch ist nach der aktuellen Definition die Qualitätssicherung nur noch ein Teil des modernen Qualitätsmanagements, neben anderen Aspekten, wie der Festlegung der Qualitätsziele, der Qualitätsplanung, -lenkung und -verbesserung. Damit die Norm diesem Anspruch gerecht werden kann, wurden ihr acht Grundsätze zugrunde gelegt: Acht Grundsätze des Qualitätsmanagements nach ISO 9000:2005: 1. Kundenorientierung 2. Führung 3. Einbeziehung der Personen 4. Prozessorientierter Ansatz 5. Systemorientierter Managementansatz 6. Ständige Verbesserung 7. Sachbezogener Ansatz zur Entscheidungsfindung 8. Lieferantenbeziehungen zum gegenseitigen Nutzen Die Schwerpunkte der ISO 9000 ff. und ihre starke Prozessorientierung sind erstmals anschaulich in einem Prozessmodell (s. Abb. 5.4) dargestellt, welches an den PDCA-Zyklus (Plan-Do-Check-Act-Zyklus) nach Deming angelehnt ist (s. auch Abb. 5.7). Jetzt aber zu einem Punkt, den man immer als erstes mit dem Begriff Qualitätsmanagement in Verbindung bringt: die Dokumentation. Hierzu wollen wir aufzei-

Abb. 5.4   Qualitätsmanagement Prozessmodell aus DIN EN ISO 9000:2005

5.3 Qualitätsmanagement

157

gen, was zum Thema Dokumentation in der Norm selbst steht und was meist daraus von den verschiedenen Zertifizierern gemacht wird. Laut ISO 9001:2000, Kap. 4.2, muss die Dokumentation zum Qualitätsmanagementsystem folgendes enthalten: • • • •

dokumentierte Qualitätspolitik und Qualitätsziele, ein Qualitätsmanagementhandbuch, dokumentierte Verfahren, die von dieser internationalen Norm gefordert werden, Dokumente, die die Organisation zur Sicherstellung der wirksamen Planung, Durchführung und Lenkung ihrer Prozesse benötigt, und • von dieser Internationalen Norm geforderte Aufzeichnungen. In den darauf folgenden Anmerkungen wird darauf hingewiesen, dass der Umfang der Dokumentation von Organisation zu Organisation unterschiedlich sein kann, auf Grund zum Beispiel der Unternehmensgröße oder der Komplexität der Prozesse. Außerdem kann „die Dokumentation in jeder Form oder Art eines Mediums realisiert sein“. Eine Übersicht über die in der Praxis üblichen Dokumente gibt Abb. 5.5. Aus diesen Anweisungen wird nicht selten seitens der Zertifizierer eine bürokratisierte Zettelwirtschaft gemacht, welche so aber an keiner Stelle von der Norm gefordert wird. Diese fordert nur, dass Art und Ausmaß der Dokumentation ihrer Anwendung entsprechend angemessen sein müssen. Wozu das aber eigentlich alles? Der Hauptgrund sollte natürlich das Erreichen eines hohen Qualitätsstandards sein, um im harten Wettbewerb zu überzeugen. In der Praxis ist aber die Antriebskraft oft nur der Erhalt des Zertifikats, welches immer mehr Kunden fordern. Es erleichtert die Schaffung einer Vertrauensbasis in der Kunden-Lieferanten Beziehung, da man sich bei einem zertifizierten Lieferanten auf feste Qualitätsstandards verlassen kann und sich somit die eigene Eingangskontrolle erleichtert. Der Ablauf einer solchen Zertifizierung ist in Abb. 5.6 dargestellt. Audits sind dabei Überprüfungen, ob vorgegebene Kriterien erfüllt werden. Sie sind in ISO 19011 festgelegt.

Abb. 5.5   Übliche Dokumentation nach ISO 9001 (Ebel 2001)

158

5 Methoden des operativen Managements

Abb. 5.6   Ablauf einer Zertifizierung (Ebel 2001)

Zusammenfassend ist also festzuhalten, dass die ISO Normenreihe keine Vorgaben macht, wie ein QM-System aussehen muss, sondern sie ist ein Hilfsmittel zum Aufbau eines individuell zugeschnittenen Systems. Sie möchte Unternehmen anregen, sich aus den verschiedenen Bausteinen ein für sich passendes System zusammenzustellen. Die ISO 9000 Normenfamilie soll auch weiterhin kontinuierlich überarbeitet und aktualisiert werden. So hat das technische Komitee „Qualitätsmanagement und Qualitätssicherung“ die Revision der ISO 9001 und 9004 für 2009 beschlossen. Wahrscheinlich wird die Entwicklung in Richtung einer Harmonisierung der Normen für das gesamte Qualitäts- und Umweltmanagement gehen, die 2012 abgeschlossen sein soll. Außerdem ist eine ergänzende ISO-Serie im Bereich der Kundenzufriedenheit in Arbeit. Nun zu Bausteinen oder „Reinformen“ der Methoden, aus denen Elemente in die aktuelle DIN Eingang gefunden haben, wobei sich die unterschiedlichen Konzepte hauptsächlich in ihrer Schwerpunktlegung unterscheiden.

5.3 Qualitätsmanagement

159

5.3.2  TQM – Total Quality Management Beim Total Quality Management (TQM) liegt der Schwerpunkt auf der Kundenorientierung. Dabei fordert es im Gegensatz zur klassischen Qualitätssicherung die Kundenorientierung auch innerhalb des eigenen Unternehmens. Beziehungen zwischen einzelnen Abteilungen werden als Kunden-Lieferanten Beziehungen gesehen und erfordern deshalb auch eine besondere Sorgfalt, die sonst eher unter den Teppich gekehrt wird – es bleibt ja sozusagen „im Haus“. Jeder ist ein so genannter Prozesseigner, der für seinen Prozess – und sei er noch so klein – verantwortlich ist und seine Kunden zufrieden stellen muss. Dies gelingt nur, wenn man sein „Produkt“ nicht nur so schlecht „ausliefert“, dass die Qualitätssicherung es gerade noch toleriert, sondern so gut wie möglich. Der Begriff „Quality“ bezieht sich auch ganz im Sinne des „Total“ nicht nur auf die technische, sondern auch auf Prozess- und soziale Qualität, ist also ein effektives und effizientes Betreiben des ganzen Unternehmens. Dementsprechend sind auch nicht monetäre Prozesse zu „managen“, also zu planen, zu steuern und zu kontrollieren. Da ein solches System darauf abzielt, Prozesse so zu ändern, dass Fehler gar nicht erst passieren, und nicht etwa Fehlerhaftes auszusortieren, nachzubearbeiten oder zu reparieren, stimuliert es ständige Prozessverbesserungen, was uns zur nächsten Methode bringt.

5.3.3  KVP – Kontinuierlicher Verbesserungsprozess Der kontinuierliche Verbesserungsprozess (KVP) geht auf William Deming zurück (Deming 1986). In Japan entwickelte sich aus dessen Ideen das Kaizen und später das Toyota Produktions System (siehe auch Kap. 5.3.5), im Westen der KVP. Wie der Name schon sagt, liegt bei dieser Methode der Schwerpunkt neben der ständigen Verbesserung auf dem Prozess. Bei klassisch ergebnisorientierten Systemen sucht man nach der Ursache eines fehlerhaften Ergebnisses und beseitigt diese. Dies führt meist nicht zu einer langfristigen Ergebnisverbesserung, da aufgrund der nur kurzfristigen Fehlerbeseitigung andere Ursachen auftreten können. Da man sich also immer nur auf das „was?“ konzentriert, erreicht man keinen Wertzuwachs. Bei der Prozessorientierung fragt man aber immer nach dem „wie?“ z. B. „Wie kann ich das Produkt mit weniger Aufwand bzw. problemloser produzieren?“, was zu einer Analyse des Arbeitsablaufes führt. Damit solche Prozessanalysen auch zu ständigen Prozessverbesserungen führen, sind das Wissen und die Ideen eines jeden Mitarbeiters von enormer Wichtigkeit. Dann ist es möglich, durch langfristige Ergebnisverbesserungen größere Kundenzufriedenheit und damit einen Wertzuwachs zu erreichen.

160

5 Methoden des operativen Managements

Abb. 5.7   Deming-Kreis (PDCA-Zyklus) (Wagner 2007)

Deming stellte dieses systematische Vorgehen in einem stetigen Kreislauf, dem so genannten PDCA-Zyklus (Plan-Do-Check-Act-Zyklus) dar (s. Abb. 5.7) Bei der Prozessanalyse liegt – ähnlich wie beim japanischen TPS (Kap. 5.3.5) – das Hauptaugenmerk auf der Vermeidung jedweder Verschwendung, also der Reduzierung nicht wertschöpfender Tätigkeiten, was jedem auch gleich einleuchtet, oft aber aus den Augen verloren wird. Ziel ist eine ständige Verbesserung in kleinen Schritten zur Optimierung von Qualität und Kosten sowie von Zeit und beispielsweise auch von Umwelt-Aspekten, was uns wieder ans Total Quality Management (Kap. 5.3.2) erinnert. Damit jedes Unternehmen seine maßgeschneiderten Verbesserungsprozesse entwickeln kann, ist eine Unternehmenskultur der Offenheit von Nöten, so dass jeder Probleme und Fehler eingestehen kann ohne bestraft zu werden. Es ist immer besser, Pannen als Möglichkeiten zur Verbesserung zu sehen und publik zu machen, damit Alle aus ihnen lernen können und sich so dauerhaft eine Verbesserung einstellt. Nur in solch einer wertschätzenden Atmosphäre gelingt die Stärkung der Eigenverantwortlichkeit und die Einbeziehung aller Mitarbeiter. Nach den ganzheitlichen, eher grundlegenden Ansätzen des TQM und KVP, kommen wir nun zu einem möglichen ganz konkreten Werkzeug des modernen Qualitätsmanagements.

5.3.4  Six Sigma Die Qualitätsmanagement-Methode Six Sigma hat besonders in den USA viele Anhänger gefunden, sich in den letzten Jahren aber auch in Europa, vor allem bei Konzernen mehr und mehr durchgesetzt. Sie ist ein Konzept zum Vergleich von Prozessdaten mit Spezifikationsgrenzen und nutzt dazu ausschließlich die Standardabweichung σ = Sigma als universelle Maßzahl. Denkt man an eine typische Gaußsche Verteilung von Ereignissen, sagt σ etwas über die Breite der „Glocke“ aus, also mit wie hoher Wahrscheinlichkeit ein weiteres Ereignis innerhalb eines bestimmten Bereichs liegt. Als optimal bezeichnet

5.3 Qualitätsmanagement

161

Abb. 5.8   Six Sigma Grundidee (modifiziert nach Brunner u. Wagner 2004)

Six Sigma einen Prozess, dessen Mittelwert der Ereignisse sechs Standardabweichungen sowohl von der unteren als auch der oberen Toleranzgrenze entfernt ist, welche anhand der Kundenanforderungen definiert werden (s. Abb. 5.8). Es gilt also, seine Prozesse zu zentrieren und die Variation der Fehler zu reduzieren (s. Abb. 5.9), wobei man sagen muss, dass 6σ ein sehr hohes Ziel ist, welches nicht für alle Branchen erreichbar ist. Allerdings gilt eine Firma mit einem Wert unter 3σ heutzutage nicht mehr als wettbewerbsfähig. Im Grunde ist es ein „NullFehler-Konzept“, wobei die „Fehler“ stets aus Sicht des Kunden zu definieren sind. Als Managementsystem soll es über die Steigerung der Kundenzufriedenheit die Marktstellung und damit den Firmenwert eines Unternehmens steigern. Besonders publikumswirksam wurde die Methode vom legendären Chef von General Electric, Jack Welch, bekannt gemacht, der sie mit großem persönlichen Engagement und Nachdruck in diesem Riesenkonzern durchgesetzt hat. Die Erfolge des Konzerns sprechen sicher für die Methode. Übergeordnete Bedeutung hat sie sich alleine dadurch verdient, dass sie das Bewusstsein auf die einfache mathematische Tatsache gelenkt hat, dass bei komplexen Prozessketten, wie sie heute in der Industrie Standard sind, eine „Ausschuss-Rate“ von nur 1–2% beim Einzelprozess

Abb. 5.9   Six Sigma Ziel (nach internen Arbeitsunterlagen der Siemens AG)

162

5 Methoden des operativen Managements

sich schnell auf 10–15% im Gesamtprozess potenziert und man damit heute nicht mehr marktfähig und kostenmäßig nicht mehr konkurrenzfähig sein kann. In der Anwendung zeichnet sich die Methode dadurch aus, dass sie ein einheitliches Messsystem, eine gleiche Messmethodik, nicht nur für die Produkte und Produktionsprozesse, sondern für alle Abläufe, auch die administrativen, die Vertriebs-, Forschungsprozesse etc. bereit stellt. Gerade für straff und zentral gesteuerte Großkonzerne ist das von ungeheurem Vorteil. Andererseits wird – aus USA und von Konzernen kommend – eine stark hierarchisch geprägte Projektstruktur für die Einführung der Methode in Unternehmen propagiert; mit einer Terminologie, die individualistisch geprägten Europäern gewöhnungsbedürftig erscheint: Die Projektleiter tragen Titel wie „Master Black Belt“, „Black Belt“(Projektleiter) und „Green Belt“ (Team-Mitglieder), wobei etwa 1% der Belegschaft als intensiv ausgebildete Projektleiter Vollzeit für das Projekt abgestellt sein sollen, 10% sollen als Green Belts fungieren. Das sind massive Investitionen, wobei die Erfahrungen nachweisen, dass mit einem „Return on Investment“ in Höhe von etwa 20% gerechnet werden kann (Rehbehn u. Yurdakul 2005), die Mühen also schnell Erfolge zeigen. Die Einführungsphase dauert erfahrungsgemäß ca. 24 Monate (Töpfer 2007). Das Neue an Six Sigma ist die einheitliche Mess-Methode, jedoch nicht die allgemeine Vorgehensweise, welche – ähnlich dem Deming-Kreis (s. Abb. 5.7) und wie bei anderen Qualitätssicherungsmethoden auch – auf einer streng systematischen Abfolge der Projektschritte beruht. Der „Lösungskreis“ wird bei Six Sigma DMAIC genannt: • Define: Problem quantitativ beschreiben, Kundenanforderungen identifizieren, quantitative Ziele setzen, • Measure: Gegenwärtige Situation erfassen, • Analyse: Quantifizierung der Zusammenhänge, Nachweis der statistischen Relevanz, • Improve: Ermitteln der optimalen Lösungen und ihrer Risiken, Nachweis der Verbesserung im Pilotprojekt, • Control: Überwachung des überarbeiteten Prozesses, Nachweis der Verbesserung. Dabei bietet Six Sigma einen großen Software-„Werkzeugkasten“ zur Unterstützung der mathematisch komplexen quantitativen Auswertungen. Six sigma bedient sich aber neben den statistischen auch anderer klassischer Problemdarstellungsund -lösungsmethoden wie der Netzplantechnik oder der Failure Mode and Effects Analysis (FMEA oder auch deutsch: Fehlermöglichkeits- und Einflussanalyse oder kurz Auswirkungsanalyse). Dennoch verlangt die Projektdurchführung von den Verantwortlichen (zumindest also von den sogenannten „Black Belts“) grundsätzliches mathematisches Verständnis und teilweise auch Erfahrung und gute Kenntnisse in statistischen Mess-Methoden. Denn die Methodik muss sorgfältig analysiert und validiert werden. Das kann man grundsätzlich mit allen Prozessen – auch mit Verwaltungsabläufen – tun, aber es liegt auf der Hand, dass sich die Methode besonders für Großserienfertigung und ähnliche Aufgabenstellungen anbietet. So wird sie – zumindest in Deutschland – ergänzend zu anderen Qualitätssicherungs-

5.3 Qualitätsmanagement

163

systemen, vor allem zum EFQM (European Foundation for Quality Management, Tab. 5.2) und zur BSC (Balanced Score Card, Kap. 8.1.5.2) eingesetzt (Schmutte 2007). Diese kurze Charakterisierung der Methode mag hier genügen. Zur intensiveren Beschäftigung sei Töpfer (2007) empfohlen, die operative Messmethodik ist bei Rehbehn u. Yurdakul (2005) erläutert. Wie allgemein bei der Einführung aller Qualitätsmanagement-Systeme liegt der Schlüssel zum Erfolg auch bei dieser Methode in der Personalführung, der es gelingen muss, die Grundeinstellung der Mitarbeiter auf den Qualitätsaspekt zu lenken. Für die in diesem Buch vertretene Auffassung zur Personalführung (Kap. 6) ist dabei aufschlussreich, dass Töpfer (2007) ebenfalls auf die Wichtigkeit der Beachtung polarer Gegensätze hinweist (s. Kap. 6.1). Um ein Beispiel herauszugreifen: „Fehlertoleranz“ und „Null-Fehler-Konzept“ widersprechen sich nur scheinbar, in Wirklichkeit bedingen sie sich. Mangelnde Fehlertoleranz führt dazu, dass Fehler verheimlicht, verschwiegen oder nicht beachtet werden, was alle Anstrengungen eines Six Sigma Prozesses zerstören würde. Erst zugestandene und erkannte Fehler eröffnen die Möglichkeit zu Verbesserungen und das „Null-Fehler-Konzept“ des Six Sigma ist eine der geeigneten Methoden, laufende Verbesserungen in allen Prozessen einer Organisation zu erreichen.

5.3.5  TPS – Toyota Produktions System Ähnlich erfolgreich wie die Firma General Electric mit Six Sigma ist die Firma Toyota mit ihrem Produktions System, mit dem sie alle anderen Konkurrenten weltweit überholt hat und sich als überragender Branchenprimus in der Automobilindustrie etablierte. Was ist das Geheimnis dieses Systems? Während Six Sigma von einer operativen Arbeitsmethode, einem Werkzeug ausgeht und darauf aufbauend einen Management-Ansatz entwickelt, geht TPS den umgekehrten Weg: TPS ist eine Grundphilosophie, eine „Gesinnung“, aus der heraus die operativen Ansätze entwickelt werden. Dabei ist der Ausgangspunkt ein trivialer Gedanke: Vermeidung jeglicher Art von Verschwendung. Daraus wurde zunächst ein Konzept der „lean production“ entwickelt mit Kennzeichen wie geringste Lagerbestände, keinerlei Zwischenlager zulassen, alle Prozesse auf Werthaltigkeit ständig prüfen, die Durchlaufzeiten verkürzen usw. Anschließend wurde dieser Ansatz – im Grunde genommen entsprechend der Forderung des Deming Kreises (Abb. 5.7) – auf alle Bereiche der Organisation erweitert, jedoch mit einer Konsequenz, die man bisher so nirgends wahrnehmen konnte. Ausgangspunkt des Systems ist die Grundphilosophie, die man wie in einem Wahrzeichen des Systems in einer Pyramide darstellt (s. Abb. 5.10). Die vier Hauptkategorien des Systems sind: Philosophische Grundüberzeugung als Basis, darüber „werthaltige Prozesse“, darüber der Aspekt des „Humankapitals“ (Fordern und Fördern von Mitarbeitern und Partnern) und als Spitze schließlich „kontinuierliches Lernen und Verbessern“. Daraus wurden 14 so genannte Prinzipien entwickelt, die bereits konkrete Handlungsanleitungen enthalten wie bei-

164

5 Methoden des operativen Managements

Abb. 5.10   Die TPS Pyramide (aus einer nicht veröffentlichten Präsentation von U. Gerhart 2008, mit freundlicher Genehmigung des Autors)

spielsweise „Visuelle Kontrollen“ (Nr. 7) oder „Nur sichere, getestete Technologien einsetzen“ (Nr. 8) oder „Entscheiden mit Bedacht, aber zügig umsetzen“ (Nr. 13). Einen Eindruck der vielen operativen Ideen und Grundsätze des Systems vermittelt die Abb. 5.11 mit dem TPS Haus, einer Art der Darstellung, in der die wesentlichen Elemente visualisiert werden.

Abb. 5.11   Das TPS Haus (nach U. Gerhart (2008), mit freundlicher Genehmigung des Autors)

5.3 Qualitätsmanagement

165

Zusammenfassend kann man sagen, das System erzielt eine Verkürzung der Durchlaufzeiten durch Eliminierung nicht werthaltiger Elemente auf jeder Stufe des Prozesses und führt zu erstklassiger Qualität und niedrigen Kosten. Gleichzeitig wird die effektive und zielgerichtete Zusammenarbeit in kleinen Gruppen kontinuierlich geübt und verbessert. Der Erfolg des Systems beruht offensichtlich darauf, dass diese Prinzipien, die alle richtig, aber im Grunde genommen triviale Erkenntnisse sind, mit einer Rigorosität in der Toyota Organisation „verbreitet“ wurden, die an sektiererisches Sendungsbewusstsein erinnert. TPS verlangt eine Art „Gleichschaltung“. Es ist keine Methode, die sich in Seminaren oder durch Berater kurzzeitig „lernen“ lässt. Dabei gibt es durchaus viele Vorgehensweisen, die man sich zu Herzen nehmen sollte. Beispielsweise der Grundsatz, möglichst kleine Lose mit hoher Flexibilität zu fertigen. Aber dieses Prinzip ist dem Trend der Autoindustrie zu häufigen Modellwechseln geschuldet und darf nicht verallgemeinert werden. Positiv ist auch die Mahnung zu sehen, das Prinzip der Verschwendungs-Vermeidung auch auf die Information anzuwenden: Gerade im Zeitalter von E-Mail, Blackberry etc. ist es wichtig, nur die Information zu verbreiten, die unbedingt notwendig ist. Unsere Zweifel, ob es möglich ist, das System auch außerhalb Japans mit der gleichen Effizienz zu etablieren, werden durch eine neuere japanische Arbeit bestärkt. Takeuchi et al. (2008) betonen, dass der Erfolg des Systems nicht so sehr den Vorgehensweisen im Qualitätsmanagement als vielmehr der „kulturellen“ Basis geschuldet sei. Diese sei für Außenstehende unter anderem auch deshalb schwer nachzuvollziehen, weil das TPS von Konzepten bestimmt wird, die eindeutig widersprüchlich erscheinen. So wird hohes Traditionsbewusstsein ebenso gefordert wie ständige Innovation, einerseits extreme Sparsamkeit, anderseits freigiebige Großzügigkeit bei Investitionen. Unserer Meinung nach sind solche polaren Gegensätze mit eine Ursache für den Spannungsaufbau und damit für das effiziente Wirkprinzip dieses Managementsystems. Die Widersprüchlichkeit wird im Übrigen auch an dem überall als Beispiel für die Autonomie der „Prozesseigner“ zitierten Beispiel deutlich, dass bei Toyota jeder Fließbandarbeiter das Recht hat, bei jeder Störung per Knopfdruck sofort das gesamte Band anzuhalten. Im Nachsatz findet sich bei dem „Papst“ des TPS, Ohno (1993) die Anmerkung, dass es doch für jeden, der den Fehler verursacht habe, mehr als peinlich sei, wenn seinetwegen das ganze Band steht – also die „Peitsche“ des extrinsischen Erzeugens von Druck ist auch diesem System immanent. Aus allen diesen Gründen und trotz des atemberaubenden Erfolges von Toyota sei davor gewarnt, zu versuchen, das System zu kopieren. Es lohnt sich allerdings, sich mit den Prinzipien zu beschäftigen und die vielen guten Ideen, gerade auf operativem Feld für den eigenen Wirkungsbereich zu prüfen.

5.3.6  Wertorientiertes Prozess Design Aus den Grundideen von Qualitätsmanagement wie sie Deming und andere vor 50 Jahren aufgestellt haben, haben sich – wie erwähnt – eine Reihe von Konzepten, Ideen, auch Modeerscheinungen entwickelt, deren Zielrichtung in etwa gleich

166

5 Methoden des operativen Managements

geblieben sind, auch wenn die Durchführungsmethoden variieren. Man muss diese Varianten nicht alle kennen und deshalb beschränken wir uns auch auf die bekanntesten. Die Methode des wertorientierten Process Design möchten wir jedoch ausdrücklich nennen, auch wenn sie ebenfalls ein Ableger von konsequent verfolgtem traditionellem Qualitätsmanagement ist. Der Ansatz erscheint uns bereits erwähnenswert: Während viele Methoden die ungeheuer gestiegene Rechenkapazität moderner Computer nutzen und (wie Six Sigma) mit statistischen Methoden jeder Möglichkeit nach Kostenverbesserung und Fehlervermeidung nachspüren, geht diese Methode den entgegengesetzten Weg: „Man muss den Wahnsinn der Massendaten-Verarbeitung stoppen!“ rief neulich ein Berater aus, der propagierte, Verbesserungen mit Methoden der „Wertstrom-Diagramme“ zu erzielen. „Dazu benötigt man nur Papier und Bleistift, einen klaren Kopf und 24 Stunden Zeit“ fuhr er fort. Die entsprechenden Methoden laufen unter den Schlagworten „Wertstromanalyse“, „Wertstoffdesign“, „Value based process design“ usw. Der Grundgedanke besteht darin, alle Prozessketten eines Unternehmens zu „kartieren“, also visuell sichtbar zu machen und dann zu fragen, welche Prozessschritte wertsteigernd sind (wobei „Wert“ stets im Sinne des „Kunden“ – am besten des Endkunden – definiert wird), welche diesen Wert nicht steigern und welche man abkürzen oder eliminieren könnte. Dazu werden die Zeiten der einzelnen Prozess-Schritte gemessen. Ein kurzes Beispiel aus der Instandhaltung : Der Ölschlauch einer Werkzeugmaschine platzt und muss ersetzt werden. Der Ersatzschlauch ist nach 39 Minuten wieder eingebaut. Wertsteigernd sind nur die Prozesse „Schaden prüfen“ und „Schlauch einbauen“. Beide nehmen nur wenige Minuten in Anspruch. Die Aufgabe ist nun, die restlichen Prozessschritte wie „Verfügbarkeit im Lager prüfen“, „im Lager suchen“, „aus dem Lager holen“ etc. abzukürzen. Es ist einsichtig, dass sich diese Methode auf alle Prozesse eines Unternehmens ausweiten lässt. Da die Definition des „Wertes“ stets im Sinne des Kunden erfolgt, damit Markt getrieben oder auch „Strategie getrieben“ ist, liegt es nahe, dass solche Methoden in ihrer Bedeutung über den ursprünglichen Qualitätsanspruch hinausgewachsen sind und sich zu all umfassenden Managementsystemen entwickelt haben. In der engen Verzahnung mit dem Controlling-System der Balanced Scorecard (s. Kap. 8.1.5.2) sind sie damit quasi Teil des strategischen Managements geworden. Zusammenfassend ist zum Thema Qualitätsmanagement zu sagen: Jeder braucht es und sollte sich sinnvollerweise ein System maßschneidern, nur dann ist es eine Sache des gesunden Menschenverstandes und keine auferlegte bürokratische Schikane. Leider sind die zu erzielenden Einsparungen nur schwer zu beziffern, da eine rein betriebswirtschaftliche Kosten-/Nutzenbetrachtung hier nur ein verzerrtes Bild wiedergibt. Es gilt auch die nicht direkt quantifizierbaren Verbesserungen zu berücksichtigen, denn niemand kann einschätzen, wie viel Schaden eine schlechte Erfahrung eines Kunden oder schlimmstenfalls irgendwann ein schlechtes Image anrichtet. Daher lohnt es sich bestehende Systeme zu hinterfragen und stetig zu verbessern – nichts anderes fordert das moderne Qualitätsmanagement. Ganz in diesem Sinne geht der Trend hin zum Integrated Management System (IMS), welches Qualitäts-, Umwelt- und Sicherheitsmanagement als ein Ganzes betrachtet und somit eine effektive Unternehmensführung und Geschäftsabwicklung fördert.

5.3 Qualitätsmanagement

167

Literatur Altschuller GS (1986) Erfinden. Wege zur Lösung technischer Probleme. PI-Planung und Innovation, Cottbus Birkenbihl VF (1995) Psycho-logisch richtig verhandeln. Professionelle Verhandlungstechniken mit Experimenten und Übungen, 9. Aufl. Verlag Moderne Industrie, München Bischof A, Bischof K (2004) Besprechungen effektiv und effizient, 4. Aufl. Haufe Verlag, München Brown T (2008) Designer als Entwickler. HBM Juli 2008, S 56–67 Brunner FJ, Wagner KW (Hrsg) (2004) Taschenbuch Qualitätsmanagement.Leitfaden für Ingenieure und Techniker, Praxisreihe Qualitätswissen, 3.Aufl. Carl Hanser Verlag, München Buzan T (2002) Das Mind-Map-Buch. Die beste Methode zur Steigerung ihres geistigen Potentials. Mvg Verlag, München Coyne KP, Gorman Clifford P, Dye R (2008) Querdenken mit System. HBM S 28–39 De Bono E (2005) De Bonos neue Denkschule. Kreativer denken, effektiver arbeiten, mehr erreichen. Mvg Verlag, Frankfurt am Main Deming WE (1986) Out of the Crisis. MIT Press Dokumentensammlung DIN EN ISO 9000 ff. (2006) Beuth, Berlin, Wien, Zürich Ebel HE, Bliefert C (2004) Vortragen in Naturwissenschaft, Technik und Medizin. Wiley-VCH Ebel B (2001) Qualitätsmanagement. Reihe Betriebswirtschaft in Studium und Praxis. Hrsg Däumler, Grabe. Verlag Neue Wirtschafts-Briefe, Herne, Berlin Erbacher C (2009) Grundzüge der Verhandlungsführung. vdF Verlag, Zürich Fisher R, Ury W, Patton B (2004) Das Harvard-Konzept. Sachgerecht verhandeln – erfolgreich verhandeln, 17. Aufl. Campus-Verlag. Reihe Handelsblatt, Karriere und Management, Frankfurt a. M. Geschka H (2008) So werden sie kreativ. HBM S 54–55 Haft F (2000) Verhandlung und Mediation. Die Alternative zum Rechtsstreit, 2. Aufl. Beck Verlag, München Harry M, Schroeder R (2005) Six Sigma. Prozesse optimieren, Null-Fehler-Qualität schaffen, Rendite radikal steigern, 3. Aufl. Campus Verlag, Frankfurt/New York Hierhold E (2002) Sicher präsentieren – wirksamer vortragen. Ueberreuter, Frankfurt/Wien Langer I, Schulz von Thun F, Tausch R (1999) Sich verständlich ausdrücken. Reinhardt Ernst, München Liker JK (2007) Der Toyota Weg. 14 Managementprinzipien des weltweit erfolgreichsten Automobilkonzerns, 3. Aufl. Finanzbuchverlag, München Masing W (2007) Das Unternehmen im Wettbewerb. In: Masing W (Hrsg) Handbuch Qualitätsmanagement. Carl Hanser Verlag, München, S 3–14 Masing W (2007) Handbuch Qualitätsmanagement, 5. Aufl. Carl Hanser Verlag, München Neuland M (2003) Neuland-Moderation. Managerseminare Verlag Ohno T (1993) Das Toyota-Produktions-System. Campus Verlag, Frankfurt/New York Osborn AF (1957) Applied Imagination. Charles Scriber’s sons, New York Pöhm M (2006) Präsentieren sie noch oder faszinieren sie schon? Mvg Verlag, Heidelberg Rehbehn R, Yurdakul ZB (2005) Mit Six Sigma zu Business Excellence. Strategien, Methoden, Praxisbeispiele, 2. Aufl. Publicis Corporate Publishing, Erlangen Rohrbach B (1969) Kreativ nach Regeln. Methode 635, eine neue Technik zum Lösen von Problemen. Absatzwirtschaft 12(19):73–75 Schmutte AM (2007) Six Sigma im Business Excellence Prozess – Wertorientierte Unternehmensführung mit Balanced Scorecard, EFQM und six Sigma bei Siemens. In: Töpfer A (Hrsg) Six Sigma. Springer Verlag, Berlin, u. a., S 384–393 Schulz v. Thun F (2008) Miteinander Reden Band 1–3. Rowohlt Schwab AJ (2004) Managementwissen für Ingenieure. Springer Verlag, Berlin Seghezzi HD (2007) Konzepte-Modelle-Systeme. In: Masing W (Hrsg) Handbuch Qualitätsmanagement. Carl Hanser Verlag, München, S 155–172

168

5 Methoden des operativen Managements

Seifert JW (2007) Visualisieren. Präsentieren. Moderieren. Gabal Verlag Seifert JW (2008) Besprechungen erfolgreich moderieren. Gabal Verlag Stader MA (2008) Besprechungen, Meetings, Sitzungen wirklich wirksam leiten und moderieren, 2. Aufl. Books on Demand Takeuchi H, Osono E, Shimizu N (2008) Was Toyota besonders macht. HBM Sept. 2008. S 30–40 Töpfer A (Hrsg) (2007) Six Sigma. Konzeption und Erfolgsbeispiele für praktizierte Null-FehlerQualität, 4. Aufl. Springer Verlag, Berlin Töpfer A (2007) Anforderungen an die Unternehmenskultur bei der Einführung von Six Sigma. In: Töpfer A (Hrsg) Six Sigma. Springer Verlag, Berlin, S 289–307 Uzumeri MV (1997) ISO 9000 and other metastandards: Principles for management practices? Acad Manage Exec 11(1): 21–36 Wagner K (2007) Ausgestaltung von QM-Systemen auf Basis der ISO-9000-Reihe. In: Masing W (Hrsg) Handbuch Qualitätsmanagement. Carl Hanser Verlag, München, S 173–205 Will H (2000) Mini-Handbuch Vortrag und Präsentation. Beltz Taschenbuch, Weinheim/Basel Zwicky F (1989) Entdecken, Erfinden, Forschen im Morphologischen Weltbild. Verlag Baeschlin, Glarus

Kapitel 6

Personalführung O. Kraus

Alle Analysen über die wichtigsten „Erfolgstreiber“ der Wirtschaft zeigen, dass der entscheidende Erfolgsfaktor im Wirtschaftsleben die Freisetzung menschlicher Energien ist. Wenn das einer Firma gelingt, sind Faktoren wie Kapital, Größe, Standort, Patente etc. von sekundärer Bedeutung. Die knappste Ressource ist nicht mehr das Kapital, sondern leistungsfähige Mitarbeiter (Drucker 2000). Wenn man jedoch glaubt, Personal-Management stünde entsprechend im Zentrum jeder Management-Ausbildung, sieht man sich getäuscht. Sicher, Personalwesen ist eines der Fächer im Studium der Betriebswirtschaftslehre, es gibt entsprechende Lehrstühle und detaillierte und ausführliche Literatur. Für den Examenserfolg eines Betriebswirtes sind jedoch Fächer wie Kostenrechnung, Bilanzwesen, Produktion, etc. ausschlaggebender. Und wie ist es um Handwerker, Facharbeiter, Ingenieure, Ärzte, Juristen und Naturwissenschaftler bestellt? Sie alle tragen in ihrem Beruf Personalverantwortung und hatten nie die Möglichkeit, sich systematisch darauf vorzubereiten. Letzten Endes hängt das mit der bereits in der Einleitung kritisierten Einseitigkeit unseres Ausbildungssystems zusammen, welches uns vor allem Wissens-Fähigkeiten, jedoch so gut wie keine Verhaltens-Fähigkeiten vermittelt. Nun hört man immer wieder das Argument, Menschenführung sei angeboren, entweder man habe dies Talent oder man werde es nie erlernen. In der Tat sehen wir, dass manche Menschen eine natürliche Ausstrahlung besitzen und sich andere wie von magischen Kräften beeinflusst, deren Autorität unterordnen. Zu Recht gilt deshalb die Menschenführung als Kunst. Aber: Wie in jeder Kunst gibt es auch bei der Menschenführung erlernbares, elementares Wissen und erlernbare, einübbare Handlungs- und Vorgehensweisen, kurz: das Handwerkszeug, ohne das es keine Kunst gibt. Wir sollten die Wichtigkeit der Menschenführung aber nicht nur utilitaristisch sehen. Das Interessanteste im Leben ist immer noch die Begegnung mit Menschen und die bei Weitem faszinierendste Facette von Management ist der Zwang, dauernd mit Menschen umzugehen. Wenn heute viele junge Leute in soziale Berufe drängen – und ich halte das vorbehaltlos für ein positives Symptom – mit dem Argument, sie wollen es mit Menschen zu tun haben, dann könnten sie mit demselben Argument in Managementpositionen drängen, denn dort hat man es ebenso intensiv mit Menschen zu tun. O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_6, © Springer-Verlag Berlin Heidelberg 2010

169

170

6 Personalführung

Die wissenschaftliche Erforschung des Faktors „Mensch“ bezüglich seiner Effizienz in unternehmerischen Prozessen beginnt etwa mit Anfang des 20. Jahrhunderts. Die wesentlichen Arbeiten hat hier Taylor geleistet, mit dessen Namen sich das Schlagwort „Fließband“ verbindet. In der heutigen Literatur wird er überwiegend kritisch bewertet, ihm wird ein rein mechanistischer Ansatz vorgeworfen, der die soziologischen und psychologischen Bedürfnisse des Menschen ignoriert. Ihm gebührt jedoch das unbestreitbare Verdienst, die wissenschaftliche Arbeitsmethodik in das Personalwesen eingeführt zu haben. Wenig später befasst sich die Forschung auch bereits mit sozialpsychologischen Aspekten (Mayo) und einen Meilenstein dieser Forschungsrichtung stellt die so genannte Bedürfnispyramide von Maslow (1954) dar. Sie besagt, dass die menschlichen Bedürfnisse sich in hierarchischem Aufbau überlagern: Die Basis bilden die physischen Bedürfnisse wie Hunger, Wärme etc., darüber folgen Sicherheit und schließlich die psychischen Bedürfnisse bis hin zum Bedürfnis nach Selbstverwirklichung. Erst mit Befriedigung der jeweiligen Basis wird dem Menschen das Bedürfnis der nächsthöheren Stufe bewusst. Drastischer hat dies Bertold Brecht formuliert: „Das Fressen kommt vor der Moral“. Einen weiteren Meilenstein stellen kurz darauf die Arbeiten von Herzberg (1959) dar, der nach Befragungsaktionen in verschiedenen Unternehmen seine „2-Faktoren-Theorie“ begründet („Satisfiers“ und „Dissatisfiers“). Mit Herzberg beginnt die große Bedeutung der Motivationsforschung und des systematischen Einsatzes von Motivationsfaktoren, außerdem die Unterteilung in „extrinsische“ (äußere wie Lohn, Arbeitsplatz etc.) und „intrinsische“ (innere wie Identifikation, Selbstverwirklichung) Komponenten von Leistungsanreizen. Diese Unterteilung in unterschiedliche und im Allgemeinen gegensätzliche Einflussgrößen, die auf die menschliche Leistungsfähigkeit wirken, zieht sich seither wie ein roter Faden durch die Literatur der Personalführung. Wir gehen weiter unten auf diesen Aspekt ein. So postuliert McGregor (1960) seine XY-Theorie mit der Unterteilung in „autoritäre“ und „kooperative“ Vorgehensweisen. Blake u. Mouton (1964) bezeichnen sie als „aufgabenorientiert“ und „mitarbeiterorientiert“ und kennzeichnen in einer Matrix in ihrem „Verhaltensgitter“ den jeweiligen Führungsstil an diesen Einflussgrößen. Diesen Ansatz erweitern Hersey u. Blanchard (1972) zu ihrer Reifegrad-Theorie und führen damit das situative Element in die Personalführungs – Literatur ein: Der eingesetzte Führungsstil hat sich sozusagen am kulturell/zivilisatorischen Niveau der Mitarbeiter zu orientieren. Diese kurze Skizzierung von grundlegenden, klassischen Arbeiten zur Personalführung (nach Wagner u. Rex 2001) zeigt bereits die Bedeutung der Ambivalenz für das Verständnis menschlicher Verhaltensweisen als auch die Änderungen von Grundeinstellungen zum Menschenbild im Verlaufe des 20. Jahrhunderts. Diese Veränderungen der gesellschaftlichen Strömungen – die in den Grundansichten über Menschenführung vom „Führerprinzip“ zum demokratisch beeinflussten „partizipativen“ Führungsstil führten – fasst die Abb. 6.1 zusammen. Sie gibt auch

 

Die Zitate der gesamten klassischen Arbeiten sind dort zu finden.

6 Personalführung

171

Abb. 6.1   Historische Entwicklungslinien von Führungs-Philosophien

wieder, wie der Autor diese Entwicklung persönlich während seines Berufslebens erlebt hat. Die Kriegserfahrungen, welche die Notwendigkeit des Delegierens von Verantwortung in einem modernen Krieg begründeten, wurden denen, die nach dem Krieg als erste wieder zum Wehrdienst verpflichtet wurden, von vielen Kriegsteilnehmern noch vermittelt. Besonders einschneidend war zur damaligen Zeit die Einführung des „Harzburger Modells“, welches die Delegation zum wichtigsten Management-Prinzip erhob. Zwar enthielt auch dieses Modell noch viele autoritäre und bürokratische Komponenten wie z. B. die Forderung nach detaillierten Stellenbeschreibungen (Scholz 2000). Die Entwicklung zum partizipativen Führungsstil war damit dennoch angestoßen und entsprechend befreiend und motivierend wurde dieser Trend damals erlebt. Während in der Literatur heute durchweg Modelle propagiert werden, die dem Individuum im Betrieb möglichst viel Freiraum, Initiative und Autonomie übertragen, was sich auch durchweg bewährt hat, scheint – in seltsamem Kontrast – das Pendel gleichzeitig zu einer neuen Art von „Führerprinzip“ zurückzuschwingen. Die für die internationalen Aktienmärkte so entscheidend gewordenen Wirtschaftsmeldungen lassen sich in den Medien offensichtlich nur dann gut „transportieren“, wenn sie an Persönlichkeiten mit hohem Bekanntheitsgrad geknüpft sind. Das führt dazu, dass die Rolle des „Führers“ einer Organisation wieder überbewertet wird und „pathologische“ Züge des Führens (Scholz 2000) häufiger zu Tage treten als noch vor etwa zehn Jahren. Dieser kurze Abriss mag bereits davor warnen, „Rezepte“ für die Behandlung und das Führen von Menschen aufstellen zu wollen. Dazu ist die Komplexität der

172

6 Personalführung

menschlichen Natur viel zu groß und die Ansichten über die richtige Behandlung von Mitmenschen zu schwankend. Wir halten es deshalb für wichtiger, zu versuchen, im Folgenden eine gedankliche Orientierung über das komplexeste aller Management-Themen zu bieten und daraus abgeleitet einige Vorgehensweisen moderner Personalführung zu skizzieren und zu erläutern. Wir bleiben damit bei den „Werkzeugen“ und beim Handwerklichen. Die Kunst der Menschenführung erschließt sich erst im Leben, wobei häufig auch die intensive Beschäftigung mit Literatur oder Theater hilfreich sein kann. In den prominenten Managementschulen der USA hat man deshalb Literaturstudium zum Pflichtfach der Managementausbildung gemacht, so zum Beispiel richtungweisend in Stanford (James A. March) und in Harvard (Linda A. Hill).

6.1 Das Polaritätsprinzip als Denkmodell für die Ambivalenz von Führung Um die extreme Komplexität menschlichen Führungsverhaltens zu verstehen, kann man sich am Polaritätsprinzip gedanklich orientieren. Eine polare Struktur ist – modellhaft – beispielsweise ein Magnet mit einem Nord- und einem Südpol, mit antagonistischen Kräften, die jedoch – und das ist entscheidend – in einem gemeinsamen Spannungsfeld wirken. Polare Strukturen finden sich überall in der unbelebten und belebten Natur, von der Mikro- (Wassermolekül, DNS- Molekül) bis zur Makro-Welt (Planeten), wobei vor allem alle Regelungssysteme der Natur auf diesem Prinzip beruhen. Goethe hat das wunderschön am Beispiel des Atmens beschrieben, es gilt auch für die Regelung des Blutkreislaufs oder für die Steuerung des vegetativen Nervensystems mit den Antagonisten des Sympathikus und des Vagus. Letztere greifen unmittelbar in unser Seelenleben ein: Bei Menschen, die in der Erregung blass werden, hat der Sympathikus, bei denen, die rot werden, der Vagus leichtes Übergewicht. Entsprechend wird unsere Psyche von antagonistischen Botenstoffen, Hormonausschüttungen etc. gesteuert. Treffend beschreibt das Goethe mit den zwei Seelen, die (ach!) in unserer Brust wohnen. Dass diese Ambivalenz unserer Seele, dieses antagonistische Regelungssystem entscheidend für das menschliche Führungsverhalten ist, hat als Erster Aristoteles in seiner Nikomachischen Ethik herausgearbeitet. Er zeigt, dass es das Gute an sich im menschlichen Verhalten nicht gibt. „Tugend“ kann sich nur als positiver Spannungszustand zwischen antagonistisch wirkenden Negativeigenschaften einstellen. So definiert er „Mut“ als dynamisches Gleichgewicht zwischen Ängstlichkeit und Tollkühnheit. In diesem Geiste ist auch das Motto dieses Buches zu verstehen, in dem Wilhelm von Humboldt in seiner Vision von 1810 über die Hochschulausbildung mahnt, der Menschheit sei es „nicht um Wissen und Reden, sondern um Handeln und Charakter“ zu tun. Wohlgemerkt: Wir brauchen den entschlossenen, durchsetzungsstarken „Tatmenschen“, der auch einschüchternd wirken mag. Er ist in einer kultivierten Gesellschaft (und Firma) aber nur tragbar, wenn er das Korrektiv des „Charakters“ mitbringt. Propagieren wir nur eine Ausprägung, stellen wir

6.1 Das Polaritätsprinzip als Denkmodell für die Ambivalenz von Führung

173

ein Vorbild dar, das sich an Tyrannen wie Hitler und Stalin orientiert. Mit Max Weber gesprochen, propagieren wir dann eine reine „Zweckrationalität“ von Führungsverhalten und ignorieren den Antagonisten der „Wertrationalität“ als unerlässliches Korrektiv. Wobei sowohl Max Weber und auch G.W.F. Hegel darauf hinweisen, dass rein „wertrational“ gelenktes Handeln (Hegel nennt das „subjektive Tugend, die bloß von der Gesinnung regiert“) denknotwendig zu totalitären Strukturen führen muss (Lübbe 2004). Dieses klassische, etablierte Ideengut wird in der modernen Managementliteratur nur unzureichend reflektiert. Das beginnt bereits in der Wirtschaftstheorie, die vom Modell des sog. „homo oeconomicus“ ausgeht, dessen angeblich rationales wirtschaftliches Handeln ausschließlich auf „Eigennutz“ beruht. Wie die moderne psychologische Forschung eindeutig zeigt, reagiert der Mensch von Natur aus jedoch auch auf Basis von „Gemeinnutz“, allerdings unter der Voraussetzung, dass er „Reziprozität“ erwarten kann, d. h. wenn die berechtigte Erwartung besteht, dass andere auch so handeln (Falk 2002). Sein Verhalten wird also von den Antagonisten „Eigennutz“ und „Gemeinnutz“ gesteuert. Ein ähnliches Beispiel für die Einseitigkeit moderner Sichtweisen bietet die Motivationsforschung. Nachdem Herzberg (Herzberg et al. 1959) zeigen konnte, dass positive Motivation wie Arbeitszufriedenheit, Identifikation mit der Tätigkeit etc. viel stärker auf die Leistung wirken als finanzielle Anreize, wurde die Managementliteratur über Jahrzehnte von Arbeiten über positive Motivationstechniken dominiert. Darüber wurde der Antagonist „vergessen“, bis der Organisationspsychologe Schein (2002) zeigen konnte, dass nicht nur Begeisterung, sondern auch „Angst“ ein entscheidender Motivationsfaktor sein kann. Ein wichtiger und oft im modernen Personalführungswesen genannter Begriff ist die „Emotionale Intelligenz“, von Daniel Goleman (1996) im Widerspruch zu dem bis dahin in den USA üblichen Irrweg entwickelt, die Bewertung von Führungskräften so gut wie ausschließlich auf Basis des IQ, des Intelligenzquotienten, also des rationalen Denkvermögens vorzunehmen. So ist auch die programmatische Wortschöpfung zu verstehen. Der Begriff fasst verschiedene menschliche Fähigkeiten und Persönlichkeitsausprägungen zusammen wie: • Selbstwahrnehmung: Das Erkennen der eigenen Gefühle, Selbstreflexion, Selbsterkenntnis. • Selbst-Management: Selbstkontrolle, Selbstbeherrschung, Initiative, Zielorientierung. • Empathie: Gefühle anderer erkennen. Altruismus. • Sozialkompetenz: Die Kunst mit Gefühlen anderer umzugehen, Konfliktmanagement, Teamfähigkeit. Goleman selbst erwähnt in einer Fußnote seines Buches, dass es für das Etikett „Emotionale Intelligenz“ einen altmodischen Begriff gebe, den „Charakter“, der unseren Erachtens in der Geistesgeschichte viel eindeutiger definiert ist als der Modebegriff „Emotionale Intelligenz“. Das soll aber die Bedeutung des Begriffes und der Arbeit Golemans nicht schmälern. Beides hat ungeheuer positiv im Personalwesen gewirkt. Allerdings bleibt Goleman bei dieser einseitig auf den „Charakter“ fokussierten Ausprägung der menschlichen Natur stehen, der „Tatmensch“ kommt bei ihm nicht

174

6 Personalführung

vor. Diese Schwäche des Konzepts hat eine Reihe von Arbeiten ausgelöst, die auf die Bedeutung der antagonistischen Gegenseite hinweisen, allerdings ohne jeweils den oben dargestellten systematischen Zusammenhang herzustellen. Die wichtigste Arbeit ist unserer Meinung nach die von Sternberg (Sternberg u. Wagner 1986), der eine „Practical Intelligence“ postuliert und nachweist, dass wirtschaftlicher, unternehmerischer und Führungserfolg häufig von Menschen erzielt wird, die typische „schlechte Schüler“ waren, aber ein ausgesprochen praktisches Talent besitzen, also „Tatmenschen“ sind. In diesem Zusammenhang halten wir die Arbeiten des früheren Stanford Dozenten Jim Collins (Collins 2001) für wichtig, der empirisch nachweisen konnte, dass langfristig erfolgreiche Unternehmensführer zwei Persönlichkeitsmerkmale aufweisen: persönliche Bescheidenheit plus große Willens-/ Entschlusskraft. Hier drängen sich die humboldtschen Begriffe „Charakter“ und „Handeln“ geradezu auf! Das bedeutet: Die Medaille „erfolgreiche Führung“ hat zwei Seiten. Beide sind notwendig, ja unverzichtbar. Das ist eine uralte Erkenntnis, die seltsamerweise in der modernen Managementlehre in Vergessenheit geriet. Das Denkmodell des Polaritätsprinzips kann helfen, die notwendige gedankliche Orientierung in diesem so hochkomplexen Bereich der Managementtätigkeit zu vermitteln.

6.2 Zum Umgang mit Führungsmacht – am Beispiel von Xenophons „Anabasis“ (400 v. Chr.) Eine Frage, die in der Literatur kaum thematisiert wird, ist die nach der tatsächlichen Verteilung der Macht in Führungsprozessen. Da der Autor sich intensiv mit dieser Frage beschäftigt hat (Kraus 2009), sei sie etwas ausführlicher besprochen. Nach allgemeinem Verständnis bedingen sich Verantwortung und Macht. Wer große Verantwortung und hohes Risiko auf sich nimmt, soll auch – so die vereinfachte allgemein akzeptierte Gleichung – „das Sagen“ haben. Ein Blick in die Geschichte weit vor den ersten modernen Managementwerken zeigt jedoch, dass dies nicht so sein muss. Xenophon, ein griechischer Aristokrat und Heerführer, beschreibt um 400 v. Chr. in seinem Buch „Anabasis – Der Zug der Zehntausend“ ein kooperatives Führungsmodell, in dem Führungsmacht extrem eingeschränkt war, was aber seinem Heer eine für damalige Verhältnisse überwältigende militärische Überlegenheit verschaffte. Die Zehntausend Griechen, die dem damaligen riesigen Perserreich trotzten, hatten sich als Söldner, als Einzel-Unternehmer, zusammengetan und akzeptierten keine machtvolle zentrale Führung. Alle strategischen Entscheidungen wurden basisdemokratisch von der Vollversammlung getroffen. Die Macht der Führungsmannschaft war extrem eingeschränkt. Die Führungsinstrumente muten ansonsten jedoch als ausgesprochen modern an, vor allem wurden die Grundwerte der „Unternehmenskultur“ rigide überwacht und ihre Einhaltung durch starken sozialen Druck sichergestellt. Für den heutigen Leser lautet die Kernbotschaft Xenophons: Die Mannschaft, das Kollektiv ist wichtiger als die Person an der Spitze, deren Machtbefugnisse strikt zu beschränken sind. Der Trend in unserer Unternehmenslandschaft läuft eindeutig in

6.2 Zum Umgang mit Führungsmacht

175

die andere Richtung: Den Spitzenmanagern wird immer höhere Verantwortung aufgebürdet und sie werden mit immer höheren Vergütungen geködert, rücksichtslos ihre Organisationen zum Erfolg zu trimmen. Eine Art neuer Personenkult und skandalhafte moralische Entgleisungen sind die Folge. In der Führungsliteratur werden zwar „soft skills“ und Aufteilung der Verantwortlichkeit durch „empowerment“ etc. propagiert, aber die grundsätzliche Machtstruktur unserer Organisationen wird nicht in Frage gestellt, die vorgeschlagenen „partizipativen Führungsmodelle“ sind taktischer Natur und haben mit der wirklichen Machtverteilung in unseren Organisationen im Allgemeinen nichts zu tun. Gegenläufige Trends finden wir allenfalls bei „start-up´s“ hochinnovativer Technologiefirmen wie beispielsweise in der IT-Branche mit ihren berühmten Garagenfirmen und in manchen mittelständischen Familienunternehmen. Ein Beispiel aus dem IT-Bereich ist der inzwischen riesige Weltmarktführer für netzwerkbasierte Technologien, die Firma Cisco (Chambers 2009). Die Firma hält ihren Entwicklungsvorsprung, indem sie die Verantwortung für ihre vielen, teilweise milliardenschweren Entwicklungsprojekte strikt auf die Teams delegiert, wo auch die Entscheidungsmacht sitzt. Die Teams organisieren sich eigenverantwortlich. Erst die Umsetzung der Projekte erfolgt in der „normalen“ Firmen-Organisation. Geradezu frappierende Ähnlichkeit mit der Organisationsform der alten Griechen weist das weltberühmte Familienunternehmen W.L. Gore & Associates auf, Erfinder der wasserabweisenden Gore-Tex Textilien (Köhn 2009). Der Jahresumsatz von ca. 2,6 Mrd. US-$ wird von 8700 Personen erwirtschaftet, die jedoch nicht „Mitarbeiter“, sondern alle Miteigentümer (eben „associates“) des Unternehmens sind. Das Unternehmen besteht aus 300 Teams, jedes Team organisiert sich selbst und wählt einen Teamleiter, die 300 Teamleiter wählen den Präsident, zur Zeit Frau Terri Kelly, die in einem Interview ihre Hauptaufgabe mit dem Satz beschreibt: „Ich verwalte das Chaos“. Auch das erinnert an Xenophon, der die Schwierigkeiten eines geordneten Vorgehens anschaulich beschreibt. Aber auch im Falle von Gore ist das Geschäftsmodell extrem erfolgreich. Als Beispiel aus dem deutschen Mittelstand sei das im Norden Baden-Württembergs ansässige Familienunternehmen Bürkert genannt. Sein Tätigkeitsfeld ist „fluid control“, d. h. das Messen, Steuern und Regeln von Flüssigkeiten und Gasen. Das ist ein weites Feld und beinhaltet so unterschiedliche Einsatzgebiete wie Trinkwasser-Aufbereitung, aber auch die Wasserzufuhr zu Zahnarztbohrern oder die Dosierung von Gasgemischen beim Laserschweißen. Es sind Kunden aus etwa 300 unterschiedlichen Branchen registriert, was allein schon für Unabhängigkeit von einzelnen Wirtschaftszweigen sorgt. Die Firma beschäftigt ca. 2000 Mitarbeiter, ist global in 35 Ländern aktiv und erreicht eine Umsatzgrößenordnung von etwa 300 Mio. € im Jahr. Die Basisphilosophie des Unternehmens ist von starkem Unabhängigkeitsdenken und großer Skepsis gegenüber Macht-Konzentrationen jeder Art geprägt. Um unabhängig von Zulieferern zu sein, hat Bürkert als einziges Unternehmen der Branche sämtliche Komponenten des Regelkreises (Ventile, Sensoren und Regler) in seinem Programm, hat sich damit als Systemanbieter etabliert und es zum globalen Marktführer im oberen technologischen Bereich gebracht. Das durch Preiskämpfe

176

6 Personalführung

gekennzeichnete Massengeschäft überlässt man getrost dem Wettbewerb. Gegen den Trend wird nicht in Billiglohnländern, sondern nur im Herzen Europas produziert, es wird keine Abhängigkeit von Unterlieferanten akzeptiert, sondern alle Komponenten der Systeme stammen aus eigener Entwicklung und der – stark vertikalisierten – eigenen Produktion. Dabei verdient Bürkert so gut (es werden keine Ergebniszahlen veröffentlicht), dass man unabhängig von jeglicher Fremdfinanzierung geworden ist und Wachstum exklusiv aus eigenen Mitteln vorantreiben kann. Dieses Unabhängigkeitsdenken setzt sich auch im Innern fort: Mitte der 90er Jahre wurde die bis dahin bestehende „normale“ funktionale Aufbauorganisation der Firma aufgegeben, die entmachteten Prokuristen verließen alle das Unternehmen. Kernzelle der Firma sind seitdem in ihrer Zusammensetzung ständig wechselnde Projekt-Teams. Zwar stöhnen die Mitarbeiter über das ständige Umziehen in ihren Bürogebäuden, die Teams – mit großer Unabhängigkeit und Entscheidungshoheit vor Ort ausgestattet – haben sich jedoch als außerordentlich erfolgreich erwiesen. Auf einer Organisationsebene über den Teams gibt es – hierarchisch auf einer Ebene und prozessorientiert – vier Bereiche (Produktion, Vertrieb, Innovation und „supply-chain-management“), aus denen die Projektteams besetzt werden, aber es ist dafür gesorgt, dass Führungsmacht systematisch an die Teams abgegeben wird. Von der Geschäftsführung werden vier Grundwerte rigide nachgehalten: Das sind „Marktorientierung“, ein als „adhocracy“ bezeichneter Wert, d. h. das „ad hoc“ Eingehen, Entscheiden und Tätigwerden vor Ort und beim Kunden, das Vermeiden von „Bereichs-“ und „Clan-Denken“ (was schon durch die wechselnde Zusammensetzung der Projektteams gewährleistet wird) und Null-Toleranz gegenüber jeder Art von „autoritärer Führung“. Das alles hat in der Firma ein „Wir-Gefühl“ geschaffen, welches offensichtlich zu Höchstleistung motiviert. Die beschriebene Aversion gegen autoritäre Führung findet man bei vielen eigentümergeführten Mittelständlern, was zunächst verwundert, denn hier wäre eine geballte Machtausübung noch am ehesten zu erwarten. Wie Simon 2007 („Hidden champions des 21. Jahrhunderts“) darlegt, findet man gerade bei erfolgreichen Mittelständlern eine Führungskultur, die auf der einen Seite durch hohe Freiheitsgrade im operativen Vorgehen, bei gleichzeitig strikter Einhaltung von einigen wenigen Grundwerten gekennzeichnet ist. Ganz offensichtlich speist sich aus diesen „scheinbar unvereinbaren Gegensätzen“ (Simon 2007) die Spannung und Dynamik, welche solche Unternehmen (nach dem Prinzip der Polarität) zu Höchstleistungen treibt. Ein für unsere Thematik besonders aufschlussreicher Aspekt ist, dass – wie Simon ausführlich beschreibt – durch die Nachfolgeproblematik in Familienunternehmen die Verantwortung häufig auf Personen übergeht, die dafür weder vorbereitet noch ausgebildet sind und bisher durch Führungstalent nicht aufgefallen waren, z. B. auf die Ehefrauen (Simon nennt z. B. Maria-Elisabeth Schaeffler, Ursula Wiegand, Irene Kärcher usw.), oder auch Töchter oder sonstige Familienangehörige der Gründer oder Eigentümer. Dass die genannten Firmen nach der Übernahme von „schwachen“ Führungspersonen nicht nur ihre Position erhalten, sondern diese oft geradezu sprunghaft verbessern, erklärt Simon damit, dass hier oft bisher unerkanntes Führungstalent schlummert. Die eigene Interpretation ist, dass der wenig autoritäre Habitus dieser Nachfolgepersonen automatisch mehr Verantwortung auf

6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld

177

die „Mannschaft“ verlagert und das in starkem Maße motivations- und leistungsfördernd wirkt. So hat der Autor das zumindest als Beiratsvorsitzender eines erfolgreichen mittelständischen Familienunternehmens erlebt, als wir einen starken, autoritären externen Top-Manager durch den jungen, bescheiden auftretenden und in seiner Vorbereitung noch nicht ganz „fertigen“ Familien-Nachfolger ersetzten, der aber psychologisch geschickt agierte und allen Unkenrufen zum Trotz die Firma nicht nur ihre Position behielt, sondern sprunghaft übertraf und sich das Leistungsklima im gesamten Unternehmen schnell und spürbar verbesserte. Um nicht missverstanden zu werden: Es gibt Situationen – wie das berühmte vom Untergang im Sturm bedrohte Schiff – wo der Kapitän machtvoll, schnell und ohne Rücksichten durchgreifen muss. Aber das sind Ausnahmesituationen wie sie für Unternehmen allenfalls bei Gründung, Sanierung oder bei drohender Illiquidität bestehen. Und es gibt zu denken, dass Xenophon selbst in Kriegszeiten für das individualistisch / freiheitliche griechische Geschäftsmodell plädierte. Als nämlich die Griechen wegen des zeitraubenden Abstimmungsverhaltens einen allein entscheidenden „Kommandeur“ wählten, lehnte er es ab, sich dafür zur Wahl zu stellen. Der „Kommandeur“ wurde zwar gewählt, aber nach nur sechs Tagen wieder abgesetzt! In enger Zusammenarbeit hat der Autor den bekannten Sanierungsmanager Kajo Neukirchen erlebt und in der Sanierungsphase sein blitzschnelles Erfassen der Lage und seine scharfsinnigen, konsequent durchgezogenen Entscheidungen bewundert, musste aber auch erleben, wie kontraproduktiv sich solch ein Führungsstil in der Aufbauphase nach gelungener Sanierung auswirkt. Das bedeutet unseres Erachtens: Machtkonzentrationen sind nur in ganz bestimmten Ausnahmesituationen eines Unternehmens von Nutzen, generell sind sie jedoch schädlich. Der aus USA kommende Trend, das Heil in einem starken, mit allen Vollmachten ausgestatteten CEO zu sehen, ist nicht nur – wie die moralischen Entgleisungen und die absurd ins Astronomische gestiegenen Manager-Vergütungen zeigen – gesellschaftspolitisch ein Irrweg, dieser Trend ist auch wirtschaftlich unvernünftig. Und gerade aus den USA kommen in letzter Zeit Stimmen, die ein Umdenken ankündigen (Moss Kanther und Linda Hill in HBM Mai 2008). Von Xenophon können wir lernen, dass Gemeinschaften, in denen sich eigenständige, individualistische Menschen freiwillig zusammenschließen, die Machtkonzentrationen strikt ablehnen und ein klares gemeinsames Ziel haben, zu Höchstleistungen und zwar über eine lange Zeit hinweg und nicht nur in der Phase der „Sanierung“ fähig sind. Aber auch, dass es höchster Konzentration, Geschicklichkeit und Professionalität bedarf, in solchen Gemeinschaften die höchste Verantwortung zu übernehmen und zu behalten.

6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld zwischen „Unterdrückung“ und „Freiheit“ Das wichtigste Rezept für den Umgang mit Menschen und damit für das Personalwesen: Es gibt kein Rezept! Deswegen sollte man sich auch nicht von den

178

6 Personalführung

Tab. 6.1   Vorgehensweisen der Personalführung scheinen sich häufig zu widersprechen „Freiheit“

„Unterdrückung“

Teamarbeit – Teamorientierung

Erfolgs- und leistungsorientierte Vergütungssysteme „Total Quality Management“ – Handbuch – Normen Rundum-Beurteilung – 360°-Feedback Umerziehung durch „Coaching“

Jeder Mitarbeiter wird zum autonomen „Prozess-Eigner“ Kreativität und Innovation „Chaos-Management“

unzähligen Anleitungen, Empfehlungen und den wechselnden Modeerscheinungen im Personalwesen irremachen lassen. Trotzdem: Einige Vorgehensweisen und „Werkzeuge“ heutiger Personalführung sollte man kennen. Es dürfte dabei nicht überraschen, dass diese Vorgehensweisen teilweise widersprüchlich erscheinen – und auch Anlass zu heftigen Kontroversen waren und sind, nämlich vor allem dann, wenn man das zuvor erläuterte Prinzip der Polarität – die Ambivalenz – nicht beachtet. Es gibt Vorgehensweisen, die mehr auf die Einhaltung von Disziplin, Ordnung, Prozess-Effizienz etc. abzielen, die teilweise auch repressiv sind und sich unter eine Rubrik „Unterdrückung“ zusammenfassen lassen und solche, die motivationsfördernd sind, mehr auf die sog. „intrinsischen“ (also inneren gegenüber „extrinsischen“ – äußeren) Antriebskräfte setzen und unter eine gedachte Rubrik „Freiheit“ einzuordnen sind (s. Tab. 6.1).

6.3.1  T  eamarbeit bei gleichzeitiger erfolgsabhängiger individueller Entlohnung? Die Transformation der alten hierarchischen „Kommando“- Organisation auf moderne Netzwerk-Formen erfolgte vor allem durch Delegation und Verlagerung von Macht auf „Teams“. Meist entsprang das nicht philosophischer Einsicht, sondern blanker Notwendigkeit. Die komplexen Anforderungen an moderne Organisationen sind nur noch bereichsübergreifend und in Zusammenarbeit hoch spezialisierter Fachleute zu erbringen. Wie erfolgreich eine derartige Verlagerung von Macht sein kann, zeigt stellvertretend für viele andere das oben (s. Kap. 6.2) beschriebene Beispiel der Firma Bürkert, wo die Verlagerung von Macht, Verantwortung und Entscheidungsbefugnis zusätzlich Auslöser für eine enorme Freisetzung von Leistungs-Energie war, also einen zusätzlichen Motivationsschub bewirkte. Trotzdem scheitert Teamarbeit in der Praxis häufig (Martin 2000) und es gibt Kritiker, die argumentieren, ein Team, in dem jeder individuell und unterschiedlich entlohnt werde, könne gar nicht funktionieren (Sprenger 2000). Jede Profi-Fußball-Mannschaft entkräftet dieses Argument. Aber wie in einer Fußballmannschaft auch, müssen für die Teamarbeit einige grundlegende Spielregeln beachtet werden:

6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld

179

Einige Spielregeln für Teamarbeit:  • • • • •

Verlagerung von Entscheidungsbefugnis auf das Team Zu jedem Team-Mitglied muss ein Abhängigkeitsverhältnis bestehen Keine „Heile-Welt“-Harmonie, sondern knisternde Spannung Keine „Angst-Psychosen“, welche die Spannung abtöten Antagonismus zwischen Individualismus und Teamgeist muss die Dynamik steuern • Kultur der Fehlertoleranz Die wichtigste Regel ist, dass – wie im Beispiel Bürkert – tatsächliche Entscheidungsbefugnis und Verantwortung auf das Team delegiert wird. Das bedeutet, dass die delegierende Stelle (der „Vorgesetzte“) auch Entscheidungen des Teams akzeptieren muss, die ihm nicht „passen“. Damit einher geht die Voraussetzung, dass nur mit der Kultur einer gewissen Fehlertoleranz Teams in Organisationen erfolgreich sein können. Ein häufiger Irrtum betrifft die Team-Zusammensetzung. Werden Leute in ein Team delegiert, „um informiert zu sein“, muss die Teamarbeit scheitern. Drucker (2000) hat das wesentliche Auswahlkriterium auf den Punkt gebracht: Es gehört keiner in ein Team, zu dem nicht ein Abhängigkeitsverhältnis (für die Aufgabenerfüllung des Teams) besteht. Werden die in der obigen Box zusammengefassten wenigen Spielregeln befolgt, übertreffen die Resultate meist alle Erwartungen. Ein klarer „Kontrapunkt“ zu der „intrinsischen“ Motivation durch Übertragung von „Freiheit“, Verantwortung und Selbstbestimmung scheint zunächst der deutlich „extrinsische“ Hebel durch Locken mit Geld zu sein. Zunächst eine beklemmende Frage: Stuft man den mit „soft facts“ der Unternehmenskultur autonom und idealistisch „erzogenen“ Mitarbeiter nicht als „käuflich“ ein, versucht man ihn nicht zu korrumpieren, zu „bestechen“, wenn man mit hartem Geld lockt? Das kann durchaus passieren, wenn man zu einseitig auf Geldanreize setzt und das bedeutet, dass man auch dieses Werkzeug mit Überlegung und Augenmaß einsetzen muss. Die Versuchung ist z. B. groß, die Verkaufsmannschaft so gut wie ausschließlich nach den Umsatzerfolgen zu bezahlen. Aber was handelt man sich damit ein? Nach „Presser“-Art vorgehende Provisionsjäger, denen die Unternehmenskultur und die langjährige Zufriedenheit der Kunden nebensächlich sind. Das würde allen Erfahrungen erfolgreichen Marketings (s. Kap. 7) widersprechen. Andererseits gehört ein sportlicher Wettkampf zu der lebensbejahenden Grundeinstellung von Menschen, mit denen wir Erfolge erzielen wollen. Wir müssen also die Leistungen der Einzelnen messen und die Messergebnisse müssen sich auch angemessen in der Bezahlung auswirken. Das erreicht man durch erfolgs- und leistungsorientierte Vergütungsmodelle, wie sie in den letzten Jahren in vielen Firmen mit Erfolg eingeführt wurden. Ein solches Beispiel zeigt Abb. 6.2: Die Bezahlung gliedert sich in ein Festgehalt und einen sogenannten variablen Anteil, bestehend aus Leistungs- und Ergebnisanteil. Je höher die Hierarchie-Stufe, desto größer die Einwirkungsmöglichkeit auf

180

6 Personalführung

Abb. 6.2   Beispiel für ein erfolgs- und leistungsorientiertes Vergütungssystem

den variablen Anteil und desto höher auch der variable Prozentsatz an der Gesamtvergütung. Der Ergebnisanteil – er ist wichtig, weil so jeder auch auf das Ergebnis der Gesamtfirma zu achten hat – wird genau definiert und richtet sich in unserem Beispiel nach dem erwirtschafteten ROI des Unternehmens bzw. der (bilanzierenden) strategischen Geschäfts-Einheit, Sparte etc. (zu ROI s. Kap. 3.1.2 und 3.3.9). Die Organe – Geschäftsführer oder Vorstände – werden nicht am Leistungsanteil, sondern voll am Erfolg der von ihnen geleiteten Unternehmung gemessen. Der Leistungsanteil für alle anderen Mitarbeiter wird durch eine sogenannte Zielerreichung definiert. Dafür wird zu Anfang des Geschäftsjahres ein „Vertrag“ (Abb. 6.3) zwischen Mitarbeiter und Vorgesetztem geschlossen (wir erinnern uns an Abb. 6.1: „Aushandeln wird zum zentralen Führungsinstrument“), in dem konkrete Ziele vereinbart werden. Je nach Zielerreichung (Abb. 6.4) wird dann der zu zahlende Leistungsanteil am Jahresende ermittelt. Dieser leistungsorientierte Ansatz wird in vielen Unternehmen heute durch einen sog. „werteorientierten“ Ansatz erweitert: Den Führungskräften werden zusätzlich Möglichkeiten eingeräumt, bei entsprechender Werterhöhung der Aktien, Anteile am eigenen Unternehmen zu erwerben (sog. stock-option-Programme). Damit soll nicht nur ein zusätzlicher Leistungsanreiz, sondern auch eine festere Bindung an das Unternehmen erreicht werden. Allerdings ist diese Methode stark umstritten und sicher noch nicht zu Ende durchdacht. Sie hat den großen Mangel, dass sie sich am kurzfristigen und nicht am langfristigen Erfolg eines Unternehmens orientiert und setzt damit u. E. die falschen Anreize.

6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld

Abb. 6.3   Beispiel einer Zielvereinbarung

Abb. 6.4   Beurteilung der Zielerreichung

181

182

6 Personalführung

Man kann sich fragen, ob diese etwas schulmeisterlich wirkenden Systeme wirklich leistungssteigernd wirken. Bezüglich der Motivationskraft des Zusatzgeldes sind Zweifel berechtigt. Wir halten sie aber aus einem ganz anderen Grund für produktiv und sagen das aus langjähriger Erfahrung: Es zwingt nämlich Mitarbeiter und Vorgesetzten dazu, mindestens zweimal pro Jahr ein ausführliches Gespräch zu führen und dabei einen Konfliktfall zu lösen. Vor allem für den Vorgesetzten ist das heilsam, denn erfahrungsgemäß drückt er sich vor solchen Gesprächen (übrigens bis in höchste Hierarchie-Stufen). Ein zusätzlicher Effekt: Nichts schweißt zwei Menschen so zusammen, als wenn sie gemeinsam einen Konflikt gelöst haben. Aber damit sind wir aus den „hard facts“ wieder bei den „soft facts“ gelandet!

6.3.2  W  ie verträgt sich der Trend, jeden Mitarbeiter zum „Prozess-Eigner“ aufzuwerten mit der Diktatur durch das Qualitäts-Handbuch? Kernelement vieler moderner Management-Vorgehensweisen ist das Konzept, rigoros Entscheidungsbefugnis dorthin zu verlagern, wo die „Tagesarbeit“ erfolgt, wo z. B. der Fertigungsprozess stattfindet. Berühmtes Symbol dafür ist der rote Knopf an den Fließbändern bei Toyota, den jeder Fließbandarbeiter, der ja stets „Eigner“ eines Teilprozesses ist, drücken darf, wenn er es für angebracht hält. Er entscheidet, nicht sein disziplinarischer Vorgesetzter. Dahinter steht die Vorstellung, dass ein Prozess (sagen wir in einer industriellen Fertigung – man könnte auch ein Krankenhaus als Beispiel nehmen!) wie eine Kette aus zahlreichen Einzelschritten besteht: Materialwirtschaft, Arbeitsvorbereitung, mechanische Bearbeitung, Wärmebehandlung, Montage, Auslieferung, Vertrieb etc. Die Mitarbeiter gehören unterschiedlichen Abteilungen an, sog. funktionalen Silos (Abb. 6.5). Entscheidungen bezüglich des Prozessablaufes sollen aber nicht die Abteilungsleiter treffen, sondern die Mitarbeiter, die die Tagesarbeit erledigen, die Prozess-Eigner, die untereinander jeweils Kunden-Lieferanten-Beziehungen aufbauen sollen und selbständig daran arbeiten, die Abläufe ständig zu optimieren. Das ist der leitende Gedanke bei Vorgehensweisen wie dem TQM (Total Quality Management) also der Sicherstellung von höchsten Qualitäts-Standards beim Entstehen eines Produktes (und nicht durch nachträgliche Kontrolle) oder dem KVP, dem „kontinuierlichen Verbesserungsprozess“ (s. Kap. 5.3.2 und 5.3.3). Auch Verfahren wie das „value based process design“, also die Prozess-Optimierung nach dem Kriterium, was trägt – aus Sicht des Endkunden – zur Wertsteigerung des Produktes bei, was nicht, basieren auf dieser Überlegung und von Praktikern hört man immer wieder, dass die größte und schwierigste Hürde bei der Einführung dieser und ähnlicher Verfahren darin besteht, die Mentalität der Menschen entsprechend zu verändern, die Unternehmenskultur auf diese Grundeinstellung hin zu beeinflussen. Das nimmt in der Regel viele Jahre in Anspruch! Die größte und erfolgreichste Automobilfirma der Welt, die japanische Firma Toyota hat dieses Prinzip am entschiedensten vorangetrieben und zum „Toyota-Prozess“ (s. Kap. 5.3.5) ausgebaut, einem Management-Konzept, das übergreifend in

6.3 „Werkzeuge“ moderner Personalführung im Spannungsfeld

183

Abb. 6.5   Das Konzept der „Prozess-Eigner“

der Organisation „Verschwendung“ vermeidet, Durchlaufzeiten durch Konzentration auf „Werthaltigkeit“ optimiert und dem Individuum Selbstvertrauen und Motivation durch Übertragung von Verantwortung und Entscheidungsbefugnis vermittelt. Diesem „freiheitlichen“ Ansatz scheint die Praxis in vielen Betrieben, die großen Wert auf Einhaltung von Qualitäts-Standards legen, zu widersprechen. Jede Vorgehensweise, jeder Prozess ist hier bis ins Detail beschrieben und niemand in der Organisation darf davon abweichen. In vielen Betrieben werden die im Qualitätshandbuch festgelegten Vorschriften deshalb geradezu als bürokratische Entmündigung mitdenkender Mitarbeiter empfunden. Das beruht auf gründlichem Missverstehen modernen Qualitätsmanagements, welches leider – besonders im Gesundheitsbereich – weit verbreitet ist. Die sog. ISO-Norm-Vorschriften und Anleitungen betonen alle, dass Qualitätsmanagement nur in Verbindung mit einem KVP-Prozess, der natürlich von den Prozess-Eignern (s. o.) ausgehen muss, wirksam werden kann. Es ist geradezu die Aufgabe jedes Prozess-Eigners laufend Veränderungen/Verbesserungen vorzuschlagen, die natürlich erst eingesetzt werden können, wenn sie abgestimmt, beschlossen und im Handbuch festgelegt und kommuniziert sind. Jedes Qualitätsmanagement-System ist deshalb so zu organisieren, dass die Abstimmungsvorgänge zügig und unbürokratisch ablaufen (s. Kap. 5.3).

6.3.3  Motivation zu Innovation trotz 360-Grad-Beurteilung? Der Kampf um Marktanteile wird heute auf dem Feld der Innovationen ausgetragen. Und zwar nicht nur im technischen Bereich oder bei Produktinnovationen, sondern auf allen Gebieten: beim Kundendienst, bei der internen Prozessgestaltung, bei der

184

6 Personalführung

Finanzierung etc., d. h. von jedem Mitarbeiter werden heute Kreativität und Erfindungsgeist gefordert. Innovation kann aber nur erwarten, wer der Kreativität, ja verrückten Ideen auch Raum und Freiheit lässt (s. Kap. 8.2 Innovationsmanagement). Wie verträgt sich das mit der rigiden Bewertungsmethode des 360-Grad-Feedback, welches heute fast überall in Industrie und Wirtschaft eingesetzt wird? Das Revolutionäre und Aufsehenerregende am 360°-Feedback ist, dass mit dieser Methode erstmals eine Vorgesetzten-Beurteilung durch die Untergebenen hoffähig wurde. Meist wird die Befragung sogar – fälschlicherweise – auf diesen Aspekt reduziert. Die Entwicklung der Methode ist eine logische Konsequenz aus der TQM (Total Quality Management)-Philosophie (Kap. 5.3.2): Wenn alle Prozesse eines Unternehmens, also nicht nur die Produktionsprozesse, sondern auch die des Verhaltens ständig in ihrer Qualität verbessert werden sollen, müssen dafür Messmethoden geschaffen werden. Diese Lücke hat das 360-Feedback geschlossen. Das 360-Grad-Feedback:  • Die Befragung erfolgt schriftlich, mit Fragebögen, deren Inhalt sich an den Unternehmenszielen ausrichtet. • Die Anonymität wird durch Einschaltung externer Berater sichergestellt. • Der Betroffene füllt den Fragebogen ebenfalls aus: Selbstbeurteilung • Die Auswertung erhält der Beurteilte vom Berater. • Der Berater moderiert mögliche Feedback-Gespräche zwischen Beurteiltem und dessen Mitarbeitern (evtl. Lüftung der Anonymität) • Abschließend informiert der Beurteilte seinen direkten Vorgesetzten über die Ergebnisse sowie über vereinbarte Maßnahmen. Ein Unternehmen, welches sich die ständige Verbesserung aller Prozesse auf die Fahne geschrieben hat, würde unglaubwürdig, sollte es sich dieser Methode verschließen. Sie birgt jedoch auch hohe Risiken: Sie kann einerseits vertrauensfördernd wirken und dazu führen, dass der Umgang zwischen Vorgesetztem und Untergebenen unverkrampft und sachlicher wird. Es kann jedoch genau das Gegenteil eintreten, wenn beispielsweise für das Mittelmanagement der Eindruck entsteht, das Top-Management fördere mit der Methode verschleiertes Denunziantentum und sammle geheime Verhaltensdossiers. Man sollte deshalb 360-Feedbacks erst dann einsetzen, wenn das Vertrauensklima in einem Unternehmen stabil ist. Eine weitere wichtige Voraussetzung scheint zu sein, dass man mit der Methode an der Spitze beginnt. Sollte sich ein Top-Management aus solch einem Projekt selbst ausklammern, muss es unserer Meinung nach scheitern. Man sollte es dann lieber gar nicht beginnen. Außerdem muss eine Belegschaft und besonders das Mittelmanagement auf solch ein Projekt sorgfältig vorbereitet werden. Von einem Vorgesetzten wird eben auch Durchsetzungsvermögen und Aggressivität, also eine „angriffslustige“ Grundhaltung (nicht haltloses Benehmen) gefordert. Selbsteinschätzung und Untergebenen-Beurteilung können deshalb auch gar nicht deckungsgleich sein. Sollten sie es sein, wirft auch das kritische Fragen auf.

6.4 Beurteilung, Lob und Tadel

185

Gerade das Mittelmanagement lebt heute in dem Konflikt, dass von allen Seiten partizipativer Führungsstil, Delegation, Gruppenarbeit, „heile Welt“ gefordert wird, andererseits die persönliche Ergebnisverantwortung immer enger ausgelegt wird. Hier muss persönliche Betreuung Sicherheit vermitteln. Durch seine Vorbildfunktion muss das obere Management insbesondere klar werden lassen, dass ein Vorgesetzter heute in diesem Spannungsfeld leben und es aushalten muss. Er muss bereit sein, die volle Verantwortung für seine „Truppe“ zu tragen, andererseits kann er die persönlichen Energien seiner Mitarbeiter nur dann freisetzen, wenn er Fehlertoleranz einräumt und seine Überzeugungen „gut verkauft“, jedoch vermeidet, sie autoritär durchzudrücken. Er muss bereit sein, Ideen der Mitarbeiter aufzunehmen und umzusetzen. Nur in Ausnahmefällen darf er von seiner Machtposition Gebrauch machen. Dann muss er es tun, auch wenn er sich damit unbeliebt macht. Sein Eingreifen wird er dann jedoch den Mitarbeitern erklären (ohne immer Zustimmung zu erwarten). Das bedeutet, auch in einer freiheitlichen, kreativitätsfördernden Unternehmenskultur kann man das zunächst als repressiv erscheinende Instrument der RundumBeurteilung durchaus einsetzen, vorausgesetzt, man beachtet obige Spielregeln und Grundsätze. Man könnte noch viele andere Beispiele für Vorgehensweisen anführen, die zunächst widersprüchlich erscheinen, auf der einen Seite freiheitliche, auf der anderen repressive Methodik repräsentieren. So war vor einigen Jahren das „Chaos-Management“ in Mode gekommen (häufig missverstanden als „Anarchie“), eine Methode, die speziell in der Forschung fraktale Organisationsformen (Warnecke 1995) propagiert, d. h. Forschungsteams sollen sich selbst organisieren – eine durchaus vernünftige Forderung. Gleichzeitig kam „Coaching“ in Mode. Dabei wird angestrebt, Verhaltensänderungen durch die Begleitung eines Beraters zu erzielen. Missverstanden wird die Methode häufig zur „Gehirnwäsche“ oder zur Disziplinierung missbraucht. Dabei kann sie in vertrauensvollem Umfeld und mit einem versierten Berater außerordentlich hilfreich sein, weist aber natürlich durchaus direktive Komponenten auf. Das bedeutet, wir müssen lernen, die Ambivalenz von Führung zu verstehen und zu akzeptieren. Auf der einen Seite auf dem Instrumentarium der Delegation von Verantwortung, der positiven Motivation, der Bereitstellung von Freiräumen, auf der anderen auf dem Instrumentarium des Entscheidens, des Vorgebens, Nachhaltens und auch Kontrollierens von Richtungen bestehend. Die Vorstellung, im Tagesgeschäft große Feiräume zu bieten, die Grundwerte jedoch rigoros – von oben – einzufordern, kommt einer Idealvorstellung sehr nahe.

6.4 Beurteilung, Lob und Tadel Aus dem weiten Feld der Methodik der Personalführung mit einer ganzen Literatur von beispielsweise Motivationstechniken usw. seien nur drei Anforderungen, mit denen jede Führungskraft konfrontiert ist, herausgegriffen, da hier erfahrungsgemäß die meisten und folgenschwersten Fehler gemacht werden.

186

6 Personalführung

6.4.1  Beurteilung Jeder ist im Arbeitsleben gezwungen, sein Umfeld zu beurteilen. Ob Mitarbeiter, Kollege, Vorgesetzter, Kunde, Lieferant, man muss lernen, die Personen, mit denen man umzugehen hat, einzuschätzen. Sehr schnell wird einem klar, dass dabei allgemein menschliche Eigenschaften viel entscheidender sind als Fachwissen oder technische Fähigkeiten. Nur: Niemand hat sich mit Menschenbeurteilung befasst und es ist – das sei vorausgeschickt – ohnehin das schwierigste Gebiet, das es im Management gibt. Jede auch nur einigermaßen selbstkritische Führungskraft wird sich eingestehen, wie häufig sie bei der Einschätzung von Menschen daneben gegriffen hat und wie furchtbar sich solche Fehlentscheidungen meistens auswirken. Man sollte deshalb so frühzeitig wie möglich damit beginnen, zu versuchen, sich mit dieser Thematik systematisch zu beschäftigen. Deshalb soll kurz eine Methodik vorgestellt werden, die sich unserer Meinung nach vorzüglich dazu eignet, sich mit der Materie vertraut zu machen. Es ist die Potentialeinschätzungsmethode von Dr. Eberle (Abb. 6.6), die – insofern passt sie zu der hier vorgestellten Grundorientierung – auf dem Konzept der Polarität aufbaut. Sie lässt sich folgendermaßen charakterisieren: • Es wird eine Selbsteinschätzung und eine Fremdeinschätzung (z. B. durch Vorgesetzte) vorgenommen. • Dabei werden 20 (in der Abb. 6.6 haben wir nur 5 davon exemplarisch herausgegriffen) gegensätzliche Eigenschaftspaare (Polarität) abgefragt, die nur positive Eigenschaften in maximal 3 Ausprägungsstufen aufweisen. Eine 4. extreme Ausprägungsstufe dient nur zur Verdeutlichung. • Das Ergebnis ergibt ein zwischen Vorgesetztem und Mitarbeiter abgestimmtes Persönlichkeitsprofil. • Auf dieser Basis wird dann gemeinsam z. B. der optimale Arbeitseinsatz abgestimmt. Da man in jedem Team – auch in einer Geschäftsführung – darauf achten sollte, dass unterschiedliche fachliche und menschliche Stärken vertreten sind, bietet sich dies System an, wenn solche oder ähnliche Gremien besetzt werden sollen. Die Risiken beim Einsatz der Methode bestehen vor allem darin, dass – wie die Erfahrung zeigt – jeder Beurteilende dazu neigt, die Kreuze stets zur Mitte, auf die Null-Linie zu setzen und damit die Aussagekraft der Profillinie nichtig wird und dass die Ambivalenz, die Spannungsweite, die in einem Menschen steckt, naturgemäß nur unzureichend zum Ausdruck kommt. Trotzdem: Man gewöhnt sich mit dieser oder ähnlichen Methoden an, menschliche Eigenschaften gezielter zu hinterfragen und wahrzunehmen.

 

Persönliche Mitteilung Dr. Eberle

6.4 Beurteilung, Lob und Tadel

187

Abb. 6.6   Potentialeinschätzung nach Dr. Eberle

6.4.2  Lob und Tadel Das entscheidende Feedback in der Personalführung ist das Gespräch von Mensch zu Mensch, z. B. bei der regelmäßigen Vereinbarung der Leistungsziele, bei der Beurteilung, wie weit die Ziele erreicht oder verfehlt wurden, beim Kritikgespräch, bei gelegentlichen Motivationsgesprächen usw. Lob und Tadel sind dabei notwendige Elemente des Feedbacks und jeder Mensch – der ja weiß, dass er beurteilt wird – hat ein Anrecht darauf, solch ein Feedback zu erhalten. Dabei wird schnell klar, dass kaum jemand mit so trivialen Kommunikationselementen umgehen kann, obwohl gerade dadurch die „Kultur“ einer Organisation ganz entscheidend geprägt wird. Deshalb sollen einige sehr einfache Spielregeln für beides angeführt werden (s. Tab. 6.2). Aus den bisherigen Ausführungen dürfte klar geworden sein, dass man in der Motivation mit häufigem Loben viel mehr erreichen kann als mit dauernder Kritik! Alle derartigen Gespräche sind von ungeheurer Bedeutung und Wichtigkeit und die Menschenführung wie überhaupt das Zusammenleben von Menschen (auch im

188

6 Personalführung

Tab. 6.2   Spielregeln für Lob und Kritik Lob

Kritik

Die Anerkennung selbst aussprechen, unter vier Augen, unmittelbar und konkret (nicht pauschal) Anerkennung muss angemessen sein Anerkennung keineswegs mit Kritik verbinden

Die Kritik selbst aussprechen, unmittelbar und unter vier Augen

durchaus mit positivem Gefühl die emotionelle Seite spüren lassen

Ehrlich und konkret, nicht plump Trotz sachlicher Kritik emotionelles Wohlwollen spüren lassen – den anderen nicht „vernichten“ Mit der Kritik soll eine Hilfestellung geboten werden Wird der Fehler allerdings disziplinarische oder sonstige Konsequenzen haben, muss das in dem Gespräch auch klargestellt werden

privaten Bereich) krankt fast immer daran, dass man zu wenig, nicht offen, nicht sachlich miteinander „kommuniziert“. Das Beispiel vom „Loben“ zeigt, dass man die entsprechenden Verhaltensfähigkeiten lernen kann, auch wenn innere Barrieren bestehen. Wem es nicht angeboren ist, der muss – sobald er Verantwortung für andere Menschen übernimmt – sich dazu zwingen. Mit seinen engsten 5–10 Mitarbeitern muss man mindestens einmal wöchentlich gesprochen haben. Wer nach einiger Zeit spürt, dass er dem innerlich ggf. im Unterbewusstsein ausweicht, der muss es sich im Kalender notieren und es durchführen, auch wenn er sich anfangs hölzern und ungeschickt dabei vorkommen sollte.

Literatur Beer M, Eisenstat RA, Foote N, Friedberg T, Norrgren F (2008) Der perfekte Chef. HBM August 2008 S 20–31 Chambers J im Interview mit B Freyer und Th A Stewart (2009) Ich musste lernen loszulassen. HBM Januar 2009, S 46–54 Collins J (2001) Firmenschefs brauchen kein überzogenes Ego. HBM April 2001 S 9–21 Drucker PF (2000) Die Kunst des Managements. Econ Verlag, München Drucker PF (2004) Das Geheimnis effizienter Führung. HBM Aug 2004 S 27–35 Falk A (2002) Reziprozität und Sozialkapital. Universitas 57(675): 936–946 Goleman D (1996) Emotionale Intelligenz, 2. Aufl. Hanser, München Hamel G (2006) Die besten Managementkonzepte. HBM Sept. 2006, S 21–38 Herzberg F, Mausner B, Snyderman B (1959) The Motivation to Work, 2. Aufl. Wiley VCH, New York Hill AL im Gespräch (2008) Gesucht: ein neuer Typ Manager. HBM Mai 2008, S 80 Humboldt W v (1964) Über die innere und äußere Organisation der höheren wissenschaftlichen Anstalten in Berlin (1810). In: Flemmer W (Hrsg) Wilhelm von Humboldt. Schriftum Wilhelm Goldman Verlag, München, S 300–309 Kellermann B (2004) Die dunkle Seite der Macht. HBM Sept. 2004, S 90–97 Köhn R (2009) Ich verwalte das Chaos. Das Unternehmergespräch: Terri Kelly, Präsidentin W. L. Gore & Associates. FAZ, 5. Jan. 2009, S 14

6.4 Beurteilung, Lob und Tadel

189

Kramer RM (2006) Die Stunde der Einschüchterer. HBM Juli 2006, S 83–94 Kraus O (2006) Tatmenschen mit Charakter. Leserzuschrift HBM Okt. 2006, S 130 Kraus O (2009) Von den alten Griechen lernen. HBM Februar 2009, S 92–97 Lohner M (2008) Der Einsatz von Macht – der Not gehorchend? Osb reader 2008, Wien, S 83–85 Lübbe H (2004) Terror oder die höhere Mordmoral. Universitas 59(702): 1253–1261 Martin A (2000) Teams und ihre Entwicklung. Universitas 55(651): 895–911 Mintzberg H (2004) Der Managerberuf. Dichtung und Wahrheit. HBM Okt. 2004, S 72–89 Moss Kanther R (2008) Der moderne Konzern: schnell, flexibel, kreativ. HBM Mai 2008, S 66 Neuberger O (2000) Das 360 Grad-Feedback: Alle fragen? Alles sehen? Alles sagen? Schriftenreihe Organisation & Personal. Mering Hampp, München Ohno T (1993) Das Toyota Produktionssystem. Campus Verlag, Frankfurt Schein EH (2002) Blut, Schweiß und Tränen – von der Angst lernen. HBM Mai 2002, S 72–79 Scholz C (2000) Personalmanagement. Informationsorientierte und verhaltenstheoretische Grundlagen, 5. Aufl. Vahlen, München Simon H (2007) Hidden Champions des 21. Jahrhunderts. Die Erfolgsstrategien unbekannter Weltmarktführer. Campus Verlag, Frankfurt Sprenger RK (2000) Aufstand des Individuums. Campus Verlag, Frankfurt Sternberg R, Wagner R (Hrsg) (1986) Practical intelligence. Nature and origins of competence in the everyday world. Cambridge University Press, Cambridge Takeuchi H, Osonso E, Shimizu N (2008) Was Toyota besonders macht. HBM Sept. 2008, S 30–40 Wagner K, Rex B (2001) Praktische Personalführung, 2. Aufl. Gabler Verlag, Wiesbaden Warnecke HJ (1995) Fraktale Organisationsformen in der Forschung. Wissenschaftsmanagement 1(Januar/Februar 1995), S 8–12 Weber M (1921/1984) Soziologische Grundbegriffe. Mohr, Tübingen Xenophon (1999) Des Kyros Anabasis. Der Zug der Zehntausend. Reclam, Stuttgart

Kapitel 7

Markt-Management O. Kraus

Der Markt ist die Front! Hier entscheidet sich das Schicksal jeden Unternehmens. Entsprechend spannend und faszinierend ist dieses Gebiet. Nirgends spürt man das Pulsierende und Erregende von Management so hautnah, als wenn man einem Kunden gegenübersitzt und es jetzt darum geht: Kauft er zu diesem Preis oder nicht, muss ich noch handeln, Preisnachlass geben, Lieferzeit verkürzen, zusätzlichen Service zusagen – oder einfach die Nerven behalten und so tun, als bräuchte ich den Abschluss gar nicht? Jeden unternehmerisch veranlagten Menschen muss das faszinieren und es überrascht nicht, dass die meisten erfolgreichen Manager (wie beispielsweise Jack Welch, der als Chef von GE einer der erfolgreichsten Manager unserer Zeit wurde) ihre ersten Erfolge im Vertrieb verbuchten und so auf sich aufmerksam machten. Aber Verkauf ist nur ein Teil des Markt-Managements. Und so wichtig für ein Unternehmen der Elan, das Geschick, ja die Dreistigkeit seiner Verkäufer ist, so wichtig ist die analytische, wissenschaftlich geschulte Methodik moderner Marketing-Strategien. Das Markt-Management lebt von beidem. Immer wieder hört man von extrem erfolgreichen Unternehmern, die mit simplen, stark vereinfachten Gedankengängen glänzende Markterfolge haben, die aus dem „Bauch“ heraus agieren, sich um keine Theorien kümmern, dafür umso mehr um das Tagesgeschäft und um die Schlüsselkunden. Andererseits basieren riesige Unternehmen – Konzerne wie z. B. Procter & Gamble – auf ihren wissenschaftlich durchdachten, strategisch ausgefeilten und generalstabsmäßig umgesetzten Marketingmethoden. Tatsache ist, dass der Markt beides verlangt: den „Bauch“ und den „Kopf“ und dies Spannungsfeld macht auch seinen Reiz aus. Wir stellen hier das Marketing in den Vordergrund, wobei – nach einer Definition von Levitt (2008) – der „Verkauf“ mehr die Sicht des Verkäufers oder Lieferanten, das „Marketing“ eher die Sicht des Kunden repräsentiert.

7.1  Einführung Marketing hat sich in Deutschland seit den 50er Jahren etabliert. Als die Mangelwirtschaft unmittelbar nach dem Krieg vorbei ging, in der der Markt alles von selbst aufgesaugt hatte, was produziert wurde, sah man sich plötzlich mit einem O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_7, © Springer-Verlag Berlin Heidelberg 2010

191

192

7 Markt-Management

„Käufermarkt“ konfrontiert. Man musste anfangen, aktiv den Absatz zu managen, Marketing zu praktizieren, indem man versuchte, die Bedürfnisse des Kunden aufzuspüren. Marketing ist die Art der Unternehmensführung, die konsequent auf den Absatzmarkt ausgerichtet ist (Bänsch 1998). In den letzten 20 Jahren hat sich dieser Ansatz verstärkt. Man hat begriffen, dass der Kunde im Zentrum aller Überlegungen und Anstrengungen stehen muss. Wir haben diese extreme Kundenorientierung der modernen Management-Auffassung im Kap. 5 (Qualitätsmanagement) bereits kennen gelernt und dabei erfahren, dass die Definition des Kunden sich geändert hat: Kunde ist nicht nur der letzte Verbraucher eines Produktes, sondern jeder – auch in der eigenen Organisation – dem ich etwas liefere und der es mir abnimmt. Denn man kann den Marketing-Prozess auch als „Austausch-Prozess“ auffassen: Jemand liefert eine Leistung oder Ware und erhält eine Gegenleistung z. B. in Form von Geld („exchange-process“). Dieser Prozess, konsequent zu Ende gedacht und nicht nur auf den Markt, sondern auf alle – auch die internen Prozesse eines Unternehmens – ausgedehnt, führte zum „Total Quality Management“ (TQM). „Marketing“ – richtig verstanden – ist im Grunde genommen nichts anderes als ein Spezialfall des TQM-Systems (s. Kap. 5.3.2). In dieser erweiterten Definition ist Marketing keineswegs nur auf Organisationen beschränkt, die etwas an einen Endverbraucher verkaufen, sondern bezieht sich auf alle Organisationen: auf Behörden, karitative Organisationen, Kirchen und Universitäten usw. Diese wenigen Andeutungen machen bereits deutlich, dass Markt-Management und Marketing sehr weite Gebiete sind, eigenständige Wissenschafts- und Forschungs-Gebiete mit zahlreicher, spezifischer Literatur und raschem Wachstum. Was muss ein Ingenieur oder Naturwissenschaftler davon wissen, wenn er mit Managementaufgaben konfrontiert wird? Wie meist im Management-Leben: Er sollte einen groben Überblick darüber haben, was es auf diesem Gebiet gibt – das versuchen wir im Folgenden darzulegen – und sich ansonsten Detailkenntnisse aus der Literatur verschaffen. Die Literatur, die geeignet erscheint, finden Sie im LiteraturVerzeichnis. Die Aufgaben, die das Berufsleben für Sie bereit hält, werden nämlich sehr unterschiedlich sein. Wenn man Beratungs- oder Labor-Dienstleistungen vertreibt, wird man anders vorgehen müssen, als wenn man für einen Pharmakonzern Schmerzmittel vermarktet. Für rein vertriebsorientierte Aufgaben wird der Ingenieur oder Naturwissenschaftler aber in jedem Fall zusätzlich ausgebildet werden, an Seminaren teilnehmen oder sich selbst weiterbilden, weshalb wir diesen Aspekt hier übergehen. Wie immer im Management ist die wichtigste Forderung, systematisch vorzugehen. Modernes Marketing verlangt heute v. a. danach: 1. Kundennutzen zu identifizieren, 2. Kundennutzen zu produzieren und 3. Kundennutzen zu kommunizieren. Dieses Vorgehen ist durchaus wissenschaftlich und der Ingenieur oder Naturwissenschaftler ist dafür keineswegs schlecht vorgebildet. Wenn man nämlich etwas von den Untersuchungsgegenständen abstrahiert, wird einem klar, dass die methodischen Ansätze von Marketing und Naturwissenschaft zahlreiche Analogien

7.2 Ein erfolgreiches Beispiel

193

Tab. 7.1   Analogien Marketing – Biodiversität Marketing Biodiversität Produkt-Vielfalt Produkt-Lebenskurve Monopol Oligopol Offener Markt Geschlossener Markt Eintrittsbarrieren Nischenmarkt Fragmentierter Markt Markt-Gleichgewicht Marktumbruch Produktsterben Marktdynamik

↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔ ↔

Arten-Vielfalt Arten-Lebenskurve Monokultur Dominante Population Offener Lebensraum Insel-Lebensraum Migrations-Barrieren Nischen-Population Fragmentierte Besiedlung Populations-Gleichgewicht „turnover“, „disturbance“ Artensterben „diversity dynamics“

aufweisen. Tabelle 7.1 soll das an einer Reihe von Begriffspaaren aus dem Marketing und der Diversitäts-Forschung illustrieren. Verwunderlich ist diese Analogie nicht, denn im Grunde genommen geht es in beiden Disziplinen um ganz ähnliche Fragestellungen: Was der Markt für die Marktforschung ist der Lebensraum für die Diversitäts-Forschung. So wie die Arten um die Ressourcen des Lebensraumes wetteifern, kämpfen die Produkte um Marktanteile. Beides sind im Allgemeinen offene Systeme, außerordentlich komplex und auf dynamische Gleichgewichtszustände zusteuernd. So versucht man in beiden Disziplinen die Komplexität in mathematische Modelle zu fassen und sie somit messbar, vorhersagbar und „rechenbar“ zu machen – in beiden Fällen nur teilweise mit Erfolg!

7.2  Ein erfolgreiches Beispiel Diesen ausgesprochen wissenschaftlichen Ansatz von Marketing wollen wir aber nicht in den Vordergrund stellen, sondern versuchen, möglichst pragmatisch vorzugehen. Zunächst sei deshalb eine „case-study“, ein Fallbeispiel vorausgeschickt, welches ein Gefühl dafür vermitteln soll, worauf es zentral im modernen Marketing ankommt. Natürlich ist kein Fall wie der andere, aber einige allgemeine Grundsätze werden sich daraus ableiten lassen. Vor gut 20 Jahren begann der architektonische Trend in Deutschland und Europa, Dächer, Gauben, Dachausbauten, Fassaden mit Metallblech zu verkleiden. Kupfer, Zink, Aluminium und – vereinzelt, so wie bei dem spektakulären Guggenheim Museum in Bilbao – auch Titanblech sind die Materialien. Solche Bleche gibt es seit alters her, wer kennt nicht die vielen, schönen, grün patinierten Kupfer-Kirchtürme v. a. in Norddeutschland oder die mit Zink bedachten Prachtbauten in Paris. Und wer offenen Auges durch unsere Städte geht und darauf achtet, wird bemerken, dass nicht nur Repräsentativbauten wie das Wallraff-Richartz-Museum in Köln (ZinkFassade), sondern auch kleinere Neubauten und vor allem Dachausbauten von Altbauwohnungen immer häufiger auf den Werkstoff Metallblech zugreifen.

194

7 Markt-Management

Unsere Beispielfirma, die „Blech“ genannt sei, ist in dieser Branche tätig. Das Beispiel stammt aus einer Zeit von vor etwa 10 Jahren, ist nicht mehr ganz aktuell, hat aber den Vorteil, aus dem eigenen Erfahrungsbereich zu kommen. „Blech“ ging wie die meisten ihrer Wettbewerber aus einer Metallhütte hervor, ist jedoch verselbständigt worden und agiert unabhängig von der Rohstoffquelle. Die Metallbleche, die sie herstellt sind technisch und qualitätsmäßig so gut wie die des Wettbewerbs auch. Metallbleche herzustellen verlangt keine besonders anspruchsvolle Produktionstechnik, die Bleche müssen der DlN-Norm entsprechen, aber das tun die Bleche der europäischen als auch der amerikanischen oder osteuropäischen Konkurrenz auch. Aus den Blechen werden zusätzlich Produkte wie Regenrinnen, Regenröhren usw. gefertigt – auch das verlangt keine Spitzentechnologie. Das heißt, im MarketingJargon handelt es sich um eine austauschbare Massenware, eine „commodity“. Das Überraschende ist nun, dass „Blech“ eindeutiger Marktführer – nicht nur in Deutschland, sondern auch in Europa – ist. Trotz des teuren Produktionsstandortes Deutschland! Und „Blech“ verkauft über 100.000 t Metallbleche jährlich, nicht etwa billiger, sondern teurer als die Konkurrenz. Trotzdem wachsen Ausstoß, Umsatz und Marktanteil ständig. Gleichzeitig ist es „Blech“ gelungen, sich eine derartige Marktposition und ein so abgehobenes Image zu erarbeiten, dass seine Produkte inzwischen wie Markenartikel auf dem Markt behandelt werden. Das heißt, es ist „Blech“ gelungen, aus einer „commodity“ einen Markenartikel zu machen. Wie ist so etwas möglich? Die Antwort lautet: durch extreme Kundenorientierung. Abbildung 7.1 zeigt schematisch die Kundenkette, die „Blech“ bedient. Das ist ein wichtiges Detail: Kunde ist nicht nur der Bauherr, der das Material letztendlich bezahlt, sondern Kunden sind auch der Architekt, der Metallblech plant, der Großhändler – insbesondere die Dachdecker-Einkaufsorganisationen – und natürlich auch der Dachdecker, der das Material verlegt. „Blech“ arbeitet hier mit einer Art Marktsegmentierung (s. u.), denn der Endkunde wird so gut wie gar nicht bearbeitet, die restliche Kundenkette dafür umso intensiver. Warum? Der Bauherr baut meist nur einmal maximal zweimal in seinem Leben ein Haus. Für diese seltenen Entscheidungsprozesse ein Markenimage zu etablieren, wäre sehr teuer und die Unterscheidungs-Möglichkeiten zum Wettbewerb sind gering. Der Bauherr wird sich auf das verlassen, was Architekt und Handwerker ihm raten.

Abb. 7.1   Kundenkette Metallbedachung – Schema einer Marketing-Strategie

7.2 Ein erfolgreiches Beispiel

195

Abbildung 7.1 zeigt, dass man diesen Teil der Kundenkette dafür umso intensiver bearbeitet. Der Architekt erhält jede Art der Unterstützung: on-line Planungshilfen, die Kalkulation wird ihm abgenommen, Detail-Bauzeichnungen werden geliefert, Beratung rund um die Uhr wird sichergestellt, etc. Darüber hinaus ist „Blech“ – vor allem über die Architekten – noch etwas ganz Entscheidendes gelungen: Sie haben den Markt geschaffen, d. h. den Architekten ständig neue Anwendungsmöglichkeiten von Metallblech gezeigt, Architekten-Wettbewerbe unterstützt, prominente Bauwerke von Architekten – z. B. in einem begehrten Jahreskalender – publiziert usw. Konsequenz: Metallblech kam immer mehr in Mode und war plötzlich „in“ – mit dem Resultat, dass der Markt ständig wuchs und die traditionellen Wettbewerber ihre Mengen nicht reduzieren mussten. Nur, an dem zusätzlichen Marktwachstum war „Blech“ (proportional) weit stärker beteiligt als die Konkurrenz. Auch dem Großhandel wurde systematisch alles abgenommen, was Kosten, Arbeit, Ärger verursacht und man hat verlässlich und solide zu den Abmachungen gestanden z. B. niemals Provisionen gekürzt, wenn einmal Preisnachlässe unumgänglich waren. Darüber hinaus hat man die Lagerhaltung übernommen – „Blech“ hat eigene Lager mit Service- und Verkaufsteams flächendeckend errichtet – und die technische Beratung sowie Verkaufsunterstützung für die Händler bereitgestellt. Sogar das Rechnungsschreiben hat „Blech“ für die Großhändler übernommen. Mit den flächendeckenden Service-Centern ist man schließlich entscheidend den Handwerkern entgegengekommen. Die müssen oft schnell entscheiden können, wann sie eine Baustelle bedienen. Wenn es regnet oder gar schneit, kann man schlecht arbeiten, umso schneller muss man reagieren können, wenn sich das Wetter plötzlich bessert. Bei den „Blech“-Service-Centern erhält man das Material so zugeschnitten, wie man es braucht, die Vorlaufzeit ist mit 24 Stunden extrem kurz, es wird technische Unterstützung beim Verlegen angeboten sowie eine ganze Latte weiterer Leistungen wie aus Abb. 7.1 hervorgeht. Lehrbuchmäßig nennt man das eine kombinierte push- und pull-Strategie. Der Handwerker wird so mit Vorteilen und Service überhäuft, dass ihm gar nicht einfällt, vom Großhändler etwas anderes als „Blech“ Material zu verlangen – d. h. dadurch wird das eigene Material geradezu in den Absatzkanal „hineingesaugt“ (pull). Bei Architekt und Händler „pusht“ man, indem man mit Verkaufsförderung etc. das „Blech“ Material in den „Kanal“, in die Kundenkette hineindrückt. Wir verstehen jetzt, warum der Materialpreis von „Blech“ Material höher sein muss als vom Wettbewerb: denn mit dem Materialpreis wird gleichzeitig ein ganzes Bündel von Dienstleistungen mit vergütet. Andererseits haben diese Dienstleistungen einen derart hohen Kundennutzen, dass es dem Kunden im Allgemeinen gar nicht einfällt, wegen eines geringfügigen Preisunterschiedes zur Konkurrenz zu wechseln. Geringfügig ist der Preisunterschied deshalb: Die Kosten eines Metalldaches oder einer Metall-Fassade werden vor allem von der Verlegearbeit bestimmt. In die Gesamtkosten eines Daches gehen die Materialkosten nur mit etwa 15% ein. Für den Endkunden bedeutet ein 10%iger Materialunterschied deshalb nur 1,5%

196

7 Markt-Management

der Gesamtkosten – und wenn man dafür das Dienstleistungs-Menue, die Qualitätsgarantie usw. mitgeliefert bekommt – dann fällt die Entscheidung für „Blech“ nicht schwer. Warum haben die Wettbewerber aber nicht den gleichen Weg eingeschlagen? Natürlich haben sie’s teilweise versucht. Aber abgesehen davon, dass solche Nachahmer- oder „me-too“-Strategien nie sehr hohe Erfolgschancen haben, hat „Blech“ auch hier vorgebaut: Die stetigen, kräftigen Gewinne des Unternehmens wurden nur teilweise ausgeschüttet, sie wurden vor allem dazu genutzt, kontinuierlich und mit massiven Kapital-Investitionen die Produktionsprozesse laufend zu verbessern, zu rationalisieren, die Lernkurven-Effekte systematisch zu nutzen und damit die Stückkosten zu reduzieren. Resultat: Während „Blech“ weiterhin bei stets wachsenden Mengen hohe Gewinne erzielt, dümpeln die Wettbewerber bei „break-even“-Ergebnissen herum und können langfristig einen Preiskampf gegen „Blech“ nicht mehr gewinnen. D. h. durch diese Reduzierung der Stückkosten hat „Blech“ die Preiselastizität ständig verbessert und die Eintrittsbarriere in die gleiche Marketing-Strategie für den Wettbewerb ständig erhöht. Natürlich sind damit die Maßnahmen längst nicht erschöpft: „Blech“ hat mit geschickter Personalpolitik eine hohe Motivation bei den Mitarbeitern erzielt, das TQM-Konzept (s. Kap. 5.3.2) wird auf allen Unternehmens-Stufen „gelebt“, die Quote der jährlichen Verbesserungsvorschläge der eigenen Mitarbeiter ist weit höher als bei anderen Unternehmen der Branche usw. – es ist also ein rundum gut und erfolgreich „gemanagtes“ Unternehmen. Die Kernkompetenz von „Blech“ liegt jedoch eindeutig im Markt-Management. „Blech“ hat sehr früh – eher als andere – den entscheidenden Kundennutzen identifiziert – nämlich eine strikte Problemlösungs-Strategie einzuschlagen – es hat Kundennutzen produziert, indem es die ProblemlösungsDienstleistungen hervorragend um- und eingesetzt hat und hat den Kundennutzen kommuniziert, so dass jeder in der Kundenkette vom Architekten über den Großhändler bis zum Handwerker sehr genau die Vorteile kennt, die eine Zusammenarbeit mit „Blech“ bringen. Die kurze Schilderung dieses Beispieles zeigt, wie komplex eine Markt-Strategie ist. Sie kann nicht in einem halben oder einem Jahr umgesetzt und realisiert sein, sondern es braucht Jahre konsequenten, zielorientierten Vorgehens auf allen Stufen einer Organisation, um eine so konsequente Ausrichtung zu erreichen. Aber: Mit gutem Markt-Management kann ein Unternehmen auch mit „lowtech“-Produkten eine singuläre Position in einem „commodity“-Markt erarbeiten. Das ist die „message“ und sie soll anregen, bei jeder Aktivität über die Frage von Kundennutzen sehr intensiv, unablässig und kreativ nachzudenken. Mit diesem Beispiel sind wir mitten hineingesprungen in das aufregende Leben des Markt-Managements und haben eine Reihe von Begriffen und Vorgehensweisen bereits kennen gelernt. Im Folgenden wollen wir noch einige Anmerkungen zur Systematik und zu aktuellen Trends im Marketing zufügen. Allerdings nur sehr kurz, denn es geht uns hier nur darum, eine allgemeine Orientierung über das Gebiet des Marketing zu bieten, es soll kein Lehrbuch ersetzt werden. Um das so anschaulich wie möglich zu halten, werden wir uns immer wieder auf die obige Fallstudie beziehen.

7.3 Die vier klassischen Säulen des Marketing

197

7.3  Die vier klassischen Säulen des Marketing Produkt, Preis, Vertrieb und Werbung nennt man die vier klassischen Säulen des Marketing, denn diese Elemente können direkt und unmittelbar von einem Marktteilnehmer gestaltet und beeinflusst werden. Hinter jedem Etikett verbirgt sich dabei eine ganze Latte von Handlungsalternativen, weshalb man im Allgemeinen auch von „Produkt-Politik“, „Preis-Politik“ etc. spricht (s. Tab. 7.2). Natürlich muss eine Markt-Bearbeitung nicht nur diese vier Einflussgrößen, sondern auch die sog. „indirekten“ Einflüsse auf einen Markt beachten, z. B.: • • • • • •

die technologische Entwicklung, die allgemeine Wirtschaftsentwicklung, den Wettbewerb, Politik und Gesetze, die sozialen Einflüsse und die zur Verfügung stehenden Ressourcen.

Aber: Diese Einflussgrößen muss man zwar kennen, kann sie jedoch nicht oder nur gering selbst beeinflussen. Dabei zeigt allein diese Aufzählung, wie komplex die detaillierte Analyse eines Marktes sein kann, weshalb man bei der strategischen Planung eines Marktauftritts eine andere Vorgehensweise wählt, die im folgenden Abschnitt kurz erläutert wird. Einige Elemente der klassischen Marktanalyse sollte man allerdings kennen. Produkt Ein wesentliches und wichtiges Element aus dieser „Säule“ ist die sog. ProduktLebenskurve (s. Abb. 7.2). Übrigens: eine Arten-Lebenskurve aus der Evolutionsforschung sieht identisch aus, beiden Kurven ist auch gemein, dass sie stets den gleichen typischen Verlauf zeigen, die Zeitachse jedoch sehr unterschiedlich sein kann. Wichtig ist, dass die Gewinnkurve stets den gleichen typischen Verlauf aufweist, was bedeutet, dass man nur auf dem Ast des starken Wachstums die Chance hat, hohe Gewinne abschöpfen zu können. Das hat die Firma „Blech“ unserer Fallstudie beherzigt: Sie hat mit einer Reihe von Maßnahmen, v. a. mit dem „Trendsetting“ für starkes Wachstum eines an und für sich „langweiligen“ commodity-Produktes gesorgt und es verstanden, Tab. 7.2   Die vier klassischen Säulen des Marketing Produktpolitik Preispolitik Vertriebspolitik Absatzkanäle Preis Produkt Indirekter Vertrieb Konditionen Marke Direkter Vertrieb Absatzfinanzierung Verpackung Persönlicher Verkauf Preisführer Kundendienst Bearbeitung der Kostenführer Diversifikation Kundenkette Elastizität Innovation Service-Center Preistransparenz Qualität Verfahren

Werbepolitik Werbung Verkaufsförderung Public Relations Messen und Ausstellungen Endkundenwerbung b2b-Werbung Imagewerbung „trendsetting“

198

7 Markt-Management

Abb. 7.2   Lebenszyklus eines Produktes (nach Bänsch 1998)

die hohen Gewinnmargen dieses Marktes auf sich zu lenken. Das bedeutet, man muss die Produktlebenskurve kritisch und aufmerksam verfolgen. Gerade dominante Markt-Platzhirsche haben das häufig „verschlafen“, wie Beispiele der Märkte Telexgeräte, Fotopapier (Agfa, Kodak), Personal-Computer (IBM), usw. immer wieder gezeigt haben! Die Kenntnis der Lebenskurve von Produkten ist auch deshalb wichtig, weil jede Phase auf der Kurve unterschiedliche Maßnahmen, auch völlig andere Innovationen erfordert (Moore 2004). So wäre für „Blech“ eine technische Produktinnovation ineffektiv gewesen, die Herausforderung wurde mit einer Marketing-Innovation – einer Anreicherung der „hardware“ Zinkblech mit der „software“ Kundendienst – und damit mit einer Problemlösung im Sinne des Kunden – beantwortet. Mit entsprechenden Änderungen des „Produktes“ haben viele Firmen verstanden, sich vom Wettbewerb abzuheben. Wenn die Fa. Hochtief beispielsweise nicht nur Bautätigkeit „verkauft“, sondern gesamte Flughäfen baut und dann auch betreibt und sich die Bauleistung über Start- und Landegebühren von den Fluggesellschaften vergüten lässt, ist das ein ähnliches Prinzip. In entsprechender Weise hat der Sprengmittel-Hersteller Orica sich von Billiganbietern dadurch abgesetzt, dass die Firma eine Lasertechnik entwickelt hat, mit der man im Steinbruch die optimale Lage und Anzahl der Sprenglöcher ermitteln kann. Orica füllt dann als Dienstleister die Bohrlöcher mit Flüssigsprengstoff, führt die Sprengung durch und lässt sich pro Kubikmeter gesprengten Materials bezahlen (Kumar 2007). Einen interessanten Fall von Produkt-Modifikation haben wir kürzlich bei der Fa. Bürkert (s. Kap. 6.2), Marktführer in der Regelungstechnik von Gasen und Flüssigkeiten erlebt. Der Firma gelang es, eine Regelungstechnik für Autolackieranlagen zu entwickeln, mit der es möglich ist, hintereinander unterschiedliche Lacke ohne nennenswerte

7.3 Die vier klassischen Säulen des Marketing

199

Lackverluste (durch Reinigen, Spülen usw.) einzusetzen. Die Firma tat sich mit dem führenden Anbieter von Lackieranlagen zusammen, das Konsortium stellt die Kabinen in den Hallen der Autoindustrie auf, betreibt sie und wird pro lackierte Fläche bezahlt. Also ebenfalls eine konsequente Marketinginnovation mit der eine Produktinnovation profitabel verwertet wird. Preis Obige Beispiele zeigen, dass Produktinnovationen nur dann Sinn machen, wenn man die Säule „Preispolitik“ so gestalten kann, dass die Innovationen auch entsprechend bezahlt werden. Die Firma „Blech“ hat das durch eine Hochpreispolitik erreicht, Orica (Sprengmittel) und Bürkert (Lack-Regelsysteme) sind der Konkurrenz der Komponenten-Preise ausgewichen und vermarkten unmittelbar die Dienstleistung, bei welcher sie – trotz Einsatzes hochpreisiger Komponenten – Wettbewerbsvorteile aufweisen. Bei Massengütern im Bereich der Endkonsumenten spielt die Preispolitik eine besonders entscheidende Rolle und hier versucht man auch, mit mathematischen Modellen die Preisfindung zu optimieren. Bekanntestes und einfachstes Beispiel ist die Preis-Absatz-Funktion (Abb. 7.3). Sie besagt, dass in einem vollkommenen Markt ein grundsätzlicher Zusammenhang zwischen Preis und Absatzmenge besteht – und zwar in Form einer linearen Funktion – auf dem Diagramm einer von links oben nach rechts unten abfallenden Linie. Je höher der Preis, desto niedriger die Absatzmenge und umgekehrt. Der vollkommene Markt ist dabei ein theoretisches Konstrukt, in dem freie Preisbildung, vollkommene Transparenz etc. vorausgesetzt werden. Aus dieser Preis-Absatz-Funktion lässt sich die Preiselastizität ableiten, welche angibt, welches Preissenkungspotential ein Anbieter hat, wenn er die Absatzmenge um einen Betrag x erhöht. In solch einem theoretischen, vollkommenen Markt ist

Abb. 7.3   Preis-Absatz-Funktion (P = Preis; x = Menge)

200

7 Markt-Management

die Elastizität sehr hoch, in einem monopolistischen Markt wird die Funktion zu einer senkrechten Linie, d. h. der Monopolist bestimmt den Preis unabhängig von der Menge, es existiert keine Elastizität mehr. Die realistischen Fälle liegen dazwischen, sind jedoch – gerade bei Massenprodukten – durchaus mathematischen Modellen zugänglich. In der Praxis und in segmentierten Märkten muss die aufmerksame Marktbeobachtung gekoppelt mit der strategischen Ausrichtung für die angemessene Preisfindung sorgen. Dabei ist die wichtigste Preisdeterminante die eigene Kosten-Situation und der entscheidende Fixpunkt der sogenannte „break-even“-Punkt oder die Nutzschwelle. Ziel einer Preisstrategie muss natürlich sein, den Preis zu maximieren, gleichzeitig muss das Management laufend daran arbeiten, den break-even-Punkt zu senken, um sich möglichst große Preiselastizität zu verschaffen. Dieses kurze Beispiel soll hier genügen. Die praktische Bedeutung solcher Modellrechnungen ist für den Manager im Allgemeinen gering, steht jedenfalls in keinem Verhältnis zu der Bedeutung und dem Umfang, den manche Lehrbücher diesem Thema einräumen. Vertriebs- und Werbepolitik Der Schlüssel zum Erfolg unserer Beispielfirma „Blech“ war in der Tat die Werbepolitik, mit der es in langer, geduldiger Arbeit gelang, den Trend Zinkblech bei den Architekten zu etablieren. Das geschah in Kombination mit einer sauber abgestimmten Vertriebspolitik, die nur zuließ, dass das Material über ganz bestimmte Kanäle, die intensiv bearbeitet wurden, in den Markt gelangte. Baumärkte beispielsweise wurden strikt gemieden. Das unterstreicht die Bedeutung von beiden Elementen, wobei schon der Blick auf Abb. 7.1 zeigt, wie weit und vielfältig beide Felder sein können, die in unserem Rahmen nur angedeutet werden können. Das Beispiel macht auch plausibel, dass in der täglichen Vertriebsarbeit häufig Konflikte zwischen Marketing- und Vertriebsabteilung auftreten können. Dabei muss der strategische Ansatz des Marketing unbedingt Vorrang erhalten, was aber am erfolgreichsten dann gelingt, wenn der Vertrieb eng in die strategischen Gedankengänge des Marketings eingebunden wird (Kotler et al. 2006).

7.4  Der strategische Marketingansatz nach Porter Als Ingenieur oder Naturwissenschaftler wird man selten unmittelbar mit klassischen Marketing-Analysen konfrontiert werden, wie wir sie oben kurz skizziert haben. Er wird aber – häufig nicht nur in der Wirtschaft oder Industrie – mit großer Wahrscheinlichkeit in eine strategische Planung (s. Kap. 8.1) eingebunden werden. Kernelement jeder strategischen Planung ist die Marktanalyse und dabei hat sich heute ein Ansatz durchgesetzt, der weitgehend von Porter (1997, erstmals publiziert 1979) stammt. Es gibt wohl keinen Unternehmensberater, der nicht – natürlich häufig in abgewandelter Form – danach vorgeht. Das Konzept gliedert nicht die o. g. Erfolgstreiber auf und analysiert, welche Hebelwirkung einzelne Maßnahmen

7.4 Der strategische Marketingansatz nach Porter

201

erzielen (z. B. eine Preissenkung), sondern untersucht zunächst die Kräfte- und Machtverhältnisse eines bestehenden Marktes. Ist die eigene Positionierung geklärt, versucht die Analyse herauszufinden, mit welchen Mitteln man diese Position verbessern kann. Dabei postuliert Porter zunächst die berühmten fünf Wettbewerbskräfte (Abb. 7.4), die jeder Marktteilnehmer grundsätzlich zu beachten hat: Nicht nur unmittelbare Wettbewerber konkurrieren um die beste Marktposition, sondern mögliche Bedrohungen können auch von weiteren vier Wettbewerbskräften ausgehen: • Von der Verhandlungsstärke der Lieferanten: In einem rohstoffnahen Bereich (Legierungen) hat der Autor hautnah erlebt, wie ein monopolartiger RohstoffAnbieter so lange seine Machtposition ausreizte, bis wir als Produzenten diesen Teil der Produktion einstellten. • Von der Verhandlungsmacht der Abnehmer: Im gleichen Beispiel hatten wir es auf der Abnehmerseite mit der Stahlindustrie zu tun, die sich – was legal ist (u. E. zu Unrecht!) – über Preise und Konditionen abgesprochen hat, wodurch wir mit dieser Aktivität zusätzlich in eine „Sandwich“-Situation geraten waren. • Von der Bedrohung durch Ersatzprodukte. Beispiel: Agfa und Kodak haben die Bedrohung durch die elektronische Fotographie nicht früh genug erkannt. • Von der Bedrohung durch neue Konkurrenten: IBM hat Microsoft zu spät als Bedrohung wahrgenommen als sie die Entwicklung von Betriebssystemen für Personalcomputer an diese – damals kleine – Firma „outsourcte“. Die Auflistung dieser Wettbewerbskräfte signalisiert bereits: Es geht nicht nur darum, die aktuelle Marktsituation zu analysieren, man muss auch einen Blick in die Zukunft wagen und versuchen, abzuschätzen, welche dieser fünf Marktkräfte im eigenen Markt zukünftig bestimmend sein werden. Auf dieser Basis muss man dann abschätzen, welche Marktposition, welchen relativen Marktanteil man in seinem –

Abb. 7.4   Die fünf Wettbewerbskräfte nach Porter (1997)

202

7 Markt-Management

Abb. 7.5   Zusammenhang zwischen Rentabilität und Marktanteil nach Porter (1997)

wie man sagt – relevanten Markt erreichen kann. Denn nur mit einem hohen relativen Marktanteil hat man die Chance, sein Geschäft langfristig auch profitabel zu gestalten. Diese Erfahrungstatsache zeigt Abb. 7.5. Berühmtes Beispiel für die konsequente Verfolgung dieser Strategie ist die Firma General Electric (GE). Ihr legendärer Chef Jack Welch hat – entgegen dem Trend der Zeit, welcher „Konzentration auf das Kerngeschäft“ lautete – ein riesiges Industriekonglomerat aufgebaut mit der strikten und äußerst konsequent verfolgten Weisung, dass Geschäftsfelder nur im Konzern verbleiben dürfen, wenn sie in ihrem relevanten Markt Position 1–3 erreichen. Er hat mit dieser Strategie den Börsenwert des Unternehmens in 20 Jahren um etwa das 200-fache steigern können. Die grundsätzlichen Handlungsoptionen illustriert Abb. 7.6: Agiere ich in einem Gesamtmarkt, muss ich die Kostenführerschaft anstreben. Beispiel: Henry Ford in den 20-er Jahren des vorigen Jahrhunderts, der mit der „Erfindung“ des Fließbandes und mit der Entscheidung, nur ein einziges Modell und das nur in schwarz anzubieten mit unerreicht billigen Autos den Markt in kurzer Zeit dominierte. Oder man muss sich differenzieren: Wie unsere Beispielfirma „Blech“, die es im Markt der commodity Zinkblech schaffte, durch Anreicherung des Produktes mit Kundendienstleistungen zum „Markenartikel“ zu werden. Auf Grund dieses Zusammenhanges verwundert es nicht, dass der Schlüsselbegriff jeder strategischen Analyse oder Planung der Begriff „Singularität“ bzw. „Differenzierung“ geworden ist. Differenzierungsstrategien stehen heute im Mittelpunkt jeder strategischen Ausrichtung und Planung. Aus dem gleichen Grund versuchen marktorientierte

7.4 Der strategische Marketingansatz nach Porter

203

Abb. 7.6   Wettbewerbsmatrix (nach Porter 1997)

Firmen stets Nischenmärkte zu schaffen, in denen sie sich mit hohen Eintrittsbarrieren gegen zu viel Wettbewerb abschotten. Wie Firmen es schaffen, eine gesamte Branche in einzelne Nischen oder Markt-Segmente aufzubrechen, dafür bildet die Computerindustrie mit dem „Microsoft“-Effekt ein häufig zitiertes Beispiel (Christensen et al. 2002). Wie die Abb. 7.7 illustriert, wurde die Computerbranche zunächst von vertikalisierten Gesamtanbietern dominiert, wobei IBM zeitweise fast 90% der Gesamtprofite der Branche abschöpfte. Die „Entvertikalisierung“ begann mit der oben zitierten Fehlentscheidung von IBM, die lange nicht an die Bedeutung des Personalcomputermarktes geglaubt hatte, die Entwicklung des Betriebssystems für Kleincomputer Microsoft zu überlassen. Microsoft hat es schnell verstanden, in der geradezu explodierenden Wachstumsphase dieses Marktes durch technologischen Vorsprung, aber auch durch trickreiches Vorgehen im Markt (welches schließlich auch die internationalen Gerichte beschäftigen sollte) so hohe Eintrittsbarrieren zu errichten, dass praktisch ein Monopol entstand und die Gewinnströme der Branche überwiegend von Microsoft abgeschöpft werden konnten. Der Prozess der Entvertikalisierung immer höher oben in der Wertschöpfungskette der Branche kam jedoch damit nicht zum Stehen, sondern Anbieter von Mikroprozessoren, Leseköpfen oder Laufwerken gelang es ebenfalls, schwer angreifbare Nischenmärkte aufzubauen und die Geldströme – zumindest zeitweise – auf sich zu lenken. In der Zwischenzeit haben sich die Wachstumsraten der Industrie abgekühlt, spektakuläre Marketingerfolge scheinen vor allem dort möglich, wo es Firmen gelingt, durch die geschickte Kombination von Technologien Nischenmärkte zu schaffen, so z. B. durch die Kombination von Handy, Computer und „Walkman“, das i-Pod von Apple, den „Blackberry“, etc. Diese und andere Beispiele mögen die Bedeutung von Nischenmärkten mit sehr hohen Eintrittsbarrieren unterstreichen, sollen aber auch zeigen, dass die entscheidenden Innovationen häufig – und so war es auch in unserem Fallbeispiel „Blech“ – nicht von der Technik, sondern von der geschickten Kombination von Marketing-Maßnahmen ausgelöst werden.

204

7 Markt-Management

Abb. 7.7   Die Aufspaltung des Computermarktes in Nischen und Marktsegmente (Christensen et al. 2002)

7.5  „Quantensprung“ durch Schaffung von Netzwerken Computer und Internet haben nicht nur die Kommunikationsbranche revolutioniert, sie haben darüber hinaus die Phantasie des menschlichen Geistes ungeheuer angeregt. Wenn die moderne Hirnforschung durch Experimente nachweisen konnte, dass leistungsfähige Computernetzwerke – in Analogie zum menschlichen Gehirn – in der Lage sind, selbständig gewisse Regeln – z. B. syntaktische Regeln – aufzustellen und so die Vermutung nahe liegt, dass hochkomplexe Systeme sich selbst steuern können, hat das den menschlichen Geist ungeheuer fasziniert. Denn damit kann ein komplexes System Leistungen einer anderen Größenordnung schaffen als es die Systemelemente vermuten lassen würden. Daher der bewusst in Anführungsstriche gesetzte (und häufig missverständlich genutzte) Begriff „Quantensprung“. „Networking“ beginnt bereits innerhalb von Organisationen, wenn – wie im Kap. 5 beschrieben – Arbeitsteams mit Mitarbeitern aus unterschiedlichen Bereichen, mit unterschiedlichem Wissenshintergrund und Erfahrungshorizont zur Lösung übergreifender Aufgaben zusammengestellt werden. Dieser Grundgedanke wurde über Firmengrenzen hinweg weiterverfolgt. Wenn beispielsweise heute eine Autofirma ein neues Modell herausbringt, muss u. a. dafür ein neuer Kabelsatz für alle elektrischen und elektronischen Anschlüsse entwickelt werden. Dazu wird heute ein Team aus Technikern des Automobilbauers und eines Kabelsatzherstellers (beispielsweise der Firma Leoni in Nürnberg) zusammen gestellt. Solch eine gemeinsame Entwicklung kann bis zu zwei Jahre dauern und 20–30 Mio. € kosten. Allein diese Eckzahlen

7.5 „Quantensprung“ durch Schaffung von Netzwerken

205

zeigen, dass es durchaus vernünftig ist, die Zusammenarbeit nicht nur für die Lieferung, sondern bereits für die Entwicklungsphase zu vereinbaren und ein Netzwerk aus Mitarbeitern beider Unternehmen zu bilden. Ein bekanntes Beispiel für ein entsprechendes, erfolgreiches „Networking“ ist der Konzern Procter&Gamble, der als besonders erfolgreicher Marketingspezialist gilt. Als die Firma feststellen musste, dass ihre Innovationskosten schneller stiegen als das Umsatzwachstum, hat man entschieden, radikal Lieferanten, Kunden, sonstige Partner an allen Forschungsund Innovationsvorhaben zu beteiligen, mit großem und schnellem Erfolg (Huston u. Sakhab 2006). In andere und neue Dimensionen stößt man vor, wenn das Netzwerk zum Kern eines Geschäftsmodells wird. Die Firma ebay hat beispielsweise die eigentlich nahe liegende Idee aufgegriffen, einen virtuellen Marktplatz für Leute bereitzustellen, die irgendetwas, was sie nicht mehr benötigen, verkaufen wollen, statt es wegzuwerfen oder zu verschenken,. Das Netzwerk von Verkäufern und Kunden ist Teil der Organisation und diese Organisation ist so erfolgreich, dass ein Milliardengeschäft daraus geworden ist. Noch deutlicher wird das Netzwerk-Prinzip in den sogenannten „open source“-Organisationen. Am „open-source“-Betriebssystem Linux arbeiten Tausende von „Computer-freaks“ freiwillig und unentgeltlich mit, leisten in ihrer Freizeit seitenlange Programmierungsarbeiten, nur aus Freude an dieser Tätigkeit, aus Stolz an gemeinsamer Leistung, um sich weiterzubilden, etc. Daraus ist ein beeindruckendes und außerordentlich leistungsfähiges Produkt geworden. Was ist so eine Organisation? Eine Firma? Jedenfalls nicht im herkömmlichen Sinn. Ähnliches gilt für das leistungsfähigste Nachschlage-Lexikon unserer Zeit, für Wikipedia. Ein Produkt, das sozusagen ein Netzwerk der Weltöffentlichkeit geschaffen hat, denn jeder kann an diesem Produkt mitarbeiten. Wir sind überzeugt, dass mit diesen Trends auch für das Marketing ganz neue und aufregende Signale gesetzt werden und man darf sehr gespannt sein, in welcher Weise die offensichtlichen Potentiale solcher Netzwerksorganisationen für die Wirtschaft und für das Marketing in Zukunft nutzbar gemacht werden.

Literatur Bänsch A (1998) Einführung in die Marketing-Lehre. Vahlen, München Christensen CM, Raynor M, Verlinden M (2002) Wo in Zukunft die Gewinnchancen liegen. HBM März 2002, S 55–66 Christensen CM, Cook S, Hall T (2006) Wünsche erfüllen statt Produkte verkaufen. HBM März 2006, S 70–86 Ferdows K, Lewis MA, Machuca JAD (2005) Über Nacht zum Kunden. HBM Feb. 2005, S 80–89 Homburg C, Staritz M, Bingemer S (2008) Was Produkte unverwechselbar macht. HBM Dez. 2008, S 34–59 Huston L, Sakhab N (2006) Wie Procter und Gamble zu neuer Kreativität fand. HBM Aug. 2006, S 20–31 Kotler P, Rackham N, Krishnaswamy S (2006) Den Streit zwischen Marketing und Vertrieb beenden. HBM Nov. 2006, S 42–60

206

7 Markt-Management

Kumar N (2007) So schlagen Sie die Billigkonkurrenz. HBM Jan. 2007, S 70–82 Levitt Th (2008) Marketing – Kurzsichtigkeit. HBM April 2008 S 78–102 Meffert H, Burmann C, Koers M (2005) Marktmanagement. Gabler, Wiesbaden Moore GA (2004) Darwin und der Dämon. HBM Dez. 2004, S 56–64 Porter ME (1997) Wettbewerbsstrategie (Competitive Strategy). Methoden zur Analyse von Branchen und Konkurrenten, 9. Aufl. Campus Verlag, Frankfurt / Main Porter ME (2004) Wie die Kräfte des Wettbewerbs Strategien beeinflussen. HBM Okt. 2004, S 49–61 Porter ME (2008) Die Wettbewerbskräfte – neu betrachtet. HBM Mai 2008, S 20–26

Kapitel 8

Strategisches Management O. Kraus, E. Schlücker

Bei der Definition des Managementprozesses haben wir in Kap. 1 das Modell des Regelkreises betrachtet. Das Bild besagt, dass Management wie ein Regelprozess zu organisieren ist und sich stets auf ein Ziel hin, auf den SOLL-Wert, auszurichten hat. In diesem letzten Kapitel beschäftigt uns die Frage, wie man so einen SOLLWert, also das Ziel für ein gesamtes Unternehmen, erarbeitet. Im ersten Teil dieses Kapitels beschäftigt uns zunächst das „Handwerkliche“: An einem Beispiel wird erläutert, wie eine strategische Planung, ein sogenannter Businessplan, erarbeitet wird und was dabei vor allem zu beachten ist. Aus dem Kap. 7 Markt-Management wissen wir, dass Erfolg nur erwartet werden kann, wenn man sich „differenziert“, also anders ist als der Wettbewerb und möglichst „Alleinstellungsmerkmale“ aufweist. Das bedingt den hohen Innovationsdruck, dem heute jedes Unternehmen unterliegt und deshalb folgt auf die Planung das Innovationsmanagement als zentrale inhaltliche Aufgabe des strategischen Managements. Anschließend wird das eng damit verwandte Thema des Wissensmanagements zusammengefasst dargestellt.

8.1  Strategische Planung 8.1.1  Definition Vom Militärstrategen v. Moltke stammt die etwas altväterlich klingende Definition, Strategie sei die „ … Fortbildung des ursprünglich leitenden Gedankens entsprechend den sich stets ändernden Verhältnissen.“ .

Der leitende Gedanke hat sich also laufend auf die Veränderungen des Umfeldes einzustellen. Das strategische Ziel ist nicht starr, sondern wird von den Wechselwirkungen zwischen Maßnahmen und jeweils herrschenden Situationen beeinflusst, „fortgebildet“. Es hat sich auf die Veränderungen des Umfeldes laufend einzustel-

O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_8, © Springer-Verlag Berlin Heidelberg 2010

207

208

8 Strategisches Management

len. Das deutet den Managementprozess an. Denn an der „Fortbildung“ hat man stetig zu arbeiten, zu managen. Die Definition stammt nicht von ungefähr aus dem militärischen Bereich. Denn auch in der Wirtschaft basiert Strategie auf Auseinandersetzung. Nur was uns vom Wettbewerb – wenn man so will vom „Feind“ – deutlich differenziert gilt als strategisch. Was uns also zur Sonderstellung, zum Spezifischen, zur „Einmaligkeit“ führt, ist Inhalt von Strategie. Der Gegenbegriff zu „strategisch“ ist „operativ“. Mit operativ bezeichnet man alles, was sich auf die Durchführung von Maßnahmen bezieht. „Taktische“ Maßnahmen wiederum unterscheiden sich von strategischen dadurch, dass sie kurzfristig und nicht ideengeleitet sind. Diese Definitionsbemerkungen werden deshalb vorausgeschickt, weil „Strategie“ heute sowohl in der Managementliteratur als auch im täglichen Sprachgebrauch des Managers zu einem Modebegriff geworden ist, der entsprechend gedankenlos verwendet wird. Jede Maßnahme, die über das Tagesgeschäft hinausreicht, erhält das Attribut „strategisch“. Die begriffliche Unterscheidung von „Strategie“ und „Langfristplanung“ wird z. B. meist ignoriert. Andererseits hat dieses modisch gesteigerte Interesse auch zu intensiver wissenschaftlicher Arbeit, entsprechend ausführlicher Literatur sowie vor allem dazu geführt, dass strategisches Vorgehen und strategische Planung heute in fast allen wirtschaftlichen Organisationen praktiziert werden. Nicht nur von Firmenchefs und dem Top-Management, sondern auch von Abteilungs- und Gruppenleitern, ebenso wie von Forschungs- und Institutsleitern sowie von Beratungsunternehmen wird heute strategisches Management erwartet. Den Einstieg und die Grundlage für strategisches Management stellt eine sogenannte strategische Planung dar. Ihre wesentlichen Elemente wollen wir weiter unten an einem Fallbeispiel kennen lernen, das – in entsprechend geänderter und „anonymisierter“ Form – aus der beruflichen Praxis des Herausgebers in der Planungs- und Beratungs-Branche stammt.

8.1.2  Strategische Planung als kontinuierlicher Regelprozess Den prinzipiellen Aufbau eines Planungsablaufes zeigt Abb. 8.1: Von der Definition des groben Zieles über die Analyse und Umsetzung bis zum nachfolgenden Controlling läuft der Vorgang stufenförmig ab, wobei es sich um einen „iterativen“ Prozess handelt, d. h. auf einen Schritt nach vorne kann auch wieder einer zurück erfolgen, wenn ursprüngliche Festlegungen auf Grund der nachfolgenden Detaillierung wieder korrigiert werden müssen. Jeder Baustein der Planung ist mit jedem anderen in Form von Regelkreisen verknüpft. Sinn macht nur der gesamte, geschlossene Ablauf: Ein strategisches Ziel ohne operative Umsetzungsplanung ist genauso wertlos wie ein Maßnahmenprojekt, welches nicht durch kontinuierliches Controlling gesteuert wird „entsprechend den stets sich ändernden Verhältnissen“.

8.1 Strategische Planung

209

Abb. 8.1   Schema der Durchführung einer strategischen Planung als kontinuierlicher Regelprozess

Erst mit einer entsprechend systematischen Vorgehensweise kann sichergestellt werden, dass die Planung einerseits strategisch ausgerichtet, andererseits durch die Erfahrung abgesichert und durch Plausibilitäts-Überprüfungen gedeckt ist.

8.1.3  Einige Analysen-Methoden Die Analysephase ist das Herzstück der strategischen Planung und verlangt den größten Zeit- und Arbeitsaufwand. Im Vordergrund stehen die strategischen Fragen: „Wie unterscheide ich mich vom Wettbewerb, in welchen Kenntnissen und Fähigkeiten hebe ich mich vom Wettbewerb ab?“ Es geht also vor allem um die Marktstrategie und ihre Umsetzung (s. Kap. 7). Als Instrumente setzt man dabei zunächst Problemlösungstechniken und Kreativitätsmethoden ein, wie wir sie in Kap. 5.2 kennen gelernt haben. Psychologisch wichtig ist es, bei der im ersten Schritt erfolgenden Analyse des IST-Zustandes darauf zu achten, Schuldzuweisungen bezüglich begangener Fehler zu vermeiden und die Betonung auf die nachfolgende SOLL-Analyse zu legen. Diese stellt die Ziele in den Vordergrund und legt fest, was vom heutigen Zustand aus getan werden muss, um die gesetzten Ziele auch erreichen zu können, was dann schnell in die folgende Planungsphase mündet. Oft muss man Überlegungen auch erst konkret durchplanen, um abschätzen zu können, ob die Vorstellungen wirklich sinnvoll und – vor allem von der Ressourcen-Allokation her – realistisch sind. Die grundsätzliche Schwierigkeit in dieser Phase besteht darin, dass man aus sehr vielen, teilweise unscharfen Informationen die entscheidenden „Erfolgstreiber“ auszuwählen hat, die spezifisch für das Unternehmen geeignet sind, die ange-

210

8 Strategisches Management

peilten Ziele in planbarer Art und Weise zu erreichen. Dazu bedient man sich einer Reihe von Analyse-Methoden, von denen die u. E. wichtigsten im Folgenden kurz charakterisiert werden sollen. ABC – Analyse Von den analytischen Methoden scheint uns vor allem die ABC-Analyse und die daraus abgeleitete 80/20-Regel wichtig. Formuliert wurde diese sehr simple, aber praxisnahe Methode vom Volkswirt und Soziologen Vilfredo Pareto (deshalb auch Pareto-Prinzip genannt), der selbst die Essenz seiner Methode mit den Worten charakterisiert hat: „Weniges ist wichtig, vieles ist unwichtig“. Wie so häufig bei Management-Vorgehensweisen ist das eine außerordentlich triviale Feststellung – aber ebenso häufig wird sie missachtet. Wenn man beispielsweise die Kundenstruktur analysiert, wird man feststellen, dass wenige Kunden den überwiegenden Teil des Umsatzes generieren. Erfahrungsgemäß findet man im Allgemeinen, dass etwa 20% der Kunden etwa 80% des Umsatzes repräsentieren. Diese fasst man als A-Kunden zusammen, den Bereich der Kunden, die weitere 15% des Umsatzes repräsentieren als B-Kunden, den Rest als C-Kunden. Damit erhält man eine Grundlage, auf der man beispielsweise Marktaktionen etc. planen kann. Diese 80/20-Regel ist aber in vielen Gemengelagen realisiert. So findet man außerdem häufig, dass 20% der Produkte 80% des Deckungsbeitrages generieren (und kann sich bei der Planung ganz auf diese A-Produkte konzentrieren) oder dass – bei Umweltproblemen – ca. 20% der Schadstoffe ca. 80% des Schadens verursachen etc. D. h. diese Regel ist eine Erfahrungstatsache und sie besagt nur, dass man sich um die wichtigen Dinge kümmern soll und sich nicht in Nebensächlichkeiten verlieren darf. Bei unseren Kunden heißt das beispielsweise, dass man die A-Kunden mindestens 3-mal im Jahr besuchen wird, die B-Kunden vielleicht 1-mal und bei den C-Kunden streicht man alle Besuche, ggf. analysiert man bei ihnen noch den Ertrag pro Kunden (ebenfalls mit der ABC-Analyse) und beliefert in Zukunft nur noch jene 20%, die 80% des Ertrages in dieser Kategorie bringen. Oder man ermittelt diejenigen C-Kunden, die Potential zu wesentlichen Umsatzsteigerungen aufweisen. Nutzwertanalyse Die Wirtschaftlichkeitsrechnung ist sozusagen der Sonderfall einer Nutzwertanalyse, bei der eindeutige Aussagen aufgrund monetärer Daten möglich sind. Bei vielen Problemstellungen lassen sich jedoch keine monetären Nutzwerte aufstellen. Dann bietet sich die Nutzwertanalyse an. Bei ihr werden quantitative (wie Wirtschaftlichkeit, Größe, Stärke, etc.) mit qualitativen (Bedienkomfort, Korrosionsbeständigkeit, Aussehen, etc.) Kriterien kombiniert. Die qualitativen werden dabei über Gewichtungsfaktoren in Zahlen „übersetzt“, so dass verschiedene Alternativen in sog. „Nutzwerten“ zahlenmäßig angegeben werden. Bestes und jedem bekanntes Beispiel für die Methodik sind Testergebnisse in Testzeitschriften.

8.1 Strategische Planung

211

Abb. 8.2   Nutzwertanalyse zur Bewertung von Büroklammern aus Stahl und Kunststoff

In Abb. 8.2 ist ein simples, didaktisches Beispiel einer Nutzwertanalyse wiedergegeben, bei dem der Nutzwert einer Kunststoff-Büroklammer mit dem einer StahlBüroklammer verglichen wird. Bei der strategischen Planung kann man mit dieser Methode versuchen, Elemente wie Markteinschätzung, Wettbewerbsstärke, Ertragsstärke mit Messgrößen zu belegen, um damit quasi quantitative Aussagen zu machen. Beispielhaft werden wir das bei der unten besprochenen Portfolio-Analyse sehen (Abb. 8.6 und 8.7). Werden verschiedene Eigenschaften von Produkten gegenübergestellt, werden sie häufig in so genannten „Nutzwertkreisen“ dargestellt, wobei die Nutzwerte auf strahlenförmig angeordneten Skalen aufgetragen werden und durch „Kreise“ (oder Polygone) verbunden werden. SWOT –Stärken- / Schwächen-Analyse Die SWOT – (strengths – weaknesses – options – threats) – Methode ist im Grunde kein „Werkzeug“, sondern besagt nur, dass man – gerade bei strategischen Planungen – viele Komponenten, wie die eigene Wettbewerbsposition, die Konkurrenz, den Markt, das Umfeld schonungslos untersuchen muss und nicht nur auf die Stärken und Schwächen, sondern auch auf die Chancen (options) und Risiken achtet. Die Informationen werden im Allgemeinen in Listen und Tabellen gegenübergestellt und bilden die wichtigste Informationsbasis für die auf der nächsten Seite dargestellte Portfolio-Analyse. Portfolio-Analyse Die Portfolio-Analyse wurde von der bekannten internationalen Beratungsfirma Boston Consult in die Managementpraxis eingeführt und erfreut sich gerade bei

212

8 Strategisches Management

Beratern unverändert großer Beliebtheit. Sie charakterisiert in einer quadratischen Matrix die Positionierung einer Firma oder einer Geschäftseinheit in Abhängigkeit von der Attraktivität des Marktes und der relativen Wettbewerbsposition in diesem Markt. Dabei fasst die Bewertung „Marktattraktivität“ in etwa zusammen, was wir im Kap. 7 als „indirekte Markteinflüsse“ bezeichnet haben, die Wettbewerbsposition ist das Ergebnis der „direkten Markteinflüsse“ (also der beeinflussbaren vier Säulen des Marketing). Die jeweilige Positionierung dieser Größen wird mit der Nutzwert-Analyse ermittelt, wie es Abb. 8.6 und 8.7 zeigen. Die Kriterien müssen für jeden Markt und jede Aktivität individuell ermittelt werden. Ursprünglich wurde die Methode für Fragestellungen der Vermögensanlage geschaffen. Die Theorie besagt, dass Aktivitäten rechts oben im Quadranten „Star-Verhalten“ (s. Abb. 8.8) indizieren, links unten „cash cow“-Verhalten. „Stars“ versprechen hohe Gewinne in der Zukunft, benötigen und binden jedoch hohe Kapitalbeträge und repräsentieren natürlich hohes Risiko. „cash cows“ sind in der „Lebenskurve“ auf dem absteigenden Ast, sie sind jedoch risikoarm, werfen gut kalkulierbare und sichere Renditen ab und werden in gesunden Strategien dazu genutzt, das „cash“ für den Aufbau neuer „Stars“ zu generieren. Die Methode hat sich auch für die Kennzeichnung einzelner Aktivitäten bewährt, vor allem wenn die Positionierung einzelner Sparten oder Geschäftsfelder visualisiert werden soll. Denn sie eignet sich hervorragend dazu, um strategische Gedankengänge zu präsentieren und zu erläutern. Als Analysetechnik ist sie allerdings keine Messmethode, sondern fasst weitgehend subjektive Einschätzungen zusammen. Somit ist sie letztlich auch manipulierbar, was die Aussagefähigkeit der Ergebnisse von Portfolio-Analysen auch relativiert. Benchmarking Der Begriff „Benchmarking“ bedeutet „Richtgröße“, also Leistungs-, Qualitäts-Vergleich. Er hat sich von einer primitiven „Nachahme-Technik“ zu einem ausgefeilten und äußerst wirkungsvollen Management-System entwickelt. Es geht dabei heute längst nicht mehr um den Vergleich von Produkten, sondern um einen LeistungsStandard in Prozessen, Verhaltensweisen, ja Strategien. Das bekannteste Beispiel für ein erfolgreiches „Benchmarking“ ist die Firma Xerox, welche den Markt der Kopiergeräte jahrelang beherrscht hatte, träge und arrogant geworden war und sich Ende der 70er Jahre plötzlich einem existenzbedrohenden Wettbewerb durch japanische Firmen ausgesetzt sah. Der „turnaround“ gelang v. a. durch einen ausgefeilten „Benchmarking“-Prozess, bei dem interessanterweise kein Branchen-Wettbewerber, sondern der Sportartikelversender L. L. Bean, der besonders kundennah mit exzellenter Logistikunterstützung arbeitet, als Standard herangezogen wurde (Fromm 1999). Nach dessen Beispiel wurden die internen Ablaufprozesse von Xerox optimiert. Ein Benchmarking kann auf ganz verschiedenen Stufen stattfinden. Wenn man veröffentlichte Jahresabschlüsse der Konkurrenz analysiert und versucht, daraus bestimmte Kennziffern über Finanz-, Kosten-, Ergebnis-Situation und v. a. Produk-

8.1 Strategische Planung

213

tivität abzuleiten und mit der eigenen Performance zu vergleichen, so ist das ein erster Schritt. In einem zweiten Schritt wird man versuchen, gewisse Annahmen über die interne Kostensituation zu treffen und diese mit der eigenen zu vergleichen etc. Häufig ergeben sich auch innerhalb – gerade größerer – Unternehmen aufschlussreiche Vergleichsmöglichkeiten. Als der Autor mit einem Kollegen einmal die Verantwortung für die Sanierung eines Unternehmens übernommen hatte, welches Produktionsstätten in ganz Europa besaß, stellten wir verblüfft fest, dass sich die Produktionsleiter der verschiedenen Standorte kaum kannten. In kürzester Zeit konnten wir wesentliche Effizienzsteigerungen nur dadurch erreichen, dass wir regelmäßige Treffen der Produktionsleiter institutionalisierten und damit ein internes Benchmarking anstießen. Die Produktionsleiter griffen die Möglichkeit, sich zu messen und ständig zu verbessern – nach anfänglicher Scheu vor dem neuen Stil – geradezu euphorisch auf. Systematische Analysen erhält man durch das Benchmarking allerdings erst, wenn sich zwei Firmen als sog. Benchmarking-Partner zusammentun und vereinbaren, interne Informationen offen zu legen. Das wird man seltener zwischen Wettbewerbern finden, obwohl es sich in manchen Branchen eingebürgert hat, bestimmte Produktionskennziffern regelmäßig zu melden. Man lernt nämlich grundsätzlich mehr dabei als man preisgibt. Der klassische Fall ist jedoch der oben von Xerox zitierte: Zwei branchenfremde Unternehmen vereinbaren, gegenseitig die Ablaufprozesse ihrer Organisationen offen zu legen und sie zu analysieren. Man wird dabei v. a. versuchen, herauszufinden, wo die wesentlichen Erfolgstreiber liegen (z. B. im Kundendienst-Ablauf, in der Schnelligkeit der Produktinnovation, in der Systematik der Kundenbearbeitung etc.), aber auch, wo Kostentreiber den Erfolg besonders bedrohen (z. B. teure und umständliche Verwaltungsabläufe, hohe Qualitätskosten, mangelnde Mitarbeiter-Motivation, Vernachlässigung von Kundeninteressen etc). Grundsätzlich lässt sich das Verfahren für alle geschäftlichen und technischen Prozesse einsetzen. So kann es für ein kleines Beratungsbüro durchaus lehrreich und nutzbringend sein, einmal in einer Anwaltskanzlei, bei seinem Steuerberater oder einem Unternehmensberater zu analysieren, wie dort die Verwaltungs- und Abrechnungsprozesse organisiert sind. Oder ein wissenschaftliches Labor der Universität sollte sich kundig machen, wie ähnliche Labors in der Wirtschaft oder z. B. in den USA funktionieren. Benchmarking-Vergleiche zwischen Universitäten haben ja – wenn auch zögerlich – inzwischen begonnen. In Behörden und öffentlich-rechtlichen Firmen wären hier mit großer Gewissheit beachtliche Effizienzpotentiale zu erschließen.

8.1.4  Case Study „Planungs- und Beratungs-GmbH“ Jede wirtschaftliche Tätigkeit benötigt als Basis einen „leitenden Gedanken“, eine strategische Planung, soll sie nicht ziellos und zufallsbedingt agieren. Auslöser

214

8 Strategisches Management

für die Erarbeitung einer strategischen Planung ist jedoch in der Praxis meist eine plötzlich eintretende Verschlechterung der wirtschaftlichen Lage, die Notwendigkeit zur Umstrukturierung oder sonstiger äußerer Druck. Auch in unserem Fallbeispiel hatten kräftige Verluste zu massivem Personalabbau geführt, womit die Verluste zunächst einmal gestoppt werden konnten. Jetzt ging es darum, ein Konzept zu entwickeln, mit dem das Unternehmen die Zukunft meistern will. Über mehrere Wochenenden und in intensiver Detailarbeit wurde in etwa zehn Wochen eine neue Planung erarbeitet. Das zeigt schon: Strategie ist nicht etwas, was man sich abends bei einem Glas Bier so nebenbei einmal ausdenkt, sondern bedeutet harte und konzentrierte Arbeit. Die einzelnen Phasen dieses Planungsablaufes wollen wir im Folgenden grob an unserem Fallbeispiel illustrieren. Naturgemäß verläuft keine Planung wie die andere, jedoch wird das praktische Vorgehen durch ein Beispiel deutlicher und hoffentlich verständlicher werden. Aus anderen Projekten ist uns bereits die Projektorganisation (Kap. 2) bekannt: Lenkungsausschuss – Projektleiter – Strategieteam. Aufgrund der heiklen Gesamtsituation unserer Beispielfirma, die wir „Planungs- und Beratungs-GmbH“ nennen wollen, wurde ein externer Berater zugezogen, der dem Projektleiter in allen Tätigkeiten zur Seite stand und auch an den Sitzungen des Lenkungsausschusses teilnahm. Das hat sich gut bewährt, einerseits weil man mit den Techniken wie Brainstorming, Entscheidungsfindung, Nutzwertanalyse usw. unter Expertenanleitung reibungsloser arbeiten kann, zum anderen weil der externe Berater als neutrale Institution wesentlich dazu beitrug, Emotionen zu kontrollieren. Bei weniger heiklen und komplexen Fällen empfiehlt es sich jedoch stets, möglichst viel der Strategie selbst zu erarbeiten, da die Identifikation der Mannschaft mit der Planung dann besser ist. Projektleiter war der kaufmännische Geschäftsführer, da bei ihm ohnehin alle Planungs- und Berichtsunterlagen zusammen laufen. Der Lenkungsausschuss setzte sich aus dem Vorsitzenden des Beirates, zwei Geschäftsführern und dem Berater zusammen. Über den Fortschritt wurde alle drei Wochen berichtet. An den Wochenend-Workshops nahm der Lenkungsausschuss geschlossen teil. 8.1.4.1  Langfristiges Ziel Für das, was v. Moltke den „leitenden Gedanken“ genannt hat, gibt es verschiedene Bezeichnungen, wie „Vision“, „Mission“ „mission statement“, oder „Leitbild“, wobei für die verschiedenen Begriffe durchaus unterschiedliche Bedeutungen proklamiert werden, teilweise unter heftigen Diskussionen. Diese Diskussionen sind u. E. rein akademisch und bringen für die praktische Arbeit nichts. Wichtig ist, dass man einen klaren „leitenden Gedanken“ hat und diesen auch klar formulieren kann. Daraus ergibt sich dann die Basis der Geschäftspolitik, welche in so genannten Leitsätzen formuliert und in der Organisation kommuniziert wird. Für unser Beispielunternehmen lauteten diese Leitsätze:

8.1 Strategische Planung

215

Vision Planungs- und Beratungs-GmbH  • Planungs- und Beratungs-GmbH wird sich auf die Geschäftsfelder: Planen von Freizeitanlagen, Regionalflughäfen, Infrastrukturprojekten und Beratung in Umweltprojekten konzentrieren. In jedem der Geschäftsfelder soll bis zum Jahre 2010 eine Position unter den ersten 5 in Deutschland tätigen Unternehmen erreicht werden. • Vom Umsatz sollen 50% im internationalen Geschäft erzielt werden. • Das Unternehmen wird nachhaltig profitabel sein, ab 2003 wird eine Mindest-Umsatz-Rendite von 10% erwirtschaftet. • Innerhalb von zwei Jahren wird das Unternehmen die personellen Fähigkeiten entwickelt sowie die modernen Technologien und „tools“ installiert haben, die Voraussetzung für die Erreichung der operativen Ziele sind. Das Formulieren von derartigen übergeordneten Zielen ist in den Unternehmen heute gängige Praxis. Allerdings haben der Einfluss von Beratern und einschlägiger Literatur häufig zu der kuriosen Situation geführt, dass die Leitsätze von unterschiedlichen Firmen sich gleichen wie ein Ei dem anderen. Das ist natürlich nicht der Sinn der Strategie, denn definitionsgemäß geht es ja gerade darum, herauszuarbeiten, was uns vom Wettbewerb unterscheidet. Die Vision soll deshalb möglichst konkret und individuell, unverwechselbar sein. Das lässt sich auch erreichen, wenn man die „leitenden Gedanken“ detaillierter ausformuliert, wie es heute im Allgemeinen für größere Organisationen gemacht wird. Dadurch geht zwar etwas die Prägnanz verloren, dafür gewinnt man ein breiteres Fundament, um daraus die Einzelmaßnahmen z. B. für die strategische Neuorientierung eines Unternehmens abzuleiten. Bei solch einer strategischen Neuausrichtung eines mittelständischen Familienunternehmens, die wir vor kurzem durchführten, haben wir den „leitenden Gedanken“ in vier Sektoren unterteilt und für jeden Sektor die wichtigsten Elemente herausgearbeitet (im Folgenden gekürzt, beispielhaft und abgewandelt): • Unternehmenszweck (wer sind wir?) − traditionsreiches, eigenständiges, professionell geführtes Familienunternehmen. − Spezialist in Werkstoffen − Problemlöser für unsere Kunden • Werte (wofür stehen wir?) − Bescheidenheit, Leistungsbewusstsein − Freiräume für Eigeninitiative − Unabhängigkeit durch Familienbesitz − Standorttreue • Vision (was wollen wir?) − Dominante Marktposition in Nischenmärkten − Technologieführerschaft − Mit Erträgen Zukunft sichern − Attraktiver Arbeitgeber sein

216

8 Strategisches Management

• Ziele (wie kommen wir dorthin?) − durch permanente Innovation für Kundenproblemlösungen − durch Nutzung internationaler Kooperation − durch Differenzierung bei Service und Beratung Ist die Erarbeitung einer Strategie, einer Vision auch für ein kleines Unternehmen sinnvoll? Haben nicht sehr erfolgreiche Einzelunternehmer gezeigt, dass sie ihre Erfolge erreicht haben, ohne jemals solche – häufig etwas hochtrabend klingenden – Leitsätze schriftlich formuliert zu haben? Wenn man solche Naturtalente von Unternehmern befragt, stellt man immer wieder fest, dass sie sehr wohl nach einem „leitenden Gedanken“ vorgegangen sind, den sie jedoch lediglich im Kopf oder im „Bauch“ und nicht auf dem Papier hatten. Wir sind jedoch der Meinung, dass es für jedes Unternehmen gleich welcher Größe wichtig ist, die leitenden Gedanken auch schriftlich zu notieren, da man sie nur dann rational überprüfen und aus dieser Überprüfung lernen kann. Auch ein Ingenieur oder Naturwissenschaftler, der sich als Berater selbständig machen will, sollte sich über seine Motivationen klar werden. Seine persönlichen Beweggründe für seinen Schritt könnten beispielsweise sein: • • • •

das emotionale Bedürfnis, etwas für die Natur zu tun der Wunsch, unabhängig zu bleiben die Abneigung gegen bürokratische Organisationsformen die Vision, mit einer kleinen, kompetenten Spezialfirma gutes Geld verdienen zu können.

Daraus leiten sich dann unmittelbar die Fragen ab, wie er sich vom Wettbewerb differenzieren kann und will. Welches Spezialwissen kann er beispielsweise anführen, kann er sich durch Nähe und Beziehungen zu bestimmten Großkunden differenzieren, kann er Kostenführerschaft erreichen, da er eventuell keine Mieten zahlen muss und auf Verwaltungskosten verzichten kann, ist Schnelligkeit sein Erfolgskriterium usw. Das obige Beispiel zeigt etwas Entscheidendes: Der Ausgangspunkt für einen leitenden Gedanken, eine Vision ist nicht ein rationales Kalkül, sondern ein Gefühl. Sehr viele Management-Entscheidungen werden ganz bewusst aus Gefühlen heraus definiert. Emotionen spielen als „Motor“ von wirtschaftlichen Entwicklungen immer wieder eine überragende Rolle. Nur: Nachdem man sich über sein emotionales Wollen klar geworden ist, muss man sehr kritisch und rational analysieren, ob die Vorstellungen auch realistisch umsetzbar sind. In unserem Fallbeispiel hatte die Visionsarbeit bereits das wichtigste Ergebnis gebracht: Die Planungs- und Beratungs-GmbH hatte früher so gut wie alle Facetten von Planung und Beratung angeboten, wie aus einem „Bauchladen“ heraus. Die Firma war funktional gegliedert: Architektur, Statik, Beratung, Projektleitung, Vertrieb. Die gemeinsamen Überlegungen, welches Know-how und welche Experten dem Wettbewerb überlegen sein könnten, führte jedoch schnell zu der Einsicht, dass man eine Spartenorganisation mit 4 SGE – Strategischen Geschäftseinheiten – bil-

8.1 Strategische Planung

217

Abb. 8.3   Definition der Geschäftseinheiten

den sollte, die in ihrem jeweiligen Spezialgebiet Spitzenkompetenz beanspruchen können (Abb. 8.3). Als SGE bezeichnet man eine Aktivität, die einen abgegrenzten Kundenbereich bedient. Die Definition entspricht der einer Sparte. In Großunternehmen werden SGE’s zu einem SGF, einem Strategischen Geschäftsfeld zusammengefasst. Das könnte in unserem Fall z. B. das Geschäftsfeld „Beratung“ sein. Das Fokussieren auf schmale, spezialisierte Bereiche bedeutet für eine Organisation natürlich auch „Weglassen“, Verlust von Umsatz und auch von Mitarbeitern, die nicht mehr in dieses Konzept passen. Das war auch in unserem Fallbeispiel eine besonders heikle Konsequenz. Andererseits hat sich ausgesprochen motivierend ausgewirkt, dass von den Spartenleitern (die vorher rein technische Funktionen hatten) jetzt auch Marketing- und Vertriebs-Aufgaben wahrgenommen werden mussten. Denn hochtechnische Dienstleistungen müssen – das entsprach auch der persönlichen Überzeugung der Leistungsträger des Unternehmens – von Personen mit der entsprechenden Problemlösungs- und Technik-Kompetenz vertrieben werden.

218

8 Strategisches Management

Abb. 8.4   Neue Organisationsstruktur entsprechend der Vision

Aus der Verabschiedung der Vision ergab sich zwangsläufig die Neuorganisation des Unternehmens aus einer funktionalen in eine Spartenorganisation, wie es Abb. 8.4 zeigt. Das gesamte Planungsteam wirkte nach dieser – relativ schnell erzielten – wichtigen Weichenstellung für das Unternehmen hoch motiviert. Eine Aufgliederung von Organisationen in einzelne Sparten, die spezifisch auf bestimmte Kundensegmente oder Kundenkreise fokussiert sind, findet man heute in vielen Unternehmen. Als Beispiel zeigt Abb. 8.5 die Spartenaufteilung des bekannten Konzerns adidas, wobei hier die Sparten „Leistungssport“, „sportlicher life-style“ und „Mode“ mit eigenen Logos gekennzeichnet sind. Der Konzern ist intern straff nach diesen Sparten gegliedert, was der Kundschaft und Öffentlichkeit meist nicht bewusst wird. 8.1.4.2  Analyse der Ziele Die Marktposition ergibt sich aus Faktoren, die wir nicht beeinflussen können, also aus dem Umfeld oder der allgemeinen Attraktivität des Marktes und zweitens aus Faktoren, die wir beeinflussen können und die unsere Wettbewerbsstellung begründen. Beide Aspekte sind zu untersuchen. In unserem Fallbeispiel haben wir jedes SGE einzeln analysiert und dabei die Methode des SWOT (strengths, weaknesses,

Abb. 8.5   Kundenkreis orientierte Spartenorganisation von adidas

8.1 Strategische Planung

219

options, threats) eingesetzt. Für unsere Fragestellungen waren folgende Bereiche und Faktoren wichtig: Umfeld: • • • • • • •

Globalisierung der Märkte Entwicklung der Märkte in der EU Vergabestrukturen Kundenverhalten Entwicklung neuer Planungs-Technologien Entwicklung von Finanzierungsmodellen Entwicklung von „Betreiber“-Modellen

Eigenes Unternehmen: • • • • • • •

Kunden Image/Bekanntheitsgrad Personal/Mitarbeiter Ablauforganisation Beherrschte Technologien Unternehmenskultur Kapitalstruktur

Wettbewerb: • • • •

Direkte Wettbewerber Outsider, die aber gelegentlich in unser Gebiet eindringen könnten Unternehmensprofile der Wettbewerber nach obigem Schema Vergleich mit den eigenen Profilen

Die Informationen werden in umfangreichen Tabellen (man kann auch Listen anlegen) zusammengefasst, die sich für eine Darstellung hier nicht eignen. Es werden für jeden Bereich die eigenen Stärken und Schwächen, aber auch die Chancen und Risiken aufgelistet. Das bildet die Grundlage für den nächsten Planungsschritt: Die Grundstruktur des zukünftigen Geschäftes jeder Sparte wird verbal (i. A. auch in Tabellenform) geplant. Dazu wird das entsprechende Marktsegment jeder Sparte detailliert formuliert und zusammengestellt, welche Kundenbedürfnisse existieren. Wir erinnern uns an das Fallbeispiel „Metallbedachung“ in Kap. 7, wo die Dienstleistungs-Merkmale aufgelistet sind. Aus diesem Fallbeispiel wissen wir, wie schwierig, aber auch wie entscheidend es sein kann, den vollständigen Marketing- und Vertriebsprozess detailliert zu analysieren und zu strukturieren. Auf dieser Basis muss dann festgelegt werden, welche Marktleistungen angeboten werden sollen und welche eigenen Kernkompetenzen vorhanden sind bzw. geschaffen werden müssen. Die fett gedruckten Begriffe können die Spaltenüberschriften einer entsprechenden Tabelle bilden, in der diese wichtige Basisplanung des zukünftigen Geschäftes zusammengefasst wird.

220

8 Strategisches Management

Beispiel: Für das Marktsegment „Regionalflughäfen“ stellt man fest, dass es hier wichtige Marktleistungen gibt, die neben der Planung z. B. die Finanzierung der Objekte anbieten, auch die „Errichtung“, den Bau des Flughafens übernehmen, ihn ggf. nachher sogar betreiben. Analysiert man die Kundenbedürfnisse, so gibt es 2 Alternativen: Entweder der Kunde will alles in eine Hand legen und es nur mit einem Partner zu tun haben, der dann wie beschrieben alles erledigt. Dabei gibt der Kunde natürlich einiges seiner Entscheidungskompetenz ab. Oder: Der Kunde sucht einen fachmännischen Berater und Vertrauten, der die Basisplanung konzipiert, aber dann in enger Absprache mit ihm z. B. die Ausschreibungsunterlagen erstellt, die Vergabe beaufsichtigt und die Durchführung überwacht, also das gesamte Projekt-Management für den Kunden – das sind im Allgemeinen Kommunen oder Landesregierungen – übernimmt. Wenn man entscheidet, die erste Alternative anzustreben, muss man die entsprechenden Kernkompetenzen „Finanzierung“, „Vertragsrecht“, „Betreiber-Know-how“ etc. entweder bereits zur Verfügung haben oder aufbauen. Entsprechende Alternativen gibt es bei der Beratung: Wünscht der Kunde nicht nur eine Beratung über die Umwelt-Relevanz einer Mülldeponie, sondern ggf. auch die Planung einer Deponie oder einer Müllverbrennungsanlage, vielleicht sogar mit Finanzierung und der Bereitschaft, die Anlage danach – vielleicht für 20 Jahre – gegen eine Gebühr oder auf eigene Rechnung zu betreiben? Wenn man entscheidet, in dieses Geschäftsfeld zu gehen, hat das natürlich weitreichende Konsequenzen für die Ressourcenplanung: Das Personal muss vorhanden sein, teilweise ausgebildet werden, entsprechendes Kapital muss zur Verfügung stehen, Finanzierungs-Knowhow muss geschaffen werden etc. In dieser Phase der Planung sollen bereits die wesentlichen Erfolgsfaktoren, die entscheidend für den Erfolg des Geschäftes sind und die im Einzelnen weiter unten besprochen werden, herausgearbeitet und festgelegt werden. Sie sind für die spätere Controlling-Begleitung der Planung wichtig. 8.1.4.3  Portfolio-Positionierung Außer der Grundstruktur des Geschäftes wurden in der oben beschriebenen Analysephase auch grob Umsatz, Kosten und Ergebnis jeder SGE für das Jahr 2010 formuliert. Im nächsten Schritt überprüften wir mit der oben beschriebenen Portfolio-Methode auf der Ebene des Gesamtunternehmens, ob die Struktur der Firma bezüglich der Risikostruktur und der Mischung von „cash“-generierenden und „cash“-verzehrenden Aktivitäten ausgewogen ist. Die Portfolio-Methode kennzeichnet eine Aktivität durch die beiden Faktoren „Marktattraktivität“ und „Wettbewerbsposition“. Das eine ist die nicht beeinflussbare, das andere die beeinflussbare Größe. Dabei konzentriert man sich bei der Analyse des Marktes auf den so genannten „relevanten Markt“, der für die untersuchte Aktivität maßgeblich ist. Die Abschätzung wird mit Hilfe der Nutzwertanalyse vorgenommen, wie es die Abb. 8.6 und 8.7 zeigen (vgl. Kap. 8.1.3). Die subjektiven Einschätzungen über Ertragsstärke, Marktanteil, Qualität, Qualifikation im Vergleich zum Wettbewerb werden in numerische Werte „transponiert“, hier in einer

8.1 Strategische Planung

221

Abb. 8.6   Ermittlung der Portfolio-Position „Marktattraktivität“ mit einer Nutzwert-Tabelle. Maßstab für die Bewertung 1–9 Punkte

Abstufung von 1–9 Punkten. So erhält man für jede der beiden Faktoren eine Zahl, welche die Position im Portfolio-Diagramm (s. Abb. 8.8) festlegt. Die Kreisgröße wird proportional zum Umsatz gezeichnet. Wenn man will, kann man in den Kreisen auch noch die Ertragshöhe (als Sektor) andeuten. Das Portfolio-Diagramm fasst also eine große Zahl von Einzelbewertungen, die zwar alle analytisch und sorgfältig ermittelt, gleichwohl geschätzt sind, in einer graphischen Darstellung zusammen. Es fungiert damit gleichzeitig als Plausibilitäts„check“, denn unplausible Annahmen würden schnell offensichtlich werden. Die Darstellung aller Sparten mit der heutigen Einschätzung und der projizierten Zieleinschätzung in einem 10 Jahre entfernten Zeitpunkt visualisiert eindrucksvoll, welche Ziele sich das Unternehmen steckt und welche Teilgebiete oder Sparten für Wachstum, welche für „cash“ sorgen sollen, wie die Dynamik und das Risiko der einzelnen Aktivitäten eingeschätzt werden. Bei allen Präsentationen der Strategie, sei es von Top-Managern oder von Börsenanalysten hat sich deshalb diese Präsentationsform etabliert. Die wesentlichen Probleme bereitet in dieser Planungsphase – und so war es auch in unserem Fallbeispiel – eine verlässliche Einschätzung der Wettbewerbsfirmen, ein

Abb. 8.7   Ermittlung der Portfolio-Position „Wettbewerbsstellung“ mit einer Nutzwert-Tabelle. Maßstab für die Bewertung 1–9 Punkte

222

8 Strategisches Management

Abb. 8.8   Beispiel einer strategischen PortfolioPositionierung. Vergleich der aktuellen Position mit der angestrebten Position der einzelnen SGE’s

glaubwürdiges „Benchmarking“. Die Kenntnisse über die direkten Wettbewerber sind häufig erstaunlich lückenhaft. Wichtig ist, dass die Führungskräfte eines Unternehmens durch die Arbeit an der strategischen Planung auf diese gefährliche Lücke aufmerksam werden und entsprechende Maßnahmen einleiten. Die während der strategischen Planung gesammelten Informationen über den Wettbewerb sollten als Grundstock für in Zukunft systematische und regelmäßige Wettbewerbs-Analysen dienen. 8.1.4.4  Operative Planung – Umsetzungsmaßnahmen Ist die grobe Richtung des zukünftigen Geschäftes aus den verschiedenen Analysen geklärt, beginnt die eigentliche „Knochenarbeit“ jeder strategischen Planung: die Umsetzung. Es müssen Produkte verbessert, Dienstleistungen angeboten, in bestimmten Bereichen Personal gesucht, in anderen gegebenenfalls Personal reduziert werden. Es besteht sicher die Notwendigkeit, Kosten zu senken, Prozesse zu analysieren und zu verbessern, Kundenbereiche zu analysieren und anzusprechen, Investitionen zu tätigen, Bereiche umzustrukturieren usw. Es ist durchaus üblich, dass eine strategische Planung zu hunderten von Einzelmaßnahmen führt. Jede Einzelmaßnahme ist wieder ein Projekt für sich und muss nach den Grundsätzen eines effizienten Projektmanagements geplant und durchgeführt werden (vgl. Kap. 2). Das Projektziel ist jeweils klar zu definieren, die Projektorganisation, die Verantwortlichkeiten, die Kosten, der Zeitaufwand, der monetäre Nutzen vorher festzulegen und das Projektcontrolling zu definieren. Um diese Maßnahmenbündel nachzuhalten, laufend zu kontrollieren und die Ergebnisse auch in der Organisation entsprechend zu kommunizieren, braucht man eine konsequente und durchsetzungsstarke interne Anlaufstelle, ein besonders gutes Projektmanagement. Zum Nachhalten der

8.1 Strategische Planung

223

Abb. 8.9   Liste eines Umsetzungsprojektes mit „Ampelschaltung“

Maßnahmen werden heute häufig Übersichtslisten mit „Ampelschaltung“ eingesetzt, wie sie Abb. 8.9 zeigt. Sie ermöglichen einen schnellen Überblick, wobei die Farben rot, gelb oder grün anzeigen, ob es bei einer Maßnahme stockt, sie im Gange ist oder abgeschlossen ist und „im Plan“ liegt. Aus allen diesen Einzelmaßnahmen können schließlich der Zeitaufwand für die Umsetzung der Gesamtmaßnahmen, die Zusatzkosten, die entstehen werden sowie aus den einzelnen Ergebnisbeiträgen jeder Maßnahme auch die Ergebnisverbesserungen insgesamt ermittelt werden, woraus sich die Ergebnisplanung für den Planungszeitraum berechnen lässt. Abbildung 8.10 zeigt die wesentlichen Eckzahlen der Ergebnisplanung unseres Fallbeispieles für den Planungszeitraum von 10 Jahren. Wie man sieht, begnügt man sich dabei mit einer Rumpf-GuV, eine tiefer gegliederte Struktur würde eine unrealistische Genauigkeit vortäuschen. Aus der Ergebnisplanung wird schließlich die grobe Bilanz entwickelt, v. a. um die Liquidi-

Abb. 8.10   Die wesentlichen Eckzahlen der strategischen Planung

224

8 Strategisches Management

täts- und Kapital-Entwicklung abzulesen. Unterlegt ist die Planung mit den übrigen operativen Maßnahmen: der geplanten Personalstärke, den Ausbildungsmaßnahmen, den geplanten Investitionen, dem Finanzierungsbedarf usw. In dieser Phase kann es vorkommen, dass man noch einmal ganz von vorne anfangen muss. Beispiel: Man hatte sich geeinigt, dass man die oben beschriebene „Betreiberfunktion“ in der Sparte Regionalflughäfen anstreben will. Die Detailplanung zeigt jedoch, dass der Kapitalbedarf dadurch gesprengt würde. Der geplante ROI kann das nicht rechtfertigen, das Risiko erscheint ungerechtfertigt hoch. Das bedeutet, dass man für diesen Bereich die Planung noch einmal ganz vorne beginnen muss und Schritt für Schritt eine vorsichtigere und realistischere Version durchplant. Häufig werden solche Langfristplanungen als „hockey-stick“-Planungen belächelt. Sie gleichen sich in der Tat meist dadurch, dass die Ertragskurve nach flachem Beginn nach wenigen Jahren steil nach oben steigt. Das ist andererseits natürlich, weil man sich ja ehrgeizige Ziele setzt. Wichtig ist jedoch, dass die Planungen ständig mit einem SOLL/IST-Vergleich nachgehalten werden und die strategische Planung regelmäßig überarbeitet wird. Erst dann wird der Lerneffekt erzielt, durch den man sein eigenes Geschäft mit der Zeit immer besser kennenlernt. Es soll an dieser Stelle nicht verschwiegen werden, dass Planungen allgemein in Organisationen verhasst sind. Sie halten von der normalen Tagesarbeit ab, werden als bürokratischer Ballast empfunden, zwingen zu Prognosen, mit denen man später wieder konfrontiert werden kann usw. Wir können ihnen jedoch nicht ausweichen, weder in Behörden noch in der freien Wirtschaft. Auch der Gesetzgeber zwingt inzwischen große Kapitalgesellschaften dazu, regelmäßig sehr detaillierte Planungsunterlagen zu veröffentlichen. Gleiten wir in eine „Planwirtschaft“ ab? Diese Gefahr besteht vor allem in Großorganisationen durchaus und zwar, wenn Planung nicht als offenes System, nach dem Prinzip des Regelkreisprozesses aufgefasst wird, sondern als linearer Prozess in einem geschlossenen System. Dann wird Planung gleichsam befehlsmäßig von oben vorgegeben und es passiert, was in Osteuropa geschah: Es wird sofort gemogelt, abgeblockt, Information wird zurückgehalten, mit Sicherheitspolstern geplant usw. Die andere Gefahr besteht, wenn Planung lediglich als lästige bürokratische Pflichtübung aufgefasst, einmal im Jahr widerwillig aufgestellt, dann abgeheftet und nicht weiter beachtet wird. So ein Unternehmen schlingert kopflos, „im Blindflug“ irgendwohin in den Nebel. Das Vorleben einer modernen Planungskultur ist deshalb eine wichtige Managementaufgabe. Entsprechend dem Regelkreisprozess darf es keine Tabus oder Sanktionen geben, wenn Parameter und Zielgrößen der Planung aus guten Gründen angepasst und verändert werden müssen. Man muss jedoch auch darauf achten, dass intensiv auf Basis der Planung gearbeitet wird und die Planungsziele nicht nur erreicht, sondern möglichst übertroffen werden. Gelingt dies, wird zu analysieren sein, was die Gründe für den Erfolg waren, denn nur mit dieser ständigen, intensiven Auseinandersetzung mit der eigenen Planung erzielt man den Lerneffekt, der als wertvollstes Ergebnis moderner Planungsarbeit gelten kann.

8.1 Strategische Planung

225

8.1.5  Controlling/Steuerung Die strategische Planung ist jetzt fertig. Sie ist formuliert, mit vielen Schaubildern und Unterlagen versehen und wird in der Organisation und an die Aufsichtsgremien verteilt, im Allgemeinen nachdem sie in einer Beirats- oder Aufsichtsrats-Sitzung noch einmal abschließend diskutiert und verabschiedet wurde. Bleibt es dabei und wandert das Werk in den Aktenschrank, war die ganze Arbeit umsonst. Die strategische Planung muss laufend den sich verändernden Bedingungen angepasst werden und das geschieht durch das Steuerungsinstrument des Controlling. 8.1.5.1  Traditionelles Berichtswesen Abbildung 8.11 zeigt beispielhaft, wie das Deckblatt für das monatliche Berichtswesen für unser Fallbeispiel gestaltet wurde. Derartige Deckblätter in denen auf einer Seite die wichtigsten Informationen in geraffter Form enthalten sind, werden v. a. in Konzernen genutzt, wo man über sehr viele und unterschiedliche Aktivitäten einen Überblick behalten muss. Wir empfehlen sie jedoch auch für mittelgroße Unternehmen. Es ist nämlich für jeden Manager äußerst praktisch, sich mit den Deckblättern weniger Seiten z. B. einen Eindruck über die Geschäftsentwicklung des letzten halben Jahres verschaffen zu können. Entscheidend für das Berichtswesen ist immer, dass die Unterlagen nicht ausschließlich für die Geschäftsführung, den Beirat oder gar die Ablage produziert werden. Sie müssen ständige Arbeitsunterlagen für einen möglichst großen Mitarbeiterkreis werden. Erst dann haben sie ihren Zweck erfüllt. Neben den üblichen Finanzkennzahlen werden auf dem Deckblatt eine Reihe anderer Kennziffern nachgehalten. Für Beratungsfirmen sind v. a. Angaben zur Auf-

Abb. 8.11   Strategisches Controlling: Die strategischen Zielsetzungen werden in der monatlichen Berichterstattung nachgehalten

226

8 Strategisches Management

tragssituation (z. B. Auftragsreichweite), zur Auftragsabwicklung und zu den ProjektCashflows wichtig, da sie sozusagen als Frühwarnsystem fungieren. Darüber hinaus werden jedoch jeden Monat die wichtigsten strategischen, langfristigen Zielsetzungen aufgeführt und unter „Gegensteuerungsmaßnahmen“ werden Projekte und Maßnahmen aufgelistet, die dafür sorgen sollen, dass die Ziele tatsächlich erreicht werden. Es ist nämlich wichtig, in das kurzfristige Berichtswesen die langfristigen Ziele zu integrieren, um den „leitenden Gedanken“ niemals aus dem Fokus zu verlieren. Außerdem muss mindestens einmal pro Jahr – und zwar bevor die Jahresplanung für das kommende Jahr ansteht – ein strategischer „workshop“ mit dem Teilnehmerkreis, welcher die Strategie erarbeitet hat, stattfinden. Ziel dieser Veranstaltung ist es, die Langfristplanung anzupassen, ggf. auch, strategische Zielsetzungen in Frage zu stellen, zu verändern oder Maßnahmen zu beschließen, die das Erreichen der Zielsetzungen beschleunigen. Die Erfinder der „Balanced Scorecard“ BSC (s. u.), Kaplan und Norton haben kürzlich (2008) vorgeschlagen, Manager sollten – statt die strategische Planung nur sporadisch anzugehen – einen geschlossenen Managementkreislauf installieren, der in Anlehnung an das Konzept der BSC sicherstellt, dass zahllose Verbindungen zwischen Tagesgeschäft und Strategie jederzeit präsent bleiben, so dass auch das Tagesgeschäft stets durch die Kernziele der Strategie gesteuert wird. Man muss dabei nur darauf achten, dass die Methoden nicht zu komplex und detailliert werden, weil sonst die Gefahr besteht, dass der „Fokus“ auf die Kernziele verloren gehen könnte. Die Abb. 8.11 zeigt bereits, dass außer den Finanzkennzahlen viele weitere Informationen für die Kennzeichnung, Beurteilung und Steuerung einer Geschäftstätigkeit von Bedeutung sind. Der folgende Abschnitt soll uns zeigen, mit welcher Systematik man diesem Controlling-Aspekt gerecht werden kann. 8.1.5.2  Balanced Scorecard BSC Zwar ist die Erkenntnis nicht neu, dass für die Steuerung eines Geschäftes die finanziellen Mess- und Kennzahlen allein nicht ausreichen, da hinter den Zahlen operative Maßnahmen stehen, die sich erst sehr viel später im Zahlenwerk niederschlagen, es ist jedoch das Verdienst von Kaplan u. Norton (2001, Erstausgabe 1997), mit der „Balanced Scorecard“ (BSC) ein geschlossenes Berichts-System und Konzept entwickelt zu haben, das diesem Zusammenhang Rechnung trägt. Das BSC-Konzept ist inzwischen bereits eine Modeerscheinung geworden. Da es für das Controlling einer strategischen Planung von großer Bedeutung ist, sei es kurz (und beileibe nicht erschöpfend) erläutert. „Balanced Scorecard“ bedeutet ausgewogener Berichtsbogen. Das Prinzip wird aus der vereinfachten Wiedergabe in Abb. 8.12 deutlich. Neben Kennziffern über die finanzielle Situation sollen gleichgewichtig Kennziffern über die kundenspezifischen Erfolgsfaktoren, die Technologie- und Entwicklungs- (auch Personalentwicklungs-)Faktoren und die Faktoren der Geschäftsprozesse und der Qualität stehen. Diese Faktoren werden „Treiber“ genannt (aus dem englischen „driver“). Die wesentlichen „Treiber“ sind während der strategischen Planung sorgfältig herauszuarbeiten, in messbare Größen zu überführen und systematisch und regelmäßig zu

8.1 Strategische Planung

227

Abb. 8.12   Strategie und Balanced Score Card-Konzept (nach Kaplan u. Norton 1997)

messen. Es ist verständlich, dass für jede Branche, ja für jede Aktivität unterschiedliche „Treiber“ maßgeblich sind. Wir wollen die Systematik, mit der die Kennzahlen entwickelt werden können und was man spezifisch damit messen kann, hier nicht weiter aufführen, sondern auf die Literatur verweisen. Da es aber wichtig ist, sich Gedanken darüber zu machen, welche nichtmonetären, gleichwohl jedoch messbaren Erfolgsfaktoren existieren, soll beispielhaft eine Zusammenstellung folgen. Beispiele für Erfolgs-„Treiber“: Kundenzufriedenheit: • Kundenzufriedenheitsindex (regelmäßige Befragungen) • Wiederholungsaufträge (ohne Ausschreibung oder wesentliche Preisverhandlungen erhaltene Nachfolgeaufträge) • Bezahlte Zusatzleistungen (in % der Auftragssumme – für Berater) • Direktbeauftragungen (ohne Ausschreibungen) • Trefferquote von Angeboten • Anzahl Reklamationen • Zahlungsverzug Forderungen • Zahlungsausfall Mitarbeiterzufriedenheit: • • • • •

Zahl der Verbesserungsvorschläge pro Mitarbeiter Weiterbildungsmaßnahmen (Anzahl oder % der Beteiligten) Mitarbeiter-Fluktuation Krankenstand Mitarbeit in Qualitätszirkeln (% der Beschäftigten)

Ablaufprozesse/Qualität: • Liefertreue (% der Auslieferungen verspätet) • Fehlerkosten/Qualitätskosten

228

• • • • • •

8 Strategisches Management

Externe Rücklieferungen Interne Rücklieferungen Anzahl Reklamationen Planabweichung bei Projektdurchführung (für Berater) Durchlaufzeit der Produktion Umschlagshäufigkeit

Technologie/Entwicklung: • „time to market“ – Zeit, die von der Entwicklung bis zur Marktreife eines Produktes vergeht • Anzahl Patentanmeldungen • Alter der Produkte (z. B. welcher Umsatzanteil mit Produkten, die älter als 3 Jahre sind) • Neuprodukte pro Jahr Natürlich gibt es neben den Erfolgs-„Treibern“ auch Kosten-Treiber, die ebenso aufmerksam nachgehalten und verfolgt werden sollen. Das Konzept der BSC ist heute weit verbreitet und wird auch mit anderen Vorgehensweisen kombiniert (z. B. mit dem TQM-Konzept in Wolter 2000). Abhängig von der Größe und Komplexität der Organisation kann es sehr einfach, aber auch sehr detailliert und aufwendig gestaltet sein. Wichtig ist, dass es den Blick für die wirklich erfolgsentscheidenden Faktoren des täglichen Managements schärft. Deshalb sollten auch kleine Organisationen mit der Methode arbeiten. Die Entscheidungen, welche Maßzahlen ausgewählt werden und wie sie gemessen werden sollen, sollte man in der Organisation möglichst dorthin delegieren, wo täglich damit gearbeitet wird. Dann wird die Identifikation sicherstellen, dass das Messen auch geschieht und die Ergebnisse mit entsprechend sportlichem Interesse verfolgt werden.

8.1.6  Business Plan als Sonderfall der Strategischen Planung Wenn jemand aus einer Erfindung eine Geschäftsidee entwickelt und auf dieser Basis eine Firma gründet, wenn eine Firma eine neue Sparte ins Leben ruft oder einen neuen Markt betritt, einen Wettbewerber übernimmt etc.: Es wird eine strategische Planung benötigt. Für diese auf etwas Neues ausgerichtete Planung hat sich die Bezeichnung „Businessplan“ etabliert. Man kann dabei den Businessplan als Sonderfall einer strategischen Planung betrachten. Um die – in Deutschland sehr langsame – Umsetzung von Forschungs- und Entwicklungs-Ergebnissen in marktfähige Produkte und Aktivitäten zu beschleunigen, haben Politik und Verwaltung in Deutschland Businessplan-Wettbewerbe eingeführt, die im Allgemeinen von der Industrie großzügig „gesponsert“ werden. Wer einen Anlass und die Möglichkeit hat, an so einem Wettbewerb teilzunehmen, sollte es tun. Man lernt nicht nur viel dabei, man kann auch recht ansehnliche Preise gewinnen. Im Allgemeinen werden verschiedene Phasen ausgeschrieben, wel-

8.1 Strategische Planung

229

Abb. 8.13   Gliederungsvorschlag einer Businessplan-Ausschreibung (nach WTT FAU ErlangenNürnberg)

che bereits jeweils prämiert werden können, z. B. Phase 1 „Geschäftsidee“ (Idee und Kundennutzen), Phase 2 „Grob-Businessplan“ (Konzept zur Ausschöpfung des Marktpotenzials) und Phase 3 als Detail-Businessplan, wie er sich als Basis für einen Finanzierungsantrag eignet (ca. 30 Seiten). Die ausschreibenden Stellen (Handelskammern, staatliche Entwicklungsbanken, Wirtschaftsverbände etc.) haben Organisationen geschaffen, welche nicht nur die eingehenden Pläne bewerten, sondern auch „Feedback“, Anleitungen und Empfehlungen geben – was den Lerneffekt befördert. Diese Organisationen haben meist auch Anleitungen für das Erstellen der Businesspläne herausgegeben, die man sorgfältig studieren sollte. Ein Beispiel so einer Anleitung zeigt Abb. 8.13, hier die vorgeschlagene Gliederung für einen detaillierten Businessplan. Wie man sieht ist die Gliederung sehr umfassend, sie eignet sich u. E. auch gut als „Stoffsammlung“, um zu überprüfen, ob man keine Aspekte übersehen hat. Es fehlen jedoch auch – aus unserer Sicht – wichtige Aspekte. Und das nicht nur bei diesem Beispiel. So z. B. das übergeordnete Ziel oder Aussagen, wie man die Aktivität steuern möchte (Controlling). Wichtiger als der Detaillierungsgrad ist u. E., dass ein Businessplan wie jede strategische Planung nach einem konsistenten und plausiblen gedanklichen Konzept aufgebaut ist wie wir das in der Abb. 8.1 vorgeschlagen haben. Davon ausgehend zeigen wir folgend beispielhaft, wie die Grobgliederung eines Businessplanes aus unserer Sicht aussehen sollte. Vorschlag für die Grobgliederung eines Businessplans: • Geschäftsidee und Grobziel (Vision) • Analyse von Markt, Wettbewerb und eigener Position • Planung der Umsetzung − Investitionen

230

8 Strategisches Management

− Personal − Technologie − Kosten − Finanzierung • Plan GuV und Plan-Bilanz (5 Jahre) • Controlling und Steuerung (Definition der wichtigsten Erfolgstreiber) • Risikoanalyse und Sensitivitäten Für die Erstellung anspruchsvoller Business Pläne empfehlen wir das Buch von Stutely (2002), das vor allem die Aspekte der Finanzplanung nach modernen Anforderungen erläutert.

8.2  Innovationsmanagement Eine Innovation ist eine Neuerung mit positiver Auswirkung auf eine einzelne Person oder das davon betroffene Umfeld. In der heutigen weltwirtschaftlichen Entwicklung, geprägt durch wachsende Wettbewerbsintensitäten im immer komplexer werdenden globalen Umfeld, ist ein Unternehmen, das sich hier behaupten will, ständig auf solche Neuerungen im eigenen Produktportfolio angewiesen. Dass solche Neuerungen in der nötigen Tragweite und Vielfalt gelingen, darf aber keinesfalls dem Zufall überlassen werden. Vielmehr ist dafür ein kompetentes und hochwirksames Innovationsmanagement nötig, das die anhaltende zukunftsorientierte Erneuerung der Produktportfolios, aber auch der dafür nötigen Prozesse, Werkzeuge und Methoden fordert, fördert und sichert. Ziel muss dabei sein möglichst effizient Veränderungen und Herausforderungen rechtzeitig zu erkennen und auf sie reagieren zu können. Ein solches Management ist also eine heute unverzichtbare „Verhaltensweise eines Unternehmens“ zur Zukunftssicherung, von der in der Regel alle Bereiche und alle darin arbeitenden Menschen betroffen, ja ein Teil davon sind. Innovationsmanagement hat also zum Ziel ein Unternehmen zu einer besonderen Einheit zu formen, in der „alles und alle an einem Strang ziehen“. Es bedeutet ein innovatives Unternehmensklima zu schaffen, in dem Menschen, Organisation, Methoden und Technik hoch effiziente Synergien zur Zukunftssicherung bilden. Da das Innovationsmanagement ein äußerst komplexes Thema ist, der Mensch aber in allen Teilbereichen die Hauptrolle spielt, richten wir den Focus zuerst auf den Menschen und seine Rolle im Innovationsmanagement. Im nachfolgenden Kap. 8.2.2 werden dann die grundlegenden Vorgehensweisen zusammenfassend dargestellt.

8.2.1  Das Innovationspotential des Menschen Unser Gehirn ist eine wunderbare Sache. Es befähigt uns zu gedanklichen Reisen in vier Dimensionen, durch Tunnel und über Berge, durch Bauteile hindurch, in Maschinen oder elektronische Schaltungen hinein und entlang der Melodie von Musik-

8.2 Innovationsmanagement

231

stücken oder Filmen. Ja, sogar in der vierten Dimension, der Zeit, gelingt es uns in gewisser Weise zu reisen und so mitunter auch einen diffusen Blick in die Zukunft zu werfen. Dieses Potential, das in jedem von uns mehr oder weniger ausgeprägt ist, ist ein großer Schatz und ein wunderbares Werkzeug, das es uns seit Menschengedenken erlaubt, für uns selbst und die gegebenenfalls Anvertrauten nachhaltig zu sorgen. Es ist also im Bezug auf das eigene Umfeld grundsätzlich eher egoistisch gerichtet. Das eigene Unternehmen steht dem Menschen also immer näher als andere. Aber das Gehirn kann noch viel mehr. Oft genügt nur ein Impuls wie ein Telefonanruf, ein Wort, eine Melodie, eine blitzartige Einsicht, ein erhaschter Blick, eine Farbenfolge oder gar nur ein Bruchstück von all diesem und schon taucht aus dem Gewirr der Gedanken und Empfindungen ein neuer Gedanke, eine Idee, eine Lösung für ein Problem, eine Verbesserung für ein Projekt, ja ein Geistesblitz für eine brillante Neuheit, eine Gedichtzeile oder ein Liedfetzen auf, ohne dass wir wissen woher. Es scheint aus dem Nichts zu kommen und legt doch ein Bild nahe, als verfügten wir über eine Unzahl von geistigen Schubladen, die bei einem Impuls aufspringen und deren Inhalt sich je nach Impulsart und gegebenenfalls externem Zusammenhang in wunderbarer Weise zu Neuem, wie einer Idee, kombiniert. Und je mehr Schubladen wir haben, je mehr wir wissen, desto mehr Schubladen kommen jedes Mal dazu. Es scheint so, als würde ein mit unserer geistigen Leistungsfähigkeit gefülltes „Glas“ durch Wissenszuwachs nicht nur voller, sondern gleichzeitig auch noch größer werden. Das Schöne dabei ist auch noch, dass wir diese „Ergebnisse geschenkt bekommen“, sie Spaß, ja Freude machen und als ein gewisser Lohn empfunden werden können. Nennen wir dies „geistig wachsen“, so ist wichtig, dass dieses bis ins hohe Alter möglich und trainierbar ist. Zum „alten Eisen“ gehören, ist also nicht eine Frage des Alters, sondern des Trainings. Ausgestattet mit solchen Eigenschaften bedeutet dies aber: „Der Mensch hat von Anfang an Innovationspotential“. Wir werden mit dieser wunderbaren Eigenschaft geboren. Leider kann aber diese Genialität unseres Gehirns auch für die Gemeinschaft negative Gedanken produzieren oder für das Unternehmen durch negativ wirkende Zwänge, Hoffnungslosigkeit, Perspektivlosigkeit, bohrende Langeweile, Über- oder Unterforderung, Mobbing, Frust oder Missmanagement verloren gehen. Dies führt gegebenenfalls zu Mitarbeitern, die innerlich gekündigt haben, die den ganzen Tag nur die Feierabendglocke erhoffen, im schlimmsten Fall die Firmenziele unterminieren, den Dienst nach Vorschrift zur Maxime erhoben haben und das Gehalt nicht mehr mit ihrer Leistungsfähigkeit verbinden können. Da Menschen grundsätzlich eher positiv agieren, sind solche Menschen meist auch Opfer eines fehlenden Innovationsmanagements oder besser eines Missmanagements. Die Aufgabe des Innovationsmanagements ist es also, solche Verluste vehement zu verhindern und stattdessen stetig und immer wieder neu den großen „Schatz“ des Innovationspotentials aller Mitarbeiter in innovative Fähigkeiten umzusetzen, diese zu fördern, zu erhalten, zu ermöglichen, und sie im Sinne aller für die gemeinsamen Ziele zu gewinnen und einzusetzen. Es ist also weniger eine den Menschen nach vorne peitschende Methode eines Vorgesetzten, sondern vielmehr ein Bestreben den Freiraum für Innovation zu erlauben, immer wieder neu ein beständiges Feuerwerk von Impulsen auf die Mitarbeiter zu ermöglichen und das daraus resultierende Potential durch geschickt gestaltete Randbedingung oder auch überzeugende Vor-

232

8 Strategisches Management

gaben auf Unternehmensziele zu lenken. Die Innovationsfähigkeit oder das Innovationsbestreben von Menschen ist also eine Geisteshaltung! 8.2.1.1  Der innovative Mensch Menschen sind also von Geburt an innovativ und am Vorwärtskommen interessiert! Sie streben immer nach Neuem, Besserem, nach Leben bzw. Erleben und akzeptieren oder lieben gar die Herausforderung. Sie denken immer nach einem Ereignis: „Und was kommt jetzt?“ Sie sind in der Regel mit einem gesunden Maß an Egoismus zur eigenen Lebenserhaltung ausgestattet. Dieser Egoismus ist wichtig und Triebfeder für den Einsatz für eine Sache, wenn eine Belohnung in Aussicht steht. Diese Belohnung muss nicht materieller Natur sein, sofern der grundsätzlich vereinbarte materielle Teil (Gehalt) auf einem akzeptierten Niveau liegt, sondern kann auch emotional sein, wie beispielsweise „Freude über die eigene Leistungsfähigkeit“. Ist eine Person mit solchen Eigenschaften ausgestattet, so nennen wir dies die „allgemeine Innovationsfähigkeit“. Sie ist quasi die „Rohware“ für die vielfach in einem Unternehmen benötigte „spezielle Innovationsfähigkeit“. Für die spezielle Innovationsfähigkeit hingegen ist zusätzlich ein Bildungs- oder Wissensniveau in den gewünschten speziellen Bereichen nötig, das gegebenenfalls auch über Jahre wachsen muss. Und auch hier gilt wieder, je mehr wir wissen, desto „voller und zugleich größer ist das Glas“! Es gibt also für Unternehmen nichts Wertvolleres als wissende, innovative Menschen. Solche Menschen müssen gepflegt werden. Aber genau dieses „Pflegen“ ist eine Kunst. Es bedeutet nämlich, die auferlegten Herausforderungen und Aufgaben relativ genau an die wirkliche Leistungsfähigkeit anzupassen und auch immer wieder Impulse zu ermöglichen, aber auch Impulse von diesem Menschen zu fordern, je mehr wissend jemand ist, desto mehr! Gibt man einem solchen Menschen eine Aufgabe, mit der er sich identifizieren kann (dies gelingt relativ leicht, da bei einer Firma mit positiver Geisteshaltung, die Identifikation mit den Firmenzielen weitgehend angenommen werden kann), so wird er sich dadurch sensibilisieren und von da an sich mit hoher Sensibilität auf die Suche nach Lösungen begeben. Alles, was diesem Menschen dabei über den „Weg läuft“ oder von ihm oder anderen erarbeitet wird, wird von seinem Gehirn automatisch daraufhin überprüft, ob ein Lösungsansatz darin enthalten ist. Wird auf diese Weise gesucht und gearbeitet, so ist das Auffinden der Lösung eine emotionale Belohnung, die zufrieden und zugleich emotional für die nächste Aufgabe bereit macht. Zweifellos ist dies zu erzeugen für einen Vorgesetzten, der mehrere Mitarbeiter zu „betreuen“ hat, eine Herkulesaufgabe, die eigentlich, soll sie zu einem optimalen Ergebnis führen, einfach nicht zu schaffen ist. Und genau hier kommt uns entgegen, dass der Mensch auch zugleich ein „Herdentier“ ist, weil er frühzeitig schon erkannt hat, dass eine Gruppe mit dem gleichen Ziel gut für den eigenen Erfolg (Jagderfolg) ist. Die Lösung gegen Überbelastung durch individuelle Zielerarbeitung für jeden Mitarbeiter ist für den innovativen Manager daher die Bildung von effizienten, innovativen Teams.

8.2 Innovationsmanagement

233

8.2.1.2  Die Wirkung einer Arbeitsgruppe oder eines Teams Gut funktionierende Teams sichern von je her den eigenen Erfolg. Allerdings muss hier zwischen echten und falschen Teams unterschieden werden. Ein echtes Team hat eine gemeinsame Aufgabenstellung (die Jagd) und ein gemeinsames Ziel (den Jagderfolg) und identifiziert sich damit. Dies kann selbst definiert oder auch auferlegt sein. Bei einem schlechten Team fehlen diese Identifikation und der gemeinsame „Jagdinstinkt“! Warum aber ist ein echtes Team erfolgreicher? Es agiert fast wie ein einziger Körper! Jedes Körperteil (jedes Teammitglied) übernimmt eine spezielle, ihm eigene und im optimalen Fall geeignete Tätigkeit, die unverzichtbarer Teil eines Ganzen ist (vgl. Kap. 6.3.1). Gelingt die Bildung solcher Teams, so können diese von einem Vorgesetzten auch als ein Körper betrachtet und angesprochen werden. „Hinkt“ ein Teil dieses Körpers, so hat der Körper (das Team) sich damit zu arrangieren und, soweit möglich, für Heilung oder den Ausgleich zu sorgen. Der Vorgesetzte fragt bei solchen echten Teams nur nach dem Teamergebnis. Erst wenn die „Behinderung“ durch ein Mitglied zu groß ist, so dass das Team den Mangel trotz Anstrengung nicht mehr alleine ausgleichen kann und die Eigenschaften eines echten Teams verloren gehen, sollte der Vorgesetzte eingreifen. Ursachen solchen Eingreifens können sowohl gesundheitlich bedingte Ausfälle als auch Missstimmungen durch ein Teammitglied oder auch inhaltliche oder aufgabenbedingte Veränderungen sein. Ein echtes Team ist also eine Organisationseinheit, die sich gemeinsam den gleichen Aufgaben stellt, diese gemeinsam zielorientiert bearbeitet und Lösungen herbeiführt. Aber genau wie beim innovativen Menschen ist ein solches Team nur effektiv, wenn eine gute und passende Aufgabenstellung existiert und diese auch als Herausforderung angenommen werden kann. Das Niveau der Herausforderung darf dabei nicht zu niedrig sein und auch nur erreichbar hoch. Vorteilhaft ist es daher, wenn das Team an der Aufgabenstellung mitarbeitet und sich die Herausforderung selbst in das Arbeitsbuch schreibt. Dann glaubt das Team an das Ziel auch wenn es ehrgeizig hoch liegt. Die Erfahrung zeigt, dass oft die Ziele von den Teams ehrgeizig hoch angesetzt werden und der Vorgesetzte eher bremsen muss. Dies ist aber auch ein Hinweis darauf, dass zu wenig Herausforderung für ein echtes Team zu wenig Zugkraft hat. Die Aufgabenstellung muss also unbedingt eine Herausforderung darstellen, die dem Team nach Erreichen des Ziels eine emotionale Befriedigung gibt. Teamgestaltung und Teamarbeitsweise Die Zusammenstellung eines innovativen Teams richtet sich im Wesentlichen nach der zu bearbeitenden Aufgabenstellung, dem damit verbundenen Arbeitsumfang und der Projektdauer. Bezüglich des Arbeitsumfanges sollte berücksichtigt werden, dass das Agieren eines Teams als „ein Körper“ mit zunehmender Mitgliederzahl aus Gründen der Kommunikation, der Kompetenzzuordnung und der Abstimmung erschwert wird. Hier darf man sich durchaus an der Größe einer Fußballmannschaft orientieren und zehn bis zwölf Mitglieder als sinnvolles Maximum annehmen. Soll-

234

8 Strategisches Management

te die Aufgabe größer sein, empfiehlt es sich die Aufgabe zu teilen und mehrere Teams zu „installieren“. Als Vorgesetzter hat man aber selten eine große Freiheit in der Zusammenstellung. Umso mehr ist es daher wichtig, dass das gesamte Unternehmen die innovative Geisteshaltung besitzt und somit nur wenige Menschen ihrer Empfindlichkeit wegen nicht für alle Teams zur Verfügung stehen. Ist ein Team zusammengestellt, so vereinbart man mit allen Mitgliedern des Teams eine schriftlich formulierte Aufgabenstellung, die bezüglich Inhalt und Zielsetzung unbedingt mit dem Team abgestimmt sein sollte. Erst wenn das Team selbst dazu ja gesagt hat, hat es sich mit den Zielen, zu denen auch das ständige Hinterfragen über die Richtigkeit der Zielsetzung gehört, auch identifiziert. Von dem Augenblick der Aufgabenübernahme durch das Team an, genügt es als Vorgesetzter das Geschehen „von der Ferne“ aus zu betrachten und im Normalfall nur noch zu vereinbarten Meilensteinterminen mit dem Team Projektgespräche zu führen. Das darf aber keinesfalls heißen, dass das Team dazwischen allein gelassen werden darf. Es ist eine Begleitung nötig, die beispielsweise durch sokratische Fragementalität, durch „warum machen Sie das so“ – Fragen Sensibilität für das Ziel schärft. Dadurch verwächst auch der Vorgesetzte mit dem Projekt und es entwickelt sich eine zielorientierte Lernkultur. Darüber hinaus ist der Vorgesetzte verpflichtet, die Projektziele ständig in den Kontext zu den anderen laufenden Projekten und -zielen und den Veränderungen der gegebenenfalls globalen Randbedingungen zu stellen, um so ihre noch geltende Richtigkeit zu überprüfen. Dies bedeutet aber auch, dass ein Vorgesetzter nicht der Teamüberwacher, sondern vielmehr der Wächter für das Team und dessen Ziele hinsichtlich der Richtigkeit der aktuellen Schritte und Konsequenzen durch Einflüsse von Außen sein sollte. 8.2.1.3  Bedeutung der Infrastruktur Definieren wir die innovative Geisteshaltung als positive Eigenschaft, so wirken selbstverständlich alle Dinge, die aus der Infrastruktur des Unternehmens positiv auf den Menschen wirken auch positiv für die innovative Geisteshaltung. Dies können sowohl die Qualität der Verpflegung als auch das nebenbei wahrnehmbare Angebot an sportlicher, kultureller oder sozialer Aktivitäten sein. Die Mitarbeiter sollten sich wohl und gefordert fühlen. Für den Wohlfühlaspekt trägt die Infrastruktur Wesentliches bei und ist somit vielfach die Basis für innovatives Verhalten. Hierzu einige Beispiele: 1. Der Gang zur Kaffeemaschine Als erstes Beispiel soll der Gang zur Kaffeemaschine dienen. Dieser Gang wird aus individuellen Gründen als Beginn einer Pause angetreten und daher mit dem ganzen Selbstverständnis dieser Person. Wenn es nun gelingt, dass diese Person trotz dieses Selbstverständnisses seine Aufgaben, die Projektgedanken, mit auf diesen Weg nimmt (wird bei innovativer Geisteshaltung passieren), so öffnen sich dadurch ungeahnte Möglichkeiten. Bauen wir einfach diesen Weg zur Begegnungsstätte mit Kolleginnen und Kollege aus, die das Know-how des auf dem Weg Befindlichen erweitern können.

8.2 Innovationsmanagement

235

Als durch Umorganisation eines Unternehmens zufälligerweise eine technische Fachabteilung in den Bereich des Vertriebs angesiedelt wurde, wurden zuerst Beschwerden laut, dass man damit die fachlichen Gesprächspartner, die Techniker anderer Fachabteilungen zu weit weg wären. Aber bereits nach kurzer Zeit zeigte sich, dass der Weg zum gemeinsamen Kaffeeautomat – dieser Weg führte direkt durch das „Hoheitsgebiet“ des Vertriebs – zur Begegnungsstätte für Fachgespräche wurde. Und nach wenigen Monaten stieg der Umsatz der Fachabteilung im deutlich zweistelligen Prozentbereich. Es entstand gewissermaßen unbeabsichtigt und ohne weiteres organisatorisches Zutun eine Kommunikation die dem Unternehmen Gewinn brachte. Was war geschehen? Die Entwickler der Fachabteilung begegneten zwangsläufig den Vertriebsmitgliedern und berichteten auf dem Weg zum Kaffeeautomaten von ihren neuesten Entwicklungen. Dadurch entwickelten sich Gespräche und schließlich Beratungsgespräche, die beiden nützten. Der Entwickler konnte sein Produkt an den Vertrieb verkaufen und lernte dabei was den Vertriebskollegen „plagte“ oder sein Kunde gerade dringend brauchte. Wenn wir solchen Vorgängen einen Namen geben würden, so wäre das wohl ein „organisierter Zufall“! Eine systematische Analyse des Massachusetts Institute of Technology über diese kreative Wirkung der Sitzplatz-Verteilung ergab, dass die Entfernung der Arbeitsplätze von Personen, die miteinander in Kontakt kommen sollten, nicht mehr als 30 m betragen sollte (Gassmann u. Sutter 2008). 2. Die Besprechung in der Werkstatt Ein weiteres Beispiel aus einer Forschungs- und Entwicklungsabteilung zeigt, dass auch schon kleine Maßnahmen helfen. Diese Abteilung bestand, wie im Mittelstand durchaus üblich, aus Büroangestellten und mechanisch arbeitendem Personal. Die Entfernung der beiden Abteilungsteile betrug etwa vier Gehminuten. Weit genug, um nur zu kommunizieren wenn es unbedingt nötig war, also ein Problem oder eine Frage im Raum stand. Aufgrund offensichtlich durch Kommunikationsmangel entstandener Probleme wurde beschlossen für mehr Begegnung zu sorgen. Aber wie? Es ist ein oft erfahrener Effekt, dass es sehr positiv aufgenommen wird, wenn ein Chef seine Mitarbeiter in der Fertigung oder Montage besucht und sich für deren Probleme interessiert. Also wurde beschlossen, dass die Büroangestellten öfter in die Werkstatt kommen sollen, sie hätten schließlich ja auch nur ihre „Gedanken“ und vielleicht noch etwas Papier mitzubringen, um für die Kommunikation ausgerüstet zu sein. Dabei wurde aber auch festgestellt, dass die Werkstatt kein sehr schöner Ort für Begegnung ist. Also wurden die optisch unschönen Lagerplätze für Versuchsausrüstung hinter einer Wand versteckt, diese Wand mit „bunten“ technischen Informationsplakaten bestückt und damit verziert. Außerdem wurde in der Mitte der Werkstatt ein Tisch aufgestellt, ein White Board aufgehängt und als erster Schritt ein wöchentliches Treffen aller Abteilungsmitglieder an diesem Tisch vereinbart. Diese durchaus kleinen Maßnahmen verwandelten die Abteilung in eine Mannschaft. Dass angestoßen durch dieses Treffen darüber hinaus „freie“ Gespräche stattfanden, ist nur natürlich. Die Werkstattmitarbeiter diskutierten plötzlich mit über technische Lösungen, und die Büroangestellten lernten plötzlich besser, was

236

8 Strategisches Management

machbar ist, wie ihr Entwicklungsprodukt wirklich funktionierte (Kritik aus der Werkstatt wurde vorher nicht sehr ernst genommen) und was vielleicht besser gemacht werden kann. Dem Pflichtkontakt der früheren Zeiten folgte gegenseitige Wertschätzung. Nach nur wenigen Wochen war das Klima in dieser Abteilung völlig verwandelt, die Effizienz der Arbeit stieg merklich und nach nur wenigen Wochen meldete ein Werkstattmitarbeiter ein Patent an. Es entstand also ein durchaus heterogenes Team, das schnell anfing seine Ziele selbst auszuarbeiten und der Vorgesetzte wurde entlastet. Er konnte sich von nun an mehr dem Umfeld und den Einflüssen von außen widmen. Das Mikromanagement wurde durch Innovationsmanagement abgelöst. 3. Das neue Firmengebäude Eine mittelständische Firma stand kurz vor der Pleite. Hier half nur eine Radikalkur. Das Ergebnis dieser Kur war ein neues Firmengebäude, das so aufgebaut war, dass Begegnungen zwischen den einzelnen Fachabteilungen stattfinden mussten. Die Montage und Fertigung befand sich im Erdgeschoss des zweistöckigen Gebäudes und war so angeordnet, dass alle Büroangestellten einschließlich der Firmenleitung mindestens jeden Morgen und Abend sehr nah an „ihren“ Produkten vorbeigehen mussten. Zwangsläufig entwickelten sich Gespräche ähnlich dem Beispiel oben. Der Firmenleiter besuchte seine Mitarbeiter wie selbstverständlich fast täglich, konnte lernen, wer mit wem gut zusammenarbeitete, wie der tägliche Montagefortschritt der Produkte üblicherweise ist, wo die Schwächen sind, warum das Eine oder Andere nicht klappt, usw. Dadurch konnte der Firmenleiter plötzlich besser „mitreden“ und entwickelte nach und nach ein Gefühl für seine Firma, ihre Stärken und Schwächen, ihre Wechselwirkungen und die wirklichen Notwendigkeiten. Mit dieser Form der „freiwillig erzwungenen“ Form der Begegnungen, einer täglichen, visuellen Information aller über den aktuellen Stand des Umsatzes, sowie durch den optimalen Workflow erreichten Möglichkeiten zur Selbstkontrolle über den Stand der notwenigen Arbeit (die Montagemitarbeiter konnten z. B. selbst erkennen, ob man früher nach Hause gehen konnte oder Überstunden nötig waren, und handelten danach) und die sich daraus entwickelnden Gespräche entstanden viele echte Teams und ein hochinnovatives Klima. 4. Die Fraktalstruktur Die Geschäfte gingen schlecht, der alte Chef zog sich auf das Altenteil zurück und der Mitarbeiterstamm schien demotiviert, träge und wenig geeignet einen erfolgreichen Neuanfang zu wagen. Aber der Leidensdruck auf die neue Geschäftsleitung war groß diese Krise zu meistern. Und mutig war sie auch, denn sie entschied sich für die Realisierung einer Fraktalstruktur. Wie aber diese revolutionäre Veränderung mit dem vorhandenen Personal realisieren? Man entschied sich mit den Besten im Unternehmen einen Neuanfang zu wagen. Um aber auch bei den Anderen einen gewissen Reiz zu erzeugen, wurden diese Besten in einem anderen Gebäudeteil zusammengezogen und aufgefordert, neue Produkte und einen intensiven Stil der Zusammenarbeit zu realisieren. Letzterer war schnell gefunden, denn die Verantwortung musste auf mehreren Schultern verteilt werden. Also wurden Teams mit einem hohen Grad an Eigenverantwortlichkeit gegründet und vereinbart, dass nur das Team im Ganzen bezüglich seiner Leistung verantwortlich gemacht wird, nie-

8.2 Innovationsmanagement

237

mals aber ein Individuum. Dieses hatten die Teams intern zu leisten. Die Eigenverantwortlichkeit beinhaltete eine teambezogene Leistungsvorhersage für das kommende Geschäftsjahr und die eigenständige Personalplanung innerhalb des Teams. Fiel beispielsweise jemand krankheitsbedingt aus, so musste das Team für den Ersatz sorgen. Schnell wurde von außen sichtbar, dass in diesem neuen Bereich etwas Neues geschah und die ersten Fragen, der noch Außenstehenden, auch teilnehmen zu dürfen, ließen nicht lange auf sich warten. Und ganz langsam wurde das ganze Unternehmen von dieser Veränderung erfasst. Aber es dauerte trotzdem noch Jahre bis alles rund lief und das Unternehmen endlich auch wieder Gewinne abwarf. Heute nun residiert dieses Unternehmen in offenen Gebäuden mit Einsicht von oben auf alle Stockwerke. Diese offene Form ist ideal für die schnelle, aufgabenorientierte Zusammenstellung von Entwicklungsteams. Jeder Mitarbeiter hier hat alle seine „Habseligkeiten“ in einem Rollcontainer und ist innerhalb von Minuten umgezogen. Diese Teams agieren selbstorganisierend. Darüber hinaus hat sich dieses Unternehmen zu einem lernenden Unternehmen entwickelt, schult die Mitarbeiter intensiv, hat den Mut zu visionären Projekten und betreibt mit Hilfe eines weltweiten, marktsensiblen Netzwerks Trendscouting. So kann sehr effizient wahrgenommen werden, wie sich die Welt ändert, was sich der Kunde von heute, gegebenenfalls auch morgen wünscht oder welche Technologien in der Forschungslandschaft entstehen und Relevanz für das eigene Unternehmen besitzen. Die Liste solch erfolgreicher Beispiele ließe sich noch lange fortsetzen. Aber allen gemeinsam ist, dass das Potential Mensch, das Innovationspotential der Mitarbeiter, das Vertrauen in die Mitarbeiter, Transparenz, lernende Kultur und Herausforderungen die Schlüssel zum Erfolg waren. Also sind diese Beispiele auch Beispiele für ein erfolgreiches Innovationsmanagement. Was aber ist nötig um solche Menschen hervorzubringen? Es braucht Bildung, Training und Chancen für die Entwicklung bestimmter Fähigkeiten. Dass diese Form der Bildung nicht schnell von statten geht, ist offensichtlich. Genauso wenig schnell entwickelt sich üblicherweise eine Organisationseinheit von einem normalen zu einem innovativen Verhalten. Hieraus wird schnell klar, dass ein Innovationsklima nicht einfach, gegebenenfalls von einem Vorgesetzten, übergestülpt werden kann. Es muss wachsen wie eine Kultur in einem Land. Es ist eine Kultur des Wissens, der Ideenfreude und -findung, des Vertrauens und der optimalen, zielorientierten Arbeit, die in einer Organisationseinheit eine gute, zielorientierte Zusammenarbeit bedeutet.

8.2.2  G  rundlegende Vorgehensweisen im Innovationsmanagement Wie oben beschrieben, ist die zentrale Anforderung an das Innovationsmanagement eine entsprechende Menschenführung und die Beachtung der Regeln für die Teamarbeit, wie sie oben und auch im Kap. 6.3.1 aufgeführt sind. Daneben gibt es aber auch einige organisatorische Grundsätze, die im Nachfolgenden kurz zusammengefasst werden sollen.

238

8 Strategisches Management

Erster Grundsatz muss sein, dass das Innovationsmanagement Aufgabe der obersten Managementstufe in einer Organisation ist. Hier entscheidet sich das zukünftige Schicksal eines Unternehmens. Eine weitere Voraussetzung für erfolgreiches Innovationsmanagement ist die Beachtung der Regeln für ein professionelles Projektmanagement, wie wir es in Kap. 2 beschrieben haben. Dabei ist auch zu beachten, dass sich der Strukturierungsgrad der Projekte entsprechend der Abb. 2.9 am Innovationsgrad zu orientieren hat. In der Literatur wird deshalb vorgeschlagen, den Innovationsprozess zu teilen: Auf die kreative, wenig strukturierte „Wolkenphase“ folgt die straff organisierte „Bausteinphase“, sobald man konkrete Umsetzungsschritte planen kann. Dieses Bild stammt von Gassmann u. Sutter (2008), ein Buch, welches wir für die weitere Vertiefung des Themas empfehlen. Bei allen Vorgehensweisen spielt der Einsatz von Kreativitätsmethoden in moderierten Sitzungen eine große Rolle, weshalb auf die methodischen Anleitungen dazu in Kap. 5 verwiesen wird. 8.2.2.1  Technologie Roadmap „Roadmap“ ist zum Modewort geworden, auch in der Politik. Ganz allgemein ist die Roadmap ein Planungsinstrument, in dem nicht nur ein (strategisches) Ziel, sondern auch die grobe Zeitschiene sowie die wesentlichen Zwischenschritte und Aktionsebenen angegeben und visualisiert werden. Zum Erstellen von Technologie Roadmaps gibt es heute handliche Software. Der Vorteil des Instrumentes ist, dass in einem zentralen Dokument die wesentlichen Markt-Trends, die Technologie-Trends (Produkt- und Produktionstechnologien) sowie die Produktanforderungen zusammengefasst werden und somit die Leitplanken für die strategische Zielausrichtung einer Organisation jedem Beteiligten vor Augen bleiben. Gelingen kann das naturgemäß nur – und das ist ein weiterer positiver Effekt – wenn Abteilungs- und Fach-über­ greifend Informationen aus der Organisation und von außerhalb zusammengefasst und bewertet werden – womit wir wieder beim Thema Menschenführung sind. Bekanntes Beispiel einer erfolgreichen Arbeit mit der Technologie-Roadmap ist die Halbleiter-Industrie mit ihrer „International Technology Roadmap for Semiconductors“, welche auf Basis des Mooreschen Gesetzes aufgestellt worden war. Dieses „Gesetz“ sagt eine Verdoppelung der Kapazität der Halbleiter Schaltkreise pro 18 Monate (ursprünglich pro Jahr) voraus, wurde von Moore 1965 aufgestellt und hat sich (mit Abweichungen) erstaunlich präzise bewahrheitet. 8.2.2.2  Szenario Technik Die Szenario Technik verfolgt ein ähnliches Ziel wie die „Roadmap“, arbeitet jedoch mit Beschreibungen, also Szenarien, die detaillierter und eingehender begründet sind als „Roadmaps“ es sein können. Zentrale Aufgabe der Vorgehensweise ist es, von einer heutigen Situation einer Organisation zu abstrahieren und die Zukunft

8.2 Innovationsmanagement

239

zu „erfinden“. Aus solchen „Projektionen“ werden dann die wahrscheinlichsten ausgewählt und mit der prognostizierten Entwicklung des Umfeldes abgeglichen. Daraus werden dann die Konsequenzen abgeleitet und die Maßnahmen und Planungen konzipiert. Solange man von einer heutigen Situation extrapolieren kann, ist das eine sehr effiziente Vorgehensweise. Es besteht jedoch die Gefahr, dass man mögliche Trendbruch-Ereignisse übersieht. Organisationen neigen nämlich dazu, die Bedeutung solcher „disruptiver Technologien“ zu unterschätzen (Bower u. Christensen 2008). Berühmte Beispiele sind IBM und Microsoft oder die Entwicklung der 8-Zoll-Festplatte für Computer. Der dahinter liegende Grund: Etablierte Technologiefirmen verlassen sich zu sehr auf die Meinung ihrer Stammkundschaft und übersehen den „Angriff“ durch technologisch zunächst „unterlegene“ aber ggf. billigere und handlichere Lösungen. Das beleuchtet die Limitierung der Szenariotechnik für die Innovationsplanung. Abhilfe kann ggf. durch die Vorgehensweise der „open innovation“ des nächsten Abschnittes gefunden werden. 8.2.2.3  „open innovation“ In Kap. 7 haben wir den neuen Trend zu „open source“ Netzwerken beschrieben, die mit der Softwareentwicklung von Linux oder mit der Internetenzyklopädie Wikipedia bereits Erfolgsgeschichte geschrieben haben. Eine ähnliche Entwicklung fasst auch im Innovationsmanagement Fuß. Wenn Procter & Gamble 50% ihrer Innovationen zukünftig von außen – im Wesentlichen von den Kunden – generieren lassen will, unterstreicht das diesen Trend (Christensen et al. 2002). Das Einbeziehen der Kunden in den Innovationsprozess kann dabei auf verschiedenen Stufen erfolgen. Tradition hat der Einsatz der so genannten „lead user“, das sind besonders prominente Kunden, beispielsweise Formel 1 Piloten in der Autoindustrie oder Spitzensportler für die Sportartikel-Industrie. Ein weiterer Schritt sind systematische Kundenbefragungen und Workshops mit Kunden, die besonders in der Frühphase von Entwicklungsprozessen eingesetzt werden, um Konzepte möglichst früh zu überprüfen. Denn wenn erst einmal das Konzept steht, liegen bereits 85% der Entwicklungskosten eines Projektes fest. Das erinnert an das „Front-End-Loading“, welches wir beim Projektmanagment (vgl. Abb. 2.11) kennen gelernt haben. Solche Risiken können mit der frühzeitigen Einbeziehung von zukünftigen Kunden begrenzt werden. Ein etwas anderer methodischer Ansatz besteht in der indirekten Einbindung des Kunden, indem man seine Reaktionen nicht offen erfragt, sondern mit Methoden, die von der ethnographischen Feldforschung abgeleitet sind, seine Verhaltensmuster ohne sein Wissen untersucht. Einen Schritt zur aktiven Einbeziehung des Kunden macht die Halbleiter-Industrie. Sie stellt interessierten Kunden sog. „Tool-kits“ zur Verfügung, mit denen die Kunden auf spielerische Art die ihnen angenehme Produktarchitektur konzipieren können. Die totale Einbeziehung des Kunden in den Innovationsprozess, die eigent-

240

8 Strategisches Management

liche „open innovation“, verfolgen schließlich verständlicher Weise Firmen, die rund ums Internet angesiedelt sind. Bei Google bringen beispielsweise die 132 Mio. Besucher pro Tag (Stand Nov. 2007) Verbesserungsvorschläge ein, konsumieren zielgerecht, testen usw. und sind neben „open source“-Entwicklern, Google-Entwicklern, den Werbepartnern usw. entscheidend an den fortlaufenden Innovationsanstrengungen des Unternehmens beteiligt (Iyer u. Davenport 2008). Durch diese zahlreichen Quellen wird die Gefahr verringert, irgendwelche „disruptive“ Entwicklungen zu übersehen. Schließlich ist das Paradebeispiel für die Effizienz dieses Vorgehens die Entwicklung der „open source“ Software Linux. 8.2.2.4  Empathic Design Empathic Design ist eine Vorgehensweise im Innovationsmanagement, die radikal den Menschen in die Mitte aller Überlegungen stellt. Das ist nicht nur ein „altruistischer“ Ansatz, sondern die Vorgehensweise versucht, sich mit Empathie in die Bedürfnisse, unausgesprochenen Wünsche und Vorstellungen von möglichen zukünftigen Kunden hineinzuversetzen. Da man weiß, wie unzuverlässig Befragungsaktionen, Tests, Feldforschungs-Analysen usw. sind, ist dies eine weitere aufschlussreiche Möglichkeit, um hinter ggf. unbewusste Kundenbedürfnisse zu kommen. Natürlich muss diese Basisidee in einen Innovations-Zyklus integriert werden. Der Pionier dieser Technik, die US-Firma Ideo schlägt dazu vor, in drei Phasen vorzugehen: In einer ersten Inspirationsphase versucht man durch gezielte Beobachtung, Brainstorming mit verschiedenen Berufsgruppen (Techniker, Marketingleute) möglichst viele Ideen zu entwickeln. In der zweiten Phase der Ideenfindung werden die Ideen systematisch geordnet, bewertet und anschließend Prototypen der wesentlichen Ideen gebaut und fortlaufend getestet. In der dritten Implementierungsphase wird das Produkt gebaut und der geschäftliche Erfolg generalstabsmäßig geplant (Brown 2008). Gassmann u. Sutter (2008) beschreiben, wie BMW mit diesem Verfahren den Erfolg sportlicher Gebrauchswagen (SUV – Sport Utility Vehicles) in den USA erfolgreich umsetzt. 8.2.2.5  Dienstleistungsinnovationen Zielen die oben besprochenen Vorgehensweisen vor allem auf technologische Innovationen, handelt es sich bei Dienstleistungsinnovationen um Innovationen, die das gesamte Geschäftsmodell betreffen. Das Vorgehen kann dabei durchaus unterschiedlich sein. Der Dienstleistungsansatz wird aber im Markt immer entscheidender. Aus eigener Erfahrung haben wir in Kap. 7 unsere Fallstudie der Fa. „Blech“ erläutert: Die Innovation bestand hier darin, durch ein Bündel von Dienstleistungen nicht nur für den Endkunden, sondern für alle Glieder der Kundenkette eine fast monopolartige Marktstellung zu erzielen.

8.2 Innovationsmanagement

241

Auch aus eigener Erfahrung stammt das Beispiel eines deutschen Mittelständlers, der Spezialrohre an die chemische Industrie liefert. Im Grunde genommen ein Komponenten- / commodity-Geschäft. Der Ansatz für das innovative Geschäftsmodell war, dass das Platzen eines Rohres (in dem korrosive Materialien transportiert werden) den Stillstand der gesamten Chemie-Anlage mit (ungeplanten) Kosten in der Größenordnung von 1 Mio. US Dollar pro Tag verursacht. Durch ein Bündel von Dienstleistungen, unter anderem mit einem ständigen „Monitoring“ der Rohrwandstärken und entsprechender Lagerhaltung vor Ort konnte sich die Firma eine internationale Spitzenposition in diesem Nischenmarkt erarbeiten. Noch grundlegender wird das Geschäftsmodell geändert, wenn (s. Kap. 7) der Hersteller von Lackieranlagen nicht mehr die Maschinenstunden in Rechnung stellt, sondern pro lackierte Fläche oder der Sprengmittel-Produzent pro Kubikmeter gesprengtes Material bezahlt wird. Vom Denkansatz ähnlich ist das Geschäftsmodell Nespresso von Nestlé. Dem Kunden wird gleichbleibend hochqualitativer Kaffeegenuss geboten und das ist so attraktiv, dass dieser (der Herausgeber schließt sich nicht aus!) bereit ist, auf diese Weise astronomische 70 € pro kg Kaffee zu bezahlen! Diese Beispiele legen nahe, dass es ganz unterschiedliche Ansätze für Dienstleistungsinnovationen gibt, die sich auch in einer Systematik aufgliedern lassen. Die Übergänge sind jedoch fließend. So hat sich die Firma Hilti (Bohrgeräte für das Baugewerbe) von einem reinen Geräte-Lieferanten über den „customer support“ zum „outsourcing partner“ entwickelt und damit ein Geschäftsmodell umgesetzt, bei dem die Geräte nach Bedarf gemietet werden, das von der Mietwagen-Branche abgleitet ist. Insgesamt kann man beobachten, dass die Kooperationen zwischen Kunde und Lieferant trendmäßig immer enger werden. Gemeinsame Entwicklung ist in der Auto-Industrie heute bereits Standard: Für ein neues Modell bildet z. B. der Kabelhersteller Leoni gemeinsame Entwicklungsteams mit dem Kunden, wobei die Entwicklungszeit (ca. 2 Jahre) und die Entwicklungskosten (20–30 Mio. €) für die Entwicklung eines Kabelbaumes so ein Vorgehen nahe legen. Das Outsourcen – ursprünglich zur Variabilisierung von Fixkosten eingesetzt – hat gezeigt, dass es für alle Beteiligten große Effizienzverbesserungen ermöglichen kann. So hat sich mit dem Facility Management ein eigenes Geschäftssegment etabliert. Die darin führenden Firmen haben sich zwischenzeitlich so weiter entwickelt, dass sie außer Gebäude-Services (wie Verwaltung, Reinigung, Wartung, Instandhaltung etc.) für große Kliniken oder Flughäfen alle Dienste übernehmen, die nicht zum Kerngeschäft der Kunden gehören (z. B. Firma Klüh, Düsseldorf oder die Firma Dussmann, Berlin). Sogar gesamte Innovationsprojekte können bereits durch Outsourcen extern vergeben werden. So bietet die österreichische Firma Magna-Steyr für die Kfz-Industrie an, den gesamten Innovationsprozess nach Vorgaben des Kunden durchzuführen (Gassmann u. Sutter 2008). Die Variationsbreite von möglichen Dienstleistungsinnovationen und damit die Entdeckung und Entwicklung neuer Geschäftsmodelle ist also unendlich groß und

242

8 Strategisches Management

es ist zu erwarten, dass dieses Gebiet noch für manche Überraschungen in der Zukunft sorgen wird.

8.2.3  Absicherung von Innovationen Der Satz von Drucker (2000) „alles wirklich Neue ist auch riskant“ lässt sich dahingehend erweitern, dass je innovativer das Neue ist, desto riskanter ist es. Innovationen müssen daher abgesichert werden und das ist Aufgabe des Topmanagements, denn das Schicksal des Unternehmens hängt heute mehr denn je an seinen Innovationen. Die Absicherung geschieht auf zwei Feldern, dem allgemeinen Risikomanagement eines Unternehmens und – im Idealfall zusätzlich – einer Absicherung über das Patentrecht. 8.2.3.1  Risikomanagement Wie riskant innovative Projekte wirklich sind, wird einem meist erst bewusst, wenn man durch Horrormeldungen aus der Presse aufgeschreckt wird. Auch dann ist es für den Normalbürger schwer verständlich, dass beispielsweise ein Milliardenschaden beim Airbus A 380 v. a. auf die triviale Tatsache zurückzuführen ist, dass den Kunden zwar große Freiheit bei der Sitzplatzkonfiguration im Flugzeug eingeräumt worden war, jedoch nur ein einziger Kabelbaum entwickelt wurde. Ein eklatanter Fehler im Projektmanagement! Auch das Toll Collect Projekt der LKW-Maut in Deutschland kam vor allem wegen zahlreicher Projektmanagementfehler in die Negativpresse. Aber das sind nur die bekannt gewordenen Beispiele. Wie viele Projekte scheitern unnötigerweise bereits früher und werden so zu Fehlinvestitionen? Sie werden falsch entwickelt oder am Markt vorbei. Wildemann (2008b) hat deshalb einen Fragebogen für Innovationsprojekte vorgeschlagen, der vor allem vermeiden soll Innovationen am Kunden vorbei zu entwickeln. Aber auch das gewährt keine Sicherheit: Wie Bower u. Christensen (2008) in einem bereits oben genannten Artikel nachweisen, übersehen Technologieführer die Gefährdung durch sog. disruptive Technologien gerade weil sie auf ihre Stammkunden hören und von diesen in falscher Sicherheit gewiegt werden – denn die haben ebenfalls keine „Antennen“ für völlig neue Trendbruch-Entwicklungen. So hat IBM die Personal Computer Entwicklung falsch eingeschätzt und Kodak die Entwicklung der digitalen Fotographie verschlafen. Im Übrigen ist es auch eine Tatsache, dass Innovationen, auch wenn sie gelingen, häufig in der Markteinführung scheitern – d. h. nicht die Innovation, sondern die Pioniere, welche sie erarbeitet haben und einführen wollen. Es ist deshalb auch angeregt worden, nicht so sehr auf die Pionierinnovationen zu setzen, sondern gute Ideen früh zu imitieren (Gassmann u. Sutter 2008). Die Erfahrung zeigt zwar (s. Abb. 7.2), dass frühe Imitierer häufig auf die Lebenskurve eines Produktes „auf-

8.2 Innovationsmanagement

243

springen“, solange noch starkes Wachstum hohe Gewinne erwarten lässt, aber wir möchten nicht so weit gehen, so eine Vorgehensweise zu propagieren. Wir vermuten auch, dass man dabei zu leicht in die „me-too“-Position geraten kann, so dass nicht einmal mit einer fragwürdigen Strategie der wirtschaftliche Erfolg gesichert erscheint. Christensen et al. (2008) haben außerdem darauf hingewiesen, dass viele gute und wertvolle Ideen sehr früh scheitern, weil sie die internen Kennzahlen-Hürden des Controlling unberechtigterweise nicht nehmen. Auch das ist natürlich ein Risiko, aber an dieser Problematik lässt sich gut erkennen, wie entscheidend es ist, dass sich das Topmanagement direkt um die Innovationsprojekte kümmert. Man darf die Innovationsbeurteilung nicht dem Controlling überlassen. Diese kurze Aufzählung zeigt bereits, dass Innovationsvorhaben von unzähligen und sehr unterschiedlichen Risiken bedroht sind. Mit diesen Risiken ist so zu verfahren, wie mit den übrigen Risiken eines Unternehmens auch: Sie müssen sichtbar und transparent gemacht und „gemanagt“ werden: „no shocks“ heißt die Devise! Als Methode hat sich dabei heute auch die oben für Innovationen beschriebene „Roadmap“-Technik bewährt. Auf einer Zeitschiene werden die unterschiedlichen Risikomöglichkeiten und die Risikoebenen visualisiert und in regelmäßigen Sitzungen mit dem Topmanagement wird der Stand der Risiken berichtet und über mögliche Gegensteuerungsmaßnahmen entschieden. 8.2.3.2  Patentstrategie Das Patentrecht hat die Aufgabe Innovationen und Erfinder zu schützen. Aber dieser Schutz ist oftmals fragwürdig und zusätzlich wird das Patentrecht häufig zu unlauterem Vorgehen missbraucht. So warnen Henkel u. Reitzig (2008) vor so genannten Patenthaien, Firmen vor allem in den USA, die sich darauf spezialisiert haben, Lücken in den Patenten, in ihrer Nutzung oder im Gesetz ausfindig zu machen und per Gerichtsverfahren unschuldige Firmen zu verklagen. Hunderte Millionen US-Dollar haben diese Firmen bereits auf diese Weise eingetrieben. Das widerspricht zwar offensichtlich den guten Sitten, war aber rechtlich wohl nicht zu vermeiden. Patente sind auch deswegen ein „zweischneidiges Schwert“, weil man bei ihrer Anmeldung notgedrungen technische „Geheimnisse“ publiziert und einem möglichen Gegner damit ggf. in die Hand spielt. Der Herausgeber war einmal für ein Unternehmen verantwortlich, welches eine bahnbrechende Entwicklung auf dem Gebiet der Erschmelzung einer bestimmten Metall-Legierung machte. Nach längerem Überlegen haben wir beschlossen, die Erfindung nicht patentrechtlich schützen zu lassen, wegen obiger Bedenken. Zwar konnten wir nicht verhindern, dass Besuchergruppen – auch solche aus Ostasien mit Fotoapparaten bestückt – unser Werk besuchten, aber es gelang uns über Jahrzehnte den „Trick“ geheim zu halten ohne dass es einem Wettbewerber gelungen wäre auf die Lösung zu kommen (was viele versuchten). Aber: Auch das war natürlich eine riskante Entscheidung. Wäre jemand auf das Verfahren gekommen, wären wir ohne Schutz dagestanden.

244

8 Strategisches Management

Das mag illustrieren, dass die Patentstrategie ebenso unbedingt zu den Aufgaben des Topmanagements gehört. Ganz generell verfolgt eine Patentstrategie dabei drei Zielrichtungen: 1. Sicherstellen, dass keine fremden Patente durch die eigene Aktivität verletzt werden, vor allem, dass man nicht in die Fallen der oben genannten Patenthaie tappt. 2. Schutz des eigenen geistigen Eigentums und damit Schutz vor Nachahmern und Wettbewerbern. 3. Prüfung der Lizenzierung und Kommerzialisierung sowohl aktiv (als Lizenzgeber) als auch passiv (als Lizenznehmer). Nach dem Muster der Portfolio-Analyse (s. Kap. 8.1.4.3) haben Gassmann u. Bader (2007) für diese Aufgabe das „St. Galler Patentmanagementmodell“ entwickelt, auf das für die Vorgehensweise im Einzelnen verwiesen wird. Dabei hat die Bedeutung strategischen Vorgehens im Patentwesen in den letzten Jahren auch deswegen zugenommen, weil die Bedeutung des Marktes China sprunghaft gestiegen ist und die Rechtssicherheit und Seriosität des Vorgehens im Patentwesen auf diesem Markt oftmals fragwürdig erscheint. Auch aus diesen Gründen haben sich neue Formen der Patentsicherung entwickelt, von dem Verfolgen breiter, konzeptioneller Basispatente bis zur engen Kooperation mit Inhabern verwandter Patente und dem Bilden von Patentpools – durchaus auch mit Wettbewerbern – wofür Teichert u. v. Wartburg (2006) eindrucksvolle Beispiele anführen.

8.3  Wissensmanagement Das Wissen in einem Unternehmen ist ein Schatz den es zu bewahren und auszubauen gilt. Wissen ist aber auch eine Kultur in einem Unternehmen und wie jede Kultur ist Wissen das Ergebnis eines Wachstumsprozesses. Es lässt sich nicht so einfach auf Befehl erzeugen und schon gar nicht von anderen Unternehmen abschauen, denn das Wissen eines Unternehmens, das immer verfügbare und aktuell vorhandene, steckt in den Menschen dieses Unternehmens, in ihrer Art zusammenzuarbeiten, ihren Erfahrungen und ihren Fähigkeiten. Wollte man all dieses Wissen, das in den Menschen eines Unternehmens vorhanden ist aufschreiben, so würde das unglaublich viele Arbeitskräfte binden. Trotzdem wäre es nicht vollständig und mit Ausnahme eindeutig formulierbarer Zusammenhänge oder Ergebnisse aus einer Aktivität (z. B. Ergebnisbericht aus einem Forschungsprojekt) kaum verfügbar. Dies gilt auch für das Zeitalter der Computertechnik, in dem alles dokumentiert werden kann, denn es sind nicht die Unternehmen mit der besten Wissensdokumentation auch die besten Firmen, sondern die mit der besten Wissenskultur. Dies soll selbstverständlich nicht heißen, dass Dokumentation nichts nützt, nein, sie ist ein sehr gutes und wichtiges Hilfsmittel für das Wissensmanagement, das unbedingt konsequent gepflegt werden muss, aber eine Wissenskultur kommt von den

8.3 Wissensmanagement

245

Menschen. Die wichtigsten Wissensträger für ein Unternehmen sind die Menschen als Individuen und als Kollektiv. Wie aber lässt sich eine solche Aussage begründen? Wissen kann gespeichert werden: auf Papier, platzsparender und mit schnelleren Zugriffsmöglichkeiten in Computern oder natürlich auch in den Menschen. Während in den ersten beiden Speichermöglichkeiten aber nur formulierbares oder optisch darstellbares Wissen untergebracht werden kann, ist das Wissen, das in den Menschen gespeichert ist ungleich komplexer. Wenn wir diesen Wissensarten einen Namen geben, dann wäre für die ersten beiden Speichermöglichkeiten der Begriff „rationales Wissen“ zutreffend. Das Wissen von Menschen ist hingegen rational und emotional. Diese beiden Wissensarten stehen beim Menschen in einer komplexen Wechselwirkung. Etwas, das rational aufgenommen wird, wird ebenfalls emotionalisiert, sofern es umfassend und damit mit nachhaltigem Verständnis aufgenommen wird, und steht dann quasi als „Inhalt“ einer „Schublade“ zur Verfügung. Im Gehirn dient es der Kombination mit dem Inhalt der anderen „Schubladen“, also zur Entwicklung neuer Ideen. Emotionales Wissen ist wie bewegte Bilder und Text, und ein Bild sagt bekanntlich mehr als tausend Worte. So weiß die emotionale Seite eines Menschen immer mehr als man niederschreiben kann. Emotionales Wissen entsteht durch Verinnerlichung von Handlungen und Funktionen, kurz: durch alles was das praktische Leben bereit hält. Einem solchen Wissen geben wir gern den Namen „Erfahrung“. Und wir alle wissen, dass Erfahrung im Laufe eines aktiven Lebens wächst, also auch in einem innovativ-aktiven Menschen. Je mehr Erfahrungen aber ein Mensch hat, über desto mehr „Wissensschubladen“ und über desto mehr Kombinationsmöglichkeit zur Auffindung von innovativen Ansätzen oder Ideen verfügt er. Und je mehr Wissensschubladen verfügbar sind, desto sensibler und effektiver für die eigenen Aufgaben lernend, Impulse sammelnd, geht ein solcher Mensch durchs Leben. Aktive Menschen sind also dynamisch wachsende Wissensspeicher, die in der Regel, höchst aktuelle Inhalte führen. Menschen sind Wesen mit logischen und intuitiven Fähigkeiten, sie sind Wissenssammler mit wachsendem Erfahrungsschatz und somit der wichtigste Faktor für ein erfolgreiches Wissensmanagement. Dieses hat also keine geringere Aufgabe als die eigenen Mitarbeiter sich zu lernenden Menschen, zu Impulssammlern, entwickeln zu lassen. Gleichzeitig ist dies aber auch ein Hinweis darauf, dass die Aussage „jeder ist ersetzbar“ für erfahrene Menschen nicht gilt. Wenn ein erfahrener Mensch, der gegebenenfalls zehn Jahre und mehr Erfahrung sammelte, das Unternehmen verlässt, so ist das ein schmerzlicher und in der Regel nicht ausgleichbarer Verlust. Die logische Konsequenz für ein Wissensmanagement ist hier nicht den Befehl zu geben, alles niederzuschreiben bevor die Person geht, sondern Wissensträger so in Gruppen und Teams einzubinden, dass das Wissen tagtäglich auf die anderen Mitarbeiter überfließt. Da dadurch das Unternehmen erfolgreicher werden kann und ein besseres Klima erhält, weil mehr Wissensträger entstehen und der Wissensverlust weniger dramatisch ausfallen kann, ist der Verlust von erfahrenen Mitarbeitern ebenfalls unwahrscheinlicher. Selbstverständlich muss Vieles auch schriftlich gespeichert und verfügbar gehalten werden. Dies geschieht heute nur noch in Computern. Die Wissensmanage-

246

8 Strategisches Management

mentaufgaben sind hier die richtige Struktur, ein gutes Suchsystem und redundante Sicherungssysteme zu entwickeln. Ein besonderer Aspekt für gutes Wissensmanagement betrifft den Wissensstand in Forschung und Entwicklung. Ein innovatives Unternehmen muss „das Klavier der Forschung“ spielen können. Dies bedeutet Mitarbeiter im eigenen Unternehmen mit Netzwerkbildung mit Forschungsstellen und Wissensträgern zu beauftragen und solche Personen mit entsprechenden Freiheiten und Kompetenzen auszustatten, um als effiziente Verbindungsstelle zwischen Unternehmen und den anderen Netzwerkpartnern agieren zu können. Die Arbeitsweise solcher Mitarbeiter hat zum Ziel, Forschungsergebnisse und Forschungsthemen mit Relevanz für das eigene Unternehmen zu finden, vorzuselektieren und als Diskussionsthemen in einen ausgewählten, entscheidungsfähigen Personenkreis im eigenen Unternehmen einzubringen und zu diskutieren. Wie aus dieser Darstellung deutlich wird, sind es wieder die Menschen, die das Wissensmanagement erfolgreich werden lassen. Um so erfolgreicher, je mehr ein Unternehmen alle Mitarbeiter daran teilnehmen lässt und es gelingt, die Wissensressourcen und Wissenssammelpotentiale aller Mitarbeiter für das Unternehmen nutzbar zu machen.

8.3.1  Innovation durch Synergie Der Aspekt Innovation durch Synergie ist ein besonderer Teil des Wissensmanagements. Immer wieder muss man erfahren, dass im Besonderen mittelständische Unternehmensleitungen Wissenswelten neben der des eigenen Unternehmens ignorieren. Die dafür oft genannten Gründe sind „Zeitverschwendung“ und „unwichtig für das Unternehmen“. Dies mag manchmal richtig sein. Betrachtet man aber die neuesten technologischen Entwicklungen, so stellt man fest, dass dort mehr und mehr scheinbar weit voneinander entfernte Themen zusammenwachsen und zu neuen Produkten führen. Beispiele dafür sind viele Themen der Bionik. So lernten Maschinenbauer beispielsweise von der Biologie (von Bäumen) wie Verstrebungen optimal gestaltet werden können oder dass optimale Tragwerke von Knochenstrukturen abgeleitet werden können. Die Medizin wächst mehr und mehr mit der Verfahrenstechnik zusammen, und so wurde klar, dass die Penetration der menschlichen Haut durch eine Salbe nichts anderes als ein Membranpermeationsprozess aus der Verfahrenstechnik ist. Genauso konnte mit Hilfe der Strömungsmechanik gezeigt werden wie Aneurysmen im menschlichen Körper entstehen. Darüber hinaus zeigen diesen Trend auch neue Studiengänge an den Hochschulen an. Studiengänge wie „Materialien und Prozesse“, „Photonische Technologien im Maschinenbau“, oder „Medizin und Technik“ verbinden die Wissenschaften der jeweils beiden Seiten und eröffnen so Wege zu neuen Ansätzen und Ideen. Ein modernes Unternehmen darf sich diesem Trend nicht verwehren. Ein leicht zu realisierender Ansatz sind Tage der offenen Tür, die viele Impulse bereithalten. Selbstverständlich wird auch bei solchen Veranstaltungen nur die- oder

8.3 Wissensmanagement

247

derjenige etwas sehen, bei dem die innovative Sensibilität vorhanden ist. Spätestens hier zeigt sich, wie eng die innovative Geisteshaltung als Voraussetzung mit dem Unternehmenserfolg zusammenhängen kann.

8.3.2  Transparenz Menschen können nur auf Vorgänge, Zustände, Mitteilungen, Befehle oder Reize reagieren. Hält man eine Unternehmenssituation vor den Mitarbeitern geheim, kann man folglich nicht erwarten, dass sie aus eigenem Antrieb für eine Veränderung arbeiten. Im Gegenteil: Mitarbeiter, denen Nachrichten vorenthalten werden, werden dies als Misstrauen werten. Dies geschieht nicht lautstark. Es ist ein schleichendes Gift, das bereits zu schleichen beginnt, wenn die Mitarbeiter das Gefühl entwickeln, abgekoppelt zu sein. Begreifen wir daher als ein Ziel von Innovtions- und Wissensmanagement, das Unternehmen zu einem „lernenden“ Unternehmen, zu einem wie ein Gehirn mit vielen Schubladen agierenden „Körper“, zu formen, so dass der „ganze Körper“ weiß, wie es mit dem Unternehmen steht. Beispielsweise hat ein Unternehmen mit der ständigen Bekanntgabe der finanziellen Unternehmenssituation gezeigt, dass man damit Kräfte freisetzen kann. Man kann sich leicht vorstellen, was es bedeutet, wenn ein Mitarbeiter durch die tägliche Information ein Gefühl für den Zusammenhang zwischen seinem Fleiß, dem Produktionsergebnis und der Finanzsituation entwickeln kann. Er wird seine Konsequenzen ziehen und im Falle von gefühlter Notwendigkeit mehr zielgerichtet anpacken als ohne diese Information. Durch Transparenz und Vertrauen werden also Kräfte frei, die durch Innovations- und Wissensmanagement gegebenenfalls koordiniert und mit Richtungsimpulsen ausgestattet für das Unternehmen nutzbar gemacht werden können. Wenn dann ein Mitarbeiter erkennt, dass sich sein Einsatz gelohnt hat, ist die richtige, die innovative Geisteshaltung auf einem guten Entwicklungsweg.

8.3.3  E  rzeugung von Identifikationsempfinden mit dem eigenen Unternehmen Es gibt einen einfachen Satz, der diese ganze Problematik des Identifikationsempfindens auf den Punkt führt: „Die Betroffenen zu Beteiligten machen“. Ist jemand von einem Ziel betroffen – an einem Ziel beteiligt – so wird sich diese Person das ausgegebene Ziel zueigen machen, falls es überzeugt. Überzeugend ist ein Ziel, wenn es der einzelnen Person einen Vorteil verspricht. Die Art des Vorteils kann aber durchaus verschieden sein. Von der trivialen und trotzdem selten genutzten Form der finanziellen Beteiligung im Erfolgsfall, bis hin zum Spaß an der Sache oder der Freude am „Mannschaftsspiel“ in einem erfolgreichen, angenehmen Team ist alles denkbar. Letzteres in Kombination mit einer einigermaßen gerechten Entlohnung scheint, vor dem Hintergrund vieler Gespräche, die wirksamste Form zu sein.

248

8 Strategisches Management

Der richtige Vorgesetzte Es werden viele Diskussionen darüber geführt, welche persönlichen Eigenschaften der richtige Chef oder Vorgesetzte haben sollte. Betrachtet man aber verschiedene Firmenchefs oder Vorgesetzte in erfolgreichen Unternehmen, so kommt man zu dem Schluss, dass man nur wenige Persönlichkeitseigenschaften ausschließen kann. Zu diesen Eigenschaften gehören eigentlich nur moralisch Verwerfliche wie Lügen, Betrügen, usw.! Bei allen anderen Persönlichkeitseigenschaften ist nur die Frage nach der Entscheidungskompetenz, der Fähigkeit, Vertrauen und Herausforderungen im ausgewogen Maße aufzubauen, das Mikromanagement zu meiden, kurz: Innovationsmanagement zu realisieren und sich mit der eigenen Person glaubhaft für das Unternehmen einzusetzen.

8.3.4  Wissensmanagement und Informationstechnologie Die rasante Entwicklung der Informationstechnologie hat Mitte der 80er Jahre den Beginn des Fachgebietes Wissensmanagement begründet. Die Tatsache, dass nur 20–30% des Wissens der Menschen in einer Organisation genutzt werden, ließ zu Recht immense Effizienzgewinne erwarten, wenn es gelänge, nach dem Leitbild der „lernenden Organisation“ das Wissen sowie die Erfahrungen der Mitarbeiter zu sammeln, zu speichern, zu analysieren und zum Nutzen der gesamten Organisation verfügbar zu machen und einzusetzen. Inzwischen hat sich aus diesem Ansatz ein großes, eigenes Fachgebiet entwickelt, das in der Betriebswirtschaftslehre neben der Wirtschaftsinformatik und dem Personalwesen angesiedelt, aber mit zahlreichen anderen Fakultäten eng vernetzt ist, z. B. mit der Psychologie, der Pädagogik, der Soziologie, der Philosophie, Semantik und der Informatik. Einen detaillierten, gründlichen Überblick vermittelt Lehner (2008). Zur weiteren Vertiefung wird ausdrücklich auf dieses Buch verwiesen. Die Systematik des Fachgebietes unterscheidet einen humanorientierten und einen technologieorientierten Bereich. Zweifellos ist der humanorientierte der entscheidende, weshalb wir ihn auch in den vorangegangenen Abschnitten in den Vordergrund gestellt haben. Unstrittig ist jedoch, dass die entscheidenden Impulse für das Fachgebiet in den letzten Jahren von den rasanten technologischen Entwicklungen der Informatik ausgingen, ein Gebiet, welches gerade die junge Generation emotional stark anregt. Dabei muss man sich jedoch im Klaren darüber sein, dass für die neuen Technologien nur das codierte bzw. codierbare Wissen zugänglich ist. Das bedeutet, das oben angesprochene, nicht sichtbare, unbewusste, emotionale „Wissen“, die Erfahrung oder – wie der Fachbegriff sagt – die „Tacit Knowledge“ lässt sich mit technischen Werkzeugen immer noch unzureichend erfassen. Trotzdem hat das technologiebasierte Wissensmanagement noch vor kurzem ungeahnte Möglichkeiten zur Effizienzsteigerung von Organisationen eröffnet. Bei den Methoden unterscheidet man Basistechnologien, spezialisierte Werkzeuge und komplette Wissensmanagementsysteme. Zu den ersteren gehören Kommunikations- (wie E-mail-) Systeme, „schwarze Bretter“, elektronische Meeting-

8.3 Wissensmanagement

249

systeme oder „workflow“-Systeme, zu den zweiten Dokumentenmanagementsysteme, Contentmanagementsysteme und ähnliche Datenbanken. Kombiniert man Datenbanken mit Funktionen der so genannten „künstlichen Intelligenz“, so erhält man vollständige Wissensmanagementsysteme. Sie sind gekennzeichnet durch Diagnosefunktionen (Case Based Reasoning), durch „Mining“-Funktionen, mit denen Sprachen, Begriffe und auch Kontexte erkannt und geordnet werden können und ähnliches. Mit Hilfe lernender neuronaler Netze übernehmen solche Systeme ganz unterschiedliche Aufgaben als Suchmaschinen, als Systeme der Verarbeitung von Informationen und spezifischen Wissensprozessen (Lehner 2008). Auf der Basis solcher Systeme werden in vielen Organisationen sog. „Wiki’s“ (nach dem Onlinelexikon Wikipedia) eingerichtet: Plattformen, auf denen Vorgehensweisen („Best Practices“), Rezepturen, Erfahrungen („Lessons Learned“) ausgetauscht, diskutiert, verbessert und gespeichert werden. Wie effizient solche Vorgehensweisen sein können, haben ja nicht nur Wikipedia, sondern auch die „open source“ software Linux unter Beweis gestellt. Aus humanorientierter Sicht ist dabei aufschlussreich, dass sich durch ein derartiges Vorgehen in einer Organisation neue und nicht „von oben“ angeordnete Gruppen bilden, so genannte „Communities of Practice“, also informelle Wissensgruppen, die für die Verbreitung, Verbesserung und Etablierung von Wissen und Erfahrung in Organisationen eine entscheidende Bedeutung haben. Wissensmanagementsysteme werden in vielen, ganz unterschiedlichen Firmen und Branchen eingesetzt, wobei verständlich ist, dass zunächst große international agierende Organisationen die entsprechenden Technologien nutzen: Ein schon klassisches Beispiel ist PIMS (Profit Impact of Market Strategy), ein Projekt, das ursprünglich von General Electric und der Harvard-Universität initiiert wurde und seit 30 Jahren Informationen aus tausenden Firmen abgleicht und auswertet. Es wird von der Beratungsgesellschaft Malik zu Benchmarking-Analysen auch für mittelständische Unternehmen angeboten. Überhaupt haben sich die Systeme vor allem bei Beratungsfirmen bewährt. Lehner (2008) beschreibt den Einsatz eines Wissensmanagementsystems bei der Firma Accenture. Die großen Wirtschaftsprüfungsgesellschaften haben in den letzten Jahren solche Systeme geschaffen, um das Know-how ihrer international agierenden Wirtschaftsprüfer zu dokumentieren, auszutauschen und fortlaufend zu verbessern. Aber auch bei Technikfirmen wie Ford oder Xerox (mit einer von Technikern für Techniker geschaffenen Datenbank) basieren die Geschäftsmodelle mehr und mehr auf ausgefeilten Wissensmanagement-Vorgehensweisen und sogar Verwaltungen setzen die Technik ein: Die Stadt Köln nutzt ein System, das mit „künstlicher Intelligenz“ alle Dokumente speichert, auswertet, Kontext-Beziehungen herstellt und diese identifizieren und verknüpfen kann. Diese wenigen Beispiele mögen bereits die strategische Relevanz des Wissensmanagements beleuchten. Kein Unternehmen kann heute ohne ein funktionierendes Wissensmanagement mehr existieren. Entscheidend dabei ist die humanorientierte Schaffung einer entsprechenden Unternehmenskultur. Wie weitgehend die neuen Technologien und Werkzeuge dazu genutzt und eingesetzt werden müssen, hängt von der Branche, der Komplexität und der strategischen Ausrichtung eines Unternehmens ab.

250

8 Strategisches Management

Literatur Bower JL, Christensen CM (2008) Wie Sie die Chancen disruptiver Technologien nutzen. HBM April 2008 S 126–139 Brockhoff K (1999) Forschung und Entwicklung: Planung und Kontrolle, 5. Aufl. Oldenburg, München Brown T (2008) Designer als Entwickler. HBM Juli 2008, S 56–67 Catmull E (2008) Kollektive Kreativität bei Pixar. HBM Dez. 2008, S 82–95 Christensen CM, Raynor M, Verlinden M (2002) Wo in Zukunft die Gewinnchancen liegen. HBM März 2002, S 55–66 Christensen CM, Kaufmann SP, Shik WC (2008) Innovationskiller Kennzahlen. HBM Mai 2008, S 52–63 Coyne T, Gorman P, Dye C, Dye R (2008) Querdenken mit System. HBM Juli 2008, S 28–39 Drucker PF (2000) Die Kunst des Managements. Econ Verlag, München Drucker P (2004) Wissen – die Trumpfkarte der entwickelten Länder. HBM Okt. 2004, S 64–68 Fromm H (1999) Benchmarking. In: Masing W, Bläsing J (Hrsg) Handbuch Qualitätsmanagement. Hanser Verlag, München, S 93–100 Gassmann O, Bader MA (2007) Patentmanagement: Innovationen erfolgreich nutzen und schützen, 2. Aufl. Springer Verlag, Berlin Gassmann O, Sutter P (Hrsg) (2008) Praxiswissen Innovationsmanagement. Von der Idee zum Markterfolg. Hanser, München Gottfredson M, Schaubert S, Saenz H (2008) Der große Frimen-Check. HBM August 2008 S 46–61 Hauschildt J, Salomo S (2007) Innovationsmanagement, 4. Aufl. Vahlen, München Henkel J, Reitzig M (2008) Vorsicht Patenthaie. HBM Aug. 2008, S 62–68 Hinterhuber HH (1996) Strategische Unternehmensführung. I. Strategisches Denken, 6. Aufl. Gruyter, Berlin Iyer B, Davenport Th H (2008) Vorbild Google. HBM Juni 2008, S 44–58 Kaplan RS, Norton DP (1997) Balanced scorecard. Strategien erfolgreich umsetzen. SchäfferPoeschel, Stuttgart Kaplan RS, Norton DP (2001) Die strategiefokussierte Organisation, Führen mit der Balanced Scorecard. Schaeffer-Poeschel, Stuttgart Kaplan RS, Norton DP (2004) In Search of Excellence – der Maßstab muss neu definiert werden, HBM Okt. 2004, S 146–156 Kaplan RS, Norton DP (2008) Management mit System. HBM Mai 2008, S 29–48 Kuhn L, Leitl M (2006) Eine kurze Geschichte der Kreativität. Gespräch mit dem Physiker Norbert Binnig. HBM Juni 2006, S 100 Lehner F (2008) Wissensmanagement. Grundlagen, Methoden und technische Unterstützung, 2. Aufl. Hanser, München McGonigal J (2008) Mit virtuellen Welten managen. HBM Feb. 2008, S 20–21 Micic P (2001) Der ZukunftsManager, 2. Aufl. Haufe Verlag, Freiburg Nonaka I, Takeuchi H (1997) Die Organisation des Wissens. Campus Verlag, Frankfurt a. M. North K (1998) Wissensorientierte Unternehmensführung. Wertschöpfung durch Wissen. Gabler Verlag, Wiesbaden Probst G, Romhardt K, Raub St (2003) Wissen managen – Wie Unternehmen ihre wertvollste Ressource optimal nutzen, 4. Aufl. Gabler Verlag, Frankfurt a. M. Teichert Th, v. Wartburg I (2006) Wissen teilen für mehr Wachstum. HBM März 2006, S 39–45 Roberts J (2004) The modern firm. Oxford University Press, Oxford Stutely R (2002) Der professionelle Businessplan. Financial Times Prentice Hall, München Weber J, Schäffer U (2000) Balanced Scorecard & Controlling. Implentementierung – Nutzen für Manager und Controller – Erfahrungen in deutschen Unternehmen. Gabler Verlag, Wiesbaden

8.3 Wissensmanagement

251

Wildemann H (2008a) Innovationsmanagement – Leitfaden zur Einführung eines effektiven und effizienten Innovationsmanagements. TCW, München Wildemann H (2008b) Am Kunden vorbei. HBM März 2008, S 8–12 Wolter O (2000) TQM – scorecard. Die balanced scorecard in TQM-geführten Unternehmen umsetzen. Pocket-Power. Hanser Verlag, München

Kapitel 9

Ausblick O. Kraus

Wenn man beim Durchlesen dieses Buches beim letzten Kapitel etwas innehält, werden einem zwei Eindrücke deutlich: Zum einen wird immer klarer, dass bei allen Vorgehensweisen und Aspekten des Managementberufes der Mensch in den Fokus rückt. Das wird auch aus der gegenwärtigen von der Finanzkrise ausgelösten öffentlichen Kritik am Manager-Berufsbild evident. Für uns Autoren, die alle von anderen Berufen zum Managerberuf gestoßen sind, weist die heutige Ausbildung zum Manager und die Auswahl von Managern hier gefährliche Defizite auf. Wir wollen uns nicht in die Reihen der Pharisäer stellen, die mit erhobenem Zeigefinger moralische Maximalforderungen stellen, obgleich es einen allgemeinen Verhaltenskodex für diesen Beruf sicherlich geben sollte. Wir meinen jedoch darüber hinaus, dass die heutige Ausbildung des Managers in Deutschland zu stark auf den Umgang mit Zahlen, mit „tools“, Marktmechanismen etc. verkürzt wird. Das langfristige Überleben von Unternehmen wird in so starkem Maße von menschlichen Aspekten determiniert, dass es uns fahrlässig erscheint zu versäumen, die Grundsätze und Vorgehensweisen von Menschenführung, aber auch von Konfliktlösung, Verhandlungsführung, Teamleitung, Kreativitätsmethoden, Personalgesprächen, Präsentationstechnik etc. nicht nur zu vermitteln, sondern auch einzuüben. Ein angehender Mediziner muss auch die verschiedenen Operationstechniken praktisch einüben! Zum anderen wurde uns Autoren bei der Überarbeitung erst bewusst, wie faszinierend schnell sich Dinge im gesamten Management-Umfeld heutzutage verändern: Technologische Umbrüche (IT), neue Märkte (Ostasien), neue Organisationsformen (Netzwerke, Kooperationen), umwälzende Marketingkonzepte („open source“) haben sich blitzschnell etabliert. Das unterstreicht, wie anspruchsvoll es ist, heute strategische, langfristige Ziele für eine Organisation aufzustellen. Andererseits wird erst mit der strategischen Komponente die Faszination deutlich, die von Management ausgeht und die für jeden, der sich in dieses Gebiet begibt, zum Erlebnis wird. Allerdings sollen wir uns auch bewusst werden, dass – bereits definitionsgemäß – ein integraler Bestandteil von Strategie der Wettbewerb ist. Zur Faszination an strategischem Management gehört auch die Freude an der Auseinandersetzung, am sportlichen Wettkampf. An dieser Stelle besteht natürlich die Gefahr, dass diese positive, sportliche Aggressivität entartet und in „Krieg“ entgleitet. Wirtschaftskriege sind O.E. Kraus, Managementwissen für Naturwissenschaftler und Ingenieure, DOI 10.1007/978-3-540-69245-4_9, © Springer-Verlag Berlin Heidelberg 2010

253

254

9 Ausblick

zwar in den seltensten Fällen wirtschaftlich sinnvoll, aber die menschliche Natur schlägt in ihrer Aggressivität oft über die Stränge. Es ist deshalb wichtig zu verstehen, was uns das Eingangsmotto von W. v. Humboldt nahe bringen will: Das aggressive „Handeln“ muss in einem Spannungsverhältnis zum reflektiven „Charakter“ stehen. Wenn es uns gelingt, Managementtätigkeit zwar sportlich-aggressiv, jedoch unter einer Lebenseinstellung, die durch Verantwortungsgefühl und Werteorientierung geprägt ist zu gestalten, wird uns das nicht nur vor wirtschaftlicher Dummheit bewahren, in die ungehemmte Aggressivität meist führt, sondern wird uns persönlich auch die Befriedigung vermitteln, welche aus kulturschaffender Tätigkeit erwächst. Man macht sich das Leben mit so einer Grundeinstellung nicht leichter und wird immer wieder hart um Entscheidungen ringen und zwischen den Spannungspolen von „Charakter“ und „Handeln“ hin und her geworfen sein. Management und besonders strategisches Management verspricht kein einfaches, leichtes Leben. Aber es hält Faszination und Lebenserfüllung bereit, wenn sich vorwärtsdrängende Aktivität mit verantwortungsvoller, kultureller Gestaltung verbindet.

Autoren

Nicolas Alt studierte Chemieingenieurwesen an der Universität Erlangen-Nürnberg. Er arbeitet als wissenschaftlicher Mitarbeiter mit dem Ziel der Promotion am Lehrstuhl für Prozessmaschinen und Anlagentechnik der Technischen Fakultät in Erlangen. Neben dieser Tätigkeit erwarb er in einem wirtschaftswissenschaftlichen Studiengang an der Fernuniversität in Hagen den Abschluss zum Wirtschaftsingenieur. Zusammen mit weiteren Dozenten gestaltet er die Lehrveranstaltung „Managementpraxis für Ingenieure“. Dr.-Ing. David Bolz ist 2005 als Projektingenieur in die Engineering-Abteilung der Firma Degussa eingestiegen. Aktuell ist er für die Firma Evonik Industries (vormals Degussa) für die ingenieurtechnische Entwicklung eines neuen Verfahrens zuständig. D. Bolz hat ein Studium des Chemieingenieurwesens (Verfahrenstechnik) an der Universität Erlangen-Nürnberg absolviert und danach am Lehrstuhl für Prozessmaschinen und Anlagentechnik an der gleichen Universität promoviert. Während der Promotion hat er an der Fernuni versität Hagen ein Studium der Wirtschaftswissenschaften absolviert. Nina Ebel studierte Chemieingenieurwesen an der Universität Erlangen-Nürnberg. Ihre Diplomarbeit fertigte sie bei einem mittelständischen Unternehmen für Prozessmaschinen zum Thema Variantenmanagement an und setzte die erarbeiteten Ansätze als Projektleiterin um. Sie arbeitet als wissenschaftliche Mitarbeiterin mit dem Ziel der Promotion am Lehrstuhl für Prozessmaschinen und Anlagentechnik der Technischen Fakultät in Erlangen. Zusammen mit weiteren Dozenten gestaltet sie die Lehrveranstaltung „Managementpraxis für Ingenieure“. Dr.-Ing. Axel Fronek studierte Chemieingenieurwesen an der Universität Erlangen-Nürnberg und Wirtschaftswissenschaften an der Fernuniversität Hagen. Nach seinen Studien promovierte er als wissenschaftlicher Assistent am Lehrstuhl für Prozessmaschinen und 255

256

Autoren

Anlagentechnik an der Technischen Fakultät in Erlangen. Seine interdisziplinäre Ausrichtung setzt er seit mehreren Jahren in vertrieblichen Funktionen im Großanlagenbau der Firma Siemens ein. Renate Kränzle-Fronek hat Rechtswissenschaften an der Universität Erlangen-Nürnberg studiert. Seit mehreren Jahren ist sie als Rechtsanwältin in einer zivilrechtlich ausgerichteten Kanzlei in Schwabach tätig. Sie ist Fachanwältin für Miet- und Wohnungseigentumsrecht und berät Mandanten u. a. bei Unternehmensgründung und Vertragsgestaltung. Dr. rer. nat. Olaf E. Kraus wurde 1939 in Riga, Lettland, geboren. Nach seinem Geologiestudium in Göttingen und München war er viele Jahre als Wirtschaftsgeologe in der Industrie tätig, bis er 1975 ins Management wechselte. Seine betriebswirtschaftlichen Kenntnisse erwarb er sich in einem Fernstudiengang. Er leitete verschiedene Unternehmen der Metallbranche, darunter von 1994 bis 1999 den Konzernbereich Hüttenwesen der Metallgesellschaft AG und ist seit mehr als 20 Jahren im Beirat der Familiengesellschaft Schmidt & Clemens GmbH u. Co. KG engagiert, dessen Vorsitz er viele Jahre lang inne hatte. Seit 1999 ist Dr. Kraus Gastdozent für Managementpraxis an der Universität Erlangen-Nürnberg. Prof. Dr.-Ing. Eberhard Schlücker Jahrgang 1956, studierte Maschinenbau an der Fachhochschule Heilbronn und promovierte 1993 an der Universität Erlangen-Nürnberg. Als Abteilungsleiter Forschung und Entwicklung sowie als Prokurist und Leiter des Bereichs Technik arbeitete er bis 2000 bei der Firma LEWA, Leonberg. Seither ist er Professor und Inhaber des Lehrstuhls für Prozessmaschinen und Anlagentechnik an der Universität Erlangen-Nürnberg.

Sachverzeichnis

A ABC – Analyse, 210 Ablaufprozesse, 227 Abschreibung, 83 Absetzung für Abnutzung, 83 Absicherung von Innovationen, 242 Abweichung, 19 Activity-Based Costing, 69 AfA, 83 AG, 110 AGB, 130 Akkreditiv, 129 Aktiengesellschaft, 110 Aktiva, 78 Aktivkonto, 78 Akzept, 129 Allgemeine Geschäftsbedingungen, 130 allgemeine Innovationsfähigkeit, 232 Alter der Produkte, 228 Ambivalenz, 172 Amortisationsrechnung, 40 Amortisationszeit, 41 Ampelschaltung, 223 Analyse der Ziele, 218 Anderskosten, 53 Anfechtung, 133 Anlagenbau, 24 Anlagendeckung, 93 antagonistisches Regelungssystem, 172 Arbeitsgruppe, 233 Argumentationsbilanz, 39 assets, 78 Aufstellungskonzept, 26 Aufstellungsplan, 27 Aufwand, 52 Aufwand für Exploration, 92 Aufwendung, 76 Ausbildung des Managers, 253

Ausführungsplanung, 27 Ausgabe, 75, 76 außerordentliche Aufwendungen, 52, 83 außerordentliche Erträge, 83 Ausstiegs-Szenario, 146 Auszahlung, 75 Aval, 129 B Balanced Scorecard, 166, 226 Balkendiagramm, 8 Balkenplan, 13 Bankaval, 129 Bankgarantie, 129 Basispatent, 244 Basisplanung, 26 Bausteinphase, 238 Bedürfnispyramide, 170 Belegprinzip, 89 Benchmarking, 96, 212, 222 Beratervertrag, 124 Berichtsfrequenz, 18 Berichtswesen, 17 Besprechung, 138 Besprechung in der Werkstatt, 235 Bestandskonto, 78 Betriebsabrechnungsbogen, 59 betriebsfremde Aufwendungen, 52 Beurteilung, 186 Bilanz, 78, 84 Bilanzgewinn, 89 Bilanzierungsgrundsätze, 89 Bilanzmodernisierungsgesetz, 91 Bilanzrecht, 90 Bilanzstruktur, 85 Bilanzverlust, 89 BilMoG, 91 Bionik, 246

257

Sachverzeichnis

258 Black Belt, 162 Blockschema, 26 Brainstorming, 149 Brainwriting, 149 break-even-Punkt, 200 Break-even-Punkt, 37, 40 BSC, 226 Buchungssatz, 80 Buchungsvorgang, 79 Bürgschaft, 129 Business Plan, 228 C cash cow, 212 Cash Flow, 94 Cash-Flow-Planung, 15 Chaos-Management, 185 commodity, 194 Communities of Practice, 249 construction project, 92 contribution margin, 66 Cost Center, 58 cost drivers, 70 CPM, 33 Critical Path Method, 33 customer support, 241 D Darlehensvertrag, 123 Datenbank, 249 DCF-Rate, 27 Deckungsbeitrag, 66 Deckungsbeitragsrechnung, 66 Degressionskoeffizient, 31 degressive Kosten, 55 Deming-Kreis, 160 Derivate Finanzierungsinstrumente, 92 Design Thinking, 152 Detail Engineering, 27 Dienstleistungsinnovation, 240 Dienstleistungsvertrag, 121, 123 Dienstvertrag, 123 Differenzierung, 202 Differenzierungsstrategie, 202 Diplomarbeit, 6 direct costing, 66 direkte Kosten, 55 discounted cash flow rate, 27, 44 Diskontsatz, 129 disruptive Technologie, 239 Diversitäts-Forschung, 193 DMAIC, 162 Dokumentation, 17

Dokumentation zum Qualitätsmanagementsystem, 157 Doppelbesteuerung, 117 Doppelte Buchführung, 74, 75 drei W´s, 138 Durchschnittsteuersatz, 115 dynamische Amortisationsdauer, 43 dynamische Verfahren, 37 E EBIT, 82 echtes Team, 233 EFQM, 163 Eigenkapital, 87, 88 Eigenkapital-Quote, 93 Eigenleistung, 83 Eigennutz, 173 Eigentumsvorbehalt, 127 Einkommensteuer, 113 Einkommensteuertarif, 115 Einkünfte aus Kapitalvermögen, 115 Einnahme, 76 Einnahmen-Überschuss-Rechnung, 115 Eintrittsbarriere, 203 Einzelkosten, 55 Einzelunternehmen, 103 Emotionale Intelligenz, 173 emotionales Wissen, 245 Empathic Design, 240 empowerment, 175 Entscheidungsknoten, 24 Entvertikalisierung, 203 Equipmentliste, 26 Erfahrung, 245, 248 Erfolgskonto, 78, 79 Erfolgs-Treiber, 227 Ergebnis vor Steuern, 83 Ergebnisplanung, 223 Erlöse, 75 Eröffnungsbilanz, 79, 84, 85 ERP-Software, 50 Ertrag, 76 ethnographische Feldforschung, 239 ewige Rente, 49 Externes Rechnungswesen, 73 extrinsische Komponenten, 170 F Facility Management, 241 fair and true value, 91 Faktorenmethode, 31 360°-Feedback, 184 Fehler, 153

Sachverzeichnis Finanzierungsrechnung, 76 Firmengebäude, 236 Firmenwert, 49 Fixkosten, 54 fraktale Organisationsformen, 185 Fraktalstruktur, 236 Front-End Loading, 28 frühe Imitierer, 242 FuE-Bereich, 21 Führerprinzip, 171 Führungsmacht, 174 fünf Wettbewerbskräfte, 201 G GbR, 104 Gefahrenübergang, 76, 126 Gegensteuerungsmaßnahme, 10, 20, 226 Gemeinkosten, 55 Gemeinnutz, 173 Gemeinschaftskontenrahmen, 77 Gesamtkostenverfahren, 81 Gesamtleistung, 81, 96 Gesamt-Projektübersicht, 18 Geschäftsbesorgungsvertrag, 124 Gesellschaft des bürgerlichen Rechts, 104 Gesellschaft mit beschränkter Haftung, 108 Gesellschaftsformen, 101 Gesetzliches Rücktrittsrecht, 131 Gestaltung von Folien, 140 Gewerbesteuer, 117 Gewinn- und Verlustrechnung, 81 Gewinnkurve, 197 Gewinnrücklage, 88 Gewinnvortrag, 89 gezeichnetes Kapital, 88 Gläubigerschutz, 90 GmbH, 108 GmbH & Co. KG, 108 Green Belt, 162 Grenzsteuersatz, 115 gross profit, 81 Grundfließbild, 26 Grundkapital, 88 Grundkosten, 53 Grundsatz der Bewertungsstetigkeit, 90 GuV, 81 H Haben, 77 Halbeinkünfteverfahren, 117 Handelsbilanz, 91 Handelsgesetzbuch, 90 Handlungswille, 125

259 Harvard Modell, 143, 144 Harzburger Modell, 171 Hauptkostenstellen, 59 Hebesatz, 118 HGB, 90 Hilfskostenstellen, 59 hockey-stick-Planung, 224 humanorientiert, 248 I IAS, 90 Identifikationsempfinden, 247 IFRS, 90 Immaterielle Vermögensgegenstände, 88 immaterieller Vermögenswert, 92 Imparitätsprinzip, 90 IMS, 166 Incoterms, 127 indirekte Kosten, 54 Industriekontenrahmen, 77 Informationstechnologie, 248 Infrastruktur, 234 Innovation, 183 Innovationsgrad, 24 Innovationsklima, 237 Innovationsmanagement, 230 Innovationspotential des Menschen, 230 innovative Geisteshaltung, 234 Integrated Management System, 166 Intelligenzquotient, 173 internal rate of return, 44 International Accounting Standards, 90 International Finance Reporting Standards, 90 Interner Zinsfuß, 44 Internes Rechnungswesen, 50 intrinsische Komponenten, 170 Inventar, 85 Inventur, 87 Investitionskostenschätzung, 30 Investitions-Rechnung, 37 IQ, 173 ISO 9000 Normenfamilie, 155 Istkostenrechnung, 63 J Jahresfehlbetrag, 83, 89 Jahresüberschuss, 89 juristische Person, 103 K Kaizen, 159 Kalkulationsmethode, 31

260 Kalkulationszinssatz, 43 kalkulatorische Abschreibung, 53 kalkulatorische Kosten, 53 kalkulatorischer Unternehmerlohn, 54 Kapazitätsanalyse, 32 Kapazitätsmethoden, 31 Kapitalgesellschaften, 102 Kapitalrücklage, 88 Kapitalumschlag, 94 Kapitalwertkurve, 44 Kapitalwertverfahren, 42 Kaufmännisches Bestätigungsschreiben, 126 Kaufvertrag, 121 KBS, 126 Kennziffern, 93, 225, 226 Kernkompetenz, 219 Key-Equipment, 27 KG, 106 KGaA, 111 Kick-off-meeting, 21 Kommanditgesellschaft, 106 Kommanditgesellschaft auf Aktien, 111 Kommunikationsmethoden, 137 Konfliktfähigkeit, 144 kontinuierlicher Regelprozess, 208 kontinuierlicher Verbesserungsprozess, 159 Konto, 77 Körperschaftsteuer, 116 Kosten, 52, 75 Kostenanalyse, 32 Kostenarten, 54 Kostenarten-Rechnung, 57 Kostencontrolling, 71 Kostenmanagement, 71 Kostenplanung, 9, 14 Kostenrechnung, 51 Kostenschätzung, 26 Kostenstellen-Rechnung, 58 Kostensteuerung, 71 Kostenträger-Rechnung, 59 Kosten-Treiber, 70, 228 Krankenhausgesetz, 95 Kreativitätstechniken, 148 Kreativmethoden, 148 Kritik, 188 kritischer Pfad, 32 Kundenbefragung, 239 Kundenkette, 194 Kundenzufriedenheit, 227 Kündigung, 132 künstliche Intelligenz, 249 KVP, 159

Sachverzeichnis L langfristiger Fertigungsauftrag, 92 Langfristiges Ziel, 214 lead user, 239 Lebenszyklus, 198 Lebenszyklus-Kosten, 70 Leistungsverzehr, 52 Leitbild, 214 leitender Gedanke, 215 Leitsätze, 214 Lenkungsausschuss, 8, 12, 21 lernende Organisation, 248 lernendes Unternehmen, 237, 247 Letter of Credit, 129 liabilities, 78 Limited Company, 110 Linienorganisation, 12 Liquidität, 75 Lizenzgeber, 244 Lizenzierung, 244 Lizenznehmer, 244 Lob, 187, 188 LOC, 129 Lösen von Verträgen, 131 Lösungskreis, 162 Ltd., 110 M make or buy – Fragestellung, 72 Management, 2 Managementprozess, 2 Markenartikel, 194 market multiples, 49 Marketing, 191 Marketing-Strategie, 194 Marktattraktivität, 212, 220 Marktleistungen, 219 Markt-Management, 191 Markt-Segment, 203 Maschinenstundensatz, 70 Master Black Belt, 162 Materialaufwand, 83 Materialeinzelkosten, 62 Materialgemeinkosten, 62 Matrixorganisation, 12 Mehrwertsteuer, 119 Meilenstein, 14 Mengengerüstmethode, 31 Menschenführung, 169 Methode 635, 150 me-too-Position, 243 me-too-Strategie, 196 Metra Potenial Method, 34

Sachverzeichnis Microsoft-Effekt, 203 Mietvertrag, 123 Mind Map, 152 Mission, 214 mission statement, 214 Mitarbeiterzufriedenheit, 227 Moderation, 140 Moderationstechniken, 141 monatliches Berichtswesen, 225 Monopol, 203 Mooresches Gesetz, 238 morphologischer Kasten, 150 MPM, 34 Murphy’s Law, 15 N Netzplantechnik, 31 Netzwerk, 204 neutraler Aufwand, 52 Niederstwertprinzip, 90 Nische, 203 Nischenmarkt, 203 Null-Fehler-Konzept, 161, 163 Nutzschwelle, 66, 200 Nutzwertanalyse, 210 Nutzwertkreis, 211 O Offene Handelsgesellschaft, 105 OHG, 105 open innovation, 239 open-source, 205 Operative Planung, 222 Outsourcen, 241 Outsourcing, 56 outsourcing partner, 241 P Pachtvertrag, 123 parametrische Methoden, 31 Pareto-Prinzip, 210 partizipatives Führungsmodell, 175 Passiva, 78 Passivkonto, 78 Patenthai, 243 Patentpool, 244 Patentrecht, 243 Patentstrategie, 243 PDCA-Zyklus, 160 Pensionsrückstellung, 88, 92 periodenfremde Aufwendungen, 52 Periodenüberschuss, 41 Personalaufwand, 83

261 Personalführung, 169 Personengesellschaften, 102 PERT, 34 Photonische Technologie im Maschinenbau, 246 PIMS, 249 Plankostenrechnung, 63 Polaritätsprinzip, 172 Portfolio-Analyse, 211 Portfolio-Positionierung, 220 Practical Intelligence, 174 Präsentation, 138 Preis-Absatz-Funktion, 199 Preiselastizität, 199 Preispolitik, 199 Problemlösungszyklus, 142 Produktivität, 94 Produkt-Lebenskurve, 197 Profit Center, 58 Program Evaluation and Review Technique, 34 progressive Kosten, 55 Projekt, 5 Projektleiter, 12 Projektmanagement, 5, 21 Projektorganisation, 7, 11, 28 Projektphasen, 25 Projektsteuerung, 9, 15 Projekt-Team, 11 proportionale Kosten, 55 Prozess-Eigner, 182 Prozesskostenrechnung, 69 pull-Strategie, 195 push-Strategie, 195 Q QM, 152 Qualität, 153 Qualitätskontrolle, 154 Qualitätsmanagement, 152 Qualitätssicherung, 154 R rationales Wissen, 245 Realisationsprinzip, 90 Rechnungsabgrenzungsposten, 88 Rechtsformen, 101 80/20-Regel, 210 Regelprozess, 2 Reifegrad-Theorie, 170 relative Wettbewerbsposition, 212 relevanter Markt, 202, 220 Rentabilität, 41 Restkostenanalyse, 19

Sachverzeichnis

262 Return on Investment, 41, 93 Risikoanalyse, 19 Risikomanagement, 242 Roadmap-Technik, 243 ROI, 93 Rückstellung, 88 S Sachkonto, 77 Saldo, 79 Sanierung, 94 Sanierungsansatz, 96 Schlussbilanz, 84 Schuldrecht, 121 Schuldvertrag, 121 Sensitivitätsanalyse, 38, 46 SGE, 216 SGF, 217 Singularität, 202 Sitzplatz-Verteilung, 235 Six Sigma, 160 Solawechsel, 129 Soll, 77 SOLL/IST-Vergleich, 10, 16 Sonderposten, 94 Spartenorganisation, 216, 218 spezielle Innovationsfähigkeit, 232 sprungfiKosten, 56 St. Galler Patentmanagementmodell, 244 stakeholder, 73 Stammkapital, 88 Standardabweichung, 160 Standardkontenrahmen, 77 Stärken- / Schwächen-Analyse, 211 Stars, 212 statische Verfahren, 37 Steuerbilanz, 91 Steuermessbetrag, 118 Steuermesszahl, 118 Steuern, 113 Steuerungsoption, 10 stock-option-Programme, 180 Strategie, 207 Strategische Geschäftseinheit, 216 Strategische Planung, 207 Strategisches Geschäftsfeld, 217 Strukturanalyse, 32 Strukturierungsgrad, 24 Strukturmethoden, 31 SWOT, 211, 218 90%-Syndrom, 19 Synergie, 246 Szenario Technik, 238

T Tacit Knowledge, 248 Tadel, 187 Target Costing, 15, 70 Team, 233 Teamarbeit, 178 Teamarbeitsweise, 233 Teamfähigkeit, 5 Teamgestaltung, 233 Technologie Roadmap, 238 technologieorientiert, 248 Teileinkünfteverfahren, 117 time to market, 228 Tool-kit, 239 Total Cost of Ownership, 71 Total Quality Management, 159, 182, 184 Toyota Produktions System, 163 Toyota-Prozess, 182 TPS, 163 TPS Haus, 164 TQM, 159, 182, 184 Traditionelles Berichtswesen, 225 Transparenz, 247 Tratte, 129 Treiber, 226 Trendaussage, 20 Trendbruch-Ereignis, 239 Trendscouting, 237 Überschusseinkünfte, 115 Übertragungsvertrag, 121 U Umlageverfahren, 59 Umsatzerlös, 83 Umsatzkostenverfahren, 81 Umsatzrentabilität, 93 Umsatzsteuer, 119 Umsetzungsmaßnahmen, 222 US GAAP, 90 V Variabilisierung von Fixkosten, 56 variable Kosten, 55 Verbrauchsteuer, 119 Verfahrensfließbild, 26 Vergabe- und Vertragsordnung für Bauleistungen, 130 Vergütungsmodelle, 179 Verhaltensgitter, 170 Verhandeln in anderen Kulturkreisen, 146 Verhandlungstechnik, 143 Verkauf, 191 Verlustvortrag, 89 Verpflichtungsvertrag, 121

Sachverzeichnis Verteilungsschlüssel, 59 Vertragliches Rücktrittsrecht, 131 Vertragsformen, 120 Vertragsmanagement, 134 Vertriebspolitik, 200 Verursachungsprinzip, 65 Verwahrungsvertrag, 124 vier klassische Säulen des Marketing, 197 Vision, 214 Visualisierung, 139 VOB, 130 Vollkostenrechnung, 59, 62 Vorgangsliste, 32 Vorsichtsprinzip, 90 Vorsteuer, 119 Vorsteuer-Konto, 81 W Wagniszuschlag, 54 Wechsel, 129 Wechselregress, 129 Werbepolitik, 200 Werbungskosten, 115 Werkvertrag, 124 Werteverzehr, 52 Wertorientiertes Prozess Design, 165 Wertrationalität, 173

263 Wesentliche Erfolgsfaktoren, 20 Wettbewerb, 253 Wettbewerbsposition, 220 Wiki, 249 Willenserklärung, 125 win-win-Situation, 145 Wirtschaftlichkeitsstudie, 27, 37 Wissensmanagement, 244 Wissensmanagementsystem, 248 Wolkenphase, 238 X Xenophon, 174 Z Zahlungsverpflichtung, 75 Zeitanalyse, 32 Zeitplan, 8, 13 Zeitwert, 91 Zertifizierung, 158 Zielfestlegung, 11 zielorientierte Lernkultur, 234 Zielvereinbarung, 181 Zusatzkosten, 53 Zuschlagskalkulation, 62 Zweckrationalität, 173 Zweikreis-System, 54