157 6 4MB
German Pages 146 Year 2010
SCHULD SIND DIE COMPUTER!
Broschüren des Informatik-Forum Stuttgart e.V. Universität Stuttgart, Fakultät Informatik, Elektrotechnik und Informationstechnik, Universitätstr. 38, D-70569 Stuttgart [email protected] www.infos.informatik.uni-stuttgart.de
Albert Endres & Rul Gunzenhäuser
Schuld sind die Computer! Ängste, Gefahren und Probleme im Umfeld der Informatik
Mit zehn Zeichnungen von Ute Hamelmann
Prof. Dr. Albert Endres Iselerstr. 1 D-71067 Sindelfingen E-Mail: [email protected]
Prof. Dr. Rul Gunzenhäuser Manosquer Str. 41 D-70771 Leinfelden-Echterdingen E-Mail: [email protected]
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
In Zusammenarbeit mit der Gesellschaft für Informatik e.V. und dem Informatik-Forum Stuttgart e.V. sowie dem German Chapter der ACM
© 2010, Akademische Verlagsgesellschaft AKA GmbH, Heidelberg Verlag Akademische Verlagsgesellschaft AKA GmbH Postfach 10 33 05 D-69023 Heidelberg
Auslieferung HEROLD Auslieferung & Service GmbH Raiffeisenallee 10 D-82041 Oberhaching
Tel.: 06221 - 21881 Fax: 06221 - 16 73 55 [email protected] www.aka-verlag.com
Fax: 0049 (0)89 6138 7120 [email protected] www.herold-va.de
Das Werk ist in allen seinen Teilen urheberrechtlich geschützt. Jede Verwendung ohne ausdrückliche Zustimmung des Verlages ist unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung in und Verarbeitung durch elektronische Systeme.
Printed in Germany Drucker: buchbücher.de GmbH, Birkach ISBN 978-3-89838-633-3
Geleitwort der Association for Computing Machinery (ACM)
Längst haben die Informatik und ihre Hervorbringungen ihre ursprüngliche Domäne verlassen. Sie haben sich auf geradezu revolutionäre Weise aller Facetten unseres Lebens bemächtigt. Informatiker haben es geschafft die Produktivität nicht nur der Wirtschaft, sondern auch der Kriminellen und der Zeitgenossen mit niederen Instinkten ins Unermessliche zu steigern. Deren Niedertracht sind unbedarfte Benutzer wehrlos ausgesetzt. Gleichzeitig stehen wir vor einer explosionsartigen und unkontrollierten Zunahme von Daten und Informationen (auch privater Natur), die international vernetzt und dauerhaft verfügbar gemacht werden. Selbst für Experten wird es zunehmend schwieriger ihre Persönlichkeitsrechte zu wahren und ihre Privatsphäre zu schützen. Um lenkend eingreifen zu können ist ein Dialog zwischen Fachleuten und Betroffenen dringend angezeigt, auch um ein weiteres Problem zu mindern. Informatiker haben zurzeit ein niedriges Sozialprestige. Das mag daran liegen, dass Informatiker (im Gegensatz zu Ärzten oder Lehrern) sich mit der zwischenmenschlichen Kommunikation generell sehr schwer tun. Einen Hoffungsschimmer sehe ich mittelfristig in interdisziplinären Projekten. Sie zwingen dazu, dass die Parteien sich sprachlich und begrifflich auseinandersetzen und gezwungen sind auch solche Probleme zu lösen, die sich nicht formalisieren lassen. Die in diesem Buch angesprochenen Fragen beschäftigen Fachkollegen und Laien auf der ganzen Welt. Es freut mich, dass mit dieser Publikation (an der unser Gründungsvorsitzender Albert Endres als Ko-Autor beteiligt ist) die Diskussion um die Rolle und die Verantwortung von Informatiker(innen) in Deutschland neu belebt wird. Dem Buch wünsche ich eine hohe Akzeptanz und Verbreitung und hoffe, dass die Diskussion in Bahnen gelenkt wird, die der Bedeutung der Informatik für Wirtschaft, Wissenschaft und Gesellschaft gerecht wird.
Dipl.- Phys. Gerhard Schimpf, Vorsitzender des German Chapter of the ACM www.informatik.org
i
ii
Geleitwort der Gesellschaft für Informatik (GI)
Nicht allzu oft war es mir bisher vergönnt, die Geburt einer Buch-Idee mitzuerleben. Im Mai 2009 trafen sich die Fellows der GI zu ihrer jährlichen Sitzung, dieses Mal in Salzburg. Als Fellows zeichnet die GI seit 2002 Personen aus, die signifikante, herausragende Beiträge zur Informatik geleistet haben. Eine Arbeitsgruppe diskutierte das Bild der Informatik in der Öffentlichkeit und beklagte, dass bei der gesellschaftlichen Sicht auf die Informatik Berechtigtes und Unberechtigtes zu oft in einen Korb geworfen würde. Man könne und solle etwas tun, um mehr Klarheit zu schaffen und die Rolle der Informatik in der Öffentlichkeit zu diskutieren. Jetzt liegt ein Ergebnis vor: Das Buch „Schuld sind die Computer!“ liefert erstmals eine umfassende Sicht auf die Rolle der Informatik, wie sie von den unterschiedlichen Bevölkerungsgruppen wahrgenommen wird. Dabei scheuen die Autoren Albert Endres und Rul Gunzenhäuser nicht den Blick auf kontroverse Themen wie Kinderpornografie im Internet, den gläsernen Bürger oder das Suchtpotenzial von Computerspielen. Ich bin beeindruckt, wie viel Material sie in kurzer Zeit gesichtet, und mit welcher Akribie sie es bewertet haben. In ihrer Analyse formulieren die Autoren deutliche Standpunkte, die durchaus kontrovers gesehen werden sollten. Die einzelnen Beiträge des Buches erheben nicht den Anspruch, eine Konsensmeinung widerzuspiegeln oder eine kanonische Erklärung der Informatik zu liefern, sondern sie möchten zu einer offenen Diskussion über die Rolle der Informatik in unserer Gesellschaft anregen. Hierzu liefern sie einen wertvollen Beitrag. Der Akademischen Verlagsgesellschaft AKA danke ich, dass sie die Publikation dieser Arbeit übernommen hat. Möge das Büchlein sowohl unter Informatikerinnen und Informatikern aber auch bei Außenstehenden interessierte und aufmerksame Leser finden.
Prof. Dr. Stefan Jähnichen, Präsident der Gesellschaft für Informatik e.V. (GI) www.gi-ev.de
iii
iv
Geleitwort des Informatik-Forums Stuttgart (infos)
Seit der Gründung des Informatik-Forum Stuttgart e.V. (infos) im Jahre 1996 bietet dieses eine Plattform, die den Dialog zwischen der universitären Forschung, der Informatikausbildung und der IT-Wirtschaft in der Region Stuttgart intensivieren soll. Dazu dienen auch die infos-Broschüren. Wir freuen uns, hiermit unsern Mitgliedern als Sonderdruck die Publikation „Schuld sind die Computer!“ zur Verfügung stellen zu können. Sie beinhaltet Fragen und Antworten zu von der Informatik verursachten Ängsten, Gefahren und Problemen. Ausgehend von einer Initiative einer Arbeitsgruppe der Gesellschaft für Informatik e.V. haben Professor Dr. Albert Endres, Honorarprofessor unserer Fakultät Informatik, Elektrotechnik und Informationstechnik, und Professor Dr. Rul Gunzenhäuser sich bemüht, eine Reihe solcher Fragen zu sammeln, Fakten und Erklärungen für diese Probleme zu finden, ihre Ursachen zu ergründen, eine Bewertung der Situation vorzunehmen und schließlich Vorschläge zu machen, wie man „dem beschriebenen Problem, dem bestehenden falschen Bild oder der unangenehmen Situation bewusst und argumentativ entgegenwirken kann“. Diese infos-Broschüre soll dazu beitragen, den Dialog unter unseren Mitgliedern, unseren Studierenden und unseren Absolventen zu vertiefen. Die Autoren dieser Publikation würden sich über kritische Diskussionsbeiträge und vor allem über Vorschläge zur Erweiterung und Vertiefung ihrer Stoffsammlung sehr freuen. Beiden Stuttgarter Autoren ist infos zu Dank verpflichtet. Für die Gestaltung, die Druckabwicklung und das reibungslose Bereitstellen dieser Veröffentlichung danke ich der Akademischen Verlagsgesellschaft AKA in Heidelberg.
Prof. Dr. Ludwig Hieber, Vorsitzender des Informatik-Forums Stuttgart e.V. (infos) www.infos.informatik.uni-stuttgart.de
v
vi
Vorwort der Autoren Das Computerzeitalter im eigentlichen Sinne konnte beginnen, als die ersten Entwickler von elektronischen Rechenanlagen bereit waren, ihre neuen Maschinen auch für interessierte Dritte herzustellen, nämlich für ihre Kunden und Nutzer. Es sind genau 60 Jahre her, seit der deutsche Computer-Pionier Konrad Zuse seine Z4 einem Kunden übergab, nämlich der ETH Zürich. Fast genau so lange kommen elektronische Rechner auch außerhalb von Universitäten bei Firmen und Behörden zum Einsatz. Den Anfang machte im Jahre 1951 die (heute nicht mehr existierende) Firma Remington Rand mit der Univac I, worauf 1952 die IBM 701 folgte. Vor gut 50 Jahren wurde das Kunstwort Informatik geprägt, und zwar 1957 von Karl Steinbuch, der es erstmals in einer Veröffentlichung über eine Datenverarbeitungsanlage für das Versandhaus Quelle gebrauchte. Schon 40 Jahre lang gibt es in Deutschland die Gesellschaft für Informatik e.V. und Studiengänge im Fach Informatik. Inzwischen sind Computer und Informatik Alltagsthemen geworden. Computer sind nicht mehr Raum füllende Kolosse, die in unzugänglichen Hallen nur ausgewählten Spezialisten zugänglich sind, sondern sie befinden sich – oft in mehrfacher, unterschiedlicher Ausführung – auf fast jedem Schreibtisch, in Autos und Werkzeugen, in Tragetaschen und Hosentaschen oder am Gürtel von Geschäftsleuten, Rentnern und Jugendlichen (etwa in Form von Mobiltelefonen). Man hat bei Computern anfänglich von Generationen gesprochen, hat aber bald mit dem Zählen aufgehört, da die Generationenwechsel immer häufiger und dadurch nebensächlicher wurden. Computer dienen heute nicht nur der Speicherung unermesslich großer Datenmengen, seien es Texte, Bilder, Musikstücke oder Filme, dank des Internets sind sie auch zu einem Kommunikationsmittel erster Ordnung geworden. Sie ermöglichen weltweite Kontakte zu Freunden und Geschäftspartnern und sorgen für die zeitnahe Einbindung in die Ereignisse auf der ganzen Welt. Eine zweite und dritte (menschliche) Generation von Computernutzern und Informatikabsolventen übernimmt gerade die Verantwortung für das fachliche Geschehen. Informatikfachleute und Informatikanwender der ersten Generation waren nicht selten von Euphorie und überschwänglichem Optimismus beseelt, waren sie doch die Protagonisten des Neuen, des Fortschritts. Sie hatten oft keine Zeit oder keine Lust, sich Gedanken über die Nebenwirkungen ihrer Technik und ihrer Tätigkeit zu machen. Die Rolle, die Computer und Informatikanwendungen heute spielen, kann man eher mit der Energie- oder Wasserversorgung vergleichen. Sie sind ein unverzichtbarer Teil unserer Infrastruktur geworden. Sie sind um Größenordnungen wichtiger als vor Jahrzehnten, sind aber weniger auffallend und weniger Respekt einflößend. Außerdem richtet sich das Interesse vieler Menschen heute verstärkt auf Fragen der Nachhaltigkeit und der Lebensqualität anstatt auf Wirtschaftlichkeit und Wachstumspotenziale. Es kann nicht übersehen werden, dass es in unserer Gesellschaft schon immer eine gewisse Abwehrhaltung gegenüber Computern und ihren Anwendungen gegeben hat und vermutlich auch weiterhin geben wird. Diese kann sich in den verschiedensten Formen ausdrücken. Es können Ängste sein, Desinteresse, Kritik, aber auch offene Feindseligkeit. Informatikfachleute sind nicht nur gut beraten, diese negative Haltung zur Kenntnis, ja ernst zu nehmen. Es ist vielmehr Teil der professionellen Verantwortung von Informatikerinnen und Informatikern, die Ängste, Gefahren und Probleme der Nutzer zu verstehen und ihnen entgegen zu wirken. Aber nicht alle Kolleginnen und Kollegen sind dieser Meinung. Einige glauben, man könne vii
das Problem auswachsen lassen. Man solle den Zeitpunkt gelassen abwarten, wo es nur noch Menschen gibt, die mit Computern aufgewachsen sind und dadurch ein recht entspanntes Verhältnis zu ihnen entwickelt haben. Andere meinen, es reiche aus, gezielt auf einige wenige Probleme einzugehen und dann gegebenenfalls zu beschwichtigen. Andere – und wir rechnen uns dazu – sind der Meinung, dass auf die von einer neuen Technologie verursachten Probleme, Gefahren und Ängste vor allem diejenigen Fachleute Antworten anbieten müssen, die diese Technologie entwickelt und eingeführt haben. Wie anderswo, so gilt auch hier das Verursacherprinzip. Die Informatiker(innen) müssen auf manche Gefahren und Probleme von sich aus hinweisen, selbst wenn diese der breiten Öffentlichkeit noch nicht bewusst geworden sind. Vor diesem Hintergrund hat eine Arbeitsgruppe der Gesellschaft für Informatik e.V. (GI) vorgeschlagen, in zwei Richtungen tätig zu werden. Einerseits sollte man versuchen, die Vielzahl an negativen Haltungen bei den Nutzern der Informatik zu identifizieren und sich mit ihnen argumentativ auseinander zu setzten. Andererseits sollten Informatikerinnen und Informatiker angeregt werden, nicht nur über ihre eigene berufliche Sicht und ihre Anwendungen von Informatiksystemen nachzudenken, sondern auch mehr Verständnis für Anwender und deren Fragen und Probleme zu entwickeln. Die vorliegende Stoffsammlung ist ein Ergebnis dieser GI-Initiative. Es enthält Material, das teilweise für Laien, aber vorwiegend für Fachleute geeignet ist. Wir wenden uns mit dieser Veröffentlichung an Menschen, die an Computern und Informatiksystemen interessiert sind, diese nutzen und dabei über deren Vorzüge nachdenken, aber auch über deren negative Seiten. Die GI ist eine gemeinnützige Fachgesellschaft zur Förderung der Informatik in all ihren Aspekten und Belangen. Mit ihren heute rund 24.500 Mitgliedern ist sie die mitgliederstärkste Vertretung von Informatikerinnen und Informatikern im deutschsprachigen Raum. Angespornt und unterstützt wurde unser Vorhaben vom Informatik-Forum Stuttgart sowie dem deutschen ACM-Chapter. Mehrere Kolleginnen und Kollegen haben diese Arbeit auch inhaltlich beeinflusst. Für wertvolle Hinweise und Kommentare bedanken wir uns bei Manfred Broy, Ernst Denert, Jörg Desel, Hans Diel, Johann-Christoph Freytag, Walter Hehl, Heidi Heilmann, Ludwig Hieber, Peter Hiemann, Stefan Jähnichen, Jochen Koubek, Barbara Paech, Jürgen Reetz, Manfred Roux, Gerhard Schimpf, Dirk Taubner und Wolfgang Thomas. So ergiebig diese Hilfe auch war, für die Auswahl der Themen und die dargestellten Positionen sind jedoch nur wir verantwortlich. Wir freuen uns, dass wir die erforderlichen Freigaben erhielten, um den Text mit einer Reihe von Bildern und Grafiken ergänzen zu können. Besondere Aufmerksamkeit verdienen dabei die Karikaturen von Frau Ute Hamelmann alias Schnutinger. Sie verleihen unseren Ausführungen an einigen Stellen einen unerhofft menschlichen Bezug.
Stuttgart, im Dezember 2009
Albert Endres und Rul Gunzenhäuser
viii
Inhaltsverzeichnis Geleitwort der ACM……………….………………………………..…….………………..i Geleitwort der GI…………………………………………………………………………..iii Geleitwort von infos……………………..…………….……………………………………v Vorwort der Autoren….…………………………..……….……………….………………vii Inhaltsverzeichnis………………..………………………………………………………….ix 1. Einleitung ........................................................................................................................... 1 2. Sicht der Anfänger und der gelegentlichen Nutzer ............................................................ 5 2.1 Quelle von Frust ........................................................................................................... 5 2.2 Droge für Könner und Spieler ...................................................................................... 9 2.3 Schwarzes Loch für Daten ......................................................................................... 11 2.4 Virenschleuder und Datenmüll................................................................................... 14 2.5 Freiwillige Selbstentblößung...................................................................................... 17 3. Sicht der erfahrenen und professionellen Nutzer ............................................................. 19 3.1 Kaum Software ohne Fehler....................................................................................... 19 3.2 Friedhof für Projekte .................................................................................................. 23 3.3 Lock-in der Nutzer ..................................................................................................... 25 3.4 Hamsterrad Globalisierung ........................................................................................ 27 3.5 Überflutung mit Information ...................................................................................... 30 4. Sicht der in der Wirtschaft und Verwaltung Tätigen ....................................................... 35 4.1 Notorischer Job Killer ................................................................................................ 35 4.2 Energieverschwendung .............................................................................................. 37 4.3 Irrelevanz für Unternehmenserfolg ............................................................................ 38 4.4 Zunehmende Eigentumsdelikte .................................................................................. 40 4.5 Geistiges Eigentum in Gefahr .................................................................................... 41 4.6 Cyberkrieg .................................................................................................................. 45 4.7 Megarisiken ................................................................................................................ 47 5. Sicht der Gesellschaftspolitiker und Kulturinteressierten ................................................ 51 5.1 Gläserner Kunde und gläserner Bürger ...................................................................... 51 5.2 Großer Bruder ............................................................................................................ 53 5.3 Kinderpornografie und Cybermobbing ...................................................................... 56 5.4 Verblödung der Spezies Mensch................................................................................ 58 5.5 Soziale Vereinsamung................................................................................................ 62 5.6 Digital Divide ............................................................................................................. 64 5.7 Verschleunigung des Lebens...................................................................................... 67 5.8 Zerstörung der Kultur................................................................................................. 69 5.9 Untergang des Bildungswesens.................................................................................. 74
ix
6. Sicht der Wissenschaft und insbesondere der Philosophie .............................................. 81 6.1 Modell-Gläubigkeit statt Wissenschaft ...................................................................... 81 6.2 Mensch-Maschine-Mischwesen ................................................................................. 85 6.3 Angriff auf das Menschenbild.................................................................................... 87 6.4 Bösartige Maschinen .................................................................................................. 92 6.5 Ewiges Leben als Monster ......................................................................................... 94 7. Sicht auf Informatiker(innen) als Berufsgruppe............................................................... 97 7.1 Informatiker als Eigenbrötler ..................................................................................... 97 7.2 Verbreitetes Burnout-Syndrom ................................................................................ 100 7.3 Kein Beruf für Frauen .............................................................................................. 101 7.4 Praxisferne der Akademiker..................................................................................... 103 7.5 Pionier oder Trendhüpfer ......................................................................................... 106 8. Schlussbemerkungen ...................................................................................................... 111 Literatur .............................................................................................................................. 115 Anhang A Tabellarische Zusammenfassung der Aussagen des Buches ........................... 121 Anhang B Ausgewählte Erfindungen und Innovationen in der Informatik ...................... 123 Index................................................................................................................................... 125 Anmerkungen ..................................................................................................................... 128
x
1. Einleitung Trotz ihrer unbestrittenen Erfolge in Wirtschaft, Verwaltung und Wissenschaft haben Computer und Informatik in der Öffentlichkeit mit einem etwas diffusen und zwiespältigen Image zu kämpfen. Dieses Bild ist teilweise von negativen Schlagworten überschattet. Wir sehen wesentliche Gründe für diese Situation in folgenden Punkten. - Der in der Informatik besonders deutlich sichtbare technische Fortschritt löst bei manchen Menschen teilweise unbestimmbare Ängste aus. Manche Menschen fragen sich: Bedrohen Computer die Privatsphäre und die bürgerlichen Rechte? Behindern sie die Teilnahme aller am gesellschaftlichen und politischen Leben? Führen Sie gar den Überwachungsstaat herbei? George Orwells „Großer Bruder“ lässt grüßen. - Viele Menschen sehen in der Computer- und Internetnutzung regelrechte Gefahren. Kann ich ungewollt in Straftaten hinein gezogen werden? Besteht die Gefahr, dass viele Menschen nur noch mit informationstechnischen Medien kommunizieren und nicht mehr mit ihren Mitmenschen? Wird sich das Verbrechen der Kinderpornografie im Internet weiter ausbreiten? - Für viele Zeitgenossen wird die Computernutzung von unangenehmen, die Benutzer oft frustrierenden Problemen begleitet. So wird der Computer zum Schreckgespenst, wenn er in seiner Pedanterie wiederholt nach einfachsten Eingaben verlangt. Manchmal wird er aber auch zum nahe liegenden Sündenbock. Klappt eine Flugbuchung nicht oder verteilt eine Telefongesellschaft falsche Abrechnungen, dann heißt es „die Computer sind schuld“. - Auch die berufliche Tätigkeit der Informatiker wird nicht selten in einem schiefen Licht dargestellt, so dass in Deutschland dieser Beruf in seinem sozialen Ansehen hinter die Berufe von Ärzten, Richtern und Lehrern zurück gefallen ist. Das hat zweifellos Auswirkungen auf die Attraktivität des Informatikstudiums. Die Autoren dieses Textes waren ein Berufsleben lang in der Informatik tätig, sowohl in der Industrie, bei Entwicklern und Anwendern, wie an der Hochschule. Das färbte natürlich auf ihre Sichtweise der Dinge ab. Das Spektrum an Fragen, die wir im Folgenden stellen, betrifft die Informatik als Wissenschaft und Studienfach, ihre Methoden und Praktiken, ihre Produkte und Dienstleistungen, ihre Firmen und Organisationen sowie das Berufsbild und den Ruf der Informatiker(innen). Überall besteht Erklärungsbedarf. Der nachfolgende Text ist in der Kapitelfolge nach Gruppen von Betroffenen gegliedert. Diese haben ihre jeweils eigene Sichtweise auf die oben beschriebenen Probleme. Die folgenden Sichten lassen sich unterscheiden: - Die Sicht der Computeranfänger und der gelegentlichen Nutzer auf ihr neues oder selten benutztes Werkzeug und Kommunikationsmedium (Kapitel 2), - Die Sicht der erfahrenen und professionellen Nutzer auf mögliche Probleme mit Anwendungen, auf die sie sich gerne verlassen möchten (Kapitel 3) - Die Sicht der in der Wirtschaft und Verwaltung Tätigen auf Nutzen, Kosten und Risiken verbunden mit dem Einsatz von Informatiksystemen (Kapitel 4), - Die Sicht der Gesellschaftspolitiker und Kulturinteressierten auf potentielle Auswirkungen oder Nebenwirkungen von Computeranwendungen (Kapitel 5) und 1
- Die Sicht der Wissenschaft und insbesondere der Philosophie auf das Verhältnis zwischen Menschen und Informatiksystemen (Kapitel 6). Abschließend werden wir noch beleuchten, wie die Berufsgruppe der Informatiker(innen) von außen gesehen wird (Kapitel 7). Mit der Ausnahme von Kapitel 2 richten wir uns vorwiegend an Experten, also Leute, die zwar die Problematik kennen, aber ihrerseits Argumente benötigen, um Vorurteilen und Ungewissheit entgegen zu treten. Wir möchten in diesem Text die ganze Problematik pro-aktiv angehen, d. h. wir möchten möglichst viele Probleme ansprechen – auch auf die Gefahr hin, dass es sich dabei nur um vermutete oder gefühlte Probleme handelt. Wir wollen alle uns bekannten Vorwürfe ernst nehmen. Dass Sprünge zwischen den Themen auftreten werden und deshalb eine systematische Darstellung nicht zustande kommt, ist uns bewusst. Wir haben uns für jeden Abschnitt zu der folgenden allgemeinen Struktur entschlossen: - Die einzelnen Themenkreise werden mit einem eher negativ belegten Schlagwort eingeführt. Dieses ist bewusst etwas plakativ, ja mitunter klischeehaft gewählt. - Da nicht in allen Fällen klar umrissen ist, wo das Problem genau liegt, sollen zunächst einleitende Fragen dazu dienen, den jeweiligen Themenkreis zu beschreiben und abzugrenzen. Diese Liste von vielfach gestellten Fragen – auch als „Frequently Asked Questions“ (FAQ) anzusehen – soll dem Leser als Wegweiser dienen. - Danach wird versucht, die Sachlage so realistisch wie möglich zu diagnostizieren und darzustellen. Für diese Fakten und Erklärungen werden – wo immer dies geht – empirische Daten benutzt und anerkannte und nützliche Definitionen angeboten. Auch werden wir versuchen, die Ursachen des Problems anzusprechen. - Besonders wichtig ist es uns, eine Bewertung der Situation vorzunehmen und Vorschläge zu machen, wie man dem beschriebenen Problem, dem bestehenden falschen Bild oder der unangenehmen Situation bewusst und argumentativ entgegenwirken kann. Dabei wollen wir vernünftig begründete Meinungen vertreten. - In einem Unterabschnitt Weitere Information werden vor allem Hinweise auf weiterführendes Material angeboten. Sie sollen dem interessierten Leser helfen, der sich genauer informieren will. Für manche Fragen können nur Antworten gegeben werden, die über das Fachgebiet Informatik hinausführen. Das ist so wie bei vielen anderen Anwendungen der Technik, sei es bei der Energie-, Gesundheits- oder Verkehrstechnik. Hier sind Politologen, Philosophen und Soziologen gefordert. Soweit diese uns bekannt sind, haben wir Beiträge anderer Fachgebiete berücksichtigt oder verweisen auf sie. Der Anhang A fasst die wesentlichen Aussagen des Buches in tabellarischer Form zusammen. Schließlich bringt der Anhang B noch einen kurzen Überblick über wichtige Erfindungen und Innovationen aus der Informatik der letzten 30 Jahre. Damit wird der historische Rahmen abgesteckt, in dem die technische Seite unseres Faches sich entfaltet hat. Zu unserer Terminologie noch einige kurze Hinweise: Mit Computern oder Rechnern sind programmierbare elektronische Geräte gemeint, wobei die Hardware im Blickfeld steht. Dazu gehören sowohl Superrechner, die ein Gebäude ausfüllen, als auch Prozessor-Chips, wie sie in einem Mobiltelefon vorkommen. Von Informatiksystemen oder auch von IT-Systemen spre2
chen wir, wenn wir das Zusammenspiel von Hardware, Software und Daten betonen wollen. IT ist die Abkürzung des englischen Begriffs ‚Information Technology’. Als Informationstechnik bezeichnet man in Deutschland meist einen Zweig der Elektrotechnik, die frühere Nachrichtentechnik. Sowohl die Abkürzung IT als auch der Begriff Informationstechnik werden oft als Synonyme für Informatik verwendet. Manchmal dienen sie eher zur Abgrenzung von der als zu theoretisch empfundenen Informatik. Wann immer wir diese Bezeichnungen benutzen, erfolgt dies im erstgenannten Sinne. Ein Informatikprodukt kann nur aus Software, nur aus Hardware oder aus einer Kombination von beidem bestehen. Der Begriff Software umfasst alle Arten von Programmen, sowohl Anwendungs- wie Systemprogramme. Wird ein Sammelbegriff gebraucht für Daten verschiedenen Typs, also für Zahlen, Texte, Zeichnungen, Bilder und Töne, so sprechen Informatiker(innen) meist von Inhalten.
3
4
2. Sicht der Anfänger und der gelegentlichen Nutzer Schon ab dem Vorschulalter kommen heute viele junge Menschen mit Computern in Kontakt. Das setzt sich häufig in der Schule und außerhalb der Schule fort. Manche Jugendliche entwickeln sich schon frühzeitig zu Experten für spezielle Computeranwendungen, andere bleiben solchen technischen Systemen relativ fern bis zum Eintritt ins Studium oder ins Berufsleben. Auch viele Erwachsene bleiben ihr Leben lang nur gelegentliche Nutzer. Sie benutzen Rechner nur sporadisch, um beispielsweise einfache Schreibarbeiten oder den Postverkehr zu erledigen. Die Probleme dieses Abschnitts sind zwar aus der Sicht von Laien beschrieben, für ihre Lösung oder für die Beratung von Laien sind aber Experten zwingend erforderlich. Sie dürfen sich nicht zu schade dafür sein. Nicht zuletzt sind diese Probleme ein Bewährungsfeld für die wissenschaftliche Methodik der Informatik. 2.1 Quelle von Frust Fragen: Warum ärgern sich so viele Leute über ihren Computer? Wieso ist der Computer immer der Sündenbock, wenn etwas schief läuft? Was können Menschen tun, um besser mit einem Computer fertig zu werden und ihn besser zu nutzen, auch wenn sie keine Experten werden wollen? Fakten und Erklärungen: Die meisten Menschen, die einen Computer benutzen, merken dies überhaupt nicht. Denn die Mehrzahl aller derzeit betriebenen Rechner ist in andere technische Geräte eingebettet. Sie steuern diese Geräte, ohne dass sich der Nutzer dessen bewusst ist. Das gilt für viele Haushaltsgeräte, Werkzeuge, Telefone und Autos. Probleme gibt es meist nur dann, wenn ein Rechner in seiner Form und Funktion als persönlicher Rechner – auch PC genannt – im Büro oder zuhause zum Einsatz kommt. Viele seiner Nutzer, vor allem solche, die einen PC nur gelegentlich verwenden, sehen in ihm oft eine Quelle frustrierender Erlebnisse, ja ein Schreckgespenst. Manchmal ist das Verhalten eines PC überraschend und unerklärlich. Ohne erkennbaren Grund laufen die gewünschten Anwendungen einmal glatt, das andere Mal aber nicht. Die Maschine, die angeblich auf Logik basiert, verhält sich manchmal völlig unlogisch. In ihrer Pedanterie verlangt sie in oft geradezu beleidigender Weise, selbst einfachste Anweisungen und Daten syntaktisch korrekt einzugeben. Auch der Aufruf einer dem Nutzer geläufigen Anwendung beharrt oft auf einfachen, aber sehr rigide formulierten Anweisungen, die er stets streng einhalten muss. Auch bei Wiederholungen gleichartiger Vorgänge besteht der Computer auf in exakter Form zu wiederholenden, daher oft langweiligen Eingaben. Läuft bei der Bearbeitung selbst einfacher Vorgänge etwas nicht so wie immer, ist der wenig routinierte Nutzer oft rasch überfordert. Selbst einfache Briefe zu schreiben, kann mit einem unbestimmbaren Bedienungsproblem oder gar dem Absturz des Rechnersystems enden. Bedienungsanleitungen sind hier meist wenig hilfreich. Selbst die Inhalte von Lehrgängen für Anfänger sind oft mit Computer-Kauderwelsch überladen, das der künftige Nutzer kaum versteht und daher bald vergisst. Liefert ein Rechner schließlich Ergebnisse, die nicht ihren Erwartungen entsprechen, sind viele Nutzer erst recht hilflos. Die in Abb. 2.1 dargestellte Situation bezieht sich zwar auf ein Kopiergerät. Versucht man als Laie einen Computer zu reparieren oder umzubauen, ergeht es einem nicht viel besser. Computer sind sehr vielfältig einsetzbare technische Werkzeuge. Das ist der Grund sowohl für ihre Stärken wie für ihre Schwächen. Am Anfang ihrer Entwicklung waren sie nur bessere Rechenmaschinen, die Ingenieuren dazu dienten, komplexe Berechnungen schneller und zuverlässiger als bisher durchzuführen. Erst ab 1965 stellte sich heraus, dass Computer auch für die Verarbeitung von nicht-numerischen Daten geeignet sind (vgl. Gunzenhäuser (1968)). Heute kann man mit ihnen bequem Texte, Grafiken, Bilder, ja auch Musik und Filme als Dateien 5
speichern und bearbeiten. Auch wenn sich ein Nutzer nur für eine einzige dieser Tätigkeiten interessiert und sich dabei auf einfache wiederkehrende Teilaufgaben beschränkt, so bleibt die Grundstruktur und die Arbeitsweise eines Rechners immer dieselbe. Er muss aus all seinen Möglichkeiten den jeweils geforderten Verfahrensablauf auswählen und sich darauf konzentrieren. Das scheinbar unlogische Verhalten eines Rechners ist darauf zurückzuführen, dass nicht jeder Aufruf eines Programms, von dem wir glauben, dass er unter denselben Vorbedingungen erfolgte, genau dieselben „Arbeitsbedingungen“ des Rechners vorfindet. Meistens ist dafür folgender Umstand verantwortlich: Die Ereignisse, welche den Rechnerprozess steuern, treten in variierendem zeitlichem Abstand oder in verschiedener Reihenfolge ein. Es können aber auch Programmvariable eine Rolle spielen, die dem Nutzer unbekannt sind.
Abb. 2.1 Technische Herausforderung Bewertung und Vorschläge: Wir räumen ein, dass bezüglich der Nutzbarkeit von Büro- oder Heim-Computern die Informatikindustrie sich immer noch etwas schwer tut. Dabei ist dieses Thema gar nicht hoch genug anzusetzen, da es ja um die Akzeptanz von Rechnern geht, die sehr zahlreich auf dem Weltmarkt vertreten sind. Noch scheint man zu glauben, dass es genug Käufer gibt, für die diese Schwelle leicht zu überwinden ist. Ein zentraler Aspekt des Problems ist die Art, wie man als Nutzer einen Rechner steuert, d.h. ihm Befehle mitteilt. Man nennt dies seine Benutzungsoberfläche. Hier erfolgte vor fast drei Jahrzehnten der erste große Sprung von der reinen Text- und Zahleneingabe auf einer Tastatur zu den grafischen Oberflächen mit der direkten Manipulation von Objekten durch Mausklicks. Diese Technik erweitert sich gerade zur Bedienung mit berührungsempfindlichen Bildschirmen (engl. touch screens) aus. Die jetzt mögliche Spracheingabe oder die Erkennung von Gesten wird sicherlich für Autofahrer und Monteure von Vorteil sein, weniger jedoch für das breite Publikum. Sowohl bei der Eingabe von textlichen wie von sprachlichen Befehlen ist heute eine gewisse Fehlertoleranz durchaus üblich. So zeigt die Suchmaschine im Falle eines Tippfehlers ein ähnliches Wort und fragt, ob dies gemeint sei. Die Spracherkennungs-Software stellt laufend Vermutungen an. Die Versuche mit sich selbst an den Nutzer anpassenden, so genannten adaptiven 6
Oberflächen waren bisher nicht sehr erfolgreich. Sie haben den Nachteil, dass mühsam erworbene Erfahrungen verloren gehen, wenn sich die Schnittstelle zwischen Nutzer und System plötzlich verändert. Auch möchte niemand gern von einem Computer wieder in die Kategorie „Anfänger“ zurückgestuft werden, wenn man sich dreimal vertippt hat. Erfolgversprechender sind die Entwicklungen, die ganz ohne neue Oberfläche auskommen, oder wo der Rechner für den Nutzer gar nicht mehr sichtbar ist, ein Trend, der sich auch bei einigen im Büro oder Haushalt genutzten Geräten abzeichnet. Eine höhere Stufe der Komplexität ergibt sich, wenn immer der Nutzer sich selbst um die Installation und Wartung von Programmen und die Verwaltung von Daten und Dateien kümmern muss. Zwei Ansätze, dieses Problem anzugehen, wollen wir kurz beleuchten. Die eine Richtung zielt darauf, ein Rechnersystem nur als voll integriertes, geschlossenes System anzubieten. Man kann nur das benutzen, was vor der Auslieferung installiert und vom Hersteller geprüft wurde. Dieses Prinzip verfolgen z.B. Navigationssysteme und Mobiltelefone. Hier muss man – im Prinzip – nur einen oder zwei Knöpfe drücken, wenn man sich auf die ursprünglich vorgesehenen Funktionen beschränkt. Bei vielen Produkten dieser Kategorie ist aber ein gegenläufiger Trend nicht zu übersehen. Die schneller werdenden Rechner mit immer größerem Speicher ermöglichen es den Herstellern, den Nutzern viele zusätzliche Funktionen anzubieten. Aus Mobiltelefonen werden dann so genannte ‚Smart Phones’, die unterwegs alles das bieten, was sein Rechner im Büro schon kann, nämlich Termine planen, Tabellen berechnen, Texte edieren, E-Mails lesen und beantworten, Web-Seiten öffnen und Börsenkurse studieren. Dabei wird das Konzept des geschlossenen Systems meist verlassen. Ein Gegenbeispiel ist in dieser Hinsicht das iPhone der Firma Apple. Es stellt einen echten Durchbruch in Bezug auf seine Benutzerfreundlichkeit dar und hat den gesamten Markt in Bewegung versetzt. Nicht nur ist die Nutzungsoberfläche sehr intuitiv gestaltet, auch alle über 100.000 Anwendungsprogramme sind hervorragend integriert. Sie können allerdings nur über OnlineShops der Firma Apple bezogen werden. Das wurde zwar anfangs als große Einschränkung empfunden, erweist sich aber immer mehr als Vorteil – und das nicht nur für die Nutzer und Anbieter von Anwendungen, sondern auch für die Firma Apple. Es entstand eine kräftig sprudelnde zusätzliche Einnahmequelle. Ein anderer technischer Ansatz versucht zu vermeiden, dass einzelne Nutzer überhaupt Programme auf ihrem Rechner installieren müssen. Die benötigten Programme werden im Internet vorgehalten. Für den Nutzer entfällt damit nicht nur die Installation, sondern auch die Wartung von Software. Der Fachbegriff heißt Software als Dienst (engl. software as a service) oder „dünner Klient“ (engl. thin client). In diese Richtung arbeitet z. B. die Firma Google mit den von ihr angebotenen Programmen für Post- und Textbearbeitung. Es gibt inzwischen Nutzer, die glauben, dass sie ihre gesamten Informatikerfordernisse allein mit Produkten dieses Herstellers abdecken können – was natürlich deren Nutzung vereinfacht. Da neben den Programmen meist auch die zu verarbeitenden privaten Daten nur im Netz gespeichert werden, bekommen viele Nutzer Bedenken wegen der Vertraulichkeit dieser Daten. Das ist nicht ganz unberechtigt – wie wir später noch sehen werden. In der heutigen Situation besteht für einen Anfänger die beste Lösung meist darin, ein möglichst einfaches Gerät (mit ausreichender Speicherkapazität) zu erwerben, die Installation des Geräts und seiner wichtigsten Software-Funktionen von einem Experten durchführen und sich spezielle Fälle der Nutzung zeigen zu lassen. Leider geht der derzeitige Trend im Markt in eine etwas andere Richtung. Da Beratung teuer und Hardware billig ist, kauft man lieber ein etwas überdimensioniertes Gerät im Kaufhaus oder im Internet und hofft, dass man selbst damit klar kommt. In diesem Falle sollte man sich zunächst auf einfachere Anwendungen beschränken und diese dann schrittweise erweitern. Für den praktischen Umgang ist es rat7
sam, sich für häufig wiederholende Vorgänge einen Ablaufpfad einzuprägen oder aufzuschreiben Abb. 2.2 zeigt das Beispiel einer Handreichung für einen Laien. Dabei liegt der Schwerpunkt auf der Nutzung des Internets, einerseits um elektronische Post zu schreiben und zu empfangen, andererseits um mittels eines Browsers durch das Internet zu surfen.
Notebook und Betriebssystem (möglichst mit Stromkabel statt mit Batterie betreiben!)
Hochfahren durch Drücken des weißen Knopfes vorn mittig; Anmeldung als ‚xxxx’ beibehalten; es ist kein Kennwort erforderlich Ausschalten: Schaltfeld ‚Start’ unten links anklicken, dann Auswahloption ‚Herunterfahren’ wählen (zweimal). Dabei wird der Rechner automatisch abgeschaltet, evtl. mit Verzögerung wegen Updates
E-Mail (mit Google Mail)
Desktop-Symbol ‚Google Mail’ anklicken. Nutzername ‚yyyy’ und Passwort ‚zzzz’ eingeben (kann beides speichern, indem man eingeloggt bleibt). Dann das Wort ‚Anmelden’ anklicken Zum Lesen: Programm ist bereits auf ‚Posteingang’ eingestellt; nur einzelne Nachrichten anklicken; zum Antworten und Weiterleiten blaue Links unterhalb Text anklicken Zum Schreiben: Blauen Text (oben in linker Spalte) ‚EMail schreiben’ anklicken; Adressat eintippen, da kein Adressbuch vorhanden; Betreff und Textfeld ausfüllen Zum Absenden: Schaltfeld ‚Senden’ anklicken; evtl. vorher als Entwurf speichern E-Mail-Programm verlassen: Blaues Wort ‚Abmelden’ (oben rechts) anklicken, falls man nicht eingeloggt bleiben will
Internet (mit Google Chrome)
Desktop-Symbol ‚Google Chrome’ anklicken Normalerweise ein Bild der zuletzt besuchten WebSeiten anklicken; sonst ein Lesezeichen anklicken. Die zuletzt gespeicherten sind am rechten Rand offen gelistet, übrige muss man anzeigen lassen.
Abb. 2.2: Einfache Benutzungsanleitung (Beispiel) Es ist ratsam, zunächst möglichst alle zusätzlichen Details und alle weiteren Anwendungsmöglichkeiten zu ignorieren. Läuft dann trotzdem noch etwas nicht wie gewünscht, sollte man einen Experten fragen. Steht solcher Rat im Familien- oder Freundeskreis nicht zur Verfügung, sollte man ungeniert zu seinem Verkäufer gehen. Selbst wenn er die Kompetenz dazu nicht hat, fühlt er sich verpflichtet, jemanden zu finden, der helfen kann. Einen guten Ansprechpartner zu haben, sollte mit den Ausschlag geben, wenn es darum geht, wo man welches technische Gerät kauft. Der Händler muss nicht um die Ecke sein, eine Netzadresse oder 8
eine Telefonnummer reicht meistens. Angebote von Versandhändlern oder Händlern im Internet mögen auf den ersten Blick preisgünstiger sein. Dies stimmt aber nicht immer, wenn man die später evtl. nötige Unterstützung mit berücksichtigt. Für manche Nutzerprobleme kann man auch im Internet Auskunft bekommen, denn für fast jedes technische Gerät gibt es dort Diskussionsforen. Man muss sie nur finden, was durchaus Expertise erfordert. Für blutige Anfänger ist dies daher keine Lösung. Auch viele Anfängerkurse für die Bedienung und Nutzung komplizierter technischer Geräte sind didaktisch nicht auf der Höhe. Dass sie außerdem oft ein Gemisch aus deutschen und englischen Fachbegriffen verwenden, muss nicht sein. Es gibt nur wenige englische Fachbegriffe, für die sich kein deutsches Äquivalent eingebürgert hat, so etwa für Browser, Server und Software. Bei allen Anwendungen, bei denen numerische Ergebnisse geliefert werden, ist es ratsam stets eine Plausibilitätsprüfung im Kopf zu machen, also eine grobe Überschlagsrechnung. Das gilt insbesondere für Resultate der Tabellenkalkulation (engl. spread sheets). Liegen die Ergebnisse außerhalb des erwarteten Bereichs, sollte man als Erstes die Eingabedaten nochmals genau überprüfen. Führt dies zu keiner Klärung, sollte man sicherstellen, dass man das richtige Programm bzw. die richtige Version des Programms benutzt. Hat das alles nicht geholfen, sollte man die Möglichkeit eines Programmfehlers in Betracht ziehen. Bei der Tabellenkalkulation kann man selbst fehlerhafte Formeln und Eingaben suchen und selbst korrigieren. Bei andern Programmen ist die Fehlerbehebung erheblich schwieriger. Als Anfänger oder gelegentlicher Nutzer sollte man von der Verwendung eines fehlerhaften Programms Abstand nehmen, sofern der Fehler eine wesentliche Funktion betrifft. Näheres zu Software-Fehlern bringt der Abschnitt 3.1. Weitere Informationen: Einführungsmaterial für die Nutzung von Computern gibt es in jeder Buchhandlung oder im Internet. Das Problem besteht darin, das den eigenen Vorkenntnissen entsprechende Niveau zu finden. Ob ein Buchhändler dabei helfen kann, ist fraglich. Diese sind – von Ausnahmen abgesehen – in diesem Punkt meist überfordert. Bei Anfängerkursen der lokalen Volkshochschule und anderer Bildungseinrichtungen kann man auch die Dozenten oder frühere Teilnehmer befragen. Etwas ausführlichere Anleitungen zur Nutzung des Internets als in Abb. 2.2 wiedergegeben stammen von Günter Born (2009) und Philipp Kiefer (2009). Sehr zu empfehlen ist auch der von Informatikern und Psychologen der ETH Zürich gemeinsam entwickelte Einführungskurs1 ins Internet für Gymnasien und Berufsschulen. Er umfasst 66 Seiten und enthält Aufgaben mit Lösungen. Probleme, die Nutzer mit ihren Computern haben können, werden von einigen Autoren auf humorvolle Weise dargestellt, so von Joachim Graf (2002) und Randy Glasbergen (2003). 2.2 Droge für Könner und Spieler Fragen: Täuscht der Eindruck, dass viele Menschen von Computern fasziniert sind und von ihnen nicht mehr los kommen? Entwickelt sich daraus nicht manchmal eine Spielsucht mit krankhaften Entzugserscheinungen? Fakten und Erklärungen: Rechner sind – wenn man sie einigermaßen beherrscht – alles andere als langweilig. Sie stellen für jeden, der sie für eine neue Problemlösung selbständig nutzt oder gar selbst programmiert, eine Herausforderung dar. Man weiß es längst: Programmieren ist Gehirnsport. Der Vergleich mit dem Lösen eines Sudoku-Rätsels ist nicht ganz falsch. Der Unterschied liegt aber auf der Hand. Hat man ein Sudoku-Rätsel vollständig gelöst, weiß man, dass man fertig ist und dass die Lösung korrekt ist. Beim Erstellen eines Computer-Programms erreicht der Spaß (und auch der Stress) erst einen Höhepunkt, wenn man glaubt, das Programm sei fertig. Was man „gebastelt“ hat, ist zwar ausführbar, aber nicht immer optimal, häufig auch nicht korrekt. Es erinnert, wenn auch nur entfernt, an die Land9
schaften, die Kinder und Väter im Sand bauen, um anschließend Klicker laufen zu lassen. Man hat an beidem Spaß, dem Bauen und dem Laufenlassen der Kugeln. Nach jedem Lauf bekommt man Ideen, wie man die Konstruktion erweitern und verbessern könnte. Nur starke Charaktere können dem widerstehen. Oft läuft einfach die (Urlaubs-) Zeit davon. Eine ähnliche Erfahrung machen die Besitzer von Modelleisenbahnen. Manche Programmierer sind nach Erfolgserlebnissen geradezu süchtig. Sie betreiben ihren Beruf wie einen Abenteuersport. Haben sie ein Problem gelöst, was bisher als schwierig oder gar unlösbar erschien, stürzen sie sich gleich auf das nächste. Sie scheinen dabei einer neuen Krankheit – Computeritis genannt – verfallen zu sein. Sarkastische Beobachter drücken sich schon mal so aus, dass Programmierer immer an solchen Programmen arbeiten, die sie gerade nicht mehr verstehen oder nicht mehr voll im Griff haben. Wir geben freimütig zu, dass es diesen Typ von Programmierern gibt, sie sind aber nicht die Regel. Vor allem aber bestimmen sie nicht den Charakter von kommerziell erfolgreichen Produkten. Hier kommt es darauf an, die Füße auf dem Boden zu behalten. Mehr dazu in Abschnitt 7.1. Was über gewisse Programmierer gesagt wurde, gilt auch für bestimmte Arten von Anwendern, insbesondere für die Nutzer von Computerspielen. Es gibt kaum ein bekanntes Ein- oder Mehrpersonenspiel, für das es heute keine Computer-Version gibt. Dazu gehören Brettspiele wie Schach, Halma und Mühle, aber auch Kartenspiele wie Bridge, Rommé, Solitär und Skat. Fast jeden Tag kommen neue Spiele auf den Markt, sei es in der Kategorie Denksport, Glücksspiel, Abenteuer, Geschicklichkeit oder Simulation. Sehr aufwendige grafische Nutzungsoberflächen gestalten diese Spiele sehr „lebensecht“. Sie alle können allein, d.h. mit dem Rechner als Gegner, gespielt werden, oder aber mit an anderen Rechnern arbeitenden menschlichen Partnern. Viele der auf Computern oder im Internet angebotenen Spiele sind für ihre (meist männlichen) Nutzer so faszinierend, dass sie eine Spielsucht auslösen, genau so wie dies ihre traditionellen Versionen tun. Schon vor Jahrhunderten haben Menschen ihr Vermögen oder ihre Gesundheit beim Kartenspielen, beim Roulette oder beim Pferderennen verloren. Bewertung und Vorschläge: Nicht nur Ehepartner von Programmierern und/oder von Spielsüchtigen sind von solchen Problemen betroffen. Oft sind es auch die Manager oder Auftraggeber von Programmierern. Immer gibt es noch eine allerletzte Verbesserung, die noch gemacht werden soll. Hier muss das Umfeld unter Umständen hart sein, also die Angehörigen oder die Auftraggeber. „Gut genug“ ist ein Wort, das Programmierer nicht gerne hören oder gar verwenden. Bei (fast) allen Ingenieurtätigkeiten bleibt es aber eine Herausforderung, einen guten, für alle Partner akzeptablen Kompromiss zu finden. Sich zu entscheiden auf welche Funktionen man verzichten kann, um dennoch das Gros der Kunden zu befriedigen, verlangt oft tiefgehende Marktkenntnisse und Mut, den Verzicht durchzusetzen. Um keinen möglichen Kunden zu verlieren, fügt man dann lieber noch ein paar Schickschnacks hinzu, vor allem wenn sie keine Produktmehrkosten verursachen. Das ist bei Software meist der Fall, da der zusätzliche Speicherbedarf nicht ins Gewicht fällt. Bei sicherheitsrelevanten Aufgabenstellungen ist die Situation aber anders. Da sind Kompromisse fehl am Platz. Da hilft nur Präzision, Ausdauer und Geduld. Computerspiele muss man differenziert betrachten. Wenn ein älterer Mensch seine geistige Fitness per Fernschach trainiert, ist dagegen wohl kaum etwas einzuwenden. Auch können Kinder und Jugendliche viele Fähigkeiten und Fertigkeiten, die für sie nützlich sind, per Computerspiel entwickeln oder verbessern. Leider hat aber die Mehrheit der heutigen Spiele keinen erkennbaren erzieherischen Wert. Sie dienen oft nur dazu ‚Zeit totzuschlagen’. Bei Kindern und Jugendlichen sollte man diese Art von Spielen daher geschickt und konsequent 10
dosieren. Bei Erwachsenen ist dies kaum möglich. Von Spielsucht sprechen Psychologen, wenn ein Nutzer täglich mehr als vier Stunden beim Spielen verbringt und in der übrigen Zeit gereizt oder depressiv erscheint. Ein Abgewöhnen kann dann nur schrittweise erfolgen. Wenn in der Öffentlichkeit über Computerspiele diskutiert wird, stehen manchmal Gewalt verherrlichende Spiele (Killerspiele) im Mittelpunkt. Auf sie werden wir in Abschnitt 5.5 eingehen. Weitere Informationen: Das kleine Buch von Klaus Möller und Michael Ammann (2002) nimmt alle jene PC-Begeisterten (engl. freaks) auf die Schippe, die von einer Sucht befallen sind, die sie nicht mehr loslässt. 2.3 Schwarzes Loch für Daten Fragen: Warum treibt viele Benutzer die Angst um, dass die ihrem Computer anvertrauten wichtigen Daten unwiederbringlich verloren gehen oder in fremde Hände gelangen könnten? Kann man sich dagegen schützen und gegebenenfalls wie? Fakten und Erklärungen: Der Ausdruck Schwarzes Loch stammt aus der Astronomie. Damit ist ein Objekt gemeint, dessen Schwerkraft so groß ist, dass es alle andere Objekte in seinem Einflussbereich verschwinden lässt. Selbst Licht dringt nicht mehr nach außen. Dieses Bild passt zu der Vorstellung, die eine Nutzerin oder ein Nutzer oft von ihrem Informatiksystem haben. Die eingegebenen Daten sind plötzlich spurlos verschwunden. Man weiß auch nicht, wie man sie wieder herstellen kann. Daten können verloren gehen durch Hardware-Fehler, durch fehlerhafte Software oder durch Nutzerfehler. Obwohl Hardware-Fehler im Laufe der Zeit enorm an Bedeutung verloren haben, muss man sie immer noch in Betracht ziehen. Wenn zum Beispiel ein Schreibkopf nicht mehr richtig funktioniert, kann es passieren, dass überhaupt keine Zeichen übertragen werden, die später noch lesbar sind. Normalerweise wird jeder Schreibvorgang durch eine unmittelbar danach erfolgende Leseprobe gesichert, oder es werden zusätzliche Daten (so genannte Prüfbits) übertragen, mit deren Hilfe festgestellt wird, ob die richtige Anzahl von Bits korrekt übertragen wurde. Wird ein Datenträger nass, verbogen oder zerkratzt, besteht eine große Gefahr für die Inhalte. Auch können bei einem magnetischen Medium, das in den Einflussbereich eines starken Magneten gerät, die Daten verändert oder zerstört werden. Ein besonders gefürchteter Defekt, der zur Zerstörung großer Mengen von Daten führen kann, ist das „Festfressen“ des Schreib-/Lesekopfs bei einem Plattenspeicher (engl. disk head crash). Statistisch gesehen, sind diese Ereignisse zwar nicht sehr häufig, sie haben aber eine katastrophale Wirkung. Am schlimmsten ist es, wenn der ganze Rechner sich verabschiedet, was einem der Autoren (Endres) mit seinen privaten Rechnern dreimal in den letzten 20 Jahren passierte. Speichermedium Magnetbänder Disketten Festplatten Optische Speicher (CD, DVD) Halbleiter (USB-Stick)
Geschätzte Lebensdauer bis zu 30 Jahren 5-10 Jahre mehrere Jahre 5-10 Jahre bis zu 10 Jahren
Tab. 2.1: Technische Haltbarkeit von Medien (nach Brümmer2) Selbst Experten können heute keine verbindlichen Aussagen über die technische Haltbarkeit von Daten machen. Außer bei Magnetbändern fehlt die Erfahrung, die über mehr als etwa zehn Jahre hinausgeht. Deshalb sind die in Tab. 2.1 wiedergegebenen Werte nur sehr plausible Schätzungen. Sie stammen aus einem Beitrag zu diesem Thema von Hans Brümmer1 in 11
der Mitgliederzeitschrift der Deutschen Gesellschaft für Photographie (DGPh). In diesem Beitrag wird auch daran erinnert, dass Bücher keine unbegrenzte Haltbarkeit besitzen. Ein Großbrand in der Herzogin-Anna-Amalia-Bibliothek in Weimar im September 2004 hat bekanntlich rund 30 000 teils unersetzliche historische Bücher vernichtet. Es geht bei dieser Frage aber nicht allein um die physikalische Haltbarkeit, sondern auch um die verwendeten Datenformate. Sicherlich wird es in 40 bis 50 Jahren viele neue und leistungsfähigere Datenformate geben. Nicht alle der heute gängigen Formate sind dann noch durch die Hard- und Software eines jeden Nutzers lesbar. Ein typisches Problem ergibt sich daraus, dass die Hersteller nicht nur bei Technologiesprüngen, sondern alle vier bis fünf Jahre mit neuen Versionen von Betriebsystemen oder neuen Text- und Bilddatenbanken auch ihre Datenformate ändern. Selbst wenn diese Umstellung vollkommen maschinell durchgeführt werden kann, werden nie alle Daten umgestellt. Es wird oft nur das bearbeitet, von dem man annimmt, dass dafür auch in Zukunft ein Bedarf besteht. Dass wegen software-bedingter Fehler Daten verloren gehen, kommt schon öfters vor. Am häufigsten ist der Nutzer daran selbst schuld. Es kann sein. dass er einen falschen Befehl aufruft („Löschen“ statt „Speichern“) oder dass er den falschen Dateinamen auswählt. Besonders bei grafischen Oberflächen ist die Gefahr groß, dass man in einer Menüliste eine Zeile zu hoch oder zu niedrig gerät, vor allem wenn die Schriftgröße relativ klein gewählt ist. Haben wir bis jetzt Probleme angesprochen, die sich bei der Datenhaltung auf einem einzelnen Rechner einstellen können, so wird alles eine Dimension komplizierter, sobald wir es mit Rechnernetzen zu tun haben. Heute gibt es kaum noch Rechner, die nicht auf die eine andere Weise mit andern Rechnern verbunden sind. Immer mehr Anwender speichern ihre Daten nicht (nur) auf einem lokalen Rechner, sondern benutzen Speichermöglichen, die von verschiedenen Netzdiensten angeboten werden. Das bekannteste und wichtigste Rechnernetz ist das Internet. Wir benutzen heute oft die Ausdrücke Netz und Internet synonym. Das Internet setzt sich aus vielen kleineren lokalen Netzen zusammen. Sein Name ist eine Kurzform von ‚Interconnected Network’. Wer vom Internet spricht, meint sehr oft auch den Internetdienst World Wide Web – im Folgenden kurz Web genannt. Das Web ist die heute alles dominierende Anwendungsform des Internet. Denkt man bei dem Begriff Internet primär an die Hardware des Netzes, also die Rechner, die Speichermedien und ihre physikalischen Verbindungen, so assoziiert man mit dem Begriff Web eher die verwendete Software und die Inhalte der Web-Seiten. Das Web wird realisiert durch das Zusammenspiel der auf einem lokalen Rechner – dem Klienten – installierten Programme mit den Programmen in den diversen Knoten – den Servern. Eine zentrale Rolle spielt dabei ein Programmtyp – Browser genannt –, der die grafisch anspruchsvolle Gestaltung von Bildschirmseiten ermöglicht sowie deren leichte Verknüpfung mittels Hypertext basierter Verweise, auch Links genannt. In einer anschaulichen Darstellung wird das Web als Infrastruktur des elektronischen Datenverkehrs mit dem U-Bahnnetz einer Großstadt verglichen. Wenn wir im Netz einmal einen „Brocken“ für uns wertvoller Information gefunden haben, so ist es durchaus ratsam, davon unverzüglich eine Kopie auf den eigenen Rechner zu laden. Wollen oder können wir dies nicht tun, müssen wir uns die Netzadresse merken, den so genannten Unified Resource Locator (URL). Damit können wir ein Bild oder einen Musiktitel auch später aufrufen, vorausgesetzt er ist noch über die gleiche Adresse zugreifbar. Das muss aber nicht sein. Die Adresse kann sich geändert haben, das Datenelement wurde gelöscht oder der Rechner, auf dessen Speicher die Datei war, ist nicht mehr an das Netz angeschlossen. Wenn wir auch mittels eines Schlüsselworts und unter Verwendung einer Suchmaschine nicht mehr fündig werden, dann ist das gefundene Objekt für uns verloren. Wir können nur noch 12
konstatieren: „Lost in Cyberspace“. Dieser Ausdruck wird auch verwandt, wenn ein Nutzer im Netz sich von Knoten zu Knoten so lange durchgehangelt hat, bis er nicht mehr weiß, wo er sich befindet. Die Gefahr, dass eigene Daten in fremde Hände gelangen, besteht immer dann, wenn mehrere Nutzer Zugang zu demselben Rechner haben, oder wenn die Daten nicht lokal gespeichert sind. Der Zugriff kann von Seiten des Dritten unbeabsichtigt erfolgen oder mit Absicht. Mit dem letzteren Fall befassen wir uns ausführlich in Abschnitt 4.4. Die Schutzmaßnahmen sind in beiden Fällen aber die gleichen.
Abb. 2.3: Blinde-Kuh-Spiel Bewertung und Vorschläge: Um dem physikalischen Verlust von Daten vorzubeugen, werden jedem Nutzer regelmäßige Schritte zur Datensicherung dringend empfohlen. Der Kern aller Maßnahmen besteht darin, dass man von kritischen Daten regelmäßig Sicherungskopien – so genannte Backups – anfertigt. Eine tägliche Sicherung ist wohl nur dann erforderlich, wenn die Wiederherstellung der Daten nur mit sehr großem Aufwand möglich ist, etwa bei der Erstellung eines Buchmanuskripts. Eine wöchentliche Sicherung sollten sich aber auch private Nutzer angewöhnen. Es gibt Programme, die systematisch Backups machen, etwa alle zwei Stunden, und zwar von allem, was sich geändert hat – den so genannten Deltas. Der Vorteil ist, dass man den Vorgang nicht vergisst. Natürlich muss man sich auch dagegen schützen, dass archivierte Daten später ihres Formates wegen nicht mehr lesbar sind. Man kann dabei entweder solche Formate wählen, bei denen sich die zusätzliche Formatinformation leicht entfernen lässt (etwa ASCII für Text und TIFF für Bilder), oder aber man setzt auf die derzeit am meisten genutzten und verbreiteten Formate (z.B. Word für Text und JPEG für Bilder). Für ganz skeptische Leute gibt es zumindest bei Texten und Bildern immer noch die Möglichkeit, einen Papierausdruck zu machen und diesen ggf. später wieder einzuscannen. Für Musik, Ton und Video gibt es diese Backup-Lösung nicht.
13
Übrigens ist die Aufgabe, wertvolle vorhandene Daten und Informationen für die Nachwelt zu erschließen, Historikern und Philologen bestens bekannt. Die Werke griechischer Philosophen und Mathematiker wurden im Mittelalter bei der Umstellung von Papyrus auf Pergament oder von Groß- auf Kleinschreibung meist nicht mehr kopiert und damit gesichert. Einiges konnte jedoch gerettet werden, weil man den Datenträger, das Pergament, für christliche Texte wiederverwendete, wie z.B. der Archimedes-Kodex. Ob wir eine solche Möglichkeit in Zukunft auch für digitale Daten haben werden, ist nicht abzusehen. Weitere Informationen: Nicht nur für etwas Fortgeschrittene ist es sinnvoll, Software-Pakete einzusetzen, welche die Datensicherungen automatisch vornehmen. In dieser Hinsicht besonders ausgereift sind die Datenbanksysteme. Firmen betreiben ihre langfristige Datenhaltung fast ausschließlich mittels solcher Datenbanksysteme. Hier stehen oft mehrere von einander unabhängige Methoden der Datensicherung (wie Duplizierung, Protokollierung oder Zurücksetzung von Transaktionen) zur Verfügung. Da es von den bekanntesten Produkten meist Einstiegsversionen für private Nutzer gibt, lohnt es sich oft, auch im privaten Bereich davon Gebrauch zu machen. Aus der Vielzahl guter Bücher zum Thema Datenbanken seien nur drei erwähnt: Heuer/Saake/Sattler (2007), Kemper/Eickler (2006) und Lusti (2003). Diese Autoren sind bekannte Informatikprofessoren und an deutschen bzw. einer schweizerischen Hochschule tätig. Die Datenbank-Technologie ist nach wie vor eines der aktivsten Forschungsgebiete der Informatik. 2.4 Virenschleuder und Datenmüll Fragen: Was sind eigentlich Computer-Viren oder Trojanische Pferde? Welche anderen Arten von Schad-Software gibt es? Was können sie auf einem Rechner alles anrichten? Woher kommen die vielen unnötigen Spam-Nachrichten? Wie kann man sich gegen Viren und Spam schützen? Was kann nach einem Virenbefall gemacht werden? Fakten und Erklärungen: Viele Menschen denken beim Begriff Virus heute eher an eine bestimmte Art von „Krankheitsbefall“ eines Computer-Systems als an entsprechende Krankheitserreger in der Medizin. Ein Computer-Virus ist ein Programm, das sich in andere Programme oder in Dateien einschleust. Es kann durch den Austausch von Datenträgern (Diskette, CD-ROM oder USB-Stab) oder über eine Netzverbindung übertragen werden. Oft übernimmt das Virus die Kontrolle über den befallenen Rechner und verändert bestimmte Daten. Neben Viren gibt es bei Informatiksystemen noch weitere Arten von Schad-Software (engl.: malware), nämlich Würmer, Spione, Trojaner, Dialer und Service-Blockierer. Von einem Computer-Wurm spricht man, wenn sich das Programm primär über das Netz ausbreitet. Es benutzt die befallenen Rechner, um sich zu reproduzieren und ggf. weitere erreichbare Rechner zu befallen. Spione sammeln Informationen über die Tätigkeit des Nutzers und leiten diese an Dritte weiter. Eine besonders heimtückische Art von Spionen sind die Programme zum Erschleichen (engl. phishing) von Passwörtern oder Transaktionsnummern (TAN-Codes). Als Trojanisches Pferd (kurz Trojaner) wird ein Programm bezeichnet, das als Spion heimlich in einen Rechner geladen wird und dort ausharrt, bis es entweder von außen aktiviert oder durch einen internen Vorgang geweckt wird, etwa das Erreichen eines bestimmten Datums. Ein Dialer-Programm wählt vom Computer aus heimlich, d.h. vom Benutzer unbemerkt, einen fremden Rechner an, gibt vor, eine kostenpflichtige Dienstleistung zu benutzen, und rechnet diese etwa über die Telefonrechnung ab. Ein Service-Blockierer generiert soviel unsinnigen Netzverkehr, dass ein als Server dienender Rechner seine normalen Aufgaben im Netz nicht mehr wahrnehmen kann. Oft steht der Ausdruck Virus stellvertretend für alle Arten von SchadSoftware.
14
Laut Angaben eines Herstellers von Antiviren-Software werden täglich weltweit etwa 60 neue Schädlinge entdeckt. Gemeint sind neuartige, bisher nicht bekannte Programme. Sie werden häufig von Jugendlichen programmiert, die damit ihre mentale Leistungsfähigkeit demonstrieren wollen. Nur in Ausnahmefällen spielt kriminelle Energie mit hinein. Vor Jahrzehnten waren vor allem die USA das Ursprungsland von Viren (und Antiviren-Software). Danach verlagerte sich der Schwerpunkt nach Westeuropa und Japan. Zurzeit liegen China, Brasilien und Osteuropa an der Spitze. Auch bei der Anzahl der von Viren betroffenen Computersysteme liegen diese Länder zurzeit vorne. Einer der Marktführer für Antiviren-Software ist heute die russische Firma Kaspersky mit Stammsitz in Moskau. Bei der letzten großen Attacke durch einen Computer-Wurm griff der Wurm Conficker ab November 2008 weltweit Rechner an, die das Betriebssystem Windows3 von Microsoft benutzten. Er blockierte die Benutzung mehrer Windows-Dienste, unter anderem den Aufruf sämtlicher Herstellerseiten von Antivirenund sonstigen Sicherheitsprogrammen. Bis Juni 2009 waren etwa sechs Millionen Rechner auf der ganzen Welt infiziert. Wie von Lawton (2009) berichtet, verteilte sich der relative Anteil der infizierten Rechner wie in Tab. 2.2 angegeben. Daraus aber die Schlussfolgerung zu ziehen, dass man für Mitteleuropa Entwarnung geben kann, wäre verfrüht. Der Wurm bestach übrigens nicht durch originäre Konzepte, sondern bestand aus einer cleveren Kombination bekannter Ideen und Bausteine. Rang 1 2 3 4 5 6 7 8
Land
Prozentanteil
China Brasilien Russland Südkorea Vietnam Indien Ukraine Indonesien
16,6 10,8 10,2 4,6 4,5 4,1 3,6 2,9
Tab. 2.2: Verbreitung des Conficker-Wurms (Quelle Lawton (2009)) Offensichtlich üben große Rechnersysteme oder weltweite Rechnernetze auf viele Leute denselben Zwang zu Aktionen aus wie nackte Betonflächen auf Graffiti-Sprayer. Leider können auch eigens aufgestellte Übungswände weder Autobahnbrücken noch Bahnhofshallen vor solchen „Künstlern“ schützen. Manche Software-Akrobaten, die sich sehr dagegen wehren, mit dem Schimpfwort Hacker belegt zu werden, lassen sich nicht davon abhalten, intakte Informatiksysteme anzugreifen und in ihrem Betrieb zu stören. Manche bilden sich sogar ein, einen für die Gesellschaft nützlichen Dienst auszuüben, denn sie rechnen sich zugute, leichtfertige Nutzer auf die Schwachstellen ihrer Systeme hinzuweisen. Das ist wohl so, wie wenn Polizisten regelmäßig Bankeinbrüche durchführen würden, um den betroffenen Banken zu zeigen, wie schlecht ihre Tresore gesichert sind. Den Namen ‚Hacker’ hat sich in den 1950er Jahren eine Gruppe von Programmierern am MIT in Boston zugelegt, weil sie in der Lage waren, Programme und Daten in fremden Rechnern direkt zu verändern (vgl. Steven Levy (1984)). Sehr lästig können unerwünschte E-Mail-Nachrichten werden. Nach einem bei US-Soldaten nicht sehr beliebten Dosenfleisch wird dieser Datenmüll meist als Spam (Abkürzung für ‘spiced pork and ham’) bezeichnet. Es wird geschätzt, dass der Umfang dieser „Postwurfsendungen“ heute etwa 90% des Internet-Verkehrs ausmacht. Das entspräche über 100 Milliarden Nachrichten pro Tag. Nicht nur der Ärger sondern auch der wirtschaftliche Schaden, den dieses ungewollte Störfeuer bei den Nutzern anrichtet, ist enorm. 15
Bewertung und Vorschläge: Die Schäden, die Viren und verwandte Eindringlinge anrichten können, darf nicht unterschätzt werden. Ein solcher Schaden kann vom Verlust einer einzelnen Datei bis zur Blockierung eines ganzen Rechners reichen. Für den Befall mit Viren gibt es stets gewisse zeitliche Häufungen. Ist einmal ein halbes Jahr lang Ruhe an der Front, dann können plötzlich neue Angriffe im Stundenintervall erfolgen. Dass Firmen und Behörden sich gegen solche Schad-Software gründlich schützen müssen, liegt auf der Hand. Aber auch für private Nutzer kann es ärgerlich werden, wenn sie von einem Virus befallen werden. Bei jedem Rechner, der mit dem Internet verbunden ist, ist es daher unerlässlich, ein AntivirenProgramm zu installieren. Dieses versucht nicht nur, Viren im engeren Sinne zu erkennen und zu eliminieren, sondern findet auch Würmer, Trojaner und Dialer. Je nach der Art des Befalls kommen unterschiedliche Rettungsmaßnahmen in Betracht. Meist hilft bereits der Aufruf und die Ausführung eines Antiviren-Programms, um sein System zu reparieren; manchmal kann aber nur ein Experte helfen. Besonders lästig ist, wenn Schadprogramme einen befallenen Rechner dazu benutzen, um andere von dort aus erreichbare Rechner anzugreifen – was bei Viren und Würmern der Normalfall ist. Will man nicht bei Freunden und Bekannten in Misskredit geraten, muss man einen solchen Rechner schnellstmöglich vom Netz nehmen, d.h. zumindest alle Netzverbindungen trennen. Wie in der Medizin verändern sich auch die Computer-Viren laufend. Deshalb kennen die Abwehrprogramme nur diejenigen Programmiertricks, die bisher verwandt wurden. Bei neuen Viren muss man die „Einstiegsweise“ zuerst analysieren und verstehen, ehe man ein Gegenmittel hat. Antiviren-Programme müssen also laufend aktualisiert werden, zumindest in einem wöchentlichen Rhythmus. Es werden dann jeweils die neuesten Muster geladen, mit denen man bekannt gewordene Schädlinge erkennen kann. Sämtliche bekannten Firmen der Branche, wie McAfee, Norton und Kaspersky, arbeiten in weltweiten Netzen zusammen, um neue Viren möglichst schnell zu erkennen und Gegenmittel zu entwickeln. Wird die Virenplage eines Tages enden? Unsere Antwort ist leider Nein. Je größer die Bedeutung von Computern in Wirtschaft und Gesellschaft wird, umso mehr fühlen sich Kriminelle und Kleinganoven herausgefordert, mit ihnen ihr Spiel zu treiben. Zu glauben, dass sie eines Tages die Lust verlieren, wäre zuviel erwartet. Für das Abblocken von Spam bieten viele E-Mail-Dienste so genannte Spam-Filter. Solche Programme erkennen manche der Spammer an ihren Adressen oder an der Betreffzeile. Man kann aber auch selbst Einiges tun. Man sollte sich keine Adresse zulegen, die leicht automatisch zu generieren ist (etwa [email protected]). Man sollte auch seine E-Mail-Adresse nur bekannten Personen und Geschäftspartnern mitteilen, d.h. sie nicht in öffentliche Foren stellen. Deshalb ist es sinnvoll, sich zusätzliche Adressen zuzulegen, die man – sollten die Nachrichten dort von Viren befallen sein – einfach löschen kann. Schließlich ist es wichtig, dass man Spam-Nachrichten nie beantwortet. Das würde nämlich dem Spam-Absender bestätigen, dass die Adresse gültig ist und jemand hier die Post liest. Die Versender von Spam machen sich einen Geburtsfehler des Internet zunutze, der auf sein Entstehen an Hochschulen und Forschungseinrichtungen zurückzuführen ist. Die Einrichtung und der laufende Betrieb der EMail-Server wurden ursprünglich fast ausschließlich mit öffentlichen Mitteln bezahlt. Auf eine Portogebühr wurde verzichtet. Würde jede E-Mail nur einen Euro-Cent kosten, gäbe es das Spam-Problem in seiner heutigen Form nicht. So aber geht das Geschäftsmodell der Spammer auch dann auf, wenn sie zehn Millionen Werbenachrichten verschicken müssen, um einen einzigen Verkauf zu tätigen. Weitere Informationen: Für fortgeschrittene Nutzer und Experten ist die beste Quelle zum Thema Schad-Software in Deutschland das Bundesamt für Sicherheit in der Informationstechnik (BSI)4. Diese Behörde berät Firmen, Organisationen und Bürger bezüglich vieler Fra16
gen im Zusammenhang mit der Sicherheit von Rechnern. Sie informiert über alle aktuellen Bedrohungen und liefert außerdem gute Definitionen aller einschlägigen Fachbegriffe. Aus der Vielzahl der Bücher, die sich mit dem Thema Computer-Viren befassen, seien zwei herausgegriffen. Bei Herbert Klaeren (2006) sind Viren, Würmer und Trojaner zwar im Titel hervorgehoben, sie sind aber nur ein Thema neben anderen. Das Buch von Eugene Kaspersky (2008) reflektiert die Erfahrungen eines erfolgreichen Entwicklers von Anti-Viren-Software. 2.5 Freiwillige Selbstentblößung Fragen: Kann man das Internet überhaupt benutzen, ohne seine Identität oder wichtige Persönlichkeitsmerkmale der Öffentlichkeit preisgeben zu müssen? Welche Folgen kann eine solche Preisgabe haben?
Abb. 2.4: Bettgespräch Fakten und Erklärungen: In Computernetzen herrschten von Anfang an sehr kollegiale Umgangsformen. Das rührt daher, dass – wie schon erwähnt - die ersten Netze an Universitäten und (militärischen) Forschungseinrichtungen entstanden und von ihren Mitarbeiterinnen und Mitarbeitern kollegial und offen genutzt wurden. Erst langsam haben sich kommerzielle Dienste für diesen Informations- und Nachrichtenaustausch interessiert und sich engagiert. Etwa seit 2005 gibt es eine neue Phase in der Nutzung des Web, die weit mehr ist als das Angebot von dokumentierten Web-Seiten und ihren Verknüpfungen. Sie wird heute von Netzdiensten wie eBay, Facebook, Flickr, LinkedIn, MyPlace, StudVZ, Wikipedia, Xing und Youtube bestimmt. Der Verleger Tim O’Reilly5 hat hierfür den Ausdruck ‚Web 2.0’ geprägt. Das Internet hat sich damit zum „Mitmach-Web“ weiterentwickelt. Die von vielen Nutzern bereitgestellten Inhalte spielen jetzt eine maßgebende Rolle. Schüler, Studenten, Allergie-Patienten, Bienenzüchter oder Briefmarkensammler und viele andere Gruppierungen können damit einfach fachliche und auch persönliche Informationen austauschen. Das Internet hat mit dem Web 2.0 sozusagen die Rolle von früheren „Kaffeekränzchen“ übernommen und beträchtlich ausgeweitet. Viele junge Leute, die sich vorher nicht kannten, treten über das Netz in Kontakt. Es entstehen neue Freundschaften, es werden Verabredungen getroffen und erfolgreich Tanz-
17
und Heiratspartner gefunden. Diese sehr offene Art von elektronischen Diensten verführt ihre Nutzer häufig dazu, (zu) viel Information über ihre persönliche Identität preiszugeben. Mit persönlicher Identität ist hier das Bild gemeint, das sich die Mitwelt von einem bestimmten Menschen macht. In einer Dorfgesellschaft war man oft ein ganzes Leben lang an ein solches Bild gebunden, es sei denn, man verließ das Dorf rechtzeitig. In einer Großstadt ist es wesentlich einfacher, seine Identität zu verändern. Im Internet ist dazu kaum mehr als ein Klick erforderlich. Wie man sich in Wort und Bild darstellt oder was man sonst von sich preisgibt, mag solange als Spielerei erscheinen, so lange man annehmen kann, dass man es nur mit Menschen der gleichen Altersstufe und den gleichen Interessen zu tun hat. Man kann aber nie ausschließen, dass dieselben persönlichen Daten auch einem potentiellen Arbeitgeber zugänglich sind oder auch einem etwas abwegig veranlagten Mitbürger wie einem Pädophilen oder einem Stalker. Viele Arbeitgeber sollen vor Einstellungen regelmäßig im Internet nachsuchen, ob ein Bewerber eine Vorgeschichte hat oder mit dummen oder extremen Meinungsäußerungen aufgefallen ist. Mit Pädophilen sind Menschen gemeint, deren sexuelles Interesse sich auf Kinder richtet. Ein Stalker stellt seinem Opfer nach und belästigt es in grober Weise, und das nicht nur in der realen Welt, sondern auch über elektronische Medien wie Telefon oder Internet. Für Letzteres gibt es den Begriff Cyberstalking. Bewertung und Vorschläge: Fachleute, die sich schon sehr frühzeitig mit Computersicherheit befassten, wurden damit überrascht, wie schnell sie ihr Weltbild ändern mussten. Waren sie früher darum besorgt, wie sich normale Nutzer gegen Zugriffe von außen, etwa vom „Großen Bruder“ (siehe unten), schützen können, so müssen sie jetzt die Nutzer dringend warnen, nicht zu viel Information über sich selbst freiwillig ins Netz zu stellen. Eine einfache Faustregel lautet: Alles was man nicht auf eine Postkarte schreiben oder einer Werbebroschüre anvertrauen würde, gehört auch nicht ungeschützt ins Netz. Im Auftrag des Bundesfamilienministeriums hat jugendschutz.net, eine von den Jugendministern der Länder gegründete Initiative, eine Broschüre6 erstellt, die Kindern bei den ersten Schritten im Netz helfen soll. Die Broschüre informiert über Gefahren im Netz und lehrt den kompetenten Umgang mit dem Internet, sie thematisiert Online-Werbung, Verbraucherschutz und Filtersoftware. Auf einem bunten Plakat, das man herunterladen kann, werden für Kinder und Eltern Regeln angegeben, wie man sich im Netz verhalten soll. Zwei der für Kinder gedachten Regeln lauten: „Informationen über mich, die Familie und Freunde gebe ich nie online weiter“ und „Mit Cyber-Freunden treffe ich mich nicht“. Für Jugendliche und junge Erwachsene, die fremde Menschen einschätzen und mit ihnen umgehen können, sind solche Regeln natürlich etwas zu lockern. Aber auch ihnen sollten die im Web bestehenden Gefahren stets bewusst gemacht werden. Weitere Informationen: Wer sich nicht selbst darum kümmern kann (oder will), was über ihn im Internet zu finden ist, kann dafür auch andere Leute engagieren. So bieten sich verschiedene Firmen an, laufend Einträge über bestimmte Personen zu verfolgen und die dafür verantwortlichen Internet-Dienste zu bitten, ungewünschte Einträge zu entfernen. Ein solcher Dienst nennt sich ‚Dein guter Ruf’7. Er übernimmt die Identifizierung des Betreibers der entsprechenden Web-Seite und droht ggf. mit Rechtsmitteln. Wie junge Menschen auf das Internet reagieren, haben John Palfrey und Urs Gasser (2008) ausführlich beschrieben. Sie haben dabei nicht nur ihre Erfahrungen als Väter (einer in den USA, der andere in der Schweiz) wiedergegeben, sondern auch einschlägige Umfragen ausgewertet. Als Juristen geben sie nützliche Ratschläge an Eltern, Lehrer, Software-Hersteller und den Gesetzgeber.
18
3. Sicht der erfahrenen und professionellen Nutzer Eine wichtige und immer größer werdende Gruppe von Nutzern sind die Menschen, die beruflich tagein tagaus mit Computern zu tun haben. Rechner bilden oft die Grundlage ihrer Erwerbstätigkeit, sei es als Arzt oder Ingenieur oder auch als Sachbearbeiter oder Handelsvertreter. Sie fühlen sich von der Besonderheit dieser Technik angesprochen, erkennen ihre Vorteile und bemühen sich, sie so effizient es geht einzusetzen. Sie treffen auch Entscheidungen, welche die Auswahl und den Einsatz von Rechnern und deren Software betreffen. Einige der in diesem Kapitel besprochenen Probleme sind auch für professionelle Software-Entwickler von Interesse, obwohl wir uns hier nicht primär an sie wenden. 3.1 Kaum Software ohne Fehler Fragen: Warum enthalten Programme, auch dann wenn sie schon lange in der Praxis eingesetzt sind, immer noch Fehler? Was ist überhaupt als Fehler anzusehen? Was können Entwickler tun, um Fehler zu vermeiden oder zu eliminieren? Sind fehlerfreie Programme überhaupt möglich? Was bedeutet dies für den Anwender? Fakten und Erklärung: Über kaum ein Thema in der Informatik wird so kontrovers diskutiert und so häufig geschimpft wie über Software-Fehler. Geht mal eine Flugbuchung verloren oder ist eine Abrechnung falsch, dann ist stets Software der Sündenbock. Dass sogar ein früherer Bundeskanzler sich über seine Telefonrechnungen mokierte, ist uns noch gut im Gedächtnis. Das Dilemma beginnt damit, dass es keine einhellige Meinung darüber gibt, was alles als „Fehler“ angesehen werden muss. Damit können selbst Fachleute ihre Schwierigkeiten haben. Als Beispiel sei ein bekannter amerikanischer Informatikprofessor erwähnt, der sich bei einem Vortrag in Deutschland über die mangelnde Qualität des von ihm benutzten Textverarbeitungsprogramms beschwerte. Das Programm würde stets versuchen, den Namen seiner Firma, der mit einem kleinem ‚i’ vor einem großen Buchstaben beginnt, zu korrigieren. Diese Beschwerde fand Widerhall in vielen deutschen Tageszeitungen. Jeder Benutzer dieses Programms weiß aber, dass man in seinem Falle entweder die automatische RechtschreibeKorrektur abschalten oder aber den Eigennamen in der gewählten Schreibweise dem Lexikon hinzufügen kann. Dass dem Kollegen nicht unmittelbar widersprochen wurde, deutet auf die merkwürdige Art hin, wie viele Akademiker auf die industriellen Informatikprodukte sehen, nämlich aus gehöriger Distanz und vorwiegend kritisch. Dazu später mehr. Einige besonders bekannte Beispiele von Software-Fehlern fanden ein weltweites Echo, so das Jahr-2000-Problem (im Englischen auch Y2K Problem genannt) und der Fehler, der zum frühzeitigen Absturz der Weltraum-Rakete Ariane 5 führte. An diesen beiden Problemen lassen sich mehrere Eigenschaften von Software-Fehlern erklären. Vorweg sei bemerkt: Software-Fehler entstehen nicht durch Abnutzung und Verschleiß, sondern genau umgekehrt. Sie waren von Anfang an im Programm, fielen aber bei der vom Hersteller geplanten Nutzung nicht auf. Erst bei Anwendungssituationen, an die die Entwickler nicht gedacht haben, wirken sie sich aus. Im Falle des Jahr-2000-Problems (vgl. Glass (2000)) ging es darum, dass viele Programmierer bei Programmen, die vor 20 oder 30 Jahren entstanden sind, aus Speicherplatzgründen bei Datumsangaben nur die beiden letzten Stellen der Jahresangabe verwendeten. Beim Übergang vom 31.12.1999 auf den 1.1.2000 wurden überall auf der Welt Verwechslungen der Jahre 1900 und 2000 befürchtet und falsche Berechnungen sowie Systemzusammenbrüche erwartet. Dem wurde – teilweise durch enorme Anstrengungen eilends zusammengesuchter ehemaliger Programmierer – überall auf der Welt entgegen gearbeitet. Zum Glück kam es am Neu19
jahrstag des Jahres 2000 zu keinen Katastrophen. Es stürzten weder Flugzeuge ab, noch wurden Kraftwerke abgeschaltet. Ob es bei einem Versicherungs- oder Darlehensvertrag zu Verwirrungen kam, weil das Rückzahlungsdatum vor dem Vertragsabschluss lag, ist nicht bekannt. Genau genommen handelt es sich hier um einen Fehler in der Anforderungsdefinition. Die Fehlerursache bestand darin, dass vor 20 oder 30 Jahren kaum jemand glaubte, dass Programme derart lange fast unverändert eingesetzt würden. Eine Ausnahme bildete der russische Kollege Andrej Erchov, der schon 1972 auf einer Tagung in Edinburgh bemerkte, dass wir uns doch damit abfinden sollten, dass ein Betriebssystem wie OS/360 auch noch im Jahre 2000 in Benutzung sein könnte. Die meisten Zuhörer haben sich damals über diese Aussage ziemlich gewundert. Für das Navigationssystem8 der Weltraumrakete Ariane 5 wurde eine Programmversion verwandt, die schon bei früheren Raketen desselben Typs eingesetzt war. Beim Jungfernflug am 4. Juni 1996 produzierte die Software aber Zahlenwerte in einem Bereich, der früher nicht vorkam. Das führte zu einem arithmetischen Überlauf und damit zu einer Programmunterbrechung. Obwohl die berechneten Werte für den aktuellen Flug bedeutungslos waren, wurde der Flug abgebrochen und die Rakete gesprengt. Hier zeigt sich, dass die Symptome eines Programmfehlers oft nur sehr schwer auf die Ursache des Fehlers schließen lassen. Seit über 30 Jahren gibt es statistische Untersuchungen über die Art, die Ursachen und die Häufigkeit von Software-Fehlern. Bei der Art oder dem Typ eines Fehlers wird unterschieden zwischen Fehlern, welche die Funktionalität des Systems, seine Leistung, seine Sicherheit oder seine Benutzbarkeit betreffen. Zu letzterem gehören auch Dokumentationsfehler, d.h. Fälle, wo das System zwar tut, was es soll, aber die Beschreibung falsch ist. Für den Entwickler ist die Ursache des Fehlers am wichtigsten. Um hier weiterzukommen, stellt man sich die Frage, was hätte anders sein müssen, damit dieser Fehler nicht entstanden wäre. Man beginnt damit festzulegen, wann, also in welcher Entwicklungsphase der Fehler entstanden ist. Abb. 3.1 aus einer Veröffentlichung von Ram Chillarege (1992) – und seiner Kollegen von der Firma IBM – fasst zwei dieser Fragestellungen zusammen, nämlich: Wann ist welcher Typ von Fehlern entstanden?
Abb. 3.1: Verteilung von Software-Fehlern (nach Chillarege et al.) In Wirklichkeit ist dargestellt, wann welcher Fehlertyp entdeckt wurde. Er muss also vorher entstanden sein. Die eingezeichnete, nach rechts abfallende Kurve zeigt die absoluten Zahlen, ausgedrückt in Fehlern pro Tausend Code-Zeilen. Die senkrechten Balken veranschaulichen die folgende Erfahrungsregeln: (a) In der Entwurfsphase – und der hier nicht gezeigten Definitionsphase – liegt das Hauptproblem bei der Erfassung der richtigen Funktionalität; (b) beim 20
Modultest machen sich Fehler in der Berechnung und Zuordnung von Werten verstärkt bemerkbar; (c) bei der Systemintegration überwiegen die Schnittstellenprobleme und (d) im Systemtest tritt das Zeitverhalten in den Vordergrund. Meist wird die Häufigkeit der Fehler als Fehlerdichte ausgedrückt, nämlich als Anzahl der Fehler pro Tausend Zeilen Quellcode – wie dies in Abb. 3.1 geschah. Selbst wenn diese Zahl sich im Laufe der Zeit stark reduziert hat, ist sie für den Nutzer nicht unbedingt relevant. Einerseits sind fast alle Software-Systeme stetig im Umfang gewachsen, andererseits werden nicht alle Teile eines Systems gleichermaßen genutzt. Ein Fehler in einer Systemkomponente, die nicht angesprochen wird, stört nicht. Ein alternatives Maß bildet daher die Anzahl der Nutzerprobleme pro Monat. Als eine Folge der hier beschriebenen Situation vermeidet es die Software-Industrie für die von ihr vertriebenen Produkte, eine umfassende Haftung zu übernehmen. Laut Produkthaftungsgesetz9 muss ein Lieferant nämlich für jedweden Mangel haften, unabhängig von der Frage des Verschuldens. Software-Hersteller stellen sich selbst von dieser Haftung frei. Sie tun dies, indem sie ein Software-Produkt nicht als Produkt deklarieren, sondern als Dienstleistung. Hier haftet der Hersteller nur für die konkret gemachten Zusagen. Bewertung und Vorschläge: Wichtig ist es den Begriff Fehler auf das zu reduzieren, was nur durch eine Änderung am System selbst oder an seiner Dokumentation behoben werden kann. Nicht darunter fallen also Nutzerfehler und Verbesserungsvorschläge. Immer wieder werden Allheilmittel zur Verhütung von Software-Fehlern angepriesen, nicht nur in der industriellen Werbung, sondern auch in der akademischen Informatiklehre. Mal sind es Methoden, mal Werkzeuge, von denen Erlösung erhofft wird. Eine große Rolle in der akademischen Lehre und Forschung spielen hier die so genannten Formalen Methoden (vgl. Hall (1990)). Ihre Anhänger hoffen, durch stärkere Mathematisierung der Software-Erstellung das Problem der Korrektheit in den Griff zu bekommen. Die Akzeptanz dieser Vorgehensweise in der Praxis hat in den letzten 30 Jahren leider nur bescheidene Fortschritte gemacht. Das Problem dieses Ansatzes liegt nicht an der unzureichenden mathematischen Ausbildung der Informatiker – wie dies von prominenten Vertretern der Hochschulinformatik einst vermutet wurde – sondern daran, dass bei der Programmentwicklung Fehler nicht nur aus einem einzigen Grunde gemacht werden, sondern aus einer Vielzahl von Gründen und an verschiedenen Stellen im Prozess. Nur der kleinere und am leichtesten zu behebende Teil der Fehler entsteht, wenn schon eine Spezifikation des Systems vorliegt. Mit dem Begriff Spezifikation ist hier – etwas ungenau ausgedrückt – sowohl das Ergebnis der Anforderungsanalyse wie das des Entwurfs gemeint. Wie aber durch empirische Studien nachgewiesen ist, entstehen die wirklich gravierenden Fehler primär bei der Erstellung der Spezifikation. Leider versagen mathematische Ansätze, wenn es darum geht zu zeigen, ob eine Spezifikation richtig oder vollständig ist, d.h. ob z.B. alle erforderlichen Fallunterscheidungen vorgenommen wurden. Erschwerend kommt noch hinzu, dass eine formale Spezifikation des Entwurfs nicht als Nutzerdokumentation geeignet ist, noch für die Bewertung nichtfunktionaler Eigenschaften wie Leistungsverhalten und Wartbarkeit ausreicht. Auch das bei der Hardware- und Protokollverifikation so erfolgreiche Model Checking lässt sich nicht ohne weiteres auf Software übertragen (vgl. Clarke/Emerson/Sifakis (2009)). Ein Beispiel für ein neues Werkzeug schilderte ein Artikel in der populär-wissenschaftlichen Zeitschrift ‚Spektrum der Wissenschaft’ (vgl. Jackson/Samulat (2007)). Er erweckte für den fachlich nicht versierten Leser den Eindruck, dass der lange erwartete Durchbruch endlich gelungen sei. Statt Programme in ihrer realen Umgebung auszuführen, also zu testen, vertraten die Verfasser die Meinung, dass es ausreiche, wenn man die Konsistenz von Spezifikation und Programm durch eine Simulation nachweise. Dieser Artikel provozierte einen der Auto21
ren (Endres) zu einem Leserbrief, der dann auch (etwas verkürzt) veröffentlicht wurde, mit folgender Aussage: Weder Beweise noch Simulationen sagen etwas drüber aus, ob beide Beschreibungen (also Spezifikation und Programmtext) auch der Realität entsprechen, sei es der physikalischen oder der geschäftlichen Realität. Hier hilft nur die Ausführung in der realen Umgebung, also das Testen. Mögen formale Methoden noch so elegant und intellektuell herausfordernd sein, leider sind sie weder ausreichend noch effektiv. Sie entdecken – und das manchmal nur sehr indirekt – nur den kleineren und leichteren Teil der tatsächlich auftretenden Probleme. Sie ersetzen keine der anderen immer noch ziemlich aufwendigen Methoden, nämlich Inspektionen und Testen. Aus Sicht der Praktiker kommt noch hinzu: Alles was algorithmisiert werden kann, kann auch automatisiert werden, also in Werkzeuge umgesetzt werden. Die Theorie dahinter, sowie die Details der Implementierung, kann man bei der täglichen Arbeit vergessen. Das klassische Beispiel ist der Compilerbau. Ein knochenharter Weg, der zu verlässlichen Ergebnissen führt, ist schon lange bekannt. Man korrigiert nicht nur die gefundenen Fehler, sondern sucht anschließend nach ähnlichen Fehlern sowie nach den gemeinsamen Ursachen. Abgesehen von Fehlern, die während der Reproduktion und Installation von Programmen gemacht werden, liegen die Fehlerursachen immer im Entwicklungsprozess begründet. Entweder hatte man die Anforderungsanalyse nicht sorgfältig genug gemacht, hatte den Entwurf nicht genau genug dokumentiert oder hatte nicht alle Betroffenen über Änderungen im Entwurf informiert, usw. Will man die Wiederholung eines Fehlertyps vermeiden, so muss man denjenigen Teil des Prozesses verbessern, der für die Entstehung dieses Fehlers verantwortlich ist. Dies ist zwar sofort einleuchtend, verlangt aber in der Praxis enorme zusätzliche Anstrengungen. Die amerikanische Raumfahrtindustrie, die diese Methode entwickelt hat und auch anwendet, ist bisher von ernsten SoftwareProblemen weitgehend verschont geblieben (vgl. Madden/Rone (1984)). Dieser Ansatz funktioniert allerdings nicht, wenn man als Software-Entwickler nur kurzfristig auf einem Arbeitsgebiet tätig ist und nach Projektabschluss sich sofort in ein völlig fremdes Anwendungsgebiet stürzt. In diesem Falle müssen andere Methoden angewandt werden, etwa die iterative Entwicklung von Prototypen. Das sind funktional eingeschränkte Vorabversionen. Wenn solche Prototypen von den Nutzern einem ernsthaften Test unterzogen werden, können beide Seiten lernen, nämlich die Entwickler und die Nutzer. Manche Firmen stellen auch Prototypen ins Internet und hoffen auf Feedback aus der ganzen Welt. In Anlehnung an die bei IBM übliche Terminologie spricht man dann von einem Beta-Test10 oder einer BetaPhase. Auf vollkommen fehlerfreie Programme zu hoffen, ist nicht viel mehr als eine Utopie. Erreichbar ist dieses Ziel, wenn die Aufgabenstellung entweder allen Beteiligten von Vornherein bekannt ist, oder wenn die Programme nicht allzu groß sind. Die Grenze liegt etwa bei 100 000 Programmzeilen. Ein typisches Betriebssystem, das auf einem PC läuft, umfasst heute aber etwa 20 Millionen Programmzeilen. Solange die Industrie keine sinnvolle Haftung für Software-Produkte anbietet, muss der Nutzer sich darauf einstellen. Er muss sich der Risiken bewusst sein und selbst vorsorgen. Es ist vorstellbar, dass sich bei eingebetteter Software eine der normalen Industrie ähnliche Haltung durchsetzt und dann schrittweise auf alle SoftwareProdukte abfärbt. Das kann aber leicht noch ein Jahrzehnt dauern. Dem vorsichtigen Nutzer empfehlen wir folgende Strategie: Hüten Sie sich vor Software, die als brandneu angekündigt wird. Geben Sie der Software Zeit, sich zu stabilisieren, d.h. warten Sie etwa ein halbes Jahr (oder bis zum Ende der Beta-Phase) und lassen zuerst die mutigen Nutzer ran. Wenn die Anwendung für Sie kritisch ist, überlegen Sie sich, ob hinter dem Programm ein Lieferant oder Hersteller steht, der ihnen im Falle von Problemen helfen kann. Meist reicht es, zu wissen, dass es eine Hotline gibt. Gut ist es, wenn Sie selbst in der Lage sind, neue Versionen oder Korrektur-Module (so genannte Patches) zu installieren, sobald 22
diese im Internet angeboten werden. Einzelne Fehler beim Kunden im Quellcode zu korrigieren, ist bei Standard-Software heute nicht mehr üblich und auch nicht mehr nötig. Weitere Informationen: Die Arbeitsrichtung Empirisches oder Experimentelles Software Engineering analysiert die hier beschriebenen Vorgehensweisen wissenschaftlich. Das Buch von Endres/Rombach (2003) stellt diesen Ansatz ausführlich dar und verweist auf die bisher erzielten Ergebnisse. Die wichtigsten empirischen Regeln sind dabei in Form von Gesetzen, Hypothesen oder Vermutungen dargestellt, je nachdem wie verlässlich und allgemeingültig die historischen Daten sind. Dass Computer-Software trotz ihrer Fehlerhaftigkeit einen so großen wirtschaftlichen Erfolg hat, bleibt für manche ein Rätsel. Etwas Licht in diese Angelegenheit brachte eine groß angelegte Untersuchung in den USA, die im Jahre 2002 vom nationalen Standard-Institut NIST11 veröffentlicht wurde. Dabei stellte sich heraus, dass die durch Software-Fehler verursachten Nutzerkosten nur etwa 5% der Gesamtkosten ausmachen. Das steht in krassem Gegensatz zu dem, was aufgrund meist anekdotischer Daten selbst von Fachleuten kolportiert wird. In Endres (2003) werden diese Zusammenhänge näher erläutert. Einen umfassenden Überblick über das gesamte Thema Software-Entwicklung geben die Bücher von Ian Sommerville (2007) sowie von Jochen Ludewig und Horst Lichter (2006). 3.2 Friedhof für Projekte Fragen: Stimmt es, dass viele Informatik-Projekte nicht erfolgreich sind? Wenn ja, woran liegt das? Sind Informatiker(innen) generell schlechtere Planer, Projektleiter oder Entwickler als andere Ingenieure? Fakten und Erklärung: Informatikprojekte haben die Entwicklung, Einführung und/oder Veränderung von Informatiksystemen zum Ziel. Informatiksysteme sind oft sehr komplex und meist raschen technischen Veränderungen unterworfen. Manche Projekte erreichen ihre technischen oder wirtschaftlichen Ziele erst nach großer Verzögerung. Dass sie ihr Budget und ihre Zeitvorgaben nicht einhalten, scheint offenbar „zum guten Ton“ zu gehören. Manche Projekte erreichen die erwarteten Ziele nie und werden daher abgebrochen. Nicht wenige Informatikprojekte haben deshalb Berühmtheit erlangt, weil sie fehlgeschlagen sind. Werden statistische Zahlen bemüht, so werden meistens die Berichte der Standish Group zitiert. Diese Beratungsfirma aus Boston veröffentlicht seit den 1970er Jahren jährliche Umfrageergebnisse. Im letzten Bericht12 für das Jahr 2008 werden folgende pauschale Daten gegeben: 32% aller Informatikprojekte, über die der Firma berichtet wurde, waren erfolgreich bezüglich Termin, Kosten, Funktionalität und Kundenzufriedenheit, bei 44% gab es Probleme oder Verzögerungen und 24% wurden vor Projektende abgebrochen. Diese Zahlen sind sogar schlechter als die des Vorjahrs. Die Ursachen von Projektfehlschlägen war Ziel einer kürzlich veröffentlichten Fragebogenumfrage von Narciso Cerpa und June Verner (2009). Sie analysierten über 300 Projekte im Bereich unterer und mittlerer Größe. Aus einer Liste von 18 Gründen ragten drei besonders hervor: ungenaue Kostenschätzung und Terminplanung, schlechte Anforderungsdefinition und ungenügende Risikoanalyse. Die Autoren mussten zugeben, das dies dieselben Gründe sind, die auch schon vor 30 Jahren als ausschlaggebend erkannt wurden.. Bewertung und Vorschläge: Leider sind die Daten der Firma Standish zwar in aller Munde, aber nicht sehr hilfreich. Es ist nicht klar, welche Projekte überhaupt erfasst werden und wie vollständig die Daten sind. Es besteht die Befürchtung, dass hier automatisch eine negative Auswahl getroffen wird. Auch sind keinerlei Projektdetails bekannt. Ob Informatiker(innen) anteilmäßig mehr Projekte „in den Sand setzen“ als etwa Bauingenieure, ist nicht bekannt, geschweige denn bewiesen. Fast jeder Bauherr, der ein normales Einfamilienhaus errichtet, 23
weiß heute von technischen und organisatorischen Schwierigkeiten zu berichten, ganz zu schweigen von negativen Schlagzeilen über große, einmalige Projekte wie etwa einem Staudamm oder einer Kraftwerksanlage. Mit dem Finger auf andere Fachdisziplinen zu zeigen, hilft uns Informatiker(innen) nicht. Besser ist es, wenn wir uns eingestehen: Unser Ruf als Projektplaner und Projektnehmer kann noch um Vieles besser werden. Es gibt in der Informatik viele sehr erfolgreiche Projekte. Leider wird über diese weniger geschrieben oder gesprochen als über die anderen. Dafür gibt es mehrere Gründe. Die Öffentlichkeit nimmt gute Nachrichten weniger zur Kenntnis als schlechte. Die Beteiligten an den erfolgreichen Projekten können sich neuer Aufträge nicht erwehren und wenden sich nach Projektabschluss rasch diesen zu. Fehlgeschlagene Projekte zu analysieren, ist andererseits eine unbeliebte Tätigkeit. In Deutschland erfolgen solche Analysen noch eher zufällig. Wenn dies dennoch geschieht, behalten die Betroffenen die daraus gewonnenen Lehren am liebsten für sich. Für die Informatik wäre es aber besser, wenn bei jedem großen Projekt zusätzlich eine wissenschaftlich geleitete Analyse stattfinden würde. Dies wäre eine lohnende Aufgabe für Hochschulen, die das so gewonnene Wissen an spätere Generationen von Informatikern weitergeben könnten.
Abb. 3.2 Autobahn-Mautkontrolle Eine positive Ausnahme in dieser Hinsicht ist Peter Mertens (2009). Er hat einige bekannte Projekte aus dem öffentlichen Bereich analysiert, darunter das größte europäische Informatikprojekt der letzten Jahre, die Erfassung der Lkw-Maut auf den deutschen Autobahnen durch die Firma Toll Control (siehe Abb. 3.2). So sehr dieses Projekt vor seiner Beendigung mit negativen Schlagzeilen in der Presse bedacht wurde, heute redet kaum noch jemand darüber. Es hat allen Anschein, dass es wirtschaftlich zu einem großen Erfolg geworden ist, bringt es doch der Bundesregierung jährlich Straßenbenutzungsgebühren von über einer Milliarde Euro ein. Natürlich ist es erstrebenswert, auch Material über erfolgreiche Projekte zu sammeln und zu veröffentlichen. Leider haben fehlgeschlagene Projekte meist den Vorteil, dass man mehr aus ihnen lernen kann. Wie auch das Lkw-Maut-Projekt zeigt, ist die Diskussion über Termin- und Kostentreue zwar wichtig, aber nicht allein entscheidend. Ausschlaggebend ist der Erfolg eines Projekts über seine ganze Lebensdauer hinweg. Dazu gehören nicht nur die erste Entwicklungsphase, sondern vor allem die Nutzung und die eventuelle Weiterentwicklung. Der ins Auge zu fassende Zeitraum sind nicht zwei, sondern meist zwanzig Jahre. Als Erfolg darf auch nicht nur der 24
erzielte Umsatz angesehen werden. Eine hohe Marktdurchdringung, ein Reputationsgewinn gegenüber der Konkurrenz oder eine hohe Zufriedenheit der Kunden können genau so wichtig sein. Steht die Diskussion über die Entwicklerproduktivität im Vordergrund, so bezeugt dies meist eine eher engstirnige Betrachtungsweise. Unter Produktivität versteht man nämlich das Ergebnis pro Aufwand, oft gemessen in Tausend Programmzeilen pro EntwicklerPersonenjahr. Wird diese Sichtweise angewandt, verleitet es leicht zu falschen Entscheidungen. Besser ist die Betrachtung im Sinne der Rentabilität einer Investition, also Ertrag (in Euro) pro Investition (in Euro). Erbringt ein Produkt einen Umsatz von 100 Millionen Euro bei einer Investition von zwei Millionen Euro – was durchaus realistisch ist –, dann spielt es keine Rolle, ob die Produktentwickler eine Produktivität von 2000 oder nur 1000 Programmzeilen pro Personenjahr hatten. Produktivitätsvergleiche über Firmen hinweg sind außerdem wenig aufschlussreich. Sie scheitern meist an den Definitionsunterschieden für die benutzten Maßeinheiten. Mitunter drängt sich der Eindruck auf, dass einige Kollegen das Problem der nicht erfüllten Projekterwartungen dadurch lösen oder umgehen möchten, indem sie keine verbindlichen Zusagen mehr machen. Statt für ein Projekt als Ganzes einen Plan zu machen und ein Angebot abzugeben, möchten sie sich jeweils nur für ein paar Wochen im Voraus festlegen. Sie hoffen, dass der Auftraggeber sie scheibchenweise für alle Aufwendungen bezahlt, unabhängig davon, ob diese dem Ziel dienen oder ob das Ziel je erreicht wird. Der Fachbegriff, der dafür benutzt wird, heißt Agilität. Laut Fremdwörter-Duden bedeutet dies: temperamentbedingte Beweglichkeit und Lebendigkeit. Jeder Projektnehmer, der diese idealen Verhältnisse aushandeln kann, wäre dumm dies nicht zu tun. Ob viele Projektgeber bereit sind dem zuzustimmen, ist fraglich. Eine vernünftige Regel für das Projektmanagement lautete schon immer: Nur soviel Planung wie unbedingt nötig, und soviel Freiheit wie möglich. Im Grunde läuft es darauf hinaus, wie man mit Risiken umgeht. Es führt kein Weg daran vorbei, sich aller Risiken bewusst zu werden. Ist ein Projekt zu riskant, um vertragliche Zusagen für seinen gesamten Umfang zu machen, muss man einen iterativen Ansatz aushandeln. Sonst handelt man unverantwortlich. Nur, was für den einen Auftragnehmer Risiken sind, sind möglicherweise für einen andern Routinearbeiten. Schade wäre es, wenn gute Ideen, die in dem agilen Ansatz stecken (paarweise Verantwortung für den erstellten Code, frühes Testen) dazu missbraucht würden, um auf alte Unsitten zurückzufallen, nämlich ohne ausreichenden Entwurf mit der Codierung zu beginnen und das fertige Programm ohne Dokumentation zu hinterlassen. Weitere Informationen: Zu den amerikanischen Kollegen, die schon seit Jahren über fehlgeschlagene Projekte berichtet haben, gehört Robert Glass (1998). In seinem Buch ist auch das Fiasko des Gepäckkontrollsystems am Flughafen in Denver, Colorado, beschrieben, das seinerzeit die amerikanische Presse füllte. Deutsche Bücher zum Thema Projektmanagement stammen von Heilmann/Etzel/Richter (2003) sowie von Wieczorek/Mertens (2008). Das Thema Agile Methoden behandeln Christiane Gernert (2003) und Hruschka/Rupp/Starke (2009). 3.3 Lock-in der Nutzer Fragen: Warum ist es so schwer, den Software-Hersteller zu wechseln? Warum haben die Nutzer eines Software-Produkts und viele Mitbewerber einem Marktführer gegenüber eine so schwache Position? Fakten und Erklärung: Viele Nutzer von Computern klagen darüber, dass es ihnen kaum mehr möglich ist, den Hersteller zu wechseln. Das gilt sowohl für Hardware- wie für Software-Produkte. Mit einem Wechsel sind nämlich hohe Kosten verbunden. Diese betreffen 25
nicht nur die Anschaffungskosten der Produkte, sondern oft auch eine notwendige Umwandlung der Daten, eine Umstellung der organisatorischen Abläufe und eine Umschulung der Mitarbeiter. Der Software-Markt tendiert von Natur aus zur Bildung von Ungleichgewichten zwischen den Anbietern. So hat ein Marktführer – als Quasi-Monopolist – große Vorteile. Seine fixen Kosten lassen sich auf sehr viele Nutzer verteilen, selbst seine variablen Kosten werden geringer. Er erzielt einen positiven Ertragszuwachs, d.h. je mehr Nutzer er hat desto besser ist die Rentabilität. Da heute Rechner immer mehr auch als Medien zur Kommunikation eingesetzt werden, tritt außerdem ein Netzwerk-Effekt ein. Das heißt, dass ein einzelnes Programm umso mehr nützt und einen höheren Wert hat, je mehr Leute ein äquivalentes Programm verwenden - genauso wie ein Telefon nur nützt, wenn auch Freunde und Bekannte eines besitzen. Aber nicht nur der Wechsel von einem Hersteller zum andern kostet Geld. Auch wenn man seinem Hersteller treu bleibt, kann dieser seine Kunden zum Versions-Wechsel zwingen. Auch das kostet unter Umständen viel Geld. Überhaupt sind Kosten für die Wartung, die laufende Ergänzung und Anpassung sowie die Sicherheit der Software (Antiviren-Programme!) ein nicht zu unterschätzender Kostenfaktor für den Kunden, oder umgekehrt, eine wichtige Einnahmequelle für den Hersteller. Bewertung und Vorschläge: Das Problem des ‚lock-in’ ist zweifellos vorhanden. Es ist aber nicht so, dass ein bestimmter Hersteller sich dies als Strategie zu Nutzen machen kann, andere aber nicht. Das Problem liegt in der Natur von Software als Wissensprodukt begründet. Software enthält Wissen – und zwar in einer Form, die ganz anders verwertbar ist, als dies bei einem Buch der Fall ist – und verlangt Wissen, um optimalen Nutzen daraus zu ziehen. Das Vorwissen der Nutzer ist essentiell für den Erfolg eines Software-Produkts. Wo Vorwissen ist, lässt sich Wissen bekanntlich am leichtesten verstärken. Der oben erwähnte positive Ertragszuwachs und der Netzwerkeffekt kommen allen Anbietern zugute. Auch müssen alle Anbieter gegen Eintrittsschwellen und Kehrseiteneffekte gleichermaßen ankämpfen. Deshalb sind Software-Firmen in einem neuen Markt stets primär darauf aus, sich einen gewissen Marktanteil zu sichern. Gewinne sind zunächst sekundär. Hat man eine dominierende Position erreicht, dann lässt sich die Rentabilität viel leichter erreichten als am Anfang. Nutzern von Software wird dringend geraten, sich frühzeitig Gedanken über den Charakter ihrer SoftwareProdukte zu machen. Mit der Installation eines Programms ist nur in Ausnahmefällen die Geschäftsbeziehung beendet. Meistens ist man weiterhin auf Fehlerberichtigungen, Anpassungen und Beratung durch den Hersteller angewiesen. Ist man von einem Produkt für die tägliche Arbeit abhängig, ist es etwas anders, als wenn man ein Programm nur einmal im Jahr benutzt. Den Lieferanten zu wechseln, kann also in einem Falle das Bestehen der Firma gefährden, im anderen Falle völlig problemlos sein. Will man verhindern, dass Software altert, muss man sie pflegen. Software-Pflege geschieht dadurch, dass man Verbesserungen und Anpassungen einspielt, die der Hersteller zur Verfügung stellt. Für den Nutzer gibt es dazu drei Strategien: (a) immer sobald verfügbar, (b) bei Bedarf oder (c) fast nie. Am besten ist die erste Strategie. Wartet man zu lange, wird nicht nur der Aufwand sehr groß, es geht auch die Übersicht verloren. Nicht wenige Änderungen betreffen Sicherheitslücken, die aufgrund eines Virenbefalls festgestellt wurden. Andere Änderungen setzen gesetzliche Auflagen um, etwa in der Steuergesetzgebung. Wichtiger als Änderungen am Code sind manchmal die Verbesserungen im benutzten Datenmaterial. Bei einem Navigationsgerät werden z.B. bei einer Aktualisierung meist nicht nur die Programme auf den neuesten Stand gebracht, sondern gleichzeitig auch das Kartenmaterial. Es ist für den Nutzer von Vorteil, wenn er auf diese Weise über neue Straßen oder Änderungen in der Streckenführung erfährt. Während Strategie (a) durchaus sinnvoll sein kann, so lange man dieselbe funk26
tionale Version eines Programms benutzt, sollte man beim Übergang auf neue funktionale Versionen vorsichtiger sein. Hier kann es zu leicht zu Kompatibilitätsproblemen kommen, die den gesamten Geschäftsablauf gefährden. Weitere Informationen: In Buxmann/Diefenbach/Hess (2008) wird die Natur des Produkts Software und die daraus sich ergebende Struktur des Software-Markts gut herausgearbeitet. Es ist eines der wenigen Bücher auf dem deutschen Markt, die diesem Thema einigermaßen gerecht werden. 3.4 Hamsterrad Globalisierung Fragen: Stellt unsere Abhängigkeit vom Ausland für die von uns genutzten Informatikprodukte und Informatikdienstleistungen ein Problem dar? Brauchen wir eigenständige deutsche Produkte? Wie viele Informatikfachleute braucht Deutschland überhaupt noch? Fakten und Erklärung: Nicht nur bei Informatikprodukten wie Computern, Netzservern, System- oder Anwendungs-Software sondern auch bei Dienstleistungen der Informatik herrscht nicht erst heute ein verbissener, weltweiter Wettbewerb. Die meisten Hardware-Produkte kommen derzeit aus Asien (China, Japan, Taiwan und Malaysia). Im Dienstleistungsmarkt konkurrieren wir mit Niedriglohnländern wie Indien, Ungarn und Russland. Das Software-Geschehen wird weiterhin von amerikanischen Firmen bestimmt, zumindest im Bereich der systemnahen Software, also bei Betriebssystemen und Datenbanken, aber auch bei Büro-Software. Den Markt der Computerspiel-Konsolen beherrschen japanische Firmen wie Nintendo und Sony sowie Microsoft.
Abb. 3.3: Computerladen in Singapur Alle Produkte auch unserer Branche sind das Ergebnis einer Wertschöpfungskette. Diese beginnt mit Arbeiten in der Forschung und Entwicklung, geht über Produktion und Vertrieb hin bis zu Installation und Wartung der Produkte. Die frühen Phasen erfordern die höchsten Fachkenntnisse und rechtfertigen die höchsten Kosten. Während dies bei Forschung und Entwicklung primär Personalkosten sind, handelt es sich bei der Fertigung vor allem um Sachinvestitionen. Schwellenländer wie China, Indien, Südkorea und Taiwan steigen aufgrund ihrer niedrigen Kosten zunächst in die späteren Phasen der Wertschöpfungskette ein, wobei das Kapital für die Fertigung oft noch von außen kommt. Sobald ein Land über genügend eigenes Kapital und eigene Fachkompetenz verfügt, verlegt es seinen Schwerpunkt weiter nach vorne. So werden heute die zahlenmäßig erfolgreichsten Rechner (so genannte Netbooks) in Südkorea und Taiwan entworfen, die entsprechende Produktion wird nach China und Malaysia ausgelagert. Der Vertrieb erfolgt zunächst über
27
amerikanische oder europäische Firmen, und zwar so lange, bis der Lieferant seinen eigenen Markennamen etabliert hat. Geliefert wird dann über lokale Händler oder den Internet-Handel. Der größte Teil der verkauften Produkte wird als Konsum- oder Massenprodukte angesehen und ist überall auf der Welt zu fast gleichen Bedingungen erhältlich (siehe Abb. 3.3). Unsere Volkswirtschaft kann von einer internationalen Arbeitsteilung nur profitieren, vorausgesetzt wir verfügen unsererseits über Handelsgüter, die die Welt haben möchte. Das sind zurzeit beispielsweise hochwertige Autos und Werkzeugmaschinen. Nach eigenständigen Computern aus deutscher Produktion fragt niemand mehr. Trotz Jahrzehnte langer Fördermaßnahmen der deutschen Bundesregierung kam es weder zur Etablierung einer eigenständigen deutschen HardwareIndustrie, noch hat die deutsche Software-Industrie eine für den Weltmarkt bedeutende Stellung erlangt, sieht man von SAP und der Software AG sowie von den deutschen HP- und IBMTochtergesellschaften ab. Die SAP hat ihre heutige Weltmarktposition ohne staatliche Förderung erreicht. Die Firma Siemens, die stark gefördert wurde, gibt eher ein negatives Beispiel ab. Ihre anfänglichen Erfolge blieben nicht von langer Dauer. Das galt für Großrechner, Mobiltelefone und zuletzt für das Chip-Geschäft, wenn man von Infineon mal absieht.
Abb. 3.4: Globales Wettrennen Bewertung und Vorschläge: Auch wenn keine Informatikprodukte mehr aus Deutschland stammen sollten – was zum Glück mittelfristig nicht der Fall ist – sind unsere Wirtschaft und unsere Verwaltung ohne umfangreiche und vielschichtige Informatikanwendungen nicht mehr vorstellbar. Selbst wenn wir viele Neuentwicklungen und Wartungsaufgaben in Billiglohnländer auslagern sollten, braucht Deutschland eine hinreichend große Zahl von Informatikexperten. Der Branchenverband BITKOM schätzt, dass diese Zahl bei etwa 20 000 Absolventen pro Jahr liegt. Das entspricht in etwa der derzeitigen Kapazität der deutschen Hochschulen, wenn diese in der 28
Lage wären, mindestens 60 % der jährlich etwa 35.000 Studienanfänger in Informatik und in verwandten Studiengängen zu einem Abschluss zu führen. So lange diese Zahl geringer ist – was trotzt der Umstellung des Informatikstudiums auf den Bachelor-Abschluss leider immer noch der Fall ist –, gibt es weiterhin große Chancen für Quereinsteiger aus anderen technischen Fächern.
Wer sich beruflich auf dem Gebiet der Informatik betätigen will, muss wissen, dass er in einem weltweiten Wettbewerb steht. Er muss die Kompetenzen erwerben, die es ihm gestatten, solche Leistungen zu erbringen, die bei unseren Personalkosten noch wettbewerbsfähig sind. Dazu gehören insbesondere Analyse-, Entwurfs- und Beratungstätigkeiten, aber auch die Erstellung von speziellen Software-Produkten und solcher Standard-Software, bei der sich die Entwicklungskosten auf eine Vielzahl von Nutzern verteilen lassen. Hier sind Hochlohnländer, sofern sie sich einmal etabliert haben, nicht leicht zu verdrängen. Außerdem kommen die unter dem Thema ‚Lock-in’ behandelten Aspekte zum Tragen. Lange galten Dienstleistungen als weniger vom weltweiten Wettbewerb gefährdet als die Herstellung von Produkten, da sie meistens vor Ort erbracht werden mussten. Durch die weltweite Vernetzung ist es heute aber möglich, Dienstleistungen auch von weit entfernten Orten der Welt aus anzubieten. Im Informatikbereich betrifft dies einfachere Verwaltungs- und Wartungstätigkeiten (Betrieb eines Help-Desks, Installation neuer Software-Versionen) ebenso wie anspruchsvollere Entwickler- oder Berateraufgaben (Neuentwicklung und Anpassung von Anwendungs- und System-Software, Nutzerschulung). Entscheidend sind die sprachlichen und fachlichen Voraussetzungen der Beteiligten und der Preis. Dabei ist dieser keine absolute Größe, sondern eine Funktion der erwarteten Wertschöpfung und des Wettbewerbs. Beides muss man im Auge behalten, will man am Marktgeschehen teilnehmen. Auch die aktuelle Finanz- und Wirtschaftskrise wird nicht dazu führen, den bereits erreichten Umfang der weltweiten Arbeitsteilung bei Informatikprodukten und -dienstleistungen wesentlich zu verringern. Vielleicht wird sich die Wachstumsrate reduzieren, vielleicht werden auch in besonders betroffenen Branchen Informatikprojekte zurückgestellt. Der Bedarf an Informatikfachleuten scheint aber bis jetzt davon kaum berührt zu sein. Negative Prognosen sind nicht bekannt. Weitere Informationen: Globalisierung ist die Entwicklungsrichtung, welche die Weltwirtschaft bereits seit Ende des 19. Jahrhunderts genommen hat. Sie ist lediglich durch die beiden Weltkriege unterbrochen worden. Globalisierung ist einerseits unvermeidlich, andererseits aber auch sehr wünschenswert. Sie hilft sowohl den reichen wie den armen Ländern. Nur durch sie besteht die Möglichkeit, den Wohlstand, den wir in den Industrienationen genießen, auch anderen Ländern oder Weltgegenden zuteil werden zu lassen. Für diese Sicht der Dinge wirbt Jagdish Bhagwati (2008) in seinem lesenswerten Buch. Ausführlich setzt er sich mit den unterschiedlichsten Argumenten der Globalisierungsgegner auseinander. Mit ihren Zielen und Aktionen befasst sich auch der Bielefelder Politologe Claus Leggewie (2003). Während es ein Leichtes zu sein scheint, unterschiedlich motivierte Gruppen von Kritikern zu spektakulären Aktionen zusammenzubringen, fehlt es noch immer an guten Bewertung und Vorschlägen, wie eine Alternative aussehen kann, welche die offensichtlichen Schwächen langfristig behebt, etwa den Ausgleich zwischen Industrie- und Entwicklungsländern und den besseren Schutz der Umwelt und der Menschenrechte. Außerdem sollten die ergriffenen Maßnahmen demokratisch legitimiert sein. Ein neueres Buch des amerikanischen Journalisten Thomas Friedman (2006) befasst sich zwar primär mit der Ausweitung der Globalisierung nach dem Fall der Berliner Mauer. Dennoch zeigt es am Beispiel eines bei der texanischen Firma Dell in Auftrag gegebenen Notebooks, 29
wie die Arbeitsteilung in der Computer-Industrie heute abläuft: Entworfen wurde der Rechner gemeinsam von Ingenieuren in Texas und Taiwan, assembliert wurde der Rechner in Malaysia aus Teilen, die aus China, Japan, Nordkorea, Taiwan, sowie Irland und den USA kamen. Schließlich wurde die aus den USA stammende Basis-Software eingespielt, ehe das Gerät mit 25.000 anderen Rechnern zusammen per Jumbo in die USA gebracht wurde. Spezielle Software-Aspekte der Globalisierung werden unter anderem in Endres (2004c) analysiert. 3.5 Überflutung mit Information Fragen: Wer oder was ist für die Informationsflut, der wir ausgesetzt sind, verantwortlich? Ist diese überhaupt noch einzudämmen? Lebt nicht vielmehr die ganze Informatikbranche davon, dieses Problem zu verschlimmern? Fakten und Erklärung: Über kaum ein Problem wird in Europa, Japan und den USA seit mehr als zwei Jahrzehnten heftiger diskutiert als über die Informationsüberflutung. Es ist zu einem typischen Problem der technologisch fortgeschrittenen Länder geworden. Wie auch beim Schlagwort ‚Digital Divide’ hängen uns da die Entwicklungsländer weit hinterher, d.h. das Problem hat dort wesentlich geringere Ausmaße. Nicht nur „gefühlte“ Tatsache ist aber, dass bei uns derzeit auf jeden Jugendlichen und Erwachsenen ein Vielfaches der Menge von Information hereinbricht, als dies noch vor 30 Jahren der Fall war. Hier taucht die Frage auf, was man unter Information versteht. Der Begriff ist alles andere als eindeutig definiert. Die Nachrichtentechnik benutzt eine ganz andere Definition von Information als etwa die Linguistik, die Chemie, die Biologie oder die psychologisch-soziologischen Fächer. Selbst innerhalb der Informatik gibt es bis heute keine einheitliche Festlegung. Lange glaubte man mit der aus dem Jahre 1950 stammenden Definition von Claude Shannon auszukommen, welche die Dinge rein mathematisch-statistisch sieht, also ohne Bezug zur Bedeutung einer Nachricht. Sie ist nützlich für Techniken der Codierung und der Datenkompression, nicht jedoch für die meisten anderen Informatikanwendungen. Als sinnvoller ist folgende Beschreibung anzusehen (vgl. Rechenberg (2003), Endres (2004a)): Bei Information handelt es sich um interpretierbare, also mit einer Bedeutung oder Funktion verknüpfbare Signal- oder Zeichenfolgen. Zahlen, Texte, Zeichnungen oder Geräusche (Musik mit eingeschlossen) können Information darstellen. Ihr technischer Umfang wird, mangels eines besseren Maßes, durch die Größe des Speicherplatzes ausgedrückt, den die Zeichen bzw. Signale belegen, also in Bytes, Kilobytes, Megabytes usw. Dafür, dass heute mehr Information als je zuvor auf uns einströmt, gibt es unterschiedliche Gründe. Zum einen leben heute mehr Menschen auf der Erde als je zuvor. Ein immer größerer Prozentsatz von ihnen kann lesen und schreiben und benutzt neben traditionellen Medien (Briefe, Bücher, Zeitungen usw.) auch moderne Medien der Kommunikationstechnik wie Telefon, Telefax, Radio und Fernsehen, E-Mail, Web und andere Internetdienste. Der Hauptgrund für die rapide Zunahme von verfügbarer Information liegt im Fortschritt der Technik, insbesondere der Kommunikationstechnik und der Informatik. Allein im Jahre 2007 sollen nach einer Schätzung, die Palfrey/Gasser (2008) zitieren, etwa 161 Exabytes (1 Exabyte = 109 Gigabyte) an digitalen Daten generiert worden sein. Das entspricht dem Dreimillionenfachen der Information, die in allen bisher geschriebenen Büchern steckt. Diese Daten basieren vermutlich auf der bekannten Schätzung13 der Gruppe um Hal Varian von der Universität Berkeley, die von fünf Exabyte für das Jahr 2002 sprach. Ein immer größerer Teil davon ist inzwischen „online“, also mit Diensten im Internet zugreifbar. Diese Entwicklung setzt sich fort. An zwei Beispielen soll die heutige Situation illustriert werden.
30
Ein Berufstätiger erhält nicht nur einmal, sondern mehrmals am Tag die für seine Arbeit relevanten Informationen. Das kann eine SMS-Nachricht von einem Kunden sein, der einen Berater oder Techniker um Hilfe bittet. Gleichzeitig erhält der Kundenbetreuer eine detaillierte Beschreibung des entstandenen Problems auf seinen Service-Rechner, eine Wegeskizze auf seinem Navigationsgerät, eine Liste früherer Probleme dieses Kunden und eine Reihe von Lösungsvorschlägen. Der Service-Rechner des Kundenbetreuers ist tragbar wie ein Mobiltelefon und kann, je nach Art der zu betreuenden Installation, am Gürtel oder in der Jackentasche mitgenommen und mit dem zu untersuchenden Gerät über eine Standardschnittstelle verbunden werden. Der Service-Rechner (siehe Abb. 3.5) hat meist auch eine Möglichkeit, Grafiken und Bilder anzuzeigen. Möglich ist heute ein in eine Brille hinein projiziertes Bild. Um die Hände des Technikers für Mess- oder Montagevorgänge frei zu halten, erfolgt die Steuerung des Rechners mittels akustischer Ein- und Ausgabe.
Abb. 3.5: Tragbarer Service-Rechner (Quelle H. Klaeren14) Selbst einem (geistig noch aktiven) Ruheständler stehen heute derartig umfangreiche Mengen an Information zur Verfügung, dass er sich ernsthaft Gedanken über eine passende Auswahl machen muss. Wichtige Nachrichten, welche die Tageszeitung morgens auf den Tisch bringt, kann man am Vortage oftmals schon im Fernsehen oder durch Nachrichtendienste im Internet mitbekommen. Das Internet bietet ihm Zugriff auf ein Dutzend weitere Zeitungen, Zeitschriften oder Agenturen aus aller Welt, angefangen vom Wall Street Journal bis zur Frankfurter Allgemeinen, von Reuters bis zum Spiegel. Es hat quasi die Rolle des Bahnhofskiosks übernommen. Von Angeboten der diversen Fachgesellschaften, die ihre Internet-Präsenz laufend ausbauen, wollen wir nicht einmal reden, ebenso wenig von aktuellen Bankdiensten, aktiven Reiseanbietern, tüchtigen On-line-Shops und besorgten Gesundheitsdiensten. Schließlich kann der Ruheständler an Diskussionsforen zu aktuellen Problemen teilnehmen und sich (fast) alle Daten für benötigte Investitionsgüter (Fernsehgeräte, Digitalkameras, Kunstobjekte usw.) ansehen, lange bevor er einen Kauf vornimmt. Zur Pflege des Kontakts mit Familienmitgliedern oder Freunden kann er eine Videokonferenz (etwa mittels des Telefondiensts Skype) über das Internet führen – und das nicht nur von zuhause aus, sondern auch unterwegs per Mobiltelefon. Dank dieser und ähnlicher Geräte ist er jederzeit erreichbar. 31
Auch die technischen Kapazitäten, die viele von uns haben, um Information zu speichern oder zu verarbeiten, sind enorm gewachsen. Zählen wir die Rechner, die heute fest in einer Wohnung und im Auto eingebaut sind, kommen wir fast auf ein Dutzend, die dem Besitzer und seinen Mitbewohnern zur Verfügung stehen. Bald verfügt jeder private Nutzer über einige Terabyte (1012 Bytes) an Speicherkapazität. Ein Rechnernetz einer mittelständischen Firma besteht heute aus mehreren Tausend Rechnern (bei einigen Hundert Mitarbeitern) mit einem Petabyte (1015 Bytes) an Speicher. Weltfirmen wie Amazon, Google und Yahoo betreiben jetzt schon hunderttausende Rechner in ihren Netzen und verfügen so über ein Exabyte (1018 Bytes) an Speicherkapazität. Der Journalist Frank Schirrmacher (2009) hat dem Thema ein sehr anregendes Buch gewidmet. „Informationen fressen Aufmerksamkeit, sie ist ihre Nahrung. … Unsere Köpfe sind die Plattformen eines Überlebenskampfes von Informationen, Ideen und Gedanken geworden“ bemerkt er. Den Hunger des Menschen nach Information vergleicht er mit dem Drang, der Lebewesen dazu antreibt, auf Nahrungssuche zu gehen. Wir können uns nicht beherrschen, weil niemand uns sagt, was wichtig und was nicht wichtig ist. Die Signale, die wir beim Suchen aussenden, werden von der Industrie eifrig interpretiert. Der Rettungsschlauch, den Google den Ertrinkenden auswirft, sei im Grunde vergiftet. Der Rating-Algorithmus von Google (Page-Rank-Algorithmus genannt) sei eminent politisch. Er fördere den MatthäusEffekt: Wer hat, dem wird gegeben. Gemeint ist, dass diejenigen Web-Seiten bevorzugt werden, die schon populär sind. Bewertung und Vorschläge: Schon im Oktober 1990, also bevor es das Internet gab, hielt der amerikanische Medienkritiker Neil Postman einen Vortrag bei der GI-Jahrestagung in Stuttgart mit dem Titel ‚Wir informieren uns zu Tode’. Das war eine Abwandlung des Titels seines Buches (‚Wir amüsieren uns zu Tode’) von 1985. Die Idee der Veranstalter, statt seines Redemanuskripts ein Heft mit 20 leeren Seiten zu verteilen, sollte die aufrüttelnde Absurdität seiner Botschaft noch verstärken. Die Diskussion über Umfang, Sinn und Wirkung der Informationslawine ist seither nicht abgeklungen, im Gegenteil. Immer mehr Leute klagen über eine Belastung durch die Informationsflut. Leider ist aber noch nicht viel Konkretes zu erkennen, was in Richtung einer Lösung zeigen würde. Dass diese Informationsüberflutung lästig ist, ist keine Frage. Ob sie wirklich schädlich ist, ist schon schwieriger zu beantworten. Gründliche Untersuchungen hierüber liegen noch nicht vor. Es wird häufig davon gesprochen, dass bei Kindern vermehrt die Konzentrationsfähigkeit leide oder bei Erwachsenen die Sensibilität für die Wahrnehmung wichtiger Nachrichten und die Entscheidungsfähigkeit. Sicher ist aber, dass kein Mensch es je verträgt, einen ungebremsten „Informationsschwall“ pausenlos über Stunden und Tage über sich ergehen zu lassen. Wie bei der Nahrungsaufnahme kann auch hier eine Diät durchaus hilfreich sein. Viel besser ist natürlich eine selbstbestimmte kluge Auswahl und Dosierung der aufgenommenen Informationen. Da wir Menschen evolutionsbedingt darauf eingestellt sind, auf neu eintreffende Informationen sofort zu reagieren, stellt ein kontinuierlicher Fluss von E-Mails und anderen Netznachrichten (z.B. News-Ticker) eine beträchtliche Herausforderung dar. Wir müssen akzeptieren, dass wir bei der Arbeit und in der Freizeit nicht dauern „auf Empfang eingestellt“ sein können, da dann viele andere Tätigkeiten darunter leiden. So wird Berufstätigen empfohlen, E-Mails nur in Abständen von ein paar Stunden zur Kenntnis zu nehmen. Wir müssen fest davon ausgehen, dass das Problem der Informationsüberflutung uns auch in Zukunft betreffen und beschäftigen wird. Es wird eher noch größer. Deshalb ist es dringend, besser zu klären, was Individuen und Firmen tun können, um mit dem Überfluss an Informa32
tion fertig zu werden. Hier liegen große erzieherische Aufgaben, auch solche selbsterzieherischer Art. Noch scheint bei uns die Meinung vorzuherrschen, dass es zur Bewältigung von Aufgaben sehr darauf ankommt, möglichst viel Information aufzunehmen, nach dem Prinzip ‚Je mehr, desto besser’. Auch bei Kampagnen wie der ‚Aktion Lesen’15 scheint eine solch antiquierte Vorstellung Pate gestanden zu haben, es sei denn, es geht dabei primär um die Interessen der Buchverleger. Auch in der Vergangenheit war nicht alles, was auf Papier gedruckt wurde, lesenswert. In Zukunft werden um Größenordnungen mehr Texte produziert als heute, wobei die nicht-textuelle Information, wie sie Bilder, Filme und Musik darstellen, sogar noch überwiegen wird. Wollen wir die Informationsflut nur selektiv auf uns lenken, geht das nur, wenn wir sehr viel Information über uns selbst, über unsere Bedürfnisse und Interessen preisgeben. Vielleicht entwickelt sich aus dieser Erfahrung doch noch etwas Gutes, nämlich eine verbesserte Informationskultur, also eine differenzierende Auseinandersetzung mit Medien, die nicht alles für gut und nützlich erklärt, nur weil es gedruckt, gesendet oder im Internet angeboten wird. Kritik und Bewertung müssen zur sinnvollen und zielgerichteten Auswahl von Information hinführen. Der Ansatz, Gemeinschaften (engl.: communities) zu bilden, die sich untereinander helfen, Informationen und Informationsquellen zu bewerten, könnte sich als richtig erweisen, da hier genug Eigeninteresse im Spiel ist. Eine Frage, die dabei diskutiert werden muss, lautet: Wer bewertet diese Gemeinschaften und wer bewertet die Bewerter von Gemeinschaften. Wie das Beispiel der Rating-Agenturen der Finanzwirtschaft zeigte, ist diese Aufgabe nicht ganz unproblematisch. Leute, die meinen, dass dies eine Aufgabe der Nationalstaaten oder der UNO sei, konnten sich zum Glück bisher nicht durchsetzen. Die Informatikindustrie wird von dieser Entwicklung weiterhin profitieren. Sie sieht aber mit Recht nicht ihre Aufgabe darin, den Hunger der Menschen nach Information zu dämpfen oder sie vor Informationsüberflutung zu schützen. Gleichwohl muss sie aber ernsthafter als jetzt bestrebt sein, andere Nebenwirkungen ihrer Technologie, etwa den Energieverbrauch der Geräte, einzudämmen. Auf zwei Ansätze aus der Informatik, die das Problem der Informationsüberflutung nicht lösen, aber zumindest reduzieren wollen, sei kurz verwiesen. Wenn ein Suchbegriff mehrere Bedeutungen hat (‚Ball’ als Sportgerät oder Tanzveranstaltung), lässt sich beim Suchen im Internet die Zahl der Treffer einschränken, wenn man in der Lage ist, den Zusammenhang anzugeben und mit auszuwerten. Man spricht dann von semantischem Suchen in einem semantischen Web. Langsam aber sicher werden immer mehr Einträge im Web so dargestellt, dass man einen solchen Kontext mitgeliefert bekommt. Die andere Forschungsrichtung kommt vor allem denjenigen Fachgebieten zugute, die es regelmäßig mit großen Mengen von Messdaten zu tun haben. Statt die Daten direkt dem Nutzer zu präsentieren, werden sie in Form von Grafiken, Farbdarstellungen oder mehrdimensionalen Landkarten dargestellt. Das menschliche Auge kann dann auf einen Blick Variationen oder Muster in den Daten erkennen, etwas was bei endlosen Zahlenkolonnen kaum machbar ist. Diese Arbeitsrichtung heißt Visualisierung und hat Anwendungen unter anderem im betrieblichen Management, in der Medizin, in der Wetter- und Klimaforschung sowie bei der Suche nach Bodenschätzen. Weitere Informationen: Eine Übersicht über die Vielzahl der Informationsbegriffe in Wissenschaft und Technik geben Clemens Hackl und Otto Folberth (1986). Ausführlich befassen sich auch Palfrey und Gasser (2008) mit dem Problem der Informationsüberflutung. Das Stichwort bei ihnen heißt ‚Overload’. Das Thema Semantisches Web behandeln Hitzler/Krötsch/Rudolph/York (2007). Eine Einführung zum Thema Visualisierung gibt Heidrun Schumann (1999).
33
34
4. Sicht der in der Wirtschaft und Verwaltung Tätigen Nicht nur die einzelnen Nutzer von Personal Computern sind von Problemen mit ihren Geräten betroffen. Die starke Verbreitung von Rechnersystemen in der Wirtschaft, in der öffentlichen Verwaltung und in andern Bereichen der Gesellschaft trifft fast alle Bevölkerungsschichten direkt oder zumindest indirekt. Die im Folgenden behandelten Probleme berühren daher nicht nur einzelne Nutzer, sondern das gesamte wirtschaftliche und soziale Umfeld. Sie stören dort nicht selten unser gewohntes Wohlbefinden. 4.1 Notorischer Job Killer Fragen: Vermehrt der stark zunehmende Einsatz von Computern im Wirtschafts- und Berufsleben die Gefahr und das Ausmaß der Arbeitslosigkeit? Führt deren Einsatz bei vielen Beschäftigten dazu, dass sie nur noch unqualifizierte, ja stumpfsinnige Bedienertätigkeiten am Bildschirm ausführen, die entsprechend schlecht bezahlt werden? Sind das papierlose Büro und die menschenleere Fabrik nicht der Traum vieler Menschen?
Fakten und Erklärungen: Die Perspektive, aus der Computer gesehen werden, hat sich in den letzten 20 Jahren gewandelt. In der Anfangszeit waren viele Menschen, insbesondere „Entscheider“, der Ansicht, dass Computer primär Arbeitswerkzeuge zur fortschreitenden Rationalisierung seien. Heute überwiegt die Meinung, dass viele neue, auch kreative oder zumindest fachlich anspruchsvolle Tätigkeiten erst durch einen Computereinsatz möglich werden.
Abb. 4.1: Vierphasenmodell der Beschäftigung (Quelle W. Dostal) Dieser generelle Trend ist deutlich an dem in Abb. 4.1 wiedergegebenen Vierphasenmodell der Beschäftigung zu erkennen. Die Abbildung stammt von Werner Dostal16 von der Bundesanstalt für Arbeit. Anders als in der Landwirtschaft, die auch andere Gründe für ihren Rückgang hat, wird in der industriellen Produktion die Mehrzahl der Arbeitsplätze durch Automatisierung und Rationalisierung abgelöst. Die Verluste in beiden Bereichen werden kompensiert durch neue Arbeitsplätze in Tätigkeiten, die auf Information als Produktionsfaktor beruhen. Man kann diesen Prozess auch als Informatisierung von Wirtschaft und Gesellschaft bezeichnen. Als Beispiele zu nennen sind hier Entwurfsarbeiten im Fahrzeugbau und im Hochbau, Druckvorbereitungen im Zeitungs- und Verlagswesen, Planung und Disposition in Han35
del und Verkehr, usw. Nicht alle auf Information basierende Tätigkeiten sind als potentielle Computer-Anwendungen zu verstehen, aber ein sehr großer Teil. Heute ist sich nicht nur die Wirtschaft sondern die gesamte Gesellschaft bewusst, dass sie ohne Computer kaum noch funktionieren würde. Computer beschleunigen die Produktions- und Verwaltungsprozesse, sie machen sie sicherer und teilweise sogar humaner. Wir alle begrüßen es, dass bisher ungeliebte, weil schmutzige oder schwierige Arbeiten (wie Überkopf- oder Lackierarbeiten im Automobilbau) von Computern oder Robotern ausgeführt werden. Viele Tätigkeiten, die früher als einfach und übersichtlich galten, sind heute ziemlich komplex geworden. So war etwa der Anschluss eines privaten Telefons vor 25 Jahren eine mechanische und elektrotechnische Angelegenheit. Heute erfordert die Installation einer modernen privaten Telefonanlage fundierte Sachkenntnisse in Kommunikationstechnik und Programmierung. Der Traum vom papierlosen Büro, wo Computer alle Korrespondenz unter sich abwickeln, wo sie alle Anfragen beantworten und – ohne zu mosern - die Ablage erledigen, ist nur teilweise in Erfüllung gegangen. Die Texte selbst und auch die meisten Bilder und Zeichnungen werden noch von Menschen erstellt. Für die Eingabe in den Rechner und für die Formatierung steht aber keine Sekretärin mehr bereit. Das macht jetzt der Sachbearbeiter, der Ingenieur oder der Abteilungsleiter selbst. Die Vorstellung, dass es Fabriken auf der „grünen Wiese“ gibt, in denen komplexe Produkte wie Automotoren ganz ohne menschliche Mitwirkung gefertigt werden, ist für viele noch recht gespenstig, aber schon vereinzelt realisiert. Als Gegenargument lässt sich in beiden Fällen ins Feld führen, dass die Programme und Roboter ja noch von Menschen entworfen, programmiert und gewartet werden. Besonders im Fehlerfalle ist der Mensch gefragt. Die rasante Verbilligung der Rechner hat dazu geführt, dass sie fast überall direkt am Ort der Datenentstehung eingesetzt werden können. Viele Daten und Messwerte müssen nicht mehr explizit eingegeben werden, sie werden von Sensoren direkt erfasst. Es gibt kaum noch Arbeitsplätze – zumindest in Deutschland – die einzig und allein der Datenerfassung dienen. Fast immer ist diese Teil eines Beratungs- oder Verkaufsgesprächs oder das Ergebnis einer Planungs- oder Entwurfstätigkeit. Natürlich gibt es branchen- oder konjunkturbedingte Schwankungen in jeder genannten Beschäftigungsart. Diese können auch die auf Information basierten Jobs in Mitleidenschaft ziehen, ja sogar zur Arbeitslosigkeit in diesen Beschäftigungsfeldern führen. Bewertung und Vorschläge: Obwohl die generelle Assoziation von Computern als Jobkillern kaum noch Bedeutung hat, darf man doch nicht ignorieren, dass vor allem unter älteren Arbeitnehmern das Unbehagen verbreitet ist, dass ihre herkömmlichen Qualifikationen durch Computer an Wert verloren hätten. Wenn das Bestellwesen oder die Produktionsplanung in einer Firma nicht mehr ohne Computer denkbar sind, werden Mitarbeiter, für welche die Computertechnik fremd geblieben ist, sehr verunsichert. Sie sehen sich zumindest in ihren betrieblichen Aufstiegsmöglichkeiten beschränkt, wenn nicht in ihrer gesamten Arbeitstätigkeit bedroht. Auch führen Computer oft zur Beschleunigung der – durchweg anspruchsvollen – Arbeitsprozesse und dadurch nicht selten zu zunehmenden Stress-Situationen bei den Beschäftigten. Hierauf muss jeder Arbeitgeber sensibel reagieren. Soweit wie möglich, muss er den Betroffenen entgegenkommen und ihnen gezielte Weiterbildung oder einen wechselnden Einsatz in unterschiedlichen Aufgabengebieten ermöglichen. Auch die Arbeitnehmer müssen auf die durch Computer sich ändernden Anforderungen reagieren. Sie können den Wandel nicht aufhalten. In Abschnitt 5.7 greifen wir diesen Aspekt erneut auf, und zwar als Problem. Weitere Informationen: In Deutschland informiert die Bundesagentur für Arbeit regelmäßig über Veränderungen im Arbeitsmarkt. Aber auch die Arbeitgeberverbände, der Branchenverband BITKOM und die Gewerkschaften liefern beachtenswerte Daten.
36
4.2 Energieverschwendung Fragen: Sind Computer nicht wahre Energiefresser? Wie kann man hier mit dem Sparen ansetzen? Gibt es bald umweltfreundlichere, weil energiesparende Computer? Fakten und Erklärungen: Es ist keine Frage, dass Rechner und Rechnernetze sich weltweit als große Stromverbraucher erweisen. Wie August Wilhelm Scheer17, der Präsident des Bundesverbands Informationswirtschaft, Telekommunikation und neue Medien e.V. (BITKOM) am 22.7.2009 beim Start der ‚Green IT Allianz’ in Berlin ausführte, verbrauchen Produktion und Nutzung von Informatikanlagen heute rund 10% des Stroms in Deutschland, und dies mit steigender Tendenz. So sollen im Jahr 2020 weltweit rund 1,4 Milliarden Tonnen Kohlendioxid durch IT-Nutzung entstehen. Das entspricht 2% bis 3% des CO2-Gesamtausstoßes und liegt damit in derselben Größenordnung wie die Belastung der Umwelt durch den gesamten Flugverkehr. Nach einer dem US-Kongress vorgelegten Untersuchung18 hat sich der Stromverbrauch der bei der amerikanischen Regierung eingesetzten Rechner in der Zeit von 2000 bis 2006 mehr als verdoppelt. Die Anzahl und die Anschaltzeiten der eingesetzten Rechner wuchsen deutlich schneller als sich der Stromverbrauch pro Rechner senkte. Heute gibt es immer mehr Rechner, die nur selten abgeschaltet werden, überwiegend sogar Tag und Nacht an 365 Tagen im Jahr laufen. Bewertung und Vorschläge: Informatikindustrie und Informatikanwender sind jetzt nachdrücklich gefordert, effektive Maßnahmen zu ergreifen, um den Energieverbrauch und die davon abhängige Umweltbelastung der Computersysteme drastisch zu reduzieren. Bei den Herstellern hat dies Auswirkungen auf den Hardware-Entwurf, wo Technologien und Verfahren zur Herstellung und zum Betrieb von Geräten gesucht werden, die mit wesentlich weniger Strom bzw. Energie auskommen. Aber auch die moderne Software ist betroffen. Sie sollte es sich zum Ziel setzen, Geräte oder Funktionseinheiten eines Informatiksystems immer dann automatisch stillzulegen, wenn sie keine nutzbare Leistung erbringen. Ob dies im Minutentakt geschieht oder für jede Millisekunde, darüber darf noch gestritten werden. Die Vision, dass es einmal Laptop-Rechner geben könnte, die ein Jahr lang mit einer Knopfbatterie auskommen oder die ihre Energie mit Photozellen gewinnen, liegt allerdings noch in weiter Ferne. Informatikanwender können einen erheblichen Beitrag zur Energieeinsparung leisten, indem sie prüfen, ob alle ihre Rechner wirklich 24 Stunden am Tag laufen müssen. Wenn schon der Unterschied im Stromverbrauch zwischen Glühbirnen und Sparlampen ausreicht, um Glühbirnen aus dem Haushalt und den Büros zu verbannen, so sollte man bedenken, dass der Stromverbrauch eines modernen PCs oft zwischen 150 und 300 Watt liegt19. Da – wie bereits gesagt – viele Rechner, was die benötigte Leistung anbetrifft, heute weit überdimensioniert sind, sollten die Anwender in Zukunft bei der Auswahl und Beschaffung vermehrt ihr Augenmerk auf deren Energieverbrauch legen. Mindestens so wichtig wie die Energieeinsparung bei Informatiksystemen ist auch die andere Seite der Medaille. Es gibt kaum eine Technik, die stärker als die Informatik dazu beitragen kann, bei vielen Anwendern direkt Energie zu sparen oder indirekt vermeidbare Umweltbelastungen aufzuzeigen oder zu verhindern. Scheer zitiert eine Studie von McKinsey. Nach ihr können durch zunehmende IT-Nutzung weltweit jährlich bis zu 7,8 Milliarden Tonnen CO2 eingespart werden – also fünf Mal mehr als durch die IT selbst entsteht. Das bedeutet, dass der gezielte Einsatz intelligenter IT zwar viel Energie kostet, aber er gleichzeitig hilft, ein Mehrfaches an Energie und damit auch Energiekosten in anderen Branchen zu sparen. Als Kandidaten für „intelligente“ Informatikanwendungen nennt Scheer die folgenden Beispiele: 37
„Stromnetze können gleichmäßiger ausgelastet werden, Produktionsprozesse können effizienter organisiert und Lkw-Flotten ohne Leerfahrten optimal eingesetzt werden. Prototypen können am Rechner simuliert, gebaut und erprobt werden – ganze Entwicklungsstufen werden so aus Werkhallen und Labors in den Computer verlegt – Telekommunikationsleistungen substituieren Verkehrsleistungen, der Pendler wird zum Telearbeiter, die Videokonferenz ersetzt den Flug.“ Im letzten Punkt scheint Europa gegenüber Ländern wie Brasilien, Indien und den USA noch hinterher zu hinken, obwohl man heute schon – etwa mit Hilfe von Skype – weltweite Videokonferenzen vom heimischen PC aus führen kann und bei einer etwas aufwendiger Technik auch dem Gegenüber sogar die Hand schütteln kann.
Abb. 4.2: Technologie-Beratung Weitere Informationen: Als Firma aus der IT-Branche, die sich hier besonders engagiert, sei IBM erwähnt. Im Programm ‚Green Sigma’20 bündelt sie Initiativen, bei denen das Vermeiden des Leerlaufs von Rechnern, die bessere Messung und Steuerung ihres Energieverbrauchs, die Entwicklung wieder aufladbarer Energiespeicher, aber auch der Verbrauch von Strom und Wasser und der Ausstoß von CO2 in der Informations- und Kommunikationstechnik angegangen werden. Unter dem Slogan ‚Smart Planet’ werden nicht nur der schonende Verbrauch von Ressourcen angesprochen, sondern auch die effiziente und gerechte Verteilung von Nahrungsmitteln. Andere Firmen werden sicherlich bald nachziehen. 4.3 Irrelevanz für Unternehmenserfolg Fragen: Was ist dran an der Behauptung, dass Informatik keine Relevanz für den Erfolg oder Misserfolg eines Unternehmens habe (engl. ‚IT doesn’t matter’), wie dies vor allem von Nicholas Carr vorgebracht wurde? Gilt diese Kritik nur in Amerika? Fakten und Erklärungen: Der Wirtschaftsjournalist Nicholas Carr (2004) vertritt die Auffassung, dass Rechner sich zu einem Gebrauchsgut entwickelt haben, dessen Einsatz zwar abso38
lut wichtig, als Quelle für eine Differenzierung und für Kostenvorteile eines Unternehmens jedoch weitgehend irrelevant sei. Anders ausgedrückt heißt dies, eine Technologie, die alle Unternehmen auf gleiche Weise nutzen, kann nicht mehr zu Wettbewerbsvorteilen führen. Sie kann insbesondere kein Alleinstellungsmerkmal für dieses Unternehmen sein. Wenn alle Firmen genau die gleichen Anwendungen benutzen, würde dies natürlich stimmen. So bleibt schließlich nur noch das Argument, dass jemand, der diese Technik gar nicht nutzt, nicht mehr mithalten kann und der Konkurrenz gegenüber ins Hintertreffen gerät. Die Aussage von Carr erinnert an das schon länger von Ökonomen diskutierte Produktivitätsparadoxon der Informationstechnik (vgl. Stickel (2001)). Es drückt die zuerst in den USA veröffentlichte Feststellung aus, dass sich der Einsatz von Rechnern nicht sichtbar auf die Produktivität der Wirtschaft niederschlägt. Als Beweis wurde der Zeitraum von 1991 bis 1995 angesehen. In dieser Zeit sollen in den USA die Investitionen in Rechner-Hardware um 17% zugenommen haben, die Produktivität der gesamten Wirtschaft (gemessen als BruttoInlandsprodukt) aber nur um 0,3% gewachsen sein. Das führte zu der pointierten Aussage einiger Ökonomen: „Computers are everywhere but in the numbers“. Von den vielen Erklärungsversuchen sei nur erwähnt, dass der Zuwachs vor allem dem Dienstleistungssektor zugute kam und hier Produktivität ganz anders gemessen werden muss als in der produzierenden Wirtschaft – sofern dies überhaupt Sinn macht. Bewertung und Vorschläge: Mit seiner provokativen Aussage hat Carr21 eine Situation zu beleuchten versucht, die sicherlich in einigen Teilen der Wirtschaft in den USA wie auch in Europa an Bedeutung gewonnen hat. Sie ist jedoch kaum zu verallgemeinern und keinesfalls für alle Branchen und für alle Firmen als typisch anzusehen. Carr hat jedenfalls eine Diskussion angestoßen, die nur nützlich sein kann. Es ist für die Firmen zunehmend wichtig zu unterscheiden, wofür Standardlösungen ausreichen und wo es hingegen sehr darauf ankommt, die „Nase vorne zu haben“ und dabei Speziallösungen einzusetzen. So haben z. B. die Banken erkannt, dass ein großer Teil ihrer Informatikanwendungen identisch ist, etwa die routinemäßige Führung der vielen Privatkonten. Als Konsequenz entschied man sich, solche Anwendungen an Drittanbieter auszulagern, und sich im Gegenzug auf solche Anwendungen zu konzentrieren, mit denen man neue Kunden gewinnen oder vorhandene Kunden individueller betreuen kann. Dies ist ein ganz normaler Entwicklungs- oder Reifeprozess. Anders handelt derzeit noch die Automobilindustrie. In jedem in Deutschland gebauten Auto der gehobenen Mittelklasse befindet sich heute Software im Umfang von mehreren Millionen Programmzeilen. Etwa 80% davon sind von der Funktionsweise her für fast alle Fahrzeuge identisch. Dennoch ist es der Automobilindustrie – im Gegensatz zum Finanzgewerbe – noch nicht richtig gelungen, diesen gemeinsamen Teil zu standardisieren und dabei die Arbeit und auch das Geschäft einem exzellenten Spezialisten zu überlassen. Carrs Auffassung scheint es zu sein, dass viele Anwender ihre Informatikeinrichtungen nur als „Mitläufer“ betreiben. Dies ist aber keineswegs der Fall. Immer wieder profilieren sich Firmen dadurch, dass sie ihre Informatikkapazitäten in besonders innovativer Weise einsetzen. Sie können damit die Attraktivität oder Qualität ihrer Produkte und Dienstleistungen steigern, Fertigungs-, Lager- oder Verteilungskosten reduzieren oder aber die Kontakte zu Kunden verbessern. Dass einige der neuen Sterne am wirtschaftlichen Himmel ihre Position sehr stark ihrem innovativen Informatikkonzept zu verdanken haben, ist nicht zu übersehen. Beispiele dafür sind Amazon, eBay, Google, Skype oder Yahoo. Auffallend ist, dass ihr Ursprung fast ausnahmslos in den USA zu suchen ist.
39
Weitere Informationen: Ein bewährter Weg, um erfolgreiche Beiträge der jeweiligen Informatikabteilungen zu den Unternehmenszielen herauszustellen und diese ggf. daran anzupassen, führt über die Aufstellung einer spezifischen Informatikstrategie. Ein Beispiel für ein Finanzinstitut ist in Endres/Rombach (2003) auf den Seiten 260-262 gegeben. Darin besteht die Strategie aus drei Teilen, (a) einem Geschäftsteil, (b) einem Technologie- und Architekturteil sowie (c) einem Entwicklungs- und Operationsteil. Gerade die Details des ersten Teils können dazu genutzt werden, um die von Carr aufgeworfenen Fragen innerhalb eines bestimmten Unternehmens zu beantworten. 4.4 Zunehmende Eigentumsdelikte Fragen: Muss ein normaler Nutzer damit rechnen, bestohlen oder betrogen zu werden, sobald er interaktive Dienste des Internet etwa zum Einkauf, zur Kontoführung bei seiner Bank oder zum Lotteriespiel benutzt? Wie kann man sich schützen? Fakten und Erklärungen: Da auch im privaten Bereich immer mehr Finanzgeschäfte online abgewickelt werden, erhöhen sich hier unvermeidlich die schon immer bestehenden Risiken für Diebstahl und Betrug. Die Bezahlung von Geldbeträgen mit Kreditkarten kann dazu führen, dass die überwiesenen Beträge nicht da landen, wo sie sollen, oder dass es für Ganoven möglich wird, durch Erschleichen von Kreditkartendaten Geldbeträge von so „geöffneten“ Konten abzuziehen. Der Einstieg in diese Kriminalität erfolgt oft durch Vortäuschen einer falschen Identität, die die Karten- und Kontoinhaber zur Preisgabe von Passwörtern und Transaktionsnummern für die Kontenführung auffordern. In diesem Sommer waren über 100.000 Spanientouristen Opfer einer Ausspähung von Kreditkarten. Wo das Leck genau war, und wer die Täter waren, ist noch nicht bekannt. Einer der eklatantesten Fälle22 des Raubs von Kreditkarten-Nummern kommt in den USA gerade vor Gericht. Der Täter arbeitete sehr effektiv. Er suchte sich seine Opfer nämlich ausschließlich aus einem Verzeichnis der 500 umsatzstärksten USUnternehmen. Das Sprungbrett war die Datenbank einer Firma für Zahlungsabwicklungen. Behilflich waren ihm zwei Ganoven aus Russland. Der Täter war außerdem der Polizei bereits einschlägig bekannt. Im Jahr vor seinem neuen Coup war er wegen Datendiebstahls bei einer Restaurantkette verhaftet worden.
Größter Kreditkartenklau in den USA Es ist der bislang heftigste Fall von Datendiebstahl in Amerika: Ein 28jähriger Hacker muss sich nun vor Gericht verantworten. Er soll Daten von 130 Millionen Kreditkarten geklaut haben. Für den virtuellen Raubzug drohen ihm bis zu 25 Jahre Gefängnis, Financial Times 18.8.2009
Abb. 4.3: Raub von KreditkartenInformation (Quelle Fin. Times)
Eine andere Form der Eigentumsdelikte liegt vor, wenn Daten, Texte, Bilder, Musikstücke oder Filme, die im Web gespeichert sind, von Leuten genutzt und kopiert werden, die nicht dazu berechtigt sind. Der Wert eines solchen Objekts ist oft nicht bestimmbar. Er kann nur wenige Cents betragen, wenn ein einzelnes Lied einer Musikgruppe unberechtigt gehört und gespeichert wird. Er kann aber auch in den Bereich von Millionen Euro gehen, wenn es etwa um eine Konstruktionszeichnung eines geplanten Flugzeugs oder einer Industrieanlage geht. Bei den zuletzt beschriebenen Delikten kann man annehmen, dass in der breiten Öffentlichkeit ein konkretes Unrechtsbewusstsein besteht. Man darf die Täter getrost als Diebe bezeichnen und weiß, dass man die Polizei einschalten sollte. Bei einer andern Gruppe von Eigen40
tumsdelikten ist dies nicht immer der Fall, was im nächsten Abschnitt ausführlicher behandelt wird. Bewertung und Vorschläge: Nutzer müssen verstehen, dass das Internet weitgehend ein offener Platz ist. Wer ihm Geld oder Wertsachen anvertraut, muss damit rechnen, dass Dritte dies erfahren, es sei denn er benutzt speziell dafür ausgewählte Dienste. Eine Datei, die man ungeschützt ins Internet stellt, ist wie ein Ausstellungsstück, das man auf offener Straße ausstellt. Eine Nachricht oder auch eine Überweisung, die ungeschützt übersandt wird, kann so öffentlich werden wie eine Postkarte. Sie ist für die Betreiber von Mailboxen (mit dem Briefträger vergleichbar) wie auch für Familien- oder fremde Betriebsangehörige (mit neugierigen Hausgenossen vergleichbar) oft mühelos lesbar. Die üblichen Schutzmaßnahmen beruhen auf zwei relativ einfachen Ansätzen. Entweder blockiert man den Zugriff auf alle Dateien durch Speicherung in passwort-geschützten Bereichen. Oder aber, man macht die Dateien für Fremde unlesbar, wofür es zuverlässige Verschlüsselungsverfahren gibt. Diese sind vor allem immer dann anzuwenden, wenn die Datei über das Netz übertragen werden soll. Weitere Informationen: Zehn praktische Empfehlungen23 zum Schutz gegen Kriminalität im Internet wurden vor kurzem vom Bundeskriminalamt (BKA) zusammen mit BITKOM herausgegeben. Sie reichen von der Wahl sinnvoller Passwörter bis zu Vorsichtmaßnahmen beim Online-Banking. Laut BKA24 sind im Jahre 2008 allein in Deutschland etwa 167.000 Kriminalfälle bekannt wurden, bei denen das Internet eine Rolle spielte – im Polizeijargon ‚Fälle mit dem Tatmittel Internet’. Wer noch einen Beweis für die Popularität des Internets sucht, hier ist er. Fast die Hälfte aller Internet-Nutzer (38%) hat mit Viren oder anderer Schad-Software zu tun gehabt, eine gleichfalls erschreckende Zahl. Ein Standardwerk für das Thema IT-Sicherheit stammt von Claudia Eckert (2009). 4.5 Geistiges Eigentum in Gefahr Fragen: Ist damit zu rechnen, dass durch die Informatik der Begriff des geistigen Eigentums abgeschwächt wird oder gar verschwindet, wie dies von vielen befürchtet, aber auch von andern gefordert wird? Was bedeutet dies für Erfinder, Autoren und Künstler? Was sind die wirtschaftlichen Folgen? Fakten und Erklärungen: Es war an einem Julitag des Jahres 1999, als der Niedergang der uns bekannten Musikindustrie begann. An diesem Tag stellte Shawn Fanning25, ein Student aus Neuengland, Napster ins Netz. Das Programm wird als ‚Peer-to-Peer File Sharing’ (etwa mit ‚gleichberechtigter Datei-Teilhabe’ übersetzbar) bezeichnet und gestattet den kinderleichten Austausch von Musikdateien. Napster hatte innerhalb von neun Monaten 10 Millionen Nutzer. Die Musikindustrie erkannte, dass damit ihr bisheriges Geschäftsmodell extrem gefährdet war und zog vor Gericht. Man konnte Napster stoppen, da es einen entscheidenden Angriffspunkt bot. Der Betreiber besaß ein zentrales Verzeichnis aller zum Tausch angebotenen Dateien, hätte also illegales Kopieren verhindert können, wenn er gewollt hätte. Nachdem diese Schwachstelle bekannt war, gab es schnell mehrere andere Systeme, die kein zentrales Verzeichnis mehr hatten. Mittels solcher und auch anderer Werkzeuge beschaffen sich seither immer mehr Musikliebhaber ihre Lieblingstitel lieber unentgeltlich aus dem Netz als aus einem Musikgeschäft. Da sie aber laut Urheberrecht über eine eindeutige Rechtsposition verfügte, überzog die Musikindustrie Tausende von Filesharing-Nutzern auf der ganzen Welt, also ihre eigenen Kunden, mit Klagen und hohen Schadensersatzforderungen. Sie hat sich damit viele Sympathien verscherzt, da man ihr nicht abnahm, dass sie im Interesse der Künstler agierte, die sie angeblich schützen wollte.
41
Nicht nur für die Musikindustrie hat ein neues Zeitalter begonnen. Auch die Filmindustrie ist betroffen, ja Fernsehen und Radio, von der auf Papier druckenden Presse (den so genannten Print-Medien) ganz zu schweigen. Das Internet macht es so leicht, an die Inhalte diverser Anbieter zu gelangen, seien es Bilder, Musikstücke, Filme oder Texte, auch wenn diese nicht vom Autor ausdrücklich freigegeben sind. Bei dem, was heute noch eindeutig als Straftat gilt, fehlt teilweise sogar das Unrechtsbewusstsein der Konsumenten. Wenn man jung und technikbegeistert ist oder wenn man einfach nur cool oder hip sein will, zahlt man nicht für diese Dinge. Man weiß, wie man an sie kommt. Man wäre ja wohl dumm, sich nicht einfach zu bedienen. Dazu wird folgende spezielle Logik konstruiert: Wenn man eine CD in einem Laden entwendet, ist dort eine weniger vorhanden. Kopiert man unerlaubterweise eine elektronische Datei, gibt es eine mehr davon. Aber auch andere urheberrechtlich geschützte Produkte wie Bücher, wissenschaftliche Beiträge oder künstlerische Produkte werden von Unberechtigten genutzt, sei es vorsätzlich oder nur fahrlässig. Zu denken ist hier auch an Studierende, die Teile ihrer wissenschaftlichen Abschlussarbeit oft ohne Scheu oder Skrupel und oft wortwörtlich kopieren und in ihr selbständig zu erbringendes Werk integrieren. Dabei vergessen sie nicht selten auch ihre Pflicht zum Zitieren. Manche Leute fühlen sich sogar dazu berufen, sich hier aktiv agierend und argumentierend zu betätigen, weil man glaubt, damit ein wichtiges gesellschaftliches Anliegen zu befördern, nämlich den Begriff des geistigen Eigentums zu revidieren, wenn nicht sogar abzuschaffen. Dazu gehören nicht nur die üblichen Globalisierungsgegner, sondern auch viele Informatiker(innen), vor allem aber einige namhafte Juristen. Der bekannteste Vertreter dieser Gruppe ist Lawrence Lessig (2004). In seinen Büchern und Vorträgen kämpft er vehement für eine ‚freie Kultur’, deren Entfaltung nicht durch Eigentumsrechte gehemmt wird. Wollen wir wirklich Millionen von Jugendlichen zu Kriminellen erklären, nur weil ihr Kulturbeitrag gegen geltendes Recht verstößt? - so fragt er. Den Kulturbeitrag nennt er kreatives Mischen (engl.: rip, mix and burn). Ohne geistiges Eigentum kann eine moderne Gesellschaft zwar nicht funktionieren, gibt er offen zu. Unser Recht sei jedoch Gewohnheitsrecht. Wenn sich die Gewohnheiten ändern, müsse das Recht entsprechend angepasst werden. Es müsse eine neue Balance zwischen den Interessen der unterschiedlichen gesellschaftlichen Gruppen gesucht und gefunden werden. Bei einem Vortrag an der Universität Karlsruhe im Jahre 2005 bekam er begeisterte Zustimmung, vor allem von den meist studentischen Zuhörern. Auch im politischen Bereich machen sich inzwischen Stimmen laut, die am Recht auf geistiges Eigentum rütteln und dem Wort Piraterie seinen negativen Beigeschmack nehmen wollen. Bei den Europawahlen im Juni 2009 erreichte in Schweden eine Piratenpartei 7,4 % der Stimmen und gewann einen Sitz im Europaparlament. Inzwischen wurde auch eine Piratenpartei in Deutschland gegründet. Unter ihren Gründungmitgliedern sind mehrere Informatiker. Die Partei erhielt bei den Bundestagswahlen im September 2009 etwa 2% der Zweitstimmen, also fast 850.000 Stimmen. Ihre Politik in Sachen Urheberrecht26 stellt sie wie folgt vor: „Die fundamentale Chance des digitalen Zeitalters ist die Möglichkeit, Information ohne Kosten beliebig zu reproduzieren und zur Verfügung zu stellen. Die tradierten Wege, die Produzenten von Wissen und Kultur in Abhängigkeit von der Zahl der Kopien ihrer Arbeit zu entlohnen, sind dadurch ad absurdum geführt. … Daher fordern wir, das nichtkommerzielle Kopieren, Zugänglichmachen, Speichern und Nutzen von Werken nicht nur zu legalisieren, sondern explizit zu fördern, um die allgemeine Verfügbarkeit von Information, Wissen und Kultur zu verbessern; denn dies stellt eine essentielle Grundvoraussetzung für die soziale, technische und wirtschaftliche Weiterentwicklung unserer Gesellschaft dar.“ Sollte diese Bewegung auch in Deutschland Fuß fassen, müssen wir davon ausgehen, dass das Thema auf der politischen Tagesordnung bleibt. Vielleicht wird das Gedankengut dann teilweise von andern Parteien absorbiert, so wie das bei den Grünen passierte? 42
Wesentlich älter als die Piratenpartei sind Bewegungen wie die Electronic Frontier Foundation (EFF) sowie die Free Software Foundation (FSF) in den USA und ihr deutsches Pendant, der Förderverein für eine Freie Informationelle Infrastruktur (FFII)27. Letzterer stellt sich als eine gemeinnützige Vereinigung vor und will „die Zugangsbeschränkungen in den digitalen Medien überwinden, Risiken und Innovationsbremsen infolge von Fehlregulierung und unangepassten Schutzrechten abwenden, und freie Informationswerke auf der Basis offener Standards fördern.“ FSF und FFII sehen ihren geistigen Vater in Richard Stallman28, einem Aktivisten und Säulenheiligen der amerikanischen Hacker-Kultur. Auch Lawrence Lessig sieht sich in dieser Nachfolge. Die EFF sieht sich als Bürgerrechtsbewegung und behandelt neben Patent- und Urheberrecht auch Themen wie Tauschbörsen, Überwachung und Zensur im Internet. Wichtiger als Wunschvorstellungen und Parteiprogramme sind jedoch die Veränderungen, die tatsächlich eingetreten sind. So ist der Anteil von Musiktiteln, die im Internet als Raubkopien verbreitet werden, längst größer als der noch als CD oder DVD verkauften Lieder. Die Musikindustrie ist derzeit wohl am stärksten betroffen von dieser neuen Entwicklung. In der Software-Industrie besteht bereits seit Jahrzehnten das Problem der Raubkopien. Auch hier geht es bei den geschätzten Verlusten um Milliardenbeträge. Wenn es um den korrekten Erwerb von Software geht, scheint selbst im öffentlichen Bereich das Unrechtsbewusstsein kaum ausgeprägt zu sein. Nur so ist zu erklären, dass ein Staat wie Italien zwar …zig Tausende von Rechnern bei seinen Behörden einsetzt, aber nur einige Hundert Software-Lizenzen bezahlt. Im europäischen Vergleich der Software-Piraten29 liegen übrigens Griechenland, Italien und Zypern an der Spitze. Überboten werden sie von Osteuropa, Südamerika und einigen asiatischen Ländern. Schon länger gibt es, vor allem in Europa, eine intensive Diskussion über die Anwendbarkeit des Patentrechts auf software-bezogene Erfindungen. Von den Gegnern wird argumentiert, dass die derzeitige Praxis den technischen Fortschritt und die Entwicklung der Wirtschaft hemme, genau wie dies Lessig im Falle des Urheberrechts für die Kultur diagnostiziert. Überzeugende Beweise fehlen auch hier. Unter dem Schlagwort Quellfreier Code (engl.: open source) finden sich die Anhänger von ‚freier’ Software zusammen. Das ist Software, für die weder Urheber- noch Patentrechte geltend gemacht werden. Ihr Geschäftsmodell basiert auf Dienstleistungen statt auf Produktumsätzen. Ob dieser Ansatz den Charakter der SoftwareIndustrie langfristig verändern wird, ist fraglich. Wer als Gegenbeweis auf die Firma IBM als Linux-Verwerter verweist, übersieht, dass es in diesem Falle hauptsächlich um die Unterstützung des noch verbliebenen Hardware-Geschäfts dieser Firma geht. Auf die Situation des Buchdrucks und des Zeitungswesens werden wir später eingehen. Bewertung und Vorschläge: Es ist in dieser Diskussion sehr schwer, nicht Partei zu ergreifen. Einerseits sollte geistiges Eigentum genau so geachtet werden wie physikalisches Eigentum. Niemand sollte gezwungen werden, etwas zu verschenken, was er nicht verschenken will. Andererseits kommen die Anbieter von geistigem Eigentum nicht umhin umzudenken. Wegen der neuen Verteilungsstrukturen und der Kostenverhältnisse, die das Internet schafft, hat sich die Welt verändert. Die Vielzahl der bisher versuchten defensiven Maßnahmen, wie das Sperren und Verfolgen von Raubkopien, die darauf zielten, den heutigen Status zu retten, hatte nur wenig Erfolg. Sie sind aber weiterhin unverzichtbar. Die schrittweise Anpassung des rechtlichen Rahmens ist nur ein Teilaspekt. Viel wichtiger sind neue Geschäftsmodelle. Da scheint die Software-Branche wesentlich kreativer zu sein als die Musik- und Filmbranche oder das Verlagswesen.
43
Ein viel beachtetes Beispiel, das zeigt, wie man auf die Herausforderung reagieren kann, ist die Computer-Firma Apple. Steve Jobs, der Vorstandsvorsitzende von Apple, ließ die Musikbranche „ganz schön alt aussehen“, als er damit begann, einzelne Musiktitel im Netz für 99 US-Cents anzubieten. Seine Strategie, diese Produkte preislich so günstig zu verkaufen und so leicht benutzbar zu machen, dass kaum noch Interesse an Raubkopien besteht, ging voll auf. Der von ihm eingerichtete Online-Shop iTunes ist inzwischen zum umsatzstärksten Musikladen der Welt aufgestiegen. Auch einige Künstler und Autoren machen ihrerseits Vorstöße. Sie schreiben Romane nur fürs Internet oder geben einzelne Lieder ihres Repertoires frei, um damit für die käuflich zu erwerbenden Titel zu werben. Einige Musikgruppen erzielen den größten Teil ihrer Einnahmen nicht mehr über den Verkauf von Tonträgern, sondern durch teure Eintrittskarten zu ihren Konzerten. Die verkauften Scheiben dienen dabei hauptsächlich noch als Werbematerial.
Abb. 4.4: Online-Shop iTunes von Apple Einen völlig anderen Weg als Apple beschritt Jimmy Wales30, ein vermögender Unternehmer aus Chicago, mit Wikipedia. Ähnlich wie bei Projekten im Bereich ‚Open Source Software’ gewann er viele Menschen dazu, gemeinsam an einer Enzyklopädie zu arbeiten, ohne dass für die Beiträge Honorar oder Urheberschutz gefordert wurde. Die Einträge der Enzyklopädie können von jedermann frei genutzt werden. Millionen in aller Welt betätigen sich als Autoren, fast jeder Internetnutzer kennt und arbeitet mit dieser Informationsquelle. Der Erfolg war so überwältigend, dass kommerzielle Verlage (Meyer, Brockhaus), die umfangreiche wertvolle Enzyklopädien veröffentlichten, dieses Geschäft weitgehend aufgeben mussten. Natürlich wird es in Zukunft beide Wege geben. Es wird viele Werke geben, die von den Urhebern gleich nach ihrer Entstehung der Allgemeinheit als Geschenk übergeben werden – sei es aus altruistischen oder anderen Gründen. Für andere Werke werden Urheber ihre traditionellen Rechte ausüben wollen, nicht zuletzt weil sie damit Geld verdienen wollen. Diese Möglichkeit sollte man weder blockieren noch in Misskredit bringen. Niemand will, dass wir nur mit der Produktion physischer Güter unseren Lebensunterhalt bestreiten können. Das würde Wirtschaft und Gesellschaft einige Jahrhunderte zurückwerfen, oder Europa auf das Niveau des frühen Mittelalters versetzen. Weitere Informationen: Die FFII hält sich zugute, die EU-Kommission im Jahre 2005 daran gehindert zu haben, eine Patentrichtlinie zu erlassen. Da die Gefahr gesehen wurde, dass mit dieser Richtlinie die Patentierbarkeit von software-bezogenen Erfindungen nicht in ihrem Sinne geregelt, also verboten würde, hatte man eine ausgesprochen aggressive politische Kampagne aufgezogen. Erreicht wurde damit, dass europäische Erfinder weiterhin sehr stark 44
verunsichert sind, und dass der Abstand zu den USA und andern Ländern, die das geistige Eigentum an software-bezogenen Erfindungen stärker schützen, sich weiter vergrößert. Sowohl zum Patentrecht wie zum Urheberrecht hat die Gesellschaft für Informatik e.V. (GI) sehr ausgewogene Stellungnahmen31 veröffentlicht. Beim Patentrecht wurde deutlich herausgearbeitet, wie unterschiedlich hier die Meinungen sind, je nachdem ob man in der Industrie oder an Hochschulen tätig ist. Konkrete Hilfen für die Patentanmeldung erteilt eine Broschüre32 des Branchenverbands BITKOM. Sie benutzt als Beispiel ein seit dem Jahre 2004 bestehendes Patent der Firma Wibu aus Karlsruhe (siehe auch Anhang B). 4.6 Cyberkrieg Fragen: Hat sich aufgrund der Vernetzung von Computern der Computer-Krieg als eine neue Form für die Kriegsführung ergeben, auf die die Staaten reagieren müssen? Geht es dabei nur um die Bedrohung durch Terroristen oder ist es auch eine gefährliche Angelegenheit zwischen einzelnen Staaten? Fakten und Erklärungen: Derzeit gibt es im Zusammenhang mit dem deutschen Militäreinsatz in Afghanistan eine Diskussion darüber, für welche Art von kriegerischer Auseinandersetzung das Wort ‚Krieg’ verwandt werden darf. Nach Clausewitz’ Definition und nach den Genfer Konventionen des Völkerrechts sind Kriege mit Waffen ausgetragene Konflikte zwischen Staaten. Nicht ganz in diese Definition passen Bürgerkriege und Handelskriege. In vielen Ländern ist für Kriege das Militär zuständig, für alles andere die Polizei. Leider ist diese klare Aufteilung heute nicht mehr aufrecht zu erhalten. Man spricht von asymmetrischen Kriegen, wenn ein Land von außen von einer nichtstaatlichen Organisation angegriffen wird, sei es die Mafia oder der internationale Terrorismus. Gegenmaßnahmen, die auch über das Territorium des eigenen Landes hinausführen können, sind dann Sanktionen oder Befriedungseinsätze. Das Wort Cyberkrieg ist eine Verkürzung für Krieg im Cyberspace, also einer Auseinandersetzung in dem von Computernetzen gebildeten virtuellen Raum. Täglich bilden die Rechner von Regierungsstellen in vielen Ländern der Welt das bevorzugte Ziel von Hunderten von Angriffen. In den USA sind es etwa Tausend solcher Attacken pro Tag. Die Eindringlinge versuchen nicht nur, an sicherheitsrelevante Informationen zu gelangen – also Spionage zu betreiben –sondern konzentrieren sich oft auch darauf, den Computer-Betrieb von wichtigen Informatiksystemen durch Service-Blockierer lahm zu legen (engl. Denial of Service Attacks).
Hacker fegen georgische Regierungsseiten aus dem Netz Seit dem Wochenende sind nur noch wenige georgische Regierungsseiten online erreichbar. Die dortige Regierung hat ihre offiziellen Seiten auf Google-Blog-Server verlegt. Hinter den Attacken sollen russische Hacker stecken. Auf andern Webseiten tobt längst ein digitaler Propagandakrieg. Spiegel Online 11.8 2008
Abb. 4.5: Nachricht aus dem Cyberkrieg
Die zunehmend weltweit operierenden Eindringlinge können aber auch die Kontrolle über ein System übernehmen und es so einsetzen, dass dem Opfer auf vielerlei Art Schaden entsteht. Schließlich kann man absichtlich Informationen verfälschen, etwa um Flugzeuge oder Schiffe von ihrem Kurs abzubringen.
45
Angegriffen werden nicht nur militärische Einrichtungen, sondern auch zivile. Es kann eine Behörde ebenso treffen wie eine Bank, einen Energieversorger oder eine karitative Organisation. Dass fast alle Länder Gegenmaßnahmen ergreifen, ist selbstverständlich. Sie haben gar keine andere Wahl. Sie können sich nur überlegen, wie weit sie gehen. Will man vorbeugend tätig werden, muss man selbst Angriffe auf die Systeme des potentiellen Gegners vornehmen. Einer reinen Defensivstrategie stehen ähnliche Maßnahmen zur Verfügung wie dem Kampf gegen Computer-Viren. Im Grunde ist immer der Angreifer im Vorteil. Man kann ihn nicht an der Landesgrenze und nicht mit militärischer Gewalt aufhalten, sondern nur mit Mitteln der Informatik. Der Angreifer benutzt immer eine Schwachstelle der Systeme als Eintrittstor. Er muss auch nicht seine Identität preisgeben. Nach dem Angriff geht es zunächst um Isolation und Schadensbegrenzung. Wichtiger als an einen Gegenschlag zu denken, ist die Reparatur des eingetreten Schadens und die Verhinderung eines neuen Angriffs. Alle kriegerischen Konflikte der letzten Jahre waren von Cyberkrieg-Aktionen begleitet, so der Kosovo-Krieg, der erste Golfkrieg, der Irak- und der Afghanistankrieg, aber auch der Georgienkrieg (siehe Abb. 4.5) des letzten Jahres. Uns allen müsste der massive Angriff auf unser EU- und NATO-Partnerland Estland33 im Mai 2007 noch im Gedächtnis sein. Anlass war die Umsetzung einer Bronzestatue aus der Sowjetzeit von der Stadtmitte an den Stadtrand von Tallinn. Die vermutlichen Angreifer waren nationalistische Gruppen in Russland. Ihre Ziele waren die Mobilisierung der Esten gegen ihre eigene Regierung und die Durchsetzung ihrer Forderung, die Statue an den ursprünglichen Standort zurück zu versetzen. Estland war durch diese Attacke auf die Mailboxen und Computer der Bevölkerung deshalb so sehr getroffen, weil dort die Internet-Durchdringung von Wirtschaft und Verwaltung im europäischen Vergleich sehr hoch ist. Hätte die NATO diesen Cyber-Angriff als Krieg aufgefasst, wäre sie zum Beistand verpflichtet gewesen. Die USA sind mit großem Abstand das Hauptziel aller Cyber-Angriffe. Die Gründe sind offensichtlich. Die Informatisierung von Wirtschaft und Gesellschaft ist dort sehr weit fortgeschritten. Das Land verfügt über viele, sehr attraktive Ziele. Nicht zuletzt wegen der Politik der früheren Bush-Regierung blieb es lange ein Lieblingsgegner vieler Intellektueller. Schließlich kann man auf diesem Wege dem militärisch starken Land ernsthaft Schaden zufügen, auch wenn man in Andorra oder San Marino sitzt. Als bedrohende Länder gelten aus amerikanischer Sicht heute vor allem Cuba, China, Iran, Nordkorea – und bis vor kurzem– Libyen. Bedroher Nummer Eins ist jedoch der internationale Terrorismus, der sich vor allem mit dem Namen Al Qaida34 verbindet. Viel breiter wird das Feld dieser Bedroher, wenn man die Gefahren, die für Industriekonzerne und private Firmen bestehen, dazu rechnet. Das Thema Industriespionage und Diebstahl von geistigem Eigentum spielen dabei eine besondere Rolle. Nicht jeder Staat ist bereit oder in der Lage, auch in dieser Hinsicht Verantwortung zu übernehmen, d.h. mehr als nur den öffentlichen Bereich zu schützen. Als besonders tückische Angriffsform wird in Cyber-Kriegen die friedliche Eroberung angesehen. Das ist der Fall, wenn ein Land ein anderes dazu verführt, sich von ihm abhängig zu machen. Man spricht dann auch von sanfter Gewalt. Das meist zitierte Beispiel ist die Firma Microsoft. Viele Volkswirtschaften der Welt hätten sich durch den Einsatz der aus Amerika stammenden Software-Produkte freiwillig in eine Abhängigkeit begeben, aus der sie kaum noch entkommen könnten. Nicht so gern redet man über die Abhängigkeit von deutschen Produkten, in der sich viele Länder, vor allem die USA, befinden, etwa der Software von SAP oder dem Kernspintomografen von Siemens. Bewertung und Vorschläge: Jede aktive Strategie, die ein Land auf diesem Gebiet ergreift, hat mit großen Schwierigkeiten zu kämpfen. Zunächst geht es um die Abwehr einer Gefahr, 46
die im Bewusstsein der breiten Bevölkerung nur eine untergeordnete Bedeutung einnimmt (etwa im Vergleich zur Kinderpornografie oder zur Schweinegrippe). Zur Abwehr werden nicht nur Geldmittel, sondern spezielle fachliche Kompetenzen benötigt, die auch in der Wirtschaft knapp und begehrt sind. Schließlich muss der technische Inhalt der Strategie sich laufend ändern, um mit dem Stand der Technik und der Raffinesse der Gegenseite mithalten zu können. Die Augen zu verschließen oder absichtlich im Paradies des Unwissens und der Unschuld zu verweilen, kann teuer zu stehen kommen. Weitere Informationen: Es gibt nur sehr wenige offen zugängliche Publikationen. Manches was es gibt, ist entweder sehr unspezifisch oder längst veraltet. Letzteres gilt leider für das recht konkrete Buch von Anthony und Justin Cordesman (2003). Eher in die erste Kategorie fällt das Buch von Martin Libicki (2007). 4.7 Megarisiken Fragen: Können versagende oder falsch programmierte Computer Katastrophen wie Stromausfälle in größeren Bereichen, Verkehrsunfälle, Finanz- und Firmenpleiten oder gar größere Umweltkatastrophen verursachen? Gab es von Computern verursachte Todesfälle? Fakten und Erklärungen: Kommt die Rede auf Unfälle, die von Computern verursacht wurden, denkt jeder Informatiker „Da gibt es doch etwas!“. Gemeint sind die gesammelten Berichte von Peter Neumann (1994), einem Informatiker aus Kalifornien, der Jahrzehnte lang zusammengetragen hat, was an von Computern verursachten Unfällen bekannt wurde. Wenn er auch Hunderte von kleinen Zwischenfällen zitierte, zum Glück blieben Mega-Unfälle bis heute recht selten. Oft wurden auch Zeitungsmeldungen wiedergegeben, in der die Vermutung geäußert wurde, dass da wohl Computer im Spiel gewesen sein müssen. Ein Beispiel aus jüngster Zeit ist der Zusammenstoß zweier U-Bahnzüge im Juni 200935 in Washington, DC, der amerikanischen Bundeshauptstadt. Da die beiden Züge von einem zentralen Rechner gesteuert und ohne Zugführer unterwegs waren, wurde sofort ein Computerfehler vermutet. Das wurde später nicht (oder nur teilweise) bestätigt. Es fehlten nämlich bestimmte Sensoren an einem der Wagen. Verglichen mit dem Luftverkehr, wo es bei fast jedem Unfall leider viele Todesopfer gibt, schneidet die Informatik noch relativ gut ab. Weder beim Ausfall des Stromnetzes im Juli 1977 im Staat New York, der einen Schaden von über einer Milliarde Dollar verursacht haben soll, noch bei dem bekannten Reaktor-Störfall von Tschernobyl von 1986 spielten Computer eine Rolle. Heute wäre das vielleicht anders, denn in allen erwähnten Bereichen werden in zunehmendem Maße Computer zur Überwachung und Steuerung eingesetzt. Ein bisher unentdeckter Programmierfehler oder ein wesentlicher gerätetechnischer Defekt können gravierende Folgen haben. Fast alle Katastrophen bei der Zivilluftfahrt gehen auf menschliches oder seltener auf technisches Versagen zurück. Sehr selten sind Programmierfehler (ein Beispiel ist der in Abschnitt 3.1 beschriebene Fehler bei der Ariane-Rakete). Noch seltener ist das Versagen von einzelnen Computerfunktionen, weil die Systeme in Raketen, in Flugzeugen und auf großen Schiffen mehrfach ausgelegt sind. Tritt allerdings ein totales Versagen der Flugzeugtechnik einschließlich Stromausfall auf, können die Bordrechner auch nicht mehr helfen. Aber zum Glück ist das bisher Spekulation geblieben. Todesfälle, die unmittelbar auf das Fehlverhalten von Computern zurückzuführen sind, wurden bisher nicht bekannt. Eine (etwas schwer zu prüfende) Ausnahme bildet angeblich der Tod von 28 amerikanischen Soldaten im ersten Golfkrieg36, als eine irakische Rakete vom Radarsystem der Patriot-Abwehrbatterie nicht erkannt wurde.
47
Ein Software-Fehler soll dazu geführt haben, dass die Geschwindigkeit der feindlichen Rakete falsch bestimmt wurde. An den Börsen werden Computer eingesetzt, die über Tausend Transaktionen pro Sekunde abwickeln können. Der Agent überlässt es häufig dem Computer, gewinnbringende Kauf- und Verkaufstransaktionen zu selektieren und auszuführen. So wird immer wieder die Befürchtung geäußert, dass dies auch bei der augenblicklichen Finanzkrise mit eine Rolle gespielt haben könnte. Wir haben keine Beweise gefunden, weder in der einen, noch in der anderen Richtung. Auch im Hinblick auf finanzielle Schäden und Firmenpleiten gibt es hin und wieder Fälle, die durch die Presse gehen. So wurde die deutsche Software-Firma SAP im Jahre 200437 zu einem Vergleich gezwungen, weil ein amerikanischer Kunde (FoxMeyer) behauptete, dass die Software von SAP (R/3) nicht ordnungsgemäß funktionsfähig war, dass dadurch sein Geschäft beeinträchtigt wurde und dass die fehlende Funktionsfähigkeit wesentlich zum Konkurs und zur anschließenden Liquidation seiner Firma beigetragen habe. Bezeichnend für die Situation ist die folgende Beobachtung. Wenn man im Internet mit Stichworten wie ‚Katastrophale Software-Fehler’ oder ‚Unfall durch Computer’ sucht, erhält man Berichte über Programmabstürze am PC bei der Installation neuer Software - oder aber eine Nachricht, dass ein Computernutzer verletzt wurde, als sein Bildschirm implodierte. In letzter Zeit gab es Diskussionen zu der Frage, welche Risiken sich dadurch ergeben, dass Flugzeuge immer mehr von Computern gesteuert werden (engl. fly-bywire technology), so in der Titelgeschichte des Spiegel vom 27.7.2009. Dabei ging es um den Beinahe-Flugzeugabsturz in Hamburg im Jahre 2008 (vgl. Abb. 4.6). Zu dem tragischen Flugzeugzusammenstoß über Überlingen im Juli 2002 kam es, weil automatische und menschliche Flugkontrolle nicht harmonierten. Unabhängig voneinander leiteten sie Maßnahmen („Auf Sinkflug gehen!“) ein, die zu der verhängnisvollen Katastrophe führten.
Ließ Computerproblem Lufthansa-Maschine beinahe verunglücken? Bei der Untersuchung zum Beinahe-Absturz eines Lufthansa-Airbus am 1. März 2008 in Hamburg gibt es eine überraschende Wende: Die zuständigen Flugunfall-Ermittler prüfen nach SPIEGEL-Informationen, welche gefährliche Rolle die Flugcomputer bei dem Anflug während eines Orkans gespielt haben. Spiegel Online 25.7.2009
Abb. 4.6: Beinahe-Flugzeugabsturz
In einem modernen Passagierflugzeug gibt es Hunderte von vernetzten Rechnern, die eine Vielzahl von Funktionen steuern, angefangen von der Bestimmung der sicheren Fluggeschwindigkeit oder des richtigen Anstellwinkels bis zur Regelung des Kabinenluftdrucks oder der Toilettenspülung. Es wird einerseits anerkannt, dass die Flugsicherheit wesentlich erhöht wurde, weil durch Computer Fehler der Piloten verhindert oder kompensiert werden; andererseits besteht aber die Sorge, dass Piloten in große Schwierigkeiten geraten könnten, wenn sie auf Fehler, die ein Computer verursacht, nicht schnell und richtig reagieren. Bewertung und Vorschläge: Durch Computer verursachte Unfälle und Katastrophen sind nie völlig auszuschließen. Nur lässt sich dafür keine statistische Wahrscheinlichkeit angeben, wie bei andern technischen Geräten, die einem Verschleiß unterliegen. Wie in Abschnitt 3.1 ausgeführt, müssen eine bestimmte Vorgeschichte und die aktuelle Nutzung eine Situation herbeiführen, die zum Versagen führt. Für alle Risiken, die sich nicht vermeiden lassen, ist es zweckmäßig Vorsorge zu treffen. Man muss Szenarien durchspielen, die mit der Frage beginnen: „Was wäre, wenn…?“ Unter das Stichwort Risikomanagement fallen daher alle Maß48
nahmen, die dazu dienen, den durch eine Katastrophe verursachten Schaden möglichst klein zu halten und den ursprünglichen Zustand so schnell wie möglich wieder herzustellen. Wer sich vor den damit verbundenen Kosten scheut, muss bedenken, dass nichts zu tun, noch teurer werden kann. Den genannten Risiken steht gegenüber, dass manche Stromausfälle oder Verkehrsunfälle durch den verstärkten Einsatz von Computern vermieden und ihre Folgen reduziert werden können. Ein aktuelles Beispiel liefert die Automobilindustrie. Fast alle sicherheitstechnischen Verbesserungen an Fahrzeugen, die diskutiert werden, sind computer-basiert. Das gilt für die Fahrerassistenz, die Abstandswarnung und das automatische Bremsen wie für die Abmilderung von Schleuder- und abrupten Bremsprozessen. Es wird daran gedacht, dass in Zukunft Fahrzeuge sogar untereinander kommunizieren sollen mit dem Ziel, einen drohenden Zusammenprall zu verhindern. Für die Benutzung der Autobahnen sind intelligente Verkehrsleitsysteme geplant bzw. schon im Einsatz, so für die Stauwarnung, für Umleitungen, für das Sperren von Strecken und Tunneln, sowie zur Durchsetzung eines allgemeinen Fahrverbots bei Frosteinbrüchen, Sturmfluten oder Unwettern. Das alles erhöht aber auch die Komplexität von Fahrzeugen und Verkehrssystemen. Weitere Information: Das erwähnte Buch von Neumann ist immer noch die am meisten zitierte Quelle, obwohl es bereits 15 Jahr alt ist. Seine Sammlung von Hinweisen wurde in einer Fachzeitschrift fortgeführt. Die neueste Auflage seiner Berichte38 erschien im September 2009. Soweit externe Risiken die Informatikfunktionen eines Unternehmens betreffen werden diese als Teil des IT-Risiko-Managements diskutiert. Die Bücher von Hans-Peter Königs (2009) und Holger Seibold (2006) widmen sich diesem Thema. Sieht man über die Informatik hinaus, dann sind Naturgefahren nicht nur eine Herausforderung für die Technik, sondern auch für die Versicherungswirtschaft. Als technische Reaktion auf den verheerenden Tsunami von Weihnachten 2004 entstand ein von deutschen Wissenschaftlern entwickeltes Frühwarnsystem39, das im November 2008 im indischen Ozean in Betrieb ging. Die Versicherungswirtschaft ist bemüht, die bestmöglichen Informationen zu beschaffen, damit eine sachgerechte Raumplanung und Katastrophenvorsorge betrieben werden kann. Ein Beispiel ist der von der Münchner Rückversicherung40 in diesem Jahr zum ersten Mal herausgegebene Globus der Naturgefahren. Auf dieser DVD wurden Gefährdungskarten für Erdbeben, Hagelschlag, Tornados. Überschwemmungen und andere Naturereignisse integriert.
49
50
5. Sicht der Gesellschaftspolitiker und Kulturinteressierten Nicht nur die bisher erwähnten Nutzergruppen machen sich Gedanken über die Auswirkungen von Computern. Auch Leute, die sich als engagierte Bürger oder als Politiker um das Gemeinwohl kümmern, gelangen zu der Einsicht, dass Computer die Gesellschaft verändern. Fasst man Gesellschaft als ein System der Kommunikation auf, wie dies der bekannte deutsche Soziologe Niklas Luhmann (1997) tut, so sind solche Überlegungen nicht aus der Luft gegriffen. In diesem Kapitel soll daher dem Teilbereich der Kultur ein besonderes Augenmerk gelten. Auf den Teilbereich der Wissenschaft gehen wir später gesondert ein.
5.1 Gläserner Kunde und gläserner Bürger Fragen: Werden Organisationen durch Computereinsatz immer mächtiger und der Einzelne immer schwächer? Sind Kunden ganz dem Wohlwollen der großen Konzerne ausgeliefert? Wird der Bürger in den Amtsstuben der Verwaltung zu einer Nummer degradiert? Fakten und Erklärungen: Der Computereinsatz hat ohne Zweifel die Struktur der Wirtschaft und der Unternehmen verändert und verändert sie weiter. Es werden Aktivitäten ökonomisch sinnvoll, die sich vorher nicht hätten rechtfertigen lassen. Es werden auch neue Vorgehensweisen möglich, an die man vorher nicht zu denken wagte. Firmen nutzen die Möglichkeiten moderner Informatiksysteme zur Optimierung ihrer Geschäftsprozesse, zur Reduzierung ihrer Kosten oder zur stärkeren Kundenbindung. Betrachten wir als Beispiel den Einzelhandel. Im Laden von Tante Emma wusste die Ladeninhaberin noch, wer was brauchte und was kaufte. Im großen Einkaufszentrum geht dieser persönliche Kontakt zum Kunden verloren. Ersatzweise liefert dort die Kasse eine Fülle statistischer Informationen darüber, welche Artikel wann und in welcher Stückzahl verkauft wurden, so dass das Warenmanagementsystem den aktuellen Bestand kontrollieren und Empfehlungen zum Nachfüllen der Waren erstellen kann. Ganz anders ist es im Versandhandel oder beim Einkauf im Internet. Hier hinterlässt jeder einzelne Kunde detaillierte Spuren seiner Bestellungen. Aus seinem Einkaufsverhalten kann auf seine Hobbys und seine besonderen Bedürfnisse geschlossen werden. So weiß zum Beispiel der Online-Buchhändler genau, welche Bücher jeder Kunde zuletzt kaufte und begrüßt einen wiederkehrenden Kunden, indem er ihm anzeigt, welche themenverwandten Bücher er gerade im Angebot hat. Außerdem sagt er, welche Bücher andere Kunden, die auch ein solches Buch erwarben, zusätzlich kauften. Große kommerzielle Marktforschungsinstitute leben davon, dass sie Daten von Rabattkartenfirmen wie PayBack oder Happy Digits beziehen und auswerten. Sie können damit komplette Kundenprofile erstellen. Firmen, die ihre Kundendaten auf diese Weise nützen, vollziehen eine Gratwanderung. Sie ersparen sich einerseits große Kosten, indem sie ihre Werbemaßnahmen gezielter ausrichten können. Insbesondere brauchen sie nicht mehr Tonnen von Werbematerial zu verteilen, das doch größtenteils im Papierkorb landet. Andererseits müssen sie aufpassen, dass sie ihre Kunden nicht verprellen. Ein Kunde, der das Gefühl hat, ausspioniert zu werden, reagiert nämlich erschrocken und neigt dazu, die Geschäftsbeziehung schnell zu beenden. Viele Firmen haben eingesehen, dass es sich mehr lohnt, sich um solche Kunden zu kümmern, die der Firma schon einmal (oder mehrmals) ihr Vertrauen ausgesprochen haben, als um neue Kunden zu werben. Das gilt besonders in gesättigten Märkten, d.h. Märkten, in denen die Gesamtzahl der Kunden nicht wächst, und wo alle mit der entsprechenden Produktgruppe schon in Berührung gekommen sind. Gezielte Aktionen der Kundenbindung werden mit dem Schlagwort ‚Customer Relationship Management (CRM)’ bezeichnet. CRM ist auch ein lohnendes Geschäft für die Anbieter von Software-Lösungen. Einem ähnlichen Zweck dienen Pakete, die als 51
‚Data Warehouse’ oder ‚Business Intelligence’ bezeichnet werden. Sie gestatten es, riesige Datenmengen möglichst schnell und zeitnah zu durchforsten, um neue Zusammenhänge zu finden, auf die man beim bloßen Hinsehen nicht gekommen wäre. Wenn dabei aber herausgefunden wird, dass Wanderschuhe primär im Sommer in Süddeutschland von Kunden im Alter zwischen 15 und 50 Jahren gekauft werden, so fragt man sich, wozu der Aufwand. Das weiß doch jeder. Wichtig ist aber gerade das herauszufinden, was nicht schon jeder weiß. Solche Funde bleiben dann auch Betriebsgeheimnisse der die Suche durchführenden Firma. Sie stellen einen klaren Wissensvorsprung gegenüber der Konkurrenz dar. Neben dem Handel sind detaillierte Kundendaten auch für andere Branchen von großer Bedeutung, so etwa für Banken und Versicherungen. Auch sie können ihre Angebote anpassen oder ihre Risiken genauer bestimmen, wenn sie Genaueres über die Situation und die Gewohnheiten ihrer Kunden wissen. Das beginnt mit der Prüfung der Kreditwürdigkeit durch die Schutzgemeinschaft für Allgemeine Kreditsicherung, kurz Schufa41 genannt. Obwohl die Verbraucher inzwischen eine kostenlose Auskunft über die über sie gespeicherten Daten verlangen können, so sind doch Zweifel an ihrer Zuverlässigkeit angebracht. Im Gesundheitswesen ist vom „gläsernen Patienten“ die Rede, in der Verwaltung vom „gläsernen Bürger“. Die Interessen dieser Organisationen sind dieselben wie in der Wirtschaft. Jede zusätzliche Information soll genutzt werden, um Kosten zu sparen oder um zusätzliche Dienstleistungen anbieten zu können. Auch die geplante Einführung der „Gesundheitskarte“, auf der alle Daten von Arztbesuchen, verordneten Medikamenten usw. gespeichert werden sollen, zielt in diese Richtung. In allen Fällen sind juristische Grenzen da gesetzt, wo gegen Datenschutzbestimmungen verstoßen wird. Die Grundlage hierfür bildet das vom Bundesverfassungsgericht im Zusammenhang mit dem Volkszählungsurteil42 im Jahr 1983 entwickelte Recht auf informationelle Selbstbestimmung. In dieser Hinsicht ist die Rechtslage in Deutschland deutlich besser als in vielen andern Ländern.
Abb. 5.1: Funketiketten (Quelle WiSys43) Bewertung und Vorschläge: Um sich vor unerwünschten Folgen zu schützen, sollte man grundsätzlich nur solche Waren im Internethandel bestellen, die man auch auf einem offenen Markt oder in einem Kaufhaus kaufen würde. Bei speziellen Medikamenten oder sehr persönlichen Gegenständen ist Vorsicht geboten. Bei der Bezahlung ist ein Internet-Zahlungsdienst wie PayPal der Angabe von Kreditkartenummern vorzuziehen, da der Lieferant damit weniger Information erhält. Kundenbeziehungen, die über das Internet entstanden sind, können jeder52
zeit widerrufen werden. Dazu genügt (meist) eine kurze E-Mail. Bei allen Behörden und Unternehmen kann jeder Bürger Auskunft darüber verlangen, welche persönlichen Daten über ihn gespeichert wurden. Im Zweifelsfalle wendet man sich an den Datenschutzbeauftragten der betreffenden Institution. Eine besonders aktuelle Technik stellen die Funketiketten (engl. RFID-tags) dar. Sie ersetzen im Handel die bei der Markierung von Waren bisher üblichen Strichcodes (engl. barcodes). Während die Strichcodes nur aus der Nähe optisch gelesen werden können, senden Funketiketten die gespeicherten Daten bis zu hundert Meter aus (vgl. Abb. 5.1). Es lässt sich damit eine völlig neue Qualität der Artikelverfolgung aufbauen. Schon vor mehreren Jahren hatte die Firma Metro in Rheinberg bei Duisburg einen Testladen eingerichtet, in dem alle Waren durch Funketiketten ausgezeichnet waren. Ein Scanner konnte sämtliche Waren im Einkaufskorb identifizieren und die Rechnung erstellen, ohne dass der ganze Einkauf über eine manuell bediente Kasse lief. Das Projekt hatte den Namen ‚Future Store’. An diesem Projekt gab es deshalb Kritik, weil der Händler auch unzulässige Daten über die Kunden gesammelt hatte, also den Schutz persönlicher Daten ignoriert hatte. Viele deutsche Unternehmen sehen in Funketiketten einen großen Zukunftsmarkt. Ohne eine saubere Regelung des Datenschutzes werden diese Anwendungen jedoch keinen Erfolg haben. Weitere Informationen: Das öffentlich rechtliche Fernsehen hat in der jüngeren Vergangenheit mehrere Sendungen dem Thema ‚Gläserner Kunde’ gewidmet, so der WDR44 und die Sendung Frontal21 im ZDF. Vor allem das erwähnte Projekt ‚Future Store’ fand vielfache Resonanz in den Medien. Da die Einführung der RFID-Technik bei uns erst am Anfang steht, lohnt es sich, sie besonders im Auge zu behalten. 5.2 Großer Bruder Fragen: Bedrohen Computer und Computer-Netze die Privatsphäre einzelner Bürger und die bürgerlichen Rechte in unserer Gesellschaft? Behindern sie die Demokratisierung und die Teilnahme am gesellschaftlichen und politischen Leben? Führen sie den Überwachungsstaat herbei? Fakten und Erklärungen: Das Schlagwort „Großer Bruder“ erinnert an George Orwells Roman ‚1984’. Orwell beschrieb darin schon 1948 die negative Utopie eines totalitären Überwachungs- und Präventionsstaates, die er auf das Jahr 1984 projizierte. Er hat schon damals klar erkannt, dass dabei Computer eine entscheidende Rolle spielen würden. Heute verfügen wir zweifellos über die Technologie, die eine solche Schreckensvision ermöglichen würde. Einige Leute sind auch fest davon überzeugt, dass wir uns – zwar langsam, aber unaufhaltsam – in die von Orwell beschriebene Richtung bewegen, und das nicht nur in Deutschland, sondern in fast allen größeren oder reichen Ländern dieser Erde. Kleineren und armen Staaten fehlen meist die Mittel dazu. Der wohl entscheidende Auslöser für eine neue, bedrohliche Entwicklung waren die Ereignisse des 11. September 2001 und der sich daran anschließende, von mehreren Regierungen der Welt ausgerufene „Kampf gegen den Terrorismus“. Entscheidend für diese neue Phase der Sicherheitspolitik ist, dass man nicht nur geschehene Verbrechen besser aufklären, sondern mögliche Verbrechen vorausschauend verhindern will. Das hat zur Folge, dass ein neuer Schwerpunkt der Polizeiarbeit sich der Prävention widmet. Als Beispiele für solche Präventivmaßnahmen gelten nach Ralf Bendrath45 von der Universität Bremen: -
Die Vorratsdatenspeicherung über alle Bewohner der EU bezüglich ihres Telefon- und Internet-Verkehrs der letzten sechs Monate. 53
-
Die Speicherung von Fingerabdrücken in Reisepässen. Eine nationale Gen-Datenbank in Großbritannien. Eine ausführliche Datensammlung über Flugpassagiere in die und innerhalb der USA, die vor Betreten des Flugzeugs überprüft wird. Die versuchsweise Installation von Überwachungskameras in Bahnhöfen und in belebten Innenstadtbezirken.
Obschon in jedem Falle gesetzlich genau geregelt ist, welche Daten wie lange gespeichert werden dürfen und wer Zugang dazu hat, entsteht bei vielen Bürgern die Sorge, das etliche staatlichen Organe der Versuchung nicht widerstehen können, die so gewonnenen Daten auch anders zu nutzen. Als Beispiel werden die Daten genannt, die bei der automatischen Erhebung von Maut für die Autobahnnutzung entstehen. Es ist rechtlich festgelegt, dass diese Daten nur für die Abrechnung von Straßengebühren verwandt werden dürfen. Dennoch kommen immer wieder Stimmen auf, die fordern, dass man diese Daten auch bei der Verbrechensaufklärung, etwa bei einer Entführung, einsetzen sollte. Die Situation ist nicht unähnlich dem oben beschriebenen Customer Relationship Management (CRM). Da die Daten schon mal gesammelt sind, will man halt auch den maximalen Nutzen aus ihnen ziehen. Die Sorge der Bevölkerung wird auch dadurch genährt, dass wir zwar im Moment in Deutschland eine wohlmeinende, demokratisch legitimierte und das Grundgesetz achtende Regierung haben, dass dies aber nicht für immer garantiert ist. Gerade wir Deutschen sind in dieser Hinsicht „gebrannte Kinder“. Das Nazi-Regime liegt zwar über 60 Jahre zurück, auch die Stasimethoden in Mitteldeutschland sind seit über 20 Jahre Vergangenheit, aber die Angst vor Terroristen oder gewaltbereiten Extremisten, ob am rechten oder linken Rand der Parteienskala, scheinen nicht auszusterben kann die Organe eines demokratischen Staates dazu verführen, von demokratischen Grundregeln abzuweichen. Internet
Die digitale Revolution Twitter, Youtube und Facebook sind zurzeit die Hauptwaffen der Demonstranten in Iran. Das Internet hilft den Massen, sich zu organisieren und Bilder ihres Aufstands zu verbreiten. Aber kann es auch eine Diktatur stürzen? Siemens hat es schon lange gewusst. Bevor überhaupt die erste Twitter-Nachricht über einen möglichen Wahlbetrug in Teheran durch das Internet schoss und die tausendfache Verbreitung dieser Botschaften schließlich einen Massenprotest in den Straßen Irans anfachte, hatte der Münchner Technologiekonzern sein Geschäft mit der Angst schon gemacht – der Angst vor der Macht des Internet … Der Spiegel 22.6.2009
Abb. 5.2: Unruhen im Iran Haben wir bisher die Sorgen und Risiken beschrieben, die dadurch entstehen, dass durch die Computer und ihre Vernetzung der Politik und den Behörden neue Mittel in die Hand gegeben wurden, so gibt es auch die Kehrseite. Diese Informatiksysteme bieten auch den Bürgern neuartige Möglichkeiten, sich am politischen Leben zu beteiligen oder sich ihre (Bürger-) Rechte zu erkämpfen. Die Unruhen im Iran, die sich im Anschluss an die Wahlen im Juni 2009 einstellten, können dies belegen (vgl. Abb. 5.2). Aber auch in China, in Myanmar (dem früheren Burma) und in Nordkorea gibt es Beispiele dafür, dass das Internet es Dissidenten erlaubte, sich Gehör zu verschaffen. 54
Auch in Ländern mit langer demokratischer Tradition scheint das Internet, sofern es richtig genutzt wird, in der Lage zu sein, politische Prozesse zu verändern. In auffallender Weise geschah dies bei der Wahl von Barack Obama, dem jetzigen US-Präsidenten. Sein Wahlsieg wird darauf zurückgeführt, dass es ihm wie keinem anderen Kandidaten zuvor gelang, per Internet Anhänger zu mobilisieren. Jetzt setzt er diesen Stil fort, indem er seine Landsleute auffordert, mit Freunden und Nachbarn über notwendige politische Maßnahmen zu diskutieren – und hier nicht zuletzt das Internet mit seinen Foren46 und anderen Diskussionsgruppen strategisch zu nutzen. Dasselbe versucht Obama auch im internationalen Bereich. Er wendet sich direkt an ganze Volksgruppen wie die Muslime, um ihnen seine Politik zu erklären. Er nutzt sein Potenzial, Vermittler und politische Meinungsführer einfach zu umgehen. IV. FREIHEIT UND SICHERHEIT Durch Bürgerrechte und starken Staat 2. Informations- und Mediengesellschaft Das Internet ist das freiheitlichste und effizienteste Informations- und Kommunikationsforum der Welt und trägt maßgeblich zur Entwicklung einer globalen Gemeinschaft bei. Die Informationsgesellschaft bietet neue Entfaltungsmöglichkeiten für jeden Einzelnen ebenso wie neue Chancen für die demokratische Weiterentwicklung unseres Gemeinwesens sowie für die wirtschaftliche Betätigung. …. Wir bekräftigen, dass Recht und Gesetz im Internet schon heute und in Zukunft ebenso gelten wie überall sonst. Daher werden wir für mehr Datenschutz sowie durch eine Stärkung der IT-Kompetenz und entsprechend ausgebildetes Personal bei den Sicherheitsbehörden für eine Verbesserung der Anwendung des geltenden Rechts zur Verfolgung von Kriminalität im Internet sorgen. … Wir werden uns für eine Stärkung der IT-Sicherheit im öffentlichen und nicht öffentlichen Bereich einsetzen, um vor allem kritische IT-Systeme vor Angriffen zu schützen. Hierzu wollen wir insbesondere durch Aufklärung und Sensibilisierung der Öffentlichkeit die Menschen zu mehr Selbstschutz und die Nutzung sicherer IT-Produkte anzuregen.
Abb. 5.3. Auszug aus Koalitionsvertrag CDU, CSU und FDP von 2009 Obwohl unsere Politiker aufmerksam auf diese Methoden der USA schauen, ist noch nicht zu erkennen, wie weit sich ähnliche Ideen bei uns durchsetzen werden. Die wöchentlich ausgestrahlten Podcasts von Frau Merkel ließen sich auch per Fernsehen übermitteln, da sie keine interaktiven Möglichkeiten nutzen.
55
Bewertung und Vorschläge: Das in diesem Abschnitt beschriebene Problem macht deutlich, wie Vorteile und Nachteile des neuen Mediums Internet miteinander konkurrieren. Was den einen als Bedrohung erscheint, dient andern zur Sicherung und Verteidigung ihrer Freiheit. „Internet-Puristen“ sehen das Internet als öffentliches Gut an und als freien Marktplatz der Meinungen, den es zu schützen gilt. Als Bedroher werden gewinnsüchtige Privatunternehmen wie auch kontrollwütige Behörden angesehen. Es kommt für jeden einzelnen Nutzer des Internets darauf an, eine gute Balance zwischen Chancen und Risiken zu finden. Aus Angst vor dem ‚großen Bruder’ Staat sollten wir die Chancen nicht ungenutzt lassen, die sich im Hinblick auf die Verbesserung der demokratischen Prozesse bieten. Weitere Informationen: Die Rolle des Internets für die Entwicklung der demokratischen Gesellschaft wird in Deutschland vor allem von dem Bielefelder Politologen Claus Leggewie47 und seinen Mitarbeitern thematisiert. In einem gerade erschienenen Buch beschwören die beiden Schriftsteller Ilija Trojanow und Juli Zeh (2009) mit sehr viel Eloquenz die Gefahr des Überwachungsstaats. Sie befürchten, dass wir gerade dabei sind, aus Angst vor Terroristen die zivilisatorischen Errungenschaften der letzten zweihundert Jahre über Bord zu werfen. Auch die Bundesregierung ist sich ihrer Verantwortung gegenüber dem Internet bewusst. Das kommt unter anderem in der Koalitionsvereinbarung48 von CDU, CSU und FDP zum Ausdruck, die gerade verabschiedet wurde. Einige Kernsätze sind in Abb. 5.3 wiedergegeben. 5.3 Kinderpornografie und Cybermobbing Fragen: Wie kann das Unwesen der Kinderpornografie im Internet unterbunden werden? Kann man durch Computernutzung ungewollt in Straftaten hinein gezogen werden? Kann ich mich im Internet gegen Verleumdungen oder Beschimpfungen schützen? Fakten und Erklärungen: Durch das Internet ergeben sich neuartige und bequeme Möglichkeiten, auch strafrelevante Inhalte schneller und weiter zu verbreiten als dies früher möglich war. Kinderpornografie ist nur ein Beispiel. Auch die Verbreitung von rechts- oder linksradikaler Hetze, die Leugnung des Holocausts oder die Verherrlichung von perversen Sexpraktiken und von Gewalt ist nicht ausgeschlossen und treibt neue Blüten. Personen, die im öffentlichen Leben stehen als Politiker, Künstler, Sportler oder Lehrer müssen sich darauf gefasst machen, dass über sie „hergezogen“ wird, ohne dass sie sich im Einzelfall wehren können. Selbst persönliche Auseinandersetzungen, wie sie früher zwischen Nachbarn am Gartenzaun ausgetragen wurden, landen mitunter im Internet. Der Straftatbestand der Kinderpornografie besteht nach §148b des Strafgesetzbuches einerseits im Anbieten von belastendem Foto- oder Filmmaterial, andererseits auch im nachweislichen Besitz. Er kann mit einer Geldbuße oder dem Freiheitsentzug von bis zu zwei Jahren bestraft werden. Entsprechendes gilt für das oben erwähnte politische Material. Kinderpornografie gibt es nicht erst, seit es das Internet gibt. Entsprechende Bilder und Schriften werden auch über den Postweg verbreitet oder unter dem Ladentisch verkauft. Ob das Ganze auch ein großes Geschäft darstellt, oder ob die Bilder und Filme doch meist kostenlos verbreitet werden, ist unklar. Im Internet wurde jedenfalls in den letzten Jahren ein enormes Anwachsen der Kinderpornografie festgestellt, was in Deutschland die Politik auf den Plan rief. So gelang es im Juni 2009 der Familienministerin Ursula von der Leyen, in Rekordzeit ein neues Gesetz49 durch das Parlament zu bringen, das diesen Strafbestand neu regelt. Außerdem wurde mit allen Firmen, die Internet-Dienste anbieten (den so genannten Providern) ein Vertrag abgeschlossen. Er soll bewirken, dass entsprechende Webseiten blockiert werden. Das Gesetz hat eine heftige Diskussion ausgelöst, die noch nicht abgeschlossen ist. Die eine Seite argumentiert, dass das Internet keinesfalls ein ‚rechtsfreier Raum’ sein dürfte, die andere Seite 56
unterstellt ihren Gegnern, dass dies nur ein erster Schritt zu einer umfassenden Zensur des Internet sei. Es gibt viele Leute, denen sehr am Herzen liegt, den Einfluss des Staates wie den der Wirtschaft vom Internet fern zu halten. Diese „Internet-Puristen“ verweisen dabei auf Länder wie China oder Iran. Dort kann das Internet nur dann eine die Demokratisierung fördernde Wirkung haben, wenn man verhindert, dass der Staat (weiterhin) Kontrolle ausübt. Dadurch dass die neue Regierung die Umsetzung der im Gesetz vorgesehenen Maßnahmen für ein Jahr ausgesetzt hat, wird eine Versachlichung der Diskussion erwartet. Viele Vorgänge, die im Internet ablaufen, nehmen nicht wenige von uns als schlichte Kuriositäten hin. Es berührt sie kaum. Mancher vielleicht etwas naive Zeitgenosse, dem gesagt wurde, dass das „Mitmach-Web 2.0“ etwas Gutes sei, wundert sich, wenn er nach seinen ersten Beiträgen mit Schmutz und persönlichen Beleidigungen überzogen wird.
Streit über Internetsperren Während die „Piratenpartei“ an diesem Wochenende ihren ersten Bundesparteitag in Hamburg abhält und ein Wahlprogramm für die Bundestagswahl beschließen will, geht der Streit in der SPD um die beschlossene Einrichtung von Internetsperren gegen Kinderpornographie und den Umgang mit der Internetszene weiter. Das von Union und SPD beschlossene Gesetz errichte ein „Zensurinfrastruktur“ und sei „der Einstieg in eine politisch motivierte Aufstellung von Internet-Sperren“, sagte das Mitglied des SPD-Parteivorstandes Björn Böhning dieser Zeitung. Er warf seiner Partei vor, das Anliegen einer ganzen Generation zu missachten… Frankf. Allg. Sonntagszeitung 5.7.2009
Abb. 5.4: Diskussion über Kinderpornografie Die Internet Community (so nennt sich die Gemeinschaft der „wahren“ Nutzer) hat nämlich eine ganz besondere „Ethik“ entwickelt. Sehr leicht kann ein gelegentlicher Eindringling etwas tun oder sagen, was gegen die in der Community herrschenden Vorstellungen verstößt. Sobald man sich etwa für Microsoft und gegen Apple äußert, für die bürgerlichen Parteien und gegen die Grünen, für Geldverdienen und gegen Sozialtransfer, wird man mit Häme überzogen. Über Nacht sprießen plötzlich Hunderte von Meinungsäußerungen über die „ungeliebte Ansicht“ einzelner Teilnehmer wie Pilze aus dem Boden. Obwohl durch ein Pseudonym verdeckt, kann man schließen, dass es primär (allein stehende) junge Männer sind, die hier zwischen 22 Uhr und 6 Uhr morgens besonders produktiv sind. Sie betrachten das Internet nicht nur als ihr Revier, sondern als ihr Gehege, aus dem sie andere „unpassende“ Nutzer vertreiben möchten. Von Cybermobbing (oder Cyberbullying) wird gesprochen, wenn das Internet dazu genutzt wird, um Mitmenschen mit Verleumdungen oder Schikanen zu überziehen. Die Täter bleiben in der Regel anonym. Betroffen sind vor allem Schüler, Lehrer und Arbeitskollegen. Schätzungen gehen davon aus, dass allein in Deutschland die Zahl der betroffenen Schüler in die Millionen geht. In einer im Jahre 2007 von der Gewerkschaft Erziehung und Wissenschaft 50 (GEW) durchgeführten Mitgliederumfrage gaben 8% der befragten Lehrer an, schon Opfer von Cybermobbing gewesen zu sein. Bewertung und Vorschläge: Wir konnten Verbrecher und Ganoven zu keiner Zeit daran hindern, die neuesten technischen Mittel zu verwenden, um ihre Ziele zu erreichen. Wir können dies auch heute nicht. Dass die Konsumenten von Drogen oder pornografischem Material ihre Gelüste ablegen, darauf hoffen wir schon seit Generationen vergeblich. Offensichtlich haben ärmere Länder weniger mit diesen Problemen zu kämpfen als reiche. Unsere Strafverfolgungsbehörden müssen aktiv bleiben. Sie müssen sich sogar steigern, indem sie ihre Kompe57
tenz in der Internet-Nutzung verbessern. Weil das Internet von Hause aus eine internationale Plattform darstellt, ist einzelstaatliche Kontrolle de facto unmöglich. Nur eine intensive Kooperation zwischen den Ländern kann weiterhelfen. Das ist aber nichts grundsätzlich Neues. Der weltweite Kampf gegen Drogenkartelle oder Waffenschmuggel funktioniert nicht anders. Die derzeitig astronomisch hohe Anzahl von Gesetzesverstößen mag die Justiz entmutigen. Es wäre aber fatal, wenn daraus die Konsequenz gezogen würde, den Gesetzesverstößen gegenüber zu kapitulieren und die Gesetze anzupassen – wie dies allen Ernstes von einigen selbst ernannten „Netz-Beschützern“ vorgeschlagen wird. Will man im Internet mit eigenen Textbeiträgen in Erscheinung treten, muss man sich klar werden, dass man sich auf einen öffentlichen Platz begibt. Anders ist es, wenn man in einer geschlossenen Gruppe bleibt, sei es im Bekanntenkreis oder unter Fachkollegen. In allen andern Fällen muss man aber damit rechnen, dass man kritisch beäugt und unfair behandelt wird. Da man seine Pfeile aus einer Hecke heraus schießen kann, und da der eventuell Getroffene einem weder ins Gesicht schaut noch per Telefonleitung verbunden ist, reizen die Internet-Foren viele Leute zu provozierenden, ja geradezu unflätigen Formulierungen. Höflichkeit ist nicht gefragt. Im Fall von Cybermobbing kann man zwar wegen übler Nachrede eine Klage einreichen, sofern man die Identität des Verleumders feststellen kann. Wer nicht darauf angewiesen ist, kann den betreffenden Internetdienst abschalten und von diesem gefährlichen Gelände fernbleiben. Besser ist es hinzuschauen, aufzuklären und zu warnen. Leider gehört dazu etwas Mut. Deshalb sollten Wege gefunden werden, wie man sich gegenseitig unterstützen kann. Auch die Politik kann Hilfe geben. So hat gerade die EU-Kommission eine Initiative51 gestartet, um Netzdienstleister zu überreden, zusätzliche Kontrollen vorzunehmen. Es ist nicht zu verkennen, dass das Internet zurzeit Gefahr läuft in Verruf zu geraten. Als Folge davon kommen auch die vielen potentiellen Vorteile für die Gesellschaft nicht oder erst mit Verzögerung zum Tragen. Wirtschaft wie Wissenschaft sind gefordert, nach wirklich verlässlichen Lösungen Ausschau zu halten. Die Politik muss den rechtlichen Rahmen weiter entwickeln. Wichtig ist, dass die Neutralität des Mediums gewahrt bleibt, sowohl was die Inhalte und auch was die zugelassenen Nutzer betrifft. Die Grenzen dieser Neutralität sind sicherlich schwieriger zu bestimmen als bei klassischen Medien wie beim Telefon. Hier muss die richtige Balance noch gefunden werden. Weitere Informationen: Die Zeitschrift Spiegel widmete in Heft 33 vom 10.8.09 einen Titelbeitrag dem Internet und seinen Diensten. In ihm wird die Breite der bestehenden sozialen und juristischen Problematik deutlich. Nach einer farbigen Schilderung von vielen Verwirrungen und Exzesse kommt das Journal zu folgender Schlussfolgerung: „Von allein funktioniert die Demokratie im Netz nicht. Es werden Moderatoren gebraucht, Organisatoren, Vermittler, auch Aufpasser. Die erfahrensten Kräfte der Welt – der analogen. Da wartet eine dringende Aufgabe auf den Club der guten alten Staaten“. Dem ist wenig hinzuzufügen. Inzwischen wurde auch von der Seite der Industrie eine Initiative White IT52 gegründet, deren Ziel es ist, zuerst eine gründliche Problemanalyse zu betreiben, um dann mit technisch machbaren Lösungsvorschlägen an die Öffentlichkeit zu treten. 5.4 Verblödung der Spezies Mensch Fragen: Führt die Computernutzung innerhalb der Bevölkerung zur geistigen Verarmung, Verdummung oder gar Verrohung? Was ist eigentlich Intelligenz und wann gilt jemand als intelligent? Erzeugt das Internet einen neuen Sprachstil und Umgangston? Fakten und Erklärungen: Mit diesem Thema kann man fast jede Abendgesellschaft, die gerade Gefahr läuft langweilig zu werden, auf Trab bringen. Manche können sich vielleicht 58
noch an entsprechende Diskussionen über das Fernsehen als neues Medium der 1960er-Jahre erinnern. Schnell werden sich auch jetzt wieder die Fronten klären. „Ja“, antworten die älteren Herrschaften, die selbst kaum Rechner nutzen, auf die erste der gestellten Fragen. „Nein“ sagen die Jungen. Einige besonders Interessierte warten mit Zahlen auf. Diese sind meist schwierig zu interpretieren, da nicht immer klar ist, worauf sie sich beziehen. Nach der vorherrschenden Meinung von Psychologen und Hirnforschern gilt Intelligenz als die Fähigkeit, durch Denken neue Probleme zu lösen. Das Gehirn muss dazu große Mengen an Information verarbeiten, d.h. aufnehmen, speichern, abrufen, verknüpfen, bewerten und ausgeben. Es werden – um dies in der Sprache der Computer auszudrücken – sowohl funktionierende Ein-/Ausgabe-Mechanismen (unsere fünf Sinne), assoziativ arbeitende Speicher wie zuverlässige Verarbeitungskapazitäten benötigt. Bekanntlich spielen bei der Intelligenz eines Menschen seine genetische Veranlagung eine Rolle, aber auch eine stetige Praxis im Umgang mit Problemlöseverfahren, Denkaufgaben und dergleichen. Wir können im Laufe des Lebens Wissen erwerben und Fertigkeiten trainieren, aber auch alles wieder vergessen und verlieren. Ob wir aber Erlerntes vererben oder Ererbtes verlieren können, ist bis heute von der Forschung noch nicht restlos geklärt. Ein Mensch gilt als intelligent, wenn er eine überdurchschnittliche geistige Leistungsfähigkeit besitzt. Als viel benutztes Maß gilt der so genannte Intelligenz-Quotient (IQ). Zu seiner Bestimmung wird ein Testkatalog benutzt, der Fragen zu Allgemeinwissen, Wortschatz, rechnerischem Können, audio-visueller Aufnahmefähigkeit und Abstraktionsvermögen enthält. Vielen Autoren erscheint dieser Intelligenzbegriff als zu eng. Sie plädieren dafür, ihn in Richtung „emotionale Intelligenz“ zu verbreitern. Die Maschinen der ersten industriellen Revolution haben den Menschen von vielen körperlich anstrengenden und Kräfte raubenden Tätigkeiten befreit. Die modernen Computer entlasten ihn von kognitiven Tätigkeiten wie z.B. dem Kopfrechnen, dem Auswendiglernen, den Rechtschreibregeln. Dafür können (und müssen) wir heute andere Fakten und vor allem neue Methoden lernen. Frühere Generationen mussten, ehe es Bücher gab, ihr gesamtes Wissen mit sich im „Kopf herumtragen“. Es passt heute (etwa auf einem USB-Stab gespeichert) leicht in die Hosentasche. Die Sänger zu Homers Zeiten konnten Epen im Umfang der Ilias oder der Odyssee aus dem Gedächtnis vortragen. Heute lernen Kinder kaum noch Gedichte, Kirchenlieder oder altsprachliche Vokabeln auswendig. Bei jeder Neuauflage der PISA-Studie redet eine oberflächlichen Berichterstattung nicht selten von einer "Verdummung der Jugend“. Obwohl die Speicherkapazität dieser jungen Gehirne keinesfalls beschränkter ist als früher, sehen wir solche Übungen als „unnötige Belastung“ an. Die Frage ist, womit beschäftigen und belasten wir dann heute unser Gehirn? Das Gehirn organisiere sich in Zukunft vielleicht anders, meint der bekannte MedienWissenschaftler Norbert Bolz53. Daraus sei aber kaum abzuleiten, dass die Menschen dadurch „dümmer“ würden. Für Frank Schirrmacher (2009) ist es unvermeidlich, dass sich aufgrund der Computernutzung unsere Gehirne verändern. Heute können wir noch fragen, ob das Internet uns dümmer macht. In ein paar Jahrzehnten habe diese Frage keinerlei Sinn mehr. Eher unentschieden bleibt dagegen Nicholas Carr in seinem Beitrag54 in Atlantic Monthly im Jahre 2008. Er verweist unter anderem auf Plato, der befürchtete, dass wir durch Aufschreiben unserer Gedanken (auf Papier oder Pergament) diese nicht nur bruchstückhaft wiedergäben, sondern dass wir gleichzeitig geistig verarmten, da wir viele unserer Gedanken nicht mehr laufend präsent hätten. Von vielen Leuten wird das Internet als Gefahr für die Lernbereitschaft der Jugend angesehen. Mancher Student, dem das Büffeln von Faktenwissen ein Graus ist, redet sich heute ein: „Warum soll ich dies oder das noch lernen? Ich weiß doch, wie und wo ich es im Netz finde, 59
nämlich durch googeln.“ Schon manche Studienarbeit soll durch mehrfaches Ausschneiden und Einfügen von Textbausteinen (engl.: cut and paste) entstanden oder zumindest angereichert worden sein, gibt es doch kaum ein Thema, zu dem das Internet keine Textbausteine liefert. Der Weg zur Bibliothek (im traditionellen Sinne) oder zur Buchhandlung scheint erst recht unnötig zu sein, seit es Wikipedia und andere Internet-Nachschlagewerke gibt. Wikipedia umfasst mehrere Millionen Einträge, ist kostenlos und immer und überall verfügbar. Da sich dort auch immer mehr Fakten und Erklärungen finden, wird der eine Aspekt des Lernen, der im Sammeln und Aneignen von Wissensbausteinen besteht, immer unwichtiger. Lernen auf Vorrat (wie wir es noch kennen) verkümmert immer mehr. Die Qualität der in Wikipedia zu findenden Information ist durchaus umstritten. Man argumentiert aber häufig damit, dass das, was viele lesen und verbessern können, automatisch richtig sein muss, oder dass Gruppen aus sehr vielen Leuten, die sich zusammen tun, um ein solches Werk zu erstellen, automatisch klüger sind als einige wenige.
Abb. 5.5: Annäherungsversuch Eine besondere Gefahr sehen viele bei Computerspielen. Hierzu stellt der Magdeburger Neurobiologe Henning Scheich55 eine interessante, aber nicht unumstrittene These auf. Der "schnelle Kick", der sich bei Erfolgen mit Computerspielen einstellt, ersetze bei jungen Leuten häufig die Belohnung, die man normalerweise erst durch ernsthaftes und aufwendiges Lernen erreicht. Verursacht werde dieser Kick durch einen Dopamin-Ausstoß, der nach vollbrachter Arbeit als “Belohnungsbotenstoff" dient. Die Hersteller von Computerspielen verweisen gerne auf die skandinavischen Länder, die eine wesentlich bessere Computer- und Spielkonsolenausstattung vorweisen und trotzdem sehr gute PISA-Ergebnisse erzielen.
60
Ein weiteres Beispiel von Internet-Diensten sind sogenannte Blogs, also persönliche Tagebücher oder Notizblätter im Internet. Was hier oft als geistreicher Erguss präsentiert wird, erinnert manchmal fatal an beschmierte Klowände. Deshalb bemerkt Norbert Bolz (in demselben Interview) auch: „Nicht die Dummheit nimmt zu, sondern die Möglichkeit für dumme Leute, an der Weltkommunikation teilzunehmen“. Der Journalist Michael Jürgs (2009) drückt es so aus: „Früher hatte jedes Dorf seine Dorftrottel. Die des Nachbardorfs kannte man nicht. Jetzt melden sich plötzlich alle gleichzeitig zu Wort.“ Man kann aber auch durchaus positive Meinungen hören, wie die eines Bekannten, aus dessen E-Mail folgendes Zitat entnommen ist: „Es ist gibt im Netz viel unqualifizierte Brüllerei, aber auch immer mehr Perlen. Den ’Blogger’ gibt es nicht mehr. Es ist vielmehr so, dass viele professionelle Journalisten auf dieses Medium gewechselt sind. Liest man an den richtigen Stellen im Netz, dann hat man Qualität, Aktualität und Meinung.“ Ein neues Phänomen ist Twitter. Es ist ein Internet-Dienst, bei dem man kurze Nachrichten (mit höchstens 140 Zeichen) eines anderen Teilnehmers, etwa eines Politikers oder Leinwandstars, abonnieren kann. Man wird dadurch zum Anhänger oder Jünger (engl. follower). Man erfährt dann fast stündlich, was der Prominente gerade macht, wo er sich aufhält, was er gerade gegessen hat, wen er getroffen hat, usw. Prominente wetteifern miteinander, wer mehr Anhänger hat. „Wo man nur noch von der Weisheit der Massen gesprochen hat, gibt es jetzt auch die Lust an der Führung, daran etwas zu bewirken, Leute zu faszinieren und mit sich zu ziehen.“ kommentiert Norbert Bolz. Wenn die Gefahr der Verrohung (jugendlicher) Computernutzer diskutiert wird, wird meist von den Auswirkungen einer ganz bestimmten Art von Computerspielen gesprochen. Es sind die viel zitierten Killerspiele. Waren bisher Jugendliche durch ihren Fernsehkonsum bis zu ihrem Erwachsensein passive Zeugen von vielleicht 20.000 Morden, befähigen besagte Computerspiele sie nun dazu, Mord und Totschlag auch aktiv auszuführen. Diese werden zwar nur simuliert. Die Blutströme, die fließen, sind nur Pixel in roter Farbe. Schon am Tag, als Robert Steinhäuser im Februar 2002 in Erfurt 16 Menschen erschoss, befassten sich viele Zeitungen und Fernsehkommentatoren mit der Bedeutung und Auswirkung von Computerspielen für die Inszenierung von Amokläufen. Dagegen argumentierten dann erboste Fans oder gar Psychologen: „Computerspiele sind, wenn überhaupt, ein Ventil zum Ablassen von Aggressionen und kein Übungswerkzeug“, schrieb ein Fan in einem Internetforum. Ein Psychologe dagegen meinte: „Durch die Tötungssimulation wird – ähnlich wie an einem Flugsimulator – eine Kompetenz erarbeitet und trainiert.“. So war es zu lesen in der OnlineVersion56 der Frankfurter Allgemeinen Zeitung. Eine ähnliche Diskussion gab es wieder im März 2009 nach dem Amoklauf von Winnenden und Wendlingen. Bewertung und Vorschläge: Da zu diesem Thema viel Unsinn publiziert und berichtet wird, sollte man sich mit einem eigenen Urteil zurückhalten. Wenn es signifikante, nachweisbare Effekte gibt, werden diese wohl erst in einigen Generationen deutlich werden. Ob sie dann von Computeranwendungen herrühren, muss sich erst herausstellen. Im Vergleich zu Radio und Fernsehen ist das Internet eigentlich kein Medium der (nur in einer Richtung erfolgenden) Massenkommunikation. Bei der großen Zahl der angebotenen Fernsehprogramme ist zwar „Zappen“ möglich, ist aber anstrengend und meist wenig befriedigend. Beim Internet dagegen abonniert man nur diejenigen Nachrichtendienste, die man haben möchte. Man kann sich beispielsweise einen eigenen Nachrichten-Ticker aus den verschiedensten Diensten zusammenbauen. Man nennt diesen Dienst einen RSS-Feed. Er liefert dem Leser, wenn er einmal abonniert wurde, automatisch neue Einträge. In den Text können Bilder und Filme eingestreut sein. Die Abkürzung RSS steht für "Really Simple Syndication" (deutsch: einfaches Zusammenschließen). Ein ‚Feed’ ist eine Weide oder Futterquelle. Auch beim Surfen im Web gehen 61
die meisten Nutzer von einer bestimmten Fragestellung aus. Manchmal wird man bei ganz anderen Themen enden, aber nur dann, wenn sie von Interesse sind. Die Wahrscheinlichkeit, dass man sich bei dieser Vorgehensweise weiterbildet, ist deutlich größer als dass man mit irgendwelchen Banalitäten seine Zeit verplempert. Einen spürbar negativeren Einfluss auf die Erziehung unserer Jugendlichen als die neuen Medien kann der Mangel an guten Lehrern oder pflichtbewussten Eltern hervorrufen, ebenso der übermäßige Genuss alkoholischer Getränke im jugendlichen Alter. Dass Computerspiele trotzdem einer Art von „freiwilliger Filmzensur“ unterworfen werden, scheint ein durchaus sinnvolles Vorgehen zu sein. Auch dass die elektronische Kommunikation einen eigenen Sprachstil und Umgangston entwickelt, wird langsam erkannt und von vielen sogar gebilligt. Beide Ausdrucksformen liegen irgendwo zwischen dem Schreiben eines Briefes und dem eines Telegramms. Was die erwartete Antwortzeit anbetrifft, gelten bei E-Mails wesentlich strengere Regeln als etwa bei Briefen. Mehr darüber kann man unter dem Stichwort Nettikette (engl. netiquette) im Internet finden oder in einem neuen E-Mail-Knigge von Martina Dressel (2008) oder von Fritz Jörns (2008) nachlesen. Weitere Informationen: Mit dem Thema ‚Verblödung der Menschheit’ kann man zurzeit zu Bucherfolgen kommen. Neben dem erwähnten Frank Schirrmacher sind als Autoren Michael Jürgs (2009) und Thomas Wieczorek (2009) zu nennen. Beide geben übrigens dem (privaten) Fernsehen, der Boulevard-Presse und der millionenfach gedruckten Schundliteratur eine viel größere Verantwortung für die Verdummung des Volkes als dem Internet, das sich erst langsam zum allgemein genutzten Medium entwickelt. Dies ist für Informatiker geradezu beruhigend. 5.5 Soziale Vereinsamung Fragen: Besteht die Gefahr, dass viele Menschen nur noch mit Maschinen kommunizieren und nicht mehr mit ihren Mitmenschen? Isolieren die Computer die Menschen voneinander? Tritt das sogenannte virtuelle Leben (z.B. in der Form von Second Life) an die Stelle des realen Lebens? Fakten und Erklärungen: Wendet man sich den sozialen Aspekten der Computernutzung zu, also der Wirkung auf viele Menschen und auf die Gesellschaft, so ist auch hier die Sache ambivalent. Es gibt sowohl Nutzen wie Schaden. Den Hintergrund unserer Überlegungen bildet die gesellschaftliche Entwicklung in den letzten 250 Jahren. Ausgehend von starken Bindungen durch Familie und Dorf führte sie zu einer immer stärkeren Individualisierung. Der Anteil der Ledigen (heute Singles genannt) nimmt zu, besonders in Großstädten. Ehen und die ihnen gleichgestellten partnerschaftlichen Beziehungen gelten heute oft nur für eine gewisse Zeit. Auch Beschäftigungsverhältnisse sind nicht mehr von langfristiger oder gar lebenslanger Dauer. Vereine, Gewerkschaften, Parteien und Kirchen beklagen einen Mitgliederschwund. Wie von dem Münchner Soziologen Ulrich Beck (1987) schon seit Jahrzehnten beklagt, verdränge Egoismus den Gemeinschaftssinn, „zerbrösele“ die Gesellschaft und tobe der Individualisierungsprozess. Obwohl Nicht-Soziologen etwas weniger drastisch formulieren, geben auch sie zu, dass sich unsere Gesellschaft in die angesprochene Richtung verändert. Dieser Trend zur Individualisierung wird durch die neuen Kommunikationsmedien (Mobiltelefon, Internet, E-Mail) eher unterstützt als gebremst. Selbst der Tagesablauf einer Familie oder Wohngemeinschaft ändert sich. Traf man sich noch vor 25 Jahren zum Zeitungslesen am Frühstückstisch und zur Hauptsendezeit (engl. prime time) des Fernsehens im Wohnzimmer, so schwindet beides zusehends. Im Internet gibt es keine Prime Time mehr. Man kann Nachrichten und Unterhaltungsprogramme über die 24 Stunden des Tages verteilt konsumieren. 62
Dadurch lockern sich nicht nur die familiären Bande weiter, auch persönliche Freundschaften am Ort können leiden. Leichter als früher kann jemand seine lokalen und familiären Kontakte verlieren. Gewinnen können jedoch die überörtlichen Beziehungen und alte Freundschaften. Wem es früher schwerfiel, außer zu Weihnachten einem entfernt lebenden Verwandten oder Freund einen Brief zu schreiben, der schickt jetzt mehrmals im Jahr eine kurze E-Mail. Gerade dank E-Mail und Internet können auch Jugendfreundschaften reaktiviert werden, selbst über Landesgrenzen hinweg. So pflegen beide Autoren fachliche und private Kontakte in der ganzen Welt, obwohl – oder gerade weil – auch diese Bekannten längst das Rentenalter erreicht haben. Eine Videokonferenz (per Skype) alle zwei Monate mit einem ehemaligen, fast 80 Jahr alten Kollegen in Tokio bildet dabei einen der Höhepunkte, der dazu noch völlig kostenlos ist. Oft werden die so genannten sozialen Netzwerke im Internet als neue Chance für die gesellschaftliche Kommunikation und Integration genannt. Das mag für Jugendliche, die viele neue Kontakte suchen, einen erheblichen Reiz haben (und mit Gefahren verbunden sein, wie in Abschnitt 2.5 ausgeführt). Viele von ihnen interagieren täglich über MySpace, Facebook oder StudVZ. Beim Etablieren geschäftlicher oder fachlicher Kontakte können die dafür spezialisierten Netzdienste (etwa LinkedIn, Xing und ResearchGate) behilflich sein. Für ältere Menschen sind sie eher unergiebig. Während eines ganzen Jahres der Mitgliedschaft in einem dieser Netze kam für einen der Autoren ein einziger neuer Kontakt zustande, und zwar mit einem Unternehmensberater, der seine Dienste anbot. Eine Diskussion besonderer Art hat die Netzanwendung Second Life57 hervorgerufen. Hierbei wird eine virtuelle Welt aufgebaut, in der man als Bewohner Land kaufen, Geschäfte betreiben und auch Vorlesungen und Seminare besuchen kann. Man lässt sich von einer Spielfigur (einem so genannten Avatar) vertreten. „Ist Second Life also eine Prothese für das reale Leben, in welchem man mehr und mehr vereinsamt und echte Beziehungen amputiert?“ so fragen unbekannte Internet-Autoren (so genannte Blogger). „Flüchten Menschen, die sich exzessiv an diesem Spiel beteiligen, da nicht bloß vor sich selber in eine Traumwelt hinein? Ist Second Life also der Ausdruck für die Realitätsflucht schlechthin?“ Die Antwort auf alle diese Fragen heißt „nein“. Der Fortschritt der Technik hat hier lediglich eine neue interessante Interaktionsform mit besonders eindrucksvollen Grafiken hervorgebracht. Auch Unternehmen wie Adidas, IBM und VW sahen hier zunächst einen neuen, modernen Kanal, um Werbung für Produkte und Dienstleistungen zu betreiben. Langsam lässt aber die Anfangsbegeisterung nach und Second Life wird recht realistisch gesehen, nämlich als eine interessante Spielwiese im Internet neben vielen anderen. Bewertung und Vorschläge: Wir wollen auf keinen Fall das Problem der sozialen Vereinsamung leugnen, wir sehen aber keine Veranlassung anzunehmen, dass dieses Problem durch Computer und Internet übermäßig verstärkt oder gar erst verursacht wurde. Im Gegenteil, wir lägen völlig falsch, würden wir vor der Nutzung der neuen Medien für die soziale Kommunikation warnen. Sie bieten bisher nicht vorhandene Chancen ortsübergreifende Kontakte zu pflegen und daraus Nutzen zu ziehen. Ein sehr gutes Beispiel sind körperlich Behinderte. Das nachfolgende Zitat58 stammt von einem Rollstuhlfahrer. Es spricht aus, was wir als NichtBehinderte leicht übersehen. „Am Samstag waren meine Freundin und ich mal wieder auf einer netten Party. Auf einer Party, die der „Ohrfunk“59 veranstaltet hat. Nun ja, auf Partys sind wir schon öfters gewesen. Aber nicht oft auf einer, die durch und erst mit dem Internet möglich wurde. Es war nämliche eine virtuelle Party. Wir unterhielten uns im „Irrenhaus“, einem der wenigen nicht kommerziellen Anbieter von Telefon-Chat-Konferenzen, mit 63
anderen Partygängern über das laufende Musik-Programm des InternetRadiosenders „Ohrfunk.de“, über unsere Ergänzungswünsche und das Leben ganz allgemein. Der Rechner ist doch schon ein gutes Stück Dreh- und Angelpunkt unserer Kommunikation geworden!“ Soweit der Rollstuhlfahrer. Gerade, was die gesellschaftliche Wirkung neuer Technologien anbetrifft, treten immer wieder Warner auf, die gerne die Vergangenheit verherrlichen, indem sie sagen, „… das gab es früher bei uns im Dorf nicht, also muss es schlecht sein.“ Besser ist es allemal, mit dem Neuen zunächst Erfahrungen zu sammeln, diese zu bewerten und dann erst differenziert zu urteilen. Noch ein anderes Zitat von einem Kommentator des zuletzt zitierten Blogs: „Es gibt auch heute noch viele Menschen, die sagen, dass Computer einsam machen. Und es mag auch in mancher Hinsicht stimmen. Ich glaube aber, dass es nicht stimmt. Ich habe viel Bereicherung durch den Computer erlebt. Es passiert mir oft, dass Freunde sagen: Du sitzt ja den ganzen Tag vorm Computer, du machst ja nichts anderes mehr als Computer. Dann sage ich: Stimmt nicht. Der kleinste Teil ist Computer. Ich lese, höre Radio, lese Zeitung, schreibe Briefe, unterhalte mich mit anderen. Der Computer ist nur mein Hilfsmittel, nur Mittel zum Zweck. Ich kenne immer noch viele, die das nicht verstehen.“ Da sollten Sie als Leser(in) jetzt nicht mehr dazu gehören. Sie dürfen für dieses Thema getrost Entwarnung geben. Weitere Informationen: Eine Untersuchung zum Thema soziale Vereinsamung durch Internet-Nutzung wurde kürzlich vom Pew Research Center in Washington, DC, für die USA veröffentlicht. Der Bericht60 kommt zu dem Ergebnis, dass Internet-Nutzer eher mehr an lokalen Aktivitäten teilnehmen als andere Personengruppen – auch durch persönliche Anwesenheit. Dass gleichzeitig die Kontakte zu Freunden und Verwandten im Zeitraum zwischen 1985 und 2005 intensiviert wurden, liegt wohl nicht am Internet, sondern vor allem an Mobiltelefonen (und deren SMS-Funktion). Es gibt auch eine Reihe von deutschen Büchern, die das Thema soziale Vereinsamung behandeln. Keines der Bücher, die wir fanden, enthielt aktuelle empirische Daten über den Einfluss der Computernutzung. 5.6 Digital Divide Fragen: Wird der Graben zwischen Arm und Reich in der Gesellschaft durch Computer und das Internet vertieft? Wird er gar verewigt? Fakten und Erklärungen: Mit dem Begriff ‚Digital Divide’ (auf Deutsch: digitale Spaltung) wird eine vermutete Kluft bezeichnet zwischen Nutzern von neuen Medien und solchen Menschen, die dazu keinen Zugang haben. Für das Wissen, das gesellschaftliche Leben und die Kultur der zuletzt genannten Gruppe kann sich das sehr ungünstig auswirken. Obwohl es diese Art von Kluft auch bei gedruckten Medien, beim Telefon und Fernsehen gibt, bezieht sich die aktuelle Diskussion primär auf das Internet und seine Web-Dienste. Wie an anderer Stelle dargestellt, gilt das von Computer-Netzen vermittelte Wissen als Sprungbrett nicht nur für das berufliche Fortkommen oder das gesundheitliche Wohlbefinden, sondern auch für die Teilnahme am gesellschaftlichen und politischen Leben. Eine erste Untersuchung der Situation in Deutschland lieferten Herbert Kubicek und Stefan Welling (2000). Ihre Forschung erfolgte im Blick auf das von der Regierung Schröder im Jahre 2000 aufgelegte Programm „Internet für alle“. Sie kamen zu dem Ergebnis, dass es in 64
Deutschland eine digitale Spaltung gibt, welche sogar die Tendenz habe sich zu vergrößern. Sie sahen aufgrund der damaligen Daten einen dreifachen Spalt, nämlich (a) zwischen jungen Erwachsenen (18 bis 29 Jahre alt) und Alten (über 50 Jahre alt), (b) zwischen Männern und Frauen und (c) zwischen Menschen ohne Schulabschluss und solchen mit Hochschulreife. Diskutiert wurde damals allein die Frage, wie sehr der Zugang zum Internet hier eine Rolle spielt. Die Daten über die Internet-Nutzung in Deutschland werden seit 1997 jährlich neu erhoben, und zwar sowohl von den Fernsehanstalten ARD und ZDF als auch von der von der Industrie gesponserten Initiative D21. Der aktuelle Stand von 2009 ist, dass sowohl ältere Menschen wie Frauen aufgeholt haben. Die Kluft besteht zwar noch, ist aber wesentlich kleiner geworden. Beim dritten Aspekt, der Schulbildung, scheint sich die Situation eher zu verschlechtern. Das tritt vor allem dann in Erscheinung, wenn man nicht allein die Zugangsmöglichkeit für das Internet betrachtet sondern die Qualität der Nutzung. Nach der letzten ARD/ZDF-Befragung61 haben inzwischen mehr als zwei Drittel aller Deutschen (43,5 Millionen) einen Zugang zum Internet. Der jährliche Zuwachs beträgt weniger als eine Million. Wir nähern uns damit einer Sättigung; die Diffusionskurve wird flach. Nachholbedarf besteht lediglich noch beim Übergang von langsamen (analog und mit ISDN) zu schnellen Anschlüssen (mit DSL oder Kabel).
Abb. 5.6: Diffusionskurve des Internet (Quelle Molnar62) Es ist sinnvoll, die digitale Spaltung differenziert zu betrachten, wie dies zum Beispiel Martina Pohl (2007) tut. Die Abbildung 5.6 zeigt die für die Verbreitung einer neuen Technologie typische S-Kurve, auch Diffusionskurve genannt. Während der frühen Phase der Adoption und des schnellen Anstiegs verläuft die Kluft zwischen solchen Nutzern, die bereits Zugang haben, und Menschen, die noch über keinen Zugang verfügen. In der Sättigungsphase kommt es dagegen auf Unterschiede zwischen den Nutzern an. Ein solcher Unterschied kann sich ausdrücken einerseits in der Nutzungsdauer, andererseits im Zweck der Nutzung. Martina Pohl nennt dies sekundäre digitale Spaltung. Auch hierfür gibt es in Deutschland erste Daten. Bei männlichen Jugendlichen ist die Zeit, die täglich im Internet verbracht wird, größer als die Zeit vor dem Fernseher und am Radio. Bei Älteren überwiegt die Zeit vor dem Fernseher. Je höher die Bildung der Nutzer, umso mehr wird das Internet zur Weiterbildung und für berufliche Zwecke genutzt. Bei weniger gebildeten Nutzern steht die Unterhaltung (Musik, Videos, Spiele) im Vordergrund. Für Berufstätige, aber auch für Frauen und Ältere, ist es interessant, dass sie im Internet einkaufen oder Bankgeschäfte erledigen können. Die Relevanz der Inhalte hängt von mehreren Faktoren ab, die sich überlappen. So ergeben Alter, Bildungsgrad, persönliche Interessen und berufliche Situation recht unterschiedliche Nutzungsprofile. Das Problem der digitalen Spaltung wird auch international diskutiert. Hier geht es allerdings primär um den Zugang zum Internet, also die frühe Phase. Wie eine Statistik63 der Internatio65
nal Telecommunication Union (ITU) zeigt, ist der Internet-Zugang in der Welt immer noch sehr ungleich verteilt. In Abb. 5.7 ist die Durchdringung (Anschlüsse pro 100 Einwohner) zusammengefasst, einmal für die Industrieländer (hier als ‚developed’ bezeichnet), andererseits für die Entwicklungsländer (‚developing’ genannt). So gab es 2004 in Frankreich mehr Internet-Nutzer als in ganz Afrika. Deutschland liegt etwa im Durchschnitt der Industriestaaten. Unterschiede gibt es aber auch innerhalb der einzelnen Länder, so zwischen armen und reichen Stadtvierteln und zwischen ländlichen und städtischen Regionen. Die Vereinten Nationen (UN) haben sich bereits zweimal mit diesem Thema befasst, und zwar 2003 in Genf und 2005 in Tunis mit entsprechenden Gipfel-Veranstaltungen. An die Beschlüsse erinnert sich kaum noch jemand.
Abb. 5.7: Weltweite Internet-Benutzung (Quelle ITU) Bewertung und Vorschläge: Es ist zweifellos eine lobenswerte Aufgabe, dafür zu sorgen, dass der Graben zwischen „Habenden“ und „Habenichtsen“ bei den digitalen Medien sich nicht von selbst vergrößert, sei es im eigenen Lande oder weltweit. Das entspricht der Zielsetzung, die sozialen Gegensätze unserer Gesellschaft nicht aus den Fugen geraten zu lassen. In wieweit dafür ein Engagement der öffentlichen Hand erforderlich ist, oder ob der Markt alles von sich aus regelt, darüber kann man geteilter Meinung sein. Es ist offensichtlich nicht damit getan, nur die Verfügbarkeit des neuen Mediums Internet zu verfolgen. Die Verantwortlichen in Politik, Verwaltung und Wirtschaft tun gut daran, neben den wirtschaftlichen Parametern (Kosten im Vergleich zum Einkommen) auch die Einfachheit der Benutzung und Bedienung als Mehrwert für den Nutzer in Betracht zu ziehen. Gerade hier scheint die Entwicklung noch lange nicht abgeschlossen zu sein. Weitere bahnbrechende Innovationen, wie sie uns die Firmen Apple oder Google in letzter Zeit bescherten, sind nicht ausgeschlossen. Ein Projekt, das neben den Kosten auch die Benutzbarkeit der neuen Medien thematisiert, wurde von Nicholas Negroponte, einem früheren MIT-Professor, angestoßen und bekannt gemacht. Das Projekt hat den Titel ‚One Laptop per Child’ (OLPC)64. Sein Ziel ist es, jedem Kind in Entwicklungsländern aus Regierungsmitteln einen Personal Computer oder ein Netbook zur Verfügung zu stellen. Es ist ein sehr ehrgeiziges Vorhaben, das gleichzeitige Durchbrüche an mehreren Fronten erzielen will, nämlich bei Kosten, Benutzbarkeit, Energiebedarf, Lerninhalte und Vernetzung. Wie Kraemer et al. (2009) berichten, wurde das anvisierte Ziel in den meisten dafür vorgesehenen südamerikanischen und afrikanischen Ländern bisher noch nicht erreicht. Erkennen musste man auch, dass mit der Verfügbarkeit der Hardware die eigentlichen Probleme erst beginnen, so etwa die pflegliche Behandlung des Geräts, die Generierung der Inhalte, die Lokalisierung der Software, Umstellungen im Unterricht und die Aus66
bildung der Lehrer. Diese Erfahrungen gelten nicht nur für Entwicklungsländer. Auch bei uns hört man Stimmen, dass es oft weniger an der Technik als an der fehlenden Motivation und Qualifikation der Lehrer liegt, wenn Internet-Anwendungen in Schulen nicht die erwünschten oder möglichen Lernerfolge erzielen. Vielleicht müssen hier auch die Lehr- und Schulmittelverlage einen größeren Beitrag leisten, indem sie bildungsrelevante Inhalte für das Web so aufbereiten, dass Schüler sich zu diesen hingezogen fühlen? Wer Anregungen sucht, braucht sich nur im Spieleangebot des Internet umzusehen. Weitere Informationen: Das Buch von Marina Pohl (2007) liefert eine gut fundierte Behandlung des Themas und weist vor allem darauf hin, dass mit der Ermöglichung des Zugangs nur ein Teilerfolg erreicht ist. Sie vertritt die Meinung, dass es die von Kubicek und Weller erwähnte primäre digitale Spaltung in Deutschland nicht mehr gibt. Die sekundäre digitale Spaltung dagegen sei keine „Ja-Nein-Frage“ (Dichotomie) zwischen Habenden und Habenichtsen mehr. Man müsse hier schon genauer hinsehen. Leider enden alle Trendzahlen des Buches bereits im Jahre 2003. Das Bestreben, Bürger und soziale Gruppen dazu zu bewegen, das Internet für möglichst sinnvolle Anwendungen zu nutzen, leitet auch die Initiative ‚Wege ins Netz’65 des Bundeswirtschaftsministeriums. In einem jährlichen Wettbewerb werden besonders gelungene Anwendungen ausgezeichnet. 5.7 Verschleunigung des Lebens Fragen: Ist die Informatik mit Schuld daran, dass sich alles so schnell verändert, und dass man dauernd neu lernen muss? Fakten und Erklärungen: Die Wortschöpfung ‚Verschleunigung’, die hier verwendet wird, soll den Gegensatz zu dem Modewort ‚Entschleunigung` zum Ausdruck bringen. Mit Letzterem ist eine modische, alternative Bewegung gemeint, die sich vorgenommen hat, der beruflichen und privaten Beschleunigung des Lebens entgegenzusteuern, indem man zu einer langsameren Gangart zurückkehrt. Oft verbindet man damit auch einen umweltfreundlichen Lebensstil. In einem Beitrag in der Wochenzeitung Die Zeit (vom 17.10.2007) mit der Überschrift „Wie wollen wir leben?“ schreibt Susanne Gaschke66 „Unbegrenzt flexibel, ständig verfügbar – das Mantra der Globalisierung hat die Deutschen entnervt. Jetzt brauchen wir endlich Zeit zur Entschleunigung“. Wie es scheint, ist die Informatik mitschuldig an dieser Verschleunigung des Lebens. Sie verändert nicht nur die berufliche Tätigkeit vieler Menschen. Sie verändert auch ihr alltägliches Leben, ihre Freizeit und ihre Unterhaltungsmöglichkeiten. Was wir vor allem betrachten wollen, ist die durch Informatik verursachte Beschleunigung der Zunahme unseres Wissens. Mathematisch geht es hier um eine zweite Ableitung. Bezugsgröße ist das Wissen der Menschheit, oder, wem das zu nebulös ist, die durch Naturwissenschaften und Technik gewonnenen Erkenntnisse über die Welt, die einen Einfluss auf unser zukünftiges Leben haben. Beginnen wollen wir mit folgender Definition des Begriffs Wissen (vgl. Endres (2004b)). Wissen ist der Bestand an Modellen über Objekte und andere Sachverhalte, über den Individuen oder die Menschheit als Ganzes zu bestimmten Zeitpunkten verfügen, zu dem sie Zugang haben und der für wahr gehalten wird. Des Weiteren reden wir hier von explizitem Wissen, also dem Wissen, das von Individuen ‚externalisiert’, also in Sprachsignalen oder Schriftzeichen ausgedrückt und in Form von Information festgehalten wird. Daneben gibt es bekanntlich auch implizites Wissen (engl. tacit knowledge), das für Firmen und Fachleute lebenswichtig sein kann. Eine wichtige Teilmenge des expliziten Wissens ist das Fachwissen, das in Veröffentlichungen seinen Niederschlag 67
gefunden hat und das von Vertretern akademischer oder nicht-akademischer Berufe genutzt wird, so z. B. von Ärzten, Ingenieuren, Köchen und Mitarbeitern in Finanzämtern. Es ist unbestritten, dass der Umfang dieses Fachwissens stetig zunimmt. Es wird dabei viel mehr neues Wissen gewonnen als altes Wissen getilgt werden kann, das sich als falsch oder überholt herausstellt. Was sich außerdem laufend ändert, ist der relative Wert von Wissen. Was für eine Agrargesellschaft oder für Handwerker des Mittelalters von großer Bedeutung war, ist es bestimmt nicht mehr für eine Industriegesellschaft. Das Wetter von morgen und die Aktienkurse von heute sind wertvoller als die gleiche Information vom Vortage. Die Verbreitung von Wissen erfuhr im 15. Jahrhundert durch den Buchdruck einen epochalen Durchbruch. Lebte man in einer Stadt, so konnte man zum nächsten Buchladen oder zur nächsten Bibliothek gehen, wenn man etwas suchte, was nicht im eigenen Bücherregal zu finden war. Eine neue Qualität erführ diese Verbreitung des Wissens durch das Internet. Heute steht einem das „ganze Wissen der Welt“ am Schreibtisch zur Verfügung – und wenn man ein leistungsfähiges Mobiltelefon besitzt, sogar überall auf der Welt, am Strand oder im Wald, am Morgen oder in der Nacht. Es ist heute in der Regel einfacher, etwas im Internet zu finden als im eigenen Bücherregal. Dies gilt unabhängig davon, ob die Information als Zahlentabelle, Text, Zeichnung, Bild, Geräusch, gesprochene Sprache, Musik oder Film existiert. Bewertung und Vorschläge: Es steht außer Zweifel, dass das verbesserte Verfügbarmachen von Wissen eine der größten Leistungen der Informatik darstellt. Wir sehen darin eine der wichtigsten Errungenschaften, ja einen Segen für die Menschheit. Nur ein Beispiel: Schon vor über zehn Jahren berichteten amerikanische Ärzte, dass kaum noch ein Patient in ihre Sprechstunden kommt, der sich nicht vorher im Internet über die Symptome seiner Krankheit, mögliche Therapien und existierende Selbsthilfegruppen informiert hatte. Der Egotrip der Entschleunigung – so schön es auch klingen mag – ist nicht für jeden von uns praktikabel. Die bessere Antwort für die meisten von uns heißt dagegen: besser planen, stärker selektieren und das Wichtige vom Unwichtigen unterscheiden. Diese Selektion beginnt mit der Ausbildung, setzt sich fort im Beruf und hört selbst bei Rentnern nicht auf. Was für jeden von uns inhaltlich wichtig oder unwichtig ist, muss er letztendlich selbst herausfinden. Wie immer im Leben, so gibt es auch hier eine Kehrseite. Es gibt heute nicht wenige Menschen, für die diese Entwicklung beängstigend ist. Manche sind froh, wenn sie den Hauptschulabschluss oder das Abitur geschafft haben. Sie möchten nicht noch weiter lernen. Andere haben sich in ihrem Beruf eingerichtet und hoffen, dass sie ihre sichere Position bis zum Erreichen des Pensionsalters behalten können. Manche Menschen sind auch aus gesundheitlichen Gründen nicht in der Lage, viele Bücher zu lesen oder am Bildschirm zu arbeiten. In diesem Falle ist es unser aller Aufgabe, auch diesen Menschen die Möglichkeit zu verschaffen, sich zu verwirklichen oder zumindest ein lebenswertes Leben zu führen. Allerdings wollen wir niemanden zwingen, gegen seinen Willen zu handeln. Manchmal wird davon gesprochen, dass es so etwas wie eine „Halbwertszeit des Wissens“ gäbe. Hier wird ein Begriff aus der Physik umdefiniert. Bei radioaktiven Stoffen ist Halbwertzeit das Zeitintervall, in dem die Hälfte der Atome eines Elements zerfallen ist. Wie schon oben erläutert, wächst das Wissen der Menschheit kontinuierlich. Mit Halbwertzeit kann hier also nur gemeint sein, dass die Hälfte des erworbenen Wissens nicht mehr aktuell, d.h. in der Praxis nicht mehr anwendbar ist. Die Informatik ist eines der Fachgebiete, in dem dieses Phänomen sicherlich eine Rolle spielt. Hier ändern sich Techniken und Verfahrensweisen etwa alle sieben bis acht Jahre. Auf diesen Teil des Wissens – also nicht auf das ganze Wissen – bezogen, beträgt die Halbwertzeit in der Informatik also nur drei bis vier Jahre. Etwas ängstliche junge Leute könnte dies dazu verleiten, sich zu fragen, ob es sich unter diesen Umständen 68
überhaupt lohnt, eine Lehre als Fachinformatiker zu machen oder ein Hochschulstudium zu beginnen. Hier kann man beruhigen. Wie in jedem anderen Fach so gibt es auch in der Informatik einen gehörigen Sockel an Grundwissen, das man ein ganzes Berufsleben lang benötigt und verwenden kann. In der Informatik gehören – neben Logik und ausgewählten mathematischen Methoden – insbesondere Algorithmen und Datenstrukturen dazu, außerdem Datenbank- und Programmiersprachen-Konzepte. In einem akademischen Studium werden gerade diese Punkte stärker betont als dies bei einer dualen Ausbildung der Fall sein kann. Auch Unternehmen müssen Wissen heute als einen entscheidenden Wettbewerbsfaktor ansehen und im Rahmen ihres sogenannten "Wissensmanagements“ entsprechend kultivieren. Dieses muss erkennen, wo Wissenslücken entstanden sind und wo altes Wissen nicht mehr weiterhilft. Betroffen davon sind nicht nur Hitech-Firmen, sondern auch der Apotheker um die Ecke oder der Handwerksmeister, der als Fernsehtechniker oder Elektroinstallateur sein Brot verdienen will. Dass bei diesem Wissensmanagement eine klare Trennung zwischen Wissensund Informationsbegriff zur Anwendung kommen muss, wollen wir nur andeuten. Ob es außer der Überflutung mit Information auch eine Überflutung mit Wissen gibt, darüber darf gestritten werden. Weitere Informationen: Dass die Zukunft ein nie dagewesenes Maß an Veränderungen bringen würde, an die wir Menschen uns nur schwer anpassen könnten, hatte Alvin Toffler (1970) bereits vor fast 40 Jahren in seinem Bestseller ‚Future Shock’ beklagt. Das Wort Entschleunigung kam vermutlich durch Sten Nadolnys (1983) Roman ‚Die Entdeckung der Langsamkeit’ in unseren Sprachschatz. Seither gibt es mehrere neue Bücher zu diesem Thema. Zwei davon sind von Fritz Reheis (2003, 2008). Bei ihm kommen Computer kaum vor. Für Reheis ist nämlich nicht die Technik schuld an der Beschleunigung des Lebens, sondern die kapitalistische Wirtschaft. Denn irgendwann machte der Homo sapiens den Fehler, nicht nur für die Beschaffung von Nahrung zu arbeiten, sondern für Geld. Bei der Nahrungsaufnahme war er irgendwann gesättigt. Vom Geld konnte und kann er nicht genug bekommen. Aus dieser Tretmühle sollte er schnellstmöglich wieder aussteigen. 5.8 Zerstörung der Kultur Fragen: Wird durch das Internet das Englische alle anderen Sprachen verdrängen? Wird das Internet Zeitungen, Büchern und Bibliotheken den Garaus machen? Welche Folgen hat dies für den Journalismus? Ist gar unsere ganze Kultur gefährdet? Können Computer sogar Künstler ersetzen? Fakten und Erklärungen: Kultur – so steht es im Neuen Brockhaus – ist das Ganze der Bestrebungen, die natürlichen Fähigkeiten des Menschen zu entwickeln, zu veredeln und zu gestalten, einschließlich der erforderlichen Hilfsmittel und ihrer erzielten Ergebnisse und Erzeugnisse. Unter seiner Kultur verstehen wir die Leistungen eines Volkes oder einer Volksgruppe in Bezug auf Kunst, Literatur, Bauwesen, metaphysische Vorstellungen und Bildung. Kultur ist das, worauf ein Land oder eine ethische Gruppierung besonders stolz ist. Im Gegensatz zu Engländern und Franzosen unterscheiden wir Deutschen noch zwischen Kultur und Zivilisation. Zur Zivilisation rechnet man die äußeren Formen einer Gesellschaftsordnung und ihres kulturellen Lebens. Zu denken ist dabei an Gesetzgebung, Sozialstruktur, Verkehrswesen, Gesundheitswesen und Technik. Da die Informatik Teil der Technik ist, ist sie eine Ausdrucksform der Zivilisation. Die einleitenden Fragen betreffen demnach die Querbeziehung von Technik und Kultur sowie von Zivilisation und Kultur. Die Kultur ist der Antriebsmotor für eine Vielzahl von Entwicklungen, sowohl in der Gesellschaft wie in der Wirtschaft. Kultur und Wirtschaft hängen von einander ab.
69
Dass ein neues Medium als Bedrohung der Kultur angesehen wird, musste bereits Johannes Gutenberg nach seiner Erfindung der Buchdrucktechnik erfahren. Da steckt der Teufel dahinter, argumentierten vor allem die religiösen Dogmatiker. Wenn man zwischen seiner Erfindung und der Kirchenspaltung des 16. Jahrhunderts einen ursprünglichen Zusammenhang sieht, hätten die Kritiker sogar auf ihre Weise Recht. Ähnliche Diskussionen wiederholten sich, als Telegraphen, Eisenbahnen, Radios und Fernseher eingeführt wurden. Für manche Leute soll jetzt das Internet schuld sein am (baldigen) Untergang des Abendlandes. Der Umgang mit dem Internet verderbe die Sitten und nicht zuletzt die Sprache. Gemeint sind damit sowohl die Rolle unserer Muttersprache als auch der Sprachstil. Eine besondere Gefahr sehen viele bei Computerspielen. Hierzu stellt der Magdeburger Neurobiologe Henning Scheich67 eine interessante, aber nicht unumstrittene These auf. Der "schnelle Kick", der sich bei Erfolgen mit Computerspielen einstellt, ersetze bei jungen Leuten häufig die Belohnung, die man normalerweise erst durch ernsthaftes und aufwendiges Lernen erreicht. Verursacht werde dieser Kick durch einen Dopamin-Ausstoß, der nach vollbrachter Arbeit als “Belohnungsbotenstoff" dient. Die Hersteller von Computerspielen verweisen gerne auf die skandinavischen Länder, die eine wesentlich bessere Computer- und Spielkonsolenausstattung vorweisen und trotzdem sehr gute PISA-Ergebnisse erzielen. Sprache
Anzahl der Nutzer [Mio.]
Englisch Chinesisch Spanisch Japanisch Französisch Portugiesisch Deutsch Arabisch Russisch Koreanisch Alle andern
463,8 321,4 130,8 94,0 73,6 72,6 65,2 41,4 38,0 36,8 258,7
Anteil an Anzahl der Nutzer [%]
Weltpopulation pro Sprache [Mio.]
29.1 20.1 8.2 5.9 4.6 4.5 4.1 2,6 2,4 2,3 16,2
1.247,9 1.365,1 408,8 127,9 414,0 244,1 96,4 291,0 140,7 70,9 2303,7
Durchdringung Internet [%] 37.2 23.5 32.0 73.8 17.8 29.7 67.7 14,2 27,0 51,9 11,2
Wachstum 2000-2008 [%] 226.7 894.8 619.3 99.7 503.4 857.7 135.5 1545,2 1125,8 93,3 424,5
Tab. 5.1: Sprachenverteilung im Internet (Stand 3/09)68 Dass anfänglich Englisch als Sprache das Internet dominierte, hängt mit seinem Ursprung zusammen. Es entstand in den USA und breitete sich zuerst im Hochschulbereich aus, wo Englisch als ‚Lingua Franca’ der internationalen Kommunikation dient. Seit sich das Internet weltweit ausbreitet, ist das Ende der Dominanz von Englisch nur noch eine Frage der Zeit. Einschlägige Statistiken (siehe Tab. 5.1) bestätigen dies. Der Stand der Daten ist März 2009. Der Sprachstil im Internet ähnelt schon heute mehr der gesprochenen Sprache als der geschriebenen. Das wird sich noch verstärken, wenn die Eingabe von Texten immer weniger über eine Tastatur erfolgt, sondern immer mehr durch die Erkennung gesprochener Sprache. Wie das Meinungsforschungsinstitut Allensbach69 im Jahre 2008 festgestellt hat, hat das Internet bei jungen Menschen zwischen 20 und 29 Jahren in Deutschland den Printmedien den Rang als Informationsquelle bereits abgelaufen. Abb. 5.8 zeigt Vergleichszahlen für 1999 und 2008. Eine existenzielle Gefahr besteht in der Tat für fast alle gedruckten Medien. So verlieren die Zeitungen gerade zwei ihrer erfolgreichsten und lukrativsten Aufgaben an das Internet, nämlich wichtigstes Nachrichtenmedium und Werbeträger zu sein. Man kann einwenden, dass 70
diese Aufgaben vielleicht für die Wirtschaft wichtig gewesen seien, nicht aber so sehr für die Kultur. Das stimmt nicht, da das Feuilleton wie auch der Lokal- und Sportteil einer Zeitung sich wirtschaftlich nicht allein tragen, und der Verlag daher auf erhebliche Werbeeinnahmen angewiesen ist. Dank einmaliger Chuzpe hat ein einzelner Internet-Dienst, nämlich die Suchmaschine Google, es geschafft, auf der ganzen Welt diese Haupteinnahmequelle der Zeitungskonzerne anzuknabbern. Niemand anderes hat es so gut verstanden, Werbebotschaften derart gezielt an potentielle Kunden heranzubringen und außerdem weltweit für millionenfache Werbekontakte effizient abzurechnen. Seither schimpfen nicht nur Journalisten aus aller Welt auf diese Internet-Anwendung. Sie verteufeln den Konzern und möchten ihre Regierungen dazu überreden, Google zu verbieten.
Abb. 5.8: Wandel im Informationsverhalten von Jugendlichen (Quelle Allensbach) Auch Bibliotheken müssen sich neu formieren. Große Bibliotheken, die technisch dazu in der Lage sind, bieten heute schon viele digitale Inhalte an. Das können Texte, Bilder, Musiktitel oder Filme sein, die auf digitalen Medien gespeichert sind. Wie das mit dem Erwerb, der Pflege des Bestandes und der Ausleihe von traditionellen Print-Medien (Bücher, Zeitschriften, Magazine) in den nächsten 15 Jahren aussehen wird, ist keineswegs klar vorhersehbar. Die Buchverleger und die Filmindustrie kommen dabei scheinbar noch gut weg. Noch werden jedes Jahr mehr Bücher veröffentlicht und mehr Filme gedreht als im Jahr davor. Das Unternehmen Google hat aber auch diesen Markt längst im Visier und greift ihn quasi „von hinten“ an. Google versucht nämlich, die Bibliotheken auf der ganzen Welt dafür zu gewinnen, sämtliche Bücher, die nicht mehr aktuell sind, digitalisieren zu dürfen. Da für viele dieser Bücher die Urheberrechte noch bei Verlagen oder bei den Autoren liegen, kam es in den USA zu einem Rechtstreit und – weil Google aus seinem Werbegeschäft über reichlich Finanzmittel verfügt – alsbald zu einem Vergleich mit den amerikanischen Klägern. Inzwischen prüfen Verleger und Autoren auf der ganzen Welt, ob sie diesem Vergleich beitreten wollen. Auch an Filmen ist Google interessiert. Aus dem Grunde hat diese Firma das Video-Portal YouTube im Jahre 2006 für 1,65 Mrd. US-Dollar aufgekauft. Wie aber mit den dort verfügbaren Amateurfilmen Geld zu verdienen ist, hat selbst Google in drei Jahren noch nicht heraus bekommen. Um das Geschäftsmodell von Google nachzuahmen, sind die meisten Verleger nicht nur zu spät dran, ihnen fehlt schlicht auch die technische Kompetenz dafür. Durch das Beispiel von Apple im Musikbereich angetrieben, überlegen sich jetzt einige große Medienkonzerne (so genannte Content Provider) erneut, wie sie es schaffen könnten, mit ihren Büchern, Zeitschriften und Zeitungen im Internet direkt Geld zu verdienen. Entsprechende Absichtserklärungen gibt es von Matthias Döpfner für den Axel-Springer-Verlag und von Rupert Murdoch für sein 71
Medien-Imperium. Döpfner will in zehn Jahren 50% seines Geschäfts mit Online-Bezahlinhalten machen. Vielleicht ruhten sich die Verleger etwas zu lange auf dem Glaubenssatz aus, dass es bisher keinem neuen Medium gelungen ist, ein altes zu verdrängen? Immerhin ist dieser Satz ja fast hundert Jahre alt. Er stammt von dem Altphilologen und Journalisten Wolfgang Riepl, der im Jahre 1911 die Einsicht formulierte, dass "neben den höchstentwickelten Mitteln, Methoden und Formen des Nachrichtenverkehrs in den Kulturstaaten auch die einfachsten Urformen der verschiedenen Naturvölkern noch heute im Gebrauch sind." Man spricht seither von der Unsterblichkeit der Medien und dem "Rieplschen Gesetz".
Zeitungen in Zahlen Auflagenentwicklung. Im vergangenen Jahr hatten die Tageszeitungen in Deutschland nach Angaben des Bundesverbands Deutscher Zeitungsverlage (BDZV) eine Auflage von 20,42 Millionen Exemplaren, zehn Jahre zuvor waren es noch 25 Millionen. Dramatisch ist auch der Einbruch im Werbemarkt. Zwischen 1997 und 2007 sanken die Nettowerbeeinnahmen der Verlage laut BDZV von umgerechnet 5,56 auf 4,56 Milliarden Euro. Stuttgarter Zeitung 25.6.2009
Abb. 5.9: Neues vom Zeitungsmarkt
Als Computerkunst, auch Digitale Kunst genannt, werden Kunstwerke angesehen, die weitgehend von einem Rechner erzeugt und hergestellt werden. Der Mensch gibt dabei nur ein Grundmuster und einen (nicht-deterministischen) Algorithmus für die Auswahl und für eine allgemein formulierte Darstellung der Bestandteile dieser „ästhetischen Objekte“ vor. Als konkrete Ausprägung wird dann vom Computer nach diesem Algorithmus ein individuelles Kunstwerk generiert. Charakteristisch für diese Vorgehensweise ist dabei die Verwendung von Pseudo-Zufallsgeneratoren, die die Zeichenparameter numerisch bestimmen und so eine unvorhersehbare Variabilität bei den einzelnen Schritten der Generierung erzeugen. Damit sich diese Investition in die Programmierung lohnt, werden meist ganze Serien von Kunstwerken produziert, die eine Gruppe stochastischer Varianten darstellen. Bei diesen Werken kann es sich um Grafiken, Bilder, Gedichte oder Musik handeln. Ursprünglich dienten sie ihren Autoren oft nur dazu zu zeigen, was Computer können. Andererseits werfen sie aber auch die Frage auf, was wir alles als Kunstwerk akzeptieren. Frühe Anfänge gab es in Deutschland an der Universität Stuttgart, als im Jahre 1959 Theo Lutz auf einem ZuseRechner literarische Texte stochastisch generierte, und im Jahre 1963, als Frieder Nake mit einem Zeichentisch der Firma Zuse abstrakte Grafiken zeichnete. Heute wird Digitale Kunst besonders vom Zentrum für Kunst und Medientechnologie (ZKM) in Karlsruhe gesammelt. Wir sind der festen Auffassung, dass Computer unsere Künstler nicht ersetzen werden. Nur müssen sich in Zukunft auch die Künstler an dem messen lassen, was man mithilfe von Computern an „Kunstwerken“ erzeugen kann. Bewertung und Vorschläge: Das Büro für Technikfolgen-Abschätzung (TAB) des deutschen Bundestages hat im Jahre 2001 die Wirkung der neuen Medien auf die Kultur untersucht und einige interessante Fragen70 formuliert. Wir geben sie wörtlich wieder: „(a) Kommt es infolge des Internet und seiner Nutzung zu einer Überbrückung der Kluft zwischen Kulturschaffenden und Kulturkonsumenten? (b) Wie ist die Bedeutung und Funktion der traditionellen Vermittler ("Intermediäre") und können sie ihre Position behaupten, oder werden sie von neuen Vermittlungsinstanzen bedroht? (c) Fördern die Neuen Medien, die sowohl die Produktion und die Distribution als auch die
72
Rezeption von Kultur verändern können, die kulturelle Vielfalt, oder fördern sie eher Homogenität?“ Es ist heute noch viel zu früh, um auf diese Fragen verbindliche Antworten zu finden. Eine Tendenz zeichnet sich aber ab. Für die Literatur bricht mit dem Internet eine neue Epoche an. Jeder kann seine literarischen Ergüsse, seien es Gedichte, Novellen, Romane, Dramen oder Hörspiele unter eigenem Namen oder anonym ins Netz stellen. Man braucht weder einen Lektor noch einen Verleger zu überzeugen, damit man überhaupt an die Öffentlichkeit dringt. Wie groß der Anteil der Autoren sein wird, die für ihre Werke, die sie ins Internet stellen, auf Einahmen verzichten werden, wird sich herausstellen. Sicherlich wird es auch weiterhin Autoren geben, die wenigstens einen Teil ihrer Lebenshaltungskosten durch ihre schriftstellerische Tätigkeit bestreiten wollen oder müssen. Das Fernsehen scheint sich neue Zuschauer dadurch zu erschließen, dass man sich die Produktionen einzelner Sender jetzt bequem auch zeitversetzt ansehen kann. Nachdem sie rechtlich grünes Licht bekommen haben, steigen zumindest die gebührenfinanzierten Sender voll in ein Internet-Angebot ein. Die Privatsender werden bald folgen. Für die Filmindustrie zeichnet sich noch kein klares Konzept ab, ob und wie man das Medium Internet nutzen wird. Dasselbe gilt für andere Formen der bildenden und gestaltenden Kunst (Theater, Konzerte, Malerei, Bildhauerei und dgl.). Von manchen Leuten wird es als Problem angesehen, dass immer mehr Menschen dazu übergehen, nicht mehr ein ganzes Buch oder das ganze Heft einer Zeitschrift zu kaufen, wenn sie nur ein einziges Gedicht oder ein einzelner Artikel darin interessiert. Diesen Artikel bzw. Auszüge davon holen sie sich im Internet. Anstatt mehrere Musik-CDs mitzunehmen stellen Menschen sich diejenigen Musikstücke, die sie auf einer Fahrt im Auto oder an einem Nachmittag auf der Wiese hören wollen, selbst (als so genannte Playlists) zusammen und laden diese aus dem Internet auf ihren MP3-Spieler. Vielleicht ändern sich auch die Lesegewohnheiten? Statt stunden- oder tagelang im selben Buch zu schmökern, schnappt man lieber hier einen Happen und dort einen Happen, natürlich mit Bildern und Ton versehen. Der durch die Informatik erzeugte kulturelle Wandel lässt sich auch an einzelnen Berufen verdeutlichen. So sind zum Beispiel die Journalisten dazu gezwungen, über die Essenz ihres Berufes neu nachzudenken. Lange sind sie dem Vorbild von Egon Erwin Kisch gefolgt, der Anfang des vorigen Jahrhunderts das Bild des „rasenden Reporters“ prägte. Schnelligkeit schien alles zu sein. Jetzt merken sie, dass ihnen darin Amateure vor Ort überlegen sind, die das unmittelbar Gesehene und Erlebte mit ihrem Photo-Handy aufnehmen und rasch ins Internet stellen. „Es bleibt nur die journalistische Qualität, die Journalismus von bloßer Veröffentlichung unterscheidet“, so heißt es im Internet-Manifest71, das einige Journalisten vor kurzem ins Netz gestellt haben. Die Frage ist, was diesen journalistischen Mehrwert ausmacht, für den Menschen weiterhin bereit sind Geld zu bezahlen. Die einen sind der Meinung, Qualitätsjournalismus bestünde darin, Fakten mit gut recherchiertem Hintergrund und fundierten Meinungen zu versehen, andere sehen das Heil in der Spezialisierung. Für letzteres spricht der Erfolg des Wall Street Journals. Diese führende Wirtschaftszeitung der Welt druckt weiterhin kurze Übersichtsartikel, die auch kostenlos im Netz abgerufen werden können. Sie verweisen auf detaillierte Firmenanalysen, die nur käuflich erworben werden können. Aber auch für Journalisten sollte die Möglichkeit, Geld zu verdienen, nicht der einzige Maßstab sein. Schließlich ist eine Demokratie darauf angewiesen, dass der mündige Bürger über wichtige Dinge, die ihn betreffen, umfassend informiert wird, und dass auch Dinge ans Licht gebracht werden, die nicht so laufen, wie sie sollen. Für das Fernsehen wurde zumindest in Deutschland die Frage bejaht, ob für die Grundversorgung der Öffentlichkeit auch öffentliche Mittel eingesetzt werden sollen, also Gebühren erho73
ben oder Subventionen bereitgestellt werden. Da dieses Prinzip auch auf das Internet nahtlos übertragen wurde, sieht es so aus, dass auch in dieser Hinsicht das Medium Papier seinem Schicksal überlassen bleibt. Weitere Informationen: Der Deutsche Kulturrat schreibt im Jahre 200872 auf seiner Homepage: „Die neuen und schnellen Distributionswege digitaler Medien haben einen unmittelbaren Einfluss auf die Entwicklung unserer Kultur und damit auch auf die Aufgaben der kulturellen Bildung. So bilden sich neue kulturelle Orte wie Chaträume, E-Communities oder Clans. Seit der Einführung beispielsweise des so genannten Web 2.0, bei dem die Internetbenutzer eigene Medieninhalte produzieren, ins Netz stellen und somit neue selbstorganisierte Kommunikationsprozesse stattfinden, produzieren die Internetnutzer eine neue Dimension von Kultur. Über YouTube können eigene Videos oder über MySpace selbstkomponierte Musik ins Internet gestellt werden. Durch die vielfältigen Möglichkeiten, sich als Produzent von Kunst und Kultur im Internet frei darzustellen, wird das Internet auch zu einem identitätsstiftenden Medium.“ Der Deutsche Kulturrat e.V. ist eine politisch unabhängige Arbeitsgemeinschaft kulturund medienpolitischer Organisationen und Institutionen und berät den Bund, die Länder und die Europäische Union in übergreifenden kulturpolitischen Angelegenheiten. Wir hätten uns kaum getraut, die Dinge so positiv darzustellen. 5.9 Untergang des Bildungswesens Fragen: Welche Rolle spielen Computer und Internet in unserem künftigen Bildungswesen? Benötigen wir in Zukunft noch Schulen und Universitäten, oder wird Bildung individuell per Internet frei Haus angeliefert? Verschwinden damit Schulbücher, Schulgebäude und Bibliotheken? Wird unser bis zu den PISA-Studien so hoch gelobtes Bildungssystem dann seinen Aufgaben und unseren Bildungszielen endlich besser gerecht? Fakten und Erklärungen: Der Begriff Bildung hat in Deutschland einen besonderen Stellenwert. Ihr dienen sowohl der Kindergarten wie unser dreistufiges Schulsystem. Diese allgemeine Bildung umfasst nicht nur das Erlernen von Grundfertigkeiten wie Lesen, Schreiben und Rechnen, sondern auch die Grundlagen von Fremdsprachen, der deutschen Literatur, der Mathematik und der Naturwissenschaften. In der späteren Berufsausbildung liegt die Betonung auf Fachwissen und der beruflichen Qualifikation. Sie soll es jungen Menschen ermöglichen, ihr eigener Ernährer zu werden. Fast noch stärker verbinden wir mit Bildung aber die persönlichkeitsbezogene Weiterentwicklung und Festigung, die es ermöglichen, ein selbstsicherer Bürger und ein glücklicher Mensch zu werden. Diese charakterliche Bildung setzt auf die Beherrschung unserer Triebe durch rationales Denken, auf Selbsterkenntnis und auf ethisches Handeln. Man kann dies auch als soziale Qualifikation bezeichnen. Hier spielen Vorbilder eine große Rolle. Es gehört zu den Grundprinzipien unserer Gesellschaftsordnung, dass Staat, Familie und Einzelner sich die Verantwortung für Bildung und Ausbildung teilen. Nur wo sich die Pflichten des Staates mit den Rechten der Familie berühren, wird darüber hin und wieder gestritten. Dies betrifft nicht zuletzt die Kosten für Bildung und Ausbildung. Lehren und Lernen gehören nachweislich zu den ältesten Anwendungen von Rechenautomaten. Trotzdem blieben sich die Welt der Informatik und die der Pädagogik in ihrer Vorgehensweise lange fern. Eine Ausnahme bilden seit über 45 Jahre die als rechnerunterstütztes Lernen (engl. Computer aided instruction oder Computer based training) bezeichneten Bestrebungen – heute meist als eLearning bezeichnet. Viele der aktuellen – zumeist kritischen – Diskussionen über den Einsatz der neuen Medien in der Bildung basieren noch auf Erfahrungen aus dieser sehr frühen Phase des elektronischen Lehrens und Lernens, als es nämlich das primäre Ziel war, Lern- und Bildungsprozesse zu automatisieren, also Personal einzusparen.
74
Von Online-Ausbildung spricht man, wenn das Ausbildungsmaterial über das Internet zur Verfügung gestellt wird. Ehe wir einige der derzeit eingesetzten Methoden vorstellen, soll kurz auf die Akzeptanz des eLearning eingegangen werden. In der Zeit des Internet-Booms zwischen 1997 und 2003 wurden sowohl in Europa wie in den USA eine Vielzahl von neuen Initiativen gestartet. Teilweise nahmen sie die Form von Ausgründungen bekannter Hochschulen an, manchmal waren es unabhängige Unternehmen. Obwohl oft mit einer großzügigen Anfangsfinanzierung ausgestattet, überlebten viele die ersten fünf Jahre nicht. Mehrere Gründe werden dafür ins Feld geführt. So wurden viele eLearning-Kurse nur fakultativ angeboten, d.h. sie waren keinem Pflichtlehrplan einer Institution zugeordnet, die dafür einen Abschluss vergab. Die Kosten für die Erstellung guten Online-Materials erwiesen sich als extrem hoch. Dazu kamen erhebliche Kosten für die Laufendhaltung und die Fortentwicklung. Zum andern stellte sich heraus, dass ein reiner Online-Kurs hinsichtlich des Lerneffekts meist weniger effizient ist als gemischte Verfahren (engl. blended learning). All dies führte zu einer gewissen Ernüchterung. Dem allgemeinen (negativ ausgerichteten) Trend entgegen liefen nur wenige Ansätze. Mal war es die Beschränkung auf wenige Fächer, mal die direkte Einbindung in das reguläre Ausbildungsangebot. Den ersten Weg ging die University of Phoenix in den USA, die sich auf Wirtschaftswissenschaften und Medizin beschränkt. Eine direkte Einbindung von Online-Kursen in das Lehrangebot der Fakultäten wird zum Beispiel von den Universitäten Duisburg-Essen73 und Stuttgart74 verfolgt. Studienrichtung Architektur, Bauwesen Biologie, Chemie, Physik Informatik, Mathematik Ingenieurwissenschaften Lehramt, Philosophie Medizin Rechtswissenschaft Schlüsselqualifikationen Sozialwissenschaften Sprachen Wirtschaftswissenschaften
Fernuni Hagen
Uni Duisburg
Uni Stuttgart
4 3
32 12 11 29 7
6 27
7 7 8
8 7
9 5
20
vhb
10 19 17 26 22 23 16 31 26
Tab. 5.2.: Online-Aktivitäten einiger deutscher Hochschulen (Stand WS 09/10) Tab. 5.2 gibt Beispiele von Online-Aktivitäten an deutschen Hochschulen. Bei der Fernuniversität Hagen75 sind diejenigen Kurse aufgeführt (48 von 2200), die nur im Netz benutzt werden können. Etwa die gleiche Anzahl wird sowohl online wie als Studienbriefe angeboten. Obwohl die Fernuniversität wie keine andere Hochschule für Online-Angebote prädestiniert ist, liefert sie selbst im Wintersemester 2009/2010 immer noch mehr als 90% ihrer Kurse nur auf Papier aus. Im Falle von Duisburg und Stuttgart handelt es sich um umfangreiche Ergänzungen zu konventionellen Lehrveranstaltungen, z.B. in Form detaillierter Lehrunterlagen wie Folien und Schaubilder aus dem Fachgebiet der Dozenten und von zusätzlichem interaktivem Lern- und Übungsmaterial. In Stuttgart liegt solches Material für etwa 200 verschiedene Lehrveranstaltungen vor. Nutzerdaten sind uns in diesen drei Fällen nicht bekannt. Die Virtuelle Hochschule Bayern76 (vhb) bietet nur echte Online-Kurse an, die von den 15 Trägerhochschulen entwickelt und zur Verfügung gestellt wurden. Diese Einrichtung scheint im Moment eine Sonderrolle zu spielen. Sie besitzt eine kontinuierlich steigende Zahl von Studierenden (etwa 27.000 Plätze in 186 Kursen im Jahre 2008). Ihr Besuch ist kostenlos und der Betrieb
75
wird vollständig aus öffentlichen Mitteln subventioniert. Unter den Schlüsselqualifikationen wird übrigens auch das Suchen im Internet vermittelt. Im Zuge des sogenannten Bologna-Prozesses, der einen „einheitlichen europäischen Hochschulraum“ schaffen will, wird auch an den deutschen Hochschulen eine Studienreform durchgeführt. Sie gliedert die berufsqualifizierende Ausbildung der Studierenden in zwei Etappen, dem Bachelor- und dem Masterstudium. Letzteres kann auch berufsbegleitend absolviert werden. Für diese Form der Weiterbildung entwickelt die Universität Stuttgart ein neues Studienangebot, sogenannte Master-Online-Studienprogramme. Zugangsvoraussetzungen sind ein abgeschlossenes Hochschulstudium – in der Regel also ein Bachelor-Abschluss – und zwei Jahre Berufserfahrung. Je nach Art des Erstabschlusses dauert dieses Masterstudium zwischen vier und acht Semestern, wobei etwa 80% des Studiums online zu Hause und nur etwa 20% als Präsenzstudium erfolgen. Zwei solcher Online-Studiengänge bestehen bereits in den Bereichen Bauphysik und Logistikmanagement. Weitere in den Fachgebieten integrierte Gerontologie, Akustik sowie Nano- und Optotechnik (letztere in Zusammenarbeit mit der Hochschule Reutlingen und der Firma Robert Bosch GmbH) sind im Aufbau. Neben solchen Studienangebot4en für die Weiterbildung sind noch viele Übungs- und Trainingsprogramme zu fachlichen Einzelthemen auf dem Markt, die auf den frühen Verfahren des Computer Based Training beruhen. Sie werden nur noch dort eingesetzt, wo es um die Schulung und Einübung von eingeschränktem Fakten- und Methodenwissen geht. Einer ihrer Nachteile ist, dass sie den Kontext der zu vermittelnden Inhalte nicht verstehen, auch haben sie keine Kenntnisse über den Wissens- und Übungsstand der Benutzer. Um solche Mängel auszugleichen, griff man schon Mitte der 1980er Jahre auf Verfahren der KünstlichenIntelligenz-Forschung zurück. Man ergänzte solche die Lernsysteme etwa durch ein regelbasiertes Expertenmodul für das zu vermittelnde Fachwissen und ein Schülermodul, das individuelle Lern- und Verhaltensdaten der Adressaten bestimmt und anwendet. Für die Organisation komplexen Wissens und seine Darstellung wurden schon in den 1970erJahren sogenannte Hypertexte als Lernmedien entwickelt. Informationseinheiten („Karten“) wurden als Wissensnetz angeordnet. Der Zugriff auf die einzelnen Karten erfolgte über deren Namen oder einen beliebigen Begriff, der auf einer anderen Karte als Stichwort (engl. link) markiert ist. Die Nutzung von fertigen Hypertexten fand bald instrumentelle Unterstützung durch Browser genannte Computerprogramme. Durch die zusätzliche Verwendung von Sprache, Geräuschen, Bildern und Graphiken entwickelten sich daraus multimediale HypermediaSysteme. Hypertext und Hypermedium bilden das Grundprinzip des heutigen Web, des wohl bekanntesten Internetdienstes. Schon in den 1970er-Jahren entstanden im Rahmen des rechnergestützten Unterrichts anwendungsreife Autorensprachen und Autorensysteme. Diese Softwaresysteme wurden zunächst für größere Rechner mit interaktiven Terminals und dann für Personal Computer entwickelt und erprobt. Über definierte Schnittstellen zwischen Bildungsanbietern (Autor, Lehrer, Dozent) und lernenden Personen (Adressat, Schüler, Student) konnten Lerninhalte mit unterschiedlichen Lernstrategien wie Tutorielles Lernen, Üben oder Prüfen vermittelt werden. Nur eingeschränkt möglich war dabei die Kommunikation zwischen dem Autor und den Adressaten sowie zwischen den Adressaten untereinander. Ihre Nachfolger, die interaktiven Lernplattformen, bilden heute sehr komplexe Softwaresysteme zur Bereitstellung von Lerninhalten und zur Organisation von Lernvorgängen. Unter einer zentralen Systemoberfläche integrieren sie die verschiedensten Web-Dienste und Software-Werkzeuge, mit denen unterschiedliche Szenarien und Strategien des eLearning unterstützt werden. Beispiele hierfür sind Werkzeuge zur Erstellung und Verwaltung von Lerninhalten, zur Koordination von Web-basierten Lern76
angeboten, zur Präsentation von Lernstrategien und zur Beurteilung der Leistungen der Lernenden. Sämtliche Lerninhalte werden in einer digitalen Datenbank verwaltet und können allen Lernenden in einzelnen Lernphasen bzw. Lernschritten personalisiert zur Verfügung gestellt werden. Die laufenden Lernprozesse werden (teilweise) vom System mitverfolgt und protokolliert. Alle Kommunikationsprozesse und alle Darstellungen von Kursinhalten, Lernobjekten und Lernmedien benutzen dabei Internet-Browser. Systeme wie z.B. Moodle finden nicht nur an Hochschulen, sondern zunehmend an Schulen Verwendung, auch wenn dort nicht alle funktionalen Anwendungsmöglichkeiten genutzt werden. Bei neueren kommunikativen Lernsystemen überträgt der Computer nicht nur Lerninhalte zwischen dem Autor und den individuellen Adressaten. Beide nutzen das interaktive Computersystem zusätzlich als direktes Kommunikationsmedium zwischen Lernenden und Lehrenden sowie unter den Lernenden. So entsteht eine Lerngemeinschaft. Sie bietet eine Gewähr dafür, dass die individuelle Arbeit einzelner Schüler und Studenten immer wieder in didaktische Gemeinschaftsformen für das Lehren und Lernen mündet. Die Schule und die Gemeinschaft ihrer Schüler und Schülerinnen bleiben so erhalten. Bei den sogenannten kooperativen Lernsystemen ist die Zusammenarbeit unter den Teilnehmern noch ausgeprägter, denn hier ist das Ziel, ein Projekt durchzuführen und gemeinsam das Projektziel zu erreichen.. Die Unterschiede zwischen Lehrer und Adressat verfließen bei diesen gemischten Lernformen (engl. blended learning) zunehmend, denn in der Regel wird an einer gemeinsamen Lernaufgabe gearbeitet, wobei die erforderlichen Teilaufgaben arbeits- und wissensteilig bewältigt werden. Der Computer dient dabei auch als zentrales Archiv zur Bereitstellung und Protokollierung dieser Lernaufgaben und Lernprozesse. Die Idee der Hypermedia-Systeme bleibt aber nicht das einzige Relikt des eLearning aus den vergangenen 35 Jahren. Sieht man die Strategien und Konzepte der neueren Verfahren genauer an, so finden sich viele alte Ideen wieder, so tutorielle Lernsequenzen, Autorensysteme, eingestreute Simulationen, Antwortanalyseverfahren oder Methoden, um die Leistungen der Lernenden aufzuzeichnen und auszuwerten. Bewertung und Vorschläge: Es gehört heute fast zum guten Ton, dass man unser Schulsystem kritisiert. Die Schwerpunkte dieser Kritik variieren. Mal ist es die mangelnde Integration von Kindern und Jugendlichen aus Einwandererfamilien, mal ist es die Leistung in den harten naturwissenschaftlichen Fächern. Der Pädagoge Hartmut von Hentig (2008) bezeichnet den Ist-Zustand unserer Schulen als „Gemischtwarenladen für nützlich erscheinende Kenntnisse und Fähigkeiten“. Er plädiert im Gegenzug engagiert dafür, „die Schulen wieder zu einem Lebens- und Erfahrungsraum werden zu lassen, in dem sich die jungen Menschen in Selbständigkeit, Hilfsbereitschaft, Konfliktfähigkeit und Verantwortung für sich selbst und andere üben können“. Für viele mag dies eine romantische Vorstellung von Pädagogik sein. Natürlich kommt es auf die richtige Gewichtung von fachlicher und methodischer Ausbildung und der charakterlichen Bildung an. Das Ziel bleibt doch wohl eine Schulbildung, „an deren Ende wahrscheinlich etwas weniger abfragbares Wissen, vielleicht aber neugierigere, psychisch stabilere, widerstandfähigere, selbständigere junge Menschen stünden“ – so kommentiert Die Zeit das von-Hentig-Buch. Der Anteil der Jugendlichen, die eine akademische Ausbildung genießen, ist in Deutschland in den fünf vergangenen Jahrzehnten kontinuierlich gestiegen, und zwar von knapp 5% auf über 30% eines Jahrgangs. Im Vergleich zu andern Ländern wird diese Zahl immer noch als zu niedrig angesehen. Die akademische Ausbildung ist zunehmend größeren Herausforderungen ausgesetzt. Sie muss nicht nur mit dem Anwachsen der Zahl der Studierenden fertig werden, sondern auch mit einer zunehmenden Spezialisierung und dem Aufblähen der Zahl der verschiedenen Studienfächer. Da in Zukunft Wissen wohlfeil ist, d.h. es immer einfacher und kostengünstiger zu beschaffen ist, müssen alle Schultypen einen Schwerpunkt darauf legen, 77
außer Wissen auch Können zu vermitteln. Unter Können oder Kompetenz versteht man die Fähigkeit, unvorhergesehene Aufgaben und Probleme zu lösen. Dazu ist Wissen notwendig aber nicht ausreichend. Beim Tennis- oder Klavierspielen ist der Unterschied für Jedermann offensichtlich. Was man in Vorlesungen, aus Büchern oder neuerdings aus dem Internet an Wissensmaterial aufsammeln kann, macht einen noch nicht zum Könner. Man muss es richtig anwenden können. Erst die Übung macht den Meister, sagt der Volksmund. Ohne Zweifel lässt der Bedarf an Bildung und Ausbildung nicht nach. Im Gegenteil, der Bedarf an fachlicher Weiterbildung steigt sogar rasant. Noch vor 45 Jahren hatten Lehrlinge im Alter von 18 Jahren „ausgelernt“, d.h. ihre kaufmännische oder gewerbliche Berufsausbildung abgeschlossen. Heute wird von ihnen eine lebenslange berufliche und private Weiterqualifikation gefordert. Dass gilt erst Recht für Ärzte, Juristen, Lehrer und Ingenieure. Was sich ändern wird, ja ändern muss, ist die Form wie Bildung vermittelt wird. Genau wie die Musikund Filmindustrie so muss sich auch die „Bildungsindustrie“ anpassen. An die Seite der teuren personalintensiven Dienstleistungen in Schule und Hochschule können kostengünstige Produkte treten. In weiten Bereichen werden so Computer dafür sorgen, dass Wissen überall und zu jeder Zeit angeboten werden kann. Diese Möglichkeit wird heute bereits intensiv genutzt, und zwar von der betrieblichen Aus- und Weiterbildung. Das Internet beginnt aber auch das Lernverhalten von Schülern und Studierenden zu verändern. Aus speziellen Datenbanken und Informationsquellen wie Wikipedia holen sie passende Fakten, Lerntipps, Lösungen für Hausaufgaben77 oder gar fertige Referate. Kooperativ erarbeiten sie Lösungen für Probleme aus dem Schulunterricht in teilweise kostenpflichtigen Foren, Boards, Wikis, Chats und auf sogenannten Online-Whiteboards. Die Welt der Schule reagiert auf solche Entwicklungen eher zögerlich. Viele engagierte Lehrerinnen und Lehrer betreuen und unterstützen ihre Schülerinnen und Schüler bei der sinnvollen Nutzung des Webs. Zu viele ihrer Mitschüler(innen) bleiben aber noch auf sich selbst angewiesen. Die Lernergebnisse ihrer teils sehr aufwändigen Web-Kommunikation bleiben daher nicht selten zufällig und ungesichert. Im Web entstehen Lerngruppen von Schülern und Studierenden oft sporadisch und verändern sich stark. Soziale Kontakte werden dabei weniger gefördert als dies im ursprünglichen Konzept des kooperativen Lernens erhofft war. Bei vielen Anwendungen der synchronen Kommunikation (wie Chats, Whiteboards) spalten sich die Teilnehmer und ihre Sachthemen häufig in unterschiedliche Kommunikationsstränge auf, ohne zum ursprünglichen Thema zurückzukehren oder zu einem neuen angemessenen Ablauf der gemeinsamen Arbeit zu wechseln. Bei dieser Art von Kommunikation fehlen auch Gesten oder andere Interaktionsmöglichkeiten, um beispielsweise darauf hinzuweisen, dass ein Teilnehmer etwas nicht richtig verstanden hat oder gerade jetzt etwas Wichtiges beitragen will. Bei den asynchronen Formen der Web-Kommunikation (wie Foren, Boards und Wikis) treten solche Effekte seltener auf, da jeder die vorliegenden Beiträge in einem angemessenem Zeitrahmen lesen, verarbeiten oder ergänzen kann. Bei stark differierenden Arbeitsrhythmen der Beteiligten verläuft eine solche Kommunikation allerdings oft langsam. Diese wenigen Beispiele zeigen, wie Lehren und Lernen im beruflichen und im privaten Feld auf dem Weg ist, mit Hilfe der neuen Medien neue Lernmethoden zu erschließen. Ein Vorteil scheint hierbei vor allem deren zeitliche und räumliche Flexibilität zu sein: „Lehrer lehren und Studierende studieren dann, wenn dafür die erforderlichen Ressourcen bereit stehen. Dies kann am Arbeitsplatz, in der Bahn, am Strand, zu Hause oder auch im Hörsaal der Fall sein. Im Rahmen dieser räumlichen Flexibilität ist es nur ein kleiner Schritt, Lernen in selbstverständlicher Weise über weite Teile des Lebens zu verteilen.“ So sehen es Gunzenhäu78
ser/Herczeg (2005). Aus wirtschaftlicher und insbesondere aus gesellschaftlicher Sicht stellt das lebenslange Lernen aber eine schwierige Frage dar, denn es müssen dafür deutlich komplexere und vielfältigere Bildungsmärkte entstehen, die aufgebaut, genutzt, gepflegt und auch großzügig finanziert werden müssen. Die jetzigen Träger der Bildung und Ausbildung – allen voran die öffentliche Hand – sind hier sicherlich überfordert. Nur eine gemeinsame Anstrengung von Politik, Wirtschaft und Wissenschaft bringt uns weiter. „Die Wissens- und Informationsgesellschaft erfordert ein flexibles, lebenslanges Lernen. Und mehr denn je brauchen wir hierfür eine globale Vernetzung, die die weltweit vorhandene Intelligenz lokal verfügbar macht.“ So steht es in der Stuttgarter Erklärung78, die der 4. Nationale IT-Gipfel im Dezember 2009 verabschiedet hat. Das Problem scheint also erkannt zu sein. Wie sehr eLearning unseren Hochschulalltag verändern wird, ist noch nicht klar abzusehen. Es ist sicherlich nicht damit zu rechnen, dass Online-Ausbildung einmal die klassischen Formen der Lehre ersetzen wird. Wir werden also auch in Zukunft also noch Schulgebäude und Hörsäle haben. Bei Bibliotheken müssen damit rechnen, dass das Online-Angebot den derzeitigen Vorrat an gedruckten Büchern schnell übertreffen wird, vorausgesetzt wir messen den Umfang in Terabytes und nicht in Kubikmeter. Die Online-Angebote werden zumindest eine unverzichtbare Ergänzung des Angebots an Lernmaterial darstellen. Eines aber bringen die neuen digitalen Medien und Netze schon heute hervor, was auch im Web 2.0 deutlich wird. Die bisherige Trennung von Produzent und Konsument von Lerninhalten und Lernprogrammen in unserer arbeitsteiligen Gesellschaft verschwimmt in der zu erwartenden wissensteiligen Informationsgesellschaft immer mehr, wo viele Menschen Informationsangebote erstellen und anderen Menschen anbieten. Wie die fachliche Qualität des so entstehenden Angebots überprüft bzw. gewährleistet werden kann, ist allerdings noch nicht geklärt. Fachwissen, das an Forschungsinstituten, an Hochschulen und in der Wirtschaft gewonnen wird, muss auch weiterhin äußerst verlässlich bleiben. Dafür sorgt nicht zuletzt die Qualitätssicherung von Publikationen durch die Autorität namentlich bekannter Autoren und Gutachter. Weitere Informationen: Eine umfassende Studie über die Effizienz von Online-Ausbildung und eLearning wurde im Mai 2009 von SRI International79 vorgelegt. Im Auftrage des amerikanischen Bildungsministeriums (US Department of Education) wurden 99 Ausbildungsprojekte aus der Zeit von 1996 bis 2008 untersucht, beginnend mit Kindergarten, Grund- und Oberschule (K-12) über Hochschulen, Lehrerausbildung bis zur Erwachsenenbildung. Die Studie kommt zu dem Ergebnis, dass bei richtiger Kombination der Medien der Lerneffekt eindeutig größer ist als bei der konventionellen Ausbildungsmethode (engl. face-to-face). Besonders gut schnitten Projekte ab, die Online-Ausbildung und konventionelle Ausbildung im Sinne von ‚blended learning’ mit einander verbanden. Als Beispiel für sehr nützliche OnlineKurse sei auf die Association for Computing Machinery (ACM), die bekannteste Fachorganisation auf dem Gebiet der Informatik, hingewiesen. Ihr Angebot80 umfasst etwa 2.500 Kurse, von denen etwa 1000 in Form eines virtuellen Labors ablaufen. Inhaltlich wird das ganze Gebiet der Informatik abgedeckt. Auch Kurse über Produkte führender Hersteller wie Adobe, Cisco, IBM, Microsoft und Sun sind mit eingebunden. Verweisen möchten wir schließlich auf das Angebot bekannter Universitäten wie Cornell, Harvard, MIT, Oxford, Stanford und Yale, die inzwischen eine Auswahl ihrer Vorlesungen kostenlos im Internet zur Verfügung stellen. Soweit es sich dabei um aufgezeichnete Vorträge handelt, findet man sie unter Portalen wie iTunes und YouTube.
79
80
6. Sicht der Wissenschaft und insbesondere der Philosophie Vor über 60 Jahren begann der Einsatz von Computern in der Wissenschaft. Heute gibt es kaum noch einen Wissenschaftszweig, der in seinen Forschungen und in der akademischen Lehre ohne Rechner auskommt. Stellvertretend für diesen Anwendungssektor greifen wir das zentrale Problem der Modellbildung heraus. Den hier ebenfalls angesprochenen eher philosophischen Fragen geben wir deshalb Raum, um zu verdeutlichen, wie weit die Auswirkungen der von Informatikern geschaffenen Technik und Methodik gehen können. Sie sind weniger ein Anlass für Ängste und Gefahren als ein Grund, uns über die Phantasie und den Wagemut einiger Kollegen zu wundern. 6.1 Modell-Gläubigkeit statt Wissenschaft Fragen: Wird der Einsatz von Computern die Wissenschaft weiter verändern? Glauben dann die Wissenschaftler immer mehr ihren Berechnungen und Simulationen und immer weniger ihren Experimenten und Sinnesorganen? Verdrängt damit die Computer-Simulation das reale Experiment? Fakten und Erklärungen: Viele Disziplinen der Wissenschaft sprechen davon, dass sie sich „eine neue Säule“ zugelegt hätten. Sie ist entstanden durch die breite Anwendung des wissenschaftlichen Rechnens, einer Kombination von Methoden der Angewandten Mathematik und der Informatik. Dieses steht als dritte Säule neben dem wissenschaftlichen Experiment und der erklärenden Theorie (siehe Abb. 6.1). Zuerst von der amerikanischen Society of Industrial and Applied Mathematics81 (SIAM) propagiert, heißt dieses Zusammenwirken auch das SIAM-Modell.
Abb. 6.1 SIAM-Modell der Wissenschaft Das Wissenschaftliche Rechnen (engl. computational methods) löst Aufgaben aus der Wissenschaft mit Methoden der Informatik. Mithilfe einschlägiger Programme gelingt es, umfangreiche Daten von Experimenten und Versuchen zu analysieren, Untersuchungsgeräte zu steuern sowie die Konsistenz von Theorien zu überprüfen. Werden bestimmte Prozesse oder Sachverhalte für operationelle Zwecke mechanisch, grafisch, numerisch oder als Computerprogram81
me dargestellt, spricht man von Modellen. Wird dabei auch der zeitliche Verlauf von Prozessen nachgebildet, handelt es sich um Simulationsmodelle. Abb. 6.1 ist ein Beispiel eines einfachen grafischen Modells. Bei komplexeren Modellen kommen meist spezielle grafische Notationen oder Modellierungssprachen zur Anwendung. Ein Beispiel einer ausgefeilten grafischen Notation aus der Informatik ist die Unified Modeling Language (UML). Simulationsmodelle werden teilweise in speziellen Simulationssprachen geschrieben, oft genügen auch reguläre (prozedurale) Programmiersprachen. Wetter- oder Klimamodelle sind Simulationsmodelle. Es gibt Simulationsmodelle in vielen Wissenschaften, insbesondere auch in der Finanz- und Volkswirtschaft. In der Informatik dienen Simulationsmodelle unter anderem der Abschätzung des Zeitbedarfs von Transaktionen oder Datenbankzugriffen. Das wissenschaftliche Rechnen regt sowohl zu neuen Theorien wie zu neuen Experimenten an. Im Englischen spricht man auch gerne von „Computational X“, wobei X für eine beliebige Wissenschaft stehen kann, von Astronomie, Biologie und Chemie bis zur Zoologie am Ende des Alphabets. Keine Modellierung ist uns derart vertraut wie die Wettervorhersage. Ihre Ergebnisse können wir täglich in den Nachrichten hören und natürlich auch im Internet abrufen. Für die Region, in der wir uns befinden, können wir dann am eigenen Leib erfahren, wie zuverlässig die jeweilige Vorhersage war. Auf diesem Gebiet werden die schnellsten derzeit zur Verfügung stehenden Rechner eingesetzt. Sie ermöglichen, aus Daten, die aus weltweit verteilten Wetterstationen geliefert werden, eine zumeist sehr akzeptable Vorhersage für etwa 48 Stunden zu erzeugen. Selbst wenn die Effizienz der Algorithmen nicht mehr gesteigert werden könnte, gäbe es dennoch spürbare Fortschritte. Sie kommen quasi von selbst, da die eingesetzten Rechner immer schneller und leistungsfähiger werden und das Netz der Sensoren zur Generierung der Daten immer engmaschiger wird. Viele neue Anwendungen des Wissenschaftlichen Rechnens sind ohne leistungsfähige Rechner oder Rechnernetze überhaupt nicht vorstellbar. Bei einigen wachsen die Anforderungen immer noch schneller als die Informatiksysteme sie erfüllen können. Hier seien drei Beispiele genannt. Ein erstes für den Fortgang der Wissenschaft sehr wichtiges Vorhaben stammt aus der Biologie, das Human-Genom-Projekt82. An diesem Projekt haben mehrere Gruppen auf der ganzen Welt mitgearbeitet – in der Regel an unterschiedlichen Teilaspekten, teilweise aber auch im Wettbewerb. Der Forschergruppe in Cambridge (England) gelang es 1999 als erster, ein bestimmtes menschliches Chromosom, nämlich das Chromosom 22, vollständig zu analysieren. Es ist eines der kleineren Chromosome und umfasst 33,4 Millionen Basenpaare (Nukleotide), die in Sequenzen angeordnet sind. Die Forscher konnten darin etwa 700 verschiedene Gene erkennen. Um dieses Chromosom 22 auf Papier darzustellen, würden etwa 500 000 Seiten benötigt. Alle Daten wurden auf einem Institutsrechner in Cambridge (England) vorgehalten und – gespiegelt – in den USA. Seit 1997 wurden sämtliche Ergebnisse der Analyse mit einer Verzögerung von nie mehr als 24 Stunden allen interessierten Forschergruppen auf der ganzen Welt per Internet zur Verfügung gestellt. Inzwischen wurden alle 23 Chromosome mit etwa 3,2 Milliarden Basenpaaren sequenziert. Sie umfassen etwa 25.000 Gene, von denen 99,9 % bei allen Menschen gleich sind. Neben Computern kommen auch Spezialgeräte zum Einsatz, mit deren Hilfe die Sequenzierung vorgenommen wird. Ein interessantes Projekt aus der Astronomie wird vor allem von Tübinger Astronomen um Hanns Ruder83 verfolgt. Es ist die Untersuchung eines Röntgen-Pulsars. Für die Simulation des Doppelsternsystems X-1 im Sternbild Herkules reicht selbst ein Teraflops-Rechner (mit 1012 Gleitkomma-Operationen pro Sekunde) nicht aus. Deshalb muss das wissenschaftliche Modell in Teilsysteme zerlegt werden. Jedes Untersystem wird mit besonders dafür geeigneten Verfahren untersucht. Schon seit Jahrzehnten fordert Hanns Ruder uns Informatiker dazu auf, unsere mächtigen Werkzeuge der Computergrafik bevorzugt dafür einsetzen, um solche 82
Vorgänge optisch erfahrbar zu machen, die wir Menschen normalerweise nicht sehen können. Wir können uns weder nahezu mit Lichtgeschwindigkeit noch in der Nähe von sogenannten „schwarzen Löchern“ bewegen, auch können wir keine räumlichen Objekte unterhalb der Wellenlänge des Lichts oder Atome im Bereich der Heisenbergschen Unschärferelation anschauen. Mit Simulationen im Rechner ist dies aber (näherungsweise) schon jetzt möglich. Wir können heute auch die physikalisch-geschichtliche Entwicklung des Kosmos einige Milliarden Jahre weit rückwärts oder vorwärts betrachten. Da wir die dazugehörigen Naturgesetze der Physik und Astronomie kennen (und annehmen, dass sie korrekt sind), sind entsprechende Computer-Visualisierungen auch physikalisch gesehen korrekt, abgesehen natürlich von eventuellen Programmierfehlern. Wenn dies gewünscht wird, können wir mit den gleichen Methoden auch eine Welt simulieren, in der bestimmte Naturkonstanten, wie zum Beispiel die Gravitationskonstante, mit anderen Werten als den geltenden besetzt werden.
Abb. 6.2: Schnellster Rechner in Deutschland (Quelle FZ Jülich) Werden bei diesem Projekt – zusätzlich zu den Großrechnern – auch eine Vielzahl von Kleinrechnern im Verbund eingesetzt, so geschieht dies bei einem anderen Projekt aus der Astronomie in weit größerem Umfang. Im Projekt SETI (vgl. Anderson et al. (2002)) geht es um die Suche nach außerirdischem Leben (engl.: Search for Extraterrestrial Intelligence). Die Projektleitung in Berkeley verteilt umfangreiche Rohdaten von Radioteleskopen an beliebige PC-Nutzer und liefert diesen die entsprechende Software zur Analyse der Daten. Jede Arbeitseinheit umfasst etwa 10 Stunden Rechenzeit auf einem handelsüblichen Personal Computer. Die mitgelieferte Software sucht nach Datenverläufen mit Zacken (engl.: spikes), Gaußschen Glockenkurven und periodisch wiederkehrenden Signalfolgen. Die gefundenen Ergebnisse werden der zentralen Datenbank mitgeteilt und dort näher untersucht. Obwohl bisher noch keine spektakulären Ergebnisse erzielt werden konnten, ist die Anteilnahme der Öffentlichkeit beachtlich. Heute stellen über 300 000 Menschen weltweit ungenutzte Rechenzeit (sowie die erforderliche Energie) auf etwa 570.000 Computern für SETI und ähnliche Projekte zur Verfügung84. Das ergibt insgesamt etwa zwei Petaflops (1015 Gleitkomma-Operationen pro Sekunde) an Rechnerkapazität, was fast doppelt so viel ist wie der derzeit schnellste Hochleistungsrechner der Welt, der es auf etwas über einen Petaflops bringt. Der schnellste zurzeit in Deutschland installierte Rechner bringt es auf 167 Teraflops. Er steht im Forschungszentrum Jülich (vgl. Abb. 6.2). Nachdem mit diesen Beispielen die Rolle von Computern für das wissenschaftliche Rechnen beleuchtet wurde, soll noch kurz auf die beiden anderen Säulen des SIAM-Modells eingegangen werden. Nach wie vor gilt: Zu einer neuen oder einer erweiterten Theorie gelangt man 83
nicht durch „Herumrechnen“, sondern nur durch Nachdenken. Gefordert sind Abstraktionen und Analogieschlüsse. Oft hilft das Verknüpfen von ursprünglich nicht zusammenhängenden Dingen. Man muss nach dem Grund für ein Phänomen fragen, nach dem Warum. Um die Erfolgschancen zu optimieren, soll es förderlich sein, wenn man dabei die Füße auf den Schreibtisch legt oder ein warmes Bad nimmt – genauso wie dies bei Erfindungen oft der Fall sein soll. Eine naturwissenschaftliche oder technische Theorie kann schon dann sehr nützlich sein, wenn sie nur 80% der auftretenden Fälle erklärt. Anders ist es in der Mathematik. Hier sind Theoreme zu 100% korrekt, wenn sie aus korrekten Axiomen oder Theoremen abgeleitet sind, sonst sind sie falsch. Bewertung und Vorschläge: Nicht wenige Leute haben Schwierigkeiten, komplexe Zusammenhänge als theoretisch fundiert anzusehen. Sie meinen, die Natur und auch die von ihr abgeleitete Technik müssten im Grunde schön und einfach sein. Für manche Physiker und Mathematiker ist daher schön und einfach dasselbe und manchmal ein Grund dafür, dieses Einfache intuitiv für wahr oder richtig zu halten. Diese Haltung ist nicht sinnvoll in der Astronomie, der Biologie, der Medizin und auch nicht in der Informatik. In den Äonen, die seit dem Urknall vergangen sind, betreffen die einfachen Regeln, die einmal zugrunde gelegen haben mögen, nur noch einen sehr geringen Teil dessen, was die Menschen heute beobachten, erfahren, erdenken und bewerkstelligen. Jeder Wissenschaftler freut sich, wenn er eine Abstraktion, d. h. eine vereinfachende Beschreibung, gefunden hat, von der er glaubt, dass sie Teile der ihn interessierenden komplexen Wirklichkeit richtig erfasst und richtig modelliert. Man darf jedoch nicht dem Umkehrschluss verfallen, dass die Wirklichkeit deswegen falsch ist, weil sie sich nicht mit einfachen mathematischen Modellen darstellen lässt. Dass die Erde eine Kugelgestalt besitzt, ist keine reale Wahrheit, die sich aus einem mathematischen Beweisgang ergibt. Sie ist lediglich eine sehr vereinfachende Beschreibung für das Ergebnis langwieriger physikalischer Prozesse, die zu der heutigen recht irregulären Gestalt des Planeten Erde führten, dem so genannten Geoid85. Grundsätzlich sei bemerkt: Aus einem Modell kann man nur gültige Ergebnisse ableiten, wenn die hineingesteckten Modellgrößen und ihre Beziehungen korrekt sind. Ist dies der Fall, kann man in der Regel zusätzliche Aussagen über Zwischenwerte machen, ohne neue Messungen vorzunehmen. Erlaubt ist diese lineare Interpolation zwischen zwei Messpunkten allerdings nur, wenn das Verständnis der Realität dies zulässt. Aus mathematischer Sicht können zwei Punkte bekanntlich durch beliebig viele Kurven verbunden werden, auch durch sehr krumme. Das gilt erst recht für Extrapolationen über vorhandene Messpunkte hinaus, wie das typischerweise bei Klimamodellen geschieht. Da manchmal solche einfachen Tatsachen außer acht gelassen werden, entsteht der Eindruck, dass Computer-Modelle an die Stelle von Orakeln und Propheten getreten sind. Modellgläubigkeit ist daher eine echte Gefahr für die Wissenschaft. Informatiker müssen andere Fachleute warnen, falls sie den von uns zur Verfügung gestellten Methoden und Werkzeugen Dinge zumuten, die nicht berechtigt sind. Sicherlich ist es auch falsch, wissenschaftliche Experimente als überflüssig zu betrachten. Sie werden mehr denn je benötigt, wo und wann immer die Realität befragt werden muss. Realität ist nicht nur die physikalische Natur; genau so oft ist sie die Technik, die Psyche des Menschen oder die Struktur der Gesellschaft. Experimente benötigen in jedem Falle eine entsprechend sorgfältige Planung und Kontrolle. Um zu aussagekräftigen Ergebnissen zu gelangen, müssen externe Einflüsse eliminiert oder sauber kontrolliert werden. In der Astronomie treten die sorgfältige Messung und Beobachtung an die Stelle der Experimente. In der Mathematik nehmen Beweise die Rolle von Experimenten ein. Dass man dank Computer-Simulationen auf teure Experimente verzichten kann, ist nur eingeschränkt richtig. Ein simulierter CrashTest zeigt wohl, wie sich das Modell eines Autos verformt. Dass dies der Wirklichkeit ent84
spricht, kann man nur behaupten, wenn man vorher nachgewiesen hat, dass das Modell korrekt ist. Um aber das zu prüfen, muss man das Modell verifizieren, d.h. die Realität befragen. Kontrollierte Experimente sind auch außerhalb der Naturwissenschaften sehr nützlich, so etwa in den Sozialwissenschaften und der Informatik. Zusätzlich zu Experimenten gibt es hier zwei andere Methoden, um wissenschaftlich auswertbare Beobachtungen zu machen, nämlich Fallstudien und Umfragen. Die durch sie gewonnenen Aussagen sind natürlich schwächer, da hier stets eine Vielzahl von Variablen sich überlagern. Empirische Methoden in der Softwaretechnik86 erfahren gerade einen Qualitätssprung dadurch, dass jetzt auch Daten aus größeren Projekten von unabhängigen Wissenschaftlern untersucht werden können. Zu verdanken ist dies der Open-Source-Bewegung. Weitere Informationen: Der Zusammenhang zwischen Beobachtung, Experiment und Theorie aus Sicht der Informatik wird in Endres/Rombach (2003) behandelt. Bei komplexen Computermodellen besteht leicht die Gefahr, dass sie zur Selbsttäuschung verleiten. Ein eklatantes Beispiel lieferte vor Jahren ein deutscher Wissenschaftler, der in einem Spiegel-Interview darauf hinwies, dass sein Modell auch dann dieselben konstanten Ergebnisse liefere, wenn er die Eingabedaten variiert. Der Leserbrief an den Spiegel, zu dem einer der Autoren (Endres) sich veranlasst sah, wurde allerdings nicht veröffentlicht. Darin wurde nämlich darauf hingewiesen, dass diese Aussage jeden erfahrenen Software-Entwickler aufhorchen lässt. Denn genau dieses Verhalten kann auch der Effekt eines einfachen Programmfehlers sein, über den vor allem Anfänger stolpern. Da es sich bei dem Wissenschaftler um einen Klimaforscher handelte, der über sein neuestes Klimamodell sprach, macht dies die Problematik klar. Ein späteres Modell desselben Forschers87 kommt übrigens zu wesentlich anderen Ergebnissen, nämlich nicht zu einer Erwärmung, sondern zu einer Abkühlung der nördlichen Hemisphäre während der nächsten Dekade. Sein neues Modell berücksichtigt zum ersten Mal Schwankungen im Wärmehaushalt des Atlantiks. Der wissenschaftliche Charakter dieser Auseinandersetzung wurde etwas in Frage gezogen, als andere Forscher88 sich dazu entschlossen, mit 5.000 US-Dollar gegen diese Vorhersage zu wetten. Klimaforscher geben zu, dass sie mindestens drei wesentliche Faktoren, die das irdische Klima beeinflussen, immer noch nicht modellieren können, nämlich die Wolkenbildung und den Vulkanismus auf der Erde und die Aktivität der Sonne. So überzeugend auch die empirischen Daten – etwa der Rückgang des Gletschereises – für die anstehende Diskussion sind, ob sich aber der Aufwand wirklich lohnt, den Klimatologen in Computermodelle stecken, darf hinterfragt werden. Auf einem Spezialfall aus der Wirtschaftsinformatik verweist Bartmann (2009). Er vermutet, dass die aktuelle Finanzmarktkrise zum Teil auf die Modellgläubigkeit vieler Ökonomen zurückzuführen sei. Verschärft wurde die Situation noch dadurch, dass fast alle Ökonomen dieselben Modelle verwandten, d.h. dass alle dasselbe wohl falsche Bild der Realität besaßen. 6.2 Mensch-Maschine-Mischwesen Fragen: Welche Rolle werden in Zukunft künstliche Sinnesorgane und elektronische Gehirnimplantate spielen? Werden damit heute bei behinderten und alten Menschen falsche Hoffnungen erzeugt? Wie kann sich eine Gehirnprothese als verbessertes Gedächtnis oder als Hilfe gegen die Alzheimer- und Parkinsonkrankheit auf die Persönlichkeit auswirken? Ändert sich bei diesen Menschen nicht auch die persönliche Verantwortung für Fehler? Fakten und Erklärungen: In der Medizin besteht schon lange eine Tendenz, schwach gewordene oder ausgefallene Organe durch Material oder durch Konstrukte zu ersetzen, die nicht aus unserem eigenen Körper stammen. Das beginnt mit Zahnkronen und Zahnprothesen und geht über künstliche Hüft- und Kniegelenke bis zu Arm- und Beinprothesen. Während es sich 85
bei diesen Beispielen um mechanische Ersatzteile handelt, ist in andern Fällen eine computerbasierte Steuerung das entscheidende Merkmal. Hörgeräte und Herzschrittmacher fallen in diese Kategorie. Eine neue Stufe der Mensch-Maschine-Symbiose wird erreicht, wenn die der Steuerung dienenden Computer direkt mit unserem Nervensystem gekoppelt werden. Meist geht es darum, eine durch Unfall oder Krankheit verloren gegangene Fähigkeit oder Fertigkeit wiederherzustellen. Ein naheliegender Schritt besteht darin, Arm- oder Beinprothesen durch Anschluss an das menschliche Nervensystem in die Lage zu versetzen, sinnvolle Bewegungen auszuführen. Wesentlich anspruchsvoller ist es, wenn einem Gehörlosen die Fähigkeit wiedergegeben wird, gesprochene Sprache zu verstehen. Dies geschieht inzwischen durch den Einbau eines Mikroprozessors in die Gehörschnecke, auch Cochlea-Implantat genannt. Der Mikroprozessor spaltet die eintreffenden Signale ihren Frequenzen entsprechend auf und leitet sie an getrennte Nervenbahnen weiter. Wesentlich schwieriger zu realisieren ist ein Implantat in die Netzhaut des Auges, das so genannte Retina-Implantat. Hierbei handelt es sich um lichtempfindliche Sensoren (Photodioden-Array) ähnlich denen, die in handelsüblichen Digitalkameras vorkommen, die dann mit dem Sehnerv verbunden werden. Oft genügt hier bereits die Erfassung eines relativ kleinen Areals, um dem Blinden eine Hell-DunkelUnterscheidung zu ermöglichen. Um Farbunterscheidungen und räumliches Sehen zu erreichen, wären minutiöse Verbindungen einer Vielzahl von Nerven erforderlich, was vielleicht in einigen Jahrzehnten möglich sein wird.
Abb. 6.3: Computer-Steuerung mittels Gehirnströmen (Quelle TU Berlin/Dahl) Ein nahe verwandtes Forschungsgebiet befasst sich mit der direkten Steuerung von Computern mittels Hirnströmen durch ein Brain-Computer-Interface (BCI). Das Ziel ist es, Schwerstgelähmte, die sich sprachlich nicht mehr artikulieren können, dazu zu bringen, ihre Gedanken auszudrücken, also mit ihrer Umwelt kommunizieren zu lernen. Weniger anspruchsvoll ist das Bemühen, damit die Laufmarke (engl.: cursor) auf dem Bildschirm eines Rechners zu bewegen. Auf diese Art lassen sich nicht nur Computerspiele benutzen. Vielversprechende Projekte auf diesem Gebiet gibt es an der TU Berlin89. In Abb. 6.3 steuert eine Versuchsperson das als Flipper bekannte Geschicklichkeitsspiel nur mit ihren Gedanken. Bewertung und Vorschläge: Bei den bisher beschriebenen computer-basierten Prothesen handelt es sich zweifellos um nützliche Errungenschaften. Anders ist es bei allen Aussagen darüber, was mittels Gehirn-Implantaten möglich ist. Sie sind eher spekulativ. Vorstellbar sind Gedächtnishilfen bei Alzheimer-Kranken oder stabilisierende Steuerungen bei Parkinson-Erkrankungen (auch Neuro-Enhancer-Bausteine genannt). Wenn wir uns von der Vorstellung lösen, dass diese Bausteine einen festen Platz im Gehirn einnehmen, dann sind schrittweise Fortschritte vorstellbar. Es beginnt mit dem Mobiltelefon, das dank seiner GPS86
Funktion einem Demenzkranken den Weg nach Hause zeigt, oder einem Gerät, das den Blutzucker misst und die Einnahme gewisser Medikamente kontrolliert. Ins Reich der Utopien gerät man jedoch, wenn davon gesprochen wird, dass sich Gesunde elektronische Geräte einbauen lassen, um ihre Leistungsfähigkeit zu steigern. So wie man heute bei Sportlern die durch Drogen erzielten Erfolge in Frage stellt, müssten dann Schüler kontrolliert werden, ob ihre überraschend guten Leistungen eventuell auf eingebaute Gedächtnisverstärker zurückzuführen sind. Aus ethischer Sicht ist es kein Unterschied, ob ein Mensch seine Persönlichkeit durch chemische Aufputschmittel wie Alkohol oder Drogen verändert, oder ob er dafür auf elektronische Bauelemente zurückgreift. Sehr aufschlussreich ist in dieser Hinsicht die aktuelle Diskussion um Psychopharmaka (speziell die Neuro-Enhancer-Präparate wie Ritalin), die eingesetzt werden, um die geistige Konzentrations- und Leistungsfähigkeit zu steigern. In Analogie zum Sport spricht man auch von Gehirndoping. Außer nach Nebenwirkungen wird vor allem danach gefragt, ob es sozial vertretbar ist, dass sich Besserverdienende dadurch Vorteile verschaffen, oder ob es nicht gerechter wäre, allen Bürgern gleichermaßen Zugang zu verschaffen – etwa durch kostenlose Verabreichung. Vielleicht sind bei digitalen Bausteinen die Nebenwirkungen für den Betroffenen sogar geringer als bei chemischen Präparaten. Auch ist die Entwöhnung durch einfaches Abschalten zu erreichen. Im Vergleich zu einem Alkohol- oder Drogenabhängigen kann es daher eher schwieriger werden, im Falle eines Fehlers oder Verschuldens mit Aussicht auf Erfolg auf mildernde Umstände zu plädieren. Allerdings trägt derjenige, der sich auf ein Implantat verlässt, einen großen Teil der Verantwortung. Weitere Informationen: Plausibel und gut verständlich sind die Ausführungen von Rodney Brooks (2005) zu diesem Thema. Das Buch gibt, ausgehend von seinen eigenen Arbeiten, einen ausführlichen Überblick über die Entwicklung der Robotik. Die Diskussion über Psychopharmaka wurde vor kurzem von der Zeitschrift Spiegel (Heft 44 vom 26.10.2009) und vom Fernsehsender 3sat90 thematisiert. Dort wird unter anderem berichtet, dass an einer bestimmten amerikanischen Universität bereits ein Viertel aller Studierenden Lernpillen einnimmt, also Gehirndoping betreibt. Da Deutschland solchen amerikanischen Entwicklungen immer um einige Jahre hinterherhinkt, können wir erahnen was uns bevorsteht. 6.3 Angriff auf das Menschenbild Fragen: Können Computer denken? Haben Computer ein Bewusstsein? Haben Computer Gefühle - sich selbst betreffend, untereinander oder uns Menschen gegenüber? Welchen Einfluss haben solche Vorstellungen auf unser Menschenbild? Fakten und Erklärungen: Nach den durch Kopernikus und Darwin verursachten Demütigungen befürchten viele Menschen eine dritte große Kränkung der Menschheit durch das als Künstliche Intelligenz (abgekürzt KI) bezeichnete Teilgebiet der Informatik. KI wurde zu einem Sammelbegriff solcher Forschungs- und Entwicklungsrichtungen, welche bestimmte kognitive Fähigkeiten und Leistungen des Menschen zu formalisieren versuchen und sich bemühen, solche Eigenschaften und Verhaltensweisen mittels Rechnerprogrammen nachzuahmen. Es geht dabei darum, Informatiksysteme zu entwerfen und zu implementieren, die ein Verhalten zeigen, das man bei Menschen als intelligent einstufen würde. Der Name Künstliche Intelligenz leidet darunter, dass wir im Grunde nicht wissen, wie man den bei uns verwendeten Begriff Intelligenz einzugrenzen haben. Er hat sicherlich viel mit Gedächtnis, Problemlösen und Lernen zu tun. Das ist aber bestimmt nicht alles. Wie kaum ein anderes Gebiet der Informatik zeigt die KI, wie – ausgehend von einer übergeordneten Zielsetzung, nämlich den menschlichen Intellekt nachzuahmen – Ergebnisse und Erfolge immer da erzielt werden, wo das Ziel konkret ist und der Weg dorthin methodisch besonders stark eingeschränkt wird. 87
Die Ergebnisse der KI konnten in solchen Fällen schnell in Produkte transferiert werden. Typische Beispiele sind die Bild- und Spracherkennung sowie die Robotik, die heute als wichtige Teile der angewandten Informatik angesehen werden. Die KI-Forschung ist vor allem durch unrealistische Erwartungen in Misskredit geraten. Dazu beigetragen hat die von der japanischen Regierung recht unvorsichtig lancierte Herausforderung unter dem Schlagwort „Fifth Generation“. Ziel dieser Bemühung war es, im Zeitraum von 1980 bis 1990 Rechner und Software zu entwickeln, mit deren Hilfe jedwede Form der Wissensverarbeitung effizient und „kinderleicht“ werden sollte. Beeinflusst durch eindringliche Appelle von Beobachtern, die den Übergang der Weltherrschaft an die Japaner beschworen, wurden in dieser Zeit in einigen anderen Ländern, so auch in Deutschland, staatliche Förderaktivitäten gestartet und KI-Kompetenzzentren gegründet. Vom japanischen Rechner der fünften Generation spricht heute niemand mehr.
Abb. 6.4: Fußball spielende Roboter (Darmstadt Dribblers) Ein besonders aktuelles Thema der deutschen KI-Forschung sind derzeit Fußball spielende Roboter. Forscher aus Darmstadt, Freiburg, Stuttgart und Tübingen konkurrieren hier miteinander. Im Gegensatz zu ihren deutschen Kollegen befassen sich die japanischen Forscher ausschließlich mit dem Einsatz von Robotern in der industriellen Produktion und in der Altenund Krankenpflege. Externe Beobachter erklären dies teilweise mit unterschiedlichen psychologischen Einstellungen von Japanern und Europäern. Japaner wollen sich im Falle von Gebrechlichkeit lieber von einer Maschine als von einem Menschen helfen lassen. Europäer ziehen stets menschliche Hilfe vor. Rodney Brooks (2005) gibt noch weitere Gründe für das besondere Interesse der Japaner an helfenden Robotern an, nämlich die hohe Lebenserwartung der Bevölkerung gepaart mit niedriger Geburtenrate, sowie der offensichtliche Widerstand gegen nicht-ethnische Einwanderung91. Aus philosophischer Sicht wird den KI-Anhängern (und damit der Informatik) übel genommen, dass man sich anmaßt, ein Menschenbild zu propagieren, das im Gegensatz zur abendländischen Tradition steht. Der Zweig der KI, der sich hier besonders weit vorwagt, wird oft auch als „harte KI“ bezeichnet. In einer öffentlich ausgetragenen Kontroverse zwischen dem Physiker Roger Penrose und dem Informatiker John McCarthy kommen die gegensätzlichen Positionen klar zum Ausdruck. Wie die meisten Philosophen sieht auch Penrose (1989) Bewusstsein und freien Willen (worüber wir im nächsten Abschnitt ausführlicher sprechen werden) als die entscheidenden Kriterien für das Menschsein an. Er führt beide auf quantenme88
chanische Prinzipien (so genannte Microtubuli) zurück, die in unseren Gehirnzellen ein nichtalgorithmisches Verhalten auslösen, das in dieser Form wohl nie durch Software nachgeahmt werden kann. Für seine Erklärung erfindet er quasi ein neues Konzept, das weder bisher in der Natur verwendet wurde noch erklärt werden kann. Er wirft den Vertretern der KI-Forschung vor, menschliches Denken rein algorithmisch erklären zu wollen, und zwar als einen Vorgang, der auch unabhängig von der Physik oder Chemie eines bestimmten Organs wie eines Gehirns ablaufen kann. McCarthy92 hielt Penrose entgegen, dass Computer, um sich wirklich intelligent zu verhalten, sehr wohl auch Wissen besitzen müssen, das nicht durch Algorithmen, Fakten und Regeln dargestellt werden kann. Er hält es für möglich, dass Computer eines Tages Bewusstsein zeigen in der Art, dass sie darüber reflektieren, wie sie sich fühlen und was es heißt ein Computer zu sein.
Abb. 6.5: Pflegeroboter Asimo Informatikern wird von Autoren wie Frank Schirrmacher (2009) generell unterstellt, dass sie Gott für einen großen Programmierer hielten und den menschlichen Geist als ein Computerprogramm ansähen. Wir selbst seien Computer mit Gefühlen. Aufgrund der massiven Datenmengen, die man über uns hat, ist jeder Mensch berechenbar und kontrollierbar. Sollte es nicht so sein, dass wir ein rein mathematisches Objekt sind, so sorgten Informatiker dafür, dass nur der Teil von uns wahrgenommen wird, der sich mathematisch beschreiben lässt. Nur was Google findet, existiere. Alles Assoziative und alle Unsicherheiten würden ignoriert. Die meisten Informatiker glaubten an die Ko-Evolution von Mensch und Computer. In Zukunft werden wir zwei Gehirne haben, eines zwischen den Ohren und eines in den Wolken. Informatiker seien die Maschinisten, die in den Maschinensälen des weltweiten Netzes die Schrauben und Ventile verstellen, so dass ihr Menschenbild sich durchsetzt. Soweit Frank Schirrmacher. Viele Menschen reagieren sehr emotional auf die Frage, ob Computer „denken“ können. Ihre Meinungen gehen weit auseinander. Analysiert man sie, so stellt man rasch fest, dass dieser Divergenz ein Streit um Worte zugrunde liegt. Worte wie Denken, Gefühl und Intelligenz beschreiben ein Spektrum von Aktivitäten, die wir bisher primär der Spezies Mensch zugeordnet haben. Von den vielen Versuchen, den Begriff Denken zu definieren, liegt uns Informatikern die Version des Pädagogen Piaget am nächsten. Er meint, Denken sei „Informationsverarbeitung im Gehirn“. Dazu gehören Wahrnehmung und Gedächtnis, aber auch Gefühl 89
und Kommunikation. Der Begriff der Intelligenz – die Fähigkeit durch Denken neue Probleme zu lösen – ist dabei zentral. Die meisten Biologen gestehen auch höheren Tieren wie Primaten diese Fähigkeit zu – wenn auch eingeschränkt. Intelligenz und Denken werden dem evolutionsgeschichtlich neuesten Teil unseres Gehirns zugeordnet, dem Neokortex. Viele Zeitgenossen haben ihre Vorstellung von Intelligenz revidieren müssen, als im Jahre 1996 ein Computer (namens Deep Blue) den amtierenden Schachweltmeister bezwang. Sie sind jetzt bereit, Computern (eigentlich ihrer Software) eine spezielle Form von Intelligenz zuzubilligen. Dass das Schachspiel auf dem Mobiltelefon das Niveau eines Bezirksmeisters erreicht, ist keine Seltenheit mehr (vgl. Abb. 6.6). Gefühle oder Emotionen sind innere Zustände des Menschen, die er nicht mit dem Verstand kontrollieren kann. Beispiele sind Angst, Wut, Freude, Mitleid und Liebe. Sie werden durch das so genannte limbische System hervorgerufen, einem evolutionsgeschichtlich älteren Teil des Gehirns. Es gibt einerseits Bestrebungen, Programme zu schreiben, die es einem Computer gestatten, die Gefühle des Nutzers zu erkennen und zu berücksichtigen. Andererseits wird versucht, Computer bzw. Roboter zu bauen, die sich so verhalten, als hätten sie Gefühle. Für beides gibt es Laborprototypen, unter anderem in Japan. Die dabei benutzten Ansätze basieren teilweise auf einem sehr primitiven und mechanistischen Menschenbild. Dennoch gilt, wo sie Erfolg haben, haben sie Erfolg. Wer erinnert sich noch an Tamagotchis?
Abb. 6.6: Schachspiel auf Mobiltelefon (iPhone)
Bewusstsein ist ein Konzept, das wissenschaftlich noch schwerer zu erklären ist als Denken und Intelligenz. Es ermöglicht dem Menschen seine Körperlichkeit wahrzunehmen, sich als eigene Person (als Ich) zu empfinden und den Unterschied zwischen (inneren) Gedanken und äußeren Ereignissen festzustellen. Es benutzt das Gedächtnis, etwa um Erfahrungen zu rekapitulieren und um mit ihrer Hilfe über die eigene Zukunft zu spekulieren. Außer uns Menschen räumt man diese Fähigkeit auch höheren Tieren ein. Für den amerikanischen Psychologen Julian Jaynes93 gibt es Bewusstsein erst ab dem Evolutionszeitpunkt, wo beide Gehirnhälften so weit entwickelt waren, dass sie sich gegenseitig wahrnehmen konnten (ZweikammerTheorie). Er datiert diesen Zeitpunkt ins 2. Jahrtausend vor Christus, also etwa in die Zeit der Entstehung der mykenischen Kultur. Es wird viel davon geredet, Computer zu bauen, die über Bewusstsein verfügen. Dies scheitert jedoch bisher daran, dass wir nicht genügend wissen und nicht gut genug verstehen, wovon wir reden. In andern Worten, es gibt bis jetzt kein brauchbares Modell des menschlichen Bewusstseins. Bewertung und Vorschläge: Ohne Zweifel trägt der Fortschritt der Informatik dazu bei, dass über Begriffe wie Denken, Fühlen, Intelligenz und Bewusstsein verschärft nachgedacht wird. Wann immer wir wichtige Prozesse des menschlichen Lernens und des Gedächtnisses besser verstanden haben – wozu auch die Computermodelle viel beitragen können –, treten andere, neue Aspekte der menschlichen Intelligenz in den Vordergrund, die wir bisher noch nicht 90
verstanden haben. Wenn nun einige oder gar wesentliche Aspekte dieser intelligenten Tätigkeiten auch auf Maschinen übertragen werden können, sollten wir die Begriffe stärker differenzieren oder besser ganz neue Begriffe einführen und verwenden. Dass Computersysteme in vielen ihrer Anwendungen die kognitiven Fähigkeiten des Menschen ergänzen oder gar übertreffen können, ist das dominierende Thema der heutigen zweiten industriellen Revolution. Entsprechendes galt schon in der ersten industriellen Revolution im 19. Jahrhundert, als es gelang, mittels mechanischer Geräte und Werkzeuge unsere physischen Kräfte zu ergänzen oder zu übertreffen. Die Natur durch die Technik nachzuahmen ist zwar ein nahe liegender Ansatz, hat aber Grenzen. Er führt nicht immer zu den besten Lösungen. Erst als wir uns beispielsweise von der Vorstellung, dass Fliegen das ist, was Vögel tun, lösen konnten, kam es in der Flugtechnik zu einem Durchbruch. Anderseits hat heute niemand ein Problem damit, das Wort Fliegen auch dann zu verwenden, wenn es anders geschieht als bei Vögeln.
Abb. 6.7: Intergalaktische Besucher Die von den Vertretern der ‚harten KI’ oftmals eingenommene philosophische Position steht im krassen Gegensatz zum dualen Weltbild der großen Religionen. Sie liegt zwar in der Tradition des Monismus (etwa von Spinoza und Nietzsche), engt aber dessen Menschenbild erheblich ein. Was Dualisten in Körper und Seele trennten, wird als nichts anderes mehr gesehen als ein Computer mit Software. In der oben skizzierten Kontroverse liefern weder Penrose noch McCarthy zufriedenstellende Erklärungen zum Wesen des Menschen. Penrose gehört offensichtlich zu den Leuten, die es nicht wahrhaben wollen oder nicht ertragen können, dass man sie mit Maschinen vergleicht. In McCarthys Bild fehlt jeder Hinweis darauf, dass zum Menschsein mehr gehört, als was in funktionalen mathematischen Modellen beschreibbar ist, nämlich unsere ganze Körperlichkeit. 91
Manche KI-Forscher wollen offenbar solchen philosophischen Auseinandersetzungen ausweichen, indem sie zwar den Überbegriff Künstliche Intelligenz verwenden, sich aber auf Erfolg versprechende Teilaspekte – wie schon erwähnt – konzentrieren, etwa die Verarbeitung natürlicher Sprache oder die Robotik. Es liegt in der Natur der Sache, dass es einfacher ist, gut strukturiertes Wissen aus einem engen Sachgebiet zu verarbeiten, als gering strukturiertes Allerweltswissen. Noch fällt es Robotern und anderen Computeranwendungen schwer, sich in einem Büroraum zurechtzufinden oder mit Alltagssituationen fertig zu werden. Vor einiger Zeit hat Marvin Minsky94, ein bekannter KI-Forscher, genau auf dieses Problem hingewiesen. Es geschähe seiner Ansicht nach zu wenig, um Rechner mit Allgemeinwissen (engl.: common sense knowledge) auszustatten. Auf diesem Gebiet gibt es seit 20 Jahren das Projekt CYC95, wo bisher etwa eine Million Regeln, die unser Allgemeinwissen betreffen, manuell in eine Wissensbank eingetragen wurden. Ob dies ausreicht und ob eine solch breite Wissensbasis je eine praktische Nutzung erfahren wird, darf bezweifelt werden. Weitere Informationen: Ein aus Deutschland stammender, sehr bekannter Autor, der schon früh vor einer Überschätzung der KI gewarnt hat, war Joseph Weizenbaum (1977). Sein Buch „Macht und Ohnmacht der Computer“ brachte ihn rasch in Gegensatz zu denjenigen unter seinen Kollegen, die am MIT eine „starke“ KI-Forschung betrieben. Ihn beunruhigte vor allem die Beobachtung, wie leicht selbst Fachleute sich dazu verleiten lassen, den durch Computeranwendungen erzielten Aussagen eine übermäßige Bedeutung beizumessen. Er selbst hatte ein relativ einfaches Programm geschrieben (ELIZA genannt), das mit Menschen einen Verständnis vortäuschenden Dialog führte, und schon bald waren Psychotherapeuten bereit, es in ihrer Praxis einzusetzen. Sehr realistisch in seinen Einschätzungen ist das Buch von Peter Dietz (2003). Er ist Physiker und war als selbständiger Unternehmer tätig. Nach seiner Meinung geht es in der KI um nichts weniger als unser Selbstverständnis als Menschen. Er bemüht zur Beantwortung der angeschnittenen Fragen die Geistesgeschichte der Menschheit, einschließlich ihrer Technikgeschichte. Zum Wert des Buches trägt bei, dass über 60 verschiedene Androiden (menschenähnliche Roboter) abgebildet sind und dass etwa 300 Kinofilme kurz beschrieben sind, bei denen es um menschengleiche Maschinen geht. Nachdenkenswert ist auch die Meinung des Mainzer Philosophen Thomas Metzinger, die er in einer kürzlich ausgestrahlten Fernsehsendung96 zum Ausdruck brachte. Er warnt davor, Maschinen mit eigenem Bewusstsein zu schaffen. Diese Geschöpfe würden dann so wie wir Menschen Schmerz und Leid empfinden. Man sollte es als ethisch unerwünscht ansehen, das Leiden in der Welt zu vergrößern. 6.4 Bösartige Maschinen Fragen: Haben Computer einen freien Willen? Können sie Menschen absichtlich gefährden, verletzen oder töten? Können sie böse werden? Können sie Kriege auslösen? Können Computer eigentlich schuldig werden und für das, was sie tun, Verantwortung übernehmen? Fakten und Erklärungen: Dass Computer Gefahren für Leib und Leben darstellen können, wurde bereits in Abschnitt 4.7 thematisiert. Hier geht es um den Aspekt, ob sie dies sogar mit Absicht tun können. Dieses Thema hat in den letzten Jahrzehnten Stoff für mindestens ein Dutzend Science-Fiction-Filme abgegeben. Das wohl bekannteste Beispiel ist Stanley Kubricks Film ‚2001 - Odyssee im Weltraum’, in dem ein Computer namens HAL 9000 die Kontrolle übernimmt. Er betätigt sich schließlich als mordender Psychopath. Meist wird in solchen Darstellungen angenommen, dass Computer sich verselbständigen können, also ihre eigenen Ziele verfolgen werden. Sehr oft geraten sie dabei auf Konfliktkurs mit uns Menschen. Der Science-Fiction-Autor Isaac Asimov hat bekanntlich so genannte Robotergesetze 92
verkündet, nach denen seine Roboter sich verpflichten, menschlichen Wesen keinen Schaden zuzufügen. In der Praxis scheitert die Implementierung dieser Gesetze schon daran, dass wir bis heute nicht in der Lage sind Roboter zu bauen, die menschliche Wesen überhaupt als solche erkennen können. Auch philosophisch gibt es hier Probleme. Wo immer etwas mit Absicht, also mit Vorsatz, geschieht, geht nicht nur der Jurist davon aus, dass ein Entschluss, ja ein freier Wille des Handelnden dahinter steht. War die Gehirnforschung früher auf Vermutungen und indirekte Beobachtungen angewiesen, so kann sie inzwischen dank Kernspin-Tomografie und magnetischer Resonanz direkt Vorgänge im lebenden Gehirn beobachten und mittels Computer visualisieren. Auf Grund neuer Erkenntnisse gibt es zurzeit unter Gehirnforschern eine erneute, lebhafte Diskussion darüber, ob der Mensch überhaupt einen freien Willen besitzt, oder ob sein Gehirn vielmehr rein deterministisch funktioniert.
Scientists Worry Machines May Outsmart Man By John Markoff A robot that can open doors and find electrical outlets to recharge itself. Computer viruses that no one can stop. Predator drones, which, though still controlled remotely by humans, come close to a machine that can kill autonomously… The New York Times 25.7.2009
Abb. 6.8: Aktuelle Furcht vor Maschinen
Autoren, die die letztere Meinung vertreten, benutzen als Hauptargument die Beobachtungen und Versuche des Amerikaners Libet (2005). Er stellte fest, dass Muskeln schon 200 bis 300 Millisekunden vorher ein Bereitschaftspotential aufbauen, bevor im Gehirn eine Aktivität zu erkennen ist, d.h. bevor wir einen bewussten Entschluss fassen Bewertung und Vorschläge: Aus Sicht der Computertechnik kann das von Libet beobachtete Phänomen auch als Look-Ahead-Mechanismus erklärt werden. Um ihre Leistung zu erhöhen, bereiten viele Rechner „auf Verdacht hin“ die Ausführung der im statischen Programmtext folgenden Befehle vor, und zwar auf die Gefahr hin, dass sie im Falle einer Programmverzweigung diese Arbeit verwerfen müssen. Mit andern Worten, ob die Theorien richtig sind, die Gehirnforscher aufgrund ihrer ersten Beobachtungen formulieren, ist eine große Frage. Während also im Falle von Menschen die Frage des Determinismus ihrer Handlungen für einige Wissenschaftler als noch ungeklärt gilt, stellt sich diese Frage bei Informatiksystemen ganz anders. Selbst wenn alle Komponenten eines Systems sich deterministisch verhalten, können doch Systeme entstehen, die ein einzelner Mensch – oder selbst eine Gruppe von Menschen – nicht mehr überblicken kann. Bei einem Werkzeug, dessen Wirkung ein Einzelner versteht, liegt die Verantwortung für seine Nutzung auch bei ihm, Analoges gilt für Firmen. Wie ist dies jedoch bei einem System, das über Jahrzehnte gewachsen ist und das niemand mehr überblickt? Weitere Informationen: Wie aktuell die Furcht davor ist, dass Computer Amok laufen könnten, kommt in dem in Abb. 6.8 zitierten Artikel der New York Times zum Ausdruck. Hier werden mehrere KI-Forscher, auch Industrievertreter, zu ihrer Meinung befragt. In der Tendenz heißt es, wir wissen heute nicht, was noch alles möglich ist. So wie ein Auto, das führerlos durch die Gegend fährt, können Computer dann gefährlich werden, wenn der menschliche Nutzer oder Bediener die Kontrolle verliert. Der Schaden, der angerichtet werden kann, ist vergleichbar dem eines führerlosen Autos oder eines durch einen Bedienfehler außer Kontrolle geratenen chemischen Verfahrens. Sicher ist aber, nur ein Mensch – oder eine Gruppe von 93
Menschen – können Computer in guter oder böser Absicht einsetzen. Bei Fehlern ist letztlich immer ein Mensch schuldig, nie der Computer. Daran erinnert auch Josef Weizenbaum (2008) in einem Vortrag im Jahre 2007, der nach seinem Tode veröffentlicht wurde. Wir ersparen uns die Übersetzung dieses nachdenklichen Zitats. Guilt cannot be attributed to computers. But computers enable fantasies, many of them wonderful, but also those of people whose compulsion to play God overwhelms their ability to fathom the consequences of their attempt to turn their nightmares into reality. An dieser Stelle sei vermerkt, dass die im Buchtitel verwandte Aussage ‘Schuld sind die Computer’ natürlich falsch ist. Es handelt sich dabei um eine häufig benutzte, aber unzulässige Vermenschlichung der Technik. Der Fachausdruck dafür heißt Anthropomorphismus, also die Übertragung menschlicher Eigenschaften auf nicht-menschliche Wesen. 6.5 Ewiges Leben als Monster Fragen: Werden Computer sich selbst reproduzieren, zum Leben gelangen und gar ewig leben? Werden Roboter den Menschen übertreffen, beherrschen, überleben oder gar ablösen? Fakten und Erklärungen: Dieser Themenkreis wird unter dem Schlagwort Künstliches Leben (KL) diskutiert. Bei diesem Begriff gibt es ähnliche Schwierigkeiten wie bei KIForschung. Bisher können Biologen nicht genau sagen, was Leben ist und wie es entsteht. Wie der Informatiker Rodney Brooks97 feststellte, können wir eigentlich erst dann von lebenden Maschinen sprechen, wenn sie sich selbst mit Energie versorgen, sich fortpflanzen, selber heilen und an eine sich ändernde Umwelt anpassen. Das ist aber nicht alles. Inzwischen gibt es Forschungsgruppen, Lehrstühle und Lehrbücher, die den Begriff KL im Titel führen. Die Beiträge der Informatik zu diesem Fachgebiet lassen sich aus der Selbstdarstellung der GIFachgruppe „Artificial Life“ ableiten. Sie beschäftigt sich mit der Erforschung, Simulation und Schaffung von lebensähnlichen Phänomenen und Systemen sowie deren Grundlagen. Dazu gehören beispielsweise Multi-Agentensysteme, autonome Roboter und biologische und naturanaloge Datenverarbeitung. Statt das Problem lebender Maschinen frontal anzugehen, werden auch hier meist Teilfragen untersucht. Ein typisches Beispiel sind evolutionäre Algorithmen, die den Evolutionsprozess im Sinne Darwins oder Wachstumsprozesse in Pflanzen und Tieren nachbilden. Der amerikanische Autor, der immer wieder zu phantastischen Extrapolationen ausholt, ist Ray Kurzweil (2000, 2006). Seine Bücher und seine Vorträge sind anregend und unterhaltsam. Völlig ernst kann man ihn jedoch kaum nehmen. So meint er unter anderem, dass es nur eine Frage der Zeit sei, wann unser Gehirninhalt von kohlestoffbasierten auf siliziumbasierte Neuronen, also auf neuronale Netze98 in Computern, übertragen werden kann. Wenn wir dann regelmäßig Sicherheitskopien anfertigen, stünde der Unsterblichkeit unserer Art nichts mehr im Wege. Ein kleines zusätzliches Problem ist noch zu lösen. Wollen wir nicht lediglich als Software auf bereits vorhandenen Rechnern (also quasi im Schoß einer Leihmutter) dahin vegetieren, sondern uns frei im Raum bewegen, dann müssen unsere Mutterschiffe schnell ein paar weitere Rechner bauen. Ob alle seine Komponenten metallischen Ursprungs sind, oder ob auch einige gezüchtete organische Elemente zur Anwendung kommen, ist eine Detailfrage. Kurzweil schätzt, dass dieser Zeitpunkt noch vor Ende dieses Jahrhunderts erreicht sein wird, und rät daher seinen Zeitgenossen, sich einfrieren zu lassen, bevor das Gehirn durch Alterserscheinungen wie Alzheimer seine Funktionsfähigkeit eingebüßt hat.
94
Ähnliche Utopien wie die von Kurzweil werden auch von Hans Moravec (1999) verkündet, einem Schüler McCarthys. Er spricht davon, dass der Geist des Menschen sich vom Gehirn nach und nach auf Rechner verpflanzen ließe, so zu sagen von einer Hardware-Basis auf eine andere. Diese Weiterentwicklung des menschlichen Geistes könne man mit heutigen Software-Agenten vergleichen, die an Orten leben, wo heutige Menschen nicht leben können. Sie könnten sich z.B. im Weltraum ausbreiten und damit eventuelle irdische Katastrophen überleben. Diese Lebewesen würden nicht nur all unser Wissen und alle unsere Erfahrungen besitzen, sondern auch über ein menschenähnliches Bewusstsein und Gefühle wie Angst, Schmerz und Liebe verfügen. Moravec glaubt, dass die biologische Evolution in nicht allzu ferner Zukunft von einer technischen Evolution abgelöst werden wird. Denker wie Kurzweil und Moravec bezeichnen sich selbst als Posthumanisten.
Abb. 6.9: Evolutionstheorie nach Moravec (Quelle Dietz(2003)) Bewertung und Vorschläge: Sowohl bei Kurzweil wie bei Moravec haben wir den Eindruck, dass hier die Grenze der ernsthaften Wissenschaft überschritten wird. Wir brauchen keine Angst zu haben, dass ihre Vorhersagen auch nur annähernd eintreffen. Moravec hat zweifellos Recht, wenn er annimmt, dass wir in einigen Jahrzehnten in der Lage sein werden, Rechner zu bauen, die bezüglich der Anzahl der Speicher- und Verarbeitungselemente das menschliche Gehirn übertreffen. Sie können dann Aufgaben lösen, die heute nur vom Menschen gelöst werden können, etwa auf dem Gebiet der Mustererkennung oder der räumlichen Orientierung. Es ist ein aber sehr gewagter Schritt daraus zu folgern, dass diese Maschinen dann mit dem Menschen als Spezies gleichziehen würden, ihn ersetzen oder gar ablösen könnten. Redeweisen wie diese sind nur sinnvoll, wenn wir bereit sind, auch Begriffe wie Angst, Schmerz und Liebe im Hinblick auf Rechner oder Roboter umzudefinieren oder zu präzisieren. Aber warum sollten wir dies tun? „Welch reduzierten Blick muss man auf den Menschen haben, um sich dessen Zukunft so vorzustellen?“ fragt der Konstanzer Philosoph Jürgen Mittelstraß (2009) im Hinblick auf die Posthumanisten. Zum versprochenen ewigen Leben meint er: „Im Speicher eines Computers weiterleben? Welch ein Leben!“ Dem schließen wir uns gerne an.
95
Sehen wir uns jede einzelne der von Brooks zitierten Eigenschaften lebender Maschinen an, so wird klar, dass die Informatik auf allen diesen Gebieten Fortschritte macht und machen muss. Wir haben heute schon Roboter, die selbständig nach einer Steckdose suchen, sobald ihr Akku schwach wird. Dass Computer oder Programme sich selbst heilen, daran wird gearbeitet. Auch die Anpassung an die Umwelt, und besonders an die Nutzer, wird laufend verbessert. Den Aspekt der Fortpflanzung kennen wir bisher nur von seiner negativen Seite, nämlich im Falle der bereits erwähnten Computerviren. Auch hier sind nützlichere Formen vorstellbar. Weitere Informationen: Sehr viel Beachtung fand ein Beitrag von Bill Joy99 in der OnlineZeitschrift „Wired“. Joy war, zusammen mit Andreas von Bechtolsheim, einer der Gründer der Firma Sun Microsystems und ist in der Branche aufgrund seiner technischen Leistungen im Zusammenhang mit Unix und Java sehr bekannt. Der Beitrag hat viele Kollegen aufgeschreckt. Seine Schlussfolgerung lautet: Ob wir gewinnen oder verlieren, ist noch nicht entschieden. Voll in die Kerbe von Kurzweil und Moravec haut auch der Bonner Physiker Bernd Vowinkel (2006). Er bemüht sich (vergebens) die Frage zu beantworten, ob aus physikalischer Sicht ewiges Leben möglich ist. Ob es sich dabei um biologisches Leben handelt oder ein auf künstlicher Intelligenz und Silizium basierendes Leben, ist für ihn nur eine Frage des Energieverbrauchs. Das künstliche Leben würde natürlich besser abschneiden, vorausgesetzt wir wüssten, wie wir Bewusstsein und freien Willen nachbauen könnten.
96
7. Sicht auf Informatiker(innen) als Berufsgruppe Das Bild, das in der Öffentlichkeit über Informatikerinnen und Informatiker als Berufsgruppe existiert, ist sehr ambivalent, nicht selten sogar negativ geprägt. Dieses steht im krassen Gegensatz zu den verantwortungsvollen und interessanten Aufgaben, die Informatiker weltweit für die Gesellschaft, Wissenschaft und Wirtschaft wahrnehmen. Einige der vermuteten Gründe wollen wir in diesem Kapitel behandeln. 7.1 Informatiker als Eigenbrötler Fragen: Sind Informatiker meist introvertierte Tüftler und kaum ansprechbare Eigenbrötler? Fehlt ihnen oft die soziale Kompetenz? Warum erreichen Informatiker(innen) in der Wirtschaft nur selten Führungsebenen, etwa auf der Ebene der Geschäftsführung oder des Vorstands? Fakten und Erklärungen: Die diesen Fragen zu entnehmende Kritik an der Berufgruppe der Informatiker(innen) ist nicht neu, kommt aber in letzter Zeit immer häufiger zum Ausdruck. Eine von Manfred Broy, Ernst Denert und Stefan Engesser (2008) veröffentlichte Untersuchung über das Interesse am Informatikstudium beruht auf Befragungen von Abiturienten und Studierenden, die nicht Informatik studieren. Darin wird das Imageproblem der Informatik als wichtigste, allerdings nicht besonders überraschende Erkenntnis herausgestellt. Hier heißt es wörtlich: „Nichtinformatiker und Abiturienten assoziieren mit Informatik in erster Linie Programmieren und Computer und verbinden damit das negative Image des Nerd, des nächtens am Bildschirm arbeitenden, Pizza und Cola verzehrenden Sonderlings mit mäßiger sozialer Kompetenz – und mit nur geringem Einfluss in den Unternehmen und nur eingeschränkten Führungsaufgaben.“
Abb. 7.1: Osterei-Suche Es liegt uns fern, diese Einschätzung als übertrieben oder gar falsch zur Seite zu schieben. Im Gegenteil, sie hat uns mit dazu angeregt, diesen Text zu verfassen. Auch wir kennen Kollegen (jedoch keine Kolleginnen), die diesem Bild entsprechen. Wir denken dabei an einen ledigen 97
Mittvierziger, der täglich zehn Stunden Programmiereraufgaben für seinen Arbeitgeber löst und danach jeden Tag bzw. jede Nacht weitere acht bis zehn Stunden an einem weltweiten „Graswurzelprojekt“ aus der Open-Source-Szene arbeitet. Wir kennen aber auch einen Informatiker, der als sonntäglicher Orgelspieler in der gesamten Gegend gefragt war. Ein weiterer Kollege kümmerte sich als Gemeinderat jahrzehntelang um das Wohlergehen seiner Mitbürger, ganz zu schweigen von dem Informatikprofessor, der die freiwillige Feuerwehr seines Heimatortes leitete. In den USA spricht man gelegentlich von „Cowboy-Programmierern“. Diese Typen passen in keine Schablone. Sie kommen und gehen, wann sie wollen. Sie bilden aber – selbst in den USA – die Ausnahme. Bei uns in Europa überwiegen die solide arbeitenden Informatiker, von denen man sich manchmal etwas mehr Phantasie und Kreativität wünscht. Der englische Begriff Nerd, der im obigen Zitat und in Abb. 7.1 vorkommt, ist verwandt mit dem Ausdruck Geek. In einem ursprünglich von Mitarbeitern der TU München100 zusammengestellten Online-Lexikon werden diese Begriffe wie folgt definiert: „Ein Geek ist ein jemand, der sich sehr stark für Naturwissenschaften, Mathematik und Computer interessiert und sich dabei wenig von "weltlichen" Dingen ablenken lässt. Ein Nerd ist ein Streber mit nur sehr geringer Sozialkompetenz. Ein Geek ist also ein Spezialist, der aber durchaus noch mit anderen Menschen interagiert. Dagegen ist ein Nerd ein Einzelgänger oder Sonderling. Trotz dieser Unterschiede werden die Begriffe allerdings oft synonym verwendet.” Bezeichnend ist, dass dieses negative Bild vorwiegend mit Männern assoziiert wird und kaum mit Frauen. Bewertung und Vorschläge: Zunächst möchten wir klarstellen, dass es nicht darum gehen kann, Geeks, Nerds und technische Gurus aus der Informatik zu vertreiben. Wir würden ihnen, symbolisch ausgedrückt, am liebsten ein weiches Kissen unter den Hintern legen, vorausgesetzt sie leisten hervorragende und kreative Arbeit. Das allein rechtfertigt ihre Sonderrolle und ihr etwas seltsames Benehmen. Zum Glück gibt es aber auch viele andere Informatiker(innen). Sie sind sogar in der Mehrzahl. Über sie wird zu wenig geredet. Auch erscheint ihr Bild weniger häufig in Karikaturen oder in Fernsehsendungen. Als Beispiel sei in Abb. 7.2 ein Interview einer Firmenzeitschrift mit einer uns bekannten Software-Entwicklerin wiedergegeben, die über ein Studium der Elektrotechnik zu ihrer heutigen Tätigkeit gelangte. Sie ist 45 Jahre alt und seit 20 Jahren im Beruf. Die von ihr geäußerten Ansichten sind sehr typisch sowohl für jemanden in der Praxis wie für eine Frau. Dass dabei die Vorteile einer großen Firma zur Sprache kommen, ist nicht überraschend. Viele Informatiker finden – wie auch andere Ingenieure und Techniker – ihr berufliches Ideal in der Selbständigkeit, wie in der Gründung eines kleineren Planungs- oder Beratungsbüros. Sie sind dann ihr eigener Herr, mit allen Vorteilen und Nachteilen. Wieweit ein Informatiker es schafft, in einer großen Firma Karriere zu machen, also etwa zum Niveau eines Vorstandsmitglieds aufzusteigen, wird dadurch bestimmt, wie sehr er die Ziele des Gesamtunternehmens auch zu seinen eigenen machen kann. Das bedeutet, dass er nicht nur in technischen, sondern auch in kaufmännischen, juristischen und sozialen Kategorien denken kann. Wie bei jeder Führungskraft müssen natürlich auch charakterliche Eigenschaften dazu kommen, so die Fähigkeit, auf Menschen zuzugehen und der Wille, Verantwortung zu übernehmen. Was Informatiker(innen) betrifft, ist für sie ein Aufstieg bei reinen Informatikfirmen (Hardwareoder Software-Herstellern, großen Informatikdienstleistern) natürlich leichter als bei Informatikanwendern. Aber auch dafür gibt es Beispiele. Vielleicht greift die Gesellschaft für Informatik (GI) doch noch die Idee auf, über einige dieser Karrieren zu berichten. Weitere Information: Auch Tages- und Wochenzeitungen haben das Imageproblem der Informatik als interessantes Thema entdeckt. Ein Beispiel hierfür ist Die Welt Online101 (vom 98
15.3.2009). Interessant sind hier vor allem die Leserbriefe zu diesem Artikel, die sich in Form von Blogs zum Thema äußern. Frau Müller, bitte beschreiben Sie Ihre Tätigkeit! Als Software-Entwicklerin arbeite ich in dem Team mit, das ein bekanntes Anwendungspaket für unsere Plattform unterstützt. Zu dieser Plattform gehören eine Datenbank und ein Betriebssystem. Ich persönlich arbeite an der Entwicklung und Pflege einer Komponente, die … Wie ist Ihr beruflicher Werdegang? Da mir in meiner Schulzeit die naturwissenschaftlichen Fächer am meisten Spaß machten, studierte ich an der TU München Elektrotechnik mit dem Schwerpunkt Datenverarbeitung. Ich stellte mir vor, später Roboter und Fließbänder zu steuern. Ich begann 1989 mit der Programmierung eines Geldautomaten. Inzwischen bin ich schon lange von der gerätenahen Programmierung weg und als SoftwareEntwicklerin für ein Betriebssystem tätig. Welchen Teil Ihres Jobs finden Sie am interessantesten? Ich bin immer wieder begeistert, wenn ich eine Aufgabe Schritt für Schritt - ähnlich wie ein Puzzle - lösen kann. Nach dem Lesen von Handbüchern, Codes und der Ausführung geeigneter Tests ist es für mich immer wieder wichtig, meine technischen Aufgaben und momentanen Erkenntnisse mit Kolleginnen und Kollegen zu besprechen und zu überprüfen. Logisches strukturiertes Arbeiten und Teamarbeit sind für mich eine ideale Kombination. Was mögen Sie an ihrem Arbeitgeber? Ich schätze die Vorteile einer großen, internationalen Firma. Vor allem fasziniert mich die Möglichkeit, in unterschiedlichen Bereichen oder auch im Ausland tätig zu sein. Schon während meines Studiums absolvierte ich ein spannendes Auslandspraktikum in Kalifornien. Zurzeit genieße ich die flexiblen Arbeitszeiten, die mir helfen, meinem Beruf und meinen Kindern gleichzeitig gerecht zu werden. Außerdem mag ich das angenehme Arbeitsklima und bin froh, dass man als Frau akzeptiert wird. An der Uni hatte ich in dieser Hinsicht eher negative Erfahrungen gemacht. Deshalb finde ich es besonders schön, dass die Firma sich beim Thema Mädchen und Technik engagiert. Ich unterstütze diese Initiative und versuche, Schülerinnen mein Arbeitsgebiet schmackhaft zu machen. Was machen Sie in Ihrer Freizeit? Den größten Teil meiner Freizeit verbringe ich mit meinen Kindern, die sechs und neun Jahre alt sind. Ich liebe das Reisen, gehe gerne Skifahren und spiele inzwischen auch wieder regelmäßig Tennis. Viel Zeit bleibt einem leider nicht übrig, wenn man schon zwei große Leidenschaften hat, nämlich Beruf und Kinder. Was wäre Ihr Traum-Job? Mein jetziger Job kommt meinem Ideal an sich ganz nahe. Ein Traum wäre natürlich noch ein Auslandsaufenthalt.
Abb. 7.2: Interview mit einer Software-Entwicklerin In einem solchen Blog wird wie folgt vor dem Informatikstudium gewarnt: „Die Bezüge sind gering. Das Image ist schlecht – wer in der Wirtschaft etwas gelten und aufsteigen will, muss in Management, Marketing, Vertrieb arbeiten. Gearbeitet wird oft bis spät in die Nacht. Informatiker-Jobs lassen sich leicht in Billiglohnländer auslagern, die Konkurrenz ist groß. Auch muss man bedenken, dass das Wissen eines Informatikers extrem schnell veraltet, dass er also ständig neu lernen muss, was ab einem bestimmten Alter schwer fällt. Die 45.000 offenen Stellen sind auch ein Märchen. Es gibt Heerscharen arbeitsloser Informatiker.“ Dass die 99
meisten dieser Behauptungen einfach falsch sind, wissen nicht alle Leser. Aber für eine solche Hetze steht das Internet halt auch zur Verfügung. Wir haben diesen Blogger deshalb ausführlich zitiert, weil er hier viele der bekannten Vorwürfe und Vorurteile zusammenfasst. Offensichtlich gefallen sich einige Leute darin, eine Kampagne gegen die Informatik zu betreiben. Dessen sollten sich alle Informatiker(innen) und ihre Berufsvertreter bewusst sein. 7.2 Verbreitetes Burnout-Syndrom Fragen: Was ist dran an der verbreiteten Meinung, dass Informatiker(innen) – wie etwa Lehrer, Sozialarbeiter oder Piloten – schon relativ früh in ihrer beruflichen Tätigkeit „verschlissen“ seien, und sie daher oft relativ früh in den Ruhestand gehen müssen? Fakten und Erklärungen: Mit Burnout (deutsch: ausgebrannt sein) wird ein psychologisches Krankheitsbild bezeichnet, bei dem infolge von länger andauerndem Stress die berufliche Leistungsfähigkeit stark beeinträchtigt wird. Nach Matthias Burisch (2006) ist dieses Syndrom schon alt. Es hat aber in den letzten Jahrzehnten erhöhte Aufmerksamkeit erfahren und diesen wissenschaftlichen Namen bekommen. Offensichtlich reicht aber Stress allein nicht aus, um zum Burnout-Syndrom zu führen. Im Gegenteil, etwas Stress kann sogar gesund sein. Man spricht hier auch von „positivem Stress“. Zum Burnout-Syndrom führen jedoch insbesondere Erwartungen, Wünsche oder Hoffnungen, die sich von den Betroffenen nicht erfüllen ließen. Sie werfen sich dann persönliches Versagen vor und geraten in einen Teufelskreis, aus dem sie mit eigener Kraft nicht mehr heraus kommen. Die Folgen sind eine psychischemotionale Krise, die oft von physischen Beschwerden wie Kopfschmerzen und Schlaflosigkeit begleitet wird. Im Ablauf dieser Erkrankung lassen sich typischerweise vier Phasen unterscheiden, nämlich Begeisterung für eine Aufgabe, Stillstand der Arbeiten, Frustration und Apathie. Als Betroffene werden besonders häufig Lehrer, Sozialarbeiter, Ärzte, Entwicklungshelfer, Piloten und Fluglotsen genannt. Die Fallzahlen liegen im Bereich von 5 bis 15% aller Frühpensionierungen, wobei es große Schwankungen nach Ländern gibt, aber auch danach, wie großzügig dort die Pensionierungsregeln gehandhabt werden. Auch bei Informatikern und Informatikerinnen wird davon gesprochen, dass sie besonders „burnout-gefährdet“ seien. Als Beweis kommt dann oft die Feststellung, dass es kaum Programmierer gäbe, die über 50 Jahre alt seien. Bei letzterem spielt natürlich auch eine Rolle, dass es vor 1980 nur wenige Informatikabsolventen gab. Die Absolventen von 1980 sind heute etwa 55 Jahre alt. Unseres Wissens gibt es zum Burnout-Syndrom bei Informatikern noch keine empirischen Untersuchungen. Aufgrund unserer persönlichen Erfahrungen kommen wir eher zu der Einschätzung, dass Burnout in der Informatik (noch) kein weitverbreitetes Syndrom ist, obwohl auch Informatiker mit Stress zu kämpfen haben, etwa wenn Termine drücken oder wenn der berühmte letzte Fehler nicht einzukreisen ist. Einzelfälle gibt es bestimmt. Manchmal scheiden Kollegen aus bestimmten Tätigkeiten aus, weil sie feststellen, dass diese Art der Arbeit nicht ihrem Naturell entspricht. Mal ist es der häufige Ortswechsel, der einem zuwider ist, mal ist es das lange Angebundensein am selben Projekt. Auf Dauer Aufgaben mit letzter Konsequenz durchzuziehen oder sich dabei von einer Maschine seine Grenzen aufzeigen zu lassen, ist nicht Jedermanns Sache. Als Gegenbeispiel sei auf eine Reihe von Kollegen verwiesen, die Programmier- oder Berateraufträge für Kunden und Anwender auch nach ihrem Eintritt ins Rentenalter übernahmen. In einem uns bekannten Falle wurde diese Tätigkeit bis zum 70. Lebensjahr ausgeübt, und zwar mit großer innerer Befriedigung. Andere Kollegen, die in ihren Berufsjahren Managementverantwortung übernommen haben, nutzen den Übergang in den Ruhestand, um sich wieder speziellen Programmierarbeiten zuzuwenden.
100
Bewertung und Vorschläge: Wichtig für Informatikabsolventen ist, dass sie mit realistischen Vorstellungen in ihren Beruf eintreten. Mehrere während des Studiums durchgeführte Praktika verhindern, dass ihnen ein (zu großer) Praxisschock bevorsteht. Aber auch Informatiker sollten nicht vergessen, dass jede berufliche Tätigkeit, besonders wenn sie im Team ausgeübt wird, mit psychologischen Problemen belastet sein kann. Auch die hohe Motivation einzelner Team-Mitglieder kann leicht in Frustration umschlagen, etwa wenn die Kommunikation nicht klappt oder wenn man sich unterfordert oder ungerecht behandelt fühlt. Eine Folge davon kann die so genannte innere Kündigung sein, d.h. man engagiert sich nur noch so weit, dass man nicht unangenehm auffällt. Wer sich in dieser Situation befindet, sollte sich nach einer anderen Tätigkeit umsehen. Nicht stark genug zu betonen ist aber, dass Informatiker(innen) selbst dafür sorgen müssen, dass ihre fachliche Kompetenz über das ganze Berufsleben hinweg erhalten bleibt. Hierfür müssen sie erhebliche Investitionen für ihre Fort- und Weiterbildung leisten. Dies bezieht sich sowohl auf Methoden- wie auf Produktwissen. Weitere Informationen: Für die fachliche Weiterbildung während der Berufstätigkeit gibt es unterschiedliche Möglichkeiten. Größere Firmen besitzen in dieser Hinsicht oft einen entscheidenden Vorteil, weil sie die Weiterbildung ihrer Mitarbeiter im eigenen Haus organisieren. Bei kleineren Firmen oder bei Selbständigkeit ist man in der Regel auf externe Angebote angewiesen. Sie können von privaten Firmen stammen, von Fachgesellschaften oder von Hochschulen. Die Gesellschaft für Informatik e.V. (GI) bietet seit Jahrzehnten über die Deutsche Informatik-Akademie (DIA)102 ein reiches Angebot an Weiterbildungskursen an. 7.3 Kein Beruf für Frauen Fragen: Können Frauen ebenso Erfolg in Informatikberufen haben wie Männer? Warum ist der Frauenanteil bei den Studierenden so niedrig? Kann man ohne Programmierkenntnisse und ohne technische Computer-Grundkenntnisse das Studium beginnen?
Abb. 7.3: MINT-Frauenanteil in OECD-Ländern 2003 (Quelle OECD) Fakten und Erklärungen: International gesehen schwankt das Interesse und damit der Anteil von Frauen an den technischen und naturwissenschaftlichen Berufen erheblich. Für diese Berufsgruppe wurde in Deutschland die Abkürzung MINT-Berufe (Mathematik, Informatik, Naturwissenschaften, Technik) eingeführt. Abb. 7.3 zeigt Daten einer OECD-Studie103 aus dem Jahre 2003. Alle technischen und naturwissenschaftlichen Fächer sind zusammengefasst. Für jedes Land sind die Daten aufgeteilt nach Studienanfängern (blau), Absolventen (rot) und Promotionen (gelb). Relativ hoch ist der Anteil weiblicher Studierender in Kanada, Dänemark, Israel und Portugal. In derselben Größenordnung (50 bis 60%) liegen einige hier nicht 101
erfasste Länder wie Indien, Malaysia, Griechenland und Bulgarien. Am unteren Ende liegen die Niederlande und Japan. Deutschland liegt mit knapp unter 30% im Mittelfeld. .Die Schwankungsbreite der Zahlen belegt, dass die Zuneigung zu technischen Berufen keinesfalls naturbedingt sondern kulturbedingt ist. Eine Aufschlüsselung der Daten hinsichtlich einzelner Studienfächer gibt Abb. 7.4 für das Jahr 2005. Sie basieren auf Daten des Statistischen Bundesamtes104. Hier zeigt sich, dass die Informatik nicht das Schlusslicht bildet. Dieses gehört der Elektrotechnik. Dass Mathematik und Chemie wesentlich besser aussehen, liegt am hohen Anteil der Lehramtskandidatinnen. Bei der Einführung des Studiengangs Informatik vor 40 Jahren war in der damaligen Bundesrepublik der Frauenanteil höher. Er fiel zwischenzeitlich unter 10 % und hat sich jetzt bei etwa 16 % eingependelt. Die Quoten sind günstiger in Spanien, Skandinavien und in der Türkei. Sie waren es auch in der früheren DDR.
Abb. 7.4: MINT-Frauenanteil in Deutschland 2005 (Quelle Stat. Bundesamt) Über die Beziehung von Mädchen und Informatik forscht die Informatikerin Britta Schinzel seit etwa 1990. Sie überraschte schon vor Jahrzehnten mit ihrer Feststellung, dass das Interesse und der Erfolg von Schülerinnen und Studentinnen in Informatik umso größer sind, je mehr diese aus reinen Mädchenklassen kommen. Später stellte sie Folgendes fest. Solange die Informatik den Charakter eines Zweiges der angewandten Mathematik hatte, fühlten sich Mädchen stärker angezogen als in Studiengängen, wo die Informatik stärker ihren Ingenieurcharakter betont. Bewertung und Vorschläge: Leider sind beide Feststellungen von Britta Schinzel wenig dazu geeignet, um daraus positive Maßnahmen abzuleiten. Getrennte Jungen- und Mädchenschulen (oder gar nach Geschlechtern getrennte Universitäten) sind bei aus vielen anderen Gründen nicht mehr durchsetzbar, noch wäre ein vollständiger Rückzug der Informatik in den Hafen der Mathematik erstrebenswert. Plakataktionen, Techniktage an den Schulen oder Girls’ Days an den Universitäten können das fehlende Technikbewusstsein in unserer „Bildungsschicht“, die eine noch sehr humanistisch oder sprachlich geprägte Schule absolvierte, nicht kompensieren. Deshalb ist es sehr zu begrüßen, dass von Politik, Wirtschaft, Wissenschaft und Medien eine Initiative105 gegründet wurde, die das Bild der MINT-Berufe in der Gesellschaft verändern, junge Frauen für naturwissenschaftliche und technische Studiengänge begeistern sowie Hochschulabsolventinnen für Karrieren in der Wirtschaft gewinnen will.
102
Offensichtlich leidet die Informatik bei Schülerinnen besonders stark unter dem in Abschnitt 7.1 beschriebenen Imageproblem. Wie eine Hochschule derartigen Vorurteilen effektiv entgegenwirken kann, zeigt das Beispiel der Carnegie-Mellon-University106 in Pittsburgh (USA). Statt nur den Reiz der Technik zu betonen, wurde der von Informatikern zu schaffende soziale Nutzen hervorgehoben. Es gelang innerhalb weniger Jahre, eine Gleichverteilung zwischen männlichen und weiblichen Studienanfängern zu erreichen. Aber die Lage ist auch bei uns nicht aussichtslos. Viele Studentinnen haben inzwischen ohne wesentliche Vorkenntnisse aus der Schule und ohne intensive Computernutzung in der Familie ein Informatikstudium erfolgreich abgeschlossen. Nach Abschluss ihres Studiums können Informatikerinnen schon seit längerem mit attraktiven Angeboten aus vielen Branchen rechnen. Schwerpunkte sind Finanz- und Versicherungswesen, Handel und Dienstleistungen, Software-Entwicklung und Unternehmensberatung, medizinische Informatik in Kliniken und Krankenhäusern, internationale Logistik und neue Informations- und Kommunikationsmedien. Die Informatiktätigkeiten in diesen Branchen bieten oft große Flexibilität bezogen auf die Arbeitszeiten und auf den Arbeitsort. Es gibt bewährte Methoden der Tele- und Heimarbeit und viele Angebote für eine Teilzeitarbeit. Sowohl in der Wirtschaft wie in der Wissenschaft gibt es heute viele Informatikerinnen, die für ihre hervorragenden Leistungen Anerkennung gefunden haben und die ihren männlichen Kollegen in nichts nachstehen. Weitere Information: Das Problem Frauen im Beruf betrifft nicht nur die Informatik oder die technischen Berufe. Es hat immer noch eine Bedeutung für die Gesellschaft als Ganzes. Diese Meinung vertritt auch die bekannte Soziologin Jutta Allmendinger (2009) in ihrem jüngsten Buch. „Tradition, Stereotype und kulturelle Muster leben lange“ schreibt sie. Der Fachbereich Informatik und Gesellschaft (IUG) der GI hat eine sehr aktive Fachgruppe Frauen und Informatik107. Sie hat mehrere Broschüren herausgegeben, in denen Schülerinnen über das Informatik-Studium und den Informatiker-Beruf informiert werden. Auch führt sie Veranstaltungen durch wie den Girls’ Day in Informatik. 7.4 Praxisferne der Akademiker Fragen: Warum gibt es in der Informatik und in ihren Anwendungsfeldern gelegentlich ein etwas angespanntes Verhältnis zwischen „Praktikern“ und „Akademikern“? Was lässt sich dagegen tun? Fakten und Erklärungen: In vielen Ingenieurdisziplinen wird das gegenseitige Kritisieren von akademischen und praktischen Positionen und Verhaltensweisen als eine Art Sport ausgeübt. Nicht selten kommt es aber auch vor – und das ist schlimmer –, dass Praktiker und Akademiker aneinander vorbeireden oder gar nicht mehr miteinander sprechen. Gegenseitige Schuldvorwürfe sind dann an der Tagesordnung. Als Akademiker seien hier alle Kollegen und Kolleginnen bezeichnet, die nach ihrem Studium nicht den Weg in die Anwendung der Informatik eingeschlagen haben, sondern sich der Lehre und der Forschung an Hochschule und Forschungseinrichtungen zugewandt haben. Viele Praktiker glauben, dass alle Akademiker Theoretiker seien und sich daher nicht genug für die Probleme der Praxis interessieren. Die Akademiker werfen den Praktikern vor, die fundierten Ergebnisse akademischer Forschung nicht gebührend zu würdigen. Zu solchen Vorurteilen kommt es nicht zuletzt aufgrund der unterschiedlichen Ziele und Arbeitsweisen der beiden Seiten. So glauben alle Praktiker, dass nur sie es sind, die mit echten Problemen konfrontiert werden. Ein Kunde, der für eine Sache gutes Geld ausgibt, sagt am verlässlichsten, was er braucht. Das überzeugt und gibt Sicherheit. Den Akademikern an Hochschulen wird oft weniger klar gemacht, was gebraucht wird. So sind sie oft auf Vermutungen angewiesen und leisten ihre Forschungsarbeiten quasi auf Vorrat. Viele Aufgaben, wie auch die Themen von Abschlussarbeiten, stellt man sich als Wis103
senschaftler selbst oder leitet sie aus seiner akademischen Arbeitsumgebung ab. Die zunehmende Orientierung der durchgeführten Arbeiten an den Zielen öffentlich ausgeschriebener und auch von der Industrie geförderter Projekte führt bereits zu einem Umdenken in vielen Fächern, d.h. zu einem Verlassen des oft genannten Elfenbeinturms. Akademiker aller Branchen haben eine natürliche Sympathie für neue Ideen, auch wenn sie von einem Außenseiter stammen. Es wird die Idee als solche positiv bewertet und nicht nur ihre vermutete Wirkung. Für Praktiker stellt es ein Risiko dar, sich auf neue Ideen einzulassen, insbesondere wenn sie von Außenseitern kommen. Man wartet am liebsten ab, bis eine solche Idee die Akzeptanzschwelle von etwa 20% der potentiellen Nutzer erreicht hat. Dann erst wird eine entsprechende Infrastruktur geschaffen, d.h. am Beispiel der SoftwareHerstellung eine Entwicklungs-, Vertriebs- und Wartungsorganisation. Erst dann lohnt es sich, mit eigenen Investitionen zu beginnen. Praktiker lernen vor allem (a) wiederzuverwenden, was sich bewährt hat, und (b) Erfahrungen von kleinen Projekten nicht auf große Projekte zu übertragen. Beides widerstrebt den Zielen und Erfahrungsmöglichkeiten von Akademikern.
Abb. 7.5: Feierabendplausch Das technisch zweitbeste Produkt kann durchaus die Anforderungen eines Praktikers besser erfüllen als das technisch brillanteste und innovativste Produkt seiner Klasse. Oft werfen dabei die Akademiker den Praktikern vor, dass sie zu sehr am Alten hingen und nicht bereit wären, technische Neuheiten zu würdigen und zu akzeptieren. Ein Theoretiker misst eben seine Leistung an Kriterien, die für den Praktiker kaum eine Rolle spielen, und umgekehrt. Beim Akademiker sind es die Qualität seiner Lehre und das Ansehen seiner Forschung in einer Ge104
meinde von Gleichgesinnten (engl.: community of peers). Diese Gemeinschaft kann weltweit auch aus weniger als zehn Kollegen bestehen. Sie hat sich prinzipiell selbst zusammengefunden. Beim Praktiker ist das Hauptkriterium seiner Leistung der wirtschaftliche Erfolg des Unternehmens, für das er arbeitet. Dieser hängt zusammen mit der Brauchbarkeit und Effektivität der von ihm entwickelten Produkte oder Dienstleistungen für die jeweiligen Kunden. Neben diesen für alle technischen Fächer geltenden Aspekten gibt es für die Informatik noch einige Besonderheiten. In der akademischen Informatik wird Theorie oftmals mit Mathematisierung gleichgesetzt. Würde der Theoriebegriff so verwendet wie in den Naturwissenschaften, nämlich als Versuch, Phänomene und die Messdaten von Beobachtungen zu erklären, könnte sie für Praktiker sehr nützlich sein. Leider versucht aber ein Großteil der akademischen Informatiker gar nicht, die Realität zu beobachten, also empirisch zu forschen. Mit Realität ist hier das Geschehen bei den Anwendern oder bei praktizierenden Kolleg(inn)en gemeint, nämlich (a) die Rolle, die Rechner spielen, (b) die Methoden, die Praktiker einsetzen, (c) die Fragen, die Nutzer bewegen und dergleichen mehr. Mitunter ziehen Akademiker es vor, zuerst ein abstraktes Modell und eine ideale Methode zu entwerfen, um dann in der Realität nach ein paar Fällen zu suchen, für die die Methode Erfolg verspricht. Durch Mathematisierung werden Phänomene nicht erklärt, sondern nur auf eine besondere formale Art beschrieben. Damit hängt auch zusammen, dass die Abstraktion und nicht die Aggregation als wichtigstes Hilfsmittel zur Strukturierung und Beschreibung von komplexen Systemen propagiert wird. Abstrahieren bedeutet nämlich weglassen, verzichten. Aggregieren heißt anhäufen, geeignet zusammenfassen. Dass Datentypen auf Rechnern immer nur endlich viele Elemente besitzen, wird nicht als Normalfall behandelt, sondern als lästige – und daher leicht zu vergessende – Zusatzbedingung abstrakter, also unendlicher Datentypen. Datenstrukturen wie Vektoren, Matrizen und Dateien erlauben es dagegen, eine Vielzahl von Elementen gedanklich geschickt zusammenzufassen, ohne dass auf Genauigkeit verzichtet wird. Das Bestreben vieler Akademiker, die Wirklichkeit mit möglichst wenigen Parametern zu beschreiben (also zu abstrahieren), lässt schon Modellierungen, die mehr als eine Handvoll von Fallunterscheidungen berücksichtigen, als wissenschaftlich unpräzise erscheinen. Bildlich gesprochen: Man hängt auch dann der Kugelgestalt der Erde nach, wenn eine grobe Annäherung an ihre Geoid-Gestalt besser wäre – um ein im vorangehenden Kapitel benutztes Beispiel aufzugreifen. Als „Möchtegern-Naturwissenschaftler“ würde man am liebsten auch Software wie ein rein mathematisches oder physikalisches Objekt behandeln, das nichts mit Menschen und ihren Anwendungen zu tun hat. So wird in der Softwaretechnik mitunter nur die syntaktische Struktur eines Programms oder eines Systems analysiert, um daraus Maße für seine Komplexität und Qualität abzuleiten. Die Bedeutung eines Programms und seine Einbettung in Natur, Umwelt und Menschen wird dabei oft ignoriert, auch seine Vorgeschichte und der Prozess seiner Entstehung, also Semantik und Pragmatik. Im Volksmund wird diese Vorgehensweise illustriert durch einen Mann, der nur im Lichtkegel einer Straßenlaterne nach seinem verlorenen Schlüssel sucht. Gefragt, ob er sicher ist, ihn dort verloren zu haben, antwortet er: „Nein, aber da draußen ist es zu dunkel!“. Zu oft bestimmen leider die verfügbaren Methoden und Hilfsmittel, welche Probleme von Akademikern als interessant angesehen werden, und nicht umgekehrt. Kein Praktiker kann sich eine solche Vorgehensweise leisten. Kein Praktiker wartet auf Lösungen zu Problemen, die er gar nicht hat. Manche Akademiker verhalten sich auch wie Geisteswissenschaftler. Was in den Schriften der Altvorderen festgehalten wurde, gilt nach Jahrzehnten noch als Offenbarung, auch wenn es den Test der Praxis noch nie bestanden hat.
105
Bewertung und Vorschläge: Mit unterschiedlichen Aspekten dieses Problems kämpfen mehr oder weniger alle technischen Fächer. Nach Ansicht der meisten Praktiker findet der technische Fortschritt nicht primär an den Hochschulen, sondern in der Industrie statt. Je komplexer eine Technologie ist, um so eher ist dies der Fall. Dies ist dadurch begründet, dass Hochschulen im Normalfall weder die unfangreichen Investitionen betreiben noch solche organisatorischen Strukturen aufbauen können, die echte technologische Fortschritte ermöglichen. Dass es im Falle des Erfolgs zusätzlich noch ein großes Transferproblem gibt, ist der Normalfall. Statt öffentliche Mittel dafür einzusetzen, um einen interessierten Nutzer zu finden, ist es meist besser, auch gleich selbst – meist als ’Spinn-off’ – die Umsetzung in ein marktfähiges Produkt zu übernehmen. Akademiker und Praktiker müssen stärker zusammenarbeiten und in technischen Fächern wie der Informatik bevorzugt solche Forschungsprojekte angehen, die – zumindest langfristig – praktische Relevanz haben. Nur so können deren Ergebnisse überhaupt ihren Weg in die Anwendung finden. Das heißt aber auch, dass Praktiker sich auf solche Projekte einlassen sollten, bei denen die Ergebnisse nicht klar vorhersehbar sind und bei denen der akademische Partner auch seine berechtigten Interessen einbringen kann. Es hat sich in etlichen sogenannten Verbundprojekten gezeigt, dass sich Finanzierungsmodelle finden lassen, die dies ermöglichen. Wichtig ist insbesondere, dass ein Austausch an Personal in beiden Richtungen auch noch Jahre nach dem Examen stattfindet. Weitere Informationen: In diesem Abschnitt sind weitgehend die Ideen aus Endres (2001) wiedergegeben. Dass es seither Fortschritte gegeben hat, ist erfreulich. Leider sind wir noch nicht soweit, dass man dieses Problem ganz ignorieren kann. Es wäre auch falsch, es kleinzureden. 7.5 Pionier oder Trendhüpfer Fragen: Kann man Programmieren nicht auch in der Volkshochschule lernen? Sind Informatiker(innen) eigentlich Ingenieure oder eher Natur- oder Geisteswissenschaftler? Warum gibt es immer noch Unklarheiten um das Berufsbild der Informatiker(innen)? Welche Auswirkungen hat dies auf das Ansehen des Berufs? Gibt es eine Berufsethik für Informatiker(innen) und wie sehr richtet man sich danach? Fakten und Erklärungen: Einer populären Definition zufolge sind Pioniere Kämpfer, die Pfeile in den Rücken bekommen. Zumindest die erste Generation von Informatikerinnen und Informatikern hatte den Eindruck, dass sie Neuland beträte, und zwar sowohl was ihr Arbeitsgebiet und ihre Methoden, aber auch was ihre Qualifikation und die berufliche Position betrifft. Das ändert sich zwar, aber nur langsam. Oft werden noch Informatik und Programmieren gleichgesetzt, was natürlich nicht stimmt. Programmieren bleibt zwar eine wichtige Tätigkeit, die für das Berufsbild des Informatikers bestimmend ist. Wie man von einem Mediziner erwartet, dass er auf Grund einer Anamnese einen Therapieplan erstellen kann, kann man von einem Informatiker erwarten, dass er jede algorithmisch vorgegebene Aufgabenstellung programmieren kann. Genauso wie jeder NichtMediziner sich in einem Erste-Hilfe-Kurs medizinische Grundkenntnisse und einfache Therapien für den Hausgebrauch aneignen kann, so kann jeder einigermaßen intelligente Mitbürger auch das Programmieren in einer klar beschriebenen Programmiersprache erlernen. Ob dies an einer Volkshochschule erfolgt oder während eines juristischen oder betriebswirtschaftlichen Studiums, ist sekundär. Für die meisten technischen Berufe ist es sogar sehr erstrebenswert, dass man für sein Fachgebiet kleinere, selbst benötigte Anwendungsprogramme selbst erstellen kann. Man ist deswegen aber noch kein Informatiker. Umgekehrt aber stellt niemand 106
einen Informatiker ein, der nicht wenigstens eine landläufige Programmiermethodik beherrscht. Als Hochschulstudium gibt es die Informatik seit nunmehr 40 Jahren. An deutschen Fachhochschulen wird meist zwischen Allgemeiner Informatik, Technischer Informatik und Wirtschaftsinformatik unterschieden. Die entsprechenden Studiengänge vermitteln überwiegend anwendungsorientierte Informatikmethoden. Noch stärker praxisorientiert ist die Ausbildung an den Berufsakademien, neuerdings auch Duale Hochschulen genannt. Hier teilen sich Hochschule und Industrie die fachliche Verantwortung und koordinieren gemeinsam die Arbeit der Studierenden. Das universitäre Informatikstudium gibt es an allen deutschen Universitäten mit schwerpunktmäßig technischer Ausrichtung (d. h. den früheren Technischen Hochschulen), aber auch an klassischen Universitäten wie Tübingen und Freiburg, um Beispiele aus Baden-Württemberg zu nennen. An diesen Technischen Universitäten ist die Informatik meist als eigene Fakultät organisiert oder aber als Fachbereich in der Nähe der Elektro- und Informationstechnik angesiedelt. In den allgemeinen Universitäten findet man Informatik dagegen eher in der Nähe von Mathematik und Physik, seltener in den Naturwissenschaften. Wirtschaftsinformatik wird meist von der wirtschaftswissenschaftlichen Fakultät im Zusammenwirken mit der Informatik angeboten. Gibt es eine Bioinformatik, ist sie meist im Umkreis der Lebens- und der Naturwissenschaften zu finden. Diese Aufsplitterung der Informatik nimmt laufend zu, indem an vielen Orten neue sogenannte ‚Bindestrich-Informatiken’ angeboten werden. Jüngere Beispiele sind die Medien-Informatik und die Umwelt-Informatik. Ist die Auswahl einer Informatikstudienrichtung schon schwierig, so ist die Situation bei den Beschäftigten in der Industrie noch verwirrender. Hier treffen ausgebildete Informatiker immer noch auf viele Quereinsteiger. Das können Betriebswirte, Mathematiker, Physiker oder Ingenieure sein. Tätigkeiten in der Informatik sind für Quereinsteiger deswegen attraktiv, weil die Nachfrage der Unternehmen und Behörden größer ist als das Angebot an Fachabsolventen. Die in der Praxis benutzten Berufsbezeichnungen sind oft stärker von der ausgeübten Tätigkeit bestimmt als vom Ausbildungsgang. In einem von einem Arbeitsvermittler zusammengestellten Glossar108 sind etwa 50 IT-Berufe gelistet (zusätzlich zu einer Vielzahl von Synonymen). Es beginnt mit Anwendungsprogrammierer und endet mit Web Designer. Dazwischen liegen Content Manager, Datenbankverwalter, Datenschutzbeauftragter, ITProjektleiter, Netzadministrator, SAP-Berater, Software-Entwickler und Systemarchitekt. Dieselbe Vielfalt findet man auch bei Stellenausschreibungen. Die Bezeichnung Informatiker wird erst allmählich und eher sporadisch mit den soeben erwähnten professionellen Tätigkeiten in Verbindung gebracht. Schon länger eingebürgert hat sich allerdings der Fachinformatiker als Beispiel eines technischen Ausbildungsberufs. Für die Popularisierung dieses Berufsbilds hatte sich die Bundesregierung109 bereits vor Jahrzehnten eingesetzt. Bewertung und Vorschläge: Es ist fraglich, ob die Einführung immer neuer Studienrichtungen und neuer Studienabschlüsse dazu geeignet ist, das Bild des Informatikerberufs in der Öffentlichkeit zu verbessern. Vielleicht leistet die Praxis ihrerseits einen Beitrag zur Konsolidierung, indem sie stärker als bisher ein deutliches und relativ einheitliches Profil der Tätigkeit erkennen lässt. Die berufliche Tätigkeit von Informatikern und Informatikerinnen hat in der Praxis vorwiegend den Charakter einer Ingenieurtätigkeit. Sie bezieht sich fast immer auf die Hard- und Software von Informatiksystemen, etwa deren Auswahl, Planung, Entwicklung, Installation, Test, Betrieb, Wartung oder Bewertung. Informatiker und Informatikerinnen müssen vor allem konstruktiv denken. Sie schaffen meist etwas Neues, wobei sie das Vorhandene natürlich analysieren müssen. Noch stärker als bei manchen anderen Ingenieurtätigkeiten ist die Nutzerperspektive von überragender Bedeutung. Dies gilt insbesondere, wenn es um die produktunabhängige Untersuchung von Geschäftsprozessen oder die Schulung von Mitar107
beitern in informatikbezogenen Fähigkeiten geht. Dabei kommen auch Aspekte einer kaufmännischen oder gar pädagogischen Tätigkeit zum Tragen. Damit Kunden und Nutzer sich auf die Arbeit von Informatikerinnen und Informatikern verlassen können, müssen deren Handlungen und Entscheidungen die Kriterien der Professionalität erfüllen (vgl. Endres (2003b)). Sie müssen berücksichtigen, was für die Nutzer zweckdienlich und zumutbar ist, was für das Unternehmen notwendig und erschwinglich ist, was ohne unvertretbare Nebenwirkungen für Umwelt und Gesellschaft machbar ist, was nach dem Stand der Technik möglich ist, und was mit den zur Verfügung stehenden Fachleuten und Finanzmitteln realisierbar ist. Da Informatiksysteme immer mehr von NichtInformatikern eingesetzt werden, besteht eine besondere Aufgabe darin, diese – sowie die Öffentlichkeit im Allgemeinen – zu beraten und zu einer sachgemäßen und verantwortlichen Nutzung hinzuführen. In diesen Sätzen drückt sich der Kern der Berufsethik aus, so wie wir sie verstehen. Da man Verantwortung nur für etwas übernehmen kann, das man auch kontrolliert, ergibt sich aus dem Gesagten, wieweit die Befugnisse reichen müssen. Wie Werner Dostal (1997) bemerkte, darf man den fachlichen Kern eines Berufes nicht verwechseln mit dem aktuellen Aufgabenspektrum, wie es in Stellenausschreibungen zum Ausdruck kommt. Oberflächlich betrachtet suchen Firmen immer Alleskönner, die wie Joker von einer Tätigkeit zu einer andern verschoben werden können, und die quasi über Nacht die gründlichste Expertise für die gerade anstehende Aufgabe erworben haben. Dass der Aufbau von Kompetenz Zeit erfordert, wird gerne ignoriert. Nur ist dies wiederum kein Argument für eine lange Studiendauer oder für das Festhalten an einer bisher ausgeübten Tätigkeit. Wie überall ergibt sich eine passable Lösung meistens als Kompromiss. Es ist dabei gut, wenn die fachliche Qualifikation durch nichtfachliche Fähigkeiten (Kontaktfreudigkeit, Ausdrucksvermögen, Fremdsprachen) ergänzt wird. Sie ersetzen sich gegenseitig jedoch nicht. Dass der Beruf des Informatikers im Vergleich zu Lehrern, Ärzten und Richtern in der gesellschaftlichen Anerkennung zurückfällt, liegt sicher nicht an der Bezahlung. Wie eine kürzlich veröffentlichte HIS-Studie110 zeigt, liegen sowohl Hochschul- wie Universitätsabsolventen der Informatik bezüglich ihres Einkommens im Rahmen anderer technischer Studienrichtungen. Dass man als Informatiker sogar zu Reichtum gelangen kann, haben die Firmengründer von Adobe, Apple, Microsoft, Oracle, SAP, Software AG und andere bewiesen. Fragen wir uns, wer als Leitbilder unseres Berufes in Frage kommt, dann fallen uns viele Namen ein. In Tab. 7.1 sind die 50 häufigsten Namen aus einer Liste wiedergegeben, die sich aus einer noch im Internet laufende Abstimmung der Universität Leeds111 in England ergibt. Eine leichte Bevorzugung von Namen aus Großbritannien ist nicht verwunderlich. Es sind aber auch viele Namen dabei, die auf einer in Deutschland erstellten Liste erscheinen würden. Das Gewicht gibt die prozentuale Häufigkeit der Nennung an. Wer an der Abstimmung teilnimmt, ist nicht genau bekannt, noch die Anzahl der bisher abgegebenen Stimmen. Es sind wohl hauptsächlich Informatiker aus dem englischen Sprachraum. Die Abstimmung läuft seit dem Jahre 2003. Es müssen daher einige Tausend Voten enthalten sein. Wie in jeder anderen Berufsgruppe so gibt es auch unter Informatiker(innen) Kollegen, deren Verhalten hin und wieder Zweifel an ihrer professionellen Einstellung aufkommen lässt. Manche Kolleg(inn)en scheinen mit Vorliebe Trends oder Modethemen – auch Hypes genannt – nachzurennen, ohne gründlich zu reflektieren, ob es sich hier vielleicht nur um “alten Wein in neuen Schläuchen“ handelt. Einige der von ihnen eingesetzten Methoden – denken wir an 108
die Agile Programmierung – sind zunächst nichts mehr als Heuristiken. Ihnen fehlt die gründliche empirisch-wissenschaftliche Fundierung. Auch Informatikanwender lassen sich schon einmal von reinen Verkaufsargumenten ködern und wandern dabei von Wolke zu Wolke. Im Vergleich zu anderen Ingenieurdisziplinen ist man in der Informatik eher weniger geneigt, längst etablierte technische Normen anzuwenden. Man sieht in ihnen oft eine unnötige Beschränkung der Kreativität. Gerne sieht man die eigene Situation als einzigartig an, nicht vergleichbar mit den Situationen, für die der Standard geschaffen wurde. Auch fällt es manchen Informatiker(innen) mitunter schwer, die Grenzen ihres Wissens anzuerkennen, bzw. einzugestehen. Wer in einer gängigen Programmiersprache programmieren kann, ist damit noch lange kein Experte für irgendein Anwendungsgebiet, außer vielleicht für die eigenen Werkzeuge (Betriebssysteme, Compiler, Programmeditoren oder Testwerkzeuge). Wie an anderer Stelle ausführlich diskutiert, gibt es gerade unter Informatikern Strömungen, die darauf hinauslaufen, die Rechte anderer in Frage zu stellen, insbesondere was deren geistiges Eigentum anbetrifft.
Tab. 7.1: Bekannte Informatiker(innen) aus aller Welt (Quelle Leeds University) Es ist unseres Erachtens weder angebracht noch erforderlich, Informatiker(innen) eine Sonderrolle einzuräumen, wenn es um Fragen der professionellen Verantwortung und der beruflichen Ethik geht. Wie in der Einleitung dieser Publikation angedeutet, hat das Fachgebiet Informatik seine Adoleszenzzeit hinter sich. Es besteht kein Grund mehr, Argumente von der Art vorzuschieben, das Werkzeug Computer sei ungewohnt und die Methoden der Informatik seien unsicher. Dass der persönliche Reifeprozess eines jeden Informatikers und jeder Infor109
matikerin Zeit benötigt, ist davon unabhängig. Dabei helfen eigene Erfahrungen mehr als belehrende Bücher und Ratschläge von Kollegen – einschließlich dessen, was in unserem Buch steht. Vermutlich würde es dem professionellen Ansehen der Berufsgruppe nützen, wenn die Bezeichnungen Informatiker bzw. Informatikerin auch in der Praxis konsequenter verwendet würde. Der Anstoß dazu muss von den Informatikern selbst kommen. Sie müssen davon überzeugt sein und sich dazu bekennen, dass sie aufgrund ihrer fachlichen Qualifikation bessere Leistungen erbringen können als die meisten Quereinsteiger, wenn es um Informatiktätigkeiten geht. Die betrifft auch den öffentlichen Dienst und die großen Firmen, die teilweise eigene Laufbahnstrukturen für ihre Mitarbeiter definiert haben. Sicherlich wäre es hilfreich, wenn in Stellenausschreibungen ein stärkerer Bezug zu den zurzeit vorhandenen Ausbildungs- und Studiengängen hergestellt würde. Gab es in der Vergangenheit das Problem, zwischen Fachhochschul- und Universitätsabsolventen zu unterscheiden, so wird die Frage der fachlichen Einstufung infolge des Übergangs zu Bachelor- und Master-Abschlüssen (in allen Hochschultypen) in Zukunft eher noch komplizierter. Die als Bologna-Prozess bezeichnete Reform des Studiums hatte bekanntlich sehr lobenswerte Ziele, nämlich die Vereinheitlichung innerhalb Europas, die Verkürzung der Studiendauer und die Verstärkung des Praxisbezugs der Ausbildung. Ob und wie weit diese Ziele erreicht werden, ist noch offen. Viele Beobachter und viele davon Betroffene sind da eher skeptisch. Wie viele Informatikfachgesellschaften auf der Welt hat auch die Gesellschaft für Informatik e.V. (GI) ethische Leitlinien113 verabschiedet, und zwar im Jahre 1995. Sie legen für GIMitglieder fest, dass sie Verantwortung für die Qualität ihrer Leistungen haben, und zwar ihren Auftraggebern, Nutzern und der Gesellschaft gegenüber. Sie verpflichtet dazu, sich selbständig weiterzubilden, so dass man jederzeit den Stand der Technik beherrscht. Diese Leitlinien führen bis heute eine Art Schattendasein. Das liegt unter anderem daran, dass es noch keine Fälle gab, wo aufgrund einer möglichen Verletzung der Leitlinien Sanktionen gegen ein Mitglied diskutiert wurden. Von Interesse wäre ein solcher Fall vor allem dann, wenn er nicht ein persönliches Mitglied, sondern eines der rund 270 kooperativen Mitglieder des Vereins betreffen würde. Weitere Informationen: Einer der Autoren hat wiederholt zu diesem Thema veröffentlicht, siehe Endres (1999) und Endres (2003b). Einiges Material zum Selbstverständnis der Informatik enthält das GI-Positionspapier114 ‚Was ist Informatik?’ von 2006. Mehrere Beiträge im Informatik Spektrum 1997 befassen sich ebenfalls mit diesem Thema, so Werner Dostal (1997) und Klaus Kornwachs (1997). Leider treten bei öffentlichen Diskussionen, sei es im Fernsehen oder in Zeitungen, Fachgesellschaften wie ACM und GI nur sehr selten in Erscheinung. Umso aktiver ist in dieser Hinsicht z.B. der Chaos Computer Club115 (CCC). Er bezeichnet sich selbst als „die größte europäische Hackervereinigung“ und sieht sich seit über 25 Jahren als „Vermittler im Spannungsfeld technischer und sozialer Entwicklungen“. Die Aktivitäten des Clubs reichen von technischer Forschung und Erkundung am Rande des Technologieuniversums über Kampagnen, Veranstaltungen, Politikberatung und Publikationen bis zum Betrieb von Anonymisierungsdiensten und Kommunikationsmitteln. Es darf daher nicht überraschen, dass in der Öffentlichkeit oft Informatiker(innen) und Hacker gleichgesetzt werden.
110
8. Schlussbemerkungen Der zwiespältige Charakter von Technik und von Fortschritt wurde im Vorangegangenen deutlich. Es gibt kaum ein Werkzeug, dessen nützlicher Zweck es davor schützt, dass es missbraucht werden kann, um damit Schaden anzurichten. Mit einem scharfen Messer kann man aus Holzstücken Kunstwerke oder Musikinstrumente schnitzen, aber auch Menschen verletzen oder gar töten. Es gibt kein Medikament in der Medizin, bei dem man nicht über Nebenwirkungen nachdenken muss. Mit Computern und Informatiksystemen ist es nicht anders. So nützlich sie auf der einen Seite sind, so vielfältig sind die Möglichkeiten, sie zu missbrauchen oder mit ihnen Schaden anzurichten. Auch gibt es immer Vor- und Nachteile. Es kommt wie immer darauf an, dass der Nutzen deutlich überwiegt und der Schaden begrenzt wird. Die in diese Stoffsammlung aufgenommenen Probleme, die Computer und Informatiksysteme verursachen können, sind sicherlich nicht vollständig. Diese Liste schien uns aber schon erschreckend lang. Oder anders gesagt: Der Ballast, den wir Informatiker(innen) mit uns herum tragen, ist alles andere als vernachlässigbar. Wenn wir wissen, was alles dazu gehört, fällt es vielleicht leichter, damit fertig zu werden. Auf jeden Fall sollten sich Informatiker(innen) die Illusion abschminken – sofern sie diese je besaßen –, Überflieger zu sein, deren nutzvoller Tätigkeit nichts entgegen wirken oder gar widerstehen kann. Eine nüchterne und sachliche Selbsteinschätzung ist ohnehin besser. Nicht jeder Vorwurf, den wir in den einzelnen Abschnitten behandelt haben, trifft die Informatiker(innen), aber bei vielen ist zumindest eine Teilverantwortung der Informatik nicht zu leugnen. Die Zusammenfassung in Anhang A soll dies verdeutlichen. Die vorgenommene Gewichtung soll die relative Bedeutung für Gesellschaft, Wirtschaft und Berufsbild ausdrücken. Es ist dabei unerheblich, ob die Probleme primär durch die Informatik als Technik verursacht wurden, oder ob ihre Ursachen in den gesellschaftlichen oder wirtschaftlichen Verhältnissen liegen. Wo immer die Informatik die primären Mittel hat, um zu helfen, ist sie in besonderem Maße dazu verpflichtet es auch zu tun. Außerdem liegt – wie wir gesehen haben – Schuldfähigkeit nie bei Maschinen, sondern immer bei Menschen, seien es Einzelne, Unternehmen, Verwaltungen, Regierungen oder spontan sich zusammenfindende Gruppen und Organisationen. Dabei spielt es keine Rolle, ob diese Menschen sich persönlich begegnen oder ob sie nur nachrichtentechnisch mit einander in Kontakt stehen, also eine virtuelle Gemeinschaft bilden. Wir nehmen nicht an, dass unsere Ausführungen in allen Fällen ausreichen, um alle Sorgen und Bedenken unserer Mitmenschen zu zerstreuen. Wir bieten jedoch Erklärungen und Argumentationshilfen, soweit dies uns möglich erscheint. Wer rational an die Probleme der Welt heran geht, den können gute Begründungen zur Einsicht und evtl. zu einer Änderung seiner Haltung führen. Leider sieht niemand von uns seine Umwelt völlig ohne Emotionen. Das gilt insbesondere für diejenigen Personengruppen, die sich mittelbar oder unmittelbar von dem Wandel betroffen fühlen, der hier zur Diskussion steht Oft stehen unsere Gefühle sogar im Widerspruch zu unserem Verstand. Gut wäre es, wenn in solchen Fällen der Verstand die Oberhand gewänne. Die Attraktivität des Informatikerberufes, und damit die Nachfrage nach Studienplätzen, hängt nicht allein von der wirtschaftlichen Situation der Branche ab, sondern auch von der Anerkennung des Berufs in der Öffentlichkeit, also von seinem Image im Vergleich zu andern Berufen. Wie an mehreren Stellen in diesem Text bemerkt, ist die Situation weder in Deutschland noch in einigen andern Industrieländern in dieser Hinsicht befriedigend. Um hier die Dinge zum Besseren zu verändern, müssen sich alle Informatiker(innen) stärker als bisher des professionellen Charakters ihrer Tätigkeit bewusst werden und die Verantwortungen ihres 111
Berufsstands akzeptieren. Das ist weder zu verwechseln mit Wissenschaftlichkeit, noch mit Kreativität oder Risikobereitschaft. Erst wo sich Vertrauen aufgebaut hat, folgt auch die Anerkennung. Vertrauen hängt mit Ehrlichkeit, Verlässlichkeit und Gesprächsbereitschaft zusammen. Es wäre daher für die Informatik als Fachdisziplin nicht falsch, sich zu einer Problemliste wie dieser öffentlich zu bekennen. Würden die Probleme regelmäßig bewertet und fortgeschrieben, hätte die Öffentlichkeit das Gefühl, dass sich jemand darum kümmert. An die Stelle der unterschwelligen Ängste träte eine öffentliche Diskussion, was allein schon dazu beitragen könnte, dass die Probleme eingegrenzt, ja relativiert würden. Wichtig ist auch, dass anerkannte Vertreter des Fachgebiets dies selbst tun. Sie sollten sich dafür nicht zu schade sein. Auch in anderer Hinsicht ist es angebracht, einige Dinge etwas zu relativieren. So sollten Informatiker(innen) sich ins Bewusstsein zurückrufen, dass es große Bereiche der Wirtschaft und der Gesellschaft gibt, in denen Informatik nur eine untergeordnete oder keine Rolle spielt. Das gilt in zwei Richtungen. Es gibt signifikante Fortschritte und große Leistungen, die Informatiker(innen) sich nicht zugute halten können. Zu erwähnen sind hier vor allem Medizin, Biologie und andere Zweige der Naturwissenschaften. Anderseits ist die Menschheit in großem Umfang mit Problemen konfrontiert, die nicht von Computern oder der Informatik verursacht worden sind und wo wir als Informatiker nur wenig zu ihrer Lösung beitragen können. Beispiele sind die Überbevölkerung, Naturkatastrophen oder der Ausbruch immer neuer Seuchen oder politischer Konflikte. Noch sind die wirklichen Viren gefährlicher und trickreicher als ihre computer-basierten Vettern, wie dies gerade das so genannte Schweinegrippe-Virus beweist. Aber immer da, wo wir Informatiker(innen) dazu beitragen können, auch nicht verschuldete Probleme zu lösen oder zu lindern, sollten wir dies tun. Die Informatiker(innen) sollten hier ihre Möglichkeiten nicht unterschätzen. Wenn wir uns am Schluss die Frage stellen, ob es für die Menschen insgesamt besser gewesen wäre, wenn die Informatik nicht die Entwicklung genommen hätte, wie wir sie kennen und erleben, dann ist unsere Antwort jedoch eindeutig Nein. Unser Leben hat sich durch und mit dem Computer und seinen Anwendungsmöglichkeiten erheblich verbessert. Profitiert haben davon nicht nur einzelne Branchen der Wirtschaft oder einzelne Segmente der Gesellschaft. Die von der Informatik ausgelöste Umwälzung ist weitgreifend und umfassend. Sie bewirkt Verbesserungen für das Geschäftsleben ebenso wie für das private Leben; sie kam jungen Menschen ebenso zugute wie Alten, Gesunden wie Kranken. Ein Blick auf die in Anhang B erwähnten Erfindungen und Innovationen aus den letzten 30 Jahren kann dies bestätigen. In ihnen spiegelt sich der Schritt für Schritt erfolgte technische Fortschritt der Informatik wieder. Wir bleiben Optimisten, und wir gehen davon aus, dass sich diese Entwicklung weiterhin zu unserer aller Nutzen fortsetzen wird. Lieber als mit der Vergangenheit befassen wir Informatiker uns mit der Zukunft. Die Versuchung ist daher groß, bezüglich der Zukunft unseres Fachs und unserer Branche wenigstens einige generelle Aussagen zu machen. Nur soviel: Es wird sowohl graduelle Verbesserungen geben – also mehr von dem, was wir schon haben – als auch revolutionäre Durchbrüche. Nur das Erste können wir mit einer akzeptablen Zuverlässigkeit vorhersagen, das Zweite nicht. Hierbei kommt nämlich nicht der Fleiß und die Entschlossenheit vieler Akteure zum Tragen, sondern die Kreativität einzelner. Wer den entscheidenden Gedanken wann haben wird, und wo er oder sie sich dann gerade aufhalten, ist in der Regel nicht im Voraus abzuschätzen. Es ist allerdings eine häufig anzutreffende Fehleinschätzung, dass der technische Fortschritt unaufhaltsam ist, also stattfindet, egal ob wir es wollen oder nicht. Dem muss widersprochen werden. Jeder Fortschritt kann entweder gedeihen, stagnieren oder einbrechen. Die Entwick112
lung hängt davon ab, wie sehr die Gesellschaft sich von seinen Ergebnissen Vorteile verspricht, und wie sehr sie seine Erfolge honoriert. Da reicht kein noch so starkes Streben nach technischer Exzellenz aus. Das Engagement darf sich vor allem nicht auf die Forschung beschränken. Es muss der Wille zum unternehmerischen Wagnis dazu kommen. Es müssen neue Produkte oder neue Dienstleistungen entstehen und in den Markt gebracht werden. Nur dadurch wird es überhaupt möglich, aus neuen technischen Errungenschaften gewichtigen gesellschaftlichen Nutzen zu ziehen. Eine dafür förderliche Konstellation – oder Großwetterlage – kann sich verändern, vor allem dann, wenn das gesellschaftliche Interesse sich in eine Richtung entwickelt, die für eine bestimmte Technik ungünstig ist. Die Kernenergie ist das abschreckende Beispiel. Aber auch in der Biologie und Medizin sind Diskussionen im Gange, etwa bei der Gentechnik oder der Stammzellenforschung, die zu einem ähnlichen Ergebnis führen können. Dies kann regional begrenzte Auswirkungen haben, sich aber auch weltweit bemerkbar machen. Einige der in dieser Stoffsammlung angeschnittenen Probleme, die heute noch als begrenzbar erscheinen, könnten auch die Informatik generell in Verruf bringen. Noch eine Bemerkung zu dieser Großwetterlage. Wie Anhang B zeigt, stammen die meisten Erfindungen und Innovationen in der Informatik immer noch aus den USA. Beteiligt daran sind aber nicht nur Firmen, sondern sehr oft Einzelpersonen, vor allem Studenten. Das ist zwar weitgehend bekannt, wird aber in seinen Ursachen nicht immer verstanden. Es ist auch nicht sicher, dass es so bleibt. Die Schwellenländer Indien und China drängen mit Macht nach vorne. Neben den offensichtlichen Erfolgen – sei es in den USA oder woanders – gibt es ein Vielfaches von fehlgeschlagenen Versuchen, von Misserfolgen, über die nicht mehr gesprochen wird. Sie bilden aber geradezu die Voraussetzungen des Erfolgs. Aus ihnen kann man lernen, was man beim nächsten Male besser macht. Schließlich ist nicht jede gute Idee eine Erfindung, und nicht jede Erfindung führt zu einer Innovation. Zusammenhänge wie diese müssen die Techniker – und auch die Informatiker – der Öffentlichkeit immer wieder darlegen. Sie können sich dabei nicht auf Erklärungen von Politikern oder von Medien verlassen. Hierin liegt sicherlich noch ein großes Stück Arbeit für uns alle.
113
114
Literatur (Hier ist nur der Teil der Literaturreferenzen angegeben, den man nicht leichter im Internet findet. In allen andern Fällen gibt es die URL als Anmerkung am Ende des Textes)
Allmendinger, J. (2009): Frauen auf dem Sprung. Pantheon, München Anderson, D.P., Cobb, J., Korpela, E., Lebofsky, M., Werthimer, D. (2002): SETI@home: An Experiment in Public-Resource Computing. Comm. ACM 45,11, 56-61. Bartmann, P. (2009): Die Verantwortung der Wirtschaftsinformatik für die Finanzmarktkrise. Informatik Spektrum 32,2; 146-152 Beck, U. (1987): Risikogesellschaft - Auf dem Weg in eine andere Moderne. Suhrkamp, Frankfurt am Main Bhagwati, J. (2008): Verteidigung der Globalisierung. Pantheon, München Born, G. (2009): Internet - Leichter Einstieg für Senioren - E-Mail, Googeln, Einkaufen, Surfen. Markt und Technik, München Brooks, R. (2005): Menschmaschinen – Wie uns die Zukunftstechnologien neu erschaffen. Fischer, Frankfurt Broy, M., Denert, E., Engeser, S. (2008): Informatik studieren! – Warum nicht? Informatik Spektrum 31,6; 622-624 Burisch, M. (2006): Das Burnout-Syndrom – Theorie der inneren Erschöpfung. (3. Auflage); Springer, Heidelberg Buxmann, P., Diefenbach, H., Hess, Th. (2008): Die Software-Industrie. Ökonomische Prinzipien, Strategien, Perspektiven. Springer, Heidelberg Carr, N.G. (2004): Does IT Matter? Information Technology and the Corrosion of Competitive Advantage. Harvard Business School Press, Cambridge, MA. Cerpa, N., Verner, J. (2009): Why Did Your Project Fail? Comm. ACM 52,12; 130-134 Chillarege, R., Bhandari, I.S., Chaar, J.K., Halliday, M.J., Moebus, D.S., Ray, B.K. Wong, M.Y. (1992): Orthogonal Defect Classification – A Concept of In-Process Measurements. IEEE Trans. Softw. Eng. 18,11; 943-956 Clarke, E.M., Emerson, E.A., Sifakis, J. (2009): Model checking: algorithmic verification and debugging. Comm. ACM, 52,11; 74-84. Cordesman, A.H., Cordesman, J.G. (2003): Cyber-Threads, Information Warfare, and Critical Infrastructure Protection. Defending the U.S. Homeland. Praeger, Westport, CT
115
Dietz, P. (2003): Menschengleiche Maschinen – Wahn und Wirklichkeit der künstlichen Intelligenz. Bühler und Heckel, Berlin Dostal, W. (1997): Informatik-Qualifikationen im Arbeitsmarkt. Informatik Spektrum 20,2; 73-78 Dressel, M. (2008) E-Mail-Knigge: Das Original. Web Gold Akademie, Freital (3.Auflage) Eckert, C. (2009): IT-Sicherheit: Konzepte, Verfahren, Protokolle. (6. Auflage) Oldenbourg, München Endres, A. (1999): Die Informatik als Ingenieurwissenschaft - noch ein Beitrag zu einer nicht endenden Diskussion. Informatik Spektrum 22,6; 439-443 Endres, A. (2001): Akademische und praktische Informatik - zwei Inseln ohne Brücken? Informatik Spektrum 24,6; 378-382 Endres, A. (2003a): Software-Qualität aus Nutzersicht und ihre wirtschaftliche Bewertung. Informatik Spektrum 26,1; 20-25 Endres, A. (2003b): Professionalität und Verantwortung in der Informatik. Informatik Spektrum 26,4; 261-266 Endres, A., Rombach, H.D. (2003): A Handbook of Software and Systems Engineering: Empirical Observations, Laws and Theories. Addison-Wesley, Harlow Endres, A. (2004a): Der Informationsbegriff – eine informatikorientierte Annäherung. Informatik Forsch. Entw. 18; 88–93 Endres, A. (2004b): Wissen bei Menschen und Maschinen – eine informatikbezogene Betrachtung. Informatik Forsch. Entw. 18; 201-206 Endres, A. (2004c): Sind Outsourcing und Offshoring die neuen Heilmittel bei InformatikProblemen? Informatik Spektrum 27,6; 546-550 Friedman, T.L. (2006): Die Welt ist flach. Kurze Geschichte des 21. Jahrhunderts. Suhrkamp, Berlin Gernert, C. (2003): Agiles Projektmanagement: Risikogesteuerte Softwareentwicklung. Hanser, München Glasbergen, R. (2003): Dein Computer denkt, du bist ein Idiot. Lappan, Oldenburg Glass, R.L. (1998): Software Runaways. Lessons Learned from Massive Software Project Failures. Prentice Hall, Upper Saddle River, NJ. Glass, R.L. (2000): Y2K and Believing in Software Practice. Comm. ACM, 43,3; 17-18 Graf, J. (2002): Murphys dümmste Computerfehler. Markt und Technik, München Gunzenhäuser, R. (1968): Nicht-numerische Informationsverarbeitung. Springer, Heidelberg 116
Gunzenhäuser, R., Herczeg, M. (2005): Rechnerunterstütztes Lehren und Lernen im Zeitalter der neuen Medien. grkg/Humankybernetik, 46 (2), 75-81 (Teil 1); 46 (3), 107-112 (Teil 2) Hackl, C., Folberth, O.G. (Hrsg.) (1986): Der Informationsbegriff in Technik und Wissenschaft. Oldenbourg, München Hall, A. (1990): Seven Myths of Formal Methods. IEEE Software, 7,5; 11-19. Heilmann, H., Etzel, H.J., Richter, R. (2003): IT-Projektmanagement – Fallstricke und Erfolgsfaktoren: Erfahrungsberichte aus der Praxis. dPunkt, Heidelberg Hentig, H. von (2008): Die Schule neu denken: Eine Übung in pädagogischer Vernunft. Beltz, Weinheim (5. Auflage) Heuer, A., Saake, G., Sattler, K.U. (2007): Datenbanken. Konzepte und Sprachen: Der fundierte Einstieg in Datenbanken. (3. Auflage), mitp-Verlag, Heidelberg Hitzler, P., Krötsch, M., Rudolph, S., York,S. (2007): Semantic Web: Grundlagen. Springer, Heidelberg Hruschka, P., Rupp, C., Starke, G (2009): Agility kompakt: Tipps für erfolgreiche Systementwicklung. (2.Auflage); Spektrum Akademischer Verlag, Heidelberg Jackson; D., Samulat, G. (2007): Neue Wege zu sicherer Software. Spektrum der Wissenschaft. Januar 2007, 84-89 Jörns, F. (2008): E-Mail-Knigge. Alles, was Sie schon immer über E-Mail wissen wollten und mehr. Lempertz, Bonn Jürgs, M. (2009): Seichtgebiete – Warum wir hemmungslos verblöden. Bertelsmann, München Kaspersky, E. (2008): Malware: Von Viren, Würmern, Hackern und Trojanern und wie man sich vor ihnen schützt. Hanser, München Kemper, A., Eickler, A. (2006): Datenbanksysteme. Eine Einführung. (6. Auflage), Oldenbourg, München Kiefer, P. (2009): Internet für Senioren: Moderne Internet-Dienste für Hobby und Freizeit nutzen. Data Becker, Düsseldorf Klaeren, H. (2006): Viren, Würmer und Trojaner. Streifzüge in der Computerwelt. Klöpfer und Meyer, Tübingen Königs, H.P. (2009): IT-Risiko-Management mit System: von den Grundlagen bis zur Realisierung – ein praxisorientierter Leitfaden. (3.Auflage) Vieweg, Wiesbaden Kornwachs, K. (1997): Um wirklich Informatiker zu sein, genügt es nicht, Informatiker zu sein. Informatik Spektrum 20,2; 79-87 117
Kraemer, K.L., Dedrick, J., Sharma, P. (2009): One Laptop per Child: Vision vs. Reality. Comm. ACM 52,6; 66-73 Kubicek, H., Welling, S. (2000): Vor einer digitalen Spaltung in Deutschland? Annäherung an ein verdecktes Problem von wirtschafts- und gesellschaftspolitischer Brisanz. Medien- & Kommunikationswissenschaft, 48,4; 497-517 Kurzweil, R. (2000): Homo s@piens. Leben im 21. Jahrhundert. Was bleibt vom Menschen? Econ Taschenbuch Kurzweil, R. (2006): The Singularity Is Near: When Humans Transcend Biology. Penguin, New York Lawton, G. (2009): On the Trail of the Conficker Worm. IEEE Computer 42,6; 19-22 Leggewie, C. (2003): Die Globalisierung und ihre Gegner. Beck, München Lessig, L. (2004): Free Culture – How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity. Penguin, New York Levin, U.S. (2000): Schuld war der Computer. Dietz, Berlin Levy, S. (1984): Hackers: Heroes of the Computer Revolution. Doubleday, New York Libet, B. (2005): Mind Time: Wie das Gehirn Bewusstsein produziert. Suhrkamp, Frankfurt Libicki, M.C. (2007): National Security and Information Warfare. Cambridge University Press, Cambridge, MA Ludewig,J., Lichter, H. (2006): Software Engineering. dPunkt, Heidelberg Luhmann, N.: (1997): Die Gesellschaft der Gesellschaft. Suhrkamp, Frankfurt a.M. Lusti, M. (2003): Dateien und Datenbanken. Eine anwendungsorientierte Einführung. Springer, Heidelberg Madden, W.A., Rone, K.Y. (1984): Design, Development, Integration: Space Shuttle Primary Flight Software System. Comm. ACM 27,9; 900-925 Mertens, P. (2009): Schwierigkeiten mit IT-Projekten der öffentlichen Verwaltung. Informatik Spektrum 32,1, 42-49 Mittelstraß, J.: (2009): Am Ende die Unsterblichkeit. Frankfurter Allgemeine Sonntagszeitung vom 16.8.2009 Moravec, H. (1999): Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelligenz. Hoffman und Campe, Hamburg
118
Müller, K., Ammann, M. (2002): Computeritis. Ein fröhliches Wörterbuch für alle Soft- und Hardwarefreunde, Desktop- und Tower-Freaks, Laptop- und Notebook-Hörigen sowie für alle, die ihren Steckplatz schon lange gefunden haben. Tomus Verlag. Nadolny, S. (1983): Die Entdeckung der Langsamkeit. Piper, München Neumann, P.G. (1994): Computer-Related Risks. Addison-Wesley, Reading. MA Palfrey,J., Gasser,U. (2008): Generation Internet. Die Digital Natives: wie sie leben; was sie denken, wie sie arbeiten. Hanser, München Penrose, R. (1989): The Emperor’s New Mind. Oxford University Press, Oxford Pohl, M. (2007): Soziale Ungleichheit im digitalen Zeitalter. VDM Müller, Saarbrücken Rechenberg, P. (2003): Zum Informationsbegriff der Informationstheorie. InformatikSpektrum 26,5; 317-326 Reheis, F. (2003): Entschleunigung. Abschied vom Turbokapitalismus. Riemann, München Reheis, F. (2008): Die Kreativität der Langsamkeit - Neuer Wohlstand durch Entschleunigung. (3.Auflage), WGB Darmstadt Schinzel, B. (1991): Frauen in Informatik, Mathematik und Technik. Informatik Spektrum 14,1; 1-14 Schirrmacher, F. (2009): Payback. Blessing, München Schumann, H., Müller, W. (1999): Visualisierung: Grundlagen und allgemeine Methoden. Springer, Heidelberg Seibold, H. (2006): IT-Risikomanagement. Oldenbourg, München Sommerville, I. (2007): Software Engineering. (8. Auflage); Pearson, München Stickel, E. (2001): Informationsmanagement. Oldenbourg, München Toffler, A. (1970): Future Shock. Bantam Books, New York Trojanow, I., Zeh, J. (2009): Angriff auf die Freiheit: Sicherheitswahn, Überwachungsstaat und der Abbau bürgerlicher Rechte. Hanser, München Weizenbaum, J. (1977): Die Macht der Computer und die Ohnmacht der Vernunft. Suhrkamp, Frankfurt am Main Weizenbaum, J. (2008): Social and Political Impact of the Long-term History of Computing. IEEE Annals of the History of Computing 30,3; 40-42 Wieczorek. H.W., Mertens, P. (2008): Management von IT-Projekten: Von der Planung zur Realisierung. Springer, Berlin
119
Wieczorek, Th. (2009): Die verblödete Republik: Wie uns Medien, Wirtschaft und Politik für dumm verkaufen. Droemer/Knaur, München
120
Anhang A
Tabellarische Zusammenfassung der Aussagen des Buches Vorbemerkung: Die folgenden zwei Tabellen geben für jedes der 36 angesprochenen Probleme eine Gewichtung sowie einen Hinweis auf die primär Betroffenen sowie auf den vermutlichen Verursacher. Zur Bewertung der Bedeutung des Problems für Nutzer, Wirtschaft und Gesellschaft wurden folgende Gewichte gewählt: 2 = schwer, 1 = mittel und 0 = gering. Für differenzierende Aussagen sei auf die als Referenz angegebenen Kapitel verwiesen. Ref. Problem 2.1 2.2 2.3 2.4 2.5 3.1
Quelle von Frust Droge für Könner und Spieler Schwarzes Loch Virenschleuder und Datenmüll Freiwillige Entblößung
Ge- Betroffene wicht 1 1
Gelegentliche Nutzer Umfeld der Entwickler und Nutzer Alle ernsthaften Nutzer Alle Nutzer
Informatik-Industrie Entwickler, Spieler
Nutzer selbst
2
Jugendliche, Gelegentliche Nutzer Alle ernsthaften Nutzer
1 1 1
Informatik-Anwender Informatik-Anwender Informatiker(innen)
Entwickler, Projekt-Nehmer Software-Anbieter Informatik-Industrie
1
Alle Bürger
0
Wissenschaft, Medien, Nutzer Informatik-Anwender
1 2 1
4.1
Kaum Software ohne Fehler Friedhof für Projekte Lock-In der Nutzer Hamsterrad Globalisierung Überflutung mit Information Notorischer Job Killer
4.2
Energieverschwendung
2
Gering qualifizierte und ältere Angestellte Umwelt
4.3
Irrelevanz für Unternehmenserfolg Zunehmende Eigentumsdelikte Geistiges Eigentum in Gefahr
0
Unternehmen
2 1
Elektronischer Handel, Bankkunden Autoren, Künstler, Erfinder
4.6
Cyberkrieg
1
Staatliche Einrichtungen
4.7
Megarisiken
1
Unbeteiligte Gruppen von Mitbürgern
3.2 3.3 3.4 3.5
4.4 4.5
Verursacher
Tab. A1: Zusammenfassung (Teil 1)
121
Entwickler, Nutzer Hacker, Spammer
Software-Entwickler
Hardware-Industrie, Anwenderfirmen, Haushalte Informatik-Abteilungen Einzelne Ganoven, Organisiertes Verbrechen Jugendliche, InternetPioniere, Alternative Gruppen Gegnerische Staaten, organisiertes Verbrechen Menschliches Versagen, Naturereignisse, EntwicklerFehler
Ref. Problem 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 6.1 6.2 6.3 6.4 6.5 7.1 7.2 7.3 7.4 7.5
Ge- Betroffene wicht
Gläserner Kunde und gläserner Bürger Großer Bruder Kinderpornografie und Cybermobbing Verblödung der Spezies Mensch Soziale Vereinsamung Digital Divide
1
Großunternehmen, Verwaltungen Behörden, Polizei Verbrecherische Cliquen
Computer-Freaks Fortschritt der Technik
0
Computer Freaks Entwicklungsländer, Frauen, Alte, Arme, Ungebildete Viele Menschen
0 0
Gesellschaft Bildungswesen
Wirtschaft, Wissenschaft, Technik Technik, sorglose Nutzer Fortschritt der Technik
1
Wissenschaft insgesamt
Einzelne Wissenschaftler
0
Behinderte, DemenzPatienten Philosophen, Religionen
Medizinische Technik
Philosophen, einige ängstliche Menschen Philosophen, Religionen Schüler, Berufseinsteiger
Experimentierende Wissenschaftler, Terroristen ‚Harte’ KI-Forschung Informatiker Berufs- und Arbeitswelt
1
Berufseinsteiger, Familienangehörige An Informatik-Beruf interessierte Mädchen Praxis, Studierende
2
Informatiker(innen)
Informatiker(innen), Arbeitgeber
0 0 1
1 0
Ewiges Leben als Monster Informatiker als Eigenbrötler Verbreitetes BurnoutSyndrom Kein Beruf für Frauen Praxisferne der Akademiker Pionier oder Trendhüpfer
Konsumenten, Patienten, Bürger Zivilgesellschaft Unvorsichtige ComputerNutzer Schüler, viele Erwachsene
1 2
Verschleunigung des Lebens Zerstörung der Kultur Untergang des Bildungswesens Modell-Gläubigkeit statt Wissenschaft Mensch-MaschineMischwesen Angriff auf das Menschenbild Bösartige Maschinen
Verursacher
0 1 0 0
Tab. A2: Zusammenfassung (Teil 2)
122
Massenmedien
‚Harte’ KI-Forschung
Hochschulen, Industrie Hochschulen
Anhang B
Ausgewählte Erfindungen und Innovationen in der Informatik Vorbemerkung: Es werden hier vor allem solche Erfindungen und Innovationen aufgeführt, die wirtschaftliche Relevanz hatten, und deren Wirkung auch dem fachlich nicht vorbelasteten Nutzer erkennbar ist. Es wird der Zeitraum der letzten 30 Jahre (etwa seit dem Aufkommen des PC) berücksichtigt. In einigen Fällen wird unter dem Namen des Erfinders auf wichtige Vorarbeiten hingewiesen. Jahr
Erfindung/Innovation
1977 1978
RSA-Verschlüsselungsverfahren116 Tabellenkalkulation (Visicalc)117
R.L. Rivest, A. Shamir, L. Adleman D. Bricklin, B. Frankston
1979 1980 1980
Tintenstrahl-Drucker Auszeichnungssprache SGML118 RISC-Architektur
NN C. Goldfarb J. Cocke, G. Radin
1981 1982
D. Estridge, et al. D. Astrahan, M. Blasgen, et al. (Relationenmodell E.Codd) J.E. Warnock, C. Geschke
1983 1983
IBM PC (Offene Struktur) Relationales Datenbanksystem (System R)119 Seitenbeschreibungssprache Postscript120 Programmiersprache C++ Betriebssystem Windows
1983
Musik-Schnittstelle MIDI
1984 1984 1984
Apple McIntosh CASE-System Excelerator Geschäftsprozessmodellierung (ARIS-Plattform)121 MP3-Komprimierung122 Internet123
1982
1986 1987
1988 1989 1989 1989 1990
Krabbelnder Roboter (Ghengis) CASE-System AD/Cycle Mikroprozessor Intel 386 (2,5 MIPS) Kollaborations-Software (Lotus Notes)124 Auszeichnungssprache HTML, World Wide Web
Erfinder/Innovator
B. Stroustrup B. Gates, et al. (WIMP-Architektur von Xerox Park, D. Englebert) D. Smith S. Jobs, et al. NN A. W. Scheer K. Brandenburg, et al. R. Kahn, V. Cerf, P. Kirstein, R. Tomlison (Paketvermittlung L. Kleinrock) R. Brooks B. Meyers, G. Radin, et al. NN R. Ozzie T. Berners-Lee, R. Cailliau
Firma/Institution MIT Cambridge, MA Harvard University, Visicorp Canon, Hewlett-Packard IBM San Jose, CA IBM Yorktown Heights, NY IBM Boca Raton, FL IBM Almaden, CA Adobe Systems, San Jose, CA ATT Murray Hill, NJ Microsoft, Redmond, WA
North American Music Manufacturer Assoc. Apple, Cupertino, CA Intersolv, Rockville, MD Universität Saarbrücken Fraunhofer Erlangen DARPA, Stanford Univ., Univ. of London, BBN MIT Cambridge, MA IBM Santa Teresa, CA Intel, Santa Clara, CA Lotus Corp., Cambridge, MA CERN Genf
Tab. B1; Erfindungen und Innovationen (Teil 1)
123
Jahr
Erfindung/Innovation
1990 1990 1990
Elektronische Tinte (E-Ink) Spracherkennungs-Software125 GPS-Navigationsgeräte für Autos126 Betriebssystem Linux ERP-Anwendung R/3
1991 1992 1993 1993 1994 1995 1995 1995 1996 1996 1996 1997 1997 1998 1999 2000 2000 2001 2003 2004 2005 2005 2007
Web-Browser Mosaic127, Mikroprozessor Intel Pentium (3.2 MIPS) Buchhandel im Internet Programmiersprache Java Online-Versteigerung (eBay) VoIP Übertragung im Internet128 Entwurfssprache UML Auszeichnungssprache XML Page-Ranking-Verfahren (Suchmaschine Google)129 Mehrdimensionale Speicherorganisation (UB-Bäume)130 Pflege-Roboter Asimo Drahtlose E-Mail (Blackberry)131 Peer-to-Peer File Sharing (Napster)132 Offene Enzyklopädie (Wikipedia) Gerät zum Schutz von Daten und Programmen133 Doppelkern-Prozessor (Power 5)134 Kostenlose VoIP Software (Skype)135 Soziale Netzwerke (Facebook)136 Freie Video-Plattform (Youtube)137 Vielkern-Prozessor (Cell Broadband Engine)138 Intelligentes Telefon mit Berührbildschirm (iPhone)
Erfinder/Innovator
Firma/Institution
J. Jacobson J. & J. Baker NN
MIT Cambridge, MA Dragon Systems Pioneer, Tokio
L. Torvalds H. Plattner, D. Hopp, K. Tschira M. Andresen NN
University of Helsinki SAP Walldorf University of Illinois Intel, Santa Clara, CA
J. P. Bezos J. Gosling P. Omidyar NN G. Booch, J. Rumbaugh, et al. NN L. Page, S. Brin
Amazon, Seattle, WA Sun Microsystems eBay, San Jose, CA VocalTec, Israel Rational Software WWW Consortium Stanford University
R. Bayer
TU München
NN M. Lazaridis
Honda, Tokio RIM Waterloo, Ontario
S. Fanning J. D. Wales
North Western Univ. Boston Chicago, IL
M. Buchheit, O. Winzenried
Wibu Systems, Karlsruhe
J.M. Tendler, et al.
IBM Riverton, NJ
J. Friis, N. Zenstrom
M. Gschwind, et al.
Skype Tallinn, Estland Havard University, Camdridge, MA PayPal, Palo Alto, CA IBM, Sony, Toshiba
S. Jobs, et al.
Apple, Cupertino, CA
M. Zuckerberg C. Hurley, S. Chen, J. Karim
Tab. B2: Erfindungen und Innovationen (Teil 2)
124
Index (Es wurden nur Begriffe und Personennamen aufgenommen, die nicht auch im Inhalts- oder Literaturverzeichnis erscheinen)
eLearning 74 Electronic Frontier Foundation 43 Empirisches Software Engineering 23, 85 Energieeinsparung 37 Entschleunigung 67 Entwicklerproduktivität 25 Erchov, Andrej 20 Estland, Cyberangriff 46 Ethische Leitlinien der GI 110 Experiment 84 Fifth Generation 88 Fördermaßnahmen des Bundes 28 Formale Methoden 21 Frauenanteil 102 Freier Wille 93 Funketiketten 53 Fußball spielende Roboter 88 Future Store von Metro 53 Gaschke, Susanne 67 Geek 98 Gefühle 90 Gehirndoping 87 Geistiges Eigentum 42 Geschlossenes System 7 Globalisierung 29 Globus der Naturgefahren 49 Google 7, 32, 71 Grafische Oberfläche 6 Hacker 15 Halbwertszeit des Wissens 68 Haltbarkeit von Daten 11 Herzogin-Anna-Amalia-Bibliothek 12 Human-Genom-Projekt 82 Hype 108 Hypermedia-System 76 Hypertext-System 76 IBM 20, 38 Individualisierung 62 Informatikprodukt 3 Informatikprojekt 23 Informatikstrategie 40 Informatikstudium 107 Informatiksystem 2 Informationelle Selbstbestimmung 52
Abstraktion 84 Aggregation 105 Agilität 25 Anthropomorphismus 94 Antiviren-Software 15 Apple 7, 44 Asymmetrischer Krieg 45 Bechtolsheim, Andreas von 96 Beinahe-Flugzeugabsturz 48 Bendrath, Ralf 53 Berufliche Qualifikation 74 Berufsethik 108 Beta-Phase 22 Bewusstsein 90 Bibliotheken 71 Bildung 74 Bindestrich-Informatik 107 BITKOM 28, 37, 45 Blogs 61 Bologna-Prozess 76, 110 Bolz, Norbert 59 Brain-Computer-Interface 86 Browser 12 Chaos Computer Club 110 Cochlea-Implantat 86 Computer im Auto 49 Computeritis 10 Computerspiele 10 Computer-Virus 14 Conficker-Wurm 15 Customer Relationship Management 51 Cybermobbing 57 Cyberstalking 18 Datenbanksysteme 14 Datenformate 12 Datensicherung 13 Denial of Service Attacks 45 Denken 89 Deutsche Informatik-Akademie 101 Deutscher Kulturrat 74 Dialer-Programm 14 Dienstleistungen 29 Diffusionskurve 65 Digitale Kunst 72 125
Präventive Sicherheit 53 Print-Medien 42, 71 Produktivitätsparadoxon der IT 39 Professionelle Einstellung 108 Projekt CYC 92 Projekt SETI 83 Prototyp 22 Quellfreier Code 43 Raub von Kreditkarten-Nummern 40 Raumfahrtindustrie 22 Rechnernetz 32 Rieplsches Gesetz 72 Risikomanagement 48 Röntgen-Pulsar 82 RSS-Feed 61 Ruder, Hanns 82 SAP 28, 48 Schad-Software 14 Scheer, August Wilhelm 37 Scheich, Henning 60, 70 Second Life 63 Semantisches Web 33 Service-Blockierer 14 SIAM-Modell 81 Sicherungskopie 13 Simulationsmodell 82 Smart Phone 7 Software als Dienst 7 Software als Wissensprodukt 26 Software-Fehler 19 Software-Markt 26 Software-Pflege 26 Software-Piraten 43 Software-Produkthaftung 21 Soziale Netzwerke 63 Spam 15 Spielsucht 10 Spracheingabe 6 Sprachen im Internet 70 Stallman, Richard 43 Standish Group 23 Tabellenkalkulation 9 Technische Evolution 95 Theoriebegriff 105 Tragbarer Service-Rechner 31 Trojanisches Pferd 14 Twitter 61 Unified Resource Locator 12 Unruhen im Iran 54 Urheberrecht 41 Varian, Hal 30
Informationsbegriff 30 Informationsdiät 32 Informationskultur 33 Informationsquelle 70 Informationstechnik 3 Informatisierung 35, 46 Ingenieurtätigkeit 107 Intelligenz 59 Interaktive Lernplattform 76 Internet 12 Internet Community 57 Internet-Durchdringung 66 IT-Berufe 107 IT-System 2 Jahr-2000-Problem 19 Jaynes, Julian 90 Jobs, Steven 44 Journalistenberuf 73 Joy, Bill 96 Killerspiele 61 Kommunikatives Lernsystem 77 Können 78 Kooperatives Lernsystem 77 Kreatives Mischen 42 Kubrick, Stanley 92 Kultur 69 Künstliche Intelligenz 87 Künstliches Leben 94 Leyen, Ursula von der 56 Lkw-Maut 24 McCarthy, John 88 Metzinger, Thomas 92 Minsky, Marvin 92 MINT-Berufe 101 Model Checking 21 Modell 82 Napster 41 Negroponte, Nicholas 66 Nerd 98 Netzwerk-Effekt 26 O’Reilly, Tim 17 Obama, Barack 55 One Laptop per Child 66 Orwell, George 53 Papierloses Büro 36 Patentrecht 43 Persönliche Identität 18 Piraten-Partei 42 PISA-Studie 59 Positiver Ertragszuwachs 26 Postman, Neil 32 126
Vierphasenmodell 35 Visualisierung 33 Web 2.0 17 Weltraumrakete Ariane 20 Wertschöpfungskette 27 Wettervorhersage 82 White IT 58 Wikipedia 44, 60
Wirtschaftsinformatik 107 Wissensbegriff 67 Wissenschaftliches Rechnen 81 Wissensmanagement 69 World Wide Web 12 Youtube 71 Zivilisation 69
127
Anmerkungen Kapitel 2 1
http://ddi.cs.uni-potsdam.de/HyFISCH/Informieren/Internet/Wellenreiten.pdf
2
http://www.dgph.de/PP_23_2007.pdf?PHPSESSID=2auakj3mpjek9dgvmhl65irt26
3
Dass andere Betriebssysteme weniger gefährdet sind, hängt hauptsächlich damit zusammen, dass sie eine erheblich geringere Verbreitung haben. Sie sind weniger attraktiv für die Entwickler von Schad-Software.
4
http://www.bsi.de
5
http://oreilly.com/web2/archive/what-is-web-20.html
6
http://www.jugendschutz.net/eltern/surfen/
7
http://www.deinguterruf.de/
Kapitel 3 8
http://www2.computer.org/portal/web/csdl/abs/proceedings/ecbs/1997/7889/00/7889toc.htm
9
http://bundesrecht.juris.de/prodhaftg/BJNR021980989.html
10
In der Hardware-Entwicklung kannte man bei IBM den A- und B-Test. Der A-Test war vor der Ankündigung, der B-Test vor der Auslieferung eines Produktes. Auf Software angewandt sprach man von Alpha- und BetaTest.
11
http://nist.gov/director/prog-ofc/report02-3.pdf
12
http://www.standishgroup.com/newsroom/chaos_2009.php
13
http://www2.sims.berkeley.edu/research/projects/how-much-info-2003/execsum.htm
14
http://de.wikipedia.org/wiki/Herbert_Klaeren
15
http://www.aktionlesen.de/
Kapitel 4 16
http://www.wissensgesellschaft.org/themen/bildung/arbeitundlernen.pdf
17
http://www.bitkom.org/60432_60428.aspx
18
http://www.energystar.gov/ia/partners/prod_development/downloads/EPA_Datacenter_Report_Congress_ Final1.pdf
19
http://www.chip.de/artikel/Tipps-zum-Stromsparen-bei-Computern-und-Consumer-Electronic2_12892409.html
20 21
http://www-03.ibm.com/press/de/de/pressrelease/27849.wss
Für sein Buch benutzte Carr die Frageform ‚Does IT matter?’ als Titel. Die Aussageform stammt von der vorab in mehreren amerikanischen Zeitungen und Magazinen erschienenen Kurzfassung.
128
22
http://www.ftd.de/unternehmen/industrie/:anklage-gegen-betrueger-groesster-kreditkartenklau-in-denusa/554916.html
23
http://www.bitkom.org/files/documents/BITKOM_BKA_Infoblatt_Schutz_vor_IT-Kriminalitaet.pdf
24
http://www.bitkom.org/de/presse/8477_61310.aspx
25
http://wiki.media-culture.org.au/index.php/Napster
26
http://www.piratenpartei.de/navigation/politik
27
https://www.ffii.de/
28
http://de.wikipedia.org/wiki/Richard_Stallman
29
http://global.bsa.org/globalpiracy2008/studies/globalpiracy2008.pdf
30
http://de.wikipedia.org/wiki/Jimmy_Wales
31
http://www.gi-ev.de/themen/geistiges-eigentum.html
32
http://www.bitkom.org/files/documents/leitfaden_patente_01_(2).pdf
33
http://www.tagesspiegel.de/politik/international/art123,1785339
34
Experten meinen, dass man nicht zu befürchten brauche, dass Al Qaida das Internet als Ganzes funktionsunfähig machen wird. Die Organisation sei selbst zu abhängig davon.
35
http://www.sueddeutsche.de/panorama/503/473022/text/
36
http://www.techradar.com/news/computing/why-computers-suck-at-maths-644771
37
http://www1.sap.com/germany/about/investor/reports/gb2004/de/financials/anhangD31.html
38
http://doi.acm.org/10.1145/1598732.159753
39
http://idw-online.de/pages/de/news287868
40
http://www.munichre.com/app_pages/press/press_releases/2009/2009_02_16_press_release_de.pdf
Kapitel 5 41
http://www.schufa.de
42
http://www.datenschutz.de/recht/grundlagen/
43
http://www.wisys.co.uk/solutionsRFID.htm
44
http://www.wdr.de/themen/politik/deutschland/glaeserner_buerger/070725.jhtml
45
http://www.soz.unifrankfurt.de/K.G/B7_2007_Bendrath
46
Obama hat nicht nur während seines Wahlkampfes ausgiebig von Twitter Gebrauch gemacht. Er setzt dies auch während seiner Präsidentschaft fort. Mehr als eine Million Nutzer auf der ganzen Welt erhalten – sofern sie dies noch aushalten können – täglich zwischen 10 und 20 Nachrichten von seinem Mitarbeiterstab.
47
http://www.bpb.de/files/5HRV9G.pdf
48
http://www.fdp-bundespartei.de/files/363/091024-koalitionsvertrag-cducsu-fdp.pdf
49
http://dip21.bundestag.de/dip21/btd/16/134/1613411.pdf
50
http://www.gew.de/GEW_stellt_Studie_zu_Cybermobbing_vor.html
129
51
http://www.computerwoche.de/hardware/home-it/1886584/index2.html
52
http://www.whiteit.de/
53
http://planet-interview.de/interview-norbert-bolz-14052009.html
54
http://www.theatlantic.com/doc/200807/google
55
http://www.spiegel.de/netzwelt/web/0,1518,330460,00.html
56
http://www.mediengewalt.de/_arc/pre/faz/006-10.htm
57
http://secondlife.com/
58
http://fabianschwarz.wordpress.com/2006/09/19/von-wegen-vereinsamung-am-pc/
59
http://www.ohrfunk.de/
60
http://pewinternet.org/~/media//Files/Reports/2009/PIP_Tech_and_Social_Isolation.pdf
61
http://www.ard-zdf-onlinestudie.de/fileadmin/Online09/Eimeren1_7_09.pdf
62
http://wiki.spread-digital-literacy.eu/wiki/Innovation
63
http://www.itu.int/ITU-D/ict/statistics/ict/graphs/internet.jpg
64
http://www.linux-magazin.de/Heft-Abo/Ausgaben/2009/01/Anstoessig
65
http://www.wegeinsnetz2008.de/downloads/win08_broschuere.pdf
66
http://www.zeit.de/2007/43/Lebensformen
67
http://www.spiegel.de/netzwelt/web/0,1518,330460,00.html
68
http://www.internetworldstats.com/stats7.htm
69
http://www.awa-online.de/praesentationen/awa08_Junge_Generation.pdf
70
http://www.tab.fzk.de/de/projekt/zusammenfassung/ab74.htm
71
http://www.internet-manifest.de/
72
http://www.kulturrat.de/detail.php?detail=1285
73
http://zfh.uni-duisburg-essen.de/files/EUniversity_Bericht.pdf
74
http://www.campus-online.uni-stuttgart.de/self-study/projekte/
75
http://www.fernuni-hagen.de/imperia/md/content/studium/bu_ws_09_10_komplett.pdf
76
http://www.vhb.org/fileadmin/download/2009_07_15_FAZ_01.pdf
77
http://www.lernagentur.de/
78
http://www.bmwi.de/BMWi/Navigation/Service/publikationen,did=322526.html
79
http://www.ed.gov/rschstat/eval/tech/evidence-based-practices/finalreport.pdf
80
http://pd.acm.org/cp_home.cfm
Kapitel 6 81
http://www.siam.org/meetings/cse03/
82
http://www.ornl.gov/sci/techresources/Human_Genome/home.shtml
83
http://www.wissenschaft.de/wissenschaft/hintergrund/172954.html
84
http://setigermany.de/
85
Moderne Navigationssysteme müssen als Erstes die Polabplattung berücksichtigen, die etwa 21 km beträgt. Aber auch andere Abweichungen der Kugelgestalt sind durchaus signifikant.
86
http://cacm.acm.org/blogs/blog-cacm/48033-the-rise-of-empirical-software-engineering-i-the-goodnews/fulltext
130
87
http://nachrichten.t-online.de/c/14/95/03/84/14950384.html
88
http://www.spiegel.de/wissenschaft/natur/0,1518,553296,00.html
89
http://www.pressestelle.tu-berlin.de/?id=60752
90
http://www.3sat.de/dynamic/sitegen/bin/sitegen.php?tab=2&source=/nano/bstuecke/31315/index.html
91
Als ein japanischer Kollege von diesen Erklärungsversuchen hörte, wies er sie energisch zurück. Der Grund sei vielmehr, dass kein japanischer Forscher in den Ruf gelangen möchte, dass er seine Zeit oder gar öffentliches Geld in Spiele investiere.
92
http://www-formal.stanford.edu/jmc/reviews/penrose1.html
93
http://www.julianjaynes.org/overview.php
94
http://www.eetimes.com/story/OEG20030728S0027
95
http://www.cyc.com/
96
http://www.3sat.de/mediathek/mediathek.php?obj=13269
97
http://parallel.hpc.unsw.edu.au/complex/alife8/presenters.html
98
Trotz ihrer Namensähnlichkeit sind Neuronen und neuronale Netze nicht eineindeutig aufeinander abbildbar. Letztere stellen nur eine mathematische Abstraktion eines Teils der Funktionalität von Neuronen dar. Dass man außerdem einige Milliarden von ihnen benötigt, um den Inhalt eines einzigen menschlichen Gehirns wiederzugeben, ist das kleinere Problem.
99
http://www.wired.com/wired/archive/8.04/joy.html
100
http://dict.leo.org/forum/
Kapitel 7 101
http://www.welt.de/finanzen/karriere/article3358768/Die-IT-Branche-hat-ein-Imageproblem.html
102
http://www.dia-bonn.de/
103
http://www.oecd.org/dataoecd/16/30/36645825.pdf
104
http://www.destatis.de/presse/deutsch/pk/2005/hochschulstandort_d_2005i.pdf
105
http://www.komm-mach-mint.de/
106
http://www.cs.cmu.edu/~lblum/PAPERS/TransformingTheCulture.pdf
107
http://www1.gi-ev.de/fachbereiche/fa_81/
108
http://www.it-jobs.stepstone.de/content/de/de/berufsglossar.cfm
109
http://www.bmbf.de/pub/it-berufe.pdf
110
http://www.his.de/pdf/pub_fh/fh-200902.pdf
111
http://www.comp.leeds.ac.uk/roger/Famous/results.html
113
http://www.gi-ev.de/wir-ueber-uns/unsere-grundsaetze/ethische-leitlinien/
114
http://www.gi-ev.de/fileadmin/redaktion/Download/was-ist-informatik-lang.pdf
115
http://www.ccc.de/de/
Anhang B 116
http://people.csail.mit.edu/rivest/Rsapaper.pdf
117
http://inventors.about.com/library/weekly/aa010199.htm
118
http://xml.coverpages.org/sgmlhist0.html
119
http://www.mcjones.org/System_R/SQL_Reunion_95/SRC-1997-018.pdf
131
120
http://www.mefco.com/psc/intro.html
121
http://www.ids-scheer.de/de/Ueber_uns/IDS_Scheer_Gruppe/7363.html
122
http://www.spiegel.de/netzwelt/tech/0,1518,43915,00.html
123
http://www.isoc.org/internet/history/brief.shtml
124
http://www.ibm.com/developerworks/lotus/library/ls-NDHistory/
125
http://www.dragon-medical-transcription.com/historyspeechrecognition.html
126
http://www.strassenkarten-landkarten.de/html/was_ist_mobile_gps_navigation.html
127
http://www.ncsa.uiuc.edu/AboutUs/Overview/History.html
128
http://www.voip-information.de/voip-geschichte/voip-geschichte.html
129
http://www.google.com/corporate/history.html
130
http://wwwbayer.in.tum.de
131
http://www.brighthub.com/office/collaboration/articles/8041.aspx
132
http://wiki.media-culture.org.au/index.php/Napster
133
Patent-Nr. EP1184771 vom 9.9.2004
134
http://portal.acm.org/citation.cfm?id=1148884
135
http://www.skype-headset.de/skype-geschichte/
136
http://mashable.com/2006/08/25/facebook-profile/
137
http://www.youtube.com/watch?v=x2NQiVcdZRY
138
http://domino.research.ibm.com/comm/research.nsf/pages/r.arch.innovation.html
132