173 25 1MB
German Pages 256 [242] Year 2007
Simone Kimpeler · Michael Mangold Wolfgang Schweiger (Hrsg.) Die digitale Herausforderung
Simone Kimpeler Michael Mangold Wolfgang Schweiger (Hrsg.)
Die digitale Herausforderung Zehn Jahre Forschung zur computervermittelten Kommunikation
Bibliografische Information Der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage 2007 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2007 Lektorat: Barbara Emig-Roller Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-15477-0
Inhalt Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation" ......................9 Gerhard Vowe Einführung: Computervermittelte Kommunikation als Forschungsgegenstand in der Publizistik und Kommunikationswissenschaft............................................................................15 Simone Kimpeler, Wolfgang Schweiger
Gastbeiträge Vom Rechenautomaten zum elektronischen Medium: Eine kurze Geschichte des interaktiven Computers .............................................................27 Michael Friedewald Reflektierte und populäre Kritik der elektronischen Massenmedien. Anforderungen an eine kritische und gestaltende Medienforschung..................39 Roger Häussling, Michael Mangold
Kommunikatoren in der Onlinekommunikation Stabilität und Wandel von Weblog-Praktiken: Erste empirische Befunde ..............................................................................................................51 Jan Schmidt Sechs Podcast-Sendetypen und ihre theoretische Verortung..............................61 Dennis Mocigemba
6
Inhalt
Aneignung, Nutzung und Wirkung von Onlinemedien Ein integratives Modell der Aneignung mobiler Kommunikationsdienste.....................................................................................77 Werner Wirth, Thilo von Pape, Veronika Karnowski Wirkungsmodelle: die digitale Herausforderung revisited. Forschungsstand zu Wirkungen von Online-Kommunikation – ein rückblickender Essay .........................................................................................91 Patrick Rössler
Markt- und Akzeptanzstudien Mit gebremster Kraft voraus? Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer .............................................................107 Oliver Quiring Online-Rubriken als Innovationen in der Marktkommunikation – Strukturwandel im Anzeigengeschäft ..............................................................121 Castulus Kolo Zielgruppenorientiertes eLearning – ein Angebot auch für ältere Menschen? .......................................................................................................135 Peter Georgieff
Onlinekommunikation als interpersonale Kommunikation Multimediale Gespräche in Skype: Hybridisierung von Gebrauchsweisen in der interpersonalen Kommunikation ...............................149 Martina Joisten
Inhalt
7
Zur Entwicklung des Digital Storytelling am Beispiel der Videostories im Internet ...................................................................................159 Julie Woletz Kommunikation im Computerspiel ..................................................................171 Jan-Noël Thon Involvementsituationen im Internet-Chat: Was passiert bei der Onlinekommunikation?....................................................................................181 Markus Schubert, Nadin Ernst
Onlinekommunikation als Netzwerk Soziale Netzwerke und die Frage nach der Effizienz.......................................197 Harald Rau Von der Gaming zur Working Community: Was können virtuelle Arbeitsorganisationseinheiten von Computerspielgemeinschaften lernen?..............................................................................................................209 Jörg Müller-Lietzkow
Onlinekommunikation aus politischer Sicht Innovation oder Konvergenz im Online-Wahlkampf? Deutsche Partei-Websites zu den Bundestagswahlen 2002 und 2005 .............................229 Eva Johanna Schweitzer Leben in verschiedenen Welten? Themenagenden von Offlinern und Onlinern im Vergleich......................................................................................239 Martin Emmer, Jens Wolling Autorenverzeichnis ..........................................................................................251
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation" Dinner Speech zum zehnten Geburtstag der Fachgruppe "Computervermittelte Kommunikation" Gerhard Vowe
10 Jahre Fachgruppe "CVK"! 10 Lichtlein brennen! 10 Jahre sind ein Wimpernschlag in der Mediengeschichte, aber für die Kommunikationswissenschaft, die ja nicht gerade zu den ursprünglichsten Disziplinen gehört, sind 10 Jahre doch ein recht ansehnlicher Zeitraum. Überhaupt sind 10 Jahre das schönste Jubiläum. Da ist die Kraft des Anfangs noch nicht ganz verflogen, da ist der Aufbruch noch gegenwärtig, aber das Risiko des Scheiterns ist minimal geworden. Mit 10 Jahren ist man wer, da ist man etabliert, aber noch nicht saturiert. Dagegen 20 Jahre – regelrecht peinlich. Und wenn man dann ein 25-jähriges Jubiläum feiert, "silberne Hochzeit", da kommt man sich dann schon sehr alt vor. Ab dann kommen die Feier-Einschläge immer dichter, hinterher feiert man jedes Jahr Jubiläum, weil man nicht weiß, ob man sich danach noch mal sieht. 30 Jahre: das klingt nur noch nach Tradition und Rückschau, nach alten Herren auf der Suche nach der verlorenen Zeit. Eine einziges Gejammere, wie schwierig es früher war, aber auch wie schön, und überhaupt.... "Und wie geht's mit Deinen Knien?" Also 10 Jahre kann man unbeschwert feiern, und da ist dann auch eine Rückschau erlaubt – mit heiterem Unterton, aber auch mit Momenten, die ein wenig besinnlich stimmen, passend zur heraneilenden Adventszeit. Wie fing es an? 1996 ist die FG als "Arbeitsgruppe Computervermittelte Öffentliche Kommunikation" ins Leben gerufen worden. "Fachgruppen" gab es erst später, erst dann wurden die Sprecher und Stellvertreter gewählt. Vorher wurde das Amt vererbt. Die Länge des Namens macht misstrauisch. Da hatte sich ein Bereich noch nicht gefunden, er suchte noch nach seinem Gegenstand und nach einem Etikett danach. Der Name war ein Notbehelf, vorab ein Amerikanismus, dem "Computer mediated" nachempfunden, veredelt durch das alteuropäische "öffentlich" und dann das deutliche Bekenntnis zur Kommunikationswissenschaft. Ein langer Name, 20 Silben. So viel hatte keine andere Fachgruppe. Eine glänzende Bestätigung eines ehernen Gesetzes der Onomastik, der Namenkunde: je länger der Name eines Gemeinwesens oder einer Vereinigung,
10
Gerhard Vowe
desto geringer ihre Reputation. Wir waren die Demokratische Republik Kongo der DGPuK, ihr schwarzes Herz. Die Fachgruppe "CÖK" ist "damals" quer zu der Systematik der Fachgruppen der DGPuK gegründet worden. Eigentlich gehört es sich nicht für eine Kommunikationswissenschaft, sich nach einzelnen Medien zu differenzieren. Das überlassen wir eigentlich den Film- und Fernsehwissenschaftlern. Die Ausnahme wurde aus mehreren Gründen gemacht: Man sah im Vorstand der DGPuK, dass dieses Themenfeld rasch an Boden in der wissenschaftlichen und öffentlichen Diskussion gewinnen würde, und wollte dabei als Fachgesellschaft Flagge zeigen, dafür sorgen, dass in dem anschwellenden Chor der publizistikwissenschaftliche Bariton erklingen möge. Das Themenfeld sollte mit einem Knall in der Fachgemeinschaft etabliert werden, nicht mit zaghaftem Anklopfen in dieser oder in jener Fachgruppe. Es bestand auch nicht die Gefahr, dass nun die Freunde des Films, des Fernsehens, des Tastentelefons, des Fotokopierers, der Banknote und der Überraschungseier jeweils ihr eigenes Fachgrübchen würden graben wollen. Nun hat die Gründung auch ihre personelle Seite. Es waren die Herren Bentele und Jarren, die mich fragten, ob ich das nicht in die Hand nehmen wolle. Wer wen vorgeschickt hat, weiß ich nicht mehr. Sach- oder gar Fachkunde gaben für die Auswahl meiner Person sicherlich nicht den Ausschlag. Mein Studium der "Informationswissenschaft" lag auch da schon lange zurück und hatte in mir ein Weltbild verankert, das mich nicht gerade fit für die Internetzeit machte. In diesem Weltbild gab es sehr wenige Großrechner und sehr viele Terminals. Das oberste Gesetz hieß: Wer als Benutzer eines Terminals mit anderen Benutzern Kontakt aufnimmt oder wer andere Benutzer dazu anstiftet oder deren Kontaktaufnahme fördert, wird mit Logout nicht unter vier Jahren bestraft. Außerdem war ich ein durch Bildschirmtext in mehrfacher Hinsicht gebranntes Kind. Ich hatte mir danach geschworen, nie mehr zu glauben, dass nächste Woche die Weltrevolution ausbricht oder dass Innovationen sich in Form eines exponentiellen Wachstums durchsetzen. Bei der Bildplatte und bei DAB konnte ich mich bestätigt fühlen, beim Internet nun gerade nicht. Also fachlich war ich nicht ausgewiesen, aber ich hatte drei andere Eigenschaften, die mich zur Gründung dieser FG prädestinierten: Der will was werden. Der macht nichts kaputt. Der ist dankbar. Also trat der Vorstand auf mich zu. Im jugendlichen Forscherdrang sah ich die Chancen riesig und die Risiken winzig und schlug in die dargebotene Hand ein. Wir haben uns dann am 17.5.96 im Rahmen der DGPuK-Jahrestagung in Leipzig konstituiert. Von den drei Gründungsmüttern ist heute keine anwesend, von den Gründungsvätern derer drei: Klaus Beck, damals noch in Berlin, dann aber bald Erfurt, Patrick Rössler, damals noch Hohenheim, dann München, und
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation"
11
ich, damals gerade noch in Berlin, schon auf dem Sprung nach Ilmenau – also eine unstete Brotherhood. An der Sitzung vor 10,5 Jahren nahmen ausweislich des akribischen Protokolls außerdem teil: Joan Kristin Bleicher, Hans Kleinsteuber, Martin Löffelholz, Ulrich Müller-Schöll, Mike Sandbothe, Elizabeth Prommer, Gunnar Roters, Georg Ruhrmann, Barbara Thomaß, Hartmut Weßler. Ein Jahr später, auf der Mitgliederversammlung 1997, hat man mich zum Sprecher gewählt, Klaus Beck zum Stellvertreter. Ich kann mich an die gequälten Gesichter der Kollegen noch gut erinnern. Aber einen Sammy brauchte die Fachgruppe. Und so viele Dienstbeflissene, äußerlich Pumperlgsunde und Kompromiss-Stiefel gab es nicht. Nun brach ein anderes Leben an: ich war "Fachgruppensprecher". Vorbei die Zeit, als man unerkannt über die Jahrestagung huschen musste. Nun war man wer. Wenn man durch das Tagungsfoyer schlenderte, denn zu Vorträgen brauchte man ja nun nicht mehr gehen, bei eigenen brauchte man sich auch nur noch am Anfang und am Ende kurz zeigen, also wenn man da so flanierte, hörte man die Fremden aus anderen Wissenschaften flüstern: "Wer ist das?" Und die Eigenen gaben Auskunft "Der Fachgruppensprecher der CÖK!". Ja, das tat gut. Man wurde nun um Rat gefragt: Gestandene Professoren sprachen einen an, sie bräuchten da eine Hilfskraft mit 4 Stunden im Monat, die einem dieses Mailen und so abnehmen könne, ob man da jemanden kenne? Mütter brachten einem ihren Halbwüchsigen, der kenne sich mit Computern aus, ob man da nicht etwas tun könne, eine Professur vielleicht? Am besten für Atari, mit besonderer Berücksichtigung von Pong. Ja, man hatte jetzt Einfluss. Ich machte reichlich davon Gebrauch, wer wusste, wie lange man im Rad der Fortuna oben saß, vielleicht gab es bald eine "Fachgruppe Mobile computervermittelte öffentliche Kommunikation" mit 22 Silben und dann vielleicht "Automobile ...." – und schon war man nicht mehr topp und abgemeldet. So weit zur Gründung. Seitdem ist viel passiert. Wir waren und sind eine produktive Fachgruppe – wir haben getagt und getagt. Jedes Jahr. Und wir haben uns lange geweigert, unsere Tagungen Tagungen zu nennen. Nein, das waren "Workshops"! Das ist ein mächtiges Sprachbild. Da sieht man Männer in Netzhemden, an denen der Schweiß in Bächen herunterrinnt, weil sie so gewaltige Räder in Schwung halten. Man sieht Frauen in endlosen Reihen an surrenden Maschinchen, die Werte schaffen, 24 Stunden am Tag, sieben Tage die Woche. Wir haben nicht getagt, wir haben geschuftet! Und wenn wir doch mal getagt haben, dann in Klausur, im Kloster! Hören wir uns noch einmal die Liste der Orte an: Berlin 1996 an der FU mit einem Doppeltitel: Am Donnerstag "Facetten Probleme der computervermittelten öffentlichen Kommunikation in der kommunikationswissenschaftlichen Analyse". Am Freitag dann "Sichtweisen – Zugänge zur computervermittelten öffentlichen Kommunikation im Vergleich".
12
Gerhard Vowe
Wow - sehr ambitioniert! Und der Bericht im Aviso war überschrieben: "Ein Zipfel vom Mantel der Mediengeschichte". Von heute aus gesehen etwas befremdlich. Überhaupt wird man melancholisch, wenn man durch die Akten blättert. Peinlich ist es, wenn man sieht, dass man die gleichen munteren Floskeln wie heute schon vor acht Jahren strapaziert hat: da wünscht man den Kollegen "für die Zielgerade des Sommersemesters alle Gute", und da überschreibt man die Organisationssitzung mit "Wer, wie, was - wieso, weshalb, warum?" Und da verabschiedet man sich mit "Glück auf!" München 1997 an der Hochschule für Film und Fernsehen unter der Obhut von Elizabeth Prommer, die am letzten Tag für alle, die wollten, Original Münchner Weißwürscht besorgte - es wollte aber nur einer. Und wo ein Mitglied der Fachgruppe an der Hotelrezeption drohte, das Hotel zu zerlegen, wenn er keinen Fernseher auf dem Zimmer vorfinden würde. Dann der Paukenschlag Elgersburg 1998! Gewohnt haben wir in einem Hotel, das in den 20er Jahren ein Heim der Roten Hilfe war und Kinder von inhaftierten Kommunisten aus der ganzen Welt beherbergte. So war uns auch zumute. Getagt haben wir in einer Burg, die über dem Flecken Elgersburg dräute. Deren Verliese haben wir besichtigt, geführt von einem Ritter der Tafelrunde von Elgersburg, ein Senoussi-Raucher mit den gelbesten Fingern, I've ever seen. Erfurt 1999. Da kann ich mich nur noch an einen Frankfurter Schöler erinnern, der uns in die Geheimlehre des Postfordismus einführen wollte und eine Aura des Schweigens erzeugte, das er vermutlich für respektvoll hielt. München 2000. Da hatten sich bereits die Rituale der Fachgruppe eingeschliffen, so z.B. das Hakeln um die Herausgeberschaft bei den Tagungsbänden. In dieser heiklen Frage berief man sich auf uralte Rechte, bis hin zu germanischen Weistümern, in denen festgelegt sei, was der Clan, der den Thing ausrichtet, alles dürfe. Leipzig 2001: Da war Klaus Beck fast ganz allein und musste sich auch fast alleine mit der immer wieder neu gestellten Frage auseinandersetzen, ob man nun etwas mit der GOR zusammen machen solle oder nicht – auch das ein Ritual der FG. München 2002, dieses Mal im IfKW. Erinnerlich ist mir da noch, dass man hier einzelne Vorträge für die Publikation weiträumig umfahren wollte und dafür sogar vorgab, eigentlich gar keine Publikation machen zu wollen – ohne dass uns lange Nasen gewachsen wären. Erfurt 2003: Keine Tagung zu einem Fachthema, sondern Klausurtagung, wie es denn weiter gehen solle mit der FG-Arbeit. Wir saßen an einem Tisch, und Gernot Wersig hat uns allen noch mal gezeigt 1. was technische Kommuni-
Zehn Jahre "Computervermittelte (Öffentliche) Kommunikation"
13
kation wirklich ist, 2. was Wissenschaft wirklich ist und was 3. der Mensch und die Welt wirklich sind. Dortmund 2004 – im feudalsten aller Tagungsgebäude, im Erich-BrostInstitut. Alles nur vom Feinsten: kein Stahlwerk mehr, keine Zeche mehr, keine Brauerei, aber noble Tagungsstätten. Berlin an der Humboldt-Universität 2005: Dies war eine Tagung zusammen mit der Medienökonomie. Es war mit der Zeit doch schwierig geworden, die kritische Masse von Vortragsvorschlägen zu erreichen. Man brauchte also Partner, notfalls auch die Medienökonomie. Ich höre, man ist derzeit mit der Gendergruppe im Gespräch. Wir haben nicht nur getagt, wir haben auch publiziert: die Tagungsbände, z.B. der erste aus dem ersten Workshop, "Computernetze - ein Medium öffentlicher Kommunikation". Da kam man mit dem Nachdrucken gar nicht nach. Und ganze Buchreihen: "Internet Research" mit inzwischen bestimmt 20 Bänden, zumeist aus dem Kreis der Fachgruppe. Die Wissenschaftsgeschichtsschreibung vermutet dahinter drei Autoren mit acht Pseudonymen. Dann: Wir waren und sind eine ordentliche FG! Wir haben die Leitung der Fachgruppe in bewundernswerter Kontinuität geregelt. Nach Vowe/Beck kamen 1999 Beck/Schweiger, 2004 Schweiger und Kimpeler. Keine Diadochenkämpfe, kein Interregnum. Keine Sekunde ohne Leitung und kein Leiter, der nicht Jahre vorher als Stellvertreter gefront hatte. Es gibt also Reste von Ordnung in dieser aufgeregten Online-Welt. Wir haben jedes Jahr einen Tätigkeitsbericht abgegeben. Wir haben Kriterienkataloge für das Review von Vorträgen entwickelt, als andere Fachgruppen noch die Slots auf Zuruf füllten und dabei besonders auf die hörten, die man gut kannte und deshalb besonders deutlich verstand. Wir haben uns eine Satzung gegeben, schon 1998, und wir haben unser Selbstverständnis formuliert, 2003: Besonders wichtig der Punkt römisch III: "Verantwortlichkeiten". Da heißt es zunächst scheinbar harmlos: "Die Fachgruppe verfährt arbeitsteilig." Den Satz liest man, man nickt, man sagt: Ja, klar, wie sollte es anders sein? Und damit sitzt man in der Falle, denn dann kommt ein Satz wie ein Hammer: "Ins Auge gefasste Aktivitäten werden von einzelnen Mitgliedern der Fachgruppe verantwortlich übernommen." Aha. Ich möchte nicht wissen, wer da für die Fachgruppe welche Art von Aktivitäten "ins Auge gefasst" hat. Dann aber nach der Peitsche das zuckersüße Brötchen: "…was im jeweiligen Jahresbericht der Fachgruppe entsprechend gewürdigt wird." Und wir waren und sind eine kreative Fachgruppe. Wir haben die Respondents in die Tagungskultur der DGPuK eingeführt. Schauen Sie sich das gedruckte Programm von Leipzig an – das ist so schön gestaltet, das gehört in die erste Vitrine im ersten Raum des DGPuK-Museums. Und erst die Titel:
14
Gerhard Vowe
• "Gute Seiten – schlechte Seiten. Qualität in der computervermittelten Kommunikation." • "Jenseits von Raum und Ort. Enträumlichung und Mobilität in einer vernetzten Welt." • "Trau schau wem! Vertrauen und Glaubwürdigkeit in der cvk" • "Attention please – Fragen der Aufmerksamkeitsökonomie in der OnlineKommunikation". Dagegen fällt 2004 mit "Aktuelle Problemfelder und Studien zur cvK" doch sehr ab, muss ich kritisch anmerken. Was gab es außer Tagungen für weitere Meilensteine? Vor allem das Schisma auf dem Konzil von Elgersburg 1998. Es hing an einem "Ö". Aus der CÖK wurde gegen meinen erbitterten Widerstand das unaussprechliche C-V-K. Und ich habe noch im Bericht für Aviso geschrieben, dass die FG ihren Namen verkürze und ihren Gegenstandsbereich erweitere – und das positiv klingen lassen, gegen meine innerste Überzeugung. Ich habe mich noch nie so schmutzig gefühlt in meiner Laufbahn. Sie spüren, wie ich immer noch einen Phantomschmerz verspüre, das abgeschnittene "öffentliche" tut mir immer noch weh. Hat die FG ihre Ziele erreicht? Das Ziel, die öffentliche Sichtbarkeit der DGPuK in Gestalt ihrer Fachgruppe in öffentlichen CVK-bezogenen Debatten zu erhöhen, sehe ich nicht in dem seinerzeit erhofften Maße realisiert. Das haben wir wohl auch nie ernsthaft genug betrieben. Die Rechnung ist aber aufgegangen, was die fachinterne Etablierung angeht. Die Fachgruppe ist etabliert. Mit 105 Mitgliedern sind wir eine der größeren Fachgruppen. Zum anderen ist Online ein selbstverständliches Element der Arbeit in allen Fachgruppen geworden – von den "Methoden" über "Politik" bis zu "Journalismus". Mit dem Fortschreiten der Digitalisierung schmelzen die Grenzen zwischen den Gebieten, die bislang vor dem Zugriff der CVKStrategen bewahrt waren. Mit "Hypertext" und "Hypermedium" hat man sich ja terminologisch schon früh das Recht gesichert, an jedem Punkt der Medienwelt intervenieren zu dürfen. Kritisch und selbstkritisch muss man anmerken: Wir haben einiges versäumt, z.B. gemeinschaftliche Forschungsinitiativen, Ansätze gab es, wie die Überlegungen zu einer DFG Forschergruppe "Online-Kommunikation". Ich möchte meinen Rückblick beenden mit dem klassischen Vortragsschlusssatz, den ich auch auf unseren Tagungen des Öfteren herbeigesehnt habe und als Moderator und Souffleur dann den Referenten zugeflüstert habe. Der Satz lautet: "Mit Blick auf die Uhr brech' ich hier einfach mal ab." Ad multos annos!
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand in der Publizistik und Kommunikationswissenschaft Simone Kimpeler, Wolfgang Schweiger Im November 2006 veranstaltete die DGPuK-Fachgruppe "Computervermittelte Kommunikation" eine Fachtagung zum Thema "Computervermittelte Kommunikation als Innovation" in Kooperation mit dem ZKM | Institut für Medien und Wirtschaft in Karlsruhe. Der vorliegende Band dokumentiert den Großteil der Fachbeiträge der Tagung und zeigt dabei die Vielfalt der Forschungsarbeiten in diesem Gebiet auf. Da die Fachgruppe im Jahr 2006 zugleich 10-jähriges Bestehen feiern konnte, nahm sie das Jubiläum zum Anlass, um auf der Fachtagung neben der Diskussion aktueller Forschungsbeiträge auch einen Rückblick auf die Geschichte der Erforschung computervermittelter Kommunikation sowie einen Ausblick auf zukünftige Entwicklungen zu wagen. Gewiss ein Highlight der Tagung ist daher auch die Dinner Speech von Gerhard Vowe, der die Geschichte der Fachgruppe ebenso unterhaltsam wie spannend skizziert und treffend kommentiert hat. Wir danken Gerhard Vowe dafür, dass wir seine Rede in den vorliegenden Band aufnehmen durften. Computervermittelte Kommunikation (CvK) umfasst alle Formen der interpersonalen, gruppenbezogenen und öffentlichen Kommunikation, die offline oder online über Computernetze oder digitale Endgeräte erfolgen. Gegenstand der kommunikations- und medienwissenschaftlichen Forschung ist dabei die Analyse wirtschaftlicher, technischer und sozialer Implikationen computerbasierter Anwendungen zur Kommunikation, Information und Unterhaltung. Dabei stehen neben den Chancen und Potentialen der zunehmenden Vernetzung und Mobilität der Akteure und der Virtualisierung der Kommunikationswelten auch Herausforderungen und Gefahren bezüglich einer möglichen Fragmentierung der Öffentlichkeit, Vertiefung des Digital Gap, Konzentrationstendenzen auf dem Medienmarkt oder Praktiken der Informationsfilterung und -selektion im Fokus der Forschung. Neben den wissenschaftlichen Beiträgen, die in einem anonymen Begutachtungsprozess ausgewählt wurden, leiten zwei Gastbeiträge den Band ein. Der erste Gastbeitrag von Michael Friedewald liefert eine kurze Geschichte des interaktiven Computers. Friedewald greift populäre Sichtweisen zur Geschichte des Computers auf, ergänzt um die noch wenig reflektierte Kontinuität des Übergangs vom gemeinsam genutzten Großcomputer zum einzeln verwendeten PC. Dazu beleuchtet er den kulturellen Hintergrund der Idee einer "per-
16
Simone Kimpeler, Wolfgang Schweiger
sönlichen Informationsverarbeitungsmaschine" und wie diese sich im Laufe der Wissenschafts- und Technikentwicklungen verändert hat. Friedewald zeichnet anhand historischer Beispiele nach, wie bestimmte Ideen zu Leitbildern der Computertechnikentwicklung geworden sind und wie diese Ideen im Laufe der Zeit verbreitet, verändert und umgesetzt worden sind. So weist er beispielsweise darauf hin, dass die Metapher des Schreibtisches (Desktop) wegen ihres immensen Erfolges bis heute auch zu einem Hemmnis für die Entwicklung der Benutzerfreundlichkeit geworden ist. Er sieht am Ende eine Notwendigkeit in der Neudefinition der Mensch-Computer-Schnittstelle, welche dem Wunsch der "naiven Benutzer" nach leichter Erlernbarkeit und intuitiver Bedienung des Computers ebenso entspricht wie dem der professionellen Benutzer nach umfassender Konfigurier- und Programmierbarkeit von Hard- und Software. Friedewald bemerkt dazu, dass uns bei allem technischen Fortschritt die gesellschaftlichen Institutionen verloren gegangen sind, die uns ein Bewusstsein für sinnvollen Benutzen des Computers zum sich Informieren – im Gegensatz zum reinen Datensammeln – vermitteln könnten. Der zweite Gastbeitrag ermöglicht einen Einblick in die wissenschaftliche Arbeit des ZKM | Institut für Medien und Wirtschaft in Karlsruhe. Am Beispiel der Medienkritik am Fernsehen und unter Bezugnahme auf die Medienkritik von Jürgen Habermas formulieren Roger Häussling und Michael Mangold neue Anforderungen an eine kritische und gesellschaftlich gestaltende Medienforschung, die sich auf die zentrale Funktion der Wissensvermittlung des Fernsehens bezieht und zugleich differenziert aktuelle Verhältnisse und Entwicklungen der Medienlandschaft zu erfassen glaubt. Eine Reflektion der Massenmedien muss nach Ansicht der Autoren am wohl zentralsten gesellschaftsgestaltenden Beitrag der Medien ansetzen: der Vermittlung von Wissensinhalten. Das Fernsehen stellt für sie das wichtigste Medium der Wissensvermittlung dar, insbesondere weil es den Medienkonsum der sogenannten bildungsfernen Bevölkerungsgruppen dominiert. Sie regen eine Einbeziehung der computervermittelten Kommunikation in die Analyse an, da auch hier vielfältige Anknüpfungspunkte zur Gestaltung sozialer Wandlungsprozesse ermittelt und genutzt werden können. Die wissenschaftlichen Beiträge des Tagungsbands sind in sechs Themenblöcke gegliedert. Kommunikatoren in der Online-Kommunikation Im ersten Themenblock geht es um neue Typen von Kommunikatoren in der Online-Kommunikation, die durch die Entwicklungen des "Web 2.0" an Bedeutung gewonnen haben sowie um die daran geknüpften Erwartungen an neue
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
17
Formen der Integration von Nutzern und neue Möglichkeiten, eigene Interessen, Meinungen und soziale Beziehungen um Internet sichtbar zu machen. Jan Schmidt liefert erste empirische Befunde zu Stabilität und Wandel von Weblog-Praktiken. Ausgehend von neuen Formen der Nutzung des Internet zur Äußerung von Meinungen und Interessen sowie der Darstellung und Gestaltung von sozialen Netzwerken gewinnen Weblogs an Bedeutung. Schmidt unterscheidet strukturelle Dimensionen von Weblogs, die dem Weblogger einen Rahmen vorgeben und zugleich durch die Anwendung reproduziert werden. Trotz zahlreicher vorliegender Studien zu Weblogs kann Schmidt eine Forschungslücke im Bereich der Längsschnittanalysen zu intra-individuellen Veränderungen der Weblog-Nutzung identifizieren, um die Dynamik der WeblogPraktiken zu untersuchen. Unterschiedliche Sendetypen von Podcasts und ihre theoretische Verortung sind Gegenstand des Beitrags von Dennis Mocigemba. Podcasts werden als eine Art Rundfunkbeitrag definiert und als Angebot von Privatpersonen für vorwiegend kleine, integrierte Communities analysiert. Dazu werden die Funktionen von Podcasts für den privaten Podcaster anhand von Sendepraktiken, Motiven, Qualitätsansprüchen und sozialen Interaktionen der Podcaster diskutiert und Ergebnisse einer explorativ-qualitativen Studie herangezogen. Damit kann Mocigemba sechs Podcast-Typen identifizieren und kommunikationstheoretisch verorten. Aneignung, Nutzung und Wirkung von Online-Medien Im zweiten Themenblock geht es um Aneignungsprozesse und Wirkungen von Online-Medien. Werner Wirth, Thilo von Pape und Veronika Karnowski stellen ein integratives Modell der Aneignung mobiler Kommunikationsdienste vor. Vor dem Hintergrund der hohen Dynamik auf dem Mobilfunkmarkt und neuer Nutzungsweisen stellen sie zwei Paradigmen der Weiterentwicklung technischer Innovationen vor und leiten dann ihr Aneignungsmodell ab. Dafür unterscheiden die Autoren zwischen dem Adoptions- und dem Aneignungsparadigma und zeigen, dass beide Ansätze sowohl inhaltlich als auch methodologisch komplementär sind. Darauf aufbauend entwickeln die Autoren ein integratives "Mobile Phone Appropriation-Model" (MPA-Modell), das sowohl individuelle wie auch soziale Faktoren und ein breites Spektrum an Nutzungen und Bedeutungen erfasst. Das MPA-Modell wird als Analysegerüst verstanden, um bei jeder Innovation möglichst von Grund auf und mit Rückgriff auf quantitative und qualitative Methoden den Aneignungsprozess zu untersuchen.
18
Simone Kimpeler, Wolfgang Schweiger
In einem rückblickenden Essay untersucht Patrick Rössler mit Rückgriff auf einen eigenen Beitrag aus dem Jahr 1998, welcher Wirkungen computervermittelter Kommunikation sich die Forschung in den vergangenen zehn Jahren überwiegend angenommen hat. Seine systematische Untersuchung zur internationalen und deutschsprachigen Forschung kommt zum Ergebnis, dass sich die Analyse von Wirkungen der Online-Kommunikation meist nicht auf die klassischen Medienwirkungsansätze bezog. Es sind, entgegen Rösslers früherer Annahme, inzwischen neue Hypothesen über Medienwirkungen erforderlich, die die netzbasierte Kommunikation und ihre Spezifika angemessen berücksichtigen und in der Folge vielleicht ein neues Verständnis der Begriffe 'Nutzung' und 'Wirkung' erforderlich machen. Markt- und Akzeptanzstudien Bisher unausgeschöpfte Potenziale der Nutzung des interaktiven Fernsehens (iTV) in Deutschland sind Gegenstand der Studie von Oliver Quiring. Er nimmt sich der Forschungslücke repräsentativer Studien zur iTV-Nutzung an und liefert auf der Basis einer regionalen CATI-Befragung einen Überblick über die Bekanntheit ausgewählter interaktiver Anwendungen, die Einstellungen zu diesen Anwendungen sowie ihre Nutzung bzw. Gründe der Nicht-Nutzung. Basierend auf einer Reihe von Beiträgen zur Konzeption von Interaktivität, Studien zu Verbreitungshemmnissen auf Angebotsseite und nur wenigen verfügbaren Studien zur Akzeptanz und Diffusion aus Nutzerperspektive wird versucht, Aussagen über die tatsächliche Nutzung zu gewinnen. Trotz der regionalen und zeitlichen Beschränkung der Erhebung kann aufgezeigt werden, dass die Verbreitung des iTV neben bekannten angebotsseitigen Hemmnissen auch mit der "Ungerührtheit" der Nutzer zu kämpfen hat. Neue Online-Angebote versprechen durch die Vermeidung von Medienbrüchen eine Effizienzsteigerung des gesamten Marktprozesses und treten zunehmend in den Wettbewerb mit Printmedien. Castulus Kolo analysiert in seinem Beitrag über Online-Rubriken den Strukturwandel im Anzeigengeschäft. Am Beispiel der Märkte für Stellen, Immobilien und Kfz unterscheidet er Gesamtmarkteffekte und Substitutionen in der Entwicklung der Anzeigenvolumina und zeigt damit, dass in wenigen Jahren etwa die Hälfte des Volumens aus dem Printbereich abgewandert ist. Der Beitrag systematisiert nach einer aktuellen quantitativen Analyse der Substitutionsdynamik Online versus Print über den Zeitraum von 12 Jahren, wie die jeweilige Substitutionsdynamik mit den Charakteristika der entsprechenden Märkte zusammenhängen könnte sowie in welcher Weise diese von Eigenschaften der Anzeigenkunden und der Nutzer digitaler Medien potentiell beeinflusst wird.
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
19
Der Einsatz von eLearning als mediengestütztes Lehren und Lernen in Schulen, Hochschulen und bei der beruflichen Aus- und Weiterbildung ist weit fortgeschritten. Informelle Lernmöglichkeiten, bei denen Lernende ihren Lernfortschritt selbstbestimmt steuern, unterstützt insbesondere durch computerbasierte Lernformen, gewinnen an Bedeutung, Peter Georgieff stellt in seinem Beitrag über zielgruppenorientiertes eLearning die Frage nach der Umsetzbarkeit dieser Zielgruppenorientierung für den Personenkreis älterer Menschen. Er zeigt die soziodemografischen Besonderheiten des Alterns, die Bildungspräferenzen und das Medienverhalten älterer Menschen auf, um danach die tatsächliche Verbreitung entsprechender eLearning Angebote in Institutionen der Altenbildung zu prüfen. Online-Kommunikation als interpersonale Kommunikation Das Telefon ist durch seine massive Verbreitung die vermutlich bedeutendste interpersonale Kommunikationstechnologie. Neu ist nun die massentaugliche Internettelefonie, die im Vergleich zu eMail oder Instant Messaging eine noch junge Form der internetbasierten computervermittelten Kommunikation darstellt. In ihrem Beitrag zu multimedialen Gesprächen in Skype untersucht Martina Joisten die Prozesse der Hybridisierung von Gebrauchsweisen in der interpersonalen Kommunikation. Sie geht der Frage nach, ob aus der technischen Konvergenz interpersonaler Kommunikationsmedien eine Konvergenz der Gebrauchsweisen erfolgt. Joisten beobachtet in einer ethnografischen Fallstudie der Einführung der PC-basierten Internettelefonie-Software Skype in einem Unternehmen. Die Studie ermöglicht einen Einblick in die Aneignung konvergenter interpersonaler Kommunikationsmedien und zeigt erste Veränderungen in der Kommunikation. Die von Joisten aufgezeigten Entwicklungen haben sowohl Implikationen für das Design innovativer Kommunikationsmedien als auch für das zukünftige Verständnis computervermittelter interpersonaler Kommunikation. Die Kommunikationsform des Digital Storytelling bzw. der Videostories ist kein neues Phänomen, meint Julie Woletz in ihrem Beitrag zur Frage nach dem Innovationsgehalt dieser Medienentwicklung. Ausgehend vom Entstehungszusammenhang und der technischen Entwicklung des Digital Storytelling sowie am konkreten Beispiel der Videostories im Internet zeigt Woletz spezifische Innovationen in der Medienkonfiguration und den Kommunikationsmodalitäten. Die Autorin geht davon aus, dass sich der medientechnologische Wandel auch auf die Kommunikationsform auswirkt. Sie kommt zu dem Schluss, dass sich Innovation und Medienwandel der Kommunikationsform Digital Storytelling
20
Simone Kimpeler, Wolfgang Schweiger
nicht vollständig auf technische Entwicklungen reduzieren lassen, sondern in den medialen Gebrauchsweisen die Strukturen multimedialer Kommunikation und Interaktion begründet sind. Computerspiele als Untersuchungsgegenstand finden sich heute bereits in vielen Disziplinen, so auch in der CvK-Forschung. Jan-Noël Thon behandelt besonders relevant erscheinende Aspekte der interpersonalen Kommunikation am Beispiel der Funktion von textbasierter Kommunikation zwischen Spielern des First-Person Shooters HALO sowie des Massive Multiplayer Online Role Playing Game WORLD OF WARCRAFT. Angelehnt an ein allgemeines Strukturbeschreibungsmodell für Computerspiele unterscheidet er zwischen räumlicher, ludischer, narrativer und sozialer Struktur von Computerspielen. Diese Ebenen sind zugleich Untersuchungsebenen und Perspektiven in seiner Studie und ermöglichen die Beschreibung der Computerspiele strukturiert nach Formen und Funktion der Kommunikation. Auch die Untersuchung der Nutzung und Wirkung computervermittelter Kommunikation in Chaträumen stellt hohe Anforderungen an Methodik und Forschungsdesign. Markus Schubert und Nadin Ernst stellen Ergebnisse einer Studie zu Involvementsituationen im Internet-Chat vor. Chats gelten als besondere Art der Kommunikation, die mit Ausnahme von Emoticons zur Visualisierung von Stimmungen ohne Bilder und gesprochene Sprache auskommt. Schwerpunkte bisheriger Forschung waren Nutzungsmotive sowie der Aspekt der Identität bzw. des Rollenverhaltens mit Hilfe reaktiver Messverfahren oder inhaltlich-semantische Textanalysen und psychologisch-klinische Untersuchungen zu Suchtpotenzialen des Chat. Schubert und Ernst hingegen interessieren sich dafür, was genau bei dieser Art von Online-Kommunikation in Abhängigkeit vom Grad des Involvement mit den Nutzern passiert. Sie analysieren ChatKommunikation in High- und in Low-Involvement-Situationen in einem experimentellen Untersuchungsdesign mit Hilfe eines Methodenmixes aus quantitativen und qualitativen Verfahren mit retrospektiver und periaktionaler Ausrichtung. Online-Kommunikation als Netzwerk Harald Rau geht der Frage nach, inwieweit theoretische Überlegungen aus einem Vor-Internetzeitalter auf die Regeln und Zusammenhänge beispielsweise einer "Second-Life"-Plattform angewandt werden können und darüber hinaus vielleicht auch kollaborativ erstellte Onlinemedien erklärbar machen. Er untersucht die Möglichkeit, mit ökonomischen Größen soziale Netzwerke hinsichtlich ihres Nutzens, ihrer Effizienz oder ihrer Größe zu analysieren. Ausgangsbasis bildet die Erkenntnis, dass die Demokratisierung von Medieninhalten ähnli-
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
21
che Wirkungen zeitigt wie eine zunehmende Kommerzialisierung. Rau möchte mit einem theoretischen Exkurs dafür sensibilisieren, ökonomische Größen wie Wert, Nutzen und Effizienz für die Bewertung von Netzwerken nur mit äußerster Vorsicht zu gebrauchen. Die Theorie sozialer Netzwerke der Manchester School hat die Erkenntnis gebracht, dass soziale Netzwerke nicht durch etwaige Zielsetzungen auf eine gemeinsame Basis reduziert werden können. Damit ist der Ansatz für Rau wie geschaffen für die Analyse sozialer Netzwerke im Zeitalter des Web 2.0, da hier das soziale Netzwerk, z.B. als "Community" eine Verknüpfung disparater Ziele der einzelnen Akteure oder Gruppen bedingt. Für Rau ergeben sich zwei zentrale Notwendigkeiten bei der Erforschung sozialer Netzwerke in der computerbasierten Kommunikation: eine Systematisierung der Ziele von Netzwerken, eng gekoppelte an die Frage der Qualität von Netzwerken sowie eine Werte-Diskussion. Im Beitrag von Jörg Müller-Lietzkow geht es um die mögliche Übertragbarkeit von Forschungsergebnissen zu Computerspielgemeinschaften auf virtuelle Arbeitsorganisationseinheiten. Heute ist der e-Lancer in virtuellen Organisationsstrukturen ebenso Normalität wie auch die berufliche oder private Mitgliedschaft in virtuellen Communities. Ein Zwang des "anytime, anywhere, anyhow" für den arbeitenden Menschen wirkt sich für Müller-Lietzkow negativ auf die Motivation aus. Er geht davon aus, dass sich intrinsische Motivationsansätze für digitale Unterhaltungsangebote wie zum Beispiel bei Computerspielgemeinschaften auf virtuelles Arbeiten übertragen lassen. Digitale Spiele erfordern spezifische Leistungen und Konstanz der Nutzung vom Spieler, um SpielGratifikation zu erhalten – auch typische Indikatoren in der virtuellen Arbeitswelt. Müller-Lietzkow führt zentrale Ergebnisse aus der ComputerspieleForschung an und findet Parallelen in den Anforderungen an den virtuellen Arbeiter. Online-Kommunikation aus politischer Sicht Bei der Untersuchung von Online-Kommunikation in der Politik lautet eine zentrale Frage, ob die Politikvermittlung im Internet die spezifischen Präsentationsmerkmale des Mediums (Aktualität, Interaktivität, Hypertextualität, Multimedialität, Speicherkapazität) nutzt und somit im Gegensatz zu Politikvermittlung in Print oder TV neuen Gesetzmäßigkeiten folgt, oder ob sich umgekehrt bisherige Muster der Kampagnenführung aus dem Offline-Bereich in der internetbasierten Politikkommunikation widerspiegeln. Dazu liefert Eva-Johanna Schweitzer eine Studie, die auf der Differenzierung zwischen der Innovationsthese und der Konvergenz- oder Normalisierungshypothese basiert. Die Innovationsthese geht von einer weitgehenden Integration der Online-Kommunikation
22
Simone Kimpeler, Wolfgang Schweiger
in die Wahlkampfplanung aus, bei der die Möglichkeiten des WWW umfassend ausgeschöpft werden. Die Konvergenz- oder Normalisierungshypothese hingegen besagt, dass die medienspezifischen Möglichkeiten der CvK weitgehend ungenutzt bleiben und stattdessen die Übertragung bisheriger Kampagnenprinzipien auf das Internet betrieben wird. Ziel von Schweitzer ist es, den Limitationen der bisherigen Forschung durch eine kombinierte Inhalts- und Strukturanalyse nationaler Partei-Websites zu den Bundestagswahlen 2002 und 2005 zu begegnen. Dazu werden diese Thesen für den deutschen Online-Wahlkampf anhand eines Längsschnittvergleichs überprüft. Die Befunde belegen im Zeitverlauf eine Innovationsbewegung auf der Strukturebene des OnlineWahlkampfes in Deutschland. Gleichzeitig liefert der Beitrag ein differenziertes Bild hinsichtlich der Unterschiede zwischen Bundestagsfraktions-Kampagnen und Online-Kampagnen von Parteien, die nicht im Bundestag vertreten sind. Eine wesentliche Funktion der Medien für moderne demokratische Gesellschaften ist die Herstellung von Öffentlichkeit für gesellschaftlich relevante Themen und Probleme. Martin Emmer und Jens Wolling gehen der Frage nach, ob diese Thematisierungsfunktion der traditionellen Massenmedien durch die wachsende Bedeutung des Internets als politisches Informationsmedium geschwächt wird. Dabei untersuchen sie, ob das Internet die Fragmentierung der Mediennutzung befördert und auf diese Weise zur Desintegration der Gesellschaft beiträgt. Hierzu gab es trotz einiger Debatten bisher kaum empirische Ergebnisse, ebenso wenig wie für die Gegenthese der stimulierenden Wirkung des Internets auf das Engagement in der Politik. Die untersuchte Hypothese lautet daher, dass bei denjenigen Personen, die sich besonders stark auf politische Informationen aus dem Internet verlassen, andere Themen auf der individuellen Agenda stehen als bei solchen, die sich vorwiegend über traditionelle Medien informieren. Die Autoren können diese Annahme auf der Basis einer bundesweiten, repräsentativen Befragung aus dem Jahr 2005, in der neben den Mediennutzungsgewohnheiten (on- und offline) auch weiterführende Aktivitäten politischer Kommunikation erhoben wurden, nicht bestätigen. Ein intensiver Rückgriff auf Online-Quellen bei gleichzeitiger Abwendung von herkömmlichen Informationsquellen zu deutlich anderen, insbesondere vielfältigeren und stärker globalen Themenpräferenzen findet nicht statt. Die Autoren verweisen daher darauf, dass erst eine vergleichende Analyse über mehrere Zeitpunkte hinweg zeigen könnte, wie stabil die ermittelten Themenpräferenzen sind.
Einführung: Computervermittelte Kommunikation als Forschungsgegenstand
23
Danksagung Die Herausgeber danken Vanessa Diemand und Christine Schädel herzlich für ihre tatkräftige und zuverlässige Unterstützung sowie Geduld bei der Vorbereitung und Durchführung der Jahrestagung und bei der Herstellung der Druckvorlage dieses Bandes.
München und Karlsruhe, Juni 2007
Gastbeiträge
Vom Rechenautomaten zum elektronischen Medium: Eine kurze Geschichte des interaktiven Computers Michael Friedewald
Einleitung Wenn heute vom Computer gesprochen wird, ist meist der kleine Personal Computer mit Tastatur, Bildschirm und Maus gemeint, der seit 1981 den Weg in Millionen Büros und Haushalte gefunden hat und meist zur Textverarbeitung, für Kalkulationen, zum Spielen und seit einigen Jahren auch als Kommunikationsmedium verwendet wird. Er ist für die meisten Menschen so alltäglich wie der Fernseher oder das Telefon. Als der Computer vor mehr als 60 Jahren erfunden wurde, war all dies nicht nur nicht vorauszuahnen, sondern auch gar nicht vorstellbar: Computer waren riesige Rechenmaschinen, mit deren Betrieb ein ganzes Team von Technikern, Operateuren und Programmierern beschäftigt war. Sie waren so groß und teuer, dass sich nur große Unternehmen, Behörden und das Militär Computer leisten konnten, um damit komplizierte Berechnungen anzustellen oder große Datenmengen zu verwalten. Diese Maschinen spielen zwar heute in diesem Umfeld immer noch eine wichtige Rolle, sind aber fast aus dem Blick der Öffentlichkeit verschwunden. Nach weit verbreiteter Vorstellung beginnt die Geschichte des PCs mit der Erfindung des Mikroprozessors durch Intel im Jahre 1971. Als nächste Etappen gelten die ersten Computerbausätze, die erfolgreichen Homecomputer der späten siebziger Jahre, der erste IBM PCs 1981 und schließlich die Einführung des derzeitig leistungsfähigsten Rechner mit Intel- oder AMD-Prozessor. Demnach wären Personal Computer das zwangsläufige Endprodukt der fortschreitenden Miniaturisierung in der Mikroelektronik. Eine andere, weniger verbreitete, aber ebenso populäre Geschichte des PCs erzählt von begeisterten Computeramateuren in Kalifornien, die es geschafft haben, gegen die Interessen der großen Unternehmen den Computer zu den Menschen bringen. "Computer Power to the People" lautete einer ihrer Wahlsprüche, der von den politischen Ideen der 68er-Generation beeinflusst war (Nelson 1987).
28
Michael Friedewald
Diese Sichtweisen sind nicht falsch. Sie übersehen allerdings die Kontinuität, die es beim Übergang vom gemeinsam genutzten Großcomputer zum einzeln verwendeten Personal Computer gegeben hat. Und sie lassen außer Acht, dass die Idee für eine persönliche, Daten verarbeitende Maschine wesentlich älter ist, sogar älter als der Digitalcomputer selbst. Wenig Beachtung fand bislang die Frage, vor welchem kulturellen Hintergrund die Idee der persönlichen Informationsverarbeitungsmaschine entstanden ist und wie sich diese im Laufe der Zeit unter dem Einfluss anderer Wissenschafts- und Technikentwicklungen verändert hat. Im Folgenden sei daher an einigen repräsentativen Beispielen nachgezeichnet, wie bestimmte Ideen zu Leitbildern der Technikentwicklung geworden sind, wie sich diese Leitbilder durch die Kommunikation zwischen den Mitgliedern einer überschaubaren Gruppe von Wissenschaftlern verbreitet haben und wie sich die Ideen mit der jeweils verfügbaren Technik, mit den wechselnden Finanzierungsquellen der Forschung und nicht zuletzt mit den veränderten politischen und gesellschaftlichen Bedingungen gewandelt haben.
Drei Wurzeln: Digitalcomputer, Memex und Kybernetik Eine Ideengeschichte des Personal Computers muss weit ausholen. Drei wichtige Entwicklungen der vierziger Jahre verdienen besondere Beachtung: Die erste ist die Entwicklung des elektronischen Digitalcomputers am Ende des Zweiten Weltkrieges. Über die Pionierarbeiten von Konrad Zuse in Deutschland, von Presper Eckert und John Mauchly an der Moore School of Electrical Engineering in Philadelphia und von John von Neumann am Institute for Advanced Study in Princeton ist bereits ausführlich publiziert worden (Goldstine 1980; Heintz 1993; Rojas 1998). Interessanter für die Geschichte des Personal Computers sind die zwei anderen Entwicklungen. Im August 1945 entwarf der bekannte Analogrechnerpionier und Wissenschaftspolitiker Vannevar Bush (1890–1974) in seinem Aufsatz "As we may think" die Vision des Memory-Extender. Er beschrieb detailliert, wie Wissenschaftler mit dieser informationsverarbeitenden Maschine arbeiten und in Interaktion treten könnten. Aufgabe einer solchen Maschine sollte es sein, dem Wissenschaftler bei der Verwaltung der täglich anfallenden Daten zu helfen, indem sie beispielsweise Zeitschriftenaufsätze, Messergebnisse, handschriftliche Notizen und Fotographien speichert. Die Information sollte nach biologischem Vorbild assoziativ miteinander verbunden sein. Schließlich sollte der Benutzer in der Lage sein,
Vom Rechenautomaten zum elektronischen Medium
29
mit dem Gerät zu arbeiten, ohne sich über die Realisierung Gedanken machen zu müssen (Bush 1945). Der Memory Extender wurde zwar nie in der von Bush beschriebenen Form realisiert, hatte aber eine inspirierende Wirkung auf eine ganze Reihe von jungen Wissenschaftlern. Sie begannen in den fünfziger und sechziger Jahren Aspekte des Memex in den Entwurf von neuen Computersystemen zu übernehmen. Die dritte wichtige Entwicklung war die Etablierung der Kybernetik als wissenschaftliche Disziplin. Mit ihr setzte sich nämlich die Erkenntnis durch, dass der Mensch in komplexen technischen Systemen eine wichtige Rolle spielt. Das bis dahin vorherrschende lineare Modell der Datenverarbeitung (Eingabe von Daten, Verarbeitung der Daten, Ausgabe der Ergebnisse – alles ohne Eingriff des Menschen) wurde zu einem geschlossenen Regelkreis erweitert, in dem der Mensch nicht nur ein Anhängsel der Maschine war. Es entstand das "Human Factors Engineering", das den Menschen mit seinen physischen und kognitiven Fähigkeiten und Limitierungen beim Entwurf technischer Systeme berücksichtigte. Ein Beispiel für diesen Trend ist die Computerentwicklung am Bostoner Massachusetts Institute of Technology (MIT) zwischen 1945 und 1960. Die dort tätigen Ingenieure waren, anders als die meisten anderen Computerkonstrukteure, durch die Regelungstechnik beziehungsweise Kybernetik geprägt. Sie entwickelten in den fünfziger Jahren ein erstes computergestütztes Luftverteidigungssystem, für das nicht nur einer der leistungsfähigsten Digitalrechner der damaligen Zeit entwickelt wurde, sondern auch eine erste auf wissenschaftlichen Erkenntnissen basierende Mensch-Computer-Schnittstelle oder Interface. Dabei musste berücksichtigt werden, dass das Bedienpersonal nicht aus Computerspezialisten, sondern aus einfachen Soldaten bestand. Zu diesem Zweck wurden erstmals Verfahren zur Ein- und Ausgabe von Daten in unmittelbarer Interaktion mit dem Computer entwickelt, die den hohen militärischen Anforderungen entsprachen. Dabei entstanden Bildschirmsysteme für Texte und Grafiken sowie der Lichtgriffel als Eingabegerät für grafische Daten (Edwards 1996; Redmond/Thomas 2000).
Mensch-Computer-Symbiose Die Realität der Computernutzung sah in den fünfziger Jahren aber fast immer anders aus als bei diesen wenigen militärischen Computersystemen. Computer, wie sie in Wirtschaft, Staat und Universitäten verwendet wurden, waren keine Geräte, an denen man unmittelbar arbeiten konnte. Und weil die Computer teuer waren, mussten sie möglichst rund um die Uhr in Betrieb sein - das Resultat
30
Michael Friedewald
dieser wirtschaftlichen Überlegung war die so genannte Stapelverarbeitung. Diese Betriebsweise machte das Arbeiten mit dem Computer besonders für die Programmierer nicht leicht: Sie mussten ihr Programm zunächst auf Papier schreiben, dann wurde es auf Lochkarten gestanzt. Der Stapel mit Lochkarten daher der Name - wurde dem Operateur im Rechenzentrum übergeben. Dort wurden die Daten dann auf ein Magnetband übertragen. Das Band wurde schließlich in den Computer eingelesen, und die Resultate der Verarbeitung auf ein weiteres Band gespeichert oder über einen Zeilendrucker ausgegeben. Bei der Stapelverarbeitung dauerte es deshalb immer mehrere Stunden, bis der Programmierer sehen konnte, ob sein Programm wirklich das tat, was es tun sollte. Insbesondere die Verbesserung von Programmierfehlern war auf diese Weise extrem mühsam. Aus Unzufriedenheit mit dieser Situation wurde seit Beginn der Sechziger Jahre der Versuch unternommen, den Benutzer, insbesondere den Programmierer, wieder in engeren Kontakt mit dem Computer zu bringen. J.C.R. Licklider (1915–1990), Professor für experimentelle Psychologie und Elektronik am MIT, griff dazu Ansätze aus der frühen Künstlichen-Intelligenz-Forschung auf und entwickelte daraus die Idee der Mensch-Computer-Symbiose. Nach seiner Vorstellung sollte der Computer den Benutzer bei allen routinemäßig anfallenden Tätigkeiten unterstützen, beim Schreiben von Programmen und Texten ebenso wie beim Erstellen von Grafiken aus Messreihen. Voraussetzung hierfür war jedoch, dass die Benutzer in unmittelbarer Interaktion mit dem Computer arbeiten konnten. Ideal wäre es, so Licklider, wenn jeder Benutzer einen eigenen Computer zur Verfügung hätte (Licklider 1960). Dafür war die Zeit um 1960 noch nicht reif, denn Computer waren immer noch groß und sehr teuer. Die Zentraleinheiten von Computeranlagen waren aber schon so leistungsfähig, dass die Eingaben des Benutzers bereits viel mehr Zeit benötigten als die eigentliche Verarbeitung. Man konnte deshalb beim so genannten "Timesharing" die Rechenzeit auf viele gleichzeitig am Rechner Arbeitende aufteilen, ohne dass merkliche Verzögerungen eintraten. Obwohl der Computer weiterhin von einer Vielzahl von Personen gleichzeitig benutzt wurde, hatte jeder den Eindruck, er habe den ganzen Rechner zur alleinigen Verfügung (Hellige 1996). Als Licklider 1962 einen wichtigen Posten bei der militärischen Advanced Research Projects Agency (ARPA) übernahm, konnte er durch großzügige Fördergelder die Realisierung seiner Idee in Form von Timesharing-Computern forcieren (Norberg/O'Neill 1996). Bei Timesharing-Computern änderte sich auch die Art der Programme. Während der Programmablauf zuvor nicht unterbrochen werden konnte, wurde die Programmunterbrechung nun zum charakteristischen Merkmal. Interaktive Programme, bei denen der Benutzer während
Vom Rechenautomaten zum elektronischen Medium
31
der Ausführung Eingaben machen konnte, gaben diesem das Gefühl, mit dem Computer zu kommunizieren und partnerschaftlich zusammenzuarbeiten. Obwohl auch der Ablauf interaktiver Programme im Voraus festgelegt war, vermittelten sie ihren Benutzern das scheinbare Gefühl der Kontrolle über die Maschine. Man erkannte bald, dass der Umfang dieser Illusion von der Gestaltung der Mensch-Computer-Schnittstelle abhängt. Um 'Missverständnisse' zwischen dem Computer und seinem menschlichen Benutzer zu vermeiden, musste der Programmierer bereits im Vorfeld dafür sorgen, dass er stets eine korrekte Vorstellung über dessen Intentionen besaß. Dass es nicht immer leicht ist, diese einfach klingende Anforderung zu erfüllen, ist auch heute noch zu spüren.
Computerwerkzeuge Die interaktive Benutzung eröffnete auch völlig neue Anwendungsgebiete, bei denen die Vorstellung des Computers als individuelles Werkzeug in den Vordergrund trat. Ein Textverarbeitungsprogramm stellt zum Beispiel die Funktionen zur Verfügung, die man zum Erstellen, Formatieren und Drucken eines Textes benötigt. Inhalt und äußere Form des Textes werden allerdings durch die Aktionen des Benutzers mit dem Programm festgelegt. Dadurch erhält der Benutzer des Computers eine relativ hohe Autonomie gegenüber seinem Arbeitsmittel. Er behält stets das bearbeitete Material im Auge, an dem die vorgenommenen Änderungen sofort sichtbar sind. Als Beispiel für die Konsequenzen dieser verschobenen Sichtweise können die Arbeiten von Douglas Engelbart (*1925) am Stanford Research Institute während der sechziger Jahre gelten. Engelbart machte sich Gedanken über ein Gerät, mit dessen Hilfe man die geistige Arbeit von Wissenschaftlern und Managern effektiver gestalten konnte, und sprach von der Verstärkung der menschlichen Intelligenz mithilfe des Computers. Zu diesem Zweck griff er bereits zu Beginn der sechziger Jahre Ideen der noch jungen kognitiven Psychologie auf und entwickelte auf dieser Grundlage einen theoretischen Rahmen für die Gestaltung der Mensch-Computer-Schnittstelle (Engelbart 1963; Friedewald 2000). Gleichzeitig entwickelten Engelbart und seine Mitarbeiter leistungsfähige Werkzeuge für die Dokumentenerstellung und -verwaltung sowie für Aufgaben des Projektmanagements. Bei Engelbarts 1968 öffentlich vorgestelltem interaktiven Computersystem wurde auch erstmals die bis heute übliche Form der Computerarbeit praktiziert: Der Benutzer arbeitete an einem Terminal mit einem alphanumerischen oder Grafikmonitor, einer Tastatur und mit der von Engelbart erfundenen 'Maus' (Engelbart/English 1968).
32
Michael Friedewald
Computermedien Während in den sechziger Jahren vor allem Computerwerkzeuge für die individuelle Unterstützung von Programmierern und anderen Computerfachleuten im Vordergrund gestanden hatten, wurde in den siebziger Jahren immer stärker an Computersystemen gearbeitet, die über Computernetze miteinander verbunden waren und mit denen auch Laien arbeiten können sollten. Seit 1971 gab eine junge interdisziplinär interessierte Gruppe von Wissenschaftlern am Palo Alto Research Center (PARC) von Xerox in beiden Bereichen entscheidende Impulse. Unter der Leitung von Robert Taylor (*1932), einem erfahrenen Forschungsorganisator, entwickelte eine Gruppe, der viele ehemalige Mitarbeiter Engelbarts angehörten, die Computerwerkzeuge für das so genannte "Büro der Zukunft". Dabei entstanden nicht nur der erste Arbeitsplatzcomputer und ein erstes lokales Netzwerk, das Ethernet, sondern auch eine Vielzahl von Programmen zur Unterstützung der Arbeit von Wissenschaftlern, Ingenieuren und Managern, darunter zukunftweisende Textverarbeitungs- und Grafikprogramme, die später als Vorlagen für die heute so erfolgreichen OfficeProgramme dienten. Den Computerwissenschaftlern wurde bald klar, dass ihre Vorstellung eines voll automatisierten und papierlosen Büros allzu naiv gewesen war, da das Wissen über die Tätigkeiten in einem Büro nicht nur informell und intuitiv ist, sondern sich auch auf eine Vielzahl von Personen verteilt. Weil solches Wissen nur schwer formalisiert werden kann, legten die PARC-Wissenschaftler besonderen Wert auf die Anpassung der Computersysteme an individuelle Bedürfnisse, die einfache Bedienbarkeit und die Möglichkeiten zur computervermittelten Kommunikation (Hiltzik 1999). Gleichzeitig arbeitete eine andere Gruppe unter Leitung von Alan Kay (*1940) an der Programmiersprache Smalltalk, die auch Computerlaien und sogar Kinder zu Programmierern machen sollte. Sie sollte den Computer zu einem universellen Medium für die Informationsbedürfnisse für Jedermann machen, zu einem Speicher für Texte und Notizen mit dem man aber auch spielen, Bilder zeichnen, Musik komponieren und abspielen oder mit Freunden Botschaften austauschen konnte. Um diesem Personenkreis den Zugang zum Computer weiter zu erleichtern, entstand unter Nutzung von Erkenntnissen aus der Entwicklungspsychologie auch die erste grafische Benutzeroberfläche mit den heute so selbstverständlichen Bestandteilen wie Fenstern, Icons und Bildschirmmenüs (Kay/Goldberg 1977). Im Gegensatz zu allen bislang geschilderten Vorgängerprojekten waren die Arbeiten bei Xerox keine reinen Forschungsarbeiten mehr. 1975 beschloss das Management von Xerox, einen Bürocomputer auf den Markt zu entwickeln, in
Vom Rechenautomaten zum elektronischen Medium
33
den die Forschungsergebnisse des Palo Alto Research Center und all seiner Vorgänger einfließen sollten. Dieser Rechner mit graphischer Benutzeroberfläche und Mausbedienung, mit Laserdrucker und der Anschlussmöglichkeit an ein lokales Datennetz kam Anfang 1981 auf den Markt – und wurde ein wirtschaftlicher Misserfolg.
Der Weg zum Massenartikel Der Grund für diesen Misserfolg war nicht nur der hohe Preis von etwa 15 000 $, sondern auch die Tatsache, dass IBM 1981 ebenfalls einen Personal Computer auf den Markt brachte, der zwar längst nicht so leistungsfähig war wie das Gerät von Xerox, dafür aber vom Marktführer bei Großcomputern hergestellt wurde und einen deutlich geringeren Preis hatte. Hier trifft sich nun die kurz skizzierte Geschichte des interaktiven Computers mit der bekannten Geschichte des Mikroprozessors und der Mikrocomputer. Fast hätten sich diese beiden Entwicklungsstränge nicht getroffen. In der Computerindustrie gab es in den siebziger Jahren immer noch den Trend zu immer höheren Leistungen und eine fortbestehende Dominanz der Stapelverarbeitung. Die akademische Welt – zu der auch das Forschungszentrum von Xerox zu zählen ist – führte in ihrem Elfenbeinturm weitgehend selbstverliebte Projekte durch, die oft wenig mit den Bedürfnissen potenzieller Kunden zu tun hatten. Und die Halbleiterindustrie hatte zunächst keine Idee, welches wirtschaftliche Potenzial der Mikroprozessor besaß. Anfangs sah es so aus, als gebe es für die noch leistungsschwachen Mikroprozessoren keine ernst zu nehmenden Anwendungen. Hier waren es dann tatsächlich die Computeramateure oder Hacker, wie sich selbst nannten, die neue Einsatzbereiche definierten und binnen weniger Jahre einen neuen Sektor der Computerindustrie aufbauten. Junge und risikobereite Unternehmen wie Apple oder Microsoft, die an den wirtschaftlichen Erfolg von preiswerten Computern für jedermann glaubten, machten der Personal Computer Anfang der achtziger Jahre zu einem erfolgreichen Produkt (Ceruzzi 1996). Sie waren es schließlich auch, die benutzerfreundliche und (bis zu einem gewissen Grade, s. u.) intuitiv zu bedienende Computer mit grafischen Benutzeroberflächen zu einem Konsumgut gemacht haben, das heute jedes Jahr millionenfach verkauft wird. Die erfolgreichsten Firmen der PC-Industrie waren bald nicht mehr die PCHersteller, sondern zwei Firmen, die IBM 1981 als Lieferanten für den Mikroprozessor (Intel) und das Betriebssystem (Microsoft) ausgewählt hatte. Intels Marktanteil stieg von weniger als 5 Prozent im Jahr 1981 auf mehr als 80 Prozent im Jahr 1992. Microsoft nahm einen ebenso kometenhaften Aufstieg von
34
Michael Friedewald
einer unbekannten Software-Firma mit einem Jahresumsatz von 16 Mio. Dollar im Jahr 1981 zu einer weltbekannten Firma mit sechs Milliarden Dollar Jahresumsatz im Jahr 1995. Während IBM im Software-Krieg mit Microsoft vergeblich versuchte, den Markt für PC-Betriebssysteme zu erobern, gewann Microsoft in der ersten Hälfte der 1990er Jahre nicht nur die Herrschaft über den Markt für Betriebssysteme, sondern auch über den Schlüsselmarkt der Büroanwendungssoftware. Obwohl Microsoft im Jahr 1998 zum ersten Mal IBM bei den Umsätzen im Softwarebereich überholte, überstiegen die gesamten Einnahmen von IBM die von Microsoft allerdings immer noch um ein Vielfaches (CampbellKelly 2001). Für die Visionäre der Computertechnik spielte der PC am Ende des 20. Jahrhunderts keine Rolle mehr. Das Internet und die Vision des Computers als intelligente Maschine waren die meist diskutierten Themen. Obwohl die Vision des 'Elektronengehirns' und der 'Denkmaschine' sich bis heute als leere Versprechungen erwiesen haben, vertreten Experten mit Nachdruck die Theorie, dass in etwa zwanzig Jahren die Rechenleistung der Computer mit der des menschlichen Gehirns vergleichbar ist - vorausgesetzt der technologische Fortschritt setze sich weiterhin so fort (Kurzweil 1999).
Das Ende der Entwicklung? Mitte der achtziger Jahre hatten sich Personal Computer wie der IBM PC und der Apple Macintosh etabliert. Computer sind seitdem keine Rechenmaschinen mehr, sondern vor allem Arbeits- und Spielgeräte, seit Beginn der neunziger Jahre zunehmend auch Kommunikations- und Informationsmedien. Seit dem Beginn dieser Ära sind 15 Jahre vergangen. Mittlerweile gibt es kaum mehr Computersysteme, die nicht über eine grafische Benutzeroberfläche zu bedienen sind. Dabei fällt auf, dass bei der Gestaltung der Mensch-Computer-Schnittstelle seit Ende der achtziger Jahre kaum neue Ideen erkennbar sind. Vielmehr sind die Produkte der großen Hersteller heute kaum mehr voneinander zu unterscheiden. Es bleibt zu diskutieren, ob man mit dem Defacto-Standard ein Optimum an Benutzerfreundlichkeit oder sogar eine erste Stufe der Mensch-ComputerSymbiose erreicht hat, oder ob die eigentliche Computerrevolution noch bevorsteht. Nach der Ansicht von Alan Kay haben die heutigen Benutzeroberflächen (mit Fenstern, Icons, Menüs) mit ihrem Schwerpunkt auf der direkten Manipulation von Bildschirmobjekten die Möglichkeiten des Computers lediglich angerissen. Tatsächlich sind heutige grafische Benutzeroberflächen nicht viel benutzerfreundlicher als bei den ersten Personal Computern. Schon damals zeigten Testergebnisse, dass eine Benutzeroberfläche, die mit Metaphern arbeitete, eine
Vom Rechenautomaten zum elektronischen Medium
35
Abstraktion ist, die mit den realen Fähigkeiten vieler Benutzer nicht viel zu tun hatte. Mittlerweile haben sich die meisten Computerbenutzer so an die Benutzungsschnittstellen ihres Computers gewöhnt, dass sie diese Gewöhnung mit der Benutzerfreundlichkeit des Computers verwechseln. Tatsächlich kann man aber immer wieder beobachten, dass die scheinbar einfache Benutzeroberfläche die Benutzer davon abhält, überhaupt Bedienungsanleitungen und Handbücher zu lesen, weil sich Grundelemente des Programms bequemer durch Ausprobieren erlernen lassen. Dies führt dazu, dass ein großer Teil der Funktionalität verborgen bleibt und die Fähigkeiten des Programms falsch eingeschätzt werden (Dertouzos 1997). Deshalb darf man mit einiger Berechtigung behaupten, dass die Metapher des Schreibtisches wegen ihres Erfolgs heute zu einem Hemmnis bei der Entwicklung von noch benutzerfreundlicheren Computern geworden ist. Bereits 1984 formulierte Alan Kay diese Tendenz folgendermaßen: "A powerful genre can serve as wings or chains. The most treacherous metaphors are the ones that seem to work for a time, because they can keep more powerful insights from bubbling up. As a result progress is slow..." (Kay 1984).
Die Metapher des Schreibtisches ist auch aus einem anderen Grund eher hinderlich: Die Zielgruppe, die die Hersteller von benutzerfreundlichen Computern ansprechen wollten, waren ursprünglich die klassischen Informationsarbeiter wie Wissenschaftler und Manager. Diese hatten in der Regel keine Erfahrungen im Umgang mit dem Computer, waren aber mit der klassischen Büroumgebung vertraut. In der Zwischenzeit hat der Einsatz von Computern die Büroarbeit weitgehend verändert, und viele der jüngeren Computernutzer haben bereits als Kinder Erfahrungen mit Computern sammeln können. So wie sich das Auto vom Vorbild der Kutsche lösen musste, um ein eigenes Profil zu gewinnen, muss sich die Mensch-Computer-Schnittstelle von dem anfangs hilfreichen, nun aber eher hemmenden Vorbild des Schreibtisches befreien. Bei einer Neudefinition der Mensch-Computer-Schnittstelle kann auch der Versuch unternommen werden, die immer noch divergierenden Nutzergruppen zusammenzuführen. Dazu müsste dem Wunsch der 'naiven Benutzer' nach leichter Erlernbarkeit und intuitiver Bedienung des Computers ebenso entsprochen werden wie dem Bedürfnis professioneller Benutzer nach umfassender Konfigurier- und Programmierbarkeit von Hard- und Software. Nur so kann wirklich sichergestellt werden, dass sich der durchschnittliche Benutzer eines Computers, der irgendwo zwischen den beiden Extremen angesiedelt ist, weder bevormundet noch überfordert fühlt (vgl. Friedewald 2007).
36
Michael Friedewald
Es ist allerdings nicht ausreichend, besonders benutzerfreundliche und aufgabengerechte Computer und Benutzungsschnittstellen zu entwickeln. Schon Mitte der achtziger Jahre wurde festgestellt, dass die Computertechnik nicht in erwartetem Maße zur Produktivitätssteigerung in Unternehmen beitragen konnte. Mittlerweile ist klar, dass dieses Produktivitätsparadoxon vielfach auf Anpassungsprobleme der Verwender zurückzuführen ist. Der Einsatz der Informationstechnik produziert keine materiellen Güter, sondern Informationen, die erst in einer angepassten Organisationsstruktur und durch ihre effiziente Verwendung einen eigenständigen Wert erlangen. Dennoch wurden und werden die meisten Computeranwendungen nach tayloristischem Vorbild gestaltet, das heißt sie betonten eine unflexible Arbeitsteilung. Außerdem wird bei der Auswahl eines Computersystems der Gesichtspunkt der Software-Ergonomie nur selten beachtet. In vielen Entscheidungsmodellen, die heute für die Systemwahl angewendet werden, wird die Benutzbarkeit und Benutzerfreundlichkeit nicht oder nur schwach berücksichtigt (Dué 1993). Auch auf gesamtgesellschaftlicher Ebene sind die heutigen Computer kein Allheilmittel für das immer noch aktuelle Informationsproblem. Es scheint sogar, als habe das exponentielle Anwachsen der verfügbaren Datenmenge im Internet mehr negative als positive Wirkungen. Die Handlung des bewussten Informierens degeneriert zunehmend zur Datensammlung. In den vergangenen Jahrzehnten sind uns bei allem technischen Fortschritt die gesellschaftlichen Institutionen verloren gegangen, die uns dieses Bewusstsein vermitteln könnten. Bis in die sechziger Jahre wurde die Vorauswahl und Bewertung von Information durch kompetente Herausgeber oder Verlage vorgenommen. Diese Entwicklung konnte auch durch den Einsatz des Computers bislang nicht gestoppt werden. Heute sind gerade wegen der allgegenwärtigen Informations- und Kommunikationstechnik mehr Informationen verfügbar als je zuvor in der Geschichte. Wenn man den Computer trotzdem als grundsätzlich geeignet erachtet, der Informationsflut Herr zu werden, gibt es für die Wissenschaft und Technik der nächsten Jahrzehnte noch genügend Aufgaben zu lösen.
Vom Rechenautomaten zum elektronischen Medium
37
Literatur AFIPS (American Federation of Information Processing Societies) (Hrsg.) (1968): Proceedings of the AFIPS 1968 Fall Joint Computer Conference. San Francisco, CA.: Thompson Book. Bush, Vannnevar (1945): As we may think. In: Atlantic Monthly 176.1. 101-108. Campbell-Kelly, Martin (2001): Not Only Microsoft: The Maturing of the Personal Computer Software Industry, 1982–1995. In: Business History Review 75. 103-146. Ceruzzi, Paul E. (1996): From Scientific Instrument to Everyday Appliance: The Emergence of Personal Computers, 1970-1977. In: History and Technology 13.1. 1-32. Dertouzos, Michael L. (1997): Creating the People's Computer. In: Technology Review 100.3. Dué, Richard T. (1993): The Productivity Paradox. In: Information Systems Management 10.Winter. 68-71. Edwards, Paul. N. (1996): The Closed World. Computers and the Politics of Discourse in Cold War America. Cambridge, Mass.: MIT Press. Engelbart, Douglas C. (1963): A Conceptual Framework for the Augmentation of Man's Intellect. In: Howerton/Weeks (Hrsg.) (1963): 1-29. Engelbart, Douglas C./English, William K. (1968): A research center for augmenting human intellect. In: AFIPS (American Federation of Information Processing Societies) (Hrsg.) (1968): 395-410. Friedewald, Michael (2000): Konzepte der Mensch-Computer-Kommunikation in den 1960er Jahren: J. C. R. Licklider, Douglas Engelbart und der Computer als Intelligenzverstärker. In: Technikgeschichte 67.1. 1-24. Friedewald, Michael (2007): Ubiquitous Computing: Ein neues Konzept der Mensch-ComputerInteraktion und seine Folgen. In: Hellige (Hrsg.) (2007). Goldstine, Herman H. (1980): The Computer from Pascal to von Neumann. Princeton, N.J.: Princeton University Press. Heintz, Bettina (1993): Die Herrschaft der Regel. Zur Grundlagengeschichte des Computers. Frankfurt, New York: Campus. Hellige, Hans D. (Hrsg.) (2007): Das Mensch-Computer-Interface: Geschichte, Gegenwart und Zukunft. Bielefeld: Transkript Verlag. Hellige, Hans D. (1996): Leitbilder im Time-Sharing-Lebenszyklus: Vom "Multi-Access" zur "Interactive Online-Community". In: Hellige (Hrsg.) (1996): 205-234. Hellige, Hans D. (Hrsg.) (1996): Technikleitbilder auf dem Prüfstand. Leitbild-Assessment aus der Sicht der Informatik- und Computergeschichte. Berlin: Edition Sigma. Hiltzik, Michael A. (1999): Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age. New York: HarperCollins. Howerton, P. W./Weeks, D. C. (Hrsg.) (1963): The Augmentation of Man's Intellect by Machine. Washington, DC: Spartan Books. Kay, Alan C. (1984): Computer Software. In: Scientific American 251.3. 41-47.
38
Michael Friedewald
Kay, Alan C./Goldberg, Adele (1977): Personal Dynamic Media. In: IEEE Computer 10.3. 31-41. Kurzweil, Ray (1999): The age of spiritual machines: When computers exceed human intelligence. New York: Viking. Licklider, J. C. R. (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics 1.1. 4-11. Nelson, Ted (1987): Computer Lib/Dream Machines [1. Auflage 1974]. Redmond: Tempus Books. Norberg, Arthur. L./O'Neill, Judy E. (1996): Transforming Computer Technology: Information Processing in the Pentagon 1962-1986. Baltimore Md.: Johns Hopkins University Press. Redmond, Kent C./Thomas, M. S. (2000): From Whirlwind to MITRE: The R&D Story of the SAGE Air Defense Computer. Cambridge, Mass.: MIT Press. Rojas, Raúl (Hrsg.) (1998): Die Rechenmaschinen von Konrad Zuse. Berlin, Heidelberg: Springer.
Reflektierte und populäre Kritik der elektronischen Massenmedien. Anforderungen an eine kritische und gestaltende Medienforschung Roger Häussling, Michael Mangold
Vermittlung von Wissensinhalten als zentraler gesellschaftsgestalterischer Beitrag der Massenmedien "Was wir (…) über die Welt, in der wir leben, wissen, wissen wir durch die Massenmedien" (Luhmann 2004: 9). Mit dieser Aussage bringt Niklas Luhmann den wohl wichtigsten gesellschaftsgestaltenden Beitrag der Massenmedien auf den Punkt. Unser Wissen über Naturphänomene, politische Zusammenhänge, wirtschaftliche Prozesse, kulturelle Gegebenheiten – inklusive der Lebensweise derjenigen sozialen Milieus unserer Gesellschaft, denen wir selbst nicht angehören und zu denen wir auch keine direkten Berührungspunkte besitzen –, erhalten wir über Massenmedien.1 Sind also unsere "Weltbilder" (Dux 1982) tatsächlich zu einem beträchtlichen Teil durch die Massenmedien erzeugt, so bedarf es einer ebenso differenzierten wie distanzierten Reflektion über diese Medien. Was – so ist zu fragen – wird da eigentlich vermittelt? Welches Wissen wird generiert? Und trifft dies überhaupt relevante Wissensbereiche der Gesellschaft, um zu mehr gesellschaftlicher Mündigkeit zu gelangen? Besonders das Fernsehen – das Leitmedium der Massenkommunikation2 – steht hierbei in der populären Kritik, wenig zu einer anspruchsvollen Vermittlung von Wissensinhalten beitragen zu können. Eine Orientierung an Sensationellem, ein Werteverfall, ein Verlust an Niveau, eine zu starke Orientierung an Unterhaltung und reinem Entertainment, ein Schielen auf Einschaltquoten, aber auch ein Manipulieren von Meinungen und gesellschaftlichen Stimmungen werden im Rahmen dieser populären Kritik konstatiert. Man wäre als Wissenschaftler durchaus nicht schlecht beraten, in diesen Chor der Kritik mit einzu1 2
Ja, selbst die meisten Erkenntnisse eines Wissenschaftlers sind über Massenmedien, vorzugsweise Bücher und Zeitschriften, vermittelt. Selbst bei intensiven Onlinenutzern hat sich an diesem zentralen Stellenwert des Fernsehens, wie empirische Befunde zeigen, nichts geändert. Allein die Nutzungsweise hat sich noch stärker zur Unterhaltung hin verschoben (vgl. Oehmichen/Schröter 2003: 158).
40
Roger Häussling, Michael Mangold
stimmen. Hier wird aber stattdessen gefragt, ob diese Form der Medienkritik nicht selbst von dem Urteil eingeholt wird, welches sie über ihren Gegenstand verhängen möchte, nämlich wenig anspruchsvoll zu sein? Als Maßstab einer gehaltvollen Medienkritik sollen hier die entsprechenden Ausführungen von Jürgen Habermas herangezogen werden (Kapitel 2). Anschließend (Kapitel 3) wird aufgezeigt, dass seine Medienkritik zwar vielfach aufgegriffen wurde, allerdings in oftmals bedenklicher Simplifizierung und Pauschalisierung. Eine derartige Kritik trifft nicht nur nicht mehr zu, sondern sie büßt auch ihre eigentliche Funktion ein: Ein Regulativ für die Medienentwicklung selbst zu sein. Abschließend (Kapitel 4) sollen deshalb Anforderungen an eine gehaltvolle Medienkritik formuliert werden, die sich auf ihre zentrale Funktion der Wissensvermittlung bezieht und andererseits differenziert aktuelle Verhältnisse und Entwicklungen der Medienlandschaft zu erfassen erlaubt.
Der Maßstab gehaltvoller Medienkritik: Jürgen Habermas Habermas kommt in seiner berühmten Habilitationsschrift "Strukturwandel der Öffentlichkeit" zu einer durchaus ambivalenten Einschätzung der Massenmedien. Ohne die Massenmedien wäre die Entstehung und Etablierung demokratischer bürgerlicher Gesellschaften wahrscheinlich nicht möglich gewesen. Sie spielen in der Gewinnung eines eigenen Selbstverständnisses und Selbstbewusstseins der bürgerlichen Schichten im Rahmen noch bestehender feudaler Machtstrukturen eine nicht zu unterschätzende Bedeutung. Für Habermas bilden die englischen Kaffeehäuser ab Mitte des 17. Jahrhunderts, die französischen Salons im nachrevolutionären Frankreich sowie die deutschen Tischgesellschaften und literarischen Zirkel im 19. Jahrhundert die Prototypen der bürgerlichen Öffentlichkeit (vgl. Habermas 1990: 90ff). An diesen Orten wurden literarische und bald auch politische Texte diskutiert. Er spricht vom "Räsonnement des Publikums" (ebd.: 130). Hierbei kommt der Presse eine zentrale Bedeutung zu, deren Wandel Habermas mustergültig für das England des ausgehenden 18. Jahrhunderts nachzeichnet (ebd.: 122ff.). Immer mehr werden dort Themen aufgegriffen, die für das erstarkende Bürgertum von Bedeutung sind: vornehmlich wirtschaftliche und politische. Schrittweise erhalten Journalisten mehr Zugang zu Parlamentsdebatten, womit der Politik als geschlossene Veranstaltung ein Ende bereitet wird. Die Tagespresse (wie die "Times") gewinnt so die Rolle eines sich institutionalisierenden kritischen Regulators, mit dem das Parlament fortan zu rechnen hat. Diese regulative Idee von Öffentlichkeit schafft damit – so Habermas – eine bedeutungsvolle Instanz der Wissensvermittlung zwischen Staat und Privatsphäre (ebd.: 225).
Reflektierte und populäre Kritik der elektronischen Massenmedien
41
Dieser hohe Anspruch wird nun, so die weitere Argumentation von Habermas, ausgerechnet von der Instanz schrittweise wieder demontiert, die maßgeblich an der Etablierung der bürgerlichen Öffentlichkeit mitgewirkt hat: die Presse und die Massenmedien (ebd.: 275ff.). Denn durch die Ausdehnung des Pressewesens werde ein erneuter Rückzug in die häusliche Privatsphäre begünstigt.3 Der gerade entwickelte öffentliche Kommunikationsraum zerfalle somit in eine Vielzahl vereinzelter Rezeptionsakte, wobei die Zuordnung dieser Tätigkeit in den Bereich der Freizeit eine faktische Entpolitisierung des Bürgers bedeute. Nicht mehr länger stehe die Artikulation eines politischen Willens im Vordergrund, sondern Öffentlichkeit werde zu einer kommerziell organisierten und produzierten Angelegenheit (ebd.: 258ff.). Die Wissensinhalte werden dementsprechend marktverwertbar zurechtgestutzt. Habermas spricht in diesem Zusammenhang von einer "Refeudalisierung der Öffentlichkeit" (ebd.: 292), bei der das Publikum in zunehmendem Maß vom Sprachrohr zum Resonanzboden von öffentlichen Kommunikationen degradiert wird. Denn das öffentliche Räsonnement, das vormals außerhalb der Medien stattfand, wird nun von den Medien selbst beansprucht, wodurch dem Publikum die Chance genommen wird, sprechen und widersprechen zu können. So wie im Mittelalter die Feudalmächte die öffentlichen Auftritte als Selbstrepräsentation zu Legitimationszwecken genutzt haben, erscheinen nun "öffentliche Angelegenheiten" (Informationen) und "Akteure der Öffentlichkeit" als Material (Ware) der Selbstinszenierung der Massenmedien.4 Sieht man Habermasens Kritik im zeitgeschichtlichen Kontext einer flächendeckenden Ausbreitung des Fernsehens in den 1950er Jahren und des nachholenden Konsums einer vom "Wirtschaftswunder" ergriffenen Gesellschaft, so erscheinen seine Befürchtungen für die damalige Zeit mehr als berechtigt.5 In 3
4
5
Auch Richard Sennett hat den Zerfall des öffentlichen Lebens diagnostiziert. Die Differenz zwischen den sozialen Bereichen der Privatheit und der Gesellschaftlichkeit werden nivelliert, was zu einer Einengung des Variationsspielraums von sozialen Beziehungen führe (Sennett 1990). Im Anschluss an Habermas versuchen Ulrich Oevermann und weitere Vertreter der Objektiven Hermeneutik die Darstellungsstrategien der Produzenten mittels differenzierter Einzelfallanalysen als Selbstinszenierungen zu deuten (vgl. Ackermann 1994; Mingot 1993; Oevermann 1983). Nicht von ungefähr lassen sie sich in Deckung bringen mit den Beiträgen von Adorno und Horkheimer zur "Kulturindustrie" – die sich auf die US-amerikanische Gesellschaft der 1940er Jahre bezog und in der die Ausbreitung des neuen Massenmediums Fernsehen und die Kommerzialisierung viel weiter fortgeschritten war als in irgend einer anderen Gesellschaft der damaligen Zeit. Adornos und Horkheimers Kritik an den Massenmedien richtete sich auf den Aspekt der Unterwerfung der Kultur unter die Verwertungsmechanismen der Kulturindustrie (Adorno/Horkheimer 1969: 132).
42
Roger Häussling, Michael Mangold
seinem Vorwort zur Neuauflage seiner Habilitationsschrift räumt Habermas selbst ein, die Rolle der Rezipienten zu kritisch-pessimistisch gesehen zu haben. Diese besäßen durchaus größere Handlungsspielräume in der Aneignung der Medieninhalte (ebd.: 30). Von dieser späteren Relativierung bleibt allerdings seine vehemente Kritik bezüglich der Produktion massenmedialer Inhalte unberührt. Denn für Habermas könne sich bei einer öffentlichen Kommunikation über Massenmedien prinzipiell die diskursive Vernunft, also der "zwanglose Zwang" des besseren Arguments nicht durchsetzen. Im Grunde trifft diese Kritik von Habermas jedoch nicht nur die Massenkommunikation sondern auch die kommunikativen Handlungen fast aller anderen gesellschaftlichen Bereiche; denn dort ist der "herrschaftsfreie Diskurs" aus anderen strukturellen Gründen ebenso wenig möglich. Setzt man aber den Bewertungsmaßstab, wie Habermas, zu hoch, läuft man Gefahr, gegenläufige Tendenzen in den kritisierten Kommunikationsformen nicht adäquat würdigen zu können.
Die Verdinglichung der Kritik Die von Seiten Horkheimers und Adornos formulierte Kritik an der Kulturindustrie sowie die Arbeit von Habermas zum Strukturwandel der Öffentlichkeit finden sich jeweils eingebettet in eine sehr komplexe Theorie der Gesellschaft. Alle Theorien mit einer derartigen Komplexität werden jedoch mit der Problematik der Vermittlung gegenüber den Adressaten konfrontiert. Dabei reduziert sich die Problematik nicht als eine des Adressaten und dessen Weltsicht, vielmehr wirkt die rezipierte Sichtweise auf den Gegenstand zurück und affiziert ihn dadurch. Die Vermittlungsschwierigkeiten von Theorie sind bereits innerwissenschaftlich sowie unter Bedingungen eines mehr oder weniger statischen Untersuchungsgegenstandes erheblich. Bereits unter relativ günstigen Bedingungen der Vermittlung der Theorie zur Kulturindustrie sowie des Strukturwandels der Öffentlichkeit wohnen ihr so gewisse Tendenzen zur Reduktion und damit letztlich zur Verfälschung inne, die nachfolgend analytisch getrennt näher betrachtet werden sollen.
Die Kritik an der Kulturindustrie wird dessen Opfer Die benannte Problematik des Affizierens komplexer Theorie erlangt eine besondere Qualität, sofern die Vermittlung außerhalb des wissenschaftlichen Diskurses erfolgt und eine breitere Öffentlichkeit einbezogen wird. Die Mechanis-
Reflektierte und populäre Kritik der elektronischen Massenmedien
43
men der innerwissenschaftlichen Kontrolle gelten für diesen Fall nicht mehr. Vielmehr finden im außerwissenschaftlichen Diskurs eigene Regeln der Kommunikation ihre Anwendung. Dies gilt insbesondere vor dem Hintergrund, dass die Vermittlung der Theorie bzw. ihrer simplifizierten Formen vorrangig über jene Medien, auf die sich ein wesentlicher Teil der Kritik bezog,6 erfolgte: die der kommerzialisierten Massenmedien. Besonders bedeutsam war dabei sicher die Rezeption der genannten Theorien über populäre Sachbücher, das Feuilleton sowie nicht zuletzt über das Fernsehen. In diesem Medienkontext ist die Vermarktung und damit verbunden die Verdinglichung in besonders ausgeprägter Form wirksam.7 Dabei kommen diese Prozesse erst in Gang, sofern bereits Anknüpfungsmöglichkeiten an bereits etablierte allgemeine gesellschaftliche Deutungsschemata vorliegen. Letztere sind in diesem Fall jene, in Denk- und Wahrnehmungsmustern verankerte Vorbehalte gegenüber spezifischen Kulturerscheinungen, wie beispielsweise der Jugend- oder Populärkultur bzw. ihrer medialen Ausdrucksmittel. Bei näherer Betrachtung bedeutet dies, dass die kritische Analyse der kulturellen Produktion im Zuge ihrer Vermittlung über die Massenmedien genau jenen Prozessen der Verdinglichung unterworfen wurde, die ursprünglich im Zentrum der Kritik stand. Das Kritisierte holt derart die Kritik ein und macht sie stumpf.
Die Negation emanzipatorischer Potenziale durch populäre Medienkritik Die benannte Problematik verschärft sich weiterhin erheblich, sofern die eingangs genannte Bedingung eines mehr oder weniger statischen Untersuchungsgegenstandes nicht zutrifft. Dies gilt zweifelsohne für die in den zurückliegenden Jahrzehnten bei den elektronischen Medien festzustellende Entwicklung. Die hier erfolgten Veränderungen sind dabei nicht lediglich als eine quantitative Ausweitung der Verwertungsprozesse und damit als eine Allgegenwart der Mechanismen der Kulturindustrie zu interpretieren, sondern vielmehr als eine 6
Der Begriff der Kulturindustrie, wie er von Horkheimer und Adorno geprägt wurde, richtete sich nicht lediglich auf die Medien bzw. die Massenmedien. Vielmehr bezieht er die ganze Bandbreite der öffentlichen kulturellen Äußerungen ein, wie sie auch außerhalb des im engen Sinn als Kultur bezeichneten Rahmens stattfindet, so beispielsweise im Kontext der Politik, des Städtebaus oder auch der Straßenkunst (siehe hierzu auch: Resch/Steinert 2003).
7
Damit soll darauf verwiesen werden, dass im wissenschaftlichen Kontext ebenfalls jene Regeln des Marktes und der Warenförmigkeit Geltung aufweisen, wenngleich unter spezifischen Bedingungen.
44
Roger Häussling, Michael Mangold
qualitative Veränderung, die die traditionellen Kategorien der elektronischen Massenmedien obsolet werden ließ. Dies gilt insbesondere für die traditionellen Kategorien des Produzenten und des Konsumenten (Häussling/Mangold 2006). Die zwar insgesamt nicht befriedigende, gleichwohl in einzelnen Bereichen wichtige Weiterentwicklung der Theorie der Kulturindustrie, der Massenmedien bzw. des Strukturwandels der Öffentlichkeit (so z.B. Habermas 1990; Wenzel 2001) fand jedoch offenkundig nicht in einem nennenswerten Ausmaß Eingang in eine die breite Öffentlichkeit einbeziehende Diskussion. Dies bedeutet letztlich, dass im öffentlichen Diskurs über die elektronischen Massenmedien eine die Veränderungen der zeitlichen, gesellschaftlichen und medientechnologischen Realitäten weitgehend ignorierende und zudem sich auf eine simplifizierte und popularisierte "Theorie" der Kulturindustrie stützende allgemeine Deutung herausbildete. Da zugleich der fachliche Diskurs lediglich innerhalb der "scientific community" erfolgte, tritt die allgemeine Deutung mehr oder weniger ohne Konkurrenz und daher ohne Zwang zur Begründung von Urteilen über die Medienrealität in Erscheinung. Mit anderen Worten: Sie erlangte nahezu unangefochten die Deutungshoheit. Besonders augenfällig wird dies bei Betrachtung der vom Kriminologen Christian Pfeiffer (2003) und vom Neurobiologen Manfred Spitzer (2002; 2005) vorgetragenen populären Kritik an den elektronischen Medien. Von beiden Autoren wird an das bereits etablierte Deutungsschemata der Vorbehalte gegenüber den Massenmedien, hier insbesondere des Fernsehens und der Computerspiele, angeknüpft.8 Dabei stießen jene Beiträge der beiden Autoren nicht zuletzt in dem von ihnen kritisierten Medium Fernsehen auf große Resonanz, da sie durch eingängige Formeln, wie jene der "Medienverwahrlosung" (Pfeiffer 2003), nicht nur die genannten Ressentiments gegenüber den vorrangig in der Jugendkultur verankerten Medien bedienten. Vielmehr suggerierten sie auch den im Zusammenhang mit den PISA-Studien (Baumert et al. 2001; Baumert et al. 2002) entstandenen großen Bedarf an einer Erklärung der konstatierten Misere in der bundesdeutschen Bildung zu decken und nicht zuletzt den dadurch ausgelösten Bedarf an unmittelbar umsetzbaren und nachhaltig wirksamen Lösungen zu befriedigen. Die von den Autoren in einer breiten Öffentlichkeit angebotenen "Lösungen" lassen sich letztlich auf die Kernforderung einer Abwendung von den elektronischen Medien reduzieren. Eine derartige Form von Lösung weist dabei den politisch nicht zu unterschätzenden Vorteil der Bewahrung der angestammten Strukturen im Bildungssystem sowie in den elektronischen Medien, insbesondere im Fernsehen, auf. Ein Medium, dem gegenüber eine Abkehr 8
Siehe hierzu ausführlich: Häussling/Mangold (2006).
Reflektierte und populäre Kritik der elektronischen Massenmedien
45
eingefordert wird, ist damit zugleich von Reflektionen, beispielsweise bezüglich des öffentlich-rechtlichen Auftrags, entpflichtet und vermag sich derart weiterhin einer Kritik zu entziehen. Näher betrachtet führt eine derartige Medienkritik jedoch nicht lediglich zu einem Strukturkonservatismus und lässt Potenziale zur Nutzung für die Bewältigung gesellschaftlicher Wandlungsprozesse in Richtung einer Wissensgesellschaft ungenützt. Vielmehr trägt jene Kritik dazu bei, dass die Realität der elektronischen Massenmedien sich in jener Weise verändert, die aus Sicht der populären Kritik deren Anlass war. Wenn an die Stelle einer differenzierten Analyse der elektronischen Massenmedien und ihrer Position im Prozess der gesellschaftlichen Reproduktion pauschal medienkritische bzw. populäre negative Sichtweisen treten,9 so werden gesellschaftliche Deutungsschemata im oben genannten Sinne generiert, die zu einem Übergang des Vermeintlichen zum Tatsächlichen führen.10
Anforderungen an eine Medienkritik mit dem Bezugspunkt der Wissensvermittlung Eine an den neuen Entwicklungen in der Medienlandschaft und in der Gesellschaft orientierte Reflektion der Massenmedien müsste unseres Erachtens an dem eingangs erwähnten, wohl zentralsten gesellschaftsgestaltenden Beitrag der Massenmedien ansetzen: Nämlich an der Vermittlung von Wissensinhalten. Sie wird in den kommenden Jahren und Jahrzehnten durch die gesellschaftlichen Veränderungsprozesse im Sinne einer "Wissensgesellschaft" noch weiter in den Fokus der Gesellschaftspolitik treten. Dabei ist zunächst vorbehaltlos zu konstatieren, dass das viel geschmähte Medium Fernsehen nach wie vor wohl das wichtigste Medium der Wissensvermittlung11 darstellt und folglich eine entsprechend große Rolle bei der Bewältigung der Herausforderungen im Gesellschaftswandel erfahren muss. Dies gilt um so mehr, sofern der Einbezug von so genannten "bildungsfernen" Personengruppen in das Bildungssystem bzw. in die 9 10
11
Manfred Spitzer vertritt die Ansicht, dass Fernseher und Computer "dumm, dick und gewalttätig" machen (Spitzer 2005: 245). Siehe hierzu u.a. die Ausführungen im Sammelband von Rössler/Krotz (2005) zu den "Mythen der Mediengesellschaft", die jene unreflektierten Vorstellungen und Mythen zu den Medien im Detail analysieren. Dabei sind insbesondere die in narrativen Fernsehformaten eingebundenen Wissensvermittlungsprozesse hervorzuheben. Sie werden vielfach gegenüber den auf explizite Wissensvermittlung konzentrierten Fernsehformaten vernachlässigt.
46
Roger Häussling, Michael Mangold
Wissensgesellschaft erkannt wird, deren Medienkonsum durch das Fernsehen besonders stark dominiert wird (siehe hierzu: Mangold et al. 2004; Mangold/Soultanian 2003; Mangold/Üstünsöz-Beurer 2006). Wird die computervermittelte bzw. internetbezogene Kommunikation ebenfalls in ihrer gesamten Breite in die Analyse einbezogen, so können auch hier vielfältige Anknüpfungspunkte zu einer Gestaltung der sozialen Wandlungsprozesse ermittelt und genützt werden. Hierzu zählen beispielsweise Computerspiele, Weblogs, Videologs, Podcasts und andere neuere Formen der Nutzung der Neuen Medien (Diemand et al. 2006). Bei vorbehaltloser Betrachtung zeigen sich hier durchaus bezüglich der Herausbildung der frühen bürgerlichen Öffentlichkeit ähnliche, auf originäre Kommunikationsbedürfnisse zurückgehende Formen des Räsonnements des Publikums, die wichtige Impulse für die demokratische Gesellschaft zu vermitteln vermögen. Es zeigen sich weiterhin, der Unterhaltung zugerechnete Formen der Mediennutzung, die, ebenfalls aus originären Bedürfnissen hervorgehend, komplexe Lernprozesse in Gang setzen und daher unter dem Aspekt der Befähigung zur Teilhabe an der modernen Gesellschaft nicht zu unterschätzen sind (Johnson 2005). Zu den Anforderungen an eine Medienkritik sind daher zunächst ein anderes Selbstverständnis sowie eine andere Beziehung zwischen wissenschaftlicher und praktischer Arbeit zu nennen. Resch/Steinert konstatieren in diesem Sinn, dass "die Theorie der Kulturindustrie (...) keine Publikums-, sondern eine Intellektuellenbeschimpfung [ist]" (2003: 315). Dem wäre hinzuzufügen, dass eine der Aufklärung verpflichtete Theorie, wie sie von Seiten der Sozialwissenschaften einzubringen und weiter zu entwickeln ist, auch den Graben zur praktischen Medienkultur überschreiten muss. Der sich letztlich gegen emanzipatorische Potenziale richtenden populären Medienkritik kann und darf das Feld nicht überlassen werden. Das Wissen der sich mit den Neuen Medien wissenschaftlich auseinandersetzenden Disziplinen wird benötigt, um bereits vorhandene, wünschenswerte Veränderungsprozesse in den Medien zu forcieren und durchaus auch um jene Veränderungen zu initiieren und zu begleiten.
Literatur Ackermann, Friedhelm (1994): Die Modellierung des Grauens. Exemplarische Interpretation eines Werbeplakats zum Film "Schlafwandler" unter Anwendung der "Objektiven Hermeneutik" und Begründung einer kultursoziologischen Bildhermeneutik. In: Garz/Kraimer (Hrsg.) (1994): 195-225. Adorno, Theodor W./Horkheimer, Max (1969): Dialektik der Aufklärung. Philosophische Fragmente. Frankfurt/M.: Fischer.
Reflektierte und populäre Kritik der elektronischen Massenmedien
47
Baumert, Jürgen/Artelt, Cordula/Klieme, Eckhard/Neubrand, Michael/Prenzel, Manfred/Schiefele, Ulrich/Schneider, Wolfgang/Tillmann, Klaus-Jürgen/Weiß, Manfred (Hrsg.) (2002): PISA 2000 – Die Länder der Bundesrepublik Deutschland im Vergleich. Opladen: Leske + Budrich. Baumert, Jürgen/Klieme, Eckhard/Neubrand, Michael/Prenzel, Manfred/Schiefele, Ulrich/Schneider, Wolfgang/Stanat, Petra/Tillmann, Klaus-Jürgen/Weiß, Manfred (Hrsg.) (2001): PISA 2000: Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Opladen: Leske + Budrich. Cunningham, Paul/Cunningham, Miriam/Fatelnig, Peter (Hrsg.) (2003): Building the Knowledge Economy: Issues, Applications, Case Studies. Amsterdam: IOS Press. Demirovic, Alex (Hrsg.) (2003): Modelle kritischer Gesellschaftstheorie. Traditionen und Perspektiven der Kritischen Theorie. Stuttgart/Weimar: Metzler. Diemand, Vanessa/Mangold, Michael/Weibel, Peter (Hrsg.) (2006): Weblogs, Podcasting und Videojournalismus. Neue Medien zwischen demokratischen und ökonomischen Potenzialen. Hannover: Heise Verlag. Dux, Günter (1982): Die Logik der Weltbilder. Sinnstrukturen im Wandel der Geschichte. Frankfurt/M.: Suhrkamp. Garz, Detlef/Kraimer, Klaus (Hrsg.) (1994): Die Welt als Text. Theorie, Kritik und Praxis der objektiven Hermeneutik. Frankfurt/M.: Suhrkamp. Habermas, Jürgen (1990): Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, mit einem Vorwort zur Neuauflage. Frankfurt/M.: Suhrkamp. Häussling, Roger/Mangold, Michael (2006): Potenziale der Massenmedien für eine neue Öffentlichkeit. Zur Revision der traditionellen Medienkritik. In: Diemand et al. (Hrsg.) (2006): 21-41. Holly, Werner/Püschel, Ulrich (Hrsg.) (1993): Medienrezeption als Aneignung. Methoden und Perspektiven qualitativer Medienforschung. Opladen: Westdeutscher Verlag. Johnson, Steven (2005): Everything Bad is Good for You: How Today's Popular Culture Is Actually Making Us Smarter. London: Penguin Books. Luhmann, Niklas (2004): Die Realität der Massenmedien, 3. Auflage. Opladen: Westdeutscher Verlag. Mangold, Michael/Schneider, Christoph/Soultanian, Robert (2004): Werte- und Bildungsvermittlung durch die Daily Soap: Unterhaltungsfernsehen als neues Instrument zur gesellschaftlichen Integration türkischer Jugendlicher. Forschungsbericht des ZKM | Institut für Medien, Bildung und Wirtschaft, Pilotprojekt des Ministeriums für Arbeit und Soziales BadenWürttemberg gefördert aus Mitteln des Europäischen Sozialfonds. Karlsruhe: ZKM Institut für Medien und Wirtschaft. Mangold, Michael/Soultanian, Robert (2003): Entertainment Films for Education in the Age of Analogue and Digital Television. In: Cunningham et al. (Hrsg.) (2003). Mangold, Michael/Üstünsöz-Beurer, Dörthe (2006): TV-gestützte Lösungsansätze: Die Bedeutung des Fernsehens für die Berufsorientierung. In: Zeitschrift für Wirtschaft und Berufserziehung (W&B) 06.06. 17-20.
48
Roger Häussling, Michael Mangold
Mingot, Karl M. (1993): Die Struktur der Fernsehkommunikation – der objektive Gehalt des Gesendeten und seine Rezeption. In: Holly/Püschel (Hrsg.) (1993): 151-172. Oehmichen, Ekkehardt/Ridder, Christa-Maria (Hrsg.) (2003): Die MedienNutzerTypologie. Ein neuer Ansatz der Publikumsanalyse. Baden-Baden: Nomos. Oehmichen, Ekkehardt/Schröter, Christian (2003): Fernsehen, Hörfunk, Internet: Konkurrenz, Konvergenz oder Komplement? Zur Nutzung von Fernsehen, Hörfunk und Internet nach typologischen Publikumssegmenten. In: Oehmichen/Ridder (Hrsg.) (2003): 144-159. Oevermann, Ulrich (1983): Zur Sache. Die Bedeutung von Adornos methodologischem Selbstverständnis für die Begründung einer materialen soziologischen Strukturanalyse. In: von Friedeburg/Habermas (Hrsg.) (1983): 234-289. Pfeiffer, Christian (2003): Medienverwahrlosung als Ursache von Schulversagen und Jugenddelinquenz?. Online: http://kfn.de/profdrpfeiffer.shtml (abgerufen am: 02.03.2007). Resch, Christine/Steinert, Heinz (2003): Kulturindustrie: Konflikte um die Produktionsmittel der gebildeten Klasse. In: Demirovic (Hrsg.) (2003): 312-339. Rössler, Patrick/Krotz, Friedrich (2005): Mythen der Mediengesellschaft. Konstanz: UVK Verlags GmbH. Sennett, Richard (1990): Verfall und Ende des öffentlichen Lebens. Die Tyrannei der Intimität. Frankfurt/M.: S. Fischer Verlag GmbH. Spitzer, Manfred (2002): Lernen. Gehirnforschung und die Schule des Lebens. Heidelberg/Berlin: Spektrum Akademischer Verlag. Spitzer, Manfred (2005): Vorsicht Bildschirm! Elektronische Medien, Gehirnentwicklung, Gesundheit und Gesellschaft. Stuttgart: Ernst Klett Verlag. von Friedeburg, Ludwig/Habermas, Jürgen (Hrsg.) (1983): Adorno-Konferenz 1983. Frankfurt/M.: Suhrkamp. Wenzel, Harald (2001): Die Abenteuer der Kommunikation. Echtzeitmassenmedien und der Handlungsraum der Hochmoderne. Weilerswist: Velbrück Wissenschaft.
Kommunikatoren in der Onlinekommunikation
Stabilität und Wandel von Weblog-Praktiken: Erste empirische Befunde Jan Schmidt
Einleitung: Praktiken des Bloggens1 Die Diskussion um die gegenwärtige und zukünftige Bedeutung des Internet, die mit dem Stichwort "Web 2.0" verbunden ist, betont die wachsenden Möglichkeiten, seine eigenen Interessen, Meinungen und sozialen Beziehungen im Netz sichtbar zu machen. Die Entscheidung der TIME, den aktiven Internet-Nutzer zur Person des Jahres 2006 zu erklären, drückte dies prägnant aus (Grossman 2006). Eines der bekanntesten Formate, das für viele prototypisch für das Web 2.0 steht, ist das Weblog (auch: Blog), worunter eine vergleichsweise häufig aktualisierte Webseite verstanden wird, deren Beiträge rückwärts chronologisch dargestellt sind und in der Regel von anderen Nutzern kommentiert werden können. Die rasante Verbreitung dieser Form der computervermittelten Kommunikation – die spezialisierte Suchmaschine technorati.com zählte im Juni 2007 über 85 Millionen Weblogs – ging mit einer Differenzierung der Einsatzweisen einher. Neben den anteilsmäßig dominierenden persönlichen OnlineJournalen, die jedoch in sich schon große Unterschiede in Themen, Stil und Gestaltung aufweisen, werden Weblogs beispielsweise auch in der Organisationskommunikation, als Instrument des E-Learning oder als Ergänzung professioneller publizistischer Angebote eingesetzt. Um Gemeinsamkeiten und Unterschiede dieser Vielfalt von Nutzungsweisen kommunikationssoziologisch zu erfassen, hat der Verfasser an anderer Stelle einen praxistheoretischen Analyserahmen vorgeschlagen (vgl. Schmidt 2006b). Demnach existieren unterschiedliche Sets von Routinen und Erwartungen (Regeln) für den Einsatz der Weblog-Software und ihrer spezifischen Funktionen (Code) innerhalb bestehender oder neu aufzubauender hypertextueller und sozialer Netzwerke (Relationen). Diese drei strukturellen Dimensionen geben dem
1
Die hier vorgestellten Forschungsergebnisse wurden im Rahmen des DFG-geförderten Projekts "Praktiken des onlinegestützten Netzwerkens" erarbeitet. Für Hinweise zu früheren Fassungen dieses Textes danke ich Thomas Binder, Constanze Carstanjen und Martin Wilbers.
52
Jan Schmidt
individuellen Handeln einen Rahmen vor und werden durch es (re-) produziert; in Blogging-Praktiken äußert sich also die Dualität von Struktur und Handeln, wie sie bspw. Giddens (1988) als allgemeines Merkmal der sozialen Welt herausarbeitet. Als Form der "Social Software" (vgl. Schmidt 2006a) erfüllen Weblogs mehrere Funktionen: Sie dienen ihren Autoren (den "Bloggern") als Werkzeug des Identitätsmanagements, weil sie es erlauben, Aspekte der eigenen Person, Interessen, Meinungen und Erlebnisse im Internet für andere zu präsentieren. Durch Verlinkungen und Kommentare werden "persönliche Öffentlichkeiten" unterschiedlicher Reichweite geschaffen, sodass Blogging-Praktiken immer auch Elemente des Beziehungsmanagements beinhalten. Schließlich entwickeln Blogger als Rezipienten bestimmte Strategien des Informationsmanagements, indem sie nach individuellen Relevanzkriterien einzelne Angebote aus der Blogosphäre auswählen und verfolgen. Die Aneignung des Medienformats geht dabei auf Seiten des einzelnen Nutzers mit einer Stabilisierung von Verwendungsweisen, auf überindividueller Ebene mit dem Entstehen von Verwendungsgemeinschaften einher, also von Nutzergruppen, die Routinen im Umgang mit dem und Erwartungen an das Weblog-Format teilen. Inzwischen liegen zahlreiche empirische Befunde zur Nutzung von Weblogs vor (vgl. u.a. Herring et al. 2005; Herring/Paolillo 2006; Kunz 2006; Tremayne et al. 2006). Allerdings handelt es sich dabei meist um Querschnittanalysen, die nur zu einem Untersuchungszeitpunkt Daten erheben. Die seltenen Fälle von Längsschnittanalysen (im deutschsprachigen Raum wohl nur Abold 2006 für die Nutzung von Weblogs im deutschen Bundestagswahlkampf 2005) können zwar Veränderungen auf Aggregatebene identifizieren, geben aber keine Hinweise auf intra-individuelle Veränderungen, die auf die Stabilisierung und Dynamik von Praktiken schließen ließen. Der vorliegende Beitrag trägt dazu bei, diese Forschungslücke zu schließen: Er präsentiert Daten aus zwei Wellen einer Befragung unter deutschsprachigen Bloggern (Abschnitt 2) und diskutiert die Ergebnisse (und ihre Grenzen) vor dem Hintergrund des oben kurz skizzierten Analyserahmens (Abschnitt 3).
Ergebnisse Im Oktober 2005 führte die Forschungsstelle "Neue Kommunikationsmedien" die onlinebasierte Umfrage "Wie ich blogge?!" durch, die sich an aktive Autoren, ehemalige Nutzer und Leser von Weblogs im deutschsprachigen Raum richtete. Durch die Kooperation mit verschiedenen Weblog-Providern und die Möglichkeit für die Teilnehmer, durch das Einbinden eines Icons im eigenen
53
Stabilität und Wandel von Weblog-Praktiken
Weblog auf die Umfrage zu verweisen, wurde ein Rücklauf von 5.246 Personen erreicht. Im Juli und August 2006 fand eine zweite Befragung unter denjenigen Personen statt, die in der ersten Welle Interesse an einer Folgebefragung bekundet hatten.2 Von diesen 2701 Personen nahmen 1439 (56,4%) an der zweiten Umfrage teil; neben der großen Mehrheit von aktiven Bloggern (87%) waren auch Ex-Blogger (8%) und reine Leser (5,3%) unter den Teilnehmern. Die Antworten beider Wellen können über eine eindeutige, anonymisierte ID einander zugeordnet werden, sodass Aussagen über individuelle Veränderungen in den Nutzungspraktiken möglich sind. Allerdings können die Ergebnisse aufgrund der Art der Stichprobenkonstruktion keine Repräsentativität für die deutschsprachige Blogosphäre beanspruchen. Die aktiven Blogger entsprechen Pioniernutzern von Internettechnologien (vgl. Tab. 1): Sie sind eher jung (das Durchschnittalter in der Befragung betrug ca. 30 Jahre), und formal höher gebildet. Die Geschlechterverteilung in der Stichprobe ist vergleichsweise ausgeglichen, was Ergebnisse anderer Studien (vgl. Harders/Hesse 2006; Herring et al. 2004) bestätigt, nach denen Frauen einen großen Anteil der Weblog-Nutzer ausmachen. Die Mehrheit der Befragten (66,7%) führte ihr Weblog zum Befragungszeitpunkt seit sechs bis 24 Monaten. Tab. 1:
Soziodemographische Merkmale der aktiven Blogger (in %) N=1245/1240 Männlich Weiblich Jünger als 20 Jahre 20 bis 29 Jahre 30 bis 39 Jahre 40 bis 49 Jahre Über 50 Jahre
August 06 53,8 46,2 11,4 41,6 27,3 13,8 6,0
Die Motive für die Nutzung von Weblogs sind überwiegend stabil geblieben (vgl. Tab. 2). Deutliche Mehrheiten der Befragten gaben in beiden Wellen an, ihr Weblog aus Spaß am Schreiben zu führen und dadurch Ideen und Erlebnisse festzuhalten. Gegenüber diesen selbstbezogenen Gründen sind Motive des Austauschs mit anderen, des in Kontakt bleibens und des Wissen teilens weniger 2
Die ausführlichen Ergebnisse beider Wellen sind bei Schmidt/Wilbers (2006) sowie Schmidt/Paetzolt/Wilbers (2006) dokumentiert.
54
Jan Schmidt
häufig vertreten, werden aber dennoch von etwa vierzig bis fünfzig Prozent der Befragten (neu oder wiederum) genannt. Tab. 2:
Nutzungsmotive im Vergleich (in %; Mehrfachantworten möglich)
N=1192
Zum Spaß Weil ich gerne schreibe Ideen und Erlebnisse festhalten Austausch mit anderen Gefühle von der Seele schreiben In Kontakt bleiben Wissen teilen Im Internet darstellena) Neue Kontakte knüpfen Berufliche Gründe a)
Neu genannt
Weiterhin genannt 63,0 60,3
Weiterhin nicht genannt 14,0 22,1
Nicht mehr genannt 11,0 9,0
12,0 8,6 13,6
52,5
19,4
14,5
14,6
34,8
32,6
18,0
9,2
32,0
46,6
12,2
15,5 12,0 36,6 13,4 6,5
24,0 27,2 -17,3 9,8
48,5 51,1 63,4 57,0 78,8
12,0 9,7 -12,3 4,9
Antwortvorgabe in erster Welle nicht enthalten
Auch hinsichtlich der Art der veröffentlichten Beiträge finden sich Hinweise auf stabile Praktiken (wenngleich durch die Aufnahme einiger neuer Antwortvorgaben die Ergebnisse nur eingeschränkt vergleichbar sind; vgl. Tab. 3). In beiden Wellen dominieren Einträge zu Erlebnissen aus dem Privatleben sowie kommentierte Links zu anderen Onlinequellen. Eine Zunahme zeigt sich vor allem bei multimedialen Inhalten: Eine deutliche Mehrheit der Blogger veröffentlicht auch Bilder und Fotos, während Film-/Videodateien und Podcasts zwar relativ gesehen zulegen, dies aber auf vergleichsweise geringem Niveau. Deutlich zurückgegangen ist der Anteil der Befragten, die auch über politische Themen bloggen – der hohe Anteil bei der ersten Welle ist auf den Befragungszeitpunkt zurückzuführen, der kurz nach der Bundestagswahl 2005 lag.
55
Stabilität und Wandel von Weblog-Praktiken
Tab. 3:
Art der Beiträge im Vergleich (in %; Mehrfachantworten möglich)
N=1179 Berichte/Episoden aus Privatleben Bilder/Fotos Kommentierte Links Filme/Bücher/ Musik a) Hobbies a) Arbeitsleben a) Stadt/Region a) Berufliche/ Studienthemen Politik Gedichte/ Kurzgesch. Schule/Studium a) Andere Inhalte Film-/Videodateien Podcasts a)
Neu genannt 7,6
Weiterhin genannt 68,5
Weiterhin nicht genannt 13,9
Nicht mehr genannt 9,9
15,0 10,9
59,7 59,4
18,0 19,8
7,3 9,9
50,0
--
50,0
--
49,4 45,2 42,1 12,0
---29,9
50,6 54,8 57,9 41,5
---16,6
5,0 8,1
31,2 23,5
46,6 58,1
17,1 10,3
31,4 6,1 9,0 4,0
-5,5 2,4 2,6
68,6 71,5 86,2 92,2
-16,9 2,5 1,2
Antwortvorgabe in erster Welle nicht enthalten
Die Mehrheit der Blogger (57,9%) hat die Häufigkeit beibehalten, mit der neue Beiträge veröffentlicht werden (Vgl. Tab. 4). Bei den übrigen Personen ist tendenziell eher eine seltenere Aktualisierung (31,5%) als eine häufigere Aktualisierung (11,7%) zu beobachten. Dennoch publizieren etwa zwei Drittel der Befragten mindestens einen Beitrag pro Woche.
56 Tab. 4:
Jan Schmidt
Aktualisierungshäufigkeit (in %; N=1194)
2.Welle 1.Welle Täglich Wöchentlich Monatlich Gesamt
Täglich
Wöchentlich
Monatlich
Gesamt
19,8 5,6 0,7 26,1
14,2 20,9 4,4 39,4
3,6 13,7 17,2 34,4
37,7 40,1 22,2 100,0
Neben den Links in Beiträgen und in Kommentaren verweisen viele Weblogs in einer "Blogroll" auf andere Angebote (vgl. Tab. 5). Etwa die Hälfte der Befragten (44,8%) verlinkt weiterhin auf ähnlich viele andere Blogs in der Blogroll. Knapp zwei Fünftel (39,1%) haben ihre Blogroll erweitert, weniger als ein Fünftel (16,2%) haben diese verkleinert, also Weblogs gestrichen. Tab. 5:
Anzahl von Verweisen auf andere Weblogs in Blogroll (in %; N=607)
2.Welle 1.Welle 1 bis 5 6 bis 10 11 bis 15 16 bis 20 > 20 Gesamt
1 bis 5 10,0 2,5 0,5 0,2 0,0 13,2
6 bis 10 7,9 10,5 3,5 1,0 1,0 23,9
11 bis 15 2,3 6,6 3,6 2,5 1,2 16,1
16 bis 20 2,0 3,5 4,3 3,1 3,8 16,6
> 20 1,3 2,8 2,5 5,9 17,6 30,1
Gesamt 23,6 25,9 14,3 12,7 23,6 100,0
Auch bei der Anzahl der regelmäßig gelesenen Weblogs gibt die Mehrheit der Befragten (57,2%) bei der zweiten Welle vergleichbare Werte an (vgl. Tab. 6). Etwa jeder Vierte (23,3%) hat sein Lektürerepertoire erweitert, etwa jeder Fünfte (19,5%) dagegen reduziert. Es zeigt sich eine Polarisierung, denn jeweils etwa 30 Prozent lesen entweder sehr wenige (bis zu fünf) oder sehr viele (über 20) Weblogs regelmäßig.
57
Stabilität und Wandel von Weblog-Praktiken
Tab. 6:
Anzahl der regelmäßig verfolgten Weblogs (in %: N=1260)
2.Welle 1.Welle 1 bis 5 6 bis 10 11 bis 20 > 20 Gesamt
1 bis 5
6 bis 10
11 bis 20
> 20
Gesamt
22,5 6,1 2,3 0,7 31,6
5,7 7,9 5,0 1,7 20,3
2,6 5,1 7,5 3,7 18,9
0,6 2,5 6,8 19,3 29,2
31,4 21,6 21,7 25,3 100,0
Um über Aktualisierungen von Weblogs auf dem Laufenden zu bleiben, steht mit RSS3 eine komfortable Technologie zur Verfügung, die etwa die Hälfte der Befragten in der zweiten Welle nutzte (vgl. Tab. 7). Im Vergleich zur ersten Welle hat sich bei drei Viertel der Befragten (75,7%) keine Änderung bei der Nutzung/Kenntnis von RSS ergeben; etwa 15 Prozent kennen und/oder nutzen RSS inzwischen, während etwa jeder Zehnte RSS nicht mehr nutzt. Tab. 7:
Nutzung von RSS zum Verfolgen von Weblogs (in %; N=1333)
2.Welle 1.Welle Ja Nein (RSS bekannt) Nein (RSS unbekannt) Gesamt
Ja 38,7 8,4 1,1 48,2
Nein (RSS bekannt) 8,6 30,7 5,1 44,4
Nein (RSS unbekannt) 0,4 0,8 6,3 7,4
Gesamt 47,7 39,8 12,5 100,0
Diskussion und Ausblick Die vorgestellten Daten erlauben trotz ihrer eingeschränkten Repräsentativität einige Interpretationen zu Praktiken des Bloggens, ihrer Stabilisierung und ihren Veränderungen. Zusammenfassend lässt sich festhalten, dass sich Verwendungsweisen stabilisieren, die Ergebnisse der Blogging-Praktiken (insbesondere 3
RSS ist die Abkürzung für "Really Simple Syndication" und bezeichnet ein spezifisches Format zur Darstellung von Inhalten im Internet, das auf der Auszeichnungssprache XML beruht. Grundlegende Informationen und weiterführende Links finden sich im entsprechenden Wikipedia-Eintrag unter http://de.wikipedia.org/wiki/RSS.
58
Jan Schmidt
die Größe des Lektürerepertoires und der durch das Bloggen geknüpften sozialen Netzwerke) dagegen verändern. Für eine deutliche Mehrheit der Autoren ist ihr Weblog ein Mittel, Erlebnisse aus dem eigenen persönlichen Umfeld im Netz festzuhalten und mit anderen zu teilen. Der hohe Anteil, den Bilder und Fotos haben, weist darauf hin, dass das Identitätsmanagement (also die Art und Weise, sich selbst und seine Interessen anderen zu präsentieren) nicht allein schriftlich geschieht, sondern auch andere Darstellungsformen aufweisen kann. Diese Nutzung des Formats im Sinne eines persönlichen Online-Journals wird durch die Filterfunktion ergänzt: Viele Blogger verlinken zusätzlich auf andere interessante Online-Quellen, weisen also ihre Leser auf persönlich für relevant gehaltene Inhalte hin und bewerten diese. Zusätzlich werden über Kommentare und Verweise in der Blogroll Beziehungen zu anderen Bloggern aufrecht erhalten. Diese Nutzungsmuster sind im Vergleich der beiden Befragungswellen relativ stabil geblieben, wohingegen es einige Veränderungen bei einzelnen Aspekten der Praktiken gibt, die in entgegengesetzte Richtungen deuten: Ein vergleichsweise großer Anteil der Befragten gibt an, inzwischen seltener zu bloggen, was ein Anzeichen für eine gewisse Ermüdung im Verlauf der "Bloggerkarriere" sein könnte. Dem steht die Erweiterung sozialer Beziehungen entgegen, die sich in der relativ häufig vorkommenden Erweiterung der Blogroll (die in der Regel persönliche Bekanntschaft und/oder thematisches Interesse ausdrückt. Die Polarisierung im Lektürerepertoire, wo etwa gleich große Gruppen mehr bzw. weniger Weblogs regelmäßig lesen, deutet ebenfalls daraufhin, dass die Dynamik der Nutzungspraktiken nicht eindeutig als Intensivierung und Ausweitung oder als Verringerung und Reduktion der Aktivitäten vonstatten geht. Die vorgestellten Daten gehen über bisher vorliegende empirische Befunde zur Nutzung von Weblogs hinaus, weil sie erstmals intra-individuelle Veränderungen sichtbar machen. Allerdings bleiben noch verschiedene Fragen offen (und späteren Analyseschritten vorbehalten), die insbesondere diejenigen Faktoren betreffen, die den Wandel beziehungsweise die Stabilität der Nutzungsweisen bestimmen. Hier ist beispielsweise an das Alter des Weblogs zu denken, in dem sich auch die Erfahrung des Nutzers mit dem immer noch relativ neuen Kommunikationsformat ausdrückt. So erscheint es plausibel, dass zu Beginn der individuellen Aneignung eine Art "Experimentierphase" stattfindet, in der die Eignung von Weblogs für die individuellen kommunikativen Ziele geprüft wird. Demnach müsste sich bei relativ jungen Weblogs eine höhere "Volatilität" in den Praktiken nachweisen lassen, als bei denjenigen Angeboten, die zum Zeitpunkt der ersten Welle schon etabliert waren.
Stabilität und Wandel von Weblog-Praktiken
59
Denkbar sind aber auch weitere Einflussfaktoren; neben soziodemographischen Merkmalen (insbesondere dem Geschlecht) sind möglicherweise auch unterschiedliche Motive und inhaltliche Präferenzen der Autoren dafür verantwortlich, ob sich beispielsweise ihre sozialen Netzwerke vergrößern oder vergleichsweise stabil bleiben. Idealerweise lässt sich die Befragung, die diesem Beitrag zugrunde liegt, in regelmäßigen Abständen wiederholen. Dadurch könnten weitere wertvolle Erkenntnisse gewonnen werden, wie die Verbreitung und Institutionalisierung eines neuen Formats der computervermittelten Kommunikation vonstatten geht.
Literatur Abold, Roland (2006): The Audience is listening – Nutzung und Akzeptanz von Weblogs im Bundestagswahlkampf 2005. Online-Publikation: http://www.soz.uni-frankfurt.de/K.G/B1_ 2006_Abold.pdf. In: kommunikation@gesellschaft 7.1. Giddens, Anthony (1988): Die Konstitution der Gesellschaft. Frankfurt/New York: Campus. Grossman, Lev (2006): Time's Person of the Year: You (http://www.time.com/time/magazine/ article/0,9171,1569514,00.html). In: TIME (13.12.2006). Harders, Cilja/Hesse, Franka: Geschlechterverhältnisse in der Blogosphäre (2006): Die Bedeutung der Kategorie Geschlecht für die Verwirklichung von Teilhabechancen durch neue Medien. In: femina politica 10.2. 90-101. Herring, Susan C./Kouper, Inna/Scheidt, Lois A./Wright, Elijah (2004): Women and children last: The discursive construction of weblogs - Into the Blogosphere. Rhetoric, Community, and Culture of Weblogs. In: Gurak, Laura; Antonijevic, Smiljana; Johnson, Laurie; Ratliff, Clancy; Reyman, Jessica (Hrsg.): Into the Blogosphere. Rhetoric, Community, and Culture of Weblogs. Online: http://blog.lib.umn.edu/blogosphere/women_and_children.html. Herring, Susan C./Paolillo, John (2006): Gender and genre variation in weblogs. In: Journal of Sociolinguistics 10.4.439-459. Herring, Susan C./Scheidt, Lois A./Bonus, Sabrina/Wright, Elijah (2005): Weblogs as a bridging genre. In: Information, Technology & People 218.142. 171. Kunz, Frederik (2006): Weblogs als öffentliche Kommunikation. Eine Untersuchung der inhaltlichen und formalen Merkmale von Weblogs und eine Typologie ihrer Kommunikatoren. Diplomarbeit am Institut für Journalistik und Kommunikationsforschung der Hochschule für Musik und Theater Hannover. Online: http://blog.bloggerstudie.de/ fulltext/Weblogs_als_oeffentliche_Kommunikation.pdf. Schmidt, Jan (2006a): Social Software. Onlinegestütztes Informations-, Identitäts- und Beziehungsmanagement. In: Forschungsjournal Neue Soziale Bewegungen 19.2. 37-47. Schmidt, Jan (2006b): Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK.
60
Jan Schmidt
Schmidt, J./Paetzolt, M./Wilbers, M. (2006): Stabilität und Dynamik von Weblog-Praktiken. Ergebnisse der Nachbefragung zur "Wie ich blogge?!"-Umfrage, Berichte der Forschungsstelle "Neue Kommunikationsmedien", Nr. 06-03. Bamberg: Forschungsstelle "Neue Kommunikationsmedien" an der Universität Bamberg. Schmidt, J./Wilbers, M. (2006): Wie ich blogge?! Erste Ergebnisse der Weblogbefragung 2005, Berichte der Forschungsstelle "Neue Kommunikationsmedien", Nr. 06-01. Bamberg: Forschungsstelle "Neue Kommunikationsmedien" an der Universität Bamberg. Tremayne, Mark/Zheng, Nan/Lee, Jae K./Jeong, Jaekwan (2006): Issue publics on the web: Applying network theory to the war blogosphere. In: Journal of Computer-Mediated Communication 12.1.
Sechs Podcast-Sendetypen und ihre theoretische Verortung Dennis Mocigemba
Podcasting ist innerhalb kürzester Zeit aus einer Internet-Nische in die öffentliche Diskussion und das öffentliche Bewusstsein vorgedrungen. Doch was genau heißt Podcasting? Was bewegt Menschen, sich per Podcast im Internet zu exponieren? Im Folgenden werden die Funktionen diskutiert, die Podcasting auf individueller Ebene für den privaten Sender erfüllt. Dabei geht es vornehmlich um Sendepraktiken, Motive, Qualitätsansprüche und soziale Interaktionen von Podcastern. Auf eine explorativ-qualitativ ausgerichtete Studie unter privat produzierenden deutschen Podcastern rekurrierend, werden sechs PodcastSendetypen kurz skizziert und im Rahmen medien- und kommunikationswissenschaftlicher Ansätze theoretisch verortet.
Was ist Podcasting? Der Begriff Podcasting ist ein Neologismus, der 2005 vom New Oxford American Dictionary zum Wort des Jahres gekürt wurde. Der Begriff verweist einerseits auf den iPod, Apples beliebten MP3-Player, andererseits auf Broadcasting, also Rundfunk. Ein Podcast ist demzufolge eine Art Rundfunkbeitrag für den iPod, eine Definition, die in dreierlei Hinsicht irreführend ist: Erstens können Podcasts nicht nur mit mobilen Abspielgeräten rezipiert werden. Marktstudien deuten sogar darauf hin, dass Podcasts viel seltener als erwartet unterwegs angehört werden. Zweitens ist Podcasting heute kein vorwiegend von Apple oder Apple-Nutzern getragenes Phänomen mehr. Drittens sind Podcasts anders als klassische Rundfunkbeiträge nicht per se darauf ausgelegt, ein möglichst großes Publikum zu erreichen (Löser/Peters 2006: 143). Viele Podcasts sind vielmehr bewusst für die Nische oder den Long Tail (Shirky 2003) konzipiert und legen größeren Wert auf eine kleine, integrierte Community von Hörern als auf eine große Reichweite. Zwar sind sowohl der Begriff als auch das Phänomen des Podcasting erst drei Jahre jung, doch wird schon jetzt über die Entstehungsgeschichte von beiden kontrovers diskutiert: Mit Blick auf die technischen Grundlagen wird man die Geschichte des Podcasting mit Tristan Louis (Idee zur Erweiterung von RSS
62
Dennis Mocigemba
im Oktober 2000) und Dave Winer (technische Implementierung im Januar 2001) beginnen und es als Spielart des Weblogging wahrnehmen. Versteht man Podcasting eher als sozio-kulturelles Phänomen, dürfte die Geschichte bei Ben Hammersley (Begriffsprägung im Februar 2004) und Adam Curry (Podcastpionier) anfangen und Podcasting als eigenständiges Phänomen beschreiben. Bemerkenswert am Phänomen Podcasting ist in jedem Fall die Geschwindigkeit, mit der es aus einer Internet-Nische ins Bewusstsein einer breiten Öffentlichkeit vordrang: Brachte eine Google-Suche nach dem Begriff podcasts im September 2004 (einen Monat nach Adam Curry's erstem Daily Source Code) gerade einmal 24 Treffer, waren es knapp vier Monate später, im Januar 2005, bereits 115 Millionen (Vogele et al. 2006: 27). Der amerikanische HostingService Feedburner beheimatete zu jener Zeit nicht mehr als 1.090 Podcasts, im August 2005 waren es 13.000 (Crofts et al. 2005), Ende Januar 2007 bereits über 85.000. In Deutschland sind die Zahlen deutlich niedriger, folgen aber demselben Trend: Das deutsche Podcastportal Podster.de registrierte im Juni 2005 170 eingetragene Angebote. Im Dezember 2005 waren es über 1.000, Ende Januar 2007 3.500. Seine bemerkenswerte Verbreitungsgeschwindigkeit wird oft damit erklärt, dass Podcasting anders als Weblogging bereits sehr früh mit kommerziellen Chancen assoziiert (Chen 2005; Wunschel 2006: 165ff) und von etablierten Medienproduzenten als Zweitverwertungskanal entdeckt wurde. Es ist deshalb auch nicht verwunderlich, dass Podcastpublika vermehrt Gegenstand von Marktforschungsstudien werden. In regelmäßigen Abständen liefert etwa die Podcastumfrage Orientierungsdaten über die Zusammensetzung der deutschen Podcasthörer. Tenor der ersten beiden Erhebungswellen war, dass die Hörerschaft von gut gebildeten, vergleichsweise gut verdienenden Männern Ende 20, also den klassischen Early Adopters, dominiert wird (Wunschel 2006: 162), dass aber andere Gruppen zunehmend an Bedeutung gewinnen (Wunschel 2007).
Sechs Podcast-Sendetypen und ihre theoretische Verortung Auf unterschiedlichen Ebenen kann Podcasting verschiedene Funktionen erfüllen. Besonders rege werden üblicherweise die Funktionen eines Graswurzelmediums (Pleil 2006: 173) wie Podcasting für das System der Massenmedien (Mocigemba 2007) oder für Zivilgesellschaft und das politische System (Mocigemba 2007/submitted) diskutiert. Im Folgenden interessiert jedoch ausschließlich, welche Funktionen die Praxis des Podcasting für den individuellen, privaten Sender zu erfüllen vermag. Diese Funktionen explorativ zu untersuchen, war
Sechs Podcast-Sendetypen und ihre theoretische Verortung
63
das Ziel einer Studie unter privat produzierenden Podcastern (Mocigemba 2006). Im Rahmen dieser Studie wurden 19 Leitfadeninterviews mit privat produzierenden, deutschsprachigen Podcastern geführt. Auf Basis der drei in den Interviews angesprochenen Dimensionen Podcast-Motivation und -Ziel, Qualitätsanspruch und soziale Interaktion mit Hörern und anderen Podcastern wurden aus den Interviews sechs Sendemodi extrahiert und idealtypisch beschrieben. Diese Typen werden in den folgenden Abschnitten eingangs jeweils kurz skizziert, das Hauptaugenmerk gilt aber ihrer theoretischen Verortung und damit der Greifbarkeit des vielschichtigen Phänomens Podcasting für die Medien- und Kommunikationswissenschaft.
Explorer – Medienkompetenz und Empowerment Dem Explorer geht es darum, das neue Medium Podcasting kennenzulernen und auszuprobieren. Das Thema der Show ist zunächst zweitrangig oder muss im Prozess des Sendens oft erst mühsam erarbeitet werden. Es geht vornehmlich um die Praxis des Sendens selbst. Wichtigster Qualitätsanspruch ist eine technische Grundfunktionalität (abonnierbarer RSS-Feed, funktionierende Blogpage). Die Interaktion mit Hörern ist für den Explorer eher eine Überraschung als eine Erwartung, jene mit anderen Podcastern hingegen ist grundlegend, um bestimmtes technisches Know-how zu erlangen. Die meisten der interviewten Podcaster begannen im Explorer-Modus zu podcasten. Dementsprechend ist der Typ des Explorers eine Art Katalysator: Wer Podcasting und die Technik dahinter ausreichend exploriert hat, entwickelt entweder eine weiterführende Motivation zum Senden oder hört auf zu podcasten, auch Podfading genannt. Die Beschreibung des Explorers betont einen Aspekt des Podcasting, der vor allem für die Medienpädagogik von Interesse sein dürfte. Sie stellt den intrinsisch, von einem Wissensdurst angetriebenen Nutzer in den Mittelpunkt, der sich durch eine hands-on-imperative und learning by doing praktische Fähigkeiten aneignet. Podcasting bezeichnet aus dieser Perspektive ein Lernmedium oder einen Lernprozess zur Aneignung von Medienkompetenz. Medienkompetenz löst zunehmend Medienzugang als Dimension ab, entlang der sich digitale Spaltung manifestiert (Korupp et al. 2006). Es wäre eine lohnende Aufgabe, die durch den Explorer vollzogene Aneignung von Medienkompetenz oder Domestizierung neuer Technik empirisch ausführlicher zu untersuchen, um a) festzustellen, ob diese als Empowerment im Sinne von Rappaport (1987) verstanden werden kann und b) um Rückschlüsse auf die Gültigkeit etablierter Vermittlungsansätze der Medienpädagogik (z.B. konstruktivistische Lerntheorie) ziehen zu können. Verschiedene Jugend-Projekte (z.B. Jugend online) folgen diesem
64
Dennis Mocigemba
Ansatz. Sie nutzen die große Verbreitung und Akzeptanz neuer Informationsund Kommunikationstechnologie (iPod, Foto-Handy) unter Jugendlichen, um diese zu motivieren, sich z.B. via Podcasting grundlegende Medienkompetenzen (aggregieren, selektieren, validieren, publizieren von Information) anzueignen. Projekte dieser Art stehen in der Tradition der bereits in den 1980er Jahren betriebenen Video- und Radioarbeit mit Jugendlichen (z.B. Just Think). Forschung zu Volunteerism (Clary et al. 1998), zu Partizipation in Open Source-Projekten (Hertel et al. 2003) oder Wikipedia (Schroer/Hertel 2007) betonen ebenfalls die Bedeutung der persönlichen Weiterbildung und Fähigkeitsaneignung als Faktoren, die sowohl die Wahrscheinlichkeit der Teilnahme als auch der Zufriedenheit während der Beteiligung positiv beeinflussen. Es wäre ferner interessant zu untersuchen, ob via Podcasting neben einer explorativen Aneignung von Medienkompetenz auch eine inhaltliche Fokussierung stattfinden kann, ob bzw. unter welchen Voraussetzungen Podcasting im Sinne eines selbstgesteuerten Lernprozesses eine motiviertere, tiefgreifendere und nachhaltigere Auseinandersetzung mit weniger beliebten Themen eines Curriculums anzuregen vermag als herkömmliche Vermittlungstechniken.
ThemeCaster – Bürgerjournalismus und Qualitätssicherung Der Sendemodus des ThemeCasters, der dem klassischen Journalismus sehr verwandt ist, ist geprägt durch eine starke Themenorientierung. Der ThemeCaster verfügt über fachlichen Expertise, oft aus einem durch die Massenmedien nicht erschöpfend abgedeckten Themenfeld. Dieses Wissen will er seinen Hörern verfügbar machen. Sein Podcast soll in erster Linie einen Nutzwert für den Hörer haben. Inhaltliche Korrektheit, Aktualität und Verständlichkeit seines Podcasts sind die angestrebten Qualitäten. Die Aufmerksamkeit und das Interesse seiner Hörer nimmt der ThemeCaster als Verpflichtung wahr, ihnen regelmäßig neue Inhalte zu liefern. Die Beschreibung des ThemeCasters betont den Aspekt des Phänomens Podcasting, der in der öffentlichen Debatte wohl am meisten Aufmerksamkeit bekommt. Zwei Schlagworte in der vor allem für die Publizistik und Journalistik interessanten Diskussion sind Bürgerjournalismus und Qualitätssicherung. Auf Brechts Vision eines Kommunikationsapparats (Brecht 1932/1972) rekurrierend, wird die "Ich bin der Sender"- oder "We the media"-Idee (Gillmor 2004; van Aaken 2005) betont und Podcasting als Open Source Radio oder Offener Kanal reloaded (Pleil 2006: 177) dargestellt. Tatsächlich überwindet Podcasting als besseres Bürgermedium drei strukturelle Limitierungen Offener Kanäle: a) Begrenzung der verfügbaren Sendefrequenzen, b) Begrenzung durch bürokrati-
Sechs Podcast-Sendetypen und ihre theoretische Verortung
65
sche Kapazitäten der Landesmedienanstalten und c) Konzentration auf Ballungsgebiete (Pleil 2006: 177). Es gibt mittlerweile einige Podcaster, deren authentische Berichterstattung von den etablierten Massenmedien begierig aufgegriffen wurde, etwa Pater Rodericks Berichterstattung vom Petersplatz in Rom während der Papstwahl im April 2005, Roger Levys Berichterstattung aus dem überschwemmten Luzern im Sommer 2005 oder Markus Beckedahls Interviews vom Weltgipfel der Informationsgesellschaft in Tunis Ende 2005. Geschätzt werden derartige Berichte vor allem, weil sie unkonventionell und authentisch wirken. Geringe Professionalität in Sachen Gestaltung (Sprecher, Schnitt, Tonqualität) werden hier eher als Stärke denn als Schwäche verstanden. Vermehrt versuchen etablierte Medienproduzenten, solchen User Generated Content systematisch in ihr Programm einzubinden. Was einst mit lustigen Homevideos begann, findet in experimentell-künstlerischen Beiträgen (z.B. Blogspiel des Deutschlandradio Kultur) seine Fortsetzung. In den USA werden mittlerweile ganze Radio- (z.B. auf Sirius Satellite Radio) und Fernsehprogramme (z.B. Current.tv) von Podcastern und Hobbyisten gestaltet. Allerdings werden nur Technikdetermisten bereits hierin die Realisierung der Brecht'schen Vision von der Transformation des passiven Rezipienten zum aktiven Sender oder gar Bürger sehen. Zu rar sind die genannten Beispiele und zu schnell werden die erfolgreichen, neuen Bürgerjournalisten in das Mediensystem integriert und den dort geltenden Logiken unterworfen. Laut Niemann (2006) verfügen nur wenige Podcaster bereits zu Beginn ihrer Podcasting-Aktivität über professionelle Publikations- und Sendeerfahrung. Unter 1454 befragten deutsch- und englischsprachigen Podcastern gaben immerhin rund 80% an, weder Studium oder Ausbildung im Bereich Medien/PR absolviert zu haben noch jemals für Radio oder Fernsehen tätig gewesen zu sein (Niemann 2006: 85). Zu einem gewissen Grad transformiert Podcasting offenbar tatsächlich eine breite Masse vormals passiver Rezipienten zu aktiven Produzenten. Der Vergleich zu Brechts Vision eines Kommunikationsapparats ist folglich nicht gänzlich absurd, Podcasting ist offenbar tatsächlich mehr als nur eine Spielwiese im Hinterhof der etablierten Medienanbieter, auf der deren experimentierfreudige Angestellte die Restriktionen ihrer alltäglichen Arbeit überwinden und neue Ideen ausprobieren können. Journalisten kritisieren an privat produzierten Podcasts häufig die mangelnde Qualitätssicherung, da Podcasts nicht den Prozess redaktioneller Kontrolle durchlaufen. Podcaster relativieren diesen Einspruch und argumentieren, die Qualitätskontrolle fände post hoc durch die Hörer statt, ihr Beitrag sei demnach kein Endprodukt, sondern eher ein Diskussionsbeitrag, ein work in progress. Ein Blick in die Weblog-Foren selbst erfolgreicher deutschsprachiger Podcasts zeigt, dass inhaltliche Korrektur und Kommentierung durch Hörer und kritische,
66
Dennis Mocigemba
diskursive Auseinandersetzung unter diesen eher die Ausnahme als die Regel darstellt. Eine empirische Untersuchung und Quantifizierung kollektiver Qualitätssicherungsprozesse im Podcasting ist sicherlich eine lohnende Aufgabe. Doch sollte die Frage nach Qualitätssicherung im Podcasting nicht überbewertet werden. Wer die Beschreibung des ThemeCasters überbetont und Podcasting vornehmlich als Spielart des Journalismus begreift, reduziert das Phänomen auf einen Teilbereich. Den meisten Podcast-Angeboten wird man damit kaum gerecht werden, da sie, selbst wenn sie in einem quasi-öffentlichen Raum stattfinden, besser als interpersonale Kommunikation zu verstehen sind.
Rebel – Podcasting als politische Aktivität und Protest Der Rebel versteht Podcasting in erster Linie als politische Aktivität und als Protest. Wie in einer virtuellen Speaker's Corner bietet Podcasting ihm die Möglichkeit, auch randständige Themen oder nicht mehrheitsfähige Ansichten öffentlich zu äußern und zu diskutieren oder offen gegen etablierte Medien-, Musik- oder Werbeindustrie zu rebellieren. Qualitätsvorstellungen werden hier oft nicht positiv, sondern als Negation des Kontrahenten definiert: Es geht vor allem darum, es anders zu machen als die etablierten Medien. Der Rebel identifiziert sich stark mit der Podcastbewegung und der "Ich bin der Sender"Graswurzelidee des Podcasting. Soziale Beziehungen zu Hörern und anderen Podcastern sind für den Rebel essentiell, weil sie helfen, die gemeinsame Idee und Bewegung zu stärken. Podcasting erfüllt für den Rebel die Funktion, die eigenen Wertvorstellungen zu artikulieren und eine auf geteilten Werten basierende Gemeinschaft zu integrieren. Die Nutzung von Podcasts als Kanal der Zweitverwertung durch etablierte Medienanbieter ist dem Rebel ein Dorn im Auge, weil er hierin eine Verschmutzung der Idee des Piratenradios sieht. Der Wunsch nach Distinktion ist eine zentrale Motivation des Rebels. Diese schlägt sich sowohl in der Wahl des Mediums Podcasting als auch in der bewusst andersartigen, teilweise gewollt unprofessionellen Darbietung von Inhalten nieder. Die Betonung der Graswurzelidee und die Verwendung politisch konnotierter Begriffe bei der Beschreibung des Phänomens Podcasting deuten darauf hin, dass der Rebel das Medium nicht allein aufgrund seiner Eignung für den Kommunikationsanlass auswählt, sondern ihm eine symbolische Bedeutung zuschreibt, die als eine Art Meta-Botschaft (Misoch 2006: 108) mitkommuniziert werden soll. Mit Blick auf die Sendepraxis des Rebels ist Podcasting für die Kommunikationswissenschaft in erster Linie für Modelle der symbolischen Medienwahl (Trevino et al. 1987) interessant. Es wäre eine lohnende Aufgabe empirisch zu untersuchen, ob a) die symbolische Aufladung des Konstrukts
Sechs Podcast-Sendetypen und ihre theoretische Verortung
67
Podcasting durch den Rebel über dessen Sendung an den Rezipienten vermittelt und somit reproduziert werden kann und b) eine korrespondierende symbolische Aufladung auf Seiten des Hörers die Voraussetzung für das Gelingen der Kommunikation und die Akzeptanz des Angebots darstellt. Der Rebel rückt Podcasting in ein politisches Licht und begreift sein Senden als politische Aktivität. Beliebt ist etwa die Beschreibung von Podcasting als virtueller Speaker's Corner, in der der Podcaster politische, oft medienpolitische Ansichten artikuliert in der Hoffnung andere zu überzeugen, zu aktivieren oder einfach nur in Diskurs mit diesen zu treten. Auch wenn Podcasting mittlerweile von der Bundeskanzlerin, verschiedenen Spitzenpolitikern, Parteien, Jugendorganisationen der Parteien, NGOs und auch einigen durchaus randständigen politischen Organisationen genutzt wird, muss man die deutsche Podosphäre derzeit als eher unpolitisch bezeichnen, selbst wenn man mit dem Rebel bereits die Wahl des Mediums symbolisch als politische Stellungnahme begreift. Es mag dennoch lohnend sein, sich politische Kommunikation und politische Diskurse in der Podosphäre, wo sie denn stattfinden, genauer anzuschauen und mit der bereits gut analysierten, textbasierten politischen Kommunikation in der Blogosphäre (Abold 2006; Grunwald et al. 2006; Schmidt 2006) zu vergleichen. Dem Social Cues Filtered Out-Paradigma (Kiesler et al. 1984) folgend, wäre zu erwarten, dass politische Meinungsäußerung in der Podosphäre gemäßigter geübt wird und Diskurse weniger polemisch-konfrontativ ablaufen. Indem es auditive und teilweise gar audio-visuelle Informationen liefert, unterscheidet sich Podcasting von textbasierter Weblog-Kommunikation in erster Linie durch eine größere Bandbreite an sozialen Hinweisreizen (social cues), die der Sender, und u.U. der via Audio-Kommentar respondierende Rezipient ausstrahlen. Verschiedene Studien (Dubrovsky et al. 1991; Siegel et al. 1986) stützen die These, dass das Vorhandensein sozialer Hinweisreize antisoziales, ungehemmtes Verhalten, so genanntes Flaming, reduziert. Inwieweit dies auf politische Kommunikation in der Podosphäre im Vergleich zur Blogosphäre zutrifft, ist eine empirische Frage. Leggewie (2006) hat in Frage gestellt, dass in einem linearen Format wie einem Weblog-Forum überhaupt politischer Diskurs stattfinden kann. Da Kommunikation im Podcasting über Blogpages oder über Audio-Kommentare in einem ebenfalls linear zu rezipierenden Format (einem Audio-Beitrag) abläuft, lässt sich diese Kritik uneingeschränkt auf Podcasting übertragen. Leggewie schlägt als mögliche Lösung die Verwendung von Wikis vor. Es dürfte eine interessante Aufgabe sein, beide Feedback-Varianten an einem geeigneten Angebot experimentell auf ihre Diskurstauglichkeit zu untersuchen. Die Antwort auf die Diskurstauglichkeit der unterschiedlichen Kommunikationsformen dürf-
68
Dennis Mocigemba
te auch Aufschluss darüber geben, inwieweit das Podcasting des Rebel als bürgerschaftliches Engagement verstanden werden kann.
Personality Prototyper – Podcasting als Identity Workshop Für den Personality Prototyper erfüllt Podcasting vor allem die in Hinblick auf computervermittelte Kommunikation und Social Software häufig diskutierte Funktion des Identitätsmanagements (Schmidt 2006: 70). Der Personality Prototyper begreift Podcasting als Bühne, auf der er sich selbst in unterschiedlichen Rollen (z.B. als Nachrichtensprecher, DJ, Comedian) ausprobieren und seine Wirkung auf ein echtes Publikum testen kann. In einer Art iterativen Prototyping-Prozess werden auf diese Art neue Facetten des Selbst und neue Erkenntnisse über die eigene Persönlichkeit erworben. Die wichtigste Qualität seines Podcasts sieht der Personality Prototyper in einer regen Interaktion mit den Hörern, die ihm Feedback auf seine Darbietung und somit sein Rollenspiel liefern. Sherry Turkle (1995) hat mit Ihren MUD-Studien als erste auf das identitätsbildende Moment computervermittelter Kommunikation hingewiesen und den Begriff der Virtual Identity geprägt. Ihr Ansatz basiert auf dem Social Cues Filtered Out-Paradigma und der Feststellung, dass computervermittelte Kommunikation zumeist kanalreduziert, in ihrem Fall ausschließlich textbasiert stattfindet. Soziale Hinweisreize vor allem non-verbaler Art werden auf diese Weise herausgefiltert. Dem Sender beschert diese Kanalreduktion einen Kontrollgewinn. Er kann sichergehen, nur die Informationen über die eigene Person zu verbreiten, die er aussenden möchte, andere Informationen zu verheimlichen oder gar zu verfälschen und sich auf diese Weise einseitiger bzw. prägnanter und konsistenter darzustellen oder gar völlig neu zu erfinden. Goffman (1959/2001), der soziale Interaktion mit der Metapher des Bühnenspiels beschreibt, unterscheidet zwei Arten der Zeichengebung, die in Kommunikationssituationen relevant sind: a) den Ausdruck, den man sich gibt (expressions given) und b) den Ausdruck, den man (unbewusst/ in den Augen des Gegenübers) ausstrahlt (expressions given off). Vor allem die expressions given off, die dem Kommunikationspartner dazu dienen, die "Echtheit" der expressions given zu überprüfen, lassen sich in computervermittelten Kommunikationssituationen besser kontrollieren und mit ihnen das eigene Bühnenspiel und die Selbstdarstellung. Podcasting ist eine spezielle Form der computervermittelten Kommunikation, weil es mit flexiblen Filtern arbeitet. Da nicht nur textuelle, sondern auch auditive, oder gar audio-visuelle Informationen übermittelt werden, besteht für den Sender eine erhöhte Gefahr, unbewusst expressions given off (Verspre-
Sechs Podcast-Sendetypen und ihre theoretische Verortung
69
cher, Stottern, falsche Aussprache etc.) auszusenden und damit die eigene Darstellung zu diskreditieren. Dieser Gefahr begegnen Podcaster dadurch, dass sie ihre Darstellung oft sequentiell erbringen, dabei ihre Rolle einüben und die besten Sequenzen schließlich zusammenschneiden und veröffentlichen. Es ist nicht verwunderlich, dass unter den interviewten Podcastern dieses Typs der Wunsch vorherrschte, den eigenen Podcast am Stück zu produzieren, d.h. die angenommene Rolle für die Dauer der Sendung konsistent durchzuhalten. In der Debatte über Identitätsmanagement in computervermittelter Kommunikation genießen Phänomene wie Fake-identities oder Genderswitching (Misoch 2006: 117) besondere Aufmerksamkeit, also Phänomene, in denen die Kanalreduktion des Kommunikationsmediums gezielt zur vollständigen Neuerfindung oder Verfälschung der eigenen Identität genutzt wird. Unter den interviewten Podcastern dieses Typs dominierten jedoch weniger extreme Fälle. Verschiedene Podcaster nutzten ihre Sendung gezielt, um bestimmte Aspekte der eigenen Persönlichkeit kennenzulernen und somit eigene Fähigkeiten und Potenziale zu explorieren. Podcasting ist mit Fokus auf den Typen des Personality Prototypers weniger als Medium der eigenen, virtuellen Neuerschaffung denn vielmehr als Kanal der iterativen Erweiterung und Exploration eigener Potenziale und folglich als eine Art Identity Workshop (Bruckmann 1992) zu verstehen. Doch ist das Phänomen Podcasting mit Blick auf den Personality Prototyper nicht nur für die Debatte um Identität und Online-Kommunikation von Interesse, sondern auch für die klassische Rezeptionsforschung. Es sind vielfach Podcaster dieses Typs, die mit ihren Sendungen erstaunlich große Publika erreichen und sich diesen Erfolg mit der großen Nähe und persönlichen Ansprache ihrer Hörer erklären, denen sie "direkt im Ohr sitzen". Es ist sicherlich eine lohnende Aufgabe, das Konstrukt der Parasozialen Interaktion und Parasozialen Beziehung (Horton/Wohl 1956; Vorderer 1996) heranzuziehen, um a) die Beliebtheit bestimmter privater Podcastangebote zu erklären und b) den Übergang parasozialer Interaktion zu tatsächlicher Interaktion im Sinne von Feedback des Hörers an den Podcaster zu untersuchen.
Social Capitalist – Podcasting zur Kapitalakkumulation Der Social Capitalist betreibt Podcasting in erster Linie, um neue, interessante Menschen kennenzulernen oder alte Bekanntschaften wieder zu beleben, kurzum: um gezielt Sozialkapital zu akkumulieren. Es kann sich dabei um andere Podcaster, Hörer oder die Gäste und Interviewpartner seiner Sendung handeln. Die wichtigste Qualität des eigenen Podcasts wird darin gesehen, dass dieser
70
Dennis Mocigemba
interessante Kommunikationssituationen provoziert und die angestrebten Kontakte ermöglicht. Die Beschreibung des Social Capitalist betont einen Aspekt des Phänomens Podcasting, der vor allem für die soziologisch und ökonomisch motivierte Medienforschung von Interesse sein dürfte. Die Entstehung und Wirkung sozialer Netzwerke ist im Kontext computervermittelter Kommunikation und neuer Informations- und Kommunikationstechnologien ein beliebtes Forschungsgebiet (Rheingold 2002). Auch Podcasting stellt einen Kommunikationskanal dar, über den Hörer und Sender gezielt Beziehungsmanagement betreiben. Die verschiedenartigen sozialen Beziehungsgeflechte in der Podosphäre mit Methoden z.B. der Sozialen Netzwerkanalyse zu untersuchen, etwa auf strukturelle Äquivalenz zu Netzwerken in den klassischen Medien, dürfte eine lohnende Aufgabe darstellen. Unter Rückgriff auf Modelle wie etwa Two-Step-Flow of Communication dürfte die Diffusion von Informationen innerhalb der Podosphäre von erhöhtem Interesse sein. Da Podcasting, wie eingangs angedeutet, schon sehr früh mit kommerziellen Chancen und unterschiedlichen Geschäftsmodellen assoziiert wurde, dürfte eine Untersuchung der Transformierbarkeit des via Podcasting akkumulierten Sozialkapitals in ökonomische Chancen von gesteigertem Interesse sein. In diesem Zusammenhang und vor allem mit Blick auf die im Dunstkreis des Podcasting entstandene alternative Musikindustrie (z.B. Podsafe Music Network) dürfte auch die Frage interessant sein, inwieweit Podcasting als social production im Sinne Benklers (2006) verstanden werden kann und wann Podcasts als "diverse social actions can turn into an important modality of economic production" (Benkler 2006: 98).
Social Gambler – Podcasting als virtuelles Spiel Der Social Gambler ist zwischen Personality Prototyper und Social Capitalist angesiedelt. Für ihn ist der Podcast eine Art Stimulus in einem Feldexperiment mit anderen, in dem er eruiert, wie weit er mit den Hörern gehen kann. Auch für ihn ist die interessante Kommunikationssituation das zentrale Qualitätsmerkmal seines Podcasts. Anders als beim Social Capitalist sind die vornehmlich virtuellen sozialen Interaktionen des Social Gamblers zeitlich nicht stabil. Es geht ihm nicht darum, dauerhafte, tragfähige Beziehungen aufzubauen. Der Social Gambler dürfte der in der deutschen Podosphäre am wenigsten verbreitete Typ sein. Von den anderen Typen unterscheidet sich der Social Gambler in erster Linie dadurch, dass Podcasting für ihn vorwiegend ein virtuelles Phänomen ist, das er strikt von seinem Offline-Leben trennt. Er strebt weder nach praktischen
Sechs Podcast-Sendetypen und ihre theoretische Verortung
71
Fähigkeiten, persönlichen Einsichten oder sozialen Kontakten, die ihm außerhalb des Podcasting nützlich sein könnten, noch verfolgt er politische Ziele oder versucht seine Expertise oder Meinung weiterzugeben. Dennoch wird man dem Social Gambler nicht gerecht, wenn man sein Podcasting in erster Linie als zynisches, anti-soziales Verhalten einstuft. Ähnlich wie beim Personality Prototyper ist Podcasting für den Social Gambler eine Art Spiel oder Schauspiel, in dem es ihm jedoch nicht darum geht, die eigene Rolle zu perfektionieren. Vielmehr empfindet er es als unterhaltsam seine Mitspieler (Hörer, Kommentatoren) zu unerwarteten Handlungen zu animieren. Selbst wenn es sich bei diesen um echte Personen handelt, reduziert der Social Gambler sie zu fiktiven Charaktere eines Onlinerspiels. Überhaupt dürfte das Podcasten des Social Gambler am ehesten mit Ansätzen aus der Forschung zu Computerspielen beschreibbar sein.
Fazit Wie die sechs idealtypisch beschriebenen Sendemodi verdeutlichen, ist Podcasting ein vielschichtiges Phänomen, dessen Untersuchung eine Vielzahl von theoretischen Zugängen erlaubt. Es wurden mit der vorgestellten Typologie sechs Blickwinkel auf das Phänomen Podcasting vorgeschlagen, die a) unterschiedliche theoretische Klassifizierungen des Phänomens erlauben und b) die Untersuchung sehr verschiedener Fragestellungen nahe legen. Ziel der Ausführung war es, Podcasting als Kommunikationsphänomen vorzustellen und für die empirische Kommunikations- und Medienwissenschaft greifbar zu machen.
Literatur Abold, Roland (2006): The Audience is listening – Nutzung und Akzeptanz von Weblogs im Bundestagswahlkampf 2005. Online-Publikation: http://www.soz.uni-frankfurt.de/K.G/ B1_2006_Abold.pdf. In: kommunikation@gesellschaft 7.1. Benkler, Yochai (2006): The Wealth of Networks. How Social Production Transforms Markets and Freedom. New Haven: Yale University Press. Brecht, Bertolt (1932/1972): Der Rundfunk als Kommunikationsapparat. In: Hecht (Hrsg.) (1932/1972). Bruckmann, Amy (1992): Identity Workshop: Emergent Social and Psychological Phenomena in Text-Based Virtual Reality. Online: ftp://ftp.cc.gatech.edu/pub/people/asb/papers/identityworkshop.rtf (abgerufen am: 08.02.2007). Chen, Peter (2005): A Production-Side Analysis of Podcasting and Videoblogging. Online: http://www.peterjohnchen.com/files/chenPodcastingVodcastingSurvey2005.pdf (abgerufen am: 08.02.2007).
72
Dennis Mocigemba
Clary, E. G./Snyder, M./Ridger, D./Copeland, J./Stukas, A. A./Haugen, J./Miene, P. (1998): Understanding and Assessing the Motivations of Volunteers: A Functional Approach. In: Journal of Personality and Social Psychology 74.6. 1516-1530. Crofts, Sheri/Dilley, John/Fox, Mark A./Retsema, Andrew/Williams, Bob (2005): Podcasting. A New Technology in Search of Viable Business Models. First Monday 10/9. Online: http://www.firstmonday.org/issues/issue10_9/crofts/ (abgerufen am: 08.02.2007). Diemand, Vanessa/Mangold, Michael/Weibel, Peter (Hrsg.) (2006): Weblogs, Podcasting und Videojournalismus. Neue Medien zwischen demokratischen und ökonomischen Potenzialen. Hannover: Heise Verlag. Dubrovsky, Vitaly J./Kiesler, S./Sethna, B. N. (1991): The Equalization Phenomenon: Status Effects in Computer-Mediated and Face-to-Face Decision Making Groups. In: Human Computer Interaction 6. 119-146. Gillmor, Dan (2004): We the Media. Grassroots Journalism by the People for the People. Sebastopol: O'Reilly. Goffman, Erving (1959/2001): Wir alle spielen Theater. Die Selbstdarstellung im Alltag. München: Piper. Grunwald, Armin/Banse, Gerhard/Coenen, Christopher (2006): Netzöffentlichkeit und digitale Demokratie. Tendenzen politischer Kommunikation im Internet. Berlin: Edition Sigma. Hecht, Werner (Hrsg.) (1932/1972): Bertolt Brecht – Über Kunst und Kultur. Hertel, Guido/Niedner, Sven/Herrmann, Stefanie (2003): Motivation of Software Developers in Open Source Projects: An Internet-Based Survey of Contributors to the Linux Kernel. In: Research Policy 32.7. 1159-1177. Horton, Donald/Wohl, R. R. (1956): Mass Communication and Para-Social Interaction. Observations on Intimacy at a Distance. In: Psychiatry 19. 215-229. Kiesler, Sara/Siegel, Jane/McGuire, Timothy W. (1984): Social Psychological Aspects of ComputerMediated Communication. In: American Psychologist 39. 1123-1134. Korupp, Sylvia E./Künemund, Harald/Schupp, Jürgen (2006): Digitale Spaltung in Deutschland: geringere Bildung – seltener am PC. In: DIW Wochenbericht 73/19. 289-294. Leggewie, Claus (2006): Rampensäue, bitte zurücktreten! Vom Blogger-Narzissmus zum Paradigma Kollaboration. In: Diemand et al. (Hrsg.) (2006): 42-57. Löser, Peter/Peters, Daniel (2006): Podcasting – Aus der Nische an die Öffentlichkeit. In: Diemand et al. (Hrsg.) (2006): 139-154. Misoch, Sabina (2006): Online-Kommunikation. Konstanz: UVK. Mocigemba, Dennis (2006): Warum sie selber senden: Eine Typologie von Sendemodi im Podcasting. Online-Publikation: http://www.soz.unifrankfurt.de/K.G/B3_2006 _Mocigemba.pdf. In: kommunikation@gesellschaft 7.3. Mocigemba, Dennis (2007/submitted): P4P – Podcasting for Participation. How Can Digital Grassroots Media Support Sustainable Development? Mocigemba, Dennis (2007): Podcasting und seine Funktionen für den privaten Sender und das Mediensystem. In: Journalistik Journal 10.1.
Sechs Podcast-Sendetypen und ihre theoretische Verortung
73
Niemann, P. (2006): Podcasting: Eine Revolution? Das Phänomen Podcasting aus medienwissenschaftlicher Sicht. Unveröffentlichte Magisterarbeit im Fach Medienwissenschaft an der Universität Trier. Trier: Universität Trier. Pleil, Thomas (2006): Podcasting – Offener Kanal reloaded oder nur ein neuer Vertriebskanal? In: Diemand et al. (Hrsg.) (2006): 173-192. Rappaport, Julian (1987): Terms of Empowerment/Exemplars of Prevention: Toward a Theory for Community Psychology. In: American Journal of Community Psychology 15.2. 121-148. Rheingold, Howard (2002): Smart Mobs. The Next Social Revolution. Transforming Cultures and Communities in the Age of Instant Access. Cambridge: Basic Books. Schmidt, Jan (2006): Weblogs. Eine kommunikationssoziologische Studie. Konstanz: UVK. Schroer, Joachim/Hertel, Guido (2007): Voluntary Engagement in an Open Web-Based Encyclopedia: Wikipedians, and Why They Do It. Online: http://www.abo.psychologie.uniwuerzburg.de/virtualcollaboration/publications.php?action=view&id=44 (abgerufen am: 08.02.2007). Shirky, Clay (2003): Power Laws, Weblogs and Inequality. Online: http://www.shirky.com/ writings/powerlaw_weblog.html (abgerufen am: 08.02.2007). Siegel, Jane/Dubrovsky, Vitaly J./Kiesler, Sara/McGuire, Timothy W. (1986): Group Processes in Computer-Mediated Communication. In: Organizational Behavior and Human Decision Processes 37.2. 157-187. Trevino, Linda K./Engel, Robert H./Daft, Richard L. (1987): Media Symbolism, Media Richness and Media Choice in Organizations: A Symbolic Interactionist Perspective. In: Communication Research 19. 539-573. Turkle, Sherry (1995): Life on the Screen. Identity in the Age of the Internet. New York: Simon & Schuster. van Aaken, Gerrit (2005): Ich bin der Sender. Diplomarbeit an der Fachhochschule Mainz. Online: http://praegnanz.de/file_download/5 (abgerufen am: 08.02.2007). Vogele, Colette/Garlick, Mia/The Berkman Center (2006): Podcasting Legal Guide. Rules for the Revolution. Online: http://wiki.creativecommons.org/Podcasting_Legal_Guide (abgerufen am: 08.02.2007). Vorderer, Peter (1996): Fernsehen als Beziehungskiste. Parasoziale Beziehungen und Interaktionen mit TV-Personen. Opladen: Westdeutscher Verlag. Wunschel, Alexander (2006): Podcasting – Bestandsaufnahme aktueller Ansätze von BusinessModellen. In: Diemand et al. (Hrsg.) (2006): 155-172. Wunschel, Alexander (2007): Die deutschen Podcast-Hörer. Zusammenfassung der Ergebnisse der zweiten Podcast-Umfrage. Online: http://www.wunschel.net/podcast/Podcastumfrage_2006 _Ergebnisse.pdf (abgerufen am: 08.02.2007).
Aneignung, Nutzung und Wirkung von Onlinemedien
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste Werner Wirth, Thilo von Pape, Veronika Karnowski
Weitgehend unbeachtet von Medien und Wissenschaft hat die Mobilkommunikation in Deutschland im Herbst 2006 einen Meilenstein ihrer Entwicklung erreicht: Wie die Bundesnetzagentur (Bundesnetzagentur 2006) meldete, hat der Markt im dritten Quartal eine hundertprozentige Penetration erreicht - auf ca. 82 Millionen Deutsche kommen mehr als 83 Millionen Mobilfunkanschlüsse. Spätestens mit diesen Zahlen drängt sich die Frage auf, wie sich die Mobilkommunikation nun weiter entwickeln wird. Rein quantitativ betrachtet ist jenseits der 100%-Marke nur noch wenig Raum für Wachstum, denn ein Zweit- oder Drittanschluss wird wohl auch in Zukunft eher die Ausnahme bleiben. Die Dynamik des Mobilfunkmarktes ist aber ohnehin schon seit längerem nicht mehr an Nutzerzahlen allein zu messen. Zwar lässt sich deren bisherige Entwicklung fast exemplarisch durch eine s-förmige Diffusionskurve modellieren, aber damit unterschlägt man die zunehmende Bedeutung der qualitativen Dimension dieser Entwicklung. Vergleicht man etwa die ersten GSM-fähigen Geräte von 1992 mit einem heutigen Handy mit integrierter Kamera, BreitbandInternetanschluss und DVB-H-Empfang, so drängt sich die Frage auf, ob es sich überhaupt noch um dieselbe Innovation handelt. Zu den neuen technischen Funktionen kamen auch ungeahnte Anwendungen im Alltag hinzu, die das Mobiltelefon zum begehrten Mode-Accessoire, zu einer mobilen Spiel- und Unterhaltungsbox und zu einem multimedialen Beziehungsmanager machten (vgl. Katz/Sugiyama 2006; Licoppe/Inada 2006; von Pape et al. 2006). Diese neuen Nutzungsweisen sind das Objekt der Hoffnungen und Sorgen nicht nur der Mobilfunkbetreiber, die ihre Milliardeninvestitionen in UMTSLizenzen wieder einspielen möchten, sondern auch sozialer Beobachter, die die gesellschaftlichen Folgen der Innovation hinterfragen (Ling 2004). Bevor die Nutzungsweisen des Handys aber bewertet werden, stellt sich zunächst die Frage, wie sie überhaupt erst zustande kommen. Zwei Forschungsparadigmen befassen sich mit dieser Frage. Im Folgenden sollen diese Paradigmen in ihrer Gegensätzlichkeit und ihrer Komplementarität vorgestellt werden, um
78
Werner Wirth, Thilo von Pape, Veronika Karnowski
dann ein integratives Modell der Aneignung neuer Kommunikationsdienste zu entwickeln.
Zwei Paradigmen der weiteren Entwicklung technischer Innovationen Die Frage, wie sich eine Innovation weiterentwickelt, wenn sie einmal die Entwicklungslabors verlassen hat und in die Hände der Nutzer gelangt ist, wird aus zwei theoretisch und methodisch so grundlegend unterschiedlichen Perspektiven untersucht, dass man von zwei Paradigmen sprechen kann. Die Ausrichtungen beider Paradigmen lassen sich anhand der Phasen von Rogers' (2003) "Innovation-Decision-Process" unterscheiden: Während die Adoptionsentscheidung im Fokus des Adoptionsparadigmas liegt, ist die weitere Implementierung einer Innovation zentrales Interesse des Aneignungsparadigmas. Beide Paradigmen unterscheiden sich auch methodologisch; sie erweisen sich aber bei genauer Betrachtung als inhaltlich wie methodologisch komplementär.
Adoptionsparadigma Konstitutives Merkmal des Adoptionsparadigmas ist seit den ersten Diffusionsstudien die Dichotomie zwischen Adoption und Ablehnung einer Innovation. Diese Dichotomie erlaubt es, die Verbreitung einer Innovation innerhalb eines sozialen Systems anhand einer Diffusionskurve zu verfolgen und auf quantitative Art die für die Adoptionsentscheidung ausschlaggebenden Faktoren zu identifizieren. Ein großer Teil der Studien in dieser Tradition bedient sich einer klassischen Methodologie, die seit den ersten Diffusionsstudien nahezu unverändert blieb: "1) quantitative data, 2) concerning a single innovation, 3) collected from adopters, 4) at a single point in time, 5) after widespread diffusion had taken place" (Meyer 2004). Theoretisch lässt sich das Adoptionsparadigma durch zwei weitere Forschungstraditionen ergänzen: • Modelle aus der sozialpsychologischen Handlungstheorie erklären Adoption aus der Perspektive der potenziellen Nutzer. Hier sind vor allem die Theory of Planned Behavior (Ajzen 1985) und das Technology Acceptance Model (Davis 1986) zu nennen. Auf dieser Grundlage wurde eine große Anzahl an Studien zur Adoption und Diffusion neuer Kommunikationsdienste durchgeführt (vgl. u.a. Hung et al. 2003; Pedersen et al. 2002; Schenk et al. 1996). • Während TPB und TAM aus der Perspektive einzelner Nutzer heraus argumentieren, betrachtet soziale Netzwerkanalyse das Phänomen aus einem me-
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
79
sosozialen Blickwinkel heraus (Valente 2005): Wie beeinflusst die Struktur eines sozialen Systems die Diffusionsverläufe? Dieser Ansatz greift Gedanken aus den ersten Diffusionsstudien auf, in denen die Bedeutung von Meinungsführern untersucht wurde. Soziale Netzwerkanalyse geht aber theoretisch und methodisch darüber hinaus, indem sie über ein ganzes Netzwerk hinweg etwa beobachtet, wie sich adoptionsentscheidende Normen verbreiten (Kincaid 2004). Indem diese Ansätze stets die Dichotomie zwischen Adoption und Ablehnung einer Innovation als zu erklärendes Verhalten betrachten, berücksichtigen sie nicht, dass sich eine Innovation auch im Laufe der Diffusion verändern kann. Einerseits entwickeln sich die technologischen Grundlagen mit jeder Gerätegeneration weiter und werden durch neue Funktionalitäten ergänzt; auf der anderen Seite ergeben sich auch aus der Implementierung einer Innovation in den Alltag der Nutzer neue Nutzungsweisen, die den Charakter einer Innovation vollkommen verändern können. Klassisches Beispiel für dieses Phänomen ist die SMS, deren soziale Nutzung – wie sie insbesondere durch Jugendliche gegen Ende der 1990er Jahre entdeckt wurde – von den technischen Entwicklern nicht vorausgesehen war1. Zwar nimmt Rogers das Phänomen einer solchen "Reinvention" in der dritten Ausgabe seines Standardwerkes auf (Rogers 1983), aufgrund seiner primären Fokussierung auf die Makroebene der sozialen Diffusion bleibt die binäre Adoptionsentscheidung jedoch weiterhin Kernpunkt seiner Theorie.
Aneignungsparadigma Das Aneignungsparadigma blickt über die Adoptionsentscheidung hinaus, indem es den folgenden Fragen nachgeht: Wie integrieren Nutzer eine Innovation in ihren Alltag? Welchen Sinn geben sie ihr und wie nutzen sie sie konkret? Welche Motive begründen diese Nutzung? Die Grundidee, die aktive, gestaltende Rolle des Nutzers stärker zu berücksichtigen findet sich in mehreren theoretischen Traditionen, wie etwa der Techniksoziologie (Bijker/Pinch 1984; Flichy 1995; Rammert 1993), Rahmenanalyse 1
So berichtet der Vorsitzende Firma CMG, die maßgeblich an der Erfindung der SMS beteiligt war, Cor Stutterheim: "When we created SMS (Short Messaging Service) it was not really meant to communicate from consumer to consumer and certainly not meant to become the main channel which the younger generation would use to communicate with each other" (Wray 2002).
80
Werner Wirth, Thilo von Pape, Veronika Karnowski
(Goffman 1977), Domestication (Silverstone/Haddon 1996) oder auf Seiten der Kommunikationswissenschaft im Uses-and-Gratifications-Approach (Katz et al. 1974) wieder. • Grundgedanke des Domestication-Ansatzes ist die Zähmung der "wilden" Technologie durch die Nutzer. Diese integrieren eine Technologie in ihre Alltagsroutinen (incorporation) und ihre räumliche Umgebung (objectification) und eignen sich die Technologie schließlich auch symbolisch an, indem sie sich damit vor anderen Menschen zeigen und darüber sprechen (conversion) (Berker et al. 2006; Silverstone/Haddon 1996). • Rahmenanalyse betrachtet das Aushandeln von Nutzungsweisen einer Technologie. So wurde die Nutzung des Mobiltelefons durch bestimmte Normen gerahmt, z.B. dass man in einem Restaurant nicht laut telefoniert (vgl. Goffman 1977; Ling 2004; Taylor/Harper 2003). • Auch der Uses-and-Gratifications-Approach (UGA) als klassischer kommunikationswissenschaftlicher Ansatz wurde in den letzten Jahren zunehmend auf neue Technologien angewandt. So wurden verschiedene neue Motive der Nutzung neuer Kommunikationsdienste identifiziert oder auch die Existenz von aus den Massenmedien bekannten Motiven bestätigt (vgl. Dimmick et al. 2000; Höflich/Rössler 2001; Leung/Wei 2000; Peters/ben Allouch 2005; Trepte et al. 2003; Wei 2007/im Druck). Insgesamt liegen die Stärken des Aneignungsparadigmas in seiner größeren Offenheit für das weite Spektrum an möglichen Nutzungsformen und –Motiven im Alltag im Gegensatz zur starren Dichotomie, auf die das Adoptionsparadigma immer wieder zurückfällt. Diese Offenheit wird ermöglicht durch eine – einmal abgesehen von UGA2 – sehr flexible, qualitative Methodologie, etwa in Form von Leitfadeninterviews oder Ethnographie. Diese qualitativen Methoden ziehen allerdings den Vorwurf an sich, schwer generalisierbar und empirisch überprüfbar zu sein.
2
Im Uses-and-Gratifications-Approach werden zwar in der Regel geschlossene, standardisierte Befragungen durchgeführt. Qualitative Methoden können aber auch zum Einsatz kommen, um in Vorstudien grundlegende Gratifikationsdimensionen zu ermitteln (vgl. McQuail et al. 1972).
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
81
Schlussfolgerungen für die Entwicklung eines integrativen Modells der Aneignung neuer Kommunikationsdienste Wie bereits gezeigt, hat jeder der angeführten Ansätze seine Stärken und Schwächen bei der Modellierung von Diffusion und Aneignung neuer Kommunikationsdienste. Eine Integration der Ansätze scheint somit sinnvoll. Die Kernpunkte einer derartigen Integration sind die folgenden (vgl. Karnowski et al. 2006): 1. Der Prozess der Diffusion und Aneignung ist nicht zwingend ein linearer. Darauf weisen sowohl Re-Invention-Forschung, als auch verschiede Ansätze von Seiten des Aneignungsparadigmas hin. Aneignung ist somit ein aktiver und kreativer Prozess der in individuelle Nutzungs- und Bedeutungsmuster mündet. 2. Diffusion und Aneignung sind nicht unabhängig von sozialen Faktoren wie Kultur oder Normen. Handlungstheoretische Ansätze können helfen Aneignung in ihrem sozialen Kontext zu begreifen. 3. Ein integratives Aneignungsmodell muss auch den Einfluss von Kommunikation auf den Aneignungsprozess beschreiben. Dieser Einfluss konnte bereits in vielen Studien nachgewiesen werden (vgl. u.a. Habib/Cornford 2002; Höflich 2003; Lehtonen 2003; Oksman/Turtiainen 2004; Silverstone/Haddon 1996; von Pape et al. 2006). 4. Insbesondere Studien von Seiten des Aneignungsparadigmas (Habib/Cornford 2002; Lehtonen 2003) und UGA-Studien (Oksman/Turtiainen 2004) betonen den symbolischen Wert neuer Kommunikationsdienste. Mobiltelefone und der Umgang mit ihnen können die soziale Position in der Gruppe unterstützen und sind Werkzeuge der Selbstdarstellung und Selbstergänzung. 5. Der Einfluss sozialer Netzwerke auf die Adoption neuer Kommunikationsdienste wurde bereits in diversen Studien belegt (Rogers 2004; Schenk et al. 1996; Valente 2005). Die Rolle sozialer Netzwerke im Prozess der Aneignung bleibt jedoch noch unklar. Studien mit Teeangern unterstreichen die Wichtigkeit von Meinungsführern und "weak ties" (Granovetter 1973; Taylor/Harper 2003; von Pape et al. 2006). Im Gegensatz zu den Ergebnissen von Schenk et al. (1996) könnte dieser Einfluss in späteren Lebensphasen zurückgehen. Möglicherweise wird dieser Diskurs dann nicht mehr direkt ausgetragen, sondern antizipiert. Hierbei stellen massenmediale Rollenmodelle und kultivierte Wertvorstellungen möglicherweise die Quelle für derartige Antizipationen dar (Bandura 1979; Shrum/O'Guinn 1993).
82
Werner Wirth, Thilo von Pape, Veronika Karnowski
Entwicklung des Mobile Phone Appropriation-Modells Ein integratives Aneignungsmodell sollte also sowohl individuelle wie auch soziale Faktoren beinhalten, ein breites Spektrum an Nutzungen und Bedeutungen umfassen und gleichzeitig empirisch überprüfbar bleiben (vgl. Karnowski et al. 2006). Im folgenden Abschnitt stellen wir schrittweise unser Vorgehen dar, um zu einem derartigen Modell zu gelangen. Dabei rechtfertigen wir jedes neue Element in seiner theoretischen Einbettung, um so eine eklektische Kombination theoretisch inkompatibler Fragmente zu vermeiden. Ausgangspunkt des "Mobile Phone Appropriation-Modells" (MPA-Modell) ist die Theory of Planned Behavior (Ajzen 1985; 1991) als ein etablierter Ansatz zur Erklärung individuellen Verhaltens (Abb. 1). Um den Prozess der Aneignung modellieren zu können, wird das Modell in fünf Schritten weiterentwickelt: 1) Ausdifferenzierung der abhängigen Variablen, 2) Ausdifferenzierung der das Verhalten beeinflussenden Variablen, 3) Einbeziehung von Metakommunikation, 4) zirkuläre Struktur des Modells 5) Ausblenden der Verhaltensabsicht (Abb. 2). Abb. 1: Theory of Planned Behavior (Ajzen 2005)
Ausdifferenzierung der abhängigen Variable Die abhängige Variable in TPB-Modellen ist zumeist binär oder aber zumindest eindimensional. Um das Phänomen der Aneignung in seiner Breite erfassen zu können, erweitern wir diesen "Endpunkt" der Aneignung in einen mehrdimensi-
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
83
onalen Nutzungsbegriff. Dabei unterscheiden wir grundsätzlich in funktionale und objektbezogene Nutzungsaspekte. Objektbezogene Nutzungsaspekte beziehen sich auf die konkreten technischen Optionen, die dem Nutzer zur Verfügung stehen, wie SMS, Telefonie, Mobile-TV usw.: Welche unter ihnen verwendet er überhaupt, und in welchem Ausmaß verwendet er sie? Wie häufig und dauerhaft verwendet er diese einzelnen Funktionalitäten? In wie weit verändert er das Objekt Mobiltelefon durch Klingeltöne oder andere modische Accessoires? Der funktionale Aspekt der Nutzung differenziert sich weiter in pragmatische wie symbolische Nutzen. Die pragmatische Nutzungsdimension orientiert sich dabei im Kern an den aus UGA-Studien bekannten Nutzungsmotiven (vgl. u.a. Leung/Wei 2000; Peters/ben Allouch 2005; Süss 2004; Trepte et al. 2003), im Einzelnen sind dies: "Ablenkung/Zeitvertreib", "Alltagsmanagement", "Kontaktpflege" und "Kontrolle". Der symbolische Aspekt der Nutzung umfasst einen Bereich, der in diversen UGA-Studien bereits im Rahmen von Nutzungsmotiven wie "Status" (Leung/Wei 2000; Peters/ben Allouch 2005; Trepte et al. 2003) anklingt, jedoch nicht weiter verfolgt wird. Auch diverse Studien zur Nutzung des Mobiltelefons aus anderen Forschungstraditionen als dem UGA bestätigen die Wichtigkeit des symbolischen Aspekts der Mobiltelefonnutzung (vgl. Katz/Sugiyama 2006; Ling 2003; Oksman/Rautiainen 2003; von Pape et al. 2006). In Anlehnung an Mead (1973) differenzieren wir die symbolische funktionale Nutzung in Hinblick auf die psychologische Identität ("Welchen Wert hat die Nutzung des Mobiltelefons für mein Selbst?") und soziale Identität ("Welchen Wert hat die Nutzung des Mobiltelefons für mich in meinem sozialen Umfeld?").
Ausdifferenzierung der das Verhalten beeinflussenden Variablen Gemäß der TPB wird das Verhalten durch folgende Faktoren beeinflusst: Einstellung gegenüber dem Verhalten, Normen und Verhaltenskontrolle. Um der Ausdifferenzierung auf Seiten der abhängigen Variablen gerecht zu werden, müssen auch diese unabhängigen Variablen weiter ausdifferenziert werden. In diesem Sinne wird die Einstellung gegenüber dem Verhalten entsprechend den beschriebenen Nutzungsaspekten und -dimensionen unterschieden. Im Gegensatz zur tatsächlichen Nutzung sind diese Einstellungen nicht mit konkreten Alltagsszenarien verbunden, sondern auf einer höheren Abstraktionsebene angesiedelt. Die normenbezogenen Einstellungen stellen das Produkt der wahrgenommenen Normen in Hinblick auf Handynutzung und der Bereitschaft, diesen Nor-
84
Werner Wirth, Thilo von Pape, Veronika Karnowski
men zu entsprechen, dar. Die Normen können sich sowohl auf die objektorientierte, als auch auf die funktionale Nutzung beziehen. Schließlich beziehen sich die Einstellungen zur Verhaltenskontrolle auf spezifische (zeitliche, kognitive, finanzielle, technische) Restriktionen in der Handy-Nutzung. Diese Restriktionen wirken sich in erster Linie auf die objektbezogene Nutzung aus und erst über diese auch auf die funktionale Nutzung.
Einbeziehung von Metakommunikation Eine Kritik an der TPB bezieht sich auf die Tatsache, dass ihre unabhängigen Variablen (Erwartungen und Bewertungen in Hinblick auf Verhalten, Normen und Restriktionen) als statisch betrachtet werden (Jonas/Doll 1996), während man erwarten kann, dass diese sich durchaus über die Zeit ändern. Gerade in Hinblick auf Mobilkommunikation zeigt eine große Zahl an Studien, dass sich im Laufe der Diffusion und Nutzung die Erwartungen und Bewertungen verändern. Dieser Prozess wird von den unterschiedlichen Ansätzen des Aneignungsparadigmas als "Rahmenverhandlungen" (Höflich 2003), "Conversion" (Silverstone/Haddon 1996), "Social Shaping" (Bijker/Pinch 1984) und "Aushandeln von soziotechnischen Rahmen" (Flichy 1995) bezeichnet. Diese Ansätze und Metaphern haben gemeinsam, dass sie einen Prozess der Kommunikation über die Nutzung einer Innovation beschreiben – den wir als "Metakommunikation" bezeichnen, weil es die Kommunikation über Kommunikationsmittel ist. Metakommunikation stellt den "Katalysator" der Aneignung dar, da sie den Aneignungsprozess vorantreibt und dann im Laufe des Aneignungsprozesses zurück geht (vgl. Hepp 1998: 97; Wirth et al. 2005/Mai) Metakommunikation findet sowohl durch interpersonale als auch durch massenmediale Kommunikation und Beobachtung statt.
Zirkuläre Struktur des Modells Schließlich ist Aneignung im Gegensatz zu Adoption kein einmaliger, linearer Prozess, der mit einer Übernahme oder Ablehnung abgeschlossen wäre, sondern vielmehr ein kontinuierlicher und zirkulärer: Wenn eine Innovation auf den Markt kommt und ein Nutzer sie auf eine bestimmte Weise zum ersten Mal einsetzt, dann wird er nicht für immer bei dieser Nutzung bleiben. Er wird vielmehr mit anderen darüber sprechen, über deren Reaktion und deren eigene Nutzung derselben Innovation, und er wird auch die medienvermittelte Metakommunikation zu dem Thema wahrnehmen, welche auf andere Nutzer wie ihn
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
85
Bezug nimmt. Auf dieser Basis wird er seine funktionale und normative Einstellung zur Nutzung sowie seine Kontrolleinschätzung vielleicht überdenken und dann auch andere Nutzungsformen entwickeln oder übernehmen, welche dann wiederum neue Metakommunikation nach sich ziehen. Um diesem zirkulären Verlauf der Aneignung gerecht zu werden, ist das Aneignungsmodell zirkulär angelegt (vgl. Abb. 2).
Ausblenden der Verhaltensabsicht In der TPB gilt "Intention" als zentrale Variable zwischen den Einflussfaktoren und dem tatsächlichen Verhalten. Obwohl wir die Bedeutung dieser Variable als hinreichend belegt betrachten, haben wir sie nicht in das Aneignungsmodell integriert, da die qualitative Ausdifferenzierung von Nutzungsverhalten in unserem Model eine entsprechende Ausdifferenzierung von Intentionen verlangen würde, die sich nicht unter einem solchen Konstrukt zusammenfassen ließe. Eine "Intention" für jede spezifische Form der Aneignung würde in das MPAModell eingebunden werden müssen, was zu einer Überkomplexität des Modells führen würde. Dabei scheinen die Entscheidungen für bestimmte Teilformen der Aneignung mit wesentlich weniger kognitivem Aufwand gefällt, als dies bei klassischen, binären Adoptionsentscheidungen der Fall ist. So lässt sich Aneignung als eine lange Serie geringer, oft wenig reflektierter Stufen denken. Ob diese Begründungen "Intention" nicht in das Modell aufzunehmen ausreichen, beleibt in unseren Augen schlussendlich eine empirische Frage.
86
Werner Wirth, Thilo von Pape, Veronika Karnowski
Abb. 2: Mobile Phone Appropriation-Modell (MPA-Modell)
Resümee und Ausblick Das dargestellte integrative Mobile Phone Appropriation-Modell ist der Kern eines Projektes zur Integration scheinbar unvereinbarer Ansätze zur Adoption und Aneignung von Innovationen im Bereich mobiler Kommunikation. Wenn auch die Grundstruktur einem quantitativen, standardisierten Vorgehen entspricht, wurden Befunde aus der qualitativen Forschung berücksichtigt und einbezogen. Das Modell wurde bereits in eine integrative Skala der Aneignung neuer Kommunikationsdienste operationalisiert und diese Skala in einer ersten Studie zur Differenzierung von Handy-Nutzertypen per Cluster-Analyse angewendet (von Pape et al. 2007/im Druck). Weiterführende Fragen wären: • Gibt es Phasen des Aneignungsprozesses? Hierzu wurden bereits erste Längsschnittstudien durchgeführt (von Pape et al. 2007/Mai).
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
87
• Wie gestaltet sich die Metakommunikation als "Katalysator" der Aneignung? Diese Frage wird derzeit sowohl in Hinblick auf massenmediale Metakommunikation, als auch auf interpersonale Metakommunikation innerhalb sozialer Netzwerke hin untersucht. Modell und Skala sind für die Mobilkommunikation optimiert, lassen sich aber auch auf andere Innovationen übertragen, insbesondere, wenn diese einer sozialen Dynamik unterworfen sind (kritische Masse), hohe symbolische Bedeutung tragen und schnellen technologischen Wandel erfahren. Die Komplexität des empirischen Phänomens der jeweiligen Aneignung verbieten aber, Modell und Skala unmittelbar auf andere Phänomene zu übertragen. Vielmehr sollte das Modell als Grundgerüst betrachtet werden, dessen jeweilige Konstrukte (etwa die Dimensionen der funktionalen Nutzung) bei jeder Innovation möglichst von Grund auf und mit Rückgriff auf quantitative und qualitative Methoden neu ermittelt werden.
Literatur Ajzen, Icek (1985): From intentions to actions: A theory of planned behavior. In: Kuhl/Beckman (Hrsg.) (1985): 11-39. Ajzen, Icek (1991): The theory of planned behavior. In: Organizational Behavior and Human Decision Processes 50. 179-211. Ajzen, Icek (2005): Attitudes, Personality and Behavior. New York: Open University Press. Bandura, Albert (1979): Sozial-kognitive Lerntheorie. Stuttgart: Klett-Cotta. Berker, Thomas/Hartmann, Maren/Punie, Yves/Ward, Kat (Hrsg.) (2006): Domestication of media and technology. Bijker, Wiebe E./Hughes, Thomas P./Pinch, Trevor J. (Hrsg.) (1984): The Social Construction of Technological Systems. Cambridge, Mass.: MIT Press. Bijker, Wiebe E./Pinch, Trevor J. (1984): The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology Might Benefit of Each Other. In: Bijker et al. (Hrsg.) (1984): 17-50. Blumler, Jay G./Katz, Elihu (Hrsg.) (1974): The Uses of Mass Communications. Current Perspectives in Gratifications Research. Beverly Hills: Sage Publications. Bundesnetzagentur (2006): Teilnehmerentwicklung und Penetration in deutschen Mobilfunknetzen. Online: http://www.bundesnetzagentur.de/media/archive/7939.pdf (abgerufen am: 27.02.2007). Carrington, Peter J./Scott, James/Wasserman, Stanly (Hrsg.) (2005): Models and Methods in Social Network Analysis. Cambridge UK: Cambridge University Press.
88
Werner Wirth, Thilo von Pape, Veronika Karnowski
Davis, Fred D. (1986): A technology acceptance model for empirically testing new end-user information systems: theory and results. Boston: Massachusetts Institute of Technology. Dimmick, John/Kline, Susan/Stafford, Laura (2000): The Gratification Niches of Personal E-Mail and the Telephone. Competition, Displacement, and Complementarity. In: Communication Research 27.2. 227-228. Flichy, Patrice (1995): L'innovation technique. Récents développements en sciences sociales vers une nouvelle théorie de l'innovation. Paris: La Découverte. Fortunati, Leopoldina/Katz, James E./Riccini, Raimonda (Hrsg.) (2003): Mediating the human body: Technology, communication and fashion. Mahwah, NJ: Lawrence Erlbaum & Associates. Goffman, Erving (1977): Rahmen-Analyse. Ein Versuch über die Organisation von Alltagserfahrungen. Frankfurt: Suhrkamp. Granovetter, Marc S. (1973): The Strength of Weak Ties. In: American Journal of Sociology 78.6. 1361-1380. Habib, Laurence/Cornford, Tony (2002): Computers in the home: domestication and gender. In: Information Technology & People 15.2. 159-174. Hepp, Andreas (1998): Fernsehaneignung und Alltagsgespräche. Fernsehnutzung aus der Perspektive der Cultural Studies. Opladen: Westdeutscher Verlag. Höflich, Joachim R. (2003): Mensch, Computer und Kommunikation. Theoretische Verortungen und empirische Befunde. Frankfurt: Peter Lang. Höflich, Joachim R./Rössler, Patrick (2001): Mobile schriftliche Kommunikation oder: E-Mail für das Handy. In: Medien & Kommunikationswissenschaft 49.4. 437-461. Hung, Shin-Yuan/Ku, Chen-Yuan/Chan, Chia-Ming (2003): Critical factors of WAP services adoption: an empirical study. In: Electronic Commerce Research an Applications 2.1. 42-60. Jonas, Klaus/Doll, Jörg (1996): Eine kritische Bewertung der Theorie überlegten Handelns und der Theorie geplanten Verhaltens. In: Zeitschrift für Sozialpsychologie 27. 18-31. Karnowski, Veronika/von Pape, Thilo/Wirth, Werner (2006): Zur Diffusion neuer Medien: Kritische Bestandsaufnahme aktueller Ansätze und Überlegungen zu einer integrativen Diffusionsund Aneignungstheorie Neuer Medien. In: Medien & Kommunikationswissenschaft 54.1. 56-74. Katz, Elihu/Blumler, Jay G./Gurevitch, Michael (1974): Utilization of Mass Communication by the Individual. In: Blumler/Katz (Hrsg.) (1974): 19-34. Katz, James E. (Hrsg.) (2003): Machines that become us. The Social Context of Personal Communication Technology. New Brunswick, NJ: Transaction Publishers. Katz, James E./Sugiyama, Satomi (2006): Mobile phones as fashion statements: evidence from student surveys in the US and Japan. In: New Media & Society 8.2. 321-337. Kincaid, D. L. (2004): From Innovation to Social Norm: Bounded Normative Influence. In: Journal of Health Communication 9.1. 37-57. Kuhl, Julius/Beckman, Jurgen (Hrsg.) (1985): Action-control: From cognition to behavior. Heidelberg: Springer.
Ein integratives Modell der Aneignung mobiler Kommunikationsdienste
89
Lehtonen, Turo-Kimmo (2003): The Domestication of New Technologies as a Set of Trials. In: Journal of Consumer Culture 3.3. 363-385. Leung, Louis/Wei, Ran (2000): More than just talk on the move: uses and gratifications of the cellular phone. In: Journalism and Mass Media Quarterly 77.2. 308-320. Licoppe, Christian/Inada, Yoriko (2006): Emergent Uses of a Multiplayer Location-aware Mobile Game: the Interactional Consequences of Mediated Encounters. In: Mobilities 1.1. 39-61. Ling, Richard (2003): Fashion and Vulgarity in the Adoption of the Mobile Telephone Among Teens in Norway. In: Fortunati et al. (Hrsg.) (2003): 93-102. Ling, Richard (2004): The Mobile Connection. The Cell Phone's Impact on Society. San Francisco, Oxford: Elsevier/Morgan Kaufmann. Mathes, J./Wirth, W./Fahr, A./Daschmann, G. (Hrsg.) (2007/im Druck): Die Brücke zwischen Theorie und Empirie: Operationalisierung, Messung und Validierung in der Kommunikationswissenschaft. Köln: Halem. McQuail, Denis (Hrsg.) (1972): Sociology of Mass Communications. Harmondsworth: Penguin. McQuail, Denis/Blumler, J. G./Brown, J. R. (1972): The Television Audience: A Revised Perspective. In: McQuail (Hrsg.) (1972): 135-166. Mead, George H. (1973): Geist, Identität und Gesellschaft. Frankfurt a. M.: Suhrkamp. Meyer, Gary (2004): Diffusion Methodology: Time to Innovate? In: Journal of Health Communication 9.1. 59-69. Mikos, Lothar/Hoffmann, Dagmar/Winter, Rainer (Hrsg.) (2006): Mediennutzung, Identität und Identifikationen. Die Sozialisationsrelevanz der Medien im Selbstfindungsprozess von Jugendlichen. Weinheim, München: Juventa. Oksman, V./Turtiainen, J. (2004): Mobile Communication as a social stage. Meanings of Mobile Communication in Everyday Life among Teenagers in Finland. In: New Media & Society 6.3. 319-339. Oksman, Virpi/Rautiainen, Pirjo (2003): "Perhaps It Is A Body Part". How the Mobile Phone Became an Organic Part of Everyday Lives of Children and Adolescents. In: Katz (Hrsg.) (2003). Pedersen, Per E./Nysveen, Herbjorn/Thorbjørnsen, Helge (2002): The adoption of mobile services: A cross service study. Bergen, Norway: Foundation for Research in Economics and Business Administration. Peters, Oscar/ben Allouch, Somaya (2005): Always connected. A longitudinal field study of mobile communication. In: Telematics and Informatics 22. 239-256. Rammert, Werner (1993): Technik aus soziologischer Perspektive: Forschungsstand, Theorieansätze, Fallbeispiel. Ein Überblick. Opladen: Westdeutscher Verlag. Rogers, E. M. (2004): A Prospective and Retrospective Look at the Diffusion Model. In: Journal of Health Communication 9.1. 13-19. Rogers, Everett M. (1983): Diffusion of Innovations: A Cross-Cultural Approach (3 ed.). New York: Free Press.
90
Werner Wirth, Thilo von Pape, Veronika Karnowski
Rogers, Everett M. (2003): Diffusion of Innovations. Fifth Edition. New York: Free Press. Schenk, Michael/Dahm, Hermann/Sonje, Deziderio (1996): Innovationen im Kommunikationssystem. Eine empirische Studie zur Diffusion von Datenfernübertragung und Mobilfunk. Münster: Lit. Shrum, L. J./O'Guinn, Thomas C. (1993): Process and effects in the construction of social reality: Construct accessibility as an explanatory variable. In: Communication Research 20. 436471. Silverstone, Roger/Haddon, Leslie (1996): Design and the domestication of information and communication technologies: Technical change and everyday life. In: Silverstone/Mansell (Hrsg.) (1996): 44-74. Silverstone, Roger/Mansell, Robin (Hrsg.) (1996): Communication by Design. The Politics of Information and Communication Technologies. Oxford: Oxford University Press. Süss, Daniel (2004): Mediensozialisation von Heranwachsenden. Dimensionen - Konstanten Wandel. Wiesbaden: VS - Verlag für Sozialwissenschaften. Taylor, Alex S./Harper, Richard (2003): The gift of the gab: a design oriented sociology of young people's use of mobiles. In: Journal of Computer Supported Cooperative Work 12.3. 267296. Trepte, Sabine/Ranné, Nabil/Becker, Miriam (2003): "Personal Digital Assistants"-Patterns of user gratifications. Communications. In: European Journal of Communication Research 8.4. 457-473. Valente, Thomas W. (2005): Network models and methods for studying the diffusion of innovations. In: Carrington et al. (Hrsg.) (2005): 98-116. von Pape, T./Karnowski, V./Wirth, W. (2007/im Druck): Eine integrative Skala zur Messung des Konstruktes der Aneignung. In: Mathes et al. (Hrsg.) (2007/im Druck). von Pape, Thilo/Karnowski, Veronika/Wirth, Werner (2006): Identitätsbildung bei der Aneignung neuer Kommunikationsdienste. Ergebnisse einer qualitativen Studie mit jugendlichen Mobiltelefon-Nutzern. In: Mikos et al. (Hrsg.) (2006): 21-38. von Pape, Thilo/Karnowski, Veronika/Wirth, Werner/Klimmt, Christoph (2007/Mai): Living in Oblivon – A Diary-Study on the Appropriation of a Role-gaming Play. Vortrag auf der 57. Jahrestagung der International Communication Association (ICA), 24.-28.05.2005. San Francisco, USA. Wei, Ran (2007/im Druck): Motivations for using the mobile phone for mass communications and entertainment. Telematics and Informatics. Wirth, Werner/von Pape, Thilo/Karnowski, Veronika (2005/Mai): New technologies and how they are rooted in society. Vortrag auf der 55. Jahrestagung der International Communication Association (ICA), 26.-30.05.2005. New York, USA. Wray, Richard (2002): First with the message. Interview with Cor Stutterheim, executive Chairman CMG. The Guardian, 16.3.2002. Online: http://business.guardian.co.uk/story/ 0,3604,668379,00.html (abgerufen am: 27.02.2007).
Wirkungsmodelle: die digitale Herausforderung revisited. Forschungsstand zu Wirkungen von Online-Kommunikation – ein rückblickender Essay Patrick Rössler
Traditionell stellt die Frage nach den Wirkungen von Medienangeboten eines der, wenn nicht sogar das zentrale Gebiet der kommunikationswissenschaftlichen Forschung dar (z.B. Schenk 2002; Schulz 1992: 7). Historisch hat sich das Fach aus der Analyse der Funktionen von Massenkommunikation für die Gesellschaft entwickelt, und aktuell erwartet diese Gesellschaft fundierte Lösungsvorschläge für Probleme, die sich aus einer zunehmenden Mediatisierung des Alltags ergeben (Krotz 2001). Daher kann es nicht verwundern, dass mit dem weltweiten Siegeszug des Internet schon bald auch verstärkt die Auswirkungen dieses rapiden Diffusionsprozesses in den Blick gerieten. Vor bald einer Dekade, nämlich im Jahr 1998, organisierte die seinerzeit frisch gegründete "Deutsche Gesellschaft für Medienwirkungsforschung" ihre erste Tagung unter dem Titel "Die Medienwirkungsforschung vor der Jahrtausendwende – Stand und Perspektiven" (vgl. Schorr 2000). Die Veranstalter haben damals bei mir angefragt, ob ich ein Panel zum Thema "InternetWirkungen" zusammenstellen wollte. Aus dem modischen Schlagwort "Internet" wurde "Online-Kommunikation", und insgesamt 15 Kollegen beteiligten sich mit Vorträgen, deren schriftliche Fassung bereits zur Tagung vorlag – in Form einer der ersten systematischen Publikationen des Fachs zu dem seinerzeit noch besonderen medialen Phänomen (Rössler 1998a). Als Einleitung dieses Bandes durfte ich erste "Überlegungen zu einer Inventur bestehender Ansätze der Medienwirkungsforschung" vorlegen (Rössler 1998b). Die Grundannahme dieses Beitrags lautete, dass die neue Kommunikationstechnologie es per se noch nicht erforderlich mache, auch vollkommen neue Hypothesen über Medienwirkungen zu formulieren. Vielmehr stellte sich die Frage, welche der klassischen, bereits existierenden Wirkungsmodelle der Kommunikationsforschung noch für die neue, digitale Medienumgebung relevant sein könnten, und wie die Spezifika der Online-Kommunikation ggf. eine Modifikation dieser Modelle erforderlich machen könnten. Der vorliegende Essay untersucht im Rückblick, wie sich die Wissenschaft (und insbesondere natürlich die Kommunikationswissenschaft) in den vergan-
92
Patrick Rössler
genen zehn Jahren der Frage nach der Online-Kommunikation und ihren Wirkungen angenommen hat. In einem ersten Teil stelle ich zunächst kurz die Argumentation des ursprünglich unter dem Titel "Wirkungsmodelle – die digitale Herausforderung" erschienenen Aufsatzes vor, die gleichzeitig die Methodik meiner aktuellen Übersicht bestimmt. Diese liegt einer im Hauptteil präsentierten, systematischen Untersuchung sowohl der internationalen als auch der deutschsprachigen Forschung zum Thema zugrunde. Ein kurzes Fazit bewertet schließlich diesen Forschungsüberblick; der Kernbefund lautet hierbei, dass die Forschung viele der formulierten Erwartungen und Prognosen nicht aufgegriffen hat und sich die Analyse von Wirkungen der Online-Kommunikation meist nicht auf die klassischen Medienwirkungsansätze bezieht.
Wie wirkt Online-Kommunikation? Eine Forschungssystematik (1998) Ausgehend von einer augenfälligen Parallele – der zwischen den Reaktionen auf Orson Welles' legendäres Hörspiel "Krieg der Welten", einem der Klassiker der Medienwirkungsforschung, und denen auf die Internet-Berichte über die angebliche Mission des fiktiven amerikanischen Raumschiffs EON-4 im Weltraum – entwickelte ich zwei Kernfragen (vgl. hier und im Folgenden ausf. Rössler 1998b): Welche der klassischen, bereits existierenden Wirkungsmodelle der Kommunikationsforschung sind auch weiterhin in der neuen, digitalen Medienumgebung relevant? Und: Welche Modifikationen dieser Modelle sind aufgrund der Spezifika der Online-Kommunikation erforderlich? Eine dreidimensionalen Systematik sollte es ermöglichen, existierende theoretische Ansätze der Medienwirkungsforschung (1. Dimension) daraufhin zu überprüfen, welche Bedeutung die neuen, online-basierten Kommunikationsmodi (2. Dimension) mit ihren spezifischen Charakteristika (3. Dimension) für diese Ansätze besitzen. Hinsichtlich der Kommunikationsmodi war es mir damals sehr wichtig, nicht von "dem Internet" zu sprechen, sondern von den einzelnen medialen Anwendungen wie dem World Wide Web, Email, Chat, Diskussionsforen und Spieleumgebungen (Stichwort MUDs). Von den möglichen Beschreibungsdimensionen dieser Modi habe ich drei ausgewählt, die mit Blick auf die Wirkungsfrage relevant sein sollten, nämlich ihre Individualität, ihre Interaktivität und ihre Medialität. In der Zusammenfassung ergab sich ein offenes Klassifikationsschema in Form eines Würfels, der zur Integration von empirischen Forschungsergebnissen und zur Planung und Abstimmung von Forschungsvorhaben beitragen sollte (vgl. Abb. 1).
Wirkungsmodelle: die digitale Herausforderung revisited
93
Dementsprechend könnten Studien • sich auf einen einzelnen Teilwürfel beziehen, d.h. die Bedeutung einer Beschreibungsdimension eines Kommunikationsmodus' für einen Wirkungsansatz (also z.B. die Relevanz der Medialität beim Chat für den PrimingEffekt); • eine ganze Sequenz von Würfeln betrachten, d.h. die Bedeutung einer Beschreibungsdimension aller Kommunikationsmodi für einen Wirkungsansatz (also z.B. die Relevanz der Medialitäten in der computervermittelten Kommunikation generell für den Priming-Effekt); • oder genauso die Bedeutung aller Beschreibungsdimensionen eines Kommunikationsmodus' für einen Wirkungsansatz aufzeigen (also z.B. die Relevanz der Charakteristika des Chat für den Agenda-Setting-Ansatz); • und schließlich eine ganze Ebene der Systematik betrachten, d. h. der Bedeutung aller Beschreibungsdimensionen aller Kommunikationsmodi für einen Wirkungsansatz (z.B. die Relevanz der Charakteristika der cvK-Modi für den Priming-Effekt); • oder genauso sich der Bedeutung aller Beschreibungsdimensionen eines Kommunikationsmodus' für alle Wirkungsansätze zuwenden (z.B. der Relevanz der Charakteristika des Usenet für die Wirkungsforschung). Abb.1: Analyseraster für Online-Wirkungen (Rössler 1998a: 38)
94
Patrick Rössler
Wie für andere Systematiken kann auch hier konstatiert werden, dass die einzelnen Dimensionen vergleichsweise klar definiert sind (also die Dienste oder die einzelnen Ansätze), dass aber deren jeweilige Kategorien gegenüber einander nicht unbedingt trennscharf sind. Dies gilt für die verschiedenen Kommunikationsmodi (Stichwort: Konvergenz) genauso wie für die Beschreibungsdimensionen (etwa die Verknüpfung von Interaktivität und Individualität) oder für die behandelten theoretischen Ansätze (beispielsweise angesichts der Überschneidungen von Priming, Framing und Agenda-Setting Ansatz). Dennoch sollte die vorgestellte Systematik zumindest einen heuristischen Wert besitzen, um Forschungsarbeiten im Feld zu verorten.
Wie wurden die Wirkungen von Online-Kommunikation erforscht? Ein Überblick (2006) Zum Zeitpunkt der Veröffentlichung des hier nur in seinen Grundzügen vorgestellten Originalbeitrags lagen nur wenige an theoretischen Modellen orientierte, empirische Arbeiten zur Wirkung von Online-Kommunikation vor. Eine erste systematische Literaturübersicht wurde vier Jahre später publiziert und verarbeitete 561 Einträge in den Communication Abstracts, die bis 1999 erschienen waren (Kim/Weaver 2002). Die Verfasser gliederten ihre Beschreibung in vier nicht streng chronologisch aufeinander folgende Phasen, analog zu dem Modell von Wimmer und Dominick (2000: Ch. 18: 27). Ihren Analysen zufolge lag der Schwerpunkt der Forschung in diesem Zeitraum einerseits bei Studien zu Nutzung und Nutzern, also Fragen der Diffusion und Adaption der Technologie, Nutzungsmustern und auch den Wechselwirkungen mit der traditionellen Mediennutzung. Andererseits interessierten zunächst die deskriptiven Aspekte der Internet-Thematik, d.h. Technik und mögliche Anwendungen, Funktionen und Dienste; außerdem die Rahmenbedingungen in Wirtschaft, Politik und Recht sowie eher philosophische Auseinandersetzungen mit Chancen und Risiken der neuen, interaktiven Medienumgebung. Der an dieser Stelle relevante Aspekt, nämlich so genannte "Wirkungsfragen", machten seinerzeit lediglich zwölf Prozent der angetroffenen Artikel aus (vgl. Abb. 2). Gefasst waren hierunter aber nicht nur Studien, die auf theoretischen Modellen der Medienwirkungsforschung beruhen ("attitude and behavioral changes"), sondern alle Arbeiten, die Internet-Wirkungen im weiteren Sinne thematisieren – also auch generell die Einflüsse auf zwischenmenschliche Beziehungen, neue kulturelle und gemeinschaftliche Aktivitäten oder Auswirkungen auf Unternehmen, Organisationen und den Staat.
Wirkungsmodelle: die digitale Herausforderung revisited
95
Der vorliegende Beitrag schreibt diesen, vorerst letzten systematischen Überblick zur Online-Forschung fort, allerdings unter Berücksichtigung auch der deutschsprachigen Literatur zum Thema. Untersuchungsleitende Frage ist, ob sich die beschriebene Situation seit 1999, also etwa seit der Publikation der unter (1.) vorgestellten Systematik, substanziell geändert hat – und zwar insbesondere im Hinblick auf die klassischen Wirkungsansätze der Kommunikationswissenschaft. Hat die Medienwirkungsforschung, wie sie seit 1999 in nationalen und internationalen Publikationen dokumentiert ist, die Herausforderungen der neuen, netzbasierten Kommunikationstechnologien auch dahingehend aufgenommen, dass ihr klassischer Bestand an theoretischen Ansätzen und Modellen überprüft, adaptiert und zur Erklärung von Effekten der Online-Kommunikation herangezogen wurde? Abb. 2:
Kommunikationswissenschaftliche Publikationen zum Internet, Stand 1999 (Kim/Weaver 2002: 528)
Methodik der Vorgehensweise Die vorliegende Literaturdurchsicht schließt damit an den Beitrag von Kim und Weaver (2002) an und beruht ebenso auf einer systematischen Recherche einschlägiger Forschungsbeiträge seit Erscheinen der damaligen Publikationen. Analog kann ebenfalls nicht von einer Meta-Analyse im strengen Sinne gespro-
96
Patrick Rössler
chen werden (vgl. jüngst Preiss et al. 2007), sondern eher von einer inhaltsanalytischen Klassifikation von Forschungsbeiträgen. Als Kategorien für diese Zuordnung wurden u.a. die in dem Beitrag von 1998 genannten Dimensionen verwendet. Als Auswahleinheiten wurden für die englischsprachige Forschung, analog zu Kim und Weaver (2002), die Einträge in den Communication Abstracts zugrunde gelegt, die vergleichsweise lückenlos alle Beiträge in englischsprachigen Fachzeitschriften, aber auch in relevanten Sammelbänden vorstellen. Erfasst wurden in den Jahrgängen 1999 bis 2005 alle Einträge, die unter den Stichworten "Internet", "Online-Kommunikation" oder einem der Kommunikationsmodi von oben rubriziert waren.1 Außerdem wurden alle Ausgaben der Zeitschrift New Media & Society berücksichtigt, die sich, erst 1998 gegründet, zu einem wesentlichen englischsprachigen Publikationsorgan für Online-Forschung entwickelt hat. Für die deutschsprachige Forschung wurden im selben Zeitraum und mit denselben Aufgreifkriterien beide allgemein ausgerichteten Fachzeitschriften, Publizistik sowie Medien- und Kommunikationswissenschaft2 gesichtet, und darüber hinaus alle Sammelbände, die zu den Tagungen der DGPuK-Fachgruppe "Computervermittelte Kommunikation" erschienen sind (Beck et al. 2004; Beck/Schweiger 2001; Rössler/Wirth 1999). Wie über jede Auswahl lässt auch über diese im Einzelfall streiten, denn selbstverständlich ist Forschung zur Online-Kommunikation auch in anderen Foren anzutreffen; genannt seien etwa Zeitschriften wie Internet Research (eher marktorientiert), Convergence (eher technisch orientiert) oder die Vielzahl juristischer Veröffentlichungen, in denen Fragen des Internet-Rechts verhandelt werden (z.B. Multimedia und Recht). Allerdings geht es in dieser Studie ja primär um die kommunikationswissenschaftliche Wirkungsforschung zur Online-Kommunikation im engeren Sinne, wofür die dargestellte Auswahl durchaus geeignet erscheint. Festzuhalten bleibt, dass aufgrund dessen der Anteil der wirkungsbezogenen Studien eher über- als unterschätzt werden sollte. Diesen Kriterien folgend ergab sich eine Stichprobe von n=283 Artikeln, die sich im definierten Sinn als Beiträge zur kommunikationswissenschaftlichen Online-Forschung klassifizieren lassen. Dabei lag die Anzahl angetroffenen Artikel von 1998 bis 2001 konstant zwischen 30 und 40 pro Jahr, sank für 2002
1 2
Für eine Kontrollauswertung (s.u.) wurden exemplarisch für die Jahre 2004 und 2005 zusätzlich alle Einträge zu den oben genannten Wirkungsansätzen gesichtet. Titel zu Beginn des Untersuchungszeitraums: Rundfunk und Fernsehen.
Wirkungsmodelle: die digitale Herausforderung revisited
97
und 2003 (wohl aus methodischen Gründen3) auf unter 30, um dann in 2004 einen Höhepunkt mit deutlich über 50 Beiträgen zu erreichen.4 Knapp über die Hälfte dieser Artikel (148) stammte aus den Communication Abstracts und weitere 59 aus New Media & Society, so dass die englischsprachigen Publikationen mehr als zwei Drittel der vorliegenden Stichprobe ausmachen. Aus deutschen Quellen konnten 28 (Fachzeitschriften) bzw. 48 (Sammelbände) Beiträge mit Online-Bezug ermittelt werden. Für die weiteren Untersuchungen ergab die Unterscheidung zwischen deutsch- und englischsprachigen Beiträgen – wohl auch wegen der zumeist geringen Fallzahlen – keine signifikanten Unterschiede, weshalb in den Auswertungen diesbezüglich keine Aufgliederung mehr vorgenommen wird.
Ergebnisse der systematischen Recherche Ein erstes Augenmerk der Untersuchung galt den in den Artikeln berücksichtigten Kommunikationsmodi. In fast der Hälfte aller Beiträge (129) erfolgte hier keine Differenzierung, sondern es war pauschal von "dem Internet" oder philosophischen Allegorien wie "dem Cyberspace" die Rede. Zwar kann diese Verallgemeinerung im Einzelfall durchaus sinnvoll sein, etwa wenn ein Beitrag eher grundsätzlich auf die Chancen und Risiken der neuen Kommunikationstechnologie eingeht und "das Internet" tatsächlich als Chiffre für die Netzkommunikation im Allgemeinen verwendet. In der Mehrzahl der Fälle handelte es sich jedoch schlicht um eine unspezifische Vermischung von Kommunikationsmodi, die dann empirisch auch so abgefragt wurde. In einigen Fällen wurde "das Internet" synonym für das World Wide Web gebraucht, das als Kommunikationsmodus ebenfalls häufig im Mittelpunkt der Studien stand (101 Beiträge). Gemeinsam mit jenen 28 Artikeln, die mehrere Modi (darunter meistens auch das WWW) thematisierten, ergibt sich als ein klar WWW-lastiges Bild der kommunikationswissenschaftlichen Online-Forschung, was leicht aus den Wurzeln des Fachs in der Publizistik und Massenkommunikation zu erklären ist. Andere Modi wie Gesprächsforen und das Usenet (7), E-Mail (4), Chats (4) und Blogs (3) liegen seltener im Erkenntnisinteresse der Forscher. Zentrale Fragestellung dieser Erhebung war die nach dem Anteil wirkungsbezogener Beiträge. Betrachtet man alle 283 Analyseeinheiten der Stichprobe, 3 4
In diesen Jahren wurde kein Tagungsband der Fachgruppe veröffentlicht. Der Wert für 2005 ist geringer, da die Einträge in den Communication Abstracts immer mit Verzug erfolgen, so dass der Jahrgang 2005 nicht alle in 2005 erschienenen Beiträge enthält.
98
Patrick Rössler
so ist für 31% ein Wirkungsaspekt zentral – davon 11 % mit unmittelbarem Bezug zu kommunikationswissenschaftlichen Ansätzen und Modellen, und weitere 20 % mit einem weiter gefassten Verständnis von Wirkung. Fast ein Drittel der Beiträge wendet sich also Effekten der Online-Kommunikation zu, was eine deutliche Steigerung im Vergleich zu den Werten bis 1999 bedeutet (vgl. Kim/Weaver 2002). Betrachtet man allerdings genauer, welche theoretischen Ansätze es sind, die hier aufgegriffen werden, so ergibt sich eine deutliche Präferenz für die Wissenskluft-Hypothese in ihrer aktualisierten Variante "Digital Divide" (18). Diese Perspektive wird häufiger eingenommen als alle anderen Theorien zusammen – mit weitem Abstand folgen erst Uses & Gratifications (5) und Agenda-Setting (4). Nur vereinzelt ist vom Elaboration-Likelihood-Modell, Framing (je 2) sowie dem Third-Person Effect und der Theory of Reasonned Behaviour (1) die Rede. Damit lässt sich festhalten, dass klassische Medienwirkungstheorien (mit Ausnahme der modifizierten Wissenskluft-Hypothese) in der Online-Forschung seit 1998 nur eine marginale Rolle besitzen. Zwei Beispiele sollen exemplarisch verdeutlichen, wie in diesen Fällen vorgegangen wurde: • In einer Agenda-Setting-Studie (vgl. Marr 2002) wurden die "Folgen der Internet-Nutzung für den medialen Thematisierungsprozess" untersucht. Bezeichnenderweise wurden in der Medienanalyse Tageszeitungen, Wochenzeitungen, Zeitschriften, Radio und Fernsehen berücksichtigt, nicht aber Online-Medien. Anschließend wurden die Themenpräferenzen in der Gruppe der Internet-Nutzer mit denen der Nicht-Nutzer verglichen. • Obwohl es sich im strengen Wortsinne nicht um einen Wirkungsansatz handelt, wurden auch Uses-and Gratifications-Studien erhoben, weil sie in der Online-Forschung zumindest eine gewisse Beliebtheit erlangt haben. Typisch wäre eine Studie von Scherer und Schlütz (2004) zum Thema "Fernsehen und WWW als funktionale Alternativen?" zu nennen, in der Gratifikationserwartungen, situativ gesuchte und situativ erhaltene Gratifikationen von Fernsehen und World Wide Web gegenübergestellt werden. Angesichts des geringen Stellenwerts, den klassische Wirkungsmodelle in der Online-Forschung offensichtlich besitzen, ist zu bedenken, ob nicht vielleicht die Ausgangsfrage falsch gestellt ist: Könnte es nicht sein, dass Online-Medien inzwischen schon so selbstverständlich sind, dass sie längst Teil der 'normalen' Medienwirkungsforschung sind – also entsprechende Studien gar nicht mehr speziell unter dem Aspekt 'Online' verbucht werden, sondern allgemeiner unter den entsprechenden Wirkungsansätzen? Für diese Gegenprobe wurden ergänzend alle Einträge der Communication Abstracts aus den Jahren 2004 und 2005 codiert, für die nicht 'Internet' usw. als Stichworte angegeben waren, sondern
99
Wirkungsmodelle: die digitale Herausforderung revisited
einer der Wirkungsansätze. Die Analyse ist allerdings ernüchternd: Von 52 angetroffenen Studien bezogen sich 32 auf Agenda-Setting (18), Kultivierung (5), Framing (4), Priming (3) oder die Schweigespirale (2), und in keiner einzigen dieser Studien wurde auf Online-Medien eingegangen. Ausnahme ist erneut die Wissenskluft-Hypothese, der sich 20 Beiträge widmeten, davon zwei der klassischen Variante und 18 dem "Digital Divide"-Konzept, das dem Internet selbstverständlich eine essentielle Rolle zuschreibt. Beiträge wenden sich hier sowohl Nutzungs- als auch Wirkungsfragen zu ('access gap' vs. 'usage gap'). Abb. 3:
Thematische Bezüge von online-bezogenen Beiträgen (1999-2005, n=283, Mehrfachcodierungen möglich)
allg. E ntw icklung G lobalisierung Regulierung polit. K ommunikation Ö ffentlichkeit elektron. D emokratie N utzung allgemein N utzung spezifisch Rezeption/S elektion B eziehungen / ipK C ommunities Journalismus K ontrast klass. M edien Ö konomie / S hopping Werbung PR Jugend / S ex E -Learning H ealth S onstige Wirkungsansätze
0
10
20
30
40
50
60
Abschließend stellt sich in Anlehnung an Kim und Weaver (2002) die Frage, welche thematischen Bezüge die Beiträge aufweisen, wenn sie sich denn nur zu einem geringen Teil mit klassischen Wirkungsmodellen befassen. Abb. 3 verdeutlicht diese Themen, beruhend auf einer Mehrfachcodierung aller angetroffenen Beiträge. Neben den 33 Fällen, die Wirkungsansätze zugrunde legen, dominieren auch in der vorliegenden Studie die Nutzungsaspekte in verschiedenen Ausrichtungen. Konjunktur hatten auch Studien zur Verortung von OnlineNutzung in Relation zu anderen Medien, Untersuchungen zur Zukunft des Journalismus und unterschiedliche Facetten der politischen Kommunikation im Internet-Zeitalter (wie etwa das Schlagwort 'elektronische Demokratie'). Nach wie vor beliebt sind allgemeine Erörterungen über die "Zukunft des Internet" und seine Funktion in Globalisierungsprozessen, sowie der gesamte Themen-
100
Patrick Rössler
komplex zum Wandel interpersonaler Kommunikationsmuster, zu zwischenmenschlichen Beziehungen oder zum Aufbau von Nutzergemeinschaften und Netz-Communities.
'Revisited' oder 'revised'? Ein Fazit (und keine weitere Prognose) Der vorliegende Essay, empirisch gestützt auf eine systematische Recherche zur Online-Forschung seit 1999, hatte sich zum Ziel gesetzt, durchaus selbstkritisch die eigenen Prognosen aus dem Jahr 1998 zu reflektieren. Die Bilanz fällt allerdings so ernüchternd aus, dass als Titel vielleicht der Begriff "revised" angemessener wäre als "revisited". Am tragfähigsten erweist sich in der Rückschau wohl die Auswahl der drei Aspekte Individualität, Interaktivität und Medialität als zentrale Beschreibungsdimensionen von Online-Angeboten. Jenseits der oben vorgestellten Daten erschließt sich dies leicht aus der Betrachtung der aktuellen Trends in der Kommunikationsbranche, vom Web 2.0 mit seinen Video- und Audioblogs bis hin zur Mobilkommunikation dem mobilen Internet und den viel beschworenen Konvergenzprozessen dieser Technologien. Vor diesem Hintergrund könnte sich vielleicht auch die angetroffene, oft undifferenzierte Verwendung der Kommunikationsmodi – ursprünglich als mangelnde Präzision beklagt – in Zeiten zunehmender Konvergenz sogar als sinnvoll erweisen. Wellman (2004) identifizierte drei "Zeitalter" von Internet-Studien: nach dem Staunen über das "technische Wunder" und der "systematischen Dokumentation von Nutzern und Nutzung" sollte nun eine analytische Phase einsetzen. Zumindest hinsichtlich der Wirkungsfrage scheint die Literaturdurchsicht bislang eher enttäuschend, denn es wurden nur vereinzelt explizite Bezüge zu bestehenden theoretischen Modellen hergestellt. Statt dessen waren viele Beiträge immer noch phänomen-orientiert am Internet und seinen Funktionalitäten ausgerichtet. Doch wenn es hinsichtlich der dritten Phase heißt: "From documentation to analysis" (Wellman 2004: 127), dann lässt sich dieser Prozess durch eine Betrachtung im Zeitverlauf erhellen. Diese verdeutlicht, dass Wirkungsaspekte zu Beginn des Untersuchungszeitraums wenig präsent waren,5 aber dies veränderte sich im Jahr 2002 erheblich, und seither diskutieren regelmäßig fast die Hälfte aller Forschungsbeiträge irgendeine Wirkungsfrage im weiteren Sinn.6
5 6
1999: 14 % der Artikel; 2000: 17 %; 2001: 7 %. 2002: 36 % der Artikel; 2003: 43 %; 2004: 42 %.
Wirkungsmodelle: die digitale Herausforderung revisited
101
Dass dabei die klassischen Wirkungsansätze – mit Ausnahme der Wissenskluft in ihrer zeitgemäßen Variante des Digital Divide – mangels Passgenauigkeit ihrer Konzepte kaum auftauchen (und deswegen das Analyseraster kaum sinnvoll eingesetzt werden konnte), mag aus Sicht der klassischen Medienwirkungsforscher enttäuschen. Umgekehrt gilt dies aber auch, wie die Tatsache belegt, dass "das Internet" von dieser klassischen Forschung genauso wenig beachtet wird. Und schließlich bedeutet dieser Befund keineswegs, dass man der Internet-Wirkungsforschung pauschal eine mangelnde theoretische Fundierung zuschreiben kann. Denn zum einen trägt die Forschung zum Thema Werbewirkungen substanziell zu dem erhöhten Anteil der vergangenen Jahre bei;7 zum anderen scheint bemerkenswert, dass in Studien oft die Erklärung der Nutzung im Vordergrund steht, d.h. die Nutzung des Internet und einzelner Dienste bereits als Wirkung verstanden wird. Die Analysemodelle begreifen also die Online-Nutzung, in klassischen Ansätzen meist eine unabhängige Variable zur Erklärung weitergehender Effekte, eben als eine abhängige Variable. Die Nutzung des Internet (im Gegensatz zu der der klassischen Medien) wird dann bereits als eine wesentliche Wirkung aufgefasst. Verallgemeinernd ließe sich hieraus möglicherweise folgern, die klassischen Ansätze der Medienwirkungsforschung seien in der neuen Kommunikationsumgebung nicht mehr so bedeutend, weil sich die von ihnen modellierten Prozesse inzwischen neu konfiguriert haben. Zwei Indizien zum Thema Realitätskonstruktion, in der Kommunikationswissenschaft klassisch mit Ansätzen wie beispielsweise der Kultivierungsthese untersucht, mögen dies belegen – beide zitiert nach Beiträgen in einer deutschen Sonntagszeitung aus dem Oktober 2006: Zunächst wird über so genannte "Goldfarmen" berichtet, in denen chinesische Jugendliche ihren Lebensunterhalt damit verdienen, "World of Warcraft" zu spielen, um dann die von ihm eingesammelten Trophäen gegen echtes Geld an westliche Spieler zu verkaufen. Recherchen weisen alleine auf rd. 2.000 organisierte Goldfarmen mit 200.000 Mitarbeitern hin, die unter frühkapitalistischen Bedingungen virtuellen Mehrwert schaffen. "Die unwirkliche Welt geht über in etwas Wirkliches, mit dem man sein Leben verdienen kann: ein Leben, das seinerseits nur aus Computerspielen besteht und insofern ganz schön unwirklich ist." (Frankfurter Allgemeine Sonntagszeitung, Nr. 42, 20.10.2006: 29). Ein zweiter Artikel vermeldet, die Nachrichtenagentur Reuters habe jüngst einen Korrespondenten in ein neues Büro geschickt – und das steht in der virtuel7
Hier ist zu beachten, dass es sich bei dem vorgestellten Trend teilweise auch um einen methodischen Artefakt handeln könnte, da die Communication Abstracts seit 2003 u.a. auch das Journal of Advertising Research und das Journal of Current Issues and Research in Advertising erfassen, die beide dem Online-Bereich große Bedeutung zumessen.
102
Patrick Rössler
len Welt des internet-basierten Multi-User-Spiels 'Second Life'. Er berichtet Neuigkeiten aus dieser virtuellen Welt, und zwar für den klassischen Dienst und für einen eigenen Dienst im 'Real Life' (S. 33). Nicht zuletzt solche Herausforderungen verlangen nach neuen Konzepten und Modellen (ganz zu schweigen von zahlreichen ungelösten methodischen Problemen), und es ist keineswegs damit getan, "das Internet" schlicht als weiteres Medienangebot in Medienwirkungsstudien nach dem klassischen Muster aufzunehmen. Es sind tatsächlich, entgegen meiner früheren Annahme, inzwischen neue Hypothesen über Medienwirkungen erforderlich, die die netzbasierte Kommunikation und ihre Spezifika angemessen berücksichtigen und in der Folge vielleicht ein neues Verständnis des Begriffspaars 'Nutzung' und 'Wirkung' erforderlich machen.
Literatur Beck, Klaus/Schweiger, Wolfgang (Hrsg.) (2001): Attention please! Online-Kommunikation und Aufmerksamkeit. Beck, Klaus/Schweiger, Wolfgang/Wirth, Werner (Hrsg.) (2004): Gute Seiten - schlechte Seiten. Qualität in der computervermittelten Kommunikation. Kim, Sung T./Weaver, David (2002): Communication research about the internet: a thematic metaanalysis. In: New Media & Society 4.4. 518-538. Krotz, Friedrich (2001): Die Mediatisierung kommunikativen Handelns. Der Wandel von Alltag und sozialen Beziehungen, Kultur und Gesellschaft durch die Medien. Wiesbaden: Westdeutscher Verlag. Marr, Mirko (2002): Das Ende der Gemeinsamkeiten? Folgen der Internetnutzung für den medialen Thematisierungsprozess. In: Medien & Kommunikationswissenschaft 50.4. 510-532. Preiss, Raymond W./Gayle, Barbara M./Burrell, Nancy/Allen, Mike/Bryant, Jennings (Hrsg.) (2007): Mass Media Effects Research. Advances Through Meta-Analysis. Rössler, Patrick (Hrsg.) (1998a): Online-Kommunikation. Beiträge zu Nutzung und Wirkung. Rössler, Patrick (1998b): Wirkungsmodelle: die digitale Herausforderung. Überlegungen zu einer Inventur bestehender Erklärungsansätze der Medienwirkungsforschung. In: Rössler (Hrsg.) (1998a): 113-139. Rössler, Patrick/Wirth, Werner (Hrsg.) (1999): Glaubwürdigkeit im Internet: Fragestellungen, Modelle, empirische Befunde. Schenk, Michael (2002): Medienwirkungsforschung. 2. vollständig überarbeitete Auflage. Tübingen: Mohr Siebeck. Scherer, Helmut/Schlütz, Daniela (2004): Das neue Medien-Menü: Fernsehen und WWW als funktionale Alternativen? In: Publizistik 49.1. 6-24. Schorr, Angela (Hrsg.) (2000): Publikums- und Wirkungsforschung. Ein Reader.
Wirkungsmodelle: die digitale Herausforderung revisited
103
Schulz, Winfried (Hrsg.) (1992): Medienwirkungen. Einflüsse von Presse, Radio und Fernsehen auf Individuum und Gesellschaft. Weinheim: VCH. Wellman, Barry (2004): The three ages of internet studies: ten, five and zero years ago. In: New Media & Society 6.1. 123-129. Wimmer, Roger D./Dominick, Joseph R. (2000): Mass Media Research: An Introduction. 8. Aufl. Belmont CA: Thomson Wadsworth.
Markt- und Akzeptanzstudien
Mit gebremster Kraft voraus? Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer Oliver Quiring
Einleitung und Problemstellung Interaktives Fernsehen hat in Deutschland einen schweren Stand. Obwohl bereits in den 1960er Jahren Versuche einer aktiven Einbeziehung der Zuschauer unternommen wurden (für eine historische Übersicht, vgl. Woldt 2004), zeugen eine Reihe von fehlgeschlagenen Pilotprojekten (vgl. z.B. Beckert 2004; Kubicek et al. 1998; Ruhrmann/Nieland 1997) von den Schwierigkeiten, potenziellen Nutzern interaktive Fernsehdienste nahe zu bringen. Schon in den 1990er Jahren wurde deshalb vermutet, dass im Kontext des Fernsehens Interaktivität eher nicht erwünscht sei (Brosius 1997; Schönbach 1997). Zwar konnte die kommunikationswissenschaftliche Forschung in Deutschland bisher zeigen, dass neue interaktive Angebote nicht dazu führen, dass die traditionell passive Fernsehnutzung abnimmt (Schönbach 2005). Nach direkten Nachweisen für die Nicht-Nutzung interaktiver Fernsehangebote sucht man jedoch vergeblich. Aus einer Reihe von Akzeptanzstudien (Schenk et al. 2001; Schenk et al. 2002) ergeben sich zwar Hinweise auf eine reservierte Haltung der Nutzer. Bisher liegen jedoch keine repräsentativen Bevölkerungsstudien zu iTV in Deutschland vor. Die meisten Argumente, die gegen eine schnelle Verbreitung interaktiver Elemente auf dem Fernsehsektor vorgebracht werden, sind auf der Angebotsseite zu verorten. Trotz bekannter Hindernisse bauen aber die Anbieter interaktiver Fernsehanwendungen ihr Angebot weiter aus. So erweiterte z.B. die ARD sukzessive ihr Angebot an Diensten auf MHP-Basis1 (vgl. www.ard-digital.de). Der folgende Beitrag nimmt sich dieser Forschungslücke aus Nutzerperspektive an. Auf Basis einer regionalen CATI-Befragung wird ein Überblick über die Bekanntheit ausgewählter interaktiver Anwendungen, die Einstellungen zu
1
MHP bedeutet "Multimedia Home Platform” und ist ein technischer Standard, der Feedback zum Sender ermöglicht, sofern die entsprechenden Endgeräte mit dem Internet verbunden werden (für eine genaue technische Beschreibung vgl. Schäfer 2004).
108
Oliver Quiring
diesen Anwendungen sowie ihre Nutzung, potenzielle Nutzung und Gründe für die Nicht-Nutzung gegeben. Als Untersuchungsgebiet wurde der Raum München (Vorwahlbezirk 089) ausgewählt, weil hier die Umstellung von analogterrestrischem auf digital-terrestrisches Fernsehen bereits im Zeitraum von 31.05.2005 bis 31.08.2005 vollzogen wurde und sich somit für die Befragten prinzipiell die gleichen Zugangsvoraussetzungen ergeben.
Interaktives Fernsehen – drei Arten von Diensten Zwar liegen eine Reihe von Beiträgen zum Konzept der Interaktivität vor (für Überblicke vgl. Kiousis 2002; McMillan 2002; Quiring/Schweiger 2006). Allerdings ist bis heute fraglich, ob der Begriff im Kontext des Fernsehens sinnvoll Anwendung finden kann (vgl. z.B. Beckert 2002; Garling 1997; Jensen 1998; Schrape 1995; Stark 2006). Sieht man von hochgesteckten Ansprüchen, wie denen nach einem "echten" Rückkanal (Kleinsteuber 1994; 1995) aber ab, so lassen sich verschiedene Arten von Diensten identifizieren, die aktuell auf dem deutschen Fernsehmarkt angeboten werden und den Nutzern zumindest einen gewissen Grad an Eigeninitiative ermöglichen. In der gebotenen Kürze ist es unmöglich, einen umfassenden Überblick über alle aktuellen Dienste zu geben, zumal entsprechende Übersichten zum Zeitpunkt der Publikation nicht selten schon veraltet sind (vgl. z.B. Beckert 2004; Hachmeister/Zabel 2004). Deshalb wurden für die Untersuchung Dienste ausgewählt, die verschiedene Entwicklungsstufen interaktiven Fernsehens widerspiegeln. Dienste, wie z.B. das Anrufen in einer Sendung, Mails und SMS an eine Sendung können als Vorstufen interaktiven Fernsehens begriffen werden, da zwar verschiedene Endgeräte (Fernseher, Internet, Telefon, Mobiltelefon) zum Einsatz kommen, aber zumindest Interaktionen im soziologischen Sinne (d.h. wechselseitige Bezugnahme der Interaktionspartner, vgl. Jäckel 1995) möglich sind. Hingegen können Dienste wie Electronic Program Guides, Multiperspektivprogramme (die den Wechsel von Kameraperspektiven anbieten) sowie Personal Video Rekorder (die das Sehen von Sendungen bereits während der Aufnahme ermöglichen) als Weiterentwicklung angesehen werden, weil sie zwar Zusatzgeräte erfordern, aber am Fernsehbildschirm bedient werden können. Sie eröffnen für die Zuschauer zusätzliche Selektionsmöglichkeiten und erfüllen damit zumindest ein Kriterium des Interaktivitätskonzeptes (zum Kriterium der Selektionsoptionen vgl. Goertz 1995). Als weitere Entwicklungsstufe können MHP-basierte Dienste angesehen werden, die per Fernbedienung auf dem Bildschirm zugänglich sind und neben Selektionsoptionen auch (minimale) Modifi-
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
109
kationsoptionen eröffnen (zum Kriterium der Modifikationsoptionen vgl. Goertz 1995). So werden z.B. Mitratenden bei "Das Quiz mit Jörg Pilawa" individuelle Punktestände auf den Bildschirm zurückgespielt und bei MHP-Votings im Presseclub der ARD werden die Abstimmungsergebnisse am Ende der Sendung bekannt gegeben. Insgesamt bietet Fernsehen im Vergleich zu anderen medialen Plattformen − wie z.B. dem Internet − aber nur ein sehr geringes Interaktivitätspotenzial.
Forschungsstand Die meisten gegen eine rasche Verbreitung interaktiver Fernsehangebote vorgebrachten Argumente beziehen sich auf die Angebotsseite. Demnach erschweren technische Probleme, wie z.B. die unterschiedliche Digitalisierbarkeit der verschiedenen Übertragungswege (terrestrisch, Satellit, Kabel2) und fehlende technische Standards3 eine schnelle Verbreitung interaktiven Fernsehens. Nach Angaben des aktuellen Digitalisierungsberichtes konnten Mitte 2005 nur 25,7% der deutschen Haushalte digitales Fernsehen empfangen, wobei durch die sukzessive Umstellung der terrestrischen Übertragung auf DVB-T (Digital Video Broadcasting) in den nächsten Jahren eine Besserung zu erwarten ist (vgl. z.B. Hans-Bredow-Institut 2006). Über die Verbreitung MHP-fähiger Endgeräte liegen keinerlei Daten vor. Aktuelle Schätzungen gehen davon aus, dass nur jeder tausendste verkaufte Digitalreceiver MHP-fähig sei (Digitalfernsehen 2006). Ferner sprechen auch ökonomische Gründe dafür, interaktives Fernsehen nur mit gebremster Kraft auszubauen. So lange nicht klar ist, ob sich neue Dienste rechnen, wird von den Anbietern nur zögerlich investiert (Beckert 2004). Dies gilt umso mehr, als bereits etablierte Transaktionsdienste (wie z.B. Homeshopping) und Anrufdienste (wie z.B. bei NeunLive) gute Umsätze erwirtschaften (vgl. Goldhammer/Wiegand 2004; Hachmeister/Zabel 2004). Schließlich lassen sich auch angebotsstrukturelle Diffusionshindernisse finden. Viele Dienste sind an den Besitz teuerer Set-Top-Boxen (Clement et al. 2005) bzw. Abonnements gebunden, deren Anschaffung nur wenig lohnenswert er2
Wobei speziell die Digitalisierung des Kabelnetzes Probleme aufwirft, da hier die Interessen der verschiedenen Betreiber der vier verschiedenen Kabelnetzebenen auf einen Nenner gebracht werden müssen (Clement et al. 2005)
3
So konnte sich MHP trotz der "Mainzer Erklärung" aus dem Jahr 2001, in der sich die öffentlich-rechtlichen und privaten Sender sowie die Landesmedienanstalten auf diesen Standard festlegten, noch immer nicht komplett bei den Anbietern durchsetzen (Thaenert/Hege 2006: 27).
110
Oliver Quiring
scheint, da in Deutschland vergleichsweise viele Programme frei erhältlich sind (Beckert 2004). Forschung aus der Nutzerperspektive fand bisher vorrangig unter dem Aspekt der Akzeptanz bzw. Diffusion neuer Dienste statt. Dabei wurden Akzeptanzfaktoren wie z.B. das Wissen um interaktives Fernsehen (Berghaus 1995; Schenk et al. 2002), Primärerfahrungen, die Zufriedenheit mit bestehenden Alternativen, die Einstellung zu interaktivem Fernsehen, das Zeitbudget (Dahm et al. 1998), das Preis-/Leistungsverhältnis (Schenk et al. 2001) und die Nutzungsdauer (Schenk et al. 2002) als entscheidende Determinanten ermittelt. Allerdings umfassten alle genannten Studien nur enge Personenkreise und orientierten sich vorrangig (mit Ausnahme von Berghaus 1995) an digitalem Fernsehen, wobei interaktive Elemente eine untergeordnete Rolle spielen. Dabei wurden entweder relativ kleine Samples qualitativ (Berghaus 1995) oder tatsächliche Nutzer digitalen Fernsehens (Stark 2006), an digitalem Fernsehen Interessierte (Dahm et al. 1998) oder nach dem Screening-Verfahren ermittelte Samples aus Nutzern, Interessierten und Nicht-Nutzern (Schenk et al. 2001; Schenk et al. 2002) standardisiert befragt. Über die tatsächliche Nutzung interaktiver Fernsehdienste in der Bevölkerung lassen sich aufgrund der Untersuchungsdesigns nur recht eingeschränkte Erkenntnisse gewinnen.
Forschungsfragen und Hintergrund Die folgende Studie kann diese Forschungslücke nur teilweise schließen. Da der digitale Switch-over von analog-terrestrischem auf digital-terrestrisches Fernsehen aktuell im Gange ist, bieten nicht alle Regionen in Deutschland die gleichen Zugangsvoraussetzungen zu digitalem Fernsehen, das eine wesentliche Voraussetzung für die Nutzung vieler interaktiver Fernsehdienste darstellt. Erstens sind einige Sender, die dem Zuschauer ein Angebot zur Interaktion machen (z.B. NeunLive, HSE und QVC) analog-terrestrisch nicht zu empfangen. Zweitens setzen auch Electronic Program Guides, Multiperspektivprogramme und MHPDienste digitales Fernsehen voraus. Um die Zugangsvoraussetzungen bei den Befragten möglichst gleich zu halten, wurde deshalb die Region München ausgewählt, in der der digitale Switch-over bereits von 31.05.2005 bis 31.08.2005 stattgefunden hat. Die Ergebnisse haben somit nur eine regional begrenzte, zeitlich gebundene Gültigkeit und können nur grobe Anhaltspunkte dafür liefern, wie sich interaktives Fernsehen in Deutschland entwickelt, da sich trefflich darüber streiten ließe, ob der Ballungsraum München als typisches Beispiel für andere Regionen dienen kann.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
111
Trotz der regionalen und zeitlichen Beschränkung lassen sich aber erste Erkenntnisse über die Annahme interaktiver Dienste und mögliche Annahmeverweigerungsgründe gewinnen. Die einzelnen Dienste können dabei jeweils als technische Innovation betrachtet werden. Da es sich um eine Querschnittstudie handelt, können keine stichhaltigen Aussagen zur Diffusion (d.h. zur zeitlichen Entwicklung der Verbreitung) einzelner Dienste, sondern nur zum Stand der Adoption (Rogers 2003: 168ff.) im Untersuchungsgebiet getroffen werden. Der individuelle Adoptionsprozess vollzieht sich nach der Diffusionstheorie idealtypisch über die fünf Stufen "knowledge", "persuasion", "decision", "implementation" und "confirmation (Rogers 2003: 170). In der knowledge-Phase erfahren die potenziellen Nutzer von der Innovation und erwerben Wissen, in der persuasions-Phase findet die Einstellungsbildung statt. Schließlich arbeitet das Individuum aktiv auf eine Entscheidung (decision) hin, beginnt die Innovation zu nutzen (implementation) und sucht schließlich nach Informationen, die die Entscheidung bestätigen oder zu einer Zurückweisung führen (confirmation). Da mithilfe von Querschnittdesigns dieser Prozess nicht abgebildet werden kann, wird teilweise auf eine verkürzte Operationalisierung zurückgegriffen und nur zu einem Zeitpunkt nach Bekanntheit (knowledge), Einstellung (attitude) und Nutzung (practice) gefragt (Rogers 2003: 68). Die folgende Ergebnisdarstellung orientiert sich an dieser relativ simplen Vorgehensweise. Da bisher nur wenig Datenmaterial zur Adoption von interaktiven Fernsehdiensten vorliegt, erscheint aber auch schon ein kurzer Überblick gewinnbringend. Die entsprechenden Forschungsfragen lauten: Wie bekannt sind verschiedene interaktive Fernsehdienste, welche Einstellungen zu diesen Diensten herrschen vor und wie häufig werden sie genutzt? Da nach aktuellem Erkenntnisstand mit einer recht eingeschränkten Nutzung zu rechnen ist, wurde a) zusätzlich danach gefragt, wie häufig Personen, die die jeweiligen Dienste nicht kennen (aber in der Befragung kurz beschrieben bekamen; für den Wortlaut der Fragen vgl. die Legende von Tab. 1), diese nutzen würden und b) welche Gründe für die Nicht-Nutzung bei Personen vorliegen, die angeben, die jeweiligen Dienste zu kennen, aber nicht zu nutzen. Als Untersuchungsgegenstände wurden die bereits unter Abschnitt 2 beschriebenen Dienste ausgewählt und um einen Dienst ergänzt, der aktuell in Deutschland nicht angeboten wird: Shopping per Fernbedienung. Dieser Dienst wurde bewusst in die Untersuchung aufgenommen, um einen Indikator für die Validität der Ergebnisse zu schaffen.
112
Oliver Quiring
Untersuchungsanlage Zur Beantwortung der genannten Fragen wurde im Zeitraum von 28.06.2006 bis 28.07.2006 im Vorwahlbezirk 089 (Gebiet München) eine CATI-Befragung mit Personen zwischen 14 und 65 Jahren durchgeführt. Dafür kamen 5.250 Ausgangs-Telefonnummern zum Einsatz, die von ZUMA (Zentrum für Umfragen, Methoden und Analysen) bereitgestellt wurden4. Die Auswahl der Zielpersonen in den jeweiligen Haushalten wurde per Last-Birthday-Methode (vgl. Brosius/Koschel 2005: 120) vorgenommen. 3.166 Nummern waren nicht freigeschaltet, Faxnummern oder Geschäftsanschlüsse. Bei 246 Anschlüssen passte keine der im Haushalt lebenden Personen in die Zielpopulation. Die Nettostichprobe umfasst folglich 1.838 Nummern. Von diesen Nummern konnten trotz 20 Anwählversuchen 379 nicht erreicht werden (209: dauerhaft Freizeichen; 16: dauerhaft besetzt; 154: dauerhaft Anrufbeantworter). 1.056 Personen verweigerten und 403 Befragte beantworteten alle Fragen vollständig. Ein Befragter wurde aus dem Datensatz entfernt, da Konsistenzprüfungen ergaben, dass offensichtlich falsche Angaben gemacht wurden. Damit ergibt sich ein Nettosample von 402 Befragten und eine sehr konservativ geschätzte Ausschöpfungsquote der Nettostichprobe von 22 Prozent5. Diese Quote kann nun keineswegs als befriedigend angesehen werden. Es ist davon auszugehen, dass sie unter anderem auf die relativ hohe Befragungsfrequenz innerhalb Münchens zurückzuführen ist. Ein Vergleich zwischen den Soziodemographika der Stichprobe und statistischen Daten der Stadt München bzw. Mikrozensusdaten zeigt ferner, dass sowohl Frauen als auch kleinere Haushalte, Befragte mittleren Alters und höher Gebildete überrepräsentiert sind. Alle im Ergebnisteil präsentierten Daten sind nach Alter, Geschlecht, Haushaltsgröße (Bevölkerungsstatistik München; Stand 31.12.2005) und Bildung (Mikrozensus; Stand 31.12.2005) gewichtet. Aufgrund der genannten Probleme sind die Ergebnisse vorsichtig zu interpretieren und können lediglich eine grobe Richtung vorgeben.
4
ZUMA trägt keinerlei Verantwortung für die Erhebung, Analyse oder Interpretation der Daten, sondern stellte lediglich die Telefonnummern bereit.
5
Hinter einer Reihe freigeschalteter Nummern und Anrufbeantworter verbergen sich keine Teilnehmer. Einige Telefonanbieter schalten Nummern und digitale Anrufbeantworter frei, bevor Teilnehmer bereitstehen bzw. schließen Nummern nach der Abmeldung nicht. Gabler und Häder ermittelten in einem Experiment einen Anteil von 14% der gewählten Nummern mit Freizeichen, bei denen sich nicht ermitteln ließ, ob tatsächlich Teilnehmer erreichbar gewesen wären (Gabler/Häder 2002). Zusätzlich lässt sich nicht definitiv klären, wie viele Anrufbeantworter ohne entsprechende Teilnehmer freigeschalten waren, was insgesamt zu einer deutlichen Unterschätzung der Ausschöpfungsquote führt.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
113
Ergebnisse Die Bekanntheit einzelner Dienste stellt eine unabdingbare Voraussetzung für die Nutzung dieser Dienste dar. Um hierüber Auskunft zu bekommen, wurde nicht nur nach einschlägigen Begriffen gefragt, sondern die jeweiligen Optionen in der Frage kurz angesprochen (vgl. Legende von Tab. 1). Wie Tab. 1 zeigt, sind die verschiedenen Dienste zwar in unterschiedlichem Maße bekannt. Völlig unbekannte Dienste lassen sich jedoch nicht finden. Klassische Interaktionsoptionen, wie in einer Sendung anzurufen bzw. eine SMS oder Mail zu schicken, sind dem Großteil der Münchner bewusst. Auch Personal Video Rekorder erfreuen sich relativ hoher Bekanntheit, haben doch immerhin deutlich mehr als zwei Drittel schon von dieser Option gehört. Weniger, aber fast der Hälfte der Münchner bekannt sind Electronic Program Guides und Multiperspektivprogramme (Wechsel der Kameraperspektiven). Völlig überraschend erscheint die durchwegs hohe Bekanntheit von MHP-Diensten, die per Fernbedienung gesteuert werden, was auf den ersten Blick skeptisch gegenüber den Daten stimmt. Prinzipiell bestehen hier folgende Möglichkeiten: a) die Daten geben den tatsächlichen Stand der Bekanntheit wieder; b) je neuartiger die Dienste, desto höher ist die Tendenz, sozial erwünscht zu antworten, um informiert zu erscheinen; c) die erfragten Dienste sind zwar nicht aus unmittelbarer Anschauung bekannt, aber gut vorstellbar; d) die Dienste wurden mit anderen, bereits bestehenden verwechselt (was besonders bei der Frage nach Shopping per Fernbedienung nahe liegt, die leicht Assoziationen zu bestehenden HomeshoppingSendungen wecken könnte). Allerdings ergeben sich aus den restlichen Ergebnissen Hinweise darauf, dass die Befragten in einem gewissen Maße konsistent antworteten. Zwar gaben viele Befragte an, den bewusst in die Studie aufgenommenen und in Deutschland nicht existierenden Dienst "Shopping per Fernbedienung" zu kennen, aber keiner, ihn zu nutzen. Ferner liegen die Nutzungszahlen für alle MHP-Dienste selbst dann, wenn man nur errechnet, wer den entsprechenden Dienst überhaupt schon genutzt hat (FB-Shopping: 0%, Quiz: 6,2% und Voting: 6,7%) deutlich unter dem Anteil derer, die über ein MHP-fähiges Endgerät verfügen (8,6%)6. Insgesamt lässt sich jedoch nicht ausschließen, dass mit zunehmender Neuartigkeit der Dienste sozial erwünscht geantwortet wurde und die Bekanntheit der Dienste durch die Befragung insgesamt überschätzt wird.
6
Frage: "Haben Sie ein MHP-fähiges Fernsehgerät? MHP heißt Multimedia Home Platform und ist ein neuer technischer Standard"; (Antwortmöglichkeiten: 0=nein, 1= ja, 9=weiss nicht, 99=KA).
114 Tab. 1:
Oliver Quiring
Bekanntheit, Nutzung, potenzielle Nutzung und Einstellung zu verschiedenen interaktiven Anwendungen (nach Gewichtung)
iTVAnwendung Anrufen SMS schicken Mailen PVR Kameraperspektiven EPG FB-Shopping FB-Quiz FB-Voting
Bekannt in %1
Nutzung bei Kenntnis in %2
88,5 80,1 71,0 70,8 48,0 46,6 58,2 42,9 40,2
0,5 2,2 1,9 14,8 15,5 15,0 1,8 1,9
"Potenzielle" Nutzung bei Nichtkenntnis in %3 14,8 9,1 11,4 20,0 38,0 23,7 6,4 15,6 26,6
Einstellung MW4 3,0 (SD = 1,1) 2,9 (SD = 1,1) 3,5 (SD = 1,0) 4,2 (SD = 0,8) 3,9 (SD = 1,0) 3,6 (SD = 1,1) 2,7 (SD = 1,2) 3,2 (SD = 1,1) 3,5 (SD = 1,1)
1 Frage: "Das Fernsehen eröffnet ja zur Zeit eine Reihe neuer Möglichkeiten, die man nicht unbedingt alle kennen kann. Ich werde Ihnen nun eine Reihe dieser Möglichkeiten nennen. Man kann beispielweise......während einer Live-Sendung beim Sender anrufen (Wie das z.B. bei 9live oder der Wahl des Wettkönigs bei "Wetten dass" der Fall ist). ...eine SMS an eine Fernsehsendung schicken (z.B. um Grüße oder Kommentare zu schicken); ...eine Email an eine Fernsehsendung schicken (z.B. um an einem Gewinnspiel teilzunehmen oder Ihre Meinung zur Sendung zu äußern); ...eine Fernsehsendung aufnehmen und bereits zu sehen beginnen, während die Sendung noch läuft. Der Rekorder nimmt dann weiter auf. Dazu braucht man einen Festplattenrecorder, auch Personal Video Rekorder genannt; ...die Kameraperspektiven bei einem Fußballspiel oder einem Formel1 Rennen mit der Fernbedienung selbst auswählen (wie das z.B. bei Premiere möglich ist); ...mit der Fernbedienung sein eigenes Programm am Bildschirm zusammenstellen und einprogrammieren. Das geht schon Wochen im voraus mit einem sog. "Elektronischen Programmführer"; ...per Tastendruck auf der Fernbedienung bei Shoppingsendungen einkaufen.; ...per Tastendruck auf der Fernbedienung bei Quizshows oder Gewinnspielen live mitspielen (z.B. bei der Sendung "Das Quiz" mit Jörg Pilawa mitraten); ...per Tastendruck auf der Fernbedienung in Live-Sendungen abstimmen. Die Ergebnisse werden eingeblendet (z.B. in der Sendung Presseclub abstimmen)"; Basis (n): alle Befragten. 2 Frage: "Wie häufig nutzen Sie diese Möglichkeit?" (Antwortmöglichkeiten: fast täglich, mehrmals pro Woche, mehrmals pro Monat, seltener, nie); Basis (n): alle Befragten, die angaben, den Dienst zu kennen und zumindest mehrmals pro Monat zu nutzen (kumulierte Häufigkeiten aus fast täglich, mehrmals pro Woche, mehrmals pro Monat). 3 Frage: Wie häufig würden sie diese Möglichkeit nutzen, wenn sie die Chance dazu hätten? (Antwortmöglichkeiten: fast täglich, mehrmals pro Woche, mehrmals pro Monat, seltener, nie); Basis (n): alle Befragten, die angaben, den Dienst nicht zu kennen, aber mindestens mehrmals pro Monat nutzen zu wollen (kumulierte Häufigkeiten aus fast täglich, mehrmals pro Woche, mehrmals pro Monat). 4 Frage: Wie gut finden Sie diese Möglichkeit prinzipiell? (Antwortmöglichkeiten: 1=sehr schlecht, 2=eher schlecht, 3=teils/teils, 4=eher gut, 5=sehr gut); Basis (n): alle Befragten, die sich waren, ihre Einstellung zu dem entsprechenden Dienst zu äußern; MW = Mittelwert; SD = Standardabweichung). Basis: alle Befragten. Alle Prozentangaben gewichtet nach Alter, Haushaltsgröße, Geschlecht (Sozialstatistik der Stadt München) und Bildung (Mikrozensus).
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
115
Betrachtet man hingegen nur den Anteil derer, die interaktive Fernsehdienste kennen und regelmäßig nutzen (d.h. mehrmals pro Monat7, vgl. Tab. 1, Spalte 2), so zeigt sich eine offensichtliche Diskrepanz zwischen Bekanntheit und Nutzung. Obwohl Interaktionsdienste wie Anrufen, SMS schicken und Mailen weithin bekannt sind, werden sie kaum genutzt. Auch hier besteht natürlich die Gefahr, dass die Befragung aufgrund sozialer Erwünschtheit das wahre Ausmaß der Nutzung dieser Dienste tendenziell unterschätzt, während das der Nutzung neuerer Dienste überschätzt wird. Prinzipiell haben bei einer Telefonbefragung die Befragten aber nur wenig Grund dazu, gegenüber ihnen unbekannten Interviewern soziale erwünschte Antworten zu geben. Der größten Beliebtheit erfreuen sich Dienste, die ihren Nutzern zusätzliche Selektionsoptionen eröffnen (PVR, EPG, Multiperspektivprogramme). An dieser Stelle lässt sich nur über die weitere Entwicklung spekulieren. Jedoch liegt die regelmäßige Nutzung aller drei untersuchten Dienste in einem Bereich, der sich zumindest dem theoretischen "Take-off"-Bereich von Innovationen (Schenk 2002: 387ff.) nähert. Hier wird sich in den nächsten Jahren zeigen müssen, ob diese Hürde genommen wird. Ebenso lässt sich wenig über die zukünftige Nutzung von MHPbasierten Diensten aussagen. Zum Zeitpunkt der Erhebung überschritt die regelmäßige Nutzung dieser Dienste gerade die Messbarkeitsschwelle. Ein durchaus übliches Verfahren, das Potenzial neuer Dienste bestimmen zu wollen, besteht darin, hypothetische Fragen zur Nutzungsintention zu stellen. Auch in der vorliegenden Studie wurden alle Befragten, die einzelne Dienste nicht kannten (aber beschrieben bekamen), danach gefragt, wie häufig sie diese nutzen würden, wenn sie die Möglichkeit dazu hätten. Die Ergebnisse zeigen durchwegs eine hohe Diskrepanz zwischen tatsächlicher Nutzung (Spalte 2) und "potenzieller" Nutzung (Nutzungsintention, vgl. Spalte 3). Die so ermittelten Anteile dürfen aber keinesfalls als "echtes" Potenzial missverstanden werden. Vergleicht man nämlich die tatsächliche Nutzung bereits seit langem eingeführter Dienste (Zeile 1 bis 3) mit den angegebenen Nutzungsintentionen, so gibt es keinen plausiblen Grund dafür, warum Personen, die hinsichtlich ihres Kenntnisstandes deutlich hinter dem anderer Personen zurückliegen, "alte" Dienste in Zukunft überproportional nutzen sollten. Die Ergebnisse zeigen vielmehr, dass die Frageform dazu führt, das tatsächliche Potenzial bei weitem zu überschätzen, was bei Potenzialanalysen, die auf Fragen zur Nutzungsintention beruhen, grundsätzlich skeptisch stimmen sollte. 7
Unter "regelmäßigen Nutzern" werden alle Personen verstanden, die die einzelnen Dienste mindestens "mehrmals pro Monat" nutzen. Eine seltenere Nutzung kann keine Hinweise auf die Adoption von Diensten geben, weil nicht klar ist, ob die angesprochenen Dienste unter Umständen nur einmalig genutzt und dann abgelehnt wurden.
116
Oliver Quiring
Schließlich spiegeln auch die auf einer fünfstufigen Skala erhobenen Einstellungen (von 1= sehr gut bis 5 = sehr schlecht) eine gewisse Indifferenz der Münchner gegenüber interaktiven Fernsehdiensten wieder. Die meisten Dienste bewegen sich hier um die Skalenmitte, wobei Personal Video Rekorder und Multiperspektivprogramme deutlich positiv auffallen. Noch deutlichere Hinweise auf eine breite Indifferenz gegenüber interaktiven Fernsehdiensten lassen sich gewinnen, wenn man Personen, die zwar Kenntnis über einzelne Dienste haben, aber diese nicht nutzen, nach den Gründen für die Nicht-Nutzung fragt (vgl. Tab. 2). Tab. 2:
Ablehnungsgründe1 (Mehrfachantworten, gewichtet)
Anwendung Anruf SMS Mail PVR Kamera EPG Shopp. Quiz Voting weil… es für mich unnö84,6 85,2 84,5 35,9 42,9 60,9 78,2 73,5 78,4 tig ist es mir zu teuer ist 52,3 43,6 10,3 13,3 15,9 11,4 15,9 22,7 14,1 ich das Gerät dazu 6,6 7,6 74,9 55,1 40,0 23,2 22,1 21,6 nicht besitze es für mich zu 8,9 10,9 9,6 4,8 10,4 15,6 6,2 7,4 7,2 kompliziert ist ich nicht weiß, 3,0 4,4 3,8 3,5 1,8 15,0 11,3 13,3 7,1 wie es funktioniert ich nichts falsch 4,7 4,9 4,8 0,3 2,3 2,8 3,2 1,0 8,4 machen möchte ich niemanden 3,0 3,3 2,9 0,5 2,4 6,5 1,2 2,8 4,6 kenne, der mir dabei helfen kann ich der neuen 6,5 4,9 4,1 0,3 1,1 4,7 10,1 3,3 7,0 Technik nicht vertraue 1 Frage: "Sie haben uns gesagt, dass sie diese Möglichkeit kennen aber nicht nutzen. Ich lese Ihnen nun eine Reihe von Gründen vor, warum dies der Fall sein könnte. Bitte sagen sie mir, ob die jeweiligen Gründe auf Sie zutreffen". Basis: alle Befragten, die angaben, die entsprechende Anwendung zu kennen, aber nicht zu nutzen. Alle Prozentangaben gewichtet nach Alter, Haushaltsgröße, Geschlecht (Sozialstatistik der Stadt München) und Bildung (Mikrozensus).
Die angegebenen Items stammen aus einem Pretest mit 30 Personen, in der Ablehnungsgründe offen erfasst und anschließend verdichtet wurden. Der durchschnittlich am häufigsten angegebene Grund "weil es für mich unnötig ist", stellt zwar keine besonders qualifizierte Aussage dar, spiegelt aber anschaulich die Grundhaltung vieler Befragter wieder. Ihnen scheint das vorhandene Angebot zu reichen und der Anreiz, sich mit neuen Diensten eingehender zu
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
117
beschäftigen, ist nicht besonders groß. Eine Ausnahme bilden Multiperspektivprogramme und Personal Video Rekorder. Hier ist der meistgenannte Grund "weil ich das Gerät dazu nicht besitze". Auch aus dieser Antwort lässt sich eine gewisse Saturiertheit der potenziellen Nutzer ablesen. Zwar sind für die Nutzung beider Dienste Zusatzgeräte zu beschaffen, zu teuer sind diese Geräte aber nur einem vergleichsweise kleinem Anteil der Münchner (vgl. Zeilen darüber). Eher bedeutet die Beschaffung dieser Geräte einen zusätzlichen Aufwand, der nicht ohne guten Grund betrieben wird. Hohe Kosten werden eher mit klassischen Interaktionsdiensten wie Anruf und SMS verbunden. Betrachtet man die weiteren Gründe für eine Zurückweisung der untersuchten Dienste, so stützen diese die bisherige Argumentation. Nur wenige Befragte äußern Bedenken, sie könnten mit der neuen Technik nicht zurecht kommen ("weil es für mich zu kompliziert ist, ...ich nicht weiß, wie es funktioniert, ... ich nichts falsch machen möchte) bzw. keine Hilfe von anderen bei der Inbetriebnahme erwarten. Ebenso spielt grundsätzliche Skepsis gegenüber neuen Diensten ("weil ich der neuen Technik nicht vertraue") nur für einen kleinen Teil der Münchner eine nennenswerte Rolle. Der interessanteste Aspekt der Zahlen in Tab. 2 erschließt sich nur indirekt. So halten z.B. 22,7 respektive 14,1 Prozent der Münchner das Mitraten bei Quizshows bzw. das Abstimmen per Fernbedienung für zu teuer. Die einzigen zum Zeitpunkt der Befragung auf dem deutschen Markt frei zugänglichen Dienste (d.h. ohne Abonnement eines Digitalanbieters), die diese Möglichkeiten eröffneten, nämlich die von ARD-Digital, werden kostenfrei angeboten. Ferner scheint nur einem kleinen Teil der Münchner bewusst zu sein, dass sie gar nicht über die adäquate Geräteausstattung verfügen, um MHP-Dienste nutzen zu können (knapp über 20 Prozent gaben bei Quizshows und Voting per Fernbedienung an, nicht über das entsprechende Gerät zu verfügen; verglichen mit dem Anteil von 8,6 Prozent, der nach den oben angesprochenen Ergebnissen MHPfähige Endgeräte besitzt, fällt dieser Anteil deutlich zu klein aus). Hier zeigt sich deutlich, dass "Bekanntheit" nicht mit "Wissen" gleichgesetzt werden kann. Es zeigt sich aber auch, dass nur wenige bereit waren, sich das nötige Wissen aktiv anzueignen.
Schluss Die präsentierte Studie hat sicherlich deutliche Limitationen. So musste eine regionale und zeitliche Beschränkung in Kauf genommen werden. Nur durch Vergleichsstudien an anderen Standorten und entsprechende Wiederholungsstu-
118
Oliver Quiring
dien ließe sich ein deutlich aussagekräftiger Einblick in die Dynamik interaktiver Fernsehnutzung in Deutschland gewinnen. In der Gesamtschau geben die Ergebnisse jedoch Hinweise darauf, dass interaktives Fernsehen neben zahlreichen bekannten angebotsseitigen Hindernissen auch mit der Ungerührtheit der potenziellen Nutzer zu kämpfen hat. Viele Dienste sind zwar leidlich bekannt, werden aber kaum genutzt. Will man die Gründe dafür zusammenfassen, so gewinnt man den Eindruck, dass ein Großteil der Befragten diesen Diensten indifferent bis uninteressiert gegenübersteht. Ob dies an der Qualität der Dienste oder anderen Gründen liegt, kann an dieser Stelle nicht abschließend bewertet werden. Sollte eine Forcierung der Entwicklung interaktiven Fernsehens erwünscht sein, bieten die Ergebnisse dennoch einen Anhaltspunkt: Wie sich indirekt erschließen lässt, kennen zwar viele Personen interaktive Fernsehdienste, sie kennen sich aber nicht wirklich aus. Von den potenziellen Nutzern kann nun kaum erwartet werden, dass sie sich bei jedem neuen Dienst, der auf dem Markt erscheint und für sich genommen jedes Mal neues Wissen erfordert, aktiv informieren. Hier wäre es ratsam, Informationen stärker mithilfe klassischer Informationskanäle (Massenmedien) zu verbreiten, um in einem ersten Schritt eine ausreichende Wissensbasis zu schaffen. So konnten z.B. Weber und Evans (2002) zeigen, dass die Berichterstattung in klassischen Print- und elektronischen Medien interaktivem Fernsehen in Großbritannien eine gute Ausgangsbasis verschaffen konnte. Fraglich ist nur, ob die stetig wachsende Fülle an Kommunikationsdiensten auch kommunizierbar ist.
Literatur Beckert, Bernd (2002): Medienpolitische Strategien für das interaktive Fernsehen - eine vergleichende Implementationsanalyse. Wiesbaden: Westdeutscher Verlag. Beckert, Bernd (2004): Interaktives Fernsehen in Deutschland - Stand und Perspektiven neuer Medienangebote im Schnittfeld von TV und Online. In: Friedrichsen (Hrsg.) (2004): 109141. Berghaus, Margot (1995): Zuschauer für interaktives Fernsehen. Ergebnisse einer qualitativen Befragung. In: Rundfunk und Fernsehen 43.4. 506-517. Brosius, Hans-Bernd (1997): Multimedia und digitales Fernsehen: Ist eine Neuausrichtung kommunikationswissenschaftlicher Forschung notwendig? In: Publizistik 42.1. 37-45. Brosius, Hans-Bernd/Koschel, Friederieke (2005): Methoden der empirischen Kommunikationsforschung. Eine Einführung. Wiesbaden: Verlag für Sozialwissenschaften. Clement, Michel/Schneider, Holger/Albers, Sönke (2005): Status Quo des Digitalen Fernsehens in Deutschland. In: MedienWirtschaft 2.1. 1-12.
Interaktives Fernsehen und die Ungerührtheit der potenziellen Nutzer
119
Dahm, Hermann/Rössler, Patrick/Schenk, Michael (1998): Vom Zuschauer zum Anwender. Akzeptanz und Folgen digitaler Fernsehdienste. München: Fischer. Digitalfernsehen (2006): Interaktives TV mit Startschwierigkeiten. Online: http://www.digitalfernsehen.de/news/news_110153.html (abgerufen am: 10.10.2006). Friedrichsen, Mike (Hrsg.) (2004): Kommerz - Kommunikation - Konsum. Zur Zukunft des Fernsehens. Baden-Baden: Nomos Verlagsgesellschaft. Gabler, Siegfried/Häder, Sabine (2002): Idiosyncrasies in Telephone Sampling – The Case of Germany. In: International Journal of Public Opinion Research 14.3. 339-345. Garling, Jens (1997): Interaktives Fernsehen in Deutschland. Frankfurt am Main u.a.: Europäische Hochschulschriften. Goertz, Lutz (1995): Wie interaktiv sind Medien? Auf dem Weg zu einer Definition von Interaktivität. In: Rundfunk und Fernsehen 43.4. 477-493. Goldhammer, Klaus/Wiegand, André (2004): Transaktionsfernsehen in Deutschland. In: Friedrichsen (Hrsg.) (2004): 225-240. Hachmeister, Lutz/Zabel, Christian (2004): Das interaktive Fernsehen und seine Zuschauer. In: zu Salm (Hrsg.) (2004): 145-169. Hans-Bredow-Institut (2006): EU- Strategien für den Analogue-Switch-Off in Europa. In: DocuWatch Digitales Fernsehen 2. 11-12. Jäckel, Michael (1995): Interaktion. Soziologische Anmerkungen zu einem Begriff. In: Rundfunk und Fernsehen 43.4. 463-476. Jensen, Jens F. (1998): 'Interactivity'. Tracking a New Concept in Media and Communication Studies. In: Nordicom Review 19.1. 185-204. Kiousis, Spiro (2002): Interactivity: a Concept Explication. In: New Media & Society 4.3. 355-383. Kleinsteuber, Hans J. (1994): Der Mythos vom Rückkanal. Technische Phantasien und politische Funktionalisierungen in der Kabelfernsehdebatte der 70er Jahre. In: Medium 24.4. 59-62. Kleinsteuber, Hans J. (1995): Der Mythos vom Rückkanal. Technische Phantasien und politische Funktionalisierungen in der Kabelfernsehdebatte der 70er Jahre. In: Medium 25.1. 59-62. Kubicek, Herbert/Beckert, Bernd/Sarkar, Ranjana (1998): Synopse nationaler und internationaler Mulitmediaprojekte. Düsseldorf: Landesanstalt für Rundfunk Nordrhein-Westfalen. Lievrouw, Leah A./Livingstone, Sonia (Hrsg.) (2002): Handbook of New Media. Social Shaping and Consequences of ICTs. McMillan, Sally J. (2002): Exploring Models of Interactivity from Multiple Research Traditions: User, Documents and Systems. In: Lievrouw/Livingstone (Hrsg.) (2002): 163-182. Quiring, Oliver/Schweiger, Wolfgang (2006): Interaktivität - Ten Years After. Bestandsaufnahme und Analyserahmen. In: Medien & Kommunikationswissenschaft 54.1. 5-24. Rogers, Everett M. (2003): Diffusion of Innovations. Fifth Edition. New York: Free Press. Rössler, Patrick/Krotz, Friedrich (Hrsg.) (2005): Mythen der Mediengesellschaft. Konstanz: UVK Verlags GmbH.
120
Oliver Quiring
Ruhrmann, Georg/Nieland, Jörg-Uwe (1997): Interaktives Fernsehen: Entwicklung, Dimension, Fragen, Thesen. Opladen: Westdeutscher Verlag. Schäfer, Rainer (2004): Technische Grundlagen und Trends des interaktiven Fernsehens. In: zu Salm (Hrsg.) (2004): 65-90. Schenk, Michael (2002): Medienwirkungsforschung. 2. vollständig überarbeitete Auflage. Tübingen: Mohr Siebeck. Schenk, Michael/Döbler, Thomas/Stark, Birgit (2002): Marktchancen des digitalen Fernsehens. Akzeptanz und Nutzung von Pay-TV und neuen Diensten. Opladen: Westdeutscher Verlag. Schenk, Michael/Stark, Michael/Döbler, Thomas/Mühlenfeld, Hans-Ulrich (2001): Nutzung und Akzeptanz des digitalen Pay-TV in Deutschland. In: Media Perspektiven 4. 220-234. Schönbach, Klaus (1997): Das hyperaktive Publikum - Essay über eine Illusion. In: Publizistik 42.3. 279-286. Schönbach, Klaus (2005): The Hyperactive Audience - Still an Illusion. An Essay, "Revisited". In: Rössler/Krotz (Hrsg.) (2005): 267-277. Schrape, Klaus (1995): Digitales Fernsehen. Marktchancen und ordnungspolitischer Regelungsbedarf. München: Verlag Reinhard Fischer. Stark, Birgit (2006): Fernsehen in digitalen Medienumgebungen. Eine empirische Analyse des Zuschauerverhaltens. München: Verlag Reinhard Fischer. Thaenert, Wolfgang/Hege, Hans (2006): Digitalisierungsbericht 2005. Berlin: Vistas. Weber, Ian/Evans, Vanessa (2002): Constructing the Meaning of Digital Television in Britain, the United States and Australia. In: New Media & Society 4.4. 435-456. Woldt, Runar (2004): Interaktives Fernsehen - große Potenzial, unklare Perspektiven. In: Media Perspektiven 7. 301-309. zu Salm, Christiane (Hrsg.) (2004): Zaubermaschine interaktives Fernsehen? TV-Zukunft zwischen Blütenträumen und Businessmodellen. Wiesbaden: Gabler.
Online-Rubriken als Innovationen in der Marktkommunikation – Strukturwandel im Anzeigengeschäft Castulus Kolo
Rubrikenanzeigen tragen wesentlich zu den Erlösen von Zeitungsverlagen bei und stellen ein wichtiges Instrument der Marktkommunikation dar. Neue Online-Angebote versprechen eine Effizienzsteigerung des gesamten Marktprozesses durch die Vermeidung von Medienbrüchen und treten zunehmend in den Wettbewerb zu Print. Die vorliegende Analyse am Beispiel der Märkte für Stellen, Immobilien und Kfz trennt Gesamtmarkteffekte und Substitution in der Entwicklung der Anzeigenvolumina und zeigt damit auf, dass in wenigen Jahren etwa die Hälfte des Volumens aus Print abgewandert ist. Die Resistenz gegenüber weiteren Einbussen wird abschließend vor dem Hintergrund des Rieplschen "Gesetzes" diskutiert, das auf der Trägheit von Handlungsmustern beruht, die jeweils mit den aus der Sicht der neuen Angebote traditionellen Medien gewachsen sind.
Einleitung Rubrikenanzeigen, u.a. zu Stellen, Immobilien und Kfz, tragen entscheidend zu den Erlösen insbesondere von Zeitungsverlagen bei. Als Informations-Broker beeinflussen derartige Anzeigenmedien gleichzeitig durch das Zusammenführen einer jeweils stark fragmentierten Angebots- und Nachfrageseite erheblich die Markttransparenz und damit auch die Dynamik der zu Grunde liegenden Güterund Dienstleistungsmärkte wie etwa des Arbeits- und des Immobilienmarkts. Heute stehen spezifische Onlinedienste in allen Kategorien von Rubrikenanzeigen (z.B. Jobbörsen) im Wettbewerb zu den traditionellen Akteuren. Sie versprechen einen besseren Abgleich von Angebot und Nachfrage zu niedrigeren Preisen und eine Effizienzsteigerung des gesamten Marktprozesses durch die Vermeidung von Medienbrüchen. Der Beitrag systematisiert nach einer aktuellen quantitativen Analyse der Substitutionsdynamik Online-versus-Print über den Zeitraum von 12 Jahren, wie die jeweilige Substitutionsdynamik mit den Charakteristika der entsprechenden Märkte zusammenhängen könnte sowie in welcher Weise diese von Eigenschaf-
122
Castulus Kolo
ten der Anzeigenkunden und der Nutzer digitaler Medien potenziell beeinflusst wird. Schließlich sollen Umfang und Verlauf der Substitution von Print- durch Onlineanzeigen als generelles Thema von Medienentwicklung und Innovation aufgegriffen werden.
Entwicklungen in den Rubrikenmärkten Der Markt für Rubrikenanzeigen ist mit den wenigen Ausnahmen reiner Informationsmärkte (z.B. Familienanzeigen) gekoppelt an Märkte für Güter und Dienstleistungen. Insofern ist es nicht überraschend, dass die entsprechenden Anzeigenvolumina insbesondere in den Zeitungen schon vor der Verbreitung des Internet als Medium der Marktkommunikation Schwankungen unterworfen waren. Mit zunehmender Verfügbarkeit von spezialisierten Onlinediensten kam ein weiteres Phänomen zu den Markteffekten hinzu: Struktureffekte durch Substitution von Print- durch Onlineanzeigen. Die Anzeigenvolumina in deutschen Zeitungen sind im Zeitverlauf gut dokumentiert (ZMG 2006) und weisen in den hinsichtlich Anzeigenumsatz größten drei Rubriken Kfz, Immobilien und Stellen (BDZV 2006) über die letzten 10 Jahre bis 2006 Einbrüche von insgesamt 35, 38 bzw. 30 Prozent auf. Eine ähnliche Entwicklung zeigt sich in anderen europäischen Ländern und den USA (NAA 2004; WAN 2004b). Welcher Anteil der Einbußen auf Struktur- und welcher auf Markteffekte zurückzuführen ist, wurde in der praxisorientierten (z.B. Ernst&Young 2003; Forrester Research 1998) sowie wissenschaftlichen Literatur (Breyer-Mayländer 2004; Kolo 2004) diskutiert, allerdings nur in Ansätzen quantifiziert (Kolo 2006). Darüber hinaus gibt es mehrere Vorschläge für die Gründe des Strukturwandels (z.B. Choi/Whinston 2000; Wigand/Benjamin 1995) und Abhandlungen über die generelle Bedeutung der Digitalisierung für die traditionellen Akteure aus dem Printgeschäft, insbesondere den Zeitungshäusern (z.B. Geyskens et al. 2002; Ihlström/Palmer 2002; Neuberger/Tonnemacher 1999; O'Reilly 1996; Outing 2000; Picard 2000; Sennewald 1998; WAN 2004a). Was die Auswirkungen des Strukturwandels in den Anzeigenmärkten auf die daran gekoppelten Güter- und Dienstleistungsmärkte betrifft, so gibt es mit Ausnahme des Stellenmarkts (z.B. Gareis/Mentrup 2001; Kuhn 2000) überwiegend allgemeine Veröffentlichungen zu elektronischen Märkten (z.B. Kauffman/Walden 2001), die hier weiterführen. Die Quantifizierung der Effekte in den Anzeigenmärkten erfordert ein Modell, das jeweils gleichzeitig Markt- und Substitutionseffekte abbildet. Formal bedeutet dies, dass das tatsächlich resultierende Anzeigenvolumen zum Zeit-
Online-Rubriken als Innovationen in der Marktkommunikation
123
punkt t (Vres(t)) aus dem marktbedingten Anzeigenvolumen (VM(t)) durch Multiplikation mit einem Korrekturfaktor (s(t)) hervorgeht, der den Anteil beschreibt, der durch Substitution zum Zeitpunkt t verloren geht: (1)
Vres (t ) = VM (t ) ⋅ s (t )
Für das marktbedingte Volumen bietet sich die Modellierung durch geeignete Marktindikatoren an (lineares Marktmodell mit Marktindex I(t)): (2)
VM (t ) = β ⋅ I (t ) + α
Indikatoren für die hier untersuchten Märkte sind die jährliche Zahl verkaufter gebrauchter PKW, die Immobilientransaktionsvolumina (aus dem diesbezüglichen Steueraufkommen) und die Anzahl gemeldeter freier Stellen bei der Bundesagentur für Arbeit (Bundesagentur für Arbeit 2006; RDM 2006; ZDK 2006). Die Substitution zeigt einen Verlauf, der das Negativ der S-förmigen Diffusion von Innovationen darstellt (Rogers 2003/1962). Für die Parametrisierung typischer Diffusions- bzw. Substitutionsverläufe gibt es dabei mehrere Vorschläge (Bass 1969; Henrich 2001; Mahajan et al. 2000; Norton/Bass 1987; Porter et al. 1991), die in unterschiedlicher Weise die Rolle von Kommunikationsprozessen bei der Verbreitung der Innovation beschreiben. Die wichtigsten Prozesse sind hierbei die Verbreitung über Netzwerkeffekte oder "innovation by imitation" (Bass 1969) sowie die Verbreitung über Massenmedien (Bass 1969; Rogers 2003/1962). Das einfachste Modell beschreibt generell Wachstumsprozesse mit begrenzten Ressourcen und ist daher auch unter dem Namen "Pumpkin"-Modell bekannt (für englisch Pumpkin = Kürbis). Im Zusammenhang mit der Diffusion von Innovationen wurde es von Fisher und Pry eingeführt (Porter et al. 1991). Das Gegenstück dazu, die Substitution (s(t)), wird wie folgt parametrisiert: (3)
1 § · s (t ) = 1 − δ ⋅ ¨ ¸ ( −σ ⋅(t −τ )) ©1+ e ¹
Wenn t gegen unendlich geht, geht der Term in Klammern gegen 1, d.h. die Diffusion erreicht ihr Maximum bzw. der Faktor, der hier die Substitution beschreiben soll, hat den niedrigsten Wert. δ steht also für das Ausmaß der Substitution. Wäre δ = 1, dann wäre die Substitution vollständig. Mit dem Parameter ı variiert die Geschwindigkeit der Substitution, und der Parameter IJ bezeichnet den Zeitpunkt des steilsten Anstiegs (bzw. Abfalls).
124
Castulus Kolo
Ein komplexeres Modell, das auch gleichzeitig einen weiteren freien Parameter mehr beinhaltet ist das Modell von Bass (1969): (4)
§ 1 − e − (φ +ϕ )⋅(t −τ ) s (t ) = 1 − δ ⋅ ¨ ¨ 1 + (φ / ϕ ) ⋅ e − (φ +ϕ )⋅(t −τ ) ©
· ¸ für t > τ, sonst 1 ¸ ¹
δ steht hier genauso wie im Fisher-Pry-Modell für das Ausmaß der Substitution und wird in diesem Zusammenhang auch als "Index des Marktpotenzials" bezeichnet (Rogers 2003/1962: 210), denn der Wert des Diffusionsterms kann maximal δ erreichen. τ ist hier anders als im Fisher-Pry-Modell der Zeitpunkt, zu dem die Substitution beginnt. φ und ϕ sind Parameter, die die Form der Kurve prägen. Sie werden als "innovation factor" (ϕ), der sich auf die Wahrscheinlichkeit einer Annahme der Innovation unabhängig von der Zahl der bereits bestehenden Adopter bezieht, bzw. als "imitation factor" (φ) bezeichnet, der die Rolle vorangehender Adoptionen bemisst, d.h. den sozialen Druck zur Annahme oder - positiv formuliert - die Netzwerkeffekte (Bass 1969). Im Bass-Modell sind damit die beiden wesentlichen Kommunikationsformen berücksichtigt, die die Verbreitung von Innovationen beeinflussen: Massenmedien und die interindividuelle Weitergabe, das "word of mouth" (Bass 1969). Das Verhältnis der beiden Parameter φ und ϕ zeigt dabei auch die relative Bedeutung der beiden Kanäle an. Das Bass-Modell erfuhr mehrere Erweiterungen, die allerdings noch nie im Zusammenhang mit Substitutionseffekten, sondern stets mit der Einführung und Diffusion neuer Produkte diskutiert wurden (siehe z.B. Stahl/Maas 2006 für ein aktuelles Beispiel oder Mahajan et al. 2000 sowie Rogers 2003/1962 für aktuellere Übersichten zum Einsatz des Bass-Modells und seiner Erweiterungen). Zur Separation von Markt- und Struktureffekten ist es notwendig, die Parameter des Marktterms α und β sowie die Parameter des Substitutionsterms δ, σ und τ bzw. δ, φ, ϕ und τ gleichzeitig anzupassen. Es handelt sich dabei um eine nichtlineare Anpassung (Regression) (siehe dazu z.B. Bates/Watts 1988 oder Gallant 1987) mit fünf bzw. sechs freien Parametern. Angesichts der wenigen vorhandenen Mess- d.h. Zeitpunkte (dreizehn für Stellen bzw. zwölf für Kfz und Immobilien) werden schnell die Grenzen dessen erreicht, was sich noch signifikant aussagen lässt. Es soll daher geprüft werden, ob eine Anpassung, die Markt und Substitution berücksichtigt, signifikant besser ist als eine Anpassung, die nur Markteffekte bzw. nur Substitutionseffekte einbezieht. Dieser Vergleich lässt sich mit Hilfe eines T-Tests anstellen, der nicht nur die Güte der Anpassung auf der Basis der
Online-Rubriken als Innovationen in der Marktkommunikation
125
Summe der Abstandsquadrate, sondern auch jeweils die Anzahl der Anpassungsparameter bzw. Freiheitsgrade der Anpassung berücksichtigt. Es zeigt sich, dass die gleichzeitige Anpassung eines Substitutions- und eines Marktterms signifikant besser abschneidet als die nur eines der beiden Terme (auf einem Niveau