Einführung in die PC-Grundlagen [1. Aufl.] 3827318270 [PDF]


164 105 11MB

German Pages 338 Year 2001

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover......Page 1
Inhaltsverzeichnis......Page 2
Vorwort......Page 10
1 Einführung......Page 14
2 Wie arbeiten Computer?......Page 22
3 Kodierung von Informationen......Page 38
4 Prozessoren und Bussysteme......Page 50
5 Speicher......Page 89
6 Die Peripherie: Ein- und Ausgabegeräte......Page 126
7 Auf die Verpackung kommt es (auch) an......Page 154
8 Betriebssysteme......Page 167
9 Anwendersoftware......Page 202
10 Programmierung......Page 228
11 Künstliche Intelligenz......Page 251
12 Datensicherheit......Page 259
13 Computernetzwerke......Page 267
14 Let's go Online......Page 286
15 Noch ein paar Lesetipps......Page 302
Stichwortverzeichnis......Page 306
Papiere empfehlen

Einführung in die PC-Grundlagen [1. Aufl.]
 3827318270 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Titel:

Einführung in die PC-Grundlagen

ISBN:

3-8273-1827-0

Verlag:

Addison-Wesley

Copyright: Pearson Education Deutschland GmbH

Inhaltsverzeichnis Vorwort 1 Einführung 1.1 Ein erster Überblick 1.2 Was bedeutet EDV? 1.2.1 Elektronisch 1.2.2 Daten 1.2.3 Verarbeitung 1.2.4 EDV oder IV 1.3 Kurze Geschichte des Computers 2 Wie arbeiten Computer? 2.1 Die Zentraleinheit 2.2 Der Mikroprozessor 2.2.1 Das Rechenwerk 2.2.2 Das Steuerwerk 2.2.3 Der Arbeitsspeicher 2.3 Das Bussystem 2.4 Die Ein- und Ausgabesteuerung 2.5 Taktgeber 2.6 Das Zusammenspiel von Prozessor, Speicher und Bussystem 3 Kodierung von Informationen 3.1 Digitale Informationsverarbeitung 3.2 Zahlensysteme 3.2.1 Das Dezimalsystem 3.2.2 Das Dualsystem 3.2.3 Das Hexadezimalsystem 3.2.4 Rechnen mit den verschiedenen Zahlensystemen

3.3 Kodierungsstandards 3.4 Kodierung von logischen Informationen 4 Prozessoren und Bussysteme 4.1 Mikroprozessoren von Personalcomputern 4.1.1 Moderne Mikroprozessoren 4.1.2 Die Intel-Pentium-Familie 4.1.3 Die Athlon-Familie von AMD 4.1.4 Ein neuer Stern am Himmel: Crusoe 4.1.5 Übersicht 4.2 Die Schnelligkeit von Prozessoren 4.2.1 Von CISC zu RISC 4.2.2 Herstellung von Mikroprozessoren 4.2.3 Entwicklungstendenzen 4.3 Bussysteme 4.3.1 Der ISA-Bus 4.3.2 Local-Bus 4.3.3 Koordinierung des Datentransfers 4.3.4 Plug&Play 4.4 PCMCIA - Erweiterungskarten im Scheckkartenformat 5 Speicher 5.1 Einführung 5.2 Interne Speicher 5.2.1 Schreib-Lese-Speicher (RAM) 5.2.2 Festwertspeicher 5.3 Magnetische Datenspeicher 5.3.1 Disketten

5.3.2 Festplatten 5.3.3 Controller 5.3.4 Magnetband-Speicher 5.3.5 Alternative Speichermedien 5.4 Optische Speicherung 6 Die Peripherie: Ein- und Ausgabegeräte 6.1 Tastatur und Maus 6.1.1 Die Tastatur 6.1.2 Die Maus 6.1.3 Der Joystick 6.2 Monitor und Grafik 6.2.1 Bildschirmarten 6.2.2 Displays 6.2.3 Grafikstandards 6.2.4 Ergonomie 6.3 Drucker 6.3.1 Vollzeichendrucker 6.3.2 Punktmatrix-Drucker 6.4 Sound 6.4.1 Standards 6.4.2 Vom Bit zum Ton 6.4.3 MIDI 6.4.4 3-D-Sound 6.4.5 CD-ROM-Schnittstelle 6.5 Scanner 6.6 Datenfernübertragung 6.6.1 DFÜ mit dem Modem 6.6.2 DFÜ per ISDN

6.6.3 DFÜ per T-DSL 6.7 Schnittstellen 6.7.1 Die Serielle Schnittstelle 6.7.2 Die Parallele Schnittstelle 6.7.3 USB 7 Auf die Verpackung kommt es (auch) an 7.1 Büro-PCs 7.2 Tragbare Rechner 8 Betriebssysteme 8.1 Die Aufgaben des Betriebssystems 8.1.1 Welche Betriebssysteme gibt es? 8.1.2 Wie unterscheiden sich Betriebssysteme? 8.2 Das Betriebssystem MS-DOS 8.2.1 Das Arbeiten mit DOS 8.2.2 Inhaltsverzeichnisse 8.2.3 Dateibefehle 8.2.4 Die Benutzeroberfläche Windows 3.1 8.3 Die Windows-Betriebssysteme 8.3.1 Die Windows-Oberfläche 8.3.2 Das Arbeiten mit Windows 8.3.3 Aufrufen von Programmen 8.3.4 Einige Zubehörprogramme 8.4 Das Betriebssystem OS/2 8.5 Das Betriebssystem UNIX 8.5.1 Linux 9 Anwendersoftware

9.1 Textverarbeitung 9.1.1 Arbeit mit einem Textverarbeitungsprogramm 9.1.2 Überblick über Textverarbeitungsfunktionen 9.1.3 Desktop Publishing 9.1.4 Maschinelle Zeichenerkennung (OCR) 9.2 Datenbanken 9.2.1 Datenbanksysteme 9.3 Tabellenkalkulation 9.3.1 Aufbau eines Arbeitsblattes 9.3.2 Einsatzgebiete von Kalkulationsprogrammen 9.3.3 Beispiel einer Kostenplanung 9.4 Grafik 9.4.1 Analytische Grafik 9.4.2 Präsentationsgrafik 9.4.3 Mal- und Zeichenprogramme 9.4.4 Computerunterstütztes Zeichnen (CAD) 9.5 Multimedia 9.5.1 Komprimierung von Multimedia-Daten 9.6 Datenaustausch über OLE 9.6.1 Grundbegriffe 9.6.2 Objekte einfügen 9.6.3 Objekte verknüpfen 9.6.4 OLE 2: Weitere Bearbeitungsmöglichkeiten 9.7 Alles in einem Paket 9.8 Spezielle Branchenlösungen 9.9 Unterstützung in allen Lebenslagen: Hilfesysteme 9.10 Software-Lizenzen

9.10.1 Lizenzen, Shareware, Freeware 9.10.2 Installation von Anwendungen 10 Programmierung 10.1 Programmentwicklung 10.1.1 Beschreibung des Problems 10.1.2 Entwicklung einer Lösungsvorschrift 10.1.3 Übersetzung in eine Programmiersprache 10.1.4 Testen des Programms 10.1.5 Dokumentation 10.2 Die Entwicklung einer Lösungsvorschrift 10.3 Programmiersprachen 10.3.1 Sprachgenerationen 10.3.2 Übersetzer 10.3.3 Programmiersprachen unter der Lupe 10.4 Prozedurale und objektorientierte Programmierung 11 Künstliche Intelligenz 11.1 Einführung 11.2 Expertensysteme 11.3 Spracherkennungs-Systeme 11.4 Neuronale Netze 11.4.1 Biologische Grundlagen 11.4.2 Konnektionismus 11.4.3 Anwendungen 12 Datensicherheit 12.1 Computerviren und anderes Gewürm 12.1.1 Was sind Viren?

12.1.2 Welche Typen gibt es? 12.1.3 Wie wird ein System infiziert? 12.1.4 Wie erkennt man ein infiziertes System 12.1.5 Lässt sich ein Virus wieder entfernen? 12.2 Sicherheit geht vor: Datensicherung 12.2.1 Wann braucht man ein Backup? 12.2.2 Was passiert bei einem Backup? 12.2.3 Was soll gesichert werden? 12.2.4 Wann kann wie gesichert werden? 12.2.5 Geräte für die Datensicherung 13 Computernetzwerke 13.1 Nutzen lokaler Netzwerke 13.2 Grundlagen lokaler Netze 13.2.1 Kommunikation im Netz 13.2.2 Datentransport im Netzwerk 13.2.3 Protokolle: Sprachen im Netzwerk 13.2.4 Netzwerk-Betriebssysteme 13.2.5 Server-Netzwerke 13.2.6 Peer-to-Peer-Netzwerke 13.2.7 Homogene und heterogene Netzwerke 13.2.8 Vom LAN zum GAN 13.3 Systemverwaltung 13.4 Das OSI-Modell 14 Let's go Online 14.1 Mailboxen 14.2 Online-Dienste 14.2.1 T-Online 14.2.2 America Online (AOL) 14.3 Internet-Provider

14.4 Das Internet 14.4.1 Was bietet das Internet? 14.4.2 Internet in der Praxis 14.4.3 Stau auf der Datenautobahn 15 Noch ein paar Lesetipps Stichwortverzeichnis

Vorwort Die Geschichte der elektronflussischen Datenverarbeitung ist nun schon über 50 Jahre alt. Kaum eine andere technische Entwicklung hat unser tägliches Leben so sehr verändert wie die des Computers. Sie lässt sich gut vergleichen mit der Erfindung der Dampfmaschine und der damit eingeleiteten industriellen Revolution. Während bis in die fünfziger Jahre Computer eher zu Forschungszwecken Anwendung fanden, begann in den sechziger und siebziger Jahren die kommerzielle Nutzung. Computer hielten Einzug in industrielle Großbetriebe und öffentliche Verwaltungen. Doch für den einzelnen Arbeitnehmer waren sie kaum bemerkbar. In den Betrieben wurden Rechenzentren eingeführt, die nur für besonders geschultes Personal zugänglich waren. Heute übernehmen Computer in der Fertigung und in kaufmännischen Abteilungen immer mehr Aufgaben. Inzwischen gibt es kaum noch eine Arbeit, die nicht durch einen Computer unterstützt wird. Für den einzelnen heißt das, dass er den Umgang mit Computern lernen muß, wenn er nicht von dieser Entwicklung überrollt werden will. Sieht man sich die Stellenangebote an, so fällt ein immer größer werdender Bedarf nach EDVKenntnissen auf, auch in Berufen, die nicht unbedingt auf EDV spezialisiert sind. Für wen ist dieses Buch?

Dieses Buch möchte Ihnen helfen, einen Einstieg in das Thema EDV zu finden. Zunächst wendet es sich an Leser, die einen ersten allgemeinen Überblick über Computer, Ein- und Ausgabegeräte, ihre Bedienung sowie die passenden Programme haben möchten. Darüber hinaus soll es auch denjenigen helfen, die bereits über Grundwissen verfügen und mehr Details kennen lernen möchten. Hierzu werden am Beispiel des Personal Computers aktuelle Trends aufgeführt und erläutert. Sicherlich kann dies nicht vollständig geschehen. Von Monat zu Monat wird über neue Entwicklungen berichtet. Ziel ist es, dem entsprechend interessierten Leser soviel Wissen zu vermitteln, dass er die Möglichkeit hat, Fachzeitschriften, Informationsmaterialien und Prospekte zu verstehen und so selbstständig seine Kenntnisse auf dem aktuellen Stand halten zu können. Zur Orientierung

Um Ihnen die Orientierung innerhalb des Buches zu erleichtern, ist es in vier Teile untergliedert:

Grundlagen

Der erste Teil mit drei Kapiteln legt den Schwerpunkt auf einige Grundlagen. Hier finden Sie einige Erläuterungen zum Begriff »EDV«, der ja in diesem Buch eine zentrale Rolle spielt, sowie einen kurzen Überblick über die Entwicklung der EDV. Weiterhin zeige ich Ihnen, was in einem Computer passiert, wenn Sie mit ihm arbeiten und auf welche Weise er Ihre Daten kodiert. Hardware

Der zweite Teil widmet sich der »harten Ware«, der so genannten Hardware, also das, was man direkt anfassen kann. Hier lernen Sie alle wichtigen Komponenten eines Personalcomputers kennen, vom Prozessor, dem eigentlichen Gehirn einer Rechenanlage, bis hin zum Modem, das Ihnen den Kontakt zu anderen Computern ermöglicht. Software

Bei der Behandlung der Software im dritten Teil beginnen wir mit dem Betriebssystem, ohne das ein Computer nicht arbeiten kann. Nun gibt es zahlreiche Betriebssysteme am Markt, aber keines ist so stark am Markt vertreten wie Windows. Daher werden wir uns bei den Überlegungen zu diesem Thema an diesem Betriebssystem orientieren. Was aber wäre ein PC ohne Anwendungsprogramme, also Textverarbeitung, Tabellenkalkulation, Datenbank, Zeichenprogramme usw.? Alle diese Programme werden Sie ebenfalls in diesem Teil kennen lernen. Kommunikation

Der PC ist zwar noch immer ein persönlicher Computer, aber immer stärker tritt die Kommunikation in den Vordergrund. In Firmen haben lokale Netzwerke besondere Bedeutung, dagegen möchten immer mehr Anwender auch von zu Hause aus auf die weltweiten Informationsbestände von Online-Diensten und des Internets zugreifen. Diesen Möglichkeiten des Informationsaustauschs werden wir uns im vierten Teil genauer widmen. Symbole

Damit Ihnen dieses Buch auch über eine erste Lektüre hinaus Informationen bietet, werden einige Themen etwas stärker aufgegriffen oder in einer Tiefe behandelt, die vielleicht ein wenig über die reinen Grundlagen hinausgeht. Damit der unbedarfte Leser von diesen Inhalten nicht abgeschreckt wird, sind einige Abschnitte besonders hervorgehoben oder durch Symbole am Seitenrand

gekennzeichnet. Folgende Bilder werden Ihnen dabei begegnen:

Das Symbol mit den Büchern weist Sie auf einen Abschnitt hin, der Hintergrundinformationen enthält. Falls Ihnen die Inhalte noch zu sehr über die Grundlagen hinausgehen, können Sie den Abschnitt getrost überspringen und später bei Bedarf noch einmal nachlesen.

Am Ende der meisten Kapitel werden Sie Tipps finden, die Ihnen Unterstützung beim Kauf einer PC-Hardware- oder Softwarekomponente geben sollen. Hier finden Sie Hinweise, worauf Sie besonders achten sollten, wenn Sie sich für die in dem jeweiligen Abschnitt behandelte Komponente interessieren.

Wenn Sie das Symbol mit der Hand sehen, sollten Sie den dazugehörenden Abschnitt besonders aufmerksam lesen. Hier werden Sie wichtige Hinweise finden, die Ihnen die Arbeit mit einem PC erleichtern und Sie auch vor Fehlbedienungen bewahren sollen.

Viel Spaß beim Lesen Herne, im Juli 2001 Jürgen Ortmann P.S.: Ihre Meinung ist gefragt

Dieses Buch habe ich für Sie geschrieben, um Ihnen den Einstieg in den Umgang mit dem Computer zu erleichtern. Daher würde es mich natürlich brennend interessieren, ob Ihnen das Buch gefallen hat und ob Sie alle notwendigen Informationen darin gefunden haben. Doch wer greift schon gerne zu Papier und Feder? Vielleicht haben Sie Lust, nachdem Sie den Umgang mit Online-Diensten gelernt haben, mir eine kurze Rückmeldung per E-Mail zu senden. Ich würde mich freuen, also bis bald. [email protected]

1 Einführung 1.1 Ein erster Überblick In der heutigen Zeit ist es wohl kaum möglich, mit offenen Augen durch die Welt zu gehen, ohne auf Computer zu stoßen. Ob im Fernsehen, in den Zeitungen oder bei einem Bummel durch Kaufhäuser, überall sind sie vertreten. Dabei kann man entdecken, dass es Computer in verschiedenen Größen und Ausführungen gibt.

Bild 1.1: Blick in ein Großrechenzentrum (Foto: IBM)

Personal-Computer-Anlagen

Thema dieses Buches sind Personalcomputer. Diese Rechner, für deren Bezeichnung sich die Abkürzung PC eingebürgert hat, wurden zuerst von der amerikanischen Computerfirma IBM hergestellt. Ihre Bezeichnung leitet sich davon ab, dass jeder Benutzer seinen eigenen, persönlichen Computer (PC) an seinem Arbeitsplatz stehen hat und nicht ausschließlich auf Großrechner angewiesen ist, die fernab in einem Rechenzentrum stehen und von mehreren Anwendern gleichzeitig genutzt werden. Personalcomputer bestehen normalerweise aus einem Metallkasten von der Größe eines Aktenkoffers (die so genannte Zentraleinheit), einem Bildschirm und einer Tastatur. Die Zentraleinheit kann auf einem Schreibtisch liegen oder auf dem Boden stehen.

Bild 1.2: Der PC ist nicht nur dem Schreibtisch vorbehalten, die großen Varianten (Server) erobern inzwischen auch die Rechenzentren (Foto: HP)

Ein- und Ausgabegeräte Speicher

Zu einer Personalcomputer-Anlage gehören meist weitere Ein- und Ausgabegeräte wie zum Beispiel Maus, Joystick und Drucker, Speichergeräte wie Diskettenlaufwerke und Festplatten sowie zusätzliche Geräte, die über Erweiterungskarten mit der Zentraleinheit verbunden sind. In neuerer Zeit gewinnen Erweiterungen, die die Kommunikation mit anderen Rechnern ermöglichen, wie z. B. Modems, ISDN-Karten etc., immer mehr an Bedeutung.

Bild 1.3: Ein typischer Personalcomputer (Foto: EPSON)

Rechnerkategorien

Personalcomputer gehören zu einer bestimmten Kategorie von Computern, den Mikrorechnern. Daneben gibt es noch verschiedene andere RechnerKategorien wie Minirechner (Preis um 100.000 DM), Großrechner (Preis zwischen 500.000 und 30 Mio DM) und so genannte Superrechner (Preis ca. 50 Mio DM), von denen es weltweit nur wenige hundert Installationen gibt. Allerdings wird es immer schwieriger, PCs von Minirechnern zu unterscheiden. Inzwischen gibt es leistungsfähige Rechner, die zwar auf PC-Technik, sprich Intel-Prozessoren, beruhen, aber aufgrund ihrer Leistungsfähigkeit auch für mittlere Unternehmen die komplette Rechenleistung übernehmen können. Andere PCs

Im Folgenden werden wir uns auf einen bestimmten Typ von Personalcomputern konzentrieren, nämlich auf solche, wie sie von der Firma IBM eingeführt worden sind und von vielen anderen Computerherstellern nachgebaut werden. Früher sprach man von den so genannten IBM-kompatiblen Personal Computern (kompatibel = zusammenpassend, vereinbar). Daneben gibt es noch andere PCs, wie z. B. die Rechner der Firma Apple. Die typischen Personalcomputer-Rechner haben jedoch den größten Marktanteil und stehen deswegen im Mittelpunkt dieser Einführung.

Bild 1.4: Beim neuen iMac von Apple ist der Computer im Monitorgehäuse integriert. (Foto: Apple)

1.2 Was bedeutet EDV? EDVA

Alle Rechenanlagen können als Elektronische Daten-Verarbeitungs-Anlagen (EDV-Anlagen oder EDVA) bezeichnet werden. Die vier Wörter, aus denen sich diese Bezeichnung zusammensetzt, wollen wir uns näher anschauen.

1.2.1 Elektronisch Datenverarbeitungsanlagen der heutigen Technologie sind immer Elektronische Datenverarbeitungsanlagen. Sie werden aus einer Unzahl von elektronischen Bauelementen zusammengesetzt, die hohe Verarbeitungsgeschwindigkeiten erlauben.

1.2.2 Daten Einfache Daten

Die wichtigste Domäne von Computern ist die Verarbeitung einfacher Daten, die einfach nur auf Zahlen und Buchstaben beruhen.

Ziffern:

0 bis 9

Buchstaben:

a bis z und A bis Z

Sonderzeichen:

. , ? ! _ - + _ _ usw.

Multimedia

Es wird unterschieden zwischen numerischen Daten (Zahlen, die für Rechenoperationen benutzt werden) und alphanumerischen Daten (meist Bezeichnungen, Namen und Texte, aber auch Zahlen, mit denen nicht gerechnet werden soll, zum Beispiel Postleitzahlen). In neuerer Zeit kommen so genannte Mulitmedia-Daten hinzu, dazu gehören Klänge, Bilder und auch Videosequenzen. Dokumente

Ein inzwischen für viele Daten gebräuchlicherer Begriff ist der des Dokuments. Darunter versteht man alle Formen von Daten, die Sie selber mit den modernen Büroanwendungen erstellen können, wie z. B. Texte, Tabellen, Grafiken usw. Da diese Anwendungen die Vermischung der unterschiedlichsten Daten ermöglichen, also z. B. Tabellen und Grafiken innerhalb eines Textes oder erläuternde Texte und Grafiken innerhalb einer Tabelle, passt dieser allgemeine Begriff besser zu solchen Dateien, die verschiedene Datentypen beinhalten.

1.2.3 Verarbeitung Daten können in einer EDV-Anlage auf unterschiedliche Weise verarbeitet werden. Der Benutzer hat die Möglichkeit, diese Verarbeitungsprozesse zu steuern. Um dem Computer mitteilen zu können, was dieser zu tun hat, muss der Benutzer eine Sprache anwenden, die der Computer verstehen kann. Die Sprachbefehle, die für die Erledigung einer bestimmten Aufgabe benötigt werden, lassen sich zu einem Programm zusammenfassen. Ohne diese Programme, die Software, kann eine EDV-Anlage nicht arbeiten. Die wesentlichen Aufgaben bei der Datenverarbeitung sind: ●

Eingabe Die vorhandenen Daten müssen zuerst in den Rechner eingegeben werden. Hierzu können verschiedene Möglichkeiten genutzt werden (siehe Kapitel 6: Ein- und Ausgabegeräte).



Speichern Damit die eingegebenen Daten nicht verlorengehen, werden sie auf Datenträgern gespeichert (siehe Kapitel 5: Speicher).



Rechnen Es umfasst die Grundrechenarten sowie Zusatzfunktionen wie Wurzel ziehen, Runden sowie gegebenenfalls technisch-wissenschaftliche oder finanzmathematische Funktionen. Aber auch die Verarbeitung von Multi-Media-Daten dürfen wir an dieser Stelle nicht vergessen, da hierzu sehr aufwändige Rechenoperationen notwendig sind.



Vergleichen Numerische und alphanumerische Daten werden auf »größer als«, »kleiner als« oder Gleichheit geprüft. Das Ergebnis eines Vergleichs führt zu einer Entscheidung, die den weiteren Verlauf der Verarbeitung beeinflussen kann.



Sortieren Sortiervorgänge sind in der Datenverarbeitung von großer Bedeutung. Besonders große Datenmengen werden nach bestimmten Kriterien auf- oder absteigend sortiert, z. B. Orte in einer Adressdatei nach ihren Postleitzahlen oder ihren Anfangsbuchstaben. Durch das Ordnen in eine Reihenfolge werden die Daten für den Benutzer meist übersichtlicher.



Prüfen Während der Verarbeitung der Eingabedaten können sie auf ihre Richtigkeit überprüft werden, z. B. auf richtige Reihenfolge, Vollständigkeit oder Plausibilität.



Ausgabe Damit der Benutzer das Ergebnis der Verarbeitung sehen kann, müssen die Ergebnisse ausgegeben werden. Dazu stehen eine Reihe verschiedener Geräte zur Verfügung (siehe Kapitel 6: Ein- und Ausgabegeräte).



Anlage Zu einer EDV-Anlage gehört eine Vielzahl von Geräten, die als Hardware bezeichnet werden. Hierzu sind Ein- und Ausgabegeräte wie Tastatur, Monitor und Drucker wie auch Speichergeräte zu zählen. Das Herz einer EDV-Anlage ist die so genannte Zentraleinheit, die allgemein als Computer bezeichnet wird.

1.2.4 EDV oder IV Vor einigen Jahren konnte man einen Wandel in den Begriffen feststellen: Aus EDV wurde Informationsverarbeitung, aus der EDV-Abteilung wurde plötzlich eine IV-Abteilung, aus dem EDV-Spezialisten der IV-Spezialist, englisch angehaucht auch IT-Spezialist genannt (IT = Information technology). Was diesen Wandel verursacht hat, lässt sich nicht so leicht nachvollziehen. Eine mögliche Erklärung ist, dass mit dem Begriff »Information« im Gegensatz zu »Daten« der gestiegenen Komplexität der von modernen Computern verarbeiteten Daten Rechnung getragen wird. Natürlich arbeiten auch die neuesten Rechner nur mit einfachen Daten, die letztlich auf die beiden Zustände 1 und 0 zurückgeführt werden können. Moderne Anwendungsprogramme sind aber inzwischen in der Lage, einfache Daten nach komplexen Zusammenhängen zu analysieren, die auf uns einströmenden Informationen auf ihre Wichtigkeit zu filtern und zusammenzufassen oder auch ansatzweise menschliches Wissen abzubilden und auf dieser Basis Entscheidungen zu treffen. Daher wird die Informationsverarbeitung wahrscheinlich auch nur ein Zwischenschritt sein hin zur Wissensverarbeitung.

1.3 Kurze Geschichte des Computers Der Begriff Computer kommt aus dem Englischen und ist abgeleitet von to compute = rechnen. Computer sind also zunächst reine Rechenmaschinen.

Abakus

Die Geschichte von Rechenmaschinen lässt sich sehr weit zurückverfolgen. Die erste Rechenmaschine, oder besser Rechenhilfe, ist der Abakus, der vor mehr als 2500 Jahren von den Chinesen erfunden wurde. Dieses Gerät wird in einigen Erdteilen noch immer häufig benutzt, und geübte Abakusrechner können damit erstaunliche Resultate erzielen. Rechenmaschinen

Die ersten richtigen Rechenmaschinen wurden im 17. Jahrhundert gebaut. So konstruierte Blaise Pascal, ein berühmter französischer Mathematiker, eine Additionsmaschine für seinen Vater, der Steuereinnehmer war. Gottfried Wilhelm Leibniz, ein bedeutender deutscher Philosoph und Mathematiker, konstruierte eine Rechenmaschine mit Walzen für alle vier Grundrechenarten. Die Feinmechanik der Maschine jedoch war so kompliziert, dass sie zum damaligen Zeitpunkt nicht gebaut werden konnte. Das Konstruktionsprinzip wurde aber schließlich bis zur Mitte unseres Jahrhunderts bei mechanischen Rechenmaschinen beibehalten.

Bild 1.5: Lochkarte (Foto: IBM)

Lochkarten

Bis zur Entwicklung eigentlicher Computer verging noch viel Zeit. Trotzdem wurden Erfindungen gemacht, die bis in die heutige Zeit ihren Einfluss zeigen. So wurden die Lochkarten, die bei späteren Rechnern eine wesentliche Rolle spielten, bereits 1804 von Josef Maria Jacquard erfunden. Sie dienten dazu, einen automatischen Webstuhl zu steuern. Die für die jeweiligen Muster notwendigen Arbeitsvorgänge wurden auf ihnen kodiert eingestanzt. 1833 plante Charles Babbage, ein Ökonom und Mathematiker, an der Universität von Cambridge eine Maschine, bei der die Reihenfolge der einzelnen Rechenoperationen nicht mehr manuell gesteuert werden sollte. Statt dessen dienten die dreißig Jahre zuvor erfundenen Lochkarten dazu, den Ablauf der Rechenoperationen zu steuern. Weiterhin besaß die Maschine einen Zahlenspeicher, ein Rechenwerk, eine Steuereinheit und einen Programmspeicher, eine Aufteilung, wie sie auch in heutigen Rechnern zu finden ist. ZUSE Z 3

In den dreißiger Jahren dieses Jahrhunderts wurden die ersten elektrischen Rechenmaschinen entwickelt. 1941 stellte Konrad Zuse den ersten funktionsfähigen programmgesteuerten Rechenautomaten vor. Diese als ZUSE Z 3 bezeichnete Maschine bestand aus einem Rechenwerk mit etwa 600 Relais und einem elektrischen Speicherwerk mit 1400 Relais. Die einzelnen Rechenschritte wurden nacheinander von einem Programm gesteuert, welches in einen Kinofilmstreifen gelocht war. Obwohl diese Maschine eigentlich für die Bewältigung von Problemen der Statik gedacht war, wurde sie vor allem bei der Entwicklung ferngesteuerter Bomben eingesetzt. MARK I

Etwa zur gleichen Zeit (1944) wurde in Amerika der programmgesteuerte Rechenautomat MARK I fertiggestellt. Mit 16 m Länge, 35 Tonnen Gewicht und 850 km elektrischen Leitungen war er um einiges schwerfälliger als ZUSE Z 3. Erster elektronischer Rechner

Mit dem Electronic Numerical Integrator and Computer (ENIAC) wurde 1946 der erste elektronische Rechner gebaut. Die Funktionen der Relais wurden von Elektronenröhren übernommen. 18.000 Röhren wurden verwendet, die Rechengeschwindigkeit konnte gegenüber Relaisrechnern um das 2.000fache erhöht werden. John-von-Neumann-Struktur

Bei allen bis zu diesem Zeitpunkt entwickelten Rechenautomaten befanden sich die zu verarbeitenden Daten in einem Speicher, während die Programme von außen durch Lochstreifen eingegeben wurden. Dadurch waren die Programme starr, Befehl für Befehl wurde abgearbeitet, unabhängig von den Ergebnissen der Berechnungen. John von Neumann, ein ungarischer Mathematiker, legte dagegen die einzelnen Programmbefehle genau wie die zu verarbeitenden Daten im elektronischen Speicher ab. Damit konnten Programmbefehle eingeführt werden, die abhängig von den Berechnungsergebnissen den Programmfluss steuern. Der Rechner konnte selbstständig logische Entscheidungen treffen; Programmteile konnten übersprungen, wiederholt oder ganze Programmteile neu aufgerufen werden. Alle weiteren Entwicklungen basieren auf dieser »von Neumann'schen Struktur«.

Bild 1.6: ENIAC füllt den ganzen Saal aus (Foto: IBM)

Transistor

Ein weiterer wichtiger Schritt in der Entwicklung des Computers war 1948 die Erfindung des Transistors. Im Vergleich zu den Elektronenröhren war er kleiner, entwickelte weniger Wärme, verbrauchte weniger Strom und war nicht so störanfällig. Bereits sieben Jahre später, 1955, wurde der erste volltransistorierte Computer, TRADIC (Transistor Digital Computer), von den Bell Laboratories (USA) vorgestellt.

Bild 1.7: Größenvergleich Röhre - Transistor - Microchip (Foto: IBM)

Gedruckte Schaltung

Doch kaum waren die Transistoren erfunden, suchte man nach Wegen, sie zu verkleinern. Zeitlich parallel zur Vorstellung des TRADIC wurde die Technik der gedruckten Schaltungen eingeführt. Mehrere Bauteile wie Transistoren, Dioden, Kondensatoren und Widerstände wurden zu Funktionseinheiten von 10 mm Kantenlänge zusammengefasst. Integrierte Schaltung

Von nun an ist die weitere Entwicklung bestimmt durch die Miniaturisierung der Bauteile. 1958 wurden die integrierten Schaltungen (Integrated Circuit, IC) erfunden. Für ihre Herstellung wurden auf photochemischem Weg Schaltkreise im Inneren eines Siliziumkristalls erzeugt. Bis heute wurde und wird versucht, immer mehr Bauteile auf eine quadratische Siliziumscheibe von etwa 5 bis 10 mm Kantenlänge zu packen. Auf modernen Mikroprozessoren werden inzwischen mehrere Millionen Transistorfunktionen auf kleinstem Raum vereinigt. Mikroprozessor

Um das Jahr 1972 ging man daran, Rechenwerk und Steuerwerk eines Computers auf einem Chip herzustellen. Dies war die Geburtsstunde des Mikroprozessors.

Bild 1.8: Der erste Personalcomputer von IBM (Foto: IBM)

Heim- und Personalcomputer

Ein Mikroprozessor bildet zusammen mit einem Speicher für Programme und Daten im Prinzip einen Computer. Damit wurden die ersten kompakten, relativ kleinen Computer möglich. 1977 präsentierte die Firma Commodore den ersten Homecomputer. 1979 wurde der Mikroprozessor vorgestellt, der die Grundlage für den Personalcomputer war, der 1981 von IBM vorgestellt wurde, einer Firma, die bis dato eine führende Stellung im Büromaschinen- und Großrechner-Bereich innehatte und zu Anfang gar nicht so recht an den Erfolg des PCs glauben wollte. Inzwischen gehören die Personal Computer zu den am weitesten verbreiteten Rechnersystemen. Es gibt wohl kaum ein Unternehmen, ob Konzern oder Zwei-Mann-Firma, das nicht zumindest die täglich anfallenden kaufmännischen Aufgaben mit Hilfe eines PC erledigt. Einer der wesentlichen, aktuellen Trends ist die Miniaturisierung der Personal-Computer. Über Laptop, Notepad bis hin zum Palmtop in der Größe einer Brieftasche kann der PC nun auch unterwegs seinen Anwender bei der täglichen Planung unterstützen.

Bild 1.9: Explosionszeichnung eines Desktop-PCs (Foto: IBM)

MS-DOS

Mit der Entwicklung des Personalcomputers ist auch die Entwicklung des zugehörigen Betriebssystems eng verbunden. Der Markterfolg des PCs war auch für IBM sehr überraschend, hatte man sich doch anfangs nicht einmal um ein eigenes Betriebssystem gekümmert. Statt dessen lizenzierte IBM die Basissoftware MS-DOS von der Firma Microsoft, die 1975 von Bill Gates und Paul Allen gegründet wurde. Die beiden hatten kurz zuvor für 50.000,- Dollar die Rechte an dem Betriebssystem QDOS (Quick and Dirty Operating System) gekauft und sie zu MS-DOS (Microsoft Disk Operating System) verbessert. Damit begann der in der Wirtschaftsgeschichte wohl einmalige Aufstieg einer Firma, da nicht nur IBM, sondern auch andere PC-Hersteller das Betriebssystem lizenzierten. Windows

1992 brachte Microsoft die dritte Version der grafischen Benutzeroberfläche Windows (Windows 3.0 und Windows 3.1) auf den Markt, die bis dahin nur ein Nischendasein fristete. 50 bis 80 Millionen Exemplare dieser Software wurden weltweit abgesetzt. 1995 wurde mit einem Werbeaufwand von 200

Millionen Dollar die neue Version, Windows 95, auf dem Markt eingeführt, die auch das inzwischen betagte MS-DOS ablösen sollte und drei Jahre später mit Windows 98 aktualisiert wurde.

Bild 1.10: Die grafische Oberfläche von Windows XP

Windows Me/ Windows 2000/ Windows XP

Inzwischen schlägt sich das neue Jahrtausend auch bei den Windows-Betriebssystemen nieder: Das auf Windows NT beruhende Windows 2000 erschien zu Beginn des neuen Jahrtausends, während die Windows Millenium Edition, kurz Me, eher eine kosmetische Überarbeitung von Windows 98 darstellte. Erst mit dem im Herbst 2001 erscheinenden Nachfolger Windows XP, das beide Betriebssystemlinien fortsetzt, endet die annähernd dreißigjährige Ära von DOS, dem ersten PC-Betriebssystem. Die Einführung der neuen Version erfolgt mit einer bis dahin noch nie dagewesenen Marketingkampagne. Die Kosten der ersten drei Monate sollen die Gesamtkosten, die für Windows 95 aufgewendet wurden, um das doppelte übersteigen. Kampf um das Internet

Von vielen Firmen, die in der Vergangenheit gute Programme hergestellt haben, hört man inzwischen leider nicht mehr sehr viel, es scheint, als wäre auch der Markt für Anwendungssoftware inzwischen in einer einzelnen Hand. Währenddessen ist ein Kampf um die beste Zugangssoftware für das Internet zwischen den Firmen Microsoft und Netscape entbrannt, der zum regelmäßigen Thema nicht nur der Computerzeitschriften geworden ist, sondern auch in der Tagespresse mit Interesse verfolgt wird. LINUX

Was einer Firma nicht gelingt, scheint allerdings einer großen Gemeinde von Entwicklern möglich: Das über das Internet frei verfügbare und auf UNIX beruhende LINUX erfreut sich immer größerer Beliebtheit. Es wird inzwischen von führenden Softwareherstellern unterstützt und von Microsoft als möglicher Konkurrent betrachtet. Überblick über die wichtigsten geschichtlichen Daten

ca. 500 v.Chr.: Abakus als Rechenhilfe 1620 - 1630:

Erfindung von Rechenstäben zur Erleichterung von Multiplikation und Division.

1623 - 1664:

Wilhelm Schickard, Blaise Pascal und Gottfried Wilhelm Leibniz konstruieren und bauen die ersten Rechenmaschinen.

1774:

Phillip Matthäus Hahn entwickelt eine Rechenmaschine, die erstmals zuverlässig arbeitet.

1804:

Josef Maria Jacquard konstruiert einen mechanischen Webstuhl, der durch Lochkarten gesteuert wird.

1833:

Charles Babbage plant eine Maschine, bei der die einzelnen Rechenoperationen durch Lochkarten gesteuert werden sollen. Die Maschine soll einen Zahlenspeicher, Rechenwerk, Steuerwerk und Programmspeicher besitzen.

1886:

Hermann Hollerith entwickelt in den USA elektrisch arbeitende Zählmaschinen für Lochkarten. Diese Maschinen sollen Datenerhebungen für die Regierung (z. B. Volkszählung) erleichtern.

1911:

Die von Hollerith gegründete Firma vereinigt sich mit zwei anderen Firmen zu »International Business Machines« (IBM).

1934:

Konrad Zuse beginnt mit der Planung einer programmgesteuerten Maschine für Aufgaben der Statik (ZUSE Z 1).

1941:

Die erste funktionsfähige programmgesteuerte Rechenmaschine, ZUSE Z 3, wird in Betrieb genommen.

1946:

ENIAC ist der erste Rechner, der statt mit Relais mit Elektronenröhren arbeitet.

1948:

Der Transistor wird erfunden.

1955:

Der erste volltransistorierte Computer wird vorgestellt.

1958:

Die integrierte Schaltung (IC) wird erfunden

1972:

Geburtsstunde des Mikroprozessors: zum ersten Mal gelingt es, Rechenwerk und Steuerwerk auf einem integrierten Schaltkreis (Chip) in Serie herzustellen.

1977:

Der erste Homecomputer wird vorgestellt.

1979:

Die ersten 16-Bit-Mikroprozessoren werden angeboten.

1981:

Die Firma IBM stellt ihren Personalcomputer vor.

1992:

Die Fa. Microsoft bringt mit Windows 3.1 eines der bis dahin erfolgreichsten Software-Produkte auf den Markt.

1995:

In der größten Update-Aktion der Geschichte der Software-Industrie wird Windows 95 auf dem Markt eingeführt und innerhalb von drei Monaten 7 Millionen mal verkauft.

2000:

Mit Windows 2000 und Windows ME begrüßt Microsoft das neue Jahrtausend. Gleichzeitig erfreut sich ein anderes Betriebssystem immer größerer Beliebtheit: das auf UNIX basierende LINUX, das kostenfrei über das Internet bezogen werden kann.

2001:

Mit viel Tamtam wird von Microsoft Windows XP auf dem Markt eingeführt, um damit nun endlich das angestaubte DOS und die darauf basierenden Windows-Versionen abzulösen.

2 Wie arbeiten Computer? In diesem Kapitel wollen wir uns Computer einmal aus einem recht abstrakten Blickwinkel anschauen. Dieses Kapitel soll Ihnen ein wenig verdeutlichen, wie Informationen im Computer von den verschiedenen Teilsystemen bearbeitet werden.

2.1 Die Zentraleinheit Moderne Computer bestehen im Wesentlichen aus vier Teilsystemen, die zusammen die Zentraleinheit ergeben: ● ● ● ●

Steuerwerk Rechenwerk Arbeitsspeicher Ein- und Ausgabesteuerung

Bild 2.1: Struktur der Zentraleinheit

Nur durch das geordnete Zusammenspiel dieser vier Grundeinheiten sind die hohen Leistungen moderner Computer möglich. Rechenwerk, Arbeitsspeicher

Die Verarbeitung der eingehenden Daten geschieht im Rechenwerk. Heute sind Rechengeschwindigkeiten von vielen Millionen Additionen pro Sekunde möglich. Eine derart hohe Rechengeschwindigkeit setzt voraus, dass die Daten dem Rechenwerk entsprechend schnell bereitgestellt werden können. Deshalb benutzt man einen Arbeitsspeicher, in dem die zu verarbeitenden Daten abgelegt werden. Das Rechenwerk kann jederzeit auf diese Daten zugreifen, sie verarbeiten und die Ergebnisse wieder im Arbeitsspeicher ablegen. Moderne Computer arbeiten mit Programmen, die eine Vielzahl von Befehlen enthalten. Das Steuerwerk hat die Aufgabe, die Befehle zu verstehen und die Ausführung zu steuern. Es »managt« die Zusammenarbeit von Rechenwerk und Arbeitsspeicher. Weiterhin arbeitet es mit der Ein- und Ausgabesteuerung zusammen und koordiniert damit den Datenaustausch mit der Umwelt über Ein- und Ausgabegeräte.

2.2 Der Mikroprozessor Ein Mikroprozessor besteht im Wesentlichen aus einem kleinen Siliziumplättchen, dem Chip, auf dem aus Millionen von kleinsten Bauteilen das Rechenwerk und das Steuerwerk eines Computers aufgebaut sind.

2.2.1 Das Rechenwerk Im Rechenwerk werden die zu verrechnenden Daten verarbeitet. Diese Daten nennt man Operanden. Sie werden in kleinen, besonders schnellen Speichern innerhalb des Rechenwerks, den Registern, abgelegt.

Bild 2.2: Struktur des Rechenwerks

Alle im Rechenwerk durchgeführten Grundrechenarten basieren auf der Addition von Zahlen. Die Subtraktion besteht aus der Addition von negativen Werten, Multiplikation und Division werden durch entsprechende Unterprogramme gelöst.

2.2.2 Das Steuerwerk Das Steuerwerk hat die Aufgabe, das Zusammenspiel von Rechenwerk und Arbeitsspeicher zu koordinieren. Einzelne Programmbefehle werden aus dem Speicher zum Steuerwerk übertragen. Auch das Steuerwerk besitzt einen kleinen, besonders schnellen Speicher, das Befehlsregister. In dieses Register werden die einzelnen Programmbefehle nacheinander eingelesen und festgehalten. Das

Steuerwerk gibt entsprechend dem eingelesenen Befehl Steuersignale an Rechenwerk und Arbeitsspeicher, um Daten aus dem Speicher in das Rechenwerk zu übertragen. Die Daten werden im Rechenwerk verarbeitet und das Ergebnis wieder im Arbeitsspeicher abgelegt.

Bild 2.3: Struktur des Steuerwerks

2.2.3 Der Arbeitsspeicher Funktion des Arbeitsspeichers

Der Arbeitsspeicher dient zum Ablegen der Daten, die im Rechenwerk verarbeitet werden sollen. Weiterhin werden auch die einzelnen Programmbefehle in diesem Speicher festgehalten. Der Arbeitsspeicher lässt sich vergleichen mit einem großen Regal mit vielen Fächern. Jedes dieser Fächer besitzt eine Nummer, wodurch es eindeutig von den anderen Fächern zu unterscheiden ist. In jedem dieser Fächer lassen sich Informationen ablegen.

Bild 2.4: Struktur des Arbeitsspeichers

Speicherzellen

Im Arbeitsspeicher eines Computers werden die Fächer als Speicherzellen bezeichnet. Die Numerierung der Fächer entspricht den so genannten Adressen der einzelnen Speicherzellen. Um den Arbeitsspeicher sinnvoll nutzen zu können, muss er über drei Eingänge verfügen: ● ● ●

einen zum Ein- und Auslesen der Daten, einen für die Steuerung dieses Vorgangs und den dritten Eingang für die Eingabe der Adressen, aus denen die Daten gelesen und wieder abgelegt werden sollen.

2.3 Das Bussystem Bei der Beschreibung von Rechenwerk, Steuerwerk und Arbeitsspeicher konnten Sie sehen, dass verschiedene Informationen zwischen diesen Teilsystemen transportiert werden. Der Transport erfolgt über Leitungen, die alle Systeme der Zentraleinheit miteinander verbinden. Diese Leitungen werden Bus oder Bussystem genannt.

Bei einem Personalcomputer wird zwischen folgenden drei Bussystemen unterschieden: Bussystem Funktion Adressbus Übertragung der Adressen an den Arbeitsspeicher Steuerbus Übertragung der Steuersignale zwischen Steuerwerk und den anderen Teilsystemen Datenbus

Transport der Daten zwischen Rechenwerk, Arbeitsspeicher und der Ein- und Ausgabesteuerung

2.4 Die Ein- und Ausgabesteuerung Die oben beschriebenen Teilsysteme sind sehr wichtig für die Verarbeitung von Daten. Die zu verarbeitenden Daten müssen jedoch zuvor in den Rechner eingegeben werden und die Ergebnisse sollen nach der Verarbeitung dem Benutzer zugänglich sein. Die Ein- und Ausgabe von Daten wird durch die Ein- und Ausgabesteuerung geregelt. Sie ermöglicht die Verbindung zwischen dem Rechner und dem Benutzer. Als mögliche Kontaktstellen wären hier die Tastatur als Eingabe- und der Monitor als Ausgabeeinheit zu nennen.

2.5 Taktgeber Taktgeber

Innerhalb eines Computers werden Informationen in Form von elektrischem Strom über die Busleitungen von Grundeinheit zu Grundeinheit transportiert. Bei diesem Strom handelt es sich nicht um einen gleichförmigen Strom, statt dessen wird der gleichmäßige Stromfluss durch einen Taktgeber in einzelne Stromimpulse aufgeteilt. Der Informationsaustausch zwischen den einzelnen Einheiten wird durch diesen periodischen Takt angetrieben, den Grundtakt des Mikroprozessors. Ohne einen ordnungsgemäßen Takt gäbe es keine ordnungsgemäße Informationsverarbeitung. Grundtakt

Der Grundtakt des Prozessors wird durch einen Quarz bestimmt, der durch elektrischen Strom ins Schwingen gebracht wird (ähnlich wie bei Armbanduhren). Moderne Mikroprozessoren arbeiten mit Taktfrequenzen von mehreren hundert Millionen Hertz (Schwingungen pro Sekunde).

Bild 2.5: Komponenten der Zentraleinheit

2.6 Das Zusammenspiel von Prozessor, Speicher und Bussystem Wie arbeiten nun die einzelnen Grundbausteine wie Steuerwerk, Rechenwerk und Arbeitsspeicher zusammen? Die ersten programmgesteuerten Rechner wie z. B. die ZUSE Z3 wurden durch ein Programm gesteuert, das von außen über Lochstreifen eingegeben wurde. Über diesen Lochstreifen wurde dem Rechner jeder einzelne Arbeitsschritt in Form von Programmbefehlen mitgeteilt. Die einzelnen Befehle wurden im Steuerwerk interpretiert. Für die Ausführung wurden die Daten über den Datenbus ins Rechenwerk transportiert und verarbeitet. Die Ergebnisse wurden im Arbeitsspeicher abgelegt. Programmbefehle

Jeder einzelne Programmbefehl muss angeben, wo die zu verarbeitenden Daten im Arbeitsspeicher zu finden sind, und was mit ihnen gemacht werden soll. Zu diesem Zweck sind die Befehle aufgeteilt in einen Operationsteil und einen Adressteil: Operation (Adresse) Der Operationsteil gibt an, was zu tun ist; der Adressteil enthält die Adresse der Speicherzelle, mit deren Inhalt die Operation durchgeführt werden soll. Beispiel

Um die bisher nur grob beschriebene Vorgehensweise besser kennenzulernen, wollen wir uns die Zusammenarbeit der einzelnen Bausteine am Beispiel der Rechenaufgabe (5 + 3) x 4 näher ansehen. Zunächst sollen die Zahlen 5 und 3 addiert werden. Das Ergebnis wird anschließend mit 4 multipliziert. Die Zahlen 5, 3 und 4 sind vorgegeben und können im Arbeitsspeicher auf den Adressen 4, 5 und 6 abgelegt werden. Um das Ergebnis zu berechnen, sind vier Programmschritte abzuarbeiten:

● ● ● ●

Hole den Inhalt aus Speicheradresse 4 in das Rechenwerk. Addiere dazu den Wert aus Speicheradresse 5. Multipliziere die Summe mit der Zahl aus Speicheradresse 6. Speichere das Ergebnis in Speicheradresse 7 ab.

Diese Programmschritte wollen wir uns nun etwas ausführlicher an Hand der Grafiken anschauen: Einlesen des 1. Operanden

1. Um die erste Zahl aus dem Arbeitsspeicher auszulesen, muss das Steuerwerk ein Steuersignal für »Auslesen« an den Arbeitsspeicher senden. Gleichzeitig muss es über den Adressbus angeben, dass die Zahl aus der Speicherzelle 4 ausgegeben werden soll. Die Zahl wird dann über den Datenbus in das Operandenregister 1 im Rechenwerk transportiert und dort gespeichert (Abb. 2.6).

Bild 2.6: Einlesen des 1. Operanden

Einlesen des 2. Operanden

2. Die Zahl aus Speicherzelle 5 soll in das Operandenregister 2 transportiert werden (wie Schritt 1). Addition

3. Das Steuerwerk gibt nun den Befehl an das Rechenwerk, die beiden Operanden zu addieren. Das Ergebnis wird zuerst im Ergebnisregister 1 abgelegt (Abb. 2.7).

Bild 2.7: Einlesen des 2. Operanden und Addition

Einlesen des 3. Operanden

4. Die Werte in den Operandenregistern werden nun nicht mehr benötigt und können gelöscht werden. Dafür wird der Wert 8 aus dem Ergebnisregister in das Operandenregister 1 übertragen, während der Inhalt der Speicherzelle 6 in das zweite Operandenregister gelesen wird (Abb. 2.8).

Bild 2.8: Einlesen des 3. Operanden

Multiplikation

5. Das Steuerwerk gibt das Steuersignal, dass mit den beiden Werten eine Multiplikation durchgeführt werden soll. Der errechnete Wert wird zunächst in das Ergebnisregister gestellt und von dort in das Operandenregister 1 übertragen (Abb. 2.9).

Bild 2.9: Durchführung der Multiplikation

Ergebnis speichern

6. Zum Abschluss der Rechenoperation wird nun das Ergebnis in den Arbeitsspeicher transportiert und in Zelle 7 abgespeichert (Abb. 2.10).

Bild 2.10: Speichern des Ergebnisses

Die bis hier beschrieben Schritte könnten in die folgenden vier Programmbefehle mit der Syntax Operation (Adresse) übersetzt werden: 1. 2. 3. 4.

HOLE (4) ADD (5) MUL (6) SPEI (7)

Diese Art der Programmierung funktioniert zwar, wird aber spätestens bei einer großen Zahl sich wiederholender Operationen zu umständlich. Sollen zum Beispiel 100 Zahlen addiert werden, die in den Speicherzellen mit den Adressen 101 bis 200 abgelegt sind, muss einmal der HOLE-Befehl und 99 mal der ADD-Befehl geschrieben werden: 1. 2. 3. ... 98. 99. 100.

HOLE (101) ADD (102) ADD (103) ADD (198) ADD (199) ADD (200)

Die von Neumann'sche Struktur

In diesem Beispiel ändert sich aber immer nur die Adresse, an der die zu addierende Zahl abgespeichert ist. Da die Zahlen in hintereinander liegenden Speicherzellen abgelegt sind, erhöht sich lediglich die Adresse um 1, bis sie den Wert 200 erreicht, wo der letzte zu addierende Wert gespeichert ist. Einfacher wäre es, wenn der Additionsbefehl nur einmal geschrieben werden brauchte. Nur die Adresse müsste so lange um 1 erhöht werden, bis der Inhalt der Speicheradresse 200 gelesen wird. John von Neumann Schleifen

John von Neumann schlug Mitte der vierziger Jahre vor, Programme nicht mehr starr auf Lochstreifen zu schreiben, sondern neben den Daten auch die Programmbefehle in den Arbeitsspeicher abzulegen. Dadurch ist es möglich, so genannte Schleifen in ein Programm einzubauen. Dabei wird ein Programmbefehl so lange wiederholt, bis eine bestimmte Bedingung erfüllt wird. Nach der Ausführung eines Befehls springt das Programm zurück, erhöht die Adresse um 1 und wiederholt ihn. Auf unser Beispiel bezogen: Der Additionsbefehl ADD wird so lange wiederholt, bis die Speicheradresse den Wert 200 hat. Nach jeder Ausführung wird die Adresse um 1 erhöht. Solche Programmbefehle werden als bedingte Befehle bezeichnet. Bedingte Befehle

Bedingte Befehle beruhen auf Vergleichsoperationen wie z. B. größer als, kleiner als oder gleich. So könnte die Aussage: »Das Wetter ist schön« in die logische Aussage Wetter = schön übersetzt werden. Schaut man nach draußen, lässt sich bestimmen, ob die Aussage wahr oder falsch ist. Ein an diese Aussage anschließender Befehl kann dadurch an die aktuelle Wetterlage angepasst werden. Bei schönem Wetter gehen wir ins Freibad, bei schlechtem Wetter muss der Abwasch erledigt werden. Das folgende Ablaufdiagramm (Bild 2.11) stellt die Addition der 200 Zahlen grafisch dar. Die Rechtecke enthalten einfache Anweisungen, die Raute stellt einen bedingten Befehl dar. Ist die in der Raute beschriebene Bedingung nicht erfüllt, springt das Programm an die Stelle im Diagramm zurück, die durch den Pfeil gekennzeichnet ist.

Bild 2.11: Ablaufdiagramm

Werden dem Steuerwerk die Programmbefehle von außen durch Lochstreifen vorgegeben, muss sich das Steuerwerk nicht um die Reihenfolge der Befehle kümmern. Dadurch, dass die Befehle nun im Arbeitsspeicher abgelegt sind, hat das Steuerwerk die zusätzliche Aufgabe, den einzelnen Befehlen Adressen zuzuweisen, sie einzulesen und zu verarbeiten. Beim Verarbeiten muss das Steuerwerk bedingte Befehle berücksichtigen, um Programmsprünge durchführen zu können. Programmzähler

Für diesen Zweck wird das Steuerwerk durch einen Programmzähler erweitert, der nach dem Einlesen eines Befehls in das Befehlsregister um 1 erhöht wird, damit der Befehl mit der nächsten Adresse eingelesen werden kann. Die Adressen für die zu verarbeitenden Befehle gibt also der Programmzähler an. Die Adressen für die zu verarbeitenden Daten sind im Adressteil der einzelnen Befehle enthalten und werden im Befehlsregister gelesen. Beim Laden eines Programms in den Arbeitsspeicher wird die Anfangsadresse im Arbeitsspeicher von einem übergeordneten Programm, dem Betriebssystem (siehe Kapitel 8), festgelegt. Für unser erstes Rechenbeispiel wird die Anfangsadresse auf 0 gesetzt.

Bild 2.12: Bearbeiten der Aufgabe (5 + 3) * 4

Bei Aufruf des Programms wird der Inhalt dieser Speicherzelle, also der Befehl HOLE (4), in das Steuerwerk eingelesen und der Programmzähler um 1 erhöht. Nach der Abarbeitung dieses ersten Befehls wird der Inhalt der Speicheradresse 1 (ADD (5)) in das Steuerwerk geholt usw. Bei unserem zweiten Beispiel, dem Aufsummieren von 100 Zahlen, sieht der Ablauf dagegen etwas anders aus. Dem Programm wird wieder vom Betriebssystem eine Startadresse zugewiesen. Beim Start des Programms wird der erste Befehl (HOLE den Inhalt von Speicherzelle 101) in das Befehlsregister eingelesen. Aufgrund dieser Anweisung wird die erste Zahl in das Rechenwerk transportiert. Der Programmzähler erhöht sich um 1 und nach Abarbeitung des ersten Befehls wird der zweite Befehl, Addieren einer Zahl, aufgerufen.

Bild 2.13: Aufsummieren von 100 Zahlen (Schritt 1)

Wurde die Addition der Zahl durchgeführt, fordert das Steuerwerk den nächsten Befehl an. Da aber nun kein Befehl in einer Folgeadresse steht, springt der Programmzähler zurück auf die Adresse des Additionsbefehls, bleibt also bei Adresse 1. Die Addition soll nun zwar wiederholt werden, aber nicht mit demselben Wert. Der nächste zu addierende Wert muss eingelesen werden. Um dies zu ermöglichen, kann der Rechner selber die Adressenangabe im Additionsbefehl verändern: aus ADD (102) wird ADD (103).

Bild 2.14: Aufsummieren von 100 Zahlen (Schritt 2)

indirekte Adressierung

Dieses Prinzip nennt man indirekte Adressierung. Nach jeder Ausführung des Additionsbefehls wird die Adresse für den zu bearbeitenden Operanden um 1 erhöht, so lange, bis alle 100 Zahlen addiert wurden. Zusammenfassung

Zusammenfassend lässt sich die Verarbeitung eines Programmbefehls folgendermaßen beschreiben: ●

● ●

● ●

Die Adresse des Befehls muss vom Steuerwerk entsprechend dem Stand des Programmzählers ausgegeben werden. Der Befehl wird aus dem Arbeitsspeicher in das Steuerwerk geladen. Der Befehl im Steuerwerk enthält die Adresse der zu verarbeitenden Zahl, die an den Arbeitsspeicher weitergegeben wird. Der Operand wird aus dem Speicher ausgelesen und in das Rechenwerk geladen. Das Ergebnis wird nach der Verarbeitung wieder ausgegeben und im Arbeitsspeicher abgelegt.

Ein Glück, dass ein Computer so schnell ist und diese verwirrenden Einzelschritte ausführen kann, ohne dass wir etwas davon merken, außer dass sich auf dem Bildschirm etwas verändert. In Kapitel 4 werden Sie das Herz des Computers kennen lernen, das für all die hier beschriebenen Arbeitsschritte verantwortlich ist.

3 Kodierung von Informationen Bevor ich Ihnen im nächsten Kapitel die einzelnen Bausteine einer Computeranlage vorstelle, möchte ich Ihnen noch kurz zeigen, wie Daten kodiert sein müssen, damit der Computer sie versteht.

3.1 Digitale Informationsverarbeitung Daten werden innerhalb des Computers und seiner Peripherie in Form von Stromimpulsen weitergeleitet. Die kleinste und einfachste Informationseinheit besteht darin, dass entweder Strom fließt oder nicht. Dies ist eine zweiwertige Information. Auch eine Glühbirne kann eine Informationseinheit darstellen. Bei einem geschlossenen Stromkreis fließt Strom, und die Birne brennt; ist der Stromkreis geöffnet, so bleibt sie dunkel. Bit, Dualsystem

Ist die Glühbirne ausgeschaltet, kann dieser Zustand mit einer 0 kodiert werden; ist die Lampe an, schreiben wir eine 1. Auf diese Weise lassen sich mit einer Birne zwei verschiedene Zustände darstellen. Diese zwei Zustände ergeben eine Informationseinheit, die als Bit (Abkürzung für binary digit) bezeichnet wird; sie kann die Funktionszustände 0 und 1 annehmen. Ein Zahlensystem, das nur mit den Werten 0 und 1 arbeitet, ist das Dualsystem.

Bild 3.1: Bit-Darstellung

3.2 Zahlensysteme Sie wissen inzwischen, dass der Computer nur mit zwei verschiedenen Zuständen arbeiten kann, die durch ein Bit dargestellt werden können. Alle Informationen, die wir in einen Computer eingeben, müssen in seine eigene Sprache, eben in Bits, übersetzt werden. Dies wird von speziellen Programmen erledigt, die sich des Dual- oder Sedezimalsystems und des ASCII-Codes bedienen. Obwohl Sie als normaler Computer-Anwender nur selten mit diesen Begriffen in Kontakt kommen, möchte ich sie Ihnen kurz vorstellen, damit Sie die Arbeitsweise des Computers besser verstehen können.

3.2.1 Das Dezimalsystem Dezimalsystem

Schauen wir uns zunächst das Dezimalsystem an. Wenn wir die Zahl »634« sehen, lesen wir sofort »sechshundertvierunddreißig«. Wir unterstellen dabei automatisch, dass sich die Ziffern auf das Dezimalsystem beziehen. In diesem Zehnersystem wird mit 10 verschiedenen Zuständen gearbeitet, die durch die Zahlen 0 bis 9 dargestellt werden. Diese Zahlen werden mit verschiedenen Potenzen zur Basis 10 multipliziert. Wir lesen die Ziffern also nach folgendem Schema:

Bild 3.2: Das Dezimalsystem

3.2.2 Das Dualsystem

Dualsystem

Im Dualsystem gibt es nur die Zahlen 0 und 1, die mit den verschiedenen Potenzen zur Zahlenbasis 2 multipliziert werden. Betrachten wir dazu folgendes Schema zur Berechnung von Dualzahlen:

Bild 3.3: Das Dualsystem

Von der Dezimal- zur Dualzahl

Möchten Sie eine Dezimalzahl in eine Dualzahl umwandeln, muss die Dezimalzahl fortgesetzt durch 2 dividiert werden, wobei die Reste der Reihe von rechts nach links aufgeschrieben werden:

Bild 3.4: Umwandlungsverfahren: Von Dezimal nach Dual

Zusammenfassen von Bits

Nimmt man nun drei Informationseinheiten, also drei Bit, lassen sich 2x2x2 oder 23 verschiedene Dezimalzahlen darstellen:

Bild 3.5: Darstellung von Zahlen mit 3 Bit

Byte

Die Anzahl der kodierbaren Dezimalzahlen hängt von der Anzahl der zur Verfügung stehenden Bits ab. Mit jedem zusätzlich angefügten Bit wird die Anzahl der möglichen Bitkombinationen verdoppelt. Mit n Bit können 2n verschiedene Zahlen kodiert werden. In der Datenverarbeitung hat man sich darauf geeinigt, 8 Bit zu einem Byte zusammenzufassen. Mit einem Byte ergeben sich somit 256 Kombinationsmöglichkeiten.

3.2.3 Das Hexadezimalsystem Ein Computer versteht Programme nur, wenn sie mit den Werten 0 und 1 kodiert sind. Für einen Programmierer ist es jedoch sehr schwierig, Programme in Dualzahlen zu schreiben bzw. zu lesen. Dies kann allerdings erleichtert werden. Halbbyte

Ein Byte mit 8 Bit lässt sich in 2 Halbbyte mit jeweils 4 Bit aufteilen. 1 Byte (= 8 Bit) 1 Halbbyte (= 4 Bit) Tabelle 3.1: Aufteilung eines Byte in zwei Halbbyte

1 Halbbyte (= 4 Bit)

Sedezimalsystem

Mit 4 Bit sind 16 verschiedene Bitkombinationen möglich. Es gibt nun ein Zahlensystem, das mit 16 verschiedenen Zuständen arbeitet, das Sedezimal- oder Hexadezimalsystem. In diesem Zahlensystem sind die Ziffern 0 bis 9 um die Buchstaben A bis F erweitert.

Bild 3.6: Das Hexadezimalsystem

Von der Dezimal- zur Hexadezimalzahl

Möchten Sie eine Dezimalzahl in eine Hexadezimalzahl umwandeln, muss die Dezimalzahl fortgesetzt durch 16 dividiert werden, wobei die Reste der Reihe nach von rechts nach links aufgeschrieben werden:

Bild 3.7: Umwandlungsverfahren: von Dezimal nach Hexadezimal

3.2.4 Rechnen mit den verschiedenen Zahlensystemen Vom Dezimalsystem sind wir es gewohnt, mit den Zahlen zu rechnen. Um zwei oder mehrere Zahlen zu addieren, schreibt man sie untereinander, und unter einem Summenstrich wird das Ergebnis notiert. Ist z. B. die Summe der Einer größer als neun, wird nur der Einer des Ergebnisses unter den Strich geschrieben, während der Zehner, der so genannte Übertrag, »im Kopf behalten wird«. Er wird bei der Summierung der Zehner mitberücksichtigt. Im Dual- wie im Sedezimalsystem wird nach dem gleichen Prinzip gerechnet. Im Dualsystem ergibt sich ein Übertrag aber bereits bei der Summierung von zwei Einsen. Im Sedezimalsystem muss der Übertrag berücksichtigt werden, wenn die Summe den Wert 15, der durch den Buchstaben 'F' dargestellt wird, überschreitet.

Bild 3.8: Addition im Dezimal-, Dual- und Sedezimalsystem

3.3 Kodierungsstandards ASCII-Code

Ein Byte entspricht 8 Bit und ergibt somit 256 unterschiedliche Bitkombinationen. Diesen Kombinationen können nun Bedeutungen zugewiesen werden. Jedes Zeichen unserer Schrift (Buchstaben, Satzzeichen usw.) lässt sich einer bestimmten Bitkombination zuordnen. Die Zuordnung ist im so genannten ASCII-Code (American Standard Code of Information Interchange) einheitlich geregelt. Dieser Code bestand ursprünglich aus 7 Bits und einem Prüfbit, das zur Kontrolle diente, ob ein Zeichen auch richtig übermittelt wurde. Mit 7 Bits konnten 128 Zeichen kodiert werden. Als die Speichertechnologie der Computer immer sicherer wurde, konnte man auf das Prüfbit verzichten und erweiterte den ASCII-Code auf 8 Bit bzw. 256 Zeichen. Die folgende Abbildung zeigt eine Auswahl von kodierten Zeichen:

Bild 3.9: Kodierungsbeispiele

3.4 Kodierung von logischen Informationen Logische Aussagen

Ein Computer kann nicht nur rechnen, er muss auch logische Entscheidungen treffen können. Logische Entscheidungen beruhen auf logischen Aussagen. Der Satz: »Wenn am Sonntag die Sonne scheint, gehe ich ins Freibad«, ist eine solche logische Aussage. Derartige logische Aussagen kann man formalisiert folgendermaßen darstellen: (A) Es ist Sonntag und (B) es ist schönes Wetter dann (C) gehe ich ins Freibad. UND-Funktion

Da die beiden Aussagen A und B durch UND miteinander verbunden sind, müssen beide Aussagen zutreffen, damit ich ins Freibad gehe. Statt »zutreffen« sagt man auch, die Aussagen sind wahr (oder falsch). In der Mathematik werden diese beiden Zustände durch 1 für wahr bzw. 0 für falsch kodiert. Man kann logische Aussagen auch in Wahrheitstafeln darstellen. Dabei stellen die Buchstaben A und B jeweils Aussagen dar, die wahr oder falsch sein können. Die Verknüpfung von zwei Aussagen mit der UND-

Funktion wird durch das /\ -Zeichen dargestellt.

Bild 3.10: UND-Funktion

Die UND-Funktion ist nicht die einzige Möglichkeit, Aussagen zu verbinden. Angenommen, ich habe Urlaub und kann jeden Tag ins Freibad gehen, dann wäre folgende Aussage möglich: (A) Es ist Sonntag oder (B) es ist schönes Wetter dann (C) gehe ich ins Freibad. ODER-Funktion

In diesem Beispiel sind die beiden Bedingungen durch ODER verbunden, d. h. es muss nur eine Bedingung erfüllt sein, damit ich ins Freibad gehe. In der Wahrheitstafel wird das ODER durch das v-Zeichen symbolisiert.

Bild 3.11: ODER-Funktion

NICHT-Funktion

In der Elektronik arbeitet man mit Schaltungen, die solche logischen Entscheidungen treffen können: die Gatter. Neben dem UND-Gatter und dem ODER-Gatter gibt es solche, die die NICHT-Funktion umsetzen können. Bei diesen Schaltungen wird ein Eingangssignal in das Gegenteil verkehrt, aus 1 wird 0 und aus 0 wird 1.

Bild 3.12: NICHT-Funktion

Gatter

Logische Gatter sind Grundbausteine, aus denen sich weitere wichtige Bausteine zusammensetzen lassen, die es z. B. ermöglichen, mit den Werten 1 und 0 zu rechnen oder die logischen Zustände 1 und 0 zu speichern. Diese Gatter sind letztendlich die Grundlage für die Entwicklung von hochintegrierten Bausteinen wie moderne Prozessoren und Speicherchips.

4 Prozessoren und Bussysteme Der Prozessor ist eines der wichtigsten Bausteine eines Computers. Er repräsentiert die »Intelligenz« eines Rechners. In diesem Kapitel wollen wir uns die Prozessoren näher anschauen, die in Personalcomputern eingesetzt werden. Was nutzt aber der beste Prozessor, wenn er nicht mit seinen Datenspeichern und der Außenwelt kommunizieren kann. Diese Aufgabe übernimmt, wie Sie bereits wissen, das Bussystem. Auch dieses System ist bei der Auswahl eines Computers ein wichtiges Unterscheidungskriterium.

4.1 Mikroprozessoren von Personalcomputern Intel 8086

1979 wurde von der Firma Intel der erste 16-Bit-Mikroprozessor hergestellt. Er bekam die Bezeichnung 8086. 16 Bit heißt, dass die wichtigsten Leitungen des Bussystems so ausgelegt sind, dass 16 Bit bzw. 16 Stromimpulse gleichzeitig übertragen werden können. Bis dahin bestanden die Busleitungen aus maximal 8 parallel nebeneinander liegenden Leitungen. Der Adressbus verfügte dagegen über 20 Leitungen. Damit konnten im Speicher 220 gleich 1.048.576 Speicherzellen zu je einem Byte (1 Mega-Byte) angesprochen werden. Intel 8088

Gleichzeitig wurde eine einfachere Version dieses Chips auf den Markt gebracht, der Intel 8088. Auch dieser Mikroprozessor verfügte intern über ein 16-Bit-Bussystem. Die Kommunikation nach außen über den Datenbus führte dagegen über 8 Bit breite Leiterbahnen. Dadurch war die Arbeitsgeschwindigkeit dieses Prozessors etwas geringer. Darüber hinaus gab es aber keine wesentlichen Unterschiede zwischen diesen zwei Mikroprozessoren. Der 8088-Prozessor wurde seit 1981 in Personalcomputern verwendet, die anfangs fast ausschließlich von der Firma IBM hergestellt und angeboten wurden. Daher stellten diese Geräte einen Quasi-Standard dar, an dem sich spätere Nachbauten anderer Firmen orientierten. Diese Nachbauten waren dann IBM-kompatibel. Taktfrequenz

Ein weiterer Aspekt, der wesentlichen Einfluss auf die Verarbeitungsgeschwindigkeit hat, ist die Taktfrequenz des Mikroprozessors. Bei den ersten Original-PCs wurde der 8088Prozessor mit einer Frequenz von 4,7 MHz (4,7 Millionen Hertz) getaktet. Dieser Wert wurde im Laufe der Jahre ständig verbessert. Schon nach kurzer Zeit wurden Nachbauten angeboten, bei denen die Taktfrequenz von 4,7 auf ungefähr 8 MHz umgeschaltet werden kann. Eine Erhöhung der Taktrate führt auch zu einer Verbesserung der Rechenleistung, in diesem Fall verbesserte sich die Arbeitsgeschwindigkeit bei Anwenderprogrammen um 10 bis 25 Prozent. Die letzte Generation von Rechnern mit 8088-Prozessor arbeitete zum Teil mit Taktfrequenzen von bis zu etwa 10 MHz.

4.1.1 Moderne Mikroprozessoren

Inzwischen hat sich viel geändert. Moderne Prozessoren sind ein Vielfaches leistungsfähiger geworden. Trotzdem sind die grundlegenden Unterscheidungsmerkmale gleich geblieben: Unterscheidungskriterien



die Breite des Bussystems, noch jeweils unterschieden nach Adress- und Datenbus



die Taktrate, also die Frequenz, mit welcher der Prozessor getaktet wird

Co-Prozessor

Die ersten Mikroprozessoren der Firma Intel waren optimiert auf die Verarbeitung ganzzahliger Werte, da die meisten Anwendungen wie z. B. Textverarbeitung oder Tabellenkalkulation überwiegend von dieser Verarbeitungsform Gebrauch machen. Weniger häufiger werden dagegen so genannte Gleitkommaoperationen benötigt, also das Rechnen mit Brüchen. Um einerseits Kosten zu sparen und andererseits auch das zweite Anwendungsfeld abdecken zu können, lieferte die Firma Intel zu ihren Prozessoren auch so genannte arithmetische Co-Prozessoren, die auf Gleitkommaoperationen optimiert waren. Ein solcher Prozessor konnte bei Bedarf zusätzlich zum normalen Prozessor auch nachträglich einfach in die Zentraleinheit eines PCs eingesetzt werden. Die CoProzessoren wurden im Namen dadurch gekennzeichnet, dass die letzte Ziffer durch eine »7« ersetzt wurde, also beispielsweise »8087«. Seit den ersten IBM-PCs hat sich eine Menge getan, die Prozessoren wurden ständig weiterentwickelt, was sich in den wichtigsten Kenndaten wie auch im Namen niedergeschlagen hat: 80286/87, 80386/87 und 80486. Beim letztgenannten Prozessortyp wird Ihnen sicherlich auffallen, dass der Schrägstrich mit dem Verweis auf den CoProzessor fehlt: Der 80486 war der erste Intel-Prozessor mit integriertem Co-Prozessor, d. h. Intel war es gelungen, einen Chip herzustellen, der mit den Funktionen von bisher zwei Chips ausgerüstet war. Inzwischen ist auf allen Prozessoren eine Einheit integriert, die auf die Verarbeitung von Gleitkommawerten spezialisiert ist. Cache-Speicher

Doch das war nicht das einzige neue Merkmal am 80486. Prozessoren sind inzwischen sehr schnell geworden. Wie Sie im letzten Kapitel erfahren haben, hängt ihre Verarbeitungsleistung davon ab, dass ihnen die zu verarbeitenden Daten genügend schnell aus dem Arbeitsspeicher zur Verfügung gestellt werden, und genau da hapert es. Die Kapazität von Speicherbausteinen ist zwar ebenfalls immens gestiegen, allerdings hinkt die Zugriffsgeschwindigkeit noch immer hinter der Verarbeitungsleistung von Prozessoren her. Das heißt, dass wenn der Prozessor ein bestimmtes Datum benötigt, der Arbeitsspeicher unter Umständen nicht in der Lage ist, das benötigte Datum ausreichend schnell zu finden. Der Prozessor kann in dieser Zeit eine Pause machen, das so genannte Waitstate. Daher hat man sich zwei Abhilfen einfallen lassen: L1-Cache

1. Direkt in den Prozessor wird ein kleiner, aber äußerst schneller Zwischenspeicher eingebaut. In diesem so genannten Cache-Speicher werden die Programmbefehle

und Daten abgelegt, die der Prozessor mit größter Wahrscheinlichkeit bei seinen nächsten Rechenoperationen benötigt. L2-Cache

2. Es gibt zwar inzwischen deutlich schnellere Speicherbausteine, allerdings sind sie sehr teuer; den gesamten Arbeitsspeicher aus diesen Bausteinen aufzubauen, würde den Preis für einen PC mehr als verdoppeln. Statt dessen ist man hingegangen und hat neben dem Zwischenspeicher direkt im Prozessor einen zweiten Zwischenspeicher aufgebaut, der als Bindeglied zwischen Prozessor und Arbeitsspeicher fungiert. Durch diesen zweiten Cache-Speicher (Second-Level- oder kurz L2-Cache) kann die Verarbeitungsleistung des Prozessors weiter unterstützt werden und sichergestellt werden, dass er nun nicht mehr dazu kommt, unnütze Pausen einzulegen. Der L2-Cache wird allerdings inzwischen in verschiedenen Ausführungen realisiert: ❍





Für den Cache werden separate Speicherbausteine auf der Hauptplatine installiert. Der Cache ist gemeinsam mit dem Prozessor auf dem gleichen Chip realisiert. Das ermöglicht den Datenaustausch zwischen diesen beiden Instanzen mit Prozessortakt. Der Cache ist auf einem separaten Chip realisiert, der zusammen mit dem Prozessor auf eine Platine gelötet und in einem gemeinsamen Gehäuse untergebracht ist. Dabei arbeitet der Cache mit einem langsameren Takt als der Prozessor.

Damit hätten wir nun die wichtigsten Unterscheidungskriterien der verschiedenen Prozessor-Generationen aufgeführt. Es gibt natürlich noch weitere Merkmale, z. B. wie Befehle innerhalb des Prozessors ausgeführt werden, diese Funktionen wollen wir aber lieber den Fachleuten überlassen. Für die Unterscheidung eines Prozessors beim Kauf eines Computers genügen dagegen folgende Informationen: ●

die Breite des Bussystems



die Taktrate



Größe des internen Cache-Speichers (L1-Cache)



Größe des L2-Cache



Platzierung und Taktrate des L2-Caches

Hinzu kommen für Spezialisten noch einige weitere technische Feinheiten wie z. B. das Pipelining, das die Verarbeitung von mehreren Befehlen gleichzeitig ermöglicht, sowie zusätzliche Befehlsätze, die es dem Prozessor ermöglichen, insbesondere Multimediadaten beschleunigt zu verarbeiten.

4.1.2 Die Intel-Pentium-Familie Pentium

Schon seit mehr als fünf Jahren stellt Intel Prozessoren mit dem Namen Pentium her. Mit der Benennung des Pentiums hat die Firma Intel die Tradition aufgegeben, ihre Prozessoren durch eine Zahl zu bezeichnen. Logischerweise hätte der Pentium die Nummer 80586 als Name tragen müssen. Allerdings lassen sich solche Bezeichnungen nicht rechtlich schützen, so dass in der Vergangenheit auch Konkurrenten von Intel ihre Prozessoren mit 80386 oder 80486 bezeichneten. Für den Konsumenten war dadurch natürlich die Verwirrung groß, konnte man doch erst auf den zweiten Blick erkennen, ob der 80486-Prozessor innerhalb eines PCs von Intel, AMD, CYRIX oder sonst wem war. Intel reagierte darauf mit dem Slogan »Intel Inside« und mit der Umbennung des 80586 in Pentium, wodurch die Konkurrenzfirmen bei der Benennung ihrer Prozessoren nun auf sich selbst gestellt sind. Pentium III

Dem Titel Pentium hat Intel inzwischen bis zur vierten Generation die Treue gehalten. Der Pentium 4, der Ende 2000 auf den Markt kam, wird allerdings nur ganz allmählich seinen Vorgänger, den Pentium III, ablösen. Beide Prozessoren vermögen die Arbeit mit Standardprogrammen wie Textverarbeitung, Tabellenkalkulation usw. maximal zu beschleunigen. Erst bei speziellen Programmen, die den erweiterten Befehlssatz des Pentium 4 ausnutzen können, macht sich die neuere Technik bezahlt. Daher wird der Pentium III noch relativ lange neben seinem Nachfolger weiterentwickelt und als leistungsfähiger Prozessor weiter verkauft werden. Der erste Prozessor dieser Baureihe wurde mit 450 MHz getaktet. Inzwischen wurde die Taktfrequenz auf weit über ein Gigahertz erhöht. Der Speicherbus kann mit 100 beziehungsweise 133 MHz getaktet sein. Auf den 32 Kbyte großen L1-Cache kann der Pentium III mit Prozessortakt zugreifen, während auf den bis zu 512 Kbyte großen L2Cache (meist aber nur 256 Kbyte) nur mit halbem Prozessortakt zugegriffen werden kann. Sockel

Seit dem Pentium II hat Intel das bisherige flächige Design seiner Prozessoren aufgegeben. Nun ähneln sie eher einem Kästchen, das in den Ausmaßen einer Zigarettenschachtel ähnlich sieht. Somit bleibt mehr Platz, um den Prozessor gemeinsam mit dem Cache in einer Einheit zu verpacken. Bedauerlicherweise benötigt man für eine solche CPU einen völlig anders gearteten Prozessorsockel, in den der Prozessor auf der Hauptplatine des Computers eingesteckt wird. Statt des quadratischen Sockels 7 für den Pentium dient nun der längliche Slot 1 der Aufnahme des Prozessors.

Bild 4.1: Der Intel-Pentium-III-Prozessor sieht dem Pentium II zum Verwechseln ähnlich (Foto: Intel)

Doch auch die Tage dieses Sockels sind bereits gezählt. Inzwischen haben sich die Fertigungstechniken soweit verbessert, dass auch die Einheiten von Sockel und Cachespeicher wieder auf engstem Raum zusammengefasst werden können, und damit auch wieder ein kleinerer Sockel dem Prozessor Platz bieten kann.

Bild 4.2: Die neuen Intel-Prozessoren finden wieder auf einem kleinen Sockel Platz (Foto: Intel)

MMX und ISSE

Die vom ersten Pentium-Prozessor bekannte SIMD-Technik (Single Instruction Multiple Data) dient dazu, die Verarbeitungsgeschwindigkeit von Schleifen zu erhöhen. Sie versetzt den Prozessor in die Lage, die gleiche Operation mit mehreren Daten parallel durchzuführen. Diese Form der Verarbeitung tritt besonders häufig bei Grafik- und Multimedia-Anwendungen auf: Statt beispielsweise bei einem Bild eine Farbänderung Punkt für Punkt durchzuführen, ermöglicht SIMD, mehrere Punkte mit einer Anweisung zu bearbeiten. Die Erweiterung des Prozessorbefehlssatzes wurde auch als MMX (Multimedia Extension) bezeichnet. Für den Pentium III wurde dieser Befehlssatz um weitere Befehle zur Internet Streaming SIMD Extension (ISSE) erweitert. Pentium 4

Für den Pentium 4 wurden die Funktionen des MMX-Befehlssatzes um weitere 144 Befehle erweitert. Dank der Streaming SIMD Extensions (SSE2) soll der Prozessor noch schneller mit Anwendungen aus den Bereichen Grafik, Audio oder Video arbeiten können. Aber auch die weiteren technischen Daten sollen zur Leistungssteigerung des Prozessors beitragen. So wurden bereits die ersten Modelle des Prozessors mit 1,4 und 1,5 MHz getaktet, bis 2001 werden die Prozessoren mit mehr als zwei Gigahertz getaktet sein. Die Taktfrequenz des Systembusses wurde auf 400 Gigahertz erhöht. Daneben wurden für den Pentium 4 einige bereits von den Vorgängern bekannte Techniken weiter verfeinert: ●





Die Pipeline-Architektur wurde auf 20 Stufen erweitert. Diese als »Hyper-PipelineTechnologie« bezeichnete Methode beruht darauf, dass ein Befehl in noch mehr und noch kleineren Abschnitten verarbeitet wird. Diese Technik bringt den PentiumProzessor wieder ein ganzes Stück weiter in Richtung RISC-Technik (siehe w.u.). Dazu verfügt der Prozessor über mehrere Pipelines, mit denen mehrere Instruktionen parallel verarbeitet werden können. Normale Computerprogramme sehen eigentlich vor, dass Befehle nacheinander ausgeführt werden. Wenn der Prozessor aber nun mehrere Befehle gleichzeitig verarbeiten kann, muss er selber die Ergebnisse in die richtige Reihenfolge bringen. Dies ermöglichen ihm Dynamic Execution und Branch Prediction, Techniken, die den Pentium 4 bei der parallelen Verarbeitung unterstützen. Dynamic Execution

beschreibt die parallele Verarbeitung von Befehlen. Mit Hilfe der Branch Prediction ist der Prozessor in der Lage, Instruktionen auf Verdacht auszuführen. Dazu untersucht er, welche Instruktionen von zuvor berechneten Ergebnissen und Daten abhängig sind und stellt eine passende Reihenfolge für die Abarbeitung zusammen. Ggf. werden Befehle auf Verdacht ausgeführt, um den Prozessor vor unnötigen Ruhepausen zu bewahren.

Bild 4.3: Der Pentium 4 (Foto: Intel)

Der preisgünstige Intel-Prozessor: Celeron Billig-Pentium

Der Celeron stammt noch aus den Tagen des Pentium II. Für die ersten Ausführungen des Celeron wurden einfach Pentium-II-Prozessoren ohne Level 2-Cache ausgeliefert. Das hat sich allerdings so schlecht auf die Leistung des Prozessors ausgewirkt, dass er inzwischen mit 128 Kbyte L2-Cache hergestellt wird, also der Hälfte an Speicher, wie er standardmäßig für Pentium-III-Prozessoren verwendet wird. Der Verzicht auf diesen Speicher schlägt sich deutlich im Preis nieder, weniger als die Hälfte des Preises der schnellen CPUs müssen für den Celeron bezahlt werden. Damit ist die Zielsetzung dieses Prozessors, nämlich das Billigsegment nicht an die Konkurrenz verlieren zu müssen, eindeutig. Dem trägt auch die schrittweise Abkehr vom relativ teuren Slot-1-Steckplatz Rechnung. Die neuen Celerons werden inzwischen in einer Version ausgeliefert, die in einen etwas erweiterten Sockel 7 gesteckt werden können, den 370er Sockel.

Bild 4.4: Der Intel-Celeron passt auch in den neuen 370er Sockel (Foto: Intel)

Ein weiteres Manko dieser Prozessoren ist der im Vergleich zum Pentium III um ein Drittel bzw. sogar mehr als die Hälfte langsamere Bustakt. Auch wenn der Prozessortakt des Celerons durchaus noch gerade mit den Pentium III-CPUs mithalten kann, schlagen sich der niedrigere Bustakt und der kleinere Cache-Speicher deutlich auf die Geschwindigkeit nieder. Prozessoren für Netzwerkrechner Xeon

An Prozessoren für Netzwerkrechner, so genannte Server, werden besonders hoher Anforderungen an die Verarbeitungsgeschwindigkeit und Zuverlässigkeit gestellt. Auf Basis der Pentium-Prozessoren bietet Intel die Xeon-Prozessoren an, die über einen besonders großen L2-Cache verfügen. Darüber hinaus sind diese CPUs für Multiprozessorsysteme vorbereitet, in denen 4, 8, 16, 32 oder mehr Prozessoren parallel arbeiten können.

Bild 4.5: Der Pentium III Xeon

Die Ablösung der Xeon-Prozessoren steht aber auch schon vor der Tür in Gestalt des Itaniums. Hinter diesem neuen Namen versteckt sich der erste 64-Bit-Prozessor von Intel, der damit auch einen Generationswechsel einleiten wird. Aber bis dahin ist noch ein weiter Weg. Zunächst werden nur Hochleistungs-Server von dieser neuen Prozessorgeneration profitieren, insbesondere Datenbanksysteme, die mit Hilfe dieses Prozessors deutlich größere Speichersysteme adressieren können. Der neue bis zu 4 Mbyte große Level-3Cache-Speicher wird noch ein übriges tun, die Leistung des Prozessors zu erhöhen. Mit unseren bekannten 32-Bit-Programmen hat der Itanium dagegen einige Probleme: Zwar gibt es eine eigene Einheit, die für die Verarbeitung von Programmen der älteren Generation zuständig ist, allerdings werden sie zunächst etwas gebremst erscheinen. Erst

neue direkt für diesen Prozessor entwickelte Betriebssysteme und Anwendungen werden wirkliche Vorteile bringen.

4.1.3 Die Athlon-Familie von AMD Athlon

Einer der schärfsten Konkurrenten von Intel ist die Firma AMD. Der Athlon-Prozessor ist das Spitzenprodukt von AMD und liefert sich ständig ein Kopf-an-Kopf-Rennen mit den Intel-Prozessoren um den schnellsten und am höchsten getakteten Prozessor. Und bei diesen Rennen lernen die Intel-Produkte meist eine neue Position kennen, nämlich die hintere. Schon die ersten Athlon-Prozessoren waren zum Teil deutlich leistungsfähiger als die gleich getakteten Pentium III-CPUs. Hierfür mögen folgende Eigenschaften des Athlons verantwortlich sein: ●





Der Athlon verfügt über einen L1-Cache mit 128 Kbyte im Vergleich zu 32 Kbyte beim Pentium III. Der L2-Cache ist mit 256 Kbyte genauso groß wie der Cache bei den Standard-Pentiums Der Systembus ist mit 200 bzw 266 MHz im Vergleich zu 100 bzw. 133 MHz getaktet. Damit lassen sich doppelt so viele Daten zwischen Prozessor und Speicher pro Sekunde transportieren wie beim Pentium III. Der Prozessor verfügt über drei Fließkomma-Pipelines. Zusammen mit dem erweiterten Multimedia-Befehlssatz 3DNow empfiehlt er sich für alle Anwendungen aus dem Bereich Multimedia.

Bild 4.6: Der Athlon-Prozessor sieht dem Pentium III äußerlich recht ähnlich

Duron

Auch AMD bietet seit 1999 in Folge des Celeron eine abgespeckte Version des Athlon. Datei wurde der L2-Cache auf 64 Kbyte reduziert. Gemeinsam mit dem großen L1-Cache stehen diesem Prozessor somit noch immer 192 Kbyte Cache zu Verfügung, entsprechend sind seine Leistungen, die sich vor gleich getakteten Pentium III-Prozessoren nicht zu verstecken brauchen, und das zum halben Preis. Mit dem Athlon und dem abgespeckten Duron ist AMD ein großer Wurf gelungen, daher dürfte dieser Prozessor, zumal er in der neuen Chip-Fabrik von AMD in Dresden gefertigt wird, auch in Deutschland weiterhin zahlreiche Freunde für sich gewinnen können. Auch wenn von AMD z. Z. kein Generationswechsel angekündigt ist, soll der Athlon unter diesem Namen weiterentwickelt werden. Nur intern werden die Weiterentwicklungen des Athlon-Prozessors mit Nummern gekennzeichnet. Nicht umsonst tragen die aktuellsten Verbesserungen die Nummer 4, so dass auch der Pentium 4 sich mit einem Pendant von AMD messen muss.

Bild 4.7: Duron-Prozessor: Der Wolf im Schafspelz

Mit dem Vorschlaghammer in die 64-Bit-Welt Sledgehammer

Aber auch das Rennen in der 64-Bit-Welt will AMD nicht allein Intel überlassen. Unter dem Codenamen Sledgehammer (dieser Name wird nur in der Entwicklungsphase verwendet, solange der endgültige Name noch nicht bekannt ist) entwickelt auch AMD einen 64-Bit-

Prozessor. Anders als beim Itanium soll Sledgehammer (zu deutsch Vorschlaghammer) zu 32-Bit-Software kompatibel sein. Dazu wird der 32-Bit-Befehlssatz einfach auf 64 Bit verdoppelt und zwei Einheiten können parallel 32-Bit-Befehle verarbeiten, was sich entsprechend auf die Verarbeitungsgeschwindigkeit auswirken kann.

4.1.4 Ein neuer Stern am Himmel: Crusoe Am 19. Januar 2000 wurden die ersten Modelle einer neuen Prozessorfamilie von der Firma Transmeta unter dem Namen Crusoe vorgestellt. Diese Firma hatte sich zum Ziel gesetzt, leistungsfähige und doch stromsparende Prozessoren zu entwickeln, die zu der Intel-x86-Architektur kompatibel sind. Hierzu wurden gänzlich neue Wege eingeschlagen: Crusoe-Prozessoren beruhen auf der VLIW-Architektur (VLIW steht für Very Long Instruction Word) mit 128 Bit Breite. Diese Architektur ermöglicht es, bis zu vier 32-BitOperationen parallel in einem Prozessortakt auszuführen. Dies ließe auf große Leistungsfähgikeit schließen, wenn es nicht eine weitere Neuheit gäbe. Beim Crusoe verzichtet man auf zahlreiche Schaltungen, die üblicherweise für die Verarbeitung von x86Befehlen zuständig sind. Statt dessen werden diese Schaltungen durch Software nachgebildet. Das führt dazu, dass mit einem Viertel der üblichen Transistoren plus der so genannten Code-Morphing-Software (CMS) ein x86-Prozessor nachgebildet werden kann. Das geht zwar zu Lasten der Leistungsfähigkeit, spart aber viel Strom. Hinzu kommt der Vorteil, dass Anpassungen an neue Befehlssätze, wie sie von Intel und AMD z. B. regelmäßig unter den Namen MMX, ISSE, 3Dnow usw. eingeführt werden, einfach durch das Aktualisieren der Code-Morphing-Software erreicht werden können, während Intel und AMD dazu gänzliche neue Prozessoren auf den Markt bringen müssen. Da die Crusoe-Prozessoren in erster Linie für tragbare Rechner entwickelt worden sind, stellte die Stromersparnis ein wichtiges Entwicklungsziel dar. Erreicht wurde dieses Ziel nicht nur durch die Verringerung der Prozessoren, sondern auch mit der so genannten Long-Run-Technologie. Diese Technik nutzt die Erkenntnis, dass ein hoch getakteter Prozessor deutlich mehr Strom verbraucht als eine niedrig getaktete CPU. Bei vielen Anwendungen ist ein Prozessor aber deutlich unterfordert wie z. B. bei der Eingabe von Text in eine Textverarbeitung oder beim Eingeben von Zahlen in eine Tabellenkalkulation. Die Code-Morphing-Software des Crusoe, die ja für die Verarbeitung der Programmbefehle zuständig ist, bekommt aus erster Hand genau mit, wie stark der Prozessor ausgelastet ist. Stellt sie fest, dass nur wenig zu tun ist, reduziert sie die Taktfrequenz bis auf ein Bruchteil des maximalen Taktes nach dem Motto: so viel wie nötig, so wenig wie möglich. Die niedrigere Taktfrequenz verbraucht nicht nur weniger Strom, darüber hinaus kann die Stromspannung ebenfalls reduziert werden, z. B. von 1.5 auf 1 Volt, was zu einer weiteren deutlichen Verringerung der Leistungsaufnahme führt. Erst wenn der Text formatiert oder die Tabellenkalkulation die eingegebenen Werte verrechnen muss, wird die Taktfrequenz automatisch wieder erhöht.

Bild 4.8: Der Crusoe-Prozessor von Transmeta

Noch ist die Leistungsfähigkeit dieser Prozessoren begrenzt und bleibt noch deutlich unter gleichgetakteten Celerons zurück, andererseits bietet die Archtiktur so viel Spielraum, dass man sich noch auf so manche Überraschung freuen darf.

4.1.5 Übersicht Zum Abschluss noch eine kurze Übersicht, um Ihnen den Überblick auf die aktuelle Prozessortechnik zu erleichtern. Einige der aufgeführten Daten, insbesondere die Taktfrequenz des Prozessors stellen nur eine Momentaufnahme dar. Bereits wenige Wochen nach Erscheinen dieses Buches sind diese Zahlen schon überholt. So werden wohl noch vor 2002 die ersten Prozessoren mit 2 GHz und mehr getaktet sein. Daher können die hier wiedergegebenen Daten nur einen ungefähren Vergleichswert darstellen. PC-Prozessoren im Vergleich

Hersteller Prozessor

Intel Celeron

Taktfrequenz

Intel Pentium III

Intel AMD Pentium 4 Athlon

AMD Duron

800 MHz 1,13 Ghz

1,7 GHz

1,4 GHz

950 MHz 666 Mhz

Speicherbustakt

66 MHz

400 MHz

200/266 MHz

200 MHz Direkter Zugriff

L1-Cache

32 Kbyte 32 Kbyte

32 Kbte

128 Kbyte

128 Kbyte

L2-Cache

128 Kbyte 256/512 Kbyte

256/512 Kbyte

512 Kbyte

64 Kbyte 256 Kbyte

100/133 MHz

Transmeta Crusoe

128 Kbyte

3D-Befehlssatz

MMX

ISSE

SSE2

3DNow

3DNow

Nein

Generell lässt sich bei der Anschaffung eines Computers sehr viel Geld sparen, wenn man sich nicht für das derzeit leistungsfähigste Modell entscheidet. So kostet bei Intel das Spitzenmodell einer Reihe in der Regel deutlich über 1.000,- DM, während der Prozessor mit der nächstniedrigeren Taktfrequenz bereits bis zu ca. 1/3 billiger sein kann, wobei Sie in der Regel nur einen geringen Leistungsverlust in Kauf nehmen müssen. Bei der Entscheidung zwischen AMD und Pentium III sollten Sie unbedingt im Blick behalten, ob die von Ihnen eingesetzte Software die erweiterten Befehlssätze (3DNow oder ISSE) der beiden Prozessorfamilien unterstützt. Rechner mit Pentium 4 führen die Preislisten an. Dagegen kann ein Rechner mit aktuellem Athlon-Prozessor nicht nur billiger, sondern, je nach Einsatzbereich, auch schneller sein. Spiele und einige Spezialprogramme (Statistik, Videobearbeitung etc.) sind inzwischen die einzigen Anwendungen für zu Hause, die die modernen Prozessoren herausfordern und an ihre Grenzen bringen können. Möchten Sie also die aktuellsten Actiongames und Simulationsspiele nutzen, kommen Sie nicht um die neuesten und damit auch teuersten Prozessoren herum. Brauchen Sie dagegen einen Computer, um einfache Büroanwendungen zu nutzen, reicht auch einer der Sparprozessoren wie beispielsweise der AMD Duron aus, der meist nur halb soviel kostet wie sein großer Bruder.

Aber..., der Prozessor allein ist zwar für die reine Rechenleistung verantwortlich, nicht aber für die gesamte Schnelligkeit eines Computersystems. Der Prozessor ist nur so gut, wie die weiteren Komponenten, insbesondere der Grafikkarte, des Bussystems, des Arbeitsspeichers und der Festplatte. Der schnellste Prozessor macht mit einer billigen Grafikkarte ein Actionspiel zu einem ermüdenden Zeitvertreib, während eine hochwertige Grafikkarte für Office-Anwendungen überdimensioniert ist. Nur wenn alle Komponenten optimal aufeinander abgestimmt sind, können Sie davon ausgehen, dass ein Computersystem die optimale Leistung erbringt.

4.2 Die Schnelligkeit von Prozessoren

Die ganze Fortentwicklung bei der Prozessortechnik hat das Ziel, immer leistungsfähigere, sprich schnellere, Prozessoren auf den Markt zu bringen. Für die Messung der Leistungsfähigkeit gibt es zwar mehrere Kennwerte, leider sind die meisten recht einseitig und nicht sehr aussagekräftig. Hinzu kommt, dass für die Leistung eines PCs der Prozessor nicht die alleinige Rolle spielt. Wird ein schneller Prozessor mit langsamen Computerteilen kombiniert, kann die Gesamtleistung des Rechners recht mäßig sein. MIPS

Ein möglicher Maßstab für die Schnelligkeit eines Prozessors ist die Anzahl von Befehlen, die ein Prozessor pro Sekunde verarbeiten kann. Dieser Wert wird in MIPS (Million Instructions per Second) gemessen. iCOMP-Index

Einen weiteren Hinweis auf die Geschwindigkeit eines Prozessors bietet Intel mit dem iCOMP-Index. Dieser Kennwert ist von Intel entwickelt und bietet nur einen einfachen Vergleichswert, mit dem sich bestimmen lässt, wie schnell sich der Prozessor A von Intel im Vergleich zum Prozessor B von Intel verhält. Die folgende Grafik gibt Ihnen einen Überblick über die Index-Werte der verschiedenen Intel-Prozessoren.

Bild 4.9: Einige Intel-Prozessoren im Vergleich

SPEC Benchmarks

Etwas besser nachvollziehbar sind da die SPEC Benchmarks (SPEC = Systems Performance Evaluating Cooperative Effort; Mitglieder sind die Firmen AT&T, Compaq, DEC, HP, IBM, INTEL, MIPS, Sun, u. a.). Dahinter verbergen sich standardisierte Programme, welche die Belastung eines Prozessors durch herkömmliche Anwendungsprogramme nachbilden. Die SPECmarks werden seit Juli 1992 getrennt nach der Leistung bei ganzzahligen Operationen (SPECint92), sowie der Verarbeitung von Fließkommawerten (SPECfp92) gemessen. Um der rasanten Prozessor-Entwicklung Rechnung zu tragen, werden diese Testprogramme durch die neueren Versionen SPECint2000 und SPECfp2000 ersetzt. Wie ausgefeilt die Leistungs-Indizes auch sein mögen, so beschränken sie sich doch meist auf die reine Rechenleistung des Prozessors und sind für die Beurteilung eines Rechnersystems eher mit Vorsicht zu genießen. Eine Alternative bieten die Leistungswerte, die Fachzeitschriften mit Hilfe von konkreten Anwendungsprogrammen errechnen. Diese Werte verraten Ihnen, wie schnell ein kompletter Rechner eines bestimmten Herstellers mit einer Textverarbeitung, Tabellenkalkulation oder Datenbank arbeitet.

4.2.1 Von CISC zu RISC

Obwohl die heutigen PCs mit ihren Prozessoren die meisten Anwender mit ihrer Geschwindigkeit verblüffen, gibt es doch Anwendungen, die den engagierten Nutzer zu Kaffeepausen veranlassen. Für spezielle Anwendungsbereiche werden statt dessen Rechner mit noch besseren Verarbeitungsleistungen benötigt. Beispiele hierfür sind komplexe Aktienanalysen oder Kalkulationen sowie die Bedienung mehrerer Rechner in einem Netzwerk.

Bild 4.10: Der PowerPC-Prozessor von IBM ist ein typischer RISC-Prozessor (Foto: IBM)

CISC

Wie Sie bereits gesehen haben, müssen Prozessoren selbst für einfachste Aufgaben über zahlreiche Befehle gesteuert werden. Selbst eine einfache Addition lässt sich in zahlreiche Kleinstbefehle (Mikrocode) aufteilen. Die Ihnen bereits bekannten Intel-Prozessoren verstehen zum Teil mehrere hundert Befehle; aufgrund dieser komplexen Struktur bezeichnet man Rechner mit diesen Prozessoren als Computer mit komplexem Befehlssatz (Complex Instruction Set Computer = CISC). Doch bereits Anfang der achtziger Jahre hat man erkannt, dass die meisten Anwendungen nur einen geringen Teil der vorhandenen Befehle nutzen. Bekannt wurde diese Erkenntnis als die 80/20-Regel: Rund 80% aller Berechnungen von typischen Anwendungen nutzen nur 20% der verfügbaren Instruktionen. Warum dann aber so komplexe Prozessoren bauen? RISC

Als Folge dieser Erkenntnis begann man, Prozessoren zu bauen, deren Befehlsvorrat deutlich reduziert wurde (Reduced Instruction Set Computer = RISC). Die nach diesem Konzept verkleinerten Prozessoren lassen sich mit weniger Aufwand wesentlich schneller und kostengünstiger herstellen. Ein weiterer Vorteil der RISC-Prozessoren ist, dass die einfachen Befehle deutlich schneller und darüber hinaus auch parallel verarbeitet werden können. Für die Abarbeitung der komplexen Befehle benötigte der 80386 von Intel in der Regel zwei Takte. Der 80486 war schon ein wenig schneller, er konnte pro Takt einen Befehl verarbeiten. Inzwischen haben die Intel-Prozessoren dazugelernt und verarbeiten neben komplexe auch einfache

Anweisungen, ebenfalls parallel. Trotzdem haben die reinen RISC-Prozessoren bezüglich der Verarbeitungsgeschwindigkeit noch immer leicht die Nase vorn. Zukünftig werden die Grenzen zwischen RISC- und CISC-Prozessoren immer schwieriger zu ziehen sein, da sich auch bei den neuen PC-Prozessoren immer mehr RISC-Technik einschleicht.

Bild 4.11: Der RISC-Prozessor Alpha von Digital (Foto: DEQ)

Multiprozessorsysteme

So leistungsfähig diese Prozessoren inzwischen auch sind, gibt es doch Anwendungsbereiche, die nach immer besseren Rechenleistungen verlangen. Eine

preisgünstige Alternative zu annähernd unbezahlbaren Supercomputern sind Rechner, die mit mehreren der bereits genannten, relativ preisgünstigen Prozessoren arbeiten können.

Die Rechenleistung von RISC-Prozessoren wie auch kleinen Multiprozessorsystemen ist inzwischen nicht nur speziellen Rechnern vorbehalten, sondern steht auch dem »normalen« PC-Anwender zur Verfügung. Hierzu werden von verschiedenen Herstellern Rechner im PC-Gehäuse angeboten, die z. B. mit dem Betriebssystem Windows NT bzw. Windows 2000 betrieben werden können. Weiterhin gibt es inzwischen auch relativ preiswerte Multiprozessorsysteme, die beispielsweise auf zwei Intelprozessoren aufbauen; für Unternehmensserver lassen sich die Prozessoren auf bis zu 32 Stück aufstocken. Auch diese Rechner können mit Windows 2000 betrieben werden. Hoffentlich haben Sie sich nicht von diesem kurzen Einblick in die Prozessortechnologie abschrecken lassen. Die meisten Informationen aus diesem Kapitel erweitern zwar das Verständnis, sind aber nicht unbedingt für die erfolgreiche Arbeit mit Computern notwendig. Der richtige Durchblick ist auch für den Fachmann nur noch schwer möglich, da das Wissen über die eine Technologie durch das Aufkommen neuer Techniken beinahe von einem Monat zum anderen veraltet sein kann.

4.2.2 Herstellung von Mikroprozessoren Vielleicht wird Ihnen die in den Kapiteln 2 und 3 vorgestellte Vorgehensweise, wie Computer Rechenoperationen durchführen, nach diesen Ausführungen noch immer etwas suspekt erscheinen. Noch verwirrender wird Ihnen wahrscheinlich die Vorstellung sein,

solche Operationen mit Hilfe von elektronischen Bausteinen nachzuvollziehen. Photolithographie-Verfahren

Es gibt eine ganze Reihe verschiedener elektronischer Bauteile wie Widerstände, Kondensatoren, Dioden und Transistoren. Früher wurden diese Teile auf so genannte Platinen aufgelötet und durch Leiterbahnen aus Kupfer miteinander verbunden. Auf diese Weise war die Möglichkeit, viele Teile auf einem bestimmten Raum unterzubringen, beschränkt. Erst als man begann, die verschiedenen Bauteile gemeinsam auf einer Scheibe aus Silizium herzustellen, konnten mit der Zeit immer mehr Bauteile auf kleinerem Raum untergebracht werden. Heute werden diese Siliziumscheiben oder Chips durch das so genannte Photolithographie-Verfahren hergestellt.

Bild 4.12: Moderne Chips können nur noch in Reinräumen hergestellt werden, weil das kleinste Staubkorn einen Chip während der Herstellung zerstören kann (Foto: IBM)

Wie für andere elektronische Schaltungen auch wird für die Herstellung eines Chips ein Schaltplan benötigt. Da moderne Chips aber extrem komplex sind und inzwischen mehrere Millionen Transistoren enthalten, ist es nicht mehr möglich, sie ohne die Unterstützung von Computern zu entwickeln. Spezielle Rechner dienen dazu, die Anordnung der einzelnen Bauteile auf der Siliziumscheibe zu planen. Durch komplexe mathematische Modelle kann bereits im Computer simuliert werden, ob und wie der zukünftige Chip funktionieren wird. Bis zu diesem Zeitpunkt existiert die Schaltung des Mikrochips also nur im Rechner. Layout

Die Verschaltung eines Mikroprozessors, sein Layout, lässt sich am Bildschirm nicht mehr vollständig darstellen. Daher wird die Schaltung zunächst als Vergrößerung gezeichnet.

Das Zeichnen der Schaltung wird wiederum von Computern übernommen, da auch diese Arbeit nicht mehr an einem herkömmlichen Zeichenbrett erledigt werden könnte. Es lassen sich immer nur bestimmte Ausschnitte zeichnen, die zusammengefügt eine Zeichnung mit mehr als 50 m2 Fläche ergeben. Die gezeichnete Vorlage der Schaltung wird Topographie genannt.

Bild 4.13: Das Layout eines Chips (Foto: IBM)

Die meisten integrierten Schaltungen sind aus gleichartigen Elementen aufgebaut, die in den Konstruktionsrechnern abgespeichert sind. Für die Konstruktion eines neuen Mikroprozessors können die vorhandenen Elemente aus dem Rechner abgerufen werden, um sie in der neuen Schaltung entsprechend zu platzieren und zu verbinden. Auf diese Weise lassen sich Entwicklungszeit wie auch die Kosten erheblich verringern. Trotz dieser Erleichterung beträgt der Zeitraum zwischen der Entwicklung und der Herstellung von integrierten Schaltkreisen bis zu zwei Jahre. Reticle

Ausgangspunkt für die Herstellung des Chips ist die gezeichnete Vorlage der Schaltung, die Topographie. Zunächst muss eine Maske des Chips angefertigt werden. Bei der photographischen Maskentechnik steuert der Computer ein Lichtzeichengerät, das ein verkleinertes Abbild der Topographie auf einer Photoplatte ablichtet. Man nennt diese Photoplatte Reticle. Muttermaske

Das Reticle hat noch immer eine Größe von 5 x 5 cm. In einer Wiederholkamera wird das Reticle noch einmal zehnfach verkleinert und zudem mehrfach unter- und nebeneinander auf einer Photoplatte, der so genannten Muttermaske, abgelichtet. Auf dieser Muttermaske, von der Kopien als Masken im Herstellungsprozess verwendet werden, finden die Ablichtungen von bis zu 120 Chips Platz.

Bild 4.14: Ein Wafer mit 16-Mbit-Speicherchips (Foto: IBM)

Das Basismaterial für die Herstellung von Chips ist Sand bzw. Silizium. Das von Verunreinigungen gesäuberte Silizium wird zu runden Säulen mit etwa 10 cm Durchmesser gegossen, die wiederum in 1/2 mm dünne Scheiben geschnitten werden, die so genannten Wafer. Für die Chipherstellung werden die Wafer mit Photolack beschichtet und mit Hilfe der Masken mehrfach mit ultraviolettem Licht belichtet. An den belichteten Stellen wird der Photolack abgelöst, die unbelichteten Stellen bleiben als Schutzschicht auf dem Wafer. Auf die Stellen, die nun nicht mehr durch den Photolack geschützt sind, können leitfähige Materialien aufgedampft werden. Durch wiederholtes Entfernen des Photolacks, Neuauftragen und Belichten sowie Behandlung der belichteten Stellen werden in mehreren Durchgängen die Strukturen für die Schaltung des Mikroprozessors auf die Siliziumscheibe aufgetragen.

Bild 4.15: Die elektronischen Schaltungen bestehen aus Schichten

Nach dem letzten photochemischen Durchgang wird die Scheibe in einen Prüfautomaten gebracht. Dieser setzt Prüfspitzen an die einzelnen Schaltungen an und testet sie mit Hilfe eines Computerprogramms auf ihre Funktionsfähigkeit. Fehlerhafte Schaltungen erhalten eine Farbmarkierung. Der Wafer wird anschließend mit einem Diamanten geritzt, entlang dieser Linien gebrochen und in die einzelnen Chips geteilt. Die funktionsfähigen Schaltungen werden herausgesucht und in Gehäuse eingeklebt. Anschlussdrähte werden angelegt und das Gehäuse schließlich verschlossen.

Bild 4.16: Ein fertiger Speicherchip (Foto: IBM)

4.2.3 Entwicklungstendenzen Seit der Erfindung des integrierten Schaltkreises im Jahre 1959 hat sich die Anzahl der Transistoren, die auf einem Chip Platz finden, von einem auf viele Millionen erhöht. Dadurch ist die Leistungsfähigkeit dieser Bauteile um das mehr als Zehntausendfache gestiegen. Trotzdem hat sich der Preis eines Chips fast nicht verändert. 1-Gbit-Chip

Besonders rasant ist die Entwicklung bei den Speicherbausteinen. Der leistungsfähigste Baustein, der zurzeit in Serie gefertigt wird, ist der 1-Gbit-Chip: Auf einem Siliziumplättchen von nur 0,5 cm2 Fläche können 1 Milliarde Bit gespeichert werden. Doch schon wird bei einigen Firmen an leistungsfähigeren Chips gearbeitet. In den Labors werden bereits die ersten Chips mit 4 Gbit-Speicherkapazität hergestellt.

Bild 4.17: Ein 256-Mbit-Chip

Vervierfachung

Während sich in den sechziger Jahren die Anzahl der Transistoren auf einem Chip jährlich verdoppelte, hat sich diese Entwicklung ab 1970 etwas verlangsamt, aber nur auf das noch immer bemerkenswerte Niveau einer Vervierfachung alle drei Jahre. Strukturgröße

Ein wesentlicher Faktor für diese Kapazitätssteigerung ist die minimale Strukturgröße. Darunter versteht man die Abmessung der kleinsten erkennbaren Strukturen auf einem Chip. Diese Größenordnungen werden in tausendstel Millimeter gemessen, in der Technik spricht man von Mikrometer. Im Jahr 1960 lag die durchschnittliche minimale Strukturgröße von integrierten Schaltkreisen bei ungefähr 25 Mikrometern. Die Pentium-Prozessoren wurden bereits mit Strukturen von 0,6 Mikrometern Breite hergestellt, die Pentium-IIProzessoren arbeiten bereits mit Strukturen von 0,35 Mikrometern, die bei den neuesten Prozessoren wie dem AMD Athlon und dem Intel Pentium III auf 0,18 Mikrometer breite Bahnen reduziert wurden. Dieser Entwicklung sind jedoch physikalische Grenzen gesetzt. Das bereits beschriebene photolithographische Verfahren arbeitet mit Lichtstrahlen zur Belichtung des Photolacks. Das sichtbare Licht hat eine Wellenlänge von 0,4 bis 0,77 Mikrometer. Erreichen ChipStrukturen diese Größe, lassen sie sich nicht mehr scharf genug auf der Siliziumoberfläche abbilden. Noch lassen sich die bisherigen Strukturen mit besonders kurzwelligem Licht realisieren: zurzeit arbeiten die meisten Hersteller mit 0,18 Mikrometern; doch bereits 2001 werden die neuesten Prozessoren mit Strukturen von 0,13 Mikrometer gefertigt. Kupfertechnik

Ganz hohe Priorität hat bei den Produzenten zur Zeit auch die Umstellung von Aluminium auf Kupfer bei der Prozessorherstellung. Bisher wurden die Leiterbahnen in Prozessoren aus Aluminium gefertigt, da es sich am einfachsten verarbeiten lässt. Allerdings hat Aluminium einen recht hohen Widerstand, der sich in einer starken Erwärmung des Prozessors niederschlägt. Je kleiner die Prozessoren werden und je höher sie getaktet

sind, desto größer wird die Hitze, die diese CPUs erzeugen. Kupfer stellt einen Ausweg dar, bringt aber auch gleich neue Probleme mit sich. Diese beziehen sich allerdings in erster Linie auf die Fertigung, nur wenige Kupferatome an der falschen Stelle platziert genügen, um das Verhalten eines Halbleiter vollständig zu verändern. Daher müssen gänzlich neue Fertigungsabläufe eingeführt werden, um mit dieser Technik saubere Prozessoren herstellen zu können. Dies ermöglicht dann aber die Herstellung noch deutlich leistungsfähigerer Prozessoren.

Bild 4.18: Ein in Kupfertechnologie gefertigter Chip (Foto: IBM)

Röntgenstrahllithographie

Doch auch die Kupfertechnik wird irgendwann an ihre Grenzen stoßen, wenn die Strukturen auch für das kurzwelligste Licht zu klein werden. Eine Abhilfe könnten Röntgenstrahlen darstellen. Das neue Verfahren, die Röntgenstrahllithographie, entspricht auf den ersten Blick dem bisher angewandten Verfahren. Doch bei genauerem Hinsehen ergibt sich eine Reihe von Schwierigkeiten. Es müssen neue Geräte und Materialien entwickelt werden, von geeigneten und preiswerten Strahlenquellen bis hin zu passenden Lacken und Masken.

In Deutschland ist diese Entwicklung besonders weit fortgeschritten, befindet sich aber noch immer im Forschungsstadium. Inzwischen gelingt es mit diesem Verfahren, Strukturen von weniger als 0,1 Mikrometer zu erzeugen. Bis Chips auf diese Weise in Serie hergestellt werden können, werden aber noch einige Jahre vergehen.

4.3 Bussysteme Im letzten Kapitel haben Sie bereits das Bussystem kennen gelernt. Zu seinen wichtigsten Aufgaben gehört, den Prozessor mit Daten und Programmbefehlen aus dem Arbeitsspeicher zu versorgen. Es besteht aus Leiterbahnen auf einer Hauptplatine, über die alle wichtigen Bestandteile der Zentraleinheit miteinander verbunden sind.

Bild 4.19: Die Hauptplatine eines PCs, hier mit Sockeln für zwei Prozessoren

Mit der gestiegenen Leistungsfähigkeit der Mikroprozessoren sind auch die Anforderungen an die Bussysteme gestiegen. Eine schnellere Verarbeitung der Daten innerhalb der Zentraleinheit bringt nur dann entscheidende Leistungsvorteile, wenn das Bussystem zu jedem Zeitpunkt dem Prozessor genau die Datenmenge zur Verfügung stellt, die er

verarbeiten kann.

4.3.1 Der ISA-Bus Die ersten IBM-PCs waren mit den Prozessoren 8088 bestückt. Diese galten zwar als 16Bit-Prozessoren, konnten aber nur über einen 8 Bit breiten Datenbus mit ihrer Umwelt kommunizieren. Die Taktung des Bussystems erlaubte maximal 4,77 Millionen Informationshappen pro Sekunde zu transportieren. 16-Bit-Bus

Die nächste Prozessorgeneneration, der Intel 80286, eröffnete auch für das Bussystem die 16-Bit-Dimension. Mit seinen 16 Daten- und 24 Adressleitungen konnte er bis zu 16 Millionen (224) Speicherzellen adressieren. Die Taktfrequenz von Prozessor und Bussystem wurde zunächst auf 6, später auf 8 MHz erhöht. Dabei blieb es aber: obwohl die Taktung bereits beim 80286-Prozessor weiter deutlich erhöht wurde, blieben die 8 MHz Grundtakt des Bussystems als Standard erhalten. Neben der Versorgung des Prozessors mit Daten verbindet das Bussystem alle weiteren Einheiten der Zentraleinheit. Hierzu gehören auch Erweiterungskarten, die nachträglich in einen PC eingesteckt werden können. Solche Erweiterungskarten sind meist notwendig, wenn Sie einen PC in die Lage versetzen möchten, Klänge oder Fernsehbilder ausgeben zu können. Für den Anschluss von Erweiterungskarten befinden sich auf der Hauptplatine Steckanschlüsse, in welche die Karten einfach eingesteckt werden müssen. Einige Karten begnügen sich beim Informationsaustausch mit dem System noch immer mit 8 Bit. Für den Anschluss solcher Karten befinden sich auf der Hauptplatine 62-polige Anschlussleisten. Erweiterungskarten mit höherem Datenverkehr sind dagegen um weitere 38 Anschlusspunkte verlängert, die ihnen den Datenaustausch auf der Basis von 16 Bit ermöglichen. Über die zusätzlichen Signalleitungen kann eine 16-Bit-Karte vor Beginn der Datenübertragung dem System mitteilen, dass sie in der Lage ist, 16-Bit-Operationen durchzuführen. Sobald dieser Hinweis erfolgt ist, werden die Daten in 16-Bit-Portionen weitergereicht. Erfolgt dieser Hinweis nicht, erhält die Karte alle Daten automatisch in 8-BitPaketen. ISA-Bus

Diese, im Gegensatz zu den ersten Bussystemen bereits erweiterte Variante wurde ISABus benannt. Diese Bezeichnung leitet sich ab von Industry Standard Architecture. Obwohl diese Bus-Architektur in den früheren PCs durchaus ihren Dienst erfüllte, wirkt sie in Rechnern mit modernen Prozessoren eher wie eine Bremse. Daher begann mit Einführung der Pentium-Prozessoren der Umschwung auf den deutlich leistungsfähigeren Local Bus. Auf den aktuellen Hauptplatinen arbeitet trotzdem ein Teil dieses Bussystems noch immer nach dem ISA-Standard, um Anwendern mit älteren Erweiterungskarten weiterhin die Möglichkeit zu bieten, diese in einem modernen Rechner einsetzen zu

können. Allerdings ist abzusehen, dass zukünftige Betriebssysteme - wie z. B. die WindowsBetriebssysteme, die nach der Version Windows 2000 auf den Markt kommen werden, den ISA-Bus nicht mehr unterstützen werden.

4.3.2 Local-Bus Eine neue Genereration von Bus-System wurde durch spezielle Grafikkarten notwendig, die durch ihre Schnelligkeit und hohe Auflösung besonders bei grafischen Oberflächen ein ununterbrochenes Arbeiten erlauben sollen. So benötigt der Aufbau eines Bildes mit 1024 * 786 Punkten in 256 Farben 768.432 Byte Speicherplatz. Für den Transport jedes einzelnen Bildes benötigt ein Rechner mit ISA-Bus bereits eine geschlagene viertel bis ganze Sekunde. PCI-Bus

Voraussetzung für die volle Ausnutzung dieser Grafikkarten ist daher ein deutlich schnelleres Bussystem. Der Local Bus schafft hier Abhilfe. Während zur Einführung dieser Technik noch zwei verschiedene Systeme auf dem Markt zur Verfügung standen, hat sich inzwischen die Intel-Variante Peripheral Component Interconnect, oder kurz PCI-Bus, vollständig durchgesetzt. Annähernd 100 % aller heute hergestellten PCs arbeiten mit dieser Bustechnik. Local-Bus-Architektur

Die Local-Bus-Architektur lässt sich am einfachsten beschreiben, wenn man sie in zwei verschiedene Bussysteme aufteilt. Der Prozessor, das Speichersystem sowie einige Steckkartenplätze sind über einen 32-Bit-Bus miteinander verbunden, der mit 66 MHz (eigentlich schon veraltet), 100 MHz oder gar 133 MHz (etwa ab Ende 1999) getaktet ist.

Bild 4.20: Die Local-Bus-Architektur

Das Erweiterungs-Bus-Interface versorgt die Steckplätze für Erweiterungskarten auf zweierlei Weise. Einzelne Steckplätze sind über die Erweiterungs-Bus-Schnittstelle so verbunden, dass sie Teil des Local-Bus sind, Daten können also mit der vollen Taktrate des Bussystems transportiert werden. Bei einem Systemtakt von 100 MHz ergibt das einen theoretischen Datendurchsatz von maximal 800 Mbyte/s, bei 133 MHz Systemtakt gar 1064 MHz. Die anderen, ISA-kompatiblen Steckplätze sind über eine entsprechende Leitung mit dem Erweiterungs-Bus-Interface verknüpft. Hier findet die Kommunikation nur mit 8 MHz statt. Auf diese Weise können spezielle Local-Bus-Karten, beispielsweise Grafikkarten oder Festplatten-Controller, die hohe Datenübertragung nutzen, während ältere Karten, die keinen Nutzen von der hohen Übertragungsrate ziehen würden, in die Steckplätze für ISAKarten eingesetzt werden können. Die Technik des Systembusses ist eines der Hauptunterscheidungsmerkmale für moderne Hauptplatinen, die für die Aufnahme und die Kommunikationssteuerung von Prozessor, Arbeitsspeicher und Erweiterungskarten zuständig sind. Bis zur Drucklegung dieses Buches gehörten Hauptplatinen mit einem mit 100 MHz getakteten Systembus zum Standard. Die meisten Platinen bieten etwa 4 Steckplätze für PCI-Erweiterungskarten und ein bis zwei Steckplätze für die älteren ISA-Steckkarten. ISA

PCI

ISA-kompatibel

Ja

Nein

max. Transferrate

2-5 Mbyte/s

bis 1064 Mbyte/s

max. Speicheradressg.

16 Mbyte

4096 Mbyte

Busbreite (Daten)

8/16 Bit

32, 64 Bit

Busbreite (Adressen)

24

32, 64

Taktfrequenzen

8 MHz

66 MHz - 133 MHz

Autom. Konfiguration

Nein

Ja

Tabelle 4.1: PC-Bus-Architekturen im Vergleich

4.3.3 Koordinierung des Datentransfers Stellen Sie sich doch einmal eine Diskussionsrunde vor, in der alle Teilnehmer unaufgefordert einen Beitrag abgeben. Für einen Zuschauer wird diese Diskussion nicht mehr zu verfolgen sein. Stattdessen führt normalerweise ein Diskussionsleiter durch das Gespräch, indem er einzelne Teilnehmer zu einem Kommentar auffordert bzw. Teilnehmer durch ein Zeichen auf sich aufmerksam machen.

Interrupt

So ähnlich verhält es sich in einem Computer auch. Hier gilt es die Kommunikation zwischen Eingabegeräten wie Tastatur und Maus sowie Ausgabegeräten wie Grafikkarte, einer Soundkarte usw. zu steuern. Ohne Hilfe wäre der Prozessor einen Großteil seiner Zeit damit beschäftigt, sich umzusehen, welches dieser Geräte gerade seiner Aufmerksamkeit bedarf. Damit hätte der Prozessor zu wenig Zeit für seine eigentlichen Aufgaben und die Leistung des Rechners würde unnötig beeinträchtigt. Statt dessen sind die einzelnen Geräte aufgefordert, den Prozessor um seine Aufmerksamkeit zu bitten. Dies erfolgt mit Hilfe des so genannten Interrupts. Der Name deutet bereits darauf hin, dass ein Interrupt die aktuelle Arbeit des Prozessors unterbricht. Dazu sendet jedes Gerät ein bestimmtes Signal an einen zusätzlichen Baustein auf der Hauptplatine des PCs, den Interrupt-Controller. Dieser Baustein kann bis zu 15 verschiedene Interrupt-Signale unterscheiden, denen nicht nur Nummern, sondern auch Geräte zugewiesen sind. So meldet sich bei fast jedem PC die Tastatur über die InterruptLeitung 1 (IRQ 1), wodurch der Interrupt-Controller erfährt, dass das System die Aufmerksamkeit nun der Tastatur zuwenden muss; im Gegensatz dazu wird durch eine Bewegung der Maus ein Signal über die Interrupt-Leitung 4 gesendet. Interrupt-Anforderung

Sobald eine Interrupt-Anforderung beim Prozessor eingeht, unterbricht er seine augenblickliche Tätigkeit und widmet sich ganz dem anfordernden Gerät. Zuvor »merkt« er sich die Stelle, an der er bei seiner Arbeit unterbrochen wurde, um nach Bearbeitung der Interrupt-Anforderung an dieser Stelle wieder fortsetzen zu können. Diese Form der Kommunikationssteuerung funktioniert recht gut. Allerdings setzt sie voraus, dass jeder Interrupt-Leitung nur ein Gerät zugewiesen ist. Ein Problem taucht auf, wenn Sie ein neues Gerät in Ihren PC einbauen möchten, z. B. eine Soundkarte. Dann müssen Sie sich vor dem Einbau informieren, welche Interrupt-Leitungen in Ihrem PC bereits belegt sind, um der Erweiterungskarte einen freien Interrupt zuweisen zu können. Diese Information kann Ihnen beispielsweise unter Windows der Gerätemanager geben.

Bild 4.21: Der Windows-Gerätemanager informiert Sie über die Belegung der Interrupts

Interrupt-Konflikt

Wird dagegen mehr als einem Gerät dieselbe Interrupt-Leitung zugewiesen, kommt es zu einem Konflikt. Der Prozessor weiß nicht mehr, welches Gerät sich über den jeweiligen Interrupt meldet und kann nicht mehr entsprechend auf die Anforderung reagieren. Die Folge ist, dass beide Geräte nicht mehr funktionieren. Abhilfe schafft nur, den vorhandenen Interrupt-Konflikt zu beheben. Dazu verfügen die meisten Karten über kleine Schalter, mit denen sich die Kommunikationsoptionen einstellen lassen. Der normale ISA-Bus unterstützt 16 Interrupts (von 0 bis 15) mit abgestufter Priorität. Für Erweiterungskarten stehen 11 Kanäle zur Verfügung. Die Leitungen 0, 1, 2, 8 und 13 können nicht von Zusatzkarten verwendet werden, während die Kanäle 8 sowie 10 bis 15 nur von 16-Bit-Karten genutzt werden können.

Typische Interruptbelegungen bei einem PC Bei einem PC sind in der Regel folgende Interrupts belegt: IRQ

Belegt durch

1

Tastatur

2

EGA-/VGA-Grafikkarte

3

2. serielle Schnittstelle (COM2)

4

1. serielle Schnittstelle (COM1)

5

2. parallele Schnittstelle (LPT2)

6

Diskettenlaufwerk

7

1. parallele Schnittstelle (LPT1)

8

Echtzeituhr

9

Wird für interne Zwecke benötigt

10

Frei, wenn keine andere Karte

11

Frei, wenn keine andere Karte

12

Frei, wenn keine andere Karte

13

Coprozessor

14

Festplatte

15

Frei, wenn keine andere Karte

Ports

Ein weiteres Problem stellt die Datenübertragung zwischen Erweiterungskarte und Prozessor dar. Um Durcheinander zu verhindern, kommunizieren beide über einen speziellen Speicherbereich, in dem die Daten zwischengespeichert werden. Damit der Prozessor weiß, um welche Daten es sich handelt, wird jeder Karte ein bestimmter Speicherbereich zugewiesen, die Eingabe-/Ausgabe-Adressen oder kurz Ports. DMA

Und um das ganze noch komplizierter zu machen, sind schließlich auch die DMA-Kanäle zu beachten. Der Direct Memory Access (direkter Speicherzugriff) ermöglicht es einer Karte, ihre Daten ohne Umweg direkt in den Speicher zu schreiben. Dazu benötigt sie einen von gerade mal acht Datenkanälen, die wiederum fest einzelnen Bauteilen des PCs zugewiesen sind. Sie sehen, dass der Einbau von Erweiterungskarten beim PC eine Aufgabe ist, die man nicht mal eben so nebenbei erledigen kann. Man muss sich, am besten noch vor dem Kauf der Karte, über die belegten Ressourcen - also Interrupts, Ports und DMA - informieren und die Zusatzkarte vor dem Einbau auf die freien Ressourcen einstellen - und hoffen, dass es funktioniert. Plug & Play

Wenn Sie sich nun schwören, niemals selber eine Erweiterungskarte in Ihren PC einbauen zu wollen, kann ich Sie beruhigen. Es ist Abhilfe in Aussicht: Mit Hilfe des Plug&PlayStandards soll der PC selber in der Lage sein, die richtigen Einstellungen zu finden.

4.3.4 Plug&Play Die Auswahl einer korrekten Interrupt-Leitung ist nur ein Beispiel für die Einstellung von Kommunikationsoptionen, über die der Datenaustausch zwischen Karte und Zentraleinheit gesteuert wird. Weitere Beispiele sind DMA-Kanal und Eingabe-/Ausgabe-Adressen, auf die wir der Einfachheit halber nicht weiter eingehen werden. Allerdings hat es in der Vergangenheit häufig Probleme bereitet, für eine neue Erweiterungskarte die richtigen Einstellungen zu finden, ohne dass es zu Konflikten kam. PnP

Doch endlich bahnt sich eine Lösung an, die unter dem Namen Plug&Play firmiert, kurz PnP. Was ist darunter nun zu verstehen? Hinter Plug&Play verbirgt sich zunächst eine herstellerunabhänigige Beschreibung, wie Computerbauteile auszusehen haben, damit sie vom Computer selbst optimal konfiguriert werden können. Dazu müssen der Rechner und das Betriebssystem in der Lage sein, selbstständig ein neu hinzugefügtes Bauteil zu erkennen und die für den Betrieb dieses Bauteils notwendigen Programme zu laden. Das Computerbauteil selber muss sich gegenüber den anderen Komponenten identifizieren. Voraussetzungen

Plug&Play arbeitet also auf mehreren Ebenen, die entsprechende Voraussetzungen erfüllen müssen: PnP-Hardware



Austauschbare Computerbauteile, wie z. B. Monitore, Tastatur, Maus, Drucker, Festplatten, Sound- und Videokarten etc., müssen sich gegenüber dem System identifizieren können, d. h. dass der Rechner bzw. das Betriebssystem über Hersteller, Art des Bauteils und ihre Anforderungen an Systemressourcen (z. B. IRQ, DMA, Port etc.) informieren.

Ein besonderer Vorteil ist, dass PnP-Erweiterungskarten nicht mehr über Schalter auf der Karte von Hand konfiguriert werden müssen. Diese Karten erlauben, dass ihnen das Betriebssystem die entsprechenden Einstellungen zuordnet. Daher ist ein Eingriff Ihrerseits nicht mehr erforderlich; die Arbeitsbedingungen werden im Stillen zwischen Erweiterungskarte, dem Rechner und dem Betriebssystem ausgehandelt. PnP-Rechner



Als nächstes muss auch der Rechner Plug&Play-fähige Bauteile erkennen können. Die meisten Computer, die ab Anfang 1994 verkauft wurden, sind entsprechend vorbereitet. Im Zweifelsfall fragen Sie bei Ihrem Fachhändler nach. Aber selbst wenn Sie mit einem älteren Rechner arbeiten, können Sie Vorteile aus dem Plug&Play-Standard ziehen, wenn Sie entsprechende Bauteile in Ihren Rechner einbauen.

PnP-Betriebssystem



Das Betriebssystem stellt die nächste Säule dar, auf der Plug & Play ruht. Es muss Plug&Play-fähige Bauteile erkennen und selbstständig die für ihren Betrieb notwendigen Programme laden. Beispielsweise ist Windows 95 ein solches Betriebssystem.

4.4 PCMCIA - Erweiterungskarten im Scheckkartenformat Notebook

Moderne Computer werden immer kleiner. Der komplette PC mit allem Drum und Dran in der Westentasche ist sicherlich nicht mehr fern. Doch schon bei den jetzigen Kleinstrechnern, den Notebooks, macht sich das Problem der Erweiterbarkeit bemerkbar. Während ein normaler Tischrechner mit bis zu sechs oder mehr Zusatzkarten an neue Bedürfnisse erweitert und angepasst werden kann, müssen Notebooks meist noch ihre Flügel strecken. PCMCIA

Abhilfe schaffen die PCMCIA-Karten. Diese zungenbrecherische Abkürzung steht für Personal Computer Memory Card International Association und beschreibt einen Zusammenschluss von inzwischen über vierhundert Firmen, die sich 1989 zusammengeschlossen haben. Ziel dieser Organisation ist es, einen allgemein akzeptierten Schnittstellenstandard für Zusatzgeräte in mobilen Rechnern zu schaffen. Zunächst konzentrierte man sich auf die Normung von flexibel einsetzbaren Speichererweiterungskarten, die als Alternative zu den stromfressenden und nicht gerade kleinen Diskettenlaufwerken angesehen wurden. Diese Speicherkarten basieren auf FlashEproms, mit denen auf einer Karte in Scheckkartengröße bis zu 40 Megabyte dauerhaft gespeichert werden kann. Inzwischen folgten auch andere steckbare Anwendungen wie Modems oder Faxadapter, mit denen die Funktionalität von Notebooks durch wenige Handgriffe erweitert werden kann.

Bild 4.22: Normale Erweiterungskarte im Vergleich zum PCMCIA-Format (Foto: IBM)

PCMCIA-Formate

Während herkömmliche Erweiterungskarten teilweise umständlich in den Rechner eingebaut werden müssen, lassen sich PCMCIA-Karten einfach in einen entsprechenden Einschub einführen, ähnlich wie bei einer Diskette. Damit die Karten eines Herstellers A aber auch in den Geräten von Hersteller B einwandfrei arbeiten, sind Standards und Spezifikationen notwendig, die einen einfachen Austausch gewährleisten. Der inzwischen in der zweiten Version vorliegende Standard beschreibt drei Typen von Karten. Allen drei Typen ist gleich, dass sie über eine Steckleiste mit 68 Buchsenkontakten verfügen, die eine Datenübertragung mit 8 oder 16 Bit erlauben. Die Größe der Karten liegt bei 85,6 * 54 mm; die drei Typen unterscheiden sich lediglich in der Dicke: Karten vom Typ I sind auf 3,3 Millimeter beschränkt, der Typ II erlaubt 5 und Typ III sogar 10,5 Millimeter Bauhöhe. Diese Bauhöhen geben den Herstellern mehr Möglichkeiten für die Unterbringung der verschiedensten Geräte in einer PCMCIA-Karte. Inzwischen werden Karten mit NetzwerkAdapter, Faxmodem, Funkmodem oder Miniaturfestplatten angeboten. Als Beispiel für den Umgang sei hier nur eine Faxkarte genannt, die bei Bedarf einfach in den NotebookSteckplatz geschoben und über ein Kabel mit einer Telefonbuchse verbunden wird. Es genügt, die Faxsoftware auf dem PC zu starten und schon besteht die Verbindung zum Rest der Welt. Festplatten

Interessant sind auch die Festplatten im PCMCIA-Format. Inzwischen werden Laufwerke

mit einigen hundert Mbyte Speicherkapazität angeboten. Ein Vorteil dieser Speichermedien ist auch die einfache Möglichkeit des Auswechselns. So könnte jeder PC-Anwender seine eigene Speicherkarte mit seiner eigenen Arbeitsumgebung einrichten: immer die gleichen Anwendungen, Verzeichnisse und Dokumente. Geht man auf Reisen oder wechselt den Arbeitsplatz, genügt ein Griff zur PCMCIA-Karte und steckt sie in die Hosentasche. Am neuen Arbeitsplatz genügt das Einstecken der Karte und die gewohnte Umgebung ist auch in dem neuen Umfeld wieder verfügbar. PCMCIA-Karten werden aber nicht nur auf den PC beschränkt bleiben. Inzwischen wird auch an Kopier- und Faxgeräte mit PCMCIA-Steckplätzen gedacht. Unterwegs mit dem Notebook erstellte Dokumente könnten auf einer Speicherkarte abgelegt und an jedem entsprechend ausgerüsteten Kopier- oder Faxgerät vervielfältigt oder gefaxt werden. Bluetooth

Bluetooth, Kommunikation ohne Kabel Bluetooth ist eine neue Technik, die Funkverbindungen zwischen verschiedenen Geräten wie PCs, digitalen Kameras, Mobiltelefonen, Handheld-Geräten (z. B. PDA's), Kopfhörern und anderen tragbaren oder stationären Geräten untereinander möglich macht. Diese Technik wird seit 1998 von Firmen wie IBM, Intel, Ericsson, Nokia und Toshiba als »Bluetooth Special Interest Group« entwickelt und sie haben inzwischen einen allgemein akzeptierten Standard festgelegt. Über 1420 Firmen arbeiten in der »Bluetooth Special Interest Group (SIG)« zusammen, um Bluetooth-Geräte zu entwickeln, von denen 2001 auf der CEBIT zahlreiche Varianten vorgestellt wurden. Bluetooth-fähige Gerät sind in der Lage, eine funkbasierte Verbindung zu anderen Bluetooth-Geräten aufzubauen und über diese Verbindung Daten zu übertragen. Dabei unterhalten alle Geräte, die zu einem Bluetooth-Netzwerk gehören, eine logische Verbindung untereinander, die nur im Falle der tatsächlichen Datenübertragung in eine physikalische Verbindung verwandelt wird, Bluetooth arbeitet mit einer Frequenz zwischen 2,402 GHz und 2,480 GHz, dem ISM-Band (Industrial, Scientific, Medical), das weltweit frei und unlizenziert ist. Dabei wird ein Verfahren eingesetzt, bei dem 1600 mal pro Sekunde die Frequenz geändert wird, um die Verbindung möglichst gut gegen Störungen und Abhören zu sichern. Die Übertragungsrate beträgt insgesamt 1 Mbyte/s, von denen 721 Kbyte pro Sekunde für Daten- und Sprachkommunikation genutzt werden können. Die Reichweite einer Bluetooth-Verbindung liegt bei maximal 10 Meter, wobei eine zukünftige Spezifikation diesen Wert auf 100 m Reichweite erhöhen soll. Erste Beispiele für Bluetooth-Anwendungen sind die kabellose Verbindung zu Druckern oder Handys, die über Bluetooth mit einem Headset verbunden sind und so eine schnurlose Freisprecheinrichtung ergeben. Auch PDAs oder Digitalkameras können über Bluetooth schnell und kabellos Daten zu einem PC übertragen. Dem Bluetooth-Standard wird mit das größte Wachstum in der IT- und Kommunikationsbranche prophezeit. Marktforscher gehen davon aus, dass es in fünf Jahren über 670 Millionen Bluetooth-fähige Geräte auf der Erde geben wird. Ericsson erwartet, dass bereits im Jahr 2002 mehr als 100 Millionen Mobiltelefone mit Bluetooth

ausgerüstet sein werden, die drahtlos Adressbücher, Termine und Daten mit dem PC, Notebook oder PDA austauschen können.

Bild 4.23: Mit Hilfe von Bluetooth können beispielsweise die Bilder einer digitalen Kamera an andere Geräte wie Handys übertragen werden.

5 Speicher 5.1 Einführung Halbleiterspeicher

Programme und Daten werden in Form einzelner Bits in Speicherbausteinen abgelegt. Wie im vorigen Kapitel beschrieben, können in heutigen Speicherchips bereits Milliarden Bit abgelegt werden. Diese in Halbleitertechnologie gefertigten Speicherbausteine werden meist als Arbeitsspeicher innerhalb des Rechners, also systemintern, genutzt. Zugriffszeit

Der Vorteil solcher Bauteile ist, dass bestimmte Daten in kürzester Zeit gefunden und zur weiteren Verarbeitung bereitgestellt werden. Dieser Zeitraum wird als Zugriffszeit bezeichnet, sie liegt bei modernen Speicherbausteinen bei ca. 10 ns (1 ns = 1 Nanosekunde = eine milliardstel Sekunde). Spezielle Bausteine erreichen noch niedrigere Zugriffszeiten (so genannte Cache-Speicher). Magnetspeicher

Es gibt noch andere Speichermedien, die dazu dienen, größere Datenmengen über längere Zeiträume hinweg abzuspeichern (Massenspeicher). Hierzu gehören Magnetplatten und -bänder. Gegenüber dem Vorteil, riesige Datenmengen zu speichern, haben diese Medien den Nachteil, dass sie die Daten langsamer lesen. Bei in den PC fest eingebauten Magnetplatten liegen die Zugriffszeiten bei 1 bis ca.10 ms (1 ms = eine Millisekunde = 1 tausendstel Sekunde). Dabei handelt es sich um mittlere (oder durchschnittliche) Zugriffszeiten, die kürzer oder länger sein können. Optische Speicher

Seit einiger Zeit gewinnen auch optische Speicher an Bedeutung. Prominentester Vertreter ist sicherlich die CD-ROM, die der Technologie der Audio-CD entlehnt ist. Doch gerade die neuesten Scheiben wie die Digitale Video Disc ermöglichen die dauerhafte Speicherung von gigantischen Datenmassen.

5.2 Interne Speicher Halbleiterspeicher lassen sich je nach Verwendungszweck in Schreib-Lese-Speicher und in Festwertspeicher unterscheiden.

Bild 5.1: Gliederung der Halbleiterspeicher

5.2.1 Schreib-Lese-Speicher (RAM) RAM

Die englische Bezeichnung für Schreib-Lese-Speicher lautet Random-Access-Memory (RAM), übersetzt bedeutet das: Speicher mit wahlfreiem Zugriff. Das heißt, dass während des normalen Betriebs Informationen in diese Speicher geschrieben, darin abgelegt und zu jedem beliebigen Zeitpunkt wieder ausgelesen werden können. Daher lassen sich RAM-Bausteine als kurzzeitige Zwischenspeicher verwenden, wie z. B. der Arbeitsspeicher eines PCs, in welchen die für den momentanen Betrieb notwendigen Programme und Daten abgespeichert und wieder ausgelesen werden können.

Bild 5.2: Ein Speicherchip der neuesten Generation (Foto: IBM)

Der Arbeitsspeicher von PCs Der Arbeitsspeicher von Computern wird aus RAM-Bausteinen zusammengesetzt. Je nach Rechnertyp hat der Arbeitsspeicher eine unterschiedliche Kapazität. Die ersten IBM-PCs hatten einen mageren Arbeitsspeicher von nur 16 bis 64 Kbyte; ein Wert, der heute selbst von preiswerten elektronischen Taschenkalendern überboten wird. 1983 wurde eine erweiterte Version dieses Rechners vorgestellt und als IBM PC/XT (eXTended) bezeichnet. Dieser PC, der ebenfalls mit den Prozessoren 8086 bzw. 8088 ausgerüstet war, verfügte meist über 640 Kbyte. Da der Prozessor 8086/88 über 20 Adressleitungen verfügt, kann sein Speichervolumen durch Einbau zusätzlicher Bausteine auf 1 Mbyte Arbeitsspeicher aufgerüstet werden (2 hoch 20 Byte = 1.048.576 Byte = 1 Mbyte). Moderne Rechner verfügen in der Grundversion meist über mindestens 128 Mbyte Arbeitsspeicher. Die Prozessoren dieser Rechner besitzen 32 Adressleitungen; daher könnte der Arbeitsspeicher theoretisch auf 4 Gbyte (2 hoch 32 Byte = 4.096 Mbyte) ausgebaut werden, ein zurzeit noch unrealistischer Wert, da diese Menge Arbeitsspeicher noch viel zu teuer ist.

Speicherzellen

Schreib-Lese-Speicher sind in einzelne Speicherzellen aufgeteilt, die durch Adressen gekennzeichnet sind. Dies erleichtert das Finden abgelegter Informationen. Der normale Anwender muss sich darum aber nicht kümmern; diese Arbeit wird vom Betriebssystem (vgl. Kapitel 8) erledigt.

Die Tücken flüchtiger Speicher Stellen Sie sich vor, sie wollen zu Hause oder an Ihrem Arbeitsplatz an einem Personalcomputer mit einem Textverarbeitungsprogramm einen längeren Bericht erstellen. Das Programm ist fest auf einer Festplatte gespeichert. Beim Laden wird es im Arbeitsspeicher abgelegt und gestartet. Daraufhin beginnen Sie, Ihren Bericht einzugeben. Seite um Seite füllt den Bildschirm. Der von Ihnen eingegebene Text wird ebenfalls im Arbeitsspeicher abgelegt. Doch plötzlich kommt es zu einem Stromausfall. In Ihrer Straße sind alle Fenster dunkel. Aber nicht nur die Straße ist dunkel, auch Ihr Monitor sowie die Kontrollampe Ihres Rechners. So etwas kann vorkommen und dann ist nicht nur der Strom verschwunden; auch Ihr Bericht, den Sie mit so viel Mühe eingegeben haben, ist für immer verloren. Mit dem Stromausfall wurde der Inhalt Ihres Arbeitsspeichers gelöscht. Für das Textverarbeitungsprogramm ist das nicht tragisch, das ist ja auf der Festplatte gespeichert und damit jederzeit verfügbar. Der Bericht war aber nur im Arbeitsspeicher abgelegt. Dieser Speicher besteht aus RAM-Chips, die nur solange Informationen speichern, wie der Betriebsstrom eingeschaltet ist. Wird der Strom ausgeschaltet, gehen alle im RAM gespeicherten Informationen verloren; sie verflüchtigen sich. Ein Stromausfall wird nicht sehr häufig vorkommen. Doch nicht selten hat man als Benutzer nach einigen Stunden Arbeit selber einige Ausfälle. Diese können dazu führen, dass man denkt: »Die Arbeit ist fertig, also Rechner aus«, und schon sind die eingegebenen Daten verloren. Um solchen Malheurs vorzubeugen, empfiehlt es sich dringend, eingegebene Daten in kurzen Abständen abzuspeichern, auf Diskette oder Festplatte. Die meisten Programme verfügen über einen kurzen Tastenschlüssel, woraufhin die Daten gespeichert werden. Dies empfiehlt sich jedesmal, wenn Sie eine bestimmte Zeit gearbeitet haben, etwa jede halbe oder volle Stunde. Oder Sie speichern jedesmal, wenn Sie vom Arbeitsplatz aufstehen, um Kaffee zu kochen oder zu telefonieren. Die meisten Textsysteme können Sie aber auch so einstellen, dass der Text in bestimmten, einstellbaren Zeitabständen automatisch gesichert wird. Kommt es danach zu einem Stromausfall, geht vielleicht ein kleiner Teil Ihrer Daten verloren, aber nicht der gesamte, mühselig eingegebene Text.

Flüchtige Speicher Für den Benutzer ist es besonders wichtig zu beachten, dass Schreib-Lese-Speicher »flüchtige Speicher« sind. Die gespeicherten Informationen gehen verloren, sobald die Betriebsspannung abgeschaltet wird oder ausfällt. Aus diesem Grund müssen neue Daten vor Beendigung einer Arbeitssitzung auf anderen Speichermedien abgelegt werden, damit sie nicht verlorengehen. Speichertypen DRAM und SRAM

Inzwischen gibt es verschiedene Varianten von RAM-Bausteinen, die wichtigste Unterscheidung ist die zwischen DRAM- und SRAM-Bausteinen. Damit RAM-Bausteine ihre Informationen nicht »vergessen«, muss die elektrische Ladung, mit deren Hilfe die Informationen gespeichert werden, ständig aufgefrischt werden. Bei den dynamischen RAM-Bausteinen muss diese Auffrischung einige hundert Mal pro Sekunde erfolgen. Im Gegensatz dazu müssen statische RAM-Bausteine deutlich seltener aufgefrischt werden, das hat auch Auswirkungen auf die Zugriffsgeschwindigkeit, die um einiges schneller ist als bei den DRAMBausteinen. Allerdings haben diese Vorteile auch ihren Preis, nicht nur dass SRAM-Bausteine einiges mehr kosten, sie verbrauchen auch mehr Strom. Daher werden sie in erster Linie dann eingesetzt, wenn der Cache-Speicher außerhalb des Prozessors auf der Hauptplatine installiert werden muss.

Bild 5.3: Einzelne RAM-Bausteine werden auf besser handhabbaren Modulen zusammengefasst (Foto: Kingston)

SDRAM

In letzter Zeit wurde die Zugriffsgeschwindigkeit der DRAM-Bausteine durch einige Weiterentwicklungen deutlich erhöht. Ein Ergebnis dieser Bemühungen sind die SDRAM-Bausteine (synchroner DRAM). Diese Module können mit dem Takt des Systembusses angesprochen werden, also mit 100 oder 133 MHz und ermöglichen Zugriffszeiten von ca. 10 Nanosekunden und Transferraten von etwa 70 Mbyte/s, Werte, die bis dahin den Cache-Bausteinen vorbehalten waren. Die meisten PCs werden mittlerweile mit SDRAMBausteinen ausgerüstet. Dazu werden mehrere Chips auf einer Platine verlötet, der so genannte DIMM (Double Inline Memory Module). Diese Platine wird in spezielle Steckplätze auf dem Motherboard eingesetzt und ist über 168 Kontakte (Pins) mit dem Systembus verbunden. Trotz der hohen Bandbreite der SDRAM-Module reichen die Transferraten nicht mehr aus, um den

aktuellen Prozessoren noch ausreichend schnell die zu verarbeitenden Daten liefern zu können. Daher ist man auf der Suche nach neuen Techniken, mit denen der Datenhunger der Prozessoren gestillt werden kann. Aussichtsreichster Vertreter sind die so genannten DDR-SDRAMs, die über 184 Pins mit dem Bus kommunizieren. DDR-SDRAM

Die vorangestellte Abkürzung bedeutet Double Data Rate und weist auf eine Verdoppelung der Transferdatenrate hin. Diese Verdoppelung wird durch Anwendung eines einfachen Tricks erreicht: Ein Taktsignal ist durch einen Anstieg und davon gefolgt auch einen Abstieg einer Stromspannung gekennzeichnet. Bei SDRAMs wird nur eine Spannungsveränderung für eine Datenübertragung verwendet, während die neuen Speicher beide nutzen. Die alte wie die neue Technik können pro Takt 64 Bit übertragen, also 8 Byte. Multipliziert man diesen Wert mit der Taktfrequenz, z. B. 133 MHz, ergibt sich die maximal mögliche Übertragungsrate, nämlich 1064 Mbyte bei SDRAM und 2128 Mbyte bei DDRSDRAM.

Bild 5.4: DDR-SDRAM-Speichermodul (Foto: Kingston)

So kann ohne großartige Veränderung am Speicherprinzip eine deutliche Erhöhung der Transferrate erreicht werden, ein entscheidender Vorteil für Hersteller, da sich DDR-SDRAMs nur mit geringfügigen Änderungen an den Produktionsanlagen herstellen lassen. RDRAM

Etwas anders sieht es bei Rambus DRAMs (RDRAM) aus. Diese von der Firma Rambus entwickelte Speichertechnik basiert auf einem gänzlich neuen Prinzip. Rambus nutzt für die Kommunikation nur einen 16 Bit breiten Kanal, der dafür aber mit bis zu 800 MHz getaktet ist. Damit lassen sich dann bis zu 1,6 Gbyte an Daten pro Kanal vom Speicher zum Prozessor übertragen. Durch Kopplung von bis zu 4 Kanälen kann die Übertragungsrate auf 6,4 Gbyte/s gesteigert werden. Soviel zu den positiven Seiten dieser Technologie.

Bild 5.5: RDRAM-Speichermodul (Foto: Kingston)

Nachteilig ist allerdings, dass Rambus Lizenzgebühren von anderen Herstellern verlangt, die diese

Bausteine nachbauen wollen. Hinzu kommt, dass neue Produktionsanlagen nötig wären, um die neue Technik fertigen zu können. Das ergibt letztlich ein deutlich teureres Produkt und schlägt sich somit auch in der Akzeptanz nieder. Von daher ist es zurzeit offen, wie sich die Rambus-Technik zukünftig durchsetzen wird. Modultypen

Speicherbausteine werden als hauchdünne Siliziumscheiben hergestellt. Diese Chips werden anschließend in eine Form gegossen, die sie schützt, und mit Anschlüssen versehen. Der Ausbau des Arbeitsspeichers mit solchen Speicherbausteinen wäre allerdings sehr umständlich, da zahlreiche, unhandliche Module auf die Mutterplatine des Rechners eingesteckt werden müssten. Einfacher ist, Speicherbausteine auf handlichen Platinen zu sinnvollen Speichergrößen zusammenzufassen. Leider haben sich in den letzten Jahren mehrere verschiedene Modultypen durchgesetzt, von denen noch immer einige Typen in den Geschäften angeboten werden. PS/2

Für ältere Rechner werden noch immer die so genannten PS/2-Module angeboten. Hierbei handelt es sich um SIMM-Module (Single Inline Memory Module), die zwar auf beiden Seiten der Platine über jeweils 72 Kontakte verfügen, von denen aber nur die Kontakte einer Seite für den Datentransfer genutzt werden. Diese SIMM-Module kamen Anfang der 90er Jahre in der PS/2-PC-Modellreiche von IBM zum Einsatz, woher sich ihr Zusatzname ableitet.

Bild 5.6: SIMM-Modul (Foto: Kingston)

DIMM

DIMM-Module (Double Inline Memory Module) sind für die Kommunikation mit einem 64-Bit-Bus ausgelegt, wie er mit den Pentium-Prozessoren eingeführt wurde. Diese Module sind an den 168 Kontakten und an den zwei Kerben in der Kontaktleiste zu erkennen.

Bild 5.7: DIMM-Modul (Foto: Kingston)

SO-DIMM

Eine verkleinerte Ausführung der DIMM-Module sind die SO-DIMM-Module, die daher auch überwiegend in Notebooks eingesetzt werden. Die 64-Bit-SO-DIMMS verfügen über eine Anschlussleiste mit 144 Polen.

Bild 5.8: SO-DIMM-Modul (Foto: Kingston)

RIMM

Bleiben letztlich noch die RIMM-Module zu nennen, auf denen Rambus-Speicherbausteine zusammengefasst werden. Die Module sind mit 184 Anschlüssen versehen und sind leicht an der Metallabdeckung zu erkennen, mit denen die RDRAMs gekühlt werden sollen.

Bild 5.9: RIMM-Modul mit der typischen Metallabdeckung (Foto: Kingston)

5.2.2 Festwertspeicher

ROM

Festwertspeicher haben einen fest vorgegebenen Speicherinhalt, der nicht verändert werden kann. Es können also nur Daten gelesen werden (Read Only Memory). Bei diesem Speicher bleiben die Informationen auch nach dem Ausschalten des Computers erhalten. Nicht mehr änderbare Programme und Programmteile können auf diese Weise fest abgespeichert und durch Einschalten des Rechners direkt aktiviert werden. Die Programmierung der ROM-Bausteine nimmt ausschließlich der Hersteller vor. In diesen Festwertspeichern befinden sich Programmteile, die zum Beispiel beim Starten des Computers benötigt werden, um das Betriebssystem zu laden (vgl. Kapitel 8). Neben den ROMs gibt es noch weitere Festwertspeicher, die ich Ihnen kurz vorstellen möchte. PROM

Programmierbare Festwertspeicher sind Bausteine, die vom versierten Anwender mit Hilfe spezieller Geräte einmal selbst programmiert werden können. Danach ist die gespeicherte Information nicht mehr zu ändern (Programmable Read Only Memory, PROM). Wurde bei der Programmierung ein Fehler gemacht, lässt sich dieser nicht mehr korrigieren, und der Baustein ist für die vorgesehene Aufgabe nicht mehr zu gebrauchen. EPROM

EPROMs sind lösch- und programmierbare Festwertspeicher (Erasable Programmable Read Only Memory, EPROM). Bei diesen Speichern kann der gesamte Inhalt gelöscht werden, um sie dann neu zu programmieren. Diese Bausteine haben auf ihrer Oberseite ein kleines Fenster, das normalerweise überklebt ist. Wird dieses Fenster freigelegt und mit UV-Licht bestrahlt, wird der gesamte Speicherinhalt gelöscht. EEPROM

Während normale EPROMs durch UV-Licht gelöscht werden, gibt es noch andere EPROMs, die elektrisch gelöscht werden können (Electrical Erasable Programmable ROM, EEPROM). Flash-Memories

Eine Weiterentwicklung dieser Bausteine sind die Flash-Memories. »Flash« bedeutet soviel wie Lichtblitz, und so schnell wie ein Blitz können Informationen in diesen Bauteilen gelöscht werden. Allerdings funktioniert der Löschvorgang etwas anders als bei herkömmlichen RAM-Bausteinen. Während FlashMemories einzelne Bytes lesen können, erfolgt das Schreiben und Löschen nur blockweise. Mit Zugriffszeiten von etwa 100 ns sind sie etwas langsamer als RAM-Bausteine. Auch ist ihre Lebensdauer begrenzt, nach ca. 100.000 Schreib- und Lösch-Operationen wird der Speicher unbrauchbar. Flashmemories werden zurzeit in erster Linie in Fotoapparaten und MP3-Playern verwendet. Dabei finden drei verschiedene Varianten Einsatz: CompactFlash-Card

Bei der CompactFlash-Card ist die Steuerungselektronik für den Zugriff auf die Speicherinformationen direkt in der Karte integriert. Die Karten sind 43 x 36 x 3,3 mm groß und können z.Z. bis 256 Mbyte an Daten speichern.

Bild 5.10: CompactFlash-Karte (Foto: Kingston)

SmartMedia-Cards

Geradezu filigran wirken dagegen die SmartMedia-Cards. Sie sind gerade mal 0,76 mm dick bei 45 x 37 mm Abmessungen, die Kontaktfläche liegt frei. Da diese Karten nicht über eine eigene Steuerungselektronik verfügen, müssen die Geräte, in denen diese Karten genutzt werden, entsprechend vorbereitet sein. SmartMedia-Karten können z. Z. bis zu 64 Mbyte speichern.

Bild 5.11: Eine SmartMedia-Karte (Foto: Kingston)

Memory Stick

Alternativ zu den zuvor genannten Medien gibt es noch den von Sony entwickelten Memory Stick. Dieser Speicher ist 21 x 50 x 2,8 mm groß und bietet Speicherkapazitäten bis zu 64 Mbyte. Allerdings wird der Memory Stick z.Z. nur in Geräten von Sony verwendet.

Bild 5.12: Memory Stick von Sony

Für alle drei Flash-Speicher-Varianten gibt es Schreib-/Lesegeräte, die an einen PC angeschlossen werden können. Somit sind die Medien auch als zusätzliche Speicher für den PC verwendbar. Beispielsweise können die Lesegeräte über die Parallel- oder die USB-Schnittstelle einfach mit einem PC verbunden werden und fungieren dann als zusätzliches Wechselplattenlaufwerk. Wer also eine digitale Fotokamera mit Flashspeicher besitzt, hat für ein geringes Aufgeld für den Kartenleser auch gleich ein sehr praktisches Laufwerk zur Verfügung, mit dem sich größere Datenmengen einfach von einem PC zum anderen transportieren lassen. Festplatten als Flashcard

Inzwischen nähern sich allerdings Flash-Speicher und Mini-Festplatten in Größe und Speicherkapazität an: So wie bei den Flash-Speichern die Speicherkapazität zunimmt werden die Festplatten immer kleiner, so dass es inzwischen Festplatten in der Größe von Flashcards gibt, die bis zu einem Gbyte und mehr an Daten speichern können, ideal auch für die neuen digitalen Foto- und Videokameras.

Bild 5.13: Minifestplatte im Flashcard-Format kann einige hundert Fotos speichern (Foto: IBM).

Interner Speicher: Der Arbeitsspeicher ist das Gedächtnis des Computers; ist er zu klein, kann er auch nicht sehr viel behalten, sprich: speichern. Möchten Sie beispielsweise mit Windows arbeiten, sollten auf Ihrem Rechner mindestens 64 Mbyte RAM-Speicher installiert sein. Windows kommt zwar theoretisch mit weniger Speicher aus; zum sinnvollen Arbeiten ist der genannte Wert die unterste Grenze. Nutzen Sie unter Windows gar mehrere Programme gleichzeitig und vielleicht auch OLE (Object Linking and Embedding, siehe unter Windows) oder Spiele, schnellt der Speicherbedarf auf etwa 128 Mbyte hoch. Wollen Sie viel mit Grafik oder Videos arbeiten, sollten Sie auch nicht davor zurückschrecken, Ihren PC mit 256 Mbyte auszurüsten. Gerade in Anbetracht der in letzter Zeit gesunkenen Preise für RAM-Chips, sollte man beim Kauf eines Rechners eher einige Mbyte zuviel als zuwenig einsetzen. Natürlich können Sie den Speicher auch jederzeit erweitern. Erkundigen Sie sich unbedingt vor dem Kauf eines Rechners nach den Erweiterungsmöglichkeiten.

5.3 Magnetische Datenspeicher Der Arbeitsspeicher eines Computers wird meist aus RAM-Bausteinen zusammengesetzt. Ein Merkmal dieser Speicher ist, dass alle in ihnen, während einer Arbeitssitzung gespeicherten Daten gelöscht werden, sobald der Rechner ausgeschaltet wird. Damit Daten und Programme nicht verlorengehen, müssen sie auf externen Speichern abgelegt werden, die die Daten auch dann festhalten, wenn die Betriebsspannung ausgeschaltet ist. Zu diesem Zweck benutzt man in erster Linie magnetische Datenspeicher.

5.3.1 Disketten 3½ -Zoll-Diskette

Der ehemals wichtigste magnetische Datenspeicher, die Diskette, hat inzwischen viel an Bedeutung verloren. Mit ihren 1,44 Mbyte Speicherkapazität bietet sie einfach nicht mehr genug Kapazität für die Speicherung von Programmen und den meisten Daten. Lediglich für die Sicherung und den Transfer einfacher Daten wie Texten oder kleinen Grafiken ist sie noch problemlos einsetzbar. Ansonsten ist sie nicht mehr das geeignete Medium.

Bild 5.14: 3½ -Zoll-Diskette (Foto: IBM)

Obwohl ihre praktische Bedeutung deutlich schwindet, beruht sie auf dem gleichen Speicherprinzip wie Hochleistungsfestplatten. Die heute noch gebräuchlichen Disketten haben einen Durchmesser von 3 ½ Zoll (etwa 9 cm). Sie bestehen aus einer runden scheibenförmigen Platte aus einem Kunststoffmaterial, das mit einer extrem dünnen magnetisierbaren Schicht, ähnlich wie bei einem Tonband, versehen ist. Um die Diskette vor mechanischen Belastungen zu schützen, befindet sie sich in einer stabilen Plastikhülle, die keine direkt zugänglichen Öffnungen enthält. Die Öffnung für den Schreib-/Lesekopf ist durch eine Metallmanschette verschlossen, die erst im Diskettenschacht geöffnet wird. Diskettenlaufwerk

Um mit einer Diskette zu arbeiten, wird ein spezielles Laufwerk benötigt. Dieses Diskettenlaufwerk besitzt einen Schacht, in den die Diskette mit der Öffnung für den Schreib-/Lesekopf voraus hineingeschoben wird. Auf jeder Diskette befindet sich ein Beschriftungsetikett, das beim Einschieben nach oben zeigen muss. Die Diskette muss bis zum Anschlag in den Laufwerksschacht geschoben werden, sie wird dann richtig positioniert und die Metallmanschette, welche den Zugriff auf die Magnetscheibe schützt, zurückgeschoben.

Bild 5.15: 51/4-Zoll- und 31/2-Zoll-Diskettenlaufwerke (Foto: EPSON)

Zum Lesen und Schreiben von Daten wird die Magnetscheibe in Rotation versetzt - mit ca. 360 Umdrehungen pro Minute. Gleichzeitig senken sich zwei Schreib-/Leseköpfe auf die Ober- und Unterseite der Magnetscheibe. Da die Köpfe direkt auf die Scheibe aufsetzen, ist sie aus einem flexiblen Material gefertigt, damit immer ein guter Kontakt zwischen Schreibkopf und Diskette besteht. Trotz der Ähnlichkeit der Grundmaterialien ist die Speicherung von Informationen auf einer Musikkassette und einer Diskette sehr unterschiedlich. Während die Bandkassette Musik oder Sprache in Form von analogen Signalen exakt aufzeichnen soll, werden auf der digital bespielten Diskette lediglich zwei Informationen gespeichert, die jeweils eine Null oder eine Eins repräsentieren. Magnetisierung

Um Informationen auf einer Diskette zu speichern, werden mit den Schreib-/Leseköpfen ganz bestimmte Stellen magnetisiert. Die einzelnen Punkte auf einer Diskette lassen sich mit Stabmagneten vergleichen. Beim Schreiben werden diese Magnete ausgerichtet, und zwar entweder mit der Drehrichtung oder entgegen der Drehrichtung. Die Richtung entspricht der zu kodierenden Information: Eins oder Null. Die Ausrichtung lässt sich während der Drehung ändern, so dass Abschnitte mit wechselnder Ausrichtung entstehen.

Bild 5.16: Funktionsweise des Schreib-/Lesekopfes

Beim Lesen reagiert der Kopf auf die unterschiedlichen Magnetisierungen, die unterschiedliche Spannungsstöße im Lesekopf erzeugen. Diese werden wieder in Einsen und Nullen umkodiert. Spuren und Sektoren

Die einzelnen Informationen sind auf der Diskette nicht wahllos verstreut. Während bei einer Schallplatte der Tonarm spiralförmig von außen nach innen die Platte abtastet, kann der Schreib-/Lesekopf über ringförmigen Spuren eingestellt werden, die parallel zueinander liegen. Die Unterteilung in Spuren ist jedoch noch zu grob, um bestimmte Informationen möglichst schnell finden zu können. Aus diesem Grunde werden die Spuren weiter in Sektoren unterteilt.

Bild 5.17: Aufteilung der Diskette in Spuren und Sektoren

Formatieren

Die Aufteilung der Diskette in Spuren und Sektoren muss vom Benutzer selber durchgeführt werden. Dieser Vorgang wird als Formatieren bezeichnet und durch ein spezielles Programm des Betriebssystems durchgeführt (siehe Kapitel 8). Adressen

Damit Daten wiedergefunden werden können, wird die Diskette nach einem bestimmten Schema organisiert. Ähnlich wie jede Zelle im Arbeitsspeicher eine Adresse besitzt, werden auch die Sektoren gekennzeichnet. Jede Plattenseite erhält eine Nummer, sowie jede Spur und jeder Sektor. Dadurch lässt sich jeder Sektor eindeutig adressieren und ansteuern. Die Zuordnungen der Adressen zu den einzelnen Sektoren übernimmt ebenfalls das Betriebssystem. Dieses Programm ist für die gesamte Verwaltung und Organisation des Plattenspeichers verantwortlich. Das Betriebssystem gibt seine Befehle weiter an den Controller, der die Steueraufgaben übernimmt. Ein Controller ist eine Platine, die in Form einer Steckkarte in den Rechner eingebaut werden kann. Der Controller teilt dem Schreib-/Lesekopf zum Beispiel mit, dass er einen bestimmten Sektor mit einer bestimmten Adresse lesen soll. Controller lassen sich nach der Art, wie sie die Informationen kodieren, unterscheiden. Die verschiedenen Typen werde ich Ihnen im Anschluss an den folgenden Abschnitt über Festplatten vorstellen. Speicherkapazität

Bei normalen Personalcomputern werden beide Seiten einer Diskette genutzt. Eine 3½-Zoll-Diskette wird unterteilt in 80 Spuren je Seite, die Spuren werden in 18 Sektoren aufgegliedert. Jeder Sektor kann 512 Byte speichern. Multipliziert man diese einzelnen Werte, erhält man die Gesamtspeicherkapazität einer Diskette: 2 = = =

Seiten * 80 Spuren * 18 Sektoren * 512 Byte 1.474.560 Byte 1.440 Kbyte 1,44 Mbyte

Nach dem gleichen Prinzip wird auch auf Festplatten gespeichert, nur deutlich effizienter, so dass inzwischen der Inhalt von über 100.000 Disketten mit einem Festplattenlaufwerk gespeichert werden kann.

5.3.2 Festplatten Aufbau

Eine Festplatte besteht aus einer oder mehreren starren Metallplatten, die mit besonders gut magnetisierbarem Material beschichtet sind, das sehr hohe Schreibdichten erlaubt. Dadurch können auf den einzelnen Platten erheblich mehr Spuren und Sektoren aufgezeichnet werden als auf Disketten, obwohl sie den gleichen Durchmesser haben. Eine Festplatte kann zum Beispiel über 1.000 Spuren aufweisen. Diese Spuren sind, wie bei einer Diskette, weiter in Sektoren aufgeteilt.

Bild 5.18: Plattenstapel

Festplatten

Festplattenlaufwerke für Personalcomputer verfügen je nach Spurdichte und Plattenanzahl über Speicherkapazitäten ab etwa 5 Gbyte aufwärts bis hin zu an die 200 Gbyte (1 Gbyte = 1.000 Mbyte; 1 Megabyte = 1.024 Kbyte = 1.048.576 Byte), ein Wert, der ebenfalls halbjährlich nach oben korrigiert werden muss. Solche größeren Laufwerke bestehen meist nicht nur aus einer, sondern aus zwei oder drei Platten, die übereinander angeordnet sind. Für jede einzelne Plattenseite ist ein Schreib-/Lesekopf vorgesehen, über den die Daten verarbeitet werden. Während sich in manchem älteren Rechnermodell noch Laufwerke mit Platten von 5¼ Zoll Durchmesser finden, werden heutzutage die meisten Laufwerke mit 3½-Zoll-Platten ausgeliefert. Es gibt aber inzwischen auch Festplattenlaufwerke mit 2½, 1,8 oder sogar nur 1,3 Zoll Durchmesser. Besonders für die kleinen tragbaren Rechner sucht man nach immer kompakteren Formaten.

Bild 5.19: Mini-Festplatte im 1,3-Zoll-Format, kaum größer als ein Geldstück (Foto: IBM)

Trotz der ungeheuren Speicherkapazität können die gespeicherten Daten 10 mal so schnell gefunden werden wie bei einer Diskette. Ein Grund dafür ist die hohe Umdrehungsgeschwindigkeit der Platten, normalerweise 5.400 Umdrehungen pro Minute. Diese hohe Umdrehungszahl wird erreicht, weil hier keinerlei Reibung mit der Plattenhülle auftritt. Festplatten für Server arbeiten auch mit 7.200, 10.000 oder gar 15.000 Umdrehungen, dadurch werden die Datenübertragungsraten zwar noch einmal rasant beschleunigt, für einen normalen Arbeitsplatzrechner wären sie aber zu laut.

Schnelle oder leise Festplatte Der Zugriff auf bestimmte Daten auf der Festplatte und ihre Übertragung hängen unter anderem von der Umdrehungsgeschwindigkeit der Platten ab. Allzu hohe Geschwindigkeiten können aber zu einem unangenehmen Pfeifen führen, das häufige Abbremsen der Leseköpfe bei der Suche nach Daten fügt ein weiteres schnarrendes Geräusch hinzu. Insgesamt kann eine hoch performante Festplatte eine unakzeptable Geräuschquelle werden. Um dem abzuhelfen, gibt es inzwischen moderne Festplatten, die mit dem in der neuesten ATA-Spezifikation (siehe weiter unten) beschriebenen Automatic Acoustic Management ausgestattet sind. Der Akustik-Manager kann über eine Zusatz-Software aktiviert werden und bremst die Bewegung der Leseköpfe bei der Positionierung ausreichend ab, um die Geräuschentwicklung auf ein Minimum zu reduzieren. Dadurch kann sich zwar der Datendurchsatz verringern, aber auch die Belästigung durch unangenehme Geräusche am PC-Arbeitsplatz.

Bild 5.20: Größenverhältnis Schreib-/Lesekopf, Staubkorn

Im Gegensatz zur Diskette berührt der Schreib-/Lesekopf nicht die Plattenoberfläche, sondern schwebt auf einem Luftkissen, das durch die hohe Umdrehungszahl entsteht. Der Abstand zwischen Platte und Lesekopf beträgt weniger als ein tausendstel Millimeter. Ein Staubkorn oder auch nur ein Fingerabdruck auf der Platte ließen den Kopf auf dieses Hindernis prallen. Deshalb ist die Platte hermetisch eingeschlossen; eintretende Luft wird gefiltert. Zylinder

Die Adressierung der einzelnen Sektoren geschieht nach dem gleichen Prinzip wie bei der Diskette. Ein Unterschied ergibt sich bei Laufwerken mit mehreren Platten. Jede Plattenseite hat die gleiche Anzahl von Spuren, die von Null an aufnummeriert sind. Übereinanderliegende Spuren haben die gleiche Nummer und werden als Zylinder bezeichnet. Bei der Adressierung wird die Nummer der Spur durch die Nummer des Zylinders und einer Kennung für die Plattenseite ersetzt. Mittlere Zugriffszeit

Ein Maßstab für die Verarbeitungsgeschwindigkeit einer Festplatte ist die mittlere Zugriffszeit. Das ist die Zeit, die der Schreib-Lese-Kopf benötigt, um zum Beispiel von der Spur 0 bis zur Spur 250 zu gelangen, wenn das Laufwerk insgesamt 500 Spuren hat. Die Zeit, um von Spur 0 zu Spur 10 zu gelangen, ist kürzer,

als wenn man von Spur 40 zu Spur 440 kommen will.

Interleave-Faktor Bei Disketten werden die einzelnen Sektoren aufsteigend durchnumeriert. Anders bei einer Festplatte. Sie arbeitet so schnell, dass ein Personalcomputer oft nicht mitkommt. Sollen zum Beispiel mehrere Sektoren geschrieben werden, benötigt der PC nach jedem geschriebenen Sektor eine bestimmte Zeit, um neue Daten zu verarbeiten. Während dieser recht kurzen Zeit dreht sich die Platte weiter, und der Lesekopf befindet sich über dem vierten Sektor nach dem eben geschriebenen. Um Zeit zu sparen, wird an diese Stelle der nächste Sektor geschrieben. Weitere Informationen werden wieder auf den nachfolgenden vierten Sektor gespeichert. Die Sektoren werden entsprechend der Reihenfolge, wie sie beschrieben wurden, durchnummeriert, obwohl sie physikalisch anscheinend wahllos angeordnet sind. Dieser Sektorversatz legt den so genannten Interleave-Faktor fest. In dem eben beschriebenen Beispiel liegt der Interleave-Faktor bei 4 (vgl. Bild 1.81). Er ist von Computer zu Computer verschieden. Moderne Festplatten arbeiten inzwischen meist mit einem Interleave-Faktor von 1, der optimalen Datentransfer ermöglicht. Die Zugriffsgeschwindigkeit ist von der Laufwerksmechanik abhängig. Die Datenübertragungsrate, d. h. die Anzahl der Daten, die pro Sekunde gelesen werden, ist vom Interleave-Faktor abhängig. Je schneller der Festplattencontroller die ankommenden und auszulesenden Daten verarbeiten kann, desto geringer kann der Interleave-Faktor eingestellt werden.

Bild 5.21: Sektornumerierung bei einem Interleave-Faktor von 4

Die mittlere Zugriffszeit ist ein wichtiges Auswahlkriterium beim Kauf einer Festplatte. Bei Laufwerken für Personalcomputer liegen die Werte im Schnitt bei etwa 10 ms, einige hochwertige Laufwerke erreichen auch 8 bis 9 ms. Es nützt jedoch nichts, eine sehr schnelle Festplatte für einen langsamen Personalcomputer zu kaufen. Um optimale Ergebnisse zu erreichen, müssen Rechner und Festplatte aufeinander abgestimmt sein. Dies wird meist vom Hersteller oder Händler erledigt. Headcrash

Obwohl Festplatten inzwischen recht robust sind und zwischen fünf und zehn Jahren fehlerfrei arbeiten, reagieren sie auf bestimmte Dinge sehr empfindlich. Der Schreib-/Lesekopf schwebt auf einem Luftpolster dicht über der Platte. Kräftige Stöße während des Betriebs können dazu führen, dass das Luftpolster zusammenbricht, und der Kopf auf die Platte fällt. Solche Mikrokollisionen sind als Headcrash gefürchtet, da sie die Magnetschicht beschädigen, und die dort gespeicherten Daten nicht mehr fehlerfrei gelesen werden können. In den meisten Personalcomputern sind Festplatten mit einer Speicherkapazität von 10 Gbyte bis etwa 40 Gbyte (40.000 Mbyte) eingebaut. Auf diesen Platten kann eine Vielzahl von Programmen und Daten gespeichert werden. Festplatten halten aber nicht ewig. Nach einigen Jahren nutzen sie sich ab, und die Daten können nicht mehr gelesen werden oder wurden durch einen Headcrash zerstört.

Datensicherung

Aus diesem Grunde ist es notwendig, die auf der Platte gespeicherten Daten auf anderen Medien zu sichern. Das Sichern der Daten wird Backup genannt. Sehr häufig werden zum Sichern der wichtigsten Daten Disketten benutzt. Um aber einen Datenbereich von beispielsweise 80 Mbyte zu sichern, benötigt man, je nach Speicherkapazität der Diskette, zwischen vierzig und hundert Disketten. Um auf diese Weise eine ganze Festplatte zu sichern, brauchte man neben vielen Disketten ebenso viel Zeit und Geduld. Daher werden in der Regel Kassettenbänder für die Sicherung von Daten eingesetzt.

Festplattentipp 1: Speicherkapazität Wenn Sie eine Festplatte kaufen möchten, seien Sie ruhig großzügig hinsichtlich der Speicherkapazität. Auch wenn Sie nur mit wenigen Anwendungen arbeiten wollen, denken Sie daran: der Appetit kommt beim Essen. Rasch wird das eine oder andere Programm aus dem Internet heruntergeladen und ausprobiert. Manche Spiele kopieren über 300 Mbyte an Daten auf die Festplatte. Und wenn Sie dann noch anfangen, Ihre digital geschossenen Photos oder gar Videos zu speichern oder sich eine Musikdatenbank mit MP3-Dateien anzulegen, wird auch die größte Festplatte über kurz oder lang an ihre Grenzen stoßen; doch glücklicherweise kann man ja mindestens zwei davon einbauen.

5.3.3 Controller

Wie kommt der Prozessor an die gespeicherten Daten? Aufgrund eines Programmbefehls benötigt er bestimmte Werte, die nicht im Arbeitsspeicher, sondern auf einem externen Medium gespeichert sind. Die Verwaltung der gespeicherten Daten ist eine anspruchsvolle Aufgabe, die der Prozessor an Gehilfen delegiert. Hierfür gibt es direkt auf den Motherboards oder als separate Steckkarten Controllerbausteine, die für den Zugriff auf externe Speichermedien wie Disketten- und Festplattenlaufwerke, Streamer, CDROM-Laufwerke etc. zuständig sind. Während Diskettenlaufwerke keine allzu großen Anforderungen an die Controller stellen, ist die Leistungsfähigkeit der Festplatte in hohem Maße von der Leistungsfähigkeit des Controllers abhängig. Die wichtigste Maßzahl für die Festplatte ist, neben der Speicherkapazität, die Zugriffszeit. Sie gibt aber lediglich Aufschluss darüber, wie lange die Festplatte benötigt, um auf die angeforderten Daten zuzugreifen. Wesentlich wichtiger ist jedoch, wie schnell anschließend der Festplattencontroller dieselben Daten über den Datenbus zum Arbeitsspeicher transportiert. Denn erst dann sind sie für den Rechner verfügbar. Dieses Kriterium wird als Datentransfer- oder Datenübertragungsrate bezeichnet und in Kbyte pro Sekunde gemessen. Diese Rate hängt vom jeweiligen Aufzeichnungsverfahren ab, mit dem die Daten auf dem Massenspeicher kodiert werden. Die wichtigsten Verfahren und Controller-Techniken sind: ● ●

IDE/EIDE SCSI

IDE/ATA

Bild 5.22: Anschluss von zwei Festplatten und zwei Disketten an der IDE-Schnittstelle

IDE-Laufwerke, die auch einfach AT-Bus-Platten (ATA = Advanced Technology-Attachment) genannt werden, haben die gesamte Steuerungselektronik auf der Festplatte (IDE = Integrated Disc Electronic) untergebracht und benötigen keinen eigenen Controller. Ein einziges Kabel, in der Regel mit 40 Leitungen, verbindet dieses Laufwerk direkt oder über eine kleine Steckkarte mit der Zentraleinheit. Diese kompakte Technik hat zwei Vorteile. Sie erlaubt es den Herstellern, die Verbindung zwischen Festplatte und Controller besser abzustimmen und dadurch höhere Leistungen zu erzielen; zudem sind sie billig herzustellen. EIDE (Enhanced IDE)/Fast ATA

EIDE ist eine Weiterentwicklung des IDE-Standards, die der fortgeschrittenen Plattentechnologie Rechnung zollt. Controller, die nach dem EIDE-Standard arbeiten, ermöglichen den Anschluss von bis zu vier Geräten, deren Speicherkapazität nicht eingeschränkt ist. Der Controller ist bei den meisten Hauptplatinen inzwischen integriert, so dass alle EIDE-Geräte nur noch über ein Verbindungskabel direkt mit der Hauptplatine verbunden werden. Über diesen Anschluss können Festplatten, CD-ROM-Laufwerke, CD-ROM-Brenner und Bandgeräte angeschlossen werden. PIO-Mode

Obwohl EIDE-Geräte bereits über eine intelligente Zugriffstechnik verfügen, kann bei älteren Geräten der Prozessor noch in hohem Maße für die Steuerung des Datentransfers herangezogen werden. Über die

PIO-Modes (Programmed Input Output) wird angegeben, wie hoch der Datentransfer zwischen Festplatte und Arbeitsspeicher sein kann, wenn der Prozessor für die Steuerung verantwortlich ist. Der höchste PIOMode 4 ermöglicht Transferraten von bis zu 16 Mbyte/s, ein Wert, der die physikalischen Möglichkeiten der meisten Platten schon deutlich übersteigt. Allerdings wird der Prozessor durch die Steuerung mitunter stark beansprucht, wodurch die Verarbeitung von Anwendungen deutlich leiden kann. Ultra-DMA

Abhilfe schafft das Busmastering bzw. der Direct Memory Access (DMA), von dem moderne Festplatten Gebrauch machen. Dabei wird der Datentransfer zwischen Festplatte und Arbeitsspeicher von speziellen Chips kontrolliert, die zusammen mit dem EIDE-Controller bereits auf der Hauptplatine integriert sind. Diese Technik wird als Ultra-DMA oder auch in Anlehnung an den gebräuchlichen Plattenstandard als Ultra-ATA bezeichnet. Die Chips des EIDE-Controllers erlauben im Ultra-DMA-Mode 2 ohne den Prozessor zu belasten Datentransferraten von bis 33 Mbyte pro Sekunde, daher wird dieser Modus auch als Ultra-DMA/33 bzw. Ultra-ATA/33 bezeichnet. Neue Controller beherrschen Übertragungsraten von bis zu 100 Mbyte/s. Allerdings benötigen diese schnellen Controller ein 80-poliges Kabel für den Anschluss an die Festplatte, da jeder Datenleitung eine eigene Masseleitung zugeordnet ist, um bei den hohen Signalfrequenzen die Übertragungsqualität sicherstellen zu können. Die Anschlussstecker kommen dagegen weiterhin mit 40 Kontakten aus. Standard

Übertragungsrate

Kabel

Ultra-ATA/100

100 Mbyte/s

80-polig

Ultra-ATA/66

66 Mbyte/s

80-polig

Ultra-ATA/33

33 Mbyte/s

80-polig

ATA

16 Mbyte/s

40-polig

Tabelle 5.1: Die verschiedenen ATA-Standards

Ein Vorteil von ATA ist die Abwärtskompatibilität: Sie können ohne weiteres eine alte Festplatte an einen modernen Ultra-ATA-Controller anschließen und umgekehrt. Allerdings ist die optimale Leistung nur bei zusammenpassenden Komponenten gewährleistet. Wird beispielsweise eine schnelle ATA-Platte über ein 40-poliges Kabel angeschlossen, schaltet der Controller automatisch auf den langsameren Ultra-ATA/33Betrieb um. SCSI (Small Computer System Interface)

Der SCSI-Standard ist mehr als nur eine Laufwerksnormierung. Hinter dieser Bezeichnung steckt nicht nur ein Aufzeichnungsverfahren, sondern ein komplettes Bussystem mit einer intelligenten Steuerungslogik. Über einen SCSI-Controller kann die gesamte Kommunikation mit der Computer-Peripherie gesteuert werden. Der Prozessor muss sich nicht, im Gegensatz zu den anderen Verfahren, um die Steuerung kümmern. Dadurch wird dem Prozessor mehr Rechenzeit zur Verfügung gestellt.

Bild 5.23: SCSI - bis zu sieben interne und externe Geräte an einem Adapter

SCSI - immer diese Abkürzungen Wahrscheinlich werden Sie bereits festgestellt haben, dass die Bezeichnung dieser Adaptertechnik umständlich auszusprechen ist. Um dem abzuhelfen, wird die leidige Aufzählung der einzelnen Buchstaben durch ein Wort ersetzt, das man in etwa als »Skasi« lesen könnte.

An eine einzelne SCSI-Steckkarte können bis zu sieben bzw. bis zu 15 Geräte, je nach SCSI-Standard, angeschlossen werden. Das können weitere Festplatten, Diskettenlaufwerke, Bandlaufwerke, CD-ROMs oder magnetooptische Laufwerke sein, aber auch beispielsweise Scanner oder sonstige Geräte. SCSI-Standards Im Gegensatz zum IDE-Standard, der bereits seit mehreren Jahren unverändert genutzt wird und hohe Kompatibilität verspricht, gibt es unter dem Kürzel SCSI inzwischen drei verschiedene Standards. Begonnen hat alles mit SCSI-1, das 1986 vom American National Standards Institute (ANSI) festgelegt wurde. SCSI-1 beruht auf einem Bus, der eine acht Bit breite, parallele Datenübertragung ermöglicht und mit 5 MHz getaktet ist. An diesen Bus können bis zu sieben SCSI-Geräte angeschlossen werden. Die normale Datenübertragungsrate beträgt 5 Mbyte/s. SCSI-2 ist eine Überarbeitung und Erweiterung des älteren Standards; fast alle modernen Geräte arbeiten inzwischen mit SCSI-2. Wesentliche Neuerung dieser Überarbeitung ist die Erhöhung der Taktrate auf 10 MHz und die Unterstützung weiterer Geräte wie beispielsweise CD-ROMs. Weiterhin erlaubt SCSI-2 einige Erweiterungen: ●

Fast-SCSI ermöglicht bei 10 MHz Takt und 8-Bit-Bus eine Übertragungsrate von 10 Mbyte/s



Bei Wide-SCSI erfolgt die Datenübertragung auf einem 16 Bit breiten Bus. Die Übertragungsrate









wird dadurch auf bis zu 20 Mbyte/s erhöht. Bis zu 15 Geräte können angeschlossen werden. Ultra-SCSI verdoppelt zwar den Bustakt, behält aber eine Busbreite von 8 Bit bei. Somit ergeben sich auch bei diesem Verfahren Transferraten von bis zu 20 Mbyte/s. Ultra-Wide-SCSI verbindet die beiden letztgenannten Techniken und erreicht bei 20 MHz Takt und 16 Bit Breite Übertragsraten von bis zu 40 Mbyte/s. Ultra-2-SCSI und Ultra-2-Wide-SCSI verbessern die Qualität der Datenübertragung, so dass durch geringere Störungen mehr Daten über die Leitung übertragen werden können. So erreicht Ultra-2SCSI bei nur 8 Bit Breite bereits 40 Mbyte/s, während Ultra-2-Wide-SCSI durch Verdoppelung des Datenbusses diesen Wert noch einmal auf 80 Mbyte/s erhöht. Bei diesen beiden Verfahren können bis zu 15 zusätzliche Geräte an den PC angeschlossen werden, und das Kabel kann bis zu 12 Meter lang sein. Inzwischen arbeitet man an der nächsten Erweiterung, Ultra-160-SCSI, das eine entsprechend hohe Transferrate ermöglichen soll.

Die folgende Tabelle soll Ihnen die verwirrende Vielfalt der verschiedenen SCSI-Ausprägungen noch einmal verdeutlichen: Standard

Übertragungsrate

Busbreite

SCSI

5 Mbyte/s

8

Fast-SCSI, Fast-10

10 Mbyte/s

8

Fast-Wide-SCSI, Fast-10-Wide

20 Mbyte/s

16

Ultra-SCSI, Fast-20

20 Mbyte/s

8

Wide-Ultra-SCSI, Fast-20 Wide

40 Mbyte/s

16

Ultra-2-SCSI, Fast-40

40 Mbyte/s

8

Wide-Ultra-2-SCSI, Fast-40-Wide

80 Mbyte/s

16

Ultra-3-SCSI, Fast-80

80 Mbyte/s

8

Wide-Ultra-3-SCSI, Fast-80 Wide

160 Mbyte/s

16

Tabelle 5.2: Die verschiedenen Ausprägungen der SCSI-Standards

Festplattentipp 2: Auswahl des Controllers Wenn Sie in einen Computerladen gehen und sich für ein Fertigpaket entscheiden, wird Ihnen meist die Entscheidung vorweggenommen. In fast allen diesen Rechnern ist ein Festplattenlaufwerk mit EIDEController installiert. Sie sind halt am einfachsten und billigsten zu installieren und trotzdem sehr leistungsfähig. Daher hat sich dieser Bus zu einem Standard entwickelt. Der SCSI-Bus ist da schon deutlich flexibler. Bis zu sieben bzw. 15 Geräte können über eine ControllerKarte angeschlossen werden. Dabei kann es sich um Festplatten, Streamer, Drucker oder auch um ein CD-ROM-Laufwerk handeln. Gerade wenn Sie einen Scanner regelmäßig nutzen wollen, liegt die Entscheidung für den SCSI-Bus auf der Hand. Der einzige Nachteil dieser Technik ist, dass Sie eine spezielle Controller-Karte benötigen, die noch einmal mit gut 300 Mark zu Buche schlägt; häufig ist der SCSI-Controller inzwischen auch schon direkt auf der Hauptplatine integriert, die dann aber auch etwa 200 Mark teurer ist als eine Hauptplatine nur mit EIDE-Controller. Diese Investition lohnt sich aber besonders dann, wenn Sie beizeiten den Computer um weitere Geräte wie CD-Brenner, DVD-Laufwerk, Scanner etc. erweitern möchten, so dass die EIDESchnittstelle mit ihren maximal 4 Anschlussmöglichkeiten nicht mehr ausreicht.

5.3.4 Magnetband-Speicher Magnetbänder werden schon seit langem in der Unterhaltungselektronik eingesetzt. Unter bestimmten Umständen eignen sie sich auch zur Speicherung von Daten und Programmen. Zur Aufzeichnung der Datenbits wird das gleiche Verfahren angewendet wie bei Magnetplatten. Die einzelnen Informationen werden hintereinander auf das Band übertragen. Der große Nachteil bei diesem Medium ist, dass bestimmte Informationen nur schwer wiedergefunden werden können. MagnetbandSpeicher sind so genannte serielle Speicher, da die Informationen nacheinander (seriell) aufgezeichnet werden. Während bei einer Platte auf der Suche nach bestimmten Daten einzelne Spuren übersprungen werden können, muss beim Magnetband die Suche am Anfang des Bandes beginnen und Zentimeter für Zentimeter fortgesetzt werden, bis die richtige Stelle gefunden ist. Die benötigte Zeit ist abhängig vom Abstand zwischen Ausgangspunkt und Zielpunkt auf dem Band.

Bild 5.24: Zwei Magnetbandlaufwerke für den internen Einbau oder für den externen Betrieb mit Magnetbandkassette

Aus diesen Gründen eignen sich Magnetband-Speicher nicht zur Arbeit mit Daten, die ständig benötigt werden. Andererseits bieten sie sich besonders gut an für die Sicherung von Festplatten, da Magnetbänder preiswert sehr große Datenmengen speichern können. Abhängig von der Länge des Bandes und dem verwendeten Aufzeichnungsverfahren sind bis zu mehreren Gbyte Daten möglich. Streamer

Besondere Magnetbandlaufwerke, so genannte Streamer, können zusammen mit einer Festplatte in einen Computer eingebaut werden. Auf diese Weise können die Daten von der Platte auf Band gesichert werden, ohne dass ein größerer Arbeitsaufwand für den Benutzer entsteht.

5.3.5 Alternative Speichermedien Festplatte ist nicht austauschbar

Im letzten Kapitel haben Sie gesehen, dass Magnetplatten sehr praktische Speicher sind. Besonders die Festplatte zeichnet sich durch ihre hohe Speicherkapazität und niedrige Zugriffszeit aus. Trotz dieser wichtigen Vorteile haben Festplattenlaufwerke einen Nachteil: sie sind fest im Rechner eingebaut, man kann sie nicht ohne weiteres austauschen. Für den Normalbetrieb mit einem Personalcomputer reichen die Speicherkapazitäten zumeist aus. Doch für spezielle Anwendungen, wo besonders viele Daten zusammenkommen und verarbeitet werden müssen oder Daten zu transportieren sind, benötigt man alternative Speicherungsmöglichkeiten. Wechselplattensysteme

Die Industrie bietet hierzu inzwischen zahlreiche Lösungen an, die sich danach unterscheiden, ob nur das Speichermedium, also z. B. die Magnetplatte austauschbar ist, oder das gesamte Laufwerk inklusive der Schreib-/Lesetechnik: Wechselrahmen



Die einfachste Möglichkeit, den Massenspeicher auszutauschen, sind Festplatten-Wechselrahmen. Der Wechselrahmen an sich ist relativ preisgünstig und wird einfach fest in einen Laufwerksschacht des Computers eingebaut. In das herausnehmbare Innenteil des Rahmens kann eine normale Festplatte im 3,5-Zoll-Format mit beliebiger Speicherkapazität eingebaut werden. Diese Technik ermöglicht es Ihnen, Festplatten nach Bedarf ohne viele Handgriffe auszuwechseln. Auf diese Weise können Sie beispielsweise zum Ende eines Arbeitstages wichtige Daten einfach mit der Festplatte aus dem Rechner entfernen und beispielsweise in einem Tresor verschließen. Oder Sie möchten große Datenmengen an einem anderen Rechner weiterverarbeiten. Voraussetzung ist natürlich, dass der andere Rechner über den gleichen Wechselrahmen verfügt. Einziges Problem bei dieser Technik ist, dass Sie den Rechner zum Auswechseln der Platten ausschalten und anschließend wieder neu hochfahren müssen.

SyQuest-Wechselplatten



Die Firma SyQuest nimmt sich bereits seit einigen Jahren dieses Themas an und hat bereits mehrere Lösungen entwickelt. Die SyQuest-Wechselplatten sind noch am ehesten mit einem Diskettenlaufwerk vergleichbar: In den Computer wird ein Laufwerk mit der gesamten Steuerungselektronik fest eingebaut. Die Magnetscheibe befindet sich dagegen, analog wie bei der Diskette, in einem festen Kunststoffgehäuse. Beim Einlegen der Kassette wird ein Verschlussmechanismus geöffnet und dem Schreib-/Lesekopf Zugang zur Magnetplatte gewährt. Aber erst nach dem Anlaufen der Platte senken sich die Magnetköpfe, um wie bei der Festplatte auf

einem dünnen Luftpolster über der Plattenoberfläche zu schweben.

Bild 5.25: Das SyJet-Laufwerk von SyQuest, das 1,5 Gbyte auf den Medien speichert (Foto: SyQuest).

Da sich die gesamte Steuerungselektronik innerhalb des Laufwerks befindet, sind die Speichermedien relativ unempfindlich; sie lassen sich auch per Post verschicken.

Bild 5.26: Die Wechselplatten sind in stabilen Hüllen verpackt (Foto: SyQuest).

Iomega Jaz



Auf die gleiche Technik setzt das Jaz-Laufwerk von Iomega. 2 Gbyte lassen sich derzeit auf eine auswechselbare Disk speichern. Zugriffszeit und Datentransferrate dringen in den Bereich normaler Plattenlaufwerke vor.

ZIP-Drive



Eine preiswerte Alternative stellt das IOMEGA ZIP-Drive dar. Weder das Laufwerk noch die Datenträger lassen sich auf den ersten Blick von der Diskettentechnik unterscheiden. Allerdings bieten die 3,5-Zoll großen Magnetscheiben Platz für derzeit ca. 250 Mbyte Daten. Die Laufwerke lassen sich als externe Geräte über den parallelen Druckeranschluss oder die externe SCSISchnittstelle betreiben und können damit an jeden PC angeschlossen werden. Somit sind diese Laufwerke ideal für den Datentransport von einem PC zum anderen.

Bild 5.27: Zip-Drive von Iomega (Foto: Iomega).

120 Mbyte-Diskette



Im Gegensatz zum ZIP-Laufwerk ist das Diskettenlaufwerk von Panasonic kompatibel mit herkömmlichen Diskettenlaufwerken. Auf der Panasonic-Diskette können bis zu 120 Mbyte gespeichert werden, nebenher liest und schreibt das Laufwerk aber auch herkömmliche Disketten mit 1,44 Mbyte Speicherkapazität. Daher wird das Panasonic-Laufwerk inzwischen von mehreren PCHerstellern statt eines herkömmlichen Diskettenlaufwerks in PCs eingebaut.

Bild 5.28: Die Superdiskette von Panasonic ist kaum von einer normalen Diskette zu unterscheiden

MO-Laufwerke







Die magnetooptischen Laufwerke (MO-Laufwerke) sind Zwitter zwischen der magnetischen und der optischen Speicherung. Als Speichermedium wird zunächst wieder eine Magnetplatte eingesetzt. Die magnetisierbare Schicht besteht dabei aus einem Material, das bei Zimmertemperatur kaum magnetisierbar ist, jedoch sehr gut bei hoher Temperatur. Bei der Aufzeichnung der Daten erhitzt ein scharf gebündelter Laserstrahl einen winzigen Bereich des magnetooptischen Materials, dessen Polarität anschließend durch ein Magnetfeld verändert wird. Die Daten können später mit dem Laserstrahl wieder gelesen werden, da das gebündelte Licht durch die magnetisierten Stellen verändert wird. Diese Veränderungen können wieder in Bits entschlüsselt (dekodiert) werden. Durch die Kombination von magnetischen und optischen Verfahren sind auf MO-Medien gespeicherte Daten extrem gut gegen Datenverluste gesichert. Daher werden diese Medien in erster Linie zur Archivierung verwendet. Auf eine 5¼-Zoll Scheibe können über 1,3 Gbyte gespeichert werden. Bei diesem Einsatzzweck lässt sich auch recht gute mit der relativ niedrigen Schreibgeschwindigkeit leben. Neueste Laufwerke erreichen Speicherkapazitäten von bis zu 5 Gbyte, eignen sich aber schon vom Preis her nur für den professionellen Einsatz.

5.4 Optische Speicherung Während die MO-Medien eine Gratwanderung zwischen magnetischen und optischen Aufzeichungverfahren darstellen, ist die CD-ROM der Inbegriff des optischen Speicherverfahrens. CD-ROM

Compact Disk

Der Begriff CD ist Ihnen sicher aus der Unterhaltungselektronik bekannt. Die Compact Disk hat die herkömmliche Schallplatte annähernd vollständig vom Markt verdrängt. Die Vorteile der CDs sind, dass die Musik digital aufgezeichnet wird und damit Störgeräusche wegfallen. Die Musik wird auf der CD in Form von Bits gespeichert, die auf der Platte durch Vertiefungen im Material kodiert werden. Ein Laserstrahl, der die Platte abtastet und die Vertiefungen feststellt, kann diese Kodierung wieder in einzelne Bits umwandeln.

Bild 5.29: CD-ROM

Da Computerdaten ebenfalls in Form von Bits gespeichert werden, kann die CD auch zur Speicherung von Informationen genutzt werden. Bis zu 650 Mbyte Daten bzw. 74 Minuten Musik lassen sich normalerweise auf einer CD-ROM speichern; spezielle CDs bieten bis zu 700 Mbyte Speicherkapazität bzw. für 80 Minuten Musik. CD-ROM

CD-ROMs bestehen aus einer runden durchsichtigen Plastikscheibe, auf die eine Schicht aus Aluminium aufgebracht ist, die durch eine Lackschicht geschützt wird. Das Aluminium ist für den silbernen Glanz der Scheibe verantwortlich, bei der Photo-CD von Kodak sind geringe Beimengen von Gold für den goldfarbenen Glanz verantwortlich, andere Hersteller verwenden aber auch Messing, um ihre Produkte edler aussehen zu lassen. Die Aluminiumschicht ist der eigentliche Informationsträger. Bei der Herstellung wird eine spiralförmige Spur gezogen, in die mit Hilfe eines Lasers in bestimmten Abständen Vertiefungen eingebrannt werden, die so genannten Pits. Anders als bei den herkömmlichen Schallplatten läuft die Spur von innen nach außen; die Spur kann mit ihren bis zu 22.000 Windungen bis zu 25 Kilometer lang sein. Beim Lesen wird die CD von einem scharf gebündelten Laserstrahl abgetastet. Trifft er auf eine Vertiefung, wird er absorbiert; ist die Plattenfläche dagegen eben, wird der Laserstrahl reflektiert und von einer Fotodiode registriert. Bei Audiosignalen werden die Daten von einem Digital/Analog-Wandler umgewandelt und entweder an einen eingebauten Kopfhörerausgang oder eine Soundkarte weitergeleitet. Die digitalen Daten werden über einen Controller an die Zentraleinheit weitergeleitet.

Bild 5.30: CD-ROM-Laufwerke

Hohe Zugriffszeit

Ein Problem bei CD-ROMs sind die im Vergleich zur Festplatte recht hohen Zugriffszeiten und die ursprünglich recht geringen Datenübertragungsraten. Die Zugriffszeiten herkömmlicher Laufwerke liegen bei 100 bis 150 Millisekunden, das 10- bis 15-fache von Festplatten. Schuld daran ist die spiralförmige Anordnung der Datenspur; beim Lesen der Daten muss der Laser beständig der Spur folgen, wodurch auch eine Anpassung der Umdrehungsgeschwindigkeit notwendig wird. Zur Verbesserung der Übertragungsgeschwindigkeit wurde im Laufe der Zeit ständig die Umdrehungsgeschwindigkeit der CD erhöht. Inzwischen bieten selbst die preiswerten Laufwerke vierzigfache Umdrehungsgeschwindigkeit, bis Drucklegung des Buches waren bereits die ersten Laufwerke mit über siebzigfacher Geschwindigkeit auf dem Markt. Entsprechend der Drehgeschwindigkeit erhöht sich auch die Datenübertragungsrate, die dann nicht mehr nur 150 Kbyte pro Sekunde wie bei einfacher Umdrehungsgeschwindigkeit erlaubt, sondern 1500 Kbyte/s und mehr. Allerdings bedeutet eine Vervielfachung der ursprünglichen Umdrehungsgeschwindigkeit nicht auch eine entsprechende Vervielfachung der Datenübertragung. CD-ROM und Geschwindigkeit: Die einfache Umdrehungsgeschwindigkeit von CD-ROM-Laufwerken ist so eingestellt, dass der Laser pro Sekunde 75 Sektoren lesen kann, das ermöglicht eine Übertragungsgeschwindigkeit von 153,6 Kbyte/s. Diese Standardübertragungsrate konnte im Laufe der Jahre durch Erhöhung der Umdrehungsgeschwindigkeit vervielfacht werden. Seit den Laufwerken mit 24-facher Geschwindigkeit gilt der Faktor aber nicht mehr für die Übertragungsrate, statt dessen gibt die Vervielfachung der Umdrehungsgeschwindigkeit dem Laufwerk den Namen. Die entsprechende Übertragungsgeschwindigkeit kann nur bei den äußeren Bereichen einer CD-ROM erreicht werden, je weiter der Laser zu den inneren CD-Bereichen vordringt, desto weniger Informationen werden pro Umdrehung gelesen, womit entsprechend die Transferrate abnimmt. So kann es sein, dass ein 50-fachLaufwerk bei den äußeren Spuren wohl eine entsprechende Transferrate von ca. 7,5 Mbyte erzielt, bei den inneren Spuren dagegen »nur noch« die 22-fache Lesegeschwindigkeit, die mittlere

Lesegeschwindigkeit also einen niedrigeren Wert umfasst. Die hohen Umdrehungsgeschwindigkeiten bergen allerdings auch neue mechanische Herausforderungen, die nicht jeder Hersteller in den Griff bekommt. So gibt es Laufwerke, die beim Einlegen einer CD an das Starten eines Düsentriebwerks erinnern.

Nachteile

Obwohl die CD-ROM als das ideale Speichermedium erscheint, bleiben doch auch einige Nachteile nicht zu verschweigen. Das »ROM« im Namen verweist darauf, dass die Daten auf diesen Medien nur gelesen werden können. Zwar gibt es inzwischen auch so genannte CD-Recorder, allerdings sind sie für den breiten Einsatz zu teuer. Neben dem Grundbegriff CD-ROM haben sich inzwischen zahlreiche Spielarten eingebürgert, deren Bezeichnung in erster Linie auf die aufgezeichneten Daten hinweist: XA-Standard

Der CD-ROM/XA-Standard wurde 1991 verabschiedet und ermöglicht es, Programminformationen und Tondaten abwechselnd zu speichern. Beim Abspielen von Videosequenzen wird der Datenfluss von der CD-ROM in einen Video- und einen Audiodatenstrom aufgeteilt und an die jeweiligen Geräte (Video- bzw. Grafikkarte und Soundkarte) weitergeleitet. Photo-CD

Hinter der Photo-CD verbirgt sich ein spezielles Aufzeichnungsverfahren, das von Kodak entwickelt wurde, um Fotos in hoher Qualität auf einer CD-ROM zu speichern. Auf den normalen Photo-CD-Mastern werden bis zu 100 Bilder in einer Auflösung von maximal 2048 * 3072 Bildpunkten gespeichert. Diese hohe Auflösung gewährleistet, dass die Fotos am Bildschirm gestochen scharf dargestellt werden können und beim Ausdruck über einen hochwertigen Farbdrucker kaum von normalen Fotos zu unterscheiden sind. Multisession-CD

Die Herstellung von Photo-CDs wird von vielen Fotofachgeschäften angeboten. Sie können neue Filme oder auch Dias auf die CD speichern lassen. Dazu muss die CD nicht unbedingt in einem Arbeitsgang beschrieben werden, sondern Sie können Ihre Bilder nach und nach auf die CD schreiben lassen. In diesem Fall werden auf der Photo-CD mehrere Sessions angelegt, wodurch eine so genannte MultisessionCD entsteht. Video-CD

Auf einer CD-ROM lassen sich nicht nur Photos oder Programme speichern, sondern auch Videos. In einigen Kaufhäusern können Sie inzwischen Videos auf CD-ROM kaufen. Da auf der Video-CD für maximal 74 Minuten Platz ist, werden viele Filme auf zwei CDs aufgeteilt. Bei der Video-CD werden die Video-Daten mit der MPEG-Technik komprimiert. Da die Dekodierung sehr rechenaufwändig ist, benötigen Sie für die Wiedergabe einer Video-CD am PC nicht nur ein schnelles CD-ROM-Laufwerk, sondern auch eine MPEG-Karte. MPEG

MPEG ist die die Abkürzung für Motion Pictures Experts Group und bezeichnet ein spezielles Komprimierungsverfahren für die Verdichtung von Videodaten von hoher Qualität. Das Verfahren macht von der Tatsache Gebrauch, dass sich zwei aufeinanderfolgende Einzelbilder eines Film nur gering

unterscheiden. Daher werden nur die Unterschiede zwischen den Einzelbildern komprimiert gespeichert. Der Komprimierungsvorgang ist sehr aufwändig und lässt sich nur mit spezieller Hardware bewerkstelligen. Selbst die Dekomprimierung am PC erfordert normalerweise spezielle MPEG-Dekodierkarten. Auf Rechnern, die mindestens mit einem Pentium-Prozessor ausgerüstet sind, der mit 100 MHz und mehr getaktet ist, können MPEG-Daten durch eine reine Software-Lösung ausreichend schnell dekodiert werden. CD-I

Auf der MPEG-Technik beruht auch die Compact Disc Interactive, kurz CD-I. Für diese CD-ROM wird ein spezielles Abspielgerät benötigt, das nicht nur die Wiedergabe der gespeicherten Video-Filme ermöglicht, sondern auch, wie bei einem Computer-Spiel, Eingriffe des Zuschauers berücksichtigt. Bei interaktiven Videos können Sie selber den Handlungsverlauf bestimmen. CD-Is lassen sich zwar auch auf einem Computer mit MPEG-Karte abspielen, allerdings müssen Sie auf den interaktiven Teil verzichten. AVI

Neben den MPEG-Videos finden Sie auf CD-ROMs häufig auch kurze Videosequenzen, um beispielsweise bestimmte Sachverhalte anschaulich darzustellen. Diese kurzen Videosequenzen sind meist im AVI- oder im Quicktime-Format gespeichert. Die Abkürzung AVI steht für Audio Video Interleave und bezeichnet das Standardformat für Video für Windows. Der Name dieses Verfahrens leitet sich von der Tatsache ab, dass in den AVI-Dateien Audio- und Videodaten ineinander verschachtelt gespeichert sind. Beim Abspielen ordnet das Windows-Programm Medienwiedergabe die Daten richtig zu. Die Videodaten in einer AVI-Datei können nach unterschiedlichen Verfahren komprimiert sein. Beispiele hierfür sind die Verfahren Cinepak oder Microsoft Video. Quicktime

Ein entsprechendes Verfahren wird auch von der Firma Apple angeboten. Quicktime-Videos werden ebenfalls ohne zusätzliche Hardware nur durch Software dekodiert.

CD-ROM-Laufwerke: Die Auswahl eines CD-ROM-Laufwerks ist nicht mehr so schwierig wie vor wenigen Jahren. Damals unterstützte noch nicht jedes Laufwerk die gängigen Standards. Inzwischen haben sich fast alle Laufwerke bezüglich Leistung und Preis stark angenähert, so dass man bei der Auswahl eines Geräts kaum Fehler machen kann. Idealerweise sollte man sich aber vor dem Kauf ein Laufwerk im Betrieb anhören, da es doch erhebliche Unterschiede gibt, welche Lautstärke CD-ROM-Laufwerke im Betrieb entwickeln.

CD-Recorder

Das Produzieren von CD-ROMs ist inzwischen nicht mehr den großen Herstellern vorbehalten, sondern wird mit Hilfe von CD-Recordern auch dem normalen Anwender möglich gemacht. CD-Brenner, wie diese Geräte häufig auch genannt werden, sind inzwischen auch für Hobby-Anwender bezahlbar geworden. Bei einer CD-ROM werden die Informationen durch Pits kodiert, kleine Vertiefungen, die bei der Herstellung in die Oberfläche gepresst werden und die Reflexion des Laserstrahls verändern. Ähnlich arbeiten auch CD-Recorder, bei ihnen besteht die Oberfläche aber aus einer organischen Beschichtung, in die bei der Speicherung durch den Laser Vertiefungen eingebrannt werden (daher auch die häufig

verwendete Bezeichnung CD-Brenner). Ebenso wie bei der CD-ROM lassen sich die Daten nicht mehr verändern, dafür können Sie die CD nach und nach mit Daten auffüllen. Die CD-Rohlinge, in welche die Informationen hineingebrannt werden, sind relativ preiswert (teilweise weniger als eine Mark) und können von jedem CD-ROM-Laufwerk gelesen werden. Die Geschwindigkeiten für das Lesen und Schreiben bei CD-Recordern hinken allerdings hinter den reinen CD-ROM-Laufwerken her, bis zur zwölffachen Geschwindigkeit können z. Z. die schnellsten Geräte schreiben und bis zu etwa vierzigfachen lesen. CD-Brenner eignen sich aber nicht nur zum Sichern eigener Daten und Programme, sondern auch zum Erstellen von Audio-CDs. Besonders bei Musikfans, die noch über eine reichhaltige Sammlung von Langspielplatten verfügen, erfreut sich der CD-Brenner großer Beliebtheit, um die analogen Scheiben auf CD-ROMs zu digitalisieren. Inzwischen gibt es auch zahlreiche, zum Teil kostenfreie Programme, die eine Nachbearbeitung der Plattenaufnahmen ermöglichen, um unliebsame Geräusche, wie sie z. B. von Kratzern erzeugt werden, herauszufiltern.

Bild 5.31: Ein CD-Brenner (Foto: HP)

Buffer-Underrun und BURN-Proof Damit eine CD fehlerfrei gebrannt werden kann, muss der Brenner während des Aufzeichnungsvorgangs die Daten in konstanter Geschwindigkeit vom Quelllaufwerk erhalten. Kommt es an irgendeiner Stelle zu einer Störung während des Datentransfers, entsteht eine Lücke auf der CD-ROM, durch die sie unlesbar wird. Der Brennvorgang ist fehlgeschlagen und der Rohling unbrauchbar. Inzwischen sind alle Brenner mit Cache-Speichern ausgerüstet, um kurzzeitige Störungen beim Datentransfer zu überbrücken. Kann aber auch der Cache-Speicher rechtzeitig keine Daten mehr liefern, kommt es zum so genannten BufferUnderrun und der Brennvorgang schlägt fehl. Mit bis zu 4 Mbyte Cache-Speicher versuchen viele Hersteller dem vorzubeugen. Abhilfe schafft eine neue Technik, das Burn-Proof-Verfahren. Dabei überprüft ein spezieller ControllerBaustein im Brenner die Auslastung des Cache-Speichers. Sinkt die Datenmenge unter einen kritischen Wert, wird der Brennvorgang kontrolliert abgebrochen. Nach dem der Cache-Speicher wieder mit Daten aufgefüllt wurde, versucht der Controller, den Brennvorgang hinter den zuletzt geschriebenen Daten fortzusetzen. Das gelingt nicht genau, allerdings ist die entstehende Lücke ausreichend klein, so dass sie von jedem CD-ROM-Laufwerk überbrückt werden kann. Mit dieser Technik kann der Ausschuss an unbrauchbaren Rohlingen auf ein Minimum reduziert werden.

CD-RW-Recorder

Eine Variante der CD-Brenner sind die CD-RW-Recorder, die besondere CDs mehrfach beschreiben können. Diese Geräte arbeiten mit dem Phase-Change-Verfahren, bei dem durch Erhitzen des Datenträgers die Reflektion des Laserstrahls verändert wird. Die so hergestellten Scheiben können auch von normalen Brennern und auch von CD-ROM-Playern wiedergegeben werden, wie auch umgekehrt CDRW-Recorder die mit den alternativen Techniken hergestellten CD-ROMs abspielen können. Während CD-RW-Recorder nur unwesentlich teurer sind als CD-Brenner, muss für die CD-RW-Medien ein mehrfaches der CD-R-Medien bezahlt werden, darüber hinaus sind die Geräte nur etwa halb so schnell beim Schreiben der Medien. Die Speicherkapazität der CD-RW-Medien liegt ebenfalls bei ca. 650 Mbyte, die Lebenserwartung der Scheiben liegt bei ca. 1000 Schreibzyklen. Das mag zwar auf den ersten Blick viel erscheinen, bedenkt man aber, dass bei jeder Änderung von Dateien auch das Inhaltsverzeichnis des Dateisystems (FAT) geändert werden muss, kann die Beschreibbarkeit zumindest einzelner Bereiche einer Platte schon nach relativ kurzer Zeit eingeschränkt sein. Phase-Change-Verfahren Das Phase-Change-Verfahren wurde bereits Anfang der achtziger Jahre entwickelt und beruht auf einer physikalischen Eigenschaft von Feststoffen: Sie können in einer kristallinen oder in einer amorphen (geordneten oder ungeordneten) Molekülstruktur vorliegen. Beeinflusst wird dieser Zustand durch die Temperatur. Wird ein Feststoff bis knapp unterhalb des Schmelzpunkts erhitzt, richten sich die Moleküle in einer kristallinen Struktur aus. Wird der Stoff über den Schmelzpunkt hinaus erhitzt, geht er in einen amorphen Zustand über. Bei sehr schneller Abkühlung kann der amorphe Zustand beibehalten werden.

Wird der Stoff von einem Laser bestrahlt, wirkt sich der Zustand auf die Reflektion aus, d. h. dass durch einen Sensor festgestellt werden kann, in welchem Zustand sich das mit dem Laser angestrahlte Molekül des Stoffes befindet; somit lassen sich also Daten speichern. Der gleiche Laser kann aber auch dazu genutzt werden, den Zustand des Stoffes wieder zu ändern, d. h. die Daten zu löschen, indem der Stoff mit deutlich mehr Energie bestrahlt wird. Digital Versatile Disc

Ein Problem der CD-ROM ist die »geringe« Speicherkapazität. Viele Computerspiele kommen schon nicht mehr mit einer Scheibe aus, zwischen zwei und vier CDs sind schon fast normal für ein aufwändig gestaltetes Grafikabenteuer. Video-Filme benötigen zwar nur 2 CD-ROMs, aber wer erhebt sich schon gerne aus seinem Sessel, um nach einer Stunde Film eine neue CD einzulegen. Im Prinzip hat die Industrie schon seit längerem Lösungen parat, allerdings hat man aus der Vergangenheit gelernt, dass es sich nicht lohnt, mit mehreren verschiedenen Verfahren an den Markt zu gehen. Nicht zuletzt durch den intensiven Druck der Hollywood-Studios und der Computer-Industrie hat man sich im Herbst 1995 auf den Standard für ein neues Speichermedium festgelegt, das inzwischen als Digital Versatile Disc oder kurz DVD bekannt ist (anfangs wurde das Kürzel DVD auch mit Digitale Video Disc übersetzt, was den angezielten Einsatzbereich bereits andeutete. Allerdings kommt der Begriff Versatile, der »vielseitig verwendbar« bedeutet, dem heute bereits breiten Einsatzspektrum dieser Scheiben näher). Allerdings hat es bis etwa zur Cebit 1999 gedauert, dass die DVD vom Anwender akzeptiert wurde. Die gestiegene Leistung der Laufwerke, die beim Lesen von normalen CD-ROMs den Vergleich mit reinen CD-ROMLaufwerken nicht scheuen müssen, und die gesunkenen Preise motivieren inzwischen viele PC-Käufer, sich ein DVD- statt eines CD-ROM-Laufwerks in den Rechner einbauen zu lassen.

Die DVD unterscheidet sich äußerlich so gut wie gar nicht von der normalen CD. Sie ist genauso groß, wird allerdings zweiseitig hergestellt. Dazu werden zwei CDs halber Stärke rückseitig aneinandergeklebt. Neben der dadurch schon verdoppelten Speicherkapazität werden die Daten bei der DVD erheblich dichter geschrieben. So sind die einzelnen Pits nur noch etwa halb so groß wie bei der herkömmlichen CD. Darüber hinaus ist es möglich, die Informationen auf einer Seite der CD nicht nur in einer, sondern in zwei übereinanderliegenden Schichten zu speichern. Dazu ist die erste Schicht halbtransparent und kann den Laserstrahl auch Daten in der darunter liegenden Schicht lesen lassen. Verschiedene Formate

Für die DVD sind sechs verschiedene Formate vorgesehen: ●









Eine einseitige, einschichtige Disc mit einer Speicherkapazität von 4,7 Gbyte. Auf einer solchen Disc können bis zu 130 Minuten Video gespeichert werden. Für die Komprimierung der Videodaten wird das MPEG-II-Verfahren benutzt, dass deutlich bessere Filmqualität ermöglicht als MPEG-I und damit eben auch über VHS-Qualität hinaus geht. Die zweiseitige Version ergibt dann die doppelte Speicherkapazität, wobei die Disc ggf. nach dem Abspielen der ersten Seite umgedreht werden muss oder von einem zweiten Laser auf der Unterseite abgetastet wird. Da sich das Wechseln der Disc-Seite für den Zugriff auf gespeicherte Computerdaten nicht eignet, kann die Disc auch zweischichtig beschrieben werden. Dadurch erhöht sich die Speicherkapazität auf 8,5 Gbyte. Verwendet man dieses Verfahren für zweiseitige Discs, erhöht sich der Speicherumfang auf beträchtliche 17 Gbyte. Neben diesen Formaten, bei denen lediglich an die Wiedergabe von Informationen gedacht ist, sind zwei weitere Standards geplant, die zum einen einmalig beschreibbare Scheiben mit 7,5 Gbyte (z. B. zur Datenarchivierung) und beliebig wiederbeschreibbare Disks mit 5 Gbyte ermöglichen.

DVD-RAM

Ergänzt werden diese DVD-Formate durch die wiederbeschreibbare DVD, die es aber leider zunächst in zwei verschiedenen Formaten geben wird, als DVD-RAM und als DVD-RW. Die ersten Geräte für DVDRAM bieten allerdings »nur« eine Speicherkapazität von 2,6 Gbyte, während DVD-RW-Laufwerke die volle DVD-Kapazität von 4,7 Gbyte unterstützen sollen. DVD-RAM- und DVD-RW-Laufwerke arbeiten beide mit der gleichen Technik wie die CD-RW-Brenner, also dem Phase-Change-Verfahren, wobei sie allerdings bis zu 100.000 Schreibvorgänge pro Medium unterstützen. Abspielgeräte für die DVD sind abwärtskompatibel zu den bisherigen CDs, d. h. dass Sie mit einem neuen Abspielgerät für DVDs auch Ihre alten Audio- und Video-CDs wie auch sonstige CD-ROMs abspielen können. Die Entwicklung dieser neuen Speichertechnik wurde in erster Linie durch die UnterhaltungselektronikIndustrie vorangetrieben. Medienkonzerne erhoffen sich Vorteile, da die DVD billiger zu produzieren ist als die herkömmliche Video-Kassette und sich darüber hinaus nicht durch häufigen Gebrauch abnutzt. Für den Konsumenten eröffnet sich die Chance, dass durch die wiederbespielbaren Discs Magnetbänder gänzlich abgelöst werden können und er in Zukunft es nur noch mit einem Medium zu tun hat. Der Computerindustrie wird ein gigantischer Massenspeicher an die Hand gegeben. Umfangreiche Programme müssen nicht mehr über mehrere CD-ROMs verteilt werden, statt dessen genügt eine Disc im DVD-Format. Allerdings ist es sicherlich nur eine Frage der Zeit, bis man auch mit diesem Medium an Grenzen stößt.

DVD-Laufwerke: DVD-Laufwerke werden auch für den PC angeboten. Ist der PC ausreichend leistungsfähig (etwa ab Pentium II mit 350 MHz), kann auf eine zusätzliche MPEG-2-Decoderkarte zur Dekodierung von Videofilmen verzichtet werden. Statt dessen reicht eine entsprechende Software aus. Ein DVD-Laufwerk ist aber nicht nur zum Anschauen von Videofilmen am PC sinnvoll, sondern auch für die verschiedensten Informationen, die bereits jetzt und in Zukunft auf DVD angeboten werden. So gibt es beispielsweise eine Ausgabe der Microsoft Encarta, die statt auf zwei oder mehr CD-ROMs auf einer DVD geliefert wird. Gerade auch die Spielehersteller werden in Zukunft nicht mehr eine größere Anzahl von CDs in den Spielekarton packen, sondern eine DVD. Im Übrigen ist ein DVD-Laufwerk ja auch abwärtskompatibel, d. h., dass Sie auch CD-ROMs und AUDIOCDs abspielen können. Und für diesen zusätzlichen Nutzen hält sich der Mehrpreis durchaus in Grenzen, so dass Sie bei einer Neuanschaffung unbedingt auch den Einbau eines DVD-Laufwerks, vielleicht statt eines CD-ROM-Laufwerks, in Betracht ziehen sollten.

6 Die Peripherie: Ein- und Ausgabegeräte In den vergangenen Kapiteln haben Sie die wesentlichen Bausteine kennengelernt, die zur Zentraleinheit gezählt werden. Die Zentraleinheit allein macht aber noch keine EDV-Anlage bzw. einen Personalcomputer aus. Darüber hinaus werden Geräte benötigt, welche die Ein- und Ausgabe von Daten erlauben, so genannte Peripherie-Geräte. Zu den wichtigsten Zusatzgeräten eines PCs gehören auf jeden Fall eine Tastatur zur Dateneingabe und ein Monitor zur Ausgabe. Weitere Geräte, die die Arbeit erleichtern, sind: ●

Drucker und Plotter, wenn Arbeitsergebnisse auf Papier festgehalten werden sollen,



die Maus, die neben der Tastatur zur Steuerung der Arbeit am Computer dient, Scanner, mit denen fertige Texte und Grafiken in den Rechner eingelesen werden können, eine Soundkarte für die Ausgabe von Klängen, ob Sie nun bei der Arbeit eine CD hören möchte, oder für die Sprachausgabe von Computerspielen,



ein Modem, über das Ihr Computer mit anderen Rechnern in Kontakt treten kann.

● ●

6.1 Tastatur und Maus Tastatur und Maus sind sicherlich die wichtigsten Eingabegeräte für einen Computer.

6.1.1 Die Tastatur MF-Tastatur

Auf den ersten Blick sieht die Tastatur eines Personalcomputers der Tastatur einer Schreibmaschine sehr ähnlich. Die Computer-Tastatur verfügt jedoch über eine Reihe zusätzlicher Tasten, die spezielle Funktionen bei der Arbeit am PC übernehmen. Es gibt inzwischen einen Standard für PC-Tastaturen, die Multifunktions-Tastatur (MF-Tastatur). Während bei früheren Tastaturen der Bildschirmzeiger (Cursor) über die Zahlentastatur gesteuert wurde, verfügt die MF-Tastatur über separate Cursor-Steuertasten.

Bild 6.1: MF-Tastatur

Grundsätzlich ist die Tastatur des PC in vier Blöcke aufgeteilt: Schreibtastatur Eingabetaste

Die Schreibtastatur entspricht weitgehend der herkömmlichen Schreibmaschinentastatur. Anstelle der Zeilenumschalttaste befindet sich die Eingabetaste (Enter), die auch als Return- oder Enter-Taste bezeichnet wird. Mit dieser Taste werden Eingaben bestätigt, d. h. eingegebene Befehle werden erst nach dem Drücken dieser Taste ausgeführt. Die Tasten (Strg) und (Alt) verändern die Tastaturbelegung abhängig vom Programm. Dadurch kann die Anzahl möglicher Steuer-Eingaben erheblich erhöht werden. Cursor-Steuerblock Cursor

Der Cursor-Steuerblock dient der Steuerung der Schreibmarke, des so genannten Cursors (sprich: Cörser). Der Cursor erscheint als kleiner Strich, Quadrat oder Rechteck auf dem Bildschirm. Er zeigt an, an welcher Stelle des Bildschirms der Computer die nächste Eingabe von Ihnen erwartet. Der Cursor-Steuerblock besteht aus Tasten, die mit Pfeilen gekennzeichnet sind. Der Cursor lässt sich über diese Tasten in die entsprechenden Richtungen bewegen. Darüber hinaus gibt es Tasten, die den Cursor an den Anfang bzw. das Ende einer Bildschirmseite führen ((Bild auf) bzw. (Bild ab)) und Tasten für die Steuerung an den Zeilenanfang und das Zeilenende ((Pos_1) bzw. (Ende)). Zahlenblock

Zahleingabe

Neben den numerischen Ziffern, die zur normalen Schreibmaschinentastatur gehören, gibt es auf der MF-Tastatur einen eigenen Zahlenblock. Hier sind die Zifferntasten genauso angeordnet wie bei einer Rechenmaschine. Die Tastenanordnung im Zahlenblock soll dem an die Arbeit mit Rechenmaschinen gewöhnten Anwender die Arbeit mit der PC-Tastatur erleichtern. Bedingt durch die Entwicklungsgeschichte dieser Tastatur sind die Tasten des Zahlenblocks doppelt belegt. Neben der Eingabe von Zahlen ermöglichen die Tasten zusätzlich die Steuerung des Cursors. Auf den Tasten für die Zahlen 2, 4, 6 und 8 befinden sich Pfeile, mit denen der Cursor in die entsprechende Richtung dirigiert werden kann. Mit den Tasten (9) und (3) kann der Cursor über die Bildschirmseite gesteuert werden, die Tasten (7) und (1) führen den Cursor an den Zeilenanfang bzw. das Zeilenende. Num Lock

Die Taste (Num_Lock) steuert, ob mit den Tasten des Zahlenblocks Zahlen eingegeben oder der Cursor gesteuert werden kann. Über der Taste (Num_Lock) befindet sich meist eine kleine Leuchte. Wird die Taste gedrückt und die Lampe brennt, können über die Tastatur Zahlen eingegeben werden. Durch erneutes Drücken erlischt die Lampe und das Tastenfeld dient zur Steuerung des Cursors. Funktionstasten

Über der Schreibtastatur befinden sich 12 Tasten, die mit (F1) bis (F12) beschriftet sind. Das sind die Funktionstasten, mit denen in Anwendungsprogrammen bestimmte Funktionen aufgerufen werden können. Zum Beispiel wird in den meisten Programmen das Hilfesystem über die Taste (F1) aufgerufen. Die Beschriftung der PC-Tastaturen ist leider von Hersteller zu Hersteller und von Modell zu Modell etwas unterschiedlich. In der folgenden Tabelle sehen Sie Beispiele für Tastenbeschriftungen. Daneben finden Sie auch die Bedeutung, die diese Tasten in der Regel haben. Was eine bestimmte Taste auslöst, hängt letztendlich allein von dem Programm ab, mit dem Sie arbeiten. Deswegen können Tasten in verschiedenen Programmen auch unterschiedliche Funktionen auslösen. Taste

Bedeutung

(Enter)

Eingabetaste, Befehlsbestätigung oder Absatzende

(Entf)

Löschen (Entfernen) eines Buchstabens

(Einfg)

Einfügen

(Backspace)

Löscht Zeichen links neben der Schreibmarke

(Shift)

Großbuchstaben

(Shift_Lock)

Feststeller für Großbuchstaben

(Num_Lock)

Numerische Umschalttaste (Zahleneingabe oder Cursorsteuerung)

(F1)-(F12)

Funktionstasten

(Pos_1)

Schreibmarke an Anfangsposition (z. B. Zeilenanfang)

(Ende)

Schreibmarke zur Endposition (z. B. Zeilenende)

(Bild auf)

zur vorherigen Bildschirmseite blättern

(Bild ab)

zur nächsten Bildschirmseite blättern

(Esc)

Abbrechen eines Programms (»Entrinnen«, Escape)

(Strg)

Kontrolle bzw. Steuerung

(Alt)

Alternative

(Druck)

Drucken des Bildschirminhalts

Tabelle 6.1: Tastaturbeschriftung und mögliche Bedeutung

Klickgeräusch

Ein weiteres Kennzeichen von Tastaturen ist ihr Verhalten, wenn einzelne Tasten gedrückt werden. Bei der einen Art von Tastatur hören Sie bei jedem Tastendruck ein Klickgeräusch, bei der anderen nicht. Das Klickgeräusch wird durch einen Federmechanismus verursacht, der einen gewissen Tastenwiderstand erzeugt. Das Klicken weist darauf hin, dass der Druck auf eine Taste auch das entsprechende elektrische Signal ausgelöst hat und der Computer die Eingabe versteht. Tastaturen dieser Art werden häufig auch einfach als Cherry Klick bezeichnet. Cherry ist eine Firma, die Tastaturen dieser Art herstellt. NoName-Hersteller benutzen inzwischen diesen Namen als Synonym für diese Tastaturmechanik. Wer das Klicken als störend empfindet, kann auf einfachere und leisere Membran-Tastaturen zurückgreifen. Neben dem Verzicht auf das Klicken fehlt manchen Anwendern auch der exakte Druckpunkt. Allerdings ist dies reine Geschmackssache. Ergonomische Tastaturen

Seit Erfindung der ersten Schreibmaschine hat sich die Form der Tastatur so gut wie nicht geändert; lediglich die Computertastatur wurde um einige spezielle Tasten erweitert. Genauso alt wie das Design der Tastatur sind aber auch die Probleme, mit denen besonders Vielschreiber zu kämpfen haben:

Durch die geknickte Stellung der Handgelenke kann es nach einiger Zeit zu Schmerzen in den Handgelenken, den Unterarmen bis hin zu den Schulten kommen. Die Sehnenscheidenentzündung ist eine der bekanntesten Krankheiten, die durch die ungesunde Stellung verursacht werden kann.

Bild 6.2: Das Natural-Keyboard von Microsoft

Daher schlagen Ergonomen schon seit längerer Zeit Tastaturen vor, bei denen das Tastenfeld in zwei Hälften aufgeteilt ist, die in einem Winkel angeordnet sind, dass Unterarme und Hände bei der Arbeit eine gerade Linie bilden können. Dadurch würden Muskeln und Sehnen deutlich weniger belastet. Windows-Tasten

Zahlreiche Anwender der grafischen Benutzeroberfläche Windows (vgl. folgendes Kapitel) haben in der Vergangenheit ihren Unmut über einige der Tastenkombinationen zum Ausdruck gebracht, die bei der Bedienung von Windows häufig verwendet werden. Das hat Microsoft dazu veranlasst, bei der Entwicklung einer eigenen ergonomischen Tastatur (Microsoft Natural Keyboard) drei neue Tasten einzuführen. Dabei wird der häufige Zwischenraum zwischen der (Alt)- und der (Strg)-Taste auf beiden Seiten der Leertaste durch die so genannten Windows-Tasten (()) ausgefüllt. Hinzu kommt noch auf der rechten Seite die so genannte Anwendungstaste, deren Symbol einem geöffneten Kontextmenü ähnelt.

Anwendungstaste

Die Hauptaufgabe der Anwendungstaste ist, innerhalb von Anwendungen das Kontextmenü zu öffnen. Dies ist normalerweise nur mit der rechten Maustaste oder der Tastenkombination (ª)+(F10) möglich. Weitere Einsatzfelder sind von Anwendung zu Anwendung unterschiedlich. Windows-Tasten

Die rechte und die linke Windows-Taste führen immer zu einem Umschalten zur Windows-Oberfläche hin. Werden beide Tasten gleichzeitig gedrückt, erscheint das Dialogfeld zum Herunterfahren von Windows. Inzwischen gibt es noch zahlreiche Variationen der Standardtastatur. Diese reichen von Tastaturen mit zusätzlichen Knöpfen für Sonderfunktionen, um beispielsweise die Lautstärke der Lautsprecher zu regeln oder bestimmte Programme aufzurufen, bis hin zu Keyboards, die ohne Kabel z. B. über Funk mit dem Rechner verbunden sind.

Bild 6.3: Kabellose Tastatur und Maus erleichtern die Arbeit (Foto: Intel).

6.1.2 Die Maus Die Maus besteht aus einem kleinen Kasten (etwa Zigarettenschachtelgröße), in dem eine gummierte Rollkugel untergebracht ist. Durch Bewegen der Maus auf einer Unterlage wird die Kugel gedreht und überträgt die Wege, die sie zurückgelegt hat, an den Computer. Für die Arbeit mit grafischen Oberflächen wie z. B. Windows ist eine Maus fast unerlässlich. Dabei stellt die Maus quasi eine Verlängerung der Hand bzw.

eines Fingers dar, mit dem auf abgebildete Knöpfe gedrückt und Auswahlen aus Menüs getroffen werden können.

Bild 6.4: Maus

Es gibt Mäuse mit zwei oder drei Tasten; die meisten Programme sind aber nur für die Arbeit mit zwei Tasten vorgesehen. Darüber hinaus werden jetzt auch Mäuse angeboten, die statt eines dritten, mittleren Knopfes über ein kleines Rädchen verfügen. Diese Rädchen erleichtern die Bedienung der Rollbalken, mit deren Hilfe man durch Fenster auf der Oberfläche des Betriebssystems Windows blättern kann. Ein weiterer Unterscheidungspunkt ist die Form einer Maus. Inzwischen gibt es ergonomisch geformte Mäuse, die direkt an die Form der Hand angepasst sind. Diese Mäuse lohnen sich auf jeden Fall, wenn Sie sehr viel mit dem PC und einem modernen Betriebssystem wie Windows arbeiten. Bei vielen Anwendungen wie z. B. Grafikprogrammen erfolgt fast die gesamte Bedienung über die Maus. Daher ist es bei stundenlanger Arbeit wichtig, dass die Maus groß genug ist, dass die gesamte Hand unverkrampft und möglichst ohne abgewinkeltes Handgelenk auf der Maus ruhen kann. Der Widerstand der einzelnen Tasten darf nicht zu groß werden, da ansonsten nach einiger Zeit die Finger schmerzen.

6.1.3 Der Joystick Spiele

Seitdem der PC auch für komplexe Spiele wie Flugsimulationen eingesetzt werden kann, gewinnt auch die Schnittstelle für den Joysstick an Bedeutung. Erst mit diesem Steuerknüppel werden viele Flugsimulationsspiele zu einem echten Vergnügen. Im Homecomputerbereich werden zumeist die preisgünstigen digitalen Joysticks eingesetzt. Bewegungen des Steuerknüppels in eine der vier Grundrichtungen (rechts, links, unten, oben) werden von kleinen Schaltern aufgenommen und in ein digitales Signal (Ein oder Aus) umgewandelt. Dabei enthält das Signal nur eine Kodierung für die Richtung, nicht für die Intensität der Bewegung. Dadurch lässt sich die Steuerung von Objekten auf dem Bildschirm nicht ganz exakt vornehmen. Im Gegensatz dazu arbeitet der analoge Joystick, der beim PC eingesetzt wird, mit zwei Potentiometern. Dabei lassen sich die Bewegungen des Joysticks mit zahlreichen Zwischenstufen aufnehmen. In der Regel werden für die x- und für die y-Achse jeweils bis zu 64 Werte verarbeitet. In der Mittelstellung haben beide Richtungen den Wert 31. Der letzte Schrei in der Joystick-Entwicklung sind die »Force Feedback Joysticks«. Diese Joysticks reagieren nicht nur auf alle Bewegungen des Spielers, sondern sie geben, abhängig vom Geschehen am Bildschirm, Bewegungen an den Spieler zurück. Nehmen wir mal an, Sie spielen mit einem AutoRennsport-Simulator und fahren gerade über eine extrem schlechte Straße. In diesem Fall würde ein Force-Feedback-Joystick permanent leicht ruckeln, um das Fahren über die holperige Strecke realistischer zu simulieren. Da die Joysticks als Gerät beliebig gedreht werden können, muss vor dem Beginn eines Spiels festgelegt werden, welche Hebelbewegung als welche Richtung interpretiert werden soll. Um dies einzustellen, befinden sich, meist an der Unterseite, zwei Schieberegler, mit der die Ausrichtung eingestellt werden kann. Als Ergebnis sollte sich der Zeiger auf dem Bildschirm nach rechts bewegen, wenn der Steuerknüppel nach rechts geneigt wird.

Bild 6.5: Joystick

Der Joystick wird über einen so genannten Game Port mit dem PC verbunden. Verfügt Ihr Rechner über keinen eingebauten Game Port, müssen Sie einen entsprechenden Adapter in Form einer Steckkarte einbauen. Auf dieser Karte befindet sich eine 15polige Buchse für den Anschluss des Joysticks. Bei modernen Rechnern sind die Steckbuchsen für den Anschluss von Ein- und Ausgabegeräten direkt auf dem Motherboard integriert und können über die Gehäuserückseite erreicht werden. Dazu gehören in der Regel zwei serielle und eine parallele Schnittstelle, der Gameport, jeweils eine Anschlussbuchse für Maus und Tastatur sowie zwei USB-Schnittstellen.

6.2 Monitor und Grafik

Der Computerbildschirm bzw. Monitor und die Grafikkarte gehören mit zu den wichtigsten Bauteilen einer Computeranlage. Schließlich gibt es viele Leute, die einen ganzen Arbeitstag vor einem Monitor sitzen; schlechte Qualität dieser Bauteile würde sich sehr negativ auf die Gesundheit und damit auch auf die Arbeitsleistung auswirken. Aber auch für zu Hause sollte man nicht zu viel beim Kauf sparen, wird doch sonst die Lust an der Computerei schnell verdorben.

Der Monitor und die Grafikkarte sind ein zusammengehörendes Gespann; der beste Monitor taugt nichts, wenn er an eine schlechte Grafikkarte angeschlossen ist; umgekehrt gilt diese Regel genauso. Beginnen wir zunächst beim Monitor, bevor wir uns den aktuellen Grafikstandards widmen.

Bild 6.6: Monitor (Foto: IBM)

6.2.1 Bildschirmarten Ähnlich wie bei einem Fernseher beruht die Bilddarstellung bei einem Monitor auf einem Elektronenstrahl. Dieser Strahl wird von einer Kathode ausgesendet und streicht über die Innenfläche der Monitorscheibe, die mit Phosphor beschichtet ist. Wird eine bestimmte Stelle der Phosphorschicht von dem Elektronenstrahl erfasst, wird der Phosphor zum Leuchten angeregt.

Bild 6.7: Das Innere eines Monitors

Monochrom oder Farbe Monochrom

Die ersten PC-Monitore waren so genannte Monochrom-Bildschirme. Monochrom heißt, dass sie nur eine Farbe darstellen können. Die Farbe ist abhängig von dem gewählten Phosphor. So gibt es Bildschirme, die einzelne Zeichen in grün, bernsteinfarben oder weiß auf schwarzem Grund darstellen. Farbmonitor

Moderne PC-Monitore sind fast ausschließlich farbig. Bei diesen Bildschirmen werden drei Elektronenstrahlen erzeugt, je einen für die drei Grundfarben Rot, Grün und Blau. Die Leuchtschicht auf der Monitorinnenfläche kann nun diese drei Farben darstellen, je nachdem, von welchem Elektronenstrahl sie zum Leuchten gebracht wird. Die Bildschirmauflösung

Ein wichtiges Qualitätskriterium für einen Monitor ist die Anzahl der Punkte, die er darstellen kann - die Bildschirmauflösung. Alle Zeichen und grafischen Darstellungen werden durch eine Punktmatrix dargestellt. Je mehr Punkte für die Matrix verwendet werden, desto besser ist die Genauigkeit und Lesbarkeit der Zeichen. Eine höhere Auflösung ermöglicht auch eine detailreichere Darstellung am Bildschirm. Gerade bei der Arbeit mit grafischen Oberflächen wie z. B. Windows sollten Bildschirm und Grafikkarte eine möglichst hohe Auflösung erlauben. Die einzelnen Punkte werden Pixel (picture elements) genannt. Lochmaske

Um diese Punkte möglichst genau abbilden zu können, wird vor die Phosporschicht auf der Bildschirminnenseite noch eine Lochmaske gelegt, so dass die Elektronenstrahlen nur an den Löchern auf die Phosphorschicht treffen und leuchtende Punkte erzeugen. Die Anzahl der darzustellenden Punkte ist nun von der Größe der einzelnen Löcher abhängig, in der Regel liegen sie zwischen 0,2 und 0,3 mm. Die meisten Monitore erzeugen heutzutage 0,28 mm große Bildpunkte.

Bild 6.8: Zeichendarstellung auf dem Monitor

Auflösung

Aufgrund dieser physikalischen Grenzen ist auch sehr leicht zu errechnen, wie viele Punkte auf einem bestimmten Monitor angezeigt werden können. Nehmen wir mal als Beispiel einen Monitor mit 20-Zoll-Diagonale. Daraus ergibt sich eine sichtbare Bildschirmbreite von 400 mm und eine Höhe von 300 mm. Für diese Fläche lassen sich etwa 1.550 x 1.150 Bildpunkte errechnen. Durch eine raffinierte Anordnung der Punkte kann die Auflösung auf 1.600 x 1.280 Pixel erhöht werden. Damit ist aber die absolute Grenze für diese Bildschirmgröße erreicht. Für einen 17-Zoll-Monitor ergeben sich aus dieser Rechnung maximal 1.280 x 1.024 Punkte. Der flimmerfreie Bildschirm

Ein weiteres wichtiges Qualitätskriterium für einen Monitor ist ein ruhiges Bild ohne Flimmern. Ähnlich wie bei einem Fernseher wird das Bild mehrfach pro Sekunde neu aufgebaut; geschieht dies zu langsam, macht sich für den Betrachter ein Flimmern bemerkbar, das auf die Dauer unangenehme Folgen haben kann, wie z. B. Augenbrennen und Kopfschmerzen. Inzwischen ist man sich einig, dass das Monitorbild mindestens etwa 75 mal pro Sekunde neu aufgebaut werden sollte, damit kein Flimmern bemerkbar wird.

Flimmernde Monitore Wenn Sie einen Monitor auf Flimmern prüfen wollen, sollten Sie nicht direkt auf den Bildschirm schauen, sondern an ihm vorbei. An den Rändern des Sehausschnitts ist das Auge deutlich empfindlicher für unruhige Bilddarstellungen.

Wie häufig der Monitor ein Bild wiederholen kann, wird mit der Bildwiederholfrequenz angegeben, ein höherer Wert als der oben angegebene Mindestwert kann nur förderlich sein. Allerdings werden Monitor und Grafikkarte damit vor eine schwere Aufgabe gestellt. Für den Aufbau eines Bildes wandert der Elektronenstrahl zeilenweise über die Bildschirminnenfläche. Die Anzahl der Zeilen ist abhängig von der gewünschten Auflösung; bei einer Darstellung mit 1.024 x 768 Bildpunkten besteht das Bild aus 768 Zeilen, wird dagegen eine Auflösung von 800 x 600 Punkten gewählt, müssen nur 600 Zeilen pro Bild neu dargestellt werden. Daher ist eine generelle Angabe der Bildwiederholfrequenz nicht möglich, sondern nur im Zusammenhang mit der Auflösung. Einige Hersteller liefern daher für Monitore keine exakten Angaben für die Bildwiederholrate bei unterschiedlichen Auflösungen; statt dessen geben sie nur die so genannte Zeilenfrequenz oder Horizontalfrequenz an, also die Anzahl der Zeilen, die ein Monitor in einer Sekunde darstellen kann. Aus diesem Wert lässt sich durch eine einfache Rechnung die Bildwiederholrate bei bestimmten Auflösungen berechnen: Hierzu benötigen Sie als erstes die maximale Zeilenfrequenz Ihres Monitors, die Sie dem Handbuch entnehmen müssen. Auf die Zeilenzahl der gewünschten Auflösung addieren Sie fünf Prozent hinzu, um Herstellungstoleranzen etc. auszugleichen. Dividieren Sie nun die Zeilenfrequenz durch die modifizierte Anzahl der Zeilen; als Ergebnis erhalten Sie die Bildwiederholrate des Monitor bei der gegebenen Auflösung. Beispiel



Zeilenfrequenz des Monitors: 57 kHz gewünschte Auflösung: 1.024 x 768 bei 768 Zeilen Zeilen + 5% Aufschlag: 806



Bildwiederholrate (57.000 / 806): 70 Hz

● ●

Die folgende Tabelle erspart Ihnen das Ausrechnen der Bildwiederholfrequenz. Anhand der Zeilenfrequenz und der von Ihnen gewünschten Auflösung können Sie leicht feststellen, ob der Monitor ein flimmerfreies Bild ermöglicht. Gewünschte Auflösung

Gewünschte Bildwiederholrate

Erforderliche Zeilenfrequenz

640 x 480

70

35 kHz

75

37,5 kHz

80

40 kHz

90

45 kHz

100

50 kHz

70

44 kHz

75

47 kHz

80

50 kHz

90

56 kHz

100

62 kHz

70

56 kHz

75

60 kHz

80

64 kHz

90

72 kHz

100

80 kHz

70

75 kHz

75

80 kHz

80

86 kHz

90

97 kHz

100

107 kHz

800 x 600

1.024 x 768

1.280 x 1.024

Tabelle 6.2: Bildwiederholrate und erforderliche Zeilenfrequenz für die gängigsten Auflösungen

Interlaced- und Non-Interlaced-Darstellung Interlaced Mode

Besondere Vorsicht ist geboten, wenn ein Monitor zwar mit einer hohen Auflösung angeboten wird, das Bild aber nur interlaced dargestellt werden kann. Diese Monitore haben eigentlich eine zu geringe Zeilenfrequenz für die als maximal angegebene Auflösung; nur durch einen Trick können sie den hohen Wert erzielen. Der Interlaced Mode ist ein Verfahren, bei dem das Monitorbild aus zwei aufeinanderfolgenden Halbbildern aufgebaut wird. Dabei werden im ersten Durchgang alle geraden und im zweiten Durchgang alle ungeraden Bildzeilen aufgebaut. Durch diesen Trick wird ein hochaufgelöstes Bild dargestellt. Da es aber aus zwei Bildern, die nacheinander angezeigt werden, zusammengesetzt ist, ist die Häufigkeit, mit der das komplette Bild auf dem Monitor erscheint, nur halb so groß. Die Folge ist, der Monitor wird zur Flimmerkiste. Multisync-Monitore

Soll ein Monitor mehrere verschiedene Auflösungen darstellen können, muss er auch in der Lage sein, mit unterschiedlichen Zeilenfrequenzen zu arbeiten. Hierzu eignen sich besonders die so genannten Multisync- oder Multiscan-Monitore (zu deutsch auch einfach Mehrfrequenz-Monitor). Diese Bildschirme sind selbstständig in der Lage, das von der Grafikkarte empfangene Signal zu analysieren und notwendige Einstellungen, die von der

Zeilenfrequenz abhängen, durchzuführen. Stromsparfunktionen Einbrennen

Monitore verbrauchen leider auch eine Menge Energie, 100 Watt und mehr sind gang und gäbe. Während der Arbeit am Rechner gibt es aber immer wieder mal Phasen, in denen der Computer nicht bedient wird, zum Beispiel während der Mittags- oder einer Kaffeepause. Während dieser Pausen arbeitet der Rechner aber weiter und stellt während der ganzen Zeit das gleiche Bild dar. Passiert dies häufiger, kann dies zum so genannten Einbrennen führen, d. h. dass einige Bereiche der Leuchtschicht auf der Bildschirminnenfläche stärker belastet werden und im Vergleich zu den anderen Bereichen an Leuchtkraft verlieren. Bildschirmschoner

Um dem abzuhelfen, nutzt man Bildschirmschoner. Das sind Programme, die sich nach einer zuvor eingestellten Zeit der Untätigkeit melden und entweder den Bildschirminhalt leeren oder irgendwelche bewegten Texte oder Bildern anzeigen. Sobald die Tastatur bedient oder die Maus bewegt wird, wird der ursprüngliche Bildschirminhalt wieder angezeigt. Power-Management

Aber selbst wenn der Bildschirminhalt geleert und nur noch eine schwarze Oberfläche angezeigt wird, verbraucht der Monitor genauso viel Strom wie zuvor. Dem wird durch die Stromsparfunktion (engl. Power-Management) abgeholfen. Bei der verbreitetsten Technik sendet die Grafikkarte an den Monitor ein Signal, dass er in den Stromsparmodus umschalten kann. Dieser Modus lässt sich gut mit der entsprechenden Funktion von Fernsehern vergleichen, die ebenfalls in einen Bereitsschaftsmodus umgeschaltet werden können. Dadurch kann der Stromverbrauch des Monitors auf ein Bruchteil reduziert werden. Die meisten Geräte mit Stromsparfunktion können Sie am Energy Star erkennen.

Die Größe des Monitors

Ein wichtiger Punkt, der auch den Preis erheblich beeinflusst, ist die Größe eines Monitors. Während bis vor wenigen Jahren Bildschirme mit einer Diagonale von 14 oder 15 Zoll zum Standard gehörten, werden inzwischen 17- und 19-Zoll-Monitore am häufigsten gekauft. Der Vorteil eines größeren Monitors liegt klar auf der Hand: Je größer der Monitor, desto mehr kann auf dem Bildschirm dargestellt werden. Das macht sich besonders bei Betriebssystemen mit grafischen Oberflächen wie z. B. Windows deutlich bemerkbar. Für professionelle Anwendungen im CAD-Bereich werden fast ausschließlich größtmögliche Monitore mit 20 oder 21 Zoll Bildschirmdiagonale verwendet. Die folgende Tabelle gibt Ihnen eine Richtschnur an die Hand, für welche Monitorgröße Sie sich abhängig von der Auflösung, mit der Sie arbeiten möchten, entscheiden sollten. Bildschirmdiagonale

Empfohlene Auflösung

maximale Auflösung

14 Zoll

640 x 480

800 x 600

15 Zoll

800 x 600

1.024 x 768

17 Zoll

1.024 x 768

1.280 x 1.024

20 bzw. 21 Zoll

1.280 x 1.024

1.600 x 1.200

Tabelle 6.3: Empfohlene und maximale Auflösung je Monitorgröße

Die empfohlenen Werte ergeben sich aus ergonomischen Gesichtspunkten: Auch auf einem 14-Zöller könnten Sie eine höhere Auflösung anzeigen als die in der Tabelle als maximale Auflösung genannten Werte; allerdings wären die dargestellten Zeichen so klein, dass Sie schon eine sehr starke Lesebrille bräuchten, um Texte und Symbole erkennen zu können. Ein anderer Punkt ist natürlich auch, dass ein 20-Zoll-Monitor nicht nur deutlich teurer ist, sondern auch sehr groß und schwer. Nicht jeder Anwender hat auf seinem heimischen Schreibtisch so viel Platz. Daher sollten Sie bei der Auswahl eines Monitors nicht nur die rein technischen Angaben im Auge behalten, sondern auch einen Zollstock bemühen.

6.2.2 Displays Eine interessante Alternative zum klassischen Monitor stellen Flüssigkristall-Displays dar (Liquid Cristal Display = LCD). Mit diesen Displays lassen sich einige Nachteile des Monitors umgehen. Zum einen verbrauchen sie deutlich weniger Strom, nur knapp 20 Watt gegenüber mehr als 100 Watt beim Monitor, auf der anderen Seite steht als vielleicht größerer Vorteil, die kompakten Ausmaße. Während ein normaler Monitor meist tiefer ist als breit, lassen sich inzwischen kleine, flache Displays herstellen, die in notizbuchgroßen Rechnern für die Anzeige zuständig sind. Flüssigkristall

Auch wer noch nicht mit einem Notebook oder anderen Rechnern mit LCD gearbeitet hat, kennt die Flüssigkristallanzeigen bestimmt von digitalen Armbanduhren oder Handys. Der Begriff Flüssigkristall lässt sich darauf zurückführen, dass der Grundstoff der Displays zwei Eigenschaften vereinigt. Kristalle sind Festkörper, bei denen die Durchlässigkeit für Licht abhängig ist von der Richtung, in der die Strahlen das Kristallgitter durchdringen. Bei normalen Flüssigkeiten ist die Lichtdurchlässigkeit dagegen immer gleich. Vor über hundert Jahren wurde eine Flüssigkeit entdeckt, die bezüglich der Lichtdurchlässigkeit genau die Eigenschaften der Kristalle besitzt. Bei heutigen LC-Displays wird die Lichtdurchlässigkeit eines Bildpunkts durch ein

elektrisches Feld beeinflusst.

Bild 6.9: Displays bieten nicht nur ein gutes Bild, sondern sind auch noch wunderbar flach und platzsparend.

Ein Problem bei dieser Technik ist der Kontrast zwischen lichtdurchlässigen und -undurchlässigen Flüssigkristallen. Durch spezielle Folien, die die Lichtbrechung verändern und kompensieren, können inzwischen Kontrastverhältnisse von maximal 18:1 erzielt werden. Ein weiteres Problem bei herkömmlichen LC-Displays ist die Trägheit der Flüssigkristalle. Wird an einen Flüssigkristall ein kurzzeitiges elektrisches Feld angelegt, wird der Bildpunkt zwar sehr schnell lichtundurchlässig, doch leider verschwindet dieser Effekt nur sehr langsam. Diese Trägheit führt dazu, dass Bildpunkte auf dem Display noch zu sehen sind, die schon längst nicht mehr da sein sollten. Wenn Sie auf einem solchen Bildschirm beispielsweise Text scrollen, erscheint die Anzeige verschmiert, da, während der neue Textteil bereits angezeigt wird, die alten Zeilen noch durchschimmern. TFT-Displays

Abhilfe schaffen hier TFT-Displays (Thin Film Transistor), die zwar auch mit Flüssigkristallen arbeiten, die aber von speziellen Transistoren angesteuert werden. Zu jedem einzelnen Bildpunkt gehört ein Transistor und ein Kondensator. Der Kondensator erzeugt das elektrische Feld für die Ladung, und der Transistor ist für die Steuerung des Bildpunkts zuständig. Da die beim TFT verwendeten Flüssigkeitskristalle deutlich weniger träge sind, kann das Bild erheblich schneller aufgebaut und aktualisiert werden. Verschmierungen wie beim herkömmlichen LCD treten nicht mehr auf. Die Datenleitungen innerhalb des Displays müssen nur einen geringen Steuerstrom führen, induktive Beeinflussungen der dicht nebeneinander liegenden Leitungen treten im Gegensatz zum LCD nicht mehr auf. Daher können mit TFTs Kontrastverhältnisse von bis 100:1 erreicht werden. Farbe

Um das Bild farbig zu machen, werden Farbfilter verwendet. Dazu wird jedes darzustellende Pixel aus drei Farbpunkten zusammengefasst, die durch Farbfilter mit den drei Grundfarben erzeugt werden. Die Farbe eines einzelnen Bildpunkts resultiert also genauso wie beim Röhrenmonitor aus dem Zusammenspiel der roten, grünen und blauen Farbpunkte. Bei TFT-Displays mit farbiger Anzeige sind für jedes Pixel drei Flüssigkristallzellen notwendig. Für ein modernes Display ergeben sich somit 1.024 * 786 * 3 = 2.359.296 Zellen. Diese Zahl macht deutlich, dass an die Fertigung dieser Bildschirme höchste Anforderungen gestellt werden. Hier liegt auch das Problem dieser Technik. Werden nur einige Bildpunkte von den fast 2,5 Millionen falsch geschaltet oder bei der Fertigung zerstört, ist der Bildschirm nicht mehr brauchbar. Tatsächlich ist die Produktion der TFTs bisher von recht hohen Ausschussraten belastet, was sich natürlich auf den Preis auswirkt. Trotzdem hat sich diese Technik inzwischen soweit entwickelt, dass Displays zu akzeptablen Preisen angeboten werden und wohl über kurz oder lang die Monitortechnik ablösen werden. Ein weiteres kleines Problem von TFT-Displays entsteht durch Polarisationsfilter, die sich vor und hinter der Flüssigkristallschicht befinden. Die Flüssigkristalle produzieren ja selber kein Licht, sondern sorgen nur dafür, Licht an bestimmten Stellen der Bildschirmoberfläche mehr oder weniger stark durchzulassen. Die Lichtquelle ist hinter den Flüssigkristallen in Form von Leuchtstoffröhren angebracht. Die Polarisationsfilter lassen nur horizontal einfallendes Licht durch. Hierdurch soll eine gleichmäßige Helligkeitsverteilung erreicht werden, so dass der Monitor in der Mitte des Bildes nicht heller erscheint als an den Rändern. Das wirkt sich allerdings auch auf die Betrachtung des Monitorbildes aus, das nur dann optimal ist, wenn man genau mittig vor dem Monitor sitzt. Verändert man seine Lage, so dass man von der Seite auf den Monitor schaut, verändert sich das Bild in Farbe, Helligkeit und Kontrast. Für die normale Arbeit am PC ist dieser Effekt weitestgehend unerheblich, möchte man jedoch Kollegen etwas am Monitor zeigen, so werden die Umstehenden aufgrund ihres anderen Blickwinkels das Monitorbild anders wahrnehmen als der direkt vor dem Display Sitzende.

Bildschirmdiagonale von Displays und Monitoren Displays verfügen in der Regel über eine geringere Bildschirmdiagonale als herkömmliche Monitore. Während Displays allerdings die Bildschirmfläche vollständig ausnutzen können, bleiben bei Monitoren neben dem eigentlichen Computerbild immer einige Millimeter ungenutzt. Daher bietet ein 15-ZollDisplay in etwa die gleiche Bildgröße wie ein 17-Zoll-Monitor.

Einen Blick in die Zukunft... ...bieten uns die unten abgebildeten Displays aus den Forschungslabors von IBM, die schon bald den Markt erobern sollen - Spezielle Techniken ermöglichen es diesen 22-Zoll-Displays bis zu 9 Millionen Punkte darzustellen, ein Vielfaches der Auflösung herkömmlicher Anzeigen. Dadurch kann ein bis zu zwölfmal schärferes Bild als bei allen derzeit verfügbaren Bildschirmen angezeigt werden, damit sind die angezeigten Bilder so scharf wie Originalfotos. Und daraus leiten sich auch die ersten Anwendungsbereiche ab, wie in der Medizin (z. B. die Anzeige digital fotografierter Röntgenbilder), im Automobildesign oder in der Meteorologie.

Bild 6.10: Hochauflösende Displays können Text wie auch bewegte Grafiken gestochen scharf darstellen. (Foto: IBM)

Doch auch die beste Anzeige eine Textes auf einem Display wird uns wohl noch immer nicht dazu überreden, die tägliche Zeitung auf diese Weise zu lesen. Dessen sind sich auch viele Forscher bewusst, und so suchen sie nach dem neuen »Zeitungspapier«, das die täglich frisch aus dem Internet heruntergeladenen Nachrichten einem Wunder gleich schwarz auf weiß darstellt. Dazu wird ein schwarzes magnetisierbares Material auf einem weißen flexiblen Träger solange fixiert, bis die Anzeige geändert werden soll. Das Bild unten zeigt, dass der Weg dahin nicht mehr weit ist.

Bild 6.11: Das neuartige »Zeitungspapier« wird bei Bedarf mit neuen aktuellen Nachrichten beschrieben. (Foto: IBM)

6.2.3 Grafikstandards Im Laufe der Jahre haben sich eine ganze Reihe von verschiedenen Grafikstandards angesammelt, die sich im Wesentlichen in der Auflösung und der Farbdarstellung unterscheiden. Beispielsweise konnten die ersten PCs keine Farben darstellen, Grafik war ebenso wenig möglich. Die meisten Standards sind daher seit längerem in der Versenkung verschwunden: ● ● ● ● ● ● ●

Monochrom Display Adapter (MDA) Hercules Graphics Card (HGC) Color Graphics Adapter (CGA) Enhanced Graphics Adapter (EGA) Video Graphics Array (VGA) Extended Graphics Array (XGA) Texas Instruments Graphics Architecture (TIGA)

Inzwischen arbeiten alle Grafikkarten nach dem VGA-Standard. Innerhalb dieses Standards stellen lediglich die Bildauflösung, die Farbauflösung und die

3-D-Fähigkeiten der Karten Unterscheidungskriterien dar. Bild- und Farbauflösung

Die Bild- und Farbauflösung gehört mit zu den wesentlichen Kriterien moderner Grafikkarten. Je höher diese Werte liegen, desto bessere Darstellungen sind am Monitor möglich. Heute gängige Auflösungen sind 800 x 600 und 1024 x 786 Bildpunkte. Höhere Werte wie 1.280 x 1.024 und 1.600 x 1.200 eignen sich nur bei entsprechend dimensionierten Monitoren mit mehr als 17-Zoll-Bildschirmdiagonale. Dabei sollte die Grafikkarte natürlich in der Lage sein, die hochauflösenden Bilder mit einer ausreichend hohen Bildwiederholfrequenz darzustellen, damit kein Bildflimmern entsteht. Die Farbauflösung hängt davon ab, mit wie viel Bit ein Farbpunkt kodiert wird. 8 Bit reichen für 256 Farben aus, 16 Bit ergeben bereits 65.536 Farben, hier spricht man häufig von Highcolor. Truecolor erreicht dagegen über 16 Millionen Farben, wobei 24 Bit für die Kodierung benutzt werden.

Bild 6.12: Unter Windows lassen sich die Einstellungen mit wenigen Mausklicks vornehmen.

Grafikspeicher

Die Farbenpracht hat aber ihren Preis: Im Vergleich zur herkömmlichen Darstellung mit 256 Farben muss der PC die dreifache Informationsmenge verarbeiten, um ein Bild in Truecolor darzustellen. Bei einem Bild mit 1.024 x 786 Punkten sind das 2,25 Mbyte. Diese Informationsmengen sind nur mit hochwertigen Bauteilen zu verarbeiten. Besonders entscheidend ist u. a. der Videospeicher auf der Grafikkarte, in dem das Bild aufgebaut wird, bevor die Informationen an den Monitor weitergeleitet werden. 1 Mbyte Speicher stellen das unterste Limit dar, gute PCs sind dagegen gleich mit Grafikkarten ausgestattet, die mindestens 8 Mbyte Speicher bieten. AGP

Warum aber soll man Grafikkarten mit so viel Speicher ausstatten, wenn doch sowieso bereits Speicher im Rechner eingebaut ist? Einen Ansatzpunkt bietet der Accelerated Graphics Port, kurz AGP. Bei diesem Port handelt es sich um einen zusätzlichen, speziellen Steckplatz auf der Hauptplatine, in den AGP-Grafikkarten eingesetzt werden können. Diese Grafikkarten haben dann die Möglichkeit, auf den Hauptspeicher des PCs zuzugreifen und spezielle Daten wie z. B. Texturen (speicherintensive Oberflächenstrukturen für 3-D-Objekte) zwischenzuspeichern. Der Datenaustausch zwischen dem AGP-Port und dem Hauptspeicher kann deutlich schneller erfolgen als ein möglicher Umweg über den herkömmlichen PCI-Bus. 3-D-Grafik

Herkömmliche Grafikkarten sind auf die Anzeige von Text und zweidimensionalen Grafiken spezialisiert. Computerspiele, ein wichtiges Einsatzfeld für Personal Computer, arbeiten inzwischen mit speziellen 3-D-Grafiktechniken, um künstliche Welten im Computer plastisch zu erzeugen.

Bild 6.13: An moderne Grafikkarten werden inzwischen höchste Ansprüche bezüglich der Rechenleistung gestellt. So verfügen Hochleistungsgrafikkarten nicht nur über modernste Prozessortechnik, für ihren Preis ließe sich auch ein herkömmlicher PC anschaffen.

Die 3-D-Grafiken werden aus so genannten Polygonen, das sind Vielecke, aufgebaut. Ein Rennwagen würde sich aus vielen dieser Polygone zusammensetzen, aber er sieht dann nur der Form nach wie ein Rennwagen aus. Das, was fehlt, um den realistischen Eindruck zu perfektionieren, ist die »Lackierung«. Um diese aufzubringen, verwendet man eine Textur, das ist so etwas wie ein »Abziehbild«, das auf das Polygonauto gelegt wird. Mit diesem Trick sieht das elektronische Auto sehr realistisch aus. Hinzu kommen die Erzeugung von Nebel- und Schleiereffekten, das Nachbilden von Licht und Schatten oder die Darstellung von transparenten Objekten wie Wasser oder Glas usw. Mit diesen Anforderungen sind normale Grafikkarten aber überfordert. Daher wurden inzwischen spezielle Karten entwickelt, bei denen die Fähigkeit, 3-DGrafiken darzustellen, mit Hilfe spezialisierter Grafikprozessoren beschleunigt wird. Es sind zwei Bauformen für 3-D-Grafikkarten am Markt: ●

Erweiterungskarten als Zusatz zu einer normalen Grafikkarte



Standalone-Karten

Erweiterungskarten

Auf den Erweiterungskarten befinden sich Grafikprozessoren, die ausschließlich für die 3-D-Darstellung optimiert worden sind, daher benötigen sie noch eine gewöhnliche Grafikkarte, um auch den 2-D-Grafikbereich ordentlich abdecken zu können. Die Verbindung wird dabei durch den VESA-Connector (das ist ein Anschluss an der Grafikkarte) oder ein externes Verbindungskabel hergestellt. Der Vorteil einer solchen Erweiterung ist die hohe Geschwindigkeit des spezialisierten Grafikprozessors, die höher ist als bei den Standalone-Karten.

Bild 6.14: Besonders Spiele erfordern modernste Hardware- und Softwaretechniken, um künstliche Welten möglichst realistisch darstellen zu können, wie hier, wo unter Wasser das einfallende Sonnenlicht von den Wellen der Wasseroberfläche verändert wird.

Standalone-Karten

Die Standalone-Karten beherbergen alle Funktionen einer Grafikkarte und zusätzlich die 3-D-Beschleunigung. Bei einer solchen Karte treten keine Anschlussprobleme auf, dafür ist die Performance in allen unterschiedlichen Darstellungsmodi ausschlaggebend für die Gesamtleistung. DirectX und OpenGL

Neben der Weiterentwicklung der Hardware entstanden standardisierte Softwareschnittstellen wie DirectX und OpenGL, um dem Bedarf nach leistungsfähiger Grafikdarstellung nachzukommen. Diese Schnittstellen werden von fast allen Herstellern von 3-D-Grafikkarten akzeptiert, und daher kann die entsprechende Hardware mit jeder für diese Schnittstellen geschriebenen Software zusammenarbeiten.

6.2.4 Ergonomie Gesundheitsbeschwerden

Seitdem Anfang der achtziger Jahre Untersuchungen aus den USA und Kanada bekannt wurden, dass Frauen mit Bildschirmarbeitsplätzen statistisch mehr Fehlgeburten und Kinder mit Missbildungen hatten, ist man auch in Europa hellhörig geworden. Es häuften sich die Hinweise, dass die Arbeit am Computer krank macht. Beschwerden wie Kopfschmerzen, Augenbrennen, Hautausschläge und sogar Herzbeschwerden wurden auf Strahlungen zurückgeführt, die von Computermonitoren ausgehen.

Daraufhin wurden viele Untersuchungen durchgeführt, aber mit uneinheitlichen Ergebnissen; was die einen bestätigten, wurde von den anderen zurückgewiesen. Doch was kaum zu glauben ist, passierte trotzdem: man wurde aktiv. MPR und TCO

Vorreiter waren die Schweden, die bereits 1986 Grenzwerte für die »Elektromagnetischen Emissionen für Kathodenstrahlröhren« definierten. Diese Grenzwerte wurden in Empfehlungen weiter spezifiziert: MPR II und TCO. Die Abstrahlungen von Monitoren lassen sich in zwei Kategorien zusammenfassen: ●

Röntgenstrahlung



elektrische und magnetische Felder

Die erste Kategorie lässt sich bei modernen Monitoren weitestgehend vernachlässigen. Anders dagegen die zweite Kategorie. Mehrere Untersuchungen haben inzwischen einen eindeutigen Zusammenhang zwischen magnetischen Wechselfeldern und verschiedenen Beschwerden festgestellt. Obwohl es keine gesetzlichen Vorschriften des Gesetzgebers gibt, orientieren sich fast alle Hersteller von Monitoren an den schwedischen Empfehlungen für Monitorstrahlungen. Teilweise werden nur noch strahlengeschützte Bildschirme angeboten. Wenn Sie einen Monitor kaufen wollen, achten Sie auf jeden Fall darauf, ob das Modell, für das Sie sich interessieren, über ein Zertifikat verfügt, nach denen der Bildschirm die schwedischen MPR-Richtlinien oder TCO-Richtwerte erfüllt. Alternativ gibt es aber auch ein Siegel vom TÜV-Rheinland »Ergonomie-geprüft«. Diese Geräte erfüllen die MPR-II-Norm.

Monitor und Grafikkarte: Wenn Sie sich eine Computeranlage kaufen wollen, gehört die Auswahl eines Monitors und einer Grafikkarte mit zu den wichtigsten Entscheidungen. Der Monitor entscheidet in hohem Maße über die Freude, die Sie an Ihrem neuen Arbeitsplatz haben und ist zudem eine langfristige Investition. Die Entwicklung der Monitortechnik ist nicht so heftigen Änderungen unterworfen wie beispielsweise die Prozessortechnik. Einer der wichtigsten Fortschritte war die Einführung strahlungsarmer Monitore. Darauf folgt auch einer meiner wichtigsten Ratschläge: Kaufen Sie nur einen strahlungsarmen Monitor! Achten Sie weiterhin darauf, dass die Bedienungselemente wie Netzschalter, Kontrast- und Helligkeitsregler gut erreichbar an der Vorderfront des Bildschirms untergebracht sind. Mein persönlicher Favorit für die heimische Arbeit am PC ist allerdings das TFT-Display. Es nimmt deutlich weniger von dem gerade zu Hause meist etwas knapperen Platz auf dem Schreibtisch und bietet ein gutes, ruhiges Bild, ohne elektomagnetische Strahlung zu erzeugen. Das Problem des eingeschränkten Streuwinkels des austretenden Lichts ist zu Hause meist auch kein Problem, da man in der Regel allein am PC sitzt. Hinzu kommt, dass TFT-Displays ständig hinsichtlich der Bildqualität verbessert werden, so dass Sie sich vor einer Kaufentscheidung unbedingt einige Dispays anschauen sollten, bevor Sie sich für ein Gerät entscheiden. Die Auswahl einer Grafikkarte wird in sehr hohem Maße von der Frage beeinflusst, wofür Sie einen PC nutzen wollen. Brauchen Sie ihn in erster Linie für die Erledigung von normalen Büroaufgaben, so brauchen Sie für die Grafikkarte nicht sehr viel Geld auszugeben. Selbst einfache Standardkarten ermöglichen inzwischen eine ergonomisch optimale Bildqualität. Erst wenn Sie sich mit Grafik- oder Videobearbeitung auseinandersetzen möchten, brauchen Sie schon deutlich mehr Speicher auf der Grafikkarte. Die höchsten Ansprüche stellen allerdings die Spiele-Freaks, denen die Grafikkarte nicht schnell genug sein. Hier reicht das Angebot bis hin zu Karten, die fast schon so teuer sind wie ein normaler PC.

Bulk oder Retail An dieser Stelle passt noch ein Hinweis für alle Anwender, die einzelne Komponenten ihres PCs im Laufe der Zeit durch aktuelle Hardware ersetzen möchte, wie z. B. durch eine neue Grafikkarte. Beim Durchforsten der Preislisten von Hardware-Händlern werden Sie häufiger auf die beiden Begriffe Bulk und Retail stoßen. Normalerweise wird eine Komponente, z. B. eine Grafikkarte oder eine Festplatte, vom Hersteller in einem hübschen Karton verpackt, mit einem kleinen Handbuch, ggf. auch einer CD mit Treibern oder gar einem Computerspiel, wie es gerade bei Grafikkarten häufig gemacht wird. Diese umfangreiche Beigabe wird als Retail-Verpackung bezeichnet. Im Gegensatz dazu werden die gleichen Komponenten auch als Bulk etwas billiger verkauft. Bulk-Produkte sind ursprünglich nicht für den Ladenverkauf bestimmt. Gibt es allerdings einen Produktionsüberschuss und teure Lagerbestände sind aufzulösen, geben manche Hersteller ihre Produkte auch ohne Beiwerk zu einem geringeren Preis in den Handel. Ähnlich verfahren auch schon mal PC-Hersteller, die eingekaufte Hardware-Komponenten nicht in der erwarteten Weise verwerten können. Bulk-Ware muss also nicht schlechter sein als Retail-Ware, allerdings sollten Sie genau darauf achten, ob Sie wirklich auf die bei der Bulk-Ware fehlenden Zusatzprodukte verzichten können. Beispielsweise kann es ärgerlich sein, ein DVD-Laufwerk als preiswerte Bulk-Ware einzukaufen und dann aber evtl. auf die DVD-Abspielsoftware verzichten oder über andere Quellen kostenpflichtig beziehen zu müssen

6.3 Drucker Drucker sind fast unentbehrliche Erweiterungskomponenten einer Personalcomputer-Anlage. Sie dienen dazu, die Ergebnisse Ihrer Arbeit auf Papier festzuhalten. Besonders weite Verbreitung finden Drucker im Bereich der Textverarbeitung. Druckertypen

Es gibt eine Vielzahl von verschiedenen Druckertypen. Die folgende Tabelle gibt hierzu eine Übersicht: Punkt-Matrix-Drucker

Vollzeichendrucker

Nadeldrucker

Kugelkopf-Drucker

Tintenstrahl-Drucker

Typenrad-Drucker

Laser-Drucker GDI-Drucker Tabelle 6.4: Einteilung der Druckertypen

6.3.1 Vollzeichendrucker Vollzeichendrucker gehören eher der Vergangenheit an und werden nur noch in Einzelfällen dann eingesetzt, wenn auf die Möglichkeit von Durchschlägen Wert gelegt wird. Drucker dieser Kategorie funktionieren nach dem gleichen Prinzip wie entsprechende Schreibmaschinen mit Kugelkopf oder Typenrad. Tatsächlich gibt es eine ganze Reihe von elektrischen Schreibmaschinen, die sich an einen Computer anschließen lassen. Durchschläge

Vollzeichendrucker werden überwiegend im Rahmen der Textverarbeitung angewendet. Im Gegensatz zu Matrixdruckern sind sie recht langsam (ca. 15 bis 80 Zeichen pro Sekunde) und relativ laut. Sie verfügen über einen eingeschränkten Zeichensatz, der durch Auswechseln des Kugelkopfes bzw. des Typenrades verändert werden kann. Genau wie bei herkömmlichen Schreibmaschinen können mehrere Durchschläge ausgedruckt werden.

6.3.2 Punktmatrix-Drucker dpi

Fast alle heutzutage eingesetzten Drucker sind Punktmatrix-Drucker. Bei diesen Geräten werden Schriftzeichen und Grafiken aus kleinen Punkten, schwarzweiß oder farbig, dargestellt. Ein wichtiges Unterscheidungskriterium ist die Dichte, mit der die einzelnen Punkte gesetzt werden können. Diese Dichte wird in »Dots per Inch«, abgekürzt »dpi«, also Druckpunkte pro Zoll, gemessen. Ein Standardmaß sind 300 dpi, die von fast allen Druckern erreicht werden. Die meisten Geräte gehen aber schon deutlich darüber hinaus, bis zu 1.200 dpi. Nadeldrucker

Nadeldrucker sind eigentlich die klassischen Punktmatrix-Drucker. Ihr Druckkopf enthält eine bestimmte Anzahl senkrecht untereinander angeordneter Nadeln. Die Nadeln können einzeln angesteuert werden. Bei Druckern mit 9 Nadeln werden die Zeichen mit 9 x 7 oder 9 x 9 Punktmatrizen dargestellt. Bei den heute üblichen 24-Nadel-Druckern kann für die Zeichendarstellung zwischen 24 x 9 bis 24 x 37 Punktmatrizen gewählt werden. Grafik

Nadeldrucker ermöglichen ebenfalls den Ausdruck mit Durchschlägen, bieten aber im Gegensatz zu den Vollzeichendruckern den Vorteil, dass sie nicht an einen festen Zeichenvorrat gebunden sind. Es können unterschiedliche Schriftarten gewählt und auch Grafiken dargestellt werden. Die Druckgeschwindigkeiten betragen 150 bis 500 Zeichen/s, je nach Qualität des Druckers und der gewählten Schriftart.

Bild 6.15: Beispiel einer 9 x 9- oder 9 x 7- Punktmatrix

Draft-Modus

Die höchste Druckgeschwindigkeit erlaubt ein Matrix-Drucker im so genannten Draft-Modus. In diesem Modus werden die Zeichen mit der einfachsten Punktmatrix dargestellt, also 9 x 7 oder 24 x 9. Die Schriftqualität ist dann aber sehr mangelhaft; zwischen den einzelnen Punkten sind deutliche Lücken erkennbar. Dieser Modus ist nur bei Probeausdrucken empfehlenswert. Für den Druck von Briefen mit Korrespondenzqualität verfügen die meisten Geräte über einen NLQ-Modus (Near Letter Quality). In diesem Modus füllt der Druckkopf in einem zweiten Druckvorgang die im ersten Druckvorgang offen gebliebenen Zwischenräume aus. Die folgende Abbildung zeigt die unterschiedlichen Druckergebnisse bei verschiedenen Matrixdruckern.

Bild 6.16: Beispiele für das Druckergebnis von Druckern mit 9, 24 und 48 Nadeln (Grafik: Epson)

Bei guten Druckern schreibt der Druckkopf die Zeilen abwechselnd vorwärts und rückwärts (bi-direktional). Dies wird durch einen Pufferspeicher ermöglicht, in dem der zu druckende nächstfolgende Textteil bereitgestellt wird. Neben der Wahl zwischen Draft- und NLQ-Modus lassen Matrixdrucker eine Vielzahl weiterer Text- und Schriftgestaltungen zu: Fett, kursiv, hochgestellt (superscript), tiefgestellt (subscript), unterstrichen und vieles mehr!

Bild 6.17: Ein moderner Matrixdrucker (Foto: Epson)

Endlospapier

Ein großer Vorteil der Nadeldrucker ist ihr Preis. Sie sind nicht nur in der Anschaffung recht günstig, auch die Betriebskosten halten sich im Rahmen. Farbbänder können so lange genutzt werden, bis die Zeichen nicht mehr ausreichend schwarz gedruckt werden; benötigt man ausschließlich Probeausdrucke, kann das recht lange dauern. Nadeldrucker können Einzelblätter wie auch Endlospapier verarbeiten. Das Endlospapier ist recht preiswert und kann meist in Kartons zu tausend Blatt gekauft werden. Endlospapier verfügt über Lochstreifen an den Seitenrändern, über die das Papier vom Drucker eingezogen wird. So können auch sehr umfangreiche Ausdrucke unbeaufsichtigt verarbeitet werden. Ein Nachteil der Nadeldrucker ist sicherlich die Geräuschkulisse, die von dem Druckkopf erzeugt wird. Das rasselnde Geräusch kann auf die Dauer sehr nervend werden; somit eignen sich diese Drucker nur beschränkt für den Einsatz in normalen Arbeitsräumen. Tintenstrahldrucker

Die meisten Drucker, die heutzutage verkauft werden, sind Tintenstrahldrucker. Bei Tintenstrahldruckern werden die Schriftzeichen auf die gleiche Weise dargestellt wie bei Nadeldruckern. Statt der Nadeln befinden sich im Druckkopf kleine Düsen. Die Tintentröpfchen werden durch elektrische oder thermische Verfahren aus parallelen Düsenkanälen ausgestoßen, die jeweils in der Sekunde mehrere tausend Tröpfchen abgeben können. Farbdrucker

Fast alle Tintenstrahler eignen sich auch für farbige Ausdrucke. Dazu verfügen diese Geräte über mindestens drei Tintenpatronen mit den drei Grundfarben. Beim Kauf sollten Sie aber unbedingt darauf achten, dass diese Farbdrucker zusätzlich über eine separate Schwarzpatrone verfügen, damit die Tinte für einfache Textausdrucke nicht aus den drei Farbpatronen zusammen gemischt werden muss.

Bild 6.18: Tintenstrahldrucker

Auflösung

Die Auflösung der Tintenstrahler ist inzwischen schon recht hoch. Die meisten Geräte bieten für Textausdrucke mindestens 600 dpi, Grafikausdrucke können mit 720 bis hin zu 1.400 dpi ausgegeben werden. Die hohe Auflösung macht sich in der detailgetreuen Wiedergabe von Bildern und Grafiken bemerkbar, Rundungen und Schrägen fallen nicht durch unangenehme Treppeneffekte auf. Druckgeschwindigkeit

Die Druckgeschwindigkeiten der Tintenstrahler werden inzwischen in Seiten pro Minute angegeben und können bis zu fünf Seiten betragen. Der vom Hersteller angegebene Maximalwert bezieht sich meist jedoch auf den Ausdruck von Kopien. Tintenstrahler sind darauf angewiesen, dass ihnen vom PC genau mitgeteilt wird, was sie wie zu drucken haben. Jede neu ausgedruckte Seite muss also vom Computer neu berechnet werden, was von der Rechenleistung des PCs abhängig ist. Werden dagegen einzelne Seiten als Kopie mehrfach ausgedruckt, entfällt die Neuberechnung und der Ausdruck kann schneller erfolgen. Leise

Ein großer Vorteil von Tintenstrahlern ist die fast geräuschlose Arbeitsweise dieser Geräte. Weiterhin verfügen sie, genau wie Nadeldrucker, über mehrere verschiedene Zeichensätze sowie die bei einigen Modellen realisierte Möglichkeit zu vollgrafischen, farbigen Darstellungen in hoher Auflösung. Druckqualität

Die Druckqualität neuerer Tintenstrahldrucker kann sich mit der von Laserdruckern ohne weiteres vergleichen lassen. Frühere Probleme, wie z. B. Eintrocknen der Druckerdüsen und fehlende Wischfestigkeit der Tinte, sind heute behoben. Aufgrund dieser Vorteile nimmt der Marktanteil gerade bei dieser Druckertechnik in letzter Zeit deutlich zu. Integrierter oder Mehrfach-Druckkopf

Allerdings hat alles seinen Preis, und der schlägt sich bei Tintenstrahlern nicht unbedingt bei der Anschaffung nieder. Bei einigen Geräten ist die Lebensdauer der Druckköpfe begrenzt. Drucker, bei denen die Tinte mit einem thermischen Verfahren (Bubblejet-Technik) auf das Papier gespritzt wird, arbeiteten bis vor kurzem noch mit integrierten Druckköpfen, d. h. Tintenpatronen und Druckkopf bildeten eine Einheit. Waren die Patronen leer, musste die gesamte Einheit gegen relativ viel Geld ausgetauscht werden. Inzwischen gibt es aber auch Bubblejet-Drucker, die mit mehrfach verwendbaren Druckköpfen ausgestattet sind. Piezo-Drucker arbeiten dagegen annähernd verschleißfrei, so dass nur die Tintenpatronen bei Bedarf ausgewechselt werden müssen.

Sie sollten auch darauf achten, dass die Farben in getrennten Patronen untergebracht sind. Einige Hersteller bieten Drucker mit Farbeinheiten an, ist eine Farbe aufgebraucht, muss die gesamte Patrone ausgetauscht werden. Das steigert zwar den Umsatz des Herstellers, belastet aber nur Ihr Portemonnaie und die Umwelt. Refill

Aber auch die normalen Tintenpatronen haben diesbezüglich keinen guten Ruf, warum sollte man sie einfach wegwerfen, wenn sie leer sind? Obwohl viele Hersteller davon abraten, gibt es inzwischen Unternehmen, die sich auf das Wiederbefüllen von Tintenpatronen spezialisiert haben. Das schont den Geldbeutel und die Umwelt. Spezialpapier

Weiterhin ist darauf zu achten, dass Sie für hochwertige Ausdrucke ggf. Spezialpapier benötigen. Bei normalem, grobporigem Papier kann es nämlich passieren, dass bei farbigen Ausdrucken die Farben ineinanderlaufen.

Fasst man alle Kosten zusammen, kann der Ausdruck einer hochwertigen, farbigen Seite mit einem Tintenstrahler gut über eine Mark kosten. Laserdrucker

Laserdrucker arbeiten prinzipiell wie Fotokopierer. Anstelle der Optik, mit der die Vorlage auf einer elektrostatisch aufgeladenen Drucktrommel abgebildet wird, tritt hier ein fein gebündelter Laserstrahl. Dieser malt, von einem schnellen Prozessor gesteuert, Buchstaben und Grafiken pünktchenweise auf eine Walze. Ist eine Seite bis hierhin fertig gestellt, arbeitet der Laserdrucker genau wie ein Fotokopierer weiter. Der pulverförmige Toner bleibt an den belichteten Stellen haften, die Trommel wird erhitzt und der Toner beständig auf das Papier geschmolzen.

Bild 6.19: Laserdrucker (Foto: HP)

Seitendrucker

Im Gegensatz zu den bisher vorgestellten Druckern verarbeitet ein Laserdrucker immer eine ganze Seite auf einmal. Die Druckgeschwindigkeit liegt bei kleineren Modellen (zum Anschluss an PCs) bei 4 bis 10 Seiten pro Minute. Das Schriftbild von Laserdruckern ist von hervorragender Qualität. Erst bei genauestem Hinsehen ist zu erkennen, dass die Zeichen aus Punkten zusammengesetzt sind. Farbdruck sehr teuer

Laserdrucker werden häufig schon für Preise von unter 1000,- DM angeboten, wer also viel zu drucken hat, für den stellt ein Laserdrucker eine gute Alternative dar. Auf Farbe muss man bei Laserdruckern inzwischen auch nicht mehr verzichten, allerdings wird dann ein deutlich höherer Kaufpreis fällig. Die wichtigsten Vorteile der Laserdrucker sind:



hervorragende Druckqualität hohe Arbeitsgeschwindigkeit geringe Lärmbelästigung



relativ niedriger Seitenpreis

● ●

Dem stehen nachteilig gegenüber:



keine Durchschläge meist nur eine Druckfarbe



viel Abfall durch Toner-Patronen und andere Verschleißteile (Umweltverschmutzung!)



Trotz der genannten Nachteile setzen sich Laserdrucker immer mehr durch. Besonders die inzwischen stark gefallenen Preise machen diese Drucker auch für daheim interessant.

Plotter Technische Einsatzfelder

Das Einsatzfeld von Plottern ist auf technische Bereiche beschränkt. Plotter zeichnen mit großer Geschwindigkeit Ausgabedaten in Form von Kurven oder Einzelpunkten auf Papier oder andere Medien. Typische Anwendungen sind das Zeichnen von ein- oder mehrdimensionalen Konstruktionszeichnungen, Diagrammen, Karten, Skizzen usw.

Bild 6.20: Flachbettplotter (Foto: Epson)

Plotter arbeiten meist mechanisch mit Zeichenstiften. Entsprechend der Bauart des Bewegungssystems, mit dem der Stift auf der Zeichenfläche geführt wird, unterscheidet man zwischen Flachbett- und Trommelplottern. Bei beiden Typen wird das Bild strichweise aufgezeichnet. Flachbettplotter

Bei einem Flachbettplotter ist der Zeichnungsträger (Papier oder Folie) auf einer waagerechten Ebene aufgespannt. Ein Tusche- oder Filzstift ist in einem Stiftschlitten eingespannt, der in zwei Richtungen bewegt wird. Bei einem Trommelplotter läuft Papier über eine rotierende Trommel, die sich vor- und rückwärts dreht. Der Stiftschlitten bewegt sich unabhängig von der Trommel und genau im rechten Winkel zu dieser. Beide Plottertypen gibt es als Tisch- und Standgeräte. In der Regel beträgt die Zeichnungsgröße DIN A4 bis A1. Eingebaute Mikroprozessoren erlauben eine Reihe von Spezialfunktionen: Kreise, Bögen, Achsen, Nullpunktverschiebungen u. a. Meist stehen mehrere Zeichensätze zur Verfügung, die in jeder beliebigen Größe und Richtung geschrieben werden können.

Bild 6.21: Trommelplotter (Foto: HP)

Drucker: Beim Kauf von Druckern kann man heutzutage eigentlich wenig verkehrt machen. Fast alle Geräte sind technisch ausgereift und unterscheiden sich, innerhalb der jeweiligen Kategorie, relativ wenig in der Druckqualität, dafür mehr in der Druckgeschwindigkeit. Am preisgünstigsten sind Nadeldrucker. Hierbei sollten Sie sich unbedingt für einen 24-Nadler entscheiden, der auch Ausdrucke in Korrespondenzqualität erlaubt. Tintenstrahler bieten meist noch eine etwas bessere Schriftqualität, sind deutlich leiser, dafür aber leider etwas teurer. Achten Sie bei der Auswahl auf einen mehrfach verwendbaren Druckkopf sowie einzeln austauschbare Tintenpatronen. Informieren Sie sich auch über den Preis dieser Austauschteile. Die teuerste Kategorie sind sicherlich die Laserdrucker. Dafür bieten sie eine hervorragende Druckqualität bei großer Geschwindigkeit. Aber auch bei diesen Geräten fallen Kosten für Toner und die Drucktrommel, die nach einem bestimmten Zeitraum ausgetauscht werden müssen, deutlich ins Gewicht. Bei der Entscheidung für einen Drucker sollten Sie daher zunächst überlegen, wie viel Geld Sie für dieses Gerät ausgeben wollen und wie häufig Sie es benötigen werden. Für Leute, die viel zu drucken haben und eine gute Qualität erwarten, bleiben Tintenstrahler oder Laserdrucker.

6.4 Sound Erst die Soundkarte eröffnet den Weg in die digitalen Klangdimensionen der Multimedia-Welt. Kaum eines der größeren Computerspiele auf dem Markt kommt ohne Ton oder Musik zur Untermalung des Spielgeschehens aus. Doch nicht nur im privaten, sondern auch im professionellen Bereich ist die Soundkarte kaum noch wegzudenken. Geht man über eine Messe, so wird man bereits an vielen Ständen PCs sehen, über die Shows mit bewegter Grafik, Videosequenzen und Ton gezeigt werden. Die Soundkarte hat aber auch dem Musiker neue Dimensionen eröffnet. Seit der Definition der MIDI-Schnittstelle (s. u.) ist es einem einzelnen Anwender möglich, über den PC ein ganzes Orchester nachzubilden.

Bild 6.22: Die Soundkarte wird über den PCI-Bus mit dem Rechner verbunden.

6.4.1 Standards Adlib

Die erste Soundkarte wurde von der kanadischen Firma Adlib für den PC angeboten. Dabei handelte es sich um eine Karte, die lediglich Mono-Klänge wiedergeben konnte. Viele Anwendungen wurden entwickelt, die auf dieser Karte aufbauten und sie somit zu einem Standard machten. Soundblaster

Zu einem weiteren Standard wurde die von der Firma Creative Labs entwickelte Soundblaster-Karte, die nicht nur die Wiedergabe, sondern auch die Aufnahme von Tönen ermöglichte. Inzwischen wurde die Qualität der Karten deutlich verbessert. Durch Verwendung von 16 statt zuvor nur 8 Bit können die Klänge nicht nur in bester CDQualität wiedergegeben werden, sondern auch in Stereo. Damit war allerdings der Erfindungsreichtum der Soundkarten-Entwickler noch lange nicht erschöpft. Nach der Verbesserung der digitalen Tonwiedergabe machte man sich an die Weiterentwicklung der MIDI-Klangerzeugung. Der erste Schritt waren die Wavetable-Erweiterungskarten, die erstmalig fast natürlich klingende Instrumentenstimmen auf dem PC ermöglichten, während der zweite Schritt die Grundfunktionen moderner Sampler, das sind Geräte, auf denen der Wavetable-Vorrat durch eigene Aufnahmen erweitert werden kann, in den PC brachte. Die neuesten Entwicklungsschritte gehen nun in die Richtung, räumlichen Klang auf dem PC zu ermöglichen. Damit ist nicht das normale Stereosignal gemeint, sondern richtiger 3-D-Sound, wo zum Beispiel bei Spielen ein Raumschiff, akustisch gesehen, von hinten am Spieler vorbeirauscht. Solche Techniken sind im Kino schon seit längerem etabliert.

6.4.2 Vom Bit zum Ton Während das menschliche Ohr nur analoge Signale in Form von Schwingungen der Luft wahrnimmt, arbeitet der Computer mit digitalen Signalen. Somit müssen zur Tonerzeugung die Bit-Informationen in analoge Signale umgewandelt werden. Dies besorgt auf der Soundkarte ein spezieller Baustein, der Digital-Analog-Wandler, kurz DAC genannt. Umgekehrt geht es aber genauso, für die Umwandlung von aufgenommenen Tönen in digitale Signale verfügen die meisten Karten auch über einen Analog-Digital-Wandler (ADC). FM- und Wavetable-Synthese FM-Synthese

Doch damit nicht genug. Die Masse der inzwischen angebotenen Soundkarten lässt sich zur Zeit noch unterscheiden nach der Technik der Klangerzeugung. Da ist zum einen die Frequenzmodulation (FM-Synthese) zu nennen. Hierbei werden durch Schwingungsgeneratoren Sinustöne erzeugt, mit denen durch Addition und Modulation verschiedenste Klänge erstellt werden können. Wavetable-Synthese

Trotz steter Verbesserungen hat die FM-Synthese ihre Grenzen, und so erzeugte Klänge können ihre Herkunft nicht verhehlen. Daher werden für einige Soundkarten Klangstücke von echten Instrumenten digitalisiert und in einem EPROM auf der Karte gespeichert. Bei der Klangerzeugung kann also auf diese gespeicherten Sounds durch die so genannte Wavetable-Synthese zurückgegriffen werden. Das Ergebnis sind den Originalen täuschend ähnliche Klänge. Der größere Aufwand dieses Verfahrens schlägt sich natürlich auch im Preis nieder. Abtastrate und Auflösung

Für die Aufnahme von Klängen ist der Analog-Digital-Wandler zuständig. Dabei wird das analoge Signal in gleichmäßigen Zeitintervallen abgetastet und im RAM bzw. auf der Festplatte abgelegt. Je nachdem, wie häufig diese Abtastung erfolgt (Abtastrate oder Samplingfrequenz), und der Anzahl von Bit, die für die Speicherung der Abtastwerte benutzt werden (Auflösung), ergeben sich deutliche Qualitätsabstufungen. Mit höheren Werten wird zwar eine bessere Klangqualität erreicht, allerdings steigt auch der Speicherplatzbedarf. Als Maßstab für optimalen Klang gilt die Compact Disc. So benötigt eine Sekunde digitalisierter Klänge in CD-Qualität (16 Bit Auflösung, 44,1 KHz Samplingfrequenz) 176 Kbyte Speicher (44.100 Abtastungen pro Sekunde, 2 Byte pro Abtastung, bei Stereo zwei Kanäle).

Bild 6.23: Musikaufnahme mit dem Audiorecorder von Windows

CD-Qualität

Der Wert von 44,1 KHz Abtastrate ergibt sich nicht zufällig. Generell gilt, dass die Abtastrate doppelt so hoch sein muss wie die maximale Frequenz der zu verarbeitenden Klänge. Da Musik auf einer CD mit bis zu 22 KHz gespeichert wird (der obersten Grenze, die für das menschliche Ohr noch hörbar ist), sind 44 KHz für die Abtastung erforderlich. Reine Sprache erfordert dagegen nur eine Abtastrate von 22 KHz bei 8 Bit Auflösung. Dabei entstehen pro Sekunde Mono-Sound nur noch 22 Kbyte Daten. Da für die meisten Spiele die Sounds aus Speicherplatzgründen nur mit 8 Bit kodiert sind, erfüllt diese Auflösung im heimischen Bereich meist den gewünschten Zweck.

6.4.3 MIDI Fast alle im Handel erhältlichen Soundkarten unterstützen auch den MIDI-Standard. Die Abkürzung steht für Musical Instrument Device Interface und beinhaltet ein gemeinsames Format zum Datenaustausch zwischen elektronischen Musikinstrumenten. MIDI-Dateien speichern Informationen über die gespielte Note, die Dauer und Intensität ihres Anschlags. Über weitere Parameter können musikalische Effekte wie Glissando, Tremolo, Vibrato, Lautstärkenmodulation und Klangfarbe erzeugt und verändert werden. Um MIDI zu nutzen, benötigen Sie zunächst nur erst einmal eine Software zur Bearbeitung von MIDI-Dateien. Zur Wiedergabe kann die Soundkarte herhalten. Musiker können dagegen ihr Keyboard über die MIDI-Schnittstelle direkt mit dem PC verbinden. Die auf dem Keyboard gespielten Töne (genauer genommen nur die Signale der Keyboardtastatur) können zum PC übertragen und gespeichert werden. Software erlaubt nun das Zusammenführen mit mehreren verschiedenen MIDI-Instrumenten, die vom PC gesteuert auch wieder abgespielt werden können. So kann der PC eine Schlagzeugmaschine steuern, die den Takt schlägt, ein Keyboard, dass für die Bassuntermalung verantwortlich ist und ein anderes Keyboard oder die Soundkarte, welche die Vordergrundmelodie spielt.

6.4.4 3-D-Sound Beim 3-D-Sound handelt es sich um ein relativ junges Gebiet in der Soundkartentechnik. Zielsetzung ist es, akustische Signale nicht nur aus der Richtung der zwei Lautsprecherboxen erklingen zu lassen, sondern das Klangfeld quasi rund um den Hörer zu platzieren. Es gibt die unterschiedlichsten Ansätze, wie dieses Problem gelöst werden kann. Der derzeit bekannteste ist das Dolby-Surround-Verfahren, das auch im Kino, beziehungsweise Heimkino, Verwendung findet. Das Prinzip beruht auf vier Tonkanälen, die in zwei Stereotonspuren kodiert werden. Dies hat zum Vorteil, dass Dolby-Surround-kodierte Toninformationen auch auf normalen Stereoanlagen ausgegeben werden können. Allerdings entfaltet sich der volle Klanggenuss erst mit einem speziellen surround-fähigen Verstärker und fünf im Raum platzierten Lautsprecherboxen. Erste Surround-Verstärker als PCSteckkarte sind bereits auf dem Markt. Der Nachteil dieses Verfahrens ist der relativ hohe Aufwand, da man neben einem passenden Verstärker auch noch fünf Lautsprecherboxen benötigt. Aus diesem Grund experimentiert man derzeit mit so genannten virtuellen Surround-Verfahren. Ein solches Verfahren ist in der Lage, vollen Surroundklang aus lediglich zwei Lautsprecherboxen zu liefern. Die Raumwirkung des Klanges wird hier durch digitale Aufbereitung des Signals erreicht, indem man den normalen Klanginformationen noch weitere Informationen über Hall, Schallreflexionen etc. mit beimischt.

6.4.5 CD-ROM-Schnittstelle Fast alle Soundkarten besitzen auch eine Schnittstelle für den Anschluss eines CD-ROM-Laufwerks, d. h. dass für das CD-ROM-Laufwerk kein zusätzlicher Controller notwendig ist. Allerdings ist darauf zu achten, dass nur ganz bestimmte Laufwerke für den direkten Anschluss vorbereitet sind. Neben der Schnittstelle zur Steuerung von CD-ROM-Laufwerken haben die meisten Karten auch einen speziellen Audio-Eingang, der mit dem CD-ROMLaufwerk verbunden werden kann. Musik-CDs können so über die Soundkarte abgespielt und über angeschlossene Aktiv-Lautsprecher oder Kopfhörer abgehört werden.

6.5 Scanner Mit Hilfe von Scannern lassen sich Fotos, Grafiken und auch Texte in den Computer einlesen, weiterverarbeiten und in bereits bestehende Dokumente integrieren. Scanner erinnern in ihrer Technik ein wenig an Fotokopierer, nur erstellen sie eben keine Kopie auf Papier, sondern wandeln die Informationen einer Vorlage in Bits um (digitalisieren) und leiten sie weiter an den Computer.

Bild 6.24: Flachbett-Scanner (Foto: HP)

Flachbett- und Rollen-Scanner

Zum Abtasten einer Vorlage werden zwei verschiedene Techniken angewendet: die Flachbett- und die so genannte Rollen-Technologie. Beim FlachbettScanner werden, ähnlich wie bei einem Kopierer, die Vorlagen auf eine Glasplatte gelegt. Beim Rollen-Scanner wird jede Vorlage über einen Abtastsensor gezogen. Im Gegensatz zum Rollen-Scanner ist der Flachbett-Scanner toleranter gegenüber den abzutastenden Vorlagen. Mit dem Flachbett-Scanner lassen sich auch Vorlagen aus Büchern und Zeitschriften mühelos verarbeiten. Beim Rollen-Scanner ist das nicht möglich, es sei denn, man löst die jeweiligen Seiten heraus. So genannte Handy-Scanner gehören mit zu den Rollen-Scannern. Sie bestehen aus einem kleinen Kasten, etwas größer als eine Zigarettenschachtel, den man mit der Hand über die zu erfassende Vorlage führt. Hier können wieder alle Vorlagen benutzt werden, jedoch ist aufgrund der Größe des Scanners der erfasste Ausschnitt recht klein. Die einzelnen Ausschnitte können allerdings im Rechner wieder zusammengefasst werden.

Bild 6.25: Handy Scanner

Inzwischen gibt es auch Geräte in der Größe eines Handy-Scanners oder noch kleiner, die gescannte Texte nicht nur aufnehmen, sondern direkt in verarbeitbare Texte umwandeln (vgl. OCR in Kapitel 9).

Bild 6.26: Texte werden nicht nur gescannt, sondern können auch gespeichert und an den PC übertragen werden

Die Genauigkeit, mit der das eingescannte Bild dem Original entspricht, ist abhängig von der Scan- und der Farbauflösung. Die Scan-Auflösung wird in Punkten pro Zoll (engl. Dots per Inch, dpi) angegeben. Moderne Scanner arbeiten mit Scan-Auflösungen von 4.800 x 4.800 dpi und mehr. Selbst sehr preiswerte Geräte sind dabei in der Lage, Farben mit bis zu 30 Bit zu kodieren, womit sich mehrere Milliarden verschiedener Farbtöne unterscheiden lassen. Allerdings wird diese Farbenpracht für die Übertragung zum PC auf 24 Bit zurückgerechnet, wodurch aber immer noch Truecolor-Qualität mit 16,8 Millionen Farben am PC dargestellt werden kann. Für den Anschluss eines Scanners ist ein SCSI-Adapter ideal, da er noch am schnellsten für die Übertragung der riesigen Datenmengen sorgen kann. Allerdings werden inzwischen auch sehr mobile Scanner angeboten, die sich über den Parallelanschluss mit jedem PC verbinden lassen. TWAIN

Twain ist die Bezeichnung für eine Software-Schnittstelle, mit deren Hilfe Programme realisiert werden können, die Scannerunterstützung beinhalten. Wenn ein Programm die Twain-Schnittstelle unterstützt, bedeutet dies, dass jeder Scanner, für den ein Twain-Treiber vorliegt, mit diesem Programm zusammenarbeiten kann. Vor der Entwicklung der Twain-Schnittstelle musste für jede mögliche Kombination von Scanner und Programm ein eigener Treiber realisiert werden, was die Kosten natürlich in die Höhe trieb. Ebenso war die Auswahl der verwendeten Scanner-Software vom Scanner abhängig. Erst durch die Standardisierung der Twain-Schnittstelle war der große Erfolg der Scanner möglich, denn jedes Bildbearbeitungsprogramm unterstützt heute diese Schnittstelle. Neben der Erfassung von Abbildungen und Fotos rückt die Texterfassung immer deutlicher in den Vordergrund. Hierzu sind spezielle Programme nötig, so genannte OCR-Software. OCR bedeutet »Optical Character Recognition«, optische Zeichenerkennung (siehe auch Kapitel 9). Wie bei den grafischen Vorlagen, werden Textseiten vom Scanner zunächst in Pixelmuster umgewandelt und in den Arbeitsspeicher des Computers geladen. OCR-Programme versuchen nun, den Pixelmustern Zahlen und Buchstaben zuzuordnen. Ist der Text fehlerfrei von der Software »verstanden« worden, lässt er sich mit einem Textverarbeitungsprogramm weiterverarbeiten. Allerdings ist die Trefferquote bei dieser automatischen Form der Texterkennung immer noch nicht hundertprozentig. Die Erkennungsverfahren preisgünstiger Programme funktionieren in der Regel nur mit Schrifttypen, die die Programme bereits kennen (z. B. Courier); das Einlesen handschriftlicher Dokumente ist noch nicht ausgereift! Deswegen ist fast immer eine Nachbearbeitung eines eingelesenen, gescannten Textes notwendig. Diese Nachbearbeitung ist manchmal zeitaufwändiger, als den Text neu einzutippen!

6.6 Datenfernübertragung Eine Möglichkeit, Daten an andere Computer weiterzuleiten, ist der Austausch von Disketten. Einfacher ist es jedoch, direkt mit dem anderen Rechner in Verbindung zu treten. Hierzu können die Fernsprechleitungen benutzt werden; man spricht dann von Datenfernübertragung oder kurz DFÜ.

6.6.1 DFÜ mit dem Modem Die Verbindung zwischen Computer und Telefonnetz lässt sich am einfachsten mit einem Modem herstellen. Es wandelt die digitalen Computersignale in analoge Signale um, die über die Telefonleitung übertragen werden können, und umgekehrt.

Bild 6.27: Modem

Bit pro Sekunde

Auf diese Weise lassen sich recht einfach Daten von einem Rechner zum anderen übertragen. Die preisgünstigsten Modems ermöglichen Datenübertragungsraten von bis zu 28.800 oder 33.600 Bit pro Sekunde (bps). Diese Geschwindigkeit ist ausreichend für den Datenaustausch mit den meisten Online-Diensten. Allerdings sind auch die 33,6-kbps-Modems inzwischen wieder veraltet: Neue, angeblich mit 56 kbps arbeitende Modems scheinen den Mathematiker Claude Shannon Lügen Strafen zu wollen. Der hatte bereits 1948 auf mathematischem Weg belegt, dass bei herkömmlichen Telefonleitungen maximal 34.822 bps übertragen werden können, höhere Übertragungsraten würden durch Störungen in den Leitungen unterbunden. Auch wenn sie keinen ISDN-Anschluss haben, so werden Ihre Telefongespräche inzwischen über den größten Teil des Weges digital übertragen; 99 % aller Vermittlungsstellen in Deutschland sind inzwischen auf digitale Kommunikation umgestellt. Die dadurch deutlich verbesserte Übertragung zwischen den Vermittlungsstellen machen sich die 56K-Modems zu Nutze. Allerdings können diese Modems, wenn überhaupt, die versprochenen Datenübertragungsraten nur empfangen; als Sender muss immer ein ISDN-Anschluss zur Verfügung stehen, der die Daten mit hoher Geschwindigkeit ins Netz bringt. Soll ein 56K-Modem selber senden, muss es auf die herkömmlichen analogen Übertragungsstandards mit derzeit maximal 33,6 kbps zurückgreifen. Ein weiterer Wermutstropfen sind die Störungen, die sich trotz digitaler Übertragung in den Leitungsverkehr einschleichen. Diese führen zu Fehlern bei der Übertragung von Daten, die zwar korrigiert werden können, die tatsächliche Übertragungsgeschwindigkeit aber reduzieren. In der Praxis erreichen danach die meisten 56K-Modems Verbindungsgeschwindigkeiten von 40 bis 46 kbps. Baud, bps und cps Baud

Allzu häufig werden die verschiedenen Begriffe, mit denen die Arbeitsgeschwindigkeit von Modems beschrieben werden, verwechselt. Mit dem Begriff Baud wurde die Geschwindigkeit von Modems der ersten Stunde beschrieben, und er bezeichnete die Signalwechsel pro Sekunde. Bei diesen Modems wurde pro Signalwechsel ein Bit übertragen, so dass die Baudrate auch gleich der Übertragungsgeschwindigkeit entsprach. Moderne Modems können aber pro Signalwechsel mehrere Bit übertragen, so dass sich aus der Baudrate nicht mehr auf die tatsächliche Transfergeschwindigkeit schließen lässt. Erst die Angabe der Bit pro Sekunde bzw. Bit/s oder bps gibt einen genauen Hinweis auf die maximale Übertragungsrate eines modernen Modems. Cps

Für die Übertragung von Text müssen Sie diesen Wert durch zehn teilen, um die Menge der Zeichen zu errechnen, die pro Sekunde übertragen werden (Character per Second bzw. cps). Der Wert zehn ergibt sich aus den acht Bits, die für die Kodierung pro Zeichen verwendet werden, und jeweils einem Start- und einem Stopbit. Allerdings gibt der beste Wert immer nur eine theoretisch mögliche Übertragungsrate an. Die tatsächliche Übertragungsgeschwindigkeit hängt darüber hinaus noch von zwei weiteren Faktoren ab: Komprimierung



Die meisten Modems sind in der Lage, Daten vor der Übertragung zu komprimieren; dadurch verringert sich die Menge der Daten, die tatsächlich über die Leitung transportiert werden müssen. Auf diese Weise sind wiederum theoretisch Übertragungsraten von bis zu 115.200 bps möglich. Wenn Sie allerdings Dateien von einem Online-Dienst herunterladen, sind diese Daten meist schon komprimiert, so dass die Komprimierung des Modems keine Verbesserung erbringt.

Datenverlust durch Störungen



Ein weiterer Faktor ist die Qualität der Verbindungsleitung. Besonders die schnellen Modems sind anfällig gegenüber Störgeräuschen, die bei der analogen Telefonie häufiger auftreten können. Um Datenverlusten vorzubeugen, werden die Daten daher paketweise übertragen. Jedes Paket enthält eine fest definierte Datenmenge, aus der eine Prüfsumme gebildet wird. Das empfangende Modem kann nun genau überprüfen, ob die Menge der Daten je Paket und die Prüfsumme richtig sind. Ist es zu einer Störung gekommen, fordert das empfangende Modem die verlorengegangenen Daten erneut an; dadurch sinkt natürlich die Übertragunsrate.

Modemgeschwindigkeit

Zeichen pro Sekunde

Zeit für 1 Mbyte

2.400 Bit/s

240 cps

1 Stunde 12 min

9.600 Bit/s

960 cps

18:15 min

14.400 Bit/s

1.440 cps

12:10 min

28.800 Bit/s

2.880 cps

6:05 min

33.600 Bit/s

3.360 cps

5:12 min

56.000 Bit/s

5.600 cps

3:10 min

64.000 Bit/s

6.400 cps

2:45 min

Tabelle 6.5: Downloadraten je nach Übertragungsgeschwindigkeit

6.6.2 DFÜ per ISDN Mit dem Integrated Services Digital Network (ISDN) bietet die deutsche Telekom schon seit einigen Jahren eine leistungsfähige Alternative zur analogen Sprach- und Datenübertragung. Ein normaler ISDN-Anschluss besteht aus zwei Telefonleitungen, den so genannten B-Kanälen, und einem D-Kanal, der der Steuerung dient. Auf jedem der beiden B-Kanäle können 64.000 bps übertragen werden; durch Bündelung der beiden B-Kanäle kann, wenn Sender und Empfänger darauf eingerichtet sind, sogar die doppelte Übertragungsrate erzielt werden. Für die Nutzung von ISDN installiert die Telekom statt der herkömmlichen Telefondose einen NTBA (Network Terminal Basis-Anschluss). Dieses Kästchen enthält zwei IAE-Anschlüsse (ISDN-Anschlusseinheit), für jeden B-Kanal eine. Über diese IAE-Buchsen können Sie nun die diversen ISDNEndgeräte wie Telefon, Fax oder eine PC-Steckkarte für die Datenfernübertragung anschließen. »Alte« analoge Endgeräte wie Ihr liebgewordenes Designertelefon können Sie allerdings auch weiterverwenden. Dazu benötigen Sie lediglich einen A/B-Wandler, der die digitalen ISDN-Signale in analoge übersetzt. An einen A/B-Wandler können Sie in der Regel zwei Geräte anschließen, wie z. B. das bereits erwähnte Telefon und ein Faxgerät oder ein herkömmliches Modem. Beide ISDN-Anschlüsse können über separate Rufnummern angesprochen und parallel genutzt werden. So haben Sie die Möglichkeit, Ihre Bankgeschäfte per Telefon zu erledigen, während ein anderes Familienmitglied langwierig und umständlich Termine vereinbart. ISDN führt auch zu Entspannungen bei Beziehungskrisen, wenn ein Partner gerne telefonieren möchte, während der andere stundenlang im Internet surft. Für den Anschluss eines PCs werden Steckkarten angeboten, die direkt in den PC eingebaut und an die ISDN-Leitung angeschlossen werden können. Die Windows-Betriebssysteme übernehmen dann automatisch die Anwahl und den Aufbau einer Verbindung wie z. B. zum Internet. Zurzeit stellt ISDN den idealen Verbindungsweg dar, um vom heimischen PC aus Daten mit anderen Computern auszutauschen. Allerdings wird der Komfort, den ISDN bietet, durch höhere Anschlussgebühren erkauft. Bei häufiger Nutzung von DFÜ via ISDN lässt sich aber die deutlich schnellere Transferrate gegenrechnen, durch die beispielsweise das Herunterladen von Programmen deutlich beschleunigt und damit die laufenden Gebühren reduziert werden können.

6.6.3 DFÜ per T-DSL Höchste Übertragungsraten

Wenn Ihnen ISDN zu langsam ist, kann das neue Angebot der Telekom, T-DSL, Abhilfe schaffen. Eine neue Übertragungstechnik, die auf den althergebrachten Kupferkabeln basiert, kann Ihnen Internet-Angebote mit Übertragungsraten von bis zu 6 Mbit/s ins Haus bringen; für den Datenversand können Geschwindigkeiten von bis zu 576 Kbit/s erreicht werden. Diese Übertragungsraten ermöglichen Ihnen den Abruf von Videoclips aus dem Internet oder die Teilnahme an Online-Videokonferenzen. Für Privatkunden am interessanten wird das Angebot T-ISDN dsl sein. Dieses Paket besteht aus einem ISDN-Anschluss und einer Datenleitung mit einer Bandbreite von 768 Kbit/s für das Herunterladen von Daten und 128 Kbit/s für das Versenden. T-DSL wird seit Sommer 1999 von der Telekom angeboten. Alles, was Sie zu Hause brauchen, ist zunächst eine ADSL-Anschlussdose.

Bild 6.28: Das Anschlussprinzip von ADSL

ADSL

T-DSL beruht auf der ADSL-Technik (Asymetric Digital Subscriber Line), die auf den Telefonleitungen hohe Frequenzen, die nicht für den Telefonverkehr gebraucht werden, nutzt. Für die Übertragung von Sprache werden nur Frequenzen von bis zu 4 KHz genutzt, während Kupferkabel einen Frequenzbereich von bis zu 1,1 MHz abdecken können. Um dieses Potential ausnutzen zu können, werden die Kupferleitungen in drei Kanäle aufgeteilt, die die Telefondienste, die Verbindung vom Internet-Provider zum Anwender und schließlich einen Kanal für den Datenaustausch vom Anwender zum Service-Provider abdecken. Ein so genannter Splitter trennt die Internet-Daten von den ISDN-Telefongesprächen, die über die gleiche Leitung zu Ihnen ins Haus kommen. Ein spezielles Modem bereitet letztlich die Daten für den Computer auf. Auch wenn die T-DSL-Anbindung aufgrund von technischen Anfangsschwierigkeiten zunächst nicht immer den optimalen Datentransfer ermöglichen wird, stellt diese Technik einen Riesenschritt in Richtung multimedialer Anbindung von privaten Haushalten an das Internet dar.

6.7 Schnittstellen Interface

Schnittstellen oder Interfaces stellen die Verbindung zwischen der Zentraleinheit und angeschlossenen speziellen Ein- und Ausgabegeräten her. Dies gilt nicht für die Tastatur und den Monitor. Drucker, Maus, Scanner, Modem und andere Geräte müssen dagegen über eine Schnittstelle angeschlossen werden. Auf diese Weise kann auch der Kontakt zu anderen Rechnern zum Datenaustausch erfolgen. Grundsätzlich gibt es zwei Arten der Datenübertragung: seriell und parallel. Dementsprechend haben wir es auch mit zwei Arten von Schnittstellen zu tun. Die Geräte, zwischen denen Daten ausgetauscht werden sollen, müssen jeweils an die gleiche Art von Schnittstellen angeschlossen sein, also zum Beispiel Drucker und Computer an die parallelen, Computer und Maus an die seriellen Schnittstellen.

6.7.1 Die Serielle Schnittstelle Die serielle Schnittstelle, häufig auch als RS 232 C- oder V.24-Schnittstelle bezeichnet, erkennt man normalerweise an einer 25poligen Mini-Buchse. Bei älteren Rechnern arbeitet diese Schnittstelle noch mit 9 Polen.

Bild 6.29: Serielle Anschlüsse mit 9 und 25 Polen

Die serielle Schnittstelle erlaubt den Datenaustausch in beiden Richtungen. Aus diesem Grund kann an diese Schnittstelle auch ein Akustikkoppler angeschlossen werden. Damit der Austausch klappt, muss festgelegt werden, auf welcher Leitung gesendet und auf welcher empfangen wird. Wenn beide Seiten auf der jeweils gleichen Seite senden und empfangen wollen, kommt natürlich nichts dabei heraus. Bei der seriellen Übertragung werden die einzelnen Bits nacheinander auf die Reise geschickt. Dadurch ist die Übertragungsgeschwindigkeit relativ niedrig. Sie kann zwischen 110 und 19.200 Bit pro Sekunde liegen. Möchte man einen lauten Drucker in einen anderen Raum verbannen, muss er an die serielle Schnittstelle angeschlossen werden. Die Kabel für die serielle Übertragung dürfen bis zu 1.000 Meter lang sein.

6.7.2 Die Parallele Schnittstelle Die parallele Datenübertragung ist sehr schnell und im allgemeinen der seriellen vorzuziehen. Im Gegensatz zur seriellen, wo die einzelnen Bits nur nacheinander weitergeleitet werden, können über die parallele Schnittstelle mehrere Bits gleichzeitig, eben parallel nebeneinander, an das Zielgerät übertragen werden. Das ermöglicht deutlich höhere Übertragungsraten, wie sie beispielsweise zum Anschluss von Druckern notwendig sind.

Bild 6.30: Stecker für parallelen Anschluss

Die parallele Übertragung ist zwar im Allgemeinen schneller als die serielle, funktioniert aber nur über kurze Entfernungen störungsfrei. Länger als 6 Meter sollte das Kabel nicht sein. Dann wird das so genannte Übersprechen zwischen den Leitungen zu groß, das heißt, die elektrischen Impulse stören sich gegenseitig.

6.7.3 USB Zusätzlich zu den konventionellen Schnittstellen gibt es ein weiteres Schnittstellenkonzept, den Universal Serial Bus (USB). Bei diesem Bus handelt es sich um eine Universalschnittstelle zur Ansteuerung unterschiedlicher Komponenten. So lassen sich über den USB Geräte wie Tastaturen, Mäuse, Scanner, Drucker, Modems, ZIP-Laufwerke oder Bildschirme betreiben. An der Vielzahl der aufgezählten Geräte sieht man, dass das Konzept des USB weit über die Möglichkeiten der bisherigen Schnittstellen hinausgeht. Ein weiterer konzeptioneller Unterschied, etwa zur seriellen Schnittstelle, ist das Daisy-Chaining, das für die Verkabelung verwendet wird. Bisher mussten alle Peripheriegeräte an der Gehäuserückseite des PCs angeschlossen werden, was einen erheblichen Kabelwust hinter dem PC erzeugt. Komponenten, die nur zeitweise am Rechner angeschlossen werden, müssen umständlich unter dem Tisch verkabelt werden. Beim USB ist dies völlig anders, hier wird z. B. die Tastatur an der Gehäuserückseite angeschlossen, und für weitere Geräte mit USB-Schnittstelle sind entsprechende Anschlüsse direkt an der Tastatur angebracht. Auch zahlreiche Monitore oder Displays sind mit solchen USB-Ports ausgerüstet. Dieses Verfahren vereinfacht die Verkabelung eines Rechners erheblich und verhindert so, ganz nebenbei, den Kabelwust hinter dem PC.

Bild 6.31: USB-Anschlüsse auf der Rückseite eines PC

USB 2.0

USB ist noch relativ neu, obwohl inzwischen jeder neue PC über diese Schnittstelle verfügt. Zurzeit beträgt die maximale Datenübertragungsrate 12 Mbit/s, ein Wert, der für Massenspeicher und Videokameras leider nicht ausreicht. Doch bereits 1999 wurde die USB-Spezifikation 2.0 verabschiedet, die die Übertragungsrate auf 120 bis 240 Mbit/s steigern wird. Damit können dann auch beispielsweise schnelle externe Festplatten oder andere Massenspeicher über den USB-Anschluss mit dem PC verbunden werden, ohne dass man Einschränkungen in der Übertragungsrate in Kauf nehmen muss.

7 Auf die Verpackung kommt es (auch) an In den vergangenen Kapiteln haben Sie alle wichtigen Bauteile eine Computers kennengelernt: den Prozessor, das Bussystem und den Arbeitsspeicher, die sich gemeinsam auf der Hauptplatine befinden, sowie Disketten- und Festplattenlaufwerke, Grafik- und Soundkarten. Alle diese Bauteile befinden sich in der Zentraleinheit, aber wie sieht sie selber aus? Spätestens, wenn Sie in einen Computerladen gehen und sich umschauen werden Sie feststellen, dass PC nicht gleich PC ist. Da gibt es Rechner mit großen, mittleren und kleineren Gehäusen, Rechner, die Sie für unterwegs in einen Aktenkoffer packen können und selbst Geräte, die auch in einer Jackentasche Platz finden. Lassen Sie uns daher zum Abschluss unserer Betrachtungen der PC-Hardware einen Blick darauf werfen, wie die einzelnen Computerbauteile verpackt sind.

7.1 Büro-PCs In den letzten zehn Jahren hat sich das Äußere der PCs und ihre Mobilität sehr gewandelt. Während der erste PC aus einem klobigen Metallgehäuse bestand, das den Schreibtisch für andere Arbeiten unbrauchbar machte, versucht man heutzutage, den PC dem Blickfeld des Anwenders zu entziehen.

Bild 7.1: Schon fast futuristisches Design: Alles Wesentliche befindet sich im Fuß des Displays (Foto: IBM)

Bei den Standard-PCs lassen sich zwei Formen unterscheiden. Desktop-PCs oder Tischmodelle Desktop-PC

Diese Rechner stehen noch immer auf dem Schreibtisch, und der Monitor findet auf dem Rechnergehäuse Platz. Das führt dazu, dass diese PCs in begrenzterem Maße bezüglich Arbeitsspeicher und zusätzlicher Peripherieanschlüsse ausbaubar sind. So können Sie in diese Gehäuse häufig neben dem Diskettenlaufwerk und einer Festplatte nur eine weitere Festplatte oder alternativ ein CD-ROM-Laufwerk einbauen. Für mehr Plattenspeicher ist einfach kein Platz. Ebenso verhält es sich mit den Erweiterungskarten: Bei drei bis vier Steckkartenanschlüssen ist meistens Schluss. Haben Sie für Ihren PC eine ganze Reihe von Erweiterungen im Auge, sollten Sie sich vielleicht besser für ein Tower-Gehäuse entscheiden. Allerdings haben sich Designer bemüht, das Gehäuse der Desktop-Rechner möglichst ansehnlich und kompakt zu gestalten.

Bild 7.2: Der traditionelle Desktop-PC (Foto: IBM)

Tower-PCs oder Standmodelle Tower-PC

PCs dieser Form können in der Regel neben den Schreibtisch auf den Boden gestellt werden. Wie ein Turm ragen sie vom Boden empor. Dafür bleibt der Schreibtisch frei, nur für Monitor und Tastatur muss Platz gefunden werden. Da diese Rechner insgesamt großzügiger dimensioniert sind, bieten sie viel Raum für zusätzlichen Arbeitsspeicher, Plattenspeicher und Erweiterungskarten.

Bild 7.3: PC im großen (Big-) Tower-Gehäuse (Foto: HP)

Es gibt einige Variationen der Tower-Gehäuse, die dann als Baby-, Midi- oder MiniTower bezeichnet werden. Diese Rechner sind in der Regel genauso breit wie ein Tower, entsprechen in der Höhe aber etwa einem Monitor. Einen solchen Rechner können Sie ebenfalls auf den Boden stellen oder senkrecht auf den Schreibtisch, um Platz zu sparen.

Bild 7.4: Ein moderner PC als Standmodell auf dem Schreibtisch, und wie es sich schon fast gehört, der PDA zum Datenaustausch daneben (Foto: IBM)

Server

Dieser Begriff ist nicht nur Rechnern vorbehalten, die auf der PC-Technik basieren; es gibt zahlreiche Hersteller von Servern, deren Geräte auf RISC-Prozessoren basieren und für den Einsatz mit UNIX-Betriebssystemen gedacht sind. Inzwischen werden aber auch die PC-basierenden Server immer leistungsfähiger und stehen den UNIX-Servern kaum noch nach. PC-Server unterscheiden sich von herkömmlichen PCs zumeist in der Ausfallsicherheit der einzelnen Hardwarekomponenten. So werden bei diesen Geräten meist mehrere Festplatten eingebaut, die die Daten so speichern, dass der Ausfall einer Platte nicht zu Datenverlusten führt. Spezielle Speicherbausteine sollen ebenfalls sicherstellen, dass keine Daten verloren gehen. Das Bussystem dieser Geräte ist so ausgelegt, dass es alle verarbeitenden Einheiten des Servers schnellstens mit Daten versorgen kann, so dass auch Datenanfragen von hunderten von Anwendern ohne spürbare Zeitverzögerungen beantwortet werden können.

Bild 7.5: Viele Server werden in spezielle Rahmen eingebaut, so genannte Racks, die nicht nur Monitor und Tastatur zur Bedienung enthalten können, sondern auch nach Bedarf um weitere Plattensysteme erweitert werden können. (Foto: HP)

7.2 Tragbare Rechner Neben diesen Standardformen, die ihren festen Platz im Büro haben, wächst die Zahl der tragbaren Rechner. Sie lassen sich unterscheiden in: Portables

Portables sind einfach transportierbare Personal Computer, die aber noch immer abhängig vom Stromnetz sind. Meist sind sie kleiner als Desktop-Rechner, der Bildschirm ist im Gehäuse eingebaut und wird erst sichtbar, wenn man die Tastatur abnimmt. Laptops

LC-Display

Laptops gehören ebenfalls zu den portablen Rechnern, sind dazu aber unabhängig vom Stromnetz. Über Akkus oder Batterien kann der Rechner über einige Stunden in Betrieb gehalten werden. Voraussetzung dafür ist die Verwendung von besonders stromsparenden Bauteilen. Dazu gehören nicht nur der Mikroprozessor und die Speicherbausteine, sondern auch die externen Speichereinheiten wie Disketten- und Festplattenlaufwerk. Spezielle stromsparende CPU

Intel und AMD sind z. Z. die einzigen Prozessorhersteller, die spezielle stromsparende Varianten ihrer Prozessoren anbieten; leider sind diese CPUs zum Teil deutlich teurer als die gleichgetakteten Modelle für herkömmliche Computer. Ansonsten stehen Notebook-Computer leistungsmäßig kaum noch ihren großen Brüdern nach. Große Platten

Als Festplatten benutzt man inzwischen Laufwerke, die speziell für diese Rechnergattung konzipiert wurden und besonders klein sind. Der Plattenspeicher für die Kleinstrechner erreicht fantastische Dimensionen: Inzwischen werden 2½-ZollLaufwerke angeboten, die über 8 Gbyte speichern können. Flache LC-Displays mit bis zu 15-Zoll-Bildschirmdiagonale bieten ein größeres Bild als ein 15-Zoll-Monitor. Auch in Sachen Bildschirm- und Farbauflösung stehen die kleinen Geräte den Desktop-PCs in nichts nach. Notebooks

Die Laptops werden immer kleiner. Inzwischen erreichen diese Geräte die Größe von DIN-A4-Kladden. Entsprechend werden sie als Notebook-PCs bezeichnet. Diese Rechner verfügen über besonders stromsparende elektronische Bausteine und raumsparende Festplattenlaufwerke. Für besonders kleine Rechner werden auch Speicherkarten (z. B. Flash Memories) als Massenspeicher eingesetzt. Inzwischen sind Notebook-Computer auch für den Heimanwender erschwinglich geworden und besonders dann interessant, wenn der Platz zuhause nicht für einen großen Computer samt Monitor ausreicht.

Bild 7.6: PC im Notebook-Format. In diesem All-In-One-Notebook sind Disketten- und CD-ROM-Laufwerk eingebaut (Foto: HP)

Inzwischen gibt es allerdings auch unter den Notebooks wiederum die verschiedensten Varianten: All-In-One-Notebook



Das klassische Notebook verfügt über ein großes Display von mindestens 12,1 Zoll bis hin zu über 15 Zoll. Disketten- und CD-ROM-Laufwerk sind eingebaut, was sich natürlich negativ auf Größe und Gewicht des Notebooks niederschlägt. Ein solches Gerät kann durchaus 5 cm dick sein und mit 3 bis 4 kg Gewicht einen regelmäßigen Transport erschweren, eine separate Tragetasche ist da schon notwendig.

Flache Notebooks



In einen Aktenkoffer passen dagegen bereits die flachen Notebooks, die zwar auch noch zum Teil mit recht großen Displays ausgestattet sind, aber durch Verzicht auf intern eingebautes Disketten- und CD-ROM-Laufwerk deutlich dünner und leichter sind.

Bild 7.7: Ein schon recht flaches Notebook (Foto: IBM)

Subnotebook



Der nächste Schritt sind die so genannten Subnotebooks, die sich in der Größe am A5-Format orientieren. Diese Rechner müssen allerdings mit kleineren Displays auskommen, die Tastatur bietet aber auch einem Zehnfinger-Schreiber noch ausreichend Platz.

Mini-Notebook



Mini-Notebooks sind zwar noch vollwertige PCs, eignen sich aber aufgrund ihrer geringen Größe und der dadurch eingeschränkten Tastatur nur noch bedingt als Schreibgerät.

Bild 7.8: Bei diesem Subnotebook wird das Diskettenlaufwerk nur angeschlossen, wenn man es braucht (Foto: IBM)

Notepads

Ein weiterer Schritt hin zu kleineren und einfacheren Rechnern sind die so genannten Notepads. Diese Geräte haben eigentlich kaum noch Ähnlichkeit mit den typischen Computern, bei denen die Dateneingabe über eine Tastatur erfolgt und ein Monitor für die Ausgabe notwendig ist. Stiftrechner

Die Notepads haben eher Ähnlichkeit mit der guten alten Schiefertafel oder einem Schreibblock, den man während der Arbeit im Arm halten kann. Für die Dateneingabe benötigen die Notepads nur noch einen Stift, mit dem auf einen flachen FlüssigkristallBildschirm geschrieben wird. Durch ein spezielles Betriebssystem können sogar handschriftliche Eingaben vom Rechner erkannt und weiterverarbeitet werden. So wäre es beispielsweise möglich, den Notepad als Terminkalender zu nutzen, in den Sie handschriftlich Ihre Termine eintragen, die das Gerät speichert und Sie gegebenenfalls an Ihre Verabredung erinnert.

Bild 7.9: Pen-Computer von IBM

PDA

Ein weiterer Schritt in Richtung Miniaturisierung sind die neuen PDAs (Personal Digital Assistent) oder Electronic Organizer, die inzwischen von mehreren Firmen angeboten werden. Diese Kleinstrechner, die nur noch so groß sind wie eine Handfläche, werden auch nur noch über einen Stift bedient. Eine Handschrifterkennung wandelt die mit dem Stift auf dem Display gemalten Buchstaben in vom Computer verarbeitbare Zeichen um. Über eine Schnittstelle lassen sie sich einfach mit dem PC verbinden. So können Sie einfach Termine, Adressen und sonstige Daten zwischen dem PC und dem Organizer abgleichen.

Bild 7.10: Klein und flach lassen sich PDAs auch in der Hemdtasche mittragen (Foto: IBM)

Palmtop

Die Handschrifterkennung ist jedoch nicht jedermanns Sache, wollen Sie weiterhin für Ihre Eingaben eine Tastatur verwenden, suchen aber trotzdem einen kleinen, handlichen Rechner, so können Sie inzwischen auf ein umfangreiches Angebot zurückgreifen. Aus einfachen Terminkalendern oder Datenbanken sind inzwischen ausgereifte Computer geworden, die in vielerlei Hinsicht kaum hinter den großen Brüdern zurückstehen müssen. So bieten beispielsweise die Palmtops von Psion eine Datenbank, Textverarbeitung, Terminkalender, Tabellenkalkulation, Weltuhr mit Wecker bis hin zu einer eigenen Programmiersprache, fast alles Anwendungen, die Sie im übernächsten Kapitel genauer kennen lernen werden.

Bild 7.11: Der Psion passt in jede Tasche

Windows CE

Eine neue Gruppe der Palmtop-PCs versucht seit einiger Zeit den Markt zu erobern. Die Rechner werden als Handhelds bezeichnet und kennzeichnen sich durch ein einheitliches Betriebssystem, das unter dem Namen Windows CE von der Firma Microsoft geliefert wird. Windows CE erleichtert jedem PC-Anwender den Umstieg auf diese Geräte, da die Oberfläche dieses Betriebssystems den großen WindowsBetriebssystemen für den PC, die Sie im nächsten Kapitel näher kennen lernen werden, schon fast zum Verwechseln ähnlich sieht. Handheld-PCs eignen sich insbesondere für alle Anwender, die ihre auf dem großen PC unter Windows gepflegten Daten auch jederzeit unterwegs verfügbar haben möchten. Egal, ob es sich um Termine, Kontakte, Texte oder Datenbanken und Tabellen handelt, alle Daten können auf einfache Art und Weise zwischen dem großen und kleinen PC ausgetauscht werden. Die so genannten »Windows Powered Devices« arbeiten mit speziellen RISCProzessoren, die möglichst wenig Strom verbrauchen. Das Betriebssystem und die Anwendungen sind in ROM-Chips abgelegt, für die Verwaltung von Daten stehen in der Regel bis zu 32 Mbyte zur Verfügung, die über Flash-Memories erweitert werden können. Zur Verbindung mit der Außenwelt können Modem- oder Netzwerkkarten im PCMCIA-Format verwendet werden. Für die Anzeige der Daten werden kleine Displays verwendet, die je nach Modell auch Farbdarstellung ermöglichen.

Bild 7.12: Ein Handheld mit Windows CE

Software für die Kleinen

Während die Notebooks als vollständige PCs mit Windows arbeiten, nutzen alle PDAs spezielle Betriebssysteme. Windows CE für die Windows Powered Devices habe ich bereits erwähnt, bleiben noch EPOC für die Psion-Rechner und PalmOS für die meisten Stiftrechner zu nennen. PalmOS ist dabei das verbreitetste Betriebssystem, man schätzt, dass ca. 80 % aller Kleinstrechner mit diesem Betriebssystem arbeiten. Bei den meisten dieser Rechner gehören die wichtigsten Anwendungen mit zum Lieferumfang. Haupteinsatzfeld sind die Terminplanung, das Verwalten von Adressen und Kontakten und das Erstellen kurzer Notizen. Diese Daten können Sie bei allen Geräten auch mit den entsprechenden Programmen eines PCs abgleichen. Ein Termin oder eine Adresse, die Sie unterwegs mit Ihrem PDA erfassen, wird zu Hause fast automatisch nach Outlook oder Lotus Organizer übertragen und steht Ihnen somit auch am PC zur Verfügung. Neben dem Erstellen von Texten, Grafiken, Tabellenkalkulationen finden Sie für alle Geräte Unmengen an Software für fast jeden ausgefallenen Einsatzzweck.

8 Betriebssysteme Systemstart

Wenn Sie zu Hause oder am Arbeitsplatz einen IBM-kompatiblen Personalcomputer einschalten, passiert zunächst nicht sehr viel. Als erstes führt der Rechner einen RAM-Test durch. Mit Hilfe eines kleinen Programms, dass im ROMSpeicher des Rechners fest abgelegt ist, werden die einzelnen Speicherzellen des RAM-Speichers (Arbeitsspeicher) auf ihre Funktionstüchtigkeit überprüft. Ist der Test abgeschlossen, verlangt der Rechner mit der folgenden Aufforderung: Bitte Systemdiskette einlegen... nach einer Diskette mit dem Betriebssystem. Das ist alles, was der Computer selber leisten kann. Für die Arbeit am Rechner ist das Betriebssystem absolut notwendig. Bei PCs mit Festplatte wird das Betriebssystem automatisch von der Platte geladen! Erst im Anschluss daran können Sie mit Anwendungsprogrammen arbeiten. Das Betriebssystem stellt eine Art Vermittler dar zwischen der Hardware des Computers, den Anwendungsprogrammen und Ihnen als Benutzer. Es gibt eine große Anzahl verschiedener Betriebssysteme. Man unterscheidet sie im Wesentlichen danach, für welche Rechner bzw. Prozessoren sie entwickelt wurden. Großrechner arbeiten mit anderen Betriebssystemen als Rechner von mittlerer Größe oder Personalcomputer. In den nächsten Abschnitten wollen wir uns die Möglichkeiten von Betriebssystemen anschauen, die für Personalcomputer entwickelt wurden.

8.1 Die Aufgaben des Betriebssystems Ein- und Ausgaben

Betriebssysteme erleichtern die Verbindung zwischen Mensch und Computer. Sie sind dafür verantwortlich, dass die Wünsche des Benutzers verstanden und ausgeführt werden, dass Fehleingaben abgewiesen werden und der Benutzer durch leicht verständliche Meldungen auf diesen Missstand hingewiesen wird. Dabei regeln sie gleichzeitig den Programmablauf und alle notwendigen Ein- und Ausgaben am Bildschirm. Peripherie

Neben diesen Aufgaben regeln Betriebssysteme den Zugriff auf den Drucker, auf das Diskettenlaufwerk oder die Festplatte. Dabei muss das Betriebssystem immer den Überblick darüber behalten, wo sich welche Informationen auf der Diskette oder Platte befinden, um nötigenfalls gezielt darauf zugreifen zu können. Beim Laden von Programmen muss es sich um die Bereitstellung von ausreichend Speicher kümmern, damit die Programme einwandfrei arbeiten können. Das Betriebssystem entlastet also in erster Linie den Benutzer, indem es ihm Verwaltungsaufgaben abnimmt.

Das Betriebssystem bei der täglichen Arbeit Stellen Sie sich vor, dass Sie an Ihrem Personalcomputer mit einem Textverarbeitungsprogramm einen bereits geschriebenen Brief verändern wollen. Nach dem Einschalten des Rechners und dem Laden des Betriebssystems von der Festplatte lädt es ihr Textprogramm. Dazu sucht das Betriebssystem die Programmdatei auf der Festplatte, legt sie in einem freien Bereich des Arbeitsspeichers ab und ruft das Programm auf. Nach kurzer Zeit meldet sich das Textverarbeitungssystem am Bildschirm, und Sie können ihm mitteilen, dass Sie einen bestimmten Brief bearbeiten wollen. Dieser Brief ist als Datei ebenfalls auf der Platte unter einem bestimmten Namen abgelegt und muss vom Betriebssystem gesucht werden. Nach der Bearbeitung des Briefes soll die neue Fassung mit einem neuen Namen abgespeichert werden. Das Betriebssystem kontrolliert, ob der Name noch nicht vergeben ist, sucht auf der Platte nach freiem Speicherplatz und legt die Datei dort ab. Soll der Brief auf einem Drucker ausgegeben werden, so ist es die Aufgabe des Betriebssystems, den Drucker anzusteuern und auf seine Funktionstüchtigkeit zu überprüfen. Die Daten müssen vom Betriebssystem in Signale umgesetzt werden, die der Drucker versteht. Weiterhin steuert das Betriebssystem die Eingabe über die Tastatur sowie die Ausgabe über den Monitor. So ist es dafür verantwortlich, dass, wenn Sie auf der Tastatur ein »A« eingeben, Sie auf dem Monitor auch tatsächlich ein »A« sehen und nicht irgendein anderes Zeichen oder überhaupt nichts.

An diesem einfachen Beispiel können Sie erkennen, dass das Betriebssystem sehr wichtige Aufgaben hat, und dass es dem Benutzer die Arbeit mit dem Computer erheblich erleichtert. Darüber hinaus werden Sie dabei unterstützt, wenn Sie sich Dateien auf dem Bildschirm oder Drucker ausgeben lassen, Dateien löschen, schützen oder aus Sicherheitsgründen kopieren wollen. Überprüfung der Hardware

Beim Einschalten überprüft das Betriebssystem, welche Geräte an Ihren PC angeschlossen sind, Tastatur, Bildschirm oder Drucker. Ebenso wird geprüft, über wie viel Arbeitsspeicher Ihr Rechner verfügt. Werden Fehler in der Hardware gefunden, beispielsweise in der Tastatur oder im Speicher, so werden diese Fehler gemeldet. Dadurch können Falschbedienungen vermieden werden.

8.1.1 Welche Betriebssysteme gibt es? MS-DOS

MS-DOS war das erste Betriebssystem, das für IBM Personalcomputer angeboten wurde. Die Leistungsfähigkeit dieses Betriebssystems war nach heutigen Ansprüchen sehr gering. Im Laufe der Zeit wurde MS-DOS immer weiter überarbeitet und mit neuen Versionsnummern versehen; so reichte die Entwicklung von MS-DOS 1.0 bis MS-DOS 6.22, der wahrscheinlich letzten Version dieses Betriebssystems. Windows

Um den Unzulänglichkeiten von MS-DOS abzuhelfen, wurde von Microsoft die grafische Benutzeroberfläche Windows entwickelt, die als Anwendung unter MS-DOS arbeitet. Die Kombination MS-DOS/Windows erlaubt es, die Möglichkeiten moderner Computer besser auszunutzen als mit MS-DOS alleine. Schätzungen gehen davon aus, dass ca. 80 % aller PCs auf der Welt bis 1995 mit dieser Kombination betrieben wurden. OS/2

Die Firma IBM hat Anfang der achtziger Jahre, zunächst noch gemeinsam mit der Firma Microsoft, mit der Entwicklung eines neuen Betriebssystem einen radikal neuen Weg beschritten. OS/2 war von Anfang an ganz auf die Belange moderner Computer zugeschnitten. Windows NT Windows 95/98/Me

Nachdem Microsoft die Zusammenarbeit mit IBM aufgekündigt hatte, ging es daran, selber ein neues Betriebssystem zu entwickeln, das in der Lage sein sollte, die Kombination MS-DOS und Windows auf modernen Rechnern abzulösen. Als Ergebnis entstand zunächst Windows NT, das zwar sehr hohe Anforderungen an den Computer stellte, aber die technischen Möglichkeiten der Hardware am besten ausnutzen kann. Leider war Windows NT anfangs nicht der große Erfolg beschieden, da seine Hardwareanforderungen damals noch nicht von sehr vielen PCs erfüllt wurden. Inzwischen hat sich das geändert: Lediglich in puncto Arbeitsspeicher war Windows NT etwas anspruchsvoller als sein »kleinerer Bruder« Windows 95. Dieses Betriebssystem entwickelte Microsoft für den breiten Markt; inzwischen hat es gemeinsam mit seinen Nachfolgern Windows 98 und Windows Me eine ähnliche Verbreitung erlangt wie MS-DOS und Windows 3.1. Windows 2000

Windows 2000 war der Nachfolger von Windows NT. Der Name legt nahe, dass es sich um eine Weiterentwicklung von Windows 95 und Windows 98 handelt, aber dem ist nicht so. Windows 2000 basiert auf der Technologie von Windows NT. Windows XP

Die lange Liste der Windows-Betriebssysteme findet mit dem aktuellsten Vertreter Windows XP ein vorläufiges Ende. Dieses Betriebssystem soll nun Schluss mit den noch immer auf DOS basierenden Systemen Windows 95/98/Me machen. Windows XP beruht im Wesentlichen auf der sicheren und fortschrittlichen Technologie von Windows NT/2000 und soll zukünftig das einzige Betriebssystem sein, das von Microsoft für den PC weiterentwickelt und angeboten wird. Daher wird uns dieses Betriebssystem im dritten Abschnitt im Besonderen interessieren. UNIX/LINUX

Beschäftigt man sich mit PC-Betriebssystemen, darf man UNIX nicht außer Acht lassen. Dieses Betriebssystem stammt eigentlich aus der Welt der Minirechner bzw. Workstations und wird seit Ende der achtziger Jahre, als die PCProzessoren leistungsfähiger wurden, auch für Personalcomputer angeboten. Im Vergleich zu den Windows-Betriebssystemen hat es lediglich in Unternehmen eine gewisse Bedeutung. Allerdings spielt die UNIX-Variante LINUX eine immer größere Rolle.

8.1.2 Wie unterscheiden sich Betriebssysteme? Unterscheidungskriterien

Wie unterscheiden sich nun diese Betriebssysteme, welche Kriterien könnten Ihnen hilfreich bei der Entscheidung für eines dieser Betriebssysteme sein? Unterstützung der Prozessorarchitektur 16-Bit-Prozessoren

Wie Sie sich sicherlich noch erinnern, waren die ersten PC-Prozessoren mit 16 Bit breiten Leiterbahnen für die Kommunikation ausgestattet. Für Daten und Befehle standen nur 16 Bit zur Verfügung. MS-DOS ist auf diese Architektur zugeschnitten. 32-Bit-Prozessoren

Ab dem Intel-Prozessor 80386 wurde die Kapazität der Leiterbahnen auf 32 Bit erhöht. Allerdings hat es bis 1995 gedauert, dass auch Betriebssysteme und verbreitete Anwendungsprogramme von diesen Möglichkeiten Gebrauch machen können. Erst mit einem 32-Bit-Betriebssystem können die Anwendungsprogramme die 32 parallelen Leiterbahnen im Inneren des Prozessors wirklich voll ausnutzen, wodurch Daten und Befehle schneller verarbeitet werden können. Verwaltung des Arbeitsspeichers 640-Kbyte-Grenze

Die Prozessorarchitektur hat nicht nur Einfluss auf die Verarbeitung des Programmcodes, sondern auch auf die Verwaltung des Arbeitsspeichers. Ein reiner 16-Bit-Prozessor könnte gerade mal 64 Kbyte Speicher verwalten. Das war auch den Entwicklern des 8086/8088 zu wenig, und so sahen sie für diesen Prozessor einen Adressbus mit 20 Leiterbahnen vor. Damit war es diesem Prozessor möglich, bis zu einem Mbyte Arbeitsspeicher zu verwalten; auch das zugehörige Betriebsystem MS-DOS ist entsprechend für maximal 1 Mbyte Arbeitsspeicher vorgesehen, wobei nur 640 Kbyte für Anwendungsprogramme bereitgestellt werden.

Bis zu 4 Gbyte

Im Gegensatz dazu sind moderne 32-Bit-Betriebssysteme in der Lage, bis zu 4 Gbyte (232) Arbeitsspeicher zu verwalten; die Enterprise-Version von Windows NT kann sogar bis zu 64 Gbyte Arbeitsspeicher verwalten. Dieser Wert mag uns noch gigantisch erscheinen, und doch gibt es bereits einige Spezialanwendungen, wo dieser Wert eine Einschränkung darstellt. 64-Bit-Verarbeitung

Viele RISC-Prozessoren und auch die ersten Intel-Prozessoren sind bereits für 64-Bit-Verarbeitung ausgelegt, und so wird es nicht mehr lange dauern, bis auch in der PC-Welt 64-Bit-Prozessoren und 64-Bit-Betriebssysteme Einzug halten. Verwaltung des Plattenspeichers (Dateisysteme)

Die Verwaltung des Plattenspeichers ist eine weitere Hauptaufgabe eines Betriebssystems. Es muss zugehörige Daten in Dateien zusammenfassen und ihnen freien Platz auf einer Festplatte oder einem ähnlichen Medium zuweisen. Jede Datei erhält einen Namen, unter dem sie der Anwender bzw. das Betriebssystem wieder finden kann. Kurze oder lange Dateinamen

Unter MS-DOS kann jede Datei mit einem Namen von maximal 8 Zeichen und einer Erweiterung von 3 Zeichen benannt werden. Die modernen Betriebssysteme wie OS/2, Windows 95/NT ermöglichen dagegen Namen mit bis zu 255 Zeichen. Damit sind statt kryptischer Kürzel ausreichende Dateibeschreibungen möglich, die das Wiederfinden einer Datei deutlich erleichtern. Dateisysteme

Ein weiterer wichtiger Punkt ist die Frage, wie groß die Plattenkapazität sein kann, die das Dateisystem eines Betriebssystems verwalten kann. Am eingeschränktesten sind hier die Möglichkeiten von MS-DOS und Windows 95: bei 2 Gbyte großen Platten bzw. Plattenpartitionen ist Schluss. Damit scheiden diese Betriebssysteme für Anwendungen mit umfangreichen Datenbeständen aus. Leistungsfähiger sind da schon die Dateisysteme von OS/2 (HPFS), Windows 98/Me (FAT32), Windows NT/2000/XP (NTFS) und UNIX, deren Möglichkeiten in Terabytes (1 Tbyte = 1000 Gbyte) gemessen werden. Unterstützung der Hardware

Personalcomputer bestehen nicht nur aus einer Vielzahl von Komponenten, sondern für jede Komponente gibt es zahlreiche Hersteller, die wiederum unterschiedliche Typen mit verschiedenen Leistungsbreiten anbieten. Nehmen Sie als Beispiel eine Grafikkarte, die von zahlreichen Herstellern mit unterschiedlichen Ausstattungen und Darstellungsmodi angeboten wird. Selbst PCs von ein und demselben Hersteller können so auf verschiedenartige Weise variieren. Treiber

Nun wird Sie das als Anwender nicht sonderlich interessieren, sondern Sie möchten den PC mit all seinen Möglichkeiten nutzen und vernünftig damit arbeiten können. Dafür, dass alles läuft, ist bekanntlich das Betriebssystem verantwortlich. Unterstützt wird es dabei von kleinen Programmen, welche die Kommunikation zwischen dem Betriebssystem und speziellen Hardware-Komponenten unterstützen, die so genannten Treiber. In der Regel werden Treiber von dem Hersteller einer Hardware mitgeliefert, und zwar meist für mehrere Betriebssysteme. Da die Herstellung eines Treibers aber nicht immer ganz unproblematisch ist, konzentrieren sich viele Hersteller zunächst auf die verbreitetsten Betriebssysteme, wie z. B. Windows. Treiber für weniger verbreitete Betriebssysteme werden dagegen erst später fertiggestellt oder ganz weggelassen. Betriebsarten Singletasking

Das Betriebssystem MS-DOS ermöglicht es Ihnen nach dem Start des Computers, ein Programm aufzurufen und damit zu arbeiten. Um einen Brief zu schreiben, starten Sie beispielsweise ein Textverarbeitungsprogramm. Was aber, wenn Sie nun eine Adresse aus Ihrem Datenbankprogramm oder eine Tabelle aus Ihrer Tabellenkalkulation in den Brief übernehmen möchten? MS-DOS kann immer nur mit einem Programm zum gleichen Zeitpunkt arbeiten, es ist ein so genanntes Einprogramm- bzw. Singletasking-Betriebssystem. Multitasking

Im Gegensatz dazu ermöglichen Ihnen die modernen Betriebssysteme, mit mehreren Programmen gleichzeitig zu arbeiten, so genanntes Multitasking. Bei Bedarf können Sie also neben der Textverarbeitung auch das Datenbankprogramm starten, die Adresse suchen lassen und sie anschließend in den Brief übernehmen. Multiuser

Ein weiterer Modus darf an dieser Stelle auch nicht vergessen werden, obwohl er für den heimischen PC keine Rolle spielt, nämlich der Multiuser-Modus. Diese Betriebsart ist die typische für Großrechner, an denen bis zu mehreren tausend Anwendern gleichzeitig mit ihren Anwendungen arbeiten können. UNIX ist hierfür ein typisches Betriebssystem. Aber auch Windows, das Sie von Ihrem heimischen oder vom Arbeitsplatz-PC her kennen, ist in seiner Server-Version in der Lage, mehreren Anwendern parallel eine vollständige Windowsumgebung, so genannte Terminalsitzungen, zu bieten. Grafische Oberfläche Befehlsorientiert

Ein Problem bei der Arbeit mit MS-DOS war, dass es über Befehle, die über die Tastatur eingegeben werden mussten, gesteuert wurde. Diese Art des Arbeitens ist nicht jedermanns Sache und war wohl sicherlich auch ein Grund dafür, dass der PC, genau wie andere Computer auch, lange Zeit den Spezialisten vorbehalten war. Mausorientiert

Erst mit dem Aufkommen der grafischen Oberflächen begann der Siegeszug des PCs bis hin in die heimischen Wohnungen. Für die Bedienung vieler Funktionen wird nur noch eine Maus benötigt, mit der auf Listenfelder und Knöpfe geklickt werden kann, um Aktionen auszulösen.

Bild 8.1: Arbeiten mit Word in einer Windows 2000-Terminalsitzung, die unter Windows NT gestartet wurde.

Bis 1995 stellte die grafische Oberfläche Windows mit den Versionsbezeichnungen 3.1 bzw. 3.11, die als Betriebssystem MS-DOS nutzt, einen weltweiten Standard dar. Diese Oberfläche wurde von den neuen Microsoft-Betriebssystemen ab Windows 95 abgelöst, die eine überarbeitete Oberfläche besitzen, die einfacher zu bedienen ist. Auch OS/2 und UNIX bieten bereits seit einigen Jahren moderne grafische Oberflächen an, welche die Bedienung des Betriebssystems erleichtern. Dienstprogramme

Alle Betriebssysteme bieten zur Unterstützung von Routineaufgaben Dienstprogramme an. Hierzu gehören Funktionen zum Vorbereiten von Festplatten und Disketten oder zum Kopieren oder Sichern von Dateien. Unter MS-DOS setzte die Nutzung dieser Programme eine gewisse Erfahrung voraus, da für den Aufruf der Funktionen zum Teil recht umfangreiche Befehle eingegeben werden müssen. Bei Betriebssystemen mit grafischer Oberfläche sind diese Funktionen zum Teil direkt in die Oberfläche integriert; zum Aufruf genügt die Auswahl per Mausklick und ggf. die Bestimmung zusätzlicher Optionen. Sicherheit

Schutz vor unberechtigtem Zugriff

Bei einem PC, der mit MS-DOS betrieben wird, genügt es, den Rechner einzuschalten, um vollen Zugriff auf alle Programme und Dateien zu haben. Daher eignet sich dieses Betriebssystem nicht, wenn mit dem PC vertrauliche Daten bearbeitet werden und der PC allgemein zugänglich ist. Abhilfe schaffen hier Zusatzprogramme, mit denen Dateien vor unberechtigtem Zugriff geschützt werden können. Solche Zusatzprogramme benötigen Sie aber nur, wenn Sie mit DOS/Windows, Windows 95 oder OS/2 arbeiten möchten. Bei Windows NT/2000 und UNIX sind diese Sicherheitsfunktionen direkt im Betriebssystem integriert. Besonders Windows NT/2000 eignet sich bei sicherheitskritischen Daten, da es neben den ausgefeilten Sicherheitsfunktionen die von Windows 95/98 her bekannte leichte Bedienbarkeit bietet.

8.2 Das Betriebssystem MS-DOS MS-DOS war das erste Betriebssystem für IBM-kompatible Personalcomputer. »MS« steht für Microsoft, die Firma, die dieses Betriebssystem entwickelt hat. Mehr als 10 Jahre lang wurde fast jeder PC mit diesem Betriebssystem ausgestattet. Da ist es kein Wunder, dass es unzählige DOS-Programme gibt, die nicht so ohne weiteres unter einem anderen Betriebssystem ablaufen. DOS-Emulation

Inzwischen gibt es modernere Betriebssysteme wie Windows, OS/2 oder UNIX, die aber alle nicht an der Masse von DOS-Programmen herumkommen. Daher findet sich in diesen Betriebssystemen eine Nachbildung von MS-DOS, eine so genannte Emulation. Innerhalb dieser DOS-Emulation können DOS-Programme und Befehle fast genauso wie unter MS-DOS ausgeführt werden. Obwohl MS-DOS gar nicht mehr weiterentwickelt wird, wird es uns noch einige Jahre auf diese Weise erhalten bleiben. Dem möchte ich auf den nächsten Seiten Rechnung tragen und Ihnen den Aufbau sowie die wichtigsten Funktionen von MS-DOS kurz vorstellen. Diese Informationen helfen Ihnen auch beim Verständnis der modernen Betriebssysteme, die wir uns am Beispiel von Windows im Anschluss näher anschauen werden.

Bild 8.2: DOS-Emulation unter Windows XP

Bleiben wir aber zunächst bei MS-DOS und schauen es uns hinsichtlich der bereits aufgeführten Kriterien etwas genauer an. Unterstützung der Prozessorarchitektur 16-Bit-Betriebssystem

MS-DOS ist ein 16-Bit-Betriebssystem und unterstützt damit nicht die volle Funktionalität der modernen Prozessoren. Das muss nicht immer ein Nachteil in Hinsicht auf die Geschwindigkeit sein. Viele Programme, insbesondere Spiele, arbeiten noch immer nur unter DOS, da die Einfachheit des Betriebssystems den Entwicklern sehr viel Spielraum für die Optimierung eines Programms in Richtung Geschwindigkeit geben. Verwaltung des Arbeitsspeichers

Die Speicherverwaltung von MS-DOS stammt noch aus den Urtagen des PCs und ist entsprechend antiquiert. Gerade mal 1 Mbyte Arbeitsspeicher kann MS-DOS verwalten, wobei nur 640 Kbyte für Anwendungsprogramme bereitgestellt werden. Heutige PCs sind aber mit deutlich mehr Arbeitsspeicher ausgestattet, wie lässt sich dieser erweiterte Speicher unter DOS nutzen? Man hat sich in den letzten Jahren einige »Krücken« einfallen lassen, um MS-DOS über die 640 Kbyte-Grenze zu helfen. Für die modernen Betriebssysteme stellt der Arbeitsspeicher dagegen kein Problem mehr dar, es wird genommen, was da ist, bis zu 4 Gbyte, wenn Sie sich soviel RAM-Speicher leisten können. Verwaltung des Plattenspeichers Sektoren und Cluster

Eine zentrale Instanz bei der Verwaltung des Plattenspeichers unter DOS ist die File Allocation Table (FAT). Die FAT ist eine Tabelle, in der für jedes Plattenlaufwerk Informationen über seine Größe und seine Aufteilung in Dateien geschrieben sind. Die FAT kann maximal 65.536 Einträge verwalten, da für die Beschreibung der einzelnen Einträge höchstens 16 Bit genutzt werden können. Sie wissen bereits, dass eine Magnetplatte in Spuren und Sektoren aufgeteilt wird und ein Sektor 512 Byte umfasst. Würde in der FAT der Inhalt jedes einzelnen Sektors erfasst, könnten mit dieser Technik nur Plattenlaufwerke mit höchsten 32 Mbyte verwaltet werden. Da diese Größe für fast alle Festplatten zu klein ist, erlaubt MS-DOS ab der Version 4, mehrere Sektoren zu einem Cluster zusammenzufassen; statt Informationen über einen Sektor werden dann nur noch Informationen je Cluster in der FAT eingetragen. Die Anzahl der Sektoren pro Cluster ist abhängig von der Größe der Festplatte. Die folgende Tabelle gibt die notwendigen Cluster-Größen an: Größe der Partition Mbyte

Anzahl der Sektoren pro Cluster

bis 128 Mbyte

4

128 bis 256

8

256 bis 512

16

512 bis 1.024

32

1.024 bis 2.048

64

Tabelle 8.1: Aufteilung der Platte in Sektoren und Cluster

Das Zusammenführen von mehreren Sektoren zu einem Cluster ist zwar eine einfache Möglichkeit, die Größe des adressierbaren Speichers pro Laufwerk zu erhöhen, birgt aber auch einen Nachteil in sich. Im Prinzip wird dadurch recht viel Speicherplatz verschwendet. Vergeudung von Plattenspeicher

Jede Datei, die auf einem logischen Laufwerk angelegt wird, erhält einen Eintrag in der FAT. Dieser Eintrag enthält Angaben über das erste und letzte Cluster, auf das die Datei geschrieben wurde. Pro Datei wird aber immer mindestens ein Cluster belegt. Für eine kleine Datei, die vielleicht nur 100 Byte groß ist, werden bei größeren Festplatten normalerweise etwa 32 oder 64 Sektoren mit 16 bzw. 32 Kbyte verbraucht. In dem einen Cluster bleibt also der größte Teil des zugewiesenen Plattenplatzes brach liegen. FAT32

Mit Windows 95 B, der zweiten Überarbeitung von Windows 95, wurde auch das Dateisystem überarbeitet. FAT32 hilft allen Windows 95-Anwendern aus der Klemme, die sich eine der inzwischen sehr großen Festplatten gekauft haben, und diese nicht in mehrere Partitionen aufteilen möchten. Statt 16 Bit können nun 32 Bit für die Beschreibung der Tabelleneinträge genutzt werden. Damit kann FAT32 bis zu 2 Terabyte Plattenplatz verwalten. Bei herkömmlichen Festplatten verringert sich die Größe der Cluster deutlich: Zur Formatierung eines 8 Gbyte großen Laufwerks sind lediglich 4 Kbyte große Cluster notwendig. Das führt letztendlich zu einer deutlich effektiveren Ausnutzung des Plattenplatzes: Kleine Dateien wie z. B. CONFIG.SYS oder AUTOEXEC.BAT verbrauchen nicht mehr 32 Kbyte, sondern maximal 4 Kbyte. Laufwerksgröße

Cluster unter FAT16

Cluster unter FAT32

260 Mbyte - 511 Mbyte

8 Kbyte

Nicht unterstützt

512 Mbyte - 1.023 Mbyte

16 Kbyte

4 Kbyte

1.024 Mbyte - < 2 Mbyte

32 Kbyte

4 Kbyte

2 Gbyte - < 8 Gbyte

Nicht unterstützt

4 Kbyte

8 Gbyte - < 16 Gbyte

Nicht unterstützt

8 Kbyte

16 Gbyte - < 32 Gbyte

Nicht unterstützt

16 Kbyte

>= 32 Gbyte

Nicht unterstützt

32 Kbyte

Tabelle 8.2: Größe der Cluster bei verschiedenen Laufwerksgrößen

Fragmentierung

Ein weiteres Problem der FAT ergibt sich erst nach längerem Gebrauch eines logischen Laufwerks. Haben Sie ein Laufwerk neu eingerichtet, ist die Tabelle zunächst annähernd leer. Mit jeder einzelnen Datei, die auf das Laufwerk geschrieben wird, nimmt die Zahl der Einträge zu. Jeder neue Eintrag wird zunächst an das Ende der Tabelle geschrieben, auch dann, wenn zwischenzeitlich Dateien gelöscht wurden. Name der Datei

Gespeichert in den Clustern von ... bis...

Datei A

2-4

Datei B

5 - 15

Datei C

16 - 28

Datei D

29 - 35

usw. Tabelle 8.3: Beispiel einer Dateizuordnungstabelle ohne Fragmentierung

Erst wenn das Ende der Tabelle erreicht ist, sucht DOS in der FAT nach leeren Clustern. Angenommen, es findet am Anfang der Tabelle zwei leere Cluster, so füllt es diese Bereiche mit dem Inhalt der zu speichernden Datei. Benötigt die Datei aber mehr als diese zwei Cluster, sucht DOS weiter nach den nächsten freien Clustern. Auf diese Weise wird eine Datei nicht mehr ausschließlich in hintereinander liegende Cluster geschrieben, sondern in mehrere Blöcke aufgeteilt, die über die ganze Platte verteilt sein können; man bezeichnet diesen Umstand als Fragmentierung, ein Problem, mit dem auch andere Betriebssysteme zu kämpfen haben. Defragmentierung

Ein Ausweg aus dieser Situation ist die Defragmentierung, bei der die einzelnen Fragmente einer Datei, die Blöcke, wieder in die richtige Reihenfolge gebracht werden. Hierzu gibt es spezielle Programme, die ab der Version 6.0 auch in MSDOS enthalten sind. So hat mit dem Programm DEFRAG.EXE jeder DOS-Anwender die Möglichkeit, seine Platte regelmäßig zu defragmentieren und für Schreib-/Lesezugriff zu optimieren. Beschädigung der FAT

Bei einer Beschädigung der FAT gehen prinzipiell alle Dateien des entsprechenden Laufwerks verloren, da das Betriebssystem nicht mehr weiß, wo es eine bestimmte Datei finden kann. Um dem Vorzubeugen werden beim Formatieren in der Regel mehrere Kopien der FAT angelegt, die in der Folge auch parallel gepflegt werden. Wird die primäre FAT zerstört, können Sie mit Hilfe des DOS-Befehls CHKDSK eine der Kopien aktivieren. Dateinamen

Im DOS bestehen Dateinamen aus einem Hauptnamen und einer Erweiterung (auch Extension genannt), die durch einen Punkt voneinander getrennt werden. Der Hauptname setzt sich zusammen aus ein bis acht Zeichen, die Erweiterung aus ein bis drei Zeichen. Der Punkt und die Erweiterung sind kein Muss. Wenn Sie selber eine Datei benennen, können Sie auf den Punkt und die Erweiterung verzichten. Meist erlaubt die Erweiterung aber eine bessere Benennung der Datei. Die folgende Liste zeigt Ihnen einige Beispiele gängiger Erweiterungen und ihrer Bedeutung. Erweiterung

Bedeutung

BAK

Sicherungsdatei (>BackupBatchCommand< -Datei)

DAT

Rohdatendatei

DOC

Dokumenten(Text)-Datei (>DocumentExecutableHelpMessage) anzeigt. Bei Ihren eigenen Eingaben verwenden Sie dagegen immer den Doppelpunkt statt des »Größer-als«-Zeichens. Formatieren einer Diskette

Zum Formatieren einer Diskette müssen Sie zunächst das FORMAT-Programm aufrufen. Geben Sie hinter dem Bereitschaftszeichen folgenden Befehl zum Formatieren ein (Groß- oder Kleinschreibung spielt bei Eingaben für DOS keine Rolle): C>FORMAT A: Das bedeutet: Formatiere die Diskette in Laufwerk A:. Bis zu diesem Zeitpunkt reagiert DOS nicht auf Ihre Eingabe. Falls Sie sich verschrieben haben, können Sie den Fehler noch berichtigen. Erst durch das Drücken der Eingabe-Taste bestätigen Sie den Befehl. Dadurch wird das Programm FORMAT.COM in den Arbeitsspeicher geladen und gestartet. Das MS-DOS-Dienstprogramm FORMAT gibt folgende Nachricht aus (auch diese Nachrichten können zwischen den DOS-Versionen variieren): Neue Diskette in Laufwerk A: einlegen, anschließend die EINGABETASTE betätigen Damit werden Sie aufgefordert, die neue Diskette in das Laufwerk einzulegen. Wenn Sie damit fertig sind, drücken Sie wieder die Eingabe-Taste. Daraufhin beginnt der Formatierungsvorgang. Auf dem Bildschirm wird angezeigt, wie weit der Formatiervorgang fortgeschritten ist: 10 % des Datenträgers formatiert Sobald der letzte Sektor bzw. Zylinder formatiert wurde, erscheint auf dem Bildschirm die Meldung: Datenträgerbezeichnung (11 Zeichen, EINGABETASTE für Keine)? Sie haben nun die Möglichkeit, der Diskette einen Namen zu geben, das so genannte Datenträgeretikett oder Label. Dieser darf maximal 11 Zeichen lang sein. Wollen Sie auf der Diskette nur Briefe abspeichern, können Sie der Diskette den Namen »BRIEFE« geben oder einen anderen, der mit dem Zweck der Diskette zusammenhängt. Geben Sie den Namen ein und drücken Sie anschließend wieder die Eingabe-Taste. Die letzte Meldung während des Formatierungsvorgangs erscheint:

Bild 8.5: Die Formatierung ist beendet.

Zuordnungseinheiten

Diese Meldung teilt Ihnen mit, dass Ihre Diskette über eine Speicherkapazität von 1.457.664 Byte (1.457.664 Byte / 1.024 Byte = 1.440 Kbyte) verfügt. Als nächstes werden Sie darauf hingewiesen, wie groß eine Zuordnungseinheit ist. Dieser Begriff entspricht einem Cluster, das Sie als Zusammenfassung mehrerer Sektoren bereits kennen. Auf einer normalen Diskette reicht es aber aus, den Plattenplatz auf der Basis von Sektoren zu verwalten. Bei einer größeren Festplatte kann dagegen die Meldung darauf hinweisen, dass eine Zuordnungseinheit aus 2.048, 4.096, 8.192 Bytes etc. besteht. Falls sich fehlerhafte Sektoren () auf der Diskette befinden, werden diese als solche markiert und in Zukunft nicht berücksichtigt. Die Anzahl verfügbarer Bytes verringert sich entsprechend. Weiterhin werden Sie gefragt, ob Sie weitere Disketten formatieren wollen. Wenn ja, geben Sie einfach ein »J« ein, wenn nein ein »N« und bestätigen die Eingabe mit der Eingabe-Taste. Entweder wiederholt sich der ganze Vorgang, oder es meldet sich das Bereitschaftszeichen. Systemdiskette

Mit den letzten Schritten konnten Sie eine einfache Diskette für das Speichern von Daten erstellen. Falls Sie aber eine Systemdiskette erstellen möchten, mit der Sie Ihr Betriebssystem nicht nur von der Festplatte, sondern auch von Diskette aus starten können, können Sie den FORMAT-Befehl um die /S.-Option erweitern. /S fordert DOS auf, das Betriebssystem auf die Diskette, die Sie gerade formatieren, zu übertragen: C>FORMAT A:/S Im Ablauf ändert sich nicht sehr viel. Nach dem Formatieren erscheint die Meldung: Formatieren beendet Systemdateien übertragen Die letzte Meldung ist erweitert um die Angabe, wie viel Speicherplatz das System auf der Diskette einnimmt:

Bild 8.6: Eine Systemdiskette wurde erstellt

Der Speicherplatz für das System variiert von Version zu Version. Je höher die DOS-Versionsnummer ist, desto mehr Speicherplatz benötigt das System. Während für die Systemdateien der DOS-Version 5.0 gerade 121.856 Byte benötigt werden, umfassen die DOS-Systemdateien unter Windows 95 bereits mehr als 350 Kbyte. Für Ihre Programme stehen Ihnen also nur noch etwa 1 Mbyte zur Verfügung. Aus diesem Grund sollten Sie vor dem Formatieren überlegen, ob Sie auf der Diskette wirklich das System benötigen. Optionen bei der Formatierung Optionen

Ich erwähnte vorhin den Begriff Option. Doch was ist eine Option? Optionen sind zusätzliche Wahlmöglichkeiten. Die meisten DOS-Kommandos verfügen über Optionen, welche die Funktionsweise des Kommandos beeinflussen. Wenn Sie Optionen nutzen wollen, müssen Sie sie gemeinsam mit dem Kommando eingeben. Sie geben dazu hinter dem Befehl das Optionszeichen ein, einen Schrägstrich (/), auf den der entsprechende Buchstabe der Option folgt. Die wichtigsten Optionen für den FORMAT-Befehl sind /V und /S: ●

FORMAT /V: Durch diese Option können Sie den Namen für das Datenträgeretikett schon vor dem Formatieren der Diskette eingeben.



FORMAT /S: nach dem Formatieren unter DOS werden automatisch die Systemdateien auf die Diskette übertragen.

Disketten kopieren DISKCOPY

Nachdem Sie gesehen haben, wie Disketten und Festplatten formatiert werden, möchte ich Ihnen jetzt erklären, wie Sie ganze Disketten kopieren können. Hierfür können wir das Dienstleistungsprogramm DISKCOPY benutzen. Der Disketteninhalt wird Spur für Spur von der Quelldiskette gelesen und auf die Zieldiskette übertragen. So entsteht eine dem Original identische Kopie. Haben Sie neben der Festplatte nur ein Laufwerk zur Verfügung, geben Sie folgenden Befehl ein, den Sie mit der Eingabetaste bestätigen: DISKCOPY A: A: Das Programm fordert Sie auf, die Quelldiskette in Laufwerk A: zu legen. Daraufhin wird der Inhalt der Diskette gelesen und im Arbeitsspeicher abgelegt. Es folgt die Aufforderung, die Zieldiskette in Laufwerk A: zu legen. Sie tauschen die Disketten aus und bestätigen wieder mit der Eingabetaste, daraufhin wird die Zieldiskette beschrieben. Kopieren Sie Disketten mit größerer Kapazität, so müssen Sie während des Kopiervorgangs die Quell- und die Zieldiskette öfters austauschen. Dies liegt daran, dass DOS nur maximal ca. 550 Kbyte auf einen Satz in den Arbeitsspeicher lesen und von dort aus auf die Zieldiskette kopieren kann. Zum Abschluss werden Sie gefragt, ob Sie eine weitere Diskette kopieren möchten: Eine weitere Kopie erstellen (J/N)? Sie können »J« oder »N« eingeben und mit der Eingabetaste bestätigen. Kopieren mit zwei Diskettenlaufwerken

Verfügen Sie über zwei Diskettenlaufwerke, legen Sie die Quelldiskette in Laufwerk A: und die Zieldiskette in Laufwerk B:. Über die Tastatur geben Sie hinter dem Bereitschaftszeichen ein: DISKCOPY A: B: In diesem Fall brauchen Sie nicht zwischendurch die Disketten zu wechseln. Die Daten werden direkt von Laufwerk A: nach Laufwerk B: übertragen. Übrigens kann man den DISKCOPY-Befehl auch für nicht-formatierte Disketten anwenden. Die Zieldiskette wird dann vor dem Kopiervorgang entsprechend dem Format der Quelldiskette formatiert. Dabei erscheint folgende Meldung auf dem Bildschirm: Formatieren während Kopieren Wenn Sie kontrollieren möchten, ob der Kopiervorgang geklappt hat, müssen Sie zuerst das aktuelle Laufwerk wechseln. Inhaltsverzeichnis

Anschließend geben Sie hinter dem Bereitschaftszeichen den Befehl DIR (engl. DIRectory = Inhaltsverzeichnis) ein. DIR Damit wird das Inhaltsverzeichnis des aktuellen Laufwerks auf dem Bildschirm ausgegeben. Einfacher ginge es natürlich ohne das aktuelle Laufwerk zu wechseln. In diesem Fall müssen Sie dem DIR-Befehl mitteilen, dass das Inhaltsverzeichnis von Laufwerk A: ausgegeben werden soll: DIR A: Die Meldung könnte in etwa folgendermaßen aussehen:

Bild 8.7: Das Inhaltsverzeichnis einer Diskette wird mit dem DIR-Befehl angezeigt.

Die erste Zeile, die in der Meldung erscheint, gibt den Namen der Diskette, das Datenträgeretikett, wieder. Die nächste Zeile teilt Ihnen mit, welches Diskettenlaufwerk angezeigt wird. Das DIR-Kommando gibt für jede Datei auf der Diskette eine Zeile auf dem Bildschirm aus. Nach dieser Meldung befindet sich auf der Diskette unter anderem das Programm NTDETECT.COM. Die Zeile enthält den Hauptnamen der Datei, die Dateierweiterung, die Länge der Datei in Byte sowie das Datum und die Uhrzeit der Dateierstellung oder der letzten Änderung. Die letzte Zeile gibt Auskunft über die Anzahl der Dateien und den Umfang des freien Speicherplatzes auf der Diskette.

8.2.2 Inhaltsverzeichnisse

Es kommt häufig vor, dass sich auf Disketten oder Festplatten eine große Anzahl von Dateien ansammeln. Bei der Ausgabe des Inhaltsverzeichnisses mit dem DIR-Kommando können nicht alle Dateien auf dem Bildschirm dargestellt werden. Dies kann die Suche nach bestimmten Dateien erheblich erschweren. DIR /W

DOS verfügt zur Ausgabe der Inhaltsverzeichnisse über zwei Optionen, die die Suche nach einer Datei erleichtern. Die /W-Option (DIR /W) bewirkt eine abgekürzte, über die ganze Bildschirmbreite gehende Auflistung der Dateinamen. Hierbei stehen jeweils 5 Einträge in einer Zeile.

Bild 8.8: Anzeige des Inhaltsverzeichnisses mit der Option /W

DIR /P

Die /P-Option (DIR /P) hält die Bildschirmausgabe an, nachdem eine volle Bildschirmseite mit Dateien erschienen ist. Durch einen Tastendruck wird die Ausgabe fortgesetzt. Diese beiden Optionen beeinflussen in Verbindung mit dem DIRKommando nur die Bildschirmausgabe des Inhaltsverzeichnisses. An der Verwaltung ändern sie jedoch nichts.

Bild 8.9: Mit der Option /P erstelltes Inhaltsverzeichnis

Hierarchische Inhaltsverzeichnisse Unterverzeichnisse

DOS bietet Ihnen die Möglichkeit, auf einer Diskette oder Festplatte Inhaltsverzeichnisse anzulegen, die hierarchisch geordnet sind. Diese Möglichkeit ist vor allem für Festplatten sehr nützlich. Auf einer Festplatte können sich mit der Zeit einige hundert oder tausend Dateien ansammeln. Der normale DIR-Befehl wäre damit gänzlich überfordert. Statt dessen können Sie Ihre Dateien nach Gemeinsamkeiten ordnen und in entsprechend bezeichneten Unterverzeichnissen (engl.: Subdirectories) ablegen. Schauen Sie sich die folgende Abbildung an, sie zeigt ein Beispiel, wie sich das Inhaltsverzeichnis einer Festplatte hierarchisch gliedern lässt:

Bild 8.10: Hierarchisches Inhaltsverzeichnis

Das Hauptverzeichnis steht ganz oben in der Hierarchie und enthält mehrere Dateien. Es ist aufgeteilt in die Unterverzeichnisse DOS und WORD. Im DOS-Unterverzeichnis befinden sich alle DOS-Dienstleistungsprogramme. Sie sind noch einmal in die Unterverzeichnisse UTILITY und SYSTEM aufgeteilt. Im Inhaltsverzeichnis WORD befindet sich das WORD-Textverarbeitungsprogramm. Die damit erstellten Texte sind in den Unterverzeichnissen TEXTE, für allgemeine Texte und Notizen, sowie BRIEFE abgelegt. Auf diese Weise sind alle Dateien übersichtlich auf die Unterverzeichnisse aufgeteilt. Hauptverzeichnis

Im Gegensatz zu den Unterverzeichnissen hat das Hauptverzeichnis keinen Namen, manchmal wird es auch als Root-Verzeichnis (von engl. root = Wurzel) bezeichnet. Zur Kennzeichnung wird ein besonderes Symbol verwendet, der umgekehrte Schrägstrich »\«, der im Englischen Backslash genannt wird. Ist ein Inhaltsverzeichnis nur mit diesem Schrägstrich gekennzeichnet, handelt es sich stets um das Hauptverzeichnis.

Würden wir das oben abgebildete Inhaltsverzeichnis mit dem DIR-Befehl aufrufen, könnte die Meldung in etwa so aussehen wie Bild 8.11.

Bild 8.11: Das Hauptverzeichnis wurde in mehrere Verzeichnisse unterteilt.

Die Nachricht teilt Ihnen mit, dass im Hauptverzeichnis insgesamt 6 Dateien abgelegt sind. Die Unterverzeichnisse WORD und DOS werden also vom Betriebssystem wie Dateien behandelt. Auch die Erstellungsdaten der Unterverzeichnisse werden mitgeteilt. Verzeichnispfad

Als nächstes sollten wir uns den Inhalt der Unterverzeichnisse anschauen. Hierzu müssen wir aber einen neuen Begriff einführen, den Pfad. Ein Pfad ist eine Kette von Inhaltsverzeichnis-Namen, die dem DOS mitteilen, wie es sich im Inhaltsverzeichnis zurechtfinden und Ihr gewünschtes Inhaltsverzeichnis oder die gewünschte Datei finden kann. Die einzelnen Namen der Inhaltsverzeichnisse sind in der Pfadangabe durch das Pfadzeichen (engl. Backslash), den umgekehrten Schrägstrich (\), getrennt. Schauen wir uns zunächst einmal an, welche Briefe in dem Unterverzeichnis BRIEFE abgelegt sind. Dazu müssen wir DOS genau mitteilen, was wir sehen möchten und erweitern den DIR-Befehl um die Pfadangabe: DIR \WORD\BRIEFE DOS reagiert mit folgender Meldung:

Bild 8.12: Angabe des Inhaltsverzeichnisses über den Pfadnamen

DOS teilt Ihnen in der zweiten Zeile mit, dass es das Unterverzeichnis BRIEFE ausgibt. Die Hinweise in den Zeilen 3 und 4 machen noch einmal darauf aufmerksam, dass es sich um ein Unterverzeichnis handelt. Auf diese Weise können Sie sich den Inhalt eines Unterverzeichnisses anschauen, ohne das aktuelle Verzeichnis zu wechseln. Aktuelles Verzeichnis wechseln

Eine andere Möglichkeit ist, das aktuelle Verzeichnis zu wechseln. Hierfür stellt Ihnen DOS den Befehl CHDIR (Change Directory) zur Verfügung, der durch CD abgekürzt werden kann. Um in das Verzeichnis BRIEFE zu wechseln, könnten Sie den Umweg über WORD gehen. Dazu müssten Sie folgendes eingeben: CD WORD Damit befänden Sie sich im Verzeichnis WORD. Nun wechseln Sie in das Verzeichnis BRIEFE: CD BRIEFE Nach der Eingabe des Befehls DIR ergäbe sich die gleiche Meldung wie bei dem letzten Versuch. Um in das nächsthöhere Verzeichnis zu wechseln, brauchen Sie nicht mehr dessen Namen eingeben, sondern einfach zwei Punkte: CD.. Nach zweimaliger Eingabe dieses Befehls befänden Sie sich wieder im Hauptverzeichnis. Anlegen von Unterverzeichnissen MKDIR

Für das Anlegen von Unterverzeichnissen gibt es den Befehl MKDIR (Make Directory), der durch MD abgekürzt werden kann. Um das Unterverzeichnis WORD anzulegen, müssten Sie folgenden Befehl eingeben: MD WORD Mit dem Befehl: CD WORD könnten Sie nun in das neue Verzeichnis wechseln. WORD soll über zwei Unterverzeichnisse verfügen. Diese lassen sich nun einfach durch die Eingaben MD TEXTE und MD BRIEFE anlegen. In die neu angelegten Unterverzeichnisse könnten Sie nun die entsprechenden Dateien kopieren. Unterverzeichnisse löschen

Bevor wir das üben, möchte ich Ihnen zeigen, wie Sie Unterverzeichnisse wieder löschen können. Hierfür stellt Ihnen DOS den Befehl RD (Remove Directory) zur Verfügung. Wollen Sie die Unterverzeichnisse BRIEFE und TEXTE wieder löschen, können Sie folgende Befehle eingeben: RD TEXTE und RD BRIEFE Diese Unterverzeichnisse sind nun gelöscht, und Sie haben nur noch das Verzeichnis WORD. Zwei Regeln sind beim Löschen von Unterverzeichnissen zu beachten: 1. Unterverzeichnisse können immer nur aus dem nächsthöheren Verzeichnis gelöscht werden, in unserem Fall dem Verzeichnis WORD. 2. Unterverzeichnisse, die gelöscht werden sollen, müssen leer sein, das heißt, in ihnen dürfen sich keine Dateien oder weiteren Unterverzeichnisse befinden.

8.2.3 Dateibefehle Kopieren von Dateien

Zum Kopieren von Dateien stellt DOS den internen Befehl COPY zur Verfügung. »Intern« heißt, dass dieser Befehl vom Kommandoprozessor interpretiert und ausgeführt wird, und dass es sich nicht um ein Dienstleistungsprogramm handelt. Mit diesem Befehl können Sie Dateien von einem Laufwerk zu einem anderen oder von einem Inhaltsverzeichnis in ein anderes kopieren. COPY-Befehl

Mit dem COPY-Befehl teilen Sie DOS mit: ● ● ●

von wo kopiert wird, was kopiert wird und wohin es kopiert werden soll.

Die Reihenfolge der Eingaben bei der Kopier-Anweisung lautet: COPY Pfad\Quell-Dateiname Pfad\Ziel-Verzeichnis wobei man unter »Pfad« immer die Angabe des Laufwerkkennbuchstabens und des Verzeichnisses versteht. Angenommen, Sie wollen die Datei BEISPIEL.TXT von Laufwerk A: nach Laufwerk B: kopieren, so lautet der Befehl: COPY A:\BEISPIEL.TXT B:\ Als erstes kommt also der COPY-Befehl. Danach müssen Sie die Leertaste drücken. Es folgt die Angabe des Pfades mit dem Kennbuchstaben des Quell-Laufwerks, dem Doppelpunkt und einem Backslash. Danach schreiben Sie den Namen der Datei. Als letztes kommt die Angabe des Ziel-Laufwerks, wobei alle Angaben durch ein Leerzeichen voneinander getrennt sein müssen. Der Befehl könnte wie folgt gelesen werden: Kopiere von Laufwerk A: die Datei BEISPIEL.TXT nach Laufwerk B:. Mehrere Dateien kopieren

In vielen Fällen wollen Sie aber nicht nur eine Datei, sondern mehrere kopieren. Es wäre nun sehr zeitaufwändig, wenn Sie für jede einzelne Datei den COPY-Befehl schreiben müssten. DOS erlaubt eine Vereinfachung. Platzhalter

Bei der Angabe von Dateinamen dürfen für bestimmte Zwecke einige Sonderzeichen verwendet werden. Das Fragezeichen (?) und der Stern (*) haben im DOS eine besondere Bedeutung. Sie werden als Wildcard, Joker oder Platzhalter bezeichnet. Wenn Sie diese Zeichen in einen Dateinamen einbauen, wird der Dateiname mehrdeutig. Damit ist gemeint, dass er mehr als eine Datei auf der Diskette kennzeichnen kann. DOS interpretiert folgende Zeichen als Platzhalter: ? steht für ein einzelnes beliebiges Zeichen in Dateinamen * steht für eine beliebige Anzahl von Zeichen Angenommen, Sie wollen alle Textdateien kopieren. Dann können Sie folgenden Befehl eingeben: COPY A:*.TXT B: DOS sucht nun alle Dateien mit der Erweiterung .TXT auf der Diskette im Laufwerk A: und kopiert sie nach B:. Mit folgendem Befehl werden alle Dateien von Laufwerk A: nach Laufwerk B: kopiert: COPY A:*.* B: Im Prinzip ist der COPY-Befehl recht einfach zu beherrschen. Sie müssen sich nur die richtige Reihenfolge der Angaben merken. Etwas schwieriger wird es, wenn Sie Pfadangaben machen müssen. Hierzu zeige ich Ihnen kurz ein Beispiel. Greifen wir noch einmal auf unser Festplattenverzeichnis mit mehreren Unterverzeichnissen zurück. Unsere Aufgabe ist es, zur Sicherung alle Text-Dateien aus dem Unterverzeichnis BRIEFE auf eine Diskette zu kopieren: COPY C:\WORD\BRIEFE\*.TXT A: Die Angabe des Quell-Laufwerks muss um die Pfadangabe erweitert werden, damit DOS die Textdateien auch wirklich findet. Mit dem folgenden Befehl können Sie von einer Diskette Textdateien in das Unterverzeichnis BRIEFE der Festplatte kopieren: COPY A:*.TXT C:\WORD\BRIEFE Dateien löschen

Wenn Sie längere Zeit mit einer Festplatte oder mit Disketten arbeiten, sammeln sich viele Dateien an, die Sie nicht mehr benötigen, und die nur Platz auf den Platten wegnehmen. Deswegen ist es häufig sinnvoll, eine Art Bestandsaufnahme zu machen, und zu kontrollieren, welche Dateien überflüssig sind und gelöscht werden können. DOS stellt Ihnen dazu den Befehl DELETE oder ERASE zur Verfügung. DELETE kann durch DEL abgekürzt werden. Hinter dem Kommando müssen Sie nur noch angeben, wo und was gelöscht werden soll. Von der Datei BEISPIEL.TXT haben Sie auf einer Diskette eine Sicherungsdatei, die Sie nicht mehr benötigen. Zum Löschen dieser Datei können Sie folgenden Befehl eingeben: DEL A:BEISPIEL.SIK Die Datei wird von der Diskette im Laufwerk A: gelöscht. Auch im DEL-Befehl können Sie Joker-Zeichen verwenden. Mit dem folgenden Kommando werden alle SIK-Dateien gelöscht: DEL A:*.SIK Auf Ihrer Festplatte im Verzeichnis BRIEFE sind sehr viele Sicherungsdateien, die Ihnen zuviel Platz wegnehmen. Zum Löschen dieser Dateien müssten Sie folgenden Befehl eingeben: DEL C:\WORD\BRIEFE\*.SIK Die Laufwerksangabe wurde durch die Pfadangabe erweitert, damit DOS die Dateien findet. Mit dem DEL-Befehl können Sie auch den Inhalt ganzer Verzeichnisse oder Disketten löschen: DEL A:*.* oder DEL C:\WORD\BRIEFE\*.* Dies ist allerdings ein Befehl, bei dem Sie sehr aufpassen müssen, denn es kann leicht passieren, dass man ihn aus Versehen eingibt, und Ihnen auf diese Weise Dateien ungewollt verloren gehen. Aus diesem Grund fordert DOS Sie auf, den Befehl zu bestätigen: Sind Sie sicher (J/N)? Erst wenn Sie [J] eingeben und durch [Return] bestätigen, wird der Befehl ausgeführt.

8.2.4 Die Benutzeroberfläche Windows 3.1 Was ist eine Benutzeroberfläche DOS-Prompt

Eine Benutzeroberfläche entspricht dem Bild auf dem Monitor, das sich Ihnen bietet, wenn Sie den Rechner gestartet und das Betriebssystem geladen haben. Beim DOS sieht diese Oberfläche sehr einfach aus: sie besteht aus einem fast leeren Bildschirm, auf dem Ihnen nur das Bereitschaftszeichen, der so genannte Prompt, signalisiert, dass DOS bereit ist, Ihre Befehle auszuführen. Sie haben bereits eine Reihe von DOS-Befehlen kennen gelernt. Sie sind teilweise recht abstrakt, und man benötigt einige Übung, bis man zügig und fehlerfrei DOS anwenden kann. Die Zahl der PC-Anwender wächst ständig und damit auch die Anzahl der Personen, denen das Prompt-Zeichen als Benutzeroberfläche nicht ausreicht. Daher wurde DOS bereits ab der Version 4 mit einer einfachen Oberfläche ausgestattet, die die Verwaltung von Dateien und Verzeichnissen sowie den Aufruf von Programmen erleichterte. Grafische Oberfläche - Maus

Im Palo Alto Research Center, dem Forschungslabor von Xerox, machte man sich schon Ende der siebziger Jahre Gedanken über eine völlig neue Art von Bedienerführung. Sie sollte grafisch orientiert sein, mit Maus zu bedienen sein und über bildliche Darstellung von Objekten verfügen. Die Firma Apple war der erste Anbieter, der diese Technologie einsetzte. Bis heute wurde dieses Konzept weiterentwickelt zu einer Palette leistungsfähiger Programme, die alle in der gleichen Art und Weise zu bedienen sind. Das geht so weit, dass ein Laie nach spätestens einer halben Stunde mit einem Programm arbeiten kann und dabei vergisst, dass er noch nie zuvor an einem Computer gesessen hat. Windows Microsoft Windows

Bereits seit Mitte der achtziger Jahre bietet auch Microsoft mit Windows eine grafische Benutzeroberfläche an, die ergänzend zum Betriebssystem DOS installiert werden kann. Der große Erfolg dieser Oberfläche trat aber erst mit der Version 3.0 bzw. 3.1 ein.

DOS wird benötigt

Für den Betrieb von Windows 3.1 muss zunächst DOS auf einem Rechner installiert werden. Windows 3.1 ist also eine Anwendung, die unter DOS läuft, die aber die meisten Schranken, die DOS setzt, fallen lässt. Speicherverwaltung

Wie Sie bereits wissen, kann DOS nur 640 Kbyte Speicher verwalten. Die meisten Rechner, die heutzutage angeboten werden, verfügen aber über mindestens 4 Mbyte Arbeitsspeicher. Mit Hilfe spezieller Verfahren (Nutzung von Expanded und Extended Memory) können auch DOS-Programme auf die Speichererweiterungen zugreifen. In Windows sind diese Verwaltungsmechanismen direkt integriert. Multitasking

Eine weitere Schranke von DOS, die Bearbeitung nur eines Programmes zu einem Zeitpunkt, wird ebenfalls durch Windows aufgehoben. So können mehrere Programme gleichzeitig bearbeitet werden, die in verschiedenen Fenstern dargestellt sind, zwischen denen Sie mit einem einfachen Tastendruck oder mit Hilfe der Maus umschalten können.

Bild 8.13: Windows 3.1 mit geöffneten Anwendungen (Eingabeaufforderung, Uhr etc.)

Die Vorteile bei der Arbeit und die Leichtigkeit in der Bedienung führten dazu, dass viele Computerfirmen Windows beim Verkauf ihrer Computer direkt mitlieferten und zu seinem riesigen Markterfolg beitrugen. Seit dem Herbst 1995 wurde allerdings die Kombination von DOS und Windows durch ein neues Betriebssystem ersetzt: Windows 95

8.3 Die Windows-Betriebssysteme In den vorhergehenden Abschnitten habe ich schon öfters von den Windows-Betriebssystemen gesprochen. Sechs verschiedene sind damit gemeint: Windows 95, Windows 98, Windows Me, Windows NT, Windows 2000 und Windows XP. Die Einführung von Windows 95 hat sicherlich für die meiste Aufmerksamkeit gesorgt: Dieses Betriebssystem beruht auf MS-DOS, ist auf 32 Bit erweitert und integriert eine neue grafische Oberfläche. Windows 98 und Windows Me (Millenium Edition) sind dagegen relativ unspektakuläre Nachfolger, jeweils mit einigen Verbesserungen. Demgegenüber ist Windows NT der Stammvater einer ganz anderen Betriebssystemlinie. Die erste Version von Windows NT (Version 3.1 analog zu Windows 3.1) repräsentierte ein gänzlich neu entwickeltes Betriebssystem, das mit allen Schwächen von MS-DOS aufräumen sollte. Aber erst die Version 4.0, die über die gleiche Oberfläche wie Windows 95 verfügt, verhalf dieser Betriebssystemlinie zum Durchbruch, in erster Linie in Unternehmen. Windows 2000 müsste eigentlich Windows NT 5.0 heißen, ist es doch eine Weiterentwicklung dieses Betriebssystems und nicht, wie sich vermuten ließe, ein Nachfolger von Windows 98. Genauso verhält es sich mit Windows XP, das ebenfalls auf der Technologie von Windows NT beruht und das mit einigen Weiterentwicklungen gegenüber Windows 2000 aufwartet, so dass es nach der alten Nomenklatur den Namen Windows NT 5.1 tragen könnte. Die auf Windows NT beruhenden Betriebssysteme waren aufgrund ihrer verbesserten Zuverlässigkeit und Sicherheit in erster Linie für Unternehmen gedacht. Die auf DOS basierenden Systeme orientierten sich dagegen etwas mehr an den Bedürfnissen der Heimanwender, insbesondere der Freunde von Computerspielen. Inzwischen bietet Microsoft ausreichende Programmierunterstützung, um auch für die ausgewachsenen Windows-Betriebssysteme alle Arten von Software anbieten zu können. Daher ist mit Windows XP der Zeitpunkt erreicht, wo Microsoft nur noch eine Betriebssystemtechnik für Anwender zu Hause und in Unternehmen anbieten möchte.

Bild 8.14: Die Oberfläche von Windows XP mit einigen Standardordnern und der Bedienungsleiste von MS-Office

Unterstützung der Prozessorarchitektur

Die INTEL-Prozessoren ab dem 80386 sind mit 32-Bit-Bussystemen ausgestattet. Das bedeutet, dass 32 Informationseinheiten gleichzeitig über die Verbindungskanäle des Rechners transportiert werden können. Diese Hardwarearchitektur wurde von DOS nicht unterstützt. Das heißt also, dass auf modernsten Rechnern eine veraltete Betriebssystemtechnologie eingesetzt wurde. 32-Bit-Architektur

Nach OS/2 ist Windows das nächste Betriebssystem, das die Fähigkeiten der modernen 32-Bit-Prozessoren voll ausnutzen kann. Dies hat Auswirkungen auf die Verwaltung des Arbeitsspeichers und auf die Leistungsfähigkeit von Programmen. Windows benötigt keine Umwege, um den gesamten im Rechner installierten Speicher zu verwalten (bis zu 4 Gbyte). Programme können effektiver und schneller auf den Speicher zugreifen. Aber auch die einzelnen Programmbefehle werden zum Teil deutlich schneller ausgeführt als unter einem 16-Bit-Betriebssystem wie DOS. Somit sind erhebliche Leistungssteigerungen der Programme allein durch die 32-Bit-Architektur möglich. Hinzu kommen weitere Merkmale, die erheblichen Einfluss auf die Leistungsfähigkeit von Betriebssystem und Anwendungsprogrammen haben wie das preemptive Multitasking und das Multithreading. Verwaltung des Plattenspeichers (Dateisysteme) Lange Dateinamen

Das »neue« von Windows 95 eingeführte Dateisystem ist gar nicht so neu, sondern noch immer das altgediente FAT bzw. FAT32. Allerdings wurde es um eine wichtige Eigenschaft erweitert: Es hebt endlich die Grenze von acht Zeichen für Dateinamen auf und erlaubt aussagefähige Dateinamen mit bis zu 255 Zeichen. Ein Dateiname wie »Dies ist ein Brief an Oma mit den besten Grüßen zu Weihnachten« stellt kein Problem mehr dar. Leerzeichen, mehrere Punkte, Groß- und Kleinschreibung etc. werden einwandfrei verarbeitet. Das Schöne daran ist, dass Sie Ihre Festplatten nicht speziell darauf vorbereiten müssen (z. B. neu formatieren), sondern direkt nach der Installation die neuen Möglichkeiten nutzen können.

Bild 8.15: Ein Inhaltsverzeichnis mit langen Dateinamen

NTFS

Windows XP verfügt neben FAT und FAT32 auch über das mit Windows NT eingeführte Dateisystem NTFS, das sich im Vergleich zu FAT auch für die Verwaltung besonders großer Dateien und Speichermedien eignet. Die wichtigsten Vorteile des New Technology File System (NTFS) sind: ● ●



Es unterstützt Dateinamen mit bis zu 255 Zeichen. Im Gegensatz zum FAT-Dateisystem, bei dem Dateien auf der Basis von teilweise sehr großen Clustern verwaltet und dadurch Speicherplatz unnötig verschwendet wird, benötigt NTFS auch bei sehr großen Plattenlaufwerken nur relativ kleine Cluster, die in der Regel nicht größer als 4 Kbyte sind. Es ermöglicht den Zugriffsschutz auf Dateiebene, d. h. Sie können einzelne Dateien, Verzeichnisse oder Laufwerke vor unberechtigtem Zugriff durch andere Anwender schützen.

Bild 8.16: Der Zugriff auf Dateien und Verzeichnisse kann für beliebige Benutzer deutlich eingeschränkt werden ... ●

NTFS unterstützt die Komprimierung von Dateien und Verzeichnissen. Sie brauchen keine Zusatzprogramme. Das Aktivieren einer Option genügt für die Komprimierung, die ohne Ihr Zutun im Hintergrund arbeitet.

Unterstützung der Hardware Plug&Play

Jeder, der schon mal ein wenig an seinem Computer herumgebastelt hat, kann ein Lied von den Schwierigkeiten singen, eine neue Erweiterungskarte einzubauen oder eine angeschlossene Hardwarekomponente zum Laufen zu bringen. Meist treten die Probleme nicht beim ersten Mal auf, eventuell wird es aber bei der zweiten, dritten oder vierten Erweiterungskarte ein bisschen eng; nicht nur mit dem Raum im Computergehäuse, sondern auch auf den internen Kommunikationswegen, über die sich die Hardwarekomponenten mit dem Prozessor auseinandersetzen. Da sind Einstellungen notwendig wie Interrupt, DMA, Ports usw. Dieses Ärgernis besteht nun schon fast so lange wie es Personal Computer gibt. Endlich haben sich mehrere namhafte Hersteller aus dem Hardware-, Prozessor- und Softwarelager zusammengerauft und einen gemeinsamen Standard geschaffen, der das Zusammenspiel von Computerkomponenten erleichtern soll: Plug&Play, auch kurz PnP genannt. Ziel dieses Standards ist, dass Sie eine neue Erweiterungskarte in Ihren Computer einbauen können, ohne sich um weitere Einstellungen kümmern zu müssen. Dazu identifiziert sich die Karte gegenüber dem Computer, und das Betriebssystem führt alle für den Betrieb der Karte notwendigen Einstellungen durch und lädt die notwendigen Treiber.

Bild 8.17: Anzeige der Hardware- Konfiguration unter Windows XP

Betriebsarten Multitasking

Multitasking kennt jeder Windows-Anwender von der täglichen Arbeit. Während im Vordergrund mit der Textverarbeitung gearbeitet wird, kann im Hintergrund beispielsweise ein Datenbank-Programm eine umfangreiche Anzahl von Werten sortieren. Multitasking bedeutet also, dass mehrere Programme gleichzeitig arbeiten können. Kooperatives Multitasking

Unter Windows 3.1 wird das Multitasking aber nicht vom Betriebssystem verwaltet. Daher war das alte Windows darauf angewiesen, dass sich die Programme an ganz bestimmte Konventionen halten. Dazu gehört, dass ein Anwendungsprogramm eine bestimmte Zeit lang den Prozessor nutzen kann, den Zugriff aber nach Ablauf dieser Zeit freiwillig wieder an andere Programme abtritt. Stürzt ein solches Programm aber ab, ist der Prozessor blockiert und Windows hat keine Möglichkeit, den Konflikt zu lösen. Ein Abbruch der gesamten Verarbeitung wird dadurch notwendig. Pech, wenn Sie mit der Textverarbeitung gerade einen Text eingegeben haben, der aufgrund des Systemabsturzes nicht gesichert werden konnte. Windows 3.1 war also darauf angewiesen, dass sich die Programme kooperativ verhalten, daher wurde die Mehrprogrammfähigkeit als kooperatives Multitasking bezeichnet; eine eher technische Bezeichnung ist non-preemptives Multitasking. Preemptives Multitasking

Einen erheblichen Fortschritt bedeutet das preemptive Multitasking, wie es inzwischen von fast allen modernen Betriebssystemen genutzt wird. Dabei wird das Multitasking vom Betriebssystem selbst verwaltet: Es stellt jedem Programm für eine bestimmte Zeit (wenige Millisekunden) Prozessorleistung zur Verfügung. Ist die Zeit abgelaufen, entzieht das Betriebssystem dem Programm den Zugriff auf den Prozessor und gibt ihn an das nächste Programm weiter. Das preemptive Multitasking verhindert, dass ein Programm selbstständig bestimmt, wann es die Kontrolle über den Prozessor abgibt oder eventuell über längere Zeit behält. Eine wichtige Konsequenz ist, dass der Absturz eines Programms keinen Einfluss auf andere Anwendungen hat, die Programme arbeiten deutlich sicherer und Sie sind vor unliebsamen Überraschungen geschützt.

Bild 8.18: Zwei Unterprogramme (Threads) wechseln sich im Zugriff auf den Prozessor ab.

Multiple Threads

Beim Multitasking arbeiten mehrere Programme gleichzeitig, indem sie sich die Prozessorzeit teilen. Unter Programmen verstehen wir hier beispielsweise eine Tabellenkalkulation, die gerade eine Tabelle berechnet, oder ein Textverarbeitungsprogramm, das gerade eine Silbentrennung durchführt. Das Multitasking kann aber auch dazu genutzt werden, dass innerhalb eines Programms einzelne Programmteile, also Unterprogramme oder so genannte »Threads«, ebenfalls quasi gleichzeitig ablaufen können. Bleiben wir zunächst bei der Textverarbeitung. Unter Windows 3.1 führte das Abspeichern eines Textes dazu, dass während des Speicherns die Eieruhr angezeigt wurde und keine andere Tätigkeit möglich war. Gerade bei längeren Texten, wie z. B. den einzelnen Kapiteln dieses Buches, die auch Grafiken enthalten, kann dieser Vorgang einige Zeit in Anspruch nehmen. Ein multithreading-fähiges Textprogramm könnte beispielsweise während des Speicherns oder Druckens die weitere Bearbeitung des Dokuments erlauben. Drei Welten unter einem Dach: 32-Bit-Programme

Ich erwähnte zu Beginn dieses Kapitels die Vorteile der Architektur der Windows-Betriebssysteme, die es Programmen ermöglicht, 32-Bit-Prozessoren besser zu nutzen. Die verbesserte Ausnutzung des Speichers, preemptives Multitasking und Multithreading können aber nur von Programmen genutzt werden, die speziell für die modernen 32-Bit-Windows-Betriebssysteme entwickelt wurden. Alte DOS- oder Windows-3.1-Programme können von diesen Möglichkeiten keinen bzw. nur einen geringeren Nutzen ziehen. DOS-Programme

Aber auch das gute alte DOS findet unter Windows weiterhin seinen Platz. Windows bietet Ihnen dazu die MS-DOS-Eingabeaufforderung, in der Sie alle bekannten DOS-Befehle nutzen sowie Stapeldateien und DOS-Programme ablaufen lassen können. Grafische Oberfläche Anwendungsorientierte Oberfläche

Im Vordergrund der grafischen Oberfläche von Windows 3.1 stand der Programm-Manager, der in erster Linie das Starten von Anwendungsprogrammen erleichterte. Insofern war Windows 3.1 eine anwendungsorientierte Oberfläche. Dokumentorientierte Oberfläche

Ein wesentliches Ziel bei der Entwicklung der modernen Windows-Oberfläche war, nicht mehr die Anwendung, sondern die Dokumente, also Texte, Tabellen oder Grafiken, in den Vordergrund zu stellen; die Anwendungen rücken dagegen mehr und mehr in den Hintergrund. Die neue Oberfläche orientiert sich nicht mehr am Werkzeugschrank, sondern eher an einem Schreibtisch, auf dem sich meist Ordner und Akten stapeln, die zu bearbeiten sind. Windows-Desktop

Die Oberfläche von Windows wird daher auch als Desktop bezeichnet, ein englischer Begriff, der sich u. a. mit Schreibtischoberfläche übersetzen lässt. Die wichtigsten Elemente der Oberfläche sind Ordner. In Ordnern auf dem Desktop werden normalerweise keine Programme abgelegt, sondern Akten bzw. Dokumente. Ein Doppelklick mit der Maus (zweimaliges rasch aufeinander folgendes Drücken der linken Maustaste) auf ein Dokument genügt, um es zur Bearbeitung zu öffnen; welches Programm dazu gestartet werden muss, brauchen Sie nicht zu wissen, denn Windows nimmt Ihnen den Programmaufruf ab. Dienstprogramme

Windows bietet Ihnen eine Vielzahl von Dienstprogrammen, die Ihnen die tägliche Arbeit mit dem Betriebssystem, den Anwendungsprogrammen und vor allem mit Ihren Dokumenten erleichtern. Und das Schöne daran ist, dass Sie für den Aufruf dieser Programme keine Befehle, wie z. B. unter DOS, auswendig lernen müssen. Alle Programme sind direkt in die Oberfläche integriert und können intuitiv bedient werden. Die wichtigsten Programme werden wir uns auf den nächsten Seiten noch etwas näher anschauen. Sicherheit

Die Sicherheit ist einer der wesentlichen Unterscheidungsmerkmale zwischen Windows Me und seinen Vorgängern gegenüber Windows XP. Windows 95/98/Me sind Betriebssysteme, die in erster Linie für den persönlichen Computer entwickelt wurden, d. h. dass sie keine Möglichkeiten bieten, Ihre Daten vor unberechtigtem Zugriff sicher zu schützen. Falls Sie zu Hause Ihren PC nicht alleine nutzen, sondern z. B. mit Familienangehörigen teilen, besteht lediglich die Möglichkeit, dass sich jeder Anwender seine eigene individuelle Oberfläche einrichtet. Hierzu ist beim Start des Betriebssystems eine Anmeldung mit Namen und Kennwort notwendig, nach der Windows mit der jeweiligen Oberfläche hochgefahren wird. Diese Möglichkeit bietet aber nur eine Erleichterung bei der Arbeit, so dass ein unerfahrener Anwender auch nur die Elemente auf dem Windows-Desktop wieder findet, die er unbedingt für seine Arbeit benötigt. Bei Windows XP können Sie dagegen Ihre Daten gezielt vor unberechtigtem Zugriff schützen. Jeder Benutzer desselben PCs kann sich nicht nur seine eigene Oberfläche einrichten, sondern seine Daten in Ordnern ablegen, auf die kein anderer Benutzer zugreifen kann. Sicherheitsstandard C2 Schutz vor unberechtigtem Zugriff

Bei einem PC unter DOS genügt in der Regel das Einschalten des Rechners, um anschließend alle Programme starten und Daten bearbeiten zu können. Für den heimischen PC reicht das in der Regel völlig aus. Für den Einsatz in Firmen, Banken oder Behörden ist eine Absicherung des PC vor unberechtigtem Zugriff aber unbedingt notwendig. Windows XP kann hierbei Abhilfe schaffen. Windows XP unterstützt den Sicherheitsstandard C2, der vom amerikanischen Verteidigungsministerium im so genannten Orange Book definiert ist. Nur Software, die diesem Sicherheitsstandard entspricht, darf in amerikanischen Bundesbehörden eingesetzt werden. Mit der Sicherheitsstufe C2 ermöglicht Windows XP einem bestimmten Benutzer (dem Systemverantwortlichen oder Administrator) zu entscheiden, wem er Zugriff auf das Computersystem gestattet und wenn, welche Programme er starten und welche Daten er bearbeiten darf. Während der Systemverantwortliche alle Programme und Daten bearbeiten kann, weist er z. B. Benutzer A eine Textverarbeitung und das Verzeichnis VA für seine Texte zu. Benutzer B darf ebenfalls mit

der Textverarbeitung arbeiten, kann seine Dateien aber nur in dem Verzeichnis VB ablegen. Das Betriebssystem stellt sicher, dass Benutzer A keine Möglichkeit hat, die Dateien von Benutzer B zu benutzen und umgekehrt. Damit das Betriebssystem weiß, welche Rechte der Benutzer hat, muss sich jeder Anwender mit einem Namen und einem Kennwort anmelden. Der Name wird vom Systemverantwortlichen vergeben, das Kennwort kann der Benutzer selber wählen, muss es aber streng geheim halten. Es dient dazu, dass sich kein anderer Anwender mit einem fremden Benutzernamen am Betriebssystem anmelden und auf fremde Daten zugreifen kann. Durch diesen Mechanismus soll der unberechtigte Zugriff auf Daten verhindert werden. Zur Überwachung verfügt das Betriebssystem über die Möglichkeit, alle Anmeldungen und Zugriffe auf Programme zu protokollieren. Der Systemverantwortliche kann sich nachträglich in einem Protokoll anschauen, wer wann welche Daten und Programme genutzt hat.

8.3.1 Die Windows-Oberfläche Wenn Sie Windows zum ersten Mal starten und sich die Oberfläche öffnet, wird es Sie wahrscheinlich wundern, wie leer diese ist. Sie sehen lediglich vereinzelte Symbole, die auf der Oberfläche verteilt sind.

Symbole Die Symbole auf der Windows-Oberfläche sind Stellvertreter für Ressourcen des Computers, also für Laufwerke, Verzeichnisse, Dateien, Programme wie auch für Drucker oder andere Einrichtungen Ihres Rechners. Diese Ressourcen werden häufig auch als Objekte bezeichnet.

Schauen wir uns zunächst die einzelnen Elemente kurz an:





Da ist zunächst am unteren Bildschirmrand eine graue Leiste, die Task-Leiste, mit einem Knopf am linken Ende, der mit Start betitelt ist. Über diesen Startknopf können Sie Ihre Programmgruppen öffnen und Programme starten, die Systemeinstellungen aufrufen oder aus dem Hilfesystem Informationen abrufen.

Oben links finden Sie ein Symbol, das einen Computer darstellt und mit Arbeitsplatz bezeichnet ist. Hinter diesem Symbol verbirgt sich ein Ordner, den Sie mit einem Doppelklick öffnen können. Der Ordner Arbeitsplatz ist ein Sammelplatz für alles, was irgendwie mit Ihrer Hardware zusammenhängt: So finden Sie Symbole für alle installierten Laufwerke, Disketten-, Festplatten- und evtl. auch CD-ROM-Laufwerke. Weitere Symbole stellen Ihren Drucker dar sowie die Systemsteuerung, über die Sie alle weiteren Komponenten Ihres Rechners anpassen können.

Bild 8.19: Der geöffnete Ordner Arbeitsplatz



Eines der wichtigsten Elemente, das Sie auf der Oberfläche erkennen können, wollen wir an dieser Stelle auch nicht übersehen: den Mauszeiger. Unter dem neuen Windows werden beide Maustasten gleichwertig eingesetzt; das war nicht immer so: unter Windows 3.1 wurde lediglich die linke Maustaste dazu benötigt, Funktionen auszulösen. Unter den modernen Windows-Betriebssystemen wird dagegen durch einen Tastendruck auf die rechte Maustaste ein so genanntes Kontextmenü geöffnet, dessen Inhalt sich abhängig vom aktuellen Kontext unterscheidet, also ob sich der Mauszeiger gerade auf der Windows-Oberfläche befindet oder im Arbeitsbereich eines Anwendungsprogramms.

Bild 8.20: Kontextmenü für die Windows-Oberfläche

Drag & Drop Mit Hilfe der Maus lässt sich eine der hilfreichsten Funktionen der Windows-Oberfläche nutzen, nämlich Drag & Drop . Zu deutsch lässt sich Drag & Drop in etwa als »Aufnehmen und Fallenlassen« übersetzen. Um ein Objekt wie z. B. eine Text- oder Programmdatei aufzunehmen, müssen Sie den Mauszeiger über das Symbol dieser Datei führen und die linke Maustaste drücken. Nun können Sie dieses Symbol an (fast) jede beliebige Stelle der Oberfläche ziehen. Sobald Sie die Maustaste loslassen, wird das Symbol an der aktuellen Position abgelegt. Führen Sie ein Symbol zu ganz bestimmten Objekten, werden entsprechende Aktionen ausgelöst: Ziehen Sie eine Textdatei über das Symbol eines Diskettenlaufwerks, wird die Datei auf die Diskette kopiert; ziehen Sie die Datei dagegen zum Drucker, wird sie gedruckt. Sie sehen, dass Sie durch einfachste Mausoperationen recht komplexe Aktionen ausführen können.



Als weiteres Symbol fällt sicher auch der Papierkorb auf. Dieses Objekt erleichtert das schnelle Löschen von Dateien: Ziehen Sie einfach die zu löschenden Dateien per Drag & Drop zum Papierkorb. Das Schöne am Papierkorb ist, dass Sie ihn wie sein Vorbild im Bedarfsfall noch einmal durchstöbern können. Das heißt, dass Dateien, die Sie in den Papierkorb werfen, noch nicht endgültig gelöscht sind. Benötigen Sie eine gelöschte Datei doch noch einmal, können Sie sie wieder hervorholen. Erst wenn Sie den Papierkorb leeren, werden die Dateien endgültig gelöscht.

Arbeiten wie am Schreibtisch

Die Leere der Windows-Oberfläche beim ersten Start muss aber nicht von langer Dauer sein. Die Ordnung, die Sie sich auf dem Desktop schaffen, können Sie gut mit der Ordnung auf Ihrem Schreibtisch vergleichen: Irgendwo haben Sie Schreibmittel herumliegen, evtl. einen Kalender und eine Uhr, die Sie an wichtige Termine erinnern, woanders Unterlagen, die zu bearbeiten sind, evtl. nach Themen in Ordnern oder Akten zusammengefasst. Ihre Windows-Oberfläche sollten Sie ebenfalls so einrichten, wie es Ihrem Geschmack und Ordnungssinn gefällt. Windows setzt Ihnen da kaum Grenzen. Nach diesem ersten Blick tasten wir uns an die einzelnen Elemente der Oberfläche näher heran. Hierbei werden uns die folgenden Punkte besonders beschäftigen: ● ● ●

Wie funktioniert der Startknopf? Wie lässt er sich einsetzen und anpassen? Wofür ist die Task-Leiste gut? Was verbirgt sich hinter den Symbolen? Was sind Ordner und wie lassen sie sich anpassen?

Beginn der Arbeit: Der Startknopf

Der Startknopf ist nicht umsonst so betitelt, denn hier können Sie fast alle Systemoperationen beginnen. Daher werfen wir zunächst einen Blick auf die Optionen, die Ihnen dieser Startknopf enthüllt. Damit erhalten Sie einen ersten praktischen Überblick über die Windows-Oberfläche.

Bild 8.21: Das Startmenü von Windows XP

Ein einfacher Klick auf den Startknopf öffnet ein Menüfenster mit zwei nebeneinander angeordneten Listen. Die linke Liste ist dynamisch und enthält alle Anwendungen, die Sie häufiger nutzen. Verwenden Sie eine der aufgeführten Anwendungen weniger, wird sie durch eine andere Anwendung, die Sie nun häufiger verwenden ersetzt. So bietet Ihnen diese Funktion des Startmenüs immer einen raschen Zugriff auf Ihre am häufigsten genutzten Programme. Über die rechte Liste erhalten Sie Zugriff auf weitere Funktionen:

Eigene Dateien: Mehrere untereinander liegende Menüeinträge bieten Ihnen den Zugriff auf Ihre eigenen Dateien, die Sie auch differenziert nach Bilder oder Musikdateien öffnen können. Ein Mausklick auf einen der Menüeinträge ermöglicht Ihnen den Zugriff auf den Standardordner, in dem die jeweiligen Dateien gespeichert werden. Ein einfacher Mausklick auf eine der Dateien genügt, um dieses mitsamt der zugehörigen Anwendung zu starten. Hier haben Sie ein schönes Beispiel dafür, was »dokumentenorientiert« bedeutet im Gegensatz zu »anwendungsorientiert«.

Bild 8.22: Die Menüeintrage bieten direkten Zugriff auf die jeweiligen Dokumenten-Ordner.

Systemsteuerung: Die Systemsteuerung ist die zentrale Instanz, über die Sie das Betriebssystem steuern und Ihren Bedürfnissen entsprechend anpassen können. Mögliche Einstellungen sind Farbe und Aussehen der Windows-Oberfläche, Bildschirmschoner, Datum und Uhrzeit usw. Auch für die Installation neuer Geräte und Drucker wird Ihnen hier Unterstützung angeboten.

Bild 8.23: Die Systemsteuerung bietet Ihnen Zugriff auf alle Einstellungen des Betriebssystems.

Suchen: Falls Sie einmal bestimmte Dateien suchen und Sie einfach nicht mehr wissen, wo Sie sie gespeichert haben, rufen Sie über diesen Menüpunkt die Suchfunktion auf. Hier können Sie verschiedenste Suchkriterien eingeben, um die Suche auf Ihrem Computer einzuschränken. Ist Ihr Rechner mit einem Netzwerk verbunden, können Sie die Suche auch auf andere Computer ausdehnen. Falls Ihnen diese Ausdehnung noch immer nicht ausreicht, lässt sich die Suche auch auf das Internet (vgl. Kapitel 14) ausdehnen.

Hilfe und Support: Wenn Sie diesen Menüeintrag anklicken, öffnen Sie die zentrale Hilfefunktion. Hier finden Sie eine Vielzahl von Hilfetexten nach Themen sortiert. Die Hilfefunktion ist sehr ausführlich und ersetzt die üblichen Handbücher. Falls Sie nach einem bestimmten Stichwort suchen, hilft Ihnen der Index weiter.

Ausführen: Über diesen Menüeintrag öffnen Sie ein kleines Dialogfenster, in das Sie den Namen eines Programms oder einer Datei eintragen können. Nach Bestätigung wird die entsprechende Anwendung geladen. In der Regel ist es aber einfacher, ein Programm über die bereits erwähnten Programmgruppen zu starten, die Sie ebenfalls über das Startmenü öffnen können.

Bild 8.24: Programme über die Befehlszeile aufrufen

Weitere Programme: Sobald Sie den Mauszeiger über diesen Menüeintrag führen, werden Sie hier Ihre Programmgruppen in einem Untermenü aufgelistet wieder finden. Bei einer Neu-Installation von Windows finden Sie zunächst nur die Programmgruppen Autostart, Verwaltung und Zubehör. Mit der Installation weiterer Programme, z. B. für die Textverarbeitung oder die Tabellenkalkulation, wird das Menü um die jeweiligen Programmgruppen erweitert, die Symbole für den Aufruf dieser Programme enthalten.

Bild 8.25: Programme über das Startmenü aufrufen

Hinter diesen Einträgen sehen Sie einen kleinen schwarzen Pfeil, der Sie darauf aufmerksam macht, dass zu jedem dieser Punkte noch ein Untermenü existiert. Allerdings ist die Gruppe Autostart zunächst leer; alle Programme, die Sie hier ablegen, werden beim Systemstart automatisch geladen. Zubehör

In der Gruppe Zubehör und den Untergruppen finden Sie eine ganze Reihe von Zusatzprogrammen, die für die notwendigsten Arbeiten eingesetzt werden können. Dazu gehören u. a.: ● ● ● ●

Editor: Ein einfaches Schreibprogramm. Paint: Ein recht gutes Mal- und Zeichenprogramm. Rechner: Ein Taschenrechner, der auch wissenschaftliche Funktionen beherrscht. WordPad: Ein kleines Textprogramm, mit dem Sie formatierte Texte erstellen können.

Weiterhin finden Sie in der Gruppe Zubehör einige Einträge, die wiederum mit einem schwarzen Pfeil auf weitere Untermenüs hinweisen. In diesen Untermenüs finden Sie Programme aus den Bereichen:



Multimedia: Dazu gehören Unterhaltungsprogramme wie Audio-Recorder, CD-Player, Lautstärkeregulierung und den Windows Media Player Spiele: Solitär, MineSweeper, Pinball und eine Reihe weiterer Spiele, die Sie im Internet spielen können



Systemprogramme: wie Backup, Defragmentierung, Datenträgerbereinigung und andere



Windows-Explorer

Neben den Programmgruppen finden Sie in diesem Untermenü aber auch Verweise auf zwei wichtige Programme. Zunächst wäre da der Windows-Explorer. Mit diesem Programm können Sie sich einen guten Überblick über alle Laufwerke, Verzeichnisse und Dateien verschaffen, die in Ihrem Rechner installiert sind. Wir werden uns dieses Programm noch ein wenig näher anschauen, da es für die tägliche Arbeit von besonderer Bedeutung ist. MS-DOS-Eingabeaufforderung

Weiterhin finden Sie hier die MS-DOS-Eingabeaufforderung, über die Sie DOS-Befehle und DOS-Programme ausführen können, genauso, als würden Sie nur mit MS-DOS arbeiten.

Beenden: Statt den PC einfach auszuschalten, sollten Sie diesen Menüpunkt unbedingt auswählen, wenn Sie die Arbeit mit Windows beenden möchten. Unter Windows XP haben Sie zunächst die Wahl zwischen Abmelden und Ausschalten. Dahinter verbergen sich folgende Funktionen: Abmelden oder Benutzerwechsel

Beim Abmelden werden eventuell noch laufende Programme beendet und Ihre Benutzerumgebung gespeichert. Das Betriebssystem wird nicht heruntergefahren und der PC nicht ausgeschaltet. Abmelden können Sie sich, wenn Sie den PC für längere Zeit nicht benötigen und er zwischendurch durch andere Personen weitergenutzt werden soll. Wählen Sie dagegen die Option Benutzer wechseln, bleiben alle Ihre Programme im Speicher erhalten. Ein anderer Benutzer kann nach seiner Abmeldung mit seiner eigenen Benutzerumgebung arbeiten, ohne dass Einstellungen Ihrer Benutzerumgebung verändert werden können. Bei einem erneuten Benutzerwechsel zurück zu Ihrer eigenen Benutzerumgebung finden Sie diese unverändert wieder vor.

Bild 8.26: Die Arbeit mit Windows beenden

Ausschalten oder Neustart

Die Optionen Ausschalten und Neu starten führen dazu, dass Windows alle noch offenen Programme schließt, die Auslagerungsdatei leert und Dateien auf die Festplatte sichert, die sich noch im Arbeitsspeicher befinden. Bei der Option Ausschalten übernimmt das Betriebssystem letztendlich auch diese Funktion, d. h. dass der Rechner seine Arbeit einstellt. Haben Sie dagegen Neustart gewählt, wird Ihr Rechner selbstständig wieder hochgefahren und Windows geladen. Standby und Ruhezustand

Standby versetzt den PC quasi in einen Tiefschlaf. Dabei werden alle PC-Komponenten ausgeschaltet, bis auf den Arbeitsspeicher, der weiterhin mit Strom versorgt wird. Nicht jeder PC unterstützt diese Funktion, für diese eignet sich dann der Ruhezustand, bei dem der Inhalt des Arbeitsspeichers auf die Festplatte gesichert wird. Nach dem Einschalten des Computers wird der Speicher wieder so hergestellt, wie Sie den PC verlassen haben. Haben Sie zuvor an einer Textdatei gearbeitet, können Sie nach dem erneuten Einschalten des PCs direkt mit dieser Arbeit fortfahren. Windows XP bietet Ihnen also an, Ihre typische Arbeitsumgebung mit allen aktiven Programmen beizubehalten, egal ob Sie den Rechner herunterfahren oder für einen anderen Benutzer den Platz räumen möchten. Sobald Sie sich wieder am System angemeldet haben, finden Sie Ihre Arbeitsoberfläche genau so vor, wie Sie sie verlassen haben. Dies kann die Arbeit mit dem PC zum Teil erheblich erleichtern und Zeit sparen. Fenster, Ordner und Dialoge: Objekte der Windows-Oberfläche

Der Name des Betriebssystems weist schon auf das wichtigste Objekt der Oberfläche von Windows hin: die Fenster. Im Prinzip spielt sich unter Windows alles in Fenstern ab: Anwendungen laufen in Fenstern, Objektsymbole werden in Ordner-Fenstern zusammengefasst, und Anfragen an den Anwender stellt das Betriebssystem in Dialogfenstern dar. Anwendungsfenster

Fensterarten: Alle Anwendungsprogramme, die Sie starten und mit denen Sie arbeiten möchten, werden jeweils in einem eigenen Anwendungsfenster geöffnet. Haben Sie mehrere Anwendungsprogramme gestartet, können Sie die Fenster dieser Programme beliebig auf der Windows-Oberfläche anordnen, nebeneinander oder übereinander, verkleinern oder vergrößern, je nachdem, wie wichtig die einzelnen Programme für Ihre aktuelle Arbeit sind. Um Ihnen die Orientierung zu erleichtern, werden die Namen der Programme jeweils in der Titelzeile ihres Anwendungsfensters angezeigt. Bei Programmen, die jeweils nur ein Dokument bearbeiten können, wie z. B. Paint oder WordPad, wird neben dem Namen des Programms auch der Name des gerade bearbeiteten Dokuments angezeigt. Dokumentenfenster

Einige Programme sind in der Lage, Ihnen die Arbeit an mehreren Dokumenten zu ermöglichen. Bei größeren Textverarbeitungsprogrammen wie z. B. Word, Ami Pro oder WordPerfect können Sie mehrere Dokumente in jeweils eigene Dokumentenfenster laden. Der Name des jeweiligen Dokuments wird wieder in der Titelzeile angezeigt. Ordner

Neben diesen Fenstern finden Sie unter Windows eine weitere Gruppe von Fenstern, die so genannten Ordner. Diese Fenster sind noch am ehesten mit den Programmgruppen aus dem alten Windows vergleichbar: In den Ordnern könnten Sie wie in den Programmgruppen mehrere Anwendungsprogramme gruppieren. Die Ordner gehen aber darüber hinaus: In ihnen lassen sich beliebige Objekte gruppieren. Ein Beispiel hierfür ist der Ordner Arbeitsplatz, der bei jedem Systemstart als Symbol angezeigt wird. In diesem Ordner finden Sie alle Laufwerke Ihres Rechners, Drucker und weitere Objekte als Symbole dargestellt. Eine andere Einsatzmöglichkeit ist das Zusammenfassen von allen Dokumenten, die für ein bestimmtes Projekt benötigt werden. Damit erfüllen die Ordner unter Windows die gleiche Aufgabe wie die Ordner an Ihrem Arbeitsplatz: Das Zusammenfassen von wichtigen Unterlagen, die für eine bestimmte Aufgabe benötigt werden. Wir werden uns diesem Thema noch eingehender widmen.

Bild 8.27: Windows-Oberfläche mit unterschiedlichen Fensterarten (Word mit mehreren Dokumentenfenstern, Anwendungsfenster von Paint sowie ein Ordner mit mehreren Symbolen)

Symbole: Windows bietet Ihnen die Möglichkeit, alle Anwendungen, Dokumente und alle weiteren Objekte auf der Oberfläche abzulegen. Fenster werden aber immer nur dann gebraucht, wenn eine Anwendung oder ein Dokument gerade geöffnet sind. Sind sie dagegen geschlossen, werden sie durch ein Symbol gekennzeichnet. Anwendungssymbole

Symbole für Anwendungsprogramme bestehen im Prinzip aus kleinen Sinnbildern, die auch als Icon bezeichnet werden und den Typ einer Anwendung möglichst prägnant darstellen sollen. So ist beispielsweise das Textprogramm WordPad durch einen Textblock mit Füllfederhalter gekennzeichnet und das Programm Paint durch einen Kasten mit Pinseln. Das Ziel dieser Symbole ist, dass das Sinnbild möglichst gut die dahinter liegende Anwendung beschreibt. Dokumentensymbole

Nicht nur Anwendungen werden durch Symbole dargestellt, sondern auch Dokumente. Dokumente wie Texte oder Grafiken werden aber mit einem bestimmten Programm erstellt. Daher erhalten sie immer das Symbol des Programms, mit dem sie erstellt wurden. Ordnersymbole

Damit Sie die vielen Symbole nicht einfach so auf der Oberfläche verstreuen müssen, können Sie die Symbole von Anwendungen und Dokumenten in Ordnern zusammenfassen. Diese Ordner werden entweder durch ein inhaltsspezifisches Symbol dargestellt, z. B. wie beim Ordner Arbeitsplatz, oder durch ein allgemeines Symbol, das einer Aktenmappe mit Register ähnlich sieht. Objektsymbol

Daneben finden Sie unter Windows noch eine Reihe weiterer Symbole, mit denen spezielle Objekte gekennzeichnet werden. Beispiele hierfür sind die Laufwerkssymbole aus dem Ordner Arbeitsplatz, die Druckersymbole oder der Papierkorb.

Elemente von Fenstern: Werfen wir nun einmal einen genaueren Blick auf die Fenster, am bestem am Beispiel der Ordnerfenster. ●

Öffnen Sie zur besseren Anschauung einfach den Ordner Arbeitsplatz, indem Sie das Symbol doppelt anklicken.

Abbildung 8.29 gibt Ihnen einen guten Überblick über alle Elemente dieses Fensters. Übrigens finden Sie diese Elemente in fast allen Fenstern wieder. Lediglich die zuvor schon aufgeführten Dokumentenfenster sind meist etwas spärlich ausgerüstet. Für ihre Gestaltung ist das jeweilige Anwendungsprogramm zuständig.

Bild 8.28: Die Elemente eines Fensters

Die Titelzeile: Die Titelzeile bildet quasi den Kopf eines jeden Fensters. Sie enthält den Namen eines Programms, Ordners oder sonstigen Objekts, gegebenenfalls auch den Namen eines zu bearbeitenden Dokuments. Wichtig ist auch die farbliche Gestaltung der Titelzeile. Ein aktives Fenster, also das, mit dem Sie gerade arbeiten, wird standardmäßig mit einer blauen Titelzeile gekennzeichnet. Haben Sie dagegen zu einem anderen Fenster geschaltet, wird das inaktive Fenster durch eine graue Titelzeile markiert. Die genannten Farben sind Standardeinstellungen; falls Sie Ihnen nicht gefallen, können Sie sie ohne weiteres ändern. Die Titelleiste ermöglicht aber auch die einfache Ausführung von zwei Funktionen:

Führen Sie den Mauszeiger in die Titelzeile und drücken Sie die linke Maustaste. Solange Sie die Maustaste gedrückt halten, können Sie das Fenster beliebig über den Bildschirm schieben. Sobald Sie die Maustaste lösen, wird das Fenster an der aktuellen Position abgelegt. Doppelklicken Sie nun mit der linken Maustaste in die Titelzeile. Das Fenster wird daraufhin auf Maximalgröße vergrößert. Durch einen erneuten Doppelklick können Sie diese Änderung wieder rückgängig machen.

Die Titelzeile enthält noch vier wichtige Schaltflächen, die ich Ihnen nun vorstellen möchte. Fenster schließen

Fenstermenüfeld: Das Fenstermenüfeld bietet Ihnen mehrere Möglichkeiten an, das Anwendungsfenster zu verändern; Sie finden es am linken Ende der Titelzeile und es ist zumeist durch ein kleines Symbol gekennzeichnet. Dieses Feld bietet die Möglichkeit, ein Fenster zu schließen. Dazu genügt ein Doppelklick mit der Maus auf dieses Feld. Klicken Sie es dagegen nur einmal an, öffnet sich das Fenstermenü. Es bietet Ihnen einige Optionen, mit denen Sie die Größe ändern, minimieren, maximieren oder das Fenster schließen können. Alle diese Funktionen lassen sich mit Hilfe der Maus aber einfacher auslösen. Haben Sie dagegen keine Maus zur Verfügung, hilft Ihnen dieses Menü weiter.

Bild 8.29: Anwendungsfenster mit geöffnetem Fenstermenü

Statt der Menüs aus dem Fenstermenüfeld können Sie auch die im folgenden beschriebenen Schaltflächen nutzen.

Schaltfläche Symboldarstellung: Ein einfacher Mausklick auf diese Schaltfläche genügt, um ein Fenster auf Symbolgröße zu verkleinern. Der Inhalt des Fensters bleibt davon unberührt. Sobald Sie den Knopf dieses Fensters in der TaskLeiste drücken, wird das Fenster an der letzten Position mit dem aktuellen Inhalt wieder geöffnet.

Schaltfläche Normal-/Vollbild: Wenn Sie diese Schaltfläche mit der Maus anklicken, wird das Fenster auf die gesamte Bildschirmgröße ausgedehnt; es überdeckt dabei alle anderen auf dem Bildschirm dargestellten Fenster. Durch erneutes Drücken dieses Knopfes wird das Fenster wieder auf seine ursprüngliche Größe hin verkleinert. Wählen Sie den Vollbild-Knopf in einem Dokumentenfenster, wird das Fenster auf die Größe des Anwendungsfensters ausgedehnt.

Schaltfläche Schließen: Diese Schaltfläche ist unter Windows 95 neu. Sie ermöglicht es Ihnen, ein Fenster durch einen einzigen Mausklick zu schließen. Die Menüzeile: Unter Windows verfügt jedes Fenster über eine Menüzeile. Bei Fenstern, die als Ordner dienen, enthält dieses Menü die Einträge Datei, Bearbeiten, Ansicht, Favoriten, Extras und zum Aufruf der Hilfefunktion ein Fragezeichen (?). Wenn Sie einen dieser Menüpunkte mit der Maus anklicken, öffnet sich jeweils ein so genanntes Pull-down-Menü mit weiteren Auswahleinträgen. Wir werden uns die einzelnen Menüpunkte im nächsten Abschnitt noch genauer anschauen. Die Symbolleiste: Die Symbolleiste wird nicht standardmäßig angezeigt, Sie müssen in der Regel zunächst über das Menü Ansicht den entsprechenden Eintrag in dem Pull-Down-Menü anklicken. Die einzelnen Knöpfe der Symbolleiste gestatten Ihnen ein einfaches Umschalten zwischen verschiedenen Optionen, sich die Inhalte eines Fensters anzeigen zu lassen. Die Statuszeile: Auch die Statuszeile müssen Sie zunächst über den entsprechenden Eintrag im Menü Ansicht aktivieren. Die Statuszeile ist eine sehr hilfreiche Einrichtung. Sie versorgt Sie mit zusätzlichen Informationen über einzelne Bestandteile des Fensters. Wählen Sie beispielsweise einen Menüpunkt aus, gibt Ihnen die Statuszeile weitere Hinweise auf die Funktion dieses Menüpunkts. Bei einem Ordnerfenster finden Sie hier weiterhin eine Angabe über die Anzahl der Objekte, die sich in dem Fenster befinden, und wie viel Speicherplatz diese Objekte verbrauchen. Fensterrahmen: Alle Fenster verfügen über einen Rahmen, der die äußeren Grenzen des Fensters kennzeichnet. Sobald Sie den Mauszeiger über diesen Fensterrahmen bewegen, wird aus dem Zeiger ein Doppelpfeil. Wenn Sie nun die linke Maustaste drücken, können Sie den Fensterrahmen hin- und herschieben und damit die Größe des Fensters verändern. Lassen Sie die Maustaste los, bleibt das Fenster in der gewählten Größe erhalten und wird auch bei einem erneuten Öffnen wieder mit dieser Größe auf dem Bildschirm erscheinen. Arbeitsbereich: Der Arbeitsbereich des Fensters hebt sich deutlich durch seine Farbe von den anderen Elementen ab, in der Regel ist er weiß. Hier im Arbeitsbereich werden bei einem Ordner alle enthaltenen Objekte dargestellt. Diese Objekte können Sie innerhalb des Arbeitsbereiches beliebig verschieben. Bei einem Anwendungsfenster dient der Arbeitsbereich zur Erstellung und Gestaltung eines Dokuments, also z. B. einer Grafik oder eines Textes. Proportionale Bildlaufmarken

Bildlaufleisten: Wird ein größerer Arbeitsbereich benötigt, als bei der aktuellen Größe des Fensters gerade geboten werden kann, erscheinen ggf. am rechten und am linken Bildschirmrand Bildlaufleisten. Die Bildlaufleisten ermöglichen es Ihnen, den Arbeitsbereich nach rechts und nach unten zu verschieben. Die Position der Bildlaufmarke gibt Ihnen einen Anhaltspunkt für Ihre momentane Position innerhalb des Fensters, wobei die Größe der Bildlaufmarke kenntlich macht, welcher Anteil des Fensters gerade angezeigt wird.

Der Größenversteller: Die Bildlaufleisten sind ja gut und schön, aber auch nicht so ganz das Wahre. Besser ist es schon, wenn das Fenster den gesamten Arbeitsbereich darstellen kann. Der Größenversteller bietet Ihnen eine weitere Möglichkeit, die Fenstergröße entsprechend anzupassen. Sobald Sie den Mauszeiger über den Größenversteller führen, ändert sich der Mauszeiger wieder zu einem Doppelpfeil. Drücken Sie dann die linke Maustaste, und Sie können den Fensterrahmen nach Belieben verändern. Zwischen Fenstern wechseln: Wenn Sie mit mehreren Fenstern arbeiten, benötigen Sie natürlich auch einen einfachen Weg, zwischen Fenstern zu wechseln. Task-Leiste

Eine Möglichkeit müsste Ihnen jetzt schon bekannt sein: der Wechsel über die Task-Leiste. Sie erinnern sich, dass für jedes geöffnete Fenster auf der Task-Leiste eine Schaltfläche angelegt wird. Ein einfacher Klick auf diese Schaltfläche mit der Maus genügt, um das jeweilige Fenster zu aktivieren und in den Vordergrund zu stellen. [Alt]+[Tab]

Darüber hinaus bietet Ihnen Windows aber auch eine zusätzliche Möglichkeit, mit Hilfe der Tastatur zwischen Anwendungen umzuschalten: Drücken Sie dazu die Tasten [Alt] und [Tab]. Dadurch erscheint ein kleines Fenster in der Bildschirmmitte, in dem die Symbole aller offenen Fenster aufgeführt sind. Das Fenster bleibt solange geöffnet, wie Sie die Taste [Alt] gedrückt halten. Eines der aufgeführten Symbole ist durch einen blauen Rahmen gekennzeichnet. Durch wiederholtes Drücken der Taste [Tab] springt der Rahmen von Symbol zu Symbol. Sobald Sie die Taste [Alt] loslassen, öffnet Windows die Anwendung, die zuletzt gekennzeichnet war.

Mit Menüs arbeiten: Fast alle Fenster unter Windows verfügen über Menüs: Zum einen das bereits erwähnte Eingabemenü, das immer die gleichen Optionen anbietet; zum anderen besitzen viele Fenster eine Menüleiste. Die Befehle, die Sie über diese Menüs auslösen können, sind von Anwendungsprogramm zu Anwendungsprogramm unterschiedlich. Die Bedienung der Menüs ist jedoch bei allen Windows-Programmen gleich. Menüarten: Windows ermöglicht Ihnen, an vielerlei Stellen Einfluss auf die Arbeit zu nehmen. Die Fenstermenüs, mit denen Sie das Verhalten von Fenstern steuern können, haben Sie bereits kennengelernt. Auch die Menüzeile, die Bestandteil der meisten Fenster ist, kennen Sie bereits. Daneben bietet Ihnen Windows aber noch zwei zusätzliche Varianten, die Objekt- und die Kontextmenüs.

Bild 8.30: Objektmenü eines Druckers

Objektmenüs

Objektmenüs können Sie nur dann aufrufen, wenn Objekte wie Ordner, Anwendungen oder Drucker und Laufwerke als Symbol dargestellt werden. Um das Objektmenü eines Objekts aufzurufen, müssen Sie nur das Symbol mit der rechten Maustaste anklicken. Die Inhalte dieses Menüs unterscheiden sich aber von Objekt zu Objekt. Nur vereinzelte Menüeinträge wie Verknüpfung erstellen oder Eigenschaften werden Ihnen bei allen Objekten zur Auswahl angeboten. Kontextmenüs

Auch die nächste Menüart, die Kontextmenüs, werden mit der rechten Maustaste aufgerufen. Der Inhalt dieser Menüs ist, wie es der Name schon andeutet, vom Kontext, also vom aktuellen Umfeld, abhängig. ● ●

Öffnen Sie als Beispiel das Kontextmenü der Windows-Oberfläche. Führen Sie dazu den Mauszeiger über eine leere Stelle des Desktops und klicken Sie mit der rechten Maustaste. Um einen Vergleich zu haben, öffnen Sie mit einem Doppelklick den Ordner Arbeitsplatz, und rufen Sie auch hier auf die beschriebene Weise das Kontextmenü auf.

Die beiden Kontextmenüs unterscheiden sich nicht wesentlich. Anders sieht es aus, wenn Sie ein Kontextmenü innerhalb einer Anwendung aufrufen. Öffnen Sie als Beispiel die Anwendung WordPad. Sobald das Programm geladen ist, führen Sie den Mauszeiger in den Arbeitsbereich und rufen Sie das Kontextmenü auf.

Bild 8.31: Verschiedene Kontextmenüs im Vergleich

Während bei den ersten beiden Beispielen die Menüeinträge der Gestaltung der Oberfläche dienten, ermöglicht Ihnen das Kontextmenü innerhalb von WordPad die Formatierung von eingegebenen Texten. In anderen Anwendungen kann der Inhalt des Menüs wieder anders aussehen und Ihnen die Arbeit mit der jeweiligen Anwendung erleichtern.

Menüs bedienen: Um einen Menüpunkt auszuwählen, müssen Sie mit der Maus zunächst einen Eintrag aus der Menüleiste anklicken. Daraufhin öffnet sich ein Pull-Down-Menü, das Ihnen weitere Auswahlmöglichkeiten anbietet. Wenn Sie den Mauszeiger über das aufgeklappte Menü führen, wird jeder einzelne Menüpunkt, der gerade berührt wird, durch einen blauen Balken markiert. Dieser Balken folgt dem Mauszeiger nach oben wie auch nach unten. Führen Sie den Menüzeiger wieder zurück zur Menüleiste und hier zu einem anderen Eintrag, folgt das Pull-Down-Menü, d. h. das zugehörige Pull-Down-Menü wird automatisch für den neuen Eintrag aufgeklappt. Erst wenn Sie einen Eintrag aus einem Pull-Down-Menü anklicken, wird der Menübefehl ausgeführt.

Bild 8.32: Menüs in Paint

Nicht alle Einträge eines Menüs lösen direkt einen Befehl aus oder stehen zur Auswahl bereit. Es wird Ihnen wahrscheinlich häufiger passieren, dass Sie ein Menü öffnen, in dem vereinzelte Einträge nicht in schwarzer, sondern in grauer Schrift dargestellt sind. Diese Menüpunkte sind zurzeit nicht aktiv. Sie können darauf beliebig klicken, ohne dass etwas passiert. Eine andere Reihe von Menüeinträgen löst keine Befehle aus, sondern dient zum Ein- bzw. Ausschalten von Optionen. Diese Menüeinträge werden bei Aktivierung durch ein vorangestelltes Häkchen gekennzeichnet.

Obwohl Windows für die Arbeit mit der Maus wie geschaffen ist, gibt es doch häufiger Situationen, in denen es einfacher wäre, Menübefehle über die Tastatur auszuführen. Wenn Sie beispielsweise mit einer Textverarbeitung arbeiten, liegen die Hände ohnehin auf der Tastatur. Die Bedienung des Programms über die Tastatur würde keinen Bruch darstellen, für die Bedienung mit der Maus müsste diese erst ergriffen und positioniert werden. Normalerweise beinhalten alle Einträge einer Menüleiste einen unterstrichenen Buchstaben, ebenso verhält es sich mit allen Einträgen der zugehörigen Pull-Down-Menüs. Um einen Menübefehl auszulösen, müssen Sie zunächst die Taste [Alt] drücken und geben dann den Kennbuchstaben des Menüeintrags ein. Sie können nun die [Alt]-Taste lösen und müssen einfach nur den Kennbuchstaben des Menübefehls eingeben, den Sie ausführen möchten. Tastenkombinationen

Einige Befehle, die relativ häufig gebraucht werden, können Sie auch durch Eingabe einer Tastenkombination aufrufen. Um das Menü brauchen Sie sich dann nicht mehr zu kümmern. Allerdings sind die Tastenkombinationen wieder von Programm zu Programm unterschiedlich, so dass es meist schon einiger Erfahrung bedarf, bis man ein oder mehrere Programme direkt, d. h. ohne Menüleiste, bedienen kann.

8.3.2 Das Arbeiten mit Windows Im entsprechenden Abschnitt zum Thema MS-DOS haben Sie erfahren, wie eine Festplatte partitioniert und formatiert wird und Sie anschließend Verzeichnisse erstellen sowie Dateien kopieren und löschen können. Während Sie unter DOS zum Aufruf dieser Funktionen Befehle und passende Parameter eingeben müssen, gestattet Ihnen Windows den Aufruf über ein paar Mausklicks. Eine Ausnahme stellt lediglich die Partitionierung der Festplatte dar, die genauso wie unter DOS mit dem Hilfsprogramm FDISK durchgeführt werden muss. Für alle anderen Funktionen steht Ihnen dagegen der Explorer zur Verfügung. Dieses Programm, das die Nachfolge des Datei-Managers von Windows 3.1 angetreten hat, ermöglicht es Ihnen, Ihre Datenträger zu verwalten. Der Explorer erleichtert das Kopieren, Verschieben und Löschen von Dateien sowie das Organisieren Ihrer Verzeichnisse. Daher lassen Sie uns zunächst einen Blick auf dieses Programm werfen, bevor wir uns dem Formatieren, dem Anlegen von Verzeichnissen sowie dem Kopieren und Löschen von Dateien widmen.

Ordner und Verzeichnisse In den vorangegangenen beiden Kapiteln haben Sie bereits den Begriff Ordner kennen gelernt, nicht nur als Aktenordner, sondern auch als Fenster auf der Oberfläche. Während man unter DOS im Zusammenhang mit der Dateistruktur bisher immer von Verzeichnissen sprach, wurde mit Windows 95 der Begriff Ordner als Synonym für Verzeichnisse eingeführt. Sie werden diesen Begriff beispielsweise auch im Explorer wieder finden.

Der Explorer

Den Windows-Explorer können Sie über das Startmenü aufrufen. Im Untermenü Programme finden Sie als einen der letzten Einträge den Aufruf des Explorers. Das Anwendungsfenster besteht im Wesentlichen aus der Anzeige der Ordnerhierarchie und des Inhalts der aktuellen Ordner.

Bild 8.33: Der Windows-Explorer

Die Elemente des Explorers

Das Anwendungsfenster des Explorers verfügt über alle für Windows-Fenster typischen Elemente: ● ●



Die Titelzeile gibt nicht nur den Namen des Explorer wieder, sondern auch die Bezeichnung des aktuell geöffneten Laufwerks oder Ordners, dessen Inhalt gerade angezeigt wird. Die Menüleiste wird Ihnen wahrscheinlich auch gleich wieder bekannt vorkommen. Über das Menü Ansicht können Sie entscheiden, ob innerhalb des Anwendungsfensters auch eine Symbolleiste und eine Statuszeile angezeigt werden sollen; beides erleichtert die Arbeit mit dem Explorer wesentlich. Die Symbolleiste enthält ein einzeiliges Listenfeld, in dem immer das aktuelle Laufwerk angezeigt wird. Neben dem Listenfeld sind mehrere Schaltknöpfe, über die Sie die Anzeige der Dateiliste steuern können.

Statuszeile



Am unteren Rand des Explorers sehen Sie die Statuszeile, die Informationen über das aktuelle Laufwerk und den Ordner enthält. Die Art der Informationen ist aber davon abhängig, ob sich die Markierung im Verzeichnisbaum oder im Dateibereich befindet. Steht die Markierung im Verzeichnisbaum, werden in der Statuszeile zuerst die Anzahl der Objekte, sprich Dateien, die sich in dem jeweiligen Ordner oder Laufwerk befinden, angezeigt. Danach finden Sie eine Angabe, wie viel Speicherplatz die in der Dateiliste aufgeführten Dateien verbrauchen. Befindet sich dagegen die Markierung im Dateibereich, erhalten Sie Informationen über die Anzahl und die Gesamtgröße der im Dateibereich markierten Dateieinträge.

Das Ordnerfenster und die Dateiliste: Der Arbeitsbereich des Explorers besteht aus zwei Teilen, dem Ordnerfenster und der Dateiliste. Ordnerfenster

Im Ordnerbereich werden alle Laufwerke und Ordner in Form eines Baums dargestellt. Die Wurzel des Baums stellt das Symbol Desktop dar. Als nächstes folgen in der Hierarchie das Symbol Arbeitsplatz sowie alle weiteren Ordner, die Sie auf dem Desktop, also der Windows-Oberfläche, angelegt haben. Der Ordner Arbeitsplatz ist weiterhin gegliedert in Symbole für alle in Ihrem Rechner installierten Laufwerke, für die wiederum die zugehörigen Ordner aufgeführt werden. Alle Einträge innerhalb des Explorers werden durch ein vorangestelltes Symbol gekennzeichnet. So finden Sie unterhalb von Arbeitsplatz, das durch einen kleinen Computer dargestellt ist, zunächst die Symbole für die Laufwerke. Bereits an diesen Symbolen können Sie leicht erkennen, um welche Art von Laufwerk es sich handelt. Aktueller Ordner

Ordner werden jeweils durch eine Aktenmappe dargestellt. Um sich den Inhalt eines Ordners anzuschauen, genügt ein einfacher Mausklick auf das entsprechende Ordnersymbol. Die aufgeklappte Aktenmappe kennzeichnet dann diesen Ordner als den aktuellen Ordner. Befindet sich innerhalb der Hierarchie ein Symbol, z. B. für ein Laufwerk, das in mehrere Ordner untergliedert ist, so steht vor diesem Symbol ein Pluszeichen. Ein Mausklick auf das Pluszeichen genügt, um die Ordnerhierarchie zu öffnen; gleichzeitig wird aus dem Plus- ein Minuszeichen. Durch einen Mausklick auf das Minuszeichen wird die geöffnete Hierarchie wieder geschlossen. Dateiliste Dateisymbole

Die Dateiliste gibt den Inhalt des aktuellen Ordners wieder. Jeder Eintrag wird durch ein Symbol gekennzeichnet, welches bereits einen Rückschluss auf den Dateityp ermöglicht. Programmdateien tragen meist ein eigenes, vom Hersteller kreiertes Symbol; Dokumentendateien, die mit diesen Anwendungen erstellt wurden, tragen normalerweise das gleiche Symbol. Das Symbol einfacher Textdateien ähnelt dagegen einem Schreibblock. Dateien, die mit keiner Anwendung verknüpft sind, werden nur durch ein leeres Blatt mit Eselsohr dargestellt. Ansichtsoptionen

Die Darstellung innerhalb des Dateibereichs können Sie ebenso wie in Ordnern auf dem Desktop über das Menü Ansicht ändern.



Miniaturansicht: Für jede Datei wird ein für ihre Typ spezielles Symbol angezeigt. Handelt es sich um Grafikdateien, können auch die Grafiken verkleinert dargestellt werden.



Kacheln:

Hierbei wird der Dateityp durch ein kleines Symbol dargestellt, der Dateiname steht neben dem Symbol. Darüber hinaus werden unter dem Dateinamen weitere Angaben zur Datei angezeigt wie z. B. die Größe der Datei. ●

Symbole: Wie der Name schon sagt, werden auch bei dieser Darstellungsweise die Dateien symbolisiert dargestellt, mit den Namen unterhalb des Symbols.



Liste: Die gleiche Darstellung wie bei Symbole, allerdings werden die Einträge in Spalten aufgelistet.



Details: Die meisten Informationen bietet Ihnen diese Ansichtsoption. Hierbei werden alle Dateien wie zuvor aufgelistet, zusätzlich werden aber Angaben wie die Größe der Datei, der Dateityp sowie das Datum und die Uhrzeit der letzten Änderung aufgeführt.

Bild 8.34: Anzeige der Dateien in einem Ordner als Miniaturansicht oder als Kacheln.

Disketten formatieren mit Hilfe des Explorers

Zwischen dem Formatieren von Festplatten und Disketten gibt es eigentlich keinen großen Unterschied, außer dass bei der Arbeit mit Disketten nicht ganz so viel kaputt gehen kann wie bei Festplattenlaufwerken. Lassen Sie uns daher die Formatierung unter Windows am Beispiel von Disketten genauer anschauen. Gerade für das Formatieren von Disketten bietet der DOS-Befehl FORMAT eine ganze Reihe von Parametern. Dagegen ist das Formatieren einer Diskette mit dem Explorer deutlich einfacher. ● ●

Wenn Sie den Explorer öffnen, werden Ihnen zunächst alle Laufwerke angezeigt; klicken Sie mit der rechten Maustaste auf das Symbol von Laufwerk A:. Wählen Sie aus dem Kontextmenü den Eintrag Formatieren aus.

Der Explorer bietet Ihnen zu dem ausgewählten Laufwerk ein Dialogfenster mit einigen Optionen an: Speicherkapazität

Unter Speicherkapazität wird Ihnen die Größe des aktuellen Plattenlaufwerks angezeigt. Handelt es sich bei dem Laufwerk um eine Festplatte, können Sie den angegebenen Wert nicht verändern, obwohl die Angabe in einem Listenfeld steht. Lediglich beim Formatieren von Disketten haben Sie hier eine Einflussmöglichkeit. Kann das ausgewählte Laufwerk Disketten im 3½--Zoll-Format lesen und beschreiben, werden Ihnen auch nur die für dieses Format möglichen Speicherkapazitäten aufgelistet; entsprechend verändern sich die Angaben, wenn Sie ein 5¼--Zoll-Laufwerk verwenden.

Bild 8.35: Das Formatieren eines Datenträgers im Explorer aufrufen

Windows erkennt selbstständig, um welches Format es sich bei einer eingelegten Diskette handelt, ob also 3½-Zoll- oder 5¼-Zoll-Format, und bietet Ihnen die dafür möglichen Kapazitäten zur Auswahl an. Art der Formatierung

Anschließend bietet Ihnen das Dialogfenster mehrere Arten der Formatierung an: Vollformatierung



Beginnen wir mit der Vollformatierung. Diese Option müssen Sie immer dann auswählen, wenn Sie eine neue Diskette, die bisher noch nicht formatiert wurde, bearbeiten wollen. Dabei wird die Diskette auf Fehler überprüft und mit Spuren und Sektoren beschrieben. Zu guter Letzt wird das Inhaltsverzeichnis eingerichtet. Wenden Sie die Vollformatierung bei einer bereits formatierten Diskette an, werden alle Daten, die auf der Diskette gespeichert sind, vollständig gelöscht.

Quickformat



Die erste Option, Quickformat, können Sie nur bei Disketten verwenden, die bereits in der Vergangenheit formatiert wurden. Beim Quickformat werden die Spuren und Sektoren nicht erneut auf die Diskette geschrieben, sondern lediglich die Systembereiche, die die Informationen zum Verwalten der Diskette durch Windows enthalten, neu erstellt, im Prinzip entspricht dies dem normalen Löschen aller Dateien. Dieser Vorgang ist natürlich deutlich schneller als die Vollformatierung. Allerdings ist dabei folgendes zu bedenken: Da auf die Diskette ein neues Inhaltsverzeichnis geschrieben wird, ruft die Anzeige des Dateiverzeichnisses im Explorer oder mit dem DIR-Befehl den Eindruck hervor, die Diskette wäre leer. Tatsächlich können Sie die Diskette auch wieder mit der Speicherkapazität entsprechend vieler Daten beschreiben. Da die Datenbereiche beim Formatieren nicht überschrieben werden, sind die alten Daten noch immer auf der Diskette gespeichert. Mit normalen Mitteln sind die Daten nicht einsehbar, aber mit speziellen Hilfsprogrammen sind alle Daten wiederherstellbar. Beim Verwenden dieser Disketten zu Hause stellt das kein Problem dar. Geben Sie mit Quickformat bearbeitete Disketten aber weiter, müssen Sie damit rechnen, dass jemand anders die alten Daten wieder

einsehen kann. Nur Systemdateien kopieren



Bei der letzten Option dieses Abschnitts, Nur Systemdateien kopieren, wird die Diskette eigentlich gar nicht formatiert. Diese Option setzt sogar voraus, dass Sie eine formatierte Diskette einlegen, die ca. 350 Kbyte freien Speicherplatz bieten kann. Auf diese Diskette werden dann alle für einen Systemstart notwendigen Dateien geschrieben. Allerdings steht Ihnen mit dieser Systemdiskette natürlich nicht Windows, sondern zunächst nur MS-DOS als Betriebssystem zur Verfügung.

Bild 8.36: Die Optionen für das Formatieren von Datenträgern

Bezeichnung

Als weiteres wird Ihnen die Möglichkeit gegeben, die Diskette zu bezeichnen. Bei der Arbeit mit Disketten ist es generell empfehlenswert, auf den Disketten einen Aufkleber anzubringen, der Sie über den Inhalt der Diskette informiert. Die Datenträgerbezeichnung erfüllt einen ähnlichen Zweck, sie wird im Inhaltsverzeichnis der Diskette gespeichert und immer dann angezeigt, wenn Sie sich den Inhalt einer Diskette anzeigen lassen, z. B. im Explorer. Wenn Sie diese Möglichkeit nutzen wollen, tragen Sie einfach in das Feld Bezeichnung einen Namen ein; Ihnen stehen maximal 11 Zeichen zur Verfügung. Möchten Sie dagegen keinen Namen auf der Diskette speichern, klicken Sie statt dessen das entsprechende Kontrollkästchen an. Formatierungsergebnis anzeigen

Damit Ihre Geduld beim Formatieren nicht zu sehr strapaziert wird, können Sie sich den Fortschritt durch einen Balken am unteren Bildschirmrand anzeigen lassen. Dadurch wird das Formatieren zwar nicht schneller, aber es gibt Ihnen einen Hinweis, wie lange Sie noch warten müssen. Arbeiten mit Ordnern und Dateien

Nachdem die Diskette formatiert ist, können Sie auf ihr Ordner anlegen und Dateien kopieren. Ordner erstellen: Ordner erleichtern den Überblick über eine größere Anzahl von Dateien. Besonders dann, wenn Sie mehrere Dokumente für einen bestimmten Zweck erstellt haben, sollten Sie diese Dateien in einem gemeinsamen Ordner ablegen. Folgende Schritte sind dazu notwendig: Neuen Ordner anlegen





● ●

Zunächst müssen Sie sich überlegen, auf welchem Laufwerk Sie einen neuen Ordner erstellen wollen. Klicken Sie das Laufwerk im Ordnerfenster des Explorers an, um es zu markieren.

Wählen Sie nun aus dem Menü Datei den Eintrag Neu und aus dem dazugehörenden Untermenü den Punkt Ordner. Windows legt nun einen neuen Ordner an. Innerhalb der Dateiliste finden Sie den neuen Eintrag Neuer Ordner; der Titel wird noch markiert dargestellt, so dass Sie ihn direkt überschreiben können. Geben Sie also nun einen neuen Namen für den Ordner ein, z. B. »Jahresberichte 2001«. Falls Ihnen im Rahmen Ihrer Arbeit ein einfacher Ordner nicht ausreicht, können Sie beliebig viele Unterordner einrichten. Dazu müssen Sie zunächst den neuen Ordner markieren und dann über das Datei-Menü des Explorers die Unterordner erstellen und benennen, z. B. in »Texte« und in »Grafiken«.

Ordner umbenennen

Falls Sie zu einem späteren Zeitpunkt mit der Benennung eines der neuen Ordner unzufrieden sind, stellt das kein großes Problem dar: ● ●

Markieren Sie zunächst den Ordner, dessen Namen Sie ändern wollen. Nun klicken Sie noch einmal auf den Ordnernamen. Der Name wird daraufhin von einem schwarzen Rahmen umgeben, und hinter dem letzten Buchstaben blinkt die Schreibmarke. Sie können nun den Namen ganz überschreiben. Möchten Sie dagegen nur einzelne Zeichen löschen oder einfügen, müssen Sie die Schreibmarke an die entsprechende Position führen, entweder mit der Maus oder mit den Pfeiltasten.

Dateien markieren: Möchten Sie eine oder mehrere Dateien bzw. Ordner mit Hilfe des Explorers kopieren, verschieben, löschen etc., müssen Sie sie zunächst markieren. Allerdings gibt es verschiedene Möglichkeiten, Dateien zu markieren, je nachdem, ob es sich um eine einzelne Datei, eine zusammenhängende oder eine auseinander liegende Gruppe von Dateien bzw. Ordnern handelt. Die folgenden Operationen können Sie auf Ordner wie auch auf Dateien gleichermaßen anwenden. Wie Sie eine einzelne Datei oder einen Ordner markieren können, haben Sie schon erfahren. Ein Mausklick auf das Symbol oder den Namen der Datei bzw. des Ordners genügt. Wie sieht es aber nun mit mehreren Dateien bzw. Ordnern aus? Aufeinander folgende Dateien/Ordner markieren

Um mehrere in einer Liste aufeinander folgende Dateien oder Ordner zu markieren, müssen Sie eine Kombination aus Tastatur und Maus verwenden: ● ●

Klicken Sie zunächst die erste der zu markierenden Dateien an. Drücken Sie nun die Umschalttaste und klicken Sie mit der Maus auf die letzte der zu markierenden Dateien.

Die beiden angeklickten Dateien wie auch alle dazwischen liegenden werden nun markiert dargestellt. Stellen Sie nun fest, dass Sie entweder zu viele oder zu wenige Dateien markiert haben, können Sie ohne weiteres Korrekturen vornehmen. Um die Liste zu verkleinern oder zu vergrößern, brauchen Sie nur erneut die Umschalttaste zu drücken und die Datei mit der Maus anklicken, die das neue Ende der Liste darstellen soll. Dies kann sowohl eine bereits markierte als auch eine nicht markierte Datei sein. Nicht aufeinander folgende Dateien markieren

Ähnlich einfach ist das Markieren mehrerer nicht direkt aufeinander folgender Dateien. ● ● ●

Drücken Sie die Taste [Strg] und halten Sie sie gedrückt. Klicken Sie nacheinander die Namen der Ordner und Dateien an, die Sie markieren möchten. Lösen Sie die Taste [Strg] erst, wenn Sie mit dem Markieren fertig sind.

Falls Sie versehentlich eine Datei zuviel markiert haben, können Sie die Markierung wieder aufheben. Drücken Sie dazu erneut die Taste [Strg] und klicken Sie die bereits markierte Datei noch einmal an.

Bild 8.37: Markierte Dateien und Ordner im Explorer

Sie können beide Markierungstechniken auch beliebig miteinander kombinieren. So können Sie z. B. erst eine Liste aufeinander folgender Dateien markieren, um anschließend noch weitere Dateien hinzuzufügen, die nicht direkt auf die Liste hin folgen. Markieren von Ordner

Das Markieren von Ordnern funktioniert nur innerhalb der Dateiliste. Innerhalb des Ordnerbereichs können Sie immer nur ein Ordner anklicken, welcher dann als der aktuelle Ordner gilt, dessen Inhalt in der Dateiliste angezeigt wird. Wollen Sie also mehrere Ordner gleichzeitig bearbeiten, müssen diese Verzeichnisse ein gemeinsames Oberverzeichnis haben, das gerade geöffnet ist. Wenn Sie Ordner markiert haben, gilt diese Markierung auch für die in diesem Ordner enthaltenen Dateien, d. h. alle weiteren Operationen werden auf die Ordner mitsamt ihrer kompletten Inhalte (Unterordner und Dateien) angewendet. Ordner und Dateien kopieren

Wenn Sie eine Datei kopieren, wird ein Duplikat des Originals auf dem Ziellaufwerk oder im Zielordner erstellt. Wenn Sie einen Ordner kopieren, wird am Ziel ein neuer Ordner mit dem gleichen Namen erstellt, und anschließend werden alle Dateien des Quellordners in den neuen Ordner kopiert. Allerdings sollten Sie das Kopieren von Dateien mit Vorsicht angehen, damit Sie Ihre Plattenlaufwerke nicht unnötig mit gleichen Dateien füllen. Dagegen ist das Kopieren ein Standardvorgang, wenn Sie Dateien auf einen anderen Datenträger übertragen wollen, wie z. B. auf eine Diskette oder ein Netzwerklaufwerk. Windows bietet Ihnen mehrere Wege an, Dateien und Ordner zu kopieren. Die einfachste Technik beruht auf Drag & Drop, bei der die Dateien einfach mit Hilfe der Maus im Quellordner aufgenommen und über dem Zielordner abgelegt werden. Drag & Drop Kopieren via Drag & Drop

● ● ● ●

Führen Sie im Dateibereich den Mauszeiger über die markierten Dateien und Verzeichnisse und drücken Sie die linke Maustaste. Halten Sie die Taste gedrückt und führen Sie nun den Mauszeiger in das Ordnerfenster und über das Laufwerk oder den Ordner, in den Sie die Dateien verschieben möchten. Befindet sich der Zielordner auf dem gleichen Laufwerk wie der Quellordner, müssen Sie nun die Taste [Strg] drücken. Dadurch erscheint wieder das Pluszeichen, an dem Sie erkennen können, dass Windows zum Kopieren der Daten bereit ist. Ziehen Sie den Mauszeiger dagegen über ein anderes Laufwerk, erscheint das Pluszeichen automatisch. Sie brauchen dann nur noch die linke Maustaste lösen, um den Kopiervorgang zu starten.

Bild 8.38: Kopieren einer Datei via Drag & Drop

Der Kopiervorgang: Der Kopiervorgang wird übrigens durch ein hübsches Dialogfenster mit Fortschrittsanzeige begleitet. Beim Kopieren großer Dateien zeigt Windows auch eine Abschätzung an, wie lange das Kopieren der Dateien dauern könnte.

Bild 8.39: Animation beim Kopieren von Dateien

Überschreiben von Dateien

Ein weiteres Dialogfenster erscheint, wenn sich auf dem Ziellaufwerk bereits eine gleichnamige Datei befindet. Windows zeigt Ihnen den Namen der Datei und fragt Sie, ob die alte Version (mit Angabe von Größe und Änderungsdatum) im Ziellaufwerk mit der neuen Version (wieder mit Angabe von Größe und Änderungsdatum) aus dem Quelllaufwerk tatsächlich überschrieben werden soll. Erst wenn Sie diese Anfrage bestätigen, wird der Kopiervorgang fortgesetzt. Wollen Sie mehrere Dateien mit neuen Versionen überschreiben, können Sie das Überschreiben entweder getrennt für jede einzelne oder für alle Dateien gemeinsam bestätigen.

Bild 8.40: Das Überschreiben von Dateien muss bestätigt werden.

Ganze Disketten kopieren: Der Explorer bietet Ihnen auch die Möglichkeit, nicht nur Dateien von oder auf eine Diskette zu kopieren, sondern eine vollständige Kopie einer Diskette anzufertigen. Unter DOS steht hierfür der Befehl Diskcopy zur Verfügung, Sie werden aber sicherlich schon ahnen, dass das Kopieren von Disketten mit dem Explorer deutlich angenehmer funktioniert. ●

Klicken Sie zunächst im Verzeichnisfenster das Symbol des Diskettenlaufwerks mit der rechten Maustaste an, das Sie für den Kopiervorgang nutzen möchten. Wählen Sie aus dem Kontextmenü den Befehl Datenträger kopieren aus.

Nur gleicher Datenträgertyp

Durch diesen Befehl öffnet sich ein Dialogfenster, in dem Sie den Quell- und den Zieldatenträger auswählen können. Wie beim Diskcopy-Befehl unter MS-DOS müssen beide Datenträger vom gleichen Typ sein (in der Regel gibt es ja nur 1,44 Mbyte-Diskettenlaufwerke).

Bild 8.41: Disketten mit dem Explorer kopieren ● ●

Drücken Sie auf den Knopf Start. Sie werden nun aufgefordert, die Quelldiskette in das Laufwerk einzulegen. Bestätigen Sie mit Ok, wenn die Diskette bereit ist.

Der Inhalt der Diskette wird nun in den Speicher kopiert; anschließend werden Sie aufgefordert, die Zieldiskette einzulegen. Der Explorer schreibt nun den Inhalt der Quelldiskette aus dem Speicher auf die Zieldiskette und erstellt so ein genaues Abbild des Quelldatenträgers. Anzeige aktualisieren: Manchmal kann es vorkommen, dass die Anzeige im Explorer nach dem Kopieren, oder wenn Sie eine neue Diskette eingelegt haben, nicht sofort aktualisiert wird. In einem solchen Fall können Sie die Aktualisierung der Anzeige durch einen Druck auf die Funktionstaste [F5] provozieren. Ordner und Dateien löschen

Es wird für Sie wahrscheinlich keine Überraschung sein, wenn ich Ihnen sage, dass es wieder mehrere Wege gibt, unter Windows Dateien und Ordner zu löschen. Zu nennende Möglichkeiten sind die Befehle Löschen aus dem Menü des Explorers bzw. aus dem Kontextmenü, oder die Tastatur. Im Prinzip gibt es keine Unterschiede, ob Sie eine Datei, mehrere markierte Dateien oder Ordner löschen wollen. Bei den Ordnern ist nur zu beachten, dass auch ihr gesamter Inhalt nebst Unterordnern und Dateien gelöscht wird. Bestätigungsabfrage

Um ein versehentliches Löschen zu vermeiden, öffnet Windows vor jedem Löschen ein Dialogfeld, in dem Sie aufgefordert werden, den Löschvorgang zu bestätigen. Klicken Sie auf die Schaltfläche Nein, wird der Löschvorgang abgebrochen.

Bild 8.42: Bestätigungsabfrage vor dem Löchen von Dateien

Schauen wir uns nun die einzelnen Schritte zum Löschen von Dateien an: ● ●

Markieren Sie zunächst die Dateien und/oder Ordner, die Sie löschen möchten. Wählen Sie anschließend aus dem Menü Datei des Explorers den Befehl Löschen.

oder ●

Führen Sie den Mauszeiger über die markierten Dateien und klicken Sie die rechte Maustaste. Wählen Sie nun aus dem Kontextmenü den Befehl Löschen.

oder ●

Drücken Sie einfach auf die Taste [Entf].

oder ●

Positionieren Sie den Explorer so auf dem Desktop, dass der Papierkorb frei liegt. Führen Sie nun den Mauszeiger über die markierten Dateien, klicken Sie die linke Maustaste und ziehen Sie die Dateien über den Papierkorb. Sobald Sie die Maustaste lösen, werden die Dateien gelöscht.

Egal für welche Vorgehensweise Sie sich entscheiden, Windows verlangt auf jeden Fall eine Bestätigung des Löschvorgangs. Löschen rückgängig machen

Haben Sie sich trotz aller Vorsichtsmaßnahmen geirrt und die falschen Dateien gelöscht, brauchen Sie nicht zu verzweifeln. Alle Anwendungen auf dem Windows-Desktop bieten Ihnen die Möglichkeit, den letzten Arbeitsschritt rückgängig zu machen. Für den Explorer heißt das: ●

Wählen Sie einfach aus dem Menü Bearbeiten den ersten Menüpunkt Rückgängig... Hinter Rückgängig ist die letzte Aktion aufgeführt, hier sollte also Löschen stehen.

Haben Sie in der Zwischenzeit eine andere Aktion durchgeführt, hilft Ihnen diese Möglichkeit aber auch nicht mehr weiter. Doch das ist immer noch kein Grund zum Verzweifeln.

Alle Dateien, die Sie auf dem Desktop löschen, werden zunächst nur in den Papierkorb geworfen. Erst wenn der Papierkorb zu voll wird oder Sie ihn ausleeren, werden die Dateien endgültig gelöscht. Benötigen Sie also eine gelöschte Datei wieder, brauchen Sie sie nur aus dem Papierkorb herauszusuchen.

Bild 8.43: Vor dem Leeren kann der Inhalt des Papierkorbs nach einmal überprüft werden

Dateien direkt löschen

Obwohl Windows Dateien standardmäßig immer zunächst nur in den Papierkorb löscht, gibt es eine Möglichkeit, Dateien direkt zu löschen. Diese Dateien sind allerdings weder mit den Mitteln von Windows wiederherstellbar noch lässt sich dieser Löschvorgang rückgängig machen. Das direkte Löschen funktioniert nur über die Tastatur, und zwar über den Tastaturbefehl [Umsch]+[Entf]. Windows verlangt auch hier eine Bestätigung, bevor die Dateien auf Nimmerwiedersehen von Ihrer Festplatte gelöscht werden.

Bild 8.44: Bestätigungsabfrage beim direkten Löschen

8.3.3 Aufrufen von Programmen Programme starten

Unter Windows ist die Task-Leiste mit dem Startmenü die Schaltzentrale der Windows-Oberfläche. Von dort können Sie alle Ihre Programme aufrufen und den Ablauf steuern. Windows bietet Ihnen mehrere Möglichkeiten an, wie Sie Ihre Programme starten können; die Einfachsten davon sind: ● ● ●

Aufruf über das Startmenü Starten von Anwendungen mit Autostart Starten aus der MS-DOS-Eingabeaufforderung

Über das Startmenü

Allein das Startmenü bietet Ihnen bereits mehrere Alternativen zum Aufruf von Anwendungen an. Programme starten



Da wäre zunächst die unter Windows XP neue Programmliste, die in der linken Spalte des Startmenüs angezeigt wird. Hier finden Sie die von Ihnen am häufigsten aufgerufenen Programme wieder, die sich von hier aus direkt aufrufen lassen.

Bild 8.45: Ausführen von Programmen über das Startmenü ●

Die nächste Möglichkeit führt Sie über den Startknopf zum Menüeintrag Programme. Sobald sich der Mauszeiger über diesem Menüpunkt befindet, wird ein Untermenü geöffnet, das alle Programmgruppen beinhaltet. Innerhalb einer Programmgruppe brauchen Sie nur noch den Mauszeiger über das zu startende Programm führen und die linke Maustaste einmal zu klicken.







Unter Windows lassen sich aber nicht nur einfach Programme starten, sondern auch die mit einem Programm zu bearbeitenden Dokumente. Diese Startvariante erleichtert bereits das Startmenü mit dem Menüpunkt Eigene Dateien. Diese Funktion öffnet den Ordner mit Ihren Dokumenten.. Durch Auswahl einer Datei wird automatisch die zugehörige Anwendung mitsamt dem Dokument geladen.

Falls weder Ihr Programm noch die zu bearbeitende Datei unter Programme oder Eigene Dateien definiert sind, bietet Ihnen das Startmenü noch die Möglichkeit, über den Menüeintrag Ausführen den Namen des Programms oder der zu bearbeitenden Datei einzutragen. Wissen Sie den genauen Namen und die Pfadangaben des Programms nicht mehr, drücken Sie doch einfach den Knopf Durchsuchen. Mit dieser Schaltfläche wird ein Dialogfeld aufgerufen, das Sie bereits von verschiedenen Methoden zum Anlegen eines Programmsymbols her kennen. Es erleichtert Ihnen die Suche nach Dateien mit bestimmten Dateiendungen, die Sie vorgeben können, ebenso wie Laufwerk und das zu durchsuchende Verzeichnis. Haben Sie das Programm gefunden, genügt ein Doppelklick auf den Dateinamen, um das Programm in die Befehlszeile zu übernehmen. Sobald Sie den Ok-Knopf drücken, wird das Programm aufgerufen.

Bild 8.46: Ausführen von Programmen

Über Autostart Programme automatisch starten

Eine weitere Möglichkeit, Anwendungen zu starten, bietet die Programmgruppe Autostart. Alle Programme, die durch ihr Symbol in dieser Gruppe des Startmenüs vertreten sind, werden nach dem Hochfahren des Betriebssystems automatisch geladen. Über MS-DOS-Eingabeaufforderung

Manch einer, der bereits seit vielen Jahren mit DOS oder einem anderen kommandoorientierten Betriebssystem gearbeitet hat, möchte auch unter Windows auf diese Eingabeform nicht verzichten. Für diese Zwecke steht die MS-DOSEingabeaufforderung zur Verfügung, die Sie über das Startmenü innerhalb des Untermenüs Programme finden können. Innerhalb dieses DOS-Fensters müssen Sie den Namen des zu startenden Programms eingeben. Befindet sich das Programm nicht in dem aktuellen Verzeichnis, müssen Sie eventuell den vollständigen Pfadnamen des Programms eingeben, also inklusive Angabe des Laufwerks und des Verzeichnisses, in dem sich das Programm befindet. Innerhalb der DOS-Eingabeaufforderung können Sie aber nicht nur DOS-Programme starten, sondern auch Windows-Anwendungen. Windows erkennt genau, unter welcher Umgebung das aufgerufene Programm arbeiten muss, und stellt diese zur Verfügung.

Bild 8.47: Aufruf eines Dokuments über die MS-DOS-Eingabeaufforderung

START-Befehl

Bei den bisher aufgeführten Möglichkeiten konnten Sie auch Dokumente starten. Dies ist im DOS-Fenster auch möglich, jedoch reicht es nicht, einfach den Namen des Dokuments einzugeben. Statt dessen müssen Sie den Start-Befehl verwenden. Hierfür ist folgende Syntax notwendig: START Dokument.TXT Wichtig ist es, dass Sie auch die Dateierweiterung des Dokuments eingeben, damit Windows erkennt, welche Anwendung für die Bearbeitung dieser Datei geöffnet werden muss. Wir werden uns mit diesem Befehl später noch intensiver beschäftigen. Beenden von Programmen

Fast alle Programme bieten einen Standardweg, die Anwendung zu beenden; meist handelt es sich dabei um einen gleichnamigen Eintrag unter dem Menü Datei. Kritischer wird es erst, wenn ein Programm aufgrund eines Fehlers seine Arbeit einstellt. Dann ist auch meist der übliche Vorgang des Beendens nicht mehr möglich. Abgestürzte Programme

Einer der ganz großen Nachteile von Windows 3.1 ist, dass abgestürzte Programme eventuell das gesamte System zum Stillstand bringen. Diese Gefahr ist unter Windows 95/98/Me geringer geworden. Durch das preemptive Multitasking sind diese Windows-Betriebssysteme häufig in der Lage, auf Benutzereingaben zu reagieren. Auch dann, wenn eine Anwendung nicht mehr auf Benutzereingaben oder Aktionen mit der Maus reagiert, können Sie über die Task-Leiste zu einem anderen Programm wechseln. (Da diese Betriebssysteme aber immer noch auf DOS beruhen, klappt dies nicht immer. Erst die auf NT basierenden Windows-Betriebssysteme bieten hier größtmögliche Zuverlässigkeit).

Bild 8.48: Beenden eines Programms über die Task-Leiste

Anwendungsfenster schließen

Möchten Sie das Anwendungsfenster schließen, bietet Ihnen Windows mehrere Wege an: ●



Klicken Sie mit der rechten Maustaste innerhalb der Task-Leiste auf den Knopf der Anwendung. Normalerweise wird damit ein Menü angezeigt, das auch die Option Schliessen beinhaltet. Sobald Sie auf diesen Menüpunkt klicken, wird das Anwendungsfenster geschlossen. Ein weiterer Weg nutzt das Fenstermenü der Anwendung, das Sie über das Anwendungssymbol in der linken Ecke der Titelleiste finden können. Wenn Sie dieses Symbol anklicken, wird das Fenstermenü geöffnet, das ebenfalls den Eintrag Schliessen anbietet.



Falls Ihnen diese beiden Wege zu umständlich sind, genügt es auch, das Anwendungsfenster durch einen Mausklick zu aktivieren, damit es im Vordergrund steht. Geben Sie dann die Tastenkombination [Alt]+[F4] ein, um das Fenster zu schließen. Das gleiche Ergebnis erzielen Sie durch einen Mausklick auf die Schaltfläche Schliessen in der rechen Ecke der Titelleiste.

(Strg)+(Alt)+(Entf)



In Extremfällen kann es vorkommen, dass keine der zuvor genannten Möglichkeiten zum Erfolg führt. In einem solchen Fall können Sie die Tastenkombination [Strg]+[Alt]+[Entf] eingeben. Hierdurch öffnet sich ein Dialogfenster, das eine Liste aller aktiven Programme beinhaltet. Klicken Sie das abgestürzte Programm an, meist befindet sich hinter dem Namen dieses Programms noch ein Hinweis, dass das Programm nicht mehr auf Systemanfragen reagiert. Wählen Sie dann den Schaltknopf Task beenden. Bei einigen Programmen erfolgt nach dem Drücken dieses Knopfes eine Sicherheitsabfrage, nach deren Bestätigung die Anwendung beendet und aus dem Speicher entfernt wird.

Bild 8.49: Beenden einer Anwendung über [Strg]+[Alt]+ [Entf]

So viel als allgemeine Bemerkungen zum Arbeiten mit Programmen; in den folgenden Kapiteln werden Sie noch einige Anwendungsprogramme kennen lernen, die Windows als Zubehör enthält.

8.3.4 Einige Zubehörprogramme

Windows beinhaltet eine Vielzahl von Zubehörprogrammen, mit denen Sie bereits eine ganze Reihe Ihrer täglichen Arbeiten am PC erledigen können, ohne auf größere Programmpakete zurückgreifen zu müssen. Die Zubehörprogramme können Sie über das Startmenü und dem Unterpunkt Programme - Zubehör aufrufen. In diesem Menü finden Sie nicht nur die wichtigsten Zubehörprogramme, sondern auch weitere Programmgruppen, in denen weitere Programme nach Themen sortiert sind. Eine kleine Auswahl dieser Programme möchte ich Ihnen kurz vorstellen. WordPad: Eines der leistungsfähigsten Zubehörprogramme aus dem Lieferumfang von Windows ist das Textverarbeitungsprogramm WordPad. Dieses Programm ermöglicht nicht nur das einfache Schreiben von Texten, sondern bietet Ihnen auch schon zahlreiche Formatierungsmöglichkeiten. Die Bedienung ist dem bekannten Word von Microsoft sehr ähnlich. Texte, die unter dem einen Programm erstellt wurden, können mit wenigen Nacharbeiten in das andere Programm übernommen werden

Bild 8.50: WordPad

Paint: Ein Zeichenprogramm zur Erstellung einfacher grafischer Arbeiten. Hier arbeiten Sie mit Bleistift und Pinsel, Radiergummi und Sprühdose. Zeichnungen und Ausschnitte können in andere Programme übertragen werden (zum Beispiel in WordPad).

Bild 8.51: Paint

Rechner: Dieses Programm zeigt einen Taschenrechner, der die Grundrechenarten, die Konstantenrechnung sowie Wurzelziehen beherrscht und über einen einfachen Speicher verfügt. Darüber hinaus lässt sich der Rechner über den Menüpunkt Anzeige umwandeln in einen technisch-wissenschaftlichen Rechner mit den entsprechenden Funktionen.

Bild 8.52: MS-Windows-Rechner

Editor: Hierbei handelt es sich um ein kleines Schreibprogramm, das der Flut von Schmierzetteln auf dem Schreibtisch vorbeugen soll. Es eignet sich für kurze Notizen und zum Editieren von Stapeldateien.

Bild 8.53: MS-Windows-Editor

Multimedia

Ab der Version 3.1 ist Windows um zwei weitere Medien, nach Text und Grafik, erweitert worden, den Ton bzw. Tonsquenzen und Bildsequenzen. Voraussetzung für die Tonwiedergabe ist eine Soundkarte, die für die Klangerzeugung verantwortlich ist. Verfügt Ihr Rechner über eine derartige Soundkarte, meldet sich Windows bei jedem Start mit einer Fanfare. Bedienungsfehler wie auch das Ende einer Windowssitzung werden durch individuell auswählbare Klangsequenzen untermalt. Die Klänge werden in speziellen Dateien auf der Festplatte gespeichert. Sie können die Dateien an der Dateierweiterung .WAV erkennen. Im Windows-Paket sind vier WAV-Dateien enthalten. Seit Windows 3.1 ist die Zeit nicht stehen geblieben, besonders deutlich wird dies an dem neuen Windows Media Player, ein Allround-Tool in Sachen Medienwiedergabe. Die Liste seiner Möglichkeiten wird mit jeder neuen Version länger: ●

Das Abspielen von WAV- und MIDI-Dateien ist ja schon selbstverständlich.



Darüber hinaus verbirgt sich hinter dem Media-Player auch ein vollständiger MP3-Player, der es auch ermöglicht, Musik-Dateien in Bibliotheken nach Musikgattungen oder anderen Kriterien zu ordnen und gezielt abzuspielen. Unter Windows XP können Sie mit dem Media-Player auch MP3-Dateien erzeugen, in dem sich Musik-CDs auf die Festplatte im MP3-Format kopieren lassen. Auch der umgekehrte Weg ist möglich, nämlich aus MP3-Dateien wieder Musik-CDs zu brennen. Vorausgesetzt, Ihr PC ist mit einem CD-Brenner ausgestattet.



In der neuen Version kann der Media-Player nun auch DVDs abspielen, so dass Sie zukünftig auch hierfür kein spezielles Abspielprogramm benötigen. Die Filme können im Fenster wie auch im Vollbildmodus angezeigt werden.

● ●

Bild 8.54: Der Windows Media-Player

Bild 8.55: Der Media-Player in einem etwas anderen Design beim Abspielen von MP3-Dateien ●

Darüber hinaus können Sie den Media-Player auch als Radio nutzen, um spezielle Radio-Stationen, die ihr Programm über das Internet ausstrahlen, zu empfangen.



Letztlich können Sie das Aussehen des Media-Players an Ihren Geschmack anpassen. Dazu haben Sie die Auswahl aus einer Reihe von so genannten Skins, welche die Oberfläche des Programms unterschiedlich gestalten.

Audiorecorder

Audiorecorder und Movie-Maker: Der Windows Media-Player ist zwar ein fast universelles Multimedia-Programm, er ist allerdings auf die Wiedergabe von Medien beschränkt. Diesem Manko hilft ein kleines Werkzeug ab, mit dem Sie selber Klänge, z. B. mit einem Mikrofon, aufnehmen können. Die aufgenommenen Tonsequenzen können Sie über Diskette versenden oder die Windows-Tonmeldungen bereichern. Statt durch eine Fanfare können Sie sich z. B. beim Aufruf der Windowssitzung durch ein freundliches »Guten Morgen«, das Sie mithilfe des Audiorecorders aufgezeichnet haben, begrüßen lassen.

Bild 8.56: Klangrecorder

Bild 8.57: Mit dem Movie Maker können Sie selbst aufgenommene Videos schneiden.

Mit dem Movie-Maker können Sie dagegen auch Videos bearbeiten. Das Programm unterstützt Sie beim Überspielen von mit der Videokamera aufgenommenen Szenen und beim Schneiden und Speichern eines kompletten Films. Systemprogramme

In der Gruppe Systemprogramme finden Sie eine ganze Reihe von Programmen, die Sie bei der Pflege des Betriebssystems und Ihrer Dateien und Anwendungen unterstützen. Backup

So finden Sie hier beispielsweise das Programm Backup, mit dem Sie wichtige Dateien auf Diskette oder ein Bandlaufwerk sichern können. Dem Thema Datensicherung werden wir uns in Kapitel 12 noch intensiver widmen. Datenträger optimieren mit der Defragmentierung: Das Defragmentierungsprogramm ist eines der wichtigsten Programme, mit dem Sie die Zugriffsgeschwindigkeit Ihrer Festplatte erhöhen können. Um das zu verstehen, wollen wir noch einmal einen kurzen Ausflug in das Prinzip der Speicherung von Dateien unter DOS bzw. Windows machen. Wie speichert Windows Dateien?

Wenn eine Festplatte frisch formatiert wurde, werden alle neuen Dateien in aufeinander folgenden Clustern bzw. Zuordnungseinheiten direkt hintereinander auf die Festplatte geschrieben. Die Dateizuordnungstabelle führt darüber Buch, welche Zuordnungseinheiten für die Speicherung einer Datei verwendet werden. Die folgende Tabelle zeigt hierfür ein Beispiel: Name der Datei

gespeichert in den Clustern von ... bis...

Datei A

2-4

Datei B

5 - 15

Datei C

16 - 28

Datei D

29 - 35

usw. Tabelle 8.6: Beispiel einer Dateizuordnungstabelle ohne Fragmentierung

Das Problem beginnt dann, wenn Dateien gelöscht und neue hinzugefügt werden. Sobald die erste Datei gelöscht wird, füllt Windows die entstandene Lücke mit einer neuen Datei aus. Doch was passiert, wenn die neue Datei nicht in die Lücke hineinpasst, wenn Datei B gelöscht und eine Datei E gespeichert werden soll, die 20 Zuordnungseinheiten benötigt? Ist die neue Datei größer als die alte, muss sie also in mindestens zwei Blöcke aufgeteilt werden, d.h. Datei E würde auf die Zuordnungseinheiten 5-15 und 36-44 aufgeteilt. Name der Datei

gespeichert in den Clustern von ... bis...

Datei A

2-4

Datei E

5 - 15, 36 - 44

Datei C

16 - 28

Datei D

29 - 35

usw. Tabelle 8.7: Beispiel einer Dateizuordnungstabelle mit Fragmentierung

fragmentierte Datei

Von einer fragmentierten Datei spricht man also dann, wenn die Datei nicht in aufeinander folgenden Zuordnungseinheiten gespeichert ist. Im Prinzip funktioniert diese Technik einwandfrei, lediglich beim Lesen oder Schreiben von fragmentierten Dateien kann es zu erheblichen Unterschieden kommen. Wenn eine Datei in direkt aufeinander folgenden Zuordnungseinheiten gespeichert ist, kann diese Datei in einem Rutsch gelesen werden. Sind die Zuordnungseinheiten dagegen auf der Festplatte verstreut, muss der Schreib-/Lesekopf der Festplatte mehrfach neu positioniert werden, was natürlich länger dauert. Mit dem Programm Defragmentierung lässt sich die Fragmentierung von Dateien wieder rückgängig machen, die verstreuten Zuordnungseinheiten werden wieder hintereinander auf die Festplatte geschrieben. Daher können von einer defragmentierten Festplatte die Daten schneller gelesen werden.

Bild 8.58: Die ausgewählte Festplatte wird defragmentiert.

Pack-Programme

Datenträger komprimieren: Die Komprimierung von Daten ist, ähnlich wie die Verschlüsselung, eines der interessantesten und auch anspruchsvollsten Anwendungsgebiete von Informatik und Mathematik. Seit Jahrzehnten suchen zahlreiche Enthusiasten nach leistungsfähigeren und schnelleren Methoden, um aus prallen Säcken von Daten handliche Bündel zu schnüren. Es gibt inzwischen zahlreiche kleine Hilfsprogramme, welche aus riesigen Datenmengen kleine gepackte Dateien erzeugen, die zum Teil weniger als ein Zehntel ihrer ursprünglichen Größe umfassen. Trotz der Leistungsfähigkeit dieser Programme haben sie einen Nachteil: Man muss sie ausdrücklich aufrufen, ihnen über Parameter mitteilen, welche Dateien komprimiert werden sollen, und erhält erst danach eine kleine handliche Datei, die entweder als Sicherung gespeichert oder für den Transport genutzt werden kann. 32-Bit-Geschwindigkeit Wie funktioniert DriveSpace

So wundersam die Wirkung der Windows-Komprimierung auch sein mag, so einfach lässt sich doch das Grundprinzip erklären. Nehmen wir einmal als Beispiel einen kurzen Text, mit dem Teilnehmer von Tequila-Wettbewerben auf ihre Trinkfestigkeit getestet werden: Zwanzig Zwerge üben Kopfstand, zehn am Sandstrand, zehn im Wandschrank

Wenn Sie diesen Spruch mal laut nachsprechen, werden Sie einerseits feststellen, dass er auch im nüchternen Zustand nicht gerade leicht über die Zunge geht, sondern auch Buchstabenfolgen enthält, die sich wiederholen. Angenommen, man würde nun die Buchstabenfolge »and« durch ein einzelnes, zuvor festgelegtes Zeichen ersetzen, z. B. »_«. Der neue Text sähe so aus: Zwanzig Zwerge üben Kopfst_, zehn am S_str_, zehn im W_schrank und von den ursprünglich 61 Zeichen wären nun nur noch 53 Zeichen zu speichern, das entspricht einer Reduktion auf 85% der ursprünglichen Größe, ein beachtlicher Erfolg für ein so simples Verfahren. Lauflängenkomprimierung

Datenkomprimierung beschränkt sich nicht auf Texte, sondern lässt sich auf Daten aller Art anwenden. Als Beispiel sei hier kurz die aufgeführt, mit der sich auch Bilder sehr gut komprimieren lassen. Bei dieser Methode wird nicht jeder einzelne Bildpunkt mit seinem Farbwert abgespeichert, sondern es werden die nebeneinander liegenden Bildpunkte gleicher Farbe gezählt. Durch dieses Verfahren lassen sich einfache Bitmap-Grafiken, wie sie z. B. von Paint erzeugt werden, auf weniger als ein Zwanzigstel ihrer ursprünglichen Größe reduzieren. Im Laufe der Jahre wurden diese Techniken immer weiter entwickelt und verfeinert, einige Methoden arbeiten sehr schnell, komprimieren dafür weniger gut als andere Methoden, die wiederum mehr Zeit benötigen. Die meisten Packprogramme erreichen hohe Komprimierungsraten, die dann etwas auf Kosten der Verarbeitungszeit erreicht werden. Die Windows-Komprimierung erreicht dagegen nicht ganz so hohe Komprimierungsraten, ist dafür aber erheblich schneller und arbeitet vollständig im Hintergrund. Dateien nicht in Clustern speichern

Während für die Systeme Windows 95/98/Me noch ein spezielles Komprimierungsprogramm im Lieferumfang war, gehört die Komprimierung von Dateien unter Windows XP (wie auch Windows NT/2000) direkt zum Betriebssystem und ist im Dateisystem implementiert. Entsprechend einfach ist auch die Bedienung: Die Aktivierung eines Kontrollkästchens reicht aus, um eine Datei, ein Verzeichnis oder eine ganze Festplatte zu komprimieren. Der Vorgang ist völlig transparent, d. h. Sie werden davon nichts bemerken, wenn Windows Ihre Dateien beim Speichern komprimiert und beim Lesen wieder dekomprimiert. Nur den Gewinn können Sie erkennen, wenn auf Ihren Platten doppelt so viel und mehr Daten gespeichert werden können wie zuvor.

Bild 8.59: Die Komprimierung kann über die Eigenschaften einer Datei/Ordners/Laufwerks durch Aktiveren eines Kontrollkästchens eingeschaltet werden.

Die Leistungsüberwachung: Fast bei jedem PC-Besitzer schleicht sich irgendwann einmal das Gefühl ein, der PC könnte doch etwas langsam sein. Um diesem Gefühl auf den Grund zu gehen, bietet Windows XP zwei Programme an: Das eine haben Sie bereits zum Beenden von Anwendungen kennengelernt, den Task-Manager. Dieses Programm können Sie über einen Klick mit der rechten Maustaste auf die Task-Leiste öffnen. Unter der Registerlasche Systemleistung wird Ihnen die aktuelle Prozessorleistung in einem Grafen angezeigt. Darunter finden Sie Angaben zum Speicherverbrauch. Ein wichtiger Hinweis findet sich in dem Wert Verfügbar, mit dem der derzeit nicht verwendete RAM-Speicher gemeint ist. Ist dieser Wert dauerhaft sehr klein, sollten Sie erwägen, den Arbeitsspeicher Ihres Computers zu erweitern.

Bild 8.60: Der Task-Manager bietet einen ersten Überblick über die Auslastung von Prozessor und Arbeitsspeicher

Noch deutlich weiter geht das Tool Leistung, das für eine Vielzahl von PC-Komponenten Leistungsindikatoren zur Überwachung bereitstellt.

Bild 8.61: Die Leistungsüberwachung bietet zahlreiche Leistungsindikatoren zur Überwachung an.

8.4 Das Betriebssystem OS/2 Windows NT ist nicht der erste Versuch, die Schwächen von DOS durch ein neues Betriebssystem zu bekämpfen. Mitte der achtziger Jahre schlossen sich die Firmen IBM und Microsoft zusammen, um ein neues Betriebssystem zu entwickeln. Das Ergebnis wurde 1987 mit dem Titel OS/2 (Operating System 2) vorgestellt. Mangelhafte DOS-Unterstützung

Leider waren die ersten Versionen von OS/2 kein großer Erfolg. Obwohl es vom technischen Standpunkt aus betrachtet für ein PC-Betriebssystem neue Maßstäbe schuf, war ein großer Nachteil seine Inkompatibilität zu DOS, d. h. alte DOSProgramme waren nicht unter OS/2 ausführbar. Programme mussten für OS/2 ganz neu entwickelt werden. Die Entwicklungswerkzeuge waren aber sehr teuer, und so warteten viele Programmentwickler ab, wie der Erfolg von OS/2 sein würde. Da der Erfolg aber abhängig war von den verfügbaren Programmen, blieb er einfach aus. Lediglich große Firmen, die auch Großrechner von IBM einsetzen, ließen sich auf OS/2 ein, da es mit Hilfe von Zusatzsoftware ein netzwerkfähiges Betriebssystem ist, mit dem PC-Arbeitsplätze hervorragend in IBM-Rechnernetze eingebunden werden können. OS/2 wurde im Laufe der Zeit ständig verbessert. So wurde beispielsweise der Kompatibilitätsmodus eingefügt, mit dem der Einsatz von DOS-Programmen unter OS/2 ermöglicht wurde. Zu diesem Zweck wird MS-DOS von OS/2 emuliert, das heißt nachgebildet. Die beiden Riesen IBM und Microsoft haben inzwischen ihre Zusammenarbeit aufgekündigt. Microsoft nutzte seine Erfahrungen für die Entwicklung von Windows NT, IBM arbeitete alleine weiter an OS/2. OS/2 Warp

Die große Wende und damit auch der Durchbruch für OS/2 kam im Frühjahr 1992 mit Version 2.0 und wurde 1995 mit OS/2 Warp fortgesetzt. Noch vor Windows NT konnte IBM somit ein 32-Bit-Betriebssystem vorstellen, für das IBM mit folgendem Spruch warb: "Eine besseres DOS als DOS, ein besseres Windows als Windows, ein besseres OS/2 als OS/2". Ob sie damit Recht haben, sei dahingestellt, aber eins ist richtig: OS/2 vereinigt drei Betriebssysteme unter einem Dach. Für OS/2-Programme bietet das Betriebssystem einige Eigenschaften, die Sie bereits aus den vorhergehenden Abschnitten kennen. Dazu gehört die Unterstützung von 32-Bit-Programmen (allerdings nur OS/2-Programmen), preemptives Multitasking, Multiple Threads und die Möglichkeit, auf 4 Gbyte Arbeitsspeicher zuzugreifen. Auch die Eigenschaften des neuen Dateisystems von Windows 95 sind nicht neu, bei OS/2 sind diese Möglichkeiten seit Jahren unter dem Titel HPFS (High Performance File System) verfügbar. DOS- und Windows-Programme

Als Anwender haben Sie bei OS/2 die Möglichkeit, DOS-Programme in (fast) beliebig vielen Fenstern ausführen zu lassen. Dabei stellt OS/2 den DOS-Programmen mehr Speicher zur Verfügung, als alle reinen DOS-Versionen. Aber nicht nur DOS-Programme, sondern auch Windows-Programme werden von OS/2 unterstützt. Sie können einerseits zu der Oberfläche von Windows umschalten und von dort Windows-Programme aufrufen, oder die Anwendungen in einem Windows-Fenster auf der OS/2-Oberfläche aufrufen. Nur Windows-3.1-kompatibel

Allerdings beinhaltet die Abarbeitung von Windows-Programmen eine der größten Einschränkungen von OS/2: Es unterstützt hervorragend 16-Bit-Windows-Programme, die für Windows 3.1 entwickelt wurden; darüber hinaus auch einige 32Bit-Windows-Funktionen (Win32s). Programme, die speziell für Windows 95 und Windows NT entwickelt wurden, sind dagegen nicht mehr unter OS/2 ausführbar. Dies ist auch einer der wesentlichen Gründe, warum OS/2 trotz seiner respektablen Technik keine Bedeutung auf dem Markt mehr hat.

Bild 8.62: Die OS/2-Oberfläche ähnelt dem Windows-Desktop

8.5 Das Betriebssystem UNIX Das UNIX-Betriebssystem gibt es seit Ende der sechziger Jahre. Es war ursprünglich für Software-Entwickler und nicht für den kommerziellen Einsatz geplant. UNIX wurde in den Bell-Laboratorien, einem Teil des amerikanischen

Telefonkonzerns AT&T, entwickelt. C

UNIX war das erste Betriebssystem, das in einer höheren Programmiersprache, »C« (siehe Kapitel 10.), geschrieben wurde. Die Programmiersprache »C« wurde eigens für diesen Zweck entwickelt und zeichnet sich durch eine hohe Portabilität aus. In »C« geschriebene Programme lassen sich leicht auf andere Rechnersysteme übertragen. Dadurch kann auch UNIX problemlos an andere Rechner angepasst werden. Erst mit dem rapiden Preisverfall für Hardware in den letzten Jahren wurde der kommerzielle Einsatz von UNIX auf breiterer Basis möglich. Ähnlich wie OS/2 und Windows kann auch UNIX auf Personalcomputern die erweiterten Möglichkeiten der modernen Prozessoren ab 80386 voll ausschöpfen. UNIX enthält die gleichen Techniken wie OS/2 und Windows: Multitasking, virtuelle Speicherverwaltung etc. Multiuser-System

Das Betriebssystem MS-DOS ist ein typisches Einplatz-Betriebssystem. Es unterstützt den persönlichen Computer, an dem nur eine Person arbeiten kann. UNIX dagegen ist ein Betriebssystem für Mehrplatz- oder Multiuser-Systeme, die aus einem sehr leistungsstarken Zentralrechner bestehen, an den mehrere »dumme« oder auch »intelligente« Terminals angeschlossen sind. Ein dummes Terminal besteht nur aus einer Tastatur und einem Monitor. Ein intelligentes Terminal kann dagegen ein Tischrechner sein, auf dem mit Hilfe eines speziellen Programms die Funktionen eines dummen Terminals nachgebildet werden (Terminal-Emulation). So kann ein intelligentes Terminal als vollwertiger Tischrechner und als Terminal genutzt werden. Terminal

Mehrere Benutzer können von mehreren Terminals gleichzeitig mit dem Zentralrechner arbeiten. Die einzelnen Aufgaben werden, ähnlich wie beim Multitasking mit Windows, in kleine Portionen aufgeteilt, die der Prozessor nacheinander bearbeitet. Durch die hohe Verarbeitungsgeschwindigkeit des Prozessors werden die einzelnen Aufgaben so schnell berechnet, als wenn der Benutzer allein mit einem PC arbeiten würde.

Bild 8.63: Zentralrechner mit Terminals unter UNIX

Die Stärken von Mehrplatzsystemen liegen darin, dass alle Benutzer gemeinsam auf dieselbe Hardware und Software zugreifen können (Drucker, Festplatte, Magnetband, Teletex-Netze). Der Zentralrechner ist zwar teurer, da erheblich leistungsstärker, dafür müssen Peripheriegeräte, die mehrere Benutzer erlauben, nur einmal angeschafft werden. Dadurch können Mehrplatzsysteme in vielen Fällen kostengünstiger sein als mehrere Einzelplatzsysteme. Ein weiterer großer Vorteil von UNIX ist, wie bereits angesprochen, die leichte Anpassung an die Hardware. UNIX war eines der ersten Betriebssysteme, das für unterschiedliche Rechner angeboten wurde. Inzwischen gibt es über 80 Hardwarehersteller, die UNIX für ihre Rechner anbieten. Die Vorteile von UNIX liegen in seiner hohen Leistungsfähigkeit, Flexibilität und Portabilität, das heißt der Anpassung an die Hardware. Obwohl für Rechner aller Größenklassen verfügbar, liegen die besten Verbreitungschancen vorwiegend im Bereich der Minirechner und Mehrplatzrechner. PC-UNIX

Inzwischen werden auch leistungsfähige Versionen für den PC angeboten, die in direkter Konkurrenz zu OS/2 und Windows NT stehen. Beispiele hierfür ist das SCO-UNIX sowie die PC-Versionen von Solaris und NextStep. Diese UNIXBetriebssysteme bieten zum Teil auch die Möglichkeiten, in Emulationen mit DOS- und Windows-Programmen zu arbeiten.

8.5.1 Linux Linux ist nicht UNIX, allerdings wird inzwischen häufig Linux gemeint, wenn von UNIX die Rede ist. Linux beruht auf einem UNIX-Betriebssystem und seine Grundlagen wurden von Linus Torwalds gelegt. 1991 entwickelte der 21-jährige Finne einen Betriebssystemkern, auch Kernel genannt, auf der Basis des Betriebssystems Mimix. Mimix wiederum wurde 1987 von Andrew Tanenbaum, Professor an der Freien Universität von Amsterdam, als Lehrbetriebssystem veröffentlicht. Es bildete vollständig die Funktionalität von UNIX Version 7 nach. Den neu entwickelten Betriebssystemkern veröffentliche Linus Torwalds unter dem Namen Linux (Abkürzung für Linus' Unix) im Internet unter der Version 0.01. Binnen kürzester Zeit wurde dieser Kernel weiterentwickelt und um weitere Betriebssystemfunktionen ergänzt. So entstand das Betriebssystem Linux in einer offenen Zusammenarbeit, für die Linus Torvalds den Stein ins Rollen brachte.

Inzwischen hat sich aus Linux (der Pinguin steht als Logo für dieses Betriebssystem) ein vollwertiges Betriebssystem entwickelt, das viele Eigenschaften von Unix und Windows in sich vereinigt. So unterstützt es die Vorteile der Unix-Systeme wie Multiuserfähigkeit, Multitasking und Multithreading und lässt sich auf verschiedene Prozessorfamilien wie Alpha-, Intel-, Motorola 68k-, PowerPC-, Sparc-, Arm- und MIPS-Prozessoren portieren. Hinzu bietet es die Wahl zwischen mehreren grafischen Oberflächen, die auch den Windows-Anwender ansprechen. Darüber hinaus kommt noch eine große Zahl von Anwendungsprogrammen, die, wie Linux selbst auch, unter der GNU General Public Licences als offene Software (Open Source) angeboten werden und z. B. auch kostenlos aus dem Internet heruntergeladen werden können.

OpenSource und das GNU-Projekt 1983 wurde von Richard Stallman das GNU-Projekt mit dem Ziel ins Leben gerufen, ein vollständiges und freies Softwaresystem zu entwickeln. GNU ist die Abkürzung für GNU's not Unix. Die unter GNU entwickelte Software ist kompatibel zu Unix, viele Programme lassen sich allerdings auch für andere PC-Betriebssysteme wie DOS kompilieren. Freie Software heißt bei GNU, dass die Programme frei kopiert werden dürfen, dass die Quelltexte veröffentlicht werden und nach eigenen Wünschen verändert werden können. Veränderte Programme sind allerdings unter der General Public Licence (GPL) zu verbreiten. Auf Grund der freien Verfügbarkeit der Quellcodes können Programme also von jedem Interessierten ständig weiterentwickelt werden. Damit aber die Ideen zahlreicher Entwickler aus dem Internet nicht wirr in ein Softwaresystem zusammengetragen werden, steht hinter jeder Softwareentwicklung ein Verantwortlicher, der über den Entstehungsprozess wacht. So entsteht aus den Beiträgen vieler Programmierer ein abgeschlossenes Programm. So ist beispielsweise Linus Torvalds für die Entwicklung des Linux-Kernels verantwortlich. Kann ein Projektverantwortlicher seiner Aufgabe nicht weiter nachgehen, wird ein anderer Verantwortlicher bestimmt, der die Weiterentwicklung der Software beaufsichtigt.

Linux-Distributionen

Nicht jeder Anwender hat die Möglichkeit, ein umfangreiches Betriebssystem samt Anwendungen, Entwicklungstools und Dokumentation aus dem Internet herunterzuladen. Hinzu kommt, dass die normale Installation von Linux nicht so einfach ist, sondern einiges an Erfahrung mit dem PC erfordert. Diesem Umstand helfen die so genannten Linux-Distributionen ab. Hierbei haben sich einige Hersteller die Mühe gemacht, alle notwendigen Werkzeuge des Betriebssystems auf CDs so zusammenzufassen, dass sie sich mehr oder weniger einfach mit Hilfe menügesteuerter Installationsprozeduren auch ohne detaillierte Systemkenntnisse installieren lassen. Für meist weniger als 100,- DM können diese Distributionen im Handel gekauft werden, ältere Versionen finden sich hin und wieder auch in PC-Zeitschriften auf den beigelegten CDs.

Bild 8.64: Linux aus der SUSE-Distribution mit der KDE-Oberfläche

Linux-Oberflächen

Mit der Wahl einer Linux-Distribution fällt zumeinst auch die Entscheidung für eine der beiden am meisten angebotenen Oberflächen für Linux, GNOME oder KDE. So enthält die eine Distribution KDE, die andere dagegen GNOME. Falls Sie sich nicht entscheiden können, lässt sich die fehlende allerdings auch aus dem Internet herunterladen und je nach Einsatzzweck können Sie eine der beiden aktivieren. Beide Oberflächen sehen sich allerdings nicht nur untereinander recht ähnlich, sondern lassen auch den Windows-Anwender sich recht schnell zu Hause fühlen. So findet man auch bei den Linux-Desktops Startmenü, Symbole auf der Oberfläche zum direkten Aufruf von Programmen, eine Taskleiste mit Schaltflächen für aktive Anwendungen, die auch eine Uhr anzeigt. Wie bei Windows auch können die Oberfläche, Ordner und Menüs nach Belieben gestaltet werden.

Bild 8.65: GNOME-Desktop mit verschiedenen Anwendungen wie Tabellenkalkulation, Bitmap-Bearbeitung und Spielen.

9 Anwendersoftware Gerade das letzte Kapitel konnte leicht den Eindruck hinterlassen, Computer wären eigentlich nur dazu da, um mit einem Betriebssystem zu arbeiten. Dem ist natürlich nicht so: Die Computer-Hardware wie auch das Betriebssystem sind nur Mittel zum Zweck, und der besteht nun mal in erster Linie in der Erstellung und Bearbeitung von Dokumenten, ob nun Texte, Tabellen, Grafiken usw., bzw. bei der Unterstützung sonstiger Arbeiten, wie sie im täglichen (Berufs-) Leben zu erledigen sind. Lassen Sie uns nun also einen Blick auf diesen Themenbereich werfen. Folgende Anwendungsbereiche wollen wir uns näher anschauen:



Textverarbeitung Desktop Publishing



Datenbanken



● ● ● ●

Tabellenkalkulation Grafikbearbeitung Office-Pakte und Integrierte Software Spezielle Branchenlösungen

Einen wichtigen Punkt werden wir uns zuletzt noch anschauen, und zwar die Unterscheidung zwischen Lizenz-Software, Shareware und Public-Domain-Programmen bzw. Freeware.

9.1 Textverarbeitung Seitdem der Mensch gelernt hat, sich mit Hilfe von Schriftzeichen zu verständigen, wurden immer wieder neue Hilfsmittel gesucht und gefunden, um diese Verständigung zu erleichtern. Hammer und Meißel wurden von Bleistift und Radiergummi, von Schreibmaschinen und letztlich von Textautomaten und Computern ersetzt. Besonders Computer helfen, Texte möglichst schnell und fehlerfrei zu erstellen. Sie erleichtern die Eingabe des Textes, die Beseitigung von Fehlern sowie die Formatierung. Weiterhin ermöglichen sie die Abspeicherung von wiederholt benötigten Textabschnitten, so genannten Bausteinen, so dass ein Geschäftsbrief fast ausschließlich aus gespeicherten Textbausteinen zusammengesetzt werden kann. Schließlich wird der fertige Brief auf einer Diskette oder Festplatte gespeichert. Er ist jederzeit abrufbar, damit man ihn über einen Drucker ausgeben kann.

9.1.1 Arbeit mit einem Textverarbeitungsprogramm Stellen Sie sich einmal vor, Sie sitzen vor einem Personal-Computer und möchten mit einem Textverarbeitungsprogramm einen Text, zum Beispiel einen Aufsatz über Sinn und Zweck der Textverarbeitung, schreiben. Weiterhin wollen wir annehmen, auf der Festplatte Ihres Rechners ist das Textprogramm Word gespeichert, mit dem Sie arbeiten können. Word ist ein weit verbreitetes Programm, das dem Benutzer eine Vielzahl von Möglichkeiten gibt, die Textverarbeitung zu erleichtern. Word soll hier nur als Beispiel verwendet werden, es gibt zahlreiche weitere Textprogramme mit ähnlicher Funktionalität. Anwendungsfenster und Arbeitsbereich

Einmal installiert, kann Word über den entsprechenden Eintrag im Startmenü aufgerufen werden. Das Programm meldet sich mit seinem Anwendungsfenster, das einen großen Arbeitsbereich für die Eingabe von Text bereithält. In der oberen linken Ecke des Arbeitsbereichs blinkt die Einfügemarke, die Ihnen die Position angibt, wo der aktuell eingegebene Text eingefügt wird. In der Statuszeile des Anwendungsfensters von Word befindet sich die Positionsangabe. Sie gibt an, in welcher Zeile bzw. Spalte und auf welcher Seite sich die Einfügemarke im Augenblick befindet.

Bild 9.1: Das Anwendungsfenster von Word

Eingeben von Text Zeilenumschalttaste

Sie können, ohne weitere Eingaben zu tätigen, direkt mit dem Eintippen Ihres Textes beginnen. Eine der ersten Besonderheiten eines Textverarbeitungsprogramms ist, dass Sie am Ende der Zeile nicht die Zeilenumschalttaste drücken müssen wie bei einer Schreibmaschine. Sobald das letzte Wort nicht mehr in die Zeile passt, wird es automatisch in die nächste Zeile gesetzt. Das geht so schnell, dass Sie das Schreiben nicht zu unterbrechen brauchen. Erst wenn Sie einen Absatz erstellen möchten, drücken Sie die Eingabe-Taste ([Return]). Dadurch springt die Einfügemarke in die erste Spalte der nächsten Zeile. Sie können nun mit der Eingabe des nächsten Absatzes fortfahren. Text speichern

Spätestens wenn Sie Ihren Text fertig geschrieben haben, sollten Sie ihn zunächst speichern. Sie erinnern sich sicherlich noch daran, dass der Text im Arbeitsspeicher abgelegt wird. Der Arbeitsspeicher wird aus RAM-Bausteinen zusammengesetzt, den so genannten flüchtigen Speichern. Bei Ausfall der Betriebsspannung, aus welchem Grund auch immer, wäre Ihr mühsam eingetippter Text für immer verschwunden. Nur durch Speichern des Textes auf Diskette oder Festplatte können Sie dem vorbeugen. Deshalb speichern Sie nicht nur, wenn Sie mit der Eingabe fertig sind, sondern bei jeder kleinen Pause. Dateinamen vergeben

Vor dem ersten Speichern müssen Sie Ihrem Text einen Dateinamen zuweisen. Falls Sie noch mit DOS arbeiten, müssten Sie sich auf die sparsamen acht Zeichen beschränken, eine Dateierweiterung fügt das Textprogramm selbstständig hinzu. Bei den modernen Betriebssystemen wie z. B. Windows können Sie dagegen einen langen Namen wählen, mit dem sich der neue Text treffend beschreiben und wieder finden lässt. Datei speichern

Zum Speichern bieten Ihnen fast alle Textverarbeitungsprogramme ein Dialogfenster an, über das Sie das Laufwerk und Verzeichnis auswählen können, in dem der Text gespeichert werden soll und in dem Sie ihm einen Namen zuweisen können.

Bild 9.2: Der neue Text wird gespeichert

Datei öffnen

Ein entsprechendes Dialogfenster wird Ihnen angeboten, wenn Sie im umgekehrten Fall einen Text von der Festplatte laden möchten, um ihn zu bearbeiten. Text korrigieren

Ob Sie einen Text erst vollständig schreiben oder bereits beim Schreiben Tippfehler korrigieren, ist wohl eher Geschmackssache. Tippfehler sofort korrigieren

Angenommen, Sie haben sich beim letzten Wort verschrieben, statt »Computer« steht nun »Camputer« auf dem Bildschirm; Tippex ist bei der modernen Textverarbeitung unnötig. Es gibt verschiedene Möglichkeiten, den Fehler zu korrigieren. Die einfachste Möglichkeit ist, Sie führen die Einfügemarke mit Hilfe der Pfeiltasten über das »a« von »Camputer« und betätigen die Taste (Entf). Daraufhin wird das »a« vom Bildschirm gelöscht und die Einfügemarke steht nun über dem »m«. Wenn Sie nun einfach ein »o« eingeben, wird es vor dem »m« eingefügt. Der Fehler ist berichtigt. Einfüge- und Überschreibmodus

Fast alle Programme verfügen zur Fehlerkorrektur über zwei Modi, den Einfüge- (englisch: insert) und den Überschreibmodus (englisch: overwrite). Wie der Einfügemodus funktioniert, haben Sie gerade gesehen. Ein Zeichen oder auch mehrere werden an der Stelle, an der sich die Einfügemarke befindet, einfach in den Text eingefügt. Beim Überschreibmodus wird durch die Eingabe eines neuen Zeichens das alte gelöscht. Um das »a« in »Camputer« zu löschen, könnten Sie im Überschreibmodus die Einfügemarke einfach über das »a« führen und ein »o« eintippen. Das »a« würde sofort durch das »o« ersetzt. Rechtschreibhilfe

Obwohl Sie einige Schreibfehler direkt bei der Eingabe korrigiert haben, sind Ihnen sicherlich einige entgangen. Fast alle Textverarbeitungsprogramme bieten Ihnen eine Rechtschreibhilfe, die Ihnen die Suche nach falsch geschriebenen Wörtern erleichtert. Abschließende Korrektur

Normalerweise werden Sie die Rechtschreibhilfe aufrufen, wenn Sie mit dem Schreiben des Textes fertig sind; sie nimmt Ihnen das abschließende Durchlesen und Kontrollieren des Textes ab und weist Sie auf falsch geschriebene oder unbekannte Wörter hin. Dabei werden die von Ihnen eingetippten Wörter mit den Eintragungen in einem elektronischen Wörterbuch verglichen. Kennt die Rechtschreibhilfe ein Wort aus Ihrem Text noch nicht, macht es Sie darauf aufmerksam, und es kann in das Wörterbuch übernommen werden. Weicht ein Wort aufgrund eines Schreibfehlers nur gering von Eintragungen im Wörterbuch ab, werden Sie auf den Fehler aufmerksam gemacht. Das Programm bietet Ihnen auch gleich die richtige Schreibweise an, die dann in den Text übernommen werden kann. Der Rechtschreibhilfe sind natürlich Grenzen gesetzt. Haben Sie statt »das« das Wort »die« geschrieben, so ist das kein Tippfehler, das Wort ist im Prinzip richtig geschrieben. Allerdings gibt es auch Programme, die grammatikalische Fehler erkennen.

Bild 9.3: Die Rechtschreibhilfe weist auf falsch geschriebene Wörter hin

Überprüfung beim Schreiben

Moderne Programme wie z. B. Word können den Text auch direkt beim Schreiben überprüfen. Dabei werden falsch geschriebene Wörter durch eine rote Wellenlinie gekennzeichnet; ein Klick mit der rechten Maustaste öffnet ein Menü, das Ihnen ggf. Korrekturvorschläge anbietet. Wählen Sie eines der vorgeschlagenen Wörter aus, wird es an Stelle des falsch Geschriebenen direkt in den Text eingefügt. Kennt das Rechtschreibprogramm das eingegebene Wort nicht, genügt ein weiterer Mausklick, um es in das elektronische Wörterbuch aufzunehmen.

Bild 9.4: Rechtschreibüberprüfung während des Schreibens

Grammatikprüfung

Die Rechtschreibhilfe ist inzwischen aber nicht nur auf die Korrektur einzelner Tippfehler beschränkt, sondern kann auch recht umfassende Grammatiküberprüfungen durchführen. So ist z. B. in Bild 9.4 im letzten Absatz der Text »des modernen Computer« als Fehler markiert, am Bildschirm würde dieser Fehler grün unterkringelt, während Fehler in einzelnen Wörter rot unterstrichen sind. In dem Text wurde von Word korrekt erkannt, dass das Genitiv »s« fehlt. Thesaurus

Eine weitere Hilfestellung beim Korrigieren eines Textes bietet der Thesaurus. Angenommen, Sie haben einen Text erstellt, in dem ein Gegenstand mehrfach mit demselben Begriff beschrieben wird. Solche Wortwiederholungen können auf den Leser sehr ermüdend wirken. Falls Ihnen beim Korrekturlesen ein solches Wort auffällt, können sie dieses Wort markieren und anschließend den Thesaurus aufrufen. Dieses Programm enthält ein Synonyme-Wörterbuch und schlägt Ihnen alternative Begriffe für das markierte Wort vor. Mit einem Mausklick können Sie einen der Vorschläge in Ihren Text übernehmen.

Bild 9.5: Ersetzen von Wortwiederholungen mit Hilfe des Thesaurus

Text formatieren

Ist Ihr Text von allen Schreibfehlern befreit, können Sie ihn weiter gestalten. Als Gestaltungsmöglichkeiten bieten sich Ihnen das Seitenlayout, die Formatierung der Absätze und die Auswahl von verschiedenen Schriften an. Seitenränder

Seitenformatierung. Zum Beispiel gefällt Ihnen der Rand nicht. Die meisten Programme haben standardmäßige Randeinstellungen, die etwa 2,5 cm für den rechten und linken Rand vorsehen. Diese Einstellung ist für Briefe recht gut, möchten Sie die ausgedruckte Unterlage später abheften, dürfte ein größerer linker Rand von Vorteil sein. Kopf- und Fußzeilen

Die Seitenformatierung geht bei modernen Textverarbeitungsprogrammen aber weit über die Einstellung der Seitenränder hinaus. So können Sie beispielsweise Fuß- und Kopfzeilen definieren, in denen sich beispielsweise die Kapitelüberschriften eines längeren Textes befinden. Die Kopf- und Fußzeilen müssen aber nicht auf allen Seiten gleich sein; beispielsweise wird häufig die erste Seite eines längeren Textes, die auch den Titel enthält, ohne Kopfzeile ausgedruckt und erst auf den folgenden Seiten der Titel des Textes in der Kopfzeile wiederholt. Die automatische Seitennumerisierung wird meist in der Fußzeile platziert. Gegenüberliegende Seiten

Noch etwas komplexer wird es, wird die Seiten Ihres Textes als Vorlage für einen gebundenen Druck herhalten sollen; bei Broschüren oder Büchern werden gegenüberliegende Seiten mit geraden und ungeraden Seitennummern unterschiedlich formatiert, dazu brauchen Sie sich nur die Seiten dieses Buches anzuschauen. Flatter- und Blocksatz

Absatzformatierung:. Schauen wir uns nun die einzelnen Absätze an. Bisher ist ihr Text nur linksbündig, das heißt, der Inhalt jeder Zeile beginnt in der ersten Spalte, das Ende jeder Zeile ist dagegen beliebig (der so genannte Flattersatz). Sie haben die Möglichkeit, den Text auch an den rechten Rand angleichen zu lassen. Diese Funktion wird Blocksatz genannt. Überschriften sollen dagegen in der Mitte der Zeile stehen hierfür gibt es die Funktion »Zentrieren«. Sie können auch den Zeilenabstand frei wählen, wobei Sie bei nicht nur 1bis 4-zeiligen Abstand, sondern noch genauere Einstellungen wählen können, z. B. 0,42 cm. Wenn Sie den Textrand eingestellt und sich zum Beispiel für den Blocksatz entschieden haben, werden Sie feststellen, dass zwischen vielen Wörtern ziemlich große Lücken sind. Das liegt daran, dass eventuell ein relativ langes Wort nicht mehr in die erste Zeile passte und statt dessen in die nächste gesetzt wurde. Die so entstandene Lücke am rechten Rand wird dadurch ausgeglichen, dass die restlichen Wörter in der ersten Zeile gleichmäßig durch Einfügen von Leerstellen verteilt werden. Dies geschieht automatisch. Eine Möglichkeit, diese Lücken zu füllen, ist, das in die nächste Zeile verschobene zu lange Wort so zu trennen, dass in der ersten Zeile möglichst wenig Leerstellen eingefügt werden müssen. Sie können dies auch von Hand machen, indem Sie ein spezielles Trennzeichen,

das sich vom Bindestrich unterscheidet, selber einfügen. Silbentrennung

Einfacher ist da schon, wenn Sie auf die Silbertrennung Ihres Programms vertrauen. Wenn Sie dieses Trennprogramm aufrufen, werden Sie gefragt, ob Sie die Trennvorschläge bestätigen möchten. Bei den meisten Textprogrammen können Sie die Silbentrennung getrost dem Programm überlassen, ohne jeden einzelnen Vorschlag bestätigen zu müssen. Diese Zusatzfunktionen machen kaum Fehler beim Trennen. Selbst bei den Sonderfällen der deutschen Sprache können Sie inzwischen gänzlich dem Textprogramm und seiner Silbertrennung vertrauen. Diese Treffsicherheit geht zudem kaum zu Lasten der Geschwindigkeit. Auch in recht langen Texten von 50 oder 100 Seiten wird so in Sekundenschnelle die Worttrennung durchgeführt. Meist können Sie die Silbentrennung auch direkt beim Schreiben arbeiten lassen, so dass ein Wort unmittelbar getrennt wird, sobald Sie beim Schreiben das Ende der Zeile erreicht haben.

Bild 9.6: Bildschirmdarstellung bei Word

Zeichenformatierung

Weiterhin können Sie die einzelnen Zeichen sehr variabel gestalten. Sie können bestimmte Wörter oder Textteile durch Unterstreichen, Fettdruck oder durch Verwendung von Kursivschrift hervorheben. Darüber hinaus stehen Ihnen unter Windows zahlreiche verschiedene Schriftarten zur Verfügung; einige Textprogramme fügen noch weitere Schriften hinzu, so dass Sie die Auswahl zwischen zig verschiedenen Schriftarten haben.

Schriften in Texten Auch wenn Ihnen so viele Schriften für die Gestaltung eines Textes zur Verfügung stehen, sollten Sie doch nur sparsamen Gebrauch davon machen. So hat sich gezeigt, dass die Verwendung zu vieler verschiedener Schriftarten einen Text beim Leser als unruhig erscheinen lässt und damit die Lesbarkeit erschwert. Daher sollte man sich auf die Verwendung von drei bis vier verschiedenen Schriften innerhalb eines Textes beschränken, wobei bestimmte Textpassagen oder Überschriften noch immer durch unterschiedliche Schriftgrößen oder Hervorhebungen (Fett, Kursiv, Unterstrichen etc.) gekennzeichnet werden können.

Alle diese Formatierungsmerkmale, die vor wenigen Jahren noch speziellen Satzprogrammen vorbehalten waren, stehen Ihnen mit einem normalen Textverarbeitungsprogramm zur Verfügung. Doch lassen Sie sich bitte nicht erschrecken; der Leistungsumfang eines Textverarbeitungsprogramms, genauso wie der weiteren Programme, die ich Ihnen in diesem Kapitel vorstellen werde, sind nur ein Angebot des Herstellers. Sie müssen diese Funktionen nicht unbedingt kennen und nutzen; die Programme erlauben auch ganz simple Tätigkeiten ohne großen Lernaufwand. Aber: je länger man mit einem Programm arbeitet, desto vertrauter wird man damit und mit der Zeit steigen auch die Ansprüche. Formatvorlagen. Ein wesentliches Unterscheidungsmerkmal zwischen verschiedenen Textverarbeitungssystemen sind die Einsatzmöglichkeiten von Formatvorlagen. Doch was sind Formatvorlagen? Nehmen wir einmal an, Sie wollen einen Text schreiben, der mehrere Absätze enthält, die unterschiedlich formatiert werden sollen. Dies kann ein Brief sein, eine Notiz oder auch ein Kapitel dieses Buches. Bleiben wir doch mal beim letzten Beispiel. So enthält ein Kapitel mehrere verschiedene Überschriften, die sich in erster Linie durch die Schriftgröße wie auch durch Hervorhebungen unterscheiden. Normale Absätze verwenden dagegen eine andere Schrift und -größe und sind im Blocksatz formatiert. Aufzählungen beruhen dagegen auf linksbündigen Absätzen. So schön die gesamten Formatierungsmöglichkeiten auch sind, können sie doch sehr mühevoll sein, wollte man jeden einzelnen Absatz entsprechend bearbeiten. Abhilfe schaffen hier die Formatvorlagen. Formatvorlagen enthalten Beschreibungen, wie die einzelnen Absätze auszusehen haben, z. B.:



Überschrift 1 (U1): Absatz linksbündig, Schriftart Arial, Schriftgröße 14 Überschrift 2 (U2): Absatz linksbündig, Schriftart Arial, Schriftgröße 12 Überschrift 3 (U3): Absatz linksbündig, Schriftart Arial, Schriftgröße 11 Überschrift 4 (U4): Absatz linksbündig, Schriftart Arial, Schriftgröße 11, Kursiv Standardabsatz (St): Absatz Block, Schriftart Times Roman, Schrift-größe 10



Aufzählung (Au): Absatz linksbündig, Schriftart Times New Roman, Schriftgröße 10, Einzug links 0,5 cm

● ● ● ●

Dokumentvorlagendatei

Diese Formatbeschreibungen können in einer separaten Datei gespeichert werden. Jedes Mal, wenn Sie einen neuen Text schreiben, weisen Sie ihm eine Formatbeschreibungsdatei bzw. eine Dokumentvorlage zu. Um einem bestimmten Absatz nun das entsprechende Format zuzuweisen, genügt es, die entsprechende Formatvorlage auszuwählen; dazu könnte es beispielsweise ausreichen, die Taste (Alt) und eine Tastenkombination einzugeben wie z. B. »U1« oder »U2« oder »St« oder »Au«. Möchten Sie das Layout eines Textes ändern, brauchen Sie lediglich die Dokumentvorlage anzupassen; nutzen mehrere Texte dieselbe Dokumentvorlage, kann sich die Änderung auf alle mit ihr verbundenen Texte auswirken. Beispielsweise beruht jedes Kapitel dieses Buches auf einer eigenen Datei, die alle dieselbe Dokumentvorlage verwenden. Soll die Überschrift 1 mit einer anderen Schriftart formatiert werden, genügt eine Änderung, die automatisch auf alle Texte angewendet wird.

Bild 9.7: In Word können die Formatvorlagen im rechten Fensterausschnitt ausgewählt werden. Neue Formate kann man in einem Dialogfenster definieren.

Einfügen von Grafiken und Tabellen Grafiken

»Ein Bild sagt mehr als tausend Worte«. Diesem Motto haben sich auch die Entwickler von Textverarbeitungssystemen verschrieben und schon recht frühzeitig die Möglichkeit geschaffen, selbst geschriebene Texte mit Grafiken zu bereichern, ob es sich nun einfach um ein Logo für den Briefkopf, eine Geschäftsgrafik zur Erläuterung eines Geschäftsberichtes oder um Bildschirmabdrucke handelt, die Ihnen als Leser eines Buches über PC-Grundlagen einen Eindruck von Computer-Programmen bieten sollen. Heutige Textverarbeitungsprogramme machen es möglich, mit wenigen Mausklicks Zeichnungen, Grafiken oder Photos in ein Textdokument zu übernehmen und beliebig innerhalb des Textes zu positionieren. Tabellen

Ein weiteres Beispiel, wie sich Texte auflockern lassen, sind Tabellen. Die Darstellung von Zahlen in nebeneinander liegenden Kolonnen mit reinen Textverarbeitungsfunktionen wäre schon recht mühselig. Einfacher ist es da schon, wenn ein Textverarbeitungsprogramm über Tabellenfunktionen verfügt. Die Funktionen gehen meist schon so weit, dass nicht nur die Darstellung von Tabellen erleichtert wird, sondern Zahlenwerte auch berechnet werden können. OLE

Haben Sie einmal eine Tabelle in einen Text eingefügt, bleiben Ihnen nicht mehr viele Möglichkeiten, sie zu ändern. Reichen Ihnen die Tabellenfunktionen Ihrer Textverarbeitung nicht aus, wäre es schon besser, eine Tabelle mit dem entsprechenden Programm zu erstellen. Mit Hilfe von OLE ist es ein leichtes, Objekte, die mit einem anderen Programm erstellt wurden, in ein Textdokument einzufügen. Die Bearbeitungsmöglichkeiten der jeweiligen Objekte bleiben erhalten. Wir werden uns die Möglichkeiten von OLE in einem separaten Abschnitt innerhalb dieses Kapitels noch genauer anschauen.

Bild 9.8: Textdokument mit eingefügten Objekten

Serienbriefe und Textbausteine

Einige Aufgaben, die besonders in Sekretariaten immer wieder anfallen, lassen sich durch spezielle Funktionen automatisieren. Serienbrieffunktion

Die Serienbrieffunktion erleichtert die Erstellung von Rundbriefen. Ändert sich bei einem Brief nur die Anschrift und die Anrede, so können diese Angaben in einer separaten Steuerdatei abgelegt werden. Beim Ausdruck des Serienbriefs werden dann die Adresse und Anrede aus der Steuerdatei gelesen und automatisch in den Rundbrief eingefügt. Textbaustein

Mit Hilfe der Maus können bestimmte Textstellen einfach markiert und kopiert oder gelöscht und anschließend an anderen Stellen des Textes eingefügt werden. Häufig wiederkehrende Textstellen können auch als Textbaustein in einer eigenen Datei gespeichert und in andere Texte eingefügt werden. So ist es möglich, einen Brief fast nur aus Textbausteinen zusammenzusetzen, zum Beispiel für Briefkopf, Anrede, den eigentlichen Inhalt und den Briefschluss.

9.1.2 Überblick über Textverarbeitungsfunktionen Moderne Textverarbeitungsprogramme bieten inzwischen so viele Zusatzfunktionen an, die weit über das reine Erstellen eines Textes hinausgehen. Beispiele hierfür sind Funktionen, die das gemeinsame Erstellen eines Textes durch mehrere Personen erleichtern, oder das Erstellen von Dokumenten, die im Web veröffentlicht werden sollten. Zusammenfassend seien daher hier noch einmal die wichtigsten Eigenschaften von normalen Textverarbeitungsprogrammen genannt: Funktionen zur Unterstützung der Texteingabe ● ● ● ●

Positionsanzeige (Seite, Zeile und Spalte) horizontales und vertikales Blättern im Text automatischer Zeilenumbruch und Seitenumbruch Tabulatoren



Speicher für Textbausteine Silbentrennung



Sofortkorrektur



Überprüfung auf Rechtschreibfehler



Funktionen zur Verbesserung des Schriftbildes ● ● ● ● ● ● ● ● ●

Blocksatz, Zentrieren sowie rechts- und linksbündiger Flattersatz WYSIWYG (What You See Is What You Get) Unterstreichen, Fettdruck, Kursivschrift unterschiedlicher Zeilenabstand unterschiedliche Schriftbreite 12 oder 15 Zeichen pro Zoll sowie Proportionalschrift) unterschiedliche Schrifttypen und Schriftgrößen Sonderzeichen und Umrandungen Einbinden von Grafik

Textmengenorientierte Funktionen ●

Ersetzen, Umstellen, Kopieren und Löschen von Textmengen (einzelne Zeichen, Wörter, Sätze oder Absätze)



Suchen von Begriffen in einem Text Suchen und Ersetzen Bausteinkorrespondenz



Erstellen von Serienbriefen

● ●

Dokumentbezogene Funktionen ● ● ● ● ● ● ● ●

automatische Seitennummerierung automatische Erstellung von Kopf- und Fußzeilen automatische Erzeugung eines Inhaltsverzeichnisses automatische Durchnummerierung von Überschriften, Fußnoten und Abbildungen Fußnotenbehandlung Behandlung von Vorwort und Anhang Speicherungs- und Wiedergabefunktionen Archivieren



Löschen, Kopieren und Umbenennen von Dokumenten Textrecherche (Suche von Textteilen) über mehrere Dokumente



gleichzeitiges Drucken und Erfassen von Texten (Drucken im Hintergrund)



Programmierbarkeit ●

vom Benutzer definierbare Kommandos oder Funktionstasten für häufig vorkommende Befehlsfolgen



Rechenoperationen innerhalb von Textverarbeitungsdokumenten

An dieser Zusammenfassung können Sie erkennen, dass moderne Textverarbeitungssysteme über eine Vielzahl von Funktionen verfügen, um die Erstellung von Briefen wie auch langen Texten wie Büchern zu erleichtern. Nicht alle Programme haben diese Möglichkeiten. Unter DOS, also ohne grafische Oberfläche, sind die Darstellungsmöglichkeiten recht eingeschränkt. Erst unter Windows, LINUX oder OS/2 kann ein Textprogramm einen Text so anzeigen, wie er ausgedruckt aussieht. Daher sollten Sie sich vor dem Kauf eines Textverarbeitungsprogramms genau über die Möglichkeiten der einzelnen Programme informieren.

Textverarbeitungsprogramme Es ist eigentlich heutzutage kaum noch möglich, eine allgemeine Empfehlung für ein Textverarbeitungsprogramm zu geben. So gibt es mehrere »große« Textverarbeitungsprogramme, die alle die oben aufgeführten Funktionen beinhalten, z. B. Word von Microsoft, Wordperfect, Word Pro von Lotus oder StarWriter von der deutschen Firma StarDivision. Alle diese Programme werden für Windows angeboten, wobei StarWriter das einzige Programm ist, das auch unter OS/2 und UNIX läuft. Die aufgezählten Programme unterscheiden sich nur in Nuancen und liefern sich in den Tests von Fachzeitschriften häufig ein Kopf-an-Kopf-Rennen. Allerdings stellt sich auch die Frage: Brauchen Sie überhaupt die gesamte Palette der verfügbaren Textfunktionen? Zum gelegentlichen Schreiben eines Briefes oder kleineren Textes, für den Sie auf Rechtschreibhilfe, Gliederungsfunktion etc. verzichten können, bieten sich unzählige Programme an, die weder Ihren Geldbeutel noch Ihre Festplatte großartig belasten.

WordPad

Übrigens: Fast alle Betriebssysteme mit grafischer Oberfläche bieten im Lieferumfang u. a. auch ein Textprogramm. Wenn Sie sich für Windows entschieden haben, aber Textverarbeitung nur im kleinen Rahmen benötigen, schauen Sie sich mal in Ruhe das mitgelieferte Programm WordPad an. Dieses Textsystem ist für die Alltagskorrespondenz absolut ausreichend und dafür quasi umsonst.

9.1.3 Desktop Publishing DTP

Im letzten Abschnitt haben Sie gesehen, dass heutige Textverarbeitungsprogramme sehr viele Möglichkeiten bieten, Texte schnell und fehlerfrei zu schreiben und zu gestalten. Obwohl die heutigen Programme umfangreiche Gestaltungsmöglichkeiten bieten, sind ihnen doch Grenzen gesetzt, die besonders den Profi, der in Massen druckbare Dokumente zu erstellen hat, nicht zufrieden stellen. Diese Grenzen werden von Desktop-Publishing-Programmen aufgehoben. Mit Desktop Publishing, kurz DTP, können Zeitschriften, Handbücher, Prospekte usw. am Personal-Computer professionell gestaltet werden. Electronic Publishing

Desktop Publishing oder Electronic Publishing lässt sich nicht leicht aus dem Englischen übersetzen. Möglichkeiten wären: Schreibtisch-Veröffentlichung, Publizieren auf dem Schreibtisch, elektronisches Herausgeben. Doch alle diese Übersetzungen treffen nicht den Punkt. Ein Setzer oder Drucker würde DTP mit elektronischem Layout- und Umbruchprogramm umschreiben, was der Leistungsfähigkeit dieser Programme am ehesten entspricht. DTP-Programme sind nichts anderes als hochkomplexe Werkzeuge zur Gestaltung von Texten, für Leute, die wissen, wie man Texte gestaltet. Texte und Grafik

Von der Funktionsweise her sind alle DTP-Programme gleich: Texte und Grafiken werden in einem Layout gestaltet und ausgegeben. Hierzu wird eine Seite in verschiedene Bereiche aufgeteilt und diesen Bereichen Texte und Grafiken zugeordnet. Gespeichert wird dann nur die Aufteilung des Blattes, die Informationen über die Elemente, deren Inhalt und wie dieser Inhalt angezeigt werden soll. Bei Texten sind dies die zugeordneten Schriften, die Formatierungen, bei Grafiken Informationen über die angezeigte Größe und den angezeigten Ausschnitt. Die Originaldateien, die mit einem Textverarbeitungs- oder einem Grafikprogramm angefertigt wurden, bleiben dabei unberührt, Texte und Grafik werden nicht verändert.

Bild 9.9: Gestaltung einer Zeitung mit einem professionellen DTP-Programm

Die Ausgabe unterscheidet sich wesentlich von einer Textverarbeitung. Bei einem Textverarbeitungsprogramm werden die gespeicherten Informationen in der Regel Zeichen für Zeichen an den Drucker übermittelt, der diese Zeichen so ausdruckt, wie er sie in seinem eigenen Zeichensatz gespeichert hat. Bei einem DTP-Programm erfolgt die Ausgabe als Grafik, das heißt, dass die gespeicherte Publikation Punkt für Punkt ausgegeben wird. Proportionalschrift

Zum Layout gehört aber nicht nur die Aufteilung von Text und Grafik auf einer Seite, sondern auch die Gestaltung der einzelnen Schriftzeichen bzw. die Verwendung unterschiedlicher Schriften (Fonts). Im Textmodus steht Zeichen neben Zeichen, Zeile unter Zeile, und jedes Zeichen und jede Zeile beanspruchen gleichviel Platz. Proportionalschrift berücksichtigt immerhin schon, dass ein kleines »i« weniger Platz benötigt als ein großes »M« und rückt die Zeichen entsprechend ihrer richtigen Größe zusammen. Kerning

Bei der Gestaltung, wie sie mit DTP gemacht wird, gibt es sehr viel mehr zu beachten, wie zum Beispiel das Kerning. Kerning bezeichnet den Fall, dass ein Buchstabe einen anderen Buchstaben unterschneidet. Nehmen wir als Beispiel ein großes »T«. Bei manchen Schriftarten ist der obere Balken recht weit, so weit, dass ohne weiteres ein kleingeschriebenes Zeichen darunter Platz findet. Wird Kerning nicht bei einer großen Schrift angewendet, deren Buchstaben eng zusammengestellt sind, dann entsteht eine hässliche Lücke. Serifen

DTP-Programme verfügen in der Regel über erheblich mehr Schriftarten als Textverarbeitungsprogramme. Neben dem Problem, die richtige auszuwählen, wird man bei der Arbeit mit DTP auch mit Grundbegriffen des Setzens konfrontiert. Wer diese Auseinandersetzung scheut, wird dies an der Qualität seiner Werke bald feststellen. Ein Beispiel sind Serifen. Das sind kleine Haken an den Enden einer Schrift. Die Haken sind keine Schnörkel, sondern Begrenzungen, die es dem Auge erleichtern, einem Text zu folgen. Wenn Sie sich diesen Text aus einigem Abstand anschauen, erkennen Sie, dass die Textzeilen oben und unten fast als Striche abschließen. Wenn Sie sich dagegen die Überschriften anschauen, stellen Sie fest, dass hier relativ große Lücken zwischen den Buchstaben zu erkennen sind. Die Schriftart Frutiger ist zum Beispiel eine serifenlose Schrift, die Buchstaben enden glatt. Aus diesem Grund sollte diese Schriftart nur für Überschriften oder für Markierungen eingesetzt werden, denn sie bietet dem Auge keinen Halt. Werden Texte in Frutiger gedruckt, so sind sie schwerer lesbar. Durchschuss

Ein weiteres Problem ist der Durchschuss. Dieser Begriff bezeichnet den Abstand zweier Zeilen zueinander. Wenn Sie sich über die seltsamen Begriffe wundern, müssen Sie bedenken, dass DTP aus dem Setzer-Bereich kommt. Das Wort Durchschuss stammt aus der Zeit des Bleisatzes, in der die Zeilen von Hand ausgerichtet wurden. Um die Lettern zu fixieren, wurde ein dünner Bleistreifen zwischen die Zeilen durchgeschossen. Zeilenabstand

Bei DTP kann der Zeilenabstand frei variieren und muss deshalb dem Schriftsatz entsprechend festgelegt werden. Bei einigen Schriften kann es beispielsweise zu Überlappungen kommen, wenn ein kleines »g« über einem großen »G« in der darunterstehenden Zeile steht. Stammseiten

Bei der Arbeit mit DTP sollte man sich an einige Regeln halten. Zuerst muss ein sauberes Layout erstellt werden. Ein erster Entwurf sollte auf Papier vorskizziert werden und bereits die wesentlichen Elemente enthalten: Text- und Grafikbereiche, Überschriften und Spalteneinteilung. Dieser Entwurf wird anschließend am Bildschirm nachvollzogen, und zwar noch ohne Text und Bilder. Das DTP-Programm Pagemaker bietet hierzu Stammseiten an. Das sind Seiten, die nur die Gestaltung, aber keine Texte aufnehmen. Danach werden die eigentlichen Informationen in die Stammseiten eingelesen und formatiert. Beim Einlesen langer Texte werden die Stammseiten auf alle neuen Seiten übertragen.

9.1.4 Maschinelle Zeichenerkennung (OCR) Scannen

Textverarbeitung ist heutzutage nicht mehr beschränkt auf Texte, die über die Tastatur eingegeben werden. In vielen Fällen ist es wünschenswert, Texte zur Verfügung zu haben, die zunächst nur auf dem Papier vorliegen, seien es Briefe, Prospekte oder Zeitungsausschnitte. Aus all diesen Vorlagen können neue Texte am PC zusammengestellt werden. Doch dazu muss man diese Schriftstücke erst vom Papier in den PC übertragen. Eine Möglichkeit ist, die Vorlagen einzuscannen und anschließend eine maschinelle Schrifterkennung durchzuführen. Erste Ansätze

Maschinelle Zeichenerkennung ist ein Thema, das bereits seit einigen Jahrzehnten eine große Anzahl von Entwicklern in den Labors beschäftigt. Zu den Pionieren auf diesem Gebiet gehört G. Tauschek, der 1929 das Patent für seine »Vorrichtung zur Steuerung von Maschinen durch strahlende Energie« erhielt. Eine Lampe beleuchtete die zu erkennende Ziffer, die durch eine Linse auf eine drehbar gelagerte Trommel mit Negativen der zehn Ziffern abgebildet wurde. In der Trommel befand sich eine Fotodiode. Sobald sich die gelesene Ziffer mit einem Negativ deckte, wurde eine merkliche Änderung des Fotostroms registriert, und die Ziffer war erkannt. OCR-Schrift

Erste wirkliche Fortschritte wurden in den sechziger Jahren gemacht, als 1966 in den USA die »OCR-A-Schrift« (die erste maschinenlesbare Schrift) standardisiert wurde. Kurze Zeit später entstand in Europa die »OCR-B-Schrift«, die sich schon wesentlich mehr als ihr Vorgänger am Zeichensatz der Schreibmaschine orientierte. OCR heißt »Optical Character Recognition« oder zu deutsch optische Zeichenerkennung. Aus diesem Grunde spricht man eigentlich kaum noch von maschineller Schrifterkennung, sondern nur noch von OCR. Belegleser

Hauptanwender dieser aufwändigen Technologie waren besonders die Banken, die auch die Weiterentwicklung in besonderem Maße forcierten. Lesesysteme wurden besonders in den Abrechnungszentralen eingesetzt, wo unzählige Belege mit Hilfe von OCR automatisch erfasst werden konnten. Die stark gesunkenen Hardwarepreise wie auch die gestiegene Leistungsfähigkeit der Software verhelfen der maschinellen Schrifterkennung zu steigender Beliebtheit. Heutzutage kann bereits an einem Personal Computer effektiv optische Zeichenerkennung durchgeführt werden. Mit Hilfe eines Scanners werden die Vorlagen abgetastet und in Form von elektrischen Impulsen eine digitalisierte Ablichtung im Computer abgespeichert. Die Software interpretiert die übermittelten Bitmuster und übersetzt sie in weiterverarbeitbare Zeichen (in der Regel ASCII-Code). Auf diese Weise können selbsterstellte Dokumente wie zum Beispiel Briefe oder sonstige Belege verarbeitet werden, wie auch Buchseiten oder Zeitungssauschnitte. All die Informationen, die uns täglich in schriftlicher Form erreichen, können mit dem Computer erfasst, abgelegt und mit Hilfe von speziellen Datenbankprogrammen schnell wieder gefunden und verfügbar gemacht werden. Elektronische Archivierung

Besondere Bedeutung erlangt OCR durch die elektronische Archivierung Ihrer Dokumente. Ziel dabei ist es, die herkömmlichen Archive mit unzähligen Regalen voll von Ordnern durch elektronische Archive zu ersetzen, die natürlich viel weniger Platz benötigen und einen schnelleren Zugriff auf die archivierten Informationen erlauben. Neue Dokumente elektronisch zu archivieren, stellt kein Problem, aber was ist mit alten Texten, die noch mit Schreibmaschine erstellt wurden? Diese Dokumente können zunächst eingescannt und anschließend von einem OCR-Programm überarbeitet werden. Die übersetzten Texte können nun elektronisch Platz sparend aufbewahrt werden. Zeichenerkennungs-Verfahren Segmentation Logic

Bevor ein eingescanntes Dokument hinsichtlich der enthaltenen Zeichen analysiert werden kann, findet eine Bildanalyse statt. Zum besseren Verständnis kann man sich vorstellen, dass eine Textseite ein komplexes Bild mit sehr unterschiedlichem Aufbau ist. Dokumente können ein- oder mehrspaltige Textblöcke, Überschriften in unterschiedlicher Größe, Tabellen mit Zahlen und Graphiken enthalten. Die Bildanalye setzt an der eingescannten Vorlage an, die im Rechner in Form eines Rasterbildes, bestehend aus der zweiwertigen Information »schwarz/weißer Punkt«, abgelegt ist. Diese Binär-Rasterbilder werden im Wesentlichen durch die Analyse der Zusammenhangsgebiete (weiße oder schwarze zusammenhängende Flächen) auf definierbare Segmente zurückgeführt. Die Aufgabe des Erkennens der Bildbestandteile übernimmt die »Segmentation Logic« der OCR-Software. Auf diese Weise wird versucht, das komplexe Muster in sinnvolle Einzelteile zu zerlegen. Bildanalyse

Bereits hier können Unterschiede zwischen OCR-Programmen zu Tage treten. Während einzelne Produkte erwarten, dass der Benutzer das Programm bei der Bildanalyse unterstützt, können leistungsfähige OCR-Anwendungen die für die Zeichenerkennung nicht benötigten Bestandteile selbstständig eliminieren und auch mehrspaltigen Text richtig verarbeiten. Im Anschluss an die Segmentierung der Bildbestandteile kann die eigentliche Erkennungslogik ihre Arbeit aufnehmen. Hierbei werden die binärcodierten Zeichenraster in den eigentlichen Computercode (in der Regel in den ASCII-Zeichensatz) übersetzt. Für das Erkennen der Zeichen wird zwischen zwei unterschiedlichen Verfahren unterschieden: ● ●

Feature Recognition Pattern Matching

Feature Recognition:. Dieses Verfahren lehnt sich an Ergebnisse psychologischer Forschungen zum Thema »menschliche Musterkennung« an. Was wir von OCR verlangen, ist zunächst nichts anderes als das, was wir täglich beim Lesen der Zeitung oder sonstiger Texte machen. Das durch die Augenlinse aufgenommene Abbild einer Textseite wird auf der Netzhaut abgebildet und führt zu Erregungen einzelner Sehzellen. Diese geben über den Sehnerv Impulse weiter an das Sehzentrum im Gehirn. Das im Gehirn repräsentierte Zeichen wird nach bestimmten Merkmalen untersucht: ● ●

vertikale Linien horizontale Linien



schräge Linien rechte Winkel



spitze Winkel



● ●

nicht-unterbrochene Bögen unterbrochene Bögen

Jedes alphanumerische Zeichen entspricht einer bestimmten Kombination dieser Merkmale. So finden sich zum Beispiel in einem großen »H« zwei vertikale und eine horizontale Linie, der Buchstabe »Q« ist durch eine nicht-unterbrochene Linie (Kreis) und eine schräge Linie eindeutig charakterisiert. Topologische Analyse

Bei OCR-Software werden die gescannten Zeichen durch die topologische Analyse auf diese Merkmale hin untersucht, mit den hinterlegten Merkmalen des Zeichensatzes verglichen und, wenn möglich, einer Zeichenklasse zugewiesen. Ein angenehmer Vorteil dieses Verfahrens ist, dass die Musterkennung unabhängig von der Größe der Schriftzeichen und von der Schriftart (Font) ist. Da die Merkmalsanalyse nach einem festverankerten Algorithmus funktioniert, sind OCR-Programme, die nach diesem Verfahren arbeiten, in der Regel nicht lernfähig (oder nicht lernbedürftig). Der Benutzer muss dem System nicht erst beibringen, Dokumente mit der einen oder anderen Schriftart zu übersetzen. Dadurch kann auf viele Stunden mühsamer Lehrtätigkeit verzichtet werden. Andererseits ist das System nicht in der Lage, nicht erfasste Sonderzeichen oder ungewöhnliche Schriften zu erkennen. Weiterhin verzeiht es dem Benutzer nicht, wenn die Vorlage nicht genau eingelegt und etwas schräg eingescannt wird. Anders als der Mensch, der auch ein um 90° gedrehtes [H] noch immer als solches erkennt, müssen viele Systeme schon bei mehr als 2-5° Drehung der Vorlage passen. Pattern Matching:. Beim Pattern Matching werden die Bitmuster der eingelesenen Zeichen mit in einer Tabelle gespeicherten Bitmustern verglichen. Deckt sich ein eingescanntes Zeichen mit dem Muster, gilt das Zeichen als erkannt und wird als ASCII-Zeichen abgelegt. Im Prinzip ist dies ein einfaches Verfahren ohne schwierige Algorithmen. Problematisch und aufwändig wird dieses Verfahren jedoch aufgrund der Tatsache, dass es eine große Zahl unterschiedlicher Schriftarten (auch als Font bezeichnet) in einer Reihe von Schriftgrößen gibt. Um eine größtmögliche Deckung des Musters mit den eingelesenen Buchstaben zu erzielen, müssen für alle in einem bestimmten Text vorkommenden Schriftarten eigene Tabellen mit Bitmustern angelegt und damit erlernt werden. Um unabhängig von der Schriftgröße zu sein, werden die eingelesenen Zeichen auf eine einheitliche Größe skaliert. Weiterhin werden sie zur Verbesserung der Erkennungsrate geglättet und begradigt. Lernfähige Software

In der Regel wird ein OCR-Programm, das nach diesem Verfahren arbeitet, bereits mit Bitmustern für eine ganze Reihe von Schriftarten geliefert. Wenn das System einen Font nicht kennt, muss es ihn lernen. Die Hersteller der Pattern-Matching-OCR verkaufen diesen Vorteil mit dem Schlagwort »lernfähige Software«. Allerdings könnte man diese Software auch als lernbedürftig bezeichnen. Den Benutzer stellt sie zumindest am Anfang vor eine arbeitsreiche Aufgabe. Wird ein Text in einer dem System unbekannten Schriftart eingelesen, muss die neue Schriftart zunächst trainiert und abgespeichert werden. Dabei markiert das Programm jedes unbekannte Zeichen und fordert den Benutzer auf, das entsprechende Zeichen über die Tastatur einzugeben. Das System sollte jedes Zeichen mindestens einmal sehen, pro Font können das aber bis zu 150 Zeichen einschließlich Ligaturen sein (Ligaturen sind eng zusammenstehende Buchstaben, die das Programm als einen Buchstaben interpretiert, z. B. »ll« oder »lt«). Auf diese Weise kann es vorkommen, dass mehr als zehn dichtbeschriebene DIN-A4-Seiten nicht ausreichen, das System vollständig zu trainieren. Doch auch wenn das System einen Font kennt oder ihn gelernt hat sind damit noch nicht alle Probleme gelöst. Es gibt nämlich nicht nur sehr viele Fonts, sondern auch Unterschiede innerhalb der Fonts. So können unterschiedliche Schreibmaschinen oder Satzmaschinen besonders die lernfähige OCR-Software erneut in Verwirrung bringen. Einziger Ausweg ist dann ein erneuter Trainingsdurchgang. Trotz all der Nachteile dieses Erkennungsverfahrens ist es recht beliebt, da es aufgrund der Einfachheit ein sehr schnell arbeitendes Verfahren ist. Es eignet sich besonders für langsamere Rechner oder für die Verarbeitung von großen Mengen gleichförmiger Texte, zum Beispiel für die Übersetzung von Telefonbüchern.

9.2 Datenbanken Datenbanken dienen dazu, Daten zu speichern, zu organisieren, mit ihnen zu rechnen oder sie miteinander zu verbinden. Daten können in Form von Worten, Nummern, Zeitdaten oder ganzen Textteilen (z. B. Titel von Büchern oder Zeitungsartikeln) eingegeben werden. Bis vor wenigen Jahren hat man für den gleichen Zweck Karteikarten angelegt, die in Karteikästen nach bestimmten Kriterien geordnet wurden. Eine einzelne Karte einer Personalkartei hätte zum Beispiel so aussehen können:

Bild 9.10: Organisation von Informationen auf traditionellen Karteikarten

Datenbank

Jede einzelne Eintragung auf dieser Karteikarte in die Kategorien Nachname, Vorname oder Gehalt wird als Datenfeld oder Feld bezeichnet. Alle Datenfelder auf der Karteikarte entsprechen einem Datensatz. Alle Datensätze oder alle Karteikarten eines Karteikastens bilden eine Datendatei. Eine Datenbank besteht aus mindestens einer Datendatei. Datentyp

Bei EDV-Datenbanken müssen vor dem Anlegen einer Datendatei die Datensätze beschrieben werden. Es muss einmalig angegeben werden, welche Felder ein Datensatz enthalten soll und wie diese Felder beschaffen sind. Bei der Beschreibung der Felder muss entschieden werden, wie lang die Einträge maximal sein werden und welchem Datentyp sie angehören. In der Regel werden folgende Datentypen unterschieden: ●

● ● ●

alphanumerisch: Alphanumerische Werte können Zahlenzeichen enthalten (von 0 bis 9), Klein- und Großbuchstaben sowie Sonderzeichen (+, -, %, $, usw.). Im Gegensatz zu den numerischen Werten kann mit alphanumerischen Werten nicht gerechnet werden (gilt für die Zahlen 0 bis 9). numerisch: numerische Werte setzen sich zusammen aus den Zahlen 0 bis 9 sowie einem Dezimalkomma oder -punkt (Achtung: Bei englisch-sprachigen Programmen wird ein Dezimalpunkt statt -komma verwendet). Datum: Die meisten Programme erlauben Datumsfelder, in die mit 8 Stellen das entsprechende Datum eingesetzt werden kann (zum Beispiel 30.04.88). Bild und Text: Neben den klassischen Datentypen verwalten moderne Datenbanksysteme auch Bildinformationen und lange Texte. So könnten Sie zum Beispiel neben den Personalinformationen auf der Karteikarte auch ein Bild des Angestellten in der Datenbank speichern. In einem Textfeld, das Texte mit mehr als 256 Zeichen aufnehmen kann, könnten ergänzend die kompletten Bewerbungsunterlagen, sofern sie als elektronisch erfasster Text vorliegen, abgelegt werden.

Schauen wir uns nun die Beschreibung eines Datensatzes am Beispiel der Karteikarte an: Feldbezeichnung

Länge in Dezimalstellen

Datentyp

Personal-Nr.

4

alphanumerisch

Nachname

20

alphanumerisch

Vorname

20

alphanumerisch

Beruf

20

alphanumerisch

Vorgesetzter

4

alphanumerisch

Einst.-Datum

8

Datum

Abteilung

10

alphanumerisch

Gehalt

5.2

numerisch

Tabelle 9.1: Beschreibung eines Datensatzes

9.2.1 Datenbanksysteme DBMS

Ein Datenbanksystem setzt sich zusammen aus dem Datenbankverwaltungssystem (engl.: Database Management System, kurz DBMS) und der Datenbank. Das Datenbankverwaltungssystem ist ein Programmsystem zum Aufbau, zur Kontrolle und zur Manipulation einer Datenbank, die die eigentlichen Daten enthält. Das Datenbankverwaltungssystem befreit den Benutzer von der Aufgabe, sich um die Organisation der Daten zu kümmern, und erleichtert die Abfrage bestimmter Daten. Datenmodelle

In einem Datenbanksystem werden aber nicht nur die reinen Daten gespeichert, sondern auch Beziehungen zwischen den Daten untereinander. Die Beziehungen der Daten sollen den Beziehungen der realen Objekte entsprechen, die durch die gespeicherten Daten dargestellt werden. Zur Beschreibung dieser Beziehungen werden Datenmodelle benutzt. Drei Datenmodelle sind durch ihre Verbreitung am bedeutendsten:



das hierarchische Datenbank-Modell das Netzwerkmodell



das relationale Datenbank-Modell



Das hierarchische Modell Eltern-Kind-Beziehungen

In Datenbanksystemen, die nach dem hierarchischen Modell organisiert sind, bestehen zwischen den Daten Beziehungen, die man als Eltern-Kind-Beziehungen beschreiben kann. Ein Kind-Objekt lässt sich immer einem und nur einem Elternobjekt zuordnen. Hierarchische Beziehungen sind sehr häufig im Alltagsleben zu finden. So hat ein Arzt mehrere Patienten, eine Firma mehrere Abteilungen, jede Abteilung mehrere Mitarbeiter.

Bild 9.11: Hierarchisches Modell

In der Realität lassen sich jedoch nicht alle Beziehungen mit einem hierarchischen Modell beschreiben. Aus diesem Grund wurde das Netzwerkmodell entwickelt. Das Netzwerkmodell

Das Netzwerkmodell ist dem hierarchischen Modell ähnlich mit der Ausnahme, dass ein Kind-Objekt Beziehungen zu mehr als einem Eltern-Objekt haben kann.

Bild 9.12: Netzwerkmodell

Das relationale Modell Relation

Das relationale Modell ist das zurzeit verbreitetste Datenmodell. Es wurde 1970 bei IBM entwickelt. Es sollte einfacher im Umgang sein als die beiden vorhergehenden Modelle. Das relationale Modell organisiert die Daten in Tabellen mit einer festen Anzahl von Spalten und einer variablen Anzahl von Reihen. Eine Tabelle wird Relation genannt, jede Spalte einer Relation Attribut und jede Reihe Tupel. Jeder Kreuzungspunkt von Attribut und Tupel in einer Tabelle entspricht einem Datenfeld. Die Reihen der Tabelle entsprechen den Datensätzen, die wiederum aus mehreren Datenfeldern bestehen. Auf diese Weise lassen sich mehrere Datensätze gleichzeitig in einer Tabelle übersichtlich darstellen. Die folgende Abbildung zeigt die Relation PERSONAL. Die acht Spalten dieser Personal-Tabelle geben jeweils ganz bestimmte Informationen wieder, die Personal-Nummer, den Namen und den Beruf der Mitarbeiter, die Personal-Nummer der Vorgesetzten, das Einstellungsdatum, Gehalt, Provision und die Nummer der Abteilung, in der die jeweiligen Mitarbeiter angestellt sind.

Bild 9.13: Relation PERSONAL

Beziehungen zwischen Tabellen

Innerhalb einer Datenbank kann man mehrere Tabellen abspeichern. Die Informationen einer Tabelle können mit denen anderer Tabellen in Beziehung stehen. So ist in der Tabelle PERSONAL jedem Mitarbeiter eine Abteilungsnummer zugeordnet, die sich auf die Abteilungsnummer in der Tabelle ABTEILUNGEN bezieht. Beide Tabellen enthalten eine gemeinsame Information, nämlich die Abteilungsnummer.

Bild 9.14: Relation ABTEILUNGEN

Diese Information erlaubt es, die Spalten der beiden Tabellen miteinander zu verbinden. In der folgenden Abbildung sehen Sie das Ergebnis einer Abfrage, in der die wichtigsten Personaldaten um den Einsatzort ergänzt wurden.

Bild 9.15: Zusammengesetzte Tabelle mit Informationen aus PERSONAL und ABTEILUNG

Auf diese Weise kann eine Vielzahl von verschiedenen Informationen in übersichtlichen, leicht handhabbaren Einheiten abgelegt werden. Die Mitarbeiterdaten werden getrennt von den Informationen über die Abteilungen gespeichert und lassen sich trotzdem bei Bedarf in einer Tabelle gemeinsam darstellen. Relationale Operationen

Die meisten relationalen Datenbanksysteme erlauben so genannte relationale Operationen. Mit ihnen lassen sich die Tabellen so verändern, dass sie die Fragen des Anwenders beantworten können. Folgende relationale Operationen werden unterschieden: ● ● ●

Select (auswählen), Project (projizieren) Join (zusammenfügen).

Bild 9.16: Mit SQL-Operationen erstellte Tabellen

SELECT

Mit der Operation Select können ganz bestimmte Zeilen oder Tupel einer Tabelle selektiert und zu einer neuen Tabelle zusammengefasst werden.

PROJECT

Mit Project werden bestimmte Spalten einer Tabelle zu einer neuen zusammengefasst. JOIN

Join kann zwei Tabellen miteinander verbinden, wenn sie über gemeinsame Attribute verfügen. SQL

Die meisten Datenbankmanagementsysteme bieten eine Abfragesprache, die es dem Benutzer ermöglicht, seine Fragen an das System zu stellen. Die Abfragesprache mit der größten Verbreitung ist SQL. Bild 9.16 stellt diese drei relationalen Operationen gemeinsam dar. Die Abfragesprache SQL

SQL ist eine Datenbank-Abfrage-Sprache, die von IBM für ein eigenes Datenbank-Managementsystem entwickelt worden ist. Inzwischen ist sie zur Standardsprache für relationale Datenbank-Managementsysteme geworden. Ihr Ursprung liegt in der Datenbanksprache SEQUEL, die in SQL umgetauft wurde. SQL steht für Structured Query Language (strukturierte Abfragesprache) und wird noch immer in Anlehnung an den alten Namen »siekwel« ausgesprochen. Inzwischen wird sie auf vielen verschiedenen Rechnertypen verwendet, durch MS-Access und dBase auch auf dem PC. Befehlskategorien

Die Befehle dieser Abfragesprache lassen sich in vier Kategorien einteilen: DDL



DDL: Datendefinitionssprache (engl.: data definition language). Diese Befehle dienen dazu, Tabellen zu erstellen, sie zu löschen, einzelne Spalten zu verändern oder zu löschen.



DML: Datenmanipulationssprache (engl.: data manipulation language). Mit diesen Befehlen lassen sich Daten in bestehenden Tabellen verändern. So können einzelne Werte verändert, gelöscht oder neue Zeilen in eine Tabelle einfügt werden.

DML

QUERIES



QUERIES: Hierbei handelt es sich um Befehle, um existierende Daten abzufragen, wobei die Fragen nach den Bedürfnissen des Anwenders formuliert werden können, wenn ganz bestimmte Daten benötigt werden.



DCL: Datenkontrollsprache (engl.: data control language). Diese Befehle erlauben es dem Anwender, nur ganz bestimmten Benutzern Zugriff zu den Daten zu erlauben, z. B. durch die Zuweisung von Passwörtern.

DCL

Create Table

Ich möchte Ihnen nun kurz zeigen, wie mit SQL eine Tabelle angelegt wird. Hierzu stellt SQL den Befehl Create Table bereit. Damit wird das Datenbankverwaltungssystem aufgefordert, eine neue Tabelle anzulegen. Der Befehl Create Table muss weiterhin die Namen der Felder und deren Datentyp sowie einen Namen für die Tabelle enthalten. Der vollständige Befehl zum Erstellen einer Tabelle für Personaldaten könnte folgendermaßen aussehen: 1 2 3 4 5 6 7 8 9

CREATE TABLE PERSONAL (P_NR NUMBER(4), NAME CHAR(10), BERUF CHAR(10), A_NR NUMBER(4), EINSTELLG DATE, GEHALT NUMBER(7,2), PROVISION NUMBER(7,2), ABT_NR NUMBER(2))

Zur besseren Übersicht sind die einzelnen Zeilen in diesem Beispiel nummeriert. Das hat keinen Einfluss auf die Erstellung der Datenbank. In den Zeilen 2 bis 9 sind alle Felder der Tabelle PERSONAL beschrieben. Zeile 7 beschreibt das Feld GEHALT, das nur numerische Werte enthalten soll, mit maximal 7 Stellen, 2 davon als Dezimalstellen. Zur Eingabe von Werten in die Tabelle stellt SQL den Insert-Befehl zur Verfügung: 1 INSERT INTO PERSONAL VALUES 2 (7369,'SCHMIDT','SEKRETÄRIN',7902,'17.12.80',1800.00,NULL,20) Der Befehl gibt zunächst an, in welche Tabelle Werte eingetragen werden sollen. Danach werden die Werte einfach aufgezählt, und zwar in genau der Reihenfolge, wie die Felder, in die sie hineingehören, vorher beschrieben wurden. Auf diese Weise können nun alle Werte in die Tabelle eingetragen werden. Abschließend möchte ich Ihnen noch zeigen, wie man mit SQL Daten abfragen kann. Dazu zunächst ein einfaches Beispiel: Sie kennen bereits den Aufbau der Tabelle PERSONAL. Angenommen, Sie möchten nun wissen, welche Mitarbeiter in unserem Betrieb beschäftigt sind, und welchen Beruf sie haben. Zur Auswahl von Daten aus einer Tabelle gibt es in SQL den Befehl Select. Mit diesem Kommando kann angegeben werden, welche Felder aus welcher Tabelle angezeigt werden sollen. Benötigen Sie nicht alle Zeilen der Tabelle, können Sie mit dem Where-Kommando eine Bedingung beschreiben, um nur ganz bestimmte Datensätze aus der Tabelle heraussuchen zu lassen. Im folgenden Beispiel sollen nur Name und Beruf der Mitarbeiter angezeigt werden, die in der Abteilung 10 beschäftigt sind. 1 SELECT NAME, BERUF 2 FROM PERSONAL 3 WHERE ABT_NR = 10 NAME BERUF -------------- ---------GALIP ABT-LEITER KÖNIG DIREKTOR MÜLLER SEKRETÄRIN 3 records selected In unserem Beispiel wurden 3 Datensätze aus dem Datenbestand herausgesucht, die die Bedingung erfüllen. Mit dem letzten Beispiel möchte ich Ihnen zeigen, wie einfach es mit Hilfe von SQL ist, Informationen aus zwei verschiedenen Tabellen zu verbinden (Join-Operation). Nehmen wir hierzu die Tabellen PERSONAL und ABTEILUNG. Im letzten Beispiel haben wir nach Name und Beruf der Mitarbeiter aus der Abteilung 10 gefragt. Nun fragen wir nach dem Namen und dem Beschäftigungsort der Mitarbeiter aus Abteilung 10. Der Name der Mitarbeiter findet sich in der Tabelle PERSONAL, der Beschäftigungsort in der Tabelle ABTEILUNG. Beide Tabellen haben die gemeinsame Spalte ABT_NR, über die sie miteinander verbunden werden können. Die Abfrage erfolgt wie im letzten Beispiel mit dem Select-Befehl. In dem Kommando From müssen jetzt beide Tabellen aufgeführt werden. Im Where-Kommando wird angegeben, dass beide Tabellen die Spalte ABT_NR gemeinsam haben. 1 2 3 4

SELECT NAME, ORT FROM PERSONAL, ABTEILUNG WHERE PERSONAL.ABT_NR = ABTEILUNG.ABT_NR AND PERSONAL.ABT_NR = 10

NAME ORT -------------- ---------GALIP FRANKFURT KÖNIG FRANKFURT MÜLLER FRANKFURT 3 records selected Wie im letzten Beispiel wurden auch hier 3 Datensätze selektiert. PC-Datenbanksysteme Query by Example

Wenn Sie sich auf den letzten Seiten etwas erschrocken und gedacht haben, dass Sie niemals mit einem Datenbanksystem zurechtkommen würden, kann ich Sie beruhigen. Moderne Datenbanksysteme sind so ausgerichtet, dass Abfragen in SQL fast nur noch den Profis vorbehalten bleiben. Für den Endanwender gibt es dagegen Werkzeuge, Datenbankabfragen quasi intuitiv zu erstellen. Die hierfür verwendete Technik wird häufig Query by Example genannt und sieht in etwa folgendermaßen aus:

Bild 9.17: Erstellen einer Abfrage mit Hilfe von Query by Example

Erstellen einer Abfrage

● ● ●

Als erstes müssen Sie aus einer Liste bestimmen, aus welchen Tabellen Felder angezeigt werden sollen. Falls zwischen den Tabellen bereits eine Beziehung definiert wurde, wird sie sogleich grafisch dargestellt. Als nächstes müssen nur noch die Felder für die anzuzeigenden Spalten definiert werden. Bei MS-Access genügt es, ein Feld aus der Tabellenliste mit der Maus anzuklicken und in die darunterliegende Tabelle zu ziehen.



Möchten Sie nur bestimmte Datensätze anzeigen lassen, genügt es, unterhalb des betreffenden Feldes ein Kriterium einzugeben, also beispielsweise bei Abteilungs-Nr. eine 10.



Für die Anzeige des Ergebnisses genügt nur noch ein Knopfdruck.

Die selektierten Daten werden nun in Form einer Tabelle angezeigt. Arbeitet man häufig mit Tabellen und Abfragen, kann man die Anzeige mit Hilfe von Formularen und Berichten übersichtlicher gestalten. Formulare sind im Allgemeinen für die Anzeige der Ergebnisse am Bildschirm, während Berichte für den Ausdruck der selektierten Daten geeignet sind.

Bild 9.18: Access-Formular für die Anzeige von Daten

Fast alle Datenbanksysteme verfügen, neben der eigentlichen Abfragesprache, über eine Programmiersprache, mit der sich die Verarbeitung steuern lässt. So können mehrere Formulare miteinander verbunden werden, für die Eingabe von Daten, für die Ausgabe oder für das Drucken von Berichten. Für die Auswahl der einzelnen Funktionen wird meist ein Hauptformular erstellt, aus dem die Funktionen über ein Menü oder Schaltknöpfe ausgelöst werden können.

PC-Datenbanksysteme Bereits seit vielen Jahren gehören Datenbanksysteme mit zu den wichtigsten Anwendungen für PCs. Allerdings waren die typischen SQL-Datenbanken zu aufwändig für den damals noch recht spartanisch ausgerüsteteten Tischrechner. Daher entwickelten sich Datenbanksysteme, die etwas einfacher aufgebaut waren und mit einer einfachen Abfragesprache arbeiteten. Das klassische PC-Datenbanksystem ist dBASE; allerdings versäumte es der Hersteller Borland lange Zeit, eine Windows-Version dieses bis dahin verbreitetsten Datenbanksystems anzubieten. In diese Lücke sprang Microsoft mit MS-Access. Obwohl es dBASE inzwischen auch als Windows-Programm gibt, hat sich MS-Access sehr stark am Markt etabliert. Neben seinen leistungsfähigen Datenbankfunktionen bietet es zahlreiche Hilfsprogramme, so genannte Assistenten, mit denen es auch dem Laien gelingt, in kurzer Zeit Datenbankanwendungen zu erstellen.

9.3 Tabellenkalkulation Kalkulationsprogramme gehörten mit zu den ersten Programmen für Mikrocomputer. Ihre universelle Verwendbarkeit und ihre Vorteile beim praktischen Einsatz haben den Siegeszug des Personal-Computers erst ermöglicht, da diese Programme die Leistungsfähigkeit eines modernen Computers direkt am Arbeitsplatz nutzbar machen. Der Begriff Tabellenkalkulation bezeichnet eine Gruppe von Computerprogrammen, die für unterschiedlichste rechnerische Aufgaben eingesetzt werden. Wiederkehrende Berechnungen

Man kann mit ihnen nicht nur kalkulieren, wie es der Name sagt, sondern auch alle anderen Berechnungen durchführen, für die man sonst einen Taschenrechner benötigt, mit dem Vorteil einer sehr großen Zeitersparnis bei wiederkehrenden Aufgaben. Stellen Sie sich folgende Aufgabe vor: Sie sind Geschäftsführer einer kleinen Firma und möchten einen Kostenplan mit den Ausgaben für Material und Personal für das erste Quartal eines Jahres festhalten. Zu diesem Zweck sind eine ganze Reihe von Berechnungen durchzuführen. Der Kostenplan steht, doch unerwartet ändern sich irgendwelche Werte, jetzt müssen die ganzen Berechnungen mit den neuen Werten wiederholt werden. Mit Papier, Bleistift und Taschenrechner ist dies eine mühevolle Arbeit. Ein Tabellenkalkulationsprogramm befreit Sie von der stupiden und fehleranfälligen Arbeit, und Sie bekommen in Sekundenschnelle die gewünschten Informationen. Zeilen und Spalten

Der Grundgedanke bei allen Tabellenkalkulationsprogrammen ist, dass man sehr oft tabellenartige Zahlenaufstellungen zu bearbeiten hat. Dem Anwender eines solchen Programmes wird deshalb ein Arbeitsblatt angeboten, das horizontal und vertikal in Zeilen bzw. Spalten unterteilt ist. Die Schnittstellen von Zeilen und Spalten ergeben Felder, in die Zahlenwerte, Rechenanweisungen an den Computer und erklärender Text eingetragen und in denen die Ergebnisse angezeigt werden. Die Anwendungsmöglichkeiten dieser Programme sind kaum beschränkt. Besonders viel Komfort wird demjenigen geboten, der oft ähnliche Berechnungen durchzuführen hat. Durch die Speicherungsmöglichkeit auf Disketten oder Festplatte können für wiederkehrende Aufgaben Basismodelle angelegt, abgespeichert und bei Bedarf wieder neu benutzt werden. So können fundierte Entscheidungen bei geringem Zeitaufwand getroffen werden.

9.3.1 Aufbau eines Arbeitsblattes Durch die bereits erwähnte horizontale und vertikale Teilung eines Arbeitsblattes ergeben sich Felder, die durch ein Koordinatensystem eindeutig bezeichnet werden können. Dies wird ermöglicht durch die Identifikation jeder Zeile und jeder Spalte mit Hilfe von Zahlen und teilweise auch Buchstaben. Die Zellen sind von 1 ausgehend bis zur maximalen Zahl des jeweiligen Programms numeriert. Die Zeilen werden bei den meisten Programmen mit Zahlen, die Spalten mit Buchstaben identifiziert. Die erste Spalte heißt demnach A, dann geht es weiter bis Z, es folgt AA bis AZ, BA bis BZ usw. Die Kombination von Spalten- und Zeilenbezeichnung ergibt die Feldkoordinate. Das linke obere Feld eines Arbeitsblattes hat also die Bezeichnung A1.

Bild 9.19: Arbeitsblatt

Größe der Arbeitsblätter

Die Kapazität der Arbeitsblätter ist bei den einzelnen Programmen recht unterschiedlich. Die meisten Programme bieten ca. 10.000 bis 16.000 Zeilen und 256 Spalten an, mehr als genug für die meisten Anwendungen. Darüber hinaus können in der Regel mehrere Arbeitsblätter gleichzeitig bearbeitet werden. Daten lassen sich damit nicht nur über Zeilen und Spalten, sondern auch über Arbeitsblätter hinweg berechnen. Eine Beispielanwendung könnte der Haushaltsberechnung pro Monat dienen mit einem Arbeitsblatt pro Monat. Der Jahresabschluss wird auf einem zusätzlichen Blatt mit den Daten der letzten zwölf Monate berechnet. Doch auch andere Programme bieten ähnliche Möglichkeiten und Funktionen. Informationszeilen

Von den vielen tausend Feldern, die ein Arbeitsblatt umfasst, sieht der Benutzer auf dem Bildschirm immer nur einen kleinen Teil. Dieser Ausschnitt umfasst bei Personal-Computern in der Regel etwa 35 Zeilen mit 10 Spalten (je nach gewählter Bildschirmauflösung). Am oberen Rand befinden sich die Bezeichnungen der Spalten und am linken Rand die der Zeilen. Hinzu kommen Informationszeilen des jeweiligen Programms. Diese Informationen enthalten Hinweise auf die in einem Feld verwendeten Formeln, geben die aktuelle Position und die Speicherausnutzung an sowie spezielle Formatvorschriften für das Feld (zum Beispiel links- oder rechtsbündige Darstellung, Anzahl der Dezimalstellen). Außerdem werden dort die zur Verfügung stehenden Befehle zur Steuerung des Programms angezeigt. Ein Feld ist durch inverse Darstellung (dunkle Schrift auf hellem Untergrund) hervorgehoben. Es ist das gerade aktive Feld, auf das sich Tastatureingaben beziehen. Der Leuchtbalken ist sozusagen der Zeiger auf dieses Feld, Cursor genannt. Mit Hilfe der Pfeiltasten des Computers und spezieller Programmbefehle kann die Einfügemarke und mit ihr der Bildschirmausschnitt verschoben werden, so dass jedes Feld des Arbeitsblattes auf dem Bildschirm sichtbar gemacht werden kann, wenn auch nie alle gleichzeitig. Ein Gesamtüberblick über ein großes Modell ist daher nur über einen Ausdruck möglich. Auch hierbei wird das Modell segmentiert, man kann die einzelnen Seiten des Ausdrucks nebeneinander legen oder zusammenkleben und erhält so den gewünschten Überblick. Damit Sie nun Ihre Berechnungen durchführen können, muss das anfänglich leere Arbeitsblatt von Ihnen gefüllt werden. Dies geschieht durch Einträge in die Felder. Erklärender Text wird einfach über die Tastatur eingetippt, ebenso die Zahlen. Um zwischen eingegebenen Zahlen Verbindungen herzustellen, bezieht man sich auf die Feldbezeichnungen durch das Koordinatensystem.

9.3.2 Einsatzgebiete von Kalkulationsprogrammen

Finanzmathematik

Kalkulationsprogramme bieten eine Reihe von Funktionen, die es Managern, Buchhaltern und Kostenrechnern erleichtern, ihre Arbeitsblätter zu bearbeiten. Finanzmathematische Funktionen ermitteln beispielsweise den Zinssatz pro Zeitraum bei regelmäßigen Zahlungen. Durch wenige Eingaben erspart sich ein Buchhalter damit das umständliche Eintippen einer Formel. Bei Lotus 1-2-3 berechnet die Funktion @INTZINS (SchätzwertBereich) den internen Zinsfuß für den Kapitalrückfluss (Cashflow). Der interne Zinsfuß ist ein Maß für die Rendite, die eine Investition bringt. Auch Abschreibungsfunktionen sind vorhanden: @AFADEG (Kosten Restwert Lebensdauer Periode) berechnet die geometrisch-degressive Abschreibung eines Anlagengutes, @AFALIN (Kosten Restwert Lebensdauer Periode) die lineare Abschreibung. Statistik

Mit statistischen Funktionen lassen sich große Zahlenmengen gruppieren, analysieren und auswerten. Grundlagen der statistischen Auswertung bieten alle Kalkulationsprogramme. Die meisten bieten Formeln zur Ermittlung der Häufigkeit (Anzahl), maximaler und minimaler Werte in einer Reihe, Summen, Mittelwert und Standardabweichung. Weitere Möglichkeiten sind die Beobachtung von Kennziffern der Unternehmensentwicklung über mehrere Perioden. Perioden sind Zeitintervalle wie Tage, Wochen, Monate, Quartale, Jahre. Variable Größen wie beispielsweise Umsatz, Materialeinsatz, Abschreibungen und Steuern ändern sich im zeitlichen Verlauf. Werte für diese Größen können im Arbeitsblatt erfasst und berechnet werden. Makros

Wer viel mit Tabellenkalkulationsprogrammen arbeitet, wird häufig auf die standardmäßig vorhandenen Formeln und Funktionen zurückgreifen. Auch eine ganze Reihe von Routinetätigkeiten wiederholen sich ständig. Sind für diese Tätigkeiten immer die gleichen Tastatureingaben notwendig, kann die Arbeit mit Hilfe von Makros vereinfacht werden. In einem Makro sind alle für diese Aufgabe notwendigen Tastendrücke aufgezeichnet. Nach Aufruf läuft das Makro ähnlich wie ein normales Basic-Programm ab und liefert die gewünschten Ergebnisse. Fast alle Kalkulationsprogramme verfügen über solche Makrosprachen. Die Betriebsergebnisse, Finanzplanungen und Unternehmensanalysen wirken in Zahlenform meist sehr unübersichtlich. Erst Grafiken ermöglichen in den meisten Fällen den Durchblick durch die Ergebnisse. So werden die Zahlen durch eingebaute Grafikfunktionen veranschaulicht. Die meisten Programme erlauben die Darstellung durch Linien-Diagramme, Balkendiagramme, XY-Diagramme sowie gestaffelte Balken- und Kreisdiagramme.

9.3.3 Beispiel einer Kostenplanung Um umfangreiche Aufgaben mit Kalkulationsprogrammen durchzurechnen, braucht man schon etwas Erfahrung mit solchen Programmen. Wie sich eine Kalkulation auch bereits für scheinbar einfache Berechnungen einsetzen lässt, zeigt das folgende Beispiel. Kostenplan

In einem Kostenplan sind die Ausgaben für Material (Rohstoffe, Hilfsstoffe, Betriebsstoffe, Fertigprodukte) und Personal für das erste Quartal festzuhalten. Die Zwischensumme 1 soll die gesamten Materialkosten und die Zwischensumme 2 die gesamten Personalkosten pro Monat enthalten. Als Endsummen sollen in der Tabelle die Kosten für das erste Quartal für jede Materialart und Ausgaben für Löhne und Sozialabgaben enthalten sein. Der Kostenanteil der Personalkosten ergibt sich als Prozentsatz der Ausgaben für Löhne und Sozialabgaben, gemessen an den Gesamtkosten. Mit Bleistift, Papier und einem Taschenrechner lassen sich die gewünschten Kennziffern recht schnell ermitteln. Die Grenzen dieses Verfahrens zeigen sich, wenn Kostensteigerungen eintreten. In solchen Fällen erweist sich eine Erfassung mit einem Kalkulationsprogramm als vorteilhaft. Summen berechnen

Die Spalten- und Zeilenüberschriften werden als Text erfasst: in Zeile 1 Spalte 1 »Kostenplan«, in Zeile 2 die Monate des ersten Quartals sowie »Endsummen« und in Spalte 1 ab Zeile 3 die Kostenarten. Als nächstes sind in den entsprechenden Koordinatenschnittpunkten die Kostenwerte eingegeben. Für die Ermittlung der Zwischen- und Endsummen werden eingebaute Summenfunktionen zur Verfügung gestellt. Die Formel zur Addition aller Materialkosten lautet etwa: =Summe(C5:C8) Damit ergibt sich die Summe der Zeilen 5 bis 8 in der Spalte 2 (Januar). Da sich auch die Summen der Monate Februar und März und die Gesamtausgaben für Material im ersten Quartal nach der gleichen Funktion berechnen, lässt sich mit der Kopierfunktion von Multiplan eine ganze Menge Tipparbeit ersparen. Auf ähnliche Art und Weise können alle Summen wie auch die Prozentwerte mit Hilfe von Funktionen ermittelt werden.

Bild 9.20: Beispiel eines Kostenplans

Werte ändern

Kalkulationssoftware bietet noch weitere Vorteile. Bei dem Kostenplan stellt sich nachträglich heraus, dass sich einige Werte für die Material- und Personalkosten verändert haben. Im manuellen Rechenblatt müssten neun Zwischen- und Endsummen und die Prozentwerte für die Personalausgaben neu berechnet werden. Der Buchhalter hätte dann die Wahl: Erstens alle Daten zusammen mit den geänderten Werten auf einem extra Blatt neu zu erfassen. Wenn er die Zahlen vorher mit Bleistift aufgeschrieben hat, könnte er zweitens die alten Werte ausradieren und durch die vier neuen ersetzen. Anschließend wären noch einmal die Zwischenwerte zu addieren und die neuen Prozentanteile der Personalkosten zu berechnen. Bei einem Kalkulationsprogramm ist das Verfahren weit einfacher. Der Buchhalter gibt in den entsprechenden Feldern die veränderten Werte ein, und das Programm berechnet automatisch die neuen Werte. Die Formeln für die Ermittlung der Zwischen- und Endsummen und der Prozentanteile bleiben als feste Größen vorhanden. Lediglich die Daten werden aktualisiert. Sind die Formeln noch zusätzlich als »geschützte Felder« deklariert, kann der Buchhalter zu jeder Zeit unterschiedliche Modelle der Kostenentwicklung durchspielen. Er hat dazu seinen Kostenplan nur einmal eingegeben und kann ihn beliebig oft verwenden.

Tabellenkalkulation: Auch für diesen Bereich ist der Markt inzwischen so groß geworden, dass es schwierig ist, einzelne Programme besonders herauszuheben. Trotzdem ist sicherlich eines der beliebtesten Tabellenkalkulationsprogramme Excel von Microsoft. Dieses Programmpaket gibt es nur für Windows und zeichnet sich durch seine übersichtliche Gestaltung, die reichhaltige Funktionalität und seine hervorragenden Grafikfunktionen aus. Es unterstützt zudem die neuesten Windows-Techniken für den Datenaustausch mit anderen Windows-Programmen wie DDE und OLE. Über eine standardisierte Schnittstelle ist inzwischen auch die Anbindung an verschiedene Datenbanken möglich. Der Klassiker der Tabellenkalkulationen, Lotus 1-2-3, steht bei den meisten Funktionen Excel in nichts nach. Beide Programme haben ihre Schwächen und Stärken, wobei meist die Schwäche des einen die Stärke des anderen ist. Eine Stärke von Lotus 1-2-3 ist, dass es nicht nur für Windows, sondern für fast alle anderen Betriebssysteme verfügbar ist. So gibt es Versionen für DOS, Windows, OS/2, UNIX und einzelne Großrechnerbetriebssysteme. Daneben gibt es noch zahlreiche weitere Programme, die alle aufzuzählen der Platz nicht ausreichen würde. Wer besonders preisgünstig zu einem aktzeptablen Programm kommen möchte, sollte sich im Public-Domain- oder Shareware-Bereich umschauen. Hier können Sie teilweise sehr gute Schnäppchen finden.

9.4 Grafik Analytische Grafik

»Ein Bild sagt mehr als tausend Worte«; Sie kennen diesen Spruch bereits, der eigentlich noch besser in diesen Abschnitt passt. Ersetzt man nun zunächst die tausend Worte durch tausend Zahlen, sind wir beim Thema Analytische Grafik. Diese finden sich meist als Zusatzmodul in Kalkulationsprogrammen wieder, um unübersichtliche Zahlenkolonnen anschaulich darstellen zu können. Präsentationsgrafik

Analytische Grafiken können zwar recht abwechslungsreich gestaltet werden, dienen aber primär der Darstellung eines bestimmten eingegrenzten Sachverhalts. Möchte man dagegen ein umfassendes Thema einem Publikum vorstellen, verwenden die meisten Referenten inzwischen Präsentationsgrafiken. In diesen Grafiken werden kurze Kernaussagen mit illustrierenden Bildern zusammengefasst. Grafik- und Zeichenprogramme

Innerhalb von Präsentationsgrafiken oder Texten wie z. B. Dokumentationen oder Werbeprospekten können wiederum Bilder eingefügt werden, die Gegenstände mit großer Detailtreue wiedergeben. Zum Zeichnen solcher Bilder benötigt man spezielle Grafik- bzw. Zeichenprogramme. Diese Programme gibt es in vielen verschiedenen Komplexitätsstufen, vom einfachen Malprogramm über leistungsfähige 2D- und 3D-Zeichenprogramme bis hin zu CAD-Programmen für technische Zeichnungen.

9.4.1 Analytische Grafik Diese Grafikprogramme erlauben die Darstellung von Zahlen mit Hilfe von Linien-, Balken-, Kuchendiagrammen usw. Das Ziel dieser Programme ist es, die Zahlen und Werte aus Tabellenkalkulationen oder separat eingegebenem Zahlenmaterial anschaulich

darzustellen. Sie dienen in erster Linie dem Anwender, der die Ergebnisse seiner Berechnungen übersichtlich angeordnet haben möchte. So lassen sich zum Beispiel die Entwicklung der Material- und Personalkosten über die drei Monate aus unserer Kostenplanung durch Balkendiagramme darstellen.

Bild 9.21: Analytische Grafik

In den meisten Tabellenkalkulationsprogrammen ist ein Grafikprogramm integriert. Auf Tastendruck hin werden die Ergebnisse in die gewünschte Diagrammform umgewandelt. Die gleiche Möglichkeit bieten auch die meisten Datenbankprogramme, um Tabelleninhalte darstellen zu können. Die Leistungen dieser Programme sind jedoch meist beschränkt. Meistens kann der Anwender nur zwischen einer sehr begrenzten Anzahl von Diagrammen wählen, und er hat nur wenige Möglichkeiten, die Größe der Grafiken sowie die Beschriftung zu verändern.

9.4.2 Präsentationsgrafik Das Haupteinsatzfeld von Präsentationsgrafikprogrammen ist, wie der Name bereits andeutet, Overhead-Folien oder Tischvorlagen für Präsentationen und Referate vorzubereiten. Präsentationsgrafiken enthalten meist mehrere verschiedene Elemente:



Text, der Kernaussagen des vorzustellenden Themas wiedergibt Analytische Grafiken



Zeichnungen, um das Layout einer Folie aufzulockern, evtl. durch eingefügte Cartoons



Die meisten Programme enthalten ein Set von Vorlagen und Hintergrundbildern, die Sie bei der Vorbereitung der Folien unterstützen.

Bild 9.22: Titelgrafik einer Präsentation

9.4.3 Mal- und Zeichenprogramme Pixelgrafiken

In einer weiteren Kategorie der Grafikprogramme finden sich die Mal- und Zeichenprogramme. In Malprogrammen werden die einzelnen gemalten Objekte Pixel für Pixel dargestellt und gespeichert. Der Nachteil ist, dass solche Zeichnungen nicht nachträglich in Größe oder Ausdehnung verändert werden können. So besteht ein Strich beispielsweise aus einer Reihe von Punkten, wobei für jeden einzelnen Punkt die Position und die Farbe gespeichert werden. Ein Beispiel für diese Kategorie von Programmen ist das Programm Paint, das im Lieferumfang von Windows enthalten ist. Mit diesem Programm können Sie einfache Pixelgrafiken, so genannte Bitmaps, erstellen und im Windows-Bitmap-Format (Dateierweiterung .BMP) speichern.

Bild 9.23: Bearbeitung eines Photos mit CorelPaint

Photos bearbeiten

Schon weit darüber hinausgehen Programme wie PhotoPaint oder CorelPaint. Diese Programme arbeiten ebenfalls auf der Basis einzelner Pixel, stellen aber zahlreiche Bearbeitungsmöglichkeiten zur Verfügung, die so weit gehen, dass Sie auch eingescannte Photos bearbeiten können. Vektorgrafiken

Vektororientierte Zeichenprogramme bieten dagegen gänzlich andere Bearbeitungsmöglichkeiten. Bei einem vektororientierten Programm wird ein Strich nicht als Aneinanderreihung von Pixeln gespeichert, sondern als Vektor mit einer Anfangs- und einer Endkoordinate. Zusatzinformationen beinhalten die Dicke des Striches und seine Farbe. Ein Kreis wird demnach nur durch die Position des Mittelpunkts und den Radius beschrieben. Durch diese Technik lassen sich einzelne Objekte innerhalb einer Grafik beliebig verschieben, in der Größe und in ihren weiteren Eigenschaften verändern. Ein typischer Vertreter dieser Produktgattung ist CorelDraw.

Bild 9.24: Vektororientierte Grafik

3D-Grafik

Erst durch die Leistungsfähigkeit moderner PCs und Betriebssysteme findet auch die 3D-Grafik immer größere Verbreitung auf dem PC. Das Ziel dieser Programme ist die fotorealistische Darstellung von realen Objekten. Dabei geht es nicht nur um die dreidimensionale Konstruktion von Gegenständen, sondern auch um die Darstellung mit allen Oberflächeneigenschaften aus verschiedenen Blickwinkeln unter Berücksichtigung von Lichteinfall und Schattenwurf. Rendering

Voraussetzung ist aber zunächst wieder eine Zeichnung des darzustellenden Gegenstands. Dazu braucht der Gegenstand aber nur als Gittermodell in das Programm eingegeben werden. So ist beispielsweise ein Tisch mit wenigen Linienzügen konstruiert. Für die fotorealistische Darstellung zeichnen dagegen spezielle Algorithmen verantwortlich. Beim 3D-Rendering nimmt Ihnen z. B. der Computer die Entscheidung ab, wie die einzelnen Punkte Ihres Bildes farblich zu gestalten sind. Diese Entscheidung trifft er auf der Basis von Vorabinformationen, z. B. aus welchem Material der Gegenstand beschaffen ist, welche Farbe er besitzt und wie die Oberfläche beschaffen ist. Letztlich können Sie einen Blickwinkel festlegen und das Programm beginnt mit der Berechnung der Darstellung. Auch bei sehr leistungsfähigen PCs müssen Sie dafür, je nach Komplexität des Objektes, einige Zeit einkalkulieren.

Bild 9.25: Fahrzeugdesign mit Hilfe von 3D-Grafik (Foto: IBM)

9.4.4 Computerunterstütztes Zeichnen (CAD) Die englische Bezeichnung für Computerunterstütztes Zeichnen lautet Computer Aided Design, kurz CAD. Obwohl CAD nicht gerade als eine Domäne für Mikrocomputer angesehen werden kann, haben Personal-Computer mittlerweile eine Leistungsfähigkeit erreicht, mit der sie auch professionellen Anforderungen gewachsen sind. Die hohe Schule des CAD findet jedoch nach wie vor auf Großrechnern statt. Autocad

Der Pionier bei CAD-Programmen für Personal-Computer war das Programm Autocad, das wegen seiner großen Verbreitung wohl als CAD-Standard für PC gelten kann. Autocad ist ein CAD-Programm, das an keine spezielle Branche gebunden ist. Es kann in der Elektrotechnik wie auch im Maschinenbau eingesetzt werden. Digitalisier- oder Grafiktablett

CAD-Programme können über die Tastatur des Rechners gesteuert werden. In vielen Fällen ist diese Eingabeart jedoch zu umständlich, um effektiv mit einem CAD-Programm arbeiten zu können. Zur Erleichterung der Eingabe wird häufig ein Digitalisier- oder Grafiktablett benutzt. Ein Grafiktablett besteht aus einem elektronischen Tablett oder Zeichenbrett und einem daran angeschlossenen frei beweglichen Markierstift, dessen genaue Position auf der Zeichenfläche an den Rechner weitergegeben und auf dem Bildschirm angezeigt wird. Mit einem Grafiktablett können zusammen mit einem CAD-Programm bereits auf Papier vorhandene Zeichnungen in den Rechner eingegeben werden. Dazu wird die Vorlage auf das Zeichenbrett gespannt und die Kontur mit dem Stift verfolgt. So entsteht nach und nach die vollständige Zeichnung auf dem Bildschirm. Sie kann abgespeichert und später verändert werden. Besondere Eigenschaften der Zeichnung wie Farbe, Füllung, Strichstärke usw. können über eine Spezialtastatur auf dem Tablett festgelegt werden. Die Eigenschaften sind durch kleine Symbole am Rand des Tabletts symbolisiert, durch Antippen der Symbole mit dem Markierstift wird die jeweilige Eigenschaft gewählt. Für die Neuzeichnung bzw. Änderung von grafischen Darstellungen können über diese Tastatur vorgefertigte geometrische Objekte (Punkte, Linien, Bögen, Kreise, Rechtecke usw.) gewählt und an der durch den Markierer bezeichneten Position eingefügt werden. Symbol-Bibliotheken

Mit Hilfe von CAD-Programmen können komplexe Konstruktionszeichnungen komplett mit Beschriftung erstellt werden. Viele Programme verfügen über Symbol-Bibliotheken. Hierin sind häufig wiederkehrende Symbole abgespeichert, die bei Bedarf an einer vorher bezeichneten Stelle in die Zeichnung eingefügt werden können.

Bild 9.26: (Re-)Konstruktion der Dresdner Frauenkirche (Foto: IBM)

9.5 Multimedia Die Entwicklung des PC als multimediales Endgerät ist inzwischen so weit fortgeschritten, dass ein Heimcomputer ohne weiteres die typische Unterhaltungselektronik im Wohnzimmer wie Radio, Fernseher, CD-Player, DVD-Player, ja selbst den Videorekorder (durch digitale Speichererung auf Festplatte) ersetzen könnte. Dass der PC all diese Funktionen übernehmen kann, liegt nicht nur an der immer leistungsfähiger werdenden Hardware, sondern insbesondere auch an Komprimierungsverfahren, die die riesigen Datenmengen, die für die Speicherung von Video- und Audiodaten benötigt werden, in für Computer handhabbare Portionen pressen. Nehmen wir einmal ein normales Computerbild mit einer Auflösung von 800 mal 800 Bildpunkten (Pixel). Jedes wird mit 24 Bit abgespeichert, was 16,7 Mio. Farben (TrueColor) ermöglicht. Damit werden für die Speicherung dieses noch recht unscheinbaren Bildes immerhin schon 1,44 Mbyte Speicherplatz benötigt. Sobald etwas Bewegung ins Spiel kommt, werden die Anforderungen an den Speicherplatz deutlich höher. Die Bilder bei modernen TV-Produktionen sind zwar etwas kleiner (das europäische PAL-Format nur 720 mal 576 Pixel bei 24 Bit Farbtiefe), dafür werden sie aber auch 25 mal pro Sekunde wiederholt. Das ergibt pro Sekunde eine Datenmenge von ca. 30 Mbyte. Für einen Spielfilm von 120 Minuten Spieldauer wären danach etwa 240 Gbyte Speicherplatz notwendig. Da würden auch die größten heute verfügbaren Festplatten streiken. Wie bringt man den Film also auf eine DVD?

Bild 9.27: Fernsehen und DVD am PC? Moderne Hardware- und Softwaretechnik macht es möglich.

9.5.1 Komprimierung von Multimedia-Daten Komprimierungsverfahren sind schon fast so alt wie die EDV, das Grundprinzip haben Sie bereits in Kapitel 8 kennen gelernt, als wir uns die Komprimierung näher angeschaut haben, die das Betriebssystem Windows standardmäßig verwendet. Dieses Grundprinzip lässt sich auf alle weiteren Verfahren übertragen, nur dass sie sich jeweils durch den Einsatzzweck wie Art der Daten, Komprimierungsfaktor und Wiedergabequalität der komprimierten Daten unterscheiden. In diesem Abschnitt möchte ich mich auf die Verfahren beschränken, die zur Übertragung von Bild und Ton im Internet verwendet werden, also JPEG und MPEG (inklusive MP3). JPEG

Beginnen wir bei einem einzelnen Bild. Der Bedarf, Computergrafiken zu komprimieren, ist schon recht alt. 1992 wurde von der Joint Photographic Experts Group ein weltweit anerkannter Standard zum Komprimieren von Farb- und Graustufenbildern definiert, der als JPEG bekannt wurde. Ein Vorteil von JPEG ist, dass es auch TrueColor-Bilder mit ihrer gesamten Farbpalette komprimieren kann, und dass der Komprimierungsfaktor nach Bedarf verändert werden kann. So nutzen beispielsweise viele digitale Fotokameras das JPEGFormat, wobei Sie als Anwender die Möglichkeit haben, durch die Wahl des Komprimierungsfaktors die Größe der resultierenden Datei und die Qualität des Bildes zu bestimmen. Der letzte Punkt weist auf eines der kleinen Probleme von JPEG hin, nämlich dass es komprimiert, indem es Informationen weglässt. JPEG verwendet zur Komprimierung Algorithmen, die selektiv einzelne Bildinformationen löschen, was bei sehr hohen Kompressionen zu störenden, rechteckig-verschachtelten Bildflecken, den so genannten Artefakten führen kann. JPEG 2000

Ein Nachfolger von JPEG, JPEG 2000, soll mit den Artefakten aufräumen. Verbesserte Komprimierungsalgorithmen sollen, man glaubt es kaum, bei noch höherer Komprimierung Bilder von besserer Qualität ermöglichen. GIF

GIF An dieser Stelle möchte ich Ihnen noch kurz ein anderes Grafikformat vorstellen, das gemeinsam mit JPEG im Internet verbreitet und von jedem Web-Browser angezeigt werden kann. GIF ist die Abkürzung für Graphics Interchange Format (zu deutsch GrafikAustausch-Format). Es ermöglicht ebenfalls sehr kompakte Grafiken, die allerdings auf 256 Farben beschränkt sind. Daher eignet sich das Format nicht für fotorealistische Darstellungen.

MPEG MPEG-1

JPEG war Vorbild für die Arbeit einer weiteren Expertengruppe, der es um die Entwicklung von Standards für die Komprimierung von bewegten Bildern ging. So lieferte die Motion Pictures Expert Group (MPEG) bald den ersten Videokompressionsstandard MPEG-1. Dieses Format liefert Videobilder in der Größe von 352 mal 288 Pixel, also etwa einem Viertel der Größe normaler Videobilder. Bei MPEG-Komprimierung werden einerseits JPEG-Algorithmen für die Verarbeitung von einzelnen Videobildern verwendet, andererseits nutzt es die Tatsache aus, dass sich nachfolgende Bilder nur geringfügig vom vorhergehenden Bild unterscheiden können. So unterteilt MPEG ein Video in Blöcke von etwa 12 Bildern, von denen das erste mit JPEG komprimiert wird. Für die nachfolgenden Bilder werden nur noch die Informationen über die Veränderungen zu dem Anfangsbild abgespeichert. Mit dieser Technik kann die Datenmenge für ein Video um ca. 99 % verringert werden. MPEG-2

Deutlich bessere Bildqualität liefert die seit 1995 vorliegende MPEG-2-Kodierung. Die auf MPEG-1 basierenden und weiterentwickelten Techniken ermöglichen die Wiedergabe von Videos in PAL-Qualität von 720 mal 560 Bildpunkten bei einer Übertragungsrate von 15 Mbit/sek. Damit eignet sich MPEG-2 auch für digitales Fernsehen und für die Speicherung von Videofilmen auf DVD. MPEG-4

Den nächsten Entwicklungsschritt stellt MPEG-4 dar. Die Besonderheit von MPEG-4 ist, dass das Verfahren zwischen Vordergrund und Hintergrund unterscheiden kann. So kann beispielsweise das Bild eines Nachrichtensprechers von seinem Hintergrund getrennt verarbeitet werden. So kann der sich verändernde Vordergrund mit MPEG-2 komprimiert werden, während der Hintergrund als Standbild verdichtet wird. Lässt sich ein Video in dieser Form analysieren, können die Komprimierungsraten deutlich besser als bei reinem MPEG-2 sein.

Bild 9.28: MPEG-Videos können auch direkt aus dem Internet heruntergeladen und abgespielt werden.

MP3 MPEG-1 Layer 3

Falls Sie in der bisherigen Auflistung der MPEG-Standards MPEG-3 vermisst haben, so muss ich Sie enttäuschen. MPEG-3 war für die Kodierung von Daten für DVD-Video gedacht, die aber schließlich in MPEG-2 aufgenommen wurde. Und MP3 ist nicht MPEG-3, sondern gehört eigentlich zu MPEG-1. Wenn man ein Video speichern will, möchte man anschließend nicht nur die Bilder sehen, sondern auch den dazugehörenden Ton hören. Die MPEG-Komprimierung besteht also nicht nur aus der Video-, sondern auch aus der Audio-Komprimierung. Letztere ist in den so genannten Layern beschrieben. Die inzwischen weit verbreiteten MP3-Dateien sind nach MPEG-1 Layer 3 kodiert. MP3 wurde vom Fraunhofer-Institut entwickelt und basiert auf einem in mehrjähriger Grundlagenforschung entwickelten Psychoakustischen Modell. In diesem Modell ist beschrieben, welche Audiodaten vom menschlichen Hörsystem weiterverarbeitet werden und welche Daten dagegen »unter den Tisch fallen«. So ist die menschliche Hörfähigkeit auf einen Frequenzbereich von etwa 20 bis 20.000 Hz begrenzt, bei Erwachsenen verringert sich der Frequenzbereich mit zunehmendem Alter deutlich. Weiterhin tragen nicht alle Frequenzbereiche in gleichem Maße zum Hörerlebnis bei. Maskierung

Ein weiterer Ansatzpunkt ist die so genannte Maskierung. Stellen Sie sich dazu ein Sinfonieorchester vor, bei dem die Streicher eine ruhige Passage spielen. Plötzlich ertönen die Pauken und übertönen die leise spielenden Instrumente. Alle Instrumente erzeugen weiterhin Musik, für den Zuhörer allerdings kaum wahrnehmbar, da sie durch die laute Pauke überdeckt bzw. maskiert werden. Geräusche, die durch andere Töne vollständig maskiert werden, brauchen allerdings bei der Komprimierung nicht berücksichtigt werden, da sie keinen Einfluss auf das Klangempfinden haben. So kann durch ausgeklügeltes Weglassen von Audiodaten der Datenstrom deutlich verringert werden, ohne dass das Hörerlebnis darunter leidet. Auch wenn es häufig von Hifi-Enthusiasten bestritten wird, weisen doch die zahlreichen Hörtests, die inzwischen von Fachzeitschriften durchgeführt wurden, darauf hin, dass auch Spezialisten nicht zwischen CD und MP3 unterscheiden können, wenn sie nicht wissen, aus welcher Quelle die Musik kommt.

Bild 9.29: Der Windows Media Player gibt auch MP3-Dateien in annähernd CD-Qualität wieder.

Kompakt

Ohne Qualitätseinbuße lassen sich somit Stereo-Aufnahmen auf ein Zehntel oder gar bis auf ein Zwanzigstel ihrer ursprünglichen Größe komprimieren. Grob gerechnet umfassen die meisten MP3-Aufnahmen etwa 1 Mbyte Daten für eine Minute Stereo-Musik. Umfasst eine normale Audio-CD etwa eine Stunde Musik, können im MP3-Format auf einer CD gespeicherte Audio-Dateien für ca. 11 Stunden Musik sorgen; da reicht eine einzige CD für eine ganze Party. Die kompakte Speicherung von Audio-Daten birgt natürlich eine Vielzahl von Einsatzmöglichkeiten: ●

Verschiedene Programme ermöglichen es, Audio-CDs zu komprimieren und die einzelnen Musikstücke als MP3-Datei auf der Festplatte abzulegen. Damit können Sie Ihren Computer zu einer umfangreichen Musikbibliothek und Musikbox umfunktionieren. Ausgewählte Stücke können Sie auch auf einen Hardware-MP3-Player übertragen, der in seinem Speicher bis zu einer Stunde Musik für unterwegs bereithält.

Bild 9.30: Der PC wird zur heimischen Musikbox ●

Eine weitere Möglichkeit ist natürlich auch die Verbreitung von MP3s über das Internet. Hierbei ist aber zu beachten, dass der Inhalt von Audio-CDs urheberrechtlich geschützt ist und von daher eine Verbreitung von Musikstücken ohne Erlaubnis des Verlages nicht rechtmäßig ist. Ein Problem, wegen dem die Initiatoren von Tauschbörsen wie Napster viel Zeit vor den Gerichten verbracht haben.

Bild 9.31: Austausch von Musikdaten über Napster ●

Allerdings gibt es auch legale Möglichkeiten, MP3-Dateien aus dem Internet herunterzuladen. Viele Musiker stellen ihre Arbeitsergebnisse als MP3 im Internet bereit, um neues Publikum zu finden, quasi auch als Appetithäppchen, dass dann letztlich zum Kauf einer CD führt.

Bild 9.32: MP3.com bietet ein umfangreiches Angebot an Musik aus vielen verschiedenen Sparten zum Hören und Herunterladen ●

Einen ganz anderen Weg geht Radio@MP3, das mit Hilfe einer Fernsehempfangskarte über den Kanal von NBC Europe empfangen werden kann. Die Sendung besteht aus der Übertragung von MP3-Dateien, die am PC abgehört und auch gespeichert werden können. Das Ganze ist kostenlos und legal, da der Sender die entsprechenden Gebühren bezahlt. Finanziert wird das Programm letztendlich aus Werbung.

Bild 9.33: Musik am laufenden Bank über Radio@MP3

9.6 Datenaustausch über OLE Verbunddokumente

OLE ist ein inzwischen recht verbreitetes Verfahren, über das sich die Arbeit mit so genannten Verbunddokumenten erheblich vereinfachen lässt. Verbunddokumente bestehen aus mehreren verschiedenen Dokumentarten, traditionell aus Text, Tabellen und Grafiken, neuerdings kommen aber auch Ton- und Bildsequenzen hinzu. So kann ein umfangreiches Dokument den Text selbst sowie eingefügte Grafiken, Tabellen oder sonstige Objekte enthalten. Nehmen wir einmal folgendes Beispiel an: Sie haben mit einem Grafikprogramm, z. B. Paint, eine Grafik erstellt und als Datei abgespeichert. Nun möchten Sie diese Grafik in einen Text, den Sie mit WordPad erstellt haben, einfügen. Wie Sie bereits im letzten Abschnitt gesehen haben, lässt sich dieses Ziel relativ einfach mit der Zwischenablage erreichen. Dazu müssen Sie im Grafikprogramm nur die Grafik markieren, sie in die Zwischenablage kopieren und anschließend die Kopie in den Text einfügen. Warum also noch OLE? Der Unterschied wird erst dann bemerkbar, wenn Sie die Grafik ändern wollen. Ohne OLE wäre einiges an Doppelarbeit notwendig:



Grafikprogramm aufrufen und Grafik bearbeiten Grafik in die Zwischenablage kopieren



Im Textdokument die alte Grafik löschen





Neue Grafik in das Textdokument einfügen

Dieses Verfahren ist immer noch besser, als mit Schere und Klebstoff Grafiken in einen gedruckten Text einbinden zu müssen. Doch was ist, wenn die Grafik plötzlich geändert werden muss? Dann besteht die Gefahr, dass die Aktualisierung einer geänderten Grafik in dem Zieldokument vergessen wird, besonders dann, wenn ein und dieselbe Grafik in mehrere Dokumente eingebunden ist. Die Umständlichkeit dieses Verfahrens beruht darauf, dass im Zieldokument keine Informationen darüber gespeichert werden, woher das eingebettete Objekt stammt, es ist quasi anonym. Für diese Problematik bietet OLE die Lösung an. OLE hebt die Anonymität des eingebetteten Objekts auf, indem es seine Herkunft berücksichtigt. Um die Grafik aus dem letzten Beispiel zu bearbeiten, genügt dank OLE nur noch ein Doppelklick auf die Grafik innerhalb des Textdokuments. Dadurch wird automatisch das Programm zur Bearbeitung der Grafik geladen. Nach dem Erledigen der notwendigen Änderungen kehren Sie direkt zu Ihrem Text zurück, der natürlich auch die aktualisierte Grafik anzeigt. Der Sinn von OLE ist der, dass nicht mehr die Anwendungsprogramme im Vordergrund stehen, sondern die zu bearbeitenden Dokumente bzw. Objekte. Jedem Objekt ist ein Programm zugeordnet, das für die Erstellung und Bearbeitung dieses Objekts zuständig ist. Sobald das Objekt bearbeitet werden soll, erfolgt der Aufruf des zugeordneten Programms automatisch im Hintergrund, der Anwender muss sich darum nicht mehr kümmern.

9.6.1 Grundbegriffe Die OLE-Technik basiert auf einigen neuen Konzepten, die für das weitere Verständnis wichtig sind und daher am Anfang erklärt werden sollen. Objekte Dokumentobjekte

OLE hat eine neue Interpretation des Begriffs Objekt in die Computer-Welt eingeführt. Ein OLE-Objekt bezeichnet eine Menge von Daten, die als Ganzes in ein Dokument aufgenommen werden können. Diese Daten können Text, Grafiken, Ton- sowie Grafik- bzw. Videosequenzen enthalten. Programmobjekte

Die erste Interpretation des Begriffs Objekt stammt aus der Welt der objektorientierten Programmierung. Innerhalb dieses Umfelds können Programme bzw. Programmteile als Objekt bezeichnet werden, wenn sie ganz bestimmte Voraussetzungen erfüllen, um die wir uns an dieser Stelle nicht kümmern müssen. Interessant ist in diesem Zusammenhang nur, dass OLE auch den Programmierern Mittel an die Hand gibt, um kleine Programmobjekte zu entwickeln, die für bestimmte Aufgaben spezialisiert sind. So werden in Zukunft hinter einem Text-Objekt mehrere ProgrammObjekte stehen, die für die Bearbeitung des Textes zuständig sind, z. B. ein Objekt für das Editieren eines Textes, eines für die Silbentrennung und ein weiteres für die Rechtschreibung. Riesengroße Programm-Module (das Lademodul von Word, WINWORD.EXE, ist fast 10 Mbyte groß) gehören dann der Vergangenheit an. Server und Clients Server

Das Besondere an OLE ist, dass ein Doppelklick auf ein eingefügtes Objekt genügt, um die Anwendung, mit der dieses Objekt erstellt wurde, zu starten. Dadurch ist es erheblich einfacher, eingebundene Objekte zu ändern. Unter OLE lassen sich die Anwendungen folgendermaßen unterscheiden: Objekte werden zum einen mit Hilfe einer Server-Anwendung (Server = Lieferant) erstellt und gepflegt. Beispielsweise lässt sich eine Grafik mit einem Grafik-Programm erstellen, das bei der weiteren Verarbeitung als Server dient. Client

Die Grafik lässt sich in einen Text einbinden, wobei das Textprogramm als Client (= Kunde) fungiert. Für die Änderung der Grafik genügt ein Doppelklick mit der Maus auf das eingebundene Objekt, um das Server-Programm zu starten. Client-Anwendungen sind in der Lage, zahlreiche Objekte einzubinden, anzuzeigen und zu speichern. Viele Windows-Anwendungen können sowohl als Server als auch als Client arbeiten, wie beispielsweise die Tabellenkalkulation Excel. Für andere Anwendungen ist dagegen nur der Einsatz als Server sinnvoll, wie zum Beispiel für den Audiorecorder oder das Grafikprogramm Paint. OLE-fähige Anwendungen

Nicht jedes Programm kann aber für die Arbeit mit OLE genutzt werden. Hierzu müssen Programmierer spezielle OLE-Funktionen in die Anwendungen einbauen, die das Einbetten und Verknüpfen von Objekten innerhalb einer Anwendung erlauben. Inzwischen unterstützen aber fast alle Anwendungen OLE. Objekte verknüpfen oder einfügen?

Verknüpfen (Linking) und Einfügen (Embedding) sind zwei verschiedene Wege, Objekte in ein Verbunddokument einzubinden. Sie unterscheiden sich dadurch, wo die Objektdaten, die Daten, die das Objekt an sich ausmachen (Texte oder Grafikinformationen), gespeichert werden.

Bild 9.34: Verbunddokument mit verknüpften Objekten aus einer Tabellenkalkulation

Objekt verknüpfen

Bei einem verknüpften Objekt verbleiben die Objektdaten da, wo sie erstellt wurden, also als Datei in einem Verzeichnis, in dem sie ursprünglich gespeichert wurden. Das Verbunddokument enthält nur einen Verweis auf dieses Objekt. Der Vorteil dieses Verfahrens ist, dass viele Dokumente einen Verweis auf ein und dasselbe Objekt enthalten können. Wird dieses Objekt durch sein Server-Programm verändert, finden diese Änderungen auch in allen weiteren Verbunddokumenten Berücksichtigung, die eine Verbindung zum Original beinhalten. Soll ein Verbunddokument an einen anderen Ort transferiert werden, müssen auch alle verknüpften Objekte mitkopiert werden. Objekt einfügen

Beim Einfügen von Objekten werden dagegen die Objektdaten direkt in das Verbunddokument übernommen; sie werden Teil des Dokuments. Das erleichtert natürlich auch die Verlagerung eines Verbunddokuments. Da die eingebundenen Objekte Teil des Gesamtdokuments sind, genügt ein einziger Kopiervorgang, um das Dokument an den Zielort zu transferieren. Das Problem dabei ist jedoch, dass die Größe des Verbunddokuments um die eingefügten Daten zunimmt. Aus einer kleinen Textdatei, die vielleicht nur wenige Kbyte umfasst, kann durch das Einfügen einer einzigen Grafik ein Verbunddokument werden, das sich aufgrund seiner Größe nicht mehr auf eine Diskette kopieren lässt. Objekte bearbeiten

Eine wesentliche Vereinfachung ergibt sich durch OLE auch dann, wenn Sie ein Objekt ändern wollen. Ob eingebettet oder verknüpft, ein Doppelklick auf das Objekt innerhalb des Gesamtdokuments startet automatisch die Server-Anwendung, und Sie können sofort mit der Bearbeitung des Objekts beginnen. Genau an dieser Stelle machen sich aber auch die Unterschiede von OLE 1 und der neuen Version, kurz OLE 2, bemerkbar.

Bild 9.35: Verbunddokument mit eingefügten Objekten

Noch bequemer geht's nicht: OLE 2 OLE 1

Der prinzipielle Vorteil bei OLE ist, dass ein Doppelklick auf ein eingebettetes oder verknüpftes Objekt genügt, um die damit verbundene Server-Anwendung zu starten. Bei OLE 1 erscheint die Server-Anwendung in einem separaten Fenster, d. h. Sie müssen mit der Maus zunächst in das Anwendungsfenster des Servers wechseln, um das Objekt bearbeiten zu können. Sind Sie mit den Änderungen fertig, schließen Sie die Server-Anwendung und kehren zu Ihrem Ursprungsprogramm zurück. OLE 2

Bei OLE 2 entfällt das Hin- und Herschalten zwischen zwei Anwendungen. Durch einen Doppelklick auf das Objekt wird zwar die Server-Anwendung geladen, aber nur im Hintergrund. Für die Bearbeitung »leiht« sie der Client-Anwendung ihre »Dekorationen«, sprich Menüleiste und Toolbar. Das heißt, dass bei der Bearbeitung einer Excel-Tabelle in einem Word-Dokument die Menüleiste von Word durch die Menüleiste von Excel ersetzt wird. Lediglich die Menüpunkte Datei und Fenster behalten die gleichen Funktionen wie unter Word. Die Excel-Tabelle lässt sich nun genauso bearbeiten, als wenn Sie zu Excel gewechselt hätten, dabei sind Sie noch immer in Ihrem Textdokument.

Bild 9.36: Bearbeiten eines Objektes durch In-Place-Editing

In-Place-Editing

Voraussetzung für diese Bearbeitungsmöglichkeit, die als In-Place-Editing bezeichnet wird, ist, dass beide Anwendungen, also Server und Client, OLE 2 unterstützen. Inzwischen sind alle wichtigen Windows-Anwendungen mit dieser Technik ausgestattet. Weiterhin ist anzumerken, dass In-Place-Editing nur mit eingefügten Objekten funktioniert; bei verknüpften Objekten erscheint bei einem Doppelklick wie unter OLE 1 die Server-Anwendung in einem separaten Fenster. Daher mögen Sie nun vielleicht von den Möglichkeiten von OLE 2 enttäuscht sein, doch ich kann Sie trösten: OLE 2 bietet noch einiges mehr, das ich Ihnen aber erst nach der praktischen Einführung der grundlegenden Techniken wie Einfügen und Verknüpfen vorstellen möchte.

9.6.2 Objekte einfügen OLE bietet Ihnen nicht nur die Möglichkeit, zwischen Verknüpfen und Einbetten zu wählen, sondern überlässt Ihnen auch die Wahl, aus welcher Richtung Sie mit der Verbindung beginnen, ob vom Server oder vom Client aus. Im folgenden werde ich Ihnen beide Alternativen mal in der Praxis vorstellen, damit Sie im Zweifelsfall besser entscheiden können, welche der angebotenen Möglichkeiten Sie besser in einem speziellen Anwendungsfall einsetzen können; Sie können die Beispiele an jedem PC mit Windows nachvollziehen. Einfügen vom Server beginnen

Haben Sie ein neues Objekt gerade mit einer Server-fähigen Anwendung erstellt, können Sie das neue Objekt direkt über die Zwischenablage in die Client-Anwendung übernehmen. Grafik einfügen

Im ersten Beispiel möchte ich Ihnen zeigen, wie Sie eine mit Paint erstellte Grafik in ein Textprogramm wie beispielsweise WordPad einfügen können: ● ● ●

Starten Sie dazu zunächst Paint, und laden Sie eine der Beispielgrafiken, z. B. SETUP.BMP. Markieren Sie einen rechteckigen Ausschnitt. Kopieren Sie den Ausschnitt mit dem Menü-Befehl Bearbeiten - Kopieren in die Zwischenablage. Damit hat das Server-Programm seine Aufgabe erfüllt, und Sie können nun in das Textprogramm wechseln.



Rufen Sie also Ihr Textprogramm auf, und positionieren Sie den Cursor an der Einfügestelle. Zum Einfügen des Objektes müssen Sie nun die Befehlsfolge Bearbeiten - Inhalt einfügen aus dem Menü auswählen. Das Objekt wird nun an der markierten Stelle in den Text eingefügt.



Noch einfacher ist der Weg über die Befehlsfolge Bearbeiten - einfügen, die Sie auch über die Tastenfolge (Umsch)+(Einfg) auslösen können. Auch durch diese Befehlsfolge wird das Objekt an der markierten Stelle in den Text eingefügt.



Hinweis: Leider sind die Menübefehle nicht bei allen Programmen gleich; generell finden Sie aber im Menü Bearbeiten die weiteren Befehle, um Objekte einzufügen. Meist dient der Menüpunkt Inhalte einfügen wahlweise zum Einbetten oder Verknüpfen von Objekten; zur Auswahl wird meist ein Dialogfenster geöffnet, das Ihnen beide Möglichkeiten anbietet.

Bild 9.37: Dialogfenster zum Einfügen von Inhalten aus der Zwischenablage

Einfügen vom Client beginnen

Etwas anders sieht die Vorgehensweise aus, wenn Sie ein Objekt von der Client-Anwendung aus einfügen möchten. Versuchen Sie, die einzelnen Schritte doch wieder selbst nachzuvollziehen. Dabei gehe ich davon aus, dass das Textdokument bereits geladen ist und nach einigen Absätzen Ihres Textes eine kleine Grafik eingefügt werden soll. Folgendes Vorgehen wäre notwendig: ●

Öffnen Sie in WordPad über die Menüpunkte Einfügen - Neues Objekt das Dialogfenster Objekt einfügen. Dieses Fenster bietet zwei verschiedene Vorgehensweisen zur Auswahl:

Bild 9.38: Das Dialogfenster Objekt einfügen

Objekt neu erstellen



Wenn Sie das einzufügende Objekt neu erstellen wollen, haben Sie die Möglichkeit, den Typ des neu zu erstellenden Objektes auszuwählen: eine Animation, eine Excel-Tabelle oder -Grafik usw. Nach Auswahl des Objekttyps wird die entsprechende Anwendung automatisch gestartet. Zum Einfügen einer Paint-Grafik müssten Sie natürlich diesen Typ auswählen. WordPad und Paint sind beide OLE 2-fähig, erlauben also In-Place-Editing. Wundern Sie sich daher nicht, wenn sich das Anwendungsfenster von WordPad kräftig verändert: Am linken Rand erscheint die Werkzeugleiste von Paint und am unteren Fensterrand die Farbpalette. Dort, wo der Cursor stand, erscheint ein Fenster, das nun das Ziel Ihrer künstlerischen Talente sein sollte.

Bild 9.39: Erstellen einer neuen Grafik innerhalb eines WordPad-Dokuments

Sobald Sie mit Ihrem Kunstwerk zufrieden sind, brauchen Sie nur mit dem Mauszeiger in einen Bereich außerhalb des Paint-Anwendungsfensters zu klicken. Die Paint-Dekorationen verschwinden, WordPad nimmt sein bekanntes Aussehen wieder an, und Ihr Kunstwerk erscheint als eingefügte Grafik im Text. Objekt aus Datei einfügen



Haben Sie in dem Dialogfenster Objekt einfügen die Option Aus Datei erstellen aktiviert, können Sie eine Datei angeben, die in das Dokument eingefügt werden soll.Der Inhalt der ausgewählten Datei, in unserem Beispiel eine Paint-Grafik, wird an der markierten Position in den Text eingefügt. Mit Hilfe des Mauszeigers können Sie die Grafik optimal innerhalb des Textdokuments positionieren.

Das eingefügte Objekt ist nun ein fester Bestandteil Ihrer Dokumentendatei, je nach Größe der Grafik kann die Datei erheblich an Umfang zunehmen.

Bild 9.40: Grafik aus Datei einfügen

Eingefügtes Objekt bearbeiten

Das Bearbeiten eingefügter Objekte ist besonders einfach: Ein Doppelklick auf das Objekt, und die zugehörige Anwendung wird gestartet. Ist die Anwendung OLE 2-fähig, verändert sich das Anwendungsfenster des Client-Programms, und es übernimmt alle

Dekorationen des Server-Programms. Um die Bearbeitung zu beenden, genügt wieder ein einfacher Mausklick außerhalb des Bearbeitungsraums der Server-Anwendung. Bearbeiten bei OLE 1

Beherrscht das Server-Programm dagegen nur OLE 1, wird es in einem eigenen Fenster gestartet, und Sie müssen lediglich mit der Maus in das andere Fenster wechseln. Für die Beendigung der Änderungsarbeiten öffnen Sie das Menü Datei. Hier finden Sie meist den Befehl Beenden & zurück. Mit diesem Menübefehl wird die Server-Anwendung geschlossen, und Sie kehren zur Client-Anwendung zurück, in der das aktualisierte Objekt angezeigt wird.

9.6.3 Objekte verknüpfen Um ein Objekt mit einer Verbundanwendung zu verknüpfen, sind größtenteils die gleichen Schritte notwendig wie beim Einfügen. Teilweise sind nur einzelne Schalter anders zu aktivieren. Daher möchte ich zunächst bei dem Beispiel bleiben, eine Grafik in einen Text einzufügen. Verknüpfung vom Server beginnen

Möchten Sie ein Objekt von der Server-Anwendung aus mit einem Verbunddokument verknüpfen, ist zunächst wieder der Weg über die Zwischenablage notwendig. ●

Starten Sie also wieder Paint, und laden Sie eine der Beispielgrafiken.



Markieren Sie einen rechteckigen Ausschnitt. Kopieren Sie den Ausschnitt mit dem Menü-Befehl Bearbeiten - Kopieren in die Zwischenablage.



Rufen Sie Ihr Textprogramm auf, und positionieren Sie den Cursor an die Einfügestelle.



Objekt verknüpfen

Bis hier gab es keinen Unterschied in der Vorgehensweise, doch nun kommen wir zu einem kleinen Schalter, der sehr viel bewirkt. ●

Wählen Sie zum Verknüpfen des Objektes die Befehlsfolge Bearbeiten - Inhalte einfügen aus. Wichtig ist, dass Sie in dem Dialogfenster Inhalte einfügen den Schalter Einfügen mit einem Mausklick deaktivieren und dafür den Schalter Verknüpfen setzen. Sobald Sie nun die Auswahl bestätigen, wird das Objekt aus der Zwischenablage an der markierten Stelle in den Text als Verknüpfung eingebunden.

Einige Windows-Programme bieten in dem Fenster Inhalte einfügen noch die Auswahlmöglichkeit, in welchem Format der Inhalt der Zwischenablage in die Client-Anwendung übernommen werden soll. Fast immer taucht in der Aufzählung ein Eintrag auf, der auf das kopierte Objekt hinweist. Allerdings wird Ihnen auch die Möglichkeit geboten, Daten in einem anderen Format in die Client-Anwendung zu übernehmen, wenn z. B. Folien aus einem Präsentationsgrafik-Programm überwiegend Text enthalten, könnte auf die grafische Darstellung verzichtet werden; in diesem Fall könnten Sie die Folie als Text statt als Grafik einbinden.

Bild 9.41: Dialogfenster zum Einfügen von Inhalten aus der Zwischenablage

Verknüpfen vom Client beginnen

Auch beim Verknüpfen eines Objektes von der Client-Anwendung aus ist das Vorgehen dem Einfügen sehr ähnlich, allerdings können Sie auf diesem Wege nur eine ganze Datei mit dem Verbunddokument verknüpfen:



In der Textverarbeitung öffnen Sie über die Menüpunkte Einfügen - Objekt das Dialogfenster Objekt einfügen. In diesem Dialogfenster haben Sie zunächst wieder die Möglichkeit, ein neues Objekt zu erstellen oder aus einer vorhandenen Datei einzufügen. Im Prinzip können Sie mit beiden Optionen eine Verknüpfung erstellen; aktivieren Sie jedoch zur Übung die zweite Option Aus Datei erstellen.



Wählen Sie über den Schaltknopf Durchsuchen eine Datei aus, die mit dem Dokument verknüpft werden soll.



Datei verknüpfen

● ●

Bevor Sie nun die Auswahl bestätigen, müssen Sie unbedingt den Schalter verknüpfen aktivieren. Der Inhalt der ausgewählten Datei wird an der markierten Position in den Text eingefügt. Mit Hilfe des Mauszeigers können Sie das Objekt wieder beliebig im Textdokument positionieren.

Feldfunktionen

Da es sich um eine Verknüpfung handelt, die quasi nur einen Verweis auf die Originaldatei in den Text einfügt, müsste dieser Verweis doch auch irgendwie sichtbar sein. Word speichert solche Verweise in Feldfunktionen, die normalerweise nicht angezeigt werden. Sie können diese Feldfunktionen in Word über die Menübefehle Extras - Optionen - Ansicht sichtbar machen; dadurch sehen Sie statt der Grafik einen Eintrag im Text, der u. a. den Pfadnamen der eingefügten Datei beinhaltet, z. B.: {VERKNÜPFUNG Paint.Picture "C:\\WINNT\\AUTO.BMP" "" \a \p} Durch diesen Eintrag ist die eindeutige Zuordnung zu dem angegebenen Objekt beschrieben. Jede Änderung an dem Ursprungsobjekt wird bei jeder Bearbeitung des Dokuments berücksichtigt, so dass immer die aktuelle Version des Objektes angezeigt oder ausgedruckt wird. Bei einem eingebetteten Objekt sähe der Feldeintrag natürlich anders aus; für die Bearbeitung des eingebetteten Objekts benötigt Windows nur den Dateitypen; entsprechend sieht auch die Feldfunktion von Word aus: {EINBETTEN .bmp }. Verknüpftes Objekt bearbeiten

Auch für das Bearbeiten verknüpfter Objekte ist die Vorgehensweise ähnlich wie bei den eingefügten Objekten: Ein Doppelklick auf das Objekt genügt, und die zugehörige Anwendung wird gestartet. Aber, und das ist der wesentliche Unterschied, immer in einem separaten Fenster. Bei verknüpften Objekten ist die Vorgehensweise also unabhängig davon, ob die Anwendungen OLE 2-fähig sind oder nur OLE 1 unterstützen.

Bild 9.42: Verknüpftes OLE-Objekt wird geändert

Am eindrucksvollsten lässt sich die Wirkungsweise von OLE verfolgen, wenn Sie ein verknüpftes OLE-Objekt aktualisieren und bei Anwendungen Client und Server so auf dem Desktop positionieren, dass das Objekt sichtbar ist. Sobald Sie innerhalb der ServerAnwendung eine Änderung vollenden, z. B. der Grafik ein weiteres Rechteck hinzufügen, wird beim Lösen der Maustaste die verknüpfte Grafik in der Client-Anwendung aktualisiert. Verknüpfung bearbeiten Verknüpfungen aktualisieren

Die Verknüpfung eines eingefügten Objektes zu seiner Server-Anwendung dient ja dem Zweck, dass im Verbunddokument immer die aktuelle Version des Objektes angezeigt wird. Sobald Sie ein Verbunddokument laden, überprüft die Client-Anwendung bestehende Verknüpfungen; hat sich die dem eingefügten Objekt zugrunde liegende Datei in der Zwischenzeit verändert, versucht die Client-Anwendung, den neuen Zustand der Datei in Erfahrung zu bringen. Dazu müssen aber die Server-Anwendung gestartet und die Objektdatei geladen werden. Bei manchen Anwendungen wie z. B. Paint werden Sie davon nichts mitbekommen. Haben Sie dagegen eine Excel-Tabelle oder -Grafik mit Ihrem Dokument verknüpft, dauert der Startvorgang deutlich länger. Diese Überprüfung erfolgt in der Regel automatisch; weiß man nun aber, dass sich an den verknüpften Objekten seit dem letzten Aufruf des Verbunddokuments nichts geändert hat, könnte man auf die automatische Überprüfung verzichten und damit zum Teil sehr viel Ladezeit sparen. Eine weitere Situation, in der es wünschenswert ist, die Verknüpfung eines Objekts zu bearbeiten, tritt dann ein, wenn das zugrunde liegende Objekt innerhalb des Dateiverzeichnisses verschoben wurde. Sie wissen ja, dass die Verknüpfung auf einem Zeiger beruht, der in das Verbunddokument eingefügt wird und den Namen sowie den Pfad der zugrunde liegenden Datei enthält. Wurde die Datei in ein anderes Verzeichnis verschoben, stimmt die Pfadangabe im Zeiger nicht mehr, und die Client-Anwendung kann die Verknüpfung nicht

mehr überprüfen. Dies führt in der Regel zu einer Fehlermeldung, die es nötig macht, die Verknüpfung zu bearbeiten. Dazu stellt jedes Programm, das Dokumente mit verknüpften Objekten bearbeitet, ein besonderes Dialogfeld zur Verfügung. ●

Das Dialogfeld können Sie erst aufrufen, wenn Sie das verknüpfte Objekt mit der Maus angeklickt haben.



Wählen Sie dann aus dem Menü Bearbeiten den Befehl Verknüpfungen.

Das Dialogfeld Verknüpfungen enthält neben einigen Schaltern insbesondere eine Liste von Verknüpfungen, also nicht nur die Verknüpfung des aktuell markierten Objekts, sondern aller im Verbunddokument eingefügten Verknüpfungen.

Bild 9.43: Das Dialogfeld Verknüpfungen

An dieser Stelle können wir uns nun dem Problem der automatischen Aktualisierung zuwenden. Dauert Ihnen der Lade- und Aktualisierungsvorgang eines Verbunddokuments zu lange, können Sie statt automatischer auch die manuelle Aktualisierung auswählen. Dadurch wird ein verknüpftes Objekt nur noch dann aktualisiert, wenn Sie den Schalter Jetzt aktualisieren drücken. Objektname und -pfad ändern

Das zweite Problem, die geänderten Pfadangaben, können Sie mit Hilfe des Schalters Quelle ändern lösen. Mit diesem Schalter öffnen Sie ein Fenster, das es Ihnen ermöglicht, einen neuen Pfad auszuwählen. Sobald die Pfadangaben aktualisiert worden sind, kann auch der Inhalt des Verbunddokuments auf den aktuellen Stand hin überprüft werden. Verknüpfung lösen

Ein weiterer Schalter, der Ihnen vielleicht schon aufgefallen ist, trägt den Titel Verknüpfung lösen. Mit diesem Schalter löst die Client-Anwendung die logische Verbindung zur Server-Anwendung, d. h. Änderungen am Ursprungsobjekt führen nicht mehr zur Aktualisierung des verknüpften Objekts. Doch keine Sorge, das ursprüngliche Objekt wird weiterhin in Ihrem Verbunddokument angezeigt. Im Prinzip haben Sie mit diesem Schalter aus einem verknüpften Objekt ein eingefügtes Objekt gemacht. Damit haben Sie auch die Möglichkeit, das Objekt weiterhin zu bearbeiten, eben so, wie es für eingefügte Objekte gilt: Doppelklick auf das Objekt, und die Server-Anwendung wird gestartet, bei OLE 2-Anwendungen sogar innerhalb des Verbunddokuments.

9.6.4 OLE 2: Weitere Bearbeitungsmöglichkeiten Ich hatte Ihnen ja bereits angekündigt, dass OLE 2 nicht nur ein anderer Ausdruck für In-Place-Editing bzw. In-Place-Activation ist. Neben dieser Bearbeitungstechnik bieten Ihnen OLE 2-fähige Anwendungen einige weitere Erleichterungen bei der Arbeit mit Verbunddokumenten. Drag & Drop

Der geläufigste Weg, Objekte in andere Dokumente zu überführen, geht über die Zwischenablage. Mit OLE 2 ist der Umweg über die Zwischenablage nicht mehr notwendig. Möchten Sie beispielsweise aus einer Tabelle einen Ausschnitt in einen Text übernehmen, genügt es, den Tabellenausschnitt zu markieren und mit der Maus in das Fenster der Textverarbeitung zu ziehen. Der Ausschnitt wird als Objekt in das Verbunddokument eingefügt.

Bild 9.44: Einbinden eines Objektes mit Drag & Drop

OLE: Inter-Window-Dragging

Die neue OLE-Version unterstützt aber nicht nur diese Form des Drag & Drops, das so genannte Inter-Window-Dragging, sondern noch zwei weitere Arten: ● ●

Inter-Object-Dragging: Objekte, die wiederum in eingebundene Objekte eingebunden sind, können ebenfalls mit einem einfachen Mausklick aufgenommen und zu anderen Objekten geführt werden. Dropping over Icons: Bei dieser Methode werden Objekte über die Fensteroberfläche zu den Symbolen von Druckern, Mailboxen oder Abfallkörben gezogen und dort fallengelassen. Die Anwendung, die sich hinter dem Symbol verbirgt, muss dann das Objekt seinem Typ entsprechend verarbeiten.

Unterstützung für eingebettete Objekte (Nested Objects)

Objekte können mit anderen Objekten im selben Dokument verknüpft oder darin eingebunden sein. Beispielsweise könnte eine Grafik die Daten einer Tabelle darstellen, mit der sie verknüpft ist. Ändern sich die Daten der Tabelle, würde auch die Grafik automatisch an die neuen Werte angepasst. Mit Hilfe mehrfach verknüpfter Objekte lassen sich also Verbunddokumente erstellen und pflegen, ohne dass bei Änderungen mehrfach Server-Anwendungen aufgerufen werden müssen. Dadurch wird der Einsatz von Verbunddokumenten deutlich effektiver. Spezielle Bearbeitungsfunktionen

Verbunddokumente können aus mehreren Objekten bestehen, für deren Pflege mehrere Server-Anwendungen notwendig sind. Wenn aber ein Verbunddokument als einheitliches Ganzes betrachtet werden soll, muss es auch möglich sein, bestimmte häufig eingesetzte Funktionen auf das gesamte Dokument anwenden zu können. Zwei solcher Funktionen sind Suchen und Rechtschreibkorrekturen. Genau diese Möglichkeiten beinhaltet OLE 2. Mit Hilfe spezieller Routinen werden bei Such- und Korrekturläufen auch die eingebundenen Objekte berücksichtigt. Dadurch bleibt es dem Anwender erspart, beim Redigieren von Dokumenten oder beim Suchen nach bestimmten Zeichenketten für jedes Objekt die Server-Anwendung zu starten, um die Operationen getrennt durchzuführen. Statt dessen genügt ein einziger Aufruf der Funktion, und alle Objekte werden automatisch mit überprüft. Zusammenfassung zu OLE

In der folgenden Tabelle möchte ich Ihnen noch einmal einen kurzen Überblick über die wichtigsten Bearbeitungsfunktionen im Rahmen von OLE geben, getrennt nach eingefügten Objekten (Embedding) und verknüpften Objekten (Linking). Möglichkeiten zum Einbinden eines Objekts

eingefügtes Objekt (Embedding)

verknüpftes Objekt (Linking)

markiertes Objekt aus der Server-Anwendung in die Zwischenablage kopieren

wird unterstützt

wird unterstützt

Objekt über Inhalte einfügen, Schalter Einfügen in das Verbunddokument übernehmen

wird unterstützt

wird unterstützt

Objekt über (Umsch)+(Einfg) in das Verbunddokument übernehmen

wird unterstützt

nicht unterstützt

Objekt über Inhalte einfügen, Schalter Verknüpfen in das Verbunddokument übernehmen

wird unterstützt

wird unterstützt

neu zu erstellendes Objekt über einfügen - Objekt in das Verbunddokument übernehmen

wird unterstützt

nicht unterstützt

über einfügen - Objekt Objekt aus einer Datei in das Verbunddokument übernehmen

wird unterstützt

wird unterstützt

In-Place-Activation

wird unterstützt

nicht unterstützt

Verknüpfungen bearbeiten

nicht notwendig

wird unterstützt

leicht portierbar

Nein

Ja

Größe der Datei des Verbunddokuments

Groß

Klein

Bearbeitungsmöglichkeiten

Eigenschaften des Verbunddokuments

Tabelle 9.2: Bearbeitung von OLE-Objekten

9.7 Alles in einem Paket Daten, die auf Computern verarbeitet werden, benötigt man oft nicht nur für einen Zweck. Wenn die Daten mit verschiedenen Programmen erstellt wurden, lassen sich diese jedoch oft nicht ohne weiteres zwischen den Programmen austauschen. So ist es keineswegs ohne weiteres möglich, Grafiken aus einem Grafikprogramm oder Tabellen aus einem Kalkulationsprogramm in ein Dokument in einem Textverarbeitungsprogramm einzubinden! Erst recht kompliziert wird dieses Verfahren, wenn Sie Programme unterschiedlicher Hersteller verwenden. Office-Pakete

Eine Abhilfe schaffen Software-Pakete, wie sie inzwischen von allen namhaften Anbietern angeboten werden, als Beispiele seien genannt: Microsoft Office, Lotus SmartSuite oder das Office-Paket der deutschen Firma StarDivision. Alle diese Programme enthalten eine Textverarbeitung, Tabellenkalkulation, ein Programm für Analytische und Präsentationsgrafik und ein Datenbanksystem. Leichter zu erlernen

Einer der wichtigsten Vorteile eines Software-Pakets ist, neben dem einfacheren Datenaustausch, vor allem die einfachere Bedienung. Mit der Einführung von Windows wurden auch Konventionen festgelegt, wie die Anwendungsfenster von Programmen zu gestalten sind. So finden Sie bei fast allen Windows-Programmen in der Menüzeile als ersten Eintrag den Menüpunkt Datei, über den Funktionen zum Öffnen und Schließen von Dateien aufgerufen werden können. Die genaue Ausgestaltung eines Anwendungsfensters obliegt aber jedem Hersteller. So unterscheiden sich Anwendungsprogramme bereits im Layout der Menüs und der Symbolleisten. Dagegen ist dieses Layout innerhalb der Anwendungsprogramme eines Herstellers weitestgehend, so weit sinnvoll, gleich. Das erleichtert Ihnen als Anwender die Orientierung, wenn Sie beispielsweise neben der Textverarbeitung auch die Tabellenkalkulation des gleichen Herstellers einsetzen möchten. Integrierte Softwarepakete

Neben den kompletten Office-Lösungen, die nicht nur eine Vielzahl von Funktionen, sondern auch viel Plattenplatz benötigen, gibt es die so genannten Integrierten Softwarepakete. Diese Programme enthalten in etwa die gleichen Module wie die großen OfficeLösungen, allerdings mit abgespeckter Funktionalität. So lassen sich vielleicht nicht ganz so große Tabellen mit der allerletzten finanzmathematischen Funktion berechnen und auch für die Gestaltung eines Werbeprospekts muss man vielleicht auf den großen Bruder zurückgreifen. Dafür genügen die Funktionen der einzelnen Module den Anforderungen der meisten privaten Anwender jedoch vollkommen. Noch stärker als bei den Office-Paketen ergibt sich bei diesen Programmen die Einheitlichkeit der Oberfläche und somit auch der Bedienung. Die meisten integrierten Softwarepakete bestehen zunächst aus einem Tabellenkalkulationsprogramm. Zur Lieferung der Daten für die Tabellenkalkulation ist ein Datenbankprogramm zuständig, zur Darstellung der Daten ein Grafikprogramm und zur Verarbeitung der Daten in einem Text ein Textverarbeitungsprogramm. Manche Softwarepakete enthalten noch zusätzliche Module wie zum Beispiel ein Kommunikationsprogramm, um den Datenaustausch mit anderen Rechnern zu erleichtern.

Bild 9.45: Das Integrierte Softwarepaket Works von Microsoft

9.8 Spezielle Branchenlösungen Standard-Softwareprogramme gibt es in einer Vielzahl von Ausführungen mit unterschiedlichen Leistungen und Preisen von wenigen hundert bis mehreren tausend Mark. Im Prinzip könnte man sagen, es ist für jeden etwas dabei. Doch für ganz bestimmte Probleme, speziell in der Industrie und bei klein- und mittelständischen Betrieben, ergeben sich häufiger Anforderungen an Programme, die die Standardsoftware nicht erfüllen kann. Spezielle Programme müssen her, für die Arztpraxis zur Kassenabrechnung, für Taxiunternehmer oder für die Buchhaltung kleiner und großer Unternehmen. IBM

Die Firma IBM ist nicht nur Hersteller von Computern, sondern ist zusätzlich Anbieter von Software für die unterschiedlichsten Probleme. Mit der Einführung des Personal-Computers konnte IBM auch gleich eine Vielzahl von Programmen anbieten, was zu der raschen Verbreitung des Personal-Computers führte. In kurzer Zeit wuchs die Anzahl von Programmen, die zu einem großen Teil auch von kleineren Softwarehäusern erstellt wurden. Heute werden Programme für unterschiedlichste Probleme angeboten. Bei besonderen Wünschen werden im Auftrag spezielle Programme geschrieben. Beispiel für Branchensoftware sind Programme, die den klein- und mittelständischen Unternehmer bei Angebotskalkulationen und Ausschreibungen, bei der Fakturierung und im Mahnwesen unterstützen. Viele Programme verwalten das Material-, Kunden- und Lieferantenverzeichnis. Besondere Lösungen gibt es zum Beispiel für ●

Arztpraxen



Handelsbetriebe



Rechtsanwaltskanzleien



Kfz-Betriebe u. a.

SAP

Ein weiteres Beispiel für Branchensoftware bietet die deutsche Firma SAP, die mit ihrem System R/3 zu den größten Softwareherstellern der Welt gehört. Das, was Microsoft für das Büro ist, bietet SAP für das Unternehmen. Der eine oder andere Leser wird also bestimmt schon mit dieser Software im Büro Kontakt gehabt haben. Das System R/3 von SAP bildet mit seinen betriebswirtschaftlichen Standardanwendungen Geschäftsprozesse im Unternehmen ab. R/3-Anwendungen ermöglichen die komplette Bearbeitung von Geschäftsvorfällen wie zum Beispiel aus den Bereichen Vertrieb, Produktionslogistik und Rechnungswesen, alles in einem durchgängigen Vorgang. Die betriebswirtschaftlichen Standardanwendungen des Systems R/3 umfassen die Bereiche: ●

Finanzwesen, Controlling, Anlagenwirtschaft



Vertrieb, Materialwirtschaft, Produktionsplanung Qualitätsmanagement, Instandhaltung Projektmanagement



Personalwirtschaft

● ●

Darüber hinaus sind auf Basis der R/3-Standardkomponenten spezielle Branchenlösungen entwickelt worden, wie zum Beispiel Krankenhausverwaltung, Vertriebssysteme für Verlage, Vermögensverwaltung für Versicherungs- und Finanzdienstleistungen sowie Branchenlösungen für Banken, Energieversorger usw. Das R/3-System basiert auf einer mehrstufigen Client/Server-Architektur. Das heißt, dass sich die Anwendungskomponenten auf mehrere Rechner verteilen, die unterschiedliche Aufgaben haben: ● ●



Auf dem Client, das ist in der Regel ein normaler PC, der beispielsweise im Büro des Rechnungswesens steht, werden Eingabemasken angezeigt, über die ein Rechnungsprüfer die aktuellen Rechnungseingänge prüfen kann. Das Layout und die Angaben der Eingabemasken werden auf einem Anwendungs-Server berechnet. Hierbei kann es sich um einen Windows- oder UNIX-Server handeln. Während kleine Unternehmen mit einem einzelnen Anwendungs-Server auskommen, werden in großen Unternehmen meist mehrere Server eingesetzt, die jeweils eine oder mehrere Abteilungen bedienen. Für die Verwaltung der Daten ist darüber hinaus noch als dritte Komponente der Datenbank-Server zuständig, der auf die schnelle Bereitstellung der Daten spezialisiert ist, dabei handelt es sich meist um besonders leistungsfähige Windows NT-, UNIX- oder gar Großrechner. Sie befinden sich meist in einem speziellen Serverraum oder Rechenzentrum.

9.9 Unterstützung in allen Lebenslagen: Hilfesysteme Die meisten Hersteller von Anwendungsprogrammen bemühen sich darum, Ihnen als Anwender eines Programms das Leben möglichst einfach zu machen. Das bezieht sich auch auf die Erlernung eines Programms bzw. auf die Unterstützung in Problemsituationen. Wie man dem Anwender online, also direkt bei der Arbeit am PC Hilfestellung geben kann, hat die Hilfefunktion von Windows vorbildlich gezeigt. Inzwischen gibt es kaum ein Anwendungsprogramm, das nicht über eine Hilfefunktion verfügt. Lassen Sie uns daher auch auf diese Funktion einen kurzen Blick werfen und uns als Beispiel die Hilfefunktion von Windows 95 anschauen, die weitestgehend auch den Hilfesystemen gängiger Anwendungsprogramme entspricht. Hilfe aufrufen

In Anwendungsprogrammen können Sie die Hilfefunktion immer über die Funktionstaste [F1] oder den Menübefehl Hilfe (manchmal finden Sie auch nur ein Fragezeichen in der Menüleiste) aufrufen. Über diesen Aufruf erhalten Sie Hilfe zur Bedienung des jeweiligen Programms. In den Anwendungsprogrammen vom MS-Office werden Sie gleich beim ersten Aufruf des Programms von einem Assistenten begrüßt, der Ihnen Hilfestellung anbietet.

Bild 9.46: Der Office-Assistent Rocky hilft Ihnen bei Ihren Problemen

Register

Ansonsten meldet sich die Hilfefunktion bei Aufruf über [F1] mit einem Dialogfenster, das aus mehreren Seiten besteht, die durch die Register Inhalt, Index und Suchen gekennzeichnet sind. Die Inhaltsübersicht

In der Inhaltsübersicht sind alle Themen angegeben, zu denen Ihnen das Programm Hilfestellung anbietet. Die jeweiligen Hilfethemen können die Beschreibung eines Befehls, die Bedienung eines Dialogfeldes, Hinweise zu Problemen bei der Arbeit o. Ä. sein.

Bild 9.47: Die Inhaltsübersicht der Hilfe-Funktion

Mehrere Kapitel

Die einzelnen Hilfethemen sind im Arbeitsbereich der Inhaltsübersicht aufgelistet. Jedes einzelne Thema ist durch ein vorangestelltes Buch gekennzeichnet. Dieses Buch deutet auf die Organisation der Hilfethemen hin: Für jedes Hilfethema gibt es ein Buch, das in mehrere Kapitel, die ebenfalls durch ein Buch symbolisiert sind, aufgeteilt ist. Die einzelnen Kapitel bestehen wiederum aus mehreren Seiten. Ein Doppelklick mit der Maus auf ein Buchsymbol öffnet dieses Buch und zeigt den Inhalt an, also entweder die einzelnen Kapitel oder die Seiten der geöffneten Kapitel. Sobald Sie eine einzelne Kapitelseite anklicken, öffnet Windows ein separates Fenster, in dem der Hilfetext angezeigt wird. Der Text enthält Erläuterungen zum Thema, evtl. auch spezielle Tipps, mit denen die Arbeit erleichtert werden kann. Da die Hilfetexte meist länger sind, als das Fenster Platz bietet, müssen Sie evtl. mit Hilfe der Bildlaufleisten durch den Text blättern. Innerhalb des Textes finden Sie häufiger farblich hervorgehobene Begriffe. Wenn Sie diese Begriffe mit der Maus anklicken, werden Ihnen detaillierte Informationen zu diesen Begriffen angezeigt. Ggf. werden Sie dazu zu neuen Textseiten geführt, andere Begriffe führen dagegen zu Erläuterungen oder Hilfestellungen, die im Web abgelegt sind und dort ständig aktualisiert werden.

Bild 9.48: Aus dem kurzen Hinweis zum Erstellen eines Dokuments ist durch Einblenden aller Erläuterungen eine ausführliche Anleitung geworden.

Haben Sie sich auf diese Weise durch mehrere Hilfeseiten gearbeitet, können Sie auch einfach wieder zurückblättern. ●

Drücken Sie dazu einfach die Schaltfläche Zurück im Kopf des Hilfefensters; dadurch wird zur zuletzt angezeigten Hilfeseite zurückgeblättert.

Haben Sie alle Seiten, die Sie sich vorher angeschaut haben, zurückgeblättert, wird der Text in der Schaltfläche Zurück nicht mehr schwarz, sondern grau dargestellt. Das heißt, dass dieser Knopf nicht mehr aktiv ist, da Sie bis zur ersten Seite zurückgeblättert haben. An dieser Stelle hilft Ihnen aber der Knopf Inhalt weiter, der Sie wieder zurück zur Inhaltsübersicht bringt. Der Index

Ist Ihnen die Auflistung der Hilfethemen in der Inhaltsübersicht zu grob, können Sie auch den Index nutzen, um nach einem bestimmten Stichwort zu suchen.

Bild 9.49: Suche nach Hilfethemen über den Index

Im Index-Fenster können Sie einen oder mehrere Schlüsselbegriffe auswählen und danach suchen lassen. Als Ergebnis erhalten Sie zunächst eine Liste von Themen, in denen die gesuchten Begriffe behandelt werden. Durch Anklicken eines der Themen können Sie sich den dazu gehörenden Text in der rechten Fensterhälfte anschauen. Direkthilfe

Weitere hilfreiche Unterstützung bietet Ihnen beispielsweise Windows dann an, wenn die Einstellungen des Betriebssystems angezeigt oder verändert werden sollen. Wie bereits erwähnt, werden viele Optionen des Betriebssystems in Eigenschaftsfenstern zusammengefasst, die Sie über die Systemsteuerung öffnen können. In der Titelzeile dieser Eigenschaftsfenster finden Sie neben der Schaltfläche Schliessen einen weiteren Knopf, der durch ein Fragezeichen markiert ist. Wenn Sie diesen Knopf mit der Maus anklicken, gesellt sich neben den Mauszeiger ein Fragezeichen. Windows erwartet nun, dass Sie den Mauszeiger über ein Element des Eigenschaftsfensters führen und die linke Maustaste drücken. Dadurch erscheint auf dem Bildschirm ein kleines Hilfefenster, das Ihnen genau erklärt, welche Funktion das gewählte Element besitzt.

Bild 9.50: Direkthilfe bei der Kontrolle der System- eigenschaften

9.10 Software-Lizenzen Sie haben in diesem Kapitel eine Reihe von Programmen kennen gelernt, und vielleicht haben Sie sich an der einen oder anderen Stelle gefragt, wie viel Aufwand wohl nötig ist, um ein solches Programm herzustellen. Allgemein kann man darauf sagen, dass moderne Programme das Ergebnis von zum Teil jahrelanger Entwicklung sind, die sich zum Teil auf mehrere, wenn nicht gar viele Köpfe verteilt. Da ist es kein Wunder, das für das eine oder andere Programm einige hundert oder gar tausend Mark über die Ladentheke gereicht werden müssen.

9.10.1 Lizenzen, Shareware, Freeware Lizenzen

Um die Ansprüche eines Programmierers oder einer Firma zu sichern, sind fast alle Programme urheberrechtlich geschützt. Erst durch den Erwerb einer Lizenz sind Sie berechtigt, das jeweilige Programm auf einem PC, je nach Vertrag auch auf mehreren PCs, zu installieren und zu nutzen. Das Erstellen und Installieren einer Raubkopie kann dagegen strafrechtlich verfolgt werden.

Bild 9.51: Das Setup-Programm weist auf die Lizenzbedingungen hin.

Bei größeren bzw. bekannteren Programmen ist es kein Problem, sich vor dem Kauf zu informieren, ob das Programm den eigenen Bedürfnissen entspricht und es sich lohnt, die Lizenzgebühr zu entrichten. Bereits in diesem Buch haben Sie Hinweise zu einigen Programmen erhalten, weiterführende und aktuelle Informationen finden Sie in den unzähligen PC-Zeitschriften. Was aber machen Programmierer, die zwar feine Anwendungen entwickelt haben, aber nicht über einen Werbeetat verfügen, um ihr Produkt bekannt zu machen? Eine Abhilfe bieten Public Domain, Freeware und Shareware. Für den Anwender verbergen sich hinter diesen Begriffen einfache wie auch leistungsfähige Programme, die teilweise in der Lage sind, den großen Vorbildern Konkurrenz zu machen. Ein besonderer Vorteil dieser Programme ist, dass sie entweder umsonst oder gegen eine geringe Gebühr genutzt werden dürfen. Doch was versteckt sich genau hinter diesen Begriffen? Ein einziger Ausgangspunkt, um die Begriffe voneinander abzugrenzen, ist das Urheberrecht. Public Domain und Freeware

Nach amerikanischem Verständnis handelt es sich um Public Domain dann, wenn der Autor sämtliche Rechte an seinem Programm freigibt, d. h. auf sein Urheberrecht verzichtet. Dies bedeutet, dass auch der Inhalt (Quellcode etc.) verändert und weiterverwendet werden darf. Sowie aber ein Autor einen Copyright-Vermerk in seinem Programm verwendet, handelt es sich nicht mehr um Public Domain im klassischen Sinn, sondern um Freeware. Bei Freeware gibt der Autor seine Programme nur unter bestimmten Auflagen frei. Shareware

Bei Shareware handelt es sich um Software, die dem Anwender für eine begrenzte Zeitdauer zur Verfügung gestellt wird. Falls es dann zu einem Einsatz über den vom Autor festgelegten Zeitraum kommen sollte, ist der Anwender verpflichtet, den Registrierungsbetrag zu zahlen. Eine Zuordnung von Software zu den drei Kategorien hat in Deutschland keine rechtliche Bedeutung. Ausschlaggebend ist allein, welche Auflagen ein Autor für die Verbreitung bzw. den Einsatz der von ihm geschriebenen Software vorsieht. Dies hat zur Folge, dass Bezeichnungen wie PD oder Shareware immer einer Betrachtung der vom Autor vorgesehenen Bedingungen bedarf. Shareware-Programme installieren

Der Zugriff auf Software dieser Art ist sehr einfach; in Computerläden und Buchhandlungen finden Sie inzwischen zahlreiche CD-ROMs mit Zusammenstellungen diverser Programme, zum Teil schon nach Aufgabengebieten sortiert. Viele dieser CDs sind voll gestopft mit Programmen, und Sie müssen sich schon einige Zeit nehmen, um einen Überblick über den Inhalt zu erhalten. Interessante Shareware-Programme können Sie auf Ihrem PC installieren und zunächst mit ihnen arbeiten. Meist werden Sie durch ein Dialogfenster darauf hingewiesen, dass es sich bei dem installierten Programm um Shareware handelt, und Sie das Programm nur begrenzte Zeit lizenzfrei nutzen dürfen. Gefällt Ihnen ein Shareware-Programm, müssen Sie einen Registrierungsbeitrag an den Autor zahlen. Die meisten Programme enthalten dazu ein passendes Formular. Gefällt Ihnen das Programm dagegen nicht, löschen Sie es einfach wieder von Ihrer Festplatte und Sie sind aller Verpflichtungen entledigt.

9.10.2 Installation von Anwendungen Häufig werde ich von Bekannten, die sich zum ersten Mal einen Computer gekauft haben, gefragt, was man denn überhaupt mit einer Anwendung machen muss, damit man mit ihr arbeiten kann. Die meisten Programme werden inzwischen auf CD-ROM ausgeliefert, allerdings kann man sie nicht direkt von der CD starten, sondern muss sie zunächst auf dem PC installieren. Dazu werden zunächst die Dateien, die zu dem Programm gehören, auf die Festplatte kopiert; dabei findet meist schon eine Selektion statt, je nachdem, ob Sie alle oder nur bestimmte Funktionen des Programms nutzen wollen. Bei den modernen Anwendungen ist die Installation sehr einfach geworden, viele Programme untersuchen selbstständig die Konfiguration des PCs und bieten eine Reihe von Einstellungen an, die zumeist einfach nur noch übernommen werden müssen. SETUP oder INSTALL

Fast alle Programme werden durch eine Installationsroutine auf einem Rechner eingerichtet. Diese Routine wird in der Regel über den Programmnamen SETUP.EXE aufgerufen, einige Anwendungen nutzen ein Programm namens INSTALL.EXE für die Installation. Sie finden das Programm meist sehr einfach auf dem Datenträger, auf dem sich die Installationsdateien befinden, in der Regel eine CD-ROM, bei kleinen Programmen eine Diskette. Autorun

Mit Windows 95 wurde die Autorun-Funktion eingeführt: Sobald Sie eine CD-ROM in das Laufwerk einlegen, wird ein Programm auf der CD automatisch gestartet, über das Sie auf den Inhalt der CD-ROM zugreifen können. Befinden sich auf der CD-ROM die Installationsdateien für eine Anwendung, wird direkt das Installationsprogramm gestartet. Die meisten Installationsprogramme gehen in mehreren Schritten vor: Willkommen!



Ein Willkommensbild, mit kurzen, allgemeinen Informationen über die zu installierende Anwendung.

Bild 9.52: Das Setup-Programm wird gestartet.

Lizenzvertrag



Häufig folgt als nächstes die Anzeige des Lizenzvertrags, in dem Sie auf die Rechte für die Nutzung der Software hingewiesen werden. Obwohl lästig, sollten Sie sich doch einmal die Mühe machen, sich den Vertrag anzuschauen.

Installationsschlüssel



Mitunter kann nun ein Dialogfenster folgen, in das Sie eine Lizenznummer eintragen müssen. Sie finden diese Nummer meist auf der Rückseite der CD-Box, wenn Sie ein Programm von CD-ROM installieren.

Installationsverzeichnis



Im nächsten Schritt können Sie ein Verzeichnis auswählen, in das die Programmdateien kopiert werden sollen. Die meisten Programme zeigen hier bereits ein Laufwerk und ein Verzeichnis an, Sie können allerdings auch ein anderes Laufwerk oder Verzeichnis bestimmen.

Bild 9.53: Bei der benutzerdefinierten Installation können Sie die zu installierenden Komponenten und das Installationsverzeichnis auswählen.

Installationsmodus





Besteht eine Anwendung aus zahlreichen Komponenten wie z. B. die Office-Anwendungen, können Sie als nächstes auswählen, welche Komponenten installiert werden sollen. Viele Programme bieten dazu einen Standardmodus an, durch den Komponenten installiert werden, die von den meisten Anwendern gewünscht werden. Dieser Modus benötigt keine weiteren Eingaben. Im Modus Benutzerdefiniert können Sie dagegen zum Teil sehr detailliert angaben, welche Komponenten wohin installiert werden sollen. Nach der letzten Bestätigung nimmt die Installation ihren Lauf. Bei manchen Programmen werden Ihnen während der Installation kurze Erläuterungen zum Programm selbst geboten, häufig werden Sie zum Abschluss auch zur Registrierung der Software aufgefordert. Dadurch teilen Sie dem Hersteller mit, dass Sie die Software gekauft und installiert haben. Der Hersteller hat dadurch die Möglichkeit, Sie gezielt über Programmüberarbeitungen zu informieren.

Bild 9.54: Die Fortschrittsanzeige gibt Ihnen einen Hinweis darauf, wie weit die Installation fortgeschritten ist. ●

Letztendlich werden Sie darüber informiert, ob die Installation erfolgreich war. Manchmal können Sie das Programm nun direkt aus dem letzten Informationsbild heraus aufrufen, ansonsten sehen Sie ein neues Symbol auf der Oberfläche oder im Startmenü, über das Sie das Programm starten können.

Ggf. Neustart des Systems



In seltenen Fällen, wenn ein Anwendungsprogramm auch Änderungen am Betriebssystem durchführen musste, ist auch ein Neustart des PCs notwendig. Aber hierüber werden Sie vom Setup-Programm bei Bedarf abschließend informiert.

Bild 9.55: Die Installation war erfolgreich, nun können Sie direkt mit der Arbeit beginnen.

10 Programmierung In den letzten Kapiteln haben Sie bereits einige Anwendungsprogramme kennen gelernt. Diese Programme können Sie beim Hersteller kaufen, einige werden Ihnen beim Erwerb eines Computers mitgeliefert. Sie haben gesehen, dass es eine Vielzahl von verschiedenen Programmen gibt für fast alle Aufgaben und Probleme, die man sich denken kann. Trotzdem ist es möglich, dass Sie nach längerer Arbeit mit einem Programm feststellen, dass es nicht in allen Belangen Ihren Ansprüchen entspricht. Eine Möglichkeit ist dann, eine Softwarefirma zu beauftragen, ein neues Programm zu entwickeln, das Ihre Wünsche erfüllt. Das ist allerdings ein teuerer Spaß und nur Unternehmen können sich dies leisten. Eine andere Möglichkeit besteht darin, selber ein eigenes Programm zu schreiben und es seinen Wünschen anzupassen. Dies ist normalerweise aber nur dem sehr engagierten Computerbenutzer möglich, dem auch Grenzen gesetzt sind. Die Programme, die ich Ihnen in den letzten beiden Kapiteln vorgestellt habe, erfordern einen erheblichen Entwicklungsaufwand. Mehrere Fachleute arbeiten Monate und Jahre an der Entwicklung und Verbesserung solcher Programme. Auch wenn es uns nicht möglich ist, selber ein Textverarbeitungsprogramm zu schreiben, brauchen wir nicht zu verzagen. Einfache Programme wie zum Beispiel zur Verwaltung der Haushaltsausgaben oder der Adressen und Geburtstage von Freunden und Bekannten lassen sich schon nach wenigen Tagen des Einarbeitens in eine Programmiersprache erstellen. Doch lohnt es sich überhaupt noch, angesichts der Vielfalt fertiger Programme, sich selber mit dem Erlernen einer Programmiersprache abzuquälen? Eine Antwort darauf ist nicht einfach. Um mit einem fertigen Anwenderprogramm zu arbeiten, ist es nicht notwendig, eine Programmiersprache zu kennen. Allerdings erleichtert das Erlernen der Programmierung, den Computer besser zu verstehen. Man kann dabei erkennen, dass der Computer nur ein Werkzeug ist, das ausschließlich dazu da ist, die Befehle des Benutzers auszuführen.

10.1 Programmentwicklung Die Entwicklung eines Programms umfasst fünf Arbeitsschritte: 1. Beschreibung des Problems 2. Entwicklung einer Lösungsvorschrift 3. Übersetzung in eine Programmiersprache 4. Testen des Programms 5. Dokumentation (Handbucherstellung) Schauen wir uns diese Schritte zunächst einzeln an.

10.1.1 Beschreibung des Problems Bevor ein Programm geschrieben werden kann, muss sich der Programmierer erst einmal mit dem Problem vertraut machen. Zum Beispiel wünscht ein Kunde ein Programm für die Lagerverwaltung. Der Programmierer muss wissen, wie und wo Daten eingegeben werden sollen, wie sie verarbeitet und wie und wo sie ausgegeben werden sollen. Weiterhin benötigt er Angaben über die Art und Anzahl der zu verwaltenden Daten. Erst wenn diese und weitere Informationen vorliegen, kann er zum nächsten Arbeitsschritt übergehen. Problembeschreibung

Die Problembeschreibung ist kein einfacher Prozess innerhalb der Programmentwicklung. Meist, besonders bei größeren Programmsystemen, wird ihr sehr viel Zeit eingeräumt. Für diese Arbeit gibt es sogar einen eigenen Berufsstand, den System-Analytiker.

System-Analyse Ein System ist ein Gefüge von miteinander verbundenen Teilen, die eine gemeinsame Aufgabe haben. Ein Computersystem ist ein System aus mehreren Komponenten mit einem oder mehreren Computern im Mittelpunkt. Auch Computerprogramme bestehen meist aus mehreren Komponenten, die ggf. auch auf verschiedenen Rechnern verteilt sein können. Häufig benutzt man die Begriffe Programm, Programmsystem, Anwendung, Anwendungssystem oder Applikation synonym. System-Analyse ist der Prozess, zu untersuchen, wie ein bestehendes System arbeitet. Die System-Analyse bietet die Grundlage für Verbesserungen. Unter System-Entwicklung versteht man die Entwicklung eines Plans für ein verbessertes System, aufbauend auf den Ergebnissen der System-Analyse. Ein System-Analytiker hat beides zu leisten, Analyse und Entwicklung. Dabei darf die Analyse nicht auf das rein Technische begrenzt sein. Der System-Analytiker muss bei seinen Überlegungen auch die Menschen berücksichtigen, die mit dem Computersystem in Berührung kommen. Das ausgefeilteste System nutzt wenig, wenn es von den Anwendern nicht akzeptiert wird.

10.1.2 Entwicklung einer Lösungsvorschrift

Programmablaufpläne und Struktogramme

In der Lösungsvorschrift soll festgehalten werden, in welchen Schritten das beschriebene Problem gelöst werden kann. Um die Beschreibung überschaubar zu machen, werden grafische Hilfsmittel benutzt. Die am meisten angewendeten Hilfsmittel sind Programmablaufpläne und Struktogramme. Jeder einzelne Arbeitsschritt wird durch spezielle Symbole gekennzeichnet.

10.1.3 Übersetzung in eine Programmiersprache Im nächsten Schritt wird die logische Folge von Arbeitsschritten in eine Programmiersprache übersetzt. Dem Programmierer stehen mehrere Sprachen zur Verfügung, zum Beispiel C und C++, COBOL, FORTRAN, PASCAL, BASIC, u. a. Für welche Sprache sich ein Programmierer entscheidet, hängt zum einen von seinen Kenntnissen wie auch von der Art des Problems ab. Alle Programmiersprachen sind nicht für alle Probleme gleich gut geeignet. Editor

Ein erfahrener Programmierer schreibt das Programm direkt am Rechner mit Hilfe eines Programms, das einem herkömmlichen Textverarbeitungsprogramm ähnelt, dem so genannten Editor. Als Anfänger sollte man dies allerdings nicht tun, und den Programmtext zunächst auf Papier formulieren.

10.1.4 Testen des Programms Umfangreiche Programme enthalten fast immer noch einige Fehler. Um diese Fehler beseitigen zu können, gibt es mehrere Möglichkeiten: ●



Der Programmierer sitzt vor seinem Programmtext, liest Befehl für Befehl und versucht die Durchführung der Befehle im Kopf nachzuvollziehen. Hierbei können ihm bereits logische Fehler auffallen, aber auch Schreibfehler. Durch ein Übersetzungsprogramm wird der Programmtext in die für den Computer verständliche Sprache übersetzt. Tippfehler wie auch Fehler, die gegen die Regeln der Programmiersprache verstoßen, werden von diesem Programm sofort erkannt und gemeldet (z. B. durch eine Meldung wie SYNTAX ERROR).

Debugger



Doch auch wenn das Programm fehlerfrei in die Maschinensprache des Computers übersetzt werden konnte, kann es logische Fehler enthalten. Um diese Fehler erkennen zu können, gibt es spezielle Programme, so genannte Debugger. Das zu testende Programm wird Schritt für Schritt ausgeführt, und die Ergebnisse jedes Schrittes werden dem Programmierer mitgeteilt.

10.1.5 Dokumentation Die Dokumentation ist ein wichtiger Teil der Programmentwicklung und enthält eine schriftliche Beschreibung des gesamten Entwicklungsprozesses. Die Programmdokumentation enthält in der Regel die ursprüngliche Aufgabenstellung, die grafische Darstellung der Lösungsvorschrift sowie den Programmtext. Kommentare innerhalb des Programms, welche Fremden das Verständnis des Programmablaufs erleichtern, sind ebenfalls sehr wichtig. Nach diesem kurzen Überblick über die Programmentwicklung wollen uns jetzt einige Entwicklungsschritte etwas genauer anschauen.

10.2 Die Entwicklung einer Lösungsvorschrift Nicht nur Computer sollen Probleme lösen, sondern auch wir Menschen. Stellen Sie sich vor, Sie bekommen Besuch von Freunden, und Sie möchten ihnen etwas zu trinken anbieten. Einer Ihrer Freunde wünscht sich einen Vermouthflip. Zunächst stehen Sie etwas verdutzt da. Ihr Freund erkennt Ihre Ratlosigkeit und verrät Ihnen das Rezept! Vermouthflip

Zutaten:: ●

Eigelb



1 Eßlöffel Zuckersirup 1 Glas italienischen Vermouth



1 Muskatnuss



Zubereitung:: ●

Die Zutaten mit Eis in einen Shaker geben, kurz und kräftig schütteln. Mit Hilfe eines Strainers wird das Gemisch in einen Sektkelch geseiht und nach Geschmack mit Muskatnuss bestreut.

Arbeitsanleitung

Mit Hilfe dieser Arbeitsanleitung und den notwendigen Zutaten und Werkzeugen fällt es Ihnen nicht schwer, das gewünschte Getränk zu mixen. Da Sie ein gutes Gedächtnis haben, wird die Zubereitung beim nächsten Besuch Ihres Freundes kein Problem mehr sein. Algorithmus

Eine solche Arbeitsanleitung oder Vorschrift wird auch als Algorithmus bezeichnet. Dieses Wort stammt von dem Namen eines berühmten persischen Mathematikers, Abu Ja'far Mohammed ibn Musa al-Khowarizmi (um 825). Der Name bedeutet: Vater von Ja'far, Mohammed, Sohn des Moses, geboren in Khowarizm. Aus al-Khowarizmi wurde das Wort algorism und daraus später Algorithmus.

Ein Algorithmus besteht aus 2 Teilen. Schauen Sie sich dazu das nächste Beispiel an: ALGORITHMUS Entscheidung; Verwende die untenstehenden Kästchen mit den Namen ZAHL1, ZAHL2 und ERGEBNIS ANFANG Lese die Zahl aus dem Kästchen ZAHL1 und die Zahl aus dem Kästchen ZAHL2 und addiere sie; WENN die sich ergebende Zahl eine ungerade Zahl ist, DANN schreibe in das Kästchen ERGEBNIS ein "U", SONST schreibe in das Kästchen ERGEBNIS ein "G" ENDE. Zahl 1

Zahl 2

Ergebnis

Vereinbarungsteil, Anweisungsteil

Im ersten Teil wird hinter dem Wortsymbol Algorithmus der Name des Algorithmus angegeben (hier: Entscheidung). Anschließend werden die Namen der Kästchen aufgeführt, auf die sich die Anweisungen im zweiten Teil des Algorithmus beziehen. Den ersten Teil eines Algorithmus bezeichnet man als Vereinbarungsteil, da hier vereinbart wird, welche Kästchen im zweiten Teil verwendet werden dürfen. Der zweite Teil enthält die eigentlichen Anweisungen, die angeben, was mit den vereinbarten Kästchen getan werden soll. Dieser Teil wird daher auch als Anweisungsteil bezeichnet. Die Anweisungen werden von oben nach unten gelesen und ausgeführt. Auswahlanweisung

Die Anweisungen hinter »DANN« werden nur ausgeführt, wenn die Aussage hinter »WENN« zutrifft, die Zahl also ungerade ist. Ist die Zahl dagegen gerade, dann werden die Anweisungen hinter »SONST« ausgeführt. Eine solche Anweisung bezeichnet man als Auswahlanweisung, da es eine solche Anweisung erlaubt, zwischen zwei Möglichkeiten auszuwählen. WENN Aussage DANN Anweisung 1 SONST Anweisung 2 Kontrollstrukturen und ihre Darstellung

Der Anweisungsteil eines Algorithmus besteht aus Anweisungen, die ausgeführt werden sollen. Man unterscheidet einfache Anweisungen, wie z. B.: multipliziere den Durchmesser mit PI (3,14...) und Kontrollstrukturen bzw. Steueranweisungen. Steueranweisungen

Diese Kontrollstrukturen machen die Ausführung von Anweisungen von bestimmten Bedingungen abhängig, also z. B: WENN... DANN... SONST ... oder WIEDERHOLE... SOLANGE... BIS ... Steueranweisungen steuern also die Ausführung von einfachen Anweisungen. Algorithmen lassen sich nicht nur umgangssprachlich beschreiben. Anstelle der Formulierung durch Wörter können Steueranweisungen auch graphisch dargestellt werden. Flussdiagramm, Programmablaufplan

Eine graphische Darstellungsform sind Flussdiagramme. Für die Darstellung von Kontrollstrukturen werden sie in Form von Programmablaufplänen (PAP) benutzt, deren einzelne Symbole in der DIN 66001 sogar genormt sind.

Bild 10.1: Symbole für Flussdiagramme

Struktogramm, Nassi-SheidermanDiagramme

Alternativ können so genannte Struktogramme oder Nassi-Sheiderman-Diagramme eingesetzt werden, die eine bessere Veranschaulichung der Steueranweisungen ermöglichen. Die wichtigsten Kontrollstrukturen möchte ich Ihnen nun mit beiden Darstellungsarten vorstellen. Sequenzen: Sollen für die Lösung einer Aufgabe einfach nur mehrere Anweisungen hintereinander ausgeführt werden, können sie im Algorithmus in der gleichen Reihenfolge beschrieben werden.

Bild 10.2: Sequenz dargestellt mit Hilfe von Struktogramm und Programmablaufplan

Beim Struktogramm wird innerhalb eines Rechtecks jede einzelne Anweisung durch eine horizontale Linie von der nächsten Anweisung getrennt. Im Programmablaufplan wird jede Anweisung durch Grafiksymbole gekennzeichnet, die durch Ablauflinien miteinander verbunden werden. Auswahlanweisungen

Auswahl: Auswahlanweisungen werden in einem Algorithmus verwendet, wenn nachfolgende Anweisungen nur unter ganz bestimmten Bedingungen ausgeführt werden sollen. Es gibt drei verschiedene Formen von Auswahlanweisungen: ●

die einseitige Auswahl,



die zweiseitige Auswahl und



die Mehrfachauswahl.

Die zweiseitige Auswahl kennen Sie bereits:

WENN die Sonne scheint, DANN gehe ich ins Freibad, SONST gehe ich spazieren; nächste Anweisung Diese Steueranweisung trifft eine Entscheidung zwischen zwei Möglichkeiten, ins Freibad zu gehen oder spazieren zu gehen, abhängig von der Wetterlage. Die folgende Abbildung zeigt Ihnen die graphische Darstellung der zweiseitigen Auswahl:

Bild 10.3: Zweiseitige Auswahl dargestellt mit Hilfe von Struktogramm und Programmablaufplan

Bei der einseitigen Auswahl wird der SONST-Zweig weggelassen: WENN die Sonne scheint, DANN gehe ich ins Freibad, nächste Anweisung Wird die Bedingung nicht erfüllt, d. h. die Sonne scheint nicht, folgt sofort die nächste Anweisung. Die Mehrfachauswahl erlaubt die Unterscheidung zwischen mehr als zwei Alternativen. Die graphische Darstellung der Mehrfachauswahl sieht aus wie in Bild 10.4 dargestellt. Zwei Zahlen, ZAHL 1 und ZAHL 2, sollen miteinander verrechnet werden; die Art der Rechnung ist abhängig von der Eingabe des Operators: + : Addition (ZAHL 1 + ZAHL 2); - : Subtraktion (ZAHL 1 - ZAHL 2); * : Multiplikation (ZAHL 1 * ZAHL 2); / : Division (ZAHL 1 / ZAHL 2); SONST schreibe »Fehler!«

Bild 10.4: Mehrfachauswahl dargestellt mit Hilfe von Programmablaufplan und Struktogramm

Bei der beschriebenen Form der Mehrfachauswahl entsteht Unsicherheit, wenn ein Auswahlfall auftritt, der bei den aufgeführten Fällen nicht vorhanden ist (wenn irgendein anderes Zeichen benutzt oder eingegeben wird, zum Beispiel $ oder &). Um auch solche Fälle berücksichtigen zu können, kann die Mehrfachauswahl um den SONST-Zweig erweitert werden. Wiederholungen: Nicht nur im Fernsehen gibt es Wiederholungen, sondern auch in Algorithmen und Programmen. In Programmen können sie uns sogar sehr viel Schreibarbeit abnehmen. Nehmen Sie an, Sie haben die Zahl 2, sie soll solange um 1 erhöht werden, bis das Ergebnis den Wert 100 ergibt. Normalerweise müssten Sie schreiben: Wiederholungen 2 + 1 + 1 + 1 + 1 + 1 + 1 + 1 + ... + 1 = 100 Das ist natürlich sehr umständlich. In einem Algorithmus mit einer Wiederholung könnten Sie die Lösung folgendermaßen formulieren: ALGORITHMUS Wiederholung Verwende die Zahl 2 und berechne das Ergebnis; ANFANG Nimm die Zahl 2, SOLANGE der Wert des Ergebnisses kleiner als 100 ist; TUE FOLGENDES ANFANG erhöhe den Wert um 1; ENDE ENDE.

Bild 10.5: Wiederholung dargestellt mit Hilfe von Struktogramm und Programmablaufplan

Die Anweisung zwischen ANFANG und ENDE nach TUE FOLGENDES wird solange wiederholt, bis die Bedingung nach SOLANGE nicht mehr erfüllt ist. Die graphische Darstellung dieses Algorithmus finden Sie in Abbildung 10.5. Allgemein ausgedrückt hat die SOLANGE-Wiederholung folgendes Aussehen: SOLANGE (Abbruchbedingung nicht erfüllt) TUE (Wiederholungsanweisung)

Bild 10.6: Struktogramm für Wiederholung

Schleife

Man bezeichnet eine Wiederholung auch als Schleife. Charakteristisch für die SOLANGE-Wiederholung ist, dass die Bedingung vor Eintritt in die Wiederholung überprüft wird. Man spricht daher auch von einer abweisenden Schleife.

Nicht-abweisende Schleife

Neben dieser abweisenden Schleife gibt es auch eine nicht-abweisende Schleife, die für viele Probleme besser geeignet ist. Die Struktur einer solchen nicht-abweisenden Schleife hat folgendes Aussehen: WIEDERHOLE Wiederholungsanweisung, BIS Abbruchbedingung erfüllt;

Bild 10.7: Nicht abweisende Schleife

Geschachtelte Kontrollstrukturen

Geschachtelte Steueranweisungen: Um auch komplexere Algorithmen mit den dargestellten Kontrollstrukturen beschreiben zu können, muss es noch möglich sein, Kontrollstrukturen »ineinander zu schachteln«. Das heißt, dass eine Anweisung im DANN- oder SONST-Zweig einer Auswahl selbst wieder eine Auswahlanweisung oder auch eine Wiederholung sein kann. Ebenso kann im Wiederholungsteil einer Schleife eine Auswahl oder wieder eine Wiederholung stehen. Nehmen wir folgendes Beispiel: WENN die Sonne scheint, DANN gehe ich ins Freibad, SONST WENN ich zu Hause aufgeräumt habe, DANN gehe ich spazieren, SONST räume ich auf; nächste Anweisung In diesem Beispiel sind zwei Bedingungen ineinander geschachtelt.

Bild 10.8: Geschachtelte Anweisungen

Prozeduren

Aufruf von Algorithmen: Fleißige Programmierer entwickeln im Laufe der Zeit eine ganze Reihe von Lösungen für verschiedenste Probleme. Meist werden die Probleme mit der Zeit komplexer und die Lösungsvorschriften länger. Um die Arbeit zu vereinfachen, gibt es die Möglichkeit, bestehende Algorithmen, fertige »Module« oder »Prozeduren«, in neue einzubauen. Um sich die Schreib- und Denkarbeit zu erleichtern, kann man also in den neuen Algorithmen bereits vorhandene Lösungsvorschriften aufrufen. Bibliotheken

Prozeduren können in »Bibliotheken« zusammengefasst werden, auf die jeder Programmierer zugreifen kann. In Unternehmen, die Software entwickeln, wird reger Gebrauch von derartigen Bibliotheken gemacht. Denn nur die Nutzung dieser vorgefertigten Module macht eine schnelle Programmentwicklung möglich. Manche derartige Bibliotheken sind auch käuflich zu erwerben. Wenn Sie ernsthaftes Interesse an der Programmierung haben und erwägen, selbst ein größeres Programm zu entwickeln, sollten Sie unbedingt erkunden, ob Sie nicht auf eine derartige Bibliothek zurückgreifen können. Somit brauchen Sie das Rad nicht zum x-tenmal zu erfinden!

10.3 Programmiersprachen Ist ein Problem genau beschrieben und eine strukturierte Lösungsvorschrift gefunden worden, kann der Algorithmus in eine Programmiersprache übersetzt werden. Bei gut formulierten Struktogrammen ist die Übersetzung in die Computersprache eigentlich relativ einfach. Zurzeit gibt es über 200 verschiedene Programmiersprachen. Dazu sind noch nicht die Sprachen hinzugezählt, die im Laufe der Jahre für einen ganz bestimmten Zweck entwickelt wurden. Doch selbst der beste Programmierer kann nur eine relativ geringe Zahl von Sprachen beherrschen. Darum haben sich gewisse Standards entwickelt, um Programme auch auf andere Rechner übertragen zu können.

10.3.1 Sprachgenerationen Programmiersprachen haben abhängig von den zugrunde gelegten Zielen und vorgesehenen Einsatzgebieten unterschiedliche Eigenschaften. Aufgrund dieser Eigenschaften werden sie in fünf verschiedene Generationen grob unterteilt. Eine dieser Eigenschaften ist zum Beispiel die Art der Befehle und ihre Ähnlichkeit zur menschlichen Sprache. Sprachen der ersten Generationen lehnen sich stark an die Sprache des Computers (1 und 0) an, während Sprachen höherer Generationen immer mehr der englischen Sprache ähneln. Sprachgenerationen ●

1. Generation: Maschinensprachen



2. Generation: Assemblersprachen



3. Generation: »höhere« Computersprachen

● ●

4. Generation: Makro-Sprachen 5. Generation: KI-Sprachen (Künstliche Intelligenz)

Die Generationen sind nicht als zeitlich aufeinander folgende Entstehungsperioden zu verstehen, sondern eher als Hinweis darauf, in welcher Abfolge Sprachgruppen auf Rechenanlagen anwendbar sind. So muss zum Beispiel für jeden neuen Computer bzw. Mikroprozessor eine neue Maschinensprache, eine Sprache der ersten Generation, entwickelt werden, während andererseits ein berühmter Vertreter der fünften Generation, LISP, bereits in den 50er Jahren entwickelt wurde. Maschinensprachen Sprachen der 1. Generation

Maschinensprachen sind Sprachen der 1. Generation. Während Menschen sich meist mit Zeichen und Worten verständigen, verstehen Computer ausschließlich Zahlen. Sprachen der ersten Generation stellen Informationen nur mit »1« und »0« dar, d. h. alle Anweisungen an den Computer werden nur mit Hilfe der 1 und der 0 formuliert. Die Addition der Zahlen 3 und 4 hätte zum Beispiel die Form: 00011010 0011 0100 Befehl Addiere, Operanden 3,4 Da die Darstellung mit Hilfe von 1 und 0 aber meist zuviel Platz einnehmen würde und zu schwierig zu lesen wäre, können die Befehle und Operanden auch mit Werten aus dem Hexadezimalsystem dargestellt werden: 1C 3 4 Obwohl diese Darstellung eine Erleichterung darstellt, ist die Formulierung von Programmen in Maschinensprache eher fehleranfällig. Aus diesem Grunde wurden Assemblersprachen entwickelt. Assemblersprachen Sprachen der 2. Generation

Assemblersprachen sind Sprachen der 2. Generation. Sie sind Hilfsmittel, um die Maschinenbefehle einprägsamer und besser verständlich darzustellen. Dabei werden die Instruktionen mittels mnemotechnischer, das heißt gedächtnisunterstützender Abkürzungen abgebildet, was die Handhabung wesentlich erleichtert.

Das obige Beispiel für die Addition zweier Zahlen könnte in Assembler so übersetzt werden: ADD 3,4 wobei ADD für Addition steht. Assembler

Programmierer, die Programme in einer Assemblersprache schreiben, benötigen einen Übersetzer, der das Assemblerprogramm in ein Maschinenprogramm übersetzt. Egal in welcher Sprache ein Programm geschrieben wird, der Computer versteht nur Maschinensprache, also Einsen und Nullen. Der Übersetzer ist ein spezielles Programm, das, wie die zu übersetzende Sprache, ebenfalls Assembler genannt wird. Mit Hilfe dieses Programms wird die Übersetzung selbstständig vom Rechner übernommen. Makroassembler

Für häufig verwendete Funktionen, wie zum Beispiel die Bildschirmausgabe, werden die erforderlichen Assemblerbefehle zu so genannten Makros zusammengefasst und in Bibliotheken, in denen diese Makroprogramme abgespeichert sind, gebündelt. Übersetzungsprogramme, die mit Makroaufrufen arbeiten können, werden Makroassembler genannt. Obwohl Assemblersprachen einen wesentlichen Fortschritt hinsichtlich der Verständlichkeit darstellen, beinhalten sie doch eine Reihe von Nachteilen. Einer dieser Nachteile ist, dass der Befehlsvorrat einer Assemblersprache abhängig ist vom Rechnertyp. Ein Assemblerprogramm, das für einen IBM-Personal-Computer geschrieben wurde, lässt sich nicht auf einem anderen Rechner mit einem anderen Prozessortyp aufrufen. Höhere Programmiersprachen Sprachen der 3. Generation

Anstoß zur Entwicklung höherer Programmiersprachen gab die mangelhafte Eignung maschinenorientierter Sprachen zur Erstellung komplexer Anwendungsprogramme. Der Programmierer musste sich mehr um die Details der Sprache und der Maschine kümmern, als um die zu lösenden Probleme. Durch Anpassung der Computersprache an die englische Sprache war sie viel leichter zu erlernen und anzuwenden. Dadurch konnten komplexere Probleme in Lösungsvorschriften für Computer übersetzt werden. 1:1-Übersetzung

Ebenso wie ein Assemblerprogramm muss auch ein in einer höheren Programmiersprache geschriebenes Programm in die Maschinensprache übersetzt werden. Während bei Assemblerprogrammen eine Programmieranweisung in jeweils einen Maschinenbefehl übersetzt wird (1:1-Übersetzung), entspricht bei Programmen höherer Sprachen eine Programmanweisung mehreren Instruktionen im Maschinencode. Für diese Übersetzung in Maschinencode gibt es spezielle Übersetzungsprogramme. Sie werden je nach Übersetzungsverfahren entweder Compiler oder InterpreterÎ genannt. Es gibt eine ganze Reihe von Übersetzungsprogrammen für unterschiedliche Sprachen und für verschiedene Rechner. Ein Compiler oder Interpreter übersetzt den Programmtext in Maschinencode. Dieser Maschinencode unterscheidet sich aber je nach Rechnertyp. Ein in einer höheren Programmiersprache geschriebenes Programm, das auf einem bestimmten Rechner, zum Beispiel IBM PC mit Intel-Prozessor, in Maschinencode übersetzt wurde, ist auf allen Rechnern des gleichen Typs lauffähig, nicht aber auf Rechnern eines anderen Typs, zum Beispiel Workstation mit RISC-Prozessoren. Es gibt aber Compiler, die den gleichen Befehlsvorrat einer höheren Programmiersprache wie z. B. C bzw. C++ für verschiedene Rechnertypen zur Verfügung stellen. Mit diesen Compilern kann der gleiche Programmtext auf den verschiedenen Rechnern in die rechnerspezifische Maschinensprache übersetzt werden. Manche Programmiersprachen wurden für ganz bestimmte Zwecke entwickelt, zum Beispiel für die Steuerung von Industrierobotern oder die Entwicklung von Computergrafiken. Die meisten Sprachen sind dagegen recht flexibel und können für viele verschiedene Aufgaben eingesetzt werden. Die meisten Anwendungsprogramme wurden in den Sprachen COBOL, C oder FORTRAN geschrieben. Weitere sehr verbreitete Sprachen dieser Generation sind BASIC, PASCAL und PL/1. Im nächsten Abschnitt werde ich Ihnen einige dieser Sprachen etwas genauer vorstellen. Sprachen der 4. Generation Makrosprachen

Sprachen der 4. Generation werden zumeist in komplexen Programmsystemen benutzt. Dabei handelt es sich um fertige Anwendungsprogramme, die es dem Benutzer erlauben, mit Hilfe der integrierten Sprache Lösungen für ganz spezielle Probleme zu beschreiben. Die meisten Programmpakete wie z. B. Microsoft Office oder Lotus Smartsuite verfügen jeweils über eine eigene Makrosprache (Visual Basic for Applications oder Lotus Script). Diese Sprachen sind inzwischen recht mächtig; mit ihnen lassen sich nicht nur Funktionen innerhalb eines Programms automatisieren, sondern es können Funktionen aus allen beteiligten Programmen über die Makrosprache miteinander verknüpft werden. Die meisten Datenbanksysteme lassen sich mit eigenen Sprachen den jeweiligen Anwenderbedürfnissen anpassen. Ein Beispiel hierfür haben Sie bereits kennen gelernt, die Datenbankabfragesprache SQL. Wie Sie sich erinnern, wurde mit Hilfe dieser Sprache dem Rechner nur noch gesagt, welche Daten er suchen soll. Wie er das macht, kann dem Benutzer egal sein. Prozedurale und nicht-prozedurale Sprachen

Was aber sind nun die Unterschiede einer Makrosprache zu den bereits erwähnten Sprachen? Sprachen der 4. Generation sind nichtprozedurale Sprachen. Eine prozedurale Sprache sagt einem Computer, wie eine Aufgabe abgearbeitet werden soll: addiere diese zwei

Zahlen, vergleiche sie mit einer dritten Zahl, wiederhole es solange, bis ein bestimmter Wert als Ergebnis auftritt; die Lösung eines Problems wird dem Rechner Schritt für Schritt mitgeteilt. Die ersten drei Generationen sind alle prozedurale Sprachen. Bei nicht-prozeduralen Sprachen sagt der Benutzer dem Computer nur noch, was er haben möchte, er braucht dem Rechner nicht mitzuteilen, wie die Lösung gefunden wird. Operationen, die in einer Sprache der 3. Generation hunderte von Zeilen erfordern, können mit einer Sprache der 4. Generation auf 5 bis 10 Zeilen beschrieben werden. Sprachen der 5. Generation

Sprachen der 5. Generation sind meist mit dem Begriff Künstliche Intelligenz verbunden. Darunter versteht man Computerprogramme, die geistige Fähigkeiten des Menschen simulieren können. Dazu gehören Programme, die optische wie akustische Muster erkennen, natürliche Sprache verstehen und wiedergeben, logische Beweise überprüfen, das Wissen menschlicher Experten verarbeiten können oder die Entwicklung von Robotern betreffen. Die bekanntesten Programmiersprachen der 5. Generation sind LISP (List Processing) und PROLOG (Programming in Logic).

10.3.2 Übersetzer Bevor wird uns den Programmiersprachen an sich widmen, sollten wir uns zuvor noch anschauen, was mit dem Programmcode passieren muss, damit der Computer ihn versteht. Nachdem ein Programmierer eine Lösungsvorschrift als Struktogramm formuliert hat, kann er dieses Struktogramm in eine Programmiersprache übersetzen. Für welche Sprache er sich entscheidet, hängt von verschiedenen Punkten ab. Wie Sie bereits wissen, eignen sich gewisse Programmiersprachen für bestimmte Problemstellungen besser als andere. Der Programmierer muss also die eigene Problemstellung bei der Wahl der Sprache in Betracht ziehen. Ein weiterer sehr wichtiger Punkt ist, welche Sprachen ein Programmierer beherrscht. Wäre die Problemstellung am bestem mit Hilfe von FORTRAN in ein Programm zu übersetzen, unser Programmierer kennt FORTRAN aber nicht ausreichend, benutzt er eben eine Sprache, die er kennt, oder er übergibt die Aufgabe einem Kollegen. Programmtext editieren

Ist die Entscheidung für eine Computersprache gefallen, wird der Programmtext mit Hilfe eines Editor-Programms geschrieben. Ein Editor ähnelt einem Textverarbeitungsprogramm und verfügt über eine ganze Reihe von Funktionen, die die Texteingabe erleichtern. So können beispielsweise ganze Textteile gelöscht, kopiert oder verschoben werden. Als Ergebnis dieser Arbeit entsteht ein Programmtext, wie Sie ihn im nächsten Abschnitt näher kennen lernen werden. Programmtext übersetzen

Der Computer kann mit diesem Text allerdings nichts anfangen, er versteht eine andere Sprache. Es wird also ein Übersetzer benötigt, der die Programmiersprache in die Maschinensprache des Computers übersetzt. Interpreter und Compiler Interpreter

Interpreter sind Programme, die den mit einem Editor geschriebenen Progammtext in den Maschinencode übersetzen. Bei einem Interpreter wird der Programmtext Zeile für Zeile übersetzt, wobei er das Programm auf Fehler überprüft. Es gibt verschiedene Formen von Fehlern. Die Computersprache ähnelt ein wenig der menschlichen Sprache. Unsere Sprache ist gewissen Regeln unterworfen, der Syntax. Verstößt ein Mensch beim Sprechen gegen diese Syntaxregeln, so hört sich die Mitteilung für andere eventuell recht eigenartig an, meist kann man sie aber trotzdem verstehen. Ein Computer ist dagegen nicht so tolerant, die Syntaxregeln müssen genauestens eingehalten werden. Erfordert die Syntax an einer Stelle im Programm ein Komma, so darf hier kein Punkt stehen oder ein anderes Zeichen. Auch die Befehlswörter müssen genauso benutzt und geschrieben werden, wie es das Handbuch zur Computersprache vorschreibt. Abweichungen werden vom Übersetzungsprogramm gnadenlos als »Syntax-Error« (Error = Irrtum) gemeldet. Jeder gefundene Fehler führt bei einem Interpreter zum Abbruch der Übersetzung, die fehlerhafte Zeile wird angezeigt und kann berichtigt werden. Anschließend kann der Übersetzungsprozess neu gestartet werden. Dieser Vorgang muss solange wiederholt werden, bis das Programm fehlerfrei ist. Leider wird die Fehlerprüfung auch dann beibehalten, wenn das Programm fehlerfrei und lauffähig ist. Wieder wird der Programmtext Zeile für Zeile in Maschinencode übersetzt und ausgeführt. Da die Fehlerüberprüfung recht viel Zeit erfordert, sind durch einen Interpreter übersetzte Programme relativ langsam und dadurch für komplexe Lösungen untauglich. Compiler

Ein Compiler tritt dagegen erst in Aktion, wenn der Programmtext fertig geschrieben ist. Der Compiler prüft dann jede einzelne Zeile auf die korrekte Befehlssyntax, genauso wie ein Interpreter. Werden Fehler gefunden, bricht der Compiler die Übersetzung ab und gibt die Art und Position des Fehlers an. Der Programmierer hat nun Gelegenheit, den Fehler zu beseitigen; danach beginnt die Compilierung von neuem bis zum nächsten Fehler. Es gibt auch Compiler, die ein Programm solange übersetzen, bis sie zu einem Fehler kommen, zeigen diesen an und fahren mit der Übersetzung fort. Der Programmierer muss daraufhin die gemeldeten Fehler korrigieren und kann anschließend den Programmcode neu übersetzen lassen. Auf diese Weise können alle Fehler auf einmal korrigiert werden. Maschinencode

Ist das Programm fehlerfrei, wird es als Maschinencode im Arbeitsspeicher des Rechners abgelegt. Zum Start muss es nicht neu übersetzt werden, das Programm läuft mit der maximalen Geschwindigkeit ab, Fehlerprüfungen wie beim Interpreter werden nicht mehr ausgeführt.

Treten bestimmte, z. B. logische Fehler, die der Compiler nicht unbedingt erkennen kann, erst während der Ausführung auf, kann ein Programm »abstürzen«. Ein Programmabsturz kann z. B. dadurch erfolgen, dass der Programmierer eine Schleife vorgesehen, aber keine gültige Abbruchbedingung berücksichtigt hat. In diesem Fall verarbeitet das Programm eine endlose Schleife und gibt die Kontrolle nicht mehr ab. Bei einem Betriebssystem wie DOS ist ein Neustart des Betriebssystems notwendig, während bei Multitaskingsystemen das Programm als einzelne Task in der Regel ohne Probleme beendet werden kann. Optimierende Interpreter

Seit einigen Jahren arbeiten die meisten interpretierenden Sprachen mit einem optimierten Interpretercode; diese Technik vereinigt die Vorteile von Interpreter und Compiler. Beim Erstellen eines Programms erfolgt die direkte Überprüfung der Syntax und ein Programm ist sofort ausführbar. Ist der Entwickler mit der Anwendung zufrieden, wird das fehlerüberprüfte Programm in einer Zwischenform gespeichert. Bei der Ausführung wird diese Zwischenform nicht mehr auf Fehler überprüft, sondern nur in den Maschinencode übersetzt. Bei Schleifen, die normalerweise Zeile für Zeile übersetzt würden, wird die ganze Schleife nur einmal in Maschinencode übersetzt, bei jeder Wiederholung kann das Programm bereits mit dem Maschinencode arbeiten. Optimierende Compiler vereinigen also die bequeme Programmentwicklung eines Interpreters mit der schnellen Ausführung eines kompilierten Programms. Nichtsdestotrotz ist die Ausführungsgeschwindigkeit im Vergleich zu einem vollständig kompilierten Programm noch immer merklich langsamer. Programm speichern

Der fertige Programmtext kann in seiner nicht übersetzten Form als Quell-Code oder in seiner übersetzten Form als Maschinencode auf Platte gespeichert werden. Der Quell-Code wird als eigene Datei mit einem Namen abgelegt. Die Endung des Dateinamens weist in der Regel auf die Programmiersprache hin, .BAS für BASIC, .PAS für PASCAL, .C für C, .PRO für PROLOG usw. Wird das Programm als Maschinencode gespeichert, erhält es die Endung .COM oder .EXE. Während Quell-Code-Dateien vor ihrem ersten Start vom Compiler in die Maschinensprache übersetzt werden müssen, können diese EXE-Dateien direkt von der Betriebssystem-Oberfläche aus gestartet werden. Dadurch entfallen die Übersetzungszeiten, das Programm lässt sich schneller und einfacher starten. Sämtliche Anwendungsprogramme, die Sie kaufen und auf Ihrem Rechner benutzen können, werden auf diese Weise erstellt: Problembeschreibung und Entwicklung einer Lösungsvorschrift, Schreiben des Quelltextes in einer Programmiersprache, Übersetzen in Maschinencode, Abspeichern als .COM- oder .EXE-Datei.

10.3.3 Programmiersprachen unter der Lupe Auf den letzten Seiten haben Sie bereits einige Programmiersprachen und ihre Aufteilung in Generationen kennen gelernt. Um Ihnen aber einen besseren Eindruck zu vermitteln, möchte ich Ihnen die speziellen Eigenschaften der verbreitetsten Sprachen etwas genauer vorstellen. Damit Sie eine genauere Vorstellung von den Sprachen erhalten, zeige ich Ihnen jeweils den Ausdruck eines Programms, das in der jeweiligen Sprache geschrieben wurde. Die Programme dienen der Berechnung des Durchschnitts von Zahlen. Es können beliebig viele Zahlen eingegeben werden. Um dem Rechner mitzuteilen, dass wir keine weitere Zahl eingeben wollen, müssen wir 999 eintippen. In den Beispielausdrucken wird der Durchschnitt von drei Zahlen berechnet. Das Struktogramm für diese kleine Rechenaufgabe gibt Abbildung 10.9 wieder.

Bild 10.9: Struktogramm für die Durchschnittsberechnung

FORTRAN

FORTRAN, Abkürzung für Formula Translator, war die erste Sprache der 3. Generation und wurde 1954 von IBM eingeführt. FORTRAN ist eine wissenschaftlich orientierte Sprache und wird hauptsächlich für mathematische Anwendungen eingesetzt. Sie ist noch immer die am weitesten verbreitete Sprache im wissenschaftlichen Bereich. FORTRAN ist bekannt für ihre Einfachheit und Kürze. Sie eignet sich besonders gut für die Übersetzung von komplexen Formeln, wie sie für ökonomische Analysen und in den Ingenieurwissenschaften benutzt werden. Dagegen eignet sie sich weniger für das Arbeiten mit Texten und umfangreichen Datenbeständen. Die folgende Abbildung zeigt ein FORTRAN-Programm, das die gestellte Aufgabe zur Berechnung des Durchschnitts eingegebener Zahlen löst. Darunter sind die Ausgaben auf dem Bildschirm dargestellt, die von diesem Programm erzeugt werden. C FORTRAN PROGRAM C ERMITTLUNG DES DURCHSCHNITTS EINGEGEBENER ZAHLEN WRITE (6,10) SUMME = 0 ZAEHLER = 0 WRITE (6,60) READ (5,40) ZAHL 1 IF (ZAHL .EQ. 999) GOTO 2 SUMME = SUMME + ZAHL ZAEHLER = ZAEHLER + 1 WRITE (6,70) READ (5,40) ZAHL GOTO 1 2 DURCHSCHNITT = SUMME / ZAEHLER WRITE (6,80) DURCHSCHNITT 10 FORMAT (1X, 'DIESES PROGRAMM BERECHNET DEN DURCHSCHNITT', * 'VON GANZEN ZAHLEN ',/1X, 'GEBEN SIE 999 EIN, UM DIE ', * 'EINGABE ZU BEENDEN.',/) 40 FORMAT (13) 60 FORMAT (1X, 'BITTE GEBEN SIE EINE ZAHL EIN ') 70 FORMAT (1X, 'BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN ') 80 FORMAT (1X, 'DER DURCHSCHNITT BETRÄGT ',F6.2) STOP END Ú---------------------------------------------------------¿ ³ DIESES PROGRAMM BERECHNET DEN DURCHSCHNITT VON GANZEN ZAHLEN ³ ³ GEBEN SIE 999 EIN, UM DIE EINGABE ZU BEENDEN. ³ ³ BITTE GEBEN SIE EINE ZAHL EIN 6 ³ ³ BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN 4 ³ ³ BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN 11 ³ ³ BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN 999 ³ ³ DER DURCHSCHNITT BETRÄGT 7.00 ³ À---------------------------------------------------------Ù Bild 10.10: Programmcode in FORTRAN mit Ergebnisausgabe

Die ersten beiden Zeilen dieses FORTRAN-Programms enthalten Kommentare, die darauf hinweisen, dass dieses Programm zur Berechnung des Durchschnitts mehrerer Zahlen dient. Mit Hilfe der Write-Anweisung werden Ausgaben auf dem Bildschirm erzeugt. Die zweite Zahl in der Klammer verweist auf die Format-Zeile, in der angegeben ist, wie der Ausdruck genau aussehen soll. Mit dem Read-Befehl werden Daten eingelesen und in der Variable Number abgelegt. Die If-Anweisung überprüft, ob der eingegebene Wert gleich 999 ist. Wurde dieser Wert eingegeben, soll das Programm zu der Anweisung springen, die durch die Zahl »2« gekennzeichnet ist. Diese Anweisung berechnet den Durchschnitt, das Ergebnis wird auf dem Bildschirm ausgegeben. Für den PC-Bereich hat FORTRAN so gut wie keine Bedeutung mehr. Lediglich auf dem Großrechner wird in den technischen Bereichen noch immer mit FORTRAN gearbeitet, weil es bereits sehr viele Programme und Funktionsbibliotheken für diese Programmiersprache gibt. COBOL

Während sich FORTRAN in den fünfziger Jahren recht schnell für wissenschaftliche Anwendungen durchsetzte, gab es zu dieser Zeit noch keine allgemein verwendete höhere Programmiersprache für betriebswirtschaftliche Anwendungen. Für diese Zwecke wurde 1959 COBOL (COmmon Business Oriented Language) eingeführt. Das amerikanische Verteidigungsministerium unterstützte die Einführung dieser Programmiersprache dadurch, dass alle Bewerber um Regierungsprojekte, die mit Computern zu tun hatten, COBOL benutzen mussten.

COBOL wurde 1968 durch das American National Standard Institut (ANSI) normiert und seitdem entsprechend den Wandlungen der Datenverarbeitungstechnik angepasst und erweitert. Der letzte gültige Stand der COBOL-Normierung ist ANSI-COBOL-85. COBOL ist der englischen Sprache ähnlicher als FORTRAN oder BASIC. Variablen können so bezeichnet werden, dass selbst in der Programmierung Unerfahrene relativ schnell den Zweck eines Programms herausfinden können. Umso leichter haben es natürlich Programmierer, diese Computersprache zu erlernen. Die Ähnlichkeit zur englischen Sprache birgt allerdings auch den Nachteil, dass ein Programmierer sehr viel schreiben muss. Aus diesem Grund ist es kaum lohnend, mal kurz ein Programm in COBOL zu schreiben. Dafür eignen sich eher andere Sprache wie FORTRAN, BASIC oder PASCAL. COBOL eignet sich besonders für die Verarbeitung großer, komplexer Datenmengen. Obwohl der Zweck und das Ergebnis dieses Programms dem FORTRAN-Programm gleich ist, sieht es doch ganz anders aus. Das Programm ist eingeteilt in vier Abschnitte, so genannte Divisions. Besonders zu beachten sind in der Procedure Division die PerformAnweisungen. Mit ihrer Hilfe wird der Ablauf des Programms vorstrukturiert, die eigentlichen Anweisungen werden durch die ZeilenNummern angewählt. Der Befehl Display dient für Ausgaben auf dem Bildschirm, mit Accept werden Benutzereingaben eingelesen. COBOL ist noch immer eine der wichtigsten Programmiersprachen. Im kaufmännischen Großrechnerbereich sind weit über 50% aller Anwendungen in COBOL geschrieben. Inzwischen werden auch auf dem PC kaufmännische Anwendungen, die auf Großrechnerdaten zugreifen müssen, in COBOL entwickelt. ******************************************************* IDENTIFICATION DIVISION. ******************************************************* PROGRAM-ID. AVERAGE * COBOL PROGRAM * ERMITTLUNG DES DURCHSCHNITTS EINGEGEBENER ZAHLEN AVERAGING INTEGERS * ENTERED THROUGH THE KEYBOARD ******************************************************* ENVIRONMENT DIVISION. ******************************************************* CONFIGURATION SECTION. SOURCE-COMPUTER. H-P 3000. OBJECT-COMPUTER. H-P 3000 ******************************************************* DATA DIVISION. ******************************************************* FILE SECTION. WORKING STORAGE SECTION. 01 AVERAGE PIC ---9.99. 01 COUNTER PIC 9(02) VALUE ZERO. 01 NUMBER-ITEM PIC S9(03). 01 SUM-ITEM PIC S9(06) VALUE ZERO. 01 BLANK-LINE PIC X(80) VALUE SPACES. ******************************************************* PROCEDURE DIVISION. ******************************************************* 100-CONTROL-ROUTINE. PERFORM 200-DISPLAY-INSTRUCTIONS. PERFORM 300-INITIALIZATION-ROUTINE. PERFORM 400-ENTER-AND-ADD UNTIL NUMBER-ITEM = 999. PERFORM 500-CALCULATE-AVERAGE. PERFORM 600-DISPLAY RESULTS. STOP RUN. 200-DISPLAY-INSTRUCTIONS. DISPLAY "DIESES PROGRAMM BERECHNET DEN DURCHSCHNITT VON GANZEN ZAHLEN". DISPLAY "GEBEN SIE 999 EIN, UM DIE EINGABE ZU BEENDEN." DISPLAY BLANK-LINE. 300-INITIALIZATION-ROUTINE. DISPLAY "BITTE GEBEN SIE EINE ZAHL EIN". ACCEPT NUMBER-ITEM TO SUM-ITEM. ADD 1 TO COUNTER. DISPLAY "BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN". ACCEPT NUMBER-ITEM. 500-CALCULATE-AVERAGE. DIVIDE SUM-ITEM BY COUNTER GIVING AVERAGE. 600-DISPLAY-RESULTS. DISPLAY "DER DURCHSCHNITT BETRÄGT" ,AVERAGE.

Bild 10.11: Programmcode in Cobol

Die Programmiersprache C

C ist eine Computersprache, die alle Vorteile einer höheren Programmiersprache enthält, und sich gleichzeitig an die Hardware anpassen lässt wie sonst nur Assemblersprachen. Deshalb eignet sich C für die Programmierung systemnaher Programme. Das Betriebssystem UNIX wie auch die meisten Programme der Firma Microsoft (Word, Windows, MS-DOS, OS/2) sind zum Beispiel in C geschrieben. Obwohl C eine vom Aufbau her einfache und elegante Computersprache ist, lässt sie sich nicht leicht erlernen. Komplexe Programmlösungen erfordern eine absolute Beherrschung der Sprache. Trotzdem erlebte diese Sprache in den letzten Jahren einen deutlichen Auftrieb und mausert sich inzwischen zur wichtigsten Programmiersprache überhaupt. Ein Grund für die weite Verbreitung ist die Normierung von C durch die ANSI-Kommission. Programmierer, die sich an die normierten Konventionen halten, können ihre Programme relativ leicht auch auf andere Rechnertypen übertragen (portieren). In dem folgenden C-Programm sind die Kommentare durch »/*« gekennzeichnet. Genau wie im Pascal-Programm müssen die Variablen zunächst deklariert werden. Dabei steht Float für Fließkommazahl und Int für Integer oder ganze Zahl. Zur Bildschirmausgabe dient hier der Printf-Befehl, Scanf akzeptiert Eingaben des Benutzers. Das Symbol »!=« steht für ungleich. /* C PROGRAM */ /* ERMITTLUNG DES DURCHSCHNITTS EINGEGEBENER ZAHLEN */ main { float average int counter = 0, number, sum = 0 printf ("DIESES PROGRAMM BERECHNET DEN DURCHSCHNITT VON GANZEN ZAHLEN\n") printf ("GEBEN SIE 999 EIN, UM DIE EINGABE ZU BEENDEN.\n\n") printf ("BITTE GEBEN SIE EINE ZAHL EIN") scanf ("%d",&number) while (number != 999) { sum = sum + number counter ++ printf ("BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN") scanf ("%d",&number) } average = sum / counter printf ("DER DURCHSCHNITT BETRÄGT %F", AVERAGE) } Bild 10.12: Programmcode in C

Ein weiterer Grund für die wachsende Fan-Gemeinde ist die objektorientierte Weiterentwicklung C++, die wohl inzwischen zu den am meisten eingesetzten Programmiersprachen zu zählen ist. Fast alle neuen Entwicklungsumgebungen für C-Programme bieten auch die Möglichkeit, C++-Programme zu schreiben. Beispiele für solche Compiler sind Visual C++ von Microsoft und Borland C++. BASIC

BASIC (Abkürzung für: Beginners All-Purpose Symbolic Instruction Code) ist eine leicht zu erlernende Sprache. Sie wurde 1965 für Schüler entwickelt und existiert mittlerweile in vielen verschiedenen Formen. Leider ist bei der Weiterentwicklung von BASIC jeder Hersteller seine eigenen Wege gegangen, so dass es heute für fast jeden Rechner eigene BASIC-Versionen gibt. Diese Sprache wird in erster Linie auf Mikrorechnern eingesetzt, für größere Anwendungen ist BASIC weniger geeignet. Die nur in unzureichendem Ausmaße vorhandenen Strukturierungsmöglichkeiten verleiten zur Erstellung von so genanntem Spaghetticode, das heißt Programmen, die durch häufige Verwendung von unbedingten Sprungbefehlen (in BASIC heißt dieser Befehl: Goto) nur sehr schwer nachzuvollziehen sind. 10 REM BASIC PROGRAMM 20 REM ERMITTLUNG DES DURCHSCHNITTS 25 REM ZAHLEN 30 PRINT "DIESES PROGRAMM BERECHNET VON GANZEN ZAHLEN" 40 PRINT "GEBEN SIE 999 EIN, UM DIE BEENDEN" 50 PRINT 60 SUM = 0 70 COUNTER = 0 80 PRINT "BITTE GEBEN SIE EINE ZAHL

EINGEGEBENER DEN DURCHSCHNITT EINGABE ZU

EIN"

90 INPUT NUMBER 100 IF NUMBER = 999 THEN 160 110 SUM = SUM + NUMBER 120 COUNTER = COUNTER + 1 130 PRINT "BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN" 140 INPUT NUMBER 150 GOTO 100 160 AVERAGE = SUM / COUNTER 170 PRINT "DER DURCHSCHNITT BETRÄGT" AVERAGE 180 END Bild 10.13: Programmcode in Basic

Das BASIC-Programm ähnelt ein wenig FORTRAN-Programmen. Die wesentlichen Unterschiede liegen in den Ein- und Ausgabeanweisungen. Print dient zur Ausgabe des Textes zwischen den Anführungsstrichen, mit Input können Werte eingelesen werden. Kommentare werden durch Rem eingeleitet. BASIC eignet sich für die rasche Erstellung einfacher Programme, zum Erlernen strukturierter Programmierung und zur Erstellung komplexer Lösungen eignet sie sich dagegen weniger. Daher war BASIC in den letzten Jahren ein wenig in der Versenkung verschwunden. Doch das hat sich wieder ein wenig geändert. Visual Basic

BASIC war in den Anfangstagen des PCs eine der verbreitetsten Programmiersprachen für Heimanwender. Mit dem Aufkommen preiswerter und leistungsfähiger Entwicklungsumgebungen für andere Programmiersprachen nahm seine Beliebtheit deutlich ab, ja es war zeitweise sogar direkt verpönt, da es strukturiertes Programmieren nur bedingt unterstützt. Dies änderte sich schlagartig mit Visual Basic von Microsoft. Diese Entwicklungsumgebung sollte die Programmierung von Windows-Programmen auch den Heimanwendern wieder erschließen; darüber hinaus beruht es auf einem BASIC-Dialekt, der sich sehr stark an anderen höheren Programmiersprachen wie z. B. Pascal orientiert. Inzwischen gehört Visual Basic nicht nur bei Hobby-Programmieren mit zu den beliebtesten Programmiersprachen; auch im Profi-Bereich schätzt man die Möglichkeit, in relativ kurzer Zeit ausgereifte Programme entwickeln zu können, ohne über herausragendes Spezialwissen bezüglich der verwendeten Programmiersprache verfügen zu müssen. Selbst bei Anwendungen, bei denen schnell gerechnet werden muss, ist Visual Basic inzwischen ebenfalls bedingungslos einzetzbar, da die neue Entwicklungsumgebung Visual Basic 5 auch die Kompilierung eines Programms ermöglicht. Visual Basic for Applications

Eine weitere Variante der Basic-Sprache darf an dieser Stelle auch nicht unerwähnt bleiben. Ab dem Office 97 stellt Microsoft Visual Basic in allen seinen Anwendungen als Makrosprache zur Verfügung. Bei Visual Basic for Applications, kurz VBA genannt, können die Grundelemente der Sprache dazu verwendet werden, spezielle Funktionen des Anwendungsprogramms in selbst geschriebene Skripten zusammenzufassen. Auf diese Weise können häufig genutzte Funktionen auf einfache Weise dem Anwender zur Verfügung gestellt werden. Windows Scripting Host

Mit der Einführung von Basic als Skriptsprache in den Microsoft-Betriebssystemen eröffnet sich ein neues und sehr wichtiges Einsatzfeld für diese Programmiersprache. Ab Windows 98 bzw. Windows 2000 sind Anwender nicht mehr auf die primitive Batchsprache angewiesen, über die sich DOS-Kommandos in Stapel-Dateien zusammenfassen lassen. Statt dessen können Visual Basic-Programme erstellt werden, die von einem so genannten Host interpretiert werden. Mit Hilfe von Windows Scripting Host (WSH) können somit auch komplexere Betriebssystemfunktionen mit Hilfe einer komfortablen Programmiersprache automatisiert werden.

Bild 10.14: Auch mit WSH lässt sich unser Programmbeispiel realisieren.

WSH ist aber nicht nur auf das Betriebssystem beschränkt: WSH verwendet eine Untermenge von Visual Basic, Visual Basic Script, die auch von den Microsoft Office-Anwendungen verstanden wird, oder alternativ Javascript. Somit können mit Hilfe von WSH bereits von Betriebssystemebene aus Anwendungen mit Hilfe von Scripten gestartet und Dokumente automatisch bearbeitet werden. Aber auch unser Programmbeispiel lässt sich mit WSH beispielsweise in VB-Script realisieren. Die Abbildung zeigt den Quellcode, der einfach mit dem Windows-Editor geschrieben wurde. Die Datei muss die Dateierweiterung .VBS besitzen, damit der Programmcode vom Betriebssystem als VB-Script erkannt und interpretiert wird. Ein einfacher Aufruf der Datei startet das Programm. So können Sie auch ohne aufwändige Programmierumgebung Ihre ersten Programme entwickeln. Die Dokumentation von WSH und VB-Script kann man über das Internet finden. Die aufgeführten Varianten von Visual Basic zeigen, dass die Sprache für jeden Anwender ein Muss darstellt, der sich intensiv mit MicrosoftBetriebssystemen und -anwendungen auseinandersetzen will. Pascal

Pascal, nach dem französischen Philosophen Blaise Pascal (1623-1662) benannt, wurde 1971 von dem Schweizer Computerwissenschaftler Nikolaus Wirth entwickelt. Sie war ursprünglich gedacht zum Erlernen der Programmierung, fand aber bald weite Verbreitung, da sie einfacher ist als andere Programmiersprachen und die strukturierte Programmierung unterstützt. Pascal ist neben BASIC eine der höheren Programmiersprachen, die sich auch auf PCs effizient einsetzen lässt. Besonders weite Verbreitung auf PCs fand Pascal durch eine Version der amerikanischen Softwarefirma Borland, das so genannte Turbo-Pascal. Es zeichnete sich aus durch eine leicht bedienbare Programmierumgebung bestehend aus Editor und Compiler. Wie der Name schon sagt, ist es möglich, mit Turbo-Pascal Programme besonders schnell zu entwickeln. Der Befehlssatz ist außerdem gegenüber dem Standard-Pascal von 1971 erweitert. Delphi

Turbo Pascal war auch eine der ersten auf dem PC verbreiteten Sprachen, die objektorientiertes Programmieren unterstützte. Der große Erfolg von Visual Basic veranlasste Borland, eine entsprechende Entwicklungsumgebung auf der Basis von Pascal anzubieten. Statt des nahe liegenden Namens Visual Pascal heißt das Produkt Delphi. Hinter Delphi verbirgt sich ein Compiler, der den objektorientierten PascalCode in Maschinensprache übersetzt. PROGRAM Durchschnitt (INPUT OUTPUT) (* PASCAL PROGRAMM ZUR *) (* ERMITTLUNG DES DURCHSCHNITTS EINGEGEBENER ZAHLEN *) VAR COUNTER, NUMBER, SUM : INTEGER AVERAGE : REAL BEGIN WRITE ('DIESES PROGRAMM BERECHNET DEN WRITELN ('DURCHSCHNITT VON GANZEN ZAHLEN ') WRITE ('GEBEN SIE 999 EIN, UM DIE EINGABE') WRITELN ('ZU BEENDEN')) SUM := 0 COUNTER := 0 WRITE ('BITTE GEBEN SIE EINE ZAHL EIN: ') READLN (NUMBER) WHILE NUMBER 999 DO

BEGIN SUM := SUM + NUMBER COUNTER := COUNTER + 1 WRITE ('BITTE GEBEN SIE DIE NÄCHSTE ZAHL EIN ') READLN (NUMBER) END AVERAGE := SUM / COUNTER, WRITELN ('DER DURCHSCHNITT BETRÄGT ',AVERAGE:6:2) END. Bild 10.15: Programmcode in Pascal

Ein Pascal-Programm wird durch das Wort Program und einen Namen begonnen. Es folgt die so genannte Deklaration der Variablen, die Namen der Variablen werden aufgezählt und ihr Datentyp (ganze Zahl = Integer, Kommazahl = Real, usw.) angegeben. Mit der Anweisung Write bzw. Writeln wird der Text zwischen den Klammern und Hochkommata auf dem Bildschirm ausgegeben. Durch das Symbol » := » werden Variablen Werte zugewiesen. Das Wort While öffnet eine Schleife, die solange wiederholt wird, bis Number = 999 ist. PROLOG Künstliche Intelligenz

PROLOG ist die jüngste Sprache für den Bereich Künstliche Intelligenz, (siehe Kaptitel 11), und findet besonders weite Verbreitung als Werkzeug für die Programmierung von Systemen, die die Eingabe von Anweisungen in natürlicher Sprache erlauben. PROLOG (PROgramming in LOGic) wurde 1972 von dem Franzosen Alan Colmerauer an der Universität von Marseille entwickelt. Die bereits vorgestellten Computersprachen sind so genannte prozedurale Sprachen. Hierbei gibt der Programmierer dem Computer Schritt für Schritt die Lösung des Problems mit Hilfe der Sprache vor. PROLOG ist dagegen eine deklarative Sprache. Das heißt, dem Computer werden nur allgemeine Fakten und Regeln mitgeteilt, aufgrund derer er relativ selbstständig eigene Schlüsse ziehen kann. Der PROLOGProgrammierer gibt dem Rechner nur eine Beschreibung des Problems und die notwendigen Regeln, um es zu lösen. Das PROLOG-System bestimmt dann den Weg zur Lösung. Ein PROLOG-Programm besteht im Wesentlichen aus einer Liste von logischen Aussagen, entweder in Form von Fakten wie: Es regnet heute. oder in Form von Regeln: Wenn es regnet und du deinen Regenschirm vergessen hast dann wirst du nass. Weiterhin kann PROLOG Schlüsse ziehen. Nehmen wir folgende Fakten: Klaus mag Petra. Thomas mag Norbert. Die Regel könnte sein, dass Ulrike jeden mag, den auch Thomas mag, in PROLOG übersetzt: Ulrike mag X, if Thomas mag X. Da Thomas Norbert mag, kann Prolog nach dieser Regel folgern, dass Ulrike ebenfalls Norbert mag: Ulrike mag Norbert. Die Aufgabe an PROLOG könnte zum Beispiel sein, alle Personen herauszufinden, die Norbert mögen. An diesen kleinen Beispielen können Sie bereits erkennen, dass diese Programmiersprache gänzlich anders funktioniert als die vorhergehenden Sprachen. Abschließend möchte ich Ihnen noch ein kleines vollständiges PROLOG-Programm vorstellen, das auf dem Compiler Turbo-Prolog von Borland basiert, der inzwischen leider nicht mehr angeboten wird.

domains person, activity = symbol predicates likes(person,activity) clauses likes(ellen,tennis). likes(john,football). likes(tom,baseball). likes(eric,swimming). likes(mark,tennis). likes(bill,X) if likes(tom,X). Bild 10.16: Kleines Prolog-Programm

Unter »domains« werden die Objekte und ihr Datentyp bestimmt, die in den folgenden Aussagen benutzt werden. In diesem Fall sind die Objekte »person« und »activity« vom Datentyp »symbol«, der Ketten aus alphanumerischen Zeichen (so genannte Strings) erlaubt. Unter »predicates« wird festgelegt, dass »likes« eine Beziehung darstellt zwischen den beiden Objekten »person« und »activity«. Diese Beziehungen sind als Fakten und Regeln unter »clauses« genau beschrieben. Dieses einfache Programm könnte nun die Frage (in PROLOG »Goal« bezeichnet) beantworten, welche Aktivität Bill mag. Andere Sprachen

Die eben beschriebenen Sprachen sind sicherlich die am weitesten verbreiteten Computersprachen. Daneben gibt es aber noch eine Reihe von Sprachen, die nicht so populär sind. Trotzdem hört und liest man manchmal von ihnen. Deshalb sollen einige von ihnen hier noch kurz vorgestellt werden. ●

ADA Ada ist eine besonders in Amerika sehr verbreitete Programmiersprache. Sie ähnelt in hohem Maße Pascal. Einige Konzepte zur Strukturierung von Programmen wurden jedoch weiterentwickelt.



PL/1 PL/1 - Programming Language One - wurde 1964 eingeführt. Sie ist eine besonders mächtige Programmiersprache und soll einen Kompromiss darstellen zwischen wissenschaftlichen und betriebswirtschaftlichen Anwendungen.



Java Die letzte Sprache, die ich Ihnen hier vorstellen möchte, ist die jüngste. Sie wurde erst 1995 richtig bekannt und hat seit dem späten Herbst 1995 einen bis dahin in der Computerbranche kaum gesehenen Boom erfahren.

Objektorientierte Programmiersprache

Java ist eine objektorientierte Programmiersprache, die C++ sehr ähnlich ist. Allerdings wurden aus dem Sprachumfang alle Befehle entfernt, die sich bei C++ als schwer beherrschbar erwiesen hatten. Java wird darüber hinaus nicht kompiliert, sondern interpretiert. Das vereinfacht die Entwicklung von Programmen, da der Programmierer sogleich auf Syntaxfehler hingewiesen wird. Allerdings beinhaltet die Entwicklungsumgebung für Java einen optimierenden Interpreter, der schon fast so schnell arbeitet wie normale kompilierte Programme. Die bisher genannten Eigenschaften sind an sich noch nichts Besonderes, sondern werden von anderen Sprachen auch geleistet. Um den Erfolg von Java zu verstehen, muss man einen Blick auf die Hintergründe für die Entwicklung dieser Sprache werfen. Unabhängig vom Betriebssystem

Java wurde von der Firma Sun, die auf UNIX-Rechner und -Betriebssysteme spezialisiert ist, entwickelt. Java-Programme sollten aber nicht nur UNIX-Rechnern vorbehalten bleiben, sondern auch unter möglichst vielen anderen Betriebssystemen arbeiten können. Daher hat man sich für die Realisierung als Interpretersprache entschieden. Für jede unterstützte Betriebssystemplattform muss nur ein passender JavaInterpreter angeboten werden; die Java-Programme sind auf allen diesen Plattformen ablauffähig. Programme bestehen aus kleinen Modulen

Weiterhin sollte es möglich sein, Java-Programme über Netzwerke, besonders über das Internet (siehe Kapitel 14), verteilen zu können. Da die Übertragungsleitungen im Internet aber teilweise recht langsam sind, können auch nur kleine Programme in relativ kurzer Zeit übertragen werden. Aus diesem Grund ist Java streng objektorientiert. Diese Technik, die wir uns gleich noch näher anschauen werden, ermöglicht die Aufteilung eines großen Programmsystems wie z. B. eines Textverarbeitungsprogramms, in viele kleine handliche Module. So könnte ein objektorientiertes Textverarbeitungsprogramm zunächst aus einem einfachen Texteditor bestehen, in den Sie Ihren Text eingeben. Erst wenn Sie den Text formatieren wollen, werden die dazu notwendigen Programmteile in den Arbeitsspeicher Ihres Computers geladen. Dabei ist es dann egal, wo sich die einzelnen Programmbausteine befinden, ob auf der Festplatte Ihres PCs, auf einem anderen Rechner in einem lokalen Netzwerk oder irgendwo im Internet. Applets

Inzwischen wurde Java von vielen namhaften Firmen lizenziert, entsprechend groß ist inzwischen auch die Anzahl von

Entwicklungsumgebungen für diese Programmiersprache, die auf dem Markt angeboten werden. Zahlreiche Internet-Seiten sind mit Hilfe von Java- Anwendungen und -Anwendungsbausteinen (im Java-Jargon auch Applets genannt) angereichert. Aber auch die professionelle Softwareentwicklung bedient sich inzwischen dieser Sprache, um zum Teil auch große Anwendungen zu entwickeln, die einerseits unabhängig von der verwendeten Hardware und den Betriebssystemen sein, andererseits auch Kommunikation über das Internet ermöglichen sollen. Daher ist Java auf dem besten Wege, sich neben C++ in die Reihe der professionellen Programmiersprachen einzugliedern.

10.4 Prozedurale und objektorientierte Programmierung Prozedurale Programmierung

Zwei wichtige Konzepte innerhalb der Programmierung möchte ich Ihnen am Ende dieses Kapitels noch vorstellen. Da ist zum einen die so genannte prozedurale Programmierung. In dem Abschnitt »Programmiersprachen unter der Lupe« habe ich Ihnen einige Programme vorgestellt, die alle dasselbe Ergebnis erzielen, nur in unterschiedlichen Programmiersprachen geschrieben sind. Während diese Programme nur aus wenigen Zeilen Programmcode bestehen, ergeben sich große professionelle Programmsysteme aus tausenden von Zeilen Code. Üblicherweise tauchen bei der Entwicklung eines Programms immer wieder Aufgaben auf, die häufig wiederholt werden. So könnte zum Beispiel die Berechnung des Kreisumfangs in einem Programm mehrfach benötigt werden, ebenso wie die Berechnung des Durchschnitts einer bestimmten Anzahl von Werten. Prozeduren

Um in diesen Fällen den Programmcode für diese Aufgaben nicht ständig neu zu schreiben, werden so genannte Unterprogramme oder Prozeduren entwickelt. Eine Prozedur ist praktisch ein kleines Programm innerhalb des größeren Hauptprogramms. Eine Prozedur zur Berechnung des Durchschnitts könnte vom Hauptprogramm aufgerufen werden mit gleichzeitiger Übergabe der Werte, aus denen der Durchschnitt berechnet werden sollte. Nach getaner Arbeit würde die Prozedur das Ergebnis an das Hauptprogramm übergeben. Trennung zwischen Programmcode und Daten

Wesentlicher Kritikpunkt an dieser Arbeitsweise ist die völlige Trennung zwischen Programmcode und den zu verarbeitenden Daten. Der Entwickler einer Prozedur muss von vornherein alle Eventualitäten abschätzen, damit die Prozedur auch möglichst allgemein und in allen Teilen des Hauptprogramms richtig arbeitet. Idealerweise müsste die neuentwickelte Prozedur auch in anderen, künftigen Programmierprojekten anwendbar sein, um möglichst viel Zeit zu sparen und das Rad nicht immer wieder neu zu erfinden. Doch genau hier liegt das Problem, häufig kommt es zu Programmfehlern, wenn Datentypen oder die Anzahl der Datenelemente nicht den ursprünglichen Anforderungen entsprechen. Die falsche Zuordnung von Prozeduren zu den Eingabedaten kann aber auch in ganz speziellen, selten vorkommenden Programmkonstellationen auftreten. In komplexeren Anwendungen ist es fast unmöglich, sämtliche Konstellationen aller Programmteile auszutesten, wodurch eigentlich erst Fehlerfreiheit sichergestellt werden könnte. Die Wartung und Fehlerbeseitigung wird dadurch außerordentlich aufwändig. Objektorientierte Programmierung Objekte

Einen etwas anderen Ansatz hat die objektorientierte Programmierung. Hier steht das Objekt im Vordergrund. Man versucht, mit den Mitteln einer Programmiersprache Objekte der realen Welt zu modellieren, sprich nachzubilden. Autos, Häuser, Firmen, Kunden, Lieferanten, Rechnungen und Lieferscheine lassen sich als Objekte beschreiben. Attribute und Methoden

Objekte haben Eigenschaften und Fähigkeiten. Eine Rechnung besteht beispielsweise aus einem Absender, einem Adressaten, Waren oder Leistungen, die berechnet werden, und einem Rechnungsbetrag. Alle diese Eigenschaften (Attribute) sind von Rechnung zu Rechnung unterschiedlich, die Art und Weise, wie die Attribute sich ändern, ist aber immer gleich. Spezielle Funktionen (Methoden) dienen zur Anpassung der Attributwerte: Während der Absender in einer Firma meist immer gleich bleibt, wird die Adresse des Empfängers aus einer Datenbank ausgelesen. In einer anderen Datenbank ist aufgezeichnet, welche Gegenstände geliefert bzw. welche Leistungen erbracht wurden und wie diese in Rechnung zu stellen sind. Der Endbetrag wird durch eine Funktion bzw. Methode berechnet, die die Einzelposten aufaddiert und die Mehrwertsteuer aufschlägt.

Bild 10.17: Das Objekt Rechnung

Sie sehen, dass sich auf diese Weise alle realen wie auch abstrakten Objekte mit Hilfe von Attributen und Methoden beschreiben lassen. Datenkapselung

In der objektorientierten Programmierung betrachtet man Objekte als von außen unveränderlich. So darf innerhalb eines Programms keine Funktion, die außerhalb eines Objekts beschrieben wurde, die Attribute dieses Objekts verändern. Während in der prozeduralen Programmierung eine allgemeine Funktion für die Mehrwertsteuerberechnung zuständig sein könnte, ist diese Berechnung bei der Objektorientierung Teil eines Objekts, in unserem Beispiel der Rechnung. Werte für Attribute wie »Mehrwertsteuerbetrag« oder »Rechnungsbetrag« können nur durch die dem Objekt eigenen Methoden berechnet bzw. verändert werden. Dieses Prinzip nennt man Datenkapselung. In einem Unternehmen werden meist sehr unterschiedliche Rechnungen geschrieben. Nehmen wir der Einfachheit halber an, es gibt zwei Kategorien von Rechnungen, die sich jeweils durch den Mehrwertsteuersatz unterscheiden. Die Rechnung mit dem reduzierten Steuersatz soll einen entsprechenden Vermerk enthalten. Vererbung

Beide Rechnungsarten haben die meisten Attribute und Methoden gemeinsam, sie unterscheiden sich nur im Attribut Steuersatz und durch ein zusätzliches Attribut, Bemerkung, das als Wert einen Text enthält, der den Steuersatz erklärt. Würden wir nun zwei verschiedene Objekte entwerfen, die jeweils alle Attribute und Methoden enthalten, würden wir uns sehr viel unnötige Arbeit machen. Eine Abhilfe bietet die Objektorientierung mit dem Prinzip der Vererbung. Klassen

Hierzu könnte man die bereits beschriebene Rechnung als ein allgemeines Konzept behandeln, das als Klasse bezeichnet wird. Die Klasse »Rechnung« hat alle Eigenschaften und Methoden, die allen Rechnungen gemeinsam sind. Für die Unterscheidung der Mehrwertsteuersätze werden zwei Unterklassen (auch Subklassen genannt) definiert, die nur die Attribute und Methoden besitzen, die sie voneinander unterscheiden. Alle gemeinsamen Eigenschaften werden von der Oberklasse geerbt. Durch diesen Prozess werden mehrfache Definitionen von Eigenschaften und Methoden vermieden, das Programm gewinnt erheblich an Übersichtlichkeit. Polymorphie

Ein weiteres wichtiges Prinzip der Objektorientierung ist die Polymorphie. Erweitern wir für ein Beispiel die Rechnungsschreibung um die Möglichkeit, die zu berechnenden Waren gegebenenfalls auch als Grafik darzustellen. Es werden nun also zwei verschiedene Methoden für die Auflistung der Artikel benötigt. Die eine Methode schreibt wie bisher den Namen der Waren, eventuell mit Artikelnummer, die andere Methode malt dagegen ein kleines Symbol in die entsprechende Rechnungszeile. Die Polymorphie bietet einen einfachen Ausweg. Die Methode »Ausgabe Artikel« kann allgemein in der Oberklasse Rechnung definiert werden. Die Implementation der Methode, d. h. die Beschreibung der Methode in Form von Programmcode, findet in den entsprechenden Unterklassen statt. Polymorphie lässt sich mit Vielgestaltigkeit übersetzen. In unserem Beispiel nimmt die Methode »Ausgabe Artikel« zweierlei Gestalt an.

Bild 10.18: Das Objekt Rechnung mit zwei Subobjekten

Kapselung

Das Ziel der Objektorientierung ist die Erstellung von Programmcode, der eine Einheit bildet (gekapselt ist) und dadurch sehr einfach in größere Programmsysteme eingebunden werden kann. Ein bis jetzt noch etwas entferntes Ziel ist das Erstellen von Programmen durch Zusammensetzen von fertigen Bausteinen. Als Vorbild dienen Ingenieure, die komplexe Maschinenanlagen aus klar definierten und normierten Bauteilen (Pumpe XY nach DIN 4711) zusammensetzen. Klassenbibliotheken

Inzwischen werden von einigen Softwarehäusern so genannte Klassenbibliotheken angeboten, die allgemein verwendbare Objektklassen mit den dazugehörigen Methoden enthalten. Einzelne Objekte können aus diesen Bibliotheken in eigene Programme übernommen und die Methoden genutzt werden. SIMULA, Smalltalk, C++, Delphi, Java

Obwohl bereits Mitte der sechziger Jahre die Programmiersprache SIMULA die soeben beschriebenen Prinzipien der objektorientierten Programmierung beinhaltete, dauerte es noch bis zum Beginn der achtziger Jahre, bis dieser neue Ansatz an Verbreitung gewann. Die Sprache Smalltalk, die auch bald recht preisgünstig für den PC verfügbar war, verschaffte dem objektorientierten Ansatz den Durchbruch. Heute dominiert eine Weiterentwicklung der Sprache C, C++, bei den objektorientierten Sprachen. Weiterhin ermöglicht auch die Entwicklungsumgebung Delphi mit ihrem objektorientierten Pascal oder auch das neue Java, wie bereits besprochen, die moderne Entwicklung von Programmen. Darüber hinaus wächst langsam der Markt, Sprachen der 4. und 5. Generation enthalten objektorientierte Elemente ebenso wie bald auch objektorientierte Datenbanken. Der Siegeszug dieses neuen Ansatzes in der Programmierung ist unaufhaltsam. Objekt Management Group

Einen wichtigen Beitrag zur Weiterentwicklung der Objektorientierung leisten auch Organisationen, die sich um eine Standardisierung dieser Technologie bemühen. Die verbreitetste Organisation ist die Objekt Management Group (OMG). Ein Ziel dieser Gruppe führender Soft- und Hardware-Hersteller ist die Entwicklung von Konventionen zur allgemeinen Beschreibung von Objekten und ihrer Methoden. Mit Hilfe dieser Standards soll der Austausch von Objekten unabhängig von der Programmiersprache, in welcher die Objekte bzw. ihre Methoden realisiert wurden, möglich sein. Komponenten-Software Visual Basic ist nicht objektorientiert

Die weitestgehend gleiche Zielsetzung, aber auf einem anderen Weg, verfolgt beispielsweise die inzwischen sehr beliebte Programmiersprache Visual Basic von Microsoft. Diese Sprache ist nicht objektorientiert, auch wenn bei der Beschreibung von Visual-Basic häufig von Objekten geredet wird. Bei der Behandlung von Windows erwähnte ich bereits, dass einzelne Bestandteile der WindowsOberfläche häufig als Objekte bezeichnet werden, also Schaltknöpfe, Menüs, Dialogfenster, Ordner usw. Wenn man in Visual-Basic ein Programm entwickelt, beginnt man zunächst mit der Gestaltung der Oberfläche dieses Programms, d. h. man entwirft ein Anwendungsfenster mit Feldern für die Eingabe oder Ausgabe von Text, Menüs und Schaltknöpfen, durch deren Auswahl bzw. Aktivierung irgendwelche Aktionen ausgelöst werden. Diese Aktionen beruhen auf Programmcode, der direkt den einzelnen Windows-Objekten zugeordnet ist, also dass z. B. beim Anklicken eines Schaltknopfes die Werte aus den Eingabefeldern gelesen und verrechnet werden und das Ergebnis in einem Ausgabefenster erscheinen soll. Der Programmcode ist also direkt mit einem »Objekt« verbunden, selber aber nicht objektorientiert. Wiederverwendbare Programmbausteine

Ein dagegen erheblicher Vorteil von Visual-Basic ist, dass die Entwicklungsumgebung, und damit auch der Sprachvorrat, um separat entwickelte Module erweitert werden kann. Diese Zusatzmodule, die als Visual-Basic Controls bzw. OLE Custom Controls bekannt sind und

die Sie an den Dateierweiterungen .VBX bzw. OCX erkennen können, lassen sich in C bzw. C++ oder auch in Visual-Basic selbst programmieren. Auf diese Weise können beispielsweise Tabellenkalkulationsfunktionen als OCX-Modul zur Verfügung gestellt werden, die der Programmierer einfach in sein Visual-Basic-Programm einbaut und seinem Bedarf entsprechend nutzt. Auf dieses Weise unterstützt also Visual-Basic eine der wichtigsten Anforderungen der objektorientierten Programmierung: Die Nutzung von wieder verwendbaren Programmbausteinen. Inzwischen gibt es einen breiten Markt für solche Programmbausteine, teilweise werden sie sogar umsonst auf CDROMs oder in den diversen Online-Diensten angeboten.

Bild 10.19: In der Visual-Basic-Entwicklungsumgebung kann man sich beim Programmieren an der Programmoberfläche orientieren. Erst werden die Programmelemente als Formulare entworfen (z. B. ein Ok-Knopf), dann wird der dazu gehörende Programmcode entwickelt.

11 Künstliche Intelligenz Die Entwicklung von Computerprogrammen, die durch Problemlösen oder mit Hilfe von natürlicher Sprache Intelligenzleistungen erbringen, gehört in den Bereich der Künstlichen Intelligenz. Künstliche Intelligenz heißt, mit Hilfe von Computern Ergebnisse zu erzielen, die als intelligent bezeichnet würden, wenn sie von Menschen erzielt würden.

11.1 Einführung Turing-Test

Zunächst stellt sich die Frage, wie wir wissen können, ob eine Maschine denkt oder sich intelligent verhält? Der Mathematiker Turing schlug in einem 1950 verfassten Artikel mit dem Titel »Können Maschinen denken?«, folgenden Test vor (heute Turing-Test genannt): In einem Zimmer befinden sich zwei Fernschreiber und eine Person in der Funktion des Beurteilers. Der Beurteiler kann jede beliebige Frage eintippen. Der eine Fernschreiber steht mit einer Person in einem anderen Raum in Verbindung, welche dann ihre entsprechenden Antworten eingibt, der andere Fernschreiber ist an einen Computer angeschlossen, der seine Antworten ebenfalls ausdruckt. Wenn der Beurteiler nicht entscheiden kann, welche Antworten von der Maschine und welche von der anderen Person stammen, dann kann man sagen, dass sich der Computer intelligent verhält. Artificial Intelligence

Im Sommer 1956 trafen sich zehn junge Wissenschaftler im Dartmouth-College in Hanover, New Hampshire, USA. Sie diskutierten über die Möglichkeit, Computerprogramme zu entwickeln, die sich intelligent verhalten bzw. denken können. Sie gingen von der Annahme aus, dass jeder Aspekt des Lernens oder jede andere Eigenschaft der Intelligenz im Prinzip so genau beschrieben werden kann, dass man eine Maschine dazu bringen kann, dies zu simulieren. Zu dieser Zeit wurde von einem der Teilnehmer dieser Konferenz, John McCarthy, der Begriff »Artificial Intelligence« oder, einfach übersetzt, »Künstliche Intelligenz« (abgekürzt KI) eingeführt. Allgemeine Problemlöser und Expertensysteme

Das Forschungsgebiet der Künstlichen Intelligenz lässt sich in über drei Dutzend verschiedene Problembereiche unterteilen. Es gibt verschiedene Möglichkeiten, diese vielen Bereiche in Kategorien zu unterteilen. Eine wichtige Unterscheidung ist die in allgemeine Problemlöser und Expertensysteme. Allgemeine Problemlöser sind Programme oder Familien von Programmen, die sich auf die meisten Arten von Problemen anwenden lassen. Expertensysteme verfügen dagegen über ein detailliertes Wissen auf einem bestimmten Gebiet, sind aber relativ eingeschränkt in ihrer Anwendbarkeit. Weitere wichtige Kategorien enthalten Programmsysteme zur Spracherkennung, zur optischen Wiedererkennung von Bildern, Robotund Lehrsysteme. Logic Theorist

Während die meisten Wissenschaftler von Dartmouth noch über die Möglichkeit denkender Maschinen nachdachten, entwickelten die amerikanischen Wissenschaftler Newell und Simon (von 1952 bis August 1956) ihr erstes »intelligentes« Programm, den Logic Theorist (LT). Dieses Programm war in der Lage, die von den Philosophen und Mathematikern A. N. Whitehead und Bertrand Russell in den Principia Mathematica aufgestellten Theoreme zu überprüfen. General Problem Solver

Trotz der beachtlichen Leistungen dieses Programms war es doch nur für mathematische Probleme anwendbar und nicht allgemein genug. Der General Problem Solver (Allgemeiner Problemlöser) oder GPS von Newell und Simon (1957) ist eines der bekanntesten und allgemeinsten Programme und auch das ehrgeizigste Projekt der beiden. GPS war als Beweis dafür gedacht, dass bestimmte Problemlösungstechniken auf die verschiedensten Aufgaben anwendbar sind. Newell und Simon analysierten, wie Studenten Probleme lösen. Sie legten ihren Versuchspersonen Denkaufgaben vor, und die Studenten sollten aufzeichnen, wie sie zur Lösung der Aufgabe kamen. Die beiden Forscher stellten fest, dass zur Lösung der Aufgaben immer die gleichen Techniken bzw. Regeln angewendet wurden. Diese allgemeinen Regeln führen nicht immer auf Anhieb zum Ziel, manchmal enden sie auch in einer Sackgasse. Bei komplexen Problemen erleichtern sie jedoch die Problemlösung erheblich. Heuristik

Solche Problemlösungstechniken oder Faustregeln werden auch Heuristik genannt. Das Gegenteil einer Heuristik ist der Ihnen bereits bekannte Algorithmus. Während in einem Algorithmus der Weg zur Lösung eines Problems Schritt für Schritt genau beschrieben ist, enthält die Heuristik nur allgemeine Regeln, welche die Lösungsfindung erleichtern. Dafür ist die Heuristik im Gegensatz zum Algorithmus auf verschiedene Probleme anwendbar. Kehren wir zurück zum Allgemeinen Problemlöser von Newell und Simon. Dieses Programm arbeitete mit folgender Heuristik: 1. Definiere den Unterschied zwischen der momentanen Situation und dem angegebenen Ziel. 2. Finde einen Weg, der diesen Unterschied reduziert und gehe danach vor. 3. Stelle fest, ob das Endziel erreicht wurde. Wenn nicht, gehe zurück zu Punkt 1. GPS kann eine Variante der Flussüberquerungsaufgabe lösen (Missionare und Kannibalen), Schach spielen, die Turm-von-Hanoi-Aufgabe, Umfüllaufgaben, Buchstabenreihen-Ergänzungsaufgaben, mathematische Rechenaufgaben und noch ein halbes Dutzend anderer Probleme mehr lösen. Bei komplexeren Problemen versagt jedoch auch dieses Programm. Im Laufe der Zeit hat man die Hoffnung auf Programme, die allgemeine Probleme lösen können, aufgegeben. Heute geht der Trend mehr zur Entwicklung spezialisierter Programme. Während es unmöglich scheint, selbst das Wissen eines 10-jährigen Kindes in einen Computer einzugeben, lässt sich ein Computer mit dem Wissen eines Experten zu einem eng umrissenen Problem füttern.

11.2 Expertensysteme Noch einmal kurz zurück zu dem Begriff »Künstliche Intelligenz«. Artificial Intelligence

Dieser Begriff impliziert eine Verwandtschaft zur menschlichen Intelligenz. Doch das entspräche nicht vollständig dem ursprünglichen englischen Begriff »Artificial Intelligence«. »Intelligence« im englischen bzw. amerikanischen Sprachgebrauch bedeutet nicht ausschließlich »Intelligenz«, sondern auch »Suchen«, »Ermitteln« oder »Auskunft«. Diese Begriffe lassen sich anwenden auf das Suchen oder Ermitteln von Fakten und Auskünften (vgl. »Central Intelligence Agency«, CIA; hier bezieht sich »Intelligence« weniger auf das menschliche Denkvermögen, sondern eher auf das beharrliche Sammeln und Zusammenfassen von Informationen. Konsequenterweise ist es möglich, »Artificial Intelligence« als die Umsetzung komplexer Such- oder Ermittlungsverfahren in Computerprogrammen zu interpretieren. Eine solche Sichtweise kommt dem, was tatsächlich auf der Basis gegenwärtiger Expertensystemtechnologie »machbar« ist, sehr viel näher als der mystifizierende Begriff »Künstliche Intelligenz«. Expertensysteme

Unter Expertensystemen versteht man Programmsysteme, die über das Spezialwissen eines menschlichen Experten verfügen und Fragen bezüglich dieses Wissens beantworten können. Diese Programme lassen sich mit einem menschlichen Experten vergleichen, der in einer großen Bibliothek sitzt, umgeben von Tausenden von Fachbüchern. Der Computer nutzt seine Fähigkeit, in kürzester Zeit Tausende von Fakten zu verarbeiten. Dazu kommt die menschliche Fähigkeit, mit Faustregeln (Heuristiken) umzugehen, um so Hypothesen aufzustellen, zu überprüfen und die Verlässlichkeit von verschiedenen Ergebnissen abzuschätzen. Faktenwissen und Regeln

Neben dem eigentlichen Faktenwissen enthält ein Expertensystem auch die Regeln, nach denen das Wissen auf unterschiedliche Probleme angewendet wird. Diese Regeln versetzen den Computer in die Lage, bei einer Problemlösung nicht jedes Mal seine gesamte Wissens- oder Datenbank durchsuchen zu müssen. Ein Teil dieser Regeln muss von menschlichen Experten erfragt werden. Wissensbasis, Wissensingenieure

Die schwierigste und zeitaufwändigste Arbeit bei der Entwicklung eines Expertensystems ist sicher die Erarbeitung der Wissensbasis. Da ein Expertensystem einen menschlichen Experten simulieren soll, muss man zunächst wissen, wie ein Experte überhaupt mit Problemen umgeht. Dies herauszufinden, ist Aufgabe von so genannten Wissensingenieuren (von engl. knowledge-engineer). Diese Ingenieure verbringen viele Tage damit, Fachveröffentlichungen zu analysieren bzw. Experten erklären zu lassen, wie sie ein bestimmtes Problem angehen und lösen. Für die Experten ist es anfangs schwierig, ihre Denkweise in Worte zu fassen. Eine Frage-Anwort-Sitzung mag nur einen Satz Regeln liefern, der, wenn einprogrammiert, nicht einmal das gewünschte Ergebnis liefert. Dann haben entweder die Experten ihre Denkweise nicht richtig herausgestellt, oder die Regeln arbeiten nur für ein winziges Untergebiet des Hauptproblems. Inferenzmaschine

Neben der Wissensbasis verfügen alle Expertensysteme über einen Problemlösungsteil (auch Inferenzmaschine genannt). Dieser ist für die Lösung der vom Benutzer gestellten Aufgaben verantwortlich. Dazu bedient sich der Problemlösungsteil der Wissensbasis. Die Problemlösung erfolgt durch die Anwendung von logischen Ableitungs- oder Schlussregeln. Neben diesen beiden Hauptbestandteilen verfügen die meisten Expertensysteme über drei weitere Komponenten. Wissenserwerbskomponente

Die Wissenserwerbskomponente unterstützt die benutzerfreundliche Weiterentwicklung der Wissensbasis. So kann zum Beispiel das System bei der Arbeit mit dem Experten den Grund für bestimmte Antworten des Experten erfragen und dessen Antworten in der Wissensbasis speichern, was zu einer Wissensvergrößerung führt. Weiterhin kann der Experte Antworten des Systems als falsch bezeichnen und die Antwort und damit die Wissensbasis berichtigen. Erklärungskomponente

Die Erklärungskomponente hat die Aufgabe, die Schlussfolgerungen des Expertensystems für den Anwender durchschaubar zu machen. So kann der Anwender zum Beispiel das Expertensystem auffordern zu erläutern, wie es zu bestimmten Antworten kommt oder warum das System bestimmte Fragen an den Anwender stellt. Benutzerschnittstelle

Die Benutzerschnittstelle stellt dem Anwender eine übersichtliche Bildschirmoberfläche zur Verfügung. In dieser Komponente ist festgelegt, wie der Benutzer mit dem System kommunizieren kann. Bei älteren Systemen mussten die Antworten auf eventuelle Fragen eingetippt werden, modernere Systeme geben die Antwortmöglichkeiten in Form von Menüs vor. Viele neuere Expertensysteme arbeiten mit graphischen Benutzeroberflächen, wie zum Beispiel Windows. Dadurch kann die Kommunikation noch übersichtlicher gestaltet werden.

Bild 11.1: Aufbau eines Expertensystems

MYCIN

Ein recht bekanntes Expertensystem ist MYCIN, das die Diagnose von bakteriellen Blutinfektionen unterstützt. Die Aufgabe dieses Programms ist, zu entscheiden, welche von vielen möglichen Bakterien eine bestimmte Infektion verursacht haben könnte. Ferner kann es auf der Grundlage seiner Diagnose eine entsprechende Behandlung vorschlagen. Dazu verfügt MYCIN über eine Wissensbasis, die 500 heuristische Regeln umfasst.

Ein typisches Beispiel für eine derartige Regel ist die folgende: ●

die Gramfärbung des Bakteriums ist positiv und



das Bakterium ist kokkenförmig und



nach Zellteilungen bildet es Haufen. Dann besteht eine gewisse Wahrscheinlichkeit (0.7), dass es sich bei dem Bakterium um Staphylokokken handelt.

Die Regeln setzen sich also aus Wenn-Dann-Aussagen zusammen. Der Dann-Teil besteht aus der Angabe der Wahrscheinlichkeit für eine bestimmte Aussage. Durch das Zutreffen mehrerer Wenn-Aussagen kann sich die Wahrscheinlichkeit der Abschlussdiagnose erhöhen. Während MYCIN arbeitet, steht es in Kontakt mit dem Benutzer. So verlangt es zusätzliche Patienteninformationen, welche die Anwendung anderer Regeln gestatten, oder schlägt Laboruntersuchungen vor. Der Benutzer kann MYCIN jederzeit auffordern, eine Frage oder Schlussfolgerung durch Angabe der verwendeten Regel zu begründen. Es hat sich gezeigt, dass das Programm in Bezug auf Diagnose und Behandlungsvorschläge mit Ärzten konkurrieren kann. Da aber nicht jeder Arzt über derartig spezielles Fachwissen verfügen kann, wären medizinische Expertensysteme zur Unterstützung von Ärzten bei Problemen, die fach-gebietsübergreifend sind, denkbar.

11.3 Spracherkennungs-Systeme Ein- und Ausgabe in natürlicher Sprache

Ein weiterer wichtiger Bereich der Künstlichen Intelligenz hat zum Ziel, Computer zu entwickeln, die Sprache verstehen. Wie schön wäre es doch, dem Computer die Anweisungen nicht in einer für den Anwender mühsam zu erlernenden Computersprache zu geben, sondern in natürlicher Sprache, am besten sogar als gesprochene Sprache ohne den Umweg über die Tastatur. Die natürliche Sprache, also die Sprache, die Menschen sprechen und schreiben (im Gegensatz zu den künstlichen Sprachen, in denen zum Beispiel Computerprogramme geschrieben werden), ist tatsächlich zu einem Kernbereich der Computerwissenschaft geworden. Viele der ersten Arbeiten auf diesem Gebiet zielten darauf ab, militärische Codes zu entschlüsseln. In den fünfziger Jahren begann man, Computerprogramme zu schreiben, die natürlichsprachliche Texte von einer Sprache in die andere übersetzen sollten, zum Beispiel Englisch in Russisch. Es wurden tatsächlich erste Fortschritte gemacht, das eigentliche Ziel konnte jedoch nicht erreicht werden. Gegenwärtig arbeitet man an dem noch ehrgeizigeren Projekt, mit Hilfe der natürlichen Sprache mit dem Computer zu kommunizieren. Maschinelle Sprachübersetzung

1949 wies der amerikanische Mathematiker Warren Weaver darauf hin, dass die zur militärischen Code-Entschlüsselung entwickelten Techniken auch für die maschinelle Sprachübersetzung anwendbar sein könnten. Bei einem gegebenen Satz in der Umgangssprache sollten zwei Operationen den entsprechenden Satz in der Zielsprache liefern. So werden die einzelnen Wörter durch ihre Übersetzungen ersetzt, dann neu zusammengestellt und im Detail einander angepasst. Sprachübersetzung

Ein praktisches Beispiel zeigt, dass dieser Vorgang nicht so leicht ist. Nehmen wir die Übersetzung von »Hast du ein weißes Haus gesehen?« ins Spanische: »Viste una casa blanca?« Zunächst muss man die Wortentsprechungen kennen: »casa« für »Haus« und so weiter. Dann muss man über die strukturellen Besonderheiten des Spanischen Bescheid wissen. Die Wörter »hast« und »du« werden nicht direkt übersetzt; ihre Bedeutung wird vielmehr durch die Form des Verbs »viste« mitausgedrückt. Das Adjektiv »blanca« folgt dem Substantiv, anstatt ihm, wie im Deutschen, vorauszugehen. Schließlich müssen »una« und »blanca« entsprechend zu »casa« in die feminine Form gebracht werden. Ein Großteil der früheren Arbeiten zur maschinellen Übersetzung befasste sich mit dem technischen Problem, ein umfangreiches Wörterbuch im Computerspeicher anzulegen und den Rechner zu befähigen, dieses effektiv zu durchsuchen. Die Software zur Behandlung der Grammatik beruhte auf damals gängigen Theorien über die Strukturen der Sprache, ergänzt durch einige Faustregeln. Ambiguitäten

Die Programme lieferten derart miserable Übersetzungen, dass diese einfach unverständlich waren. Das Problem liegt darin, dass die natürliche Sprache Bedeutungen nicht in der gleichen Weise verkörpert wie etwa ein Geheimcode eine Botschaft. Die Bedeutung eines Satzes hängt in der natürlichen Sprache nicht allein von der Form dieses Satzes ab, sondern auch von dem Umfeld, dem Kontext, in dem er steht. Dies zeigt sich am deutlichsten am Beispiel von Mehrdeutigkeiten (Ambiguitäten). Lexikalische Ambiguität

Bei der einfachsten Art der Mehrdeutigkeit, der lexikalischen Ambiguität, besitzt ein einzelnes Wort mehr als nur eine mögliche Bedeutung. So kann der Satz »Ich habe mir ein Schloss gekauft« sich sowohl auf ein Gebäude als auch auf eine Schließvorrichtung beziehen. Bei einer Übersetzung ins Spanische müsste man zwischen »castillo« und »ceradura« entscheiden, und nichts im Satz selbst zeigt an, welche Alternative gemeint ist. Strukturelle Ambiguität

Ich möchte Ihnen noch ein Beispiel für eine Mehrdeutigkeit vorstellen, die strukturelle Ambiguität. Schauen Sie sich dazu folgenden Satz an: »Ede sah den Mann mit dem Fernglas«. Der Satz lässt zwei verschiedene Interpretationen zu, je nachdem, ob sich »mit dem Fernglas« auf »den Mann« oder auf »sah« bezieht. Daher besitzt der Satz zwei mögliche grammatische Strukturen, unter denen man wählen muss. Die Entwicklung der maschinellen Übersetzung ist inzwischen so weit fortgeschritten, dass es einsatzfähige Systeme gibt, die einen Text in eine andere Sprache übersetzen, von einfachen Windows-Programmen für wenige hundert Mark bis hin zu großen Systemen, wie sie beispielsweise bei der EU oder der UN eingesetzt werden. Allerdings müssen die Übersetzungen nachbearbeitet werden, um die mehr oder weniger zahlreichen Übersetzungsfehler auszutilgen. ELIZA

Am Beispiel der maschinellen Übersetzung können Sie erkennen, wie schwierig die Verarbeitung der menschlichen Sprache für Computer ist. Inzwischen gibt es Programme, die die Eingabe von Anweisungen oder Fragen in natürlicher Sprache erlauben. Eines dieser Programme ist ELIZA, ein so genanntes Konversationsprogramm, das 1966 von Joseph Weizenbaum geschrieben wurde. Dieses Programm umgeht viele Probleme des Miteinanderredens, indem es einen nicht-direktiven Psychotherapeuten im Gespräch mit seinem Klienten scheinbar nachahmt. Als Beispiel folgender

Dialog: ELIZA: Hallo, bitte sage mir dein Problem. KLIENT: Ich pflege meine Gespräche nicht mit einem Computer zu führen. ELIZA: Beunruhigen dich Computer? KLIENT: Manchmal. Wo wird das alles enden? ELIZA: Bitte sprich weiter. KLIENT: Glaubst du nicht, dass das massive Vordringen der Computertechnologie in alle Lebensbereiche die Tür zu wichtigen kulturellen Weiterentwicklungen verschließen könnte? ELIZA: Wir sprachen von dir, nicht von mir. ELIZA ist jedoch kein raffiniertes, »intelligentes« Programm. Weizenbaums Absicht war eher, die Forschung zur Künstlichen Intelligenz zu parodieren! Das Programm geht nach einem sehr einfachen Prinzip vor. Es kennt eine Anzahl von Schlüsselwörtern, die in den meisten Gesprächen vorkommen, so etwa das Wörtchen »mein«. So veranlasst ein Bezug auf ein Familienmitglied wie »meine Schwester« oder »mein Vater« ELIZA stereotyp zu der Aufforderung: »Erzähle mir mehr von deiner Familie«. Das ist einer von mehreren vorgefertigten Sätzen, die ELIZA einfach ausgibt, wenn es in der Eingabe auf ein bestimmtes Schlüsselwort oder eine Schlüsselwendung stößt. Ein weiteres solches Schlüsselwort ist »Computer«. Sobald es fällt, fragt ELIZA stets, ob Computer den Gesprächspartner beunruhigen. Trotz der Einfachheit dieses Programms hatte es einen durchschlagenden Erfolg. Mitarbeiter von Weizenbaum sowie andere Gesprächspartner von ELIZA zeigten sich begeistert, manche fühlten sich zum ersten Mal richtig verstanden! SHRDLU

Das erste wirklich sprachverstehende Konversationsprogramm war SHRDLU, das Terry Winograd 1970 vorstellte. SHRDLU ist ein Sprachprogramm, das eine Konversation führen kann, die auf einen sehr kleinen Bereich beschränkt ist. SHRDLUs Themenkreis beschränkt sich auf eine Tischplatte mit diversen bunten Klötzchen und anderen geometrischen Figuren darauf. Dafür versteht das Programm diese Welt, das heißt, es kennt die Beziehungen zwischen sprachlichen Ausdrücken und den entsprechenden physikalischen Eigenschaften und Anordnungen der Klötzchen auf dem Tisch. SHRDLU besteht aus mehreren Untersystemen, die Sätze syntaktisch zergliedern, interpretieren und konstruieren sowie Wörterbücher durchsuchen, Sätze semantisch analysieren und logische Folgerungen durchführen. Diese Systeme sind hochgradig strukturiert und eng miteinander verwoben, so dass insgesamt der Eindruck entsteht, dass ein wirklich intelligentes Wesen über diese Klötzchen-Welt redet. Dieses Programm stellt einen Trend dar: weg von der allgemeinen und hin zur speziellen Lösung. Um die Mehrdeutigkeit der menschlichen Sprache aufzufangen, muss das Programm Wissen über das Umfeld haben. Das gesamte menschliche Umfeld ist für einen Computer aber nicht zu erfassen, dafür wären einfach viel zu viele Informationen notwendig. Kleine Ausschnitte unserer Welt lassen sich schon eher programmieren. MENSCH: Würdest du bitte einen Turm aus den beiden roten Klötzchen und entweder einem grünen Würfel oder einer Pyramide bauen? SHRDLU: O.K. MENSCH: Welcher Würfel liegt auf dem Tisch? SHRDLU: Der große grüne, der die rote Pyramide trägt. MENSCH: Steht ein großes Klötzchen hinter einer Pyramide? SHRDLU: Ja, drei: Ein großes rotes, ein großes grünes und das blaue.

Bild 11.2: Die Welt von SHRDLU

SHRDLU war quasi eines der ersten Expertensysteme in dem Sinne, dass seine Fähigkeiten auf einen sehr kleinen Bereich beschränkt waren. Dafür bewies es, wie leistungsfähig Programme, ob zur Wissens- oder Sprachverarbeitung, dann sein können. Konversationsprogramme wie SHRDLU sind sicherlich wegweisend für die Zukunft. Die Vorteile eines Computers, der mit Menschen »intelligent« über Probleme sprechen kann, anstatt nur passiv Programme zu deren Lösung auszuführen, sind unübersehbar. Einige der auf dem Feld der Künstlichen Intelligenz tätigen Informatiker arbeiten auf dieses Ziel hin, doch ob es je erreichbar ist, scheint fraglich. Sprech-Schreibmaschine

Terry Winograd bezeichnete 1985 die Aussicht auf eine Sprech-Schreibmaschine als ebenso trübe wie die Aussichten auf eine qualitativ hochwertige maschinelle Übersetzung oder auf den sprachverstehenden Computer. Für den Computer bringt das Verstehen gesprochener Sprache alle die Schwierigkeiten der geschriebenen Sprache mit sich und dazu noch einige mehr. Einen ersten Schritt in diese Richtung gehen moderne Spracherkennungsprogramme, die inzwischen in der Lage sind, fließend gesprochene Sätze in Text zu übersetzen. Schaut man sich ein solches Programm einmal an, so können die ersten Ergebnisse schon sehr beeindruckend sein. Ein vom Hersteller vorgegebener Text, der zur Anpassung des Systems an die Stimme des Sprechers und evtl. Umgebungsgeräusche gesprochen werden muss, wird in der Regel vollständig erkannt. Ein einfacher Artikel aus der Zeitung kann meist auch noch ohne viele Fehler übersetzt werden. Aber sobald Sie vom allgemeinen Wortschatz abweichen, muss jedes neue Wort dem System erst einmal beigebracht werden. Texte, wie sie in diesem Buch vorkommen, erfordern daher bereits erhebliches Training, ein Aufwand, den sich ein Zehnfingertipper noch ersparen kann, denn er ist sicherlich schneller.

11.4 Neuronale Netze Die bisher beschriebenen Systeme versuchen, menschliche Intelligenzleistungen mit Hilfe spezieller Programmiertechniken und -sprachen der fünften Generation zu realisieren. Alle so entwickelten Programme laufen auf herkömmlichen Rechnern mit einem Prozessor.

11.4.1 Biologische Grundlagen Neuronale Netze

Neuronale Netze versuchen nicht nur, die psychologischen Leistungen des menschlichen Gehirns zu kopieren, sondern auch die physiologischen Voraussetzungen. Im Gehirn läuft ein unablässiger Dialog zwischen hundert Milliarden Nervenzellen ab, eine elektrochemische Interaktion in einem unvorstellbar weitläufigen Netz.

Bild 11.3: Nervenzelle

Neurone

Der Grundbaustein des Gehirns ist die Nervenzelle oder das Neuron. Neurone bestehen aus einem Zellkörper, der den Zellkern umschließt. Von diesem Körper gehen einige tausend Fortsätze, die Dendriten, aus, und eine bis zu einem Meter lange Faser, das Axon, das sich am Ende wie die Äste eines Baumes verzweigt. An den Enden der bis zu 2.500 Astspitzen befinden sich die Synapsen, die über chemische Botenstoffe, die Neurotransmitter (Adrenalin ist einer der bekanntesten), den Kontakt zu den benachbarten Dendriten-Enden aufrechterhalten. Sobald ein Neuron über ein gewisses Maß hinaus erregt wird, sendet es einen elektrischen Impuls aus, der mit einer Geschwindigkeit von etwa 250 Stundenkilometern über das Axon jagt und in den Synapsen die Neurotransmitter freisetzt. Schwellenwert

Diese Freisetzung der chemischen Botenstoffe führt bei der Nachbarzelle zu einer Erhöhung oder einer Erniedrigung der eigenen Erregung, abhängig von der Aufgabe des Neurons. Wird ein bestimmter Schwellenwert an Erregung überschritten, leitet das Neuron die Erregung weiter an seine Nachbarneuronen. So komplex diese Interaktion zwischen unzähligen Nervenzellen auch ist, so stabil ist sie auch. Täglich sterben über tausend Zellen, ohne dass sich die Leistung spürbar verringert, und sie ist flexibel genug, um auch Teilausfälle zu verkraften.

11.4.2 Konnektionismus Keine Frage, dass Wissenschaftler aller Fachrichtungen im höchsten Maße daran interessiert sind, diese Leistungsfähigkeit zu kopieren. Ein neuer Zweig, der Konnektionismus (von engl. connection, Verbindung; bezieht sich auf die unzähligen Verbindungen zwischen den Neuronen), beschäftigt sich intensiv mit der Funktionsweise des Gehirns und versucht, die dabei gewonnenen Erkenntnisse zur Entwicklung neuartiger Computer und Programme zu nutzen. Nach einer Theorie der Neurophysiologen McCulloch und Pitts (1943) lassen sich Neuronen mathematisch beschreiben. Danach wären Neurone logische Elemente mit den beiden möglichen Zuständen »Ein« oder »Aus« bzw. »1« oder »0«. Diese logischen Elemente verfügen über mehrere Eingänge (entsprechen den Synapsen), über die erregende oder hemmende Signale eintreffen. Diese Signale werden mit den Werten »+1« oder »-1« kodiert. Überschreitet die Summe der Signale einen bestimmten Schwellenwert, gibt das Neuron ein Signal über die Ausgangsleitung (entspricht dem Axon) weiter. Synapsengewichte

In biologischen Gehirnen findet aber keine 1:1-Übertragung von Reizen zwischen zwei Neuronen statt. Manchmal ist die Reizübertragung stärker, manchmal schwächer, unter anderem bedingt durch die Konzentration von Transmitterstoffen zwischen den Synapsen benachbarter Neurone. Auch dieser Umstand lässt sich mathematisch beschreiben, indem man die Eingangswerte der Synapsen (+1, -1) mit einem bestimmten Wert multipliziert bzw. gewichtet. Diese Synapsengewichte sind die Grundlage für die Lernfähigkeit neuronaler Netze. Der Psychologe Donald Hebb stellte 1949 die Hypothese auf, dass sich die Verbindungsleitungen zwischen zwei Neuronen verstärken, wenn beide Neurone wiederholt aktiv werden. Diese Verstärkung der Verbindungsleitung kann man durch eine Erhöhung der Synapsengewichte innerhalb eines mathematischen Modells darstellen. Zweischichtige neuronale Netze

Einfachste neuronale Netze, die nach den bisher beschriebenen Prinzipien arbeiten, können aus zwei Schichten von Neuronen bestehen, einer Eingabeund einer Ausgabeschicht. Während des Lernprozesses gibt man den Eingabe-Neuronen ein Signalmuster vor und den Ausgabe-Neuronen das Muster, das man als Ergebnis wünscht. Während mehrfacher Wiederholungen dieses Vorgangs verstärken sich die Verbindungen zwischen den Neuronen, sie lernen. Wir sprachen schon mehrfach über die mathematische Nachbildung der Arbeitsweise neuronaler Netze. Mathematisch kann ein neuronales Netz in Form von Matrizen dargestellt werden. Mit Hilfe von Computerprogrammen kann so der Lernprozess in neuronalen Netzen nachgebildet werden. Mehrschichtige Netze

Weit leistungsfähiger sind mehrschichtige Netze. Zwischen der Schicht der Eingabe-Neuronen und der Schicht der Ausgabe-Neuronen liegen eine oder mehrere verdeckte Schichten. Jedes Eingabe-Neuron ist mit jedem verdeckten Neuron verbunden, jedes Ausgabe-Neuron ist ebenfalls mit jedem verdeckten Neuron verbunden.

Bild 11.4: Dreischichtiges neuronales Netz mit besetzten Schwellenwerten

Neuro-Chips

Die softwaremäßige Simulation von neuronalen Netzen stößt, bedingt durch die Leistungsfähigkeit herkömmlicher Computer, schnell an ihre Grenzen. Wünschenswert wären Computer, die auch auf der Hardwareseite die vielschichtigen Verbindungen von Neuronen nachbilden. Solche Rechner könnten aus unzähligen, heute bereits produzierbaren Prozessoren zusammengesetzt sein, die jeweils ein Neuron mit über tausend Ein- und Ausgängen darstellen. Alternativ werden bereits Neuro-Chips hergestellt, die mehrere Millionen Verbindungen pro Sekunde aufbauen können.

11.4.3 Anwendungen Die Einsatzmöglichkeiten dieser neuen Technologie sind vielfältig. Viele Entwicklungen beschäftigen sich mit dem Erkennen von Mustern, Zeichen und Bildern sowie dem Verständnis gesprochener Sprache wie auch der Umsetzung geschriebener Texte in Sprache. Sprachverarbeitung NETtalk

Das von Terrence Seynowski und seinen Kollegen entwickelte Neuronale Netz NETtalk zur maschinellen Umsetzung von Texten in Sprache sorgte nicht nur in Fachkreisen für Aufsehen. Das dreischichtige Netz besteht aus 203 Eingabe-Neuronen, 80 verdeckten Neuronen und 26 AusgabeNeuronen. Insgesamt verbinden 18.629 Synapsen die Zellen. Das Netz liest geschriebene englischsprachige Texte, ohne auf einprogrammierte Ausspracheregeln oder ein gespeichertes Lexikon zurückgreifen zu müssen. Die Ausgabe-Neurone steuern einen Sprach-Synthesizer. Die Qualität der Aussprache ist vergleichbar mit der eines Kindes im Alter von etwa 5 bis 6 Jahren. Während der Lernphase unterscheidet das Netz die einzelnen Laute immer besser. Anfangs klingen alle Worte und Satzteile monoton und undeutlich, doch mit zunehmender Lerndauer werden die Worte und Laute immer besser ausgesprochen und betont. Der Finne Teuvo Kohonen stellte 1988 eine Art phonetische Schreibmaschine vor. Aufgrund eines von ihm entworfenen Netzwerkmodells erstellte er ein System, das das gesprochene Wort mit beachtlicher Genauigkeit in Schrift umsetzt. Das Netz kann sich in wenigen Minuten auf einen neuen Sprecher einstellen, es genügt einfach ein kurzes Diktat. Inzwischen wird von Siemens ein Spracherkennungssystem angeboten, dass fließend gesprochene Sprache im Computer in Text umsetzen kann. Dazu kann ein normaler PC mit einer speziellen Erweiterungskarte aufgerüstet werden, auf der ein Neuronales Netz auf speziellen Neurochips die Umsetzung vornimmt. Schrifterkennung Handschrifterkennung

Die amerikanische Firma Nestor hat auf der Basis eines Netzwerkmodells (RCE, Restricted Coulomb Energy Network) ein Handschrifterkennungssystem für die japanische Wortschrift Kanji entwickelt. Die Benutzer des Systems können mittels eines an einen Computer angeschlossenen Schreibgerätes handschriftliche Zeichen in Kanji eingeben. Diese japanische Schriftart besteht aus ca. 3000 Symbolen. Andere Netzwerkmodelle (Cognitron und Neocognitron) sind darüber hinaus in der Lage, Schriftsymbole zu erkennen, die verzerrt sind oder hinsichtlich ihrer üblichen Ausrichtung verdreht wurden. Qualitätskontrolle und Diagnose

In der Produktion müssen zur Sicherung der Qualität häufig automatisierte Stichproben durchgeführt werden. So gibt es beispielsweise in der

Automobilindustrie das Problem, Motoren anhand ihrer Laufgeräusche auf Produktionsfehler zu überwachen. Die Firma Siemens hat deshalb Netzwerke entwickelt, die anhand der Motorgeräusche auf Motorprüfständen defekte Motoren erkennen. Zu solchen Diagnosen sind meist nur sehr erfahrene Kfz-Mechaniker in der Lage. Die Genauigkeit der neuronalen Netze bei diesen Anwendungen ist heute bereits höher als die der Fachleute. Prozesssteuerung und Regelungstechnik

Die Steuerungs- und Regelungstechnik stellt ein besonders zukunftsträchtiges Anwendungsgebiet für neuronale Netze dar. So kann insbesondere die komplizierte Feinabstimmung von Bewegungsabläufen bei Montage- oder Industrierobotern oder autonomen Systemen zur Steuerung von Einschwingvorgängen in der Regelungstechnik von der Anpassungsfähigkeit neuronaler Netze profitieren. Weitere Anwendungsmöglichkeiten sind die Prognose von Ereignissen aufgrund bestimmter Vorinformationen. So könnten aufgrund von Lernerfahrungen Aktienkurse ebenso prognostiziert werden wie die Kreditwürdigkeit von Bankkunden. Robotik

Ein weiteres interessantes Einsatzfeld neuronaler Netze ist auch die Robotik. Schon seit Jahrhunderten träumen Wissenschaftler davon, künstliche intelligente Wesen zu erschaffen, die dem Menschen dienlich sein sollen. Doch erst seit wenigen Jahren ist dieses Bestreben von ersten, bescheidenen Erfolgen gesegnet. Inzwischen gibt es erste Geräte, die selbstständig ihre Umgebung wahrnehmen und einfache Aufgaben erledigen können. Noch wirken diese Aufgaben wie Spielerei: beim Robocup, der alljährlich ausgetragen wird, haben Roboter die Aufgabe, einen Ball in ein gegnerisches Tor zu befördern, das wiederum von einem Roboter gehütet wird. Beim Robocup 1999 traten noch einzelne Roboter gegeneinander an, im nächsten Schritt sollen bereits Roboter-Mannschaften gegeneinander spielen. Nach Schätzungen namhafter Wissenschaftler wird es aber noch gut 50 Jahre dauern, bis menschenähnliche Androiden an derartigen Wettbewerben oder sogar an der Fußball-Weltmeisterschaft teilnehmen können.

Bild 11.5: Ein Teilnehmer am Robocup 1999, der einem Hund nachempfunden ist.

12 Datensicherheit Endlich steht er da, Ihr neuer PC. Und mit der Software gab es eigentlich auch kein Problem, wofür hat man Bekannte. Da läppern sich schnell so einige hundert Mbyte zusammen, die einem so auf diversen zum Teil selbst gebrannten CDs zur Verfügung gestellt werden. CD rein und schnell mal ausprobiert. Doch eines Tages schalten Sie Ihren PC ein, aber alles bleibt dunkel, das Betriebssystem fährt nicht mehr hoch. Oder: Das Betriebssystem arbeitet zwar einwandfrei, aber einige Dokumente, in die Sie in letzter Zeit einigen Schweiß investiert haben, lassen sich plötzlich nicht mehr öffnen. Erst ist die Verwirrung groß, dann die Verzweiflung. Wenn Sie sich spätestens jetzt ein Antivirenprogramm installieren, und wenn es nur eine Testversion ist, und dieses Programm Ihre Festplatten untersucht, wird es vielleicht auf einige Programme stoßen, die Sie garantiert nicht installieren wollten, so genannte Computerviren. Computerviren sind lästige Kreaturen: Wie ihre Namensvettern in der Natur befallen sie ihren Wirt, nisten sich ein und führen mitunter zu erheblichen Schäden durch Löschen von Dateien. Jedes Jahr muss man weltweit mit Schäden in Millionenhöhe rechnen. Dabei entstehen die größten Schäden noch nicht einmal durch Datenverlust, da die meisten Firmen inzwischen ausgeklügelte Datensicherungsmechanismen entwickelt haben, um sich vor Datenverlusten zu schützen. Trotzdem erfordert es einen nicht unerheblichen Aufwand, ein infiziertes System wieder zu kurieren. Heimanwender sind eigentlich stärker gefährdet, da sie einerseits recht unbefangen mit fremden Disketten umgehen, die infiziert sein könnten, und andererseits mit Sicherungen ihres Datenbestandes sparen. Und falls Sie nur Programme von CD-ROMs installieren, sollte Ihnen der Hinweis zu denken geben, dass man auch auf CD-ROMs mit Shareware bereits Viren gefunden hat. Damit Ihnen das Schicksal des Datenverlustes durch einen infizierten PC möglichst erspart bleibt, wollen wir uns in diesem Kapitel zunächst dem Thema Viren widmen. Und damit Sie im Ernstfall gewappnet sind, werden wir uns daran anschließend anschauen, wie Sie Ihre Daten regelmäßig sichern können.

12.1 Computerviren und anderes Gewürm 12.1.1 Was sind Viren? Computerviren sind Programme, die sich selbst vervielfältigen können und sich in Wirtsprogramme einnisten, ähnlich wie organische Viren in Lebewesen. Das ist aber nicht die einzige Eigenschaft dieser Programme, meist haben sie neben der eigenen Vermehrung noch eine andere Aufgabe. Dies können ganz einfache Tätigkeiten sein, zum Beispiel irgendwelche Meldungen auf dem Bildschirm auszugeben. Bösartige Viren können allerdings auch Dateien und Programme verändern, zerstören oder ganz löschen. Damit gefährden sie ganz erheblich die Betriebssicherheit von Rechnersystemen. Seit die Gefahr von Viren durch Bekanntwerden der Infizierung weltweiter Rechnersysteme endlich ins Bewusstsein der Computer-Betreiber gelangt ist, wird nach wirksamen Gegenmitteln gesucht. Sie sollen möglichst umfassenden Schutz bieten, den Betrieb des Rechners nicht einschränken und möglichst automatisch ablaufen, da die Benutzer notwendige Routineaufgaben nur zu oft aus Bequemlichkeit unterlassen. Ähnlich wie organische Viren können sich auch Computerviren verändern, um Abwehrmechanismen auszuweichen. Doch können meist nicht alle Programme von einem Virus als Wirt missbraucht werden. Eine wirkliche Evolution wie in der Natur kann nicht erfolgen, da sich das Virusprogramm nur in einem vom Programmierer vorausgeplanten Umfang selbst verändert. Zwar können Viren unter günstigen Umständen über mehrere Generationen überleben, doch kann man ihnen durch rabiate Maßnahmen die Existenzgrundlage entziehen. Die radikalste Maßnahme wäre notfalls das komplette Löschen aller Programme auf der Festplatte und der Neuaufbau des Betriebssystems.

12.1.2 Welche Typen gibt es? Virusprogramme lassen sich einerseits danach unterscheiden, wie sie sich auf einem Computer einnisten, danach gibt es drei Gruppen: ●





Viren des Typs 1, überschreibende Viren, kommen ihren biologischen Vorbildern am nächsten. Sie zerstören das Originalprogramm. Von nun an besteht dessen einzige Funktion darin, neue Viren zu erzeugen. Dies geschieht bei jedem Programmaufruf. Da die eigentliche Funktion des Originalprogramms nicht mehr ausgeführt werden kann, täuscht das Virusprogramm meist einen Fehler vor und bricht das Programm ab. Diese Art von Viren lässt sich demzufolge verhältnismäßig leicht entdecken. Viren des Typs 2 erhalten das Originalprogramm in lauffähigem Zustand und kopieren sich selbst an dessen Ende. Zur Identifikation bereits befallener Programme schreiben sie an den Anfang des Programms eine Kennung. Viren dieser Art können bereits sämtliche Programme eines Rechners infiziert haben, ohne dass der Anwender etwas von deren Vorhandensein bemerken muss. Auffällig werden solche Viren erst, wenn sie sich mit etwas anderem als ihrer eigenen Vermehrung zu beschäftigen beginnen, also etwa damit, Daten oder Programme systematisch zu zerstören. Als am weitesten entwickelte und damit am schwersten zu erkennende Version verändert Typ 3 den Anfang des Programms nicht, sondern verändert einen Punkt in der Mitte des Programms, um von dort aus auf das eigentliche Virusprogramm zu verzweigen. Der Zeitpunkt, zu dem dieser Sprung ausgeführt wird, ist von Programm zu Programm unterschiedlich. Auch hier sind die verschiedensten Zusatzaufgaben denkbar.

Zu welchem Typ ein Virus gehört, ist für normale PC-Anwender nicht so wichtig. Entscheidender ist dagegen, für welche Zusatzaufgaben ein Virus programmiert wurde. Gutmütige Viren machen vielleicht lediglich durch eine Meldung am Bildschirm auf sich aufmerksam. Bösartige Viren können dagegen Ihre sämtlichen Daten auf der Festplatte zerstören. Dazu kann ein Virus einfach das Programm FORMAT aufrufen, um Ihre Festplatte zu formatieren, wodurch sämtliche Informationen gelöscht werden. Oder ein Virus ändert einfach die Einträge in der FAT, wodurch das Betriebssystem nicht mehr auf die gespeicherten Daten zugreifen kann.

Bezeichnung

Beschreibung

Bootsektor-Viren Auf jeder Diskette und Festplatte befindet sich ein Bootsektor. Auf dem ersten Sektor der ersten Spur befinden sich Informationen über den Datenträger sowie der Bootstrap, ein kleines Programm, welches den Aufruf des Betriebssystems steuert. Bootsektor-Viren ersetzen den originalen Bootstrap, den sie an eine andere Position der Platte kopieren. Beim Einschalten des Rechners wird somit als erstes der Virus in den Speicher und erst danach das Betriebssystem geladen. Diese Viren lassen sich nur mit einem Virenprogramm erkennen, wenn der Rechner von einer virenfreien Systemdiskette gestartet wird. Partition-TableViren

Diese Viren infizieren den Haupt-Bootsektor einer Festplatte, den sog. Master Boot Record, der auch die Partitionstabelle enthält, in der gespeichert ist, wie die Festplatte in Partitionen und Laufwerke aufgeteilt ist. Sie werden bei jedem Systemstart aktiviert.

FAT-Viren

Überschreiben Einträge in der File Allocation Table. Einträge von Programmen können so verändert werden, dass entweder vor ihrem Aufruf zunächst der Virus gestartet wird oder der Aufruf dieser Programme gar nicht mehr möglich ist.

Datei-Viren

Ausführbare Dateien werden in der bereits beschriebenen Weise infiziert. Bei jedem Aufruf dieser Programme wird auch der Virus aktiviert, der dann weitere Programme infiziert.

Companion-Viren Diese Viren machen sich die durch DOS festgelegte Start-Reihenfolge COM, EXE, BAT zu Nutze, d. h. dass DOS erst ein Programm mit der Endung COM startet, bevor es ein gleichnamiges Programm mit der Endung EXE oder eine Stapeldatei verarbeitet. Der Virus kopiert sich nun in das System und verwendet den Namen einer EXE-Datei, nutzt aber die Endung COM. Sobald ein Anwender das EXE-Programm starten möchte, ruft DOS dagegen den Virus mit der COM-Erweiterung auf. Mutation Engine

Diese Funktion wird von polymorphen Viren genutzt, um aus einem bestehenden Virus eine Vielzahl von Varianten mit gleichartigen Funktionen, aber unterschiedlichem Erscheinungsbild zu erzeugen. Durch diese Funktion schützen sich Viren vor der Erkennung durch Virenscanner.

Polymorphe Viren Durch Benutzung einer Mutation Engine verschlüsseln diese Viren ihren eigenen Programmcode bei jeder Infizierung neu, um so ihr Erscheinungsbild zu ändern. Stealth Viren

Diese Viren tarnen sich durch Manipulation des Betriebssystems. Antivirenprogramme haben unter dem manipulierten Betriebssystem keine Möglichkeit, diese Viren zu erkennen.

Tabelle 12.1: Die wichtigsten Virentypen

Dokumentviren

Bis vor wenigen Jahren stellten Bootsektor-Viren die größte Gefahr dar. Diesen Rang haben ihnen inzwischen die Makroviren abgelaufen, Viren, die über infizierte Dokumente, also Texte, Tabellen, Datenbanken usw., Verbreitung finden. Inzwischen gibt es einige tausend verschiedene Makroviren. Bekannt wurde diese Gefahr durch einige Testviren, die in Word-Dokumente eingebaut waren. Word verfügt, wie die meisten anderen Anwendungsprogramme auch, über eine sehr mächtige Makrosprache, mit der sich bestimmte Funktionen automatisieren lassen. Diese Makroprogramme werden innerhalb des Dokuments gespeichert und können so definiert werden, dass sie beispielsweise bei jedem Öffnen des Dokuments oder beim Ausdruck aktiviert werden. Und die Mächtigkeit der Makrosprache bietet Virenprogrammierern sehr viel Spielraum: er reicht von eingefügten Rechtschreibfehlern, dem Löschen von Dokumenten über Druckmanipulationen bis hin zum Formatieren der gesamten Festplatte. Trojanische Pferde

Es gibt aber nicht nur Viren, die Schaden auf einem PC anrichten können. Ein Beispiel sind die Trojanischen Pferde, Programme, die zunächst vorgeben, eine nützliche Funktion zu erfüllen, tatsächlich aber nur den Rechner beschädigen. Ein typisches Beispiel hierfür war ein Programm, das von einer Firma aus Panama auf einer AIDS-Konferenz kostenlos zum Test verteilt wurde; bei längerer Nutzung sollte eine Lizenzgebühr bezahlt werden. Nach dem neunzigsten Aufruf des Programms wurde die Festplatte des Anwenders verschlüsselt. Um wieder an seine Daten heranzukommen, sollte der Benutzer des Programms die Lizenzgebühr überweisen und würde dann das Kennwort für die Entschlüsselung erhalten. Würmer

Programme, die sich in Netzwerken herumtreiben und für Unordnung sorgen können, sind die so genannten Würmer. Computerwürmer benötigen keine Wirtsprogramme, um sich zu vervielfältigen. Statt dessen nutzen sie Netzwerkfunktionen, um sich innerhalb eines Computer-Netzwerks von einem Rechner auf einen anderen Rechner zu kopieren. Sie richten auf einzelnen Computern kaum Schaden an, lediglich Rechenzeit und Speicher wird von ihnen beschlagnahmt, der produktiven Anwendungen dann nicht zur Verfügung steht.

12.1.3 Wie wird ein System infiziert? Raubkopien

Nun werden Sie sich sicherlich fragen, wie sich so ein Untier auf Ihrem Rechner einnisten kann? Nicht selten ist die Leichtsinnigkeit der Anwender Schuld an einer Vireninfektion. Raubkopien von Programmen aus dem Freundes- und Bekanntenkreis führen häufig zu einer weiten Verbreitung von Viren. Am Anfang der Kette steht ein verseuchter PC, von dem ein infiziertes Programm auf Diskette kopiert wird, die nun von Interessent zu Interessent wandert. Jede neue Installation dieses Programms führt zu einem weiteren infizierten PC. Aber nicht nur Raubkopien sind die Schuldigen, auch so manchem Softwarehersteller ist es schon einmal passiert, ein Programm auf infizierten Datenträgern an seine Kunden weiterzugeben. Einige dieser Hersteller sind anschließend in arge finanzielle Bedrängnis geraten, da die Kunden die Kosten für die Bereinigung ihrer Computersysteme dem Hersteller in Rechnung gestellt hatten. Shareware-Programme

Eine weitere Verbreitungsmöglichkeit sind Shareware-Sammlungen auf CD-ROM. Nicht jeder Herausgeber einer solchen CD-ROM überprüft alle Programme auf Viren, bevor sie auf der CD gespeichert werden. Eine ganz aktuelle Gefahr stellen auch die Software-Foren der diversen Online-Dienste dar. Hier kann fast jeder Autor eines Programms dieses zum Herunterladen zur Verfügung stellen. Pech für denjenigen, der solch ein Programm ohne vorherige Überprüfung auf Viren auf seinem PC installiert und sich dadurch evtl. einen Virus einfängt. Was aber passiert nun, wenn ein infiziertes Programm gestartet wird? Das hängt natürlich von der Art des Virus ab. Grundsätzlich enthält ein infiziertes Programm neben dem eigentlichen Programmcode auch die Codezeilen des Virus selber. Auf diese Codezeilen verweist ein Sprungbefehl, der während der Infizierung an den Anfang der Programmdatei platziert wird. Wird das Programm aufgerufen, verweist der Sprungbefehl als erstes auf den Programmcode des Virus, der dadurch als erstes abgearbeitet wird. Während der Ausführung kann sich der Virus nach anderen ausführbaren Programmdateien umsehen, um auch diese Programme zu infizieren.

12.1.4 Wie erkennt man ein infiziertes System Datenverlust

Zunächst einmal kann man ein infiziertes System an dem durch den Virus verursachten Schaden erkennen: im Extremfall als Verlust aller Daten, bei anderen Viren durch vereinzelt gelöschte Dateien, beschädigte FAT, defekte Cluster auf der Festplatte, Programme, die sich nicht so verhalten, wie sie sollen, oder auch dadurch, dass die Arbeitsgeschwindigkeit des Rechners beständig abnimmt. Spätestens bei diesen Symptomen wäre es Zeit, den Rechner auf Viren zu überprüfen. Überprüfungsmethoden

Die wohl sicherste Möglichkeit zur Überprüfung der eigenen Arbeitsdateien wäre der Vergleich mit einer hundertprozentig unveränderten Version, zum Beispiel von Originaldisketten. Man vergleicht lediglich jedes einzelne Bit der beiden Dateien. Diese Überprüfungsmethode birgt jedoch entscheidende Nachteile in sich. Sie kostet viel Zeit, da sich die Originalprogramme auf einem anderen Datenträger befinden müssen. Da der Vergleich vor jedem Start des Programms durchgeführt werden müsste, ist diese Überprüfungsmethode praktisch undurchführbar. Antiviren-Programme

Eine etwas einfachere Möglichkeit ist die Berechnung und der Vergleich von Prüfsummen. Spezielle Antiviren-Programme, die mit dieser Methode arbeiten, überprüfen in einem ersten Durchlauf alle Programme und berechnen für jedes Programm nach festgelegten Regeln eine Prüfsumme. Bei der regelmäßigen Überprüfung wird für alle Programme die Prüfsumme erneut berechnet und mit der ersten Zahl verglichen. Eine Abweichung zwischen den Prüfsummen weist darauf hin, dass das jeweilige Programm verändert worden ist, wahrscheinlich durch einen Virus. Das kann aber letztlich nur ein so genanntes Killerprogramm feststellen. Diese Programme beruhen darauf, dass bereits bekannte Viren anhand ihrer spezifischen Merkmale gesucht werden können. So lassen sich fast alle Viren an einem bestimmten Bitmuster erkennen, das normalerweise 10 bis 16 Byte lang ist. Dieses Bitmuster verwenden diese Viren, um festzustellen, ob ein Programm bereits von ihnen infiziert ist. Solche Programme haben allerdings den Nachteil, dass sie nur eine ganz bestimmte Sorte von Viren auffinden. Gegen sich selbst verändernde Viren sind sie hilflos. So kann ein Killerprogramm ein virusfreies System melden, obwohl genau genommen nur die Abwesenheit einiger bestimmter Virusprogramme festgestellt wurde. Daher ist es unbedingt notwendig, ein einmal angeschafftes Antivirenprogramm regelmäßig zu aktualisieren. Die meisten Hersteller solcher Programme bieten einen entsprechenden Service an.

12.1.5 Lässt sich ein Virus wieder entfernen? Es gibt inzwischen eine ganze Reihe von Antiviren-Programmen, die direkt nach dem Systemstart alle vorhandenen Programme auf der Festplatte oder Diskette auf Viren überprüfen und diese gegebenenfalls löschen oder aus dem Wirtsprogramm herausoperieren. Dies ist allerdings nur dann möglich, wenn sich ein Virus nur an oder in den Programmcode seines Wirtsprogramms eingefügt hat. In diesem Fall kann das Antiviren-Programm diesen Programmcode einfach wieder herauslösen. Hat der Virus dagegen den Code des Wirtsprogramms durch eigenen Code überschrieben, sind Antivirenprogramme machtlos. In diesem Fall hilft es nur noch, das befallene Programm zu löschen.

Schutz vor Viren Der beste Schutz gegen Viren ist immer noch Aufpassen und Vorsorgen. Für dieses Aufpassen gibt es einige Grundregeln: ● ● ●



Originalsoftware auf Diskette nur mit Schreibschutz verwenden Auf Rechnern mit wichtigen Daten regelmäßig zuverlässige Viren-Testprogramme einsetzen Um bei Auftauchen einer Virusinfektion noch möglichst aktuelle Sicherungsdaten zu haben, empfiehlt es sich, häufige Sicherungen (Backup) der Daten durchzuführen Rechner mit sehr wichtigen Daten sollten gegebenenfalls gänzlich von der Umwelt isoliert werden, das heißt: keine Vernetzung, Diskettenlaufwerke nur im Notfall benutzen

Bild 12.1: Das Programm F-Secure bei der Überprüfung

12.2 Sicherheit geht vor: Datensicherung Wenn Sie mehr oder weniger regelmäßig mit Ihrem PC arbeiten, egal ob privat oder im Beruf, erstellen Sie mit der Zeit eine ganze Reihe von unterschiedlichen Dokumenten. Da viel Schweiß und Mühe in diesen Dateien steckt, wäre ein Verlust nicht nur ärgerlich, sondern, gerade im beruflichen Umfeld, auch sehr teuer. Gehen Sie doch einfach einmal im Geiste alle Ihre Dateien durch und überlegen Sie, wie viel Zeit Sie benötigt haben, diese Dateien zu erstellen. Multiplizieren Sie diese Zeit mit einem herkömmlichen Stundensatz, dann kann dabei leicht ein fünf- oder gar sechsstelliger Betrag herauskommen. Um nicht auf alle erstellten Dateien von heute auf morgen verzichten zu müssen, sollten Sie regelmäßig eine Datensicherung, auch Backup genannt, durchführen. Dabei werden alle oder nur ausgewählte Dateien von der Festplatte auf einen anderen Datenträger gesichert. Sollten Sie eines Tages nicht mehr auf Ihre Festplatte zugreifen können, verwenden Sie das Backup, um Ihre wertvollen Dateien wiederherstellen zu können.

Dass Datensicherung wichtig und notwendig ist, hat eigentlich schon die Einleitung deutlich gemacht. Trotzdem möchte ich, bevor wir uns dem WindowsBackup-Programm ausführlich zuwenden, dem Thema Datensicherung noch ein wenig mehr auf den Grund gehen. Folgende Fragen sollen uns dabei interessieren: ●

Wann braucht man ein Backup?



Was passiert bei einem Backup? Was soll gesichert werden? Wann kann wie gesichert werden?



Geräte für die Datensicherung

● ●

12.2.1 Wann braucht man ein Backup? Natürlich dann, wenn Dateien nicht mehr verfügbar sind. Aber wie kann so etwas passieren? Dafür gibt es mehrere Möglichkeiten: Sabotage, Diebstahl



Gerade im beruflichen Alltag sind Sabotage oder Diebstahl leider nicht selten Ursache für den Verlust von Daten.

Begrenzte Lebensdauer der Festplatte



Wer eine Festplatte kauft, rechnet meist nicht damit, dass die Lebensdauer dieser Datenträger begrenzt ist. Hin und wieder finden sich in den Prospekten oder Handbüchern auch Angaben über die zu erwartende Anzahl von Betriebsstunden, die eine Festplatte einwandfrei arbeiten sollte. Doch das sind nur Durchschnittswerte. Je nach Festplatte kann der Zeitraum, während dessen die Platte fehlerfrei arbeitet, mehr oder weniger groß sein.

Headcrash



Besonders gefährlich für eine Festplatte ist der so genannte »Headcrash«. Eine Festplatte besteht aus einer starren Metallplatte, auf die eine hauchdünne magnetisierbare Schicht aufgetragen wurde. Die Platte dreht sich so schnell, dass der winzig kleine Schreib-/Lesekopf auf einem Luftpolster über der Scheibe schwebt. Dieses Luftpolster kann zusammenbrechen, wenn Sie versehentlich etwas stärker an Ihren Rechner stoßen, während er in Betrieb ist. In der Folge kommen die Schreib-/Leseköpfe in direkten Kontakt mit der Magnetplatte. Dabei wird ein Teil der Magnetschicht wie durch einen Hobel von der Platte abgeschabt. Die in diesem Bereich gespeicherten Daten sind unwiederbringlich verloren.

Bedienungsfehler



Letztlich sind natürlich auch Bedienungsfehler zu nennen. So manch einem ist es gelungen, seine Festplatte zu formatieren, obwohl eigentlich die Diskette behandelt werden sollte. Eine durchzechte oder durchwachte Nacht genügt vielleicht, den Laufwerksbuchstaben C: mit A: zu verwechseln.

Eine zu rasche Bestätigung führt dann zum Löschen aller auf dem formatierten Laufwerk gespeicherten Dateien. Backup-Programme

Der Notwendigkeit der Datensicherung tragen eigentliche alle PC-Betriebssysteme Rechnung, indem sie eigene Programme für diesen Zweck anbieten. MS-DOS enthielt bereits in frühen Versionen ein Backup-Programm, mit dem Sie Ihre wichtigsten Daten von der Festplatte auf Disketten sichern konnten. Das Programm ließ sich jedoch nur durch einen komplizierten Befehlsaufruf vom DOS-Komandoprompt aus starten. Wer aber kann sich schon die vielen Parameter merken? Die Unbeliebtheit dieses DOS-Programms machten sich besonders die Hersteller von DOS-Hilfsprogrammen zu Nutze und boten eigene Backup-Programme an, die die Datensicherung auf Disketten und anderen Datenträgern ermöglichten. Auch die die modernen WindowsBetriebssysteme werden Backup-Programmen ausgeliefert. Somit lassen sich die zu sichernden Daten mit wenigen Mausklicks bestimmen; das Multitasking ermöglicht es, dass die Sicherung im Hintergrund durchgeführt wird, ohne den Benutzer bei seiner Arbeit zu stören.

12.2.2 Was passiert bei einem Backup? COPY und XCOPY

Bei einem Backup wird eine bestimmte Menge von Dateien auf einen anderen Datenträger kopiert. Den gleichen Effekt können Sie natürlich auch mit den DOS-Befehlen COPY und XCOPY erzielen; gerade der XCOPY-Befehl eignet sich auch für Datensicherungen, da er anhand des Archiv-Bits geänderte Dateien erkennen kann. Das Problem ist allerdings, dass der Befehl abbricht, wenn eine Diskette voll ist. BACKUP

Beim Backup werden alle zu sichernden Dateien auf den Sicherungsdatenträger kopiert. Sichern Sie auf Disketten, weist Sie das Backup-Programm darauf hin, eine neue Diskette einzulegen, wenn die alte Diskette voll ist. Die gesamte Aufteilung auf mehrere Disketten übernimmt Backup, Sie müssen nur entsprechend viele Disketten bereithalten. Streamer

Arbeiten Sie mit einem so genannten Streamer, der die Daten auf ein Magnetband sichert, brauchen Sie natürlich nicht den Datenträger auswechseln. Bei normalen PCs müsste eine Magnetbandkassette für eine Sicherung ausreichen. Komprimierung

Um die Kapazität der Datenträger zu erhöhen, kann das Backup-Programm die zu sichernden Dateien auch komprimieren. So lassen sich auf einer 3,5Zoll-Diskette mit 1,44 Mbyte Speicherkapazität mit Komprimierung ca. 2 Mbyte Daten sichern. Auf eine Magnetbandkassette mit normalerweise 120 Mbyte Speicherkapazität können dann schon bis zu 250 Mbyte gesichert werden. Allerdings ist es nicht möglich, bei Komprimierung einen genauen Wert zu nennen, da in diesem Fall die Kapazität von der Art der zu sichernden Dateien abhängt. Programmdateien lassen sich beispielsweise deutlich schlechter komprimieren als Text- oder Grafikdateien.

12.2.3 Was soll gesichert werden? Moderne Festplatten werden immer größer, Speicherkapazitäten mit bis zu 50 Gigabyte sind auch im Heimbereich keine Seltenheit mehr. Den größten Teil nehmen meist die Programmdateien in Anspruch; die von Ihnen erstellten Dokumente verbrauchen meist deutlich weniger Speicherplatz. Was davon sollte man nun sichern? Dokumentendateien

Ihre Anwendungsprogramme haben Sie in der Regel von CD-ROM oder von Disketten auf die Festplatte installiert. Sie stehen hoffentlich an einem sicheren Ort, wo sie vor Beschädigung geschützt sind. Daher ist es normalerweise nicht notwendig, auch Programme in die Datensicherung mit aufzunehmen. Beschränken Sie sich also in erster Linie auf Ihre Dokumente, deren Verlust sehr schmerzlich wäre. Verzeichnisstruktur

Die Sicherung wird um so einfacher, je klarer die Verzeichnisstruktur zwischen Programm- und Dokumentendateien unterscheidet. Richten Sie daher für jedes Programm, mit dem Sie arbeiten, mindestens ein eigenes Verzeichnis ein, in dem Sie die Daten abspeichern. Sie können die Dateien auch projektbezogen abspeichern und beispielsweise ein Verzeichnis »Jahresbericht« erstellen, in dem alle Texte, Grafiken, Kalkulationstabellen etc. gespeichert werden, die zu diesem Projekt gehören. Das Erstellen eines solchen Verzeichnisses hilft Ihnen bei der Auswahl der Dateien, die in die Datensicherung aufgenommen werden sollen, da Sie so immer komplette Verzeichnisse auswählen können. Noch einfacher wird es, wenn Sie ein logisches Laufwerk für Datendateien reservieren; Sie können dieses Laufwerk in mehrere Verzeichnisse unterteilen, die Ihre Dokumente nach Inhalt gruppieren. Für die Auswahl der zu sichernden Dateien genügt es dann, mit einem Mausklick das »Dokumenten«-Laufwerk zu markieren. Systemdateien

Neben den Dokumenten gibt es noch eine ganze Reihe von Dateien, die vom Betriebssystem verwaltet werden und die sich ständig ändern. Beispiele hierfür sind die Startdateien AUTOEXEC.BAT und CONFIG.SYS, die Registrierungsdatenbanken sowie die INI-Dateien, die von Windows-3.xProgrammen zum Zwischenspeichern von Parametern genutzt werden. Ein Verlust dieser Dateien könnte es notwendig machen, das Betriebssystem oder das jeweilige Anwendungsprogramm neu zu installieren. Da wäre es meist schon einfacher, die fehlenden oder beschädigten Dateien aus einer Sicherung wiederherzustellen.

12.2.4 Wann kann wie gesichert werden? Nur in wenigen Fällen ist es notwendig, alle wichtigen Dateien zu sichern. Warum sollten Sie an einem Tag die Dateien eines Verzeichnisses sichern, wenn Sie an diesen Dateien gar nicht gearbeitet haben? Im Allgemeinen unterscheidet man daher zwischen drei verschiedenen Techniken, Daten zu sichern. Backup-Methoden



Vollständig

Bei der vollständigen Sicherung werden alle ausgewählten Dateien auf das Band gesichert und über das Archivbit als gesichert markiert. Dies ermöglicht Ihnen, jede Datei von dem letzten Sicherungsband wiederherstellen zu können. Das Problem dabei ist, dass die Sicherung recht zeitaufwändig ist, da auch Dateien auf das Band gespielt werden, die sich seit der letzten Sicherung nicht geändert haben.

Archivbit Als Archivbit wird eines der vier Dateiattribute bezeichnet, die Sie bereits kennen gelernt haben. Sie können sie sich anschauen, wenn Sie das Eigenschaftsfenster einer Datei aufrufen. Das Attribut Archiv wird von Programmen verwendet, mit denen Sie Sicherungskopien der Dateien vornehmen können (MS-Backup, XCOPY etc.). Wenn dieses Attribut gesetzt ist, im Eigenschaftsfenster also durch ein Häkchen gekennzeichnet ist, erkennen Sicherungsprogramme, dass die Datei seit dem letzten Sichern geändert wurde, und dass sie erneut gesichert werden muss. Beim Sichern dieser Dateien wird das Archivbit von diesen Programmen wieder zurückgesetzt; erst wenn Sie Änderungen an diesen Dateien durchführen, wird das Archivbit wieder aktiviert.



Inkrementell Diesen Nachteil fängt die inkrementelle Sicherung auf. Es werden nur die Dateien gesichert, die sich seit dem letzten Mal geändert haben. Dies spart natürlich sehr viel Zeit. Werden vollständige mit inkrementellen Sicherungen kombiniert, müssen Sie, wenn Sie eine bestimmte Datei suchen, nur die letzte vollständige Sicherung kontrollieren und eventuell die nächsten inkrementell gesicherten Dateien.



Differentiell Eine weitere Methode ist das differenzierte Backup, bei dem alle seit der letzten vollständigen Sicherung geänderten Dateien auf Band gespielt werden. Der Unterschied zur inkrementellen Methode ist, dass die gesicherten Dateien nicht als archiviert gekennzeichnet werden. Auf diese Weise werden auch bei späteren Backups alle geänderten Dateien gesichert, deren Anzahl mit der Zeit natürlich immer größer wird. Für das Einspielen einer bestimmten Datei ist aber nur die Überprüfung der letzten vollständigen und der letzten differenzierten Sicherung notwendig.

Backup-Zyklen

Als nächstes stellt sich die Frage, wie sich diese Methoden am besten kombinieren lassen. Dazu wird meist ein Sicherungsplan festgelegt, der eine möglichst vollständige Sicherung mit einem möglichst geringen Zeitaufwand zu kombinieren versucht. Ein typischer und sicherer Backup-Plan sieht so aus: Einfache Datensicherung



Backup-Pläne beginnen meist mit dem Freitagnachmittag, dann also, wenn in vielen Betrieben die Arbeit bereits beendet wurde und die Daten zum Wochenende gesichert werden sollen. An erster Stelle steht eine vollständige Sicherung, entweder auf ein Sicherungsband oder auf einen Diskettensatz. In der darauf folgenden Woche werden jeden Abend inkrementelle oder differentielle Sicherungen durchgeführt. Kommt es während dieser Zeit zu Störungen, so dass Sie auf die Sicherung zurückgreifen müssen, genügt die vollständige Sicherung bzw. die letzte inkrementelle oder differentielle Sicherung, um die verloren gegangenen Dateien wiederherzustellen.

Bild 12.2: Das Backup-Programm von Windows macht die Sicherung zum Kinderspiel.

Sicher ist sicher

Wollen Sie ganz auf Nummer Sicher gehen, können Sie mit insgesamt zehn Sicherungsbändern (ggf. auch Disketten bzw. Diskettensets) einen lückenlosen Zugriff auf Ihren gesamten Datenbestand der letzten drei Monate erreichen. Damit Sie den Überblick behalten, beschriften Sie vier Bänder zunächst mit den Namen der Wochentage »Montag« bis »Freitag«. Drei weitere Bänder kennzeichnen Sie mit »Freitag 1« bis »Freitag 3« und die letzten drei Kassetten mit »Monat 1« bis »Monat 3«. Mit der Sicherung beginnen Sie auch dieses Mal wieder am Freitag auf das mit »Freitag 1« gekennzeichnete Band. Auf dieses Band machen Sie eine vollständige Sicherung aller wichtigen Dateien. An den Tagen Montag bis Donnerstag führen Sie inkrementelle Sicherungen auf die entsprechend bezeichneten Bänder durch. Am Freitag folgt wieder eine vollständige Sicherung, diesmal aber auf das mit »Freitag 2« gekennzeichnete Band. In der nun folgenden Woche werden die mit »Montag« bis »Donnerstag« bezeichneten Bänder überschrieben. Diese Daten werden nicht mehr benötigt, weil sie in der letzten vollständigen Sicherung enthalten sind. Am Freitag wird auf die »Freitag 3«-Kassette vollständig gesichert. Die nächste Woche vergeht wie gehabt; am Freitag aber wird nun die mit »Monat 1« beschriebene Kassette für die vollständige Sicherung verwendet. In den nun folgenden Wochen wiederholt sich der Zyklus mit »Freitag 1« bis »Freitag 3« und endet mit einer Sicherung auf die Kassette »Monat 2«. Nach weiteren vier Wochen benötigen Sie schließlich das mit »Monat 3« bezeichnete Band für die vollständige Sicherung.

Bild 12.3: Eine sichere Backup-Strategie

Wenn Sie nun verwundert den Kopf schütteln und denken, das sei ein wenig übertrieben, überlegen Sie doch einfach einmal, wie viel Arbeit es ist, ein Buch wie dieses zu schreiben. Sie können mir glauben, dass bei dem Gedanken an den Verlust der Dateien kaum eine Sicherungsmethode zu mühsam wird. Und mit den modernen Backup-Programmen und -Geräten wird das, was sich so umständlich anhört, zu einer Aufgabe, die fast automatisch im Hintergrund abläuft.

12.2.5 Geräte für die Datensicherung Als letztes wollen wir uns noch kurz mit den Datenträgern beschäftigen, auf die gesichert werden kann. Disketten

Die Diskette ist noch immer der verbreitetste Datenträger für eine Sicherung. Einfach aber nur deshalb, weil fast jeder Rechner über ein Diskettenlaufwerk verfügt. Haben Sie nur wenige Mbyte Daten, die regelmäßig gesichert werden müssen, kommen Sie mit ein paar Disketten noch gut aus. Bei größeren Datenbeständen wird das ständige Auswechseln der Disketten aber schnell lästig und so lässt man dann die eine oder andere Sicherung ausfallen; das ist natürlich nicht der Sinn der Sache. Streamer

Spätestens wenn es soweit gekommen ist, sollten Sie sich überlegen, ob es nicht sinnvoll wäre, etwas Geld für einen Streamer auszugeben. Mit diesem

englischen Begriff werden Bandlaufwerke bezeichnet; diese Geräte sichern Ihre Daten auf Bandkassetten, die einfach ausgetauscht werden können. Am weitesten verbreitet sind inzwischen die so genannten QIC-Streamer (Quarter Inch Cartridge - Bandkassetten, deren Bänder 1/4-Zoll breit sind). Geräte für diese Mini-Kassetten, auf die Sie komprimiert bis zu 800 Mbyte sichern können, werden schon für weniger als 250,-- DM angeboten. Neben diesen typischen Datenträgern für Sicherungen gibt es eine Reihe weiterer Alternativen. Wechselplattenlaufwerke

Eine weitere Alternative stellen Wechselplattenlaufwerke dar. Diese Laufwerke haben den Vorteil, dass sie von Backupprogrammen wie normale Festplattenlaufwerke behandelt werden, Sie können darauf beliebig Daten schreiben und wieder lesen. Plattenlaufwerke erleichtern die Datensicherung durch die höhere Schreib-/Lesegeschwindigkeit natürlich erheblich, allerdings hat dieser Komfort seinen Preis. Im Gegensatz dazu sind Bandlaufwerke deutlich langsamer, im Preis aber von keinem anderen Medium zu schlagen.

13 Computernetzwerke In den vorangegangenen Kapiteln haben wir uns mit Computeranlagen beschäftigt, die für sich allein an einem Arbeitsplatz stehen. Jeweils ein Benutzer arbeitet mit einem Computer und mit der für diesen Rechner verfügbaren Software. Es gibt aber Situationen, in denen trotz der fortschrittlichen Ausrüstung eines Büros mit Personalcomputern recht altmodische Wege beschritten werden, um Informationen zwischen verschiedenen Büros oder Abteilungen auszutauschen. Nehmen wir als Beispiel einen Einkäufer, der zur Bestellung neuen Materials Informationen über den Bestand des Materiallagers benötigt. Der Einkäufer hat mehrere Möglichkeiten, die notwendigen Informationen zu erhalten:



Er telefoniert mit dem Lagerverwalter und notiert sich, welche Lagerbestände aufgestockt werden müssen. Der Lagerverwalter schickt dem Einkäufer über die Hauspost einen Ausdruck der benötigten Bestände.



Statt eines Ausdrucks werden die Daten auf einer Diskette dem Einkäufer zugeschickt.



Es ist leicht zu erkennen, dass die drei aufgezeigten Möglichkeiten relativ viel Zeit beanspruchen und umständlich sind. Das Einfachste wäre, wenn der Einkäufer mit Hilfe seines eigenen Computers mit dem Computer der Lagerverwaltung in Kontakt treten könnte, um so die Lagerbestände auf dem Bildschirm seines eigenen PCs zu kontrollieren. Diese Möglichkeit wird eröffnet, wenn alle Computer eines Betriebes miteinander verbunden sind. Verschiedene Abteilungen können auf die jeweiligen Daten zugreifen, umständliche Kommunikationswege wie betriebsinterne Post werden überflüssig. Lokale Netzwerke

Mehrere miteinander verbundene Computer, die miteinander Daten austauschen, werden als Netzwerk bezeichnet. Ist dieses Computernetz auf einen relativ engen Raum begrenzt, beispielsweise innerhalb eines Gebäudes oder über eine Gebäudeetage, spricht man von einem lokalen Netzwerk (Local Area Network, LAN). Die Kommunikation zwischen Computern ist aber nicht nur innerhalb eines Betriebes möglich. Öffentliche Kommunikationskanäle, wie sie zum Beispiel von der Telekom angeboten werden, erlauben es, dass Computer untereinander Daten austauschen, auch wenn sie in anderen Städten, Ländern oder gar auf anderen Kontinenten stehen. Die Vernetzung von Computern birgt jedoch auch die Gefahr, dass Daten ausgetauscht werden, die nicht für jedermann zugänglich sein dürfen. So müssen in Netzwerke Sicherheitsvorrichtungen eingebaut werden, die, um auf unser erstes Beispiel zurückzugreifen, es dem Einkäufer wohl erlauben, Lagerbestände abzufragen, aber nicht das Gehalt seines Vorgesetzten.

13.1 Nutzen lokaler Netzwerke Lokale Netzwerke können inzwischen auf eine kleine Historie zurückblicken. Eines der verbreitetsten Netzwerkbetriebssysteme, Novell's Netware, wurde beispielsweise bereits 1983 auf dem Markt eingeführt. Seitdem hat sich nicht nur die Technik gewandelt, sondern auch die Anforderungen an lokale Netzwerke. Gemeinsamer Zugriff auf Peripherie

Ein Vorteil von PC-Netzwerken ist die gemeinsame Nutzung von teuren Ein- oder Ausgabegeräten. Nehmen wir als Beispiel einen Laserdrucker. Diese Geräte sind teuer und werden in vielen Fällen nur wenige Male im Laufe eines Arbeitstages genutzt. Daher macht es meist wenig Sinn, jeden Arbeitsplatz mit einem solchen Gerät auszustatten. Innerhalb eines Netzwerks kann der Drucker an einem zentralen Platz aufgestellt werden, und alle Netzwerkteilnehmer können über dieses Gerät ihre Dokumente ausdrucken. Entsprechendes gilt natürlich auch für Plotter, Faxgeräte oder Scanner zum Einlesen von Dokumenten. Gemeinsamer Zugriff auf Software

Eine weitere Möglichkeit, ein Netzwerk zu nutzen, ist die zentrale Installation von Anwendungsprogrammen. Die meisten Standardprogramme werden auch als Netzwerkversionen angeboten. Diese Programme werden auf einem zentralen PC, der als Server bezeichnet wird, installiert. Die Anwender können diese Programme von ihrem lokalen PC aus aufrufen. Das Programm befindet sich nicht mehr auf der lokalen Festplatte, sondern wird über die Netzleitungen in den Arbeitsspeicher des lokalen Rechners geladen. Der Anwender kann das Programm wie bisher an seine spezifischen Bedürfnisse anpassen. Diese Anpassungen werden meist in benutzerspezifischen Profilen gespeichert, die entweder lokal oder auf dem Server abgespeichert werden. Das Anwendungsprogramm wie auch das Netzwerkbetriebssystem müssen dafür Sorge tragen, dass es zu keinen Konflikten kommt, wenn mehrere Benutzer die gleichen Dateien bearbeiten wollen. Gemeinsamer Zugriff auf Informationen

Neben der Bereitstellung von Anwendungsprogrammen eignen sich Netzwerke auch für den Zugriff auf zentrale Informationen. Gerade dieser Punkt hat in letzter Zeit sehr viel an Bedeutung gewonnen. Mit Hilfe spezieller Datenbank-Server können alle Netzwerkteilnehmer auf einen zentralen, gemeinsamen Datenbestand zugreifen. Der Datenbestand muss nur an einer Stelle gepflegt werden, Sicherungen lassen sich automatisch durchführen. Die Zielrichtung ist das von Microsoft-Chef Bill Gates formulierte »Information at your fingertips«: Jedem berechtigten Anwender stehen an seinem Arbeitsplatz alle relevanten Informationen zur Verfügung, egal wo diese Daten gehalten werden. Eine anspruchsvolle Zielsetzung an die Netzwerktechnik. Elektronische Post

Sind alle PCs in einer Abteilung oder Arbeitsgruppe in einem Netzwerk zusammengeschlossen, kann das Computernetz als zusätzliches Kommunikationsmittel verwendet werden. Durch die elektronische Nachrichtenübermittlung bzw. E-Mail (Elektronische Post) lässt sich nicht nur Papier, sondern auch Zeit sparen. Nachrichten an die Netzwerkteilnehmer werden in Sekundenschnelle verschickt. Mitteilungen, die den Adressaten nicht erreichen, weil der PC nicht eingeschaltet ist, werden an zentraler Stelle gespeichert und dem Adressaten erneut zugesandt, sobald er seinen PC einschaltet und sich im Netzwerk anmeldet. Workgroup-Computing

Eine ebenfalls recht neue Nutzungsmöglichkeit lokaler Netze ist das so genannte Workgroup-Computing. Es baut technisch auf den bereits aufgeführten Möglichkeiten auf, hat aber auch arbeitsorganisatorische Konsequenzen. Vielleicht erinnern Sie sich noch an die Einführung von Arbeitsgruppen im Autobau bei der Firma Volvo. Statt jedem Arbeiter am Fließband nur einen spezialisierten Handgriff zu ermöglichen, arbeitet eine Gruppe von Arbeitern an einem ganzen Auto bis zu seiner kompletten Fertigstellung. Die Gruppe arbeitet gemeinsam an einem Produkt und nutzt die gleichen Werkzeuge. So ähnlich können Sie sich auch das Workgroup-Computing vorstellen.

Stellen Sie sich eine Gruppe von Mitarbeitern vor, die ihrem Chef zum Ende eines jeden Monats einen Bericht über den vergangenen Zeitraum erstellen soll. Ein Mitarbeiter ist für die Erstellung des Textes zuständig, ein weiterer kümmert sich um die Konsolidierung des Zahlenmaterials mit Hilfe eines Kalkulationsprogramms. Da Tabellen meist recht unübersichtlich sind, werden die wichtigsten Zahlenwerte als Grafiken anschaulich dargestellt. Text, Tabellen und Grafiken werden in dem gemeinsamen Bericht zusammengefasst. Da die drei Mitarbeiter in getrennten Räumen mit eigenen PCs arbeiten, müssten ohne Vernetzung die Daten mit Disketten ausgetauscht werden. Die Vernetzung erleichtert dagegen die Zusammenarbeit, da alle Mitarbeiter auf einen gemeinsamen Datenbestand zugreifen können. Sind die Tabellen und Grafiken gar als OLE-Objekte mit dem Text verknüpft, genügt die Aktualisierung dieser Objekte ohne weitere Änderungen innerhalb des Textdokuments. Globales Dorf

Der Informationsaustausch ist aber nicht nur auf eine kleine, überschaubare Lokalität beschränkt. Inzwischen sind wir auf dem Weg zu einem »Globalen Dorf«, in dem über weltweite Netzwerke nicht nur Informationen in Form von Dokumenten ausgetauscht werden. Weltweite Netzwerke wie das Internet oder World Wide Web ermöglichen den Zugriff auf angeschlossene Rechner in der ganzen Welt. Spezielle Programme sind notwendig, um aus dieser beinahe unendlichen Menge von Daten die für den Anwender relevanten Informationen herauszufiltern. Netzwerkbetriebssysteme

Die Bedeutung der Netzwerktechnologie wird nicht zuletzt durch die neuen Betriebssysteme wie Windows oder Linux deutlich unterstrichen, bei denen die Netzwerkfunktionen und der Zugriff auf die weltweiten Informationsdienste direkt im Betriebssystem verankert sind.

13.2 Grundlagen lokaler Netze Insellösungen

Noch immer wird der größte Teil der eingesetzten PCs als so genannte Einzelplatzsysteme verwendet. Jeder PC verfügt über seine eigene Peripherie, Software und seine eigenen Datenhaltungsmechanismen. Zur Verdeutlichung spricht man häufig von »Insellösungen«. Die Nachteile dieser Lösungen werden gerade durch das Bild der Insel schön verdeutlicht: Jeder PC ist an sich isoliert, eine Kommunikation mit anderen Rechnern ist zunächst einmal nicht möglich. Hinzu kommt, dass auf jeder Insel ein vollständiges »Rechenzentrum« installiert ist, das nicht ausgenutzt werden kann. Was die Kommunikation angeht, wäre der Datenaustausch über Diskette eine erste Abhilfe. Um bei dem Bild mit der Insel zu bleiben, müsste sich dafür aber jemand mit der Diskette in ein Ruderboot setzen, um sie zu einer anderen Insel zu bringen. Dies ist im normalen Alltag nicht anders: Daten auf Diskette kopieren, zu einem anderen Rechner hinbringen, Daten wieder einspielen - ein Ablauf, der mit viel Mühe und Zeit verbunden ist. Lokale Netzwerke

Um dem abzuhelfen, werden, wie z. B. in Betrieben, fast alle Rechner über Kabel miteinander verbunden. Viele miteinander verbundene Rechner bezeichnet man als Netzwerk. Der Zusatz »lokal« verweist darauf, dass sich diese Rechner innerhalb einer Lokation befinden, also innerhalb eines Gebäudes oder eines Firmengeländes (der Begriff »Lokales Netzwerk« wird häufig durch die Abkürzung »LAN« ersetzt. Diese Abkürzung stammt von dem Englischen »Local Area Network«). Für die Verbindung zwischen den Rechnern werden spezielle Kabel genutzt, die ähnlich wie Telefonleitungen im Gebäude verlegt werden können. WAN

Der nächste Schritt wäre, die Kommunikation über eine Lokation hinaus zu ermöglichen. Hier beginnt das Hoheitsgebiet der Telekom, kaum einer anderen Firma ist es erlaubt, Daten und Informationen über Leitungen außerhalb eines Firmensitzes hinaus zu transportieren (eine Ausnahme sind die Stromproduzenten, die den firmeninternen Datenverkehr über die eigenen Hochspannungsleitungen führen dürfen). Also müssen bei Weitverkehrsverbindungen, »Wide Area Networks« (WAN) für die Überbrückung von Entfernungen zwischen Städten, Ländern oder Kontinenten, zumindest in Deutschland Leitungen der Telekom angemietet werden. Die Verbindung von PCs untereinander genügt aber noch lange nicht, um all die Möglichkeiten lokaler Netzwerke nutzen zu können. Weiterhin werden leistungsfähige Betriebssysteme benötigt, die den Zugriff auf gemeinsam genutzte Ressourcen organisieren und verhindern, dass sich die Benutzer des Netzes gegenseitig stören.

13.2.1 Kommunikation im Netz Um die Probleme bei der Kommunikation im Netzwerk zu verdeutlichen, wird in vielen Lehrbüchern das Beispiel von zwei Philosophen herangezogen, die gerne miteinander reden möchten. Stellen Sie sich einfach einmal vor, ein holländischer Philosoph, der in einer Windmühle nahe der Nordsee lebt, möchte seine Gedanken mit einem chinesischen Philosophen austauschen. Ihr Problem ist zum einen die Entfernung, die sie trennt, und zum anderen die Sprache, denn der eine spricht nur Holländisch und der andere nur Chinesisch. Für einen Gedankenaustausch ohne große Wartezeiten benötigen die beiden Philosophen einerseits eine gemeinsame Sprache und andererseits eine technische Lösung zur Überwindung der Entfernung. Eine mögliche Lösung wären zwei Dolmetscher, die eine gemeinsame Sprache, z. B. Englisch, sprechen und die jeweilige Landessprache verstehen. Zur Überbrückung der Entfernung kann das Telefon genutzt werden. Wie sieht nun die Kommunikation aus? Aufbau der Verbindung

Zunächst weist der holländische Philosoph seinen Dolmetscher an, in China anzurufen. Der Dolmetscher kennt die Telefonnummer, wählt die und wartet, bis sich am anderen Ende jemand meldet. Sobald das Telefon in China klingelt, hebt der chinesische Dolmetscher den Hörer ab und meldet sich. Der holländische Dolmetscher gibt seinem Chef eine entsprechende Rückmeldung. Damit ist die Verbindung aufgebaut. Wie die weitere Kommunikation aussieht, können Sie sich sicherlich vorstellen: Es ist ein Wechselspiel zwischen Aussagen der Philosophen, Übersetzung ins Englische, Übertragung über das Telefonnetz, Übersetzung in die Sprache der Philosophen und wieder zurück. Um nun wieder den Schwenk zu unserem Netzwerkproblem zu bekommen, ersetzen Sie einfach die Philosophen durch Anwendungsprogramme und Daten, die auf unterschiedlichen Rechnern installiert sind. Die Netzwerkbetriebssysteme entsprechen dann den Dolmetschern und die Verbindungskabel in etwa dem Telefon. Glücklicherweise funktioniert die Übersetzung im Computer deutlich schneller, so dass die Komplexität des Verbindungsaufbaus und der Datenübertragung durch die Geschwindigkeit moderner Computer verdeckt wird. Im übrigen finden Sie im letzten Abschnitt dieses Kapitels eine genauere technische Beschreibung des Philosophenproblems. Das OSI-Modell stellt die Grundlage für die technische Lösung des Philosophenproblems dar.

In den folgenden Abschnitten möchte ich Ihnen die einzelnen Komponenten der Verbindung etwas näher vorstellen. Da wäre zunächst das Pendant zum Telefon, also die Verkabelung, mit der die einzelnen PCs miteinander verbunden sind und die für den Transport der Daten zuständig sind. Danach folgt der Part des Dolmetschers, der in einem PC-Netzwerk vom Netzwerkbetriebssystem übernommen wird. Die gemeinsame Sprache, mit der sich die PCs unterhalten, sind die Netzwerkprotokolle. Die letzte Schicht ist Ihnen dagegen bekannt, hier lassen sich die Anwendungen einordnen, mit denen Sie üblicherweise arbeiten.

13.2.2 Datentransport im Netzwerk Als Trägermedium für den Datentransport werden in der Praxis unterschiedliche Kabel genutzt. Sie variieren in ihrer Leistungsfähigkeit, d. h. wie viele Informationen pro Zeiteinheit übertragen werden können. Als Maßeinheit wird hier auf die Anzahl von Bit pro Sekunde zurückgegriffen, also Tausende (Kbit/Sekunde) oder Millionen (Mbit/Sekunde). Um die Kabel mit dem PC verbinden zu können, sind spezielle Erweiterungskarten notwendig, die in den PC eingebaut werden müssen. Ein weiteres wichtiges Kriterium ist, wie die einzelnen PCs angeschlossen werden. Hier gibt es unterschiedliche Techniken, die man meist als Topologien bezeichnet. Schauen wir uns die verschiedenen Möglichkeiten der Reihe nach an. Übertragungsmedien Basisband- und Breitbandsysteme

Bei den Übertragungsmedien unterscheidet man zwischen Basisband- und Breitbandsystemen. Basisbandnetze sind einfache Busnetze, die nur eine einzige Nachricht zu einer Zeit übertragen können. Bei der Breitbandübertragung wird das Band in mehrere Kanäle unterteilt, so dass mehrere Nachrichten gleichzeitig übertragen werden können.

Bild 13.1: Netzwerkkabel aus Kupfer (Foto: IBM)

Für die Basisband- und Breitbandsysteme werden Koaxialkabel verwendet. In einem Koaxialkabel sind zwei Kupferleiter ineinanderliegend angeordnet. Ein isolierter Innenleiter ist von einem hohlen Außenleiter umgeben. Durch diese Anordnung ist eine hohe Sicherheit gegen Störungen durch elektrische Felder von außen gegeben. Ein Vorteil dieser Koaxialkabel ist, dass sie hohe Übertragungsraten erlauben. Koaxialkabel

Verdrillte Kupferkabel, wie sie zum Beispiel im Fernsprechnetz verwendet werden, haben dagegen nur sehr geringe Übertragungsraten. Dafür sind sie leicht zu verlegen und billig.

Bild 13.2: Glasfaserkabel (Foto: IBM)

Glasfaser

Glasfaserkabel sind ein relativ neues Übertragungsmedium. Sie transportieren die Signale in Form von Licht. Die Übertragungsrate ist sehr hoch. Es können keine magnetischen oder elektrischen Störungen auftreten, da das Übertragungsmedium keine metallischen Teile enthält. Diesem Trägermedium gehört zweifelsfrei die Zukunft. In Japan ist man inzwischen dabei, jeden Haushalt mit Glasfaser zu verkabeln. Medium

Distanz

Übertragungsrate

verdrillte Kupferkabel

100 m - ca. 1 km

max. 2 - 4 Mbit/s

Koaxialkabel dünn

300 m

max. 14 Mbit/s

Koaxialkabel dick

1-3 km

max. 14 Mbit/s

Glasfaserkabel

30 km

600 Mbit/s

Richtfunk erdgebunden

10 km

4 Mbit/s

Richtfunk über Satellit

10.000 km

2 Gbit/s

Tabelle 13.1: Übertragungsmedien

Netzwerktopologien Netzwerktopologien

Lokale Netze lassen sich nach verschiedenen Strukturen (Topologien) klassifizieren, nach denen Computer vernetzt sind. Es wird zwischen Stern-, Ring-, Bus- und Baumstrukturen unterschieden. Jede Topologie hat bestimmte Leistungsmerkmale, die das Verhalten des Systems bestimmen. Bus

Angenommen, Sie hätten ein 500 Meter langes Netzwerkkabel und wollten etwa 20 PCs daran anschließen. Ihr erster Gedanke wird wahrscheinlich sein, das Kabel auszurollen und die PCs der Reihe nach an dieses Kabel anzuschließen. Damit hätten Sie sich auch schon für die am weitesten verbreitete Netzwerkform entschieden, die Bus-Topologie. Man kann sich den Bus als eine »Hauptstraße« vorstellen, die sich durch ein ganzes Unternehmen zieht. Über »Seitenstraßen« sind die einzelnen Computerstationen mit der Hauptstraße verbunden. Nachrichten breiten sich von einer sendenden Station nach beiden Seiten auf der Hauptstraße aus. Jede andere Station kann die Nachrichten aufnehmen und weiterverarbeiten. Der Zeitverlust bei dieser Struktur ist minimal. Da die Informationen jedoch an alle angeschlossenen Stationen gesendet werden, also die gesamte Länge des Netzwerkes durchlaufen, muss die Sendeleistung der einzelnen Stationen höher sein als bei anderen Topologien. In einem Bus-Netzwerk können, je nach Größe, mehrere Server installiert sein. Dies verbessert die Zugriffszeiten, und beim Ausfall eines Servers bleibt das Netz funktionsfähig. Lediglich eine Beschädigung des Transportmediums selbst (Kabelbruch, Kurzschluss) kann das Netz außer Betrieb setzen, was durch doppelte Verkabelung leicht auszuschließen ist.

Bild 13.3: Bus-Topologie

Ein Nachteil dieser Topologie ist, dass sich zu einem bestimmten Zeitpunkt immer nur eine Nachricht auf dem Bus befinden darf. Aus diesem Grund und wegen des höheren Bedarfs an Sendeleistung ist ein Bus in der Anzahl der Teilnehmer und der geographischen Ausdehnung begrenzt. Baum-Topologie

Die Baumstruktur ist eigentlich als Weiterentwicklung der Bus-Topologie anzusehen. Ein herkömmliches Busnetz ist durch weitere Busnetze erweitert, die hierarchisch geordnet sind.

Bild 13.4: Baum-Topologie

Stern

Eine andere Möglichkeit, die 20 PCs miteinander zu verbinden, wäre, das Kabel in 20 Teilstücke aufzutrennen und jeden PC über ein eigenes Kabel mit einem zentralen PC zu verbinden. Damit hätten Sie eine Sterntopologie realisiert, in der alle Nachrichten über einen zentralen Vermittler (Knoten) laufen, der die Weiterleitung von Informationen an den Empfänger vornimmt. Die Arbeit dieses zentralen Vermittlers wird in der Regel von einem Server übernommen. Ein Server ist ein Computer, über den zentrale Aufgaben im Netz abgewickelt werden, z. B. Speichern oder Drucken. Sterntopologie

Typische Beispiele für diese Topologie sind auch Großrechnersysteme, an die zahlreiche »dumme« Terminals angeschlossen sind. Jegliche Form der Kommunikation geht immer über den zentralen Großrechner. Ein wesentlicher Nachteil dieser Topologie ist die Abhängigkeit vom zentralen Server. Bei Ausfall dieses Knotens sind keine Verbindungen zwischen den anderen Stationen mehr möglich, und das Netz ist lahmgelegt. Fällt dagegen nur ein Kabel

aus, so ist nur der an diesem Kabel hängende PC von dem Ausfall betroffen, während alle anderen Rechner ohne Einschränkung miteinander kommunizieren können.

Bild 13.5: Stern-Topologie

Ring

Als nächste Alternative, die 20 PCs miteinander zu verbinden, könnten Sie natürlich auch die beiden Enden des Kabels einfach miteinander verbinden und so einen Ring schaffen. Das Ringnetzwerk vermeidet wie die Bustopologie einen zentralen Knoten und verbindet jede Station über einen eigenen Knoten mit seinem Vorgänger und mit seinem Nachfolger, bis sich der Kreis schließt.

Bild 13.6: Ring-Topologie

Ring-Topologie

Bei der Übermittlung von Daten zwischen zwei Stationen nehmen die dazwischenliegenden PCs die Nachricht auf, speichern sie zwischen und leiten sie weiter. Informationen werden also immer nur zwischen benachbarten Stationen weitergeleitet. Dadurch muss die Sendeleistung der einzelnen Stationen nicht groß sein, da keine weiten Entfernungen zu überbrücken sind. Zur Erweiterung eines Rings wird eine neue Station einfach zwischen zwei bereits vorhandenen Stationen eingefügt. Aus diesen Gründen kann ein Ringnetzwerk nahezu beliebig groß sein. Ein Nachteil dieser Topologie ist, dass bei Ausfall einer Station das gesamte Netzwerk lahmgelegt wird. Um dies zu umgehen, besteht die Möglichkeit, die Leitungen zwischen den angeschlossenen Stationen so zu führen, dass sie an einer zentralen Stelle zusammenkommen. Nach wie vor besteht die Verbindung von jeder Netzstation zu ihrem Nachfolger. Ist ein PC aber defekt, kann er aus dem Netz genommen werden, indem die Verbindungskabel einfach umgesteckt werden. Natürlich geschieht dies nicht manuell, sondern kann durch einen Mikroprozessor gesteuert werden. Hierzu sendet jede intakte Datenstation ein OK-Signal. Sobald die Station ausfällt und kein OK mehr sendet, wird sie durch den Mikroprozessor aus dem Ring entfernt.

Bild 13.7: Ring-Topologie mit Zentrale

Netzwerkkarte

Netzwerkkarten sind spezielle Einsteckkarten für PCs. Sie werden in den PC eingebaut und ermöglichen über ein spezielles Kabel die Verbindung zum Netz. Netzwerkkarten gibt es in unterschiedlichen Ausführungen. So gibt es Karten mit mehr oder weniger »Intelligenz« (zum Beispiel mit eigenem Prozessor, um den PC-Prozessor zu entlasten). Weiterhin unterscheiden sie sich in der Ausstattung vom Speicherplatz her (um Daten zwischenspeichern zu können), in den Bus-Taktraten der PCs (die Taktrate bestimmt die Geschwindigkeit, mit der ein Prozessor oder Bus Daten verarbeitet) sowie ganz allgemein in der Zuverlässigkeit. Bei der Auswahl einer Netzwerkkarte ist es wichtig zu wissen, an welche Kabel der PCs angeschlossen wird und wie die PCs miteinander kommunizieren. Die meisten Karten sind auf einen Standard spezialisiert.

Bild 13.8: Unter Windows werden Ihnen eine Vielzahl von Netzwerkkarten zur Auswahl angeboten, die in der Regel aber automatisch erkannt werden können.

Netzwerk-Zugangsverfahren Zugangsverfahren

Lokale Netze dienen zur Übermittlung von Informationen von einer Datenstation zur anderen. Von jedem angeschlossenen Rechner können Daten abgeschickt werden. Möchten mehrere Benutzer gleichzeitig Informationen versenden, kann es jedoch zu Konflikten kommen. Damit im Netzwerk kein Datenchaos entsteht, Datenpakete kollidieren oder verloren gehen, muss der Zugang geregelt werden. Daher wird die Datenübertragung innerhalb von Netzwerken von Zugangsverfahren gesteuert, in denen definiert ist, wie die einzelnen Netzwerkteilnehmer auf das Transportmedium zugreifen sollen. Sie haben die Aufgabe, Datenkollisionen und Datenverluste zu vermeiden. Zwei Zugangsverfahren haben sich durchgesetzt: Token-Verfahren

Eine Möglichkeit, Datenkollisionen zu vermeiden, ist, dass zu einem Zeitpunkt jeweils nur eine Station auf das Netz zugreifen darf. Dadurch kann es nie zu Überschneidungen kommen. Der Zugriff auf das Netz wird durch ein Token geregelt. Dieses Token ist ein eindeutiges Zeichen in Form einer speziellen Bitfolge (z. B. sechs Einsen), das über das Netzwerk von Station zu Station weitergereicht wird. Diejenige Station, an der sich das Token befindet, ist sendeberechtigt. Die Sendestation nimmt das Token vom Netz und schickt die Daten ab. Ist das Datenpaket am Ziel angekommen, wird es von der Empfangsstation als empfangen gekennzeichnet und zur sendenden Station weitergeleitet. Dort wird überprüft, ob richtig empfangen wurde, andernfalls wird der Vorgang wiederholt. Erst wenn die Sendung korrekt empfangen wurde, wird das Token wieder ins Netz entlassen. Token-Ring

Am häufigsten wird diese Technik in Ringnetzwerken eingesetzt. Dagegen wird das Token-Verfahren bei Busnetzen deutlich weniger verwendet. Wettkampfverfahren

CSMA/CD (Carrier Sense Multiple Access with Collision Detection) ist ein Zugriffsverfahren, das bei lokalen Netzen mit Busstruktur zur Überwachung und Steuerung gebräuchlich ist. Wettkampf heißt lediglich, dass nicht von vornherein feststeht, wer als nächster senden darf. Jede sendende Station muss vorher prüfen, ob das Netz frei ist. Wollen zwei Stationen gleichzeitig senden, kommt es zur Datenkollision, und beide brechen den Zugriff ab. Nach dem Erkennen des Fehlers findet der Wettkampf statt: Wenn die gleichzeitig sendenden Stationen abgebrochen haben, müssen alle warten, bis das Netz wieder gänzlich frei ist. Nach einer kurzen individuellen Zeitspanne wird ein neuer Versuch gestartet. Der Sender mit der kürzesten Verzögerung »gewinnt« und beginnt mit der Übertragung, die anderen Stationen müssen warten, bis der Kanal wieder frei ist. Die Kurzbezeichnung dieses Verfahrens steht für: 1. vor dem Senden in den Kanal hineinhorchen: Carrier Sensing 2. mehrere beteiligte Sender: Multiple Access 3. während der Übertragung den Kanal überprüfen, um Kollisionen zu erkennen: Collision Detection Netzwerkstandards

Basierend auf den oben beschriebenen Topologien und den Zugangsverfahren haben sich zwei Hauptstandards entwickelt: ● ●

Ethernet Token-Ring-Passing

Ethernet

Der Ethernet-Standard basiert auf der Bus-Topologie und dem Wettkampfverfahren (CSMA/CD). Die Datenübertragung war ursprünglich auf 10 Mbit/s beschränkt. Alle Stationen innerhalb eines Ethernet-Netzwerks können ein gemeinsames Kabel zur Kommunikation verwenden. Dabei lassen sich unterschiedliche Kabeltypen verwenden, vom dünnen Koaxialkabel bis zum Glasfaserkabel. Parallel zum Ethernet wurde vom Institute of Electrical and Electronic Engineers (IEEE) der Standard IEEE 802.3 definiert, der weitestgehend mit Ethernet kompatibel ist. Lediglich die Kodierung der Nachrichten wird in der IEEE 802.3 etwas anders definiert. Je nach Verkabelungsart können die Verbindungskabel maximal zwischen 100 und 500 Meter lang sein. Die Übertragungsgeschwindigkeit war auf 10 Mbit/s begrenzt, inzwischen arbeiten die meisten Ethernets allerdings mit 100 Mbit, Gbit-Ehternets werden auch schon realisiert.

Novell-Netzwerke bedienen sich dieses Standards. Token-Ring-Passing

Das Token-Ring-Passing baut auf der Ringtopologie auf und nutzt das Token für den Zugang zum Netz. Dieses Verfahren wurde von IBM entwickelt und als IEEE 802.5 standardisiert. Ein IBM-Token-Ring erlaubt Übertragungsraten von bis zu 16 Mbit/s. Beim Token-Ring-Passing kann es nicht zu Datenkollisionen kommen. Beim Ethernet wird die Anzahl der am Netz angeschlossenen Stationen durch die häufiger auftretenden Datenkollisionen begrenzt. Je mehr Stationen senden, desto häufiger kommt es zu Kollisionen und zu Wartezeiten. Dadurch verringert sich mit der Anzahl der Stationen die Übertragungsrate. Beim Token-Ring bleibt dagegen die Übertragungsrate konstant, allerdings darf ein Netz nicht zu groß werden, da sonst die Umlaufzeit des Tokens zu lang wird. Daher ist die Anzahl der Stationen im Token-Ring in der Regel auf 255 begrenzt.

13.2.3 Protokolle: Sprachen im Netzwerk Den Begriff »Protokoll« kennen Sie vielleicht aus den Nachrichten, wenn von Staatsempfängen gesprochen wird: »Das Protokoll schreibt dieses vor, es schreibt jenes vor usw. In diesem Fall lässt sich ein Protokoll als eine Reihe von Vorschriften bzw. Vereinbarungen für den Ablauf des Empfangs interpretieren. Wenn wir uns nun noch einmal kurz dem Philosophenbeispiel zuwenden, so finden wir auch hier allgemeine Vereinbarungen, wie beispielsweise die Telefonverbindung aufgenommen wird: Bevor das Gespräch beginnt, melden sich zunächst beide Teilnehmer, um zu erfahren, dass auch die richtige Verbindung aufgebaut wurde. Weiterhin sind sich beide einig, dass immer nur einer reden kann. Entsprechendes gilt für den Verbindungsabbau, bei dem sich beide Gesprächsteilnehmer voneinander verabschieden. Genau diese Schritte sind aber auch notwendig, um in einem Netzwerk eine Verbindung zwischen Rechnern aufzubauen. Während uns die Regeln des Telefonierens bereits von klein auf beigebracht wurden, sind die Regeln für den Aufbau einer Verbindung zwischen Computern in so genannten Protokollen festgelegt. Damit sich zwei Computer unterhalten können, müssen sie die gleichen Protokolle kennen. Die folgende Übersicht enthält die Protokolle, die Sie auch unter Windows nutzen können. Protokoll Beschreibung NetBIOS NetBIOS ist ein Transportprotokoll, das vorwiegend in auf DOS basierenden Netzwerken eingesetzt wird. Die Aufgabe des NetBIOS ist die Übersetzung von Anforderungen des Netzwerk-Betriebssystems in Funktionsaufrufe der verbindenden Hardware. Die NetBIOS-Schnittstelle dient also der Kommunikation zwischen Betriebssystem und Netzwerk-Hardware (Adapterkarte). Da die Funktionsaufrufe abhängig von der verwendeten Hardware sind, muss für jede Adapterkarte eine spezielle NetBIOS-Version geliefert werden. NetBEUI NetBEUI (NetBIOS Extended User Interface) ist ein LAN-Transportprotokoll, das von IBM entwickelt wurde und auf dem NetBIOS-Protokoll aufbaut. IPX/SPX IPX/SPX (Internet Packet Exchange/Sequenced Packet Exchange) ist eine Familie von Transportprotokollen, die vorwiegend in Netzwerken der Firma Novell (Novell NetWare) eingesetzt wird. TCP/IP

Ein weiteres Transportprotokollverfahren ist TCP/IP (Transmission Control Protocol/Internet Protocol), das besonders in UNIX-Netzwerken verwendet wird. TCP/IP geht eigentlich über ein einfaches Transportprotokoll hinaus und stellt statt dessen eine komplette Architektur dar, die vom US-Verteidigungsministerium (Department of Defense, DoD) standardisiert wurde. TCP/IP eignet sich besonders für die Kommunikation in großflächigen heterogenen Netzwerken und wird inzwischen auch parallel zu anderen Netzwerkarchitekturen eingesetzt. Besonders interessant ist TCP/IP auf einem Windows-Rechner für die Einbindung in das weltweite Informationsnetzwerk Internet.

Tabelle 13.2: Die wichtigsten Netzwerkprotokolle

Bild 13.9: Die Windows-Betriebssysteme bieten alle wichtigen Protokolle zur Installation an.

13.2.4 Netzwerk-Betriebssysteme Ein weiterer wichtiger Punkt, der die Leistungsfähigkeit eines Netzwerkes beeinflusst, ist das Betriebssystem. Das Betriebssystem MS-DOS ist als

Netzwerk-Betriebssystem nur mäßig geeignet, weil ihm die entscheidende Fähigkeit des Multitasking fehlt, das heißt, unter MS-DOS kann ein Rechner nicht mehrere Aufgaben gleichzeitig erledigen. Dazu sind spezielle Netzwerk-Betriebssysteme notwendig, die folgende Aufgaben haben: ●

Aufbau (Logon) und Abbau (Logoff) der Verbindung eines PCs an ein Netzwerk:



Abfrage von Benutzername und Kennwort ❍ Weiterleitung der Eingaben an den Zielrechner Empfangen von Informationen ❍

● ● ●

Erkennen, ob eine angeforderte Datei auf dem lokalen PC oder auf einem Netzwerkrechner gespeichert ist Umleitung der Anforderung an den entsprechenden Netzwerkrechner Laden der angeforderten Datei von dem Netzwerkrechner

Netzwerk-Betriebssystem

Trotz seiner mangelnden Eignung als Betriebssystem in einem Netzwerk wurden zusätzliche Programme entwickelt, durch die auch mit MS-DOS im Netzwerk als Betriebssystem gearbeitet werden kann. Doch um die Möglichkeiten der Netzwerktechnologie vollständig nutzen zu können, sind spezielle LAN-Betriebssysteme notwendig. Im Folgenden sind einige Beispiele für beide Kategorien aufgeführt. Novell Netware

Auf einer Vielzahl lokaler Netze wird die Software von Novell, Netware, eingesetzt. Bei dieser Software handelt es sich um ein eigenes Betriebssystem, das speziell für schnelle Plattenzugriffe ausgelegt ist. Aus diesem Grunde erlaubt es eine schnellere Kommunikation innerhalb des Netzes. Neben vielen weiteren Vorteilen unterstützt dieses Betriebssystem den Datenschutz im Netz sowie automatische Backup-Möglichkeiten. IBM-LAN-Manager

Der IBM-LAN-Manager ist die Netzwerkerweiterung für das Multitasking-Betriebssystem OS/2. Der LAN-Manager ist eine Weiterentwicklung des PC-LANProgramms, doch im Gegensatz zu diesem hat er die Möglichkeit, alle Netzwerkaktivitäten im Hintergrund zu steuern, ohne die im Vordergrund ablaufende Anwendung in ihrer Leistungsfähigkeit zu beeinflussen. Mit Hilfe des LAN-Managers kann OS/2 zu einem vollwertigen NetzwerkBetriebssystem ausgebaut werden. Windows

Die Windows-Betriebssysteme sind ebenfalls netzwerkfähig. Ohne zusätzliche Software können Rechner mit diesen Systemen zu einem Netzwerk zusammengeschlossen oder in ein bestehendes integriert werden. UNIX

An dieser Stelle sollte UNIX nicht vergessen werden. Dieses Betriebssystem war von jeher für den Einsatz in Netzwerken gedacht. Der gesamte Aufbau des Betriebssystems unterstützt seine Kommunikationsmöglichkeiten. Fast alle der hier aufgeführten Netzwerkbetriebssysteme unterstützen so genannte Server-Netzwerke, bei denen die einzelnen Arbeitsrechner auf die Dienste des zentralen Server-Rechners zugreifen. Im Gegensatz dazu sind aber auch Peer-to-Peer-Netzwerke oder so genannte Arbeitsgruppen möglich, bei denen jeder Rechner gleichberechtigt ist. Schauen wir uns die Unterschiede in Ruhe an.

13.2.5 Server-Netzwerke Server

Der Hauptgrund für den Einsatz eines lokalen Netzwerkes ist die gemeinsame Nutzung von Daten und Programmen. Um dieses Ziel zu erreichen, gibt es in den meisten lokalen Netzwerken eine spezielle Einheit, die die Zugriffe der verschiedenen Benutzer auf Software und Peripheriegeräte, z. B. Drucker, verwaltet. Diese Einheiten werden Server genannt. Alle anderen PCs, welche die Dienste des Servers nutzen, bezeichnet man dagegen als Client. Dedicated Server und non-dedicated Server

Ein Netzwerk wird durch das Starten des Server-Computers in Betrieb genommen. Dieser sorgt dafür, dass alle Zusatzeinrichtungen, die gemeinsam benutzt werden sollen, allen Netzwerkteilnehmern zur Verfügung stehen. Die Server werden entsprechend ihrer Verwendung und ihrer Kontrollfunktion unterteilt. Ein dedicated Server ist ein Computer, der ausschließlich für die Netzwerksteuerung verantwortlich ist. Ein non-dedicated Server kann neben seiner Netzwerkfunktion auch als Arbeitsstation genutzt werden. Je größer ein Netz ist, desto häufiger wird der Server-PC mit Kontrollaufgaben, die das Netz betreffen, ausgelastet. In diesem Fall ist es sinnvoll, ihn als dedicated Server einzusetzen, um eine optimale Netzwerkleistung und Zuverlässigkeit im Netz zu gewährleisten. File Server Printer Server Kommunikations-Server

Ein Server kann in einem LAN unterschiedliche Funktionen erfüllen. Ein File Server ermöglicht allen im Netz angeschlossenen Geräten den Zugriff auf den gleichen Datenbestand. Ein File Server sollte auf jeden Fall über eine oder mehrere große und sehr schnelle Festplatten verfügen. Neben dem File Server werden teilweise (je nach Größe des LAN) auch Printer Server für die Verwaltung der Drucker sowie Kommunikations-Server, die den Zugriff auf Postdienste wie Telex, Teletex, Btx, Fax und die Verbindung mit anderen Netzwerken organisieren, eingesetzt. Meist übernimmt ein Server mehrere dieser Aufgaben gleichzeitig. Nur wenn ein hoher Kommunikationsbedarf im Netz besteht, werden die Aufgaben auf verschiedene Server aufgeteilt, da sonst die Effektivität, also der Datendurchsatz im Netz, wesentlich herabgesetzt wird. Domänennetzwerke

Die Anzahl der an einen Server anschließbaren PCs ist aber meist auf ca. 255 PC begrenzt. Gerade in größeren Firmen mit mehreren tausend Arbeitsplätzen kommt es hierbei zu Engpässen. Eine Alternative ist aber die Betrachtung eines Server-Netzes als Domäne. Hierbei werden alle verfügbaren Ressourcen und Zugriffsrechte der Benutzer einheitlich verwaltet. Der Vorteil des Domänenkonzepts ist, dass mehrere Domänen (Domains) wiederum miteinander verbunden und zu einem großen Netzwerk zusammengeschlossen werden können. Durch eine zentrale Verwaltung aller Ressourcen und Benutzerrechte kann ein Anwender an einer beliebigen Arbeitsstation arbeiten, er greift einheitlich auf die ihm zur Verfügung gestellten Ressourcen zu.

Bild 13.10: Netzwerk, bestehend aus mehreren Domänen

Brücken-PC

Die einzelnen Domänen können innerhalb eines Gebäudes oder über ein größeres Firmengelände verteilt sein. Im letzteren Fall werden so genannte Brücken-PCs benötigt, die die Verbindung zwischen den einzelnen Netzwerken aufrechterhalten. Eine Brücke ist notwendig, weil die Informationsübertragung auf den Netzwerkleitungen räumlich begrenzt ist. In der Regel liegen die maximalen Entfernungen innerhalb eines Netzes bei ca. 500 m. Für größere Distanzen müssen andere Transportleitungen gewählt werden. Beispiele hierfür können Glasfaserkabel sein (auf eigenem Firmengelände) oder Dienste der Telekom wie DATEX-P oder ISDN, mit denen auch Lokationen außerhalb des Firmengeländes miteinander verbunden werden können. Zentralistische Struktur

Wie groß ein Server- oder Domänen-Netzwerk auch ist, es hat immer eine zentralistische Struktur. Alle Clients sind mit dem Server verbunden und nutzen seine Dienste bzw. Ressourcen. Die gesamte Kommunikation zwischen den Clients läuft über den Server. Dass ein Client Dienste zur Verfügung stellt, ist nicht möglich. Dieser zentralistische Aufbau setzt sich auch in der Organisation fort. In Server-Netzwerken gibt es immer einen Administrator, der Zugriff auf alle Ressourcen des Servers hat. Allen anderen Anwendern muss der Administrator Zugriffsrechte zuweisen, ob also jemand ein bestimmtes Verzeichnis oder den am Server angeschlossenen Drucker nutzen darf. Möchte ein Anwender eine neue Ressource nutzen, muss der Administrator zuvor entsprechende Zugriffsrechte im Netzwerkbetriebssystem des Servers einrichten. In Peer-to-Peer-Netzwerken gibt es dagegen diese Aufteilung in Server und Client nicht, jeder Anwender ist sein eigener Administrator. Das hat Vorteile, aber auch Nachteile.

13.2.6 Peer-to-Peer-Netzwerke Peer-to-Peer-Netzwerke eignen sich besonders für kleinere Netzwerke mit maximal 10 Clients. Besonders in Büros mit zwei, drei oder vier PCs, die sich gemeinsame Ressourcen wie Drucker oder CD-ROM-Laufwerke teilen sollen, ist dieser Netzwerktyp geeignet. Peer-to-Peer-Netze eignen sich daher insbesondere für kleinere Arbeitsgruppen oder Projektteams; daher wird der Begriff Workgroup oder Arbeitsgruppe auch häufig als Synonym für Peer-toPeer-Netze verwendet. Bei Workgroup-Netzen kann auf einen zentralen Server verzichtet werden, jeder einzelne Rechner kann Dienstleistungen zur Verfügung stellen bzw. nutzen. So kann ein PC die Dienste eines anderen Rechners, an den ein Drucker angeschlossen ist, nutzen, um Dokumente auszudrucken. Andererseits stellt er allen anderen Rechnern im Netzwerk bestimmte Verzeichnisse seiner Festplatte zur Verfügung, in denen Dateien abgespeichert sind, die alle anderen Netzwerkteilnehmer interessieren. Die Zugriffsrechte für die Ressourcen eines Rechners verwaltet der Anwender dieses Rechners, er hat quasi die gleichen Rechte wie der Administrator in einem Server-Netzwerk. So können Sie einem Kollegen, mit dem Sie eng zusammenarbeiten, den Zugriff auf bestimmte Verzeichnisse erlauben, während anderen Kollegen der Zugriff verwehrt wird. Ein Peer-to-Peer-Netz ist somit besonders für Arbeitsgruppen interessant, die sich gegenseitig Informationen und Dokumente zur Verfügung stellen möchten. Spezielle Hardware kann auf die einzelnen beteiligten Rechner verteilt und den Kollegen über das Netz bereitgestellt werden. Die Verwaltung der Zugriffsrechte ist eigentlich auch eines der wichtigsten Unterscheidungsmerkmale zwischen Server- und Peer-to-Peer-Netzen. In einer Workgroup hat jeder einzelne Rechner sein eigenes Sicherheitssystem, das die Anmeldung der Benutzer wie auch den Zugriff auf die Ressourcen überwacht. Im Gegensatz dazu übernimmt in einem Server-Netz diese Aufgabe immer mindestens ein Server, der die Benutzeranmeldung überprüft und

den zugriffsberechtigten Anwendern vordefinierte Ressourcen zuweist. Zugriffsrechte

Dadurch, dass in einer Workgroup jeder Rechner alles anbieten und alles nutzen kann, entsteht allerdings ein relativ hoher Verwaltungsaufwand, da auf jedem Rechner festgehalten werden muss, wer welche Ressourcen (Drucker, Dateien etc.) nutzen darf. Alle Zugriffe und Zugriffsberechtigungen werden auf jedem Rechner überprüft, indem sie mit Einträgen in einer speziellen Datenbank verglichen werden. Dieser Aufwand wird bei einer zu großen Anzahl von Netzwerkteilnehmern (mehr als zehn angeschlossene Rechner) so hoch, dass eine sinnvolle Verwaltung nicht mehr möglich ist. Windows ist ein typisches Peer-to-Peer-Betriebssystem. Das soll aber nicht heißen, dass Windows nicht in einem großen Server-Netzwerk eingebunden werden kann. Die Peer-to-Peer-Dienste des Betriebssystems stellen eher eine Ergänzung dar. Windows ermöglicht die Einbindung eines Rechners in ein großes Server-Netzwerk und die Nutzung der zentralen Ressourcen. Gleichzeitig haben Sie auch die Möglichkeit, selber eigene Ressourcen freizugeben. Dadurch können sich Arbeitsgruppen gegenseitig Drucker, Dokumente etc. bereitstellen und parallel auch die Kommunikationsmöglichkeiten des großen Domänennetzes nutzen.

13.2.7 Homogene und heterogene Netzwerke Homogene Netzwerke

Wie Sie im letzten Abschnitt gesehen haben, können Netzwerke beinahe beliebig erweitert werden. Die Erweiterung ist relativ einfach, wenn in einem großen Netzwerk alle Netzwerk-Domänen mit den gleichen Protokollen bzw. mit dem gleichen Netzwerk-Betriebssystem arbeiten. In diesem Fall spricht man von homogenen (gleichartigen) Netzwerken. Heterogene Netzwerke

In den letzten Jahren wurden zahlreiche verschiedene Netzwerkprotokolle entwickelt, so dass in vielen Firmen in verschiedenen Abteilungen, Gebäuden oder Filialen auch unterschiedliche Netzwerke eingerichtet wurden, aus welchen Gründen auch immer. Da der Informationsaustausch aber immer wichtiger wird und sich die alten Netzwerke nur mit erheblichen Kosten durch neue einheitliche Techniken ersetzen lassen, sucht man nach Wegen, die ungleichartigen Netzwerke in einem heterogenen Netzwerk zusammenzufassen. Mit Hilfe bestimmter Techniken, die zwischen den unterschiedlichen Verfahren vermitteln, kann auch ein heterogenes Netzwerk einheitlich erscheinen. Besonders für den normalen Anwender soll es nicht erkennbar (transparent) sein, ob er innerhalb eines Abteilungsnetzes eine Textverarbeitung aufruft oder mit dem Buchhaltungsprogramm arbeitet, das auf einem Rechner in einer entfernten Filiale installiert ist. Netzwerke können auf vielerlei Weise erweitert werden. In homogenen Netzwerken werden einfach weitere Rechner in ein Netz eingefügt. Sollen weit voneinander entfernt liegende LANs oder unterschiedliche Systeme zu heterogenen Netzwerken gekoppelt werden, setzt man im allgemeinen spezielle Rechner ein, Bridges (Brücken) oder Gateways (Tore), die zwischen den unterschiedlichen Systemen vermitteln. Die Aufgabe dieser Rechner ist vergleichbar mit einem Dolmetscher, der ein Gespräch simultan von einer Sprache in eine andere übersetzen soll.

Bild 13.11: Heterogenes Netzwerk

13.2.8 Vom LAN zum GAN Computer lassen sich heutzutage beinahe beliebig miteinander verbinden. Auf der untersten Ebene dieser Verbindungsmöglichkeiten stehen die lokalen Netzwerke, über die räumlich relativ dicht benachbarte Computerstationen miteinander verbunden werden. Doch Netzwerke sind nicht mehr auf einzelne Gebäude beschränkt, sondern können mit Hilfe der Kommunikationsdienste der Telekom auch über größere Entfernungen miteinander kommunizieren. So gibt es Netzwerke zum Datenaustausch innerhalb von Stadtgebieten (MAN = Metropolitan Area Network) und WANs (Wide Area Network), die keinen räumlichen Begrenzungen unterliegen. Das WAN verbindet Rechner zwischen einzelnen Ländern oder innerhalb von Landesgrenzen. Doch selbst Kontinente stellen keine Grenzen für den Datenaustausch zwischen Computern dar. Über Satelliten können den Globus umfassende Netzwerke geschaltet werden, die weltumspannend Rechner auf allen Kontinenten miteinander verknüpfen können (Global Area Network, GAN).

13.3 Systemverwaltung Der Aufbau eines großen Netzwerks ist kein Pappenstiel. Während sich ein lokales Netz mit einigen hundert Rechnern, die sich innerhalb eines Gebäudes befinden, noch relativ einfach verwalten lässt, ergeben sich bei einem Unternehmen mit 30.000 Rechnern und mehr zahlreiche Probleme, die von einem Team von EDV-Spezialisten gelöst werden müssen. Da ist das Netzwerk an sich. In jedem Büro müssen ausreichend Kabel zum Anschluss eines neuen Rechners vorhanden sein. Verschiedene Gebäude müssen über entsprechende Leitungen miteinander verbunden werden, sind einzelne Lokationen großflächig verteilt, müssen Postleitungen für den Zusammenschluss angemietet und eingerichtet werden.

Jeder PC, der einem Netzwerk hinzugefügt wird, erhält einen eindeutigen Namen. Hinzu kommt eine Netzwerkadresse, über die der PC mit anderen Rechnern kommunizieren kann. Spezielle Server innerhalb des Netzwerks sind für die Namensauflösung zuständig. Sie weisen jedem neuen PC eine Netzwerkadresse zu und tragen diese Adresse in eine zentrale Datenbank ein. Jeder PC, der eine Nachricht an einen anderen PC senden will, muss zuerst die Adresse des Zielrechners aus dieser Datenbank erfragen. Daraus ergibt sich eine wichtige Rolle für diese Server, würden sie alle gemeinsam ausfallen, wären die einzelnen Netzwerkrechner zwar über ihr Kabel miteinander verbunden, sie würden sich aber nicht mehr wieder finden. Daher müssen die für die Namensauflösung zuständigen Server so platziert werden, dass die zentrale Datenbank auch bei Ausfall einzelner Server noch immer erreicht werden kann. Bevor mit einem neuen PC gearbeitet werden kann, muss er erst einmal korrekt installiert werden, und zwar so, dass er mit allen anderen Rechnern kommunizieren kann und die Software den Konventionen des Unternehmens entsprechend eingerichtet ist. Leider braucht die Installation einiges an Zeit: mindestens ein halber Tag muss für die Installation des Betriebssystems, der Office-Anwendungen und ihrer Konfiguration eingeplant werden. Je nach Umfang der zusätzlichen Software muss auch schon ein ganzer Tag eingeplant werden. Auf Grund der Abschreibungsmöglichkeiten und der technischen Entwicklung werden in Unternehmen PCs alle 3 Jahre gegen neue Geräte ersetzt. Bei einem Bestand von 30.000 Rechnern ergibt das 10.000 neue PCs pro Jahr, womit pro Arbeitstag ca. 50 Rechner neu zu installieren sind. Das ergibt einen Bedarf von mindestens 25 Mitarbeitern, die nichts anderes machen, als neue PCs zu installieren. Doch was ist mit all den Softwareaktualisierungen, alle 2 Jahre eine neue Office-Version, oder Antivirenprogrammen, die bereits nach wenigen Monaten aktualisiert werden müssen (die Virendatenbank können die meisten Programme automatisch aus dem lokalen Netzwerk oder dem Internet aktualisieren)? Hier werden unbedingt Möglichkeiten zur automatischen Installation von Rechnern und zur Aktualisierung von Software benötigt. Unattended Setup

Systemmanagement-Werkzeuge können hier Abhilfe schaffen. Da ist zum einen die Erstinstallation von PCs. Die kann mit Hilfe spezieller Beschreibungsdateien automatisiert werden. In diesen Dateien sind die Eingaben abgespeichert, die während der Installation des Betriebssystems und von Anwendungsprogrammen vom Anwender erwartet werden, z. B. der Name des PCs, welche Zubehörprogramme installiert werden sollen, in welches Verzeichnis Anwendungsprogramme gespeichert werden sollen usw. Solche so genannten Unattended Setups müssen sorgfältig vorbereitet werden, ersparen aber im Betrieb sehr viel Arbeit. Schließlich reicht es aus, einen frischen PC mit dem Netzwerk zu verbinden; die Installation könnte dann ohne weitere Eingriffe automatisch durchlaufen.

Bild 13.12: Beim normalen Setup müssen vom Anwender einige Auswahlen getroffen werden; beim Unattended Setup sind sie vorgegeben und werden nicht mehr abgefragt.

Sobald der fertig installierte PC in Produktion geht, kann er weiter von Systemmanagement-Werkzeugen übernommen werden wie z. B. Tivoli von IBM oder Systems-Management-Server (SMS) von Microsoft. Diese Systeme können gleich mehrere Aufgaben übernehmen: Softwareverteilung



Da ist zum einen die Verteilung von Software. Früher mussten neue Programmversionen mühselig von Hand installiert werden. Zahlreiche Spezialisten mussten dazu über viele Tage von Büro zu Büro laufen. Mit Hilfe eines Systemmanagement-Werkzeugs müssen nun dagegen nur die Softwareprodukte für eine automatisierte Verteilung vorbereitet werden.

Bild 13.13: Eine Software wird für die Verteilung vorbereitet, wobei genau angegeben werden kann, wann das Programm installiert werden soll. ●

Weiterhin genügt nur noch die Angabe der Zielrechner, und die Software wird automatisch an die PCs verteilt und installiert. Auf diese Weise können auch umfangreiche Softwareaktualisierungen von wenigen Spezialisten in wenigen Tagen durchgeführt werden.

Bild 13.14: Ein neues Programm steht auf dem Zielrechner zur Installation bereit.

Inventarisierung



Um Software zielgerecht verteilen zu können, ist es aber notwendig zu wissen, ob der Zielrechner auch die Voraussetzungen für die Software erfüllt. Beispielsweise werden für die Aktualisierung eines Office-Produktes häufig mehrere hundert Mbyte freier Plattenplatz benötigt, auch der

Hauptspeicher und der Prozessor müssen den meist gestiegenen Anforderungen einer neuen Software entsprechen. Daher macht es keinen Sinn, ein neues Programm auf Rechnern zu installieren, die diese Voraussetzungen nicht erfüllen. Die notwendigen Informationen liefern regelmäßige Inventarisierungen der Netzwerkrechner. Auch das wird automatisch durch spezielle Komponenten der Systemmanagement-Software erledigt. Die Inventurdaten werden in einer zentralen Datenbank abgelegt, anhand derer die Zielrechner für eine Softwareverteilung ausgemacht werden können. Weiterhin können die Daten auch den kaufmännischen Bereichen eines Unternehmens helfen, den Überblick über die aktuellen Betriebsmitteldaten zu behalten.

Bild 13.15: Die Inventurdaten eines PCs (Hardware, Angaben zum Anwender und installierte Software) können aus einer Datenbank abgefragt werden.

Fernwartung



Bei vielen installierten Rechnern gibt es immer ein Problem. Für die Behebung dieser Probleme gibt es ebenfalls Spezialisten. Allerdings brauchten diese Spezialisten regelmäßig frisch besohltes Schuhwerk, müssten sie jeden Problemrechner vor Ort aufsuchen. Zur Abhilfe gibt es nicht nur das Telefon, sondern auch so genannte Fernwartungs-Programme, mit denen man sich den Bildschirminhalt eines bestimmten PCs auf dem eigenen Rechner anzeigen lassen kann. So muss ein Anwender, der mit der Bedienung seines Programms nicht zurecht kommt, nicht nur mit umständlichen Worten sein Problem erklären, sondern der Spezialist kann sich das Problem von seinem eigenen Arbeitsplatz aus anschauen und mit dem Anwender gemeinsam eine Lösung suchen, ohne auch nur einen Fuß vor seine Bürotür setzen zu müssen.

Bild 13.16: Mit Hilfe der Fernwartung können Anwender und Spezialist gemeinsam Probleme mit dem PC lösen wie hier z. B. bei der Bedienung des Internet Explorers.

Soviel als Ausschnitt aus den zahlreichen Aufgaben von Systemmanagement-Werkzeugen, ohne die der Betrieb großer PC-Netzwerke eigentlich undenkbar wäre. Und nun noch ein wenig Theorie für Interessierte...

13.4 Das OSI-Modell

Für die Kommunikation zwischen mehreren Datenstationen (in unserem Fall PC) sind eine ganze Reihe von Voraussetzungen bei den Kommunikationspartnern zu erfüllen, damit die Verbindung zustande kommt und die Kommunikationssignale verstanden werden. Dazu müssen alle Verbindungsteilnehmer über einheitliche physikalische Schnittstellen verfügen, und die Informationen müssen auf die gleiche Weise verarbeitet und weitergereicht werden. Vereinbarungen über die Adressierung der Daten, über die Behandlung von Übertragungsfehlern etc. sind für eine Verbindung von unterschiedlichen Systemen nötig. Diese Vereinbarungen sind in Protokollen festgelegt. Obwohl in vernetzten Systemen häufig unterschiedliche Hardware- und Softwaresysteme im Einsatz sind, kann in den meisten Fällen eine Kommunikation aufgebaut werden. Wichtigstes Kriterium ist die Kompatibilität der einzelnen Komponenten. Kompatibilität kann aber erst dann erreicht werden, wenn es Richtlinien gibt, an die sich alle Hard- und Softwareproduzenten halten können. Ein allgemeines Rahmenwerk stellt das OSI-Modell (Open Systems Interconnection) der International Standardization Organization (ISO) dar. Dieses Modell bietet einen abstrakten Rahmen für die Kommunikation zwischen Datenstationen. Aufgrund der Komplexität der Kommunikation zwischen Datenverarbeitungsanlagen teilt das OSI-Modell den Kommunikationsvorgang in sieben übereinander gelagerte Schichten auf. Jeder Schicht sind ganz spezielle Funktionen zugeordnet. Die Kommunikation zwischen den Schichten wird über Protokolle geregelt. Dadurch können Hard- und Softwarekomponenten, die für Aufgaben einer bestimmten Schicht zuständig sind, jederzeit durch andere Produkte ausgetauscht werden. Die Einhaltung der Protokolle gewährleistet die störungsfreie Kommunikation. Durch dieses Rahmenwerk ist es möglich, dass ein Hersteller A eine Hardwarekomponente entwickelt, die zur Datenkommunikation dient, und ein Hersteller B die Software, die für den Aufbau der Verbindung zuständig ist. Halten sich beide Hersteller an die Protokoll-Spezifikationen des OSI-Modells, ist eine Kompatibilität der verschiedenen Produkte gewährleistet. Die Schichten des OSI-Modells

Die Schichten des OSI-Modells bauen aufeinander auf. Daten werden für die Kommunikation über Schnittstellen von der untersten Schicht nacheinander zur obersten Ebene weitergeleitet und umgekehrt. Jede Schicht kommuniziert also nur mit der nächsthöheren und der nächstniedrigeren Ebene.

Bild 13.17: Das OSI-Modell

Die physikalische Schicht

Die erste Schicht regelt alle technischen und physikalischen Eigenheiten der Übertragungswege. Auf dieser Ebene ist festgelelegt,



mit welcher elektrischen Spannung Bits für die Zustände 1 und 0 übertragen werden, ob eine physikalische Verbindung nur zwischen zwei oder mehreren Teilnehmern bestehen darf,



ob eine Verbindung nur in eine Richtung (von Sender zu Empfänger) oder in beide Richtungen aufgebaut wird.



In dieser Schicht wird in der Regel auch die Topologie von Netzwerken behandelt. Die Verbindungssicherungsschicht

Die Abssicherung gegen Verbindungsfehler ist die Aufgabe der zweiten Schicht. Sie sorgt dafür, dass Übertragungsfehler erkannt und abgefangen bzw. korrigiert werden. Hierzu werden vor der Versendung von Daten Prüfziffern gebildet, die ebenfalls an die Empfangsstation weitergeleitet werden. Auf der Empfängerseite sorgt die gleiche Schicht für die Überprüfung der Kennziffern, um unvollständig übertragene Daten erkennen zu können. Eine weitere Aufgabe dieser Schicht ist es, die zu versendenden Daten mit Sender- und Empfangsadressen zu versehen. Auf diese Weise wird der Datenfluss auf dem physikalischen Medium kontrolliert und sichergestellt, dass die versendeten Daten auch tatsächlich den richtigen Empfänger erreichen. Protokollbeispiele für diese Schicht sind CSMA/CD oder Token Passing. Die Netzwerkschicht

Die Netzwerk- oder Vermittlungsschicht ist zuständig für die Verbindung der Kommunikationspartner und die Bereitstellung eines sicheren Kommunikationskanals. Hierzu ist es unter Umständen notwendig, dass die Verbindung aus mehreren Teilverbindungen zusammengeschaltet wird. Ein Beispiel hierfür ist das Telefonnetz. Bei einem Ferngespräch von Berlin nach München wird die Telefonverbindung aus zahlreichen Einzelverbindungen zusammengestellt, von der Ortsvermittlung zum Fernamt über weitere Vermittlungsstellen und über die Ortsvermittlung in München an den Endteilnehmer. Ziel der Netzwerkschicht ist es, die einzelnen Verbindungen so zu schalten, dass sie für den Anwender wie eine einzige Übertragungsleitung erscheinen. Beispiele für diese Schicht sind das IP-Protokoll (von TCP/IP) oder X.25 (DATEX P). Die Transportschicht

Die vierte Schicht stellt ein Bindeglied zwischen den unteren und den oberen drei Schichten des OSI-Modells dar, zwischen den physikalischen und den logischen Gegebenheiten der Kommunikationsverbindung. In der Transportschicht wird der logischen Geräteadresse von Absender und Empfänger die physikalische Adresse zugeordnet. Ist der Weg durch ein Netzwerk erst einmal gefunden (Aufgabe von Schicht 3), muss sichergestellt werden, dass die zu übertragenden Nachrichten mit den aktuellen Netzknotenadressen versehen werden. Gelingt die Datenübertragung nicht, muss automatisch ein neuer Versuch gestartet werden. Beispiele für diese Schicht sind TCP (von TCP/IP) oder NetBIOS. Die Sitzungsschicht

In der Sitzungsschicht werden die Kommunikations-Beziehungen gesteuert, auf- und abgebaut. Ein einfaches Beispiel für diesen Aufgabenkomplex ist ein

Telefongespräch: Der Teilnehmer aus Berlin wählt eine Nummer in München und die Verbindung wird erfolgreich aufgebaut. Der Gesprächspartner am anderen Ende meldet sich aber nur mit einem einfachen »Hallo?«. Bevor die Kommunikation weitergeführt wird, muss der Berliner Teilnehmer erst einmal sicherstellen, ob er in München auch den richtigen Gesprächspartner angewählt hat und den Gesprächspartner nach seinem Namen fragen. Entsprechendes wird von der Sitzungsschicht veranlasst, sobald eine Verbindung zur Datenkommunikation aufgebaut ist. Während in einem Telefongespräch beide Teilnehmer nicht gleichzeitig reden, muss die Dialogform (unidirektional, bidirektional simultan (duplex), bidirektional alterniederend (halb-duplex)) bei der Datenübertragung zu Beginn festgelegt werden. Eine weitere Aufgabe dieser Schicht ist, bei Unterbrechungen der Kommunikation für die Wiederaufnahme der Verbindung zu sorgen. Die Darstellungsschicht

Die Darstellungschicht ist für die Kodierung der zu übertragenden Daten verantwortlich. In dieser Schicht ist geregelt, wie die zu transportierenden Daten formatiert werden, Festkomma- und Gleitkommazahlen dargestellt und Steuerzeichen eingefügt werden können. Die Anwendungsschicht

Diese oberste Schicht bildet die Schnittstelle zum Anwender. Anwender kann in diesem Fall auch ein Programm sein, das die Kommunikationsmöglichkeiten des PCs nutzt. Konsequenzen für Netzwerke

Das OSI-Modell ist ein Standard, der die Datenkommunikation computer- und herstellerunabhängig macht. Lokale Netzwerke setzen sich aus mehreren unterschiedlichen Bausteinen zusammen. Das OSI-Modell gewährleistet, dass der Anwender nicht alle Bausteine von einem Hersteller beziehen muss.

14 Let's go Online Noch vor wenigen Jahren war häufig die Rede vom Information Highway (zu deutsch auch Datenautobahn genannt) als ein wichtiges Ziel unserer Informationsgesellschaft, in der fast jeder Arbeitsplatz und Haushalt Zugriff auf eine Vielzahl von Informationen hat. Inzwischen heißt es nur noch lapidar »Ich bin drin...« und jeder weiß, was gemeint ist, nämlich im Internet. Video on demand Teleshopping Online-Datenbanken

Mit dem Begriff Information Highway verbinden sich Visionen über eine nicht all zu ferne Informationsgesellschaft, in der Ihnen unbegrenzt Informationen quasi von Ihrem Wohnzimmersessel auf Knopfdruck zur Verfügung stehen. Ob Sie sich kurzfristig dazu entschließen, mal wieder den Film »Casablanca« sehen zu wollen (Video on demand), ob Sie noch rasch ein Cocktailkleid bestellen möchten (Teleshopping) oder Ihre Tochter dringend Informationen für ein Referat in Geschichte über die Weimarer Zeit benötigt (Online-Datenbanken), alle diese Informationen könnten Ihnen in Zukunft quasi per Fingerdruck und Kabel ins Haus geliefert werden. Pilotprojekte

Während die einen dieser Vision gespannt entgegensehen und auch ein großes Potential an neuen Vermarktungsmöglichkeiten und Arbeitsplätzen vermuten, gibt es viele andere, die eher mit Sorge eine gewaltige Informationsflut auf sich hereinbrechen sehen, die viele Arbeitsplätze wegrationalisieren und nur wenige Plätze für hochqualifiziertes Personal schaffen könnte. Welche Auswirkungen die Multimedia-Zukunft auf unser tägliches Leben haben könnte, wird inzwischen in zahlreichen Feldversuchen im In- und Ausland untersucht. Datenautobahn

Trotz der vielen Diskussionen über die Auswirkungen des Information-Highway auf unser tägliches Leben sind sich doch die meisten Experten darüber einig, dass die Entwicklung in diese Richtung zunächst über drei Phasen voranschreiten wird: Phase 1

Die erste Phase ist gekennzeichnet durch zahlreiche Multimedia-Angebote, die in erster Linie offline auf CD-ROM angeboten werden. Neben den zahllosen Computerspielen, die inzwischen durch Video- und Soundsequenzen angereichert sind, machen inzwischen auch viele Fortbildungskurse und Lexika auf CD-ROM von den Multimedia-Fähigkeiten des PCs Gebrauch. Aber gerade beim zuletzt genannten Anwendungsbereich - Lexika - macht sich ein Nachteil der CD-ROM bemerkbar: Lexika wie auch andere Wissensdatenbanken sind veränderlich, Daten ändern sich und Wissen und Fakten kommen hinzu. Die CD-ROM ist dagegen unveränderlich und der Inhalt lässt sich nicht an aktuelle Änderungen anpassen. Phase 2

Die Phase 2 ist gekennzeichnet durch ein reichhaltiges Angebot von Online-Diensten. Die Informationen dieser Dienste stehen dem Kunden via Telefonleitung zur Verfügung. Im Gegensatz zur CD-ROM ermöglichen diese Dienste raschen Zugriff auf aktuelle Daten in unbegrenztem Umfang. Obwohl die Online-Dienste bereits zahlreiche Angebote des Multimedia-Zeitalters ermöglichen, sind ihre bisherigen Datenleitungen für ein vollständiges Angebot zu langsam. Beispielsweise macht es keinen Sinn, ein kurzes Video von einem Online-Dienst herunterzuladen, da die Übertragungsdauer in die Stunden gehen könnte. Phase 3

Erst in der dritten Phase wird auch dieses Problem gelöst, wenn jeder Haushalt über leistungsfähige Breitbandnetze erreichbar und Kommunikation in beiden Richtungen stattfinden kann. Dies sind die Voraussetzungen, damit der Kunde individuell ausgewählte Video- und Toninformationen abrufen und über einen Rückkanal mit dem Anbieter in Kontakt treten kann. Die folgende Tabelle gibt Ihnen einen kurzen Überblick über das Informationsangebot, das Ihnen in naher oder auch in etwas fernerer Zukunft per Kabel ins Haus steht. Angebotener Dienst

Beschreibung

Special Interest Channels

Eine der ersten Auswirkungen bzw. Schritte in Richtung Information Highway wird die Erhöhung des Angebots über Fernseh-Satelliten und -Kabel sein. Man rechnet mit mehreren hundert Sendern, die teils digitalisiert ihr Angebot an den Verbraucher herantragen werden. Dabei wird es eine Tendenz weg vom Voll- und hin zum Spartenprogramm geben, d. h. Programme, die auf bestimmte Interessengebiete spezialisiert sind, z. B. Kinderprogramme, Musik, Dokumentationen bis hin zu Spezialinformationen für Briefmarkensammler.

Video on Demand (VoD)

VoD ermöglicht es Ihnen, interaktiv auszuwählen, welche Filme oder Sendungen Sie sehen möchten. Diese Technik erspart Ihnen den Weg zur Videothek: per Rückkanal fordern Sie eine bestimmte Sendung bei einem Anbieter an, die Ihnen zum gewünschten Zeitpunkt per Kabel ins Haus geliefert wird. Die anfallenden Gebühren werden Ihnen ggf. direkt vom Konto abgebucht.

Near Video on Demand (NVoD) Die Vielzahl der Kanäle wird es möglich machen, ein und dieselbe Sendung auf mehreren Kanälen zeitversetzt anzubieten. Dabei können Sie sich die für Sie günstigste Startzeit aussuchen. Bei einer Unterbrechung, z. B. durch einen Telefonanruf, schalten Sie einfach auf den nächsten Kanal. Information on Demand

Bei diesem Angebot können Sie sich gezielt über bestimmte Themen informieren, z. B. Wetterberichte oder Produktinformationen und -tests abrufen oder in Online-Datenbanken recherchieren.

Tele-Shopping

Dieser Bereich ist in den USA kein Zukunftsthema mehr und spielt auch in Deutschtland bereits eine Rolle. Der amerikanische Marktführer QVC (Quality Value Convenience) hat bereits einen Tele-ShoppingKanal in Deutschland eingerichtet, um Ihnen über das Fernsehgerät das Einkaufen online zu ermöglichen. Inzwischen hat bereits ein zweiter Sender sein Programm aufgenommen.

Tele-Banking

Die Führung des Bankkontos per BTX bzw. T-Online gehört bereits für viele Bankkunden zum Tagesgeschäft. Demnächst könnte dieser Dienst nicht nur über das Telefonnetz, sondern auch über die Kabelkanäle angeboten werden.

Tele-Learning

Inzwischen werden bereits zahlreiche Lernprogramme auf CD-ROM angeboten. Diese Angebote wären aber auch Online möglich, womöglich in direktem Kontakt mit einem Dozenten. Auf diese Weise wären nicht nur Sprachkurse möglich, sondern könnte auch manchem Studenten den Weg zur UNI ersparen.

Tele-Arbeit

Apropos Weg sparen: täglich quälen sich Millionen von Autos über die Straßen, um Menschen an ihren Arbeitsplatz zu bringen. Warum eigentlich? Viele Arbeiten ließen sich bei einem entsprechend eingerichteten Arbeitsplatz auch von zu Hause erledigen. Der Information Highway würde es erleichtern, mit Kollegen und Kunden in Kontakt zu treten und auch Konferenzen (Tele-Conferencing) unabhängig vom Ort abzuhalten.

Mittlerweile befinden wir uns im Übergang von Phase 2 auf Phase 3: Inzwischen kann jeder Haushalt mit Computer via Telefon auf das weltweite Informationsnetzwerk des Internets zugreifen. Begriffe wie World Wide Web (WWW), E-Mail, Chatten usw. gehören schon fast zum täglichen Sprachgebrauch, die eigene E-Mail-Adresse auf der Visitenkarte gehört zum guten Ruf. Lediglich bei der Breitbandkommunikation, welche auch die Übertragung von Videodaten in guter Qualität ermöglichen wird, hapert es noch, aber nur, bis sich ADSL oder entsprechende Breitbandnetze, z. B. über das Kabelnetz oder das Stromnetz (Powerline) genauso verbreitet haben wird wie ISDN zurzeit. Neben dem Internet selbst, das zumeist als Synonym für den Information Highway genannt wird, bieten auch Online-Dienste die meisten der genannten Dienste. Während das Internet offen für jedermann ist, stellen Online-Dienste ihr Angebot nur registrierten Mitgliedern zur Verfügung. Daneben bieten sie allerdings auch den Zugriff auf das Internet und sind daher für viele Anwender eine Voraussetzung, um überhaupt das Angebot des Internets nutzen zu können.

14.1 Mailboxen Ist von Online-Diensten die Rede, bleiben die zahllosen Mailboxen meist unerwähnt, unberechtigterweise, wie ich finde. Das umfassende Informationsangebot kann zwar kaum mit den professionellen Online-Diensten konkurrieren, dafür ist die Nutzung von Mailboxen meist kostenlos. Systemoperator

Eine Mailbox ist im Prinzip nichts anderes als ein mit einem Modem ausgerüsteter PC, auf den andere Personen mit Hilfe eines Terminalprogramms, das bereits alle modernen Betriebssysteme zur Verfügung stellen, zugreifen können. Ob der Anrufende uneingeschränkten Zugriff auf die Mailbox hat oder nur schnuppern darf, hängt von den Zugriffsrechten ab, die ihm der Betreiber der Mailbox, der so genannte Systemoperator oder kurz Sysop, eingeräumt hat. Am häufigsten werden Daten mit der Mailbox ausgetauscht. Je nachdem, ob es sich dabei um elektronische Post (E-Mail) oder Programme handelt, wird zwischen Texten und binären Dateien unterschieden. Weiterhin wird auseinander gehalten, ob der Anrufende Daten verschickt oder empfängt. Beim Empfang spricht man von Download, beim Verschicken von Upload. Damit kein Datenchaos entsteht, ist eine Mailbox in verschiedene Rubriken, auch als Bretter (in Anlehnung an Schwarzes Brett) odser Foren bezeichnet, unterteilt. Jede Rubrik ist eine Sammelstelle für Daten verschiedenster Art. Hier finden Sie häufig unzählige Programme, meist Public-Domain- und Shareware-Programme, sowie auch aktuelle Treiber für diverse Hardware-Komponenten.

Bild 14.1: Anmeldung an einer Mailbox mit Hilfe des Windows-Programms HyperTerminal

E-Mail

Im Laufe der Zeit nahmen nicht nur die Anwender einer Mailbox Kontakt mit dieser auf, um Nachrichten und Programme untereinander auszutauschen. Darüber hinaus vernetzten auch immer mehr Sysops ihre elektronischen Briefkästchen miteinander, um den Informationsgehalt zu erhöhen. Hinterlassen Sie also eine Nachricht in einer Box, die mit einem Mailboxnetz wie beispielsweise dem internationalen FIDO-Net verbunden ist, steht diese Nachricht automatisch in allen am Netz beteiligten Mailboxen zur Verfügung. Durch diese Vernetzung können Sie evtl. zum Ortstarif Nachrichten rund um die Welt senden und empfangen.

14.2 Online-Dienste Online-Dienste sind die großen Nachfahren der kleinen Mailboxen. Die größten Dienste wie AOL, CompuServe oder T-Online verfügen über mehrere Millionen Mitglieder. Während T-Online ausschließlich auf den deutschen Raum begrenzt ist, sind AOL und CompuServe rund um den Globus vertreten. Online-Dienste bieten zunächst ein geschlossenes Netzwerk, das von den Anwendern von zu Hause aus über die Telefonleitung angewählt werden kann. Fast alle Online-Dienste verfügen inzwischen über ein weitgestreutes Netz an Einwahlknoten, so dass für den Anwender nur Ortstarife als Telefongebühr anfallen. Inzwischen bieten fast alle Online-Dienste recht ähnliche Informationsangebote, wobei es Unterschiede in den Schwerpunkten und in der Darstellung gibt. Während CompuServe beispielsweise auf Computerthemen spezialisiert ist, hält AOL ein sehr breites, allgemeineres Informationsangebot bereit. T-Online bietet dagegen sehr viele kommerzielle Informationen von in erster Linie deutschen Anbietern. Das Angebot aller Online-Dienste lässt sich grob mit folgenden Kategorien beschreiben: ●

Aktuelle Nachrichten

Fast alle Online-Dienste bieten bereits auf ihrer Einstiegsseite Hinweise zu aktuellen Nachrichten. Sie bieten einen Überblick über das aktuelle tägliche Geschehen sowie Nachrichten aus den verschiedensten Bereichen wie Wirtschaft, Wissenschaft und Kultur.

Bild 14.2: Aktuelle Nachrichten finden sich direkt beim Einstieg. ●

Foren

Der allgemeine Informationsaustausch zwischen den Mitgliedern erfolgt über Bulletin Boards (BBS), Foren oder Schwarze Bretter. Hier finden Sie Diskussionsrunden zu den unterschiedlichsten Themen, in denen Mitglieder ihre Meinungen und Fragen loswerden, die von anderen Mitgliedern beantwortet werden können. Hinzu kommen spezielle Foren, die von den unterschiedlichsten Institutionen angeboten werden. Beispielsweise unterhalten viele Computerhardware- und -softwareHersteller eigene Foren, die Ihnen den direkten Informationsaustausch mit Spezialisten ermöglichen. Hier stehen Ihnen die jeweiligen Firmen nicht nur mit Rat und Tat zur Seite, sondern stellen häufig auch aktuelle Ergänzungen zu den eigenen Softwareprodukten zum Download bereit. In den Foren erfolgt der Meinungsaustausch zeitversetzt: Ein Mitglied schreibt eine Frage und legt sie ab. Diese Frage wird von anderen Mitgliedern gelesen und bei Gelegenheit beantwortet. Auf diese Weise kann die Beantwortung einer Frage sehr kurzfristig erfolgen oder auch schon einmal einige Tage auf sich warten lassen, je nachdem, ob ein Mitglied eine Antwort weiß. Solche Diskussionsrunden können sehr kurz sein, wenn sich beispielsweise keine Antwort finden lässt, oder auch sehr lang und sich über Wochen hinziehen, wenn zahlreiche Mitglieder auf die Frage mit Antworten und Rückfragen reagieren. ●

Chat Rooms

Im Gegensatz zu den Diskussionsforen findet die Diskussion in den Chat Rooms live statt. Chat Rooms sind bestimmte Bereiche, in denen sich mehrere Mitglieder treffen. Über Ihre Tastatur können Sie Ihren Beitrag zur Diskussion eingeben, den alle Diskussionsteilnehmer direkt auf ihrem PC sehen können. Alle Teilnehmer haben die Möglichkeit, direkt eine Antwort einzugeben. Es kann also ein echtes Gespräch stattfinden, nur dass man sich zur Kommunikation nicht der gesprochenen, sondern der geschriebenen Sprache bedient.

Bild 14.3: Chatrooms gibt es zu fast jedem Thema. ●

Dateibibliotheken

In Dateibibliotheken finden Sie eine Unzahl von Programmen und sonstigen Dateien, die Sie in der Regel kostenfrei herunterladen können. Damit steht Ihnen ein riesiges Angebot von aktuellen Anwendungen zur Verfügung. ●

Elektronische Post

Eines der wichtigsten Angebote von Online-Diensten ist inzwischen die elektsronische Post. Mit Hilfe dieses Dienstes können Sie weltweit Post versenden und empfangen.

Bild 14.4: Bevor eine E-Mail von ihrem Absender zum Empfänger gelangt, wird sie über mehrere Dienstleistungsrechner im Internet weitergeleitet. (Grafik: IBM)

Inzwischen ist die Funktion nicht mehr auf die Teilnehmer eines Online-Dienstes beschränkt, sondern über das Internet können Nachrichten an jede beliebige E-Mail-Adresse versendet werden, soweit sie über eine Internet-Anbindung erreichbar sind.

Bild 14.5: E-Mail ermöglicht preisgünstigen Nachrichtenversand rund um die Welt in Sekundenschnelle. ●

Internet

Inzwischen bieten Ihnen alle Online-Dienste vollen Zugriff auf das Internet. So haben Sie z. B. einen einfachen Zugang zu den Internet-Newsgroups, in denen eine weltweite Gemeinschaft zu den unterschiedlichsten Themen diskutiert und Erfahrungen austauscht, oder zum World Wide Web.

14.2.1 T-Online BTX

Auch wenn Sie bisher noch nicht viel mit Datenfernübertragung zu tun hatten, wird Ihnen BTX sicherlich ein Begriff sein, das inzwischen in T-Online (Abkürzung für Telekom-Online) umgetauft wurde. Nicht nur die Telekom selbst, sondern auch Banken machen zurzeit sehr viel Werbung, z. B. für Telebanking, die Kontoführung per BTX. Es mussten allerdings schon einige Jahre ins Land gehen, bis BTX in so vieler Munde war. 1980 fiel der Startschuss für diesen Online-Dienst der deutschen Bundespost. Inzwischen wurde nicht nur der Name mehrfach gewechselt (BTX _ Datex-J _ T-Online), sondern auch die Teilnehmerzahl ist langsam aber stetig auf über eine Million angewachsen und bietet damit die größte deutschsprachige Plattform unter den Online-Diensten. Wie funktioniert T-Online?

In das Netzwerk von T-Online können Sie sich allerorts zum Ortstarif über die bundesweit einheitliche Nummer 0191011 einwählen. Das einzige, was Sie brauchen, ist einen PC, ein Modem und die Zugangssoftware, die Sie kostenfrei erhalten, wenn Sie eine Benutzerkennung für T-Online beantragen. Während Sie in der Vergangenheit BTX-Daten mit maximal 1.200 bps (Bit pro Sekunde) empfangen konnten (zum Senden waren sogar nur 75 bps möglich), erlaubt die Telekom inzwischen die für analoge Modems maximal möglichen Geschwindigkeiten; darüber hinaus können Sie T-Online auch über ISDN und ASDL (bzw. in der Telekom-Variante T-DSL) erreichen.

Bild 14.6: Einwahl bei T-Online

Nach dem Einwählen bei T-Online können Sie wählen, ob Sie das Informationsangebot aus dem Web nutzen, oder T-Online Klassik aufrufen. Hinter letzterem verbergen sich die klassischen zeichenorientierten BTX-Seiten, die nach dem CEPT-Standard aufgebaut sind. Die alten BTX-Seiten sehen einem MS-DOS-Bildschirm sehr ähnlich, alle Eingaben müssen über die Tastatur erfolgen. Für die Auswahl eines Anbieters ist es notwendig, zuerst einen Stern (*), den Namen oder

die BTX-Seite des Anbieters und dann den so genannten »Gartenzaun« (#) einzugeben, z. B. *Capital#, um die Informationen des gleichnamigen Wirtschaftsmagazins abzurufen. Allerdings hat sich das Klassik-Informationsangebot deutlich reduziert. Dieser Service ist in erster Linie für alle Anwender interessant, die Online-Banking betreiben. Viele Banken bieten diesen Dienst noch nicht über das Internet, sondern nur über BTX an.

Bild 14.7: Mit T-Online Klassik wird neuerdings das alte BTX-Angbot bezeichnet.

Was bietet T-Online?

Wenn man von BTX absieht, bietet T-Online in erster Linie einen schnellen Zugang zum Internet. Selbst die klassischen Angebote eines Online-Dienstes wie Diskussionsgruppen, Chat-Rooms, Dateibibliotheken u.s.w sind bei T-Online webbasiert und können auch von nicht-T-Online-Nutzern eingesehen werden.

Bild 14.8: Einkaufen vom PC aus über T-Online

Um das Angebot von T-Online nutzen zu können, benötigen Sie die T-Online-Zugangssoftware, die Sie bei der Anmeldung an T-Online erhalten. Für die Nutzung des Dienstes ist eine monatliche Grundgebühr zu entrichten sowie zusätzliche Online-Gebühren, bei denen jede Minute, die Sie den Dienst nutzen, ein bestimmter Pfennig-Betrag berechnet wird.

14.2.2 America Online (AOL) Der neueste Anbieter, von dem ich Ihnen in diesem Buch berichten möchte, ist der amerikanische Dienst America Online (AOL). Wie der Name bereits andeutet hat dieser Dienst seinen Ursprung in Amerika, ist aber mittlerweile auch in vielen Ländern rund um den Globus vertreten. Inzwischen ist es der größte Online-Dienst mit über 20 Millionen Teilnehmern. Seit Anfang 1996s ist AOL auch in Deutschland mit einem eigenen deutschsprachigen Angebot vertreten. D. h., dass AOL nicht nur einen Zugang zum Internet bietet, sondern losgelöst vom Internet auch ein eigenes Informations- und Unterhaltungsangebot bietet.

Bild 14.9: Die Homepage von AOL

Zum Einstieg zu AOL wird eine spezielle Software benötigt, die den Zugang zum AOL-Netzwerk und damit auch zum Informationsangebot von AOL bietet. Diese Zugangssoftware finden Sie häufig Zeitschriften beigelegt, Sie können sie auch telefonisch bei AOL bestellen. Bei Aufruf der Software erfolgt zunächst die Verbindung mit dem AOL-Netzwerk. Sie werden automatisch über neue E-Mails informiert, die für Sie eingetroffen sein sollten. Weiterhin erhalten Sie Informationen über neue und aktuelle Angebote von AOL. Für den Zugang zum Internet genügt ein weiterer Mausklick, um den Internet Explorer zu starten.

Bild 14.10: Die Einrichtung des AOL-Zugangs erfolgt beinahe automatisch.

Die AOL-Zugangssoftware ist sehr einfach zu installieren. Allerdings ist eine Anmeldung erforderlich, bei der auch die Zahlungsweise anzugeben ist. AOL berechnet wie bei T-Online neben einer Grundgebühr für die tatsächliche Onlinezeit einen bestimmten Betrag pro Minute.

14.3 Internet-Provider Neben Online-Diensten wie T-Online und AOL gibt es zahlreiche weitere Anbieter, die lediglich den Zugang zum Internet anbieten. Um das Angebot dieser sogenannten Internet-Provider nutzen zu können, genügt in der Regel nur die Telefonnummer für den Zugang und einige Angaben, wie der Internet Explorer eingestellt werden muss, um die Verbindung zu dem Provider aufzubauen. Ein Vorteil vieler Provider ist, dass sie für den Dienst keine Grundgebühr erheben, bei vielen Anbietern ist noch nicht einmal eine Anmeldung erforderlich. Die Abrechnung der Online-Zeiten erfolgt dann über die Telekom-Rechnung, in der genau aufgeführt wird, welcher Provider Ihnen welche Online-Zeiten in Rechnung stellt. In Anbetracht des inzwischen großen Angebotes mit sich fast täglich ändernden Preisen sollte man sich vor Auswahl eines oder mehrerer Provider genau informieren. Achten Sie darauf, dass viele Online-Provider die Zugangspreise nach der Tageszeit unterscheiden. Der Heise-Verlag bietet auf seinen Web-Seiten (www.heise.de) einen guten Überblick über interessante Online-Zugänge. Weitere Informationen bieten auch viele Fachzeitschriften.

Bild 14.11: Genaue Information vor der Entscheidung für einen Internet-Provider lohnt sich, gibt es doch Unterschiede um bis zu 100%.

Nur wenige Handgriffe, und Sie sind drin

Auch ohne spezielle Zugangssoftware ist die Einrichtung für den Aufbau einer Internetverbindung ein Kinderspiel. Das liegt einerseits am Verbindungsassistenten des Internet-Explorers, der Internet-Zugangssoftware, die direkt im Betriebssystem Windows integriert ist. Andererseits werden Sie natürlich auch von Internet-Providern unterstützt, die Ihnen den Zugang ohne schwierige Einstellungen ermöglichen. Um Ihnen zu zeigen, dass Sie auch als unerfahrener PCAnwender leicht Ihre ersten Schritte ins Internet machen können, habe ich Ihnen einmal die notwenigen Mausklicks aufgezeichnet. Internetassistent-1

Wenn Sie die Schritte nachvollziehen möchten, beginnen Sie einfach damit, den Internet Explorer aufzurufen. ●

Dazu genügt ein Doppelklick auf das Symbol, das Sie direkt auf der Windows-Oberfläche finden. Beim ersten Aufruf stellt der Internet Explorer fest, dass noch keine Verbindung zu einem Provider eingerichtet ist. Um Sie bei der Einrichtung zu unterstützen, öffnet sich der Assistent für den Internetzugang.

Bild 14.12: Der Assistent für den Internetzugang fragt nach dem Weg, über den der Zugang erfolgen soll. ●

Wählen Sie nun die erste Option, wenn Sie von zu Hause aus über ein bereits an den Computer angeschlossenes Modem oder eine mit dem PC verbundene ISDN-Karte mit dem Internet kommunizieren möchten.

Bild 14.13: Haben Sie sich schon für einen Internet-Provider entschieden? Dann können Sie als nächstes die Telefonnummer eingeben. ●

Für den nächsten Schritt müssen Sie sich für einen Internet-Provider entschieden haben. Geben Sie in diesem Dialogfenster die Rufnummer an, die der Provider für den Internet-Zugang angibt.

Bild 14.14: Alles braucht einen Namen, auch der Internetzugang ●



Zum Abschluss müssen Sie noch einen Namen eingeben, unter dem die Verbindungseinstellungen unter Windows gespeichert werden. Diese Option ist besonders wichtig, wenn Sie für mehrere Provider Verbindungen eingetragen haben. Dann können Sie beispielsweise bei jeder Verbindungsaufnahme den gerade günstigsten Provider wählen. Nun ist es soweit, Sie könnten mit der Verbindungsaufnahme beginnen, doch werden Sie zunächst noch nach einem Benutzernamen und einem Kennwort gefragt. Die Abfrage nach dem Benutzernamen und dem Kennwort gibt einem Provider die Möglichkeit, den Zugang auf einen berechtigten Personenkreis einzuschränken. Für offenen Zugang zum Internet über einen Provider veröffentlicht der Anbieter diese Daten z. B. im Internet in gleicher Weise wie seine Rufnummer. Damit Sie diese Angaben nicht bei jeder Verbindungsaufnahme wiederholen müssen, brauchen Sie nur ein Kontrollkästchen aktivieren, damit die Angaben gespeichert und von Windows beim nächsten Mal automatisch eingetragen werden.

Bild 14.15: Benutzernamen und Kennwort müssen noch angegeben werden.



Das war's. Der Internet-Explorer beginnt nun mit der Einwahl. Sobald er die Verbindung aufgenommen hat, beginnt er mit der Anzeige der Startseite. Oberhalb der Task-Leiste erscheint neben der Uhrzeit ein Symbol, das die aktive Netzwerkverbindung anzeigt. In einer Sprechblase darüber erscheint die Angabe des Verbindungsnamens und der aktuellen Übertragungsgeschwindigkeit.

Bild 14.16: Die Einwahl hat geklappt.

Tja, so einfach ist es, auch mit Bordmitteln des Betriebssystems eine Verbindung zum Internet aufzubauen. Hinzu kommt der Vorteil, dass Sie bei vielen Providern den Zugang aufbauen können, ohne zuvor eine Bankverbindung angeben zu müssen, diese prüfen zu lassen, eine Zugangskennung zuschicken zu lassen usw. Einfacher geht's nicht.

14.4 Das Internet Nachdem Sie nun schon mit eigenen Mitteln in der Lage sind, eine Verbindung zum Internet aufzubauen, wollen wir uns intensiver mit diesem Medium auseinandersetzen. Das Internet ist ein Verbund von Netzwerken in der Art, wie Sie sie im letzten Kapitel bereits kennen gelernt haben. So wird geschätzt, dass über 50.000 lokale und darüber hinausgehende Netze mit über 20 Millionen Rechnern im Internet zusammengefasst sind. Auf mehrere hundert Millionen Teilnehmer, die mehr oder weniger regelmäßig auf das Netzwerk zugreifen, wird die Internet-Gemeinde geschätzt. E-Mail

Das Internet entstand vor annähernd 30 Jahren und war zunächst den amerikanischen Militärs vorbehalten. Kurz darauf wurde es zu einem Forschungsnetz erweitert, an das sich rasch fast alle Universitäten und Forschungseinrichtungen der westlichen Welt anschlossen. Das Internet war die Grundlage für einen intensiven Informationsaustausch, die Basis dazu bot E-Mail, über das alle Internet-Teilnehmer erreichbar sind.

Bild 14.17: Diskussion in einer Newsgroup über Computerprobleme

Newsgroups

Mit der Einrichtung von Diskussionsgruppen, den Newsgroups, entstanden Bereiche, in denen Themen aller Art auftauchten, die mit Forschung nicht mehr sehr viel zu tun hatten. Inzwischen sind auch fast alle großen Unternehmen, besonders solche mit internationalen Beziehungen, über das Internet erreichbar. Viele Firmen, die bis vor kurzem Informationen und Unterstützung nur über einen Online-Dienst wie z. B. CompuServe anboten, ergänzen nun ihren Leistungsumfang um ein entsprechendes Angebot für alle Internet-Teilnehmer. Wie funktioniert das Internet? TCP/IP

Da das Internet ein weltweiter Netzwerkverbund ist, gibt es auch keine zentrale Sammelstelle für alle Informationen. Wenn Sie nach bestimmten Informationen suchen, kann es sein, dass Sie auf einem Rechner in Singapur genauso gut fündig werden wie auf einem Rechner in den USA oder an einer deutschen Universität. Für die Verbindungsaufnahme benötigen Sie nur einen Zugang zum Netzwerk, eine Netzwerksoftware, die das Übertragungsprotokoll TCP/IP unterstützt, sowie Anwendungsprogramme, die Ihnen den Zugang zu den Diensten des Internet bieten. Internet-Adressen

Für die Orientierung im Internet erhält jeder angeschlossene Rechner eine Internet-Adresse (IP-Adresse). Diese Adresse besteht aus vier Zahlen zwischen 0 und 255, die durch Punkte voneinander getrennt sind, z. B. 159.100.82.33. Die Zahlen kennzeichnen das Netzwerk, in dem sich ein Computer befindet, sowie den Rechner selbst.

Bild 14.18: Mit dem Befehl IPCONFIG können Sie sich, während Ihr Computer mit dem Internet verbunden ist, die Ihrem Rechner zugewiesene IP-Adresse anschauen.

Da sich die Internet-Nummern nur schwer merken lassen, können statt dessen auch Namen verwendet werden. Die Namen werden durch den DNS (Domain Name Service) verwaltet. So lässt sich beispielsweise der Internet-Server der Firma Microsoft auch über »microsoft.com« statt einer vierstelligen IP-Nummer erreichen (normalerweise wird dem Namen noch der Internet-Dienst vorangestellt, der genutzt werden soll, z. B. ftp://ftp.microsoft.com (Filetransfer) oder http://www.microsoft.com (World Wide Web)). Übrigens wird durch die Endung meist auch die Organisation des Adressaten charakterisiert, so steht z. B. die Endung .com für Firmen (Company), .gov für Regierungsstellen (Government) und .edu für Universitäten (Education).

Adressbereich

Verwendungszweck

.com

Companies, also Unternehmen wie z. B. ibm.com

.gov

Goverment, Regierungsstellen wie z. B. whitehouse.gov

.edu

Education, Universitäten, Schulen etc. wie z. B. mit.edu

.de

Verschiedene Adressen innerhalb eines Landes, z. B.

.fr

Deutschland

.uk

Frankreich

.nl

Großbritannien

usw.

Niederlande usw.

.tv

Fernsehgesellschaften wie z. B. viva.tv

Tabelle 14.1: Adressbereiche im Internet (Top Level Domains)

14.4.1 Was bietet das Internet? Im Internet gibt es verschiedene Dienste von unterschiedlicher Komplexität: ●

E-Mail

Die einfachste Internet-Anwendung ist E-Mail. Mit Hilfe dieses Dienstes können Sie Nachrichten mit allen am Internet teilnehmenden Anwendern austauschen. Da inzwischen fast alle Online-Dienste über Zugänge zum Internet verfügen, können Sie auch deren Teilnehmer über Internet E-Mail und umgekehrt erreichen. Das Problem dabei ist lediglich, dass Sie die genaue E-Mail-Adresse des Empfängers kennen müssen; im Gegensatz zu den anderen Online-Diensten bietet das Internet keine Teilnehmerlisten an.

Bild 14.19: Web.de bietet auch einen kostenlosen Mail-Service an. Anmeldung genügt.

E-Mail-Adresse

E-Mail-Adressen setzen sich im Internet meist aus einem Benutzernamen und einer Organisationsbezeichnung zusammen, getrennt durch das »@«-Zeichen, z. B. [email protected]. Normalerweise werden die eingehenden Nachrichten bei einem Service-Provider, dessen Name auch in der Adresse des Empfängers auftaucht, gesammelt. Erst wenn sich der Empfänger bei seinem Provider anmeldet, erhält er alle seine bis dahin eingegangenen Nachrichten.

Bild 14.20: Ein kleiner Ausschnitt aus der langen Liste von Newsgroups ●

Newsgroups

Die elektronische Post besteht nicht nur aus einfachen Nachrichten. So genannte Listserver verwalten Listen mit Tausenden von Anwendern. Wird eine Nachricht an eine dieser Listen adressiert, wird sie automatisch an alle Interessenten weitergeleitet. Solche Diskussionslisten, von denen es im Internet über 12.000 gibt, beziehen sich meist auf ein klar definiertes Thema. Alle Beiträge, die von den Teilnehmern verschickt werden, gehen bei den Empfängern nacheinander ein und können nicht selektiv gelesen werden. Anders dagegen die Mail-Spielart Newsgroups, von denen es rund 10.000 gibt. Bei den Newsgroups können die Nachrichten mit einem so genannten Newsreader gelesen werden. Einzelne Nachrichten, die aufgrund ihrer Betreffzeile Interesse wecken, können gezielt herausgepickt werden.

Bild 14.21: Auch mit Hilfe des Web-Explorers lassen sich die Datei-Verzeichnisse eines fernen Servers via FTP durchsuchen. ●

FTP

Möchten Sie nicht nur Nachrichten, sondern auch Dateien über das Internet austauschen, ist FTP (File Transfer Protocol) der Dienst der Wahl. Mit Hilfe von FTP haben Sie Zugriff auf einen gigantischen Software-Pool. Diesen Dienst können Sie unter fast allen Betriebssystemen mit einem gleichnamigen Programm nutzen. Mit Hilfe dieses Programms können Sie sich bei beliebigen Rechnern im Internet anmelden und Programme auf Ihren PC übertragen. Die meisten Rechner gewähren aber nicht jedem Anwender gleichen Zugang. Beim direkten FTP ist genau definiert, wer sich einwählen und was kopiert werden darf. Beim anonymen FTP kann sich zwar jedermann an einem öffentlichen Rechner anmelden, erhält aber nur Zugang zu öffentlichen Dateien. Für die Anmeldung ist ein Kennwort notwendig, in der Regel der eigene Mail-Name oder einfach »Guest«. ●

Telnet

Telnet ermöglicht eine Terminalsitzung auf einem entfernten Rechner. Dabei erhalten Sie eine Oberfläche, die der MS-DOS-Eingabeaufforderung sehr nahe kommen kann. Über eine bestimmte Menge von Befehlen können Sie sich im Dateisystem des fremden Rechners bewegen und, soweit die Zugriffsrechte dies erlauben, auch Änderungen vornehmen. Dazu gehört auch das Herunterladen von Programmen. World Wide Web

Wenn zurzeit in den Medien die Rede vom Internet ist, wird häufig dieser Begriff als Synonym für das World Wide Web (kurz WWW) verwendet. Das WWW beruht eigentlich auf einigen der bereits genannten Internet-Dienste, wobei es sie unter einer hyperlink- und multimediafähigen Anwendungsoberfläche verbirgt. Hyperlinks

Die Basis des WWW bilden Dokumente, die neben Text auch Grafiken, Ton- und Bildsequenzen enthalten können. Das Zugangsprogramm für das World Wide Web, also das Anwendungsprogramm, mit dem Sie diese Dokumente abrufen und anzeigen lassen, muss also multimediafähig sein, um alle diese Dokumentbestandteile anzeigen bzw. abspielen zu können. Darüber hinaus kann ein WWW-Dokument Schlüsselwörter, so genannte Hyperlinks, enthalten, die auf andere Dokumente verweisen. Ist beispielsweise in einem Dokument ein Artikel zitiert, so könnte die Quellenangabe zu diesem Artikel durch eine bestimmte Farbe und/oder eine Unterstreichung hervorgehoben werden. Führ man den Mauszeiger über diesen hervorgehobenen Text, verändert er sich, z. B. statt eines Pfeils wird plötzlich ein Zeigefinger dargestellt. Nun genügt ein Mausklick, um den Text, auf den sich der Verweis bezieht, zu laden und anzuschauen. Der neu hinzugeladene Text kann wiederum auf andere Dokumente hinweisen, die ebenfalls per Mausklick geladen werden können. Diese Hyperlinks sind aber nicht auf Dokumente beschränkt, die auf dem gleichen Rechner liegen; die besondere Namensgebung dieser Dokumente ermöglicht auch den Verweis auf Texte, die auf einem anderen Rechner liegen und im Extremfall am anderen Ende der Welt gespeichert sind. Diese Namen, die so genannten Uniform Resource Locator, kurz URL, benötigen Sie meist aber nur für den gezielten Einstieg ins WWW, danach klickt man sich mit Hilfe der Maus durch das weltweite multimediale Informationsangebot. Die URLs setzten sich zusammen aus einem Kürzel für die Art des verwendeten Internet-Dienstes (http, ftp, gopher, telnet), für die Adresse des Servers, auf dem das Dokument gespeichert ist, sowie den Pfad und Dateinamen des Dokuments. Beispielsweise erreichen Sie über die Adresse http://www.microsoft.com/germany die Einstiegsseite, die so genannte Homepage, für den deutschsprachigen WWW-Dienst der Firma Microsoft. Von dieser Seite aus können Sie über Verweise Dokumente mit speziellen Inhalten aufrufen und sich so durch das WWWInformationsangebot von Microsoft hangeln. Möchten Sie ein bestimmtes Programm herunterladen, so genügt ein Mausklick auf den entsprechenden Hinweis innerhalb eines Dokuments.

Bild 14.22: Die Homepage von Microsoft

HTML-Format

Die Endung .html (häufig auch kurz .htm) in der Adresse eines WWW-Dokuments weist auf das Format des Textes hin: HyperText Markup Language. Hierbei handelt es sich um ein relativ einfaches Textformat, mit dem die einzelnen Absätze eines WWW-Dokuments formatiert, Grafiken, Ton- und Bildsequenzen integriert werden können sowie auf andere Dokumente verwiesen werden kann. Inzwischen können Sie auch selber mit jedem komfortablen Textverarbeitungsprogramm Dokumente im HTML-Format erstellen, ohne sich selber um die Eigenheiten dieses Formats kümmern zu müssen. Wie bereits angedeutet, erfolgt die Orientierung im World Wide Web, indem Hyperlinks innerhalb von WWW-Dokumenten angeklickt werden und daraufhin die nächsten Dokumente geladen werden. Bewegt man sich einige Zeit auf diese Weise im Netz, man spricht meist vom Netsurfen, kann es leicht passieren, dass man die Orientierung verliert und nicht mehr weiß, wo man eigentlich ins Netz eingestiegen ist und wo man hinwollte. Die Vielzahl der angebotenen Informationen verleitet immer wieder zu dem einen oder anderen Umweg. VRML

Eine Orientierungshilfe könnte die neue Virtual Reality Modeling Language (VRML) bieten. Mit ihrer Hilfe lassen sich keine Texte, sondern dreidimensionale Grafiken und Szenerien kompakt beschreiben, der Netsurfer klickt sich nicht mehr von Textseite zu Textseite, sondern bewegt sich statt dessen in einer virtuellen Welt, die Szene für Szene aus dem Internet heruntergeladen wird. So könnte der Einstieg an der Haustür eines virtuellen Hauses beginnen. Innerhalb des Hauses kann man von Raum zu Raum gehen, wobei jeder Raum Informationen speziellen Inhalts anbietet. Die eigentlichen Informationen werden schließlich wieder als Text am Bildschirm dargestellt.

Bild 14.23: Netsurfing durch eine virtuelle Welt im Internet

VRML könnte aber auch für die Konstruktion von Gegenständen genutzt werden. Teams von Konstrukteuren rund um die Welt könnten gemeinsam am gleichen Objekt arbeiten, 24 Stunden am Tag. Es gibt inzwischen viele Firmen, die über eine solche Arbeitstechnik nachdenken und sich erhebliche Produktivitätsgewinne versprechen. JAVA

Eine weitere aktuelle Möglichkeit ist, kleine Programme direkt aus dem Internet zu laden und auf dem PC auszuführen. Einige Hersteller planen bereits, preisgünstige Internet-PCs anzubieten, deren einfaches Betriebssystem lediglich in der Lage ist, die Verbindung zum Internet herzustellen und die heruntergeladenen Informationen und Programme darzustellen und auszuführen. Der Schlüssel hierzu ist Java, eine Programmiersprache, die Sie bereits in Kapitel 10 kennen gelernt haben.

14.4.2 Internet in der Praxis Die Startseite

Beim Ihrem ersten Besuch ins Internet macht sich der Internet Explorer zunächst selbstständig und verbindet Sie automatisch mit der Einstiegsseite des Microsoft-Informationsdienstes Microsoft Network (MSN). In der Adressleiste des Internet Explorer sehen Sie die Adresse dieser Homepage: http://www.msn.de Obwohl Microsoft sehr interessante Informationen über seinen Nachrichtendienst anbietet, werden Sie wahrscheinlich auch nach anderen Informationen Ausschau halten mögen. Beispielsweise bieten zahlreiche deutsche Zeitungen und Zeitschriften einen Teil ihrer Informationen auch im Internet an. Hier stellt sich allerdings die Frage, wie die gesuchten Informationen am besten zu finden sind?

Bild 14.24: Der Standardeinstieg beim Internet Explorer: Der Informationsdienst MSN von Microsoft.

Wie findet man die Nadel im Heuhaufen?

So faszinierend das Internet auch sein mag, letztendlich müssen Sie sich selber fragen, welchen Nutzen Sie davon haben könnten. Das Internet ist riesengroß, mit einem gigantischen Informationsangebot, doch wie findet man die Informationen, die man wirklich benötigt? Das WWW ist eine gigantische Bibliothek mit Milliarden von Dokumenten. Allerdings fehlt der systematische Katalog, der einem das Finden von bestimmten Dokumenten erleichtert. Einfach ins Internet einzusteigen, um nach einem bestimmten Thema zu recherchieren, entspricht manchmal der viel zitierten Suche nach der Nadel im Heuhaufen. Im Prinzip bieten sich für eine konkrete Suche im World Wide Web mehrere Möglichkeiten an: Homepage



Angenommen, Sie suchen Informationen oder Texte, die Sie sich von einer bestimmten Firma oder einer Zeitung versprechen. In diesem Fall könnten Sie einfach versuchen, Ihre Suche bei der Homepage des Anbieters zu beginnen, indem Sie die Adresse einfach erraten. Das ist gar nicht so schwer, sofern es sich um eine Firma aus dem Bereich Computertechnik oder um ein modernes Verlagshaus handelt. Die Adresse einer WWW-Seite beginnt fast immer mit »www«, gefolgt von dem Namen der Firma und einer Endung wie »com« für Company oder »de« für Deutschland. Mit dieser simplen Methode könnten Sie bereits drei große deutschsprachige Zeitschriften erreichen:



www.spiegel.de



www.focus.de



www.stern.de



Bei großen Computerfirmen wie beispielsweise Microsoft, IBM, Novell etc. wären Sie mit dieser Strategie ebenfalls erfolgreich.

Bild 14.25: Informationsangebot des Spiegel im Internet

Automatische Vervollständigung





Damit Sie solche Internet-Adressen schnell und korrekt eingeben können, verfügt der Internet Explorer über eine Funktion, die sich Automatische Vervollständigung nennt. Wenn Sie häufiger mit dem Internet arbeiten, wird es Ihnen bestimmt schon mal passieren, dass Sie sich beim direkten Eingeben einer Internet-Adresse vertippen; bis die Fehlermeldung kommt, dass die eingegebene Internet-Adresse nicht gefunden werden konnte, kann bei einer Verbindung via Modem schon eine Weile verstreichen. Umso hilfreicher werden Sie die automatische Vervollständigung empfinden, die bereits beim Eingeben von Teilen der Adresse versucht, die Adresse selbstständig zu vervollständigen. Zur Vorhersage der vollständigen Adresse verwendet diese Funktion eine Liste der von Ihnen bisher besuchten Web-Sites. Die vom Internet Explorer geratene Zieladresse wird markiert angezeigt, so dass Sie den Vorschlag ohne viel Mühe einfach überschreiben können. Weiterhin können Sie auch auf die Eingabe von »http:\\www.« und ».com« verzichten; geben Sie einfach den Namen einer Web-Site an, und drücken Sie die Tastenkombination (STRG)+(Return). Die Adresse wird automatisch vervollständigt und erspart Ihnen einiges an Tipperei.

Suchlisten



Im nächsten Beispiel nehmen wir mal an, Sie interessieren sich für ein neues CD-ROM-Laufwerk und möchten sich im Internet über aktuelle technische Entwicklungen informieren. Für diesen Zweck gibt es einige Suchdienste, welche die Suche nach bestimmten Informationen über hierarchische Listen oder Bäume erleichtern. Bei diesen Suchbäumen beginnen Sie mit einem recht groben Kriterium, dass Sie über mehrere Auswahlen weiter spezifizieren können. Die folgende Abbildung zeigt Ihnen das Vorgehen bei dieser Suchweise am Beispiel des Katalogs Yahoo (www.yahoo.com). In vier Schritten wird schließlich eine WWW-Seite angezeigt, über die der Zugriff auf mehrere Magazine möglich ist, die sich auf Informationen zum Thema CD-ROM spezialisiert haben. Einige dieser Magazine stellen wiederum aktuelle wie auch Artikel aus älteren Ausgaben zum Herunterladen zur Verfügung, mit denen Sie Ihren Wissensdurst stillen könnten.

Bild 14.26: Suche nach Informationen mit Hilfe von Yahoo

ie-suchen



Schließlich bieten sich auch Suchdienste im Internet an, in denen Sie, ähnlich wie in einer Datenbank, über Schlüsselworte nach Informationen suchen. Der Internet Explorer verfügt über eine Suchleiste, mit der Sie die Liste der Suchergebnisse immer im Blick behalten können, während Sie die gefundenen Web-Seiten überprüfen. Sobald Sie die Funktion Suchen über den Schaltknopf in der Symbolleiste aufrufen, teilt sich das Anzeigefenster des Internet Explorers in die Suchleiste und das normale Anzeigefenster. Während im Anzeigefenster die bisher aufgerufenen Seiten weiterhin angezeigt bleiben, können Sie in der Suchleiste eine Suchmaschine auswählen und zu suchende Inhalte eingeben.

Bild 14.27: Die Suchleiste erleichtert die Suche über die bekanntesten Suchmaschinen. ●



Für die Suche brauchen Sie nur einen Suchbegriff in ein Eingabefeld einzugeben. Als Ergebnis liefert Ihnen die Suchmaschine eine Liste aller gefundenen Dokumente, die diesen Suchbegriff enthalten. Bei geläufigen Begriffen kann diese Liste schon einige tausend Dokumente enthalten. Für diesen Fall können mehrere Suchkriterien über logische Verknüpfungen wie UND bzw. ODER verknüpft werden. Auf diese Weise lässt sich die Ergebnismenge auf ein übersichtliches Maß reduzieren. Nach Beendigung der Suche wird die Liste der Fundstellen innerhalb der Suchleiste angezeigt; führen Sie den Mauszeiger über einen Eintrag der Fundliste, wird Ihnen eine kurze Information zur Fundstelle angezeigt. Die entsprechende Web-Seite wird nach einem Mausklick ins Anzeigefenster geladen. Diese Funktion ermöglicht Ihnen das praktische Durchsuchen von Fundstellen, ohne dass Sie ständig zwischen Fundliste und aufgerufenen Web-Seiten hin- und herblättern müssen.

ie-verlauf



Ein weiteres Problem bei der Arbeit mit dem Internet ist, dass man sich häufig an eine bestimmte Seite erinnert, aber nicht mehr weiß, wie man die Seite aufgerufen hat. Mit der Verlaufleiste des Internet Explorers können Sie einfach zu früheren Surfsitzungen zurückkehren. Der Internet Explorer hält alle Links zu aufgerufenen Seiten tageweise fest. So können Sie auch noch nach Tagen oder Wochen genau verfolgen, welche Web-Sites Sie an einem bestimmten Tag besucht haben.

Bild 14.28: Die Verlaufsleiste erleichtert den Zugriff auf frühere Sitzungen.

ie-favoriten



Eine Alternative dazu stellen die Favoriten dar: Sie bieten Ihnen eine bequeme Möglichkeit, alle von Ihnen bevorzugten Web-Seiten aufzurufen. Zunächst speichern Sie alle Seiten, die Sie häufiger besuchen wollen, als Favoriten ab; Sie brauchen dazu lediglich das gleichnamige Menü im Internet Explorer zu öffnen und den Eintrag Zu Favoriten hinzufügen... anzuklicken. Damit Sie bei einer größeren Anzahl von Favoriten die Übersicht nicht verlieren, können Sie die einzelnen Einträge auch in Ordnern gruppieren; beispielsweise könnten Sie sich einen Ordner erstellen, in den Sie nur Favoriten zum Thema Aktuelle Nachrichten ablegen.

Bild 14.29: Die Favoritenleiste gibt die bevorzugten Links übersichtlich wieder.

Vorwärts und Rückwärts



Mit Hilfe der Schaltflächen Vorwärts und Rückwärts können Sie zwischen bereits heruntergeladenen Web-Seiten hin- und herblättern. Dabei erleichtert Ihnen der Internet Explorer die Orientierung, indem er sich die bereits besuchten Seiten einer Web-Site merkt. Ein Mausklick auf den kleinen Abwärtspfeil neben den Schaltflächen öffnet jeweils eine Liste der zuvor besuchten Seiten. Die Auswahl eines der Einträge führt Sie direkt zu der aufgerufenen Seite. Diese Funktion erspart Ihnen das wiederholte Klicken der Vorwärts- und Rückwärts-Schaltflächen, um sich innerhalb einer Web-Site zu bewegen.

Bild 14.30: Navigieren mit Hilfe der Vorwärts- und Rückwärts-Schaltflächen

Den Internet-Explorer können Sie auch in einen Vollbild-Modus umschalten, bei dem sich alle Symbolleisten und Menüs entfernen lassen; lediglich die Symbolleiste bleibt aktiv, kann aber bei mangelndem Bedarf automatisch in den Hintergrund verschwinden. Die aufgerufenen Web-Seiten können nun auf dem ganzen Bildschirm angezeigt werden. Sicherheit beim Surfen

Das Thema Sicherheit im Internet wird immer bedeutender; schon seit Jahren kann man in den Zeitungen Berichte von Einbrüchen in die sichersten Computersysteme durch Hacker lesen, die sich über das Internet mit Rechnern verbinden und Schaden anrichten. Neben Hackern spielen auch die verschiedensten Spielarten von Viren eine wichtige Rolle, wenn es um die Anbindung eines Rechners an das Internet geht. Welche Gefahren bestehen aber nun für Anwender beim Surfen im Internet? Aktive Elemente



Das Internet wird immer bunter; neben den reinen Textinformationen enthalten inzwischen zahlreiche Web-Seiten animierte grafische Elemente, die auf Java-Programmen oder ActiveX-Komponenten beruhen. Dahinter verbergen sich vollständige kleine Programme, die die Bedienung und Auswahl der Internet-Seiten erleichtern sollen. Doch wer sagt Ihnen, dass diese Programme wirklich nur das tun, was sie vorgeben und nicht im Hintergrund Daten von Ihrem Rechner stehlen, sie manipulieren oder zerstören?

Jugendgefährdende Inhalte



Das Internet ist in letzter Zeit auch für seine zum Teil jugendgefährdenden Angebote bekannt geworden. Nutzen auch Kinder Ihren PC für einen Ausflug ins Internet, werden Sie wahrscheinlich dankbar von der Möglichkeit Gebrauch machen wollen, Web-Seiten mit gewaltverherrlichenden oder sexuellen Inhalten auszuschließen.

Übertragung persönlicher Daten



Nicht zuletzt bleibt auch die Übertragung persönlicher Daten zu nennen. Angenommen, Sie möchten bei einem Versandhandel angebotene Waren via Internet bestellen und mit einer Scheckkarte bezahlen. Ihre Scheckkartennummer und alle persönlichen Angaben werden häufig unverschlüsselt übertragen. Das Internet ist aber ein mehr oder weniger loser Verbund von vielen zigtausend Computern, und es lässt sich im voraus nicht bestimmen, über welche Rechner Ihre Daten weitergeleitet werden. Spezielle Netzwerk-Tools ermöglichen es, alle über das Netzwerk übertragenen Daten zwischenzuspeichern und zu analysieren. Besonders neugierige Menschen könnten auf diese Weise Ihre Daten ausspähen und zu kriminellen Zwecken weiterverwenden.

Ist das Sicherheitsbedürfnis der Anwender in der Vergangenheit schon rasch gewachsen, so wird es aufgrund der Möglichkeit des Internet Explorer, Web-Inhalte automatisch herunterzuladen, sicherlich noch bedeutsamer werden. Dem hat Microsoft Rechnung getragen und die Sicherheitsmechanismen weiter verfeinert. Aktive Elemente in Internetzonen ausschließen Internetzonen

Sicherheitsrelevante Einstellungen können Sie im Internet Explorer vornehmen, wenn Sie über die Menüauswahl Extras - Interntoptionen das gleichnamige Dialogfenster öffnen und das Register Sicherheit auswählen. Dieses Fenster ermöglicht Einstellungen, wie mit aktiven Inhalten, also ActiveX-Elementen, Java-Applets oder Java-Skripts, verfahren werden soll. Nun mag es sicherlich sinnvoll sein, beim Surfen durch das World Wide Web mit größter Sicherheit vorzugehen, aber was ist mit dem firmeninternen Netz, dem so genannten Intranet, wo Informationen ebenfalls mit Hilfe von ActiveX und Java angeboten werden können. Der Internet Explorer bietet Ihnen hier die Möglichkeit, den Sicherheitsgrad abhängig davon einzustellen, von wo Sie sich mit Informationen versorgen. Dazu bietet der Internet Explorer so genannte Internetzonen an: Intranetzone



Da ist zunächst das firmeninterne Netzwerk, in dem ein Informationsaustausch ähnlich dem im Internet möglich ist. Dieses Netzwerk ist in der Regel durch einen so genannten Firewall abgeschottet, der einen unberechtigten Zugriff über das Internet auf das interne Netz verhindert. In der Regel kann man davon ausgehen, dass die im Intranet angebotenen Informationen auch einem großen Sicherheitsbedürfnis Genüge tun.

Zone für vertrauenswürdige Sites



Ähnlich kann es bei Firmen aussehen, mit denen man als Kunde einen regen Informationsaustausch über das Internet betreibt. Diesen Web-Sites kann vertraut werden, so dass sich auch von hier Web-Seiten mit aktiven Inhalten übertragen lassen.

Zone für eingeschränkte Sites



Anders sieht es bei Web-Sites aus, von denen man bereits weiß oder von anderer Stelle gehört hat, dass den hier angebotenen Informationen nur mit Misstrauen begegnet werden sollte. Für den Zugriff auf solche Web-Sites sollten alle aktiven Elemente ausgeschaltet werden.

Internetzone



Bleibt noch das Internet an sich zu nennen. Hier wird häufig »gesurft«, d. h. von einer Web-Site zur anderen gesprungen, ohne näheres über die Sicherheit der angebotenen Inhalte zu wissen.

Bild 14.31: Definition der Sicherheitszonen

Jeder dieser Zonen können unterschiedliche Sicherheitsstufen zugewiesen werden, von Hoch über Mittel zu Niedrig und Sehr Niedrig. Was sich hinter diesen Sicherheitsstufen verbirgt, können Sie in der Liste der Einstellungen erkennen: Je nach gewählter Sicherheitsstufe werden die verschiedenen Funktionen, z. B. ActiveX-Elemente auszuführen, aktiviert, deaktiviert, oder es erscheint ein Dialogfenster, das gezielt danach fragt, ob ein heruntergeladenes Element ausgeführt werden darf oder nicht. Was aber verbirgt sich hinter diesen Einstellungen? ActiveX



ActiveX-Elemente sind, wie bereits kurz angedeutet, Programme, die in Web-Seiten eingebunden werden können und bestimmte, durch den Benutzer steuerbare Funktionen anbieten; das können Animationen sein, Controls für die Wiedergabe verschiedenster Dateiformate wie Grafiken, Präsentationen, Audio oder Video. ActiveX-Elemente stellen einen Brückenschlag dar von der reinen Text- und Grafikdarstellung bis hin zu Multimedia im Web. Aber: ActiveXElemente sind Programme, die in einer kompilierbaren Programmiersprache geschrieben werden, deren Programm-Code für den Anwender nicht einsehbar ist. Ob ein solches Element eine wunderschöne Animation präsentiert oder die Festplatte formatiert, ist vor dem Herunterladen des ActiveX-Elements letztendlich nicht vorhersagbar.

Authenticode



Um dem abzuhelfen, hat Microsoft eine Authentifizierung von aktiven Elementen eingeführt. Mit Hilfe der Authenticode-Technologie können Programme, deren Herausgeber und ein Ablaufdatum eindeutig identifiziert werden. Jedes signierte Programm wird zuvor von einer unabhängigen Organisation wie z. B. der Firma VeriSign geprüft und erhält ein Zertifikat. Vor dem Herunterladen eines signierten ActiveX-Elements erscheint als erstes ein Dialogfenster, das das Zertifikat wiedergibt und Sie auffordert, die Übertragung und Installation des ActiveX-Elements zu bestätigen.

Bild 14.32: Authenticode-Zertifikat

Java



Java ist eine von der Firma Sun entwickelte Programmiersprache, mit der Programme in Web-Seiten integriert und über das Internet übertragen werden können. Allerdings hat man bei Sun von Anfang an sehr großen Wert auf die Sicherheit im Internet gelegt, so dass die Möglichkeiten des Durchgriffs auf den Client-Rechner bei Java nicht so ausgeprägt sind wie bei ActiveX. Nichtsdestoweniger wurde in der Vergangenheit schon häufiger von Java-Applets mit schädigenden Funktionen berichtet.

Scripting



Eine weitere Sicherheitslücke sind die so genannten Scripts. Dahinter verbergen sich kleine Programme, die als Quelltext in Web-Seiten eingebunden sind und von Ihrem Rechner übersetzt und ausgeführt werden. Für den Entwickler von Web-Seiten bieten sie die Möglichkeit, mit Hilfe einfacher Script-Sprachen wie Visual-Basic-Script oder Java-Script Web-Seiten dynamisch zu gestalten, z. B. durch Dialoge, Berechnungen oder durch Verknüpfungen zu anderen Sprachen. Bisher hatten diese Sprachen so gut wie keinen Zugriff auf das Betriebssystem; durch die Einführung von Windows-Scripting-Host ab Windows 98 hat sich dies aber geändert, da solche Scripte nun auch betriebssystemspezifische Funktionen aufrufen können und somit auch viel Schaden an Ihrem Rechner herbeiführen können.

Cookies: Ein weiteres Element, das Sie ausschließen können, sind die so genannten Cookies. Dahinter verbergen sich Informationen, die bei der Auswahl bestimmter Web-Inhalte vom Web-Server aus auf Ihrer Festplatte ablegt werden. Anhand dieser Daten kann Sie der Web-Server beim nächsten Aufruf der Web-Site eindeutig identifizieren. Die Informationen können dazu genutzt werden, die Inhalte der Seiten entsprechend aufzubereiten oder einfach auch nur eine Statistik zu führen, wie häufig bestimmte Besucher den Aufruf von Seiten wiederholen.

Aktive Elemente deaktivieren

Für jedes der genannten aktiven Elemente wie auch für weitere Gefahrenpotentiale wie das Übertragen von Schriften, Dateien oder Desktopelementen können Sie angeben, ob die entsprechende Funktion generell deaktiviert oder aktiviert sein soll oder ob Sie vor dem Übertragen dieser Daten gefragt werden sollen.

Bild 14.33: Sicherheitseinstellungen zum Ausschluss aktiver Elemente

Jugendgefährdende Inhalte ausschließen. Um jugendgefährdende Inhalte auszuschließen, sollten Sie im Dialogfenster Internetoptionen zum Register Inhalte wechseln. Filter definieren



Klicken Sie im Feld Inhaltsratgeber auf den Schaltknopf Aktivieren.



Im Inhaltsratgeber sind die auszuschließenden Inhaltskategorien aufgelistet. Sobald Sie eine Kategorie auswählen, können Sie über den Schieberegler Filter angeben, wie restriktiv Web-Inhalte gefiltert werden sollen.

Bild 14.34: Ausschluss von Web-Sites mit jugendgefährdenden Inhalten

rsaci

Die Klassifizierung von Web-Seiten erfolgt nach einem Filtersystem des »Recreational Software Advisory Councils«; entsprechend der Bewertung der Inhalte werden in die Web-Seiten spezielle Kommandos eingebaut, die auf dem PICSStandard (Platform for Internet Content Selection) beruhen. Allerdings ist die Bewertung freiwillig; viele Inhaltsanbieter, die dieses Filtersystem verwenden, kennzeichnen ihre Seiten durch das RSAC-Logo. Möchten Sie Ihren Kindern zuliebe ganz auf Nummer Sicher gehen, können Sie allerdings durch eine Option im Register Allgemein den Zugang zu allen nicht-klassifizierten Sites einfach unterbinden. Bei dieser Einstellung lässt sich das Filtersystem in keiner Weise umgehen und bietet den größten Schutz. Sichern persönlicher Daten Kryptografie-Protokolle

Während wir uns bisher nur mit dem Empfangen von Daten aus dem Internet beschäftigt haben, stellt der umgekehrte Weg ein mindestens ebenso großes Problem dar. Egal, ob bei der Verbindung mit einer Web-Site, die Informationen nur einer geschlossenen Benutzergruppe zur Verfügung stellt, oder beim Bestellen von Produkten aus einem Internet-Katalog, es werden immer persönliche Daten wie Name, ein Kennwort und womöglich auch Kreditkarteninformationen übertragen. Damit diese Daten nicht unterwegs abgehört werden können, stellt der Internet Explorer mehrere Kryptografieprotokolle zur Verfügung. Mit Hilfe dieser Protokolle wird ein Verbindungstunnel zwischen dem Client und dem Server aufgebaut, der eine sichere Übertragung auch von vertraulichen Informationen erlauben soll.

Bild 14.35: Erweiterte Sicherheitseinstellungen

Die Sicherheitsmechanismen des Internet Explorers sind schon sehr weit entwickelt, aber das wurde auch von früheren Versionen bereits behauptet; trotzdem konnte man immer wieder von neuen Sicherheitslücken in den Medien lesen. Daher sollten Sie beim Surfen durch das Internet niemals auf eine gesunde Portion Misstrauen verzichten.

14.4.3 Stau auf der Datenautobahn So toll die Möglichkeiten inzwischen auch sind, welche die Internet-Software bietet, so beschränkt sind doch dagegen die technischen Voraussetzungen für ihre Nutzung. Web-Dokumente mit umfangreichen Grafiken, von Ton- und Videosequenzen, Virtuellen Welten und Java-Programmen kaum zu sprechen, machen aus der Datenautobahn schnell einen Datenschleichweg. Leider befindet sich das Internet in einer Ausbaustufe, die nicht für den sich anbahnenden Massenbetrieb vorbereitet ist, schließlich war es bis vor wenigen Jahren primär für den wissenschaftlichen Erfahrungsaustausch gedacht. Leider gibt es noch zu viele Leitungen mit geringen Übertragungsraten, die ein nur schwer überwindbares Nadelöhr darstellen. Schnelle Verbindungen hin zum Verbraucher ist ein Schritt, um das Angebot zu verbessern. T-DSL, Powerline, Internet über Kabel oder Satellit ermöglichen zumindest schon einmal eine schnelle Verbindung zum Internet-Provider und damit auf die Daten, die auf dessen Rechnern zwischengespeichert sind. Beim Abruf von Daten, die aber noch immer aus der weiten Welt des Internets abgerufen werden müssen, entscheidet noch immer die langsamste Verbindung über die Übertragungsrate der gesamten Verbindung. Und da können immer mal auch ein langsames Modem oder eine völlig überlastete Breitbandverbindung sein, die einen Datei-Download zu einem Geduldsspiel werden lassen. Mit der zunehmenden Kommerzialisierung des Internets wird aber auch die allgemeine Übertragungsgeschwindigkeit verbessert, denn wo mehr Geld hereinkommt, ist man auch eher bereit, in die Infrastruktur zu investieren.

15 Noch ein paar Lesetipps Ich hoffe, das Buch hat Ihnen gefallen und dass Sie nun neugierig sind, mehr über Computer, ihre Betriebssysteme und Software zu erfahren. Daher möchte ich Ihnen zum Abschluss noch einige Tipps zu Zeitschriften und Web-Seiten geben, die mir bei meinen eigenen Recherchen besonders aufgefallen sind. Online-Hilfen

Zuvor möchte ich Sie aber noch einmal auf die Online-Hilfen von Programmen erinnern, mit denen Sie arbeiten wollen. Viele Hersteller, und dazu gehört insbesondere auch Microsoft, geben sich inzwischen sehr viel Mühe, ihre Programme mit aussagekräftigen Online-Hilfen auszustatten. So können Sie die Online-Hilfe zu Windows selbst wie auch beispielsweise zu den Office-Produkten durchaus wie ein (Lehr)Buch verwenden, die Texte sind sehr gut aufbereitet, verständlich und ausführlich. Ist es Ihnen zu ungewohnt, die Texte am Bildschirm zu lesen, können Sie auch einzelne Kapitel und Abschnitte gezielt ausdrucken. Bücher

Bücher über Computer und Programme gibt es natürlich wie Sand am Meer. Hier kann ich Ihnen keine speziellen Bücher empfehlen, möchte Ihnen aber die Bücher des Verlages, aus dem dieses Buch stammt, besonders ans Herz legen. Zeitschriften

Aus der großen Menge von Zeitschriften finde ich die c't am informativsten. Sie erscheint alle 14 Tage und ist prall gefüllt mit sehr sachlichen und kompetenten Fachartikeln. Aber auch in anderen Fachzeitschriften wie Chip, PC Professional, Computerbild u. a. finden sich interessante Informationen. Internet

Das Internet bietet eine große Vielzahl von Informationsquellen. Da sind zunächst auch die vielen Zeitschriftenverlage mit ihren ständig aktualisierten Web-Seiten zu nennen. Die Macher der c't vom Heise-Verlag bieten z. B. eine Web-Site mit einem News-Ticker an, der während des Tages mehrfach mit aktuellen Nachrichten aktualisiert wird.

Bild 15.1: Der Heise-Verlag bietet ständig aktualisierte Nachrichten aus der Computerbranche.

Auch der Verlag Ziff-Davis (PC-Professional u. a.) bietet täglich aktualisierte Informationen. Darüber hinaus bietet die Website die Möglichkeiten,

nach bestimmten Artikeln der von diesem Verlag herausgegebenen Zeitschriften zu suchen. Hinzu kommt ein umfangreiches Software-Archiv.

Bild 15.2: ZDNET bietet neben aktuellen Nachrichten viele Infos rund um den PC.

Suchen Sie Informationen, um Kenntnisse aus diesem Buch zu vertiefen, kann ich Ihnen auch die beiden Web-Sites www.tecchannel.de und www.computerchannel.de empfehlen. Hier finden Sie umfassende, anschaulich beschriebene Informationen zu PC-Hard- und -Software.

Bild 15.3: Der TecChannel bietet viele Grundlageninformationen und Testberichte, genau das richtige, wenn Sie neue Hardware kaufen möchten.

Knowledge Base im Web

Wenn Sie Ihren PC erst einmal auf dem Schreibtisch stehen haben, wächst vielleicht auch Ihr Bedarf nach weiteren Informationen zu Ihrem Betriebssystem und den Anwendungen. Für den Fall, dass Ihr PC, wie viele andere auch, mit zahlreichen Microsoft-Anwendungen bestückt ist, finden Sie natürlich direkt beim Hersteller ebenfalls wertvolle Hinweise. Besonders hilfreich sind die Support-Seiten von Microsoft. Eine auch für Profis unerlässliche Hilfestellung ist die so genannte Knowledge Base. In dieser Knowledge Base werden alle Probleme mit Lösungen zusammengefasst, die Kunden mit Microsoft-Anwendungen hatten. Gerade Firmen schließen mit ihren Lieferanten spezielle Support-Verträge, die ihnen Unterstützung in Notfällen durch eine Hersteller-Hotline bieten. Damit nicht jeder Hotline-Mitarbeiter das Rad neu zu erfinden hat, werden Probleme und ihre Lösungen in Artikeln beschrieben und in die Knowledge Base übernommen. Dieser Vorrat an Problemlösungen steht dann nicht nur den Hotline-Mitarbeitern, sondern auch den Kunden zur Verfügung, z. B. über das Internet oder auf CDs, die man sich im Abonnement (Microsoft Technet) monatlich zuschicken lassen kann.

Bild 15.4: Über die Support-Seiten von Microsoft können Sie auf die Knowledge Base wie auch auf die FAQs zugreifen.

FAQ

Nicht nur von Herstellern, sondern auch von engagierten Computer-Nutzern können Sie viele Informationen im Web finden. Neben den Newsgroups, die Sie bereits im letzten Kapitel kennen gelernt haben, gibt es auch die so genannten FAQs (Frequently Asked Questions), in denen häufig gestellte Fragen zusammengefasst werden. Für jeden, der sich intensiver mit Computern auseinandersetzt, bieten die FAQs eine interessante Informationsquelle, da man hierin nicht nur konkrete Fragen beantwortet findet, sondern einfach auch viele Tipps für seine Arbeit mit dem PC findet.

Bild 15.5: John Savill hat im Web eine umfangreiche Site mit vielen wertvollen FAQs zum Thema Windows NT/2000/XP zusammengestellt.

Stichwortverzeichnis -1-

120 Mbyte-Diskette 1 16-Bit-Prozessoren 1 -3-

32-Bit-Architektur 1 32-Bit-Programme 1 3D-Grafik 1 3D-Sound 1, 2 -6-

64-Bit-Betriebssysteme 1 64-Bit-Prozessor 1, 2 -8-

80386 1 80486 1 8086 1 8088 1, 2 -A-

Abakus 1, 2, 3 Abschreibung 1 Absturz 1 Abtastrate 1, 2 ActiveX 1 Ada 1, 2 ADC 1 Adlib 1 Administrator 1

Adressbus 1 Adressen 1 Adressteil 1 ADSL 1 Algorithmus 1, 2, 3, 4 Anweisungsteil 1 Vereinbarungsteil 1 alphanumerischen Daten 1, 2 Ambiguitäten 1 AMD 1 64-Bit-Prozessor 1 Athlon 1 Duron 1 Sledgehammer 1 America Online 1 American National Standard Institut 1 Analog-Digital-Wandler 1 Anlage 1 ANSI 1 ANSI-COBOL-85 1 Anweisungsteil 1 Anwendung 1 Anwendungsfenster 1 Anwendungsprogramme 1 Anwendungssymbole 1 Anwendungssystem 1 Anwendungstaste 1, 2 AOL 1 Apple 1, 2 Applications 1 Applikation 1 Arbeitsbereich 1 Arbeitsplatz 1 Arbeitsspeicher 1 Artificial Intelligence 1 ASCII-Code 1 Assembler 1, 2 Assemblersprachen 1, 2 AT-Bus 1, 2

Athlon 1 Attribut 1, 2 Auflösung 1, 2 Ausgabe 1, 2 Auswahlanweisung 1, 2, 3, 4 Authenticode 1 AUTOEXEC.BAT 1 Automatic Acoustic Management 1 Autorun 1 AVI 1 -B-

Babbage, Charles 1 Backslash 1, 2 Backup 1, 2 BACKUP 1 Backup Archivbit 1 auf Disketten 1 auf Streamerband 1 Daten sichern 1 differentiell 1 inkrementell 1 Komprimierung 1 Streamer 1 vollständig 1 Zyklus 1 Backup-Zyklen 1 Bandsicherung differentiell 1 inkrementell 1 vollständig 1 BASIC 1, 2 Basisbandnetze 1 Baud 1 Baum 1 Bausteine 1 bedingte Befehle 1, 2

Befehlsregister 1 Benchmarks 1 Benutzeroberfläche 1 Bereitschaftszeichen 1 Beschriftungsetikett 1 Betriebsspannung 1 Betriebssystem 1 Bibliotheken 1, 2 Bildbearbeitungsprogramm 1 Bildlaufleisten 1 Bildschirm 1 Bildschirmauflösung 1 Bildschirmbreite 1 Bildschirmflimmern 1 Bildwiederholfrequenz 1 binary digit 1 Bit 1 Blaise Pascal 1 Bleisatz 1 Blocksatz 1, 2 Booten 1 Bootsektor-Viren 1 bps 1 Branch Prediction 1 Breitbandsysteme 1 Bridge 1 Brücken-PC 1 BTX 1 Bubblejet-Technik 1 Buffer-Underrun 1 Bulk 1 Bulletin Boards 1 BURN-Proof 1 Busmastering 1 Bussystem 1, 2 Byte 1 -C-

C 1, 2 C++ 1 Cache-Speicher 1, 2 CAD 1 CD 1 CD-Brenner 1 CD-I 1 CD-Recorder 1 CD-ROM 1, 2 CD-RW-Recorder 1, 2 Celeron 1 CFP2000 1 Chat Rooms 1, 2 Cherry Klick 1 Chip 1 CHKDSK 1, 2 CINT2000 1 CISC 1 Cluster 1 Clustergröße 1 COBOL 1, 2, 3 Code-Morping-Software 1 Commodore 1, 2 Compact Disk 1 Companion-Viren 1 Compiler 1, 2, 3 Compilierung 1 Computer 1 Computer Aided Design 1 Computerviren 1, 2 Computerwürmer 1 CONFIG.SYS 1 Controller 1 Cookies 1 Co-Prozessor 1 COPY 1 Cps 1 Creative Labs 1, 2 Crusoe 1

CSMA/CD 1 Cursor 1, 2 -D-

DAC 1 Daisy-Chain 1 Darstellung 1 Darstellungsschicht 1 Datei kopieren 1 löschen 1 markieren 1 Dateibibliotheken 1 Datei-Manager Statuszeile 1 Symbolleiste 1 Dateinamen 1 Daten 1, 2 sichern, Backup 1 Datenautobahn 1 Datenbank 1, 2, 3 Datenbanksysteme 1 Datenbankverwaltungssystem 1 Datenbus 1 Datendatei 1 Datendefinitionssprache 1 Datenfeld 1, 2 Datenkapselung 1 Datenkollisionen 1 Datenkontrollsprache 1 Datenmanipulationssprache 1 Datenmodell 1, 2 relational 1 Datensatz 1, 2 Datensicherung 1 Datenträgeretikett 1, 2 Datentransferrate 1 Datentyp 1, 2

Datenübertragungsrate 1 DATEX-P 1 DBMS 1 DCL 1 DDL 1 Debugger 1, 2 dedicated 1 DEFRAG.EXE 1 Defragmentierung 1, 2 DELETE 1, 2 Delphi 1 Desktop 1 Desktop Publishing 1, 2 Desktop-PC 1, 2 Dienstprogramme 1 Digital Video Disc 1 Digital-Analog-Wandler 1 digitalisieren 1 DIR 1 Direct Memory Access 1 DirectX 1 Diskcopy 1 DISKCOPY 1, 2 Diskette 1 Diskettenlaufwerk 1, 2, 3, 4 Display 1 DML 1 Dokumentation 1 Dokumente 1 Dokumentenfenster 1 Dokumentensymbole 1 Dokumentobjekte 1 Dokumentviren 1 Dolby-Surround 1 DOS-Emulation 1 DOS-Programme 1 Download 1 dpi 1, 2 Draft-Modus 1

Drag & Drop 1, 2 Dragging 1 DRAM 1 Drucker 1, 2, 3 Auflösung 1 Bubblejet-Technik 1 Draft-Modus 1 Druckkopf 1 Farbdrucker 1 Nadeldrucker 1 NLQ-Modus 1 Piezo-Technik 1 Punktmatrix-Drucker 1 Tintenpatronen 1 Tintenstrahldrucker 1 Vollzeichendrucker 1 DTP 1, 2 Durchschuss 1 Font 1 Kerning 1 Proportionalschrift 1 Serifen 1 Stammseiten 1 Zeilenabstand 1 Dualsystem 1, 2 Durchschuss 1 Duron 1 DVD 1 DVD-Formate 1 DVD-RAM 1, 2 DVD-RW 1 Dynamic Execution 1 -E-

Editor 1, 2, 3 EDITOR 1 EDV 1, 2 EDVA 1

EDV-Anlage 1, 2 EEPROM 1 Einfüge-Modus 1 Eingabe 1, 2, 3 Eingabetaste 1 Einstellungen 1 Electronic Organizer 1 Electronic Publishing 1, 2 Elektronenröhren 1 Elektronenstrahl 1 Elektronisch 1 Elektronische Daten-Verarbeitungs-Anlagen 1 ELIZA 1 E-Mail 1 Emulation 1 ENIAC 1, 2, 3 Enter 1 EPOC 1 EPROM 1 ERASE 1 Ergonomie 1 MPR II 1 TCO 1 Error 1 Erweiterungskarten 1, 2 Ethernet 1 Explorer 1 Ansicht 1, 2 Anzeige aktualisieren 1 Arbeitsbereich 1 Dateiliste 1 Formatieren 1 Verzeichnisfenster 1 Extension 1 -F-

FAQ 1 Farbdrucker 1

FAT 1, 2 FAT-Viren 1 Faustregeln 1 Favoriten 1 FC 1 Feld 1, 2 Fenster Arbeitsbereich 1 Bildlaufleisten 1 Fensterrahmen 1 Größenversteller 1 Menüzeile 1 Statuszeile 1 Symbolleiste 1 Fensterarten 1 Fenstermenüfeld 1 Fensterschaltfläche Normal-/Vollbild 1, 2 Schließen 1, 2 Symboldarstellung 1 Fernwartung 1 Festplatte 1, 2, 3 Automatic Acoustic Management 1 Festplattencontroller 1 Festwertspeicher 1, 2 File 1 Finanzmathematische Funktionen 1 Flachbettplotter 1, 2 Flachbett-Scanner 1 Flash-Eproms 1 Flash-Memories 1 Flattersatz 1, 2 Floppy Disk 1 Flussdiagramm 1, 2 Flüssigkristall 1 FM-Synthese 1, 2 Font 1 Force Feedback 1 Foren 1, 2

FORMAT 1 Formatieren 1 Explorer 1 Quickformat 1 Systemdateien 1 Formatvorlagen 1 FORTRAN 1 Freeware 1 Frequenzmodulation 1 Frutiger 1 FTP 1 Funktionstasten 1 -G-

Gatter 1 gedruckte Schaltung 1 General Problem Solver 1 Geschachtelte Kontrollstrukturen 1 Glasfaserkabel 1 Gleitkommaoperationen 1 globale Zeichen 1 Grafik Highcolor 1 Speicher 1 Truecolor 1 Grafikprogramm 1 Grafiktablett 1 grafische Oberfläche Befehlsorientiert 1 Graphiktablett 1, 2 Größenversteller 1 Großrechner 1, 2, 3 Grundtakt 1 -H-

Halbleitertechnologie 1 Handschrifterkennung 1

Handschrifterkennungssystem 1 Handy-Scanner 1 Hardware 1 Bulk 1 Retail 1 Headcrash 1, 2, 3 Heuristik 1 Hexadezimalsystem 1 hierarchisches Datenbank-Modell 1 Highcolor 1 Homecomputer 1, 2, 3 Homepage 1 Horizontfrequenz 1 HPFS 1 Hyper-Pipeline-Technologie 1 HyperText Markup Language 1 -I-

IBM 1, 2 IBM PC/XT 1 IBM-kompatibel 1 IC 1 iCOMP-Index 1 Icon 1 IDE 1, 2 indirekte Adressierung 1, 2 Industry Standard Architecture 1 Inferenzmaschine 1 Information on Demand 1 Informationseinheit 1 Informationsverarbeitung 1 Informationszeilen 1 Inhaltsverzeichnis 1, 2 In-Place-Editing 1 insert 1 INSTALL 1 integrierte Schaltung 1, 2, 3 Intel 64-Bit-Prozessor 1

Intel 80386 1 Intel 80486 1 Intel Pentium 1 Intel Pentium III 1 Intel Xeon 1 Interface 1, 2 Interlaced Mode 1, 2 Interleave-Faktor 1 Internet Explorer ActiveX 1 Authenticode 1 Cookies 1 Favoriten 1 Filter 1 Internetzonen 1 Java 1 Kryptografie-Protokolle 1 PICS 1 RSAC 1 Suchleiste 1 Verlaufleiste 1 Vollbild-Modus 1 Internet Adressbereiche 1 Adresse 1 Domain Name Server 1 E-Mail 1 FTP 1 Homepage 1 HyperText Markup Language 1 IP-Adresse 1 Microsoft-Adressen 1 MSN 1 Newsgroups 1, 2 Server 1 Suchdienste 1 TCP/IP 1 Telnet 1 Terminalsitzung 1

Top Level Domains 1 Uniform Resource Locator 1 World Wide Web 1, 2 Yahoo 1 Internet-PC 1 Internetzonen 1 Interpreter 1, 2, 3 Interrupt 1 Inventarisierung 1 ISA-Bus 1 ISDN 1 ISSE 1 IT-Spezialist 1 IV 1 IV-Abteilung 1 IV-Spezialist 1 -J-

Jacquard, Josef Maria 1 Java 1, 2, 3 Javascript 1 John von Neumann 1 Joker 1 Joystick 1, 2 analog 1 digital 1 Force Feedback 1 für PC 1 JPEG 1 -K-

Kalkulationsprogramm 1, 2 Kaltstart 1 Karteikarten 1 Kathode 1 Kerning 1, 2, 3 KI 1

Killerprogramm 1 Klassen 1 Klassenbibliotheken 1, 2 Klickgeräusch 1 Knowledge Base 1 Koaxialkabel 1 kompatibel 1 Komponenten-Software 1 Kontrollstrukturen 1, 2 kooperatives Multitasking 1 Koordinatensystem 1 Korrespondenzqualität 1 Kryptografie-Protokolle 1 Künstliche Intelligenz 1, 2 Kupfertechnik 1 -L-

L1-Cache 1 L2-Cache 1 Label 1 LAN 1 Laptop 1 Laserdrucker 1 Layout 1, 2 LCD 1 LC-Display 1 Leibniz, Gottfried Wilhelm 1 Lettern 1 Ligaturen 1 LINUX 1 Liquid Cristal Display 1 LISP 1, 2 Local Area Network 1 Lochkarten 1, 2 Logic Theorist 1 logische Laufwerke 1 Logoff 1 Logon 1

lokales Netzwerk 1 Long-Run-Technologie 1 Lösungsvorschrift 1, 2, 3 Luftkissen 1 -M-

MacIntosh 1 Magnetband 1, 2 Magnetbandlaufwerke 1 Magnetband-Speicher 1 magnetische Felder 1 magnetische Wechselfelder 1 Mailbox 1 Makro 1, 2 Makroassembler 1, 2 Makrosprachen 1 Makroviren 1 MAN 1 MARK I 1 MARK I 1 Markierstift 1 Maschinelle Zeichenerkennung 1 Maschinenbefehle 1 Maschinencode 1 Maschinenprogramm 1 Maschinensprache 1, 2, 3, 4 Maus 1, 2 Mehrdeutigkeiten 1 Mehrplatzsysteme 1 Menüzeile 1 Methoden 1 Metropolitan Area Network 1 MF-Tastatur 1 Microsoft 1, 2, 3 Microsoft Network 1 MIDI 1, 2 MIDI-Klangerzeugung 1 Mikroprozessor 1, 2, 3, 4

Mikrorechner 1, 2, 3 Minirechner 1, 2, 3 Mini-Tower 1 MIPS 1 Mittelwert 1 Mittlere Zugriffszeit 1 MKDIR 1 MMX 1 Modem 1 MO-Laufwerke 1 Monitor Bildschirmauflösung 1 flimmerfrei 1 Horizontfrequenz 1 Interlaced Mode 1 monochrom 1 Multisync 1 Zeilenfrequenz 1 Monochrom-Bildschirm 1 MP3-Player 1 MPEG-I 1 MPR II 1, 2 MS-DOS 1, 2, 3, 4 MS-DOS-Eingabeaufforderung 1 MSN 1 Mulitmedia-Daten 1 Multifunktions-Tastatur 1 Multimedia 1 Multimedia Extension 1 Multiple Threads 1 Multiscan-Monitor 1 Multisync-Monitor 1, 2 Multitasking 1, 2, 3, 4, 5 kooperatives 1 preemptives 1 Multiuser-Systeme 1 Mutation Engine 1 Muttermaske 1 MYCIN 1

-N-

Nadeldrucker 1 Natural Keyboard 1 Near Video on Demand (NVoD) 1 NetBEUI 1 NETtalk 1 Netzwerk 1 heterogen 1 homogen 1 Netzwerkadapter 1 Netzwerkmodell 1, 2 Netzwerkschicht 1 Neuro-Chips 1 Neuron 1 Newsgroups 1, 2 News-Ticker 1 NICHT-Funktion 1 NLQ-Modus 1 non-dedicated Server 1 Notebook 1, 2 Notepad 1 Novell 1 Novell Netware 1 NTFS 1 numerische Daten 1 -O-

Objekt 1, 2 Objekt Management Group 1, 2 Objekt aus Datei einfügen 1 bearbeiten 1 einfügen 1 verknüpfen 1 objektorientierte Programmierung 1 Objektorientierung 1

Datenkapselung 1 Klassen 1 Klassenbibliotheken 1 Polymorphie 1 Vererbung 1 OCR 1, 2, 3 Bildanalyse 1 Feature Recognition 1 Pattern Matching 1, 2 Segmentation Logic 1 Topologische Analyse 1 OCR-Schrift 1 OCR-Software 1 ODER-Funktion 1 OLE 1, 2 Client 1 Drag & Drop 1, 2 Dropping over Icons 1, 2 einfügen ab Client 1, 2 einfügen ab Server 1 eingebettete Objekte 1 eingefügtes Objekt bearbeiten 1 In-Place-Activation 1 In-Place-Editing 1 Inter-Object-Dragging 1, 2 Inter-Window-Dragging 1, 2, 3 Nested Objects 1, 2 Objekt aus Datei einfügen 1, 2 Objekte 1 Objekte bearbeiten 1 Objekte einfügen 1, 2 Objekte verknüpfen 1, 2 Server 1 Verknüpfen ab Client 1 Verknüpftes Objekt bearbeiten 1 Verknüpfung ab Server 1 Verknüpfung aktualisieren 1 Verknüpfung bearbeiten 1 OLE1 1

OLE2 1 OLE-fähige Anwendungen 1 OMG 1 Online-Datenbanken 1 Online-Hilfen 1 OpenGL 1 Operationsteil 1 Optical Character Recognition 1 Option 1, 2 Orange Book 1 Ordner 1, 2, 3 Arbeitsplatz 1 Ordnersymbole 1 Organizer 1 OS/2 1 OS/2 Warp 1 OS/2-LAN-Manager 1 OSI-Modell 1, 2 overwrite 1 -P-

Pagemaker 1 Paint 1 PalmOS 1 Palmtop 1 Papierkorb 1, 2 Partition 1 erweiterte 1, 2 primäre 1, 2 Partition-Table Viren 1 Pascal 1 Pascal, Blaise 1 PC Baby-Tower 1 Desktop-PCs 1 Laptop 1 Midi-Tower 1 Mini-Tower 1

Notebook 1 Notepad 1 Palmtop 1 Portable 1 Standmodell 1 Tischmodell 1 Tower 1 Windows CE 1 PCMCIA 1 Typ 1 1 Typ II 1 Typ III 1 PDA 1, 2 Pen-Computer 1 Pentium 1 Pentium III 1 Peripherie-Geräte 1 Personal Digital Assistent 1 Personal-Computer 1, 2, 3 Pfadangabe 1 Pfadzeichen 1 Phase-Change-Verfahren 1 Phosphor 1 Phosphorschicht 1 Photo-CD 1, 2, 3 Photolithographie-Verfahren 1, 2 physikalische Schicht 1 PICS 1 Piezo-Drucker 1 PIO-Mode 1 Pipeline-Architektur 1 Pixel 1, 2 PL/1 1, 2 Plotter 1, 2, 3, 4 Plug & Play 1 Betriebssystem 1 BIOS 1 Hardware 1 Voraussetzungen 1

PnP 1, 2 Polygone 1 polymorphe Viren 1 Polymorphie 1, 2 Portabilität 1 Portable 1, 2 preemptives Multitasking 1 primäre Partition 1 PRINT 1 Problembeschreibung 1, 2 Problemlösungstechniken 1 Programm 1, 2 abgestürzt 1 aufrufen 1, 2 aufrufen mit START-Befehl 1 aufrufen über Autostart 1 aufrufen über Dokument 1 aufrufen über Eingabeaufforderung 1 aufrufen über Startmenü 1 beenden 1, 2 Programmablaufplan 1 Programmablaufpläne 1, 2 Programmabsturz 1 Programmbefehle 1 Programmdokumentation 1 Programmentwicklung 1 Programmgruppe 1 Zubehör 1 Programmieren Algorithmus 1 Auswahlanweisung 1, 2 Bibliotheken 1 Geschachtelte Steueranweisungen 1 Kontrollstrukturen 1 Prozeduren 1 Schleife 1 Steueranweisungen 1 Wiederholungen 1 Programmierer 1

Programmiersprache 1, 2, 3, 4, 5 Ada 1 Basic 1 C1 C++ 1 Cobol 1 Fortran 1 Java 1 Pascal 1 PL/1 1 Prolog 1 VBA 1 Visual Basic 1 Visual Basic 5 1 WSH 1 Programmierung Datenkapselung 1 objektorientiert 1 prozedural 1 Programmsymbole aufrufen 1 Programmsystem 1, 2 Programmzähler 1, 2 PROLOG 1, 2 PROM 1 Proportionalschrift 1, 2 prozedurale Programmierung 1 Prozeduren 1 Prozessor iCOMP-Index 1 MIPS 1 Röntgenstrahllithographie 1 Prozessorsockel 1 Prüfen 1 Public Domain 1 Punktmatrix 1 -Q-

QDOS 1, 2 Quelldiskette 1 QUERIES 1 Quickformat 1 -R-

RAM-Bausteine 1 RAM-Test 1 Random-Access-Memory 1 RDRAM 1 Rechenmaschinen 1, 2 Rechenwerk 1 Rechnen 1, 2, 3 Rechner 1 Rechnerkategorien 1 Rechtschreibhilfe 1, 2 Relais 1 Relation 1 relationale Operationen 1 relationales Datenbank-Modell 1, 2 RESTORE 1 Retail 1 Return 1 Ring 1 RISC 1, 2 Robocup 1 Robotik 1 Rollen-Scanner 1 ROM 1 ROM-Speicher 1 Röntgenstrahllithographie 1 Röntgenstrahlung 1 RS 232 C 1 RSAC 1 -S-

Sampler 1

Samplingfrequenz 1, 2 SAP System R/3 1 Scanner 1, 2 Schaltplan 1 Schleife 1, 2, 3, 4 Schnittstellen 1 Schreib-/Leseköpfe 1, 2 Schreibfehler 1 Schreib-Lese-Speicher 1 SCSI 1, 2 11 21 Fast 1 Wide 1 SCSI-Technik Standards 1 SDRAM 1 Seitendrucker 1 Seitennumerierung 1 Seitenränder 1 Sektoren 1, 2 SEQUEL 1 Sequenzen 1 Seriell 1 serielle Schnittstelle 1 serieller Speicher 1 Serienbriefe 1 Serienbrieffunktion 1 Serifen 1, 2 Server 1, 2, 3 dedicated 1 File 1 Kommunikation 1 non-dedicated 1 Printer 1 SETUP 1 Shareware 1 SHRDLU 1 Sicherheitsstandard C2 1

Sicherungsdatenträger 1 Sicherungsplan 1 Silbentrennung 1, 2 SIMD-Technik 1 SIMULA 1 Singletasking 1 Sledgehammer 1 Smalltalk 1 SMS 1 Sockel 1 Softwareverteilung 1 Sortieren 1, 2 Sound 1 Soundblaster 1 Soundkarte 1, 2 Abtastrate 1 ADC 1 Adlib 1, 2 CD-ROM-Schnittstelle 1 DAC 1 FM-Synthese 1 Samplingfrequenz 1 Soundblaster 1 Wavetable-Synthese 1, 2 Spaghetticode 1 SPEC 1, 2 SPECfp92 1 Special Interest Channels 1 SPECint92 1 Speicher DRAM 1 SRAM 1 Speicherbausteine 1 Speicherchips 1 Speichern 1, 2, 3 Speicherzellen 1 Spiele 1 Spracherkennungssystem 1 Sprachgenerationen 1

Spuren 1, 2 SQL 1, 2 SRAM 1 SSE2 1 Stammseiten 1, 2 Standardabweichung 1 Start-Knopf 1 Startmenü ausführen... 1 beenden... 1 Einstellungen 1 Hilfe 1 Programme 1 suchen 1 statistischen Funktionen 1 Statuszeile 1 Stealth Viren 1 Stern 1 Steueranweisungen 1, 2 Steuerbus 1 Steuerwerk 1 Streamer 1 Streaming SIMD Extensions 1 Structured Query Language 1 Struktogramm 1, 2, 3 strukturierte Programmierung 1 Subdirectories 1 Subklassen 1 Suchen 1 Summenfunktion 1 Superrechner 1, 2, 3 Symboldarstellung 1 Symbole 1, 2 Symbolleiste 1 Syntax 1 SYS 1 Sysop 1 System herunterfahren 1 System-Analyse 1, 2

System-Analytiker 1 System-Entwicklung 1, 2 Systemkonfigurationsdatei 1 Systemmanagement 1 Fernwartung 1 Inventarisierung 1 SMS 1 Softwareverteilung 1 Tivoli 1 Unattended Setup 1 Systemmanagement-Server 1 System-Operator 1 Systemprogramme 1 -T-

Tabellenkalkulation 1 Taktfrequenzen 1 Taktgeber 1 Task-Leiste 1 Tastatur 1, 2 Tastatur (Microsoft Natural Keyboard 1 Tastatur Klickgeräusch 1 TCO 1 TCP/IP 1, 2 T-DSL 1 Telebanking 1 Tele-Conferencing 1 Telekom 1 Telekom Online 1 Teleshopping 1 Telnet 1 Terminal 1 Textbausteine 1, 2 Textrand 1 Textur 1 Textverarbeitung 1, 2 Blocksatz 1

Einfügemodus 1 Flattersatz 1 Formatierung 1 Formatvorlagen 1 Grafiken einfügen 1 Kopf- und Fußzeilen 1 OLE 1 Seitennumerierung 1 Serienbrief 1 Silbentrennung 1 Tabellen einfügen 1 Text korrigieren 1 Text speichern 1 Textbaustein 1 Texteingabe 1 Überschreib-Modus 1 Zeichenformatierung 1 Zeilenumschalttaste 1 Textverarbeitungsprogramm 1, 2 TFT-Display 1 Threads 1 Tintenpatronen 1 Tintenstrahldrucker 1, 2 Tippfehler 1 T-ISDN dsl 1 Titelzeile 1 Tivoli 1 Token 1 Token-Ringe 1 Token-Verfahren 1 Top Level Domains 1 Topologie 1 Baum 1 Ring 1 Stern 1 Tower-PC 1, 2 TRADIC 1, 2, 3 tragbare Rechner 1 Transistor 1, 2

Transmeta 1 Transportschicht 1 Trojanischen Pferde 1 Trommelplotter 1 Truecolor 1 Tupel 1 Turing-Test 1 Twain 1 -Ü-

Überschreib-Modus 1 Übersetzer 1 Compiler 1 Interpreter 1 optimierende Interpreter 1 -U-

UltraDMA 1 Unattended Setup 1 UND-Funktion 1 Universal Serial Bus 1 UNIX 1, 2, 3, 4 Unterverzeichnissen 1 Upload 1 Urlader 1 USB 1 -V-

V.24 1 Verarbeitung 1, 2, 3 Verbindungssicherungsschicht 1 Verbunddokumente 1, 2 Vereinbarungsteil 1 Vererbung 1 Vergleichen 1

Verknüpfungen 1 Vermittlungsschicht 1 Verzeichnis erstellen 1 kopieren 1 löschen 1 markieren 1 umbenennen 1 VESA-Connector 1 Video on Demand (VoD) 1, 2, 3 Viren 1, 2 Antivirenprogramm 1 Bootsektor-Viren 1 Companion-Viren 1 FAT-Viren 1 Killerprogramm 1 Mutation Engine 1 Partition-Table Viren 1 Polymorphe Viren 1 Schutz vor Viren 1 Stealth Viren 1 Trojanische Pferde 1 Würmer 1 Vireninfektion 1 Virentypen 1 virtuelle Surround-Verfahren 1 Visual Basic 1 Visual Basic 5 1 Visual Basic for Applications 1 VLIW-Architektur 1 Vollzeichendrucker 1, 2 von Neumann, John 1, 2, 3 von Neumann'sche Struktur 1 VRML 1 -W-

WAN 1 Wavetable 1

Welt 64-Bit-Prozessoren 1 Wettkampfverfahren 1 Wide Area Network 1 Wiederholungen 1, 2 Wildcard 1 Windows 1, 2 Windows 2000 1 Windows 3.0 1 Windows 3.1 1 Windows 95 1, 2 Windows CE 1 Windows Me 1, 2 Windows Media Player 1 Windows NT 1, 2 Windows Powered Devices 1 Windows Scripting Host 1 Windows XP 1, 2 Windows Audiorecorder 1 Datenträger komprimieren 1 Datenträger optimieren 1 Defragmentierung 1 Editor 1 Leistungsüberwachung 1 Media Player 1 Movie-Maker 1 Paint 1 Programme aufrufen 1 Programme beenden 1 Rechner 1 Task-Manager 1 WordPad 1 Zubehörprogramme 1 Windows-Tasten 1 Wissenbasis 1 Wissensverarbeitung 1 WordPad 1 World Wide Web 1 Wörterbuch 1

WSH 1, 2 Würmer 1 -X-

XA-Standard 1 Xeon 1 -Y-

Yahoo 1 -Z-

Zahlensysteme 1 Zahlentastatur 1 Zeichenbrett 1 Zeilenabstand 1, 2, 3 Zeilenfrequenz 1 Zeilenumschalttaste 1, 2 Zeitschriften 1 Zentraleinheit 1, 2, 3 Zentrieren 1 Zieldiskette 1 Zubehör 1, 2 Zugriffszeit 1, 2, 3 Zuordnungseinheiten 1 ZUSE Z 3 1, 2, 3, 4 Zuse, Konrad 1 Zwischenspeicher 1 Zylinder 1