Augmented Reality: Einblicke in die Erweiterte Realität [1 ed.] 3642141781, 9783642141782 [PDF]

Dieses Buch befasst sich mit der Überlagerung der realen Welt durch computergenerierte virtuelle Objekte. Die drei grund

135 100 10MB

German Pages 193 [201] Year 2010

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages i-x
Einführung in die Augmented Reality....Pages 1-6
Darstellung virtueller Objekte....Pages 7-41
Tracking....Pages 43-94
Eingabe und Interaktion....Pages 95-126
Anwendungen und Erfahrungen....Pages 127-160
Ausblicke....Pages 161-171
Fazit....Pages 173-174
Back Matter....Pages 175-192
Papiere empfehlen

Augmented Reality: Einblicke in die Erweiterte Realität [1 ed.]
 3642141781, 9783642141782 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Informatik im Fokus

Herausgeber: Prof. Dr. O. P. Günther Prof. Dr. W. Karl Prof. Dr. R. Lienhart Prof. Dr. K. Zeppenfeld

Informatik im Fokus

Weitere Titel der Reihe Informatik im Fokus: http://www.springer.com/series/7871

Marcus Tönnis

Augmented Reality Einblicke in die Erweiterte Realität

123

Marcus Tönnis TU München Institut für Informatik (I-16) Boltzmannstrasse 3 85748 Garching b. München Deutschland [email protected] Herausgeber Prof. Dr. O. P. Günther Humboldt-Universität zu Berlin

Prof. Dr. R. Lienhart Universität Augsburg

Prof. Dr. W. Karl Universität Karlsruhe (TH)

Prof. Dr. K. Zeppenfeld Hochschule Hamm-Lippstadt

ISSN 1865-4452 e-ISSN 1865-4460 ISBN 978-3-642-14178-2 e-ISBN 978-3-642-14179-9 DOI 10.1007/978-3-642-14179-9 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. c Springer-Verlag Berlin Heidelberg 2010  Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Einbandentwurf: KuenkelLopka GmbH Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)

Vorwort

Erweiterte Realität (oder „Augmented Reality“, AR) stellt eine logische Weiterentwicklung der Virtuellen Realität (VR) dar. Im Gegensatz zur VR wird in der AR die den Benutzer umgebende tatsächliche Realität durch dreidimensionale virtuelle Elemente erweitert. Diese betten sich nahtlos in die Umgebung ein und stellen neue Gegenstände dar oder geben, im direkten räumlichen Bezug, weitere Informationen zu existierenden Objekten. Die breite Masse kann AR momentan allerdings höchstens in Sportsendungen erleben, wenn z.B. im Fußball Entfernungslinien zum Abseits eingeblendet werden. Erste AR-Anwendungen können allerdings selbst mit geringer Programmiererfahrung erstellt werden. Genau hier platziert sich auch dieses Buch. Mit seinem Umfang kann es selbstverständlich niemals alle Möglichkeiten, Probleme und Lösungen der AR umfassen, vielmehr soll es eine Fibel darstellen, die aufzeigt, wie erste Probleme bei der Einbettung virtueller Objekte in der Realität gemeistert werden. Das im Zuge dieses Buches entwickelte System stellt kein vollkommenes AR-System dar. Hierzu wären z.B. Da-

VI

Vorwort

tenbrillen und andere Sensorsysteme notwendig, die aber schnell größere Kosten erreichen. Beispiele aus Anwendungen der AR zeigen aber, dass das hier gegebene Handwerkszeug die essenzielle Basis für jede Art von AR-Systemen ist. Je nach weitergehendem Interesse erlauben im Buch angegebene Referenzen dann das Vertiefen in einzelne Bereiche. An dieser Stelle möchte ich mich auch bei den Personen bedanken, die zum Entstehen dieses Buches beigetragen haben. Der Dank geht an Herrn Heine, der überhaupt die Idee eines Buches dieser Art aufbrachte. Hervorheben möchte ich auch die wertvolle Zusammenarbeit mit den Mitarbeitern des Springer Verlages. Spezieller Dank geht an Manuel Huber, der mir mit wirklich großem Einsatz unter die Arme gegriffen hat, damit ich dieses Buch und besonders die Übungen umsetzen konnte! Ohne Professor Gudrun Klinker, Ph.D. hätte dieses Buch auch nicht entstehen können. Als Mentor meiner Doktorarbeit hat sie mich in das Thema Augmented Reality eingeführt und mir viele wertvolle Erfahrungen mitgegeben. Schließlich danke ich meinen Kollegen und Freunden, die mich viele Stunden entbehren mussten, weil ich unzählige Abende hinter meinem Schreibtisch verbracht habe. Ich wünsche allen Lesern viel Spaß beim Lesen und beim Ausprobieren der einzelnen Übungen. Sein eigenes AR-System wachsen zu sehen, neue Probleme zu erkennen und diese dann zu lösen, ist eine ganz besondere Erfahrung, die nicht nur zwischen Bits und Bytes, sondern auch in der realen Welt liegt!

München, im April 2010 Marcus Tönnis

Inhaltsverzeichnis

1

Einführung in die Augmented Reality . . . . . 1.1 Paradigmen der Augmented Reality . . . . . . . . 1.2 Geschichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Komponenten von AR-Systemen . . . . . . . . . . 1.4 Empfohlene Voraussetzungen . . . . . . . . . . . . .

1 1 3 4 6

2

Darstellung virtueller Objekte . . . . . . . . . . . . . 2.1 3-D-Rendering . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Virtuelle Kamera . . . . . . . . . . . . . . . . . . 2.1.2 Räumliche Transformationen . . . . . . . . 2.1.3 Hierarchien und Szenengraphen . . . . . 2.2 Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Head-Mounted Displays . . . . . . . . . . . . 2.2.2 Raum- und umgebungsfixierte Displays . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3 Bewegliche Displays . . . . . . . . . . . . . . . 2.2.4 Handheld Displays . . . . . . . . . . . . . . . . . 2.3 Übung - Video-See-Through auf normalen TFT-Displays . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Andere Arten der Darstellung . . . . . . . . . . . . .

7 8 8 13 19 21 23 25 28 28 31 36

VIII

Inhaltsverzeichnis

3

Tracking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Technologien und Prinzipien . . . . . . . . . . . . . . 3.1.1 Optisches Tracking . . . . . . . . . . . . . . . . 3.1.2 Inertialtracking . . . . . . . . . . . . . . . . . . . 3.1.3 Magnetisches Tracking . . . . . . . . . . . . . 3.1.4 Laufzeitbasiertes Tracking . . . . . . . . . . 3.1.5 Mechanisches Tracking . . . . . . . . . . . . . 3.1.6 Prinzipien des Trackings . . . . . . . . . . . 3.2 Kalibrierung und Registrierung . . . . . . . . . . . . 3.2.1 Korrektur der Linsenverzerrung . . . . . 3.2.2 Spitzenkalibrierung . . . . . . . . . . . . . . . . 3.2.3 Absolute Orientierung . . . . . . . . . . . . . 3.2.4 Hand-Auge-Kalibrierung . . . . . . . . . . . 3.2.5 Displaykalibrierung . . . . . . . . . . . . . . . . 3.2.6 Sensorfusion . . . . . . . . . . . . . . . . . . . . . . 3.3 Visuelle Störeffekte und andere Probleme . . . 3.3.1 Schwimmeffekte . . . . . . . . . . . . . . . . . . . 3.3.2 Verdeckung . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Jitter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Fehlerfortpflanzung . . . . . . . . . . . . . . . . 3.4 Übung - AR Toolkit . . . . . . . . . . . . . . . . . . . . .

4

Eingabe und Interaktion . . . . . . . . . . . . . . . . . . . 95 4.1 Eingabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.1.1 Marker-Basierte Eingaben . . . . . . . . . . 96 4.1.2 Tangible User Interfaces . . . . . . . . . . . . 98 4.1.3 Motion-Capturing . . . . . . . . . . . . . . . . . 100 4.1.4 Eingaben mit dem Blick . . . . . . . . . . . . 104 4.1.5 Spracheingabe . . . . . . . . . . . . . . . . . . . . 105 4.2 Interaktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4.2.1 Selektion . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.2.2 Manipulation . . . . . . . . . . . . . . . . . . . . . 111 4.2.3 Bewegung . . . . . . . . . . . . . . . . . . . . . . . . 113 4.2.4 Signaletik . . . . . . . . . . . . . . . . . . . . . . . . 115

43 44 44 52 53 54 58 58 60 60 63 66 70 71 80 82 83 84 87 89 90

Inhaltsverzeichnis

IX

4.2.5 Systemeinstellungen . . . . . . . . . . . . . . . 118 4.2.6 Symbolische Eingaben . . . . . . . . . . . . . 120 4.3 Übung - Kontrolle und Steuerung von Objekten mit Markern . . . . . . . . . . . . . . . . . . . 123 5

Anwendungen und Erfahrungen . . . . . . . . . . . 127 5.1 Industrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 5.2 Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 5.2.1 Überlagerung des Körpers mit klinischen Daten . . . . . . . . . . . . . . . . . . 133 5.2.2 Zielführung bei minimalinvasiver Chirurgie . . . . . . . . . . . . . . . . . . . . . . . . . 136 5.2.3 Virtual-Mirror . . . . . . . . . . . . . . . . . . . . 137 5.3 Automotive AR . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.3.1 Nightvision und Großdistanz HUDs . . 141 5.3.2 Kontaktanaloge Navigationssysteme . 144 5.3.3 Anzeige eines Bremsbalkens . . . . . . . . . 145 5.4 Forschung und Entwicklung . . . . . . . . . . . . . . . 148 5.4.1 Darstellung des Sichtfeldes . . . . . . . . . . 148 5.4.2 Visualisierung von Sensordaten . . . . . . 149 5.4.3 Multimodale AR . . . . . . . . . . . . . . . . . . 152 5.5 Edutainment . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 5.5.1 Museumsführer . . . . . . . . . . . . . . . . . . . 154 5.5.2 Interaktive Pflanzenklassifikation . . . . 156 5.6 Spiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158 5.6.1 AR-Quake . . . . . . . . . . . . . . . . . . . . . . . . 158 5.6.2 Eye of Judgement . . . . . . . . . . . . . . . . . 159

6

Ausblicke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 6.1 Ubiquitous Augmented Reality . . . . . . . . . . . . 162 6.2 Zukunftstrends . . . . . . . . . . . . . . . . . . . . . . . . . . 165

7

Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

X

Inhaltsverzeichnis

Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

1 Einführung in die Augmented Reality

Wem zum ersten Mal der Begriff Erweiterte Realität (Augmented Reality, AR) und die zugehörigen Prinzipien erklärt werden, antwortet meistens folgendermaßen: „Das gibt es doch schon in den Kinofilmen, die im Computer nachbearbeitet werden“. Der Vergleich zu Kinofilmen ist allerdings nur teilweise richtig. Um die Unterschiede genauer zu erklären, beginnt dieses Buch mit der Aufschlüsselung der grundlegenden Paradigmen der Augmented Reality. Die nachfolgenden Kapitel beziehen schrittweise einzelne Technologien und Komponenten von AR-Systemen ein und entwickeln dann ein exemplarisches AR-System.

1.1 Paradigmen der Augmented Reality Das am häufigsten verwendete Paradigma, das AR definiert, wurde 1997 von Ron Azuma [3] aufgestellt. Azuma definiert folgende Charakteristika: Wie auch bei Kinofilmen wird die Realität mit der Virtualität kombiniert. Im Kinofilm allerdings basiert dies auf einem zuvor aufgezeichneten M. Tönnis, Augmented Reality, Informatik im Fokus, DOI 10.1007/978-3-642-14179-9_1, c Springer-Verlag Berlin Heidelberg 2010

2

1 Einführung in die Augmented Reality

Video. In der AR wird ein Live-Videobild verwendet. Die eingefügten Gegenstände oder Charaktere sind in 3D registriert. Diese Überlagerung muss in Echtzeit erfolgen. Das steht im Gegensatz zur Nachbearbeitung von Filmen. Dort steht zur Bearbeitung jedes einzelnen Bildes ein größerer Zeitraum zur Verfügung, um das Bild korrekt zu überlagern. Bei AR muss die Erzeugung des computergenerierten, perspektivisch korrekten Bildes in einem Zeitraum erfolgen, der geringer ist als der zeitliche Abstand zum nächsten Bild. Schließlich ist AR im Allgemeinen interaktiv, Nutzer können mit den zusätzlich eingefügten Objekten interagieren. Desweiteren wurde von Milgram und Kishino [41] ein Kontinuum zwischen Realität und Virtualität definiert. An einem Ende des Kontinuums steht die vollkommene Realität, am anderen Ende die vollkommene Virtualität. In der vollkommenen Virtualität hält sich der Benutzer in einer vollständig modellierten virtuellen Welt, z.B. in einer CAVE [15], auf. Der Bereich dazwischen, die sog. Mixed Reality, ist charakterisiert durch den Grad der Virtualität. Die AR liegt näher bei der Realität, nur einzelne virtuelle Objekte werden in die reale Umgebung eingebettet. In Richtung zur Virtualität findet der Begriff Augmented Virtuality Verwendung. Hier ist die umgebende Welt überwiegend virtuell, nur einzelne Elemente entstammen der realen Welt oder Umgebung. Zusätzlich sollte hier der Begriff Ubiquitous Computing nach Weiser [69] erwähnt werden, der später genauere Betrachtung finden wird. Weiser hat eine Welt skizziert, in der nicht mehr einzelne monolithische Computersysteme von Menschen bedient und genutzt werden, sondern stattdessen viele kleine Einheiten miteinander vernetzt sind. Jeder Gegenstand in dieser Welt ist mit Sensoren oder Aktuatoren ausgestattet, die miteinander kommunizieren können. Das ermöglicht eine neue Form von Interaktion. Der Benut-

1.2 Geschichte

3

zer kann überall auf die vorhandene Infrastruktur zugreifen und sie nutzen. Interessant wird dies für AR durch den Bedarf nach Sensoren zur genauen Positionsbestimmung in weitläufigen Anwendungen. Da viele verschiedene Sensoren, auch solche für die Positionsbestimmung des Nutzers, vorhanden sind, kann die Position des Benutzers auch über weite Strecken von verschiedenen Sensoren aufgenommen und an das AR-System weitergeleitet werden.

1.2 Geschichte 1965, fünf Jahre vor der Entwicklung des Personal Computers, postulierte Ivan Sutherland unter dem Titel The Ultimate Display [57], dass „Fortschritte in der Computertechnik es eventuell möglich machen können, die menschlichen Sinne mit virtuellen Erfahrungen zu überzeugen“. Anschließend entwarf und entwickelte er ein Display, das dem Nutzer das immersive Erfahren einer computergenerierten virtuellen 3D Welt ermöglicht. Bis 1968 entstand so das wohl erste Head-Mounted Display (HMD). Es war damals noch so schwer, dass es an der Decke des Raumes befestigt werden musste. Diese Entwicklung kann als die Geburtsstunde der AR angesehen werden. Ein Display stand zur Verfügung, das dem Benutzer ermöglicht, abhängig zu seiner eigenen Position im Raum platzierte 3-D-Computergrafik aus seiner eigenen Perspektive zu betrachten. Über die Jahre entwickelte sich zunächst die Forschung im Bereich der Virtuellen Realität. Als logische Konsequenz sollte die reale Umwelt mit virtuellen Elementen angereichert werden können, die Erweiterte Realität entstand. In den späten neunziger Jahren des 20. Jahrhunderts verstärkte die Forschung ihre Bemühungen um die AR. In

4

1 Einführung in die Augmented Reality

Japan wurde ein mehrjähriges Projekt zum Thema der Mixed Reality gestartet, in dem unter anderem zwei Symposien (International Symposium on Mixed Reality, ISMR) abgehalten wurden. Ungefähr zur selben Zeit wurde in den Vereinigten Staaten ein Workshop zum Thema Augmented Reality (IEEE Workshop on Augmented Reality, IWAR) ins Leben gerufen. Durch starke Beteiligung von europäischer, vor allem von deutscher Seite, fanden die jährlichen Konferenzen auch in Deutschland statt. Unter anderem sei hier das ARVIKA Projekt [1] zu nennen. Aus dem Workshop entwickelte sich ein Symposium, die ISAR. In Anlehnung an den Namen ISAR fand das Symposium zum ersten Mal im Jahr 2000 in München an der Isar statt. 2002 erfolgte der Zusammenschluss der beiden bisher getrennten Communities. So entstand das International Symposium on Mixed and Augmented Reality (ISMAR), welches seit 2002 jährlich abwechselnd auf einem der drei ursprünglich beteiligten Kontinente stattfindet. Informationen über alle Konferenzen [30] sind im Internet1 verfügbar. Die Tagungsbände sind Quellen zahlreicher in diesem Buch genannter Referenzen.

1.3 Komponenten von AR-Systemen Zu Realisierung von AR-Systemen werden verschiedene Komponenten benötigt, die sich in drei Bereiche einteilen lassen: Darstellung, Tracking und Interaktion. Um virtuelle Objekte darzustellen, wird Software zur Erzeugung von 3-D-Computergrafik benötigt. Diese Grafik wird auf einem geeigneten Display angezeigt. Displays können Computerbrillen sein, konventionelle Monitore oder Videoprojektionswände, die allesamt als Fenster in die erweiterte Welt dienen. Zur Erzeugung von 3-D-Computergrafik 1

ISMAR Konferenzen: http://www.ismar-conf.org/

1.3 Komponenten von AR-Systemen

5

gibt es eine Vielzahl von 3-D-Rendering-Bibliotheken, die meist auf OpenGL oder DirectX basieren. Kapitel 2 vertieft dieses Thema. Es enthält eine Übung, die illustriert, wie 3D-Objekte in realen, aber noch statischen, Szenen korrekt mit virtuellen 3-D-Objekten überlagert werden. Nun ist keine Szenerie statisch – der Betrachter und andere Objekte können sich bewegen. In Kapitel 3 werden deshalb Prinzipien und Technologien des Trackings erläutert und grundlegende Methoden gezeigt, die notwendig sind, um Trackingsysteme für AR zu verwenden. Wahrnehmungsprobleme, die in Zusammenhang mit der Überlagerung der Realität auftreten, werden angesprochen und diskutiert. Die zugehörige Übung integriert ein allgemein verfügbares Trackingsystem in das zuvor verwendete Darstellungssystem. Als Ergebnis können dynamische Szenen mit AR überlagert werden, der Nutzer kann mit einer Webcam den Blickwinkel auf Szenen verändern und überlagerte Objekte in der Szene verschieben. Anschließend werden weitere Möglichkeiten für Eingabe und Interaktion in Kapitel 4 vorgestellt. Nach einem Überblick über Prinzipen der Interaktion entwickelt die zugehörige Übung eine Anwendung, die den Benutzer mit einer Teekanne Tee in eine Tasse einschenken lässt. Im weiteren Verlauf des Buches werden verschiedene existierende AR-Anwendungen vorgestellt, die einen Überblick über die Möglichkeiten geben, die durch AR geschaffen werden. Das Kapitel soll inspirieren und neue Ideen für eigene Anwendungen geben. Das Buch schließt mit einem Ausblick, der unter anderem auf das Konzept der Ubiquitären Erweiterten Realität eingeht. Dabei wird angesprochen, wie in mobilen Anwendungen unterschiedliche Trackingsysteme verbunden werden können, um weitläufige AR zu ermöglichen.

6

1 Einführung in die Augmented Reality

1.4 Empfohlene Voraussetzungen Zum Verständnis der in diesem Buch beschriebenen mathematischen Hintergründe sollten Kenntnisse in Linearer Algebra und Analytischer Geometrie vorhanden sein. Ein allgemeines Verständnis im Umgang mit Vektoren und Matrizen ist empfehlenswert. Die technische Umsetzung in diesem Buch basiert auf OpenGL. Um die Übungen selbst zu bearbeiten, muss in C/C++ programmiert werden. Der Leser sollte das Programmieren in dieser Sprache beherrschen und Sourcecode selbstständig kompilieren können. Benötigt werden dazu die Bibliotheken zu OpenGL und Glut. Falls diese nicht vorhanden sind, können sie kostenfrei aus dem Internet heruntergeladen werden. Um die Übungen zu realisieren, wird zusätzlich eine Webcam benötigt. Themen, die über den Stoff der Übungen hinausgehen, benötigen oft weitere Soft- und Hardware. Falls dem so ist, wird in Fußnoten, wenn möglich, auf Open Source-Implementierungen verwiesen.

2 Darstellung virtueller Objekte

Dieses Kapitel behandelt die zwei für die Darstellung von virtuellen Objekten notwendigen Hauptelemente, die softwaretechnischen Grundlagen für den Umgang mit räumlichen Strukturen und die Hardware, auf der die Ausgaben dargestellt werden. Zunächst einmal werden fundamentale Grundlagen der Computergrafik vorgestellt, anschließend werden weiterführende Konzepte wie Szenengraphen angesprochen. Aufbauend auf der Erstellung von 3-D-Objekten werden verschiedene Anzeigesysteme und -displays vorgestellt. Daran anschließend vertieft eine Übung den bearbeiteten Stoff. Dabei wird der Monitor des eigenen Rechners zu einem AR-Display gemacht. Die Übung überlagert ein statisches Bild mit einer AR-Darstellung. Das Kapitel schließt mit einem Überblick über nicht-visuelle Anzeigen, wobei vor allem auf akustische und haptische Anzeigen eingegangen wird.

M. Tönnis, Augmented Reality, Informatik im Fokus, DOI 10.1007/978-3-642-14179-9_2, c Springer-Verlag Berlin Heidelberg 2010

8

2 Darstellung virtueller Objekte

2.1 3-D-Rendering Renderingsysteme beschreiben einen 3-D-Raum, der durch eine Projektion auf einen zweidimensionalen Bildschirm übertragen wird. Diese Aufgabe übernimmt eine virtuelle Kamera. 2.1.1 Virtuelle Kamera Eine virtuelle Kamera wird durch eine räumliche Transformation, die ihren Ort und ihre Lage (extrinsische Kameraparameter) im Raum bestimmt, und durch ihre Abbildungseigenschaften (intrinsische Kameraparameter) beschrieben. Dieser Abschnitt vertieft zunächst die intrinsischen Kameraparameter. Die Kamera bleibt dabei am Ursprung des Koordinatensystems, wir betrachten ausschließlich, wie der gezeigte Raum abgebildet wird. Abbildungseigenschaften können orthogonale (parallele) Projektionen oder perspektivische Projektionen auf die 2-D-Bildebene sein. Für AR ist vorwiegend die perspektivische Abbildung von Interesse. Bei der perspektivischen Abbildung treffen sich alle Strahlen von Punkten im Raum in einem Punkt, der Lochkamera (pinhole camera). Eine virtuelle Lochkamera hat keine Verzerrungen, wie sie üblicherweise bei echten Kameras durch die Optik entstehen. Da das Sichtfeld einer virtuellen Kamera auf einen rechteckigen Bereich auf dem Bildschirm projiziert werden soll, gleicht der Sichtbereich einer Pyramide, an deren Spitze die Lochkamera liegt. Abbildung 2.1 zeigt die pyramidenartige Form des Sichtbereiches mit Standort der Kamera am Ursprung. Üblicherweise blickt die Kamera in vielen Renderingsystemen, auch in OpenGL, entlang der negativen Z-Achse.

2.1 3-D-Rendering

9

Abb. 2.1. Darstellung des Sichtbereiches und des Frustums einer Kamera, die am Ursprung eines Koordiantensystemes platziert ist

In der Computergrafik wird der pyramidenförmige Sichtbereich meist zusätzlich eingeschränkt. Alle Objekte, die näher als die sog. near clipping plane oder weiter weg als die far clipping plane liegen, werden nicht dargestellt, diese Ebenen beschneiden (Engl. clip) den Darstellungsraum. Dies hat einerseits Vorteile in der Performanz, weit entfernte Objekte sind nicht sichtbar und würden unnötigen Rechenaufwand erzeugen. Andererseits kann durch die Einschränkung der Darstellungstiefe die Genauigkeit der Tiefendarstellung beeinflusst werden. Je kleiner der Abstand der beiden clipping planes, desto höher auflösend ist die Tiefendarstellung. Wie Abb. 2.1 zeigt, wird der Sichtbereich damit zu einem Pyramidenstumpf, dem Frustum. Darstellen lässt sich die Projektion dieses 3-D-Bereiches mittels einer sog. Projektionsmatrix . Die Projektionsmatrix zur Darstellung eines Frustums ist

10

2 Darstellung virtueller Objekte



2n r−l

 0   0 0

0 2n t−b

0 0

r+l r−l t+b t−b +n − ff −n

−1

0 0



  n  − f2f−n 0

wobei n, f Abstand zu near and far clipping plane (beide positiv) l, r X-Koordinate der linken bzw. rechten vertikalen Kante der near clipping plane b, t Y-Koordinate der unteren bzw. oberen horizontalen Kante der near clipping plane sind. Die Blickachse eines Frustums liegt parallel zur Z-Achse. Ist das Frustum symmetrisch um diese Achse, werden die beiden oberen Einträge in der dritten Spalte zu 0. Gesetzt wird ein perspektivisches Frustum in OpenGL durch die Funktionsaufrufe glMatrixMode (GL_PROJECTION) ; glLoadIdentity () ; glFrustum ( l e f t , r i g h t , bottom , top , zNear , zFar : g l D o u b l e ) } . glMatrixMode (GL_MODELVIEW) ; Der erste Funktionsaufruf gibt an, dass alle weiteren Operationen mit Matrizen auf die Projektionsmatrix ausgeführt werden. Im nächsten Funktionsaufruf wird die Einheitsmatrix gesetzt. Der Aufruf von glFrustum setzt die Projektionsparameter entsprechend der übergebenen Werte. Abschließend wird die zu bearbeitende Matrix auf die Model-View Matrix zurückgestellt. Mit der Model-View-

2.1 3-D-Rendering

11

Matrix befassen wir uns im nächsten Abschnitt, der Transformationen im 3-D-Raum behandelt. AR-Systeme überlagern ein echtes Bild mit computergenerierten Objekten. Das echte Bild kommt von einer Videokamera oder vom Blick durch ein Head-Mounted Display (lichtdurchlässige Computerbrille, in die ein Display eingespiegelt wird, vgl. Abschnitt 2.2.1). Der Sichtbereich des Computerbildes, das Frustum, muss an den entsprechenden, realen Sichtbereich angepasst werden. Beide Sichtbereiche müssen die gleichen intrinsischen Parameter haben. Ist das nicht der Fall, werden die virtuellen Objekte falsch dargestellt. Ist der virtuelle Blickwinkel größer als der reale, erscheint das virtuelle Objekt kleiner als es in der Realität ist. Dieser Effekt erfolgt durch das Einpassen des Bildes auf das Display. Dadurch entsteht ein seitlicher Versatz je weiter das virtuelle Objekt am Rand des Displays liegt. Sind die Kameraparameter bekannt, kann das Frustum errechnet und wie oben angegeben gesetzt werden. Liegen die Parameter des Frustums vor, kann ein anderer Weg den Aufwand, Parameter umzurechnen, ersparen. Die Funktion g l u P e r s p e c t i v e ( GLdouble fovY , GLdouble a s p e c t , GLdouble near , GLdouble f a r ) ; mit f ovY

FOV = Field of View, der vertikale Öffnungswinkel der Kamera in Grad aspect Seitenverhältnis des Displays (aspect ratio) = width/height near, f ar Distanz zu near und far clipping plane ermöglicht das direkte Setzen der richtigen Perspektive.

12

2 Darstellung virtueller Objekte

Wird eine gute optische Kamera in der AR-Anwendung verwendet, können die Parameter auch direkt in eine Projektionsmatrix übertragen werden:   η/a 0 0 0  0 η 0 0     0 0 − f +n − 2f n  f −n f −n 0 0 −1 0 mit η = 1/tan(F OVy /2), FOV = Field of View, F OVy = vertikaler Öffnungswinkel der Kamera; oder η = 2bK /h wobei bK die Brennweite der echten Kamera und h die Höhe des Bildsensors ist; F OVy = 2arctan(h/(2bK )) a Seitenverhältnis der Kamera (aspect ratio) = width/height und des Displays n, f Distanz zu near und far clipping plane Diese Projektionsmatrix kann direkt in OpenGL gesetzt werden. Ebenso wie beim Setzen des Frustums stellt man die zu bearbeitende Matrix auf die Projektionsmatrix. Anschließend wird die Matrix geladen und schließlich wird wieder auf die Model-View Matrix zurückgestellt. glMatrixMode (GL_PROJECTION) ; glLoadMatrixd ( const GLdouble ∗m) ; glMatrixMode (GL_MODELVIEW) ; Üblicherweise werden die intrinsischen Kameraparameter über eine Kamerakalibrierung (vgl. Abschnitt 3.2.1) ermittelt. An dieser Stelle muss angemerkt werden, dass verschiedene Darstellungen in C/C++ verwendet werden können,

2.1 3-D-Rendering

13

um Matrizen zu deklarieren. Eine Matrix, die als m[4][4] deklariert und belegt ist, hat das Element m[i][j] in der i-ten Spalte und j-ten Zeile der OpenGL-Matrix, genau umgekehrt zu der C Standardkonvention. Um Verwirrungen zu vermeiden, sollten Matrizen deshalb in der Form m[16] deklariert und verwendet werden. Wird das Array auf vier Zeilen umgebrochen, entspricht die Darstellung der Transponierten der Matrix. Weitere Details zum Rendering, unter anderem, wie das projizierte Bild normalisiert und wie Bildschirmkoordinaten in OpenGL gemappt werden, finden sich in Kapitel 3 des sog. Red Book [55]. Die Abschnitte „The Camera Analogy“ und „Projection Transformations“ vertiefen das hier Angesprochene. 2.1.2 Räumliche Transformationen In 3-D-Computergrafik und für AR müssen virtuelle Objekte (und die virtuelle Kamera) in der Welt platziert und verschoben werden können. Diese Transformationen können ebenfalls mit Matrizen beschrieben werden. Sie zeigen, wie Objekte, oder die Kamera, im Raum platziert sind. Bei den dafür verwendeten Matrizen handelt es sich um affine Transformationen. Die Kolinearität der Abbildung dabei bleibt erhalten, d.h., Punkte einer Geraden liegen nach der Transformation ebenso auf einer Geraden. Hier werden, ebenso wie bei der Projektion, 4x4 Matrizen verwendet, womit gleichzeitig zu Rotationen auch Verschiebungen (Translationen) möglich sind. Eine Transformationsmatrix hat diese Form:   tx  R3x3 ty     tz  0 0 0 1

14

2 Darstellung virtueller Objekte

mit R3x3 3x3 Teilmatrix für die Rotation tx , ty , tz Translation an der jeweiligen Achse Drehungen um einzelne Achsen haben diese Form:   1 0 0 Rx = 0 cosθ −sinθ  0 sinθ cosθ   cosθ 0 sinθ 1 0  Ry =  0 −sinθ 0 cosθ   cosθ −sinθ 0 Rz = sinθ cosθ 0  ; 0 0 1 wobei θ der Drehwinkel ist. Matrizen können aufmultipliziert werden, um aufeinander folgende Transformationen zu beschreiben. Dabei ist allerdings darauf zu achten, dass die Rechenoperation der Matrizenmultiplikation im Allgemeinen nicht kommutativ ist. Werden die gleichen Transformationen in anderer Reihenfolge aufmultipliziert, ergibt das ein anderes Ergebnis und damit eine andere Platzierung. Um in OpenGL Transformationen auf Objekte (und die Kamera) anzuwenden, muss der Matrix-Modus auf die Model-View-Matrix gestellt sein. Weiter oben haben wir dies, nach dem Setzen der Projektionsmatrix, durch den Aufruf glMatrixMode (GL_MODELVIEW) ; gewährleistet. Bevor mit einer Platzierungsabfolge begonnen wird, sollte zunächst die Einheitsmatrix durch einen Aufruf von

2.1 3-D-Rendering

15

glLoadIdentity () ; gesetzt werden. Damit ist gewährleistet, dass alte Werte gelöscht sind. Platzieren von Objekten Zunächst belassen wir die Kamera weiterhin am Ursprung des Koordinatensystems unserer Welt und verschieben nur virtuelle Objekte. OpenGL bietet hier einige Hilfsfunktionen, die den Umgang mit Transformationen vereinfachen: g l T r a n s l a t e f ( GLdouble x , GLdouble y , GLdouble z ) ; g l R o t a t e f ( GLdouble a n g l e I n D e g r e e s , GLdouble xAxis , GLdouble yAxis , GLdouble z A xi s ) ; g l S c a l e f ( GLdouble x S c a l e , GLdouble y S c a l e , GLdouble z S c a l e ) ; Die Funktion glRotate nutzt dabei die sog. Achse-WinkelDarstellung. Ein Vektor definiert eine Achse. Der Winkel bestimmt, wie weit um diese Achse gedreht wird. So zeichnet z.B. die Anweisungskette g l T r a n s l a t e f ( 0 . 0 , 0 . 0 , −5.0) ; glRotatef (30.0 , 0.0 , 1.0 , 0.0) ; glScalef (1.0 , 2.0 , 1.0) ; glutWireCube ( 1 . 0 ) ; einen um fünf Einheiten nach hinten versetzten Würfel, der 30 Grad um die Y-Achse gedreht ist und entlang seiner YAchse die zweifache Länge hat. Wenn die Funktionen glTranslatef (1.5 , 0.0 , 0.0) ; glutWireCube ( 1 . 0 ) ;

16

2 Darstellung virtueller Objekte

direkt im Anschluss an obige Anweisungen ausgeführt werden, erscheint der zweite Kubus nicht um 1,5 Einheiten rechts des ersten, sondern weiter nach hinten versetzt, kantenparallel zum ersten. Entsprechend jeder Translation und jeder Drehung wird immer das gesamte Koordinatensystem verschoben und gedreht. Alle weiteren Anweisungen erfolgen somit immer relativ zu den vorhergegangenen Transformationen. Abbildung 2.2 zeigt das Ergebnis aller genannten Transformationen. Um selbst mit Transformationen zu Experimentieren, findet sich der Rahmencode auf der Webseite des Autors1 Sollen Objekte unabhängig voneinander platziert werden, muss vor der Transformation für das nächste Objekt die Einheitsmatrix gesetzt werden: glLoadIdentity () ; OpenGL erzeugt in den Hilfsfunktionen Transformationsmatrizen, die rechtsseitig auf die Model-View-Matrix aufmultipliziert werden. Auch auf programmatischer Ebene können Matrizen direkt aufmultipliziert werden. Die Funktion glMultMatrixd ( const GLdouble ∗m) ; multipliziert die übergebene Matrix rechtsseitig auf die gesetzte Matrix. Analog können neue Matrizen geladen werden. Die Funktion glLoadMatrixd ( const GLdouble ∗m) ; setzt eine gegebene Matrix. Hier soll nochmals kurz angemerkt werden, dass OpenGL eine andere Matrixdarstellung verwendet als sonst üblich in 1

Rahmencode des Unterkapitels Rendering: http://www. toennis.de/AR-Buch/Kapitel-2

2.1 3-D-Rendering

17

Abb. 2.2. Zwei Kuben: Verschieben an Z um -5 Einheiten, drehen um 30 Grad ergibt den ersten Kubus, verschieben an X um 1,5 Einheiten ergibt den zweiten Kubus

C/C++. Darum raten wir dazu, statt der Darstellung als m[4][4] eher die Darstellung als m[16] zu verwenden. Eine Transformationsmatrix, die an der Z-Achse um -5.0 Einheiten verschiebt, hat somit die Form GLdouble z T r a f o [ 1 6 ] = { 1 . 0 , 0.0 , 0.0 , 0.0 ,

0.0 , 1.0 , 0.0 , 0.0 ,

0.0 , 0.0 , 0.0 , 0.0 , 1.0 , 0.0 , −5.0 , 1 . 0 } ;

und kann in dieser vierzeiligen Darstellung als die Transponierte gesehen werden.

18

2 Darstellung virtueller Objekte

Verschieben der Kamera In OpenGL kann die Kamera nicht explizit in der virtuellen Welt verschoben werden. Auf den ersten Blick scheint es, als ob das möglich ist, da eine Funktion gluLookAt ( eyeX , eyeY , eyeZ , refX , refY , r e f Z , upX , upY , upZ : g l D o u b l e ) ; mit eyeX Position des Betrachters eyeY eyeY ref X Position des betrachteten Referenzpunktes ref Y ref Z upX Richtung des nach oben zeigenden Vektors upY upZ in der OpenGL Utility Library vorhanden ist. Die Implementierung dieser Funktion greift allerdings auf die schon erwähnten Transformationsfunktionen zurück. Dabei wird die Transformation invertiert, der Eindruck entsteht, als würde die Kamera verschoben und nicht das Objekt. Auf diese Weise kann die Kamera jedoch indirekt verschoben werden. Alle Transformationen, die vor dem Zeichnen des ersten Objektes ausgeführt werden, verschieben die Kamera. Hierzu müssen die Transformationen, ebenso wie innerhalb der gluLookAt Funktion, invertiert werden. Ebenso muss die Aufrufreihenfolge umgedreht werden, um den gewünschten Effekt auf die Kamera zu erhalten.

2.1 3-D-Rendering

19

Es erfordert einiges Ausprobieren, um mit dieser Art von Transformation zurechtzukommen. Darum sei hier nochmals auf Kapitel 3 des Red Book [55] verwiesen. Der Abschnitt „Viewing and Modeling Transformations“ vertieft das Thema. 2.1.3 Hierarchien und Szenengraphen Um das Arbeiten mit mehreren oder strukturiert aufgebauten Objekten zu vereinfachen, bietet OpenGL nicht nur eine Matrix, sondern Matrizenstacks an. Es gibt zwei Stacks, den Stack der Projektionsmatrizen und den Stack der ModelView-Transformationen. Auf den Projektionsmatrizenstack wollen wir hier nicht eingehen, Informationen finden sich im Red Book [55]. Der Model-View-Matrix-Stack kann die Arbeit mit Transformationen deutlich vereinfachen. Initial ist auf dem Stack nur eine Matrix vorhanden, die Model-View-Matrix, mit der wir bisher gearbeitet haben. Mit zwei Funktionen können wir diesen Stack erweitern und verkleinern. Die Funktion glPushMatrix ( ) ; erstellt eine Kopie der bisher obersten Matrix und platziert diese neue Matrix oben auf dem Stack. OpenGL arbeitet immer mit der obersten Matrix. Die Funktion glPopMatrix ( ) ; entfernt im Gegenzug die oberste Matrix von dem Stack. Mit anderen Worten kann man diese zwei Funktionen als Gedächtnis beschreiben: glPushMatrix() heißt so viel wie „merke Dir, wo Du bist“ und glPopMatrix() heißt „geh dahin zurück, wo Du warst“. Eine Geburtstagstorte mit zehn Kerzen lässt sich somit auf diese Weise implementieren:

20

2 Darstellung virtueller Objekte

renderTorte () ; renderKerzen ( ) { f o r ( int i =0; i