Jänner 2024
Design Research
Design Investigations
3 Min. Lesezeit
Mit: Leo Hafele, Bjørn Ravlo-Leira, Johannes Mayer

Reality Goggles

Prototyping KI-gestützter AR-Brille zur Sichtbarmachung versteckter Architekturelemente im urbanen Raum.

man in a subway wears makeshift x-ray headset
testing the reality goggles

Liminalität in der Stadtplanung

Wir alle kennen die Reise als einen Moment der Liminalität und des Übergangs. Sorgen sind schnell vergessen, bevor sie uns kurz vor der Landung wieder einfallen. Auf langen Zugfahrten können wir den Blick aus dem Fenster genießen, der uns Einblick in den Verlauf unserer Reise gibt. In urbanen Gebieten erleben wir jedoch architektonische Pragmatisierung, die zu Serialisierung führt. Ein Beispiel dafür ist die U-Bahn, die Fenster hat, durch die man nur die Tunnelwand sieht. U-Bahn-Stationen serialisieren die Stadt ebenfalls architektonisch und abstrahieren sie zu Namen auf Schildern.

Die Röntgenblick-Vision

Wir fragten uns, wie es sich anfühlen muss, in der U-Bahn zu sitzen, nach oben zu blicken und durch ausgefeilte Röntgentechnologie die Welt über sich zu sehen. All die Rohre, die durch den Boden verlaufen, geheime Keller und unentdeckte Welten, aber auch das bekannte Wien darüber. Man könnte wieder ein Gefühl des Reisens gewinnen. Natürlich bleibt Röntgenblick vorerst eine Vision. Aber nachdem wir Paragraphica von Bjørn Karmann gesehen hatten, dachten wir, dass wir mit Hilfe von generativer KI zumindest versuchen könnten, einen greifbaren Prototyp zu bauen, der dies mit heutiger Technik versucht.

Funktionsfähiger Prototyp

Wir machten uns daran, einen Prototyp zu entwickeln, der diese Idee der Realität näherbringt. Unser 3D-gedrucktes Headset nutzt den sogenannten »Pepper's Ghost-Effekt«, bei dem eine um 45° geneigte Glasscheibe ein Bild von einem darüber oder darunter liegenden Bildschirm in die Augen der Betrachtenden reflektiert und gleichzeitig Licht aus der realen Welt durchlässt. Diese Technik ist eigentlich sehr alt und wird schon lange in Theatern verwendet.

old engraving of peppers ghost effect in a theater
Le Monde Illustré, no. 406, 21 January 1865, p. 48

Ein RaspberryPI ist am unteren Teil des Headsets montiert, mit dem Bildschirm nach oben zeigend. Ein Python-Skript verbindet sich mit verschiedenen APIs, und der kleine Computer zeigt KI-generierte approximierte Bilder der Umgebung auf seinem Bildschirm an. Durch die geneigte Glasscheibe können die Träger·innen das KI-generierte Bild und die reale Welt gleichzeitig sehen.

peppers ghost reflection effect inside 3d-printed headset
peppers ghost effect in action

Die Abdeckung dient hauptsächlich der Abdunkelung des Augenbereichs. Unten befindet sich ein Fach, in dem sowohl der RaspberryPi als auch ein 3,5-Zoll-Monitor-Shield montiert sind. Das Kopfband orientiert sich am MetaQuest 2 und wird durch gelbe Klammern am Hauptkörper befestigt. Es ist größenverstellbar.

prototypes of a see-through AR headset
prototypes of the headset
cad drawing of a see-through AR headset
protoype inside Fusion360

Der Code

Das funktioniert sehr ähnlich wie Bjørn Karmanns KI-Kamera. Das Headset hat noch kein GPS-Modul, weshalb wir einen kleinen Trick anwenden mussten. Das Python-Skript scannt nach WiFi-Netzwerken in der Nähe. Basierend auf deren MAC-Adressen gibt die Google Geolocation API eine ungefähre Geo-Position zurück. Diese Koordinaten nutzen wir, um weitere Informationen wie Straßenadressen, aktuelles Wetter, interessante Orte und mehr zu sammeln. Auch das aktuelle Datum und die Zeit erfassen wir. Nach der Datensammlung schreiben wir einen lesbaren Satz, der ein Foto an besagtem Ort beschreibt, wo das Wetter so und so ist und x Parks, Restaurants usw. in der Nähe sind. Wir fügen auch die Zeit als Wort (Mittag, Morgengrauen, Morgen usw.) und den Monat hinzu, um die Jahreszeit korrekt zu identifizieren. Nachdem der Satz »geschrieben« ist, wird er an eine Stable Diffusion API weitergegeben.

AI generated image of Heldenplatz, 1010 Vienna, Austria
prompt: night image taken at Heldenplatz, 1010 Vienna, Austria, the weather is…

Stable Diffusion ist ein mächtiges generatives KI-Tool, mit dem wir Bilder aus Texteingaben erstellen können. Nachdem wir das generierte Bild erhalten, zeigt der RaspberryPi es über eine einfache tkinter-Oberfläche auf seinem Bildschirm an.

Credits

Projekt entstanden im Rahmen von Design Investigations an der Universität für angewandte Kunst Wien. Projekt entwickelt mit Leo Hafele, Bjørn Ravlo-Leira und Johannes Mayer. Coding/Ideation-Support von Grayson Earle. Dieses Projekt war stark inspiriert von Bjørn Karmanns KI-Kamera Paragraphica.