Das endgültige Medium? Über das Potenzial von Virtual Reality für den Journalismus

Diesmal scheint es wirklich so weit: Virtual Reality (VR) als Medium ist gekommen, um zu bleiben. Die dafür notwendigen Head-Mounted-Displays (HMD) zeigen im Abstand von wenigen Zentimetern zu den Augen, vergrößert durch Linsen, für jedes Auge ein eigenes Bild. So können sie stereoskopisch – also in 3D – Szenarien liefern. Salopp gesagt: Bei diesen Displaybrillen handelt es sich um Kopfhörer für die Augen.

Die HMD füllen das Gesichtsfeld nahezu komplett aus. Bewegungssensoren erkennen die Kopfdrehung und bei manchen Geräten auch die Kopfneigung. Dies funktioniert mittlerweile mit einer so niedrigen Latenzzeit (Verzögerung), dass eines der großen Probleme beim Einsatz von VR zumindest reduziert wurde: ein Unwohlsein beim Betrachter, das der Seekrankheit ähnelt. Auf diese Weise kommt man dem Heiligen Gral der VR bereits recht nahe: dem Eindruck einer “Präsenz”. Dem Träger des HMD wird glaubhaft vermittelt, sich an einem anderen Ort aufzuhalten. Tatsächlich lässt sich beobachten, dass Personen, die sich beim Nutzen von VR unterhalten, nicht fragen: “Was siehst Du?”, sondern: “Wo bist Du?”.

Weiterlesen auf fachjournalist.de

29. Mrz. 2016

The immersive infographic

How we want to utilise Virtual Realiy in local journalism

by Lorenz Matzat

a100_flug2b

[Artikel auf Deutsch]

Since the end of last year, we’ve been working on a virtual-reality project about the planned motorway expansion in Berlin. We think VR is a wonderful medium for discussing urban planning projects as it can create a tangible spatial experience of a situation long before it is actually realised. In this respect, VR shouldn’t be solely understood as an “empathy machine”, but also as a space-and-time machine.

With our “A100 VR” project, we want to show what the seventeenth construction phase of the city motorway might look like. To accomplish this we’re using a 3D city model of the German capital and combining 360-degree photos with computer-generated images. This isn’t going to be a 360-degree film, but instead we’re realising a non-linear interactive piece based on 3D graphics.

What’s special about the aforementioned construction phase is that it is supposed to cut through a densely populated area of Berlin. Almost one kilometre of it is planned as a double-decker tunnel which will be sunk into the ground from above along a quite narrow residential street. While construction isn’t likely to get started before 2022 (if at all – this construction phase is as controversial as the previous was), a final decision about its construction is sure to have been made well beforehand. Weiterlesen…

21. Mrz. 2016

Zwischenstand: A100 VR-Projekt

Es ist der entscheidende Punkt im Laufe eines Vorhabens: Lässt sich die Idee, das grundlegende Konzept überhaupt umsetzen? Wir starteten mit der Annahme, dass wir 360 Grad-Fotos mit 3D-Modellen kombinieren können. Mittels eines Smartphones, das in einem Pappgestell (Cardboard o.ä.) steckt, transportieren wir eine virtuelle Umgebung: In der soll sich ein großes städtebauliches Projekt erkunden lassen.

Dafür mussten wir uns mehreren Herausforderungen stellen:

Zum einen klassischem Journalistenhandwerk: Recherche. Wie genau soll die Autobahn eigentlich durch das Berliner Friedrichshain laufen? Gibt es zugängliche Pläne? Dabei sind wir bereits auf einige Informationen und Personen gestoßen, die uns da weiterhalfen (die Pressestelle des Bausenats ist nicht darunter). Zudem machten wir einen Spaziergang entlang der geplanten Trasse, die, wenn man darüber etwas weiß, zum Teil im Stadtraum bereits „sichtbar“ ist.

Weiterlesen…

1. Mrz. 2016

VR-Journalismusprojekt wird gefördert: Autobahnbau in Berlin

a100_17

Wir wollen mit „A100 VR“ zeigen, wie der 17. Bauabschnitt der Stadtautobahn A100 ausschauen könnte – und wie er sich anhören wird („wir“ sind die Softwarefirma Lokaler aus Berlin). Dankenswerterweise fördert uns das Medieninnovationszentrum „MIZ“ in Babelsberg dafür im Rahmen der „Innovationsförderung für Medienprofis“. Die Umsetzung wird durch eine Kombination aus Echtbild- und Tonaufnahmen mit computergenerierten Bildern realisiert.

Der 17. Bauabschnitt soll durch Berlin-Friedrichshain laufen (s.o.). Der 16. Bauabschnitt wird derzeit umgesetzt und kommt in Berlin-Treptow, südlich der Spree, an. Von dort soll die Autobahn dann nach Norden über die Spree und Richtung Ostkreuz geführt werden (dort ist schon ein „Vorsorgebauwerk“ zur Unterquerung der Bahnstrecke errichtet worden). Schließlich endet der geplante Abschnitt nördlich der Frankfurter Allee. Zwar ist der Baubeginn des 17. Abschnitts nicht vor 2022 zu erwarten – wenn überhaupt, denn er ist wie der 16. zuvor umstritten. Doch dürfte eine endgültige Entscheidungen über seinen Bau deutlich früher als 2022 fallen (wenn auch nicht vor der Abgeordnetenhauswahl im Herbst 2016).

Wir sind uns jedenfalls sicher, dass VR das perfekte Medium in der Auseinandersetzung um städtebauliche Vorhaben ist. Es lässt eine Situationen weit vor der eigentlichen Realisierung recht wirklichkeitsgetreu erfahrbar machen. Und ermöglicht so einen besser informierten Diskurs über die Auswirkungen von (Groß-)Bauvorhaben. Insofern ist es nicht unwahrscheinlich, dass diese Art der Berichterstattung in einiger Zeit auch im Journalismus üblich sein wird. Also mittels des Einsatzes von VR durch Head-mounted-displays (HMD) und Carboard-Gestelle für Mobiltelefone zu berichten. Dafür spricht auch, dass sich aus dem gleichen Material parallel zur VR-Darstellung recht einfach klassische interaktive Anwendungen im Browser, Videos und (Print-)Grafiken erstellen lassen.

Der Umsetzungszeitraum für das Vorhaben reicht vom 1. November diesen Jahres bis Ende April 2016. Wir werden hier im Blog regelmässig über den Fortschritt berichten.

Bild oben:

Ausschnitt aus einem Dokument des Berliner Stadtentwicklungsenats aus 2013 – pdf

27. Okt. 2015

BER VR-Entwicklertagebuch: Seltsame Kopfbewegungen

Wir ernten erstaunte Blicke: Wenn ich mit meinem Kollegen über die Navigation in dem virtuellen Szenario spreche, gestikulieren wir und machen seltsame Kopfbewegungen. Wir reden darüber, wie ein Besucher unseres VR-Vorhabens sich durch es hindurch bewegen kann. Was es zu beachten gilt, wenn er sich einer Wand nähert. Wie sich das Drehen seines Kopfes auf seinen imaginären Körper in der 3D-Welt auswirkt. Und um uns das klar zu machen, machen wir diese Bewegungen nach; nähern uns realen Wänden und stellen uns mit dem Gesicht direkt nah davor; wir skizzieren unsichtbare Interface-Elemente mit Handstrichen in die Luft – und das sieht für die anderen Leute in unserem Büro eben etwas schräg aus.

Seit einigen Tagen sind wir in die nächste Phase unseres Projekts BER VR getreten. Das heißt, wir haben erste Entwicklungsschritte in Richtung eines Prototypens getan. Dessen sperriger Arbeitstitel lautet: “Eine betretbare Infografik über den neuen Berliner Flughafen”. Das “betretbar” ist der zentrale Punkt und das Alleinstellungsmerkmal von “Virtual Reality” – wir können uns unwirklich wirklich in etwas hineinbegeben.

Vier Probleme haben wir identifiziert:
Weiterlesen…

9. Apr. 2015

„Basteltag“

Einen ersten „Basteltag“ rund um VR und Journalismus gibt es am Samstag, den 17.1.2015, in Berlin. Details finden sich hier.

6. Jan. 2015

BER VR: Vorhaben virtueller Flughafen

Wir wollen ein Modell des im Bau befindlichen Berliner Flughafens realisieren. Der BER wird wohl nicht vor 2018 fertig; es ist insofern ein zukunftsträchtiges Projekt. Im Laufe der Zeit soll ein im VR-Raum betretbares Gelände sowie dessen Gebäude, die auch von innen erkundet werden können, entstehen.

Das Vorhaben wird uns helfen, folgendes zu klären:

  • Wie lässt sich mit der 3D-Engine Unity arbeiten und welche anderen Tools gibt es noch?
  • Wir erkunden, welche Datenquellen es gibt – wie lassen die sich für den 3D Raum verwenden?
  • Wie interaktiv muss so ein journalistisches VR-Stück werden; wie wird navigiert (kann man „fliegen?“) und interagiert; wie lassen sich Visualisierungen von abstrakten Daten (bspw. Kosten) mit dem Modell kombinieren?
  • Macht es Sinn, Sounds sowie Videos, Grafiken und Fotos einzubinden?
  • Wie lassen sich diese Modelle schließlich einsetzen – etwa für VR per selbstgebastelten Gestellen für Smartphones; als „Standalone“ für die Oculus; Animationen für Videos; eingebettet wie oben per Sketchfab?
  • Lässt sich kollaborativ (à la Git) an 3D-Modellen arbeiten?
  • Sollten die eigenen Modelle als Creative Commons veröffentlicht werden?

Weiterlesen…

4. Dez. 2014

Nachdenken über Erzählformate und Datenjournalismus in VR

elite_planet

Seit wenigen Tagen haben wir nun eine Virtual Reality-Brille im Büro. Das erste Fazit: Die Oculus Rift als „Developer Kit“ in der zweiten Version ist definitiv noch nicht endverbrauchertauglich. Die Auflösung (1920*1080 – Full HD) ist zu niedrig – für jedes Auge steht eben nur die Hälfte der Gesamtauflösung zur Verfügung. Es ist nicht unheimlich schwierig, dass Gerät zum Laufen zu bringen; benötigt wird aber zumindest Sicherheit im Umgang mit diversen Einstellungen des eigenen Rechners. Es scheint auch so zu sein, dass man sich langsam an die Nutzung des Geräts gewöhnen muss; es beansprucht die Augen, hinterlässt nach längerer Nutzung und dem Absetzen ein leichtes Gefühl der Desorientierung.

Das Headtracking allerdings scheint die Gefahr der „Seekrankheit“ deutlich zu mindern (eine Kamera erfasst die Neigung des Kopfes und erlaubt, dass man sich durch Annäherung des Kopfes ein Ding in der virtuellen Welt näher betrachten kann). Zudem ist es beeindruckend, wie schnell sich der Kopf wenden lässt, ohne ein hinterherhinkendes oder schlierendes Bild.

Was die Rift jetzt schon liefert: Eine eindrucksvolle Ahnung davon, was in ein oder zwei Jahren möglich sein könnte, wenn die Auflösung höher und die Brille leichter ist. Die Vorabversion des bald erscheinenen Spiels „Elite Dangerous“ ist dafür der derzeit wohl beste Showcase. Wer aus einer riesigen Raumstation hinausgeleitet und einen Planeten in 3D vor seinen Augen im weiten Schwarz des Weltraums hängen sieht, merkt: Diese Technologie hat durch sein Erfahrbarmachen von Räumlichkeit ein enormes Potential. Weiterlesen…

27. Nov. 2014