Cross-Platform-Entwicklung: Architekturentscheidungen beim Wechsel zwischen VR und Flatscreen

Wer immersive VR-Anwendungen und klassische Flatscreen-Erlebnisse aus einer einzigen Codebasis bedienen will, steht vor fundamentalen Architekturentscheidungen – und muss diese erschreckend früh treffen. Dieser Artikel zeigt, wo die entscheidenden Weichen liegen.

Cross-Platform-Entwicklung: Architekturentscheidungen beim Wechsel zwischen VR und Flatscreen

Die gleichzeitige Unterstützung von VR-Headsets und klassischen Bildschirmen stellt Entwicklungsteams vor grundlegende Designfragen. Wer beide Ausgabemedien bedienen will, muss früh festlegen, wie tief plattformspezifische Logik in die Codebasis eingreift – denn nachträgliche Anpassungen sind kostspielig.


Unterschiedliche Interaktionsmodelle erfordern klare Trennung

Der zentrale Unterschied zwischen VR und Flatscreen liegt nicht nur in der Darstellung, sondern im Interaktionsparadigma. In VR-Anwendungen navigieren Nutzer durch physische Gesten, Blicksteuerung oder Controller mit sechs Freiheitsgraden. Auf klassischen Bildschirmen dominieren Maus, Tastatur und Touch-Eingaben. Wer diese beiden Eingabesysteme in einer gemeinsamen Codebasis verwaltet, läuft ohne klare Architektur schnell in eng gekoppelte, schwer wartbare Module.

Ein bewährter Ansatz ist die konsequente Abstraktion der Eingabeschicht: Statt plattformspezifische Events direkt in der Spiellogik zu verarbeiten, wird eine intermediäre Schicht eingeführt, die normalisierte Aktionen weitergibt – unabhängig davon, ob diese aus einem VR-Controller oder einer Mausbewegung stammen.

Dieses Muster kennen erfahrene Softwarearchitekten aus anderen Kontexten: Es entspricht dem Prinzip des Adapter-Patterns.


Rendering-Pipeline als kritischer Faktor

Auf der Rendering-Seite unterscheiden sich die Anforderungen erheblich. VR verlangt stereoskopisches Rendering mit hoher Framerate – typischerweise 90 Hz oder mehr – um Simulator-Sickness zu vermeiden. Flatscreen-Anwendungen haben hier deutlich mehr Spielraum.

Eine gemeinsame Rendering-Pipeline muss daher so gestaltet sein, dass VR-spezifische Optimierungen – etwa Foveated Rendering oder Lens Distortion Correction – modular aktivierbar sind, ohne die allgemeine Codebasis zu belasten.

Game-Engines wie Unity und Unreal Engine bieten hierfür unterschiedliche Abstraktionsgrade. Unitys XR Interaction Toolkit etwa kapselt viele dieser Unterschiede, schränkt aber zugleich den Gestaltungsspielraum ein.

Teams müssen abwägen, wie viel Engine-spezifische Abstraktion sie akzeptieren – und wo eigene Schichten mehr Kontrolle bieten.


UI und Spatial Design als Stolperfallen

Besonders unterschätzt wird die Benutzeroberfläche. Klassische 2D-UI-Konzepte mit Menüs, Buttons und Overlays lassen sich nicht direkt in den dreidimensionalen Raum einer VR-Umgebung übertragen. World-Space-UI in VR folgt anderen Layoutregeln als Screen-Space-UI auf einem Monitor – Lesbarkeit, Ergonomie und Interaktionsradius müssen neu gedacht werden.

Teams, die von Beginn an beide Plattformen unterstützen wollen, profitieren davon, UI-Komponenten von Anfang an als separate, kontextsensitive Module zu konzipieren. Eine Flatscreen-Menüstruktur kann als Referenz dienen, sollte aber nicht direkt portiert, sondern für den jeweiligen Ausgabekontext neu interpretiert werden.


Testaufwand und Continuous Integration

Cross-Platform-Entwicklung erhöht den Testaufwand spürbar. VR-spezifische Tests erfordern entweder physische Hardware oder Simulationsumgebungen, die Headset-Bewegungen und Controller-Eingaben nachbilden. In CI/CD-Pipelines ist das aufwendig zu integrieren.

Pragmatische Teams segmentieren ihre Tests daher konsequent:

  • Kernlogik und Eingabeabstraktion laufen in automatisierten Unit-Tests
  • Plattformspezifisches Verhalten wird in separaten Testphasen mit dedizierter Hardware verifiziert

Einordnung für deutsche Unternehmen

Für Unternehmen im deutschsprachigen Raum – etwa in den Bereichen industrielle Schulungen, Architekturvisualisierung oder Produktkonfiguration – ist Cross-Platform-Fähigkeit kein Luxus, sondern eine Notwendigkeit. Nicht jeder Endanwender verfügt über ein VR-Headset; gleichzeitig soll die Investition in räumliche Inhalte langfristig nutzbar bleiben.

Eine sauber getrennte Architektur, die Rendering, Eingabe und UI konsequent entkoppelt, reduziert Wartungskosten und schützt vor plattformabhängigen Technologiewechseln – ein Aspekt, der in der mittelfristigen Projektplanung frühzeitig budgetiert werden sollte.


Quelle: InfoQ – Game Development for VR and Flat Screens

Scroll to Top