Was wir uns von ARKit 4 erwarten dürfen

Ein Beitrag von
02. Juli 2020
ARKit4 Header
Jedes Jahr wird die Apple Entwicklerkonferenz WWDC ausgetragen. Auch wenn das Event dieses Jahr aufgrund der aktuellen Corona Situation “nur” online stattfand, ließ sich das Unternehmen nicht nehmen, mit einigen spannenden Neuerungen auf den AR Markt zu kommen. Mit dabei: das neue ARKit 4. Wir haben das neue Framework unter die Lupe genommen und uns angeschaut, was das neue Framework alles kann und was sich im Vergleich zur Vorgängerversion verbessert hat.

Neue Features

Nur knapp ein Jahr nachdem das Tech Unternehmen das Framework ARKit 3 herausbrachte, kommt nun Version 4. Ein spannendes neues Feature bringen die Location Anchors. Entwickler haben so die Möglichkeit, AR-Darstellungen an einem realen Ort zu fixieren. Apple User können dann, sofern sie sich an diesem Ort befinden, mit dem iPhone die Inhalte visualisieren und aus unterschiedlichsten Perspektiven betrachten.

Die Standortverankerung von ARKit 4 unterstützt die Platzierung von AR-Erlebnissen in Städten zum Beispiel neben berühmten Sehenswürdigkeiten. Genauer gesagt können Entwickler AR-Kreationen an bestimmten Breiten-, Längen- und Höhenkoordinaten verankern, sodass Benutzer sich um virtuelle Objekte bewegen und sie aus verschiedenen Perspektiven betrachten können.

Zwei kleine Haken hat das Feature allerdings: Location Anchors sind derzeit nur in den USA verfügbar und selbst dort können sich erst große Städte wie San Francisco, Los Angeles, New York, Chicago und Miami über die Funktionalität freuen. Apple begründet das damit, dass nur hier ausreichend Bildmaterial vorhanden ist, um die Umgebung zu erkennen. Außerdem sind die Location Anchors nicht für alle Apple Geräte uneingeschränkt verfügbar.

Die LiDAR Technologie kennen wir auch schon aus der ARKit Version 3.5.

Apple verbesserte aber in der aktuellen ARKit Version die Tiefenerkennung und ermöglicht damit unter anderem die exakte geometrische Erfassung der Umgebung. Mit ARKit 4 kommt jetzt die Beta Version der Depth API heraus. Die Schnittstelle soll Entwicklern besseren Zugriff auf die Tiefeninformationen des Scanners bieten. In Kombination mit den von der Szenen-Geometrie generierten 3D-Daten machen diese Tiefeninformationen die Okklusion virtueller Objekte noch realistischer, indem sie die sofortige Platzierung virtueller Objekte ermöglichen und diese nahtlos in die reale Umgebung einbetten. Die API bietet Entwicklern damit ganz neue Möglichkeiten. So können zum Beispiel Körpermaße für eine genauere virtuelle Anprobe dienen.

ARKit 4 verbessert darüber hinaus auch das Face-Tracking: Ab sofort können bis zu drei Gesichter gleichzeitig erkannt werden. Grundvoraussetzung dafür ist allerdings, dass das Apple Gerät über einen A12 Bionic – Chip verfügt. Über diese Verbesserungen hinaus wird ARKit 4 mit Motion Capture ausgeliefert, wodurch iOS-Apps in die Lage sind, Körperposition und -bewegung als eine Reihe von Gelenken und Knochen zu verstehen und Bewegung und Posen als Input für AR-Erfahrungen zu nutzen.

Zu guter Letzt bietet ARKit 4 auch die Möglichkeit, Videos in der realen Welt einzubetten. Damit können erstmals nicht nur Objekte sondern auch Videos angezeigt werden.

Was wir über ARKit 4 denken…

Schon ARKit 1 war ein Durchbruch und hat den AR Markt komplett aufgemischt. Seit dem schreitet Apple in großen Schritten voran und begeistert AR Fans mit immer besser werdenden Features. ARKit 4 bringt dabei wieder ganz neue Möglichkeiten und verbessert das AR Erlebnis ungemein. Die größte Veränderung stellen bestimmt die Location Anchors dar, auch wenn das Feature bis jetzt nur sehr eingeschränkt verfügbar ist. Auch die LiDAR Sensor in Kombination mit der Depth API bietet iOS Entwicklern noch mehr Spielraum: AR Erlebnisse werden noch besser und die Okklusion kann deutlich verringert werden. Aber auch das Motion Capture und die Möglichkeit Videos einzubetten öffnet neue Türen in der AR Welt, wenn gleich die Türe für ältere iOS Geräte leider verschlossen bleibt.