ARKit 4 fügt eine Tiefen-API hinzu, um den LiDAR-Scanner zu aktivieren

Augmented Reality hat in seinen WWDCs immer viel Aufmerksamkeit von Apple auf sich gezogen. Diese atypische Darstellung, die durch eine schwindelerregende Folge von Neuheiten gekennzeichnet zu sein scheint, hat jedoch dazu geführt, dass sich diejenigen in Cupertino nicht so sehr darauf konzentrieren ARKit, Ihr Entwicklungskit für Augmented Reality. Seit gestern das neue ARKit 4 mit drei großartigen Neuerungen: einer Tiefen-API zur Nutzung des LiDAR-Scanners, den Standortankern oder Standortankern zur Lokalisierung virtueller Realitäten an bestimmten Standorten und schließlich einer verbesserten Gesichtsverfolgungsunterstützung in Bezug auf ARKit 3 unter Verwendung des bekannten Apple Neural Engine.

Tiefen-API, die Zukunft des LiDAR-Scanners

El 11-Zoll-iPad Pro und 12,9-Zoll-iPad Pro, beide ab 2020 sie tragen die Bekanntschaft mit sich LiDAR-Scanner. Diese Technologie ermöglicht es Hedge-Geräten, Entfernungen durch Aussenden von Lichtimpulsen zu messen. Auf diese Weise kann das iPad eine Punktwolke verarbeiten und erstellen, die in Abhängigkeit von der Zeit erzeugt wird, die die verschiedenen vom Scanner emittierten Lichtimpulse benötigen, um zurückzukehren. Diese Technologie zusammen mit dem A12Z-Chip und die beiden anderen Kameras Heckkomplex sind entscheidend für das Verständnis der neue Tiefen-API in ARKit 4 enthalten.

In Kombination mit den von Scene Geometry generierten 3D-Netzdaten macht diese Tiefeninformation die Okklusion virtueller Objekte noch realistischer, indem virtuelle Objekte sofort platziert und nahtlos in ihre physische Umgebung integriert werden können. Dies kann zu neuen Funktionen in Ihren Anwendungen führen, z. B. zu genaueren Messungen und zum Anwenden von Effekten auf die Umgebung eines Benutzers.

Die Tiefen-API-Integration ermöglicht die Erkennung des umgebenden Raums mithilfe der LiDAR-Technologie. Auf diese Weise können Entwickler Erlebnisse in einem bestimmten Raum oder sogar in einem bestimmten Bereich erstellen integrieren verschiedene Elemente mit unterschiedlichen Tiefen, unerlässlich für die neuen Augmented-Reality-Modelle, die in den letzten Monaten entwickelt werden.

Standortanker in ARKit 4

Um diese Neuheit zu verstehen, nehmen wir ein Beispiel. Wir stehen vor dem Eiffelturm in Paris und nehmen unser Telefon heraus. Wir öffnen eine Anwendung und sie erkennt automatisch eine Erfahrung von erhöhter Realität an diesem Ort. Wenn wir es starten Daten erscheinen mit Kuriositäten über die Höhe, was sich auf jeder Etage befindet und andere Informationen. Wenn wir auf einen anderen Ort zeigen, der nicht die berühmte Struktur ist, werden die Informationen nicht mehr angezeigt.

So hat Apple es genannt Standortanker oder Standortanker. Es ist ein Weg von Verankern oder korrelieren Sie einen genauen Ort mit einem bestimmten Augmented-Reality-Erlebnis. Dies wird Städten oder berühmten Denkmälern Leben einhauchen, die das Tool beispielsweise für Führungen nutzen könnten.

Diese Funktion ist in das ARKit 4 integriert, aber um seinen Betrieb korrekt entwickeln zu können, a iPhone XS, XS Max, XR oder höher. Apple beschränkt das Experimentieren mit diesem Teil des Kits ebenfalls auf Wählen Sie Städte der Welt Geographie.

Verbesserte Unterstützung für die Gesichtsverfolgung

Mit ARKit 3 kann die Rückfahrkamera problemlos nachverfolgt werden. In der vierten Version dieses Entwicklungskits verfügt Apple über Gesichtsverfolgung an die Frontkamera eines Geräts mit A12 Bionic-Chip oder höher:

 

  • iPhone XS, XS Max, XR oder höher (einschließlich der neuen SE)
  • iPad Air 3 und höher (einschließlich iPad Pro)
  • iPad Mini 5

Dieses neue Tool Ermöglicht die gleichzeitige Verfolgung von bis zu 3 Gesichtern. Laut Apple können so die Erfahrungen mit der Frontkamera in Anwendungen wie Snapchat oder den Memojis des Big Apple verbessert werden.

 


Der Inhalt des Artikels entspricht unseren Grundsätzen von redaktionelle Ethik. Um einen Fehler zu melden, klicken Sie auf hier.

Schreiben Sie den ersten Kommentar

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * gekennzeichnet

*

*

  1. Verantwortlich für die Daten: Miguel Ángel Gatón
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.