ARKit 4は、LiDARスキャナーを強化するための深度APIを追加します

拡張現実は、WWDCで常にAppleの注目を集めてきました。 しかし、目もくらむほどのノベルティの連続であるように見えることを特徴とするこの非定型のプレゼンテーションは、クパチーノの人々をそれほど集中させませんでした ARKit、拡張現実のための開発キット。 昨日から新しい ARKit 4 3つの優れたノベルティ:LiDARスキャナーを利用する深度API、特定の場所で仮想現実を見つけるためのロケーションアンカーまたはロケーションアンカー、そして最後に、よく知られているものを利用するARKitXNUMXに関連する改善された顔追跡サポート アップルニューラルエンジン.

Depth API、LiDARスキャナーの未来

El 11インチiPadProと12,9インチiPadProの両方が2020年から 彼らは彼らと知人を運びます LiDARスキャナー。 この技術により、ヘッジデバイスは光のパルスを放出することによって距離を測定できます。 このようにして、iPadは、スキャナーから放出されたさまざまな光のパルスが戻るのにかかる時間の関数として生成された点群を処理および作成できます。 この技術と一緒に A12Zチップと他のXNUMX台のカメラ リアコンプレックスは、 新しい深度API ARKit4に含まれています。

Scene Geometryによって生成された3Dメッシュデータと組み合わせると、この深度情報は、仮想オブジェクトの即時配置を可能にし、それらを物理環境とシームレスにブレンドすることにより、仮想オブジェクトのオクルージョンをさらに現実的にします。 これにより、より正確な測定を行ったり、ユーザーの環境に効果を適用したりするなど、アプリケーション内の新機能を推進できます。

深度API統合により、LiDARテクノロジーを使用して周囲の空間を検出できます。 これにより、開発者は特定のスペースやさらには 統合する さまざまな深さのさまざまな要素、 ここ数ヶ月で開発されている新しい拡張現実モデルに不可欠です。

ARKit4のロケーションアンカー

この目新しさを理解するために、例を見てみましょう。 私たちはパリのエッフェル塔の前にいて、電話を取り出します。 アプリケーションを開くと、その場所で現実感が増した体験が自動的に検出されます。 起動すると データは、高度、各フロアにあるものについての好奇心とともに表示されます およびその他の情報。 有名な建造物ではない別の場所を指すと、情報が表示されなくなります。

これはAppleが呼んでいるものです ロケーションアンカーまたはロケーションアンカー。 それは、一形態であります 正確な場所を特定の拡張現実体験に固定または相関させます。 これにより、たとえばガイド付きツアーのツールを利用できる都市や有名なモニュメントに命が吹き込まれます。

この機能はARKit4に組み込まれていますが、その動作を正しく開発できるようにするために、 iPhone XS、XS Max、XR以降。 Appleはまた、キットのこの部分の実験を次のように制限しています。 世界の地理の都市を選択します。

改善された顔追跡サポート

ARKit 3では、リアカメラに簡単なトラッキングを組み込むことができました。 この開発キットのXNUMX番目のバージョンでは、Appleは顔の追跡機能を備えています A12 Bionicチップ以降を搭載したデバイスのフロントカメラへ:

  • iPhone XS、XS Max、XR以降(新しいSEを含む)
  • iPad Air 3以降(iPad Proを含む)
  • iPadのミニ5

この新しいツール 同時に最大3つの顔を追跡できます。 Appleによれば、これにより、SnapchatやBigAppleのMemojisなどのアプリケーションでフロントカメラのエクスペリエンスを向上させることができます。


Google ニュースでフォローしてください

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:AB Internet Networks 2008 SL
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。