ARKit 4 legger til en dybde-API for å styrke LiDAR-skanneren

Augmented reality har alltid fått mye av Apples oppmerksomhet i sine WWDC-er. Denne atypiske presentasjonen, preget av utseendet til en svimlende rekke av nyheter, har imidlertid gjort at de fra Cupertino ikke fokuserer så mye på ARKit, ditt utviklingssett for utvidet virkelighet. Siden i går den nye ARKit 4 med tre flotte nyheter: en dybde-API for å dra nytte av LiDAR-skanneren, Location Anchors eller Location Anchors for å lokalisere virtuelle virkeligheter på bestemte steder og til slutt en forbedret ansiktssporingsstøtte i forhold til ARKit 3 ved å bruke det velkjente Apple nevrale motor.

Dybde-API, fremtiden til LiDAR-skanneren

El 11-tommers iPad Pro og 12,9-tommers iPad Pro begge fra 2020 de har med seg bekjentskapet LiDAR-skanner. Denne teknologien tillater hekkanordninger å måle avstander ved å avgi lyspulser. På denne måten er iPad i stand til å behandle og lage en sky av punkter produsert som en funksjon av tiden det tar før de forskjellige lyspulsene som skanneren sender ut, kommer tilbake. Denne teknologien sammen med A12Z-brikke og de to andre kameraene bakre kompleks er avgjørende for å forstå ny dybde-API inkludert i ARKit 4.

Når det kombineres med 3D-mesh-data generert av Scene Geometry, gjør denne dybdeinformasjonen okklusjonen av virtuelle objekter enda mer realistisk ved å tillate øyeblikkelig plassering av virtuelle objekter og blande dem sømløst med deres fysiske miljø. Dette kan føre til nye funksjoner i applikasjonene dine, for eksempel å ta mer presise målinger og bruke effekter på brukerens miljø.

Dybde-API-integrasjonen gjør at det omkringliggende rommet kan oppdages ved hjelp av LiDAR-teknologi. Dette vil tillate utviklere å skape opplevelser rundt et bestemt rom eller til og med integrere forskjellige elementer med forskjellige dybder, viktig for de nye augmented reality-modellene som er utviklet de siste månedene.

Stedsankre i ARKit 4

For å forstå denne nyheten, la oss ta et eksempel. Vi er foran Eiffeltårnet i Paris, og vi tar frem telefonen vår. Vi åpner et program og det oppdager automatisk en opplevelse av økt virkelighet på det stedet. Når vi lanserer den data vises med nysgjerrigheter om høyden, hva som er i hver etasje og annen informasjon. Når vi peker på et annet sted som ikke er den berømte strukturen, slutter informasjonen å vises.

Dette har Apple kalt Stedsankre eller Stedsankre. Det er en måte å forankre eller korrelere en nøyaktig plassering med en spesifikk augmented reality-opplevelse. Dette vil gi byer eller berømte monumenter liv som for eksempel kan dra nytte av verktøyet for guidede turer.

Denne funksjonen er innlemmet i ARKit 4, men for å kunne utvikle driften riktig, a iPhone XS, XS Max, XR eller nyere. Apple begrenser også eksperimentering med denne delen av settet til utvalgte byer i verdens geografi.

Forbedret ansiktssporingsstøtte

ARKit 3 tillot å innlemme enkel sporing i det bakre kameraet. I den fjerde versjonen av dette utviklingssettet har Apple ansiktssporing til frontkameraet på en hvilken som helst enhet med A12 Bionic-chip eller nyere:

  • iPhone XS, XS Max, XR eller nyere (inkludert den nye SE)
  • iPad Air 3 og nyere (inkludert iPad Pro)
  • iPad Mini 5

Dette nye verktøyet lar deg spore opptil 3 ansikter samtidig. Dette vil, ifølge Apple, forbedre opplevelsene med frontkameraet i applikasjoner som Snapchat eller Memojis of the Big Apple.


Følg oss på Google Nyheter

Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: AB Internet Networks 2008 SL
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.