Så här fungerar Deep Fusion på iPhone 11 och 11 Pro

Tillkännagavs vid presentationen av de nya iPhonerna, men inte tillgängliga förrän den första Beta av iOS 13.2 som Apple släppte igår, Deep Fusion är en av de viktigaste nyheterna med kameran på den nya iPhoneBåde basmodellen (iPhone 11) och de mer avancerade modellerna (11 Pro och 11 Pro Max).

Det är ett bildbehandlingssystem som ska det kommer att ge bättre resultat när du tar bilder med kameran på den nya iPhone eftersom detaljerna i fotografiet kommer att ses bättre tack vare det faktum att den kommer att kombinera flera bilder till en. Vi förklarar hur det fungerar.

Deep Fusion är avsedd för mellanliggande belysningssituationer, som de vi ofta skjuter inomhus. Under optimala ljusförhållanden kommer den inte att användas, och när ljuset är mycket lågt används nattläget. Beroende på linsen du använder och ljusförhållandena fungerar iPhone 11 och 11 Pro-kameran så här:

  • El vidvinkel Den kommer att använda Smart HDR när scenerna vi fotograferar är väl upplysta, nattläget när belysningen är dålig och Deep Fusion när ljusförhållandena är emellan.
  • El tele Du kommer att använda Deep Fusion mycket ofta, eftersom det är den minst lysande linsen. Du kommer att använda Smart HDR när det finns ljusa scener. Det finns inget nattläge med teleobjektivet, vidvinkeln med 2x digital zoom används.
  • El Ultra vidvinkel Den kommer alltid att använda Smart HDR eftersom den varken har nattläge eller Deep Fusion.

I motsats till vad som händer med nattläge, där vi ser en ikon för en måne visas på skärmen, Deep Fusion är helt transparent för användaren, du kommer inte att kunna aktivera eller avaktivera den, du kommer inte ens veta om den har använts eller inte. Apple vill att den ska vara helautomatisk bearbetning utan användarens ingripande. Vad gör han? Vi kan sammanfatta det så här:

  1. Innan du ens trycker på avtryckaren har kameran redan tagit fyra bilder med snabb slutartid för att "frysa" bilden och ytterligare tre bilder med normal hastighet. När du trycker på avtryckaren tar det ett foto med längre exponeringstid för att fånga detaljerna.
  2. De tre normala bilderna och fotot med den längsta exponeringstiden kombineras till ett. Detta fotografi kombineras med det bästa fotografiet för kort exponering (snabb hastighet) och bearbetas för att eliminera buller.
  3. Nu sker en mycket djupare bearbetning, där de olika elementen som visas på fotot (hår, hud, tyger, himmel, väggar ...) analyseras och data samlas in från båda fotografierna för att uppnå största möjliga detalj i bilden .

Apple har visat Deep Fusion med fotografier av personer som bär tröjor, eftersom det är i detaljerna i tyget där du kan se hur Deep Fusion visar maximal detalj på foton även under mellanliggande ljusförhållanden. Vi måste prova den här nya kamerafunktionen för att se om den verkligen är så exceptionell som Apple hävdar.


Följ oss på Google Nyheter

Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för data: AB Internet Networks 2008 SL
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.