Sådan fungerer Deep Fusion på iPhone 11 og 11 Pro

Annonceret ved præsentationen af ​​den nye iPhone, men ikke tilgængelig før den første Beta af iOS 13.2, som Apple udgav i går, Deep Fusion er en af ​​de vigtigste nyheder i det nye iPhone-kamera, både basismodellen (iPhone 11) og de mere avancerede modeller (11 Pro og 11 Pro Max).

Det er et billedbehandlingssystem, der skal det giver bedre resultater, når du tager snapshots med kameraet på de nye iPhones, da detaljerne i fotografiet kan ses bedre takket være, at den vil kombinere flere billeder til ét. Vi forklarer, hvordan det fungerer.

Deep Fusion er beregnet til medium lyssituationer, som dem vi ofte optager indendørs. Under optimale lysforhold vil den ikke blive brugt, og når lyset er meget lavt, vil Nattilstand blive brugt. Afhængigt af objektivet du bruger og lysforholdene, vil iPhone 11 og 11 Pro kameraet fungere sådan her:

  • El vidvinkel Den vil bruge Smart HDR, når de scener, vi fotograferer, har god belysning, nattilstand, når lyset er lavt, og Deep Fusion, når lysforholdene er mellemliggende.
  • El telefoto Du vil bruge Deep Fusion meget ofte, da det er det mindst lysstærke objektiv. Den vil bruge Smart HDR, når der er lyse scener. Der er ingen nattilstand med teleobjektivet, vidvinklen med 2x digital zoom bruges.
  • El Ultra vidvinkel den vil altid bruge Smart HDR, da den hverken har Night Mode eller Deep Fusion.

I modsætning til hvad der sker med nattilstand, hvor vi ser et ikon af en måne vises på skærmen, Deep Fusion er fuldstændig gennemsigtig for brugeren, vil du ikke være i stand til at tænde eller slukke for det, du vil ikke engang vide, om det er blevet brugt eller ej. Apple ønsker, at det skal være fuldautomatisk behandling uden brugerindblanding. Hvad laver han? Vi kan opsummere det sådan:

  1. Inden du overhovedet har trykket på udløserknappen, vil kameraet allerede have taget fire billeder med hurtig lukkerhastighed, for at "fryse" billedet, og yderligere tre billeder med normal hastighed. Når du trykker på udløserknappen, vil den tage et billede med længere eksponeringstid for at fange detaljerne.
  2. De tre normale billeder og det længste eksponeringsbillede kombineres til ét. Dette fotografi er kombineret med den bedste fotografering med kort eksponering (hurtig hastighed) og behandlet for at fjerne støj.
  3. Nu sker der en meget dybere bearbejdning, hvor de forskellige elementer, der optræder på billedet (hår, hud, stoffer, himmel, vægge...) analyseres og data indsamles fra et fotografi og et andet for at opnå størst mulig detalje i billedet..

Apple har vist Deep Fusion med fotografier af folk iført trøjer, fordi det er i detaljen af ​​vævningen af ​​stoffet, hvor du kan se, hvordan Deep Fusion viser maksimale detaljer i fotos selv under mellemliggende lysforhold. Vi bliver nødt til at prøve denne nye kamerafunktion for at se, om den virkelig er så enestående, som Apple hævder.


Følg os på Google Nyheder

Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for data: AB Internet Networks 2008 SL
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.