So funktioniert Deep Fusion auf dem iPhone 11 und 11 Pro

Bei der Präsentation der neuen iPhones angekündigt, aber erst in der ersten Beta von iOS 13.2 verfügbar, die Apple gestern veröffentlicht hat. Deep Fusion ist eine der wichtigsten Neuheiten der Kamera des neuen iPhoneSowohl das Basismodell (iPhone 11) als auch die fortgeschritteneren Modelle (11 Pro und 11 Pro Max).

Es ist ein Bildverarbeitungssystem, das soll Es bietet bessere Ergebnisse beim Aufnehmen von Schnappschüssen mit der Kamera des neuen iPhone, da die Details des Fotos besser sichtbar sind dank der Tatsache, dass mehrere Bilder zu einem kombiniert werden. Wir erklären, wie es funktioniert.

Deep Fusion ist für Zwischenbeleuchtungssituationen gedacht, wie wir sie häufig in Innenräumen aufnehmen. Bei optimalen Lichtverhältnissen wird es nicht verwendet, und wenn das Licht sehr schwach ist, wird der Nachtmodus verwendet. Abhängig vom verwendeten Objektiv und den Lichtverhältnissen funktionieren die Kameras für iPhone 11 und 11 Pro wie folgt:

  • El Weitwinkel Smart HDR wird verwendet, wenn die von uns aufgenommenen Szenen gut beleuchtet sind, der Nachtmodus bei schlechten Lichtverhältnissen und Deep Fusion bei dazwischen liegenden Lichtverhältnissen.
  • El Tele Sie werden Deep Fusion sehr häufig verwenden, da es das am wenigsten leuchtende Objektiv ist. Sie verwenden Smart HDR, wenn helle Szenen vorhanden sind. Es gibt keinen Nachtmodus mit dem Teleobjektiv, der Weitwinkel mit 2x Digitalzoom wird verwendet.
  • El Ultraweitwinkel Es wird immer Smart HDR verwendet, da es weder Nachtmodus noch Deep Fusion hat.

Im Gegensatz zu dem, was im Nachtmodus passiert, in dem ein Mond-Symbol auf dem Bildschirm angezeigt wird, Deep Fusion ist für den Benutzer vollständig transparentWenn Sie es nicht aktivieren oder deaktivieren können, wissen Sie nicht einmal, ob es verwendet wurde oder nicht. Apple möchte, dass die Verarbeitung ohne Benutzereingriff vollautomatisch erfolgt. Was macht er? Wir können es so zusammenfassen:

  1. Noch bevor Sie den Auslöser drücken, hat die Kamera bereits vier Fotos mit einer kurzen Verschlusszeit aufgenommen, um das Bild "einzufrieren", und drei weitere Fotos mit normaler Geschwindigkeit. Wenn Sie den Auslöser drücken, wird ein Foto mit einer längeren Belichtungszeit aufgenommen, um die Details zu erfassen.
  2. Die drei normalen Fotos und das Foto mit der längsten Belichtungszeit werden zu einem zusammengefasst. Dieses Foto wird mit dem besten Kurzbelichtungsfoto (hohe Geschwindigkeit) kombiniert und verarbeitet, um Rauschen zu vermeiden.
  3. Jetzt findet eine viel tiefere Verarbeitung statt, bei der die verschiedenen Elemente, die auf dem Foto erscheinen (Haare, Haut, Stoffe, Himmel, Wände ...), analysiert und Daten von beiden Fotos gesammelt werden, um das größtmögliche Detail im Bild zu erzielen .

Apple hat Deep Fusion mit Fotos von Menschen gezeigt, die Pullover tragen, weil man im Detail des Stoffes des Stoffes sehen kann, wie Deep Fusion zeigt maximale Details in Fotos auch bei mittleren Lichtverhältnissen. Wir müssen diese neue Kamerafunktion ausprobieren, um festzustellen, ob sie wirklich so außergewöhnlich ist, wie Apple behauptet.


Folgen Sie uns auf Google News

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: AB Internet Networks 2008 SL
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.