Así funciona Deep Fusion en los iPhone 11 y 11 Pro

Anunciado en la presentación de los nuevos iPhone, pero no disponible hasta la primera Beta de iOS 13.2 que Apple lanzó ayer mismo, Deep Fusion es una de las principales novedades de la cámara de los nuevos iPhone, tanto del modelo básico (iPhone 11) como de los modelos más avanzados (11 Pro y 11 Pro Max).

Se trata de un sistema de procesado de imágenes que se supone ofrecerá mejores resultados al capturar instantáneas con la cámara de los nuevos iPhone ya que se podrán ver mejor los detalles de la fotografía gracias a que combinará varias imágenes en una. Os explicamos cómo funciona.

Deep Fusion está pensado para situaciones de iluminación intermedia, como las que tomamos a menudo en interiores. En condiciones de luz óptima no se usará, y cuando La Luz sea muy escasa se utilizará el Modo Noche. Dependiendo de la lente que estés usando y de las condiciones de iluminación, la cámara del iPhone 11 y 11 Pro funcionará así:

  • El gran angular usará Smart HDR cuando las escenas que fotografiemos tengan buena iluminación, el Modo Noche cuando la iluminación sea escasa, y Deep Fusion cuando las condiciones de iluminación sean intermedias.
  • El teleobjetivo usará muy frecuentemente Deep Fusion, ya que es el objetivo menos luminoso. Usará Smart HDR cuando haya escenas con mucha luz. No hay Modo Noche con el teleobjetivo, se usa el gran angular con zoom digital 2x.
  • El Ultra Gran Angular siempre usará Smart HDR, ya que no tiene ni Modo Noche ni Deep Fusion.

Al contrario de lo que ocurre con el modo noche, en el que vemos que aparece un icono de una luna en la pantalla, Deep Fusion es completamente transparente al usuario, no podrá activarlo ni desactivarlo, ni siquiera sabrá si se ha utilizado o no. Apple quiere que sea un procesado completamente automático sin la intervención del usuario. ¿Qué es lo que hace? Podemos resumirlo así:

  1. Antes incluso de que hayas tocado el botón de disparo, la cámara ya habrá tomado cuatro fotografías con una velocidad de obturación rápida, para «congelar» la imagen, y otras tres fotografías a una velocidad normal. Cuando pulses el disparador tomará una fotografía con mayor tiempo de exposición para capturar los detalles.
  2. Las tres fotografías normales y la fotografía de mayor tiempo de exposición se combinan en una sola. Esta fotografía se combina con la mejor fotografía de corta exposición (velocidad rápida) y se procesan para eliminar el ruido.
  3. Ahora ocurre un procesado mucho más profundo, en el que se analizan los diferentes elementos que aparecen en la foto (pelo, piel, tejidos, cielo, muros…) y recogen datos de una y otra fotografía para conseguir el mayor detalle posible en la imagen.

Apple ha mostrado Deep Fusion con fotografías de personas llevando jerséis, porque es en el detalle del entramado del tejido donde se aprecia cómo Deep Fusion muestra el máximo de detalle de las fotografías incluso en condiciones de iluminación intermedias. Habrá que probar esta nueva función de la cámara para comprobar si de verdad es tan excepcional como Apple asegura.


Síguenos en Google News

Sé el primero en comentar

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: AB Internet Networks 2008 SL
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.