Google Camera 7.0 confirma en gran medida las funciones de la cámara del Google Pixel 4

Nos llegó una versión filtrada de Google Camera 7.0, que confirma la mayoría de las funciones de la cámara del teléfono inteligente Google Pixel 4.

Hoy publicamos un artículo que detalla todos los Cambios en la interfaz de usuario y nuevas configuraciones orientadas al usuario podríamos encontrar en la Google Camera 7.0 del Google Pixel 4. Esta versión de la aplicación Google Camera nos la envió nuestro informante, Hani (@HANI_4K), que obtuvo el APK del YouTuber vietnamita ReLab. Hay muchos cambios en la interfaz de usuario en la última versión de la aplicación de la cámara Pixel, pero también hay un montón de código que revela las características de la cámara del Pixel 4.

El fin de semana pasado, analizamos la última versión disponible públicamente de la aplicación Google Camera, la versión 6.3, para revelar que Google ha estado trabajando en varias características nuevas que creíamos que estaría presente en los smartphones Pixel de 2019. Encontramos funciones como Audio Zoom, Live HDR, deformación de malla para corregir distorsiones de selfies de gran angular y posibles mejoras en Night Sight. La versión 7.0 filtrada de la aplicación Google Camera continúa trabajando en estas funciones y corrobora su presencia en el Pixel 4. El APK filtrado también revela trabajo en varias funciones no reveladas anteriormente, así como una posible lista de funciones de la cámara Pixel 4.

Desenfoque de movimiento en el Pixel 4

Aunque parece que fue hace una eternidad, fue apenas la semana pasada cuando escuchamos por primera vez que el Pixel 4 tendrá un "Modo de movimiento" en la aplicación Cámara de Google. De acuerdo a a una fuente hablando con 9to5Google, el nuevo modo de cámara será una de las características principales del Pixel 4. Supuestamente te permitirá tomar fotografías de sujetos en movimiento en primer plano mientras difuminas el fondo, perfecto para fotografías de eventos deportivos.

Esta función "Modo de movimiento" no ha aparecido en ninguna de las filtraciones recientes, pero probablemente se deba a que la función todavía está oculta en la aplicación Google Camera en los dispositivos de versión preliminar. Detectamos una cadena para un nuevo modo de cámara, aunque la cadena en sí solo enumera el nombre en clave del modo: "paneer".

<stringname="mode_paneer">Paneerstring>

Como referencia, Night Sight se llama internamente "sepia" y Time Lapse se llama "guepardo" internamente. No estamos seguros de por qué se eligió el nombre en clave "paneer", pero está claro que es para una nueva función "Motion Blur" en la aplicación Google Camera. Es posible que "Modo de movimiento" sea el nombre comercial de esta función "Desenfoque de movimiento".

Prueba de astrofotografía y visión nocturna con retardo de obturación cero

9to5GoogleLa fuente también afirma que Google famosa función Night Sight, que utiliza algoritmos de fotografía computacional para producir imágenes detalladas en condiciones de poca iluminación, no sólo será más rápido sino que también será capaz de tomar fotografías del cielo estrellado. Un vídeo promocional filtrado corroboró la Capacidad de astrofotografía del Pixel 4, pero el nuevo código Night Sight que encontramos en Google Camera 6.3 no cumplió con nuestras expectativas. Sin embargo, con Google Camera 7.0, estamos más seguros de que Night Sight mejorará en el Google Pixel 4. Detectamos múltiples indicadores en una clase de configuración dogfood que muestra cómo Google ha estado probando mejoras importantes en Night Sight.

Mientras que en el APK anterior solo vimos una vaga referencia a Zero Shutter Lag for Night Sight (zsl_ns), el último APK deja las cosas bastante claras. ZSL_NIGHT_SIGHT confirma que Google está probando un Night Sight mucho más rápido, probablemente para el Pixel 4. Por otro lado, para la astrofotografía, Google utilizará la GPU (la Adreno 640 en el Qualcomm Snapdragon 855) para acelerar la segmentación del cielo y luego optimizar la imagen "encontrando" las estrellas e iluminándolas. La detección de trípode también ha experimentado mejoras, ya que ahora cambia el botón del obturador a un botón de parada y agrega el recuento de fotogramas a la mitad a medida que cuenta atrás.

HDR en vivo, HDRNet y deformación de malla

Durante nuestro desmontaje de Google Camera 6.3, descubrimos referencias a un modo "Live HDR" que parecía estar relacionado con "HDRNet"Algoritmo desarrollado por investigadores del MIT y Google. Este algoritmo podría usarse para aplicar HDR en tiempo real al visor de la cámara y también podría usarse para retocar fotos automáticamente milisegundos después de tomarlas. La deformación de la malla probablemente se refiere a una nueva técnica desarrollado por investigadores de Google para corregir la distorsión de las cámaras frontales de gran angular. La presencia de deformación de malla en la aplicación Google Camera se alinea con el rumor de que el Pixel 4 tiene una cámara frontal de gran angular.

Nuevamente detectamos referencias a Live HDR, HDRNet y deformación de malla en Google Camera 7.0, aunque esta vez las referencias fueron menos confusas. Estas funciones están limitadas a los teléfonos inteligentes Pixel 2019 (excluidos Pixel 3a y Pixel 3a XL, ya que Google se refiere a la línea Pixel 3a como "PIXEL_2019_MIDRANGE" en el código) ya que requieren una cámara nueva bibliotecas.

Zoom de audio en el Google Pixel 4

Algunos teléfonos inteligentes usan sus micrófonos para enfocar una fuente importante de audio cuando la cámara hace zoom. LG y HTC han estado haciendo esto durante varios años, y Samsung recientemente lo volvió a traer al mercado. Nota Galaxy 10 después de deshacerse de él hace unas generaciones. El nuevo Apple iPhone 11 también tiene su propia función Audio Zoom, por lo que no nos sorprende que el Google Pixel 4 probablemente también incluya la función. Después de todo, Google lo hizo adquirir gran parte de la propiedad intelectual y el talento de HTC. La configuración del Pixel 2019 enumera "AUDIO_ZOOM_SUPPORTED" como verdadero, por lo que probablemente se iniciará en el Pixel 4.

Soporte de formato de profundidad dinámica

androide 10 agrega soporte para un nuevo esquema de archivo llamado Formato de profundidad dinámica (DDF). Según Google, los archivos DDF contienen datos de profundidad de las fotografías, lo que permite que las aplicaciones utilicen los datos para cambiar el desenfoque en el posprocesamiento sin tocar la imagen original. La configuración de la cámara Pixel 4 enumera "EMBED_DYNAMIC_DEPTH_REAR" y "EMBED_DYNAMIC_DEPTH_FRONT" como verdaderos, lo que indica que los dispositivos admitirán guardar los datos de profundidad como un archivo DDF. Por si sirve de algo, también notamos que la aplicación Google Photos está probando la compatibilidad con el formato de profundidad dinámica.

Posible integración de Photobooth con pegatinas AR de Playground

Cabina de fotos es una función de la cámara de Google introducida en Google Pixel 3. La función toma fotografías automáticamente cuando detecta sonrisas o caras divertidas en el marco. Aunque no sabemos exactamente qué tipo de mejoras se realizarán en la función, parece que Google podría introducir algunos cambios internos. A lo largo del código, detectamos comprobaciones para ver si "Photobooth2019" es compatible, en comparación con solo "Photobooth", lo que significa que se trata de una actualización de la función Photobooth existente.

Un método en particular comprueba si el archivo "com.google.vr.apps.ornament.funshot.activity. La actividad FunshotActivity" se encuentra en el dispositivo antes de activar "Photobooth2019". Esta actividad no existe en un Pixel 2 XL o Pixel 3 XL con Android 10. Dado que "com.google.vr.apps.ornament" es el nombre del paquete para Patio de juegos (anteriormente llamados pegatinas AR), es posible que veamos alguna integración de pegatinas AR con Photobooth. Desde que cambió el nombre de la función a Playground, Google hizo que las pegatinas AR fueran más expresivas e interactivas. sin embargo, no sabemos si el Photobooth actualizado tomará fotografías basadas en las expresiones de AR. caracteres.

Modo de medición, modo de rebobinado y "Rocky"

En abril, vimos evidencia que Google se estaba preparando para integrar su Impulsado por ARCore aplicación de medición de realidad aumentada, Measure, en la aplicación Google Camera. El código para esta función todavía existe en Google Camera 7.0, pero no está claro si Google planea lanzarlo con el Pixel 4.

A continuación, las últimas versiones de la aplicación Google Camera han insinuado un modo de rebobinado cuyo nombre en código es "McFly" (en honor al protagonista de Regreso al futuro). No estamos muy seguros de cómo funciona; Lo único que sabemos con seguridad es que su ícono es un símbolo de rebobinado.

Otra característica que nos resulta aún más desconocida es la de "rocoso". Detectamos referencias a él en ViewfinderEffectElement y en "MultiCropModule", pero aún no sabemos qué se supone que debe hacer.

Todas las funciones de la cámara del Google Pixel 4, según la configuración de la cámara de Google

Por último, la clase de configuración dogfood enumera básicamente todas las funciones de la cámara del Google Pixel 4. También hay argumentos que enumeran las configuraciones de cámara actualizadas para los píxeles de 2016, 2017, 2018 y mediados de 2019, pero por brevedad, nos limitaremos solo a los nuevos dispositivos. La configuración de la cámara sugiere que lo siguiente es cierto:

  • El Google Pixel 4 admite zoom de audio
  • Google Pixel 4 admite guardar datos de profundidad utilizando el nuevo formato de profundidad dinámica (DDF)
  • El Pixel 4 tiene un teleobjetivo (un hallazgo que ha sido corroborado numerosas veces.)
  • Los dispositivos admiten tiempos de exposición más prolongados en Night Sight.
  • Los dispositivos admiten el algoritmo HDRNet.
  • Las sugerencias de Google Lens pueden detectar y recomendar el escaneo de documentos (de hecho, hay una cadena para un nuevo chip de sugerencia de "escanear documento").

...entre otras cosas. En comparación, la lista de funciones admitidas por el Pixel 3 2018 es mucho más corta.

Bonificación: el misterioso píxel "Needlefish" de 2019 reaparece

En abril, un comentario en AOSP Gerrit mencionó nombres en clave que se creía que pertenecían a los teléfonos inteligentes Pixel 2019. En un giro, se mencionaron 3, no 2, nombres en clave: "coral", "llama" y "pez aguja". Ahora sabemos que "llama" es el Pixel 4 más pequeño, mientras que "coral" es el Pixel 4 XL más grande, pero no hemos visto una referencia al "pez aguja" desde abril ni hemos visto evidencia de que Google esté trabajando en un tercer Pixel últimamente. 2019. Bueno, el "pez aguja" ha vuelto y todavía estamos tan confundidos como en abril.

La clase "DeviceProperties" en Google Camera 7.0 diferencia entre los dispositivos Pixel para que se pueda cargar la configuración correcta de la cámara. Notamos que junto a "coral" y "llama" en isPixel2019() está "pez aguja", lo que indica que de hecho es un Pixel de 2019. Sin embargo, el misterio sigue siendo qué podría ser realmente. ¿Un dispositivo de prueba? Un nombre en clave como "wahoo"para el núcleo unificado? Quién sabe. Hay poca o ninguna evidencia que apunte a la existencia de otro Pixel 2019 además del Pixel 4 y Pixel 4 XL, por lo que este es un misterio que tendremos que plantear por ahora.


Eso es todo lo que desenterramos de la versión filtrada de Google Camera 7.0 de la versión preliminar del Pixel 4. Si aprendemos más sobre cualquiera de los Pixel 2019, intentaremos informarle a pesar de que estas filtraciones se están volviendo agotadoras para mantenerse al día.

Foros de Google Pixel 4 ||| Foros de Google Pixel 4XL

Gracias a PNF Software por proporcionarnos una licencia de uso. Descompilador JEB, una herramienta de ingeniería inversa de nivel profesional para aplicaciones de Android.