Estamos usando o Pixel 2 e é um irmão maior do Pixel 2 XL há um tempo. Mais uma vez, os telefones do Google têm alguns recursos fantásticos para fotos. O que estávamos vendo da câmera traseira de 12, 2MP e da frente de 8MP é muito melhor do que qualquer outro telefone que já usamos. E nós usamos muitos deles.
Leia a revisão do Google Pixel 2
E isso é antes do Google ativar sua arma secreta. O Google projetou um SoC (sistema no chip) focado em imagem personalizado no Pixel 2, e é chamado Pixel Visual Core.
Não temos todos os detalhes; O Google não está pronto para compartilhá-los e talvez nem esteja ciente do que esse chip personalizado ainda é capaz. O que sabemos é que o Pixel Visual Core é construído em torno de uma Unidade de processamento de imagem de oito núcleos projetada pelo Google. Essa IPU pode executar três trilhões de operações a cada segundo, enquanto opera com a minúscula bateria dentro de um telefone móvel.
Curiosamente, o Pixel Visual Core nem sequer foi ativado no lançamento no Pixel 2 e 2 XL - agora estamos vendo uma "versão inicial" dele com o Android 8.1 Developer Preview 2. Com o Pixel Visual Core finalmente ativado, As rotinas HDR + do Google serão processadas usando esta IPU, e são executadas cinco vezes mais rápido, usando menos de um décimo da energia do que seriam se funcionassem através do processador de imagem padrão no Snapdragon 835.
O Google diz que isso é possível devido ao quão bem o software e o hardware foram combinados. O software no Pixel 2 controla "muito mais" detalhes do hardware do que você encontraria em um processador típico para o arranjo do software. Ao passar o controle para o software, o hardware pode se tornar muito mais simples e eficiente.
O Google é uma empresa de software em primeiro lugar. Não é de admirar que seu primeiro SoC móvel personalizado aproveite o software da maneira que outras empresas usam hardware.
Obviamente, isso significa que o software se torna cada vez mais complexo. Em vez de usar métodos padrão de escrever código, transformá-lo em um produto acabado e tentar gerenciar tudo depois que todo o trabalho estiver concluído, o Google passou a usar as linguagens de codificação do aprendizado de máquina. Usando o Halide para o processamento de imagem real e o TensorFlow para os próprios componentes de aprendizado de máquina, o Google criou seu próprio compilador de software que pode otimizar o código de produção final em software criado especificamente para o hardware envolvido.
Embora não estivesse pronto no lançamento e demorasse mais tempo para ser ativado, agora a única parte da experiência da câmera usando o Pixel Visual Core é o recurso HDR + da câmera. Já é muito bom; é isso que vem a seguir.
HDR + é apenas o começo para o Pixel Visual Core.
Com o Android 8.1 Developer Preview 2, o Pixel Visual Core será aberto como uma opção de desenvolvedor. O objetivo é conceder acesso a todos os aplicativos de terceiros por meio da API de câmera do Android. Isso dará a todos os desenvolvedores uma maneira de usar o HDR + do Google e o Pixel Visual Core, e esperamos ver coisas realmente grandes.
Para a última coisa que sempre gostamos de ouvir, o Google diz que devemos lembrar que o Pixel Visual Core é programável e que eles já estão construindo o próximo conjunto de aplicativos que podem aproveitar seu poder. À medida que o Google adiciona mais habilidades ao seu novo SoC, o Pixel 2 e o 2 XL continuarão a melhorar e poderão fazer mais. Novos aplicativos de imagem e aprendizado de máquina estão surgindo ao longo da vida útil do Pixel 2, e estamos prontos para eles.