Retrato Selfies são a minha coisa favorita que está acontecendo nos smartphones agora. Eu posso sentir seus olhos rolando enquanto você lê isso, mas me ouça por um momento. Em nível técnico, estamos vendo um grande esforço para melhorar a qualidade da câmera frontal, aplicando mapas de profundidade e correção de cores para que uma foto possa ser instantaneamente transformada em algo novo. É fascinante e divertido, e nos primeiros dias desse recurso existente nos smartphones, existem duas maneiras massivamente diferentes de criar esse efeito.
A câmera True Depth da Apple possui vários sensores para criar um mapa de profundidade em tempo real no iPhone X. A solução do Google se baseia inteiramente em aprendizado de máquina e uma impressionante câmera única para obter o mesmo efeito no Pixel 2. A seguir, veja como esses dois métodos comparar!
A primeira coisa que você precisa entender ao comparar essas câmeras é onde a Apple e o Google priorizam as fotos produzidas. Sabemos que, em nível técnico, esses dois telefones têm os melhores recursos de fotos do mundo atualmente, com a única diferença de leitura para a maioria das pessoas: quais partes da foto e quais recursos estão tendo prioridade.
Nessas fotos, duas coisas se tornam rapidamente aparentes. O fundo da foto do iPhone X é apagado, na tentativa de garantir que meu rosto esteja bem iluminado e colorido corretamente. O fundo da foto do Pixel 2 é mais equilibrado com o restante da foto, graças ao HDR + do Google, mas, como resultado, meu rosto é visivelmente mais escuro e assume uma tonalidade levemente avermelhada que você não vê na outra foto.
Também existem diferenças substanciais no efeito de desfoque usado para criar Selfies de retrato. O software do Google aplica uma desfocagem mais agressiva e destaca as imperfeições no mapa de profundidade. Quase parece que um adesivo recortado foi aplicado a esta foto. O azul da Apple é um pouco mais natural até você ficar no meu cabelo e partes de mim começarem a ficar um pouco desfocadas. Nenhuma das fotos realmente "prega" a imagem devido às respectivas falhas, mas as falhas são sutis o suficiente para que você tenha um par de fotos divertidas.
Aqui está outro exemplo, só que desta vez é uma foto ao ar livre com zoom de 100%.
Este par de fotos oferece muitas das mesmas conclusões. A Apple ilumina melhor meu rosto, em particular, meus olhos, enquanto o Google ilumina melhor o fundo e torna a foto inteira mais rica. O desfoque da Apple se estende muito fundo no meu cabelo e faz com que parte de mim pareça desfocada, enquanto o desfoque do Google é tão grave que, na verdade, editou alguns dos meus cabelos que estavam saindo do lugar. Sem o modo retrato, é claro que o iPhone X tirou uma foto melhor, mas com esse modo ativado, é mais fácil apreciar o efeito do software do Google.
A Apple e o Google parecem estar abordando essa técnica fotográfica de direções opostas, e parece provável que veremos em um futuro não muito distante um tipo de reunião no meio.
Existem algumas limitações naturais para esses dois modos de foto, especialmente nos primeiros dias. O iPhone X piscará avisos no modo retrato se o fundo estiver muito claro ou se os objetos estiverem muito longe para pegar um mapa de profundidade adequado. O algoritmo do Google tem o hábito desagradável de editar os cantos dos óculos ou objetos prescritos em primeiro plano que não estão ligados a uma pessoa. Há um pouco de tentativa e erro para que ambos funcionem corretamente, o que, em teoria, se torna menos frequente com o tempo, à medida que a Apple e o Google continuam aprimorando essa tecnologia.
A maior coisa que a Apple tem sobre o Google neste modo de retrato agora é a iluminação de retrato. Ser capaz de ver as possíveis edições da foto em tempo real enquanto você tira a foto é importante, e a capacidade de continuar editando a Iluminação de retrato depois que a foto foi tirada é incrível. É um recurso muito imprevisível no momento, especialmente quando você começa a olhar para a Stage Lighting, mas nada além do iPhone tem isso no momento.
Ao editar as fotos, o Google tem algo que a Apple atualmente não tem e provavelmente deveria. Ao tirar uma foto no modo retrato com um pixel 2, você obtém um par de fotos. Uma foto é editada com as áreas desfocadas e a outra é apenas uma selfie simples com a câmera frontal. Isso permite editar as duas fotos e ver qual você prefere. A Apple mantém tudo como uma única foto, o que, na minha opinião, é um pouco menos conveniente para ver edições entre os dois modos. Por outro lado, há menos uma foto no seu rolo da câmera, portanto essa provavelmente é apenas uma preferência pessoal.
Há muito a ser dito sobre a maneira "certa" de tirar uma foto e ainda mais a ser dito sobre as virtudes da precisão das cores e da eficácia dos recursos. A Apple e o Google parecem estar abordando essa técnica fotográfica de direções opostas, e parece provável que veremos em um futuro não muito distante um tipo de reunião no meio. No momento, não está claro imediatamente que a abordagem baseada em hardware da Apple é mensurável melhor do que a abordagem baseada em software do Google para Portrait Selfies. Todas as coisas que fazem a câmera do iPhone X tirar uma ótima selfie já existem no iPhone 8 e 8 Plus. Ao mesmo tempo, não está claro o quão melhor o Google pode fazer seu software de edição de fotos com uma única câmera e uma preferência de iluminação para toda a foto, em vez do rosto.
Uma coisa é absolutamente clara - não estamos nem perto do final da Apple e do Google, oferecendo-nos mais e melhores recursos de selfie.