2020/08/05

Google explica o Live HDR+ no Pixel 4 e 4a


O Pixel da Google ajudou a popularizar os modos HDR (e Nightsight) avançados, e agora a Google explica mais um pouco do que é feito para apresentar os resultados em tempo real no ecrã dos Pixel 4 e 4a.

Calcular uma imagem HDR implica fazer múltiplas capturas com diferentes exposições, posteriormente sendo calculada uma imagem final com base nos valores das diferentes capturas para produzir uma imagem com bom nível de detalhe tanto nas zonas mais iluminadas como nas zonas mais escuras. É um processo que normalmente só pode ser visto depois de ser captada a imagem, o que torna mais difícil antever o resultado que se irá ter - e que a Google resolveu com o seu Live HDR+.

O Live HDR+ permite apresentar imagens que simulam o resultado final da captura, mas em tempo real, no ecrã do smartphone (Pixel 4 e 4a). O sistema capta entre 3 e 15 imagens, que são alinhadas e combinadas; mas o algoritmo foi modificado para que fosse mais rápido e conseguisse fazer o processamento em tempo real - podendo por isso haver algumas diferenças face ao resultado final. Mas, para efeitos de dar uma ideia de qual será o resultado final, podemos dizer que o objectivo foi atingido.


A par do Live HDR+ temos também o modo Dual Exposure, que também permite antever em tempo real o efeito de ajustar o nível de detalhe nas zonas claras / escuras. Permitindo captar imagens que podem replicar um efeito de silhueta, ou onde todos os detalhes que ficariam escuros se tornem bem visíveis.

Pena é que por agora estas sejam funcionalidade que, oficialmente, apenas estão disponíveis no Pixel 4 e 4a.

Sem comentários:

Publicar um comentário (problemas a comentar?)

[pub]