O Google Pixel 3 é a última aposta do Grande G para a gama alta. Os Pixels são caracterizados por estabelecer a fasquia da fotografia e demonstrar que às vezes o software torna-se mais importante até mesmo do que os componentes físicos do dispositivo. Em concreto, a câmara desses terminais é considerada a melhor do mundo em termos de fotografia pura, outra questão é que existem alternativas mais ou menos completas em funções.
O Google Pixel 3 é a última aposta do Grande G para a gama alta. Os Pixels são caracterizados por estabelecer a fasquia da fotografia e demonstrar que às vezes o software torna-se mais importante até mesmo do que os componentes físicos do dispositivo. Em concreto, a câmara desses terminais é considerada a melhor do mundo em termos de fotografia pura, outra questão é que existem alternativas mais ou menos completas em funções.
A empresa está acostumada a explicar em profundidade como funcionam os modos do seu terminal, nas mãos dos seus engenheiros de software. Li Zhang e Wei Hong dizem-nos no blog do Google como funciona o Top Shot, a função do Google Pixel 3 que permite que equipamento reconheça a melhor fotografia entre várias fotos.
Quando tiramos uma foto, o Top Shot captura até 90 imagens em 1,5 segundos antes e depois da foto ser tirada. Três dessas 90 fotos são armazenadas em alta qualidade, o original e as principais alternativas. O processo é feito em tempo real, poderíamos pensar que essa função gastaria muita bateria e sobrecarregaria o processador. É aqui que entra a magia do Pixel, e é o Processador Visual Core que é usado para processar as imagens, permitindo que o processo seja rápido e com pouco consumo de energia.
Com AI, como poderia ser de outra forma? A rede neural do Google usa a segmentação de imagens para a dividir em vários parâmetros, entre os quais estão os olhos, expressões faciais, atributos mais subjetivos … O telefone sabe quando estamos com os olhos fechados, o nível de sorriso que temos, se a posição do nosso rosto em relação à câmara é boa ou mau … Cada frame obtido recebe uma pontuação, que é baseada nos seguintes parâmetros.
Em resumo, O Google usa inteligência artificial para saber se estamos bem ou mal numa foto, a sua base de dados tem as informações necessárias para categorizar as imagens e classificá-las com precisão. O modo funciona com rostos, animais ou qualquer outro objecto. Se não houver rosto para analisar, a foto escolhida será baseada na composição da cena, movimento, exposição, nitidez …
Tão bom que até assusta!
![]() |
Fundador do Androidgeek.pt. Trabalho em TI há dez anos. Apaixonado por tecnologia, Publicidade, Marketing Digital, posicionamento estratégico, e claro Android <3