No primeiro capítulo da nossa série de smartphones, voltamos no tempo para ver como surgiram os telefones com câmera. Exploramos o impacto que os telefones com câmera, transformados em smartphones, tiveram nas redes sociais, bem como o início da corrida dos megapixels. Agora, vamos desmascarar o mito; veremos por que um número maior de megapixels não se traduz necessariamente em uma câmera que tira fotos melhores.

O sprint de megapixels dos anos 2000 deixou uma marca em muitos. Os consumidores ainda estão procurando um número mágico de MP nas folhas de especificações para decidir se vale a pena comprar um smartphone ou não. Eles ainda acreditam que “mais é melhor” quando a verdade é que “menos é mais”.

Como os pixels capturam a luz

Imagine um quebra-cabeça. Cada peça do quebra-cabeça esperando para ser montada é um megapixel, enquanto o contorno do quebra-cabeça é o sensor (a propósito, 1 megapixel = 1 milhão de fotodetectores). Você pode ter um quebra-cabeça “fácil”, com poucas peças grandes necessárias para completá-lo, ou um mais complexo, onde você recebe muitas peças pequenas.

Agora lembre-se, cada peça é um megapixel e não importa a contagem, a luz atravessa a lente e cobre todo o quebra-cabeça, aqui conhecida como a área do sensor. Portanto, se o sensor for feito de muitos megapixels pequenos, cada pixel será coberto por uma pequena quantidade de luz (proporcional ao seu tamanho). Em troca, o sensor-quebra-cabeça detectará menos luz do que normalmente e o risco de ruído adicional aumentará.

Portanto, pixels maiores são os preferidos, mesmo que sejam poucos, já que cada um deles pode coletar mais luz. Infelizmente, os fabricantes de smartphones não estão prontos para investir em tais sensores e não querem aumentar a espessura do telefone. Então, para compensar as imagens ruins, eles dependem muito de software.

Com o iPhone 7 Plus, a Apple conseguiu recriar um efeito que normalmente estava fora do alcance dos smartphones. Ele usou duas câmeras e um mapa de profundidade para obter o efeito bokeh no software. Isso porque os smartphones não possuem o hardware necessário para criar um fundo desfocado como as câmeras DSLR. Eles não podem obter uma profundidade de campo rasa, embora no papel, as amplas aberturas devem fazer o truque. A abertura, como você sabe, é o orifício colocado antes do sensor, aquele que deixa a luz passar.

Como passar da luz para a cor

Os fotodetectores são daltônicos, eles percebem apenas tons de cinza. Mas quando eles estão cobertos com filtros RGB, bam! – cada fotodetector grava um pixel vermelho, verde ou azul. Para evitar um quebra-cabeça de pixels coloridos organizados exatamente na mesma ordem de um canto ao outro, a câmera chama um especialista, o processador de sinal de imagem. Esse cara sabe onde e como tudo deve ir.

Isto analisa a cor e o brilho de cada pixel, em seguida, compara-o com seus vizinhos e estima a cor geral da cena. Este resultado não é a foto finalizada, mas a base para outro algoritmo de software que produz a imagem RAW.

Antes que você se perca em detalhes técnicos, a coisa crucial a lembrar é que o cara do processador de sinal de imagem (ISP) é a chave para desbloquear a imagem. Ele não apenas traduz a luz em cor, mas também ajusta o foco, a exposição e o balanço de branco como um DJ girando botões em seu mixer. Além disso, o ISP reduz o ruído e exporta a foto em JPG.

Existem smartphones premium que podem salvar a imagem em RAW… e isso é legal se você gosta de mexer em seus brinquedos. Caso contrário, economize tempo e espaço de armazenamento editando-os após a exportação JPG.

No fim, é tudo um ato de equilíbrio. Você precisa emparelhar o maior número de megapixels com um tamanho de pixel razoável (quanto mais próximo de 2 mícrons, melhor) e um sensor grande. Como é mais fácil falar do que fazer, os fabricantes compensam com o pós-processamento – mais sobre isso em nosso próximo capítulo.

* Este artigo foi escrito como parte de uma série editorial apresentada pela FotoNation.