Interpolação de uma imagem digital. O que é interpolação de câmera em um telefone e para que serve? como fazer interpolação de câmera no android

Câmera do celular

Há vários anos, os fabricantes combinam telefones celulares com câmeras digitais. Essa câmera é chamada de digital porque a imagem obtida com sua ajuda consiste em pontos, e a qualidade e a quantidade desses pontos podem ser descritas em números e, portanto, armazenadas em mídia digital moderna. Assim, a qualidade de uma câmera digital geralmente é determinada pelo número máximo de pontos em que a câmera pode salvar a imagem resultante. Obviamente, para câmeras profissionais feitas separadamente, muitos outros parâmetros também são importantes, como a qualidade da óptica, o tamanho da matriz sensível à luz que recebe diretamente uma imagem analógica da lente, o princípio de operação da própria matriz ( CMOS, CCD) e muito mais. Para câmeras que são feitas em uma capa de telefone e não possuem ótica de alta qualidade, têm tamanhos mínimos de matriz e outros truques de minimização semelhantes, o principal parâmetro é o número máximo de pontos em que a câmera pode perceber uma imagem da lente. Mas muitas câmeras podem armazenar uma imagem na memória do telefone em uma resolução mais alta, isso é chamado de interpolação. Durante a interpolação, a imagem obtida física e realisticamente é aumentada programaticamente para as dimensões declaradas pelos profissionais de marketing. Essa operação pode ser realizada em qualquer computador, portanto, a presença de uma função como interpolação é muito duvidosa em qualquer não apenas um telefone, mas também uma câmera. Por isso, na hora de escolher um celular com a melhor câmera, não tenha preguiça de ler a descrição de cada aparelho na internet para não se deparar com uma imagem de interpolação.

A qualidade da câmera, ou tamanho da imagem, geralmente é medida em megapixels. Na nossa opinião será: milhões de pontos. Quanto mais pontos a matriz da câmera puder digitalizar a imagem, melhor, em princípio. Outras coisas sendo iguais, podemos supor que uma câmera de 4 megapixels fotografa, não 2, é claro, existem outros recursos aqui, mas um pouco melhores do que uma câmera de dois megapixels. No entanto, deve-se notar que há casos em que, com boa ótica, uma matriz de alta qualidade digitaliza melhor do que sua contraparte multipixel de baixa qualidade.

Normalmente existem câmeras de 0,3 megapixels (640x480), 1,3 megapixels (1280x960), 2 megapixels (1600x1200) e 4 megapixels (2304x1728). A falta de um flash normal e ótica de alta qualidade fazem com que até mesmo uma foto de quatro megapixels ainda não tenha qualidade suficiente para imprimir uma imagem em papel fotográfico. As falhas serão visíveis a olho nu. No entanto, com boa iluminação natural (sol), uma câmera de 1,3 megapixel já é capaz de criar uma imagem que, quando impressa em papel fotográfico padrão 10x15 com a mão estendida, não difere de uma imagem feita por uma boa câmera.

O artigo é fornecido pelo site Mobile life da Dolche-Mobile.Ru

O mercado de telefonia móvel está repleto de modelos com câmeras de resolução enorme. Existem até smartphones relativamente baratos com sensores com resolução de 16 a 20 megapixels. O cliente desconhecido está perseguindo a câmera "legal" e prefere o telefone com a resolução mais alta da câmera. Ele nem percebe que caiu na isca de comerciantes e vendedores.

O que é permissão?

A resolução da câmera é um parâmetro que indica o tamanho final da imagem. Ele apenas determina o tamanho da imagem resultante, ou seja, sua largura e altura em pixels. Importante: a qualidade da imagem não muda. A foto pode ficar de baixa qualidade, mas grande devido à resolução.

A resolução não afeta a qualidade. Era impossível não mencionar isso no contexto da interpolação da câmera do smartphone. Agora podemos ir direto ao ponto.

O que é interpolação de câmera em um telefone?

A interpolação da câmera é um aumento artificial na resolução da imagem. São imagens, não Ou seja, este é um software especial, graças ao qual uma imagem com resolução de 8 megapixels é interpolada para 13 megapixels ou mais (ou menos).

Se fizermos uma analogia, a interpolação da câmera é semelhante a ou binóculos. Esses dispositivos ampliam a imagem, mas não a tornam melhor ou mais detalhada. Portanto, se a interpolação for indicada nas características do telefone, a resolução real da câmera poderá ser inferior à declarada. Não é ruim ou bom, apenas é.

Para que serve?

A interpolação foi inventada para aumentar o tamanho da imagem, nada mais. Agora, este é um estratagema de comerciantes e fabricantes que estão tentando vender o produto. Eles usam números grandes para indicar a resolução da câmera do telefone no cartaz publicitário e posicioná-lo como uma vantagem ou algo bom. Não só a resolução em si não afeta a qualidade das fotos, mas também pode ser interpolada.

Literalmente 3-4 anos atrás, muitos fabricantes estavam perseguindo o número de megapixels e de várias maneiras tentaram colocá-los em seus smartphones com o maior número possível de sensores. Foi assim que surgiram os smartphones com câmeras com resolução de 5, 8, 12, 15, 21 megapixels. Ao mesmo tempo, eles podiam tirar fotos como as saboneteiras mais baratas, mas os compradores, vendo o adesivo "câmera de 18 MP", imediatamente queriam comprar esse telefone. Com o advento da interpolação, ficou mais fácil vender esses smartphones devido à possibilidade de adicionar megapixels artificialmente à câmera. Claro, a qualidade da foto começou a melhorar com o tempo, mas definitivamente não devido à resolução ou interpolação, mas devido ao progresso natural em termos de desenvolvimento de sensores e software.

Lado técnico

O que é interpolação de câmera em um telefone tecnicamente, porque todo o texto acima descreveu apenas a ideia principal?

Com a ajuda de um software especial, novos pixels são "desenhados" na imagem. Por exemplo, para ampliar uma imagem em 2 vezes, uma nova linha é adicionada após cada linha de pixels da imagem. Cada pixel nesta nova linha é preenchido com uma cor. A cor de preenchimento é calculada por um algoritmo especial. A primeira maneira é preencher a nova linha com as cores que os pixels mais próximos têm. O resultado de tal processamento será terrível, mas tal método requer um mínimo de operações computacionais.

O método mais utilizado é outro. Ou seja, novas linhas de pixels são adicionadas à imagem original. Cada pixel é preenchido com uma cor, que, por sua vez, é calculada como a média dos pixels vizinhos. Este método dá os melhores resultados, mas requer mais operações computacionais.

Felizmente, os processadores móveis modernos são rápidos e, na prática, o usuário não percebe como o programa edita a imagem, tentando aumentar artificialmente seu tamanho.

Existem muitos métodos e algoritmos avançados de interpolação que estão sendo constantemente aprimorados: os limites de transição entre as cores são aprimorados, as linhas se tornam mais precisas e claras. Não importa como todos esses algoritmos são construídos. A própria ideia de interpolação de câmeras é banal e dificilmente se enraíza em um futuro próximo. Usando a interpolação, não é possível tornar uma imagem mais detalhada, adicionar novos detalhes ou melhorá-la de qualquer outra forma. Somente em filmes uma pequena imagem borrada fica clara após a aplicação de alguns filtros. Na prática, isso não pode ser.

Você precisa de interpolação?

Muitos usuários, por desconhecimento, fazem perguntas em vários fóruns sobre como fazer interpolação de câmeras, acreditando que isso melhorará a qualidade das imagens. De fato, a interpolação não só não melhora a qualidade da imagem, como pode até piorá-la, pois novos pixels serão adicionados às fotos e, devido ao cálculo nem sempre preciso das cores para preenchimento, pode haver áreas não detalhadas , granulação na foto. Como resultado, a qualidade cai.

Portanto, a interpolação no telefone é uma jogada de marketing completamente desnecessária. Pode aumentar não só a resolução da foto, mas também o custo do próprio smartphone. Não caia nos truques de vendedores e fabricantes.

Sensores são dispositivos que determinam apenas tons de cinza (gradações de intensidade de luz - de completamente branco a completamente preto). Para que a câmera distinga as cores, uma matriz de filtros de cores é sobreposta ao silício usando um processo de fotolitografia. Nos sensores onde são utilizadas microlentes, os filtros são colocados entre as lentes e o fotodetector. Os scanners que usam CCDs trilineares (três CCDs próximos um do outro que respondem a vermelho, azul e verde, respectivamente) ou câmeras digitais de última geração que também usam três sensores têm uma cor específica de luz filtrada em cada sensor. (Observe que algumas câmeras multissensor usam combinações de várias cores nos filtros, em vez das três padrão). Mas para dispositivos de sensor único, como a maioria das câmeras digitais de consumo, as matrizes de filtros de cores (CFAs) são usadas para processar cores diferentes.

Para que cada pixel tenha sua própria cor primária, um filtro da cor correspondente é colocado acima dele. Os fótons, antes de atingir um pixel, primeiro passam por um filtro que permite a passagem apenas de ondas de sua própria cor. A luz de um comprimento diferente será simplesmente absorvida pelo filtro. Os cientistas determinaram que qualquer cor no espectro pode ser obtida misturando apenas algumas cores primárias. Existem três dessas cores no modelo RGB.

Cada aplicativo desenvolve suas próprias matrizes de filtros de cores. Mas na maioria dos sensores de câmeras digitais, as matrizes de filtros de padrão Bayer são as mais populares. Essa tecnologia foi inventada na década de 1970 pela Kodak, quando eles estavam fazendo pesquisas sobre separação de espaço. Nesse sistema, os filtros são intercalados, em padrão quadriculado, e o número de filtros verdes é o dobro do vermelho ou azul. A disposição é tal que os filtros vermelho e azul estão localizados entre os verdes.

Essa proporção quantitativa é explicada pela estrutura do olho humano - é mais sensível à luz verde. E o padrão quadriculado garante que as imagens tenham a mesma cor, independentemente de como você segura a câmera (vertical ou horizontalmente). Ao ler as informações de tal sensor, as cores são escritas sequencialmente em linhas. A primeira linha deve ser BGGBBG, a próxima linha deve ser GRGRGR e assim por diante. Essa tecnologia é chamada de RGB sequencial (RGB sequencial).

Nas câmeras CCD, a combinação de todos os três sinais ocorre não no sensor, mas no dispositivo de imagem, após o sinal ter sido convertido de analógico para digital. Nos sensores CMOS, esse alinhamento pode ocorrer diretamente no chip. De qualquer forma, as cores primárias de cada filtro são interpoladas matematicamente, levando em consideração as cores dos filtros vizinhos. Observe que em qualquer imagem, a maioria dos pontos é uma mistura de cores primárias, e apenas alguns realmente representam vermelho puro, azul ou verde.

Por exemplo, para determinar a influência de pixels vizinhos na cor do central, uma matriz de pixels 3x3 será processada durante a interpolação linear. Tomemos, por exemplo, o caso mais simples - três pixels - com filtros azul, vermelho e azul, localizados em uma linha (BRB). Suponha que você esteja tentando obter o valor de cor resultante de um pixel vermelho. Se todas as cores forem iguais, a cor do pixel central é calculada matematicamente como duas partes de azul para uma parte de vermelho. De fato, mesmo algoritmos de interpolação linear simples são muito mais complexos, eles levam em consideração os valores de todos os pixels ao redor. Se a interpolação for ruim, então há dentes nos limites da mudança de cor (ou aparecem artefatos de cor).

Observe que a palavra "resolução" no campo de gráficos digitais é usada incorretamente. Os puristas (ou pedantes, como preferir) familiarizados com fotografia e ótica sabem que a resolução é uma medida da capacidade do olho humano ou instrumento para distinguir linhas individuais em uma grade de resolução, como a grade ISO mostrada abaixo. Mas na indústria de computadores, é costume referir-se ao número de pixels como resolução e, como é assim, seguiremos essa convenção também. Afinal, até os desenvolvedores chamam a resolução de número de pixels no sensor.


Vamos contar?

O tamanho do arquivo de imagem depende do número de pixels (resolução). Quanto mais pixels, maior o arquivo. Por exemplo, uma imagem de sensores VGA (640x480 ou 307200 pixels ativos) ocupará cerca de 900 kilobytes na forma não compactada. (307200 pixels x 3 bytes (R-G-B) = 921600 bytes, que é cerca de 900 kilobytes) Uma imagem de sensor de 16 MP ocupará cerca de 48 megabytes.

Parece que tal coisa - para contar o número de pixels no sensor para determinar o tamanho da imagem resultante. No entanto, os fabricantes de câmeras apresentam vários números diferentes e sempre afirmam que essa é a verdadeira resolução da câmera.

O número total de pixels inclui todos os pixels que existem fisicamente no sensor. Mas apenas aqueles que estão envolvidos na obtenção da imagem são considerados ativos. Cerca de cinco por cento de todos os pixels não contribuirão para a imagem. Estes são pixels defeituosos ou pixels usados ​​pela câmera para outra finalidade. Por exemplo, pode haver máscaras para determinar o nível de corrente escura ou para determinar a relação de aspecto.

Formato do quadro - a relação entre a largura e a altura do sensor. Em alguns sensores, como aqueles com resolução de 640x480, essa proporção é de 1,34:1, que corresponde à proporção da maioria dos monitores de computador. Isso significa que as imagens criadas por tais sensores caberão exatamente na tela do monitor, sem pré-corte. Em muitos dispositivos, o formato do quadro corresponde ao formato do filme tradicional de 35 mm, onde a proporção é de 1:1,5. Isso permite que você tire fotos de tamanho e forma padrão.


Interpolação de resolução

Além da resolução óptica (a capacidade real dos pixels de responder aos fótons), há também uma resolução aumentada pelo sistema de hardware e software usando algoritmos de interpolação. Assim como na interpolação de cores, a interpolação de resolução analisa matematicamente os dados de pixels vizinhos. Nesse caso, os valores intermediários são criados como resultado da interpolação. Essa "incorporação" de novos dados pode ser feita com bastante facilidade, enquanto os dados interpolados serão algo intermediário, entre dados ópticos reais. Mas, às vezes, durante essa operação, várias interferências, artefatos e distorções podem aparecer, como resultado, a qualidade da imagem só piorará. Portanto, muitos pessimistas acreditam que a interpolação de resolução não é uma maneira de melhorar a qualidade das imagens, mas apenas um método para aumentar os arquivos. Ao escolher um dispositivo, preste atenção na resolução indicada. Não fique muito animado com a alta resolução interpolada. (Está marcado como interpolado ou aprimorado).

Outro processo de processamento de imagem no nível do software é a subamostragem. Na verdade, este é o processo inverso da interpolação. Este processo é realizado na fase de processamento da imagem, após a conversão dos dados da forma analógica para a digital. Isso exclui os dados dos vários pixels. Nos sensores CMOS, esta operação pode ser realizada no próprio chip, desligando temporariamente a leitura de determinadas linhas de pixels, ou lendo dados apenas de pixels selecionados.

A subamostragem desempenha duas funções. Em primeiro lugar, para compactação de dados - para armazenar mais imagens na memória de um determinado tamanho. Quanto menor o número de pixels, menor o tamanho do arquivo e mais fotos você pode colocar em um cartão de memória ou na memória interna do dispositivo, e com menos frequência você terá que baixar fotos para o computador ou trocar os cartões de memória.

A segunda função desse processo é criar imagens de um tamanho específico para propósitos específicos. Câmeras com um sensor de 2MP são capazes de tirar uma foto de uma foto padrão de 8x10 polegadas. Mas se você tentar enviar essa foto pelo correio, aumentará visivelmente o tamanho da carta. O downsampling permite que você processe a imagem para que pareça normal nos monitores de seus amigos (se você não visar detalhes) e, ao mesmo tempo, envia com rapidez suficiente, mesmo em máquinas com conexão lenta.

Agora que estamos familiarizados com o funcionamento dos sensores e como uma imagem é produzida, vamos mergulhar um pouco mais fundo e tocar nas situações mais complexas que surgem na fotografia digital.

A interpolação da câmera é um aumento artificial na resolução da imagem. É a imagem, não o tamanho da matriz. Ou seja, este é um software especial, graças ao qual uma imagem com resolução de 8 megapixels é interpolada para 13 megapixels ou mais (ou menos). Em uma analogia, a interpolação da câmera é como uma lupa ou binóculos. Esses dispositivos ampliam a imagem, mas não a tornam melhor ou mais detalhada. Portanto, se a interpolação for indicada nas características do telefone, a resolução real da câmera poderá ser menor que a declarada. Não é ruim ou bom, apenas é.

A interpolação foi inventada para aumentar o tamanho da imagem, nada mais. Agora, este é um estratagema de comerciantes e fabricantes que estão tentando vender o produto. Eles usam números grandes para indicar a resolução da câmera do telefone no cartaz publicitário e posicioná-lo como uma vantagem ou algo bom. Não só a resolução em si não afeta a qualidade das fotos, mas também pode ser interpolada.

Literalmente 3-4 anos atrás, muitos fabricantes estavam perseguindo o número de megapixels e de várias maneiras tentaram colocá-los em seus smartphones com o maior número possível de sensores. Foi assim que surgiram os smartphones com câmeras com resolução de 5, 8, 12, 15, 21 megapixels. Ao mesmo tempo, eles podiam tirar fotos como as saboneteiras mais baratas, mas os compradores, tendo visto o adesivo "câmera de 18 MP", imediatamente queriam comprar esse telefone. Com o advento da interpolação, ficou mais fácil vender esses smartphones devido à possibilidade de adicionar megapixels artificialmente à câmera. Claro, a qualidade da foto começou a melhorar com o tempo, mas definitivamente não devido à resolução ou interpolação, mas devido ao progresso natural em termos de desenvolvimento de sensores e software.

O que é interpolação de câmera em um telefone tecnicamente, porque todo o texto acima descreveu apenas a ideia principal?

Com a ajuda de um software especial, novos pixels são "desenhados" na imagem. Por exemplo, para ampliar uma imagem em 2 vezes, uma nova linha é adicionada após cada linha de pixels da imagem. Cada pixel nesta nova linha é preenchido com uma cor. A cor de preenchimento é calculada por um algoritmo especial. A primeira maneira é preencher a nova linha com as cores que os pixels mais próximos têm. O resultado de tal processamento será terrível, mas tal método requer um mínimo de operações computacionais.

O método mais utilizado é outro. Ou seja, novas linhas de pixels são adicionadas à imagem original. Cada pixel é preenchido com uma cor, que, por sua vez, é calculada como a média dos pixels vizinhos. Este método dá os melhores resultados, mas requer mais operações computacionais. Felizmente, os processadores móveis modernos são rápidos e, na prática, o usuário não percebe como o programa edita a imagem, tentando aumentar artificialmente seu tamanho. interpolação da câmera do smartphone Existem muitos métodos e algoritmos avançados de interpolação que estão sendo constantemente aprimorados: os limites de transição entre as cores são aprimorados, as linhas se tornam mais precisas e claras. Não importa como todos esses algoritmos são construídos. A própria ideia de interpolação de câmeras é banal e dificilmente se enraíza em um futuro próximo. Usando a interpolação, não é possível tornar uma imagem mais detalhada, adicionar novos detalhes ou melhorá-la de qualquer outra forma. Somente em filmes uma pequena imagem borrada fica clara após a aplicação de alguns filtros. Na prática, isso não pode ser.
.html

O smartphone tem uma câmera de 8 MPix. O que significa interpolação de até 13 MPix?

    Bom dia.

    Isso significa que seu smartphone irá esticar a foto/imagem tirada com a câmera de 8 MPix para 13 MPix. E isso é feito pelo fato de que pixels reais são separados e outros são inseridos.

    Mas, se compararmos a qualidade da imagem/foto tirada em 13 MP e 8 MP com interpolação de até 13, a qualidade da segunda será visivelmente pior.

    Para explicar de maneira simples, ao criar uma foto, o processador inteligente adiciona seus próprios pixels aos pixels ativos da matriz, por assim dizer, calcula a imagem e a desenha até um tamanho de 13 MP .. Na saída , temos uma matriz de 8 e uma foto com resolução de 13 MP, a qualidade não melhora muito.

    Isso significa que a câmera pode tirar fotos de até 8 MPIX, mas pode aumentar programaticamente fotos de até 12 MPIX. Então aumenta programaticamente, mas a imagem não fica melhor, a imagem ainda será exatamente 8 MPIX. Isso é puramente um truque do fabricante e esses smartphones são mais caros.

    Este conceito implica que a câmera do seu dispositivo ainda tirará fotos em 8 MPIX, mas agora é possível aumentá-lo programaticamente para 13 MPIX. Ao mesmo tempo, a qualidade não se torna melhor. É só que o espaço entre os pixels fica entupido, só isso.

    Isso significa que em sua célula, como eram 8 MPIX, eles continuam os mesmos - nem mais nem menos, e todo o resto é uma jogada de marketing, uma enganação científica das pessoas para vender mercadorias por um preço mais alto e não mais . Esta função é inútil, a qualidade da foto é perdida durante a interpolação.

    Nos smartphones chineses, isso agora é usado o tempo todo, só que um sensor de câmera de 13mp é muito mais caro que 8mp, e é por isso que eles o colocam em 8mp, mas o aplicativo da câmera estica a imagem resultante, como resultado, a qualidade destes 13mp será visivelmente pior se você olhar para a resolução original.

    Na minha opinião, essa função geralmente é inútil, pois 8mp é suficiente para um smartphone, em princípio, 3mp é suficiente para mim, o principal é que a própria câmera é de alta qualidade.

    A interpolação de câmeras é um truque do fabricante, então eles inflacionam artificialmente o preço de um smartphone.

    Se você tiver uma câmera de 8 MPIX, ela poderá tirar uma foto correspondente, a interpolação não melhora a qualidade da foto, simplesmente aumenta o tamanho da foto para 13 megapixels.

    O fato é que a câmera real nesses telefones é de 8 megapixels. Mas com a ajuda de programas internos, a imagem é esticada para 13 megapixels. Na verdade, não chega aos 13 megapixels reais.

    A interpolação de megapixels é um tipo de software que borra uma imagem. Pixels reais são separados e outros adicionais são inseridos entre eles, com a cor do valor médio das cores separadas. Auto-engano inútil e sem sentido. A qualidade não melhora.

  • A interpolação é uma maneira de encontrar valores intermediários

    Se tudo isso for traduzido para uma linguagem mais humana, aplicável à sua pergunta, resultará o seguinte:

    • o software pode processar (ampliar, esticar)) arquivos de até 13 MPIX.
  • Até 13 MPix - pode ser 8 MPix reais, como o seu. Ou 5 MPix reais. O software da câmera interpola o produto gráfico da câmera em até 13 MPix sem aprimorar as imagens, mas ampliá-las eletronicamente. Simplesmente falando, como uma lupa ou binóculos. A qualidade não muda.