Apresentação
Este Manual de Fotografia Digital é constituído por oito capítulos, cada um deles
subdividido em vários tópicos.
Não podemos esquecer ainda que a fotografia digital também é ideal para aplicações
científicas. De facto, em astronomia, os sensores digitais já estão sendo usados há anos,
até mesmo no telescópio orbital Hubble. Também nos microscópios estão sendo
utilizados sensores digitais.
A utilização da câmara digital, apesar de incorporar novidades, não exige muito esforço
para adaptação. Vamos relacionar as principais semelhanças e diferenças:
• Nas câmaras digitais não se utilizam filmes, e sim um cartão de memória para
armazenamento das imagens. Esse cartão permite que se grave, copie e apague
(delete) arquivos de imagens (inclusive vídeo).
• A luz do flash funciona quase como numa câmara comum, e dependendo do
modelo da câmara digital, pode vir embutido no corpo e/ou utilizando um flash
externo através de conexão por sapata ou cabo de sincronismo (a diferença,
tecnicamente, é que na fotografia digital existe um pré-disparo para avaliar a luz
branca, ou whitepoint, o que obriga ao uso de flashes especiais)
3
As câmaras digitais, diferenciando ainda das tradicionais, vêm equipadas com um cabo
(geralmente USB) para conexão da câmara a um computador, para transferência das
imagens, mais uma ou mais baterias recarregáveis de longa duração, um cabo de áudio e
vídeo que pode inclusive ser conectado a uma aparelho de TV ou videocassete, e o
cartão de memória (existem vários tipos que abordaremos adiante) onde as imagens são
armazenadas.
Conceitos e procedimentos
Uma grande fotografia começa quando se reconhece uma grande cena ou motivo. Mas
reconhecer uma grande oportunidade não é o suficiente para fotografá-la; o fotógrafo
deve estar preparado. E isso envolve o conhecimento de sua câmara de modo a
fotografar o que se vê.
Automatismo
• Autofoco. A área que estiver no centro da imagem será utilizada pela câmara
como ponto de nitidez principal. O quanto se pode focar dependerá da câmara
que se estiver usando.
• Autoexposição. A autoexposição programada pela câmara mede a luz reflectida
pela cena e usa a leitura para estabelecer a melhor exposição possível.
• Autoflash. Se a luz estiver muito fraca, o sistema de autoexposição irá disparar o
flash da câmara para iluminar a cena. Se o flash for disparado, uma lâmpada de
aviso na câmara, geralmente vermelha, irá piscar quando você pressionar o
disparador metade do caminho.
• Balanço de luz (White balance). O colorido de uma fotografia será afectado pela
cor da iluminação que afecta a cena, assim a câmara automaticamente ajusta o
balanço de cor para fazer que os objectos brancos na cena apareçam brancos na
foto.
4
O obturador e a exposição
Apesar das câmaras digitais poderem seleccionar qualquer fracção de segundo para uma
exposição, há uma série de ajustes que têm sido tradicionalmente utilizados quando se
usa uma câmara em modo manual (que não podem ser feitas em algumas câmaras
digitais simples). A velocidade tradicional de disparo (listada a seguir das velocidades
mais rápidas às mais lentas), incluem 1/1000, 1/500, 1/250, 1/125, 1/60, 1/30, 1/15, 1/8,
1/4, 1/2, e 1 segundo (em câmaras mais sofisticadas podem chegar a 1/35.000 num
extremo e no outro ficar o obturador aberto pelo tempo que o fotógrafo quiser (Pose B
[bulb]).
O momento certo
Vários Fotógrafos tornaram-se famosos por capturar sempre “o momento certo” quando
as acções acontecem e apenas um único momento a torna interessante. Para isso
precisavam estar sempre prontos. Nunca se atrapalhar com controlos e oportunidades
perdidas. A grande maioria das câmaras digitais tem um sistema de disparo automático
que deixa o fotógrafo livre de preocupações, mas por outro lado essas câmaras têm
problemas que torna os momentos decisivos mais difíceis de serem obtidos.
Nas câmaras digitais mais simples, amadoras, acontece uma demora entre o momento
de pressionar o disparador e a realização da fotografia. Isto porque, no primeiro
momento em que se pressiona o botão, a câmara rapidamente realiza um certo número
de tarefas. Primeiro limpa o CCD, depois corrige o balanço de cor, mede a distância e
estabelece a abertura do diafragma, e finalmente dispara o flash (se necessário) e tira a
foto. Todos estes passos “gastam” tempo e a acção pode ter já ocorrido quando
finalmente a fotografia é feita. Assim, fotografia de acção com uma câmara digital
amadora (desporto, por exemplo), é praticamente impossível. Somente as chamadas
câmaras avançadas, ou semi-profissionais, mais as SLR Digitais Pro, têm capacidade de
fazer fotos em sequências rápidas inferiores a um segundo.
memória da câmara. Como a imagem precisa de ser processada, uma certa quantidade
de procedimentos são requeridos, e isso pode demorar alguns segundos (que parecerão
uma eternidade para um fotógrafo que precisa fotografar uma acção rápida, já que não
poderá ser feita outra foto enquanto isto tudo não for processado).
Mesmo nas câmaras SLR digitais, com mais recursos, pode ocorrer uma limitação na
quantidade de fotos que se tira em sequência, em função do tempo que a câmara
necessita para gravar a imagem num cartão de memória (o que pode depender da
velocidade de gravação e leitura do próprio cartão). Por exemplo, uma câmara digital
pode fazer fotos numa velocidade de 3 disparos por segundo, mas até um máximo de 8
imagens.
A abertura do diafragma pode ser mais aberta para permitir mais luz, ou fechada para
deixar passar menos luz. Enquanto o obturador regula o tempo de exposição, a abertura
do diafragma controla a quantidade de luz. Portanto, quanto maior a abertura, mais luz
atinge o sensor de imagem, quanto menor, menos luz atinge o sensor.
Ajustes da abertura são determinados por números (F), e indicam o tamanho da abertura
dentro da lente (no diafragma). Cada número deixa entrar metade da luz da abertura
seguinte, e consequentemente duas vezes mais luz que a anterior. Da maior abertura
possível para a menor, os número f tradicionalmente tem sido f/1, f/1.4, f/1.8, f/2, f/2.4
f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, f/32 e f/45. Nenhuma lente possui toda a gama de
ajustes; por exemplo, uma câmara digital padrão pode vir com uma lente de f/2 a f/16.
A chamada “luminosidade” da lente é definida pela maior abertura, ou seja, no exemplo
acima, f/2. Quanto mais luminosa a lente, melhor a qualidade e mais sofisticado o
sistema óptico (e mais caro o preço).
Atenção para o facto de que quanto maior o número, menor a abertura para a luz.
Assim, f/11 deixa entrar menos luz que f/8, e assim por diante. Um detalhe é que a
abertura maior pode mudar numa lente zoom, de modo a acomodar o sistema óptico,
por exemplo, numa lente zoom de 35 a 200 mm, a abertura máxima (a luminosidade)
pode ser f/2-f/4 (variando de f/2 a f/4 conforme se move o zoom de distância focal de 35
mm para 200 mm).
6
Observação: distância focal é a distância entre a lente e o filme (ou sensor). Conforme
essa distância, a imagem parecerá mais próxima ou mais distante. Uma lente zoom
permite diferentes distâncias focais, mudando assim a proximidade dos objectos na foto.
Quando se abre um obturador, ao invés de expor um filme, na câmara digital ele recebe
a luz num sensor de imagem – um dispositivo electrónico de estado sólido. Como se viu
anteriormente, o sensor de imagem contém uma grade de pequenas foto células.
Conforme a lente foca a cena no sensor, algumas foto células gravam as luzes mais
fortes, outras as sombras, enquanto terceiras os níveis de luzes intermediárias.
Cada célula converte então a luz que cai sobre ela numa carga eléctrica. Quanto mais
brilhante a luz, mais alta a carga. Quando o obturador fecha e a exposição está
completa, o sensor recorda o padrão gravado. Os vários níveis de carga são então
convertidos para números binários que podem ser usados para recriar a imagem.
Uma vez que o sensor tenha capturado a imagem, esta precisa ser convertida, ou seja,
digitalizada, e depois armazenada. A imagem armazenada no sensor não é lida de uma
vez, mas em partes separadas. Existem dois modos de se fazer isso – usando
“digitalização entrelaçada” (interlaced) ou progressivo.
O objecto move-se, ou pelo menos a câmara poderá mover-se num curto espaço de
tempo. Também a profundidade de campo será afectada. A conjugação destes factores,
e o controle sobre eles, é que fazem a diferença entre fotos convencionais e fotos de
qualidade.
7
• Para objectos em movimento rápido, será necessária uma velocidade maior para
congelar o movimento (embora a distância focal das lentes, a proximidade do
objecto e a direcção do movimento também afectem o resultado final da
fotografia)
• Para uma máxima profundidade de campo, com a cena nítida do mais próximo
ao mais longínquo, será necessária uma abertura de diafragma menor (embora a
distância focal da lente e a distância aos objectos do cenário também afectem)
Um dos factores que fazem da fotografia algo tão fascinante é a hipótese que temos de
interpretar a cena do nosso ponto de vista. Controles de velocidades de obturador e de
abertura são dois dos modos mais importantes de fazer fotografias únicas.
Uso do flash
A qualidade da imagem
Fugindo do sistema das câmaras tradicionais que utilizam filmes (processos químicos
baseados em halogenetos de prata) para gravar e armazenar uma imagem, as câmaras
digitais usam um equipamento chamado sensor de imagem (image sensor). Trata-se de
chips de silício do tamanho de uma unha, também conhecidos como CCD (Charge-
Coupled Device), que contêm diodos fotossensíveis, ou foto células. No curto espaço de
tempo em que o obturador é aberto, cada foto célula grava a intensidade ou brilho da luz
que a atinge por meio de uma carga eléctrica; quanto mais luz, maior a carga. O brilho
gravado por cada foto célula é então armazenado como uma série de números binários
que podem ser usados para reconstruir a cor e o brilho dos pontos do monitor ou da tinta
que imprimirão a imagem a partir de uma impressora.
OS INVENTORES
Quanto mais foto células e consequentemente mais pixels, melhores serão os detalhes
gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer
imagem digital, chegará um momento em que os pixels vão começar a aparecerem
multifacetados (a esse efeito chama-se pixelização). Portanto, quanto mais pixels
existirem numa imagem, mais ela aceitará ampliações com qualidade; quanto menos
pixels, menor a ampliação possível.
10
Portanto, aqui está a diferença básica entre modelos de câmaras digitais (e seus preços):
a capacidade de resolução da imagem (e sua subsequente qualidade e tamanho final).
Outras diferenças são pertinentes à quantidade de recursos disponíveis na câmara e seu
grau de automação ou possibilidade de ajustes manuais.
Voltando a falar sobre resolução, como vimos, os sensores de imagens contêm uma teia
(ou grade) de foto células, cada uma delas representando um pixel na imagem final -
assim a resolução de uma câmara digital é determinada pela quantidade de foto células
que existem na superfície de seu sensor. Por exemplo, uma câmara com um sensor no
qual cabem 1600 (largura) x 1200 (altura) foto células gera uma imagem de
1600 x 1200 pixels. Então, para efeito de terminologia e definição da capacidade de
uma câmara, dizemos simplesmente que ela tem uma resolução de 1600 x 1200 pixels,
ou 1,92 megapixels.
Actualmente as câmaras mais simples geram arquivos de 640 x 480 pixels, enquanto
câmaras de capacidade média estão por volta de 1600 x 1200 pixels, e câmaras de topo
de gama produzem imagens de 2.560 x 1.920 pixels (perto de 5 megapixels) ou mais.
Importante notar que isto se refere às câmaras amadoras, pois algumas profissionais já
produzem mais de seis milhões de pixels. Quanto maior a capacidade de resolução,
geralmente maior também o preço.
Outro detalhe importante é que quanto maior a imagem em pixel, maior o tamanho do
arquivo resultante. Por isso, normalmente as câmaras digitais possuem uma forma de
regular o tamanho do arquivo, dando a opção ao fotógrafo de escolher o modo de
resolução. Assim, se alguém vai capturar imagens para a WEB e possui uma câmara de
3.3 megapixels, pode regulá-la para gerar imagens de apenas 640 x 480 pixels, bem
mais fáceis de armazenar e de trabalhar. Por exemplo, uma câmara de alta resolução,
2048 x 1560 pixels, gera uma imagem média em arquivo JPEG (depende das
tonalidades e intensidade de luz retratadas) de aproximadamente 1,2 MB (megabytes).
Já na resolução de 640 x 480 pixels, no mesmo formato JPEG, gerará um arquivo de
apenas 220 Kb (kilobytes), ou seja, menos de 1/5 do tamanho.
Apesar de quanto maior o número de foto células num sensor melhores imagens serem
produzidas, acrescentar simplesmente foto células a um sensor nem sempre é fácil e
pode resultar em problemas. Por exemplo, para se colocar mais foto células num sensor
de imagem, o sensor precisaria ser maior ou as foto células menores. Chips maiores
com mais foto células aumentam as dificuldades de construção e os custos para o
fabricante. Foto células menores, por outro lado, serão menos sensíveis e irão capturar
menos luz que as de um chip normal. Concluindo, colocar mais foto células num sensor,
além da sua complexidade e alto custo, acaba por resultar em arquivos maiores, de
difícil armazenamento. Por isso verifica-se a constante corrida tecnológica entre os
fabricantes na busca de sensores de maior resolução, com qualidade e preços
competitivos.
A tecnologia Foveon
Em 2002, surgiu um novo tipo de sensor digital no mercado, o Foveon X3, que por
enquanto equipa apenas uma câmara digital, a Sigma SD9. Este sensor, do tipo CMOS,
é uma verdadeira revolução no mercado, pois apresenta os sensores de imagem em
camadas, e não mais num único nível com três foto células diferentes para capturar cada
cor (como os CCDs comuns). A vantagem deste sistema, que aproveita a capacidade do
silício de absorver as ondas de luz, é que permite ao sensor funcionar como um filme
fotográfico (que também captura a luz em camadas, embora tenha como sensor uma
película química). Assim, cada pixel é formado por todas as cores, e não por cálculos e
interpolações entre as informações colhidas por três foto células diferentes (o que gera
perdas). Teoricamente, com isso obtêm-se mais resolução, nitidez na imagem, e melhor
amplitude de cores, igualando ou até superando a qualidade da fotografia convencional.
O Tamanho da Imagem
Vamos começar por uma pequena revisão do visto até aqui. Como já sabemos, a
qualidade da fotografia digital, tanto impressa como a apresentada no monitor, depende
principalmente do número de pixels utilizados para criar a imagem (factor também
conhecido como resolução). Esse número, como vimos, é determinado pela quantidade
de foto células existentes no sensor de imagem da câmara (algumas câmaras usam o
artifício de acrescentar pixels “artificiais”, influenciando o tamanho da imagem, mas na
prática isso não funciona; apenas aumenta o tamanho da imagem à custa da perda de
qualidade).
Quanto mais foto células e consequentemente mais pixels, melhores serão os detalhes
gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer
imagem digital, chegará a um ponto em que os pixels vão aparecer multifacetados (esse
efeito se chama pixelização). Portanto, quanto mais pixels existirem numa imagem,
12
mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação
possível.
As questões acima são pertinentes, pois é preciso cuidado com algumas propagandas de
câmaras digitais e também de scanners. Acontece que existem dois tipos de resolução, a
óptica e a interpolada. A resolução óptica é o número absoluto de pixels que o sensor da
imagem consegue capturar fisicamente durante a digitalização. Ou seja, corresponde
exactamente à realidade. Contudo, por meio de software incorporado na câmara
(qualquer programa editor de arquivos de imagem também pode fazer isso), é possível
“acrescentar” mais pixels fictícios, num processo chamado “interpolação”. Para isso o
software avalia os pixels ao redor de cada pixel que o rodeia, para “imaginar” como
deveria ser um novo pixel vizinho em termos de cor e brilho. O que na prática nunca dá
certo - as imagens assim geradas apresentam geralmente inúmeras deficiências. O
importante é ter em mente que a resolução interpolada não adiciona nenhuma
informação à imagem – só acrescenta pixels que fazem o arquivo ficar maior. A
qualidade final da fotografia fica geralmente comprometida.
Contudo, como toda a regra tem excepção, em nível de software hoje em dia já existe
um que realmente consegue a façanha. Ele não “imagina” nada. Realmente cria pixels
que funcionam. Só que não está embutido em nenhuma câmara digital, é vendido
somente para instalação em computadores (Genuine Fractals).
Bits e Bytes
Já os bytes são grupos de 8 bits (agrupados para fim de processamento). Como cada
grupo de 8 bits também tem dois estados (ligado-desligado), e o total de informação
contido é 28 , ou seja, 256 combinações possíveis.
É interessante acrescentar ainda que kilobyte é uma medida que representa mil bytes,
enquanto um megabyte corresponde a um milhão de bytes.
Resoluções de Monitor
13
A resolução de um monitor é definida pela sua largura e altura em pixels. Por exemplo,
um monitor pode apresentar no ecrã 640 x 480 pixels, 800 x 600, 1024 x 768 pixels e
assim por diante. O primeiro número é o número de pixels ao longo do ecrã (largura), e
o segundo o número de linhas.
resolução de 72 dpi, uma impressora jacto de tinta caseira de 600 a 1400 dpi, e uma
impressora jacto de tinta comercial de 1400 a 2880 dpi ou mais. Contudo, é importante
diferenciar entre a resolução da imagem e as resoluções dos dispositivos de saída.
1 Isso gera confusão para muita gente, pois quando se salva um arquivo de imagem, a resolução é dada
em pixels por polegada, sendo um arquivo de alta resolução geralmente igual a 300 pixels por polegada,
ou seja, 300 dpi (que correspondem à capacidade máxima de impressão para impressoras de qualquer
tipo). Ora, numa impressora jacto de tinta, cada pixel pode ser representado por vários pontos de
impressão, e portanto, mesmo que a resolução da impressora seja de 2880 dpi, na verdade essa
resolução diz respeito apenas a recursos para melhor representar cada pixel na resolução padrão de 300
dpi.
Como se sabe, a luz não passa de uma forma de energia electromagnética, relacionada
com o rádio, o radar, os raio-x, etc. Ela se propaga a partir de uma fonte de luz (de
lâmpadas ao nosso Sol) em movimentos rectilíneos, descrevendo ciclos em forma de
ondas regulares que vibram perpendicularmente à direcção de sua propagação.
A luz, vista pelos olhos humanos, constitui uma faixa relativamente estreita de sua
energia magnética irradiada, que se distribui aproximadamente entre 400 e 700 nm2
14
(nanómetros). Esta faixa constitui o chamado espectro visível, e dentro dele cada
comprimento de onda produz um estímulo diferente na parte posterior de nossos olhos –
assim são percebidas as cores. A mistura de todos os comprimentos de onda do espectro
visível é o que chamamos de luz branca.
Antes dos 400 nm existe a chamada luz ultravioleta, invisível para a vista humana. A
partir dos 400 nm, a luz passa a ser perceptível, e é de um violeta profundo, tornando-se
azul na medida em que o comprimento da onda se aproxima de 450 nm. Esse azul vai
cedendo lugar à um verde azulado por volta dos 500 nm, e a partir dos 580 nm começa a
surgir o amarelo. Já nos 600 nm o amarelo vai passando para o laranja, e perto dos 650
nm, o vermelho vai escurecendo paulatinamente, até que a vista humana não consegue
mais enxergar a luz, que passa ao infra-vermelho.
É importante notarmos que tudo o que vemos (e pode ser fotografado), dependo dos
objectos que reflectem os raios de luz, e que são tanto mais visíveis quanto mais
próximos estiverem de uma fonte luminosa. Isso tem consequências práticas
importantes para a fotografia em geral, principalmente em função da exposição correcta
(abertura do diafragma e velocidade do obturador), e no caso da fotografia digital não é
diferente, em função da sensibilidade necessária para um sensor de imagem capturar as
cores. Existem diversas implicações no modo como as foto células que compõem um
sensor percebem a luz, e como o chip do sensor processa essas informações, conforme
veremos adiante.
Um dos grandes problemas da fotografia em geral, desde os seus primórdios, sempre foi
o da captura correcta das cores tais como as vemos na natureza, pois isso é praticamente
impossível de ser reproduzido por material fotográfico. A amplitude de cor existente na
natureza não pode simplesmente ser captada por nenhum mecanismo humano, excepto
os nossos próprios olhos.
Nas primeiras emulsões fotográficas, em branco e preto, apenas os objectos azuis eram
percebidos pelo filme, ficando os de outras cores invisíveis. Mais tarde surgiu o filme
ortocromático, que chegava até o verde, ignorando os tons laranja e vermelho.
Finalmente, com o pancromático, as fotos passaram a cobrir quase todas tonalidades,
mas com limitações. Os filmes a cores também sempre sofreram do mesmo problema,
principalmente na hora de copiar a imagem em papel fotográfico. De qualquer modo,
até hoje nenhum tipo de filme conseguiu cobrir com perfeição as cores da natureza.
15
RGB
As cores num monitor são baseadas em três cores primárias – vermelho, verde e azul
(em inglês; red, green and blue, ou RGB). Este modo é chamado aditivo, porque quando
as três cores são combinadas em quantidades iguais, formam o branco. O sistema
aditivo é utilizado sempre que a luz é projectada para formar cores, como em monitores.
Assim, num monitor, cada pixel é composto por um grupo de três pontos, cada um de
uma cor (vermelha, verde e azul).
O grande problema com os monitores para a fotografia digital, é que existem centenas
de modelos de monitores, cada um com um modo próprio de apresentar cores no ecrã.
É importante estudarmos o que fazer a respeito, pois de repente, vemos uma fotografia
fabulosa no nosso monitor, e quando é impressa (seja numa impressora caseira ou num
laboratório fotográfico), temos uma decepcionante fotografia descolorida ou com cores
demasiado fortes...
mais contraste e riqueza de cores do que as fotos impressas. Isto acontece porque os
slides são vistos por luzes transmitidas (à transparência), enquanto as fotos são vistas
por luz refletida. O mesmo é verdadeiro para um ecrã de um monitor e uma imagem
impressa.
Os monitores não precisam usar meio-tons para criar cores porque podem variar a
intensidade da cor em cada pixel (a única impressora que consegue isso é a que utiliza
um sistema chamado dye sub, ou sublimação).
Para conseguir imagens impressas mais próximas do resultado do ecrã, é preciso fazer
testes, imprimir uma fotografia e depois ir ajustando as cores no ecrã para se
assemelharem à foto impressa (pelos ajustes de brilho e contraste). Mesmo assim isso
pode ser muito complicado, principalmente se as tonalidades não conferirem (cada
monitor funciona com sua própria temperatura de cor, o que gera tons mais azulados
(frios) ou mais avermelhados (quentes). Para superar estes problemas, só utilizando um
sistema de gerenciamento de cor, ou CMS.
De qualquer modo, existem cores que nunca aparecem correctamente, do mesmo modo
que dificilmente um laboratório de fotografia tradicional envia cópias idênticas de um
mesmo negativo em datas diferentes... A solução é o fotógrafo se conformar com as
pequenas diferenças - afinal, desde que a fotografia existe, este problema nunca foi
completamente solucionado.
Sistemas de gerenciamento de cor são projectados para manter as cores das imagens o
mais consistentes possíveis entre os processos de digitalização da imagem, apresentação
no ecrã e impressão. Isto pode ser uma dor de cabeça para muita gente, e sem dúvida é o
maior entrave ao uso da imagem digital por parte dos leigos. Um sistema de
gerenciamento de cor adopta um padrão independente em termos de cores como RGB
ou CMYK. Existem muitos sistemas, mas os mais conhecidos são o Microsoft Image
Color Management (ICM), para computadores PC, e o ColorSync para computadores
Mac.
Ambiente de trabalho
17
As cores mudam conforme a fonte de luz. Até mesmo a luz do dia muda conforme o
sol vai percorrendo o seu trajecto no céu. Se as cores mudam tão facilmente, como lidar
com elas? Para isso é preciso estabelecer condições bem controladas e atribuir números
a essas condições.
O ideal ao se trabalhar num determinado monitor, seria utilizar sempre a mesma luz
ambiente. É costume editar as fotografias digitais com a lâmpada comum do tecto, de
100 watts, se abrir-mos a janela ou trocar-mos a lâmpada por uma de 60 watts,
estaremos a comprometer o gerenciamento da cor. Pequenas mudanças de luz ambiente
geram grandes diferenças nas cores.
Uma vez que o modelo de cor tenha sido estabelecido (monitor e luz ambiente), uma
parte do trabalho está feita, e quando a fotografia muda de um ambiente de cor para
outro? Por exemplo, quando passa do monitor (modelo RGB) para a impressora
(modelo CMYK)? Um perfil de cor é usado justamente para relacionar diferentes
modelos de cores como estes. Então, para tudo funcionar correctamente, o software
usado no computador para visualizar e optimizar as fotografias deve ser capaz de
incorporar a transferência de perfis de cores das imagens.
Por exemplo, quando uma luz vermelha no ecrã é enviada para a impressora como uma
série de números 255,0,0 (valores que identificam a cor para o monitor, sendo cada cor
representada numa escala de 0 a 255), a impressora usa o perfil de modo que a cor será
impressa correctamente. Este valor deve ser convertido para CMYK (isso é feito por
uma tabela), e seguindo o exemplo acima do vermelho, para 0,100,100,0 (valores de cor
para impressoras variam de 0 a 100 para cada cor, mais preto).
Se o teu monitor já vem com um driver adequado, o Windows utiliza o espaço de cor
desse monitor. Caso contrário, convém procurar um driver no site do fabricante, na
Internet. Se não for possível, a solução é estabelecer um padrão do modo mais difícil,
manualmente, através de testes com impressora.
Com o espaço de cor do monitor definido, o software editor de imagens, que por sua
vez deve reconhecer este ambiente do monitor, e ao abrir um arquivo digital transferido
de uma máquina fotográfica, imediatamente o converter para o espaço de cor adequado
do computador, ou fazer as conversões necessárias para apresentar as cores
correctamente.
Para imprimir, a mesma coisa. Será necessário configurar o software editor de imagens
para usar um perfil de cor da impressora, assim, na hora de imprimir, o programa
converte novamente as informações de cores para que sejam impressas.
Por outro lado, um software editor de imagens é indispensável para quem quer trabalhar
seriamente com fotografia digital. Mais adiante falaremos do Adobe Photoshop, sem
dúvida um dos melhores programas do género, para optimizar as fotografias tiradas por
câmaras digitais. Além deste software, podemos citar outros interessantes, como o Paint
Shop Pro, o PhotoBrush, o Corel Photo-Paint, e a própria versão light do Photoshop,
direccionado para amadores, o Adobe Elements.
Cores Subtractivas
Na saída da impressora, cada pixel é formado por pequenos pontos de cian, magenta,
amarelo e tinta preta. Quando estes pontos se sobrepõem, várias cores são formadas.
Já os sensores de imagens das câmaras digitais, que trabalham com o modo de cores
RGB, o mesmo dos monitores, gravam apenas em escala de cinzas – uma série de 256
tons de cinza que vai do branco puro ao preto puro. Basicamente, só capturam o brilho.
Como então os sensores capturam cores quando tudo o que fazem é gravar cinzas? A
resposta está no uso de filtros azuis, verdes e vermelhos para separar as luzes reflectidas
de um objecto colorido. Existem alguns modos de se fazer isto:
• Três partes separadas do sensor de imagem podem ser usadas, cada uma com
seu próprio filtro. Deste modo cada parte do sensor captura a imagem numa
única cor.
• Três exposições separadas podem ser feitas, mudando o filtro de cada vez. Deste
modo, as cores são “pintadas” no sensor.
• Os filtros podem ser colocados em foto células individuais para que cada uma
capture uma das cores. Neste modo, 1/3 da foto é capturada em luz vermelha,
outro 1/3 em azul e o 1/3 restante em verde.
19
Canais de Cores
Cada uma das cores de uma imagem pode ser controlada independentemente e isto é
chamado de canal de cor. Se um canal de 8 bits de cor é usado para cada cor num pixel
– vermelho, azul e verde – as três cores combinadas somam 24 bits de cor. Na
sequência na página anterior, observamos três imagens de uma mesma fotografia, cada
20
uma delas apresentada num único canal de cor (utilizou-se o Photoshop para este
exemplo). Observa as diferenças, de como o computador trata cada um dos canais.
Armazenamento da imagem
Imagens em bitmap são formadas por pixels e são definidas por suas dimensões (em
pixels) bem como pelo número de cores incorporadas. Por exemplo, quando se amplia
uma pequena área de uma imagem de 640 x 480 pixels, os pequenos pixels misturam-se
aos tons contínuos do mesmo modo que as fotografias ampliadas de um jornal
apresentam uma mistura de pontos indefinidos. Cada um dos pequenos pixels pode ter
uma escala de cinza ou uma cor. Utilizando-se 24 bits de cor, cada pixel pode assumir
qualquer uma das 16 milhões de cores possíveis. Todas as fotografias e pinturas digitais
são em bitmaps, e qualquer tipo de imagem assim pode ser salva ou exportada. De
facto, quando se imprime qualquer formato de imagem numa impressora laser ou jacto
de tinta, a imagem é primeiro convertida (rasterized) tanto pelo computador como pela
impressora em bitmap, para que seja impressa em forma de pontos.
Formatos de imagens
Como formatos próprios são limitados, os formatos para transferência são projectados
para possibilitar que as imagens possam ser abertas por praticamente qualquer tipo de
programa. Alguns tornaram-se assim padrões – qualquer aplicativo pode abri-los e
salvar imagens com a sua extensão (por ex: JPEG).
Compressão
Existem dois modos de compressão – com ou sem perda – e a fotografia digital utiliza
os dois modos.
A chamada lossless compression (menos perda) comprime uma imagem de tal modo
que a qualidade é mantida. Embora pareça a ideal, não proporciona redução
significativa do arquivo, que geralmente fica reduzido a um terço do tamanho original.
O padrão mais utilizado é o LZW (Lempel-Ziv-Welch), que tanto em arquivos GIF
como TIFF produz compressão de 50 a 90%.
A maioria das câmaras digitais utiliza o sistema de compressão com perda, já que o
espaço para armazenagem de imagens é extremamente complicado e caro (falaremos
dos cartões adiante) e, em geral, a qualidade é mantida por meio do JPEG em qualidade
máxima de compressão. O formato anula informações não importantes na imagem. Por
exemplo, se grandes áreas do céu são azuis, só o valor de um pixel precisa ser salvo –
quando a imagem é aberta, aquele valor é aplicado para todo o conjunto (por isso os
tamanhos de arquivos comprimidos variam muito, pois dependem de quanta informação
de cor existe na imagem).
22
Contudo, como a qualidade é afectada pelo grau de compressão, para o fotógrafo mais
exigente e para profissionais, as câmaras mais avançadas permitem que se opte pela
imagem em TIFF (o que obriga a um cartão de memória de grande capacidade).
JPEG
A primeira é que o JPEG utiliza um esquema de compressão que sofre perdas, mas o
grau de compressão (e consequente perda de qualidade) pode ser ajustado. Em resumo,
muita compressão, muita perda, pouca compressão, pouca perda.
A segunda é que este formato suporta 24 bits de cores. Já o formato GIF, o outro tipo de
arquivo muito utilizado na Internet suporta apenas 8 bits.
Um detalhe importante é que se uma fotografia em JPEG for aberta e depois salva
novamente, cada vez que é salva torna a ser comprimida, o que gera mais perda.
Portanto, a perda de qualidade é acumulativa. Para evitar que uma imagem se vá
deteriorando, deve-se abri-la e tornar a salvá-la o menos possível. Uma recomendação
quando se trabalha com imagens em JPEG é salvar um original em TIFF (formato sem
compressão como veremos adiante), e sempre que for necessário trabalhar nesse
formato, para somente no momento de enviar a foto ou disponibilizá-la por outros
meios (como a WEB) gravar a imagem em JPEG.
O formato de imagem JPEG pouco tem mudado desde que surgiu. Contudo,
recentemente trabalhou-se num novo projecto de formato JPEG pelo Digital Imaging
Group (DIG).O novo formato JPEG tem 20% a mais de compressão com menos perda
de qualidade, ou seja, ficou ainda melhor. Contudo, ainda não está sendo utilizado pelos
softwares mais importantes. Sua extensão pode ser J2K ou JP2.
TIFF
23
O formato TIFF (Tag Image File Format), foi originalmente desenvolvido para salvar
imagens capturadas por scanners e para uso em programas editores de imagens. Este
formato, sem compressão e sem perda de qualidade, é largamente aceite e praticamente
reconhecido por qualquer software e sistema operacional, impressoras, etc. Além disso,
é o formato preferido para aplicações em edição electrónica. O TIFF também é um
modo de cores de 24 bits.
CCD RAW
Quando um sensor de imagem captura informação que gera uma imagem, algumas
câmaras digitais permitem que se salve um arquivo não processado, ainda “cru” (por
isso é chamado RAW). Este formato contém tudo o que a câmara digitalizou. O motivo
para o seu uso é livrar o processador da câmara digital da tarefa de realizar os cálculos
necessários para a optimização da imagem digital, possibilitando que isso seja feito no
computador. Uma imagem em RAW terá, depois de ser aberta no computador e
optimizada, de ser salva num formato qualquer para ser utilizada.
Uma vantagem deste formato é gerar um arquivo menor do que no formato TIFF (pelo
menos 60%). Como um computador terá muito mais capacidade de processamento que
a câmara, a imagem final também terá melhor qualidade do que se for directamente
salva pela própria câmara em formatos JPEG ou TIFF. Contudo, vale notar que o
fotógrafo deverá ter domínio das técnicas de optimização de imagem para poder
aproveitar este formato.
GIFs (.GIF)
Mais como curiosidade, existem duas versões do GIF na Web; o original GIF 87a e uma
nova versão mais nova, a 89a. Ambas utilizam um processo chamado interlacing
(entrelaçado) – as imagens são armazenadas em quatro camadas ao invés de uma, como
na versão antiga. Assim, quando a imagem é exibida num browser, vai surgindo uma
linha de cada vez. Outra característica importante é que o fundo pode ser transparente,
para isso é preciso especificar qual a cor da tabela a ser considerada; quando o browser
abrir a imagem, substituirá a cor seleccionada como transparente pela que estiver sendo
apresentada na janela do browser sob a imagem.
Quanto à animação, uma imagem em GIF consegue simular um pequeno filme, o que
pode tornar interessante para uso com fotos. Só que a resolução tem que ser baixíssima,
24
e a qualidade muito ruim, já que apenas 256 cores serão apresentadas (ou até menos).
Caso contrário, será muito demorado de carregar a imagem e o visitante (na WEB)
pode-se desinteressar.
Cartões de memória
Muito bem, agora que já se tem uma ideia de como uma máquina fotográfica digital
captura e salva uma imagem, vamos tocar num ponto muito importante: o
armazenamento das fotografias.
Gravar as fotografias (como arquivos de imagem) é uma das tarefas mais difíceis e
(ainda) limitadas para o equipamento digital. O problema é que as fotografias em alta
resolução, com qualidade para serem impressas em tamanhos razoáveis, formam
arquivos muito grandes.
Este é, de facto, ainda um dos factores não resolvidos da fotografia digital. Para se ter
uma melhor ideia, vamos relacionar formatos de arquivos, resoluções de fotografias e
tamanhos estimados de arquivos:
Tamanho
Formato Resolução
(estimado)
TIFF 2048x1536 9,0 MB
JPEG 2048x1536 1,2 MB
JPEG 1600x1200 0,7 MB
JPEG 640x480 0,2 MB
Como se observa pela tabela acima, para se tirar 36 fotografias no formato TIFF em alta
resolução (o que corresponderia a quantidade de fotos de um filme tradicional) seriam
necessários 324 MB de espaço num cartão de memória. Contudo, quando a ideia são
fotografias para a Internet, tipo 640 x 480 pixels (que representam arquivos por volta de
10 kbs), pode-se tirar centenas de fotos num cartão de memória de 8 MB.
Com as câmaras tradicionais, o filme é utilizado tanto para gravar como para
armazenar a imagem. Com câmaras digitais, equipamentos separados realizam essas
duas funções. A fotografia é capturada pelo sensor de imagem, e depois gravada num
equipamento de armazenamento.
Qualquer que seja o tipo utilizado, a câmara permite que se remova o equipamento
quando este fica com o espaço de armazenamento completo e que se insira outro.
O número de imagens que se podem gravar até completar o espaço disponível depende
de uma série de factores:
25
O número de imagens a ser armazenada é importante porque uma vez que se atinja esse
limite não há outra escolha senão parar de tirar fotografias ou apagar algumas já feitas
de modo a criar espaço. O quanto de espaço o fotógrafo precisa depende parcialmente
do uso que pretende da câmara.
Armazenamento de imagens
Em comum:
Diferenças:
• Discos magnéticos tem partes móveis, enquanto cartões de memória flash não
• Discos magnéticos são geralmente mais baratos (por foto armazenada) e mais
rápidos
• Cartões de memória são menores, mais leves e menos sujeitos a danos
Cartões de memória flash consomem pouca energia, ocupam pouco espaço e são muito
robustos. São também muito convenientes, fáceis de transportar e trocar conforme o
necessário.
• PC Cards
• CompactFlash
• SmartMedia
• xD Cards
• MemorySticks
• Multimedia Cards
Seja como for, eles eram usados na maioria dos computadores tipo notebook e logo em
algumas câmaras. Mais ou menos do tamanho de um cartão de crédito, PC Cards
vinham com uma grande variedade de modelos e espessuras, mas eram os do tipo I e II
os usados para memória flash.
Cartões CompactFlash
Cartões SmartMedia
27
A Sony desenvolveu um novo tipo de cartão de memória flash chamado Memory Stick.
A versão actual tem capacidade para até 128 MB. É um formato próprio para câmaras
Sony
Cartões Multimédia
Um cartão Multimédia pesa menos que duas gramas e é do tamanho de um selo postal.
Idealizado inicialmente para telefones celulares e pagers, outros mercados como
fotografia digital e tocadores de música MP3 o adoptaram principalmente pelo tamanho
reduzido. A capacidade varia muito, e pode chegar até 1 GB
Discos magnéticos
Disquetes
Discos rígidos
Microdrive, um disco rígido do tamanho de um cartão de memória flash, e que pode ter
até 1 GB de espaço para armazenamento.
Transferindo arquivos
Vamos agora ao que mais interessa na prática a um fotógrafo, ou seja, uma vez feita a
foto, como transferi-la para o computador, optimizá-la através de software e depois
armazená-la adequadamente.
Assim, bastará clicar sobre o ícone de E: para aceder ao cartão da câmara directamente
do computador. Depois basta seleccionar e arrastar os arquivos das fotografias (como se
faz para copiar ou mover arquivos entre pastas do Windows, por exemplo) para
transferir as fotos para o disco rígido.
Organizando as fotografias
Quando se fala de imagens digitais num computador, existem dois passos a serem
realizados para quem quer lidar com fotografia: organizar as imagens de modo a
encontrá-las facilmente, ou seja, criar uma espécie de álbum de fotografia virtual, saber
como retocar as imagens para que estas fiquem optimizadas tanto para visualização
como para impressão. Comecemos pela organização das fotografias.
Quem está acostumado a organizar arquivos de texto ou de outro tipo qualquer já tem
noção de alguns princípios de organização. Normalmente criam-se pastas com nomes
adequados para cada assunto, e vão-se colocando os arquivos pertinentes dentro de cada
pasta.
Antes de prosseguirmos, para ver no sistema a cor correcta de uma foto, deve-se
configurar o sistema operacional, como o Windows, para apresentar o modo “True
Color” no ecrã do monitor (se a placa de vídeo suportar). Ir ao painel de controle, e
entrar em propriedades do monitor. Na caixa de diálogo, entrar com a maior capacidade
de cores que tiver o driver da placa (true color, ou 24 bits, ou ainda 36 bits). Em high
color (12 ou 16 bits) a imagem ainda não está ideal.
Imagens em preto e branco requerem somente 2 bits para indicar que pixels serão
brancos e quais serão pretos. Escalas de cinza exigem 8 bits para apresentar 256
diferentes tons de cinza. Imagens coloridas são mostradas utilizando-se 4 bits (16
cores), 8 bits (256 cores), 16 bits (65 mil cores, este é o chamado High Color), e 24 bits
(16 milhões de cores). Algumas câmaras e monitores podem apresentar até 30 ou 36
bits. Esta informação extra serve para melhorar ainda mais as cores, mas é processada,
no final, em 24 bits de cor no máximo. A própria vista humana jamais enxergará esses
milhões de cores que o computador pode oferecer...
Editar as imagens
Para isso, utilizam-se programas específicos para correcção de detalhes, que vão de
problemas simples (como olhos vermelhos, brilho, contraste) a mais sofisticados (como
correcção de cores por canais individuais, etc.).
Ajustando a imagem
Isto afecta não apenas os pixels mudados, mas também numa certa distância.
31
Com 300 dpi a imagem fica correcta para Detalhes sobre a impressão
o olho humano
Para entendermos melhor o processo de impressão de uma imagem digital, em primeiro
lugar é preciso entender que um pixel não tem tamanho ou forma. No momento em que
32
Um pixel torna-se visível no sensor de imagem de uma câmara desde o momento exacto
em que o obturador abre. O tamanho de cada foto célula no sensor pode ser medido,
mas os pixels em si são apenas cargas eléctricas convertidas em números digitais. Estes
números, como qualquer outro número que se imagine, não tem tamanho físico.
Embora os pixels capturados não tenham dimensões físicas, pela quantidade de foto
células existentes sobre a superfície de um sensor pode-se estabelecer uma quantidade
de pixels na fotografia digital.
Como os pixels armazenados num arquivo de imagem não têm tamanho físico ou
formato, não é de estranhar que o número de foto células não indique por si mesmo a
definição da imagem ou mesmo o seu tamanho. Isto porque as dimensões de cada pixel
capturado e a imagem da qual faz parte são determinados pelo equipamento de saída.
Este equipamento de saída (digamos um monitor ou uma impressora), por sua vez, pode
expandir ou contrair os pixels disponíveis na imagem por uma pequena ou grande área
do ecrã ou do papel de impressão.
Se os pixels de uma imagem são comprimidos numa área menor, a nitidez perceptível
ao olho humano aumenta. Imagens em alta resolução apresentadas em monitores ou
impressas parecem mais nítidas porque os pixels disponíveis na imagem são agrupados
numa área menor – não porque existam mais pixels. Se os pixels são ampliados,
passando assim a mesma imagem a cobrir uma área maior, a percepção de nitidez da
imagem diminui. E se aumentarmos a imagem além de certo ponto, os pixels passam a
parecerem quadrados.
A imagem no monitor
Assim, a quantidade de pixels por polegadas (ppi) que aparece num monitor de
computador depende da resolução utilizada, já que serão necessários muito mais pixels
num monitor de 14 polegadas numa resolução de 1024x768 do que numa de 640x480.
Do mesmo modo que a resolução do ecrã afecta o tamanho da imagem, assim acontece
com o tamanho do monitor. Se tivermos um monitor de 14 polegadas e outro de 21
polegadas, e usar-mos a mesma resolução nos dois, digamos, 800x600 pixels, as
imagens aparecerão de tamanhos bem diferentes, pois os pixels (como não têm
dimensão), irão se acomodar para preencher todo o espaço do ecrã. Assim, uma mesma
imagem em 800x600 pixels, no monitor de 14’ aparecerá nítida, enquanto no de 21’
poderá se apresentar sem nitidez nenhuma.
Normalmente o fotógrafo não pode mudar o número de pixels de uma imagem para
assim mudar o tamanho da imagem impressa. Esta tarefa é gerenciada pelo software que
se utiliza para imprimir a imagem. Portanto, a primeira coisa a ser verificada é se a
imagem terá a resolução correcta (de 300 dpi) no tamanho que se pretende imprimir.
Qual o maior tamanho que se pode imprimir, sem perda de qualidade, uma imagem com
2048 x 1536 pixels e 300 dpi?
Uma vez ajustada a largura, qualquer programa ajusta automaticamente também a altura
(1536 pixels). Mas se quisermos fazer a conta, (1536/300=5,12) depois
(5,12x2,54=13,00). Resposta, 13 cms. A fotografia será impressa em alta resolução, sem
perda de qualidade, no tamanho de 17,33 x 13,00 centímetros.
empresas que fornecem o serviço a respeito da resolução com a qual o arquivo deve ser
enviado. Isso pode variar de 125 a 400 dpi, portanto, é bom sempre perguntar a respeito
antes de gravar um CD para envio do material.
Para perceber como as cores são impressas, devemos estudar o sistema CMYK,
utilizado pelas impressoras.
Na maioria das impressoras (dye sub são excepção), cada ponto impresso tem a mesma
densidade de cor. Se uma impressora combinar somente estas cores sólidas, pode ficar
limitada às cores primárias. Para capturar os milhões de cores de uma fotografia, a
impressora tem que usar um recurso para enganar a vista humana, gerando um padrão
aceitável de pontos para visualização. Este processo é chamado de halftoning ou
dithering (meio tom).
As impressoras jacto de tinta funcionam jogando minúsculas gotas de tinta sobre uma
superfície de papel. No mercado actual, esta tecnologia é de baixo custo e indicada para
impressão doméstica ou de baixo volume. Apesar do custo baixo, a qualidade de
impressão, principalmente dos últimos modelos, é excelente, principalmente com papéis
especiais para fotografia.
Embora se possa imprimir fotografias em papel comum, as gotas de tinta serão em parte
absorvidas na folha, como num mata-borrão, perdendo qualidade de cor e tons,
principalmente se o papel for tipo absorvente. O ideal para imprimir fotografias é
utilizar um papel próprio para tal.
Quando se imprimem fotografias coloridas, não existe nada parecido com o resultado
obtido por este tipo de impressora. Produzem imagens fotorealísticas com tons
contínuos como os que são produzidos pelo laboratório de fotografia. As impressoras
deste tipo são recomendadas para profissionais.
35
Finalmente, papéis e tintas têm uma vida útil limitada. Com o tempo, as imagens vão
perdendo a cor. Este é um problema que existe desde os primórdios da fotografia.
Enquanto a imagem desaparece, a memória também desaparece com ela. Contudo, uma
das grandes vantagens da imagem digital hoje é que um arquivo, desde que não seja
apagado de um computador (ou no suporte onde estiver armazenado), não tem como
desaparecer nem perder qualquer qualidade. Portanto, se a imagem impressa e/ou filme
tendem a ter vida curta, a imagem digital não.
Quando a imagem é digitalizada, uma fonte de luz desliza sobre a fotografia (ou
documento impresso). Alguns modelos fazem o contrário, “puxam” o documento pela
fonte. A fonte de luz reflecte a superfície da foto (ou documento), ou passa através do
slide ou negativo, sendo focado por um sistema óptico (lente e espelho).
Alguns scanners são projectados para digitalizar fotografias e documentos – operam por
reflexão. Outros são desenhados para digitalizar transparências (slides e negativos).
Ainda existem os que são basicamente para documentos mas possuem adaptadores para
transparências, contudo, a qualidade neste caso geralmente costuma ser inferior.
Dynamic Range
Cenas do mundo real são cheias de luzes brilhantes e sombras fortes. Estes extremos
são chamados de dynamic range, ou amplitude de cores. Os filmes não têm de modo
algum a amplitude de cores que se observa na natureza, sendo uma tarefa difícil o
capturar uma cena real num filme. E quando o filme (a fotografia) é impressa, perde
ainda mais qualidade. Por isso é melhor digitalizar originais (negativos e slides) do que
imagens já impressas.
O dynamic range de um scanner pode ser medido e determinado num número entre 0.0
(branco) e 4.0 (preto) que indica a capacidade de capturar todos os valores
intermediários. Scanners comuns (flatbed) normalmente registram valores entre 0.0 e
2.4.
Embora a densidade da imagem varie do puro branco ao puro preto, nenhum detalhe
pode ser visto nestas áreas. Conforme se progride do puro branco para áreas levemente
escuras, os detalhes aparecem. O mesmo ocorre do outro lado do espectro. O ponto no
qual o scanner captura o detalhe é chamado Dmax (densidade máxima). O dynamic
range é calculado subtraindo-se a densidade mínima (Dmin) da máxima. Por exemplo,
se um scanner tem um Dmin de 0.2 e um Dmax de 3.2, o dynamic range é de 3.0.
Profundidade de cor
A qualidade das cores numa imagem digitalizada não depende apenas da profundidade
mas também de seu “registro”. Dado que as cores são capturadas por diferentes sensores
em intervalos de tempo diversos, podem não combinar perfeitamente na hora da
mesclagem. Isto aparece na forma de manchas ao redor de detalhes da imagem.
Os scanners para slides e negativos têm muito mais qualidade do que os de papel porque
possuem uma amplitude de cores (dynamic range) maior. Utilizando-se um adaptador
para rolos de filmes (filmstrip holder), pode-se digitalizar em sequência seis ou mais
fotografias com excelentes resultados.
Como slides e negativos são menores e precisam ser muito ampliados, estas unidades
precisam ter resoluções altas para serem úteis. Alguns dos melhores scanners de filmes
utilizam um software chamado Digital ICE que elimina a poeira e a sujidade da
superfície do fotograma digitalizado.
Scanners de mesa
Os chamados scanners de mesa (flatbed scanners) são úteis tanto para imagens P&B
como a cores. São excelentes para restauração de fotografias antigas. E uma das
vantagens do scanner de mesa é que são pau para toda obra, podendo copiar
documentos de todos os tipos e ainda utilizar o OCR (reconhecimento de texto).
http://www.bancodaimagem.com.br/artigos/
Luís Rocha