Você está na página 1de 37

1

Apresentação

Noções básicas e avançadas da fotografia digital.

Como está organizado este manual…

Este Manual de Fotografia Digital é constituído por oito capítulos, cada um deles
subdividido em vários tópicos.

No Primeiro Capítulo existe uma introdução à fotografia digital, usos e vantagens


desta tecnologia e uma breve resenha histórica da sua origem.

No Segundo Capítulo é abordado as diferenças entre as câmaras digitais e as


convencionais, quais os conceitos e procedimentos que devem ser observados ao tirar
fotografias, os controles da câmara e criatividade, obturador e exposição, controles de
abertura e profundidade de campo, os obturadores das câmaras digitais, como usar a
velocidade do obturador e a abertura do diafragma simultaneamente, e finalmente o uso
do flash.

No Terceiro Capítulo abordasse a resolução e a qualidade da imagem, o tamanho da


imagem no monitor e impressa, bits e bytes, resoluções de scanners e impressoras.

No Quarto Capítulo veremos as cores e os sistemas de gerenciamento de cores, ou


seja, como fazer as fotografias com as cores que vemos no monitor serem impressas
com maior precisão.

No Quinto Capítulo examinaremos os arquivos e métodos de compressão de imagens,


os diversos formatos e extensões dos arquivos e suas diferenças, e os sistemas para
armazenamento de arquivos (cartões de memória e outros).

No Sexto Capítulo veremos como gerenciar as imagens no nosso computador,


organizar e classificar fotos, retocá-las e editá-las para se obter um melhor resultado na
impressão.

No Sétimo Capítulo estudaremos a impressão, modos de configurar as saídas das


imagens e como imprimi-las.

E finalmente, no Oitavo Capítulo teremos uma noção de captura de imagens por


scanners, funcionamento desses equipamentos e diferentes tipos desses equipamentos

Usos e vantagens da fotografia digital

A fotografia digital surgiu graças ao computador, a partir do qual imagens digitalizadas


puderam ser guardadas em forma de arquivos. Estes arquivos podem ter várias
extensões, que variam conforme o modo pelo qual as informações sobre a imagem
digitalizada são armazenadas na linguagem do computador (informações binárias).

É importante notar que já existem dezenas, talvez centenas de modelos de máquinas


fotográficas digitais no mercado, divididas por categorias, cada uma das quais com
qualidades e recursos para usos diversos.
2

Origens da foto digital

A fotografia digital é uma evolução recente da fotografia. Surgiu com o advento do


computador, que trouxe todo um mundo novo de possibilidades e de mudanças para a
sociedade moderna. Na verdade, foi a pesquisa espacial a principal responsável pelo
surgimento da fotografia digital, com a necessidade de um sistema que enviasse
imagens capturadas por sensores remotos e retransmitidas via rádio para a Terra.

No campo que nos interessa, da fotografia, as transformações estão ocorrendo de forma


radical, possibilitando que as imagens não sejam mais necessariamente capturadas
através de processos químicos, mas sim por meio digital, ou seja, capturadas por
câmaras fotográficas equipadas com sensores por foto células e interpretadas em termos
de números binários pelo computador.
Em seguida, a imagem digital pode ser
transferida para a memória do micro e
apresentada no monitor, para posterior
edição e impressão, ou ainda ser
impressa directamente através de uma
conexão entre a câmara digital e
impressoras que reconheçam os
arquivos de imagens digitais.

Fotojornalistas e empresas como


jornais e agências de notícia já
adoptaram ou estão adoptando as O telescópio Hubble transmite imagens digitais do
câmaras digitais como padrão pela espaço.
rapidez de captura e envio de imagens: fotografa-se um assunto, e do próprio local
transmite-se a imagem digital por telefone ou outros meios à redacção.

Não podemos esquecer ainda que a fotografia digital também é ideal para aplicações
científicas. De facto, em astronomia, os sensores digitais já estão sendo usados há anos,
até mesmo no telescópio orbital Hubble. Também nos microscópios estão sendo
utilizados sensores digitais.

Diferenças entre tradicionais e digitais

A utilização da câmara digital, apesar de incorporar novidades, não exige muito esforço
para adaptação. Vamos relacionar as principais semelhanças e diferenças:

• Nas câmaras digitais não se utilizam filmes, e sim um cartão de memória para
armazenamento das imagens. Esse cartão permite que se grave, copie e apague
(delete) arquivos de imagens (inclusive vídeo).
• A luz do flash funciona quase como numa câmara comum, e dependendo do
modelo da câmara digital, pode vir embutido no corpo e/ou utilizando um flash
externo através de conexão por sapata ou cabo de sincronismo (a diferença,
tecnicamente, é que na fotografia digital existe um pré-disparo para avaliar a luz
branca, ou whitepoint, o que obriga ao uso de flashes especiais)
3

As câmaras digitais, diferenciando ainda das tradicionais, vêm equipadas com um cabo
(geralmente USB) para conexão da câmara a um computador, para transferência das
imagens, mais uma ou mais baterias recarregáveis de longa duração, um cabo de áudio e
vídeo que pode inclusive ser conectado a uma aparelho de TV ou videocassete, e o
cartão de memória (existem vários tipos que abordaremos adiante) onde as imagens são
armazenadas.

Conceitos e procedimentos

Uma grande fotografia começa quando se reconhece uma grande cena ou motivo. Mas
reconhecer uma grande oportunidade não é o suficiente para fotografá-la; o fotógrafo
deve estar preparado. E isso envolve o conhecimento de sua câmara de modo a
fotografar o que se vê.

• Conceitos de fotografia são os princípios sob os quais está a câmara que o


fotógrafo está a utilizar. Incluem coisas tais como a relação entre nitidez e tempo
de exposição e seus efeitos numa imagem.
• Procedimentos são aquelas características específicas de um tipo de câmara, e a
explicação, passo a passo, de como utilizar os controles de uma câmara para
capturar uma imagem.

Não existem regras ou “melhores” modos de fazer fotos. Grandes fotógrafos


aprenderam o que sabem experimentando e tentando novos modos (olhares diferentes)
de fotografar. Câmaras digitais tornam isto muito fácil, porque não existem custos de
filmes ou tempo de espera para se ver os resultados. Cada experiência é livre, e cada
fotógrafo poderá registrar os resultados imediatamente, ou passo a passo.

Controles da câmara e criatividade

Automatismo

Todas as câmaras digitais possuem um modo automático que determina o foco, a


exposição e o balanço de cor (White-balance).

• Autofoco. A área que estiver no centro da imagem será utilizada pela câmara
como ponto de nitidez principal. O quanto se pode focar dependerá da câmara
que se estiver usando.
• Autoexposição. A autoexposição programada pela câmara mede a luz reflectida
pela cena e usa a leitura para estabelecer a melhor exposição possível.
• Autoflash. Se a luz estiver muito fraca, o sistema de autoexposição irá disparar o
flash da câmara para iluminar a cena. Se o flash for disparado, uma lâmpada de
aviso na câmara, geralmente vermelha, irá piscar quando você pressionar o
disparador metade do caminho.
• Balanço de luz (White balance). O colorido de uma fotografia será afectado pela
cor da iluminação que afecta a cena, assim a câmara automaticamente ajusta o
balanço de cor para fazer que os objectos brancos na cena apareçam brancos na
foto.
4

O obturador e a exposição

O obturador mantém a luz longe do sensor excepto durante a exposição. A luz só


chega ao sensor quando se abre a cortina para permitir a entrada de luz. O período de
tempo em que a cortina do obturador fica aberta afecta tanto a exposição da imagem
como o congelamento ou arrastamento do movimento.

Velocidades baixas de exposição do obturador deixam a luz atingir o sensor da imagem


durante mais tempo, permitindo uma foto mais luminosa. Velocidades mais rápidas
permitem menos tempo de luz, e assim a foto resulta mais escura.

Em adição ao diafragma (a quantidade de luz que atingirá o sensor de imagem), a


velocidade do obturador é o mais importante controlo que se tem para a captura da
imagem na fotografia. Entender a velocidade do obturador é vital quando se pretende
que um objecto apareça nítido ou tremido na fotografia. Quanto mais tempo o obturador
ficar aberto, mais arrastado ficará o objecto na imagem (tanto em função de
movimentos do objecto como por qualquer tremor do fotógrafo).

Apesar das câmaras digitais poderem seleccionar qualquer fracção de segundo para uma
exposição, há uma série de ajustes que têm sido tradicionalmente utilizados quando se
usa uma câmara em modo manual (que não podem ser feitas em algumas câmaras
digitais simples). A velocidade tradicional de disparo (listada a seguir das velocidades
mais rápidas às mais lentas), incluem 1/1000, 1/500, 1/250, 1/125, 1/60, 1/30, 1/15, 1/8,
1/4, 1/2, e 1 segundo (em câmaras mais sofisticadas podem chegar a 1/35.000 num
extremo e no outro ficar o obturador aberto pelo tempo que o fotógrafo quiser (Pose B
[bulb]).

O momento certo

Vários Fotógrafos tornaram-se famosos por capturar sempre “o momento certo” quando
as acções acontecem e apenas um único momento a torna interessante. Para isso
precisavam estar sempre prontos. Nunca se atrapalhar com controlos e oportunidades
perdidas. A grande maioria das câmaras digitais tem um sistema de disparo automático
que deixa o fotógrafo livre de preocupações, mas por outro lado essas câmaras têm
problemas que torna os momentos decisivos mais difíceis de serem obtidos.

Nas câmaras digitais mais simples, amadoras, acontece uma demora entre o momento
de pressionar o disparador e a realização da fotografia. Isto porque, no primeiro
momento em que se pressiona o botão, a câmara rapidamente realiza um certo número
de tarefas. Primeiro limpa o CCD, depois corrige o balanço de cor, mede a distância e
estabelece a abertura do diafragma, e finalmente dispara o flash (se necessário) e tira a
foto. Todos estes passos “gastam” tempo e a acção pode ter já ocorrido quando
finalmente a fotografia é feita. Assim, fotografia de acção com uma câmara digital
amadora (desporto, por exemplo), é praticamente impossível. Somente as chamadas
câmaras avançadas, ou semi-profissionais, mais as SLR Digitais Pro, têm capacidade de
fazer fotos em sequências rápidas inferiores a um segundo.

Depois ocorre um longo intervalo entre a fotografia tirada e a disponibilidade da câmara


para uma nova foto porque a imagem capturada primeiro precisa ser armazenada na
5

memória da câmara. Como a imagem precisa de ser processada, uma certa quantidade
de procedimentos são requeridos, e isso pode demorar alguns segundos (que parecerão
uma eternidade para um fotógrafo que precisa fotografar uma acção rápida, já que não
poderá ser feita outra foto enquanto isto tudo não for processado).

Mesmo nas câmaras SLR digitais, com mais recursos, pode ocorrer uma limitação na
quantidade de fotos que se tira em sequência, em função do tempo que a câmara
necessita para gravar a imagem num cartão de memória (o que pode depender da
velocidade de gravação e leitura do próprio cartão). Por exemplo, uma câmara digital
pode fazer fotos numa velocidade de 3 disparos por segundo, mas até um máximo de 8
imagens.

Os controles de abertura e profundidade de campo

A abertura do diafragma, uma série de placas sobrepostas formando uma espécie de


anel, ajusta o tamanho da abertura das lentes através da qual passará a luz para atingir o
sensor. Consoante muda de tamanho, afecta tanto a exposição da imagem como a
profundidade de campo (o espaço dimensional no qual tudo ficará em foco).

A abertura do diafragma pode ser mais aberta para permitir mais luz, ou fechada para
deixar passar menos luz. Enquanto o obturador regula o tempo de exposição, a abertura
do diafragma controla a quantidade de luz. Portanto, quanto maior a abertura, mais luz
atinge o sensor de imagem, quanto menor, menos luz atinge o sensor.

Assim como a velocidade do obturador, a abertura do diafragma também afecta a


nitidez da fotografia, mas de um modo diferente. Mudando-se o valor da abertura,
muda-se a profundidade de campo, ou seja, o espaço dimensional que ficará nítido na
cena, entre o primeiro plano e o segundo plano da imagem. Quanto menor a abertura
usada, mais área da cena ficará nítida. Por exemplo, numa fotografia de paisagem, o
fotógrafo vai querer uma abertura menor, de modo a que toda a paisagem (dos detalhes
mais próximos aos mais distantes) esteja focada com nitidez; num retrato, o melhor será
uma abertura maior, definindo a nitidez apenas na pessoa, tornando desfocado o restante
da imagem e mantendo o interesse da foto apenas na pessoa.

Ajustes da abertura são determinados por números (F), e indicam o tamanho da abertura
dentro da lente (no diafragma). Cada número deixa entrar metade da luz da abertura
seguinte, e consequentemente duas vezes mais luz que a anterior. Da maior abertura
possível para a menor, os número f tradicionalmente tem sido f/1, f/1.4, f/1.8, f/2, f/2.4
f/2.8, f/4, f/5.6, f/8, f/11, f/16, f/22, f/32 e f/45. Nenhuma lente possui toda a gama de
ajustes; por exemplo, uma câmara digital padrão pode vir com uma lente de f/2 a f/16.
A chamada “luminosidade” da lente é definida pela maior abertura, ou seja, no exemplo
acima, f/2. Quanto mais luminosa a lente, melhor a qualidade e mais sofisticado o
sistema óptico (e mais caro o preço).

Atenção para o facto de que quanto maior o número, menor a abertura para a luz.
Assim, f/11 deixa entrar menos luz que f/8, e assim por diante. Um detalhe é que a
abertura maior pode mudar numa lente zoom, de modo a acomodar o sistema óptico,
por exemplo, numa lente zoom de 35 a 200 mm, a abertura máxima (a luminosidade)
pode ser f/2-f/4 (variando de f/2 a f/4 conforme se move o zoom de distância focal de 35
mm para 200 mm).
6

Observação: distância focal é a distância entre a lente e o filme (ou sensor). Conforme
essa distância, a imagem parecerá mais próxima ou mais distante. Uma lente zoom
permite diferentes distâncias focais, mudando assim a proximidade dos objectos na foto.

Obturadores das câmaras digitais

Quando se abre um obturador, ao invés de expor um filme, na câmara digital ele recebe
a luz num sensor de imagem – um dispositivo electrónico de estado sólido. Como se viu
anteriormente, o sensor de imagem contém uma grade de pequenas foto células.
Conforme a lente foca a cena no sensor, algumas foto células gravam as luzes mais
fortes, outras as sombras, enquanto terceiras os níveis de luzes intermediárias.

Cada célula converte então a luz que cai sobre ela numa carga eléctrica. Quanto mais
brilhante a luz, mais alta a carga. Quando o obturador fecha e a exposição está
completa, o sensor recorda o padrão gravado. Os vários níveis de carga são então
convertidos para números binários que podem ser usados para recriar a imagem.

Uma vez que o sensor tenha capturado a imagem, esta precisa ser convertida, ou seja,
digitalizada, e depois armazenada. A imagem armazenada no sensor não é lida de uma
vez, mas em partes separadas. Existem dois modos de se fazer isso – usando
“digitalização entrelaçada” (interlaced) ou progressivo.

Num sensor de “digitalização entrelaçada” (interlaced)”, a imagem é inicialmente


processada por linhas ímpares, depois por linhas pares. Este tipo de sensor é
frequentemente utilizado em câmaras de vídeo porque a transmissão de TV é
interlaçada. Numa digitalização progressiva, as colunas são processadas uma após outra
em sequência.

Usando velocidade de obturador e abertura de diafragma ao


mesmo tempo

Como tanto a velocidade do obturador como a abertura do diafragma afectam a


exposição (a quantidade total de luz que atinge o sensor da imagem), pode-se controlar
se a fotografia será mais clara ou escura, mais nítida ou menos nítida, e assim por
diante. A velocidade do obturador controla o tempo que o sensor da imagem será
exposto à luz e a abertura controla a quantidade de luz que entrará para compor a
imagem. O fotógrafo, ou o sistema automático da câmara, pode casar uma velocidade de
obturador curta (para deixar entrar luz num período curto) com uma abertura grande
(para deixar entrar mais quantidade de luz); ou uma velocidade de obturador longa (para
deixar entrar luz por um período maior) e uma abertura pequena (para deixar entrar
menos luz). Em termos técnicos, não faz diferença a combinação usada. Contudo, os
resultados não serão os mesmos, daí a magia de se controlar manualmente a câmara, ao
invés de deixar ao sistema automático. É controlando de forma criativa essa combinação
que se pode obter grandes fotografias.

O objecto move-se, ou pelo menos a câmara poderá mover-se num curto espaço de
tempo. Também a profundidade de campo será afectada. A conjugação destes factores,
e o controle sobre eles, é que fazem a diferença entre fotos convencionais e fotos de
qualidade.
7

Cada abertura de um número f/ determina metade ou o dobro da abertura seguinte (para


mais ou para menos). Assim, uma abertura de f/8 deixa entrar metade da luz de uma
abertura de f/5.6. Já uma velocidade de obturador de 1/60 s deixa passar metade da luz
que uma abertura de 1/30. Se o fotógrafo mudar a fotometria de uma exposição que
mostra luz correcta (balanceada) de f/8 com 1/30 s para f/5.6 com 1/60, obterá o mesmo
resultado técnico correcto – só que a profundidade de campo muda, assim como o
controle dos movimentos – portanto, na primeira foto, teremos maior profundidade de
campo com menos velocidade, na segunda, o contrário. Quanto maiores as diferenças
nos controles, mais dramáticos serão os resultados da foto.

Para fotografia “padrão”, precisa-se de uma média de velocidade em torno de 1/60 e de


abertura f/5.6. Velocidades menores resultarão em imagens tremidas (embora um tripé
possa ajudar) e aberturas menores limitarão a profundidade de campo. Uma câmara
automática “pensa” pelo padrão, assim dificilmente se obterão fotos espectaculares com
um sistema automático.

• Para objectos em movimento rápido, será necessária uma velocidade maior para
congelar o movimento (embora a distância focal das lentes, a proximidade do
objecto e a direcção do movimento também afectem o resultado final da
fotografia)
• Para uma máxima profundidade de campo, com a cena nítida do mais próximo
ao mais longínquo, será necessária uma abertura de diafragma menor (embora a
distância focal da lente e a distância aos objectos do cenário também afectem)

Escolhendo modos de exposição

Muitas câmaras oferecem mais de um modo de exposição. No modo totalmente


automático, a câmara faz um ajuste de velocidade e abertura para produzir a melhor
exposição possível. Geralmente, existem dois outros modos, que são muito usados, o de
prioridade à abertura e o de prioridade à velocidade. Todos oferecerão bons resultados
na maioria das condições de fotografia. De qualquer modo, alternar entre estes modos
pode trazer algumas vantagens.

Vamos examinar cada um destes modos.

• Totalmente automáticos – este modo configura a velocidade e abertura, mais o


balanço de cor (White-balance) e foco sem a intervenção do fotógrafo. Permite
que o fotógrafo preste atenção na cena e esqueça a técnica.
• Modo programado – permite que o fotógrafo seleccione uma variedade de
situações como fotos de retrato, paisagens, desporto, crepúsculo, etc. Ainda é a
câmara que estabelece a abertura e a velocidade nestas condições.
• Prioridade de abertura – este modo permite que o fotógrafo seleccione a
abertura necessária para obter uma certa profundidade de campo enquanto o
sistema combina essa abertura com a velocidade de obturador necessária para
uma correcta exposição. Usa-se este modo sempre que a profundidade de campo
for importante. Para ter certeza de uma focagem geral numa paisagem, escolhe-
se uma pequena abertura (ex, f/16). O mesmo funciona para uma foto close-up,
Macro fotografia (onde o foco é crítico). Já para deixar o fundo fora de foco e
concentrar a focagem num único plano, selecciona-se uma abertura grande,
exemplo f/4.
8

• Prioridade ao obturador – este modo permite que se escolha a velocidade do


obturador como prioritária, e é necessária quando se pretende congelar uma
imagem ou arrastar propositadamente um objecto, deixando a escolha da
abertura para a câmara. Por exemplo, quando se fotografa acção em desporto,
animais ou em fotojornalismo, a escolha de velocidade de obturador é quase
obrigatória, com velocidades maiores, 1/500 por exemplo, para congelar a
acção, ou baixas velocidades, 1/8 por exemplo, para arrastar a imagem
(dependendo também da velocidade e da direcção de deslocação do objecto).
• Modo manual – permite que se seleccione tanto a velocidade como a abertura.

Um dos factores que fazem da fotografia algo tão fascinante é a hipótese que temos de
interpretar a cena do nosso ponto de vista. Controles de velocidades de obturador e de
abertura são dois dos modos mais importantes de fazer fotografias únicas.

Uso do flash

O flash incorporado em câmaras digitais, apesar de suas limitações, pode ser


aproveitado com criatividade pelo fotógrafo. Existem basicamente os seguintes modos
de uso de flash em câmaras digitais (algumas acrescentam mais ou menos recursos)

• Automático – neste modo, a câmara faz a leitura da luz ambiente, e se for


necessário, dispara o flash para melhor iluminar a cena
• Nunca disparar – neste modo, a câmara não dispara mesmo que tenha detectado
iluminação insuficiente. Este é um recurso interessante para se conseguir efeitos
especiais em fotografias nocturnas
• Disparar – obriga a câmara a disparar o flash mesmo que as medições concluam
que há luz suficiente. Este é um recurso bom para melhorar a iluminação de
rostos em contra-luz, por exemplo, ou para melhorar o contraste em cenas de
pouco contraste
• Redução de olhos vermelhos – um recurso da câmara para evitar o chamado
efeito de olhos vermelhos que ocorrem às vezes no uso de flash

A qualidade da imagem

Fugindo do sistema das câmaras tradicionais que utilizam filmes (processos químicos
baseados em halogenetos de prata) para gravar e armazenar uma imagem, as câmaras
digitais usam um equipamento chamado sensor de imagem (image sensor). Trata-se de
chips de silício do tamanho de uma unha, também conhecidos como CCD (Charge-
Coupled Device), que contêm diodos fotossensíveis, ou foto células. No curto espaço de
tempo em que o obturador é aberto, cada foto célula grava a intensidade ou brilho da luz
que a atinge por meio de uma carga eléctrica; quanto mais luz, maior a carga. O brilho
gravado por cada foto célula é então armazenado como uma série de números binários
que podem ser usados para reconstruir a cor e o brilho dos pontos do monitor ou da tinta
que imprimirão a imagem a partir de uma impressora.
OS INVENTORES

George Smith e Willard Boyle


9 inventaram os sensores de imagens,
os CCDs, nos laboratórios Bell, em
1969. Em 1970, os pesquisadores dos
Chegamos aqui a um ponto importante - a laboratórios da Bell construíram o
relação entre pixels e imagem. primeiro CCD para a câmara video. Em
1975, eles apresentaram a primeira
câmara equipada com CCD com
As fotografias digitais são feitas de centenas de imagem de qualidade suficiente para a
milhares ou até milhões de pequenos pontos televisão.
chamados elementos da imagem, ou
simplesmente pixels. Cada um desses pixels é Hoje a tecnologia do CCD atinge não
capturado por uma única foto célula do sensor apenas a televisão comum, mas
de imagem ao se tirar uma fotografia, assim a também aplicações em vídeo que vão
desde as câmaras de segurança à
quantidade de foto células do sensor é que televisão de alta definição, e do
determina a quantidade de pixels numa imagem endoscópio à videoconferência. Fax,
(e consequentemente, a sua resolução, ou seja, a copiadoras, scanners, câmaras digitais
relação entre nitidez e tamanho da imagem). e leitores de barras também utilizam
Portanto, numa câmara digital, cada foto célula CCDs para transformar padrões de luz
em informação útil.
captura o brilho de um único pixel. O modo
como estas foto células estão dispostas Desde 1983, quando os telescópios
determina a forma física da teia (ou grade), que foram equipados com CCDs, foi
é por fileiras e colunas simples. Isto pode ser possível aos astrónomos estudar
bem observado se ampliarmos bastante as objectos milhares de vezes menores
fotografias, pois a imagem aparece construída que os mais sofisticados filmes
comuns podiam detectar, e gravar
sobre pequenos quadrados. imagens em segundos que antes
exigiam horas de exposição.
O computador e a impressora utilizam cada um Actualmente todos os telescópios,
desses pequenos pixels capturados pela foto incluindo o Hubble (no espaço),
célula do sensor da câmara para apresentar a utilizam sistemas de informação digital
proporcionados por chips CCDs
imagem no monitor ou para imprimir as ultrasensíveis. Pesquisadores em
fotografias. Para isso, o computador divide a outros campos do conhecimento,
área do monitor onde será apresentada a imagem como em química, utilizam CCDs para
(ou a página de impressão onde será impressa) observar reacções químicas.
numa teia de pixels, de modo muito parecido ao modo como o sensor divide a imagem
ao capturá-la. São utilizados os valores armazenados pelas foto células para especificar
o brilho e a cor de cada pixel dessa teia – uma forma de reprodução da imagem por
números. Por isso, endereçar uma teia de pixels individuais desse modo se chama bit
mapping (mapeamento de bits).

Concluindo, a qualidade da fotografia digital, tanto impressa como a apresentada no


monitor, depende principalmente do número de pixels utilizados para criar a imagem
(factor também conhecido como resolução). Esse número, como vimos, é determinado
pela quantidade de foto células existentes no sensor de imagem da câmara.

Capacidade de resolução da imagem

Quanto mais foto células e consequentemente mais pixels, melhores serão os detalhes
gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer
imagem digital, chegará um momento em que os pixels vão começar a aparecerem
multifacetados (a esse efeito chama-se pixelização). Portanto, quanto mais pixels
existirem numa imagem, mais ela aceitará ampliações com qualidade; quanto menos
pixels, menor a ampliação possível.
10

Portanto, aqui está a diferença básica entre modelos de câmaras digitais (e seus preços):
a capacidade de resolução da imagem (e sua subsequente qualidade e tamanho final).
Outras diferenças são pertinentes à quantidade de recursos disponíveis na câmara e seu
grau de automação ou possibilidade de ajustes manuais.

Voltando a falar sobre resolução, como vimos, os sensores de imagens contêm uma teia
(ou grade) de foto células, cada uma delas representando um pixel na imagem final -
assim a resolução de uma câmara digital é determinada pela quantidade de foto células
que existem na superfície de seu sensor. Por exemplo, uma câmara com um sensor no
qual cabem 1600 (largura) x 1200 (altura) foto células gera uma imagem de
1600 x 1200 pixels. Então, para efeito de terminologia e definição da capacidade de
uma câmara, dizemos simplesmente que ela tem uma resolução de 1600 x 1200 pixels,
ou 1,92 megapixels.

Actualmente as câmaras mais simples geram arquivos de 640 x 480 pixels, enquanto
câmaras de capacidade média estão por volta de 1600 x 1200 pixels, e câmaras de topo
de gama produzem imagens de 2.560 x 1.920 pixels (perto de 5 megapixels) ou mais.
Importante notar que isto se refere às câmaras amadoras, pois algumas profissionais já
produzem mais de seis milhões de pixels. Quanto maior a capacidade de resolução,
geralmente maior também o preço.

Outro detalhe importante é que quanto maior a imagem em pixel, maior o tamanho do
arquivo resultante. Por isso, normalmente as câmaras digitais possuem uma forma de
regular o tamanho do arquivo, dando a opção ao fotógrafo de escolher o modo de
resolução. Assim, se alguém vai capturar imagens para a WEB e possui uma câmara de
3.3 megapixels, pode regulá-la para gerar imagens de apenas 640 x 480 pixels, bem
mais fáceis de armazenar e de trabalhar. Por exemplo, uma câmara de alta resolução,
2048 x 1560 pixels, gera uma imagem média em arquivo JPEG (depende das
tonalidades e intensidade de luz retratadas) de aproximadamente 1,2 MB (megabytes).
Já na resolução de 640 x 480 pixels, no mesmo formato JPEG, gerará um arquivo de
apenas 220 Kb (kilobytes), ou seja, menos de 1/5 do tamanho.

Além da preocupação com espaço de armazenamento e rapidez em transmissão pela


Internet, em termos práticos deve-se levar em conta o tamanho com o qual se pretende
imprimir a imagem. Ainda seguindo os exemplos acima, a imagem de 2048 x 1560
pixels (3.3 MB) pode ser impressa, sem qualquer perda, em alta resolução (300 dpi), no
tamanho de 17,34 x 13 cms, enquanto a imagem de 640 x 480 pixels permite apenas
uma boa imagem impressa no tamanho 5,42 x 4,06 cms. Como se calcula o tamanho em
termos de resolução é assunto que trataremos mais adiante neste manual, quando
abordarmos a impressão.

Tamanho em Tamanho do Tamanho da


Resolução
pixels arquivo impressão
300 dpi 640x480 938.292 bytes 5,42x4,06 cm
11

300 dpi 800x600 1.456.648 pixels 6,77x5,08 cm


300 dpi 1024x768 2.375.728 bytes 8,67x6,50 cm
300 dpi 1600x1200 5.375.728 bytes 13,55x10,16 cm
300 dpi 2048x1536 9.453.572 bytes 17,34x13,00 cm

Apesar de quanto maior o número de foto células num sensor melhores imagens serem
produzidas, acrescentar simplesmente foto células a um sensor nem sempre é fácil e
pode resultar em problemas. Por exemplo, para se colocar mais foto células num sensor
de imagem, o sensor precisaria ser maior ou as foto células menores. Chips maiores
com mais foto células aumentam as dificuldades de construção e os custos para o
fabricante. Foto células menores, por outro lado, serão menos sensíveis e irão capturar
menos luz que as de um chip normal. Concluindo, colocar mais foto células num sensor,
além da sua complexidade e alto custo, acaba por resultar em arquivos maiores, de
difícil armazenamento. Por isso verifica-se a constante corrida tecnológica entre os
fabricantes na busca de sensores de maior resolução, com qualidade e preços
competitivos.

A tecnologia Foveon

Em 2002, surgiu um novo tipo de sensor digital no mercado, o Foveon X3, que por
enquanto equipa apenas uma câmara digital, a Sigma SD9. Este sensor, do tipo CMOS,
é uma verdadeira revolução no mercado, pois apresenta os sensores de imagem em
camadas, e não mais num único nível com três foto células diferentes para capturar cada
cor (como os CCDs comuns). A vantagem deste sistema, que aproveita a capacidade do
silício de absorver as ondas de luz, é que permite ao sensor funcionar como um filme
fotográfico (que também captura a luz em camadas, embora tenha como sensor uma
película química). Assim, cada pixel é formado por todas as cores, e não por cálculos e
interpolações entre as informações colhidas por três foto células diferentes (o que gera
perdas). Teoricamente, com isso obtêm-se mais resolução, nitidez na imagem, e melhor
amplitude de cores, igualando ou até superando a qualidade da fotografia convencional.

Contudo, a tecnologia ainda está no seu começo, com o amadurecimento, se for


comprovada a sua eficiência, deve constituir o futuro da fotografia digital.

O Tamanho da Imagem

Vamos começar por uma pequena revisão do visto até aqui. Como já sabemos, a
qualidade da fotografia digital, tanto impressa como a apresentada no monitor, depende
principalmente do número de pixels utilizados para criar a imagem (factor também
conhecido como resolução). Esse número, como vimos, é determinado pela quantidade
de foto células existentes no sensor de imagem da câmara (algumas câmaras usam o
artifício de acrescentar pixels “artificiais”, influenciando o tamanho da imagem, mas na
prática isso não funciona; apenas aumenta o tamanho da imagem à custa da perda de
qualidade).

Quanto mais foto células e consequentemente mais pixels, melhores serão os detalhes
gravados e mais nítidas as imagens. Se alguém ampliar e continuar ampliando qualquer
imagem digital, chegará a um ponto em que os pixels vão aparecer multifacetados (esse
efeito se chama pixelização). Portanto, quanto mais pixels existirem numa imagem,
12

mais ela aceitará ampliações com qualidade; quanto menos pixels, menor a ampliação
possível.

Como funciona o artifício de acrescentar pixels “fantasmas”, artificiais, na imagem,


para simular maior resolução? Como se pode distinguir entre a realidade e a ficção no
mundo dos pixels e das câmaras digitais?

As questões acima são pertinentes, pois é preciso cuidado com algumas propagandas de
câmaras digitais e também de scanners. Acontece que existem dois tipos de resolução, a
óptica e a interpolada. A resolução óptica é o número absoluto de pixels que o sensor da
imagem consegue capturar fisicamente durante a digitalização. Ou seja, corresponde
exactamente à realidade. Contudo, por meio de software incorporado na câmara
(qualquer programa editor de arquivos de imagem também pode fazer isso), é possível
“acrescentar” mais pixels fictícios, num processo chamado “interpolação”. Para isso o
software avalia os pixels ao redor de cada pixel que o rodeia, para “imaginar” como
deveria ser um novo pixel vizinho em termos de cor e brilho. O que na prática nunca dá
certo - as imagens assim geradas apresentam geralmente inúmeras deficiências. O
importante é ter em mente que a resolução interpolada não adiciona nenhuma
informação à imagem – só acrescenta pixels que fazem o arquivo ficar maior. A
qualidade final da fotografia fica geralmente comprometida.

Contudo, como toda a regra tem excepção, em nível de software hoje em dia já existe
um que realmente consegue a façanha. Ele não “imagina” nada. Realmente cria pixels
que funcionam. Só que não está embutido em nenhuma câmara digital, é vendido
somente para instalação em computadores (Genuine Fractals).

Alguns fabricantes de câmaras digitais já estão distribuindo cópias “lights” deste


software especial junto com suas câmaras, como a Nikon.

Bits e Bytes

Quando lemos textos sobre sistemas digitais, frequentemente encontramos os termos


bit e byte. Um bit é a menor unidade digital, e também a unidade básica de informação
que um computador utiliza. O termo tem como origem o termo binary digit, ou seja,
dígito binário. Pode ser representado por dois possíveis estados, ligado (indicado pelo
número um) e desligado (indicado pelo zero).

Já os bytes são grupos de 8 bits (agrupados para fim de processamento). Como cada
grupo de 8 bits também tem dois estados (ligado-desligado), e o total de informação
contido é 28 , ou seja, 256 combinações possíveis.

É interessante acrescentar ainda que kilobyte é uma medida que representa mil bytes,
enquanto um megabyte corresponde a um milhão de bytes.

Resoluções de Monitor
13

A resolução de um monitor é definida pela sua largura e altura em pixels. Por exemplo,
um monitor pode apresentar no ecrã 640 x 480 pixels, 800 x 600, 1024 x 768 pixels e
assim por diante. O primeiro número é o número de pixels ao longo do ecrã (largura), e
o segundo o número de linhas.

As imagens apresentadas num monitor são sempre em baixa-resolução. Geralmente as


imagens mostradas no ecrã são convertidas para uma resolução de 72 pixels por
polegada. Na verdade, não é esse o número exacto em cada monitor, mas serve como
base. Por exemplo, um monitor de 14 polegadas terá muito menos espaço físico para
distribuir uma imagem com 800 x 600 pixels do que um monitor de 17 polegadas (onde
os pixels terão mais espaço para se espalhar). Por isso, quanto maior o monitor, o ideal é
ir aumentando a resolução padrão no ecrã para se obter uma imagem mais nítida. Um
monitor de 21 polegadas, por exemplo, pode perfeitamente apresentar imagens em 1600
x 1200 pixels, enquanto para um monitor de apenas 14 polegadas isso seria impossível.

Resoluções de impressoras e scanners

As resoluções de impressoras e dos scanners são geralmente definidas pelo número de


pontos por polegadas (em português, a abreviação pouco usada seria ppp,
correspondente ao inglês dpi) que imprimem ou digitalizam. No monitor, como os
pontos correspondem aos pixels, pode-se dizer também pixels por polegada, enquanto
na impressora prevalece o termo pontos por polegada, pois cada pixel pode ser
representado por vários pontos de impressão . Como comparação, um monitor tem
1

resolução de 72 dpi, uma impressora jacto de tinta caseira de 600 a 1400 dpi, e uma
impressora jacto de tinta comercial de 1400 a 2880 dpi ou mais. Contudo, é importante
diferenciar entre a resolução da imagem e as resoluções dos dispositivos de saída.

1 Isso gera confusão para muita gente, pois quando se salva um arquivo de imagem, a resolução é dada
em pixels por polegada, sendo um arquivo de alta resolução geralmente igual a 300 pixels por polegada,
ou seja, 300 dpi (que correspondem à capacidade máxima de impressão para impressoras de qualquer
tipo). Ora, numa impressora jacto de tinta, cada pixel pode ser representado por vários pontos de
impressão, e portanto, mesmo que a resolução da impressora seja de 2880 dpi, na verdade essa
resolução diz respeito apenas a recursos para melhor representar cada pixel na resolução padrão de 300
dpi.

Reprodução das cores

Como se sabe, a luz não passa de uma forma de energia electromagnética, relacionada
com o rádio, o radar, os raio-x, etc. Ela se propaga a partir de uma fonte de luz (de
lâmpadas ao nosso Sol) em movimentos rectilíneos, descrevendo ciclos em forma de
ondas regulares que vibram perpendicularmente à direcção de sua propagação.

A luz, vista pelos olhos humanos, constitui uma faixa relativamente estreita de sua
energia magnética irradiada, que se distribui aproximadamente entre 400 e 700 nm2
14

(nanómetros). Esta faixa constitui o chamado espectro visível, e dentro dele cada
comprimento de onda produz um estímulo diferente na parte posterior de nossos olhos –
assim são percebidas as cores. A mistura de todos os comprimentos de onda do espectro
visível é o que chamamos de luz branca.

A cores são assim distribuídas no espectro visível:

Antes dos 400 nm existe a chamada luz ultravioleta, invisível para a vista humana. A
partir dos 400 nm, a luz passa a ser perceptível, e é de um violeta profundo, tornando-se
azul na medida em que o comprimento da onda se aproxima de 450 nm. Esse azul vai
cedendo lugar à um verde azulado por volta dos 500 nm, e a partir dos 580 nm começa a
surgir o amarelo. Já nos 600 nm o amarelo vai passando para o laranja, e perto dos 650
nm, o vermelho vai escurecendo paulatinamente, até que a vista humana não consegue
mais enxergar a luz, que passa ao infra-vermelho.

É importante notarmos que tudo o que vemos (e pode ser fotografado), dependo dos
objectos que reflectem os raios de luz, e que são tanto mais visíveis quanto mais
próximos estiverem de uma fonte luminosa. Isso tem consequências práticas
importantes para a fotografia em geral, principalmente em função da exposição correcta
(abertura do diafragma e velocidade do obturador), e no caso da fotografia digital não é
diferente, em função da sensibilidade necessária para um sensor de imagem capturar as
cores. Existem diversas implicações no modo como as foto células que compõem um
sensor percebem a luz, e como o chip do sensor processa essas informações, conforme
veremos adiante.

Um dos grandes problemas da fotografia em geral, desde os seus primórdios, sempre foi
o da captura correcta das cores tais como as vemos na natureza, pois isso é praticamente
impossível de ser reproduzido por material fotográfico. A amplitude de cor existente na
natureza não pode simplesmente ser captada por nenhum mecanismo humano, excepto
os nossos próprios olhos.

Nas primeiras emulsões fotográficas, em branco e preto, apenas os objectos azuis eram
percebidos pelo filme, ficando os de outras cores invisíveis. Mais tarde surgiu o filme
ortocromático, que chegava até o verde, ignorando os tons laranja e vermelho.
Finalmente, com o pancromático, as fotos passaram a cobrir quase todas tonalidades,
mas com limitações. Os filmes a cores também sempre sofreram do mesmo problema,
principalmente na hora de copiar a imagem em papel fotográfico. De qualquer modo,
até hoje nenhum tipo de filme conseguiu cobrir com perfeição as cores da natureza.
15

A fotografia digital enfrenta o mesmo problema. A amplitude de cores que um sensor


digital consegue capturar também é ligeiramente inferior, por exemplo, ao de um filme
de slides, embora já esteja ao nível do filme tradicional em negativo (colorido) . 2

Vejamos como a câmara digital “vê” as cores e apresenta-as no ecrã de um monitor.

RGB

As cores na imagem fotográfica apresentada no monitor de um computador diferem em


muito das cores naturais. Na verdade, são mais uma simulação de cores de modo a
“enganar” a vista humana, e permitir que nós vejamos as cores no ecrã.

As cores num monitor são baseadas em três cores primárias – vermelho, verde e azul
(em inglês; red, green and blue, ou RGB). Este modo é chamado aditivo, porque quando
as três cores são combinadas em quantidades iguais, formam o branco. O sistema
aditivo é utilizado sempre que a luz é projectada para formar cores, como em monitores.
Assim, num monitor, cada pixel é composto por um grupo de três pontos, cada um de
uma cor (vermelha, verde e azul).

O grande problema com os monitores para a fotografia digital, é que existem centenas
de modelos de monitores, cada um com um modo próprio de apresentar cores no ecrã.

É importante estudarmos o que fazer a respeito, pois de repente, vemos uma fotografia
fabulosa no nosso monitor, e quando é impressa (seja numa impressora caseira ou num
laboratório fotográfico), temos uma decepcionante fotografia descolorida ou com cores
demasiado fortes...

(colorido) 2 Os filmes em transparência, ou slides, conseguem maior amplitude de cor que os de


2 :

negativo impressos em papel fotográfico

Sistemas de gerenciamento de cor

Conforme as imagens passam da câmara digital ou de um scanner para os ecrãs dos


monitores, e depois para impressoras ou páginas da WEB, as cores mudam porque cada
equipamento tem seu modo de apresentá-las. Deste modo, se imprimir-mos uma página
da Internet na impressora, perceberemos que as cores aparecem bem diferentes
comparando a página no ecrã com o resultado da impressão no papel...

Para se conseguir cores mais consistentes numa grande variedade de equipamentos, é


preciso um sistema de gerenciamento de cores. As cores não coincidem (ecrã e folha
impressa), por bons motivos.

O monitor e a impressora usam sistemas diferentes de cores – RGB no ecrã e CMYK na


impressão. RGB produz cores, não pigmentos ou tintas. CMYK (cores ciano, magenta,
amarela e preta) produz cores
combinando pigmentos ou tintas. E o
processo de conversão de RGB para
CMYK não é perfeito.

Como já se salientou antes, fotógrafos


experientes sabem que os slides têm
16

mais contraste e riqueza de cores do que as fotos impressas. Isto acontece porque os
slides são vistos por luzes transmitidas (à transparência), enquanto as fotos são vistas
por luz refletida. O mesmo é verdadeiro para um ecrã de um monitor e uma imagem
impressa.

Os monitores não precisam usar meio-tons para criar cores porque podem variar a
intensidade da cor em cada pixel (a única impressora que consegue isso é a que utiliza
um sistema chamado dye sub, ou sublimação).

Para conseguir imagens impressas mais próximas do resultado do ecrã, é preciso fazer
testes, imprimir uma fotografia e depois ir ajustando as cores no ecrã para se
assemelharem à foto impressa (pelos ajustes de brilho e contraste). Mesmo assim isso
pode ser muito complicado, principalmente se as tonalidades não conferirem (cada
monitor funciona com sua própria temperatura de cor, o que gera tons mais azulados
(frios) ou mais avermelhados (quentes). Para superar estes problemas, só utilizando um
sistema de gerenciamento de cor, ou CMS.

O acerto da luminosidade e contraste do monitor pode ser feito aproveitando o


laboratório digital, para o qual se enviam as fotografias, como trabalham num
determinado perfil de cor que é idêntico ao da câmara digital. Assim, assegurasse que
tanta a câmara digital como o laboratório trabalham com as mesmas cores. A partir daí,
pedir para o laboratório enviar uma imagem fotográfica de amostra (conhecida como
target). Observando então a fotografia na tela e confrontando com a mesma imagem nas
mãos, podemos ir acertando o brilho, contraste e tonalidades.

De qualquer modo, existem cores que nunca aparecem correctamente, do mesmo modo
que dificilmente um laboratório de fotografia tradicional envia cópias idênticas de um
mesmo negativo em datas diferentes... A solução é o fotógrafo se conformar com as
pequenas diferenças - afinal, desde que a fotografia existe, este problema nunca foi
completamente solucionado.

Sistemas de gerenciamento de cor são projectados para manter as cores das imagens o
mais consistentes possíveis entre os processos de digitalização da imagem, apresentação
no ecrã e impressão. Isto pode ser uma dor de cabeça para muita gente, e sem dúvida é o
maior entrave ao uso da imagem digital por parte dos leigos. Um sistema de
gerenciamento de cor adopta um padrão independente em termos de cores como RGB
ou CMYK. Existem muitos sistemas, mas os mais conhecidos são o Microsoft Image
Color Management (ICM), para computadores PC, e o ColorSync para computadores
Mac.

Ambiente de trabalho
17

As cores mudam conforme a fonte de luz. Até mesmo a luz do dia muda conforme o
sol vai percorrendo o seu trajecto no céu. Se as cores mudam tão facilmente, como lidar
com elas? Para isso é preciso estabelecer condições bem controladas e atribuir números
a essas condições.

O ideal ao se trabalhar num determinado monitor, seria utilizar sempre a mesma luz
ambiente. É costume editar as fotografias digitais com a lâmpada comum do tecto, de
100 watts, se abrir-mos a janela ou trocar-mos a lâmpada por uma de 60 watts,
estaremos a comprometer o gerenciamento da cor. Pequenas mudanças de luz ambiente
geram grandes diferenças nas cores.

Uma vez que o modelo de cor tenha sido estabelecido (monitor e luz ambiente), uma
parte do trabalho está feita, e quando a fotografia muda de um ambiente de cor para
outro? Por exemplo, quando passa do monitor (modelo RGB) para a impressora
(modelo CMYK)? Um perfil de cor é usado justamente para relacionar diferentes
modelos de cores como estes. Então, para tudo funcionar correctamente, o software
usado no computador para visualizar e optimizar as fotografias deve ser capaz de
incorporar a transferência de perfis de cores das imagens.

Por exemplo, quando uma luz vermelha no ecrã é enviada para a impressora como uma
série de números 255,0,0 (valores que identificam a cor para o monitor, sendo cada cor
representada numa escala de 0 a 255), a impressora usa o perfil de modo que a cor será
impressa correctamente. Este valor deve ser convertido para CMYK (isso é feito por
uma tabela), e seguindo o exemplo acima do vermelho, para 0,100,100,0 (valores de cor
para impressoras variam de 0 a 100 para cada cor, mais preto).

O melhor modo de se administrar as cores é através de um software editor de imagens,


como o Adobe Photoshop. As câmaras digitais, em geral, quando salvam uma imagem
em formato JPEG ou outro qualquer, incorporam um perfil de cor, normalmente o
sRGB-ICE61966-2.1 (super RGB).

Se o teu monitor já vem com um driver adequado, o Windows utiliza o espaço de cor
desse monitor. Caso contrário, convém procurar um driver no site do fabricante, na
Internet. Se não for possível, a solução é estabelecer um padrão do modo mais difícil,
manualmente, através de testes com impressora.

Com o espaço de cor do monitor definido, o software editor de imagens, que por sua
vez deve reconhecer este ambiente do monitor, e ao abrir um arquivo digital transferido
de uma máquina fotográfica, imediatamente o converter para o espaço de cor adequado
do computador, ou fazer as conversões necessárias para apresentar as cores
correctamente.

Para imprimir, a mesma coisa. Será necessário configurar o software editor de imagens
para usar um perfil de cor da impressora, assim, na hora de imprimir, o programa
converte novamente as informações de cores para que sejam impressas.

Portanto, também no caso da impressora, mais uma vez é fundamental dispor de


equipamentos que venham com os drivers para o funcionamento correcto. Muita gente,
quando compra equipamentos, por desconhecimento não exige os arquivos que
configuram o espaço de cor, ou não dá atenção aos CDs com essas informações. No
18

momento de trabalhar com imagens ou imprimir, contudo, é fundamental que tudo


esteja correctamente instalado e configurado.

Por outro lado, um software editor de imagens é indispensável para quem quer trabalhar
seriamente com fotografia digital. Mais adiante falaremos do Adobe Photoshop, sem
dúvida um dos melhores programas do género, para optimizar as fotografias tiradas por
câmaras digitais. Além deste software, podemos citar outros interessantes, como o Paint
Shop Pro, o PhotoBrush, o Corel Photo-Paint, e a própria versão light do Photoshop,
direccionado para amadores, o Adobe Elements.

Em termos de gerenciamento de cores, o Photoshop dispõe de um excelente sistema


para lidar com ambientes de cor. Para aceder a este gerenciamento, basta ir ao menu
Edit, Color Settings, e estabelecer então o espaço de cor desejado. Deste modo, é
possível gerenciar diversos espaços de cores, para diferentes finalidades.

Cores Subtractivas

Voltando às cores no monitor e nas impressoras. Apesar da maioria das câmaras


utilizar o sistema de cores aditivas RGB, algumas câmaras mais sofisticadas e todas as
impressoras usam o sistema CMYK (de quatro cores). Este sistema, chamado de cores
subtractivas, usa três cores primárias, Cian, Magenta e Amarelo. Estas três cores são
combinadas em quantidades iguais, e o resultado é um preto porque todas as cores são
subtraídas. O sistema CMYK é largamente usado pela indústria de impressão, mas as
suas cores não podem ser perfeitamente transmitidas num ecrã de monitor, pois
precisam ser convertidas para RGB e acontece alguma perda na conversão.

Na saída da impressora, cada pixel é formado por pequenos pontos de cian, magenta,
amarelo e tinta preta. Quando estes pontos se sobrepõem, várias cores são formadas.

Dos Cinzas Nascem as Cores

Já os sensores de imagens das câmaras digitais, que trabalham com o modo de cores
RGB, o mesmo dos monitores, gravam apenas em escala de cinzas – uma série de 256
tons de cinza que vai do branco puro ao preto puro. Basicamente, só capturam o brilho.

Como então os sensores capturam cores quando tudo o que fazem é gravar cinzas? A
resposta está no uso de filtros azuis, verdes e vermelhos para separar as luzes reflectidas
de um objecto colorido. Existem alguns modos de se fazer isto:

• Três partes separadas do sensor de imagem podem ser usadas, cada uma com
seu próprio filtro. Deste modo cada parte do sensor captura a imagem numa
única cor.
• Três exposições separadas podem ser feitas, mudando o filtro de cada vez. Deste
modo, as cores são “pintadas” no sensor.
• Os filtros podem ser colocados em foto células individuais para que cada uma
capture uma das cores. Neste modo, 1/3 da foto é capturada em luz vermelha,
outro 1/3 em azul e o 1/3 restante em verde.
19

Quando três exposições separadas


são feitas através de diferentes filtros,
cada pixel no sensor grava uma cor
específica na imagem e três
diferentes arquivos são mesclados
para gerar uma imagem colorida. De
qualquer modo, quando três sensores
separados são utilizados, ou quando
Canal Azul
diferentes filtros são colocados
directamente sobre as foto células
num sensor, a resolução óptica desse
sensor é reduzida para 1/3. Isto
porque cada uma das foto células
disponíveis grava apenas parte da
imagem (no caso, uma única cor).
Por exemplo, em alguns sensores
com 1.2 milhões de foto células, 400
mil utilizam filtros vermelhos, 400
mil filtros azuis e 400 mil filtros
verdes.

Cada foto célula armazena a cor Canal Verde


capturada (pelo filtro) em valores de
8, 10 ou 12 bits. Para criar imagens
completas coloridas de 24, 30 ou 36
bits, usa-se a interpolação. Esta
forma de interpolação utiliza as cores
nos pixels vizinhos para calcular as
duas cores que a foto célula não
gravou. Combinando estas cores
interpoladas com a cor medida
directamente pela célula, a cor
original do pixel é reconstituída (se o
pixel é de um vermelho brilhante, e
se os pixels azuis e verdes ao lado
também são brilhantes, contabiliza-se Canal Vermelho
um branco brilhante). Isto requer
muito cálculo, pois exige
comparações com os 8 pixels vizinhos para que este processamento tenha sucesso.
Também resulta em mais informação na imagem, assim os arquivos ficam maiores.

Canais de Cores

Cada uma das cores de uma imagem pode ser controlada independentemente e isto é
chamado de canal de cor. Se um canal de 8 bits de cor é usado para cada cor num pixel
– vermelho, azul e verde – as três cores combinadas somam 24 bits de cor. Na
sequência na página anterior, observamos três imagens de uma mesma fotografia, cada
20

uma delas apresentada num único canal de cor (utilizou-se o Photoshop para este
exemplo). Observa as diferenças, de como o computador trata cada um dos canais.

Quando se usa o recurso de interpolação para ampliar artificialmente uma imagem é


preciso haver informação suficiente ao redor dos pixels para contribuir com a
informação de cores, o que nem sempre é o caso. Sensores de imagens de baixa
resolução têm um problema de cores irreais que ocorrem quando um ponto de luz na
cena original é unicamente para um ou dois pixels. Os pixels vizinhos não contêm
nenhuma informação de cor sobre o pixel, assim a cor naquele ponto pode aparecer sem
qualquer ligação com a imagem que o cerca.

Armazenamento da imagem

Imagens digitais são armazenadas em arquivos de bitmaps – uma série de pixels


individuais. Ao longo dos anos, grande número de diferentes formatos de arquivos de
bitmaps foram desenvolvidos. Cada um tem características únicas que o tornam
interessante para determinado uso. Entretanto, vários desses formatos também caíram
em desuso ou são encontrados somente em circunstâncias especiais. Conforme novas
necessidades surgem, como imagens para serem vistas na WEB, novos formatos de
arquivos aparecem. De qualquer modo, todas as imagens (não-animadas) que se
encontram na WEB ou em programas multimédia, bem como a maior parte das imagens
que se vêm impressas, foram criadas ou editadas no computador como digitais.

Imagens em bitmap (ou mapa de bits)

Imagens em bitmap são formadas por pixels e são definidas por suas dimensões (em
pixels) bem como pelo número de cores incorporadas. Por exemplo, quando se amplia
uma pequena área de uma imagem de 640 x 480 pixels, os pequenos pixels misturam-se
aos tons contínuos do mesmo modo que as fotografias ampliadas de um jornal
apresentam uma mistura de pontos indefinidos. Cada um dos pequenos pixels pode ter
uma escala de cinza ou uma cor. Utilizando-se 24 bits de cor, cada pixel pode assumir
qualquer uma das 16 milhões de cores possíveis. Todas as fotografias e pinturas digitais
são em bitmaps, e qualquer tipo de imagem assim pode ser salva ou exportada. De
facto, quando se imprime qualquer formato de imagem numa impressora laser ou jacto
de tinta, a imagem é primeiro convertida (rasterized) tanto pelo computador como pela
impressora em bitmap, para que seja impressa em forma de pontos.

Bitmaps são amplamente usados mas sofrem de dois problemas inevitáveis:

• só podem ser impressos ou visualizados no tamanho determinado pelo número


de pixels existentes na imagem. Imprimindo-se ou visualizando-se num outro
tamanho pode resultar numa imagem com aberrações ópticas.
• para manter a qualidade, o arquivo salvo deve ter informações precisas sobre
cada pixel e cores. Desse modo, os arquivos gerados em bitmap serão muito
grandes. Para diminuir este problema, alguns formatos gráficos, como GIF e
JPEG foram criados para armazenar imagens num formato comprimido.
21

Formatos de imagens

Existem dois tipos de formato para imagens: os formatos próprios de softwares


(padrões), e os formatos de aplicação geral para transferência entre diferentes programas
informáticos e até sistemas operacionais. Conforme os novos programas surgem, os
técnicos que desenvolvem softwares têm a tendência de criar formatos próprios para as
suas aplicações, que só podem ser “lidos” pelos seus próprios softwares. Parte disso é
em função de ganhar vantagem sobre a competição, e parte a necessidade de
projectarem novos procedimentos e possibilidades. De qualquer modo, formatos
próprios podem causar problemas quando se quer transferir as imagens para outros
programas.

Como formatos próprios são limitados, os formatos para transferência são projectados
para possibilitar que as imagens possam ser abertas por praticamente qualquer tipo de
programa. Alguns tornaram-se assim padrões – qualquer aplicativo pode abri-los e
salvar imagens com a sua extensão (por ex: JPEG).

Compressão

Quando se digitaliza uma fotografia, o tamanho do arquivo é grande se comparado a


outros arquivos de um computador. Uma imagem de baixa resolução em 640 x 480
pixels, por exemplo, pode ter até 307.200 pixels, o que resulta num tamanho de arquivo,
sem compressão, de quase um megabyte. Portanto, a compressão de imagens é uma
necessidade, ou o disco rígido do computador ficará cheio só com as fotografias.

Durante a compressão, a informação é duplicada e tudo o que não tiver valor é


eliminado ou salvo de modo resumido, reduzindo o tamanho do arquivo. Quando a
imagem é editada ou apresentada, o processo de compressão é revertido.

Existem dois modos de compressão – com ou sem perda – e a fotografia digital utiliza
os dois modos.

A chamada lossless compression (menos perda) comprime uma imagem de tal modo
que a qualidade é mantida. Embora pareça a ideal, não proporciona redução
significativa do arquivo, que geralmente fica reduzido a um terço do tamanho original.
O padrão mais utilizado é o LZW (Lempel-Ziv-Welch), que tanto em arquivos GIF
como TIFF produz compressão de 50 a 90%.

A maioria das câmaras digitais utiliza o sistema de compressão com perda, já que o
espaço para armazenagem de imagens é extremamente complicado e caro (falaremos
dos cartões adiante) e, em geral, a qualidade é mantida por meio do JPEG em qualidade
máxima de compressão. O formato anula informações não importantes na imagem. Por
exemplo, se grandes áreas do céu são azuis, só o valor de um pixel precisa ser salvo –
quando a imagem é aberta, aquele valor é aplicado para todo o conjunto (por isso os
tamanhos de arquivos comprimidos variam muito, pois dependem de quanta informação
de cor existe na imagem).
22

Contudo, como a qualidade é afectada pelo grau de compressão, para o fotógrafo mais
exigente e para profissionais, as câmaras mais avançadas permitem que se opte pela
imagem em TIFF (o que obriga a um cartão de memória de grande capacidade).

Formatos para câmara digital

Praticamente todas as câmaras digitais salvam as fotografias no formato JPEG, embora


as mais sofisticadas também o façam em TIFF. Algumas ainda gravam no modo
original em que capturam a imagem, também conhecido como formato RAW (palavra
que significa cru, natural, matéria-prima). Vejamos as principais características de cada
um destes formatos.

JPEG

O formato JPEG (Joint Photographic Experts Group), que os americanos pronunciam


“jay-peg”, e em Portugal “jota-peg”, é um dos mais populares, principalmente para
fotografias na Web. Este ficheiro tem duas características importantes:

A primeira é que o JPEG utiliza um esquema de compressão que sofre perdas, mas o
grau de compressão (e consequente perda de qualidade) pode ser ajustado. Em resumo,
muita compressão, muita perda, pouca compressão, pouca perda.

A segunda é que este formato suporta 24 bits de cores. Já o formato GIF, o outro tipo de
arquivo muito utilizado na Internet suporta apenas 8 bits.

Um detalhe importante é que se uma fotografia em JPEG for aberta e depois salva
novamente, cada vez que é salva torna a ser comprimida, o que gera mais perda.
Portanto, a perda de qualidade é acumulativa. Para evitar que uma imagem se vá
deteriorando, deve-se abri-la e tornar a salvá-la o menos possível. Uma recomendação
quando se trabalha com imagens em JPEG é salvar um original em TIFF (formato sem
compressão como veremos adiante), e sempre que for necessário trabalhar nesse
formato, para somente no momento de enviar a foto ou disponibilizá-la por outros
meios (como a WEB) gravar a imagem em JPEG.

Em termos práticos, quando se utiliza o formato JPEG, que é praticamente o padrão


utilizado pelas câmaras digitais por causa do problema de falta de espaço para
armazenamento de arquivos, na primeira vez em que o arquivo é aberto a perda é quase
imperceptível em relação a uma mesma foto salva sem compressão. Contudo, se a
mesma imagem for sendo editada, aberta e novamente salva, consecutivamente, vai
chegar um momento em que a perda será notável.

O formato de imagem JPEG pouco tem mudado desde que surgiu. Contudo,
recentemente trabalhou-se num novo projecto de formato JPEG pelo Digital Imaging
Group (DIG).O novo formato JPEG tem 20% a mais de compressão com menos perda
de qualidade, ou seja, ficou ainda melhor. Contudo, ainda não está sendo utilizado pelos
softwares mais importantes. Sua extensão pode ser J2K ou JP2.

TIFF
23

O formato TIFF (Tag Image File Format), foi originalmente desenvolvido para salvar
imagens capturadas por scanners e para uso em programas editores de imagens. Este
formato, sem compressão e sem perda de qualidade, é largamente aceite e praticamente
reconhecido por qualquer software e sistema operacional, impressoras, etc. Além disso,
é o formato preferido para aplicações em edição electrónica. O TIFF também é um
modo de cores de 24 bits.

CCD RAW

Quando um sensor de imagem captura informação que gera uma imagem, algumas
câmaras digitais permitem que se salve um arquivo não processado, ainda “cru” (por
isso é chamado RAW). Este formato contém tudo o que a câmara digitalizou. O motivo
para o seu uso é livrar o processador da câmara digital da tarefa de realizar os cálculos
necessários para a optimização da imagem digital, possibilitando que isso seja feito no
computador. Uma imagem em RAW terá, depois de ser aberta no computador e
optimizada, de ser salva num formato qualquer para ser utilizada.

Uma vantagem deste formato é gerar um arquivo menor do que no formato TIFF (pelo
menos 60%). Como um computador terá muito mais capacidade de processamento que
a câmara, a imagem final também terá melhor qualidade do que se for directamente
salva pela própria câmara em formatos JPEG ou TIFF. Contudo, vale notar que o
fotógrafo deverá ter domínio das técnicas de optimização de imagem para poder
aproveitar este formato.

Aqui uma observação importante: de qualquer modo, independentemente da câmara que


for, o fotógrafo mais exigente terá que aprender a conviver com softwares editores de
imagens de modo a corrigir pequenos problemas de processamento incorrecto gerado no
arquivo da imagem pela câmara digital - os processadores desta sempre serão mais
limitados do que os dos computadores, e assim, a imagem terá sempre algum trabalho a
ser feito. O básico sobre o que fazer e como fazer veremos adiante.

GIFs (.GIF)

O formato GIF (Graphics Interchange Format) é amplamente usado na Internet, mas


principalmente para as artes e desenhos, não para fotografias. Este formato armazena
apenas 256 cores numa tabela chamada “palette”. Contudo, em termos de fotografia,
podemos deixá-lo de lado a não ser que se pretenda exibir uma animação – no caso, o
GIF funciona bem para isso.

Mais como curiosidade, existem duas versões do GIF na Web; o original GIF 87a e uma
nova versão mais nova, a 89a. Ambas utilizam um processo chamado interlacing
(entrelaçado) – as imagens são armazenadas em quatro camadas ao invés de uma, como
na versão antiga. Assim, quando a imagem é exibida num browser, vai surgindo uma
linha de cada vez. Outra característica importante é que o fundo pode ser transparente,
para isso é preciso especificar qual a cor da tabela a ser considerada; quando o browser
abrir a imagem, substituirá a cor seleccionada como transparente pela que estiver sendo
apresentada na janela do browser sob a imagem.

Quanto à animação, uma imagem em GIF consegue simular um pequeno filme, o que
pode tornar interessante para uso com fotos. Só que a resolução tem que ser baixíssima,
24

e a qualidade muito ruim, já que apenas 256 cores serão apresentadas (ou até menos).
Caso contrário, será muito demorado de carregar a imagem e o visitante (na WEB)
pode-se desinteressar.

Cartões de memória

Muito bem, agora que já se tem uma ideia de como uma máquina fotográfica digital
captura e salva uma imagem, vamos tocar num ponto muito importante: o
armazenamento das fotografias.

Gravar as fotografias (como arquivos de imagem) é uma das tarefas mais difíceis e
(ainda) limitadas para o equipamento digital. O problema é que as fotografias em alta
resolução, com qualidade para serem impressas em tamanhos razoáveis, formam
arquivos muito grandes.

Este é, de facto, ainda um dos factores não resolvidos da fotografia digital. Para se ter
uma melhor ideia, vamos relacionar formatos de arquivos, resoluções de fotografias e
tamanhos estimados de arquivos:

Tamanho
Formato Resolução
(estimado)
TIFF 2048x1536 9,0 MB
JPEG 2048x1536 1,2 MB
JPEG 1600x1200 0,7 MB
JPEG 640x480 0,2 MB

Como se observa pela tabela acima, para se tirar 36 fotografias no formato TIFF em alta
resolução (o que corresponderia a quantidade de fotos de um filme tradicional) seriam
necessários 324 MB de espaço num cartão de memória. Contudo, quando a ideia são
fotografias para a Internet, tipo 640 x 480 pixels (que representam arquivos por volta de
10 kbs), pode-se tirar centenas de fotos num cartão de memória de 8 MB.

Equipamentos para armazenamento de arquivos de imagens

Com as câmaras tradicionais, o filme é utilizado tanto para gravar como para
armazenar a imagem. Com câmaras digitais, equipamentos separados realizam essas
duas funções. A fotografia é capturada pelo sensor de imagem, e depois gravada num
equipamento de armazenamento.

Praticamente todos os novos modelos de câmaras digitais usam alguma forma de


armazenamento removível, normalmente cartões de memória flash. Já foram usados
pequenos discos rígidos e até mesmo disquetes.

Qualquer que seja o tipo utilizado, a câmara permite que se remova o equipamento
quando este fica com o espaço de armazenamento completo e que se insira outro.

O número de imagens que se podem gravar até completar o espaço disponível depende
de uma série de factores:
25

• A capacidade em tamanho (expressa em Megabytes) do equipamento


• A resolução com a qual as fotos são feitas
• A compressão que é usada no arquivo (qualidade da imagem quando guardada)

O número de imagens a ser armazenada é importante porque uma vez que se atinja esse
limite não há outra escolha senão parar de tirar fotografias ou apagar algumas já feitas
de modo a criar espaço. O quanto de espaço o fotógrafo precisa depende parcialmente
do uso que pretende da câmara.

Armazenamento de imagens

Os cartões de memória flash e discos magnéticos (rígidos e disquetes) são amplamente


usados em câmaras digitais, vamos examinar e comparar os diferentes formatos
disponíveis.

Em comum:

• Ambos são reutilizáveis, podem-se apagar arquivos


• Normalmente são removíveis, assim podem ser trocados quando se chega ao
limite do armazenamento
• Podem ser removidos da câmara e conectados no computador ou na impressora
para transferir as imagens

Diferenças:

• Discos magnéticos tem partes móveis, enquanto cartões de memória flash não
• Discos magnéticos são geralmente mais baratos (por foto armazenada) e mais
rápidos
• Cartões de memória são menores, mais leves e menos sujeitos a danos

Vejamos agora os principais tipos de equipamentos para armazenamento das fotografias


em câmaras digitais.

Cartões de Memória Flash

Conforme a popularidade das câmaras digitais e outros equipamentos portáteis cresce,


também aumenta a demanda por equipamentos de armazenamento baratos e de pequeno
tamanho. O de maior sucesso é o cartão de memória flash, que usa chips de estado
sólido (solid state) para armazenar os arquivos de imagem. Embora os chips de
memória flash sejam similares ao chips RAM usados dentro do computador, existe uma
importante diferença: cartões flash não precisam de baterias e não perdem as imagens se
forem desligados. As fotos são mantidas indefinidamente sem qualquer energia.

Cartões de memória flash consomem pouca energia, ocupam pouco espaço e são muito
robustos. São também muito convenientes, fáceis de transportar e trocar conforme o
necessário.

Tipos de cartões flash


26

Existe grande quantidade de cartões de memória flash disponíveis no mercado, contudo


é preciso cuidado pois a maioria deles não são compatíveis. Ou seja, se uma câmara
adopta um tipo, dificilmente pode acomodar outro. Quando se investe num determinado
tipo de cartão, fica-se preso ao tipo de câmara que o utiliza e vice-versa.

Até recentemente, a maioria dos cartões de memória vinham no formato PC Card


(PCMCIA) que eram originalmente usados em computadores tipo notebook. De
qualquer modo, com o crescimento do mercado digital e outros, surgiram novos
formatos ainda menores. Como resultado, existe uma parafernália de cartões de
memória incompatíveis uns com os outros, e que são:

• PC Cards
• CompactFlash
• SmartMedia
• xD Cards
• MemorySticks
• Multimedia Cards

Quando os computadores laptop se tornaram populares, não tinham espaço suficiente


para os acessórios e equipamentos tradicionais dos microcomputadores, assim surgiram
os cartões tipo flash. Chamados inicialmente cartões PCMCIA (Personal Computer
Memory Card International Association), mais tarde tiveram o nome mudado para PC
Cards. De qualquer modo, são conhecidos pelos dois termos.

Seja como for, eles eram usados na maioria dos computadores tipo notebook e logo em
algumas câmaras. Mais ou menos do tamanho de um cartão de crédito, PC Cards
vinham com uma grande variedade de modelos e espessuras, mas eram os do tipo I e II
os usados para memória flash.

Do mesmo modo como Compact Flash e SmartMedia, os PC Cards são compatíveis


com ATA, assim podem ser intercambiados de sistema. Qualquer cartão compatível
ATA pode funcionar com qualquer sistema compatível ATA, incluindo câmaras digitais
e quase todos os computadores portáteis. Estes cartões armazenam até 1.2 GB

Os PC Cards possuem a maior capacidade de armazenamento entre os cartões, mas por


causa das dimensões maiores são usados somente em câmaras digitais profissionais.

Cartões CompactFlash

Os cartões de memória CompactFlash foram desenvolvidos pela SanDisk, e usam a


popular arquitectura ATA que simula um disco rígido. Os cartões tem 36.4 mm de
largura por 42.8 mm de comprimento. É o formato mais usado entre os fabricantes e
actualmente o mais avançado modo de armazenamento para câmaras digitais destinadas
ao consumidor comum e avançado. O CompactFlash type I chega a 1 GB. Existe ainda
o CompactFlash type II, de menores dimensões.

Cartões SmartMedia
27

O modelo SmartMedia é o maior competidor para o CompactFlash e é usado por alguns


importantes fabricantes. Também é baseado na arquitectura ATA. A maior vantagem do
SmartMedia é a simplicidade; não passa de um chip tipo flash num cartão. Não contém
controladores nem circuitos de suporte, o que resulta numa miniaturização de acordo
com os interesses do fabricante. O problema com esta abordagem é que são necessárias
funções de controlo, que precisam ser programadas na câmara, assim a compatibilidade
entre velhos modelos e novos modelos não fica garantida.

Podem armazenar até 128 MB e são menores em tamanho que o CompactFlash.

Cartões xD-Picture Card

Os cartões xD-Picture Card são cartões flash de memória desenvolvidos e de


propriedade de um consórcio formado pela Olympus, FujiFilm e Toshiba. São os de
concepção mais recente, caracterizando-se por dimensões bem diminutas. Surgiram no
final de 2002, e têm ganho espaço no mercado por equiparem as novas câmaras digitais
da Olympus e da Fuji. Actualmente atingem capacidade de até 512 MB, e podem
chegar, com o desenvolvimento natural por parte de seus fabricantes, até 8 GB. Os
cartões xD-Picture podem representar o fim dos cartões SmartMedia, vindo a substitui-
los.

Cartões Sony MemorySticks

A Sony desenvolveu um novo tipo de cartão de memória flash chamado Memory Stick.
A versão actual tem capacidade para até 128 MB. É um formato próprio para câmaras
Sony

Cartões Multimédia

Um cartão Multimédia pesa menos que duas gramas e é do tamanho de um selo postal.
Idealizado inicialmente para telefones celulares e pagers, outros mercados como
fotografia digital e tocadores de música MP3 o adoptaram principalmente pelo tamanho
reduzido. A capacidade varia muito, e pode chegar até 1 GB

Discos magnéticos

Disquetes

Um dos mais antigos e baratos meios de armazenagem de informação continua sendo a


velha disquete. Já foi difícil encontrar um computador sem uma drive para ela. A grande
vantagem é a simplicidade e o uso universal, sem a necessidade de instalação de
softwares, drivers ou qualquer outro recurso para se aceder à imagem. Contudo, a
grande desvantagem foi o espaço extremamente limitado de armazenagem.

Discos rígidos

Um dos pontos fracos dos cartões de memória CompactFlash é a capacidade de


armazenamento relativamente pequena. Para câmaras digitais de alta resolução, isto é
um problema grave. Uma solução é o uso dos ultra-rápidos discos rígidos, iguais aos
dos computadores mas em tamanho miniatura. A solução é da IBM, que criou o
28

Microdrive, um disco rígido do tamanho de um cartão de memória flash, e que pode ter
até 1 GB de espaço para armazenamento.

O microdrive da IBM é menor em volume e mais leve do que um rolo de filme


tradicional. Tão pequenos que podem ser conectados num slot do CompactFlash Type II
(compatível) numa câmara digital ou num leitor de cartões. O Microdrive apareceu
primeiro nas câmaras mais caras, mas eventualmente, poderá ser adoptada por
equipamentos mais acessíveis.

Transferindo arquivos

Vamos agora ao que mais interessa na prática a um fotógrafo, ou seja, uma vez feita a
foto, como transferi-la para o computador, optimizá-la através de software e depois
armazená-la adequadamente.

Existem diversos modos de transferir as imagens para um computador. O menos


recomendado é através de porta serial, por ser um processo de comunicação muito lento.
Portanto, o mais prático é usar uma câmara com saída USB directamente no
computador.

Funciona de forma bem simples: basta instalar o drive da câmara no sistema


operacional, depois é só conectar a câmara na porta USB através de cabo apropriado
que já vem com a câmara. Surge um menu de transferência no ecrã, ou o cartão de
memória da câmara aparece como se fosse mais um disco de armazenamento do
computador, sendo-lhe atribuído uma letra. Por exemplo, se o computador tem o disco
rígido como C: e o CD-ROM como D:, o cartão da câmara (uma vez acoplada) surgirá
como E:

Assim, bastará clicar sobre o ícone de E: para aceder ao cartão da câmara directamente
do computador. Depois basta seleccionar e arrastar os arquivos das fotografias (como se
faz para copiar ou mover arquivos entre pastas do Windows, por exemplo) para
transferir as fotos para o disco rígido.

Organizando as fotografias

Quando se fala de imagens digitais num computador, existem dois passos a serem
realizados para quem quer lidar com fotografia: organizar as imagens de modo a
encontrá-las facilmente, ou seja, criar uma espécie de álbum de fotografia virtual, saber
como retocar as imagens para que estas fiquem optimizadas tanto para visualização
como para impressão. Comecemos pela organização das fotografias.

Quem está acostumado a organizar arquivos de texto ou de outro tipo qualquer já tem
noção de alguns princípios de organização. Normalmente criam-se pastas com nomes
adequados para cada assunto, e vão-se colocando os arquivos pertinentes dentro de cada
pasta.

Recomenda-se o mesmo sistema para fotografias. Independente do software de


catalogamento que se adopte, por princípio é sempre bom ter um sistema pessoal de
organização.
29

Existem inúmeros softwares para organizar imagens no computador. Alguns interessam


apenas a amadores, que pretendem visualizar pequenas quantidades de imagens no ecrã,
outros são projectados para profissionais, permitindo organizar extensos bancos de
imagens por palavras-chave, inclusive por meio de servidores na Internet.

Outra recomendação fundamental é adquirir um gravador de CD-ROM ou DVD-ROM.


Assim, é possível armazenar uma quantidade ilimitada de imagens, mesmo em alta
resolução, gravando em CDs ou DVDs.

Verificar o sistema operacional

Antes de prosseguirmos, para ver no sistema a cor correcta de uma foto, deve-se
configurar o sistema operacional, como o Windows, para apresentar o modo “True
Color” no ecrã do monitor (se a placa de vídeo suportar). Ir ao painel de controle, e
entrar em propriedades do monitor. Na caixa de diálogo, entrar com a maior capacidade
de cores que tiver o driver da placa (true color, ou 24 bits, ou ainda 36 bits). Em high
color (12 ou 16 bits) a imagem ainda não está ideal.

Imagens em preto e branco requerem somente 2 bits para indicar que pixels serão
brancos e quais serão pretos. Escalas de cinza exigem 8 bits para apresentar 256
diferentes tons de cinza. Imagens coloridas são mostradas utilizando-se 4 bits (16
cores), 8 bits (256 cores), 16 bits (65 mil cores, este é o chamado High Color), e 24 bits
(16 milhões de cores). Algumas câmaras e monitores podem apresentar até 30 ou 36
bits. Esta informação extra serve para melhorar ainda mais as cores, mas é processada,
no final, em 24 bits de cor no máximo. A própria vista humana jamais enxergará esses
milhões de cores que o computador pode oferecer...

Editar as imagens

A maioria das fotografias digitais, quando são abertas no computador, estão


teoricamente prontas para impressão. Contudo, nem sempre se encontram optimizadas,
ou seja, é como se alguém tirasse uma foto comum e percebesse que a imagem está sem
contraste, ou muito escura, etc. No caso da foto tradicional nada há a fazer (a não ser
que a pessoa possua um Laboratório). Só que enquanto a fotografia convencional
permitiria que se corrigisse apenas uma cópia em papel de cada vez, no computador o
fotógrafo pode editar a imagem, melhorar a sua qualidade num minuto ou em menos
tempo, e nunca mais mexer nela – depois, sempre que tirar uma cópia, seja para
distribuição on-line ou imprimir, o original estará perfeito...

Para isso, utilizam-se programas específicos para correcção de detalhes, que vão de
problemas simples (como olhos vermelhos, brilho, contraste) a mais sofisticados (como
correcção de cores por canais individuais, etc.).

Se o fotógrafo é amador, ou seja, não tenha a necessidade de enviar a fotografia para


impressão em revistas ou para uso publicitário, softwares simples resolvem os pequenos
problemas. Contudo, se é um fotógrafo mais exigente, ou profissional, então o programa
a adoptar é o Adobe Photoshop.
30

Ajustando a imagem

Uma vez garantido que as cores que se


vêm no ecrã estarão muito próximas da
realidade, o próximo passo importante
na optimização da imagem é
verificarmos os levels (níveis de cor)
da imagem. Ocorre que muitas vezes a O controle Levels do Photoshop
fotografia vai gerar uma amplitude de cores que na verdade não existe, e com isso as
cores na imagem aparecerão incorrectas, pois a imagem é gravada com a amplitude
completa. Existem vários softwares que podem corrigir isso, mas vamos trabalhar com
o Adobe Photoshop. Neste programa, é possível corrigir os níveis de cor tanto
automaticamente como manualmente pelo menu para correcção do histograma, em
Image, Adjust, Levels...

Um histograma é um gráfico que mostra todos os níveis de brilho possíveis dentro de


uma imagem, a partir de um ideal que vai de puro preto (valor 0), a puro branco (valor
255). Muitas vezes uma fotografia possui falhas dentro deste gráfico, que podem ser
corrigidos arrastando pequenos triângulos correctivos no Photoshop. Na maioria dos
casos, escolher a opção de correcção automática resolve o problema.

Contudo, corrigir automaticamente nem sempre produz um bom resultado. O ideal é


realizar-mos a correcção manualmente.

Outra correcção fundamental é em termos de brilho e contraste. Geralmente as imagens


digitais são pouco contrastadas ou com pouco brilho, dependendo do modelo e marca da
câmara. Um ajuste que quase sempre funciona bem, é realizado através do menu Image,
Adjust, Curves...

Para simplificar, pode-se corrigir os


níveis de brilho e contraste no menu
Image, Adjust, Brightness/Contrast...,
mas trabalhar no modo Curves... o
resultado será melhor.

A maioria das fotografias tiradas com


uma câmara digital contém ainda
algum desfoque que pode ser corrigido
usando-se um processo chamado, no
Photoshop, unsharp masking. A
ferramenta funciona localizando bordas
dentro da imagem procurando por
pares de pixels adjacentes que tenham
uma específica diferença de brilho
(chamada pelo Photoshop “threshold”)
O modo Curves do Photoshop e aumenta o contraste entre estes pixels
em certo valor.

Isto afecta não apenas os pixels mudados, mas também numa certa distância.
31

Os controles desse filtro são três:

1. threshold é a diferença entre o


brilho de dois pixels antes
deles serem considerados
bordas e ganhar nitidez pelo
filtro. Se for deixado em 0,
todos os pixels na imagem
ganharão nitidez. Em raros
casos deve-se alterar para
valores entre 2 e 20, o ideal é
deixar sempre em zero.
2. O valor amount é a
percentagem em que o
contraste entre cada borda é
melhorado. Um bom valor para
começar é por volta de 100%.
3. O radius é o número de pixels Com o Unsharp Mask ganha-se nitidez na imagem
ao redor da borda que ganham
nitidez. Para começar, deve-se usar um valor entre 1 e 2 pixels, mas dependendo
da fotografia, até 0,5 serve.

Estes são os retoques básicos.

Onde e como imprimir

A resolução em pixels necessários para bons resultados na impressão depende muito da


impressora que se estiver a usar. Em qualquer impressora jacto de tinta, serão
necessários pelo menos uns 300 dpi para simular uma fotografia. Um detalhe, se a
imagem tiver sido obtida por digitalização a partir de uma revista ou folha impressa,
conterá pequenos pontos (retícula) e será mais difícil a imagem ficar correcta (existe um
filtro no Photoshop, o Gaussian Blur, para atenuar esse efeito).

Impressoras postscript e profissionais utilizam uma medida de resolução chamada


linhas por polegada (LPI). É baseada na grade que usam para “quebrar” uma imagem de
meio-tons, como uma fotografia, em pequenos pontos (que o computador chama
pixels). Historicamente, estas grades (halftone line screens) têm linhas rectas que
variam em largura, e a terminologia LPI permaneceu. Impressoras postscript alcançam
entre 85 e 180 lpi – e estes números podem ser considerados padrões de impressão. O
número menor é usado em impressão para jornais, e o maior em imagens de alta
qualidade. Quando se digitalizam fotografias para um uso específico, convém digitalizar
a imagem no dobro do valor de lpi para dpi. Por exemplo, se a imagem for impressa em
133 lpi, digitalizar ao menos em 266 dpi.

Com 300 dpi a imagem fica correcta para Detalhes sobre a impressão
o olho humano
Para entendermos melhor o processo de impressão de uma imagem digital, em primeiro
lugar é preciso entender que um pixel não tem tamanho ou forma. No momento em que
32

“nasce”, é simplesmente uma carga eléctrica. O seu tamanho e aparência são


determinados apenas e tão somente pelo equipamento que o apresenta. Entender como o
pixel e o tamanho da imagem se relacionam um como o outro exige um pequeno
esforço - mas nada além do que um conhecimento de matemática básico.

Um pixel torna-se visível no sensor de imagem de uma câmara desde o momento exacto
em que o obturador abre. O tamanho de cada foto célula no sensor pode ser medido,
mas os pixels em si são apenas cargas eléctricas convertidas em números digitais. Estes
números, como qualquer outro número que se imagine, não tem tamanho físico.

Embora os pixels capturados não tenham dimensões físicas, pela quantidade de foto
células existentes sobre a superfície de um sensor pode-se estabelecer uma quantidade
de pixels na fotografia digital.

Como os pixels armazenados num arquivo de imagem não têm tamanho físico ou
formato, não é de estranhar que o número de foto células não indique por si mesmo a
definição da imagem ou mesmo o seu tamanho. Isto porque as dimensões de cada pixel
capturado e a imagem da qual faz parte são determinados pelo equipamento de saída.
Este equipamento de saída (digamos um monitor ou uma impressora), por sua vez, pode
expandir ou contrair os pixels disponíveis na imagem por uma pequena ou grande área
do ecrã ou do papel de impressão.

Se os pixels de uma imagem são comprimidos numa área menor, a nitidez perceptível
ao olho humano aumenta. Imagens em alta resolução apresentadas em monitores ou
impressas parecem mais nítidas porque os pixels disponíveis na imagem são agrupados
numa área menor – não porque existam mais pixels. Se os pixels são ampliados,
passando assim a mesma imagem a cobrir uma área maior, a percepção de nitidez da
imagem diminui. E se aumentarmos a imagem além de certo ponto, os pixels passam a
parecerem quadrados.

A imagem no monitor

Como já vimos, quando uma imagem digital é apresentada no ecrã do computador, o


tamanho é determinado por três factores – a resolução do monitor, o tamanho do
mesmo, e o número de pixels na imagem. Vamos rever isto tudo para uma melhor
compreensão no momento da impressão.

O tamanho de cada pixel no ecrã é determinado pela resolução do monitor. Esta


resolução é quase sempre dada a partir de um par de números que indicam a capacidade
da tela em largura e altura. Por exemplo, a resolução básica de um monitor de 14
polegadas é de 640x480 pixels – uma resolução pequena. Um tamanho médio de
resolução seria 800x600 pixels, enquanto uma resolução alta para o mesmo monitor
seria de 1024x768 pixels. O primeiro número significa a largura, ou seja, quantos pixels
ocupam a largura do ecrã, enquanto o segundo número corresponde a quantas linhas
(altura) de pixels cabe no ecrã. Referindo que a apresentação dos pixels é sempre em 72
dpi num monitor.
33

Assim, a quantidade de pixels por polegadas (ppi) que aparece num monitor de
computador depende da resolução utilizada, já que serão necessários muito mais pixels
num monitor de 14 polegadas numa resolução de 1024x768 do que numa de 640x480.

Do mesmo modo que a resolução do ecrã afecta o tamanho da imagem, assim acontece
com o tamanho do monitor. Se tivermos um monitor de 14 polegadas e outro de 21
polegadas, e usar-mos a mesma resolução nos dois, digamos, 800x600 pixels, as
imagens aparecerão de tamanhos bem diferentes, pois os pixels (como não têm
dimensão), irão se acomodar para preencher todo o espaço do ecrã. Assim, uma mesma
imagem em 800x600 pixels, no monitor de 14’ aparecerá nítida, enquanto no de 21’
poderá se apresentar sem nitidez nenhuma.

Finalmente, o que determina a resolução do monitor, além da capacidade do próprio


equipamento em apresentar determinados modos de resolução, é a placa de vídeo do
computador. Para um fotógrafo, uma boa placa de vídeo é tão importante quanto dispor
de um bom monitor. Existem diferenças significativas de qualidade tanto entre
monitores como placas de vídeo.

Substituindo pixels por polegada

Todas as medidas utilizadas por impressoras e computadores foram determinadas nos


Estados Unidos, onde se continua a utilizar as medidas em pés, polegadas e assim por
diante. Refira-se que 1 polegada vale 2,54 cms, ou seja, pouco mais de 2 centímetros e
meio.

Normalmente o fotógrafo não pode mudar o número de pixels de uma imagem para
assim mudar o tamanho da imagem impressa. Esta tarefa é gerenciada pelo software que
se utiliza para imprimir a imagem. Portanto, a primeira coisa a ser verificada é se a
imagem terá a resolução correcta (de 300 dpi) no tamanho que se pretende imprimir.

Numa impressora caseira, pode-se conseguir um maior tamanho de imagem sem


praticamente nenhuma perda de qualidade observável se colocar-mos uma resolução de
até 267 dpi. Menos que isso já surgirão problemas com a qualidade da imagem. Agora,
se for para um laboratório para impressão em papel fotográfico tradicional, teremos que
usar os 300 dpi, pois as máquinas são geralmente calibradas para esta definição.

Qual o maior tamanho que se pode imprimir, sem perda de qualidade, uma imagem com
2048 x 1536 pixels e 300 dpi?

A resposta será dividirmos o número de pixels na largura (2048/300=6,826), e depois


multiplicarmos por 2,54 (cms), ou seja, (6,826x2,54=17,33). A resposta é 17,33 cms!

Uma vez ajustada a largura, qualquer programa ajusta automaticamente também a altura
(1536 pixels). Mas se quisermos fazer a conta, (1536/300=5,12) depois
(5,12x2,54=13,00). Resposta, 13 cms. A fotografia será impressa em alta resolução, sem
perda de qualidade, no tamanho de 17,33 x 13,00 centímetros.

Uma observação importante: alguns equipamentos, como plotters e impressoras


especiais, utilizam outros números ideais de resolução, e no caso deve-se consultar as
34

empresas que fornecem o serviço a respeito da resolução com a qual o arquivo deve ser
enviado. Isso pode variar de 125 a 400 dpi, portanto, é bom sempre perguntar a respeito
antes de gravar um CD para envio do material.

Imprimir em papel fotográfico

Como as cores são impressas

Para perceber como as cores são impressas, devemos estudar o sistema CMYK,
utilizado pelas impressoras.

Na maioria das impressoras (dye sub são excepção), cada ponto impresso tem a mesma
densidade de cor. Se uma impressora combinar somente estas cores sólidas, pode ficar
limitada às cores primárias. Para capturar os milhões de cores de uma fotografia, a
impressora tem que usar um recurso para enganar a vista humana, gerando um padrão
aceitável de pontos para visualização. Este processo é chamado de halftoning ou
dithering (meio tom).

O processo de halftoning é conseguido juntando os pontos imprimíveis em pequenos


grupos chamados células, e utilizando estes grandes pontos formados por células em
unidades para a impressão dos pixels. Cada célula mede 5 por 5 ou 8 por 8 pontos. As
três ou quatro cores primárias são combinadas num determinado padrão, que a vista
humana percebe como cores intermediárias. Para cores menos saturadas, a impressora
deixa alguns pontos sem imprimir e simula assim brancos de cor.

Este processo é utilizado há já bastante tempo na impressão industrial, e pode ser


visualizado ao olhar uma fotografia de revista com uma lupa.

Impressoras de jactos de tinta

As impressoras jacto de tinta funcionam jogando minúsculas gotas de tinta sobre uma
superfície de papel. No mercado actual, esta tecnologia é de baixo custo e indicada para
impressão doméstica ou de baixo volume. Apesar do custo baixo, a qualidade de
impressão, principalmente dos últimos modelos, é excelente, principalmente com papéis
especiais para fotografia.

Embora se possa imprimir fotografias em papel comum, as gotas de tinta serão em parte
absorvidas na folha, como num mata-borrão, perdendo qualidade de cor e tons,
principalmente se o papel for tipo absorvente. O ideal para imprimir fotografias é
utilizar um papel próprio para tal.

Se a qualidade for importante, existem as impressoras por sublimação de tinta, assim


chamadas por utilizarem tinta sólida que, por um processo que é conhecido
cientificamente como “sublimação”, é convertida em estado gasoso e aplicada no papel
sem passar pela fase líquida.

Quando se imprimem fotografias coloridas, não existe nada parecido com o resultado
obtido por este tipo de impressora. Produzem imagens fotorealísticas com tons
contínuos como os que são produzidos pelo laboratório de fotografia. As impressoras
deste tipo são recomendadas para profissionais.
35

Impressoras dye-sublimation funcionam transferindo a tinta a partir de um cilindro de


transferência ou de uma fita. O cilindro contém quadros consecutivos de tintas nas cores
cian, magenta, amarelo e preto. Também existem cilindros sem o preto, mas que não
produzem resultados tão bons. O custo de cada folha de papel também é caro.

Finalmente, papéis e tintas têm uma vida útil limitada. Com o tempo, as imagens vão
perdendo a cor. Este é um problema que existe desde os primórdios da fotografia.
Enquanto a imagem desaparece, a memória também desaparece com ela. Contudo, uma
das grandes vantagens da imagem digital hoje é que um arquivo, desde que não seja
apagado de um computador (ou no suporte onde estiver armazenado), não tem como
desaparecer nem perder qualquer qualidade. Portanto, se a imagem impressa e/ou filme
tendem a ter vida curta, a imagem digital não.

Imagens por scanners

Quando a imagem é digitalizada, uma fonte de luz desliza sobre a fotografia (ou
documento impresso). Alguns modelos fazem o contrário, “puxam” o documento pela
fonte. A fonte de luz reflecte a superfície da foto (ou documento), ou passa através do
slide ou negativo, sendo focado por um sistema óptico (lente e espelho).

A capacidade de resolução óptica de um scanner é determinada pelo número de foto


células no seu sensor. De qualquer modo, a resolução vertical é determinada pela
distância percorrida em cada passagem. Por exemplo, um scanner com uma resolução
de 600x1200 possui 600 foto células no sensor e move-se, entre cada passagem, uma
distância de 1/1200 de polegada.

Alguns scanners são projectados para digitalizar fotografias e documentos – operam por
reflexão. Outros são desenhados para digitalizar transparências (slides e negativos).
Ainda existem os que são basicamente para documentos mas possuem adaptadores para
transparências, contudo, a qualidade neste caso geralmente costuma ser inferior.

Quanto ao tamanho, a maioria dos scanners de reflexão pode digitalizar imagens no


tamanho A4 ou até maiores. Os scanners para transparências podem digitalizar imagens
35 mm ou maiores, dependendo do formato da película.

Dynamic Range

Cenas do mundo real são cheias de luzes brilhantes e sombras fortes. Estes extremos
são chamados de dynamic range, ou amplitude de cores. Os filmes não têm de modo
algum a amplitude de cores que se observa na natureza, sendo uma tarefa difícil o
capturar uma cena real num filme. E quando o filme (a fotografia) é impressa, perde
ainda mais qualidade. Por isso é melhor digitalizar originais (negativos e slides) do que
imagens já impressas.

O quanto de amplitude de cores se pode capturar depende da habilidade do scanner em


registrar os tons que vão do puro branco ao puro preto. Se o scanner não tiver um
dynamic range suficiente, os detalhes serão perdidos nas áreas sombreadas ou de luz
forte, ou em ambas.
36

O dynamic range de um scanner pode ser medido e determinado num número entre 0.0
(branco) e 4.0 (preto) que indica a capacidade de capturar todos os valores
intermediários. Scanners comuns (flatbed) normalmente registram valores entre 0.0 e
2.4.

Embora a densidade da imagem varie do puro branco ao puro preto, nenhum detalhe
pode ser visto nestas áreas. Conforme se progride do puro branco para áreas levemente
escuras, os detalhes aparecem. O mesmo ocorre do outro lado do espectro. O ponto no
qual o scanner captura o detalhe é chamado Dmax (densidade máxima). O dynamic
range é calculado subtraindo-se a densidade mínima (Dmin) da máxima. Por exemplo,
se um scanner tem um Dmin de 0.2 e um Dmax de 3.2, o dynamic range é de 3.0.

Profundidade de cor

Como vimos anteriormente, a profundidade de cor refere-se a quantos bits são


determinados por cada pixel na imagem. Os melhores scanners utilizam 36 bits (12 para
cada canal vermelho, verde e azul) para produzir 6.8 trilhões de cores. Quando estes
arquivos são processados e convertidos em arquivos de 24 bits, passam a ter mais
graduações e cores mais vivas.

A qualidade das cores numa imagem digitalizada não depende apenas da profundidade
mas também de seu “registro”. Dado que as cores são capturadas por diferentes sensores
em intervalos de tempo diversos, podem não combinar perfeitamente na hora da
mesclagem. Isto aparece na forma de manchas ao redor de detalhes da imagem.

Scanners para filmes

Os scanners para slides e negativos têm muito mais qualidade do que os de papel porque
possuem uma amplitude de cores (dynamic range) maior. Utilizando-se um adaptador
para rolos de filmes (filmstrip holder), pode-se digitalizar em sequência seis ou mais
fotografias com excelentes resultados.

Como slides e negativos são menores e precisam ser muito ampliados, estas unidades
precisam ter resoluções altas para serem úteis. Alguns dos melhores scanners de filmes
utilizam um software chamado Digital ICE que elimina a poeira e a sujidade da
superfície do fotograma digitalizado.

Scanners de mesa

Os chamados scanners de mesa (flatbed scanners) são úteis tanto para imagens P&B
como a cores. São excelentes para restauração de fotografias antigas. E uma das
vantagens do scanner de mesa é que são pau para toda obra, podendo copiar
documentos de todos os tipos e ainda utilizar o OCR (reconhecimento de texto).

Muitos desses scanners possibilitam ainda a digitalização de slides e negativos através


de adaptadores, geralmente embutidos na tampa superior do scanner. Contudo, as
resoluções neste caso são geralmente bem inferiores à resolução que um verdadeiro
scanner de transparências permite, e as cores nem sempre saem muito boas.
37

É interessante notar que se podem fazer experiências interessantes com um scanner,


usando-o para gravar imagens, quase como se fosse uma máquina fotográfica. Um bom
truque é colocar algum material sobre o objecto que se quer gravar, de modo a fazer
fundos interessantes (como tecidos de diversas texturas e cores).

O ideal é usar um scanner cilíndrico. Nestes modelos, a transparência (slide ou


negativo) ou ainda a foto já impressa são fixados num cilindro de vidro. Conforme o
cilindro gira, a imagem é lida numa linha de cada vez num tubo fotosensível ao invés de
um CCD. Estes equipamentos permitem a mais alta qualidade de RGB e CMYK com
grandes detalhes tanto nas partes claras como em áreas sombreadas. O dynamic range é
tão alto que se pode capturar detalhes ínfimos em tonalidades, e a resolução chega a
valores altíssimos, impossíveis de serem obtidos com outros equipamentos.

Adaptado a partir do Manual de Fotografia “Banco da Imagem”

http://www.bancodaimagem.com.br/artigos/

Luís Rocha