Escolar Documentos
Profissional Documentos
Cultura Documentos
Fotogrametria Material.
Fotogrametria Material.
PRINCÍPIOS BÁSICOS DE
FOTOGRAMETRIA
2.1
distintos. Como exemplos, encontram-se a luz visível, a região do
infravermelho, do ultravioleta e as ondas de rádio, além dos raios X, raios
Gama e outros, de menor importância. Considerando a clássica fórmula
de propagação de ondas:
v=λ.f (2.1)
onde:
“v” é a velocidade da onda; neste caso v = c = 3 x 108 m/s;
“λ“ é o comprimento da onda;
“f” é a freqüência (número de ciclos por segundo passando por dado
ponto) com a qual a onda se apresenta;
Obviamente, a freqüência é inversamente proporcional ao
comprimento de onda. As diferentes variedades de ondas
eletromagnéticas podem ser, então, escalonadas da seguinte forma
(Figura 3.2):
Q=h.f (2.2)
onde:
2.2
“h” é a constante de Planck;
“f” é a freqüência da radiação;
“Q” é a energia do pacote.
Combinando-se as equações (2.1) com a (2.2) chega-se a:
Q = hc/ λ (2.3)
M = σ T4 (2.4)
onde:
“M” é o fluxo de energia em W m-2;
σ“ é a constante de Stefan-Boltzmann (5,6697 . 10-8 Wm-2K-4);
“
λd = A / T (2.5)
2.3
onde:
“λd ”, como já foi dito, é a radiação dominante em µm;
“A” é uma constante, e equivale a 2898 µm K;
“T” é a temperatura do corpo, em K;
Figura 2.3 – Cores primárias da luz (processo aditivo – Sistema RGB) e cubo de cores,
com cor genérica “X” representada graficamente como uma combinação das outras três
2.4
vermelho, verde e azul em inglês) é utilizado nos televisores e monitores
de computador. As cores complementares são o amarelo, o magenta e o
ciano e são formadas pela subtração das cores primárias da cor branca.
Nos sistemas de impressão (figura 2.4), as cores complementares são
tomadas como básicas, ocorrendo fato inverso: as cores primárias passam
a ser formadas pela combinação das complementares, isto é, o sistema
denominado CMYK (Cyan, Magenta, Yellow and blacK) neste caso, a cor
preta, que seria a subtração das três. Logo, atenção especial deve ser
tomada de modo a, em uma impressão, manter-se a fidedignidade das
cores exibidas.
O espaço RGB também pode ser visto como um espaço vetorial de
cores (cubo RGB), onde cada tonalidade pode ser obtida a partir de uma
combinação primária das cores promárias (figura 2.3).
Figura 2.5 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 6000 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
2.5
radiação emitida encontra-se na região do infravermelho termal, nome que
decorre justamente do relacionamento direto com a temperatura dos
corpos que encontram-se ao nosso redor.
De modo a visualizar estes dados de um modo mais interativo, é
interessante utilizar um aplicativo que mostre as curvas para corpos de
diferentes temperaturas. Como exemplo, tem-se o “Black Body Applet”,
da Universidade de Colorado (Estados Unidos). As figuras 2.5 e 2.6
mostram as curvas para um corpo negro de 6000 K e 300 K.
Figura 2.6 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 300 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
ENERGIA ELETROMAGNÉTICA
2.6
além, é claro, da emissão, que é natural de todos os corpos. Para o
Sensoriamento Remoto interessa principalmente a reflexão, pois é a partir
da energia refletida pelas feições da superfície terrestre que os filmes ou
dispositivos CCD das câmaras são sensibilizados.
Essa reflexão se dá de duas maneiras: especular e difusa. Na
reflexão especular, parte da luz incidente (que não é absorvida nem
transmitida) é refletida com um ângulo igual ao de incidência, equivalendo-
se a um espelho. Um exemplo é mostrado na figura 2.7.
2.7
Figura 2.8– Reflexão difusa
2.8
espalhamento, que, como o nome diz, “espalha” de modo disperso
determinada radiação. O espalhamento de Rayleigh (o mais famoso)
decorre da interação de partículas muito menores que o comprimento de
onda da radiação. Graças a ele, vemos o céu azul, pois a radiação na
faixa do azul (a de menor comprimento de onda) é a mais espalhada por
esse tipo de partículas.
O espalhamento de Mie ocorre para partículas da mesma ordem de
grandeza que o comprimento de onda e afeta principalmente os
comprimentos de onda maiores.
O espalhamento não-seletivo é devido às partículas muito maiores
que os comprimentos de onda (poeira em suspensão), e que espalham
igualmente radiação de todos os comprimentos de onda. Por isso a
neblina e as nuvens se apresentam na cor branca.
O espalhamento pode empobrecer a imagem adquirida sobre
determinada área onde esse efeito se faz notável. Filtros podem ser
colocados nas câmaras para atenuar estes problemas. Técnicas de
processamento digital também podem ser executadas. Ambos os casos
serão estudados no decorrer do capítulo.
2.9
Figura 2.9– Princípio da câmara escura
s d2 t
Exp = (2.7)
4f 2
f-stop = f / d (2.8)
st
Exp = (2.9)
4 ¢fBstop£2
2.12
Figura 2.11– Representação esquemática de uma câmara fotogramétrica
2.13
Figura 2.12 – Alguns dados marginais de fotografias aéreas (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
2.14
No magazine, localiza-se o sistema de aderência a vácuo e de troca
de filmes (câmaras analógicas apenas).
Toda câmara fotogramétrica vem acompanhada de um certificado
de calibração, ou seja: um documento que atesta os valores precisos de
determinados parâmetros fundamentais da câmara, que serão
devidamente utilizados nos processos fotogramétricos posteriores. Um
exemplo de certificado encontra-se na figura 2.13.
2.15
Tipo de Ângulo Distância Características (recomendação de uso)
câmara de focal
abertura
2.16
ponto é chamada de distância focal calibrada.
2.17
dos respectivos desvios-padrão. Os métodos utilizados para a calibração
de câmaras fogem um pouco do escopo desta obra, sendo aconselhável
aos mais interessados a leitura de (Andrade, 1998).
ANALÓGICAS
2.18
diferentes), acarretando em distintas exposições. A redução dos grãos,
após a revelação, produz um depósito de prata no filme. À medida que
essa prata se deposita, mais escura fica a região onde se dá o acúmulo –
ou seja, objetos mais claros terão suas imagens mais escuras – a isso se
chama negativo.
Caso se queira gerar uma imagem em filme correspondente à
coloração dos objetos, deve-se sensibilizar um filme com um negativo à
frente. Esse filme, quando revelado, passa a se chamar diapositivo. Os
diapositivos são muito empregados em fotogrametria, devido à
translucidez característica deles, que permite melhor visualização contra
projetores de luz e scanners.
Obviamente, as fotografias em papel, opacas, são também geradas
do mesmo modo. Sua utilização é igualmente irrestrita, servindo para a
confecção de mosaicos analógicos e de apoio ao pessoal de campo,
quando da medição dos pontos de controle e coleta dos topônimos.
A medida chamada transmitância (T) expressa a razão entre a
quantidade de luz que pode passar pelo diapositivo (ou pelo negativo) e o
total de luz que incide sobre o filme. A opacidade (O) é igual ao inverso da
transmitância. Assim, quanto mais escura for a imagem, menor é a
quantidade de luz que por ela passa, menor é a transmitância e maior é a
opacidade, e maior é a densidade (D). A densidade é o logaritmo decimal
da opacidade. O uso de unidades logaritmicas advém do fato de o olho
humano responder aos estímulos visuais de modo aproximadamente
logaritmico.
Colocando-se em um gráfico a densidade (D) pelo logaritmo da
exposição (log E), obtém-se uma curva denominada curva característica
do filme. Em geral, ela é representada para o filme em negativo, porém,
curvas para diapositivos também podem ser encontradas. A figura 2.17
expressa o formato aproximado de tais curvas.
Pode-se perceber que a curva característica possui uma parte
central que assemelha-se a uma reta. É esta a área de utilização do filme.
Se a exposição for curta demais, a densidade será baixa e a curva
característica cairá numa região não-linear (início da curva). Se a
exposição for longa demais, fato semelhante ocorrerá (final da curva).
2.19
Figura 2.17 – Perfil de curvas características para um negativo e um diapositivo
2.20
foram estabelecidos – os mais importantes, denominados resoluções, são
demonstrados no tópico a seguir.
ANALÓGICAS
2.21
seção 2.2.2), cuja tarefa é identificar até que ponto a imagem obtida
mantém os padrões regulares de transição “branco para preto”.
2.22
Os filmes geralmente utilizados em aerofotogrametria possuem
uma resolução espacial em torno de 40 l/mm (ou 40 lp/mm). Para um vôo
na escala de 1:25000, a resolução espacial no terreno seria igual a: 25000
(denominador da escala) / 40 = 625 mm = 0,625 m.
A resolução radiométrica é um fator que está relacionado com a
capacidade de se detectar as menores variações possíveis de incidência
de energia sobre o filme. Por exemplo, um filme que seja capaz de
registrar apenas dois tons: preto e branco, tem uma resolução
radiométrica menor que um filme que seja capaz de registrar várias
nuances de cinza dentro da mesma faixa de exposição. Esse exemplo vale
muito mais para imagens digitais, porém, para imagens analógicas
também se aplica.
A resolução radiométrica pode ser melhor verificada através de um
gráfico comparativo entre duas emulsões, como atesta a Figura 2.21.
Obviamente, há um intervalo mínimo de variação de densidade que
acarreta em uma diferença de tonalidade na imagem final. Se, para esse
intervalo mínimo de variação, corresponder uma menor diferença de
exposição, logo, a resolução radiométrica é maior. Imagens com alta
resolução radiométrica apresentam alto γ.
2.23
A resolução espectral envolve o número de bandas e a espessura
de cada banda que o filme é capaz de cobrir. Um filme pancromático
cobre a faixa do visível, por exemplo. Um filme colorido cobre a mesma
faixa, porém em três bandas diferentes: vermelho, azul e verde. Como o
filme colorido tem três bandas, e cada banda é mais estreita que o
pancromático (obviamente, pois este equivale às três juntas), pode-se
dizer que o filme colorido tem uma maior resolução espectral que o
pancromático.
Existem praticamente apenas quatro variedades de filme:
pancromático (todo o visível, foto em tons de cinza), pancromático
incluindo a faixa do infravermelho, colorido e falsa-cor (associa a
coloração vermelha da foto à radiação infravermelha, a coloração verde à
radiação vermelha e a coloração azul à radiação verde). O uso da cor se
justifica devido à maior facilidade do olho humano de discernir entre cores
diferentes, ao invés de tons de cinza. Entretanto, os filmes coloridos
geralmente são mais pobres em termos de rapidez de exposição e
resolução espacial – o que limita seu uso apenas a casos em que são
estritamente necessários.
O filme colorido funciona de modo semelhante ao pancromático,
porém envolve três emulsões diferentes, e que possuem curvas
características semelhantes. Vale lembrar que, assim como no caso do
negativo preto-e-branco, cuja emulsão corresponde, em coloração,
contrariamente à radiação que o sensibiliza (exemplo: um objeto branco,
no negativo, é representado com coloração preta) as emulsões sensíveis a
determinada cor, são representadas, no negativo do filme colorido, pela
coloração contrária à da radiação. Um exemplo: se um objeto azul é
fotografado, sairá com a coloração amarela no negativo (basta ver no
diagrama de cores primárias, ou complementares, qual é a cor que se
encontra exatamente do lado oposto da cor desejada).
As emulsões do filme colorido são as seguintes: emulsão sensível à
luz azul – e que tinge o negativo de amarelo; emulsão sensível à luz verde
e à luz azul e emulsão sensível à luz vermelha e à azul. Como as duas
últimas emissões são sensíveis ao azul também, convenciona-se colocar
um filtro azul bastante fino entre a primeira camada de emulsão e as
2.24
outras duas. Com isso, chega às duas últimas apenas a luz vermelha e a
verde, e com isso elas passam a se tornar: emulsão sensível à luz verde –
que tinge o negativo de magenta e emulsão sensível à luz vermelha – que
tinge o negativo de ciano. Como qualquer radiação no visível é uma
composição de vermelho, verde e azul, pode-se representá-las através da
fotografia colorida.
Para os filmes falsa-cor, o princípio é o mesmo, apenas variando as
radiações que os sensibilizam (maiores detalhes sobre a composição
cromática do filme são encontrados em (Lillesand, Kiefer, 2000)).
A última das resoluções de uma imagem é a resolução temporal, e
que se relaciona com o tempo de revisita da plataforma na qual a câmara
está montada. Um satélite que, por exemplo, adquira imagens de uma
mesma região de 17 em 17 dias terá uma resolução temporal maior que
uma série de vôos para atualização cartográfica que cobrem a mesma
área, imageando-a apenas uma vez a cada ano. É um conceito que
interessa muito às aplicações temáticas, tais como: movimentação de
bacias, crescimento populacional, poluição urbana e estudos ambientais,
etc. Como, em geral, para vôos fotogramétricos, a área é coberta apenas
uma vez, este é um conceito que se aplica principalmente para imagens
orbitais.
DIGITAIS
2.25
chamadas pixels (picture elements). Dentro de cada pixel, há somente
uma coloração sólida, definida por um número digital. Neste momento,
basta saber que cada número digital possui uma determinada coloração
associada a ele. Os pixels podem ser melhor evidenciados se a imagem
for sucessivamente ampliada (Figura 2.22).
Figura 2.22 – Note-se a estrutura de pixels existente na imagem e melhor evidenciada após
sucessivas ampliações da mesma
2.26
2.2.2.1. RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
DIGITAIS
2.27
capacidade de discernir quantidades cada vez maiores de tons dentro
de uma determinada banda do espectro eletromagnético. Para as
imagens digitais, esse fator é mais facilmente quantificável, uma vez que,
por definição, a imagem digital deve possuir uma quantidade certa de
tons.
2.28
(tópico a seguir), faz-se necessário realizar um processo chamado
quantificação. Isso equivale a encaixar todas as respostas espectrais do
terreno imageado, na banda desejada, ao número de tonalidades pré
determinado.
2.29
de 15 a 16 u.e. – número digital igual a 15 (branco)
2.30
menores e em maior quantidade.
FOTOGRAMÉTRICAS DIGITAIS
2.31
elétrons, gerando uma pequena corrente em cada um dos detectores.
Quanto maior a quantidade de energia que chega a um detector, maior é a
corrente gerada no mesmo.
Os scanners usados com fotogrametria digital são geralmente os
drum scanners, ou os scanners a vácuo. Estes usam a tecnologia PMT
(photo multiplier tube). O documento a ser digitalizado é posicionado em
um cilindro de vidro (caso dos drum scanners), ou colado a vácuo a uma
superfície lisa (caso dos scanners a vácuo). No centro do sistema, há um
sensor que separa a luz refletida pelo documento em três raios. Cada raio
é enviado a um filtro colorido onde a luz é transformada em um sinal
elétrico correspondente, de modo semelhante aos scanners de mesa.
2.32
perda de resolução geométrica pode ser evitada, como será visto a seguir,
porém, freqüentemente é desejável, assim como a radiométrica, de modo
a diminuir o tamanho dos arquivos finais. O papel do profissional
envolvido na área de fotogrametria é fundamental no estabelecimento dos
limites de discretização e quantificação, de modo a permitir o tratamento
preciso dos dados, preservando a elegância das imagens originais. Um
erro nesta fase pode acarretar em dados obtidos sem precisão ou
imagens tão grandes que se tornam difíceis de manipular.
Em geral, para a resolução radiométrica, os valores mais utilizados
são os de 256 níveis de cinza (8 bits) ou 16 milhões de cores (8 bits em 3
bandas). Para a resolução geométrica (ou espacial), importantes
considerações são apresentadas a seguir.
Já foi previamente dito que a imagem analógica possui uma certa
resolução espacial, expressa em linhas/mm (ou lp/mm). O chamado
teorema da amostragem define que a resolução da imagem digital (RID)
deve ser o dobro da resolução da imagem analógica (RIA), ou seja:
RIA
RID= (2.10)
2
RIA
RID= (2.11)
2 2
2.33
RIA RIA
TRIDT (2.11)
2 2 2
Figura 2.28 – Três sistemas diferentes de obtenção de imagens a partir de câmaras aéreas:
o primeiro envolve uma matriz de pixels completa (sistema de quadro), que adquire
imagens sobre todo um trecho do terreno; o segundo é o sistema por varredura eletrônica:
há somente uma linha de pixels, que adquirem uma linha imediatamente abaixo dela (a
imagem final é montada a partir da união das imagens parciais adquiridas); o terceiro é o
sistema por varredura mecânica: um conjunto de detectores é rotacionado até percorrer a
área desejada (notadamente, é o método que envolve o maior esforço computacional para
corrigir as distorções).
IMAGENS
2.35
• Curvatura de Campo – Objetos situados em um mesmo plano no objeto a
ser imageado não possuem seus círculos de confusão mínima situados no
mesmo plano, o que faz com que o plano-objeto não seja estritamente
plano, e sim parabolóide. É bastante controlado quando se diminui a
abertura do diafragma.
• Distorção – É a única que afeta a posição dos objetos imageados, e não
a qualidade da imagem. Há dois tipos de distorção: radial simétrica e
descentrada. A distorção radial simétrica é devida à refração sofrida por
um raio de luz ao atravessar uma lente e afeta regularmente os pontos da
imagem, a partir do ponto principal de simetria. A distorção descentrada é
causada pelo não-alinhamento dos eixos ópticos dos componentes da
objetiva de uma câmara. Ambas são modeladas por equações
matemáticas, cujos coeficientes são obtidos através do certificado de
calibração de câmara.
Para a distorção radial simétrica, as equações são do tipo
polinomial (Schenk, 1999):
2.36
δx' = p1(r2 + 2x''2) + 2 p2 x''y'' (2.16)
δy' = p2(r2 + 2y''2) + 2 p1 x''y'' (2.17)
x = x' - δx (2.18)
y = y' - δy (2.19)
2.37
2.3.3 DISTRIBUIÇÃO DE LUZ NO PLANO FOCAL
2.38
2.3.4 ARRASTAMENTO DA IMAGEM
a=VtE (2.20)
a é o valor do arrastamento;
V é a velocidade da plataforma, em m/s;
t é o tempo de exposição, em s;
E é a escala da foto.
2.39
• Névoa atmosférica – As partículas da névoa tendem a refletir o azul
(espalhamento de Rayleigh), deixando a foto azulada. Para diminuir esse
efeito, usa-se um filtro amarelo (chamado de minus blue) com boa
transmitância para as demais cores.
• Variação do índice de refração nas camadas atmosféricas – Em função dos
diferentes índices de refração, os raios ópticos não são exatamente retos,
sofrendo de curvaturas que levam, na imagem, ao deslocamento dos
pontos de sua verdadeira posição. (Schenk, 1999) indica uma fórmula
para a correção deste efeito:
¢ £r3
dr=K rA 2
f
(2.21)
¦
K= 2
2410H
B 2
2410h 2
H B6HA250 ¢h B6hA250£H §
10B6 (2.22)
2.40
apresentar-se bastante clara ou escura. A função de aumento de
contraste trabalha com a imagem, alterando os números digitais dos pixels
de acordo com uma nova distribuição. Neste caso, objetos muito claros
ou muito escuros perderão sua fidedignidade. Um exemplo apresenta-se
na figura 2.30.
2.41
direção;
• Filtros de convolução – São filtros destinados à eliminação de ruído nas
imagens digitais. Como exemplos, citam-se os filtros de stripping e o salt
& pepper (Albertz, Kreiling, 1989).
2.42
resolução geométrica de uma imagem pancromática (tons de cinza) à
maior resolução radiométrica de uma imagem em três bandas. Para fazer
isso, basta trocar a coordenada intensidade da imagem colorida pela da
imagem pancromática, preservando as proporções de tamanho dos pixels.
O produto final é uma imagem que alia as duas resoluções ótimas.
IMAGENS
2.43
deve ser imageado a partir de, pelo menos, dois pontos de vista diferentes
– obtendo-se, assim, um par estereoscópico da cena. Outros pontos de
vista colaboram como injunções a mais nos cálculos. Esse método
encontra especial importância na restituição de monumentos e acidentes
naturais de difícil acesso. O referencial utilizado é local e, em geral,
definido para cada projeto em separado. Os pontos de controle podem
ser pré-sinalizados (marcados no objeto) ou determinados posteriormente,
embora a primeira opção seja a mais utilizada neste caso. A Figura 2.32
mostra um caso de levantamento terrestre, desde sua obtenção até os
produtos finais gerados.
2.44
Os modelos matemáticos que se aplicam em um levantamento
fotogramétrico terrestre de curta distância são razoavelmente genéricos e
aplicáveis em todos os casos, desde que guardadas as analogias quanto
ao sistema de coordenadas global e aos pontos de controle.
O método aéreo foi, de longe, o mais empregado para obtenção de
dados cartográficos do terreno. Portanto, foi o que mais gozou dos
benefícios de uma organização padronizada de métodos e procedimentos.
Como resultado, foi possível, desde o início do século passado a criação
de aparelhos capazes de executar operações fotogramétricas a partir de
imagens aéreas tomadas sob determinadas condições – e que, até hoje,
já na era digital, são mantidas. São elas:
• Distância focal e abertura da câmara – Como já dito, obedecem a três
padrões: normal, grande angular e supergrande angular;
• Recobrimento lateral e longitudinal – as imagens adjacentes devem ter
um recobrimento (área de superposição) nominal de 60%. Duas faixas de
vôo devem possuir recobrimento de 30%. Isso garante maior
operacionalidade às imagens obtidas, em detrimento do maior número
necessário sobre determinada região. Esta condição é apresentada na
figura 2.33.
2.45
fotogramétrico. Assim, seja a Figura 2.34, que exibe melhor estes
parâmetros.
E=d/D (2.23)
E=f/H (2.24)
E = f / (hm – h) (2.25)
2.46
foto.
Os métodos orbitais são mais recentes, já que a fraca resolução
espacial dos primeiros satélites impedia seu uso para a elaboração de
documentos cartográficos de precisão. Somente a partir do satélite SPOT
(Système Pour l'Observation de la Terre), majoritariamente francês, a
possibilidade de aplicação em restituição fotogramétrica tornou-se viável
(a própria França alega ter realizado diversas folhas de seu mapeamento
sistemático na escala 1:50000 utilizando tal satélite). Este sistema
introduziu a possibilidade de estereoscopia, pois a câmara poderia ser
rotacionada, permitindo o imageamento da mesma região em outra órbita
(Figura 2.35). Esse sistema também é utilizado pelos satélites CBERS I e
II (Satélite Sino-Brasileiro de Recursos Terrestres) e IKONOS II (que, por
ter resolução espacial de 1m, é considerado o primeiro satélite de
sensoriamento remoto realmente voltado para a cartografia precisa). Não
é um sistema ideal, pois entre uma órbita e outra, o terreno pode mudar
drasticamente, dificultando a estereoscopia e o reconhecimento
automático de pontos homólogos por correlação (Capítulo 4).
2.47
sistemas sensores equipado com três câmaras do mesmo tipo
posicionadas em inclinações diferentes, de modo a adquirir imagens com
recobrimento em um mesmo instante. A resolução desse sistema é de 2,5
m/pixel.
Figura 2.36 – Sensor estereoscópico PRISM (Panchromatic Remote sensing Instrument for
Stereo Mapping) do satélite japonês ALOS II (Advanced Land-Observing Satellite)
(cortesia – NASDA – National Agency for Space Development of Japan)
APROXIMADA
2.48
cartográficos.
2.49
f
OA'P' α Oa'p – =r'/P'A' (2.26)
H
f
OAP α Oap – =r /PA (2.27)
HBh torre
H
h=drE (2.28)
r
2.6.2 GEORREFERENCIAMENTO
2.50
de geociências, alguns pontos devem ser esclarecidos previamente, de
modo a condicioná-lo como método de restituição aproximada.
O georreferenciamento, como toda transformação, cria parâmetros
que permitem, a partir da leitura das coordenadas pixel da imagem, obter
as correspondentes coordenadas de terreno para aquele ponto. Vários
modelos podem ser utilizados, sendo a transformação afim com seis
parâmetros a mais comum (maiores informações sobre essa
transformação serão fornecidas no capítulo 3 – Orientação Interior).
Obviamente, as dificuldades naturais de se obter coordenadas
tridimensionais a partir de um sistema bidimensional são marcantes nesse
processo (no caso de um registro entre coordenadas planas com outro
tipo de coordenadas planas, como, por exemplo, entre mesa e carta, estes
problemas são menos visíveis). No mínimo três pontos de controle (isto é,
que têm coordenadas planas e espaciais conhecidas) devem ser
estabelecidos, porém, para que sejam obtidos parâmetros de precisão
adequados, recomenda-se a adoção de mais deles.
Freqüentemente, o georreferenciamento é associado a uma
reamostragem (maiores informações também no capítulo 7). Nesse
ponto, basta realizar uma analogia de reamostragem com um algoritmo
que “estica” ou “encolhe” determinadas partes da imagem, a fim de tentar
representá-la no mesmo sistema de projeção da base cartográfica.
Terrenos movimentados tendem a apresentar resultados muito ruins no
georreferenciamento/reamostragem, o que sugere parcimônia na
utilização de tais rotinas, aumentando o uso de pontos de controle e/ou
separando a imagem por áreas homogêneas.
Finalmente, após o que foi exposto, deve-se dizer que
georreferenciamento não passa de uma adequação entre sistemas de
coordenadas, e, nem de longe chega aos níveis de precisão dos métodos
fotogramétricos que trabalham com a reconstrução dos feixes perspectivos
na tomada de cada uma das imagens. Nem por isso deixa de ter sua
utilidade, pois pode ser aplicado em imagens que não possuem
considerável deslocamento devido ao relevo, bem como para sistemas de
características de câmara desconhecidas. Além disso, é útil caso se
deseje maior rapidez no processo, em detrimento da precisão final. Suas
2.51
principais aplicações são na atualização cartográfica e em elaboração de
mapas temáticos.
2.52
elevada que o restante do terreno englobado pelas imagens, observa-se
uma distância bem menor entre os topos que entre as bases. Porém, não
é de grande interesse ao fotogrametrista estabelecer coordenadas e
alturas apenas de monumentos. Assim, tal fenômeno deve ser estudado
também para as feições naturais do relevo, tais como depressões e
elevações. A figura 2.39 descreve, para dois pontos de uma elevação no
terreno, o efeito posicional em duas fotos diferentes.
2.53
em relação ao referencial (neste caso a estação de exposição). Medindo
as coordenadas dos pontos a e b nas duas imagens, paralelamente à
linha de vôo, pode-se estabelecer uma relação, definida pela primeira
equação da paralaxe:
pa = xa - x’a (2.29)
2.54
Figura 2.40 - Linhas de vôo verdadeiras e aproximadas (ao ligar-se os pontos principais aos
seus homólogos)
pa
= B (2.30)
f H-h A
2.55
Bf
H-h A = p (2.31)
a
E, consequentemente:
Bf
hA = H − p (2.32)
a
XA x (2.33)
= a
H − hA f
H − hA (2.34)
X A = xa
f
x (2.35)
X A = B p aa
Analogamente,
ya (2.36)
YA = B pa
∆h = ∆pH2/pa (2.37)
2.56
Até agora, não se discutiu sobre o modo pelo qual as paralaxes são
medidas. Inicialmente, assumiu-se que os valores de x e x’ fossem
medidos diretamente nas fotos esquerda e direita, respectivamente. As
paralaxes seriam, então, calculadas a partir das diferenças algébricas de x
e x’. É notável que tal processo torna-se extremamente enfadonho
quando muitos pontos são analisados.
A figura 2.42 demonstra um método de medição que requer apenas
uma simples medição para cada ponto de interesse. Se as duas
fotografias que constituem um estereopar tiverem seus pontos principais e
respectivos homólogos alinhados (reconstituindo assim,
aproximadamente, a linha de vôo), a distância D permanece constante
para o conjunto e a paralaxe pode ser obtida a partir da medida d, ou seja:
Figura 2.42 - Estereopar alinhado para medição de paralaxe (extraído de Lillesand, Kiefer,
2000)
p = x - x’ = D - d (2.38)
A distância “d” pode ser medida com uma simples régua, desde que
a e a’ sejam identificáveis. Em áreas uniformes, tal procedimento torna-se
muito difícil e outra abordagem faz-se necessária.
Pode-se utilizar o princípio descrito na figura 3.3.1, e para o mesmo,
numerosos instrumentos foram desenvolvidos. Estes utilizam o princípio
2.57
da marca flutuante, descrito a seguir.
Ao observar-se através de um estereoscópio, o analista utiliza um
aparelho que posiciona pequeninas marcas de referência sobre os pontos
desejados. Tais marcas podem ser cruzes, pontos ou x’s. A marca
esquerda é vista apenas pelo olho esquerdo, e a direita, apenas pelo olho
direito. Modificando a posição relativa entre as duas marcas na direção de
vôo, pode-se vê-las “fundir”, formando uma marca única que parece
“flutuar” em um nível específico sobre o modelo. A aparente elevação da
marca flutuante varia com o espaçamento entre as marcas esquerda e
direita.
Para visualizar estereoscopicamente, uma série de estereoscópios
foram desenvolvidos. O mais simples de todos é o estereoscópio de
bolso.
Este tipo de estereoscópio consiste de um par de lentes
convergentes, de distância focal igual ao comprimento de seu suporte.
Assim, os raios de luz emergenges dessas lentes e oriundas de um
mesmo ponto no plano focal onde são colocadas as fotos, serão paralelos,
como se o ponto estivesse situado sobre o infinito. Com isso, há a
focalização dos cristalinos para o infinito e conseqüentemente, o
paralelismo entre os eixos ópticos dos olhos, permitindo que na retina de
cada um seja projetada a imagem que lhe corresponde.
Entre as desvantagens deste processo, a principal é o fato de que
para visualizar estereoscopicamente, as fotos devem ser colocadas uma
por cima da outra, limitando a área útil e obrigando o operador a
constantemente ficar reposicionando as mesmas.
Conseqüentemente, foi desenvolvido um estereoscópio que supera
tais limitações; trata-se do estereoscópio de espelhos, que permite uma
completa visualização de todo o modelo, sem necessidade de
superposição de fotos.
O estereoscópio de espelhos nada mais é do que um estereoscópio
de lentes que, com auxílio de espelhos, permite um afastamento maior
das imagens. Lembra-se que as imagens independem do nível em que
foram colhidas para fim de visão estereoscópica.
A distância focal das lentes do estereoscópio de espelho é igual ao
2.58
caminho óptico da luz desde cada fotografia até o centro de cada lente. Os
espelhos podem ser substituídos por prismas.
Um dos aparatos mais comuns que empregam o princípio da marca
flutuante para medir a paralaxe com estereoscópios de espelhos é a barra
de paralaxe, que consiste de duas placas de vidro providas de marcas.
Tais placas estão unidas por uma barra graduada provida de um parafuso
micrométrico de alta precisão, de modo a medir com grande exatidão as
distâncias (leituras da ordem de 0,01 mm). Mantém-se a marca esquerda
fixa em sua posição enquanto a direita é movida ao acionar-se o parafuso
micrométrico.
Os aparatos descritos podem ser vistos na Figura 2.43.
2.7 CONCLUSÃO
2.59
REFERÊNCIAS BIBLIOGRÁFICAS
2.60