Escolar Documentos
Profissional Documentos
Cultura Documentos
Bauru
Fevereiro de 2015
Vinicius Bergoli Trentini
Bauru
Fevereiro de 2015
!! # $
% & ' ()*+
,/ 3 4
1 Introdução .............................................................................................................. 10
2.2.2 Retificação............................................................................................... 31
6 Conclusões ............................................................................................................ 76
7 Trabalhos Futuros................................................................................................. 78
Referências ................................................................................................................... 79
Apêndice........................................................................................................................ 82
Calibração ................................................................................................................. 84
10
Existem várias técnicas que podem ser aplicadas para a navegação
autônoma, desde o posicionamento utilizando-se um sistema de coordenadas, até
sensores estereoreceptivos. Uma abordagem bastante utilizada, inclusive pelos
seres humanos, é a visão estéreo. O uso de visão estéreo possibilita ao observador
não apenas a verificação da possibilidade de navegar por um pequeno caminho
definido, como também dá a ele a noção do quanto pode navegar, já que possibilita
uma noção de profundidade da cena obervada (KOLESNIK, 1995; STIVANELLO et
al., 2008).
11
1.2 Objetivos
12
1.3 Estrutura do Trabalho
13
imagens utilizadas como parâmetros de entrada. A metodologia é apresentada em
cinco fases: calibração estéreo, retificação estéreo, correspondência estéreo,
mapeamento dos obstáculos e navegação. Essa divisão ocorre como forma de
facilitar o entendimento de cada fase.
14
2 Visão Estéreo
Visão computacional pode ser definida como uma área de estudo que define
os métodos matemáticos e os algoritmos para transformar informações de alto nível
retiradas do mundo externo (imagens), em informações que possam ser
manipuladas computacionalmente (LÚLIO, 2011). É a transformação de dados
obtidos a partir de uma imagem estática ou de um vídeo produzido por uma câmera,
em uma nova representação, que possibilite a tomada de certa decisão. Tais
transformações são realizadas para que seja atingido algum objetivo particular
(GODOY et al., 2009). Como o próprio nome sugere, visão computacional envolve
computadores interpretando imagens. Portanto, as ferramentas necessárias para
compor um sistema de visão computacional incluem tanto o hardware necessário
para a aquisição das imagens, quanto o software utilizado para seu processamento
(TRUCCO; VERRI, 1998). As etapas envolvidas em um sistema de visão
computacional podem ser descritas conforme a Figura 1:
15
Conforme pode ser observado na Figura 1, sistemas de visão computacional
possuem etapas sequenciais que vão desde a aquisição da imagem até a resolução
do problema. Durante as fases há a possibilidade de acesso às informações
armazenadas na base de conhecimento com o objetivo de melhorar os resultados do
processamento.
16
necessidades envolvidas de forma que o erro final resultante seja nulo, ou o mínimo
possível.
17
conversão do sistema de cores da imagem original (LÚLIO, 2011), tem se
mostrado uma boa alternativa para o problema;
¾ Forte influencia de iluminação. Como é um ambiente externo, a iluminação
pode influenciar de forma negativa na qualidade das imagens adquiridas. Faz-
se então necessária a captura de novas imagens ou a implementação de
algoritmos para melhoria das imagens.
18
2.1 Conceitos Fundamentais em Visão Estéreo
19
promover a navegação. Todo o procedimento experimental implementado será
discutido ao longo da seção 4.
É importante citar que existem alguns problemas com relação aos métodos de
obtenção da profundidade. Um dos problemas é causado pela proximidade dos
objetos à câmera, sendo que, caso um objeto esteja muito próximo, o mesmo será
capturado por apenas uma das lentes. Similarmente, caso o objeto esteja muito
distante, a distância entre as duas imagens será muito pequena e portanto, a
disparidade entre as duas imagens será nula. Alé m disso, um sistema estéreo sofre
com os mesmos problemas encontrados em um sistema monocular, tal como a
iluminação (MENDES; WOLF, 2012).
20
Figura 2 : Modelo pinhole de uma câmera monocular tradicional (BRADSKI; KAEHLER, 2008).
= − (I)
21
De acordo com (TRUCCO; VERRI, 1998) para o frame capturado pode-se
considerar a distância entre a abertura focal até um objeto como sendo igual à
distância focal. Dessa forma, a Equação I pode ser rescrita como:
= − (II)
22
Na Figura 3 pode ser observado o modelo pinhole canônico de uma câmera
estéreo. Como é um modelo canônico, os planos das duas câmeras são exatamente
coplanares, possuem eixos ópticos paralelos e a distância focal das duas câmeras é
igual (BRADSKI; KAEHLER, 2008). A partir desse modelo é possível definir os
seguintes parâmetros:
= − (III)
(
)
=
→ =
=
(IV)
23
Figura 4 : Relação entre a disparidade e a profundidade dos objetos (BRADSKI; KAEHLER, 2008).
24
Figura 5 : Representação da geometria epipolar com duas câmeras pinhole (TRUCCO; VERRI, 1998).
25
Figura 6 : Operações de rotação e translação com o objetivo de mapear os pontos de um plano de
projeção em outro (BRADSKI; KAEHLER, 2008).
= ( − ) (V)
26
e P. No entanto, como as imagens dessa reta na imagem direita formam a linha
epipolar, o ponto correspondente pd deve estar localizado na linha epipolar.
Utilizando-se essa definição, é possível estabelecer um mapeamento entre os
pontos entre os pares de imagens (TRUCCO; VERRI, 1998; BRADSKI; KAEHLER,
2008).
27
De acordo com (TRUCCO; VERRI, 1998) e obervando a Figura 5, a equação
do plano epipolar que atravessa P pode ser escrita como uma condição de
coplanaridade entre os vetores Pe, T e Pe - T, ou seja:
( − )
× = 0 (VI)
(
)
× = 0 (VII)
Um produto vetorial pode ser escrito como uma multiplicação por uma matriz
de índices deficientes (TRUCCO; VERRI, 1998), podemos escrever × = ,
onde
0
= 0 − (VIII)
− 0
! = 0 (IX)
= #$ (X)
= # $ (XI)
* = 0 (XII)
29
profundidade de todos os objetos da cena capturada (BRADSKI; KAEHLER, 2008).
Para o cálculo desse mapa, é necessário percorrer várias etapas intermediárias de
forma que o mapa construído possua a menor taxa de erro possível. Todas as
etapas estão descritas nas próximas seções.
2.2.1 Calibração
30
O processo de calibração implementado neste trabalho é discutido de forma
mais abrangente na seção 4, onde também é discutida a metodologia utilizada.
2.2.2 Retificação
31
(a)
(b)
Figura 7 : (a) Imagens originais capturadas pelo sistema estéreo e (b) imagens retificadas.
32
tridimensional da cena observada (BRADSKI; KAEHLER, 2008). Esse procedimento
é denominado, em termos de visão computacional, de correspondência.
Figura 8 : Par estéreo de imagens (acima) utilizadas para construir o mapa de disparidades resultante
(abaixo).
33
Enquanto os métodos de correspondência esparsa efetuam a
correspondência apenas para alguns pontos, os quais se apresentam relevantes na
imagem, os métodos de correspondência densa efetuam a correspondência
considerando-se todos os pontos da imagem. Para a robótica móvel é mais
interessante a utilização de correspondência densa por proporcionar uma maior
informação de profundidade e por considerar todos os possíveis objetos contidos na
cena (IWASHITA, 2005; STIVANELLO et al., 2008).
34
Utilizando-se de um par de imagens binoculares já retificadas o algoritmo de
correspondência toma uma das imagens como referência e então busca na outra
imagem o ponto correspondente, seguindo-se algum critério de similaridade.
Relacionados então os pontos, é calculada a disparidade entre esses dois pontos
como sendo a diferença entre as distâncias relativas entre as coordenadas dos
mesmos. O valor dessa diferença é então armazenado como o valor do pixel na
posição da imagem de referência em uma terceira imagem, a qual constituirá a
matriz de disparidade (STIVANELLO et al., 2008). Como a disparidade é
inversamente proporcional à profundidade, os valores de intensidade calculados
para cada pixel armazenam as informações de profundidade da cena.
35
3 Revisão Bibliográfica em Visão Computacional Para Navegação
em Ambientes Externos e Agrícolas.
36
elevação como o ponto de referência para navegação, e o ponto central entre as
linhas de plantio como sendo o ponto navegável. Todo o processo envolvendo visão
estéreo (calibração, retificação e correspondência) foi efetuado utilizando -se o
software comercial fornecido pelo fabricante da própria câmera estéreo implantada.
Testes foram feitos de forma que o sistema possibilitasse a navegação na
velocidade habitual de operação, tanto em linha reta quanto ao longo das curvas de
uma cultura de soja. Um veículo autônomo foi utilizado, o caminho desenvolvido pelo
algoritmo foi gravado por GPS conforme ocorria a navegação, o qual foi
posteriormente comparado com um caminho desenvolvido por uma condução
humana.
Figura 9 : Exemplo de todo o processamento de uma imagem estéreo. Em (a) pode -se observar a imagem
original, sob a perspectiva da câmera esquerda; em (b) o mapa de disparidades resultante; em (c) o mapa
de elevação calculado; e em (d) o mapa de ele vação suavizado (adaptado de KISE et al., 2005).
37
Um sistema para detecção de obstáculos em tempo real visando a navegação
autônoma em ambientes externos extremos foi desenvolvido por Broggi (BROGGI et
al., 2005). O sistema foi então implementado e incorporado a um veículo autônomo
chamado TerraMaxTM (Figura 10) que foi um dos cinco veículos que completaram o
desafio DARPA de 2005 (BROGGI et al., 2006), sendo o único a detectar os
obstáculos utilizando um sistema de visão estéreo.
Como o veículo fazia parte de uma competição em que era necessário não
apenas completar o percurso estipulado, o qual possuía uma distância igual a 142
milhas, mas fazê-lo da forma mais rápida possível (o veículo chegava a atingir
velocidades de até 45mi/h), o sistema estéreo para detecção de obstáculos possuía
altíssimas restrições com relação a tempo de resposta e necessitava que os
obstáculos fossem detectados a distâncias de até 50m de antecedência,
possibilitando assim as tomadas de decisões. Além disso, o ambiente não possuía
marcadores ou quaisquer indicações do caminho a ser percorrido, sendo tudo
analisado via software. A navegação era acompanhada de outros sensores, tais
como lasers, GPS e sensores inerciais além do mapa do trajeto a ser percorrido.
Nessa coleção de sensores, a visão estéreo era destinada para a detecção do
caminho a ser percorrido e de possíveis obstáculos disponibilizando assim, além do
caminho a ser percorrido, as restrições desse trajeto ao algoritmo de cálculo de rota.
38
Figura 10: Veículo TerraMaxTM utilizado no desafio DARPA de 2005 (BROGGI et al., 2006).
39
Um sistema para localização, mapeamento e navegação utilizando visão
estéreo e GPS foi desenvolvido por Agrawal (AGRAWAL et al., 2007). Esse sistema
tinha por objetivo efetuar o mapeamento e a navegação até um destino pré -definido,
a velocidades de até 1m/s. O trabalho é focado em apresentar que é possível criar,
em tempo real, mapas consistentes do ambiente de navegação, utilizando
algoritmos de visão estéreo acompanhados de conceitos de odometria visual para
localização nesse mapa construído. O sistema foi submetido a testes utilizando um
robô autônomo projetado para ambientes externos navegando em percursos que
variavam entre 50 e 100 metros.
40
Figura 11: Etapa de processamento de imagens proposto pelo algoritmo (adaptado de NALPANTIDIS et
al., 2009)
Figura 12: Sugestões de na vegação em ambiente externo (adaptado de NALPANTIDIS et al., 2009)
41
Para execução dos testes e verificação do desempenho do algoritmo
proposto, foi utilizada uma base própria contendo 25 imagens de um ambiente
externo urbano e calculou-se o número de ocorrências em que o algoritmo tomou a
decisão correta.
42
A metodologia foi validada utilizando-se aproximadamente 10.000 imagens de
três bancos de dados distintos, e o seu desempenho medido com base na taxa de
detecção de pedestres e obstáculos.
43
4 Materiais e Metodologia Proposta
Figura 13: Espaço entre as linhas de plantio de uma plantação de pomares de laranja.
Visando construir uma base de dados para ser utilizada nos experimentos de
validação da metodologia proposta, foram capturadas imagens do ambiente. O
veículo utilizado nessa captura teve condução humana e as imagens foram
capturadas em forma de vídeo, sendo extraídos os frames posteriormente.
44
Tendo em vista as restrições de tempo de processamento e integração com
os pacotes de desenvolvimento, todos os algoritmos foram desenvolvidos utilizando-
se linguagem C/C++. A plataforma utilizada foi o Visual Studio 2008 e a biblioteca de
processamento de imagens digitais OpenCV versão 2.1. A biblioteca OpenCV foi
utilizada para todos os tratamentos envolvendo as imagens digitais, desde a captura
até a correspondência estéreo. A plataforma Visual Studio 2008 foi escolhida por
possuir uma boa integração com o OpenCV, além de possibilitar a codificação em
linguagem C/C++. Detalhes dos métodos utilizados no desenvolvimento estão
descritos no Apêndice.
45
Figura 14: Fluxograma de aquisição das imagens até a estimativa da profundidade.
46
(a) (b)
Figura 15: Configuração do veículo (a) e das câmeras utilizadas na captura de imagens (b).
47
4.2 Pré Processamento
48
4.2.1 Calibração Estéreo
49
Na Figura 17 é mostrado o padrão de imagens utilizado para calibração e os
pontos detectados. O conjunto de pontos que possuem a mesma cor nos pares de
imagens são tratados como sendo o mapeamento de uma imagem na outra. Para os
testes efetuados, foram utilizados 38 pares de imagens, variando-se sempre a
posição, profundidade e perspectiva do tabuleiro.
50
Como forma de evitar erros matemáticas causados por grandes distorções
geométricas no sistema estéreo e visando uma interoperabilidade com relação ao
ambiente nos parâmetros calculados pelo processo de calibração, o suporte no qual
a câmera está disposto na Figura 15 é fixo, e pode ser visualizado de forma
separada na Figura 18.
Figura 18: Suporte para as câmeras utilizado para captura das imagens.
51
Dessa forma, ao final do processo de retificação, são criadas duas novas
imagens, agora retificadas, conforme pode ser visualizado na Figura 7 (subseção
2.2.2).
52
De uma forma geral, os blocos são constituídos de partes quadradas e não
sobrepostas das imagens. Cada bloco de uma das imagens tomada como referência
é então correspondido com um bloco na outra imagem, movendo-se o bloco atual
em torno de uma vizinhança pré determinada na outra imagem. A cada mudança, é
computada a soma das distâncias entre os valores de cinza dos dois blocos. A
mudança que gerar a menor distância total é considerada como sendo a melhor
correspondência (GYAOUROVA et al., 2003). Um exemplo de bloco bastante
utilizado pode ser observado na Figura 19.
Figura 19: Bloco de correspondência com tamanho 32 pixels e área de busca igual 5 pixels. Adaptado de
BARJATYA, 2004.
54
0 a 255. O seguinte algoritmo é utilizado para a construção do mapa de disparidade
"V":
vdisp( disp( i , j ) , j ) ++
fim
fim
fim
onde:
55
(a)
(b)
(c)
Figura 20: Imagens originais (a), mapa de disparidades correspondente (b) e mapa de disparidade "V"
resultante (c).
56
variações ao longo da linha (LABAYRADE et al., 2002; SOQUET et al., 2007;
CARAFFI et al., 2007). Aplicando-se essa análise ao mapa de disparidade "V", pode-
se observar que os obstáculos são representados por retas de inclinação próxima a
90º, e as regiões trafegáveis por retas de inclinação superior a 90º. Utilizando-se
então esse conceito, a detecção de obstáculos fica resumida à detecção de retas no
mapa de disparidade "V". Os pixels da imagem original são então marcados nas
posições mapeadas como obstáculos pelo mapa de disparidade "V", com cores que
possa ser diferenciadas do restante o ambiente.
4.5 Navegação
57
que possua uma quantidade menor que um limiar mínimo, determinado
experimentalmente, será a sugestão de navegação.
58
Figura 21: Mapeamento dos objetos da cena em termos de profundidade e sugestão de direção dada pelo
algoritmo de navegação.
59
5 Resultados Experimentais
60
Na Figura 22 observa-se o ambiente tradicional de navegação: a região entre
as linhas de plantio, com pomares à esquerda e à direita e o caminho livre para
navegação à frente. Conforme ilustrado na Figura 22(a), os obstáculos estão
relativamente distantes do veículo, de forma que a única possível restrição de
navegação é a região mais à esquerda da imagem pois apresenta os obstáculos
mais próximos. Na Figura 22(d) verifica-se que o algoritmo consegue detectar essa
região mais próxima e então sugere a que a navegação seja feita mais para a direita
da imagem. Esse resultado pode ser validado verificando-se a Figura 22(c), em que
o mapa de disparidades resultante não apresenta obstáculos na região indicada.
(a)
(b)
61
(c)
(d)
Figura 22: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
62
Na Figura 23 há, além dos pomares à esquerda e à direita como obstáculos,
um obstáculo na região central da imagem. Conforme pode ser verificado na Figura
23(a), não é possível desenvolver a navegação em linha reta ou à direita, pois
apresenta obstáculos muito próximos. À esquerda, apesar de também existir
obstáculos, os mesmos estão mais distantes do que os demais. Na Figura 23(d),
verifica-se que o algoritmo sugere essa região com maior probabilidade de
navegação, decisão que pode ser confirmada verificando que no mapa de
disparidades essa região está realmente livre de obstruções.
(a)
(b)
63
(c
(d)
Figura 23: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
(a)
(b)
65
(c)
(d)
Figura 24: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
66
As situações da Figura 22, Figura 23 e Figura 24, apesar de ilustrarem o
mesmo estilo de ambiente de navegação podem confirma r o comportamento do
algoritmo de acordo com os obstáculos encontrados e não apenas com o ambiente
de navegação. Em uma primeira instância, a Figura 22 e a Figura 23, sugerem a
região considerada completamente livre de obstáculos para navegação, pois foi
encontrada uma região com essa propriedade. Já na Figura 25, verifica-se que o
algoritmo penaliza essa decisão, sugerindo um caminho em que, apesar de ser
possível de navegar no momento, não será uma boa decisão mais a frente. No
entanto, é feita essa decisão para fugir de um obstáculo muito mais próximo
encontrado a frente.
(a)
(b)
67
(c)
(d)
Figura 25: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
68
No conjunto de imagens da Figura 26, verifica-se uma situação em que a
direção de navegação sugerida pelo algoritmo não representa um caminho válido.
Observando-se a situação original, representa pela Figura 26(a), pode-se verificar
que existe apenas um caminho possível de ser trafegado e esse caminho não é a
direção sugerida pelo algoritmo. No entanto, observando-se a Figura 26(c), que
representa o mapa de disparidades da cena, pode-se verificar que o algoritmo
tomou, de fato, a decisão com base na região em que não foram detectados
obstáculos pelo algoritmo de correspondência.
(a)
(b)
69
(c)
(d)
Figura 26: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
70
Na Figura 27 também é possível verificar uma situação em que o algoritmo
não sugere um caminho válido para navegação. Observando-se a Figura 27(d),
verifica-se que a sugestão de navegação coincide com uma região com obstáculos,
situação essa que impede a navegação. No entanto, novamente analisando-se o
mapa de disparidades correspondente, conclui-se que o algoritmo sugeriu a direção
de forma coerente, pois toma a decisão por navegar por um caminho em que é
observada uma densidade menor de obstáculos, apesar de igualmente impossível
de ser navegada.
(a)
(b)
71
(c)
(d)
Figura 27: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
72
Na Figura 28 ocorre a situação em que o algoritmo de navegação não sugere
qualquer direção para navegação. Verificando-se a imagem original, é possível
concluir que existe um caminho possível para navegação. Analisando então o mapa
de disparidades, é possível verificar a razão do algoritmo ter sugerido a interrupção
da navegação: devido à elevação do terreno logo a frente, da altura da vegetação
rasteira e, principalmente da posição das câmeras, o próprio chão foi detectado
como obstáculo, tornando a passagem à frente completamente obstruída.
(a)
(b)
73
(c)
(d)
Figura 28: Par de imagens originais do ambiente de navegação (a), imagens após o processo de
retificação (b), mapa de disparidades resultante e sugestão de na vegação no ambiente original (d).
74
Das sequências de vídeo capturadas, foram extraídas 5.379 imagens, todas
representando o ambiente selecionado para testes e uma situação para que fosse
decidida a navegação para validar a metodologia proposta. Para todas as imagens
consideradas, a metodologia proposta sugeriu a navegação de forma correta em
4.926 dos casos observados, ou seja, para as 5.379 situações observadas, a
metodologia proposta falhou na decisão pelo caminho a ser trafegado em apenas
453 dos casos.
75
6 Conclusões
76
(aproximadamente 92%) calcula os resultados em tempo real, possibilitando então a
navegação em tempo real.
77
7 Trabalhos Futuros
78
Referências
AGRAWAL, M.; KONOLIGE, K.; BOLLES, R. C.; AVE, R.; PARK, M. Localization and
Mapping for Autonomous Navigation in Outdoor Terrains : A Stereo Vision Approach.
IEEE Workshop on Application of Computer Vision (WACV), 2007. Austin -
Texas.
BELLUTTA, P.; MANDUCHI, R.; MATTHIES, L.; OWENS, K.; RANKIN, A. Terrain
perception for DEMO III. IEEE Intelligent Vehicles Symposium, p. 326–331, 2000.
Ieee.
BROGGI, A.; CARAFFI, C.; FEDRIGA, R. I.; GRISLERI, P.; PARMA, I.-. Obstacle
Detection with Stereo Vision for Off-Road Vehicle Navigation. IEEE Intelligent
Vehicles Symposium, 2005. Las Vegas - USA.
BROGGI, A.; CARAFFI, C.; PORTA, P. P.; ZANI, P.; INGEGNERIA, V. The Single
Frame Stereo Vision System for Reliable Obstacle Detection used during the 2005
DARPA Grand Challenge on TerraMax. 2006 IEEE Intelligent Transportation
Systems Conference, 2006.
CARAFFI, C.; CATTANI, S.; GRISLERI, P. Off-Road Path and Obstacle Detection
Using Decision Networks and Stereo Vision. IEEE Transactions on Intelligent
Transportation Systems, 2007.
GYAOUROVA, A.; KAMATH, C.; CHEUNG, S.-C. Block Matching for Object
Tracking. Relatório Técnico, 2003.
KONOLIGE, K.; AGRAWAL, M.; BOLLES, R. C.; et al. Outdoor Mapping and
Navigation using Stereo Vision. Proceedings International Symposium on
Experimental Robotics (ISER), 2006. Rio de Janeiro.
LABAYRADE, R.; AUBERT, D.; TAREL, J.-P. Real time obstacle detection in
stereovision on non flat road geometry through “v-disparity” representation.
Intelligent Vehicle Symposium, 2002. IEEE, v. 2, p. 646–651, 2002. Ieee.
MURRAY, D. O. N.; LITTLE, J. J. Using Real-Time Stereo Vision for Mobile Robot
Navigation. Autonomous Robots Journal, v. 171, p. 161–171, 2000.
80
ROVIRA−MÁS, F.; ZHANG, Q.; REID, J. F. Automated Agricultural Equipment
Navigation Using Stereo Disparity Images. American Society of Agricultural
Engineers Journal, 2004.
81
Apêndice
Objetos
Método
Descrição
82
Método
Descrição
Método
Descrição
Implementação
...
while( cvGrabFrame(_leCamera) && cvGrabFrame(_riCamera) )
_leImage = cvQueryFrame(_leCamera);
_riImage = cvQueryFrame(_riCamera);
cvWriteFrame(_leVideo, _leImage);
cvWriteFrame(_riVideo, _riImage);
}
...
83
Calibração
Objetos
Método
Descrição
Implementação
Método
84
const CvMat* pointCounts,
CvMat* cameraMatrix1,
CvMat* distCoeffs1,
CvMat* cameraMatrix2,
CvMat* distCoeffs2,
CvSize imageSize,
CvMat* R,
CvMat* T,
CvMat* E=0,
CvMat* F=0,
CvTermCriteria term_crit,
int flags=CV CALIB FIX INTRINSIC);
Descrição
Implementação
term_crit, flags);
Correspondência Estéreo
Objetos
85
CvStereoBMState*BMState Conjunto de parâmetros para o
cálculo da correspondência.
Método
Descrição
Implementação
86
Autorizo a reprodução xerográfica para fins de pesquisa.
_________________________________
Assinatura
87