Escolar Documentos
Profissional Documentos
Cultura Documentos
Roberto Santos Inoue∗, Marco Henrique Terra∗, Adriano A.G. Siqueira†, Jean Mimar
Santa Cruz Yabarrena∗
∗
Universidade de São Paulo - Departamento de Engenharia Elétrica
C.P.359 - CEP 13560-970
São Carlos, SP, Brasil
†
Universidade de São Paulo - Departamento de Engenharia Mecânica
C.P.359 - CEP 13560-970
São Carlos, SP, Brasil
Abstract— This paper deals with the application of robust state-space estimation of an inertial navigation
system (which comprehends attitude, velocity, position and biases). This system is developed through the
fusion of magnetometers, rate gyros, acelerometers and a receptor GPS (global positioning system). In order to
eleminate the attitude estimation singularities, the rigidy body orientation is modeled through the quaternion.
Results based on actual measures are presented to show the effectiveness of the approach we are proposing.
Resumo— Este artigo estuda a aplicação de filtragem robusta em um sistema de navegação inercial completo
(atitude, velocidade, posição e biases). O sistema de navegação inercial será desenvolvido através da fusão
de magnetômetros, giroscópios, acelerômetros e de um receptor GPS (sistema global de posicionamento). Para
eliminar os problemas de singularidades na estimativa da atitude, a orientação do corpo rı́gido é modelada através
de um quatérnio. Resultados baseados em medidas reais são apresentados para mostrar a eficiência do método
proposto.
A derivada do quatérnio pode ser escrita ma- sendo h1 (x1 ) = [aT ψ]T ∈ R4×1 , v1 processo
tricialmente como gaussiano de média zero, a ∈ R3×1 a medida da
1
0
1 1 aceleração no eixo do corpo do veı́culo e ψ o ângulo
q̇ = q ⊗ = Ω(ω)q = Ξ(q)ω, (6) de proa magnético, gerado pelos magnetômetros.
2 ω 2 2
A medida da aceleração é dada por
sendo
2g(q1 q3 − q0 q2 )
−ω T −q T
0 a = R(q)g = 2g(q2 q3 + q0 q1 ) , (17)
Ω(ω) = , Ξ(q) = ,
ω −[ω × ] I3×3 q0 + [q × ] g(q02 − q12 − q22 + q32 )
ω o vetor velocidade angular no sistema de co- sendo g = [0 0 g]T e g =-9.81 m/s2 . O ângulo
ordenadas fixo do corpo, [ω × ] e [q × ] as matrizes de proa por
representativas do produto vetorial
2(q1 q2 + q0 q3 )
0 −E3 E2
ψ = tan−1 . (18)
q02 + q12 − q22 − q32
E × = E3 0 −E1 (7)
−E2 E1 0 Linearizando (16) em torno de x1 , tem-se
Condições Iniciais:
x̂i0|0 = Pi0|0 HiT0 Ri−1
0
zi0
−1 T −1
Pi0|0 = (Πi0 + Hi0 Ri0 Hi0 )−1 .
Passo 1:
Se Hk+1 Mk = 0, então configure λ̂k = 0 Figura 1: MNAV - http://www.xbow.com.
(filtro não robusto). Caso contrário, seleci-
one α (tipicamente O ângulo de proa é obtido através dos mag-
T0 ≤T αf −1
≤ 1) e configure
netômetros em 3 eixos, m = [mx my mz ]T ,
λ̂k = (1 + αf ) · Mk Hk+1 Rk+1 Hk+1 Mk
.
utilizando o seguinte algoritmo
Passo 2:
π
− tan−1 ( m
my ) se my > 0
x
Substitua {Qk , Rk , Pk|k , Gk , Φk } por: 2
−1 mx
π
π + 2 − tan ( my ) se my < 0
Q̂−1 −1 T T −1 ψ=
k = Qk + λ̂k Egk [I + λ̂k Efk Pk|k Efk ] Eg k π
se my = 0 e mx < 0
2
R̂k+1 = Rk − λ̂−1
T T
k Hk+1 Mk Mk Hk+1
0 se my = 0 e mx > 0
−1
P̂k|k = (Pk|k T
+ λ̂k Ef,k Ef,k )−1 ⋄
θ (graus)
φ (graus)
ψ (graus)
−20 −5 −5
−40 −10
−10
−60
−15
−80
−15
−20
−100
Figura 2: Estimação da atitude com o EKF: (a) Guinada ψ, (b) Arfagem θ e (c) Rolagem φ
80 15 20
Filtro Robusto Filtro Robusto Filtro Robusto
60 15
10
40
10
5
20
5
0
θ (graus)
φ (graus)
0
ψ (graus)
−20 0
−5
−40 −5
−60 −10
−10
−80
−15 −15
−100
Figura 3: Estimação da atitude com o filtro Robusto: (a) Guinada ψ, (b) Arfagem θ e (c) Rolagem φ
14.5
−21.994 −47.897 GPS
GPS GPS
Filtro de Kalman
Filtro de Kalman Filtro de Kalman 14.4
−21.996 −47.8975 Filtro Robusto
Filtro Robusto Filtro Robusto
−47.898 14.3
−21.998
Longitude (graus)
Latitude (graus)
Altitude (m)
−47.8985
−22 14.2
−47.899
−22.002 14.1
−47.8995
−22.004 14
−47.9
−22.006 13.9
−47.9005
Figura 4: Estimação da posição geodéticas no sistema de coordenadas LLA: (a) Latitude λ, (b) Longitude
φ e (c) Altitude h
8 10 0.6
GPS 8
6 0.4
Filtro de Kalman
6
4 Filtro Robusto
4 0.2
2
2
0
v (m/s)
vD (m/s)
v (m/s)
0
0
E
N
−2 −0.2
−2
−4
−4 −0.4
−6 −6
GPS −0.6 GPS
−8 −8 Filtro de Kalman Filtro de Kalman
Filtro Robusto Filtro Robusto
−10 −10 −0.8
0 50 100 150 200 250 0 50 100 150 200 250 0 50 100 150 200 250
Tempo (s) Tempo (s) Tempo (s)
Figura 5: Estimação das velocidades no sistemas de coordenadas NED: (a) υN , (b) υE e (c) υD
LOCALIZAÇÃO DE UM ROBÔ SUBTERRÂNEO PARA INSPEÇÃO DE LINHAS DE
TRANSMISSÃO
Abstract— The present work shows a comparative between the feature-based methods SIFT and SURF, in
order to realize visual odometry to localize an energy distribution line inspection robot. Considering the sensorial
difficult of this kind of robot, this paper look for a solution to localization, seeing is not possible use GPS in
this environment. The proposed methodologies are composed by a complete system that uses only images to
estimate the robot pose. The results were satisfactory, once the accuracy and robustness was reached in real use
condition. They also show the advantage of each method.
Resumo— O presente trabalho mostra um comparativo entre métodos descritores de caracterı́sticas SIFT e
SURF, a fim de realizar odometria visual para localização em um robô para inspeção de linhas de alta tensão
subterrâneas. Considerando a dificuldade de sensoriamento para este tipo de robô, este artigo busca uma solução
para sua localização, visto que não é possı́vel utilizar GPS neste tipo de ambiente. A metodologia proposta é
composta de um sistema completo de odometria, no qual se utiliza apenas imagens para reconhecer a pose do
robô. Os resultados foram satisfatórios, uma vez que a exatidão e a robustez foram alcançadas em condições
reais de operação do robô. Além disso, eles mostram as vantagens de cada método.
3.1.2 SURF
é outro método robusto e com baixo custo com-
putacional para extrair e descrever pontos-chaves
Figura 1: Overview do sistema proposto. de uma imagem (Bay et al., 2006). O algoritmo é
composto por 3 etapas:
O sistema permite utilizar o SURF e o SIFT, • Criação da integral da imagem: O con-
dependendo da aplicação dada ao sistema, cada ceito de integral de imagem foi desenvolvido
um com suas vantagens e desvantagens. Assim, por (Viola and Jones, 2001), tal tipo de im-
cada algoritmo será detalhado a seguir. agem permite uma implementação extrema-
mente rápida de mascaras de convolução.
3.1.1 SIFT
• Determinação de pontos de interesse
é um método robusto para extrair e descrever por meio da Fast-Hessian: Utiliza-se uma
pontos-chaves de uma imagem (Lowe, 2004). O aproximação do kernel gaussiano de segunda
algoritmo é composto por 4 etapas: ordem para determinar as caracterı́sticas de
1. Detecção de extremos no espaço de es- interesse na imagem.
cala: Nessa etapa, é feita a busca em todas
as escalas e localizações de imagens com difer- • Criação do descritor de Cada Ponto-
ença de filtros gaussianos (DOG, do inglês dif- Chave: Para determinação do descritor é
ference of gaussian), visando identificar pon- utilizado a soma das respostas do 2D Haar
tos de interesse invariáveis à escala e rotação. wavelet em diferentes orientações.
Este trabalho foi parcialmente suportado pela Sarfraz, M. S. and Hellwich, O. (2008). Head
CAPES e contou com o apoio dos pesquisados pose estimation in face recognition across
do VeRLab (Laboratório de Visão e Robótica) pose scenarios, International conference on
do DCC-UFMG e do NAUTEC (Núcleo de Au- Computer Vision Theory and Applications,
tomação e Computação) do C3-FURG. pp. 235–242.
Torr, P. H. S. and Murray, D. W. (1997). The de-
Referências velopment and comparison of robust meth-
ods for estimating the fundamental matrix,
Bay, H., Tuytelaars, T. and Gool, L. V. (2006). International Journal of Computer Vision
Surf: Speeded up robust features, European 24(3): 271–300.
Conference on Computer Vision, pp. 404–
417. Viola, P. and Jones, M. (2001). Rapid object de-
tection using a boosted cascade of simple fea-
Beis, J. and Lowe, D. (1997). Shape indexing tures, IEEE Conference on Computer Vision
using approximate nearest-neighbour search and Pattern Recognition 1: 511–518.
in high-dimensional spaces, Conference on
ESTIMAÇÃO DE POSIÇÃO E ORIENTAÇÃO PARA ROBÔS MÓVEIS
JOSÉ G. N. DE CARVALHO FILHO1 , LUCAS MOLINA1, 3, KAMEL BENSEBAA2, ELYSON A. N. CARVALHO1,4 E EDUARDO O. FREIRE1
1
Departamento de Engenharia Elétrica, Universidade Federal de Sergipe – DEL/UFS, São Cristóvão-SE, Brasil
E-mails: j.gilmar@click21.com.br; lmolina@ufs.br; ecarvalho@ufs.br; efreire@ufs.br
2
Departamento de Ciência da Computação, Universidade Federal de Sergipe –DCOMP/UFS, São Cristóvão-SE, Brasil
E-mails: kamel-bensebaa@ufs.br
3
Programa de Engenharia Elétrica da Universidade Federal do Rio de Janeiro – PEE/COPPE/UFRJ, Rio de Janeiro-RJ,
Brasil
4
Departamento de Engenharia Elétrica da Universidade Federal de Campina Grande – DEE/UFCG, Brasil
Abstract This paper is focused on the development of a system for estimating position and orientation based on computer vision techniques
using matching images. The system is based on the comparison of images acquired at different times to determine the angular and linear
displacement between them which in turn, are used to estimate the robot’s trajectory. The image comparison is performed using a matching points
technique based on the distance between points of interest. In this sense, the distance between interesting points are clustered into sets of distances
and the distances distribution are used to perform image matching. The developed system was evaluated by recording images from a low
resolution video camera fixed at a mobile platform.
Resumo Este artigo é focado no desenvolvimento de um sistema de estimação de posição e orientação baseado em técnicas de visão
computacional usando correspondência de imagens. O sistema se baseia na comparação de imagens adquiridas em diferentes instantes para
determinar os deslocamentos angular e linear entre elas e, assim, estimar a trajetória do robô. A comparação das imagens é realizada usando uma
técnica de casamento de pontos baseada nas distâncias entre os pontos de interesse. Neste sentido, as distâncias entre os pontos de interesse são
agrupadas em conjuntos de distâncias e as distribuições de distâncias destes conjuntos são usadas para realizar a correspondência das imagens. O
sistema desenvolvido foi avaliado a partir de imagens de obtidas por uma câmera de baixa resolução fixada em uma plataforma móvel.
Além disso, na fig. 2.a também são representadas em Como pode ser observado na fig. 3.a, o deslocamento
vermelho as distâncias que formam o conjunto de distâncias angular entre as imagens é igual à diferença de fase entre os
do ponto P que está indicado. Vale lembrar que, para cada vetores correspondentes. Então, é obtido um conjunto de
ponto da imagem é gerado um conjunto de distâncias similar diferenças de fase entre os pares de vetores correspondentes
a este. Em seguida, cada ponto da imagem atual (Ia) é e, a partir deste conjunto, obtêm-se o deslocamento angular
comparado com os pontos da imagem de referência (Ir), entre as imagens.
tomando como parâmetro seus conjuntos de distâncias. Na figura 3.b é mostrado um exemplo de uma
Para comparar os conjuntos de distâncias são obtidas as distribuição de diferenças de fase.
distribuições de distâncias de cada conjunto, as quais são Apesar da distribuição de diferenças de fase mostrada na
similares a códigos de barras. Estes “códigos de barras” são figura 4.b não possuir um comportamento gaussiano, com o
gerados atribuindo uma barra vertical nos pontos da abscissa intuito de simplificar os cálculos, a distribuição será
que estão contidos no conjunto de distâncias. Na fig. 2.b é aproximada por uma gaussiana e o valor do deslocamento
mostrada a distribuição de distâncias de um desses angular foi considerado como sendo a média da distribuição.
conjuntos. Desta forma, para obter o valor do deslocamento
Então, calcula-se o coeficiente de correlação entre as angular, a primeira estimativa da média da “gaussiana” é
curvas das distribuições dos conjuntos de distâncias que calculada como sendo a mediana da distribuição, então, é
estão sendo comparados, fornecendo, assim, um índice que obtido o desvio padrão da distribuição a partir da eq. 3.
mede a similaridade entre estes dois “códigos de barras”, ou A = √2πσ (3)
seja, entre esses dois conjuntos de distâncias. Onde A é a área da curva da distribuição de diferenças de
Deste modo, é gerada uma matriz de coeficientes de fase, a qual é obtida numericamente e σ é o desvio padrão.
correlação, na qual cada linha está associada a um ponto de Uma vez que foram obtidos os valores da primeira
Ia e cada coluna a um ponto de Ir. Assim, cada elemento da estimativa da média (µ) e de σ, a média é recalculada como
matriz é o coeficiente de correlação entre as curvas de
sendo a média da distribuição de diferenças de fase dentro deslocamentos não variam de forma abrupta e a inclusão de
do intervalo (µ − 2σ, µ + 2σ). filtros de Kalman aumentaria significativamente a
Depois que o deslocamento angular é estimado, os complexidade do sistema, optou-se por atribuir a média dos
pontos de Ia são rotacionados de modo que as duas imagens, últimos valores para estimar os deslocamentos quando a
Ia e Ir, não apresentem mais deslocamento angular. correspondência das imagens não é bem sucedida.
Em seguida, calcula-se a diferença entre as coordenadas
x e y dos pontos correspondentes. Então, são obtidas outras
duas distribuições semelhantes à distribuição de diferenças 4 Resultados
de fase, sendo uma de deslocamento horizontal e outra de
deslocamento vertical. Para avaliar o funcionamento do sistema foram realizados
Em seguida, aplica-se a essas distribuições a mesma vários experimentos, dos quais, devido ao tamanho limitado
técnica empregada para estimar o deslocamento angular e, do artigo, apenas alguns são descritos a seguir.
assim, são obtidos os deslocamentos horizontal e vertical Durante os experimentos foram utilizados os parâmetros
entre as imagens. mostrados na tabela 1 e o número de pontos de interesse e
Um fato ao qual se deve estar atento é que, a cada nova de pontos correspondentes obtidos foram em torno de 70 e
comparação, é adotado um novo sistema de eixos de 50, respectivamente.
coordenadas, como é mostrado na fig. 4. Tabela 1: Parâmetros do sistema
PARÂMETROS VALORES
Dimensões da imagem obtida 480x320 px
Dimensões da imagem processada 300x300 px
Limiar de segmentação 62
Taxa de aquisição de imagens da câmera 30 quadros/s
Taxa de aquisição de imagens do sistema 3 quadros/s
Relação entre pixel e centímetros 17,7 px/cm
Nos dois primeiros experimentos o sistema foi testado
Figura 4: Trajetória hipotética de um robô
utilizando apenas duas imagens obtidas em instantes
diferentes. Isso foi feito para permitir que os deslocamentos
Por conta desta mudança constante no eixo de
angular e linear também pudessem ser calculados
coordenadas, o deslocamento linear total não será a soma
manualmente, de modo a fornecer outra medição, bastante
direta dos deslocamentos parciais (deslocamentos estimados
confiável, para avaliar os resultados obtidos pela técnica de
em cada comparação).
correspondência de imagens desenvolvida.
Nas equações 4, 5 e 6 são apresentadas as fórmulas
O primeiro experimento realizado consistiu em estimar
utilizadas para calcular os deslocamentos totais, tanto
os deslocamentos angular e linear a partir de dois quadros
angular quanto linear. Estas fórmulas atualizam o valor dos
adquiridos de forma consecutiva sem deslocamento da
deslocamentos a cada nova comparação feita entre Ia e Ir.
plataforma, a fim de analisar a resposta do sistema para o
= +∆ (4) caso de o robô estar parado. Na tabela 2 são mostrados os
∆
= + ∙ θ + ∆
(5) valores de deslocamentos obtidos neste experimento.
∆
= + ∙ θ + (6) Tabela 2: Resultado do Experimento 1
∆
D. Angular D. Vertical D. Horizontal
Onde = ∆ + ∆ , é o deslocamento angular do
Analítico 0° 0 px 0 px
robô, é o deslocamento linear horizontal, é o
Sistema 0° 0 px 0 px
deslocamento linear vertical, é o instante de amostragem e
∆ , ∆ e ∆ são os deslocamentos angular, horizontal e No segundo experimento foram estimados os
vertical parciais, respectivamente. deslocamentos linear e angular entre dois quadros obtidos
Uma observação importante é que, algumas vezes, a em diferentes instantes e posições. Os resultados obtidos
comparação entre duas imagens pode não ser bem sucedida, neste experimento encontram-se na tabela 3.
em geral por causa de ruídos na imagem causados por
Tabela 3: Resultado do Experimento 2
vibrações da câmera. Nesses casos, as curvas de distribuição
de diferenças de fase e de deslocamentos horizontal e D. Angular D. Vertical D. Horizontal
vertical deixam de ser unimodais. Nesse trabalho, esses Analítico 11,2° 1,15 cm -1,84 cm
casos foram detectados a partir do fato de que, como a Sistema 10,9° 1,13 cm -1,86 cm
distribuição é aproximada por uma gaussiana, quase toda a No terceiro experimento, as imagens capturadas pela
área da curva se concentra no intervalo (µ − 2σ, µ + 2σ) e câmera a bordo da plataforma, a qual sofreu um
os deslocamentos linear e angular foram estimados a partir deslocamento angular e linear, foram processadas pelo
dos valores anteriores. sistema para que este pudesse estimar as trajetórias
Na literatura existem diversas técnicas que podem ser executadas.
utilizadas para estimar o valor dos deslocamentos angular e Na fig. 5 são apresentadas as trajetória estimadas pelo
linear nesses casos, tais como os filtros de Kalman. Porém, sistema (em azul) e a posição final esperada (em vermelho).
como esses casos não são tão frequentes, os valores de
a) sistema, o que restringiu o uso do mesmo a alguns tipos de
5
superfície.
D is tâ ncia (cm )
2.5
0 Principalmente pela falta de um hardware adequado, ou
-2.5
-5
seja, de um robô com câmera e sensores inerciais
-5 5 15 25
Distância (cm)
35 45 55
embarcados e encoders nas rodas, não foi possível realizar
c)
b)
10 os experimentos necessários para comparar o sistema
40 0 desenvolvido com outros baseados nas técnicas mais
-10 utilizadas em localização de robôs móveis.
D is tâ nc ia (cm )
D is tâ nc ia (cm )
-20 Como trabalho futuro propõe-se uma avaliação mais
15
-30
rigorosa do método, com o intuito de obter respostas a
-40
respeito de aspectos como o número mínimo de pontos
-10 -50
necessário para se aplicar o método desenvolvido, a
-60
comparação do sistema proposto com os métodos mais
-40 -30 -20 -10 0 -60 -40 -20 0 20
Distância (cm) Distância (cm) utilizados em localização de robôs móveis, a caracterização
Figura 5: Trajetórias estimada pelo sistema (azul) e posições finais do método e análise dos problemas causados por má
esperadas (vermelho). iluminação e pela vibração da câmera, e o desenvolvimento
Na fig. 5, foram utilizados círculos com um traço escuro de técnicas para obtenção de pontos de interesse em imagens
na direção radial para indicar a orientação da plataforma em que não apresentem, necessariamente, regiões bem
alguns pontos da trajetória. Na tabela 4 são apresentados os definidas, aumentando a aplicabilidade do método aqui
resultados do terceiro experimento. desenvolvido para ambientes externos, por exemplo.
Tabela 4: Resultado do Experimento 3
Erro Angular ( °) Erro Linear (cm) Referências Bibliográficas
Trajetória a +1,12 2,5
Trajetória b -0,93 2,3 Andrade, B. T.; Matos, L. N. ; Freire, E. O. Um Sistema de
Trajetória c +2,06 5,1 Visão Computacional para Robôs Móveis. XXVI
Na tabela 4, o erro angular é dado pela diferença entre o Congresso da SBC, Campo Grande, MS, 2006.
deslocamento angular esperado e o estimado. De forma Campbell, J.; Sukthankar, R.; Nourbakhsh, I.; Pahwa, A. “A
análoga, o erro linear é dado pela diferença entre o Robust Visual Odometry and Precipice Detection
deslocamento linear esperado e o estimado. System Using Consumer-grade Monocular Vision”.
IEEE International Conference on Robotics and
Automation, Barcelona, Spanha, Abril, 2005.
5 Conclusões Carvalho-Filho, J. G. N.; Carvalho, E. A. N.; Molina, L.;
Freire, E. O.; Luciano, Benedito, L. A.. “High
Neste artigo foi desenvolvido um sistema de estimação de Resolution Analogical Measurement of the Angular
posição e orientação baseado em uma técnica de Velocity of a Motor Using a Low Resolution Optical
correspondência de imagens, também apresentada neste Encoder”. Workshop Robocontrol`08. Bauru, dezembro
trabalho. de 2008.
O sistema proposto foi submetido a vários testes, nos Carvalho, E. A. N.; Sá, Alan, Alves, E.; Freire, E. O.;
quais o movimento de uma plataforma móvel simulou Matos, L. N.; Luciano, B. Estimação de Parâmetros
movimentos típicos de robôs móveis. Os resultados obtidos para Navegação de um Robô Móvel a partir de Dados
foram promissores, comprovando a aplicabilidade da técnica Obtidos por um Sistema de Visão Computacional”. XVI
desenvolvida. Congresso Brasileiro de Automação, 2006.
Gonzalez, R. C.; Woods, R. E. “Digital Image Processing”.
Duas vantagens importantes do sistema proposto é que
Second Edition. Editora Prantice Hall, ISBN 0-201-
ele se aplica a robôs sem restrições holonômicas, como pode
18075-8, 2002
ser observado na figura 5.b e sua medição não é afetada pelo
Haralick, Robert M., and Linda G. Shapiro, Computer and
deslizamento das rodas.
Robot Vision, Volume I, Addison-Wesley, 1992, pp.
A técnica proposta neste trabalho mostrou-se promissora 28-48.
ao encontrar a relação entre as imagens consecutivas Heinen, F. J. “Sistema de Controle Híbrido para Robôs
adquiridas pela câmera a bordo do robô móvel, fornecendo Móveis Autônomos”. Dissertação de Mestrado,
assim uma forma de realizar a medição de posição e Universidade do Vale do Rio dos Sinos, 2002.
orientação deste. Entretanto, a técnica desenvolvida depende Kapur, J. N.; Sahoo, P. K.; Wong, K. C. “A new method for
da obtenção dos pontos de interesse com o menor índice de gray-level picture thresholding using the entropy of the
erro possível. histogram. Computer Vision, Graphics, and Image
Como o foco deste artigo é a apresentação de um novo Processing”. Vol. 29, 1985, pp. 273-285.
método de correspondência de imagens baseado na Santos, Frederico M.; Silva, Valter F.; Almeida, Luís.
utilização das distâncias entre os pontos de interesse obtidos, “Auto-localização em pequenos robôs móveis e
para realizar a medição do deslocamento de um robô móvel, autônomos: O caso do robô Bulldozer IV”, revista
optou-se por utilizar técnicas simples para obtenção dos Electrónica e Telecomunicações 3(6), Abril 2002.
pontos de interesse, para diminuir a complexidade do
FUSÃO DE DADOS DE SENSORES PARA ESTIMAÇÃO DE POSIÇÃO E
ORIENTAÇÃO DO APM AEROMÓVEL
Abstract— APMs (Automated People Movers) are light vehicles used to move people in urban areas, imple-
menting a concept similar to a horizontal elevator. The Aeromóvel system is an APM system where the vehicle
is moved by air flow and requires its position to be known with a precision better then 10cm. In order to ensure
such a precision, this papers proposes a data fusion system, integrating data from different sensors by using an
extended Kalman filter. The system uses data from optical encoders in the train wheels and GPS data to estimate
the vehicle position and orientation. Since the vehicle has two trucks, with four independent wheels each one,
the proposed method groups the wheels in pairs. Each pair of wheels is used to compute an estimate of position
and orientation that is fused with estimations from other pairs of wheels and the GPS receiver. Simulated results
are presented to show the effectiveness of the approach.
Keywords— Automatic people mover, APM, Aeromóvel, Extended Kalman filter, Sensor fusion, Global po-
sitioning system, GPS, Localization.
Resumo— APMs (Automated People Movers) são veı́culos leves destinados a movimentar pessoas em ambien-
tes urbanos, em um conceito semelhante a um elevador, porém movendo-se na horizontal. O sistema Aeromóvel é
um sistema de APM onde o veı́culo é movido a ar e requer que a sua posição seja conhecida com precisão melhor
do que 10cm. Afim de garantir essa precisão, este trabalho propõe um sistema que integra os dados de diferentes
sensores através do filtro de Kalman Estendido. O sistema proposto utiliza os dados obtidos de encoders ópticos
presentes nas rodas do trem juntamente com os dados de um receptor GPS para estimar a posição e orienta-
ção. Como o veı́culo possui dois conjuntos de eixos com quatro rodas independentes cada, a estratégia proposta
aqui agrupa as rodas em pares. Cada par de rodas fornece uma estimativa da posição e orientação do veı́culo
que é fundida juntamente com as estimativas obtidas pelas demais rodas e pelo GPS. Resultados simulados são
apresentados afim de ser verificar a validade do sistema proposto.
Palavras-chave— Automatic people mover, APM, Aeromóvel, filtro de Kalman estendido, fusão de sensores,
Sistema de Posicionamento Global, GPS, Localização.
D = cos−1 (sin φ1 sin φ2 +cos φ1 cos φ2 cos(λ1 −λ2 )) E{w(k)wT (k)} = Pw (k)δ(k − i) (19)
(15) E{v(k)v T (k)} = Pv (k)δ(k − i) (20)
DRT erra E{w(k)v T (i)} = 0 (21)
DistanciaAB = π (16)
180
E{·} é o operador valor esperado e Pw (k) e Pv (k)
onde RT erra é o raio da Terra. são matrizes diagonais formadas pelas variâncias
A longitude geográfica é o ângulo medido de w(k) e v(k), respectivamente.
ao longo do equador da Terra, tendo origem em O EKF é implementado utilizando-se matrizes
um meridiano de referência (o meridiano de Gre- jacobianas de f e h que são obtidas através de line-
enwich), e extremidade no meridiano do lugar. arização de tais funções em torno de uma estima-
Na Conferência Internacional Meridiana, reali- tiva do estado no instante k. Assim expandindo-se
zada em Washington em outubro de 1884, foi de- em série de Taylor as equações (17-18) em torno da
finida como variando de 0 a 180◦ (Oeste de Gre- estimativa do estado no instante k e desprezando-
enwich) e de 0 a -180◦ (Leste). se os termos de ordem superior tem-se (22-23).
A latitude é o ângulo medido ao longo do me- x(k +1) ≈ f (x̂(k|k), u(k))+F (k)[x(k)− x̂(k|k)]+w(k)
ridiano do lugar, com origem no equador e extre- (22)
midade no zênite do lugar. Zênite é o ponto supe-
rior da esfera celeste, segundo a perspectiva de um
observador estacionado num plano sobre a Terra, y(k) ≈ h(x̂(k|k), u(k)) + H(k)[x(k) − x̂(k|k)] + v(k)
o exato ponto acima de sua cabeça projetado na (23)
abóboda celeste, ou a intersecção da vertical su- onde
perior do lugar com a esfera celeste. A latitude
˛
∂f (x(k), u(k)) ˛˛
F (k) = (24)
então pode variar entre -90◦ e 90◦ . O sinal ne- ∂x(k) ˛
x(k)=x̂(k|k)
gativo indica latitudes do hemisfério sul e o sinal ˛
∂h(x(k), u(k)) ˛˛
positivo hemisfério norte. H(k) =
∂x(k) ˛
x(k)=x̂(k|k)
−10
XIV Congresso Brasileiro de Automática .
−20
Hemerly, E. M. e Schad, V. R. (2004). Sistema
−30
−15 −10 −5 0
X[m]
5 10 15 de navegação de baixo custo baseado na fu-
são ins/gps usando filtro de kalman, XV Con-
(a) Posição.
gresso Brasileiro de Automática 1.
Orientacao estimada
7
Kalman, R. E. (1960). A new approach to linear
6
Nominal
Odometros e GPS (Kalman)
filtering and prediction problems, Transacti-
5
4
ons of the ASME–Journal of Basic Enginee-
ring 82(Series D): 35–45.
Theta[rad]
1
Kao, W.-W. (1991). Integration of gps and dead-
0 reckoning navigation systems, Vehicle Navi-
−1
0 20 40 60 80
t[s]
100 120 140 160 180
gation and Information Systems Conference,
1991 2: 635–643.
(b) Orientação.
Rezaei, S. e Sengupta, R. (2007). Kalman filter-
Figura 5: Posição e orientação estimadas. based integration of dgps and vehicle sensors
for localization, Control Systems Technology,
IEEE Transactions on 15(6): 1080–1088.
Referências
2
Programa de Engenharia Elétrica da Universidade Federal do Rio de Janeiro – PEE/COPPE/UFRJ, Rio de Janeiro-RJ,
Brasil.
3
Departamento de Engenharia Elétrica da Universidade Federal de Campina Grande – DEE/UFCG, Brasil.
Abstract This paper presents a state estimation system (position and velocity) of a mobile robot, using a low cost optical flow sensor
with an α-β filter. The limitations of the sensor during the execution of distinct trajectories are presented, and the viability of its application
in robots with holonomic restrictions is shown. The position information given by the optical flow sensor is incremental and of low
resolution, which generates an error propagation in determining the position of the robot and makes the information about velocity
unusable by a state feedback system. The use of α-β filter as a solution to these problems is proposed.
State Estimation, Optical Flow Sensor, α-β filter, Odometry, Mobile Robots.
Keywords
Resumo Neste trabalho é apresentado um sistema de estimação de estados (posição e velocidade) de um robô móvel, utilizando um
sensor de fluxo óptico de baixo custo juntamente com um filtro α-β. São apresentadas as limitações do sensor ao executar trajetórias
distintas e comprovada a viabilidade de aplicação deste tipo de sensor para robôs com restrições holonômicas. A informação de posição
disponibilizada pelo sensor de fluxo ótico é de baixa resolução e incremental, o que gera uma propagação de erro na determinação da
posição do robô e inviabiliza a utilização da velocidade em uma realimentação de estado. A utilização do filtro α-β é proposta como uma
solução para estes problemas.
Estimação de Estados, Sensor de Fluxo Óptico, Filtro α-β, Odometria, Robôs Móveis.
Palavras-chave
Agradecimentos
Referências Bibliográficas