Escolar Documentos
Profissional Documentos
Cultura Documentos
1) Posicionar os pontos de referência em cada exemplo do Por fim, para alinhar um conjunto de formas, ou seja,
conjunto de treinamento; minimizar o efeito de rotação translação e escala dos objetos
(a) Dados Plotados (b) Formas Alinhadas (c) Formas Alinhadas
e Forma Média
Apesar do ASM original alcançar bons resultados em ter- Como mostra [23], os AAM conseguem obter melhores
mos de precisão de localização de cada um dos pontos de resultados no que diz repeito a precisão de localização dos
referência, este possui velocidade suficiente para rodar em pontos, no entanto estes são muito caros computacionalmente
vı́deos. Sendo assim, ao longo dos anos vários pesquisadores e necessitam de várias otimizações. Variações como o IAIA
propuseram melhoramentos para diminuir a complexidade AAM [24] e o IC AAM [25] são as que obtêm melhor
computacional de calcular as funções de custo e obter a textura performance de ajuste do modelo com velocidade aceitável
local de cada ponto do modelo. para sequencias de vı́deo.
Em [8] mostrou-se que o ASM que possui melhores re- IV. C ONCLUS ÃO
sultados de ajuste é o LBP LTC-ASM. Este ASM utiliza os
padrões locais binários - LBP [21] como representação de Este artigo realizou uma breve descrição dos Modelos
textura de cada ponto de referência. Além disso, para reduzir Pontuais de Distribuição, mostrando seus conceitos e variações
a complexidade computacional, os Local Texture Constrained e ressaltando os métodos que atualmente obtêm melhor per-
ASM utilizam como função de custo no xi a FNCC dada formance.
pela equação ??. É importante ressaltar que nos LTC-ASM xi Sabendo que os ASM possuem maior velocidade em con-
corresponde ao centro da região de pesquisa. traste com os AAM que possuem maior precisão, como
trabalho futuro, voltado para faces humanas, podemos realizar
uma análise comparativa dos ASM e AAM quando necessita-
C(xi ) = N CSTii (xi ) (18) se reconhecer expressões faciais.
R EFERENCES Applications, vol. 1, no. 1, pp. 79–92, March 1991. [Online]. Available:
http://www.ics.uci.edu/ eppstein/pubs/BerEppYao-IJCGA-91.pdf
[1] T. F. Cootes, C. J. Taylor, D. H. Cooper, and J. Graham, “Active [23] J. S. Ju, Y. Shin, and E. Y. Kim, “Intelligent wheelchair (iw)
shape models - their training and application,” Comput. Vis. Image interface using face and mouth recognition,” in Proceedings of the 14th
Underst., vol. 61, no. 1, pp. 38–59, jan 1995. [Online]. Available: International Conference on Intelligent User Interfaces, ser. IUI ’09.
http://dx.doi.org/10.1006/cviu.1995.1004 New York, NY, USA: ACM, 2009, pp. 307–314. [Online]. Available:
[2] T. F. Cootes, G. J. Edwards, and C. J. Taylor, “Active appearance mod- http://doi.acm.org/10.1145/1502650.1502693
els,” in IEEE Transactions on Pattern Analysis and Machine Intelligence. [24] Adaptive and constrained algorithms for inverse compositional Active
Springer, 2001, pp. 484–498. Appearance Model fitting, 2008.
[3] M. Kass, A. Witkin, and D. Terzopoulos, “Snakes: Active contour [25] S. Romdhani and T. Vetter, “Efficient, Robust and Accurate Fitting of
models,” INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 1, a 3D Morphable Model,” in ICCV ’03: Proceedings of the Ninth IEEE
no. 4, pp. 321–331, 1988. International Conference on Computer Vision. Washington, DC, USA:
[4] T. F. Cootes, C. J. Taylor, and A. Lanitis, “Active shape models: IEEE Computer Society, 2003.
Evaluation of a multi-resolution method for improving image search,”
2004.
[5] I. Matthews and S. Baker, “Active appearance models revisited,” Int.
J. Comput. Vision, vol. 60, no. 2, pp. 135–164, Nov. 2004. [Online].
Available: http://dx.doi.org/10.1023/B:VISI.0000029666.37597.d3
[6] V. Blanz and T. Vetter, “A morphable model for the synthesis of 3d
faces,” in Proceedings of the 26th Annual Conference on Computer
Graphics and Interactive Techniques, ser. SIGGRAPH ’99. New
York, NY, USA: ACM Press/Addison-Wesley Publishing Co., 1999, pp.
187–194. [Online]. Available: http://dx.doi.org/10.1145/311535.311556
[7] S. Marcel, J. Keomany, and Y. Rodriguez, “Robust-to-illumination face
localisation using active shape models and local binary patterns,” IDIAP,
Idiap-RR Idiap-RR-47-2006, 0 2006, submitted for publication.
[8] S. Marcel, Y. Rodriguez, and G. Heusch, “On the recent use of local
binary patterns for face authentication,” International Journal on Image
and Video Processing Special Issue on Facial Image Processing, 0 2007,
iDIAP-RR 06-34, accepted for publication but withdrawn because of
author charges.
[9] T. F. Cootes and C. J. Taylor, “Active shape model search using local
grey-level models: A quantitative evaluation,” in IN PROCEEDINGS OF
THE BRITISH MACHINE VISION CONFERENCE, 1993.
[10] G. B. Dijksterhuis and J. C. Gower, “The interpretation of generalized
procrustes analysis and allied methods,” Food Quality and Preference,
vol. 3, pp. 67–87, 1991/2.
[11] T. Cox and M. Cox, Multidimensional Scaling, ser.
Chapman & Hall/CRC Monographs on Statistics & Applied
Probab. Chapman and Hall, 1994. [Online]. Available:
http://books.google.co.in/books?id=WtW5QgAACAAJ
[12] C. Brombin and L. Salmaso, “Multi-aspect permutation tests in shape
analysis with small sample size.” Computational Statistics & Data
Analysis, pp. 3921–3931, 2009.
[13] B. G. Tabachnick and L. S. Fidell, Using Multivariate Statistics (5th
Edition), 5th ed. Allyn & Bacon, Mar. 2006.
[14] M. B. Stegmann, “Active appearance models: Theory, extensions and
cases,” Master’s thesis, Informatics and Mathematical Modelling, Tech-
nical University of Denmark, DTU, Richard Petersens Plads, Building
321, DK-2800 Kgs. Lyngby, aug 2000.
[15] P. A. Viola and M. J. Jones, “Robust real-time face detection,” in ICCV,
2001, p. 747.
[16] S. Milborrow and F. Nicolls, “Locating facial features with an extended
active shape model,” in Proceedings of the 10th European Conference
on Computer Vision: Part IV, ser. ECCV ’08. Berlin, Heidelberg:
Springer-Verlag, 2008, pp. 504–513.
[17] S. Yan, C. Liu, S. Z. Li, H. Zhang, H.-Y. Shum, and Q. Cheng,
“Texture-constrained active shape models,” in In Proceedings of the First
International Workshop on Generative-Model-Based Vision (with ECCV,
2002.
[18] J. P. Lewis, “Fast normalized cross-correlation,” 1995.
[19] S. J. McKenna, S. Gong, R. P. Würtz, J. Tanner, and D. Banin, “Tracking
facial feature points with gabor wavelets and shape models.” in AVBPA,
ser. Lecture Notes in Computer Science, J. Bigün, G. Chollet, and
G. Borgefors, Eds., vol. 1206. Springer, 1997, pp. 35–42.
[20] S. Xin and H. Ai, “Face alignment under various poses and expressions.”
in ACII, ser. Lecture Notes in Computer Science, J. Tao, T. Tan, and
R. W. Picard, Eds., vol. 3784. Springer, 2005, pp. 40–47.
[21] S. Liao, W. Fan, A. C. S. Chung, and D.-Y. Yeung, “Facial expression
recognition using advanced local binary patterns, tsallis entropies and
global appearance features.” IEEE, 2006, pp. 665–668.
[22] M. W. Bern, D. Eppstein, and F. F. Yao, “The expected extremes
in a Delaunay triangulation,” Int. J. Computational Geometry &