Você está na página 1de 6

Point Distribution Models: A Brief Description

Jovan de Andrade Fernandes Junior Leonardo Nogueira Matos


Programa de Pós-Graduação Programa de Pós-Graduação
em Ciência da Computação em Ciência da Computação
Universidade Federal de Sergipe Universidade Federal de Sergipe
Aracaju, Sergipe, Brasil Aracaju, Sergipe, Brasil
Email: jovan.andrade.fernandes@gmail.com Email:lnmatos@ufs.br

Abstract—In computer vision one of the hardest tasks is to A. Histórico


localize an object on a image. This article aims to give a brief
description to the principles of Point Distribuition Models - PDM,
explaining their principles and functionality. Additionally, this Os PDM foram a evolução dos Modelos de Contorno Ativos
article shows the differences between some types of variances of
ASM and AAM, which are the most famous PDM. (ACM - Active Contour Models (“Snakes”))[3]. Apesar de ser
um Modelo Deformável (ou Modelo Flexı́vel) assim como o
I. I NTRODUÇ ÃO PDM, os ACM não realizam restrições globais no modelo,
Os Modelos de Distribuição de Pontos (PDM - Point Dis- isto é, o modelo ACM pode deformar de tal forma que não
tribution Models), também conhecidos como Statistical Shape represente mais o objeto. Além disso, um Modelo Flexı́vel
Models, buscam solucionar o problema de localizar objetos deve realizar uma robusta interpretação mesmo em imagens
não rı́gidos em imagens, isto é, objetos que variam a sua com ruı́do, desordenadas ou com oclusão de partes do objeto
forma ao longo do tempo. Para isso, estes buscam ajustar uma de interesse.
forma paramétrica pré-definida de uma estrutura à observação O primeiro PDM foi apresentado no meio dos anos 90 por
encontrada. Cootes e Taylor [1], o Active Shape Models original. A partir
Os PDM possuem como premissa que cada objeto ou desse artigo vários pesquisadores concentraram seus esforços
estrutura seja representada através de um conjunto de pontos em melhorar o método como por exemplo [4]. No começo
chamados de pontos de referência (ou pontos de controle). dos anos 2000, os mesmos autores propuseram os Active
Tais podem representar as fronteiras ou caracterı́sticas internas Appearance Models [2] o qual posteriormente foi formalizado
e externas de objetos. Os pontos são colocados em locais por Baker e Mathhews [5]. Outra vertente de trabalho nessa
equivalentes dentre um conjunto de imagens de treinamento linha de pesquisa foram os 3D Morphable Models (3DMM)
que contem exemplos do objeto, como demonstra a figura propostos inicialmente por Blanz e Vetter [6], o quais buscam
1. A técnica primeiramente propõe uma maneira automática modelar os objetos em 3D. Desta época até os dias atuais
de alinhar os pontos para minimizar a variância de distância os esforços vêm sendo concentrados na melhoria dos métodos
dentre os pontos equivalentes. Após isto, é realizada uma propostos para que obtenham boa performance principalmente
análise estatı́stica das posições dos pontos de referência, ob- em vı́deo.
tendo um “Modelo Pontual de Distribuição”. Através da média
das posições de cada ponto de referência ao longo da base de
treinamento, e um número de parâmetros que controlam os
principais “modos de variação” encontrados, o modelo pode
ser ajustado à um exemplo encontrado do objeto modelado.
Dentre as estratégias de ajuste do modelo, os PDM tipi-
camente diferem entre dois tipos de abordagens: métodos
discriminativos ou baseados em partes, e métodos generativos
ou holı́sticos. Os primeiros modelam correlações locais entre
valores de pixels utilizando um conjunto de detectores locais
de caracterı́sticas, conectados por um modelo de restrições
geométricas; um exemplo de abordagem que faz parte deste
grupo são os Active Shape Models - ASM [1]. Já os genera-
tivos modelam a textura de todos os pixels que descrevem o
objeto, sintetizando a “aparência” esperada do objeto alvo. Um
exemplo que faz parte deste grupo são os Active Appearance
Models - AAM [2]. A diferença entre os dos modelos pode
ser visualizada na figura 2. Fig. 1. Localização dos Pontos de Referência
2) Alinhamento do conjunto de treinamento;
3) Estudar as variações admissı́veis;
4) Escolha do número de modos de variação para repre-
sentar o objeto;

A. Alinhamento da Base de Treinamento


Por se tratar de um método baseado em ajuste, este deve se
preocupar com as variações de rotação, translação e escala
(a) Modelo Discriminativo (b) Modelo Generativo da forma encontrada como podemos observar na figura 3.
Para solucionar o problema, faz-se necessário aplicar uma
Fig. 2. Exemplos de um modelo generativo e um modelo discriminativo
transformação afim em cada objeto de treinamento com
intenção de alinhar todas as formas. O modelo original pro-
B. Objetivo posto por Cootes & Taylor [9] sugere a utilização da Análise
Generalizada de Procrustes descrita abaixo.
Possuindo um Modelo de Distribuição de Pontos e uma
imagem contendo um exemplo do objeto modelado, o desafio
é escolher os valores para cada um dos parâmetros a fim de
encontrar o melhor ajuste do modelo com o exemplo do objeto.
Sabendo desta problemática, diversas soluções de ajuste do
modelo foram propostas, tais como: ASM - Active Shape
Models[1], LTC-ASM - Local Texture Constrained ASM [7]
[8], AAM - Active Appearance Models [2], IC-AAM - Inverse
Fig. 3. Demonstração das variações de translação, rotação e escala.
Compositional , dentre outras.
Este artigo apresenta uma descrição e análise dos prin-
Suponha que um escalonamento multidimensional tenha
cipais PDM, exemplificando sua aplicação considerando o
sido realizado em dados de dissimilaridade por meio de
objeto face humana. Para isto, primeiramente é apresentada
dois métodos diferentes, dando origem a duas configurações
a construção de um Modelo de Distribuição de Pontos na
distintas mas que representam o mesmo conjunto de objetos.
seção II, seguindo da apresentação das principais estratégias
A Análise de Procrustes dilata, translada, espelha e rotaciona
de ajuste: os originais ASM e AAM; e das abordagens que
uma das configurações para que os pontos se ajustem, da
atualmente obtêm melhor performance: LBP-LTCASM e IC-
melhor maneira possı́vel à outra, permitindo a comparação dos
AAM. Em seguida, na seção ??, é feita uma análise de perfor-
resultados. Segundo Dijksterhuis [10], este método é ideal para
mance das estratégias elencadas. Por último, são apresentadas
analisar dados oriundos de diferentes indivı́duos.
as conclusões do artigo.
A solução teórica [11] supõe que uma configuração de
II. C ONSTRUINDO UM M ODELO P ONTUAL DE n pontos em um espaço Euclidiano q-dimensional, com co-
D ISTRIBUIÇ ÃO ordenadas dadas pela matriz X1nx q , precisa ser ajustada
otimamente a outra configuração X2 dos mesmo n pontos em
Nos PDM a estrutura de um objeto é representada através de um espaço Euclidiano p-dimensional (p ≥ q). Assume-se que
um conjunto de n pontos, os quais podem estar em uma, duas o r-ésimo ponto na primeira configuração pode ser mapeado
ou três dimensões. Neste artigo nos limitaremos a abordar os sobre o r-ésimo ponto da segunda.
modelos em 2D. Para comparar a forma de dois ou mais objetos, estes
Por se tratar de modelos estatı́sticos que têm como insumo devem ser sobrepostos. Segundo [12], a sobreposição ótima
uma base de treinamento, é importante ressaltar que bases de é encontrada calculando a melhor translação, rotação e escala
treinamento especializadas podem aparentar melhores resul- (operações que podem ser observadas na figura 3) aplicada
tados no entanto, em um cenário real, isso não é verdade. aos objetos, em outras palavras, objetivo desta análise é
Para exemplificar, podemos considerar como objeto uma face aplicar uma transformação em cada objeto que minimize uma
humana; caso a base de treinamento seja montada somente medida de diferença entre os formatos, chamada de distância
com imagens de uma pessoa especı́fica, o subespaço que de Procrustes obtida através da equação 1. Essa medida nos
captura as variações da face é geralmente muito mais compacto informa a qualidade da sobreposição de dois objetos. Quanto
do que quando montado com faces de múltiplas pessoas. Logo, mais próximos de zero mais o objeto X2 se aproxima do
neste exemplo, é desejável considerar uma base de treinamento alinhamento ideal com o objeto X1.
com exemplos de face de diversas pessoas, possibilitando a
generalidade da solução. n
X
Podemos descrever o processo de obtenção do modelo nos Pd2 = [(xj1 − xj2 )2 + (yj1 − yj2 )2 ] (1)
seguintes passos: j=1

1) Posicionar os pontos de referência em cada exemplo do Por fim, para alinhar um conjunto de formas, ou seja,
conjunto de treinamento; minimizar o efeito de rotação translação e escala dos objetos
(a) Dados Plotados (b) Formas Alinhadas (c) Formas Alinhadas
e Forma Média

Fig. 4. Resultado da Análise de Procrustes

em relação a forma média, podemos seguir os seguintes


passos: Fig. 5. Modos de Variação considerando o objeto face humana.
1) Calcular a forma média através da equação (2).
2) Calcular o centro de massa de cada exemplo da base B. Estudo dos Modos de Variação
de treinamento e posicionar cada um em seu centro de
massa através das equações (3) (4). Afim de encontrar os modos de variação admissı́veis, isto é,
3) Aplicar a transformação de escala para que cada forma as maneiras segundo as quais os pontos de referência tendem
tenha tamanho igual através da equação (5). a mover-se, devemos realizar uma análise estatı́stica com o
4) Alinhar a posição de cada forma e a forma média em propósito de inferir a sua distribuição de probabilidade. Apesar
relação ao seu centro de massa. de existirem vários métodos eficientes, podemos simplificar o
5) Alinhar a posição de cada forma e a forma média por problema assumindo que os dados seguem uma distribuição
rotação (7) Gaussiana e modelar os objetos com uma representação linear.
6) Calcular novamente a forma média Assim, podemos aplicar uma clássica Análise de Compo-
7) Caso a forma média possua variação aplicar novamente nentes Principais - PCA (Principal Component Analysis) [13]
o algoritmo. a qual realiza uma transformação linear para um subespaço
de menor dimensão que o original. Esta análise consiste em
calcular os autovalores e autovetores da matriz de covariância
N
1 X S definida na equação 8.
x̄ = xi (2)
N i=1 Ns
1 X
S= (xi − x̄)(xi − x̄)T (8)
  N i=1
n n
1 X 1 X
(x̄, ȳ) =  xj , yj  (3) Os modos de variação dos pontos de referência são descritos
n n
j=1 j=1 pelos autovetores de S,pi , tal que Spi = λi pi onde λi é o
iesimo autovalor de S(λi ≥ λi+1 ) e pTi pi = 1.
Após a aplicação do PCA, sabe-se que os autovalores da
(x, y) → ((x − x̄), (y − ȳ), ...) (4)
matriz de covariância S mais elevados descrevem a maior parte
das variações admissı́veis, e a proporção da variância total ex-
r plicada por cada autovetor é igual ao autovalor correspondente.
(x1 − x̄)2 + (y1 − ȳ)2 + ... Assim a maior parte da variância da forma pode ser explicada
s= (5)
k por um pequeno número de autovetores, que neste contexto,
são chamados de modos de variação. Tal comportamento é
ilustrado na figura II-B.
 
(x − x̄) (y − ȳ)
(x, y) → , (6) Dessa forma, cada objeto do conjunto de treinamento pode
s s
ser descrito pela forma média e pela combinação dos primeiros
Pk ! t autovetores como na equação 9, onde P = (p1 p2 ...pt ) é a
− i=1 (wi yi − zi xi ) matriz dos primeiros t autovetores e b = (b1 b2 ...bt ) é o vetor
θ = tan 1 Pk (7)
i=1 (wi xi − zi yi )
de pesos de autovetor, isto é, o conjunto de parâmetros do
modelo deformável.
Na equação 7, seja ((x1 , y1 ), ...) os pontos de uma forma
1 e ((w1 , z1 ), ...) os pontos de uma forma 2. θ representa o x∼
= x̄ + P b (9)
melhor angulo que sobrepões a forma 2 em relação a forma
1.
b = P T (x − x̄) (10)
Como podemos observar na imagem 4, após a execução
da Análise de Procrustes temos todas as formas alinhadas Através do PCA, podemos criar novos objetos variando os
juntamente à forma média. parâmetros bi dentro dos limites aceitáveis. Como a variância
λ1i , λ2i , ... , λF

de bi sobre o conjunto de √ treinamento é√dada por λi , então i , assumimos uma distribuição Gaus-
seus limites estão entre −3 λi < bi < 3 λi . siana com média λ̄i e desvio padrão σλi . Assim, para avaliar se
uma textura a arbitrária está em conformidade com o conjunto
C. Escolha dos Modos de Variação
de exemplo de treinamento, as restrições do modelo podem ser
Esta etapa corresponde em escolher o número de autovetores aplicadas em todos os seus parâmetros de textura λai , como
(ou modos de variação), t, que represente a maior parte da na equação 15.
variância total dos dados considerando que os termos residuais
sejam considerados ruı́dos. Este pode ser escolhido de diversas a
λ − λ̄i ≤ 3σλi
i
maneiras, de acordo com a aplicação em que o modelo será (15)
utilizado. i = 1, 2, ..., M
Uma maneira simples é escolher a percentagem de variância Na prática, o modelo de textura é concatenado ao modelo
explicada pelo modelo. Sabendo-se que a soma de todos os de forma como no AAM [5] para que o modelo represente
autovalores da matriz de covariância do conjunto de treina- simultaneamente a variabilidade de forma e textura da base
mento é igual a variância total dos dados, podemos calcular de treinamento. Como os modelo de forma e textura são
t através da equação 11, onde fv define a proporção total de correlatos, assume-se que o vector p de parâmetros da forma
variância que se deseja explicar e Vt representa a variância e o vetor λ de parâmetros de textura possuem uma relação
total dos dados 12. Segundo [4], escolhe-se t de forma que a linear, podendo então ser combinados em um único vetor de
variância explicada seja elevada (> 90%). parâmetros c.
t
X III. A JUSTE DO M ODELO D EFORM ÁVEL
λi = fv Vt (11)
i=1
Possuindo o Modelo de Distribuição de Pontos, o de-
X safio agora é ajustar os parâmetros do modelo à uma nova
Vt = λi (12) observação. Diversas maneiras foram propostas ao longo dos
anos, aqui mostraremos as originais e as que atualmente obtêm
D. Modelo de Textura
melhor performance.
Segundo Stegmann[14], o modelo estatı́stico de textura é
definido com a intensidade dos pixels ao longo do objeto em A. Inicialização do Modelo
questão. Assim, o modelo estatı́stico de textura é um vetor de Os PDM possuem o problema de não saber em qual região
intensidade A definido através de u pixels dentro do objeto da imagem o objeto se encontra inicialmente, para então dar
em questão. A equação 13 mostra um vetor de textura quando inı́cio ao processo de ajuste do modelo. Atualmente, um dos
utiliza-se 3 canais (RGB) para representação de textura. métodos mais eficientes e utilizados é o que utiliza Carac-
terı́sticas de Haar juntamente com um classificador Adaboost.
No contexto de faces, Viola e Jones [15] demonstraram sua
 
b1 , b2 , ..., bu
A = g1 , g2 , ..., gu  eficiência.
r1 , r2 , ..., ru (13)
B. Active Shape Models - ASM
A = (b1 , b2 , ..., bu , g1 , g2 , ..., gu , r1 , r2 , ..., ru )
A partir da localização inicial do objeto na imagem, um
Assim como o modelo de forma, o modelo de textura modelo de forma pode facilmente ser ajustado através de um
também permite uma variação linear, isto é, o modelo de procedimento iterativo:
textura é através da análise dos seus componentes principais. 1) Examine a região da imagem em volta de cada ponto de
Isto significa que uma textura A pode ser representada pela sua referência a fim de calcular o seu novo posicionamento;
forma base A0 somada a uma combinação linear de M texturas 2) A partir da nova posição detectada atualize os
Ai como demonstra a equação 14 onde λi são os parâmetros
  parâmetros do modelo aplicando limites aos critérios de
A1 ajuste da forma. Restrições globais podem ser aplicadas
 A2 
da textura e Ai são os autovetores, com Pt =  para garantir que o modelo continua similar aos exem-
 ...  e

plos de treinamento;
AM 3) Repita os passos anteriores até que não haja mais
λ = (λ1 , λ2 , ..., λM ). mudanças significantes no modelo.
M
X Com o propósito de encontrar a melhor localização de cada
A = A0 + λi Ai = A0 + λPt (14) ponto do modelo, o ASM examina uma região l perpendicular
i=1
à fronteira do modelo para cada ponto de referência. Definindo
Para cada exemplo de textura de treinamento Aj , j = uma área de m pixels tal que l > m, a distância de
1, 2, ..., F , cada textura Aj corresponde a um vetor de Mahalanobis é computada ao longo de toda região l. O modelo
parâmetros de textura λj , em que F é o número total é então ajustado para que o centro da região l corresponda a
de exemplos de treinamento. Por simplicidade, para to- posição em que uma função de custo, no caso, a distância de
dos os i elementos dos parâmetros de textura λj , isto é, Mahalanobis, seja minimizada.
Se olharmos para a atualização da posição de cada ponto de
referência independente dos outros, então os vários objetivos
podem ser integrados em um só através das equações 16 17.
Em que C(xi ) é o custo em cada ponto do modelo xi =
(xi , yi )T , e CASM (s) é a média total dos custos da forma.
(a) Triangulação (b) Modelos de Textura Obtidos
v de Dalaunay
1X
CASM (s) = C(xi ) (16) Fig. 6. Resultado de um AAM
v i=1

s D. Active Appearance Models - AAM


pj − p¯j ≤ 3σpj (17)
Diferentemente dos ASM, os quais procuram ajustar a
A diferença dentro as variações do ASM é justamente como posição de cada um dos pontos de referência diretamente, o
definir a função de custo em cada ponto de referência xi . AAM busca ajustar além da forma a representação holı́stica
O ASM original [9] propôs que para representar o padrão a de textura de objeto simultaneamente.
textura local em volta de cada ponto de referência xi utilizar O objetivo dos AAM é minimizar a erro quadrático médio
o gradiente da imagem ao longo de uma ou dua direções. A (Mean Square ERROR - MSE) da diferença entre a im-
tabela I demonstra as variações mais populares. agem real Areal e a imagem construı́da através do modelo
paramétrico Amodelo .
Variante ASM Representação Local de Função de Custo
Textura r(c) = Areal − Amodelo (19)
1D ASM 1 vetor de gradientes Distância de Ma-
halanobis
2D ASM 2 vetores de gradientes Distância de Ma-
E(c) = r(c)T r(c) (20)
halanobis
Milborrow 2D Intensidade dos Pixels Distância de Ma- Olhando as equação 19 20 como um problema de
ASM [16] halanobis otimização, podemos solucioná-lo de maneira iterativa, isto é,
LTC-ASM [17] Intensidade dos Pixels FNCC [18]
para cada iteração o objetivo é encontrar o δc mais adequado
Gabor LTC-ASM Caracterı́sticas de Gabor FNCC [18]
[19] para que a equação 21 encontre seu minimo.
Haar LTC-ASM Caracterı́sticas de Haar FNCC [18]
[20]
LBP LTC-ASM Local Binary Patterns FNCC [18] E(c + δc) = r(c + δc)T r(c + δc) (21)
[7]
TABLE I Para representar as cada textura é necessário utilizar a
A LGUNS EXEMPLOS DE VARIAÇ ÕES DO ASM triangulação de Delaunay [22], para que cada estrutura interna
do objeto possua a mesma forma triangular. A figura 6 mostra
o resultado da triangulação e o resultado final de um AAM.

C. Local Binary Pattern ASM - LBP LTC-ASM E. Evolução dos AAM

Apesar do ASM original alcançar bons resultados em ter- Como mostra [23], os AAM conseguem obter melhores
mos de precisão de localização de cada um dos pontos de resultados no que diz repeito a precisão de localização dos
referência, este possui velocidade suficiente para rodar em pontos, no entanto estes são muito caros computacionalmente
vı́deos. Sendo assim, ao longo dos anos vários pesquisadores e necessitam de várias otimizações. Variações como o IAIA
propuseram melhoramentos para diminuir a complexidade AAM [24] e o IC AAM [25] são as que obtêm melhor
computacional de calcular as funções de custo e obter a textura performance de ajuste do modelo com velocidade aceitável
local de cada ponto do modelo. para sequencias de vı́deo.
Em [8] mostrou-se que o ASM que possui melhores re- IV. C ONCLUS ÃO
sultados de ajuste é o LBP LTC-ASM. Este ASM utiliza os
padrões locais binários - LBP [21] como representação de Este artigo realizou uma breve descrição dos Modelos
textura de cada ponto de referência. Além disso, para reduzir Pontuais de Distribuição, mostrando seus conceitos e variações
a complexidade computacional, os Local Texture Constrained e ressaltando os métodos que atualmente obtêm melhor per-
ASM utilizam como função de custo no xi a FNCC dada formance.
pela equação ??. É importante ressaltar que nos LTC-ASM xi Sabendo que os ASM possuem maior velocidade em con-
corresponde ao centro da região de pesquisa. traste com os AAM que possuem maior precisão, como
trabalho futuro, voltado para faces humanas, podemos realizar
uma análise comparativa dos ASM e AAM quando necessita-
C(xi ) = N CSTii (xi ) (18) se reconhecer expressões faciais.
R EFERENCES Applications, vol. 1, no. 1, pp. 79–92, March 1991. [Online]. Available:
http://www.ics.uci.edu/ eppstein/pubs/BerEppYao-IJCGA-91.pdf
[1] T. F. Cootes, C. J. Taylor, D. H. Cooper, and J. Graham, “Active [23] J. S. Ju, Y. Shin, and E. Y. Kim, “Intelligent wheelchair (iw)
shape models - their training and application,” Comput. Vis. Image interface using face and mouth recognition,” in Proceedings of the 14th
Underst., vol. 61, no. 1, pp. 38–59, jan 1995. [Online]. Available: International Conference on Intelligent User Interfaces, ser. IUI ’09.
http://dx.doi.org/10.1006/cviu.1995.1004 New York, NY, USA: ACM, 2009, pp. 307–314. [Online]. Available:
[2] T. F. Cootes, G. J. Edwards, and C. J. Taylor, “Active appearance mod- http://doi.acm.org/10.1145/1502650.1502693
els,” in IEEE Transactions on Pattern Analysis and Machine Intelligence. [24] Adaptive and constrained algorithms for inverse compositional Active
Springer, 2001, pp. 484–498. Appearance Model fitting, 2008.
[3] M. Kass, A. Witkin, and D. Terzopoulos, “Snakes: Active contour [25] S. Romdhani and T. Vetter, “Efficient, Robust and Accurate Fitting of
models,” INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 1, a 3D Morphable Model,” in ICCV ’03: Proceedings of the Ninth IEEE
no. 4, pp. 321–331, 1988. International Conference on Computer Vision. Washington, DC, USA:
[4] T. F. Cootes, C. J. Taylor, and A. Lanitis, “Active shape models: IEEE Computer Society, 2003.
Evaluation of a multi-resolution method for improving image search,”
2004.
[5] I. Matthews and S. Baker, “Active appearance models revisited,” Int.
J. Comput. Vision, vol. 60, no. 2, pp. 135–164, Nov. 2004. [Online].
Available: http://dx.doi.org/10.1023/B:VISI.0000029666.37597.d3
[6] V. Blanz and T. Vetter, “A morphable model for the synthesis of 3d
faces,” in Proceedings of the 26th Annual Conference on Computer
Graphics and Interactive Techniques, ser. SIGGRAPH ’99. New
York, NY, USA: ACM Press/Addison-Wesley Publishing Co., 1999, pp.
187–194. [Online]. Available: http://dx.doi.org/10.1145/311535.311556
[7] S. Marcel, J. Keomany, and Y. Rodriguez, “Robust-to-illumination face
localisation using active shape models and local binary patterns,” IDIAP,
Idiap-RR Idiap-RR-47-2006, 0 2006, submitted for publication.
[8] S. Marcel, Y. Rodriguez, and G. Heusch, “On the recent use of local
binary patterns for face authentication,” International Journal on Image
and Video Processing Special Issue on Facial Image Processing, 0 2007,
iDIAP-RR 06-34, accepted for publication but withdrawn because of
author charges.
[9] T. F. Cootes and C. J. Taylor, “Active shape model search using local
grey-level models: A quantitative evaluation,” in IN PROCEEDINGS OF
THE BRITISH MACHINE VISION CONFERENCE, 1993.
[10] G. B. Dijksterhuis and J. C. Gower, “The interpretation of generalized
procrustes analysis and allied methods,” Food Quality and Preference,
vol. 3, pp. 67–87, 1991/2.
[11] T. Cox and M. Cox, Multidimensional Scaling, ser.
Chapman & Hall/CRC Monographs on Statistics & Applied
Probab. Chapman and Hall, 1994. [Online]. Available:
http://books.google.co.in/books?id=WtW5QgAACAAJ
[12] C. Brombin and L. Salmaso, “Multi-aspect permutation tests in shape
analysis with small sample size.” Computational Statistics & Data
Analysis, pp. 3921–3931, 2009.
[13] B. G. Tabachnick and L. S. Fidell, Using Multivariate Statistics (5th
Edition), 5th ed. Allyn & Bacon, Mar. 2006.
[14] M. B. Stegmann, “Active appearance models: Theory, extensions and
cases,” Master’s thesis, Informatics and Mathematical Modelling, Tech-
nical University of Denmark, DTU, Richard Petersens Plads, Building
321, DK-2800 Kgs. Lyngby, aug 2000.
[15] P. A. Viola and M. J. Jones, “Robust real-time face detection,” in ICCV,
2001, p. 747.
[16] S. Milborrow and F. Nicolls, “Locating facial features with an extended
active shape model,” in Proceedings of the 10th European Conference
on Computer Vision: Part IV, ser. ECCV ’08. Berlin, Heidelberg:
Springer-Verlag, 2008, pp. 504–513.
[17] S. Yan, C. Liu, S. Z. Li, H. Zhang, H.-Y. Shum, and Q. Cheng,
“Texture-constrained active shape models,” in In Proceedings of the First
International Workshop on Generative-Model-Based Vision (with ECCV,
2002.
[18] J. P. Lewis, “Fast normalized cross-correlation,” 1995.
[19] S. J. McKenna, S. Gong, R. P. Würtz, J. Tanner, and D. Banin, “Tracking
facial feature points with gabor wavelets and shape models.” in AVBPA,
ser. Lecture Notes in Computer Science, J. Bigün, G. Chollet, and
G. Borgefors, Eds., vol. 1206. Springer, 1997, pp. 35–42.
[20] S. Xin and H. Ai, “Face alignment under various poses and expressions.”
in ACII, ser. Lecture Notes in Computer Science, J. Tao, T. Tan, and
R. W. Picard, Eds., vol. 3784. Springer, 2005, pp. 40–47.
[21] S. Liao, W. Fan, A. C. S. Chung, and D.-Y. Yeung, “Facial expression
recognition using advanced local binary patterns, tsallis entropies and
global appearance features.” IEEE, 2006, pp. 665–668.
[22] M. W. Bern, D. Eppstein, and F. F. Yao, “The expected extremes
in a Delaunay triangulation,” Int. J. Computational Geometry &

Você também pode gostar