Você está na página 1de 65

UNIVERSIDADE FEDERAL DE SÃO CARLOS

CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA


DEPARTAMENTO DE ESTATÍSTICA

ESTATÍSTICA MULTIVARIADA 2

CAPÍTULO # 2

ANÁLISE FATORIAL

PROF. PEDRO FERREIRA FILHO

2º SEMESTRE DE 2013
Capítulo 2 – Análise Fatorial

2. ANÁLISE FATORIAL

2.1. INTRODUÇÃO:
Do mesmo modo que a análise de componentes principais, a análise fatorial tem
como objetivo principal descrever a variabilidade original do vetor aleatório X, em termos
de um número menor m de variáveis aleatórias, chamadas fatores comuns e que estão
relacionadas com o vetor original X através de um modelo linear. Neste modelo, parte da
variabilidade de X é atribuída aos fatores comuns, sendo o restante da variabilidade X
atribuído as variáveis que não foram incluídas no modelo, ou seja, ao erro aleatório.
A origem da Análise Fatorial (AF) data do início do século 20, quando Spearman
(1904) desenvolveu um método para a criação de um índice geral de inteligência (fator
"g") com base nos resultados de vários testes (escalas), que supostamente refletiriam
essa aptidão. Tratava-se de um primeiro método de AF, adequado para a estimação de
um único fator.
O desenvolvimento inicial de métodos de AF esteve muito ligado ao problema da
avaliação de escalas cognitivas e foi responsabilidade de uma série de pesquisadores da
área de psicologia (Spearman, 1904; Thurstone, 1935, 1947 e Burt, 1941, por exemplo).
No início, os métodos apresentavam uma característica mais empírica do que formal. Em
1940, com Lawley, surge um primeiro trabalho com maior rigor matemático (em termos
de inferência estatística), o que fez com que se aumentasse a aceitação dessas técnicas,
nesse meio.
Uma situação comum em várias áreas do conhecimento e, em particular,
na psiquiatria, é aquela na qual, para cada elemento de uma amostra, observa-
se um grande número de variáveis. Essas variáveis podem ser, por exemplo, um
conjunto de itens de uma escala ou os escores obtidos por um indivíduo em
diferentes escalas de avaliação. Diante de um quadro como esse, o pesquisador
enfrenta dois problemas, que podem ser resolvidos através da análise fatorial:
a) a caracterização dos avaliados, levando-se em conta um conjunto eventualmente
grande de variáveis, e
b) a descrição da inter-relação dessas variáveis, eventualmente explicitando uma
estrutura de interdependência subjacente aos dados.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 1


Capítulo 2 – Análise Fatorial

Reis (1997) define a AF como "um conjunto de técnicas estatísticas cujo objetivo é
representar ou descrever um número de variáveis iniciais a partir de um menor número de
variáveis hipotéticas". Trata-se de uma técnica estatística multivariada que, a partir da
estrutura de dependência existente entre as variáveis de interesse (em geral representada
pelas correlações ou covariâncias entre essas variáveis), permite a criação de um conjunto
menor de variáveis (variáveis latentes, ou fatores) obtidas como função das variáveis
originais.
Além disso, é possível saber o quanto cada fator está associado a cada variável e o
quanto o conjunto de fatores explica da variabilidade geral dos dados originais. Note que
isso vem de encontro à resolução do problema (a), haja vista que, quando a análise
fatorial é bem sucedida, o pesquisador pode trabalhar com um número reduzido de
variáveis sem uma perda muito grande de informações. O problema (b) também é
solucionado, já que cada um desses fatores pode representar uma característica
subjacente aos dados. Tome por exemplo Spearman (1904), que interpretou o fator "g"
como uma medida de inteligência que estaria implicitamente ligada ao desempenho de um
conjunto de testes.

1 0.83 0.78

R=  1 0.67
 1 
X1 notas em clássico
X2 notas em Francês
X3 notas em Inglês
r (R) = 3, p=3 em p=1
X 1 = λ11 f 1 + µ1 + ε 1

X 2 = λ21 f1 + µ 2 + ε 2
X 3 = λ31 f1 + µ3 + ε 3

f1 fator comum a X1 X2 X3 (habilidade comum dos alunos)


λ11 λ21 λ31 ponderação dos fatores
ε11 ε21 ε31 distúrbios aleatórios (habilidade específica dos alunos)

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 2


Capítulo 2 – Análise Fatorial

JOHNSON & WICHERN (1999) afirmam que o propósito essencial da análise fatorial
é descrever, se possível, as (inter-relações) relações de covariâncias entre diversas
variáveis em termos de algumas quantidades aleatórias, não observáveis, chamadas
fatores. Basicamente, o modelo fatorial é motivado pelo seguinte argumento:
• Suponhamos que as variáveis podem ser agrupadas por suas correlações, isto é,
suponhamos que todas as variáveis dentro de um particular grupo sejam altamente
correlacionadas entre si, mas tenham correlações relativamente pequenas com
variáveis em grupos diferentes.
• Então, é admissível que cada grupo de variáveis represente um único fator, que é
responsável pelas correlações observadas. Por exemplo (Spearman): os escores em
francês, inglês, matemática e música sugeriram a definição de um fator associado à
"inteligência". Um segundo grupo de variáveis, representando os escores de aptidão
física, se disponível, pode corresponder a um outro fator. É este tipo de estrutura que a
análise fatorial pretende confirmar.
Afirmaram ainda que a análise fatorial pode ser entendida como uma
extensão da análise de com ponentes principais. Ambas podem ser vistas como
tentativas de aproximar a matriz de covariâncias Σ , mas a aproximação
baseada no m odelo de análise fatorial é mais elaborada. Uma questão primária
na análise fatorial é se os dados são consistentes com uma estrutura prescrita.

2.2. O MODELO FATORIAL ORTOGONAL:

O vetor observável de variáveis aleatórias Y, com p componentes, tem média µ e


matriz de covariâncias Σ . O modelo fatorial postula que Y é linearmente dependente de
algumas variáveis aleatórias não observáveis F1 , F2 , ..., Fm chamadas fatores comuns e

p adicionais fontes de variação ε1 , ε 2 , ..., ε p , chamados de erros ou, algumas vezes,

fatores específicos. Em particular, o modelo de análise fatorial é:


Y1 − µ1 = l11 F1 + l12 F2 + ... + l1m Fm + ε1
Y2 − µ 2 = l 21 F1 + l 22 F2 + ... + l 2 m Fm + ε 2
….............................................................. (2.1)
Yp − µ p = l p1 F1 + l p 2 F2 + ... + l pm Fm + ε p

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 3


Capítulo 2 – Análise Fatorial

Uma interpretação possível para os componentes desse modelo é que se pretende


explicar o padrão de respostas de uma unidade de observação através do valor que ela
tem nos constructos (ou variáveis latentes) que atuam nos dados (fatores comuns), as
cargas fatoriais indicam a importância que cada constructo tem na determinação do valor
de cada variável e os fatores específicos dão conta da relação de cada variável que não é
explicada pelos fatores comuns.
As relações deste modelo são usualmente representadas pela seguinte figura:

Figura 2.1 – Diagrama de Caminhos de um modelo de análise fatorial ortogonal

Nesta figura, as variáveis são representadas por retângulos; as variáveis latentes


por círculos; os erros não têm uma representação gráfica e as setas partem de uma
variável independente e atingem uma variável dependente.
ou, na notação matricial, como
Y−µ = L F + ε (2.2)
(px 1) (pxm) (mx1) (px 1)

O coeficiente lij é chamado de carga (loading) da i-ésima variável no j-ésimo fator, de

modo que a matriz L é a matriz de cargas fatoriais. Note que o i-ésimo fator específico ε i

está associado somente com a i-ésima resposta Yi .

Os p desvios Yi − µ i , i = 1, 2, ..., p, são expressos em termos de m + p variáveis

aleatórias F1 , F2 , ..., Fm e ε1 , ε 2 , ..., ε p , que não são observáveis . Para uma

verificação direta do modelo para as observações de Y1 , Y2 , ..., Yp , precisamos fazer

algumas suposições adicionais sobre os vetores F e ε :

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 4


Capítulo 2 – Análise Fatorial

• E(F) = 0 e cov(F) = E(FF') = I (variâncias unitárias e não


correlacionadas)
• E( ε ) = 0 e cov( ε ) = E( ε ε ') = Ψ = diag( ψ1 , ψ 2 , ..., ψ p ) (2.3)

• F e ε são independentes, de modo que cov( ε , F) = E( ε F') = 0


Essas suposições e a relação em (4-2) constituem o modelo fatorial ortogonal.

MODELO FATORIAL ORTOGONAL COM m FATORES COMUNS


Y = µ + L F + ε
(px 1) (px 1) (pxm) (mx1) (px 1)

µ i = média da variável i
ε i = i-ésimo fator específico
Fj = j-ésimo fator comum

lij = fator de carga (carga fatorial) da i-ésima variável no j-ésimo


fator (4-4)
Os vetores de variáveis aleatórias não observáveis F e ε satisfazem as seguintes
condições:
• E(F) = 0, cov(F) = E(FF') = I
• E( ε ) = 0, cov( ε ) = E( ε ε ') = Ψ = diag( ψ1 , ψ 2 , ..., ψ p )

• F e ε são independentes, de modo que cov( ε , F) = E( ε F') = 0

Este modelo fatorial ortogonal implica uma estrutura de covariâncias para Y. Do modelo
(4-4), temos
(Y − µ)(Y − µ)' = (LF + ε )(LF + ε )' = (LF + ε )((LF)' + ε ')
= LFF'L' + ε F'L' + LF ε ' + ε ε '
de modo que
Σ = cov(Y) = E(Y − µ)(Y − µ)'
= LE(FF')L' + E( ε F')L' + LE(F ε ') + E( ε ε ') = LL' + Ψ
De (4-4) temos ainda que:
(Y − µ)F' = (LF + ε )F' = LFF' + ε F'
⇒ cov(Y, F) = E(Y − µ)F' = E(LFF' + ε F') = LE(FF') + E( ε F') = L

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 5


Capítulo 2 – Análise Fatorial

ESTRUTURA DE COVARIÂNCIAS PARA O


MODELO FATORIAL ORTOGONAL

1. Cov(Y) = Σ = LL' + Ψ ou então

Var( Yi ) = li1 + li 2 + ... + lim + ψ i


2 2 2

cov( Yi , Yk ) = li1 l k 1 + ... + lim l km (4-5)

2. Cov(Y, F) = L (não necessariamente quadrada ou


cov( Yi , Fj ) = lij , i = 1, 2, ..., p e j = 1, 2, ..., m.

Observe que o modelo Y − µ = LF + ε é linear nos fatores comuns e essa


suposição é muito importante e inerente à formulação do modelo fatorial tradicional.

Na expressão Var( Yi ) = σ ii , a porção ( li1 + li 2 + ... + lim ) explicada pelos m


2 2 2

fatores comuns é chamada de i-ésima comunalidade e a porção ψ i é muitas vezes

chamada de variância específica. Denotando a i-ésima comunalidade por hi , temos que


2

σ ii =
2 2
( li1 + li 2 + ... + lim )
2
+ ψi

Var( Yi ) = Comunalidade + variância específica


ou

hi2 = ( li21 + li22 + ... + lim


2
) (4-6)

σ ii = hi2 + ψ i , i = 1, 2, ..., p
A i-ésima comunalidade é a soma de quadrados das cargas fatoriais da i-ésima variável
nos m fatores comuns.
Exemplo 2.1. (pág.480 ed5 J & W ). Verificar a igualdade Σ = LL' + Ψ , em que:

19 30 2 12  l11 l12   4 1


30 57 5 23 l   7 2
  21 l 22   e Ψ = diag(2, 4, 1, 3)
Σ = , L =  = 
 2 5 38 47 l31 l32  − 1 6
     
12 23 47 68 l 41 l 42   1 8
Ou seja,

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 6


Capítulo 2 – Análise Fatorial

19 30 2 12  4 1 2 0 0 0
30 57 5 23  7 
2 4 7 − 1 1 0 4 0 0
Σ= = +
 2 5 38 47  − 1 6 1 2 6 8 0 0 1 0
     
12 23 47 68  1 8 0 0 0 3

OBS: p = 4 variáveis, m = 2 fatores


2 2 2 2 2
A comunalidade de Y1 é h1 = l11 + l12 = 4 +1 = 17, ou seja, 17/19 = 89,5%

da variância de Y1 é explicada pelos dois fatores. No quadro seguinte, apresentamos os

valores das variâncias, comunalidades, variâncias específicas e a porcentagem da


variância total que é explicada pelos fatores comuns para cada uma das variáveis:

I σ ii hi2 ψi hi2 / σ ii
1 19 17 2 89,5%
2 57 53 4 93,0%
3 38 37 1 97,4%
4 68 65 3 95,6%

Como Cov(Y, F) = L, podemos comentar que:


• o primeiro fator ( F1 ) está forte e positivamente associado com as variáveis Y1 e Y2 ;

fraca e positivamente associado com a variável Y4 e fraca e negativamente associado

com Y3 .

• o segundo fator ( F2 ) está forte e positivamente associado com as variáveis Y3 e Y4

e fraca e positivamente associado com as variáveis Y1 e Y2 .

• as variáveis Y3 e Y4 têm suas variâncias explicadas, em maior proporção, pelos dois

fatores (97,4% e 95,6%, respectivamente).

IMPORTANTE:
• O modelo fatorial assume que p + p(p−1)/2 = p(p+1)/2 parâmetros de variâncias e de

covariâncias podem ser reproduzidos por pm fatores de carga (ou cargas fatoriais) lij

e p variâncias específicas ψ i . (primeira coluna de L)

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 7


Capítulo 2 – Análise Fatorial

• Quando m = p qualquer matriz de covariâncias Σ pode ser reproduzida


exatam ente como LL', com Ψ = 0. A vantagem da aplicação da técnica
ocorre se m < p .
• Infelizmente, (ao contrário dos componentes principais) nem todas matrizes de
covariâncias Σ podem ser fatoradas como LL' + Ψ , em que m é bem menor que p
(ver Exemplo 2.2)
• Quando m ≥ 1, pode ocorrer ambigüidade associada ao modelo fatorial (4-2). Seja T (m
x m ) uma matriz ortogonal (TT' = T'T = I). Então podemos escrever
∗ ∗ ∗ ∗
Y − µ = LF + ε = LTT'F + ε = L F + ε , onde L = LT e F = T'F.
∗ ∗
Como E( F ) = T'E(F) = 0 e Cov( F ) = T' Cov(F) T = T'T = I (m x m), é possível,

com base nas observações em Y, distinguir as cargas L das cargas L . Isto é, os

fatores F e F = T'F têm as mesmas propriedades estatísticas, e mesmo que as

cargas L sejam, em geral, diferentes das cargas L, ambas geram a mesma matriz de
covariâncias Σ . Esta ambigüidade proporciona uma razão para a rotação de fatores,
desde que as matrizes de rotação sejam ortogonais às coordenadas do sistema de Y.

 1 0.9 0.7

Exemplo 2.2. (p = 3 e m = 1) e matriz de covariâncias Σ = 0.9 1 0.4
 
0.7 0.4 1 
Usando o modelo (4-4), obtemos
Y1 − µ1 = l11 F1 + ε1
Y2 − µ 2 = l 21 F1 + ε 2
Y3 − µ 3 = l31 F1 + ε 3
A estrutura de covariâncias Σ = LL' + Ψ implica que

1 = l11 + ψ1
2
0.90 = l11 l 21 0.70 = l11 l31

1 = l 21 + ψ 2
2
0.40 = l 21 l31

1 = l31 + ψ 3
2

 0.40 
• O par de equações 0.70 = l11 l31 e 0.40 = l 21 l31 implica que l 21 =   l11 , que
 0.70 
2
substituída em 0.90 = l11 l 21 , tem-se l11 = 1.575 ou l11 = ±1.255.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 8


Capítulo 2 – Análise Fatorial

• Desde que Var( F1 ) = 1 e Var( Y1 ) = 1 ⇒ l11 = cov( Y1 , F1 ) = corr( Y1 , F1 ).

• Agora , o coeficiente de correlação não pode ser superior a um (em valor


absoluto) e | l11 | = 1.255...

• A equação 1 = l11 + ψ1 implica em ψ1 = 1 − l11 = 1 − 1.575 = −0.575, o que não é


2 2

satisfatório, já que ψ1 = Var( ε1 ) (mas ela deveria ser zero)

IMPORTANTE (continuação)
As cargas fatoriais

L∗ = LT e L (4-9)
proporcionam a mesma representação. As comunalidades fornecidas pelos elementos
∗ ∗
da diagonal de LL' = ( L )( L )' não são afetadas pela escolha da matriz ortogonal
T.

2.3. MÉTODOS DE ESTIMAÇÃO:


Nas situações reais, os parâmetros do modelo de fatores São desconhecidos e
devem ser estimados a partir das observações amostrais. A análise fatorial, como vimos é
justificável quando Σ difere de uma matriz diagonal, ou quando a matriz de correlações
difere da identidade.
QUESTÃO: Dadas as observações y 1 , y 2 , ..., y n feitas em p variáveis (geralmente)

correlacionadas, o modelo de fatores (ou fatorial), com um pequeno número de


fatores, representa adequadamente os dados? Em essência, este problema
estatístico consiste em tentar verificar a relação de covariâncias Σ = LL' + Ψ .

OBSERVAÇÕES:
• A matriz S estima Σ e se as covariâncias em S (ou as correlações em R ) forem
pequenas (próximas a zero) o modelo de análise fatorial não será conveniente.
• Se Σ não é uma matriz diagonal então o objetivo da análise consiste em estimar as
cargas fatoriais lij e as variâncias específicas ψ i .

• Consideraremos os dois mais populares métodos de estimação de parâmetros: o


método dos componentes principais (ou método dos fatores principais) e o método da

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 9


Capítulo 2 – Análise Fatorial

máxima verossimilhança. É prudente tentar mais de um método de solução, já que se o


modelo fatorial é apropriado para o problema, as soluções serão consistentes.
• As soluções poderão ser rotacionadas (ver a Seção 2.4.) com o intuito de facilitar a
interpretação dos fatores.
• Obtidas as cargas fatoriais e as variâncias específicas, os fatores comuns são
identificados e são estimados os valores para os fatores, chamados escores fatoriais.

2.3.1. MÉTODO DOS COMPONENTES PRINCIPAIS:


Seja a matriz de covariâncias Σ (p x p) com pares autovalor-autovetor ( λ i , e i ) e

λ1 ≥ λ 2 ≥ ... ≥ λ p ≥ 0. Então, pela decomposição espectral, temos:

Σ = λ1 e1 e1t + λ 2 e 2 e 2t + ... + λ p e p e pt

 λ1 e t 1 
 
 λ2 e t 2 
= [ λ1 e1 , λ 2 e 2 , ..., λp ep ]  (4-10)
 
 
 λ p e p 
t

que ajusta a matriz de covariâncias pelo modelo de análise fatorial tendo tantos fatores
quanto variáveis (m = p) e variâncias específicas ψ i = 0, para todo i. A matriz de cargas

fatoriais tem a j-ésima coluna dada por λ j e j e podemos escrever

Σ = L Lt + 0 = LL' (4-11)
(pxp) (pxp) (pxp) (pxp) (pxp)

A menos das constantes λ j , as cargas fatoriais lij correspondem aos coeficientes do j-

ésimo componente principal.


Embora a representação da análise fatorial de Σ em (9-11) seja exata, ela não é
particularmente útil, já que emprega 'tantos fatores comuns quanto o número de variáveis

e não permite qualquer variação nos fatores específicos ε em (4-4). Preferimos modelos

que expliquem a estrutura de covariâncias em termos de um número pequeno de fatores


comuns.
Uma abordagem é baseada na seguinte idéia: quando os últimos p − m autovalores
são pequenos, consideramos os m primeiros componentes e escrevemos

Σ ≅ λ1 e1 e1t + λ 2 e 2 e 2t + ... + λ m e m e mt
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 10
Capítulo 2 – Análise Fatorial

 λ1 e t 1 
 
 λ2 e t 2 
≅ [ λ1 e1 , λ 2 e 2 , ..., λm em ]  ≅ L Lt (4-12)
  (px m ) ( m xp)
 
 λ m e m 
t

Essa representação aproximada assume que os fatores específicos ε em (4-4) são de


menor importância e podem ser ignorados na fatoração da matriz Σ . Se os fatores
específicos são incluídos no modelo, suas variâncias podem ser tomadas como os
elementos da diagonal de Σ − L L', onde L L' foi definido em (9-12). Assim
Σ ≅ LL' + Ψ
 λ1 e t 1 
 
 λ2 e 2 
≅ [ λ1 e1 , λ 2 e 2 , ..., λm em ]  + diag( ψ1 , ..., ψ p ) (4-13)
 
 
 λ m e m 
t

m
onde ψ i = σ ii − ∑ lij2 , para i = 1, 2, ..., p.
j =1

Para aplicar essa abordagem a um conjunto de dados y 1 , y 2 , ..., y n , é usual

centrar as observações, subtraindo a média amostral y . Daí as observações centradas


ficam:

 y j1 − y1 
y − y 
2
yj −y = 
j2
, j = 1, 2, ..., n (9-14)
  
 
y j p − y p 
Nos casos em que as unidades das variáveis não são
com ensuráveis , é usualmente desejável trabalhar com variáveis
padronizadas

 y j1 − y1 
 
 s 11 
 y j2 − y 2 
z j =  s 22  , j = 1, 2, ..., n
 
  
 jp
y − y p
 
 s pp 
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 11
Capítulo 2 – Análise Fatorial

cuja matriz de covariâncias amostrais é igual a matriz de correlações amostrais R das


observações y 1 , y 2 , ..., y n . A padronização evita os problemas de termos uma

variável com variância muito grande influenciando indevidamente a


determinação das cargas fatoriais.
A representação em (4-13), quando aplicada à matriz de covariâncias amostrais S
ou à matriz de correlações amostrais R, é conhecida como solução de componentes
principais.
SOLUÇÃO DO MODELO FATORIAL POR COMPONENTES PRINCIPAIS
A análise fatorial por componentes principais da matriz de covariâncias amostrais S

é especificada em termos dos pares de autovalor-autovetor ( λ̂ i , ê i ), onde λ̂1 ≥ λ̂ 2

≥ ... ≥ λ̂ p ≥ 0. Seja m < p o número de fatores comuns. Então a matriz de cargas

fatoriais é dada por


~
L = [ λ̂1 ê1 , λ̂ 2 ê 2 , ..., λ̂ m ê m ]
As estimativas das variâncias específicas correspondem aos elementos da diagonal
~ ~t
da matriz S − L L tal que
m
~ ~ ,ψ
Ψ = diag( ψ ~ , ..., ψ ~ = s − ∑~
~ ) com ψ lij2
1 2 p i ii
j =1

As comunalidades são estimadas como


~ ~ ~ ~
hi 2 = li12 + li 22 + ... + li m2
A análise fatorial por componentes principais da matriz de correlações amostrais é
obtida iniciando o processo com R no lugar de S.
Para essa solução por componentes principais, as cargas fatoriais estimadas para
um certo fator não se alteram quando o número de fatores aumenta.
~ ~
Por exemplo, se m = 1, L = [ λ̂1 ê1 ] e se m = 2, L = [ λ̂1 ê1 , λ̂ 2 ê 2 ], em que

( λ̂ i , ê i ) , i = 1, 2 são os dois primeiros pares de autovalor-autovetor de S (ou de R).


~
Pela definição de Ψ , os elementos da diagonal de S são iguais aos elementos da
~ ~t ~
diagonal de L L + Ψ e os elementos fora da diagonal de S não são usualmente
~ ~t ~
reproduzidos por L L + Ψ .
QUESTÃO:

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 12


Capítulo 2 – Análise Fatorial

Como selecionar o número de fatores m (como truncar)?


• Por considerações feitas a priori (teoria envolvida, trabalhos de outros pesquisadores
etc.)
~ ~t ~
• Considerar a matriz de resíduos S − ( L L + Ψ ) resultante da aproximação de S pela
solução por componentes principais. Se os elementos fora da diagonal forem pequenos,
o valor de m é apropriado. Analiticamente temos
~ ~t ~
SQ dos valores de S − ( L L + Ψ ) ≤ λ m+1 + ... + λ p
2 2
(9-19)

e um valor pequeno para a SQ dos autovalores desprezados implica um valor pequeno


para a SQ dos erros de aproximação.
• Idealmente, a contribuição dos primeiros (poucos) fatores comuns para a variância
amostral das variáveis deve ser grande. A contribuição para a variância amostral s ii do
~2
primeiro fator comum é li1 . A contribuição do primeiro fator comum para o total das

variâncias amostrais tr(S) = s11 + ... + s pp , é então

m ~
∑ lij2 = ( λ̂1 ê1 )'( λ̂1 ê1 ) = λ̂1
j =1

desde que o autovetor ê1 tem comprimento unitário. Em geral, temos que a proporção

do total das variâncias amostrais devida ao j-ésimo fator comum é

λˆ j
para a análise fatorial baseada em S
s11 + s 22 + ... + s pp

λˆ j
, para a análise fatorial baseada em R
p
⇒ o número de fatores comuns retidos no modelo é aumentado até que uma
proporção "conveniente" do total das variâncias amostrais tenha sido explicada.
• Outra convenção (adotada em pacotes estatísticos) consiste em tomar os m autovalores
de R maiores que a unidade, se a matriz de correlações é fatorada, ou igual ao número
de autovalores positivos de S se a matriz de covariâncias é fatorada.
• O ideal é reter poucos fatores no modelo, assumindo que eles dão uma "satisfatória"
interpretação dos dados e produzem um ajuste "satisfatório" de S e R.

Exemplo 2.3 (pág 487 ed5 J & W)


Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 13
Capítulo 2 – Análise Fatorial

1 .02 .96 .42 .01


 1 .13 .71 .85

R= 1 .5 .11
 
 1 .79
 1 

Observações iniciais:

• Maiores correlações entre variáveis 1 e 3, 2 e 5. Pode-se também destacar a


correlação entre 4 e 5 , 4 e 3 indicando daí que a variável 4 pode estar também
próximos dos “grupos” (1,3) e (2,5).

• Essa estrutura nos indica que as estrutura das variáveis poderá ser explicada por
um conjunto de até três fatores comuns.
Usando SAS IML;
proc iml;
R={1 .02 .96 .42 .01,
.02 1 .13 .71 .85,
.96 .13 1 .5 .11,
.42 .71 .5 1 .79,
.01 .85 .11 .79 1};
Av=eigval(R);
AT=eigvec(R);
print R;
print Av;
print At;
l={ 0 0, 0 0, 0 0, 0 0, 0 0};
do i=1 to 5;
do j=1 to 2;
l[i,j]=sqrt(av[j])*at[i,j];
end;
end;
print l;
quit;

MATRIZ DE CORRELAÇÃO

1 0.02 0.96 0.42 0.01

0.02 1 0.13 0.71 0.85

0.96 0.13 1 0.5 0.11

0.42 0.71 0.5 1 0.79

0.01 0.85 0.11 0.79 1

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 14


Capítulo 2 – Análise Fatorial

AUTOVALORES

2.8530904

1.8063325

0.2044902

0.1024095

0.0336774

AUTOVALORES

0.3314539 0.6072164 0.0984852 0.1386643 0.701783

0.4601593 -0.390032 0.7425641 -0.282117 0.0716746

0.3820572 0.5565083 0.168409 0.1170037 -0.708717

0.5559769 -0.078065 -0.601582 -0.568236 0.0016564

0.4725608 -0.404188 -0.220537 0.751399 0.0090126

CARGAS FATORIAIS

0.5598618 0.8160981

0.7772594 -0.524202

0.6453364 0.7479464

0.9391057 -0.104919

0.7982069 -0.543228

Temos então que:

λˆ1 + λˆ2 2.85 + 1.81


λ1 = 2.85 e λ2 = 1.81 ⇒
ˆ ˆ = = .93
p 5
ou seja 93% da variabilidade é “explicada”pelos dois primeiros fatores comuns.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 15


Capítulo 2 – Análise Fatorial

Cargas Fatoriais Variância


~ Comunalidades
Variáveis ij = λˆi êij ~ Especifica
hi 2 ~ ~
Ψi = 1 − hi 2
F1 F2
Y1 .56 .82 .98 .02
Y2 .78 -.53 .88 .12
Y3 .65 .75 .98 .02
Y4 .94 -.10 .89 .11
Y5 .80 -.54 .93 .07
Autovalores 2.85 1.81
Proporção .571 .932
Acumulada

~~ ~
Observação: L L '+ Ψ = R

Veja:
1) Exemplo 9.4, pagina 489 5a ed. J & W
2) Abordagem Modificada – Solução Fator Principal (J & W 5ª ed, paginas 490-491);

2.3.2. MÉTODO DA MÁXIMA VEROSSIMILHANÇA:


Se for possível assumir que os fatores comuns F e os erros específicos ε são
normalmente distribuídos, então os estimadores de máxima verossimilhança (MV) das
cargas fatoriais L e das variâncias específicas Ψ podem ser obtidos. Quando F j e ε j são

conjuntamente normais, as observações Y j − µ = L F j + ε j também são normais e de (4-

16), a verossimilhança fica


( n −1)
( n−1) p
  1    
( )( )
− − n
−1
L(µ, Σ ) = (2π ) 2 Σ 2 exp −   tr Σ  ∑ y j − y y j − y ' 
  2    
 j =1 
p 1
 n
( ) (y j − µ )
− −
−1
× (2π ) 2 Σ 2 exp −   y j − µ ' Σ (4-25)
 2 
que depende de L e de Ψ através de Σ = LL' + Ψ . Este modelo não é bem definido,
por causa da multiplicidade de escolhas possíveis para L, com base em transformações
ortogonais. Para que L esteja bem definida e garanta a unicidade, devemos impor a
condição que

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 16


Capítulo 2 – Análise Fatorial

−1
L' Ψ L = ∆ seja uma matriz diagonal (4-26)

Estimativas de máxima verossimilhança L̂ e Ψ̂ podem ser obtidas por maximização


numérica de (4-25), envolvendo processos iterativos.

Resultado 2.1. Seja Y1 , ..., Yn uma amostra aleatória de uma N p (µ, Σ ) , em que

Σ = LL' + Ψ é a matriz de covariâncias para o modelo (9-4) com m fatores comuns.


Os estimadores de máxima verossimilhança L̂ , Ψ̂ e µ̂ = y maximizam (4-25) sujeito

à restrição que L̂ ' Ψ


ˆ −1 L̂ seja uma matriz diagonal.

As estimativas de MV das comunalidades são iguais a

ĥi2 = lˆi21 + lˆi22 + ... + lˆi2m para i = 1, 2, ..., p (4-27)

e a proporção do total das variâncias amostrais devida ao j-ésimo fator é igual a

lˆ12j + lˆ22j +  + lˆpj2


(4-28)
s11 + s 22 +  + s pp

(os resultados são análogos se usarmos variáveis padronizadas Z1 , ..., Z n )

OBSERVAÇÕES:
• As estimativas de máxima verossimilhança para L e Ψ são obtidas por maximização
numérica (processo iterativo)

• Estimativas de MV de funções de L e de Ψ são obtidas através das funções de L̂ e de

Ψ̂ , em decorrência da propriedade de invariância dos EMV.


• Ordinariamente, as observações são padronizadas e a análise fatorial é baseada na
matriz de correlações amostrais R. Através da verossimilhança (4-25), são obtidas as

EMV's L̂ z e Ψ̂z são obtidas utilizando um computador. Embora essa verossimilhança

seja apropriada para S e não para R, esta prática é equivalente a obter as EMV's L̂ e

Ψ̂ , baseadas na matriz de covariâncias amostrais S.


Essa equivalência entre a fatoração de S e de R tem causado confusões me diversas
discussões publicadas em análise fatorial
Exemplo 2.5. (Pagina 493 J & W, 5ª ed)

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 17


Capítulo 2 – Análise Fatorial

Máxima Verossimilhança Componentes Principais


Cargas Fatoriais Variância Cargas Fatoriais Variância
Variáveis
Especifica Especifica
F1 F2 ~ F1 F2 ~ ~
Ψi = 1 − hˆi2 Ψi = 1 − hi 2
Y1 .684 .189 .50 .783 -.217 .34
Y2 .694 .517 .25 .773 -.458 .19
Y3 .681 .248 .47 .794 -.234 .31
Y4 .621 -.073 .61 .713 .412 .27
Y5 .792 -.442 .18 .712 .524 .22
Proporção
.485 .598 .571 .733
Acumulada

Considerando m = 2, temos:
Para máxima verossimilhança:
0 .005 − .004 − .024 − .004
 0 − .003 − .004 .000 

ˆ =
R1 − Lˆ Lˆ '−Ψ 0 .031 − .004
 
 0 .000 
 0 

Para componentes principais:


0 . − .127 − .164 − .069 .017 
 0 − .122 .055 .012 
~~ ~ 
R2 − L L '−Ψ =  0 − .019 0.017 
 
 0 − .232
 0 

No SAS – Proc Factor


proc factor method=prin nfact=2;
var y1-y5;
run;

Eigenvalues of the Correlation Matrix: Total


= 5 Average = 1

Eigenvalue Difference Proportion Cumulative

1 2.85648688 2.04736839 0.5713 0.5713

2 0.80911850 0.26907452 0.1618 0.7331

3 0.54004398 0.08869715 0.1080 0.8411

4 0.45134682 0.10834301 0.0903 0.9314

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 18


Capítulo 2 – Análise Fatorial

Eigenvalues of the Correlation Matrix: Total


= 5 Average = 1

Eigenvalue Difference Proportion Cumulative

5 0.34300382 0.0686 1.0000

Factor Pattern

Factor1 Factor2

Y1 Y1 0.78344 -0.21665

Y2 Y2 0.77251 -0.45794

Y3 Y3 0.79432 -0.23439

Y4 Y4 0.71268 0.47248

Y5 Y5 0.71209 0.52373

Variance Explained by Each


Factor

Factor1 Factor2

2.8564869 0.8091185

Final Communality Estimates: Total = 3.665605

Y1 Y2 Y3 Y4 Y5

0.66070874 0.80648316 0.68588504 0.73115450 0.78137395

Factor Pattern

Factor1 Factor2

Y1 Y1 0.68323 -0.19151

Y2 Y2 0.69240 -0.51867

Y3 Y3 0.68027 -0.25058

Y4 Y4 0.62085 0.07033

Y5 Y5 0.79388 0.43971

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 19


Capítulo 2 – Análise Fatorial

Variance Explained by Each Factor

Factor Weighted Unweighted

Factor1 8.02641151 2.42471244

Factor2 2.37973390 0.56677229

Final Communality Estimates


and Variable Weights

Total Communality: Weighted


= 10.406145 Unweighted =
2.991485

Variable Communality Weight

Y1 0.50348430 2.01404172

Y2 0.74844143 3.97523005

Y3 0.52555956 2.10773953

Y4 0.39040646 1.64043382

Y5 0.82359299 5.66869997

2.4. CRITÉRIOS PARA DETERMINAÇÃO DO NÚMERO DE FATORES


Como decidimos o numero de fatores a serem extraídos? Para decidir quando parar
de obter fatores (ou seja, quantos fatores a serem extraídos), o pesquisador geralmente
começa com algum critério predeterminado, como o percentual de variância ou o critério
da raiz latente para chegar a um número especifico de fatores a extrair (essas duas
técnicas são discutidas em maiores detalhes posteriormente). Após a determinação da
solução inicial, o pesquisador computa diversas soluções alternativas adicionais -
geralmente um fator a menos que o numero inicial e dois ou três fatores a mais do que
inicialmente determinado. Então, com base na informação obtida das analises de
alternativas, as matrizes fatoriais são examinadas e a melhor representação dos dados e
usada para ajudar na determinação do número de fatores a extrair.
Por analogia, escolher o número de fatores a serem interpretados é como focalizar
um microscópio. Um ajuste muito alto ou muito baixo ira obscurecer uma estrutura que é
óbvia quando o ajuste está correto. Logo, pelo exame de algumas estruturas fatoriais

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 20


Capítulo 2 – Análise Fatorial

diferentes determinadas a partir de varias soluções alternativas, o pesquisador pode


comparar e contrastar, com o propósito de chegar na melhor representação dos dados.
Uma base quantitativa exata para decidir o numero de fatores a extrair ainda não foi
desenvolvida.

2.4.1. CRITÉRIO DA RAIZ LATENTE:


A técnica mais comumente usada é o critério da raiz latente. Esta técnica é simples
de aplicar na analise de componentes, bem como na análise de fatores comuns. o
raciocínio para o critério da raiz latente e que qualquer fator individual deve explicar a
variância de pelo menos uma variável se o mesmo há de ser mantido para interpretação.
Cada variável contribui com um valor 1 do autovalor total. Logo, apenas os fatores que
tem raízes latentes ou autovalores maiores que 1 são considerados significantes; todos os
fatores com raízes latentes menores que 1 são considerados insignificantes e descartados.
Usar o autovalor para estabelecer um corte é mais confiável quando o número de
variáveis está entre 20 e 50. Se o numero de variáveis é menor que 20, há uma tendência
para que esse método extraia um numero conservador (muito pouco) de fatores, ao passo
que, quando mais de 50 variáveis estão envolvidas, não é raro que muitos fatores sejam
extraídos.

2.4.2. CRITÉRIO A PRIORI:


O critério a priori e um critério simples, ainda que razoável sob certas
circunstancias. Quando aplicado, o pesquisador já sabe quantos fatores extrair antes de
empreender a analise fatorial. o pesquisador simplesmente instrui o computador a parar a
analise quando o numero desejado de fatores foi extraído. Este tratamento é útil quando
se testa uma teoria ou hipótese sobre o número de fatores a serem extraídos. Também se
justifica como tentativa de repetir o trabalho de outro pesquisador e extrair o mesmo
numero de fatores anteriormente encontrado.

2.4.3. CRITÉRIO DA PERCENTAGEM DA VARIÂNCIA:


O critério de percentagem de variância e uma abordagem baseada na conquista de
um percentual cumulativo especificado da variância total extraída por fatores sucessivos.
O objetivo é garantir significância prática para os fatores determinados, garantindo que
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 21
Capítulo 2 – Análise Fatorial

expliquem pelo menos um montante especificado de variância. Nenhuma base absoluta foi
adotada para todas as aplicações. No entanto, em ciências naturais, o procedimento de
obtenção de fatores não deveria ser parado ate os fatores extraídos explicarem pelo
menos 95% da variância ou até último fator explicar apenas uma pequena parcela
(menos que5%). Em contraste, em ciências socia is, na qual as informações geralmente
são menos precisas, não é raro considerar uma solução que explique 60% da variância
total (e em alguns casos até menos) como satisfatória. Uma variante deste critério envolve
a seleçao de fatores suficientes para atingir uma comunalidade pré-especificada para cada
variável. Se razões teóricas ou práticas requerem uma certa comunalidade para ca-
da variável, então a pesquisa incluirá tantos fatores quanto necessários para representar
adequadamente cada uma das variáveis originais. Isso difere de focalizar somente o
montante total de variância explicada, que negligência o grau de explicação para as
variáveis individuais.

2.4.4. CRITÉRIO DO TESTE SCREE:


O teste scree é usado para identificar o numero ótimo de fatores que podem ser
extraídos antes que a quantia de variância especifica comece a dominar a estrutura de
variância comum. O teste scree é determinado fazendo-se o gráfico das raízes latentes
(autovalores) em relação ao número de fatores em sua ordem de extração, e a forma da
curva resultante é usada para avaliar o ponto de corte. A Figura 2.1 exibe os primeiros 18
fatores extraídos em um estudo. Começando com o primeiro fator, os ângulos de
inclinação rapidamente decrescem no inicio e então lentamente se aproximam de uma
reta horizontal. o ponto no qual o gráfico começa a ficar horizontal e considerado
indicativo do numero máxima de fatores a serem extraídos. No presente caso, os
primeiros 10 fatores se qualificariam. Além de 10, uma grau de proporção de variância
especifica seria incluída; logo, esses fatores não seriam aceitáveis. Observe que, ao usar o
critério da raiz latente, apenas oito fatores teriam sido considerados. Entretanto, usar o
teste scree nos da dois fatores a mais. Como regra geral, o teste scree resulta em pelo
menos um e às vezes dois ou três fatores a mais a serem considerados para inclusão em
relação ao critério da raiz latente.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 22


Capítulo 2 – Análise Fatorial

Figura 2.2. Scree Plot

2.4.5. UM TESTE PARA O NÚMERO DE FATORES (GRANDES AMOSTRAS) :


A suposição de uma população normal leva diretamente a um teste de
adequabilidade do modelo. Suponha que um modelo com m fatores comuns seja válido.
Neste caso Σ = LL' + Ψ e testar a adequabilidade do modelo com m fatores comuns é
equivalente a testar

Ho: Σ = L Lt + Ψ (4-33)
(pxp) (px m) (mxp) (pxp)

versus H1: Σ é qualquer outra matriz positiva definida.


Quando Σ não tem qualquer forma especial, o máximo da função de
verossimilhança [ver resultado (4-11)] é proporcional a
− n 2 − np 2
S e (4-34)

Sob Ho, o máximo da função de verossimilhança [ver (4-25)] é proporcional

  1   −1  n 
ˆ  ∑ (y j − y )(y j − y ) ' 
−n 2
Σ
ˆ exp −   tr Σ

  2    j =1 

ˆL
= L ˆ'+ Ψ
ˆ −n 2  1
exp −   tr LL' + Ψ
 2
[(  
)−1 S n ] (4-35)

e usando o Resultados, (4-34) e (4-35), a estatística da razão de verossimilhanças para


testar Ho é

 verossimil hança maximizada sob H 0 


−2ln Λ = −2 ln  
 verossimilhança maximizada 

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 23


Capítulo 2 – Análise Fatorial

 −n 2
 Σ 
=−2 ln   ˆ −1S n ) − p]
+ n[tr( Σ (4-36)
 Sn 
 
com graus de liberdade
1 1
ν − νo = p ( p + 1) − [ p (m + 1) − m(m − 1) ]
2 2
1
= [( p − m) 2 − p − m] (4-37)
2
ˆ −1S n ) − p = 0 [ver Suplemento 9-A J & W] temos que Σ̂ = L
Como tr( Σ ˆLˆ ' + Ψ̂ é EMV

de Σ = LL' + Ψ . Daí, temos



 Σ 
−2ln Λ = n ln   (4-38)
 Sn 
 
Bartlett (1954) mostrou que a aproximação de quiquadrado para a distribuição de
−2ln Λ pode ser melhorada trocando n em (4-38) por (n − 1 − (2p + 4m + 5)/6). Daí,
rejeitamos Ho se

 Lˆ Lˆ '+ Ψ
ˆ 
(n −1 − (2p + 4m + 5)/6) ln
  > χ2 (4-39)
 Sn  [( p − m ) 2 − p − m ] / 2
 
desde que n e n − p sejam grandes.
Uma condição necessária para a aplicação do teste (4-39), já que o número de
graus de liberdade é um número positivo, consiste em verificar que
1
m< (2 p+ 1 − 8 p+ 1) (4-40)
2
Exemplo 2.6. (Continuação exemplo 2.5)
O objetivo desse exemplo é testar se o modelo com m = 2 fatores comuns é adequado,
ou seja, testar a hipótese Ho: Σ = LL' + Ψ , com m = 2 ao nível α = 5%.
A estatística do teste em (9-39) é baseado na razão de variâncias generalizadas

 Σ   Lˆ Lˆ '+ Ψ
ˆ 
 = 
 Sn   Sn 
   
que pode ser escrita como (ver demonstração na pág. 539):

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 24


Capítulo 2 – Análise Fatorial


 Σ   Lˆ z Lˆ z '+ Ψ
ˆz 
 =  (9-41)
 Sn   R 
   
Do Exemplo 9.5, temos que
1.000
0.572 1.000
0.513 0.602 1.000
0.411 0.393 0.405 1.000
  0.458
=  L̂ z L̂ z '+ Ψz
ˆ
 0.322 0.430 0.523 1.000 = 1.0065
 R  = 1.000
 
0.577 1.000
0.509 0.599 1.000
0.387 0.389 0.436 1.000
0.462 0.322 0.426 0.523 1.000

e usando o fator de correção de Bartlett, para n = 100, p = 5 e m e 2, temos a


estatística:

 (10 + 8 + 5 
100 − 1 − 6  ln (1.0065) = 0.62

1
e desde que [( p − m) 2 − p − m] = 1, o valor crítico χ12 (5%) = 3,84 não é excedido,
2
indicando que a hipótese Ho não deva ser rejeitada. Como P( χ1 > o.62) ≅ o.43, a
2

hipótese Ho não será rejeitada para qualquer nível de significância razoável.


2.5. ROTAÇÃO DE FATORES:
Uma ferramenta importante na interpretação de fatores é a rotação fatorial. O
termo rotação significa exatamente o que sugere. Especificamente, os eixos de referência
dos fatores são rotacionados em torno da origem até que alguma outra posição seja
alcançada. Como anteriormente apresentado, as soluções de fatores não-rotacionados
extraem fatores na ordem da sua importância. O primeiro fator tende a ser um fator geral
com quase toda a variável com carga significante, e explica a quantia maior de variância.
O segundo fator e os seguintes são então baseados na quantia residual de variância. Cada
fator explica porções sucessivamente menores de variância. 0 efeito final de rotacionar a
matriz fatorial é redistribuir a variância dos primeiros fatores para os últimos com o
objetivo de atingir um padrão fatorial mais simples e teoricamente mais significativo. O
caso mais simples de rotação é uma rotação ortogonal, na qual os eixos são mantidos a

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 25


Capítulo 2 – Análise Fatorial

90 graus. Também é possível rotacionar os eixos sem manter o ângulo de 90 graus entre
os eixos de referencia. Quando não há a restrição de ser ortogonal, o procedimento de
rotação se chama rotação obliqua. Rotações fatoriais ortogonais
e obliquas são demonstradas nas figuras 2.2. e 2.3., respectivamente.

Figura 2.3. Rotação Orotogonal

Figura 2.4. Rotação Oblíqua

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 26


Capítulo 2 – Análise Fatorial

2.5.1. UMA ILUSTRAÇÃO DE ROTAÇÃO FATORIAL :


A Figura 2.2., na qual cinco variáveis são retratadas em um diagrama fatorial
bidimensional, ilustra a rotação fatorial. O eixo vertical representa o fator II nao-
rotacionado e o horizontal corresponde ao fator I nao-rotacionado. Os eixos são rotulados
com 0 na origem e prolongados para +1.0 ou -1.0.Os números nos eixos representam as
cargas fatoriais. As cinco variáveis são rotuladas por V1 V2, V3, V4 e V5. A carga fatorial
para a variável 2 (V2) no fator II nao-rotacionado é determinada desenhando-se uma
linha tracejada horizontalmente a partir do ponto do dado ate o eixo vertical do fator II.
De modo similar, uma linha vertical é tracejada a partir da variável 2 até o eixo horizontal
do fator nao-rotacionado I para determinar a carga da variavel2 no fator I. Um
procedimento semelhante adotado para as outras variáveis determina as cargas fatoriais
para as soluções nao-rotacionadas e rotacionadas, como exibido na Tabela 2.1 para fins
de comparação. No primeiro fator nao-rotacionado, todas as variáveis tem carga alta. No
segundo, as variáveis 1 e 2 são muito altas na direção positiva. A variável 5 é
moderadamente alta na direção negativa e as variáveis 3 e 4 tem cargas
consideravelmente menores na direção negativa.
A partir da inspeção visual da Figura 2.2., é óbvio que ha dois agrupamentos de
variáveis. As variáveis 1 e 2 estão juntas, assim como as variáveis 3, 4 e 5. No entanto, tal
padrão de variáveis não é tão óbvio a partir das cargas fatoriais nao-rotacionadas.
Rotacionando os eixos originais no sentido horário, como indicado na Figura 2.2, obtemos
um padrão de cargas fatoriais completamente diferentes. Observe que, rotacionando os
fatores, os eixos são mantidos a 90 graus. Esse procedimento significa que os fatores são
matematicamente independentes e que a rotação foi ortogonal. Após rotacionar os eixos
fatoriais, as variáveis 3, 4 e5 tem cargas altas no fator I e as variáveis 1 e 2 tem cargas
elevadas no fator II. Logo, o agrupamento ou padrão dessas variáveis em dois grupos é
mais óbvio após a rotação, ainda que a posição relativa ou configuração das variáveis
permaneça constante.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 27


Capítulo 2 – Análise Fatorial

Tabela 2.1. Comparação entre cargas de fatores rotacionados e não rotacionados


Cargas Fatoriais Cargas Fatoriais
Variáveis Não-rotacionadas Rotacionadas
I II I II
V1 0.50 0.80 0.03 0.94
V2 0.60 0.70 0.16 0.90
V3 0.90 -0.25 0.95 0.24
V4 0.80 -0.30 0.84 0.15
V5 0.60 -0.50 0.76 -0.13

Os mesmos princípios gerais de rotações ortogonais é aplicável a rotações obliquas. O


método de rotação obliqua é mais flexível, pois os eixos fatoriais não precisam ser
ortogonais. Alem disso, é mais realista porque as dimensões inerentes que são teorica-
mente importantes não são supostas sem correlações entre si. Na Figura 2.3., os dois
métodos rotacionais são comparados. Note que a rotação fatorial obliqua representa o
agrupamento de variáveis com maior precisão. Essa precisão é resultado do fato de que
cada eixo fatorial rotacionado agora esta mais próximo do respectivo grupo de variáveis.
Alem disso, a solução obliqua fornece informações sobre o grau em que os fatores
realmente estão correlacionados um com o outro.
Muitos pesquisadores concordam que a maioria das soluções diretas nao-rotacionadas
não e suficiente; ou seja, na maioria dos casos, a rotação melhora a interpretação
reduzindo algumas das ambigüidades que freqüentemente acompanham a analise
preliminar. A principal opção disponível e escolher um método de rotação ortogonal ou
obliqua. A meta final de qualquer rotação e obter alguns fatores teoricamente significati-
vos e, se possível, a estrutura fatorial mais simples. As rotações ortogonais são mais
amplamente usadas porque todos os pacotes computacionais com analise fatorial contém
opções de rotação ortogonal, enquanto os métodos oblíquos não são tão difundidos. As
rotações ortogonais também são utilizadas mais freqüentemente porque os procedimentos
analíticos para rotações obliquas não são tão bem desenvolvidos e ainda estão sujeitos a
controvérsia considerável. Varias abordagens diferentes estão à disposição para a
execução de rotações ortogonais ou obliquas. Contudo, apenas um numero limitado de
procedimentos de rotação obliqua esta disponível na maioria dos pacotes estatísticos; lo-
go, o pesquisador provavelmente devera aceitar o que lhe é fornecido.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 28


Capítulo 2 – Análise Fatorial

2.5.2. MÉTODOS ROTACIONAIS ORTOGONAIS:


Na pratica, o objetivo de todos os métodos de rotação e simplificar as linhas e colunas
da matriz fatorial para facilitar a interpretação. Em uma matriz fatorial, as colunas
representam fatores, e cada linha corresponde às cargas de uma variável ao longo dos
fatores. Por simplificação das linhas, queremos dizer tomar o máxima de valores em cada
linha tão pr6ximos de zero quanto possível (isto e, maximizar a carga de uma variável em
um único fator). Simplificação das colunas significa tomar o Maximo de valores tão
próximos de zero quanto possível (ou seja, tornar o número de cargas “elevadas” o
menor possível).
Como vimos acima é bastante comum fazermos uma rotação dos fatores comuns,
tornando mais fáceis as suas interpretações, já que os novos fatores deverão apresentar
correlações relativamente fortes com algumas (poucas) variáveis.

Seja L̂ (pxm) é a matriz estimada das cargas fatoriais então

L̂∗ = L̂ T, onde TT' = T'T = I (9-42)


é uma matriz (p x m) de cargas fatoriais rotacionadas. Além disso, a estimativa da matriz
de covariâncias permanece inalterada, já que
ˆ Lˆ ' + Ψ̂ = L̂ TT' L̂ ' + Ψ̂ = L̂∗ L̂∗ ' + Ψ̂
Sn = L (9-43)

ˆL ∗
ˆ ' + Ψ̂ ) = S n − ( L̂ L̂ ' + Ψ̂ ), as∗
Essa equação indica que a matriz de resíduos S n − ( L

variâncias específicas ψ i e as comunalidades ĥi permanecem inalteradas.


2

Quando m = 2, a transformação para uma estrutura mais simples pode ser

determinada graficamente. Um gráfico dos pares de cargas fatoriais ( lˆi1 , lˆi 2 ), com p

pontos, dá uma idéia do ângulo de rotação ( φ )ideal. As novas cargas fatoriais li j são

determinadas através da relação

Lˆ ∗ = L̂ T (9-44)
( px 2 ) (px2) ( 2x 2 )

onde

 cos φ sen φ
T=   se a rotação for no sentido horário
− sen φ cos φ
cos φ − sen φ
T=  se a rotação for no sentido anti-horário
sen φ cos φ

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 29


Capítulo 2 – Análise Fatorial

Exemplo 2.7 (página 502 J & W): Lawley & Maxwell (1971), com p = 6 variáveis m = 2
fatores comuns e n = 220 estudantes do sexo masculino, estudam o aproveitamento
em 6 disciplinas. A matriz de correlações é dada por:
Gaelic English History Arithmetic A lg ebra Geometry 
 1
 0.439 0.410 0.288 0.329 0.248 
 1 0.351 0.354 0.320 0.329 
 
R= 1 0.164 0.190 0.181 
 1 0.595 0.470 
 
 1 0.464 
 
 1 

Da Tabela 2.2, podemos perceber que:


• todas as variáveis têm cargas fatoriais positivas com o primeiro fator, que pode ser
chamado de fator de inteligência geral;
• cargas fatoriais positivas e negativas com o segundo fator, que não é facilmente
identificado.
Tabela 2.2
Cargas fatoriais estimadas Comunalidade
VARIÁVEL
F1 F2 ĥi2
1. Gaelic 0.553 0.429 0.490
2. English 0.568 0.288 0.406
3. History 0.392 0.450 0.356
4. Arithmetic 0.740 -0.273 0.623
5. Algebra 0.724 -0.211 0.569
6. Geometry 0.595 -0.132 0.372

Figura 2.5. Fatores não Rotacionados

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 30


Capítulo 2 – Análise Fatorial

O gráfico de dispersão com as cargas fatoriais ( lˆi1 , lˆi 2 ), figura 2.4., sugeriu uma

rotação dos eixos de φ = 20° no sentido anti-horário (este ângulo pode ser determinado
ou medindo-se diretamente no gráfico, ou por cálculo). A partir das novas cargas
fatoriais (Tabela 2.3) podemos perceber que:
• as variáveis associadas à matemática têm cargas fatoriais positivas e altas no fator

F1∗ , e as demais, cargas muito baixas. O primeiro fator pode ser chamado de fator
de habilidade matemática.
• similarmente, as três variáveis associadas às línguas têm cargas fatoriais altas no
∗ ∗
fator F2 e moderadas e baixas com F1 . O segundo fator pode ser chamado de

fator de habilidade verbal.


Tabela 2.3
Cargas fatoriais estimadas Comunalidade
VARIÁVEL
F1∗ F2 ∗ ĥi2
1. Gaelic 0.369 0.594 0.490
2. English 0.433 0.467 0.406
3. History 0.211 0.558 0.356
4. Arithmetic 0.789 0.001 0.623
5. Algebra 0.752 0.054 0.569
6. Geometry 0.604 0.083 0.372

• vale observar que com a rotação, a interpretação dos dois fatores ficou mais simples
e que a comunalidade das variáveis não foi alterada.

Figura 2.6. Fatores co Rotação Varimax

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 31


Capítulo 2 – Análise Fatorial

Existem diversos métodos de rotação de eixos, apresentaremos algumas idéias


básicas de alguns métodos. Veremos com detalhes o Método Varimax, e de uma forma
genérica os Métodos Quartimax e Equimax. Uma série de outros métodos são
propostos na literatura e disponibilizados em softwares como o SAS.

• 2.5.2.1. MÉTODO QUARTIMAX:


O objetivo de uma rotação QUARTlMAX é simplificar as linhas de uma matriz
fatorial, ou seja, QUARTlMAX se concentra em rotacionar o fator inicial de modo que
uma variável tenha carga alta em um fator e cargas tão baixas quanto possível em todos
os outros fatores. Nessas rotações, muitas variáveis podem ter carga alta no mesmo fator,
pois a técnica se concentra em simplificar as linhas. O método QUARTlMAX não foi bem
sucedido na produção de estruturas mais simples. Sua dificuldade é que ele tende a
produzir um fator geral, como o primeiro fator, no qual a maioria das variáveis, se não
todas tem cargas altas. Independentemente de qualquer conceito do que é uma estrutura
"mais simples", ela inevitavelmente envolve lidar com agrupamentos de variáveis; um
método que tende a criar um grande fator geral (isto é, QUARTlMAX) não esta de acordo
com os propósitos de rotação.
Dessa forma o QUARTIMAX tem como base a maximização das variação dos
quadrados das cargas fatoriais (loadings) da matriz L̂ sobre todos os fatores Fj e todas as
variáveis Xi . Seja VQ a quantidade definida por:

1  m p ˆ* 4 1  m p *2 
2

VQ = ∑∑ lij −  ∑∑ lij  
pm  j =1 i =1 pm  j =1 i =1  

onde lˆij* é o coeficiente da i-ésima variável no j-ésimo fator após a rotação. O

critério QUARTIMAX seleciona os coeficientes lˆij* que maximizam VQ.

• 2.5.2.2. MÉTODO VARIMAX :


Diferentemente do QUARTlMAX, o critério VARIMAX se concentra na simplificação das
colunas da matriz fatorial. Com a abordagem rotacional VARIMAX, a simplificação
máxima possível é conseguida se houver apenas 1s e 0s em uma coluna. Ou seja, o
método VARIMAX maximiza a soma de variâncias de cargas exigidas da matriz fatorial.
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 32
Capítulo 2 – Análise Fatorial

Lembre-se que, nas abordagens QUARTlMAX, muitas variáveis podem ter cargas altas ou
próximas de altas no mesmo fator, pois a técnica se concentra em sim plificar as linhas.
Com a abordagem rotacional VARIMAX, há uma tendência para algumas cargas altas (isto
e, próximas de -1 ou +1) e algumas cargas próximas de 0 em cada coluna da matriz. A
lógica é que a interpretação é mais fácil quando as correlações variável-fator são (1)
próximas de +1 ou -1, indicando assim uma clara associação positiva ou negativa entre a
variável e o fator; ou (2) próximas de 0, apontando para uma clara falta de associação.
Essa estrutura é fundamentalmente simples. Apesar de a solução QUARTlMAX ser
analiticamente mais simples do que a solução VARIMAX, esta parece fornecer uma
separação mais clara dos fatores. Em geral, Kaiser indica que o padrão fatorial obtido por
rotação VARIMAX tende a ser mais invariante do que o obtido pelo método QUARTlMAX
quando diferentes subconjuntos de variáveis são analisados. O método VARIMAX tem sido
muito bem-sucedido como uma abordagem analítica para a obtenção de uma rotação
ortogonal.
O método varimax busca a melhor rotação de eixos, de modo que a nova matriz de

cargas L = LT tenha o maior número de coeficientes nulos. Embora essa estrutura
facilite a interpretação dos fatores, raramente existe em soluções fatoriais de dados reais
(Morrison, 1976).
Kaiser (1958) definiu a simplicidade de um fator j como a variância de suas cargas
fatoriais ao quadrado, isto é

( ) ( )
2
1 p ~∗ 4 1  p ~∗ 2  ~
V j = ∑ lij − 2  ∑ lij  , onde lij∗ = li∗j / ĥi , para j = 1, 2, ..., m
p i =1 p  i =1 
Quando a variância atinge um máximo, o fator tem maior interpretabilidade ou
simplicidade, no sentido de que as cargas desse fator tendem à unidade ou à zero. O
critério é definido como a maximização da soma dessas simplicidades, ou seja,

1 n  p ~∗ 
( ) ( ) 
2
4  p ~ 2
V= ∑  ∑ lij −  ∑ lij∗ p (4-45)
p j =1i =1  i =1  

~∗
Depois que a transformação T é determinada, as cargas fatoriais lij são multiplicadas por

ĥi para que as comunalidades originais sejam preservadas.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 33


Capítulo 2 – Análise Fatorial

• 2.5.2.3. MÉTODO EQUIMAX:


O método EQUIMAX e uma espécie de acordo entre QUARTlMAX e VARIMAX. Em
vez de se concentrar na simplificação de linhas ou de colunas, ele tenta atingir um pouco
de cada. EQUIMAX não tem obtido ampla aceitação e é pouco usado.

2.5.3. MÉTODOS ROTACIONAIS OBLÍQUOS:


As rotações obliquas são semelhantes às rotações ortogonais, porem, as obliquas
permitem fatores correlacionados em vez de manterem independência entre os fatores
rotacionados. Onde, porem, havia varias escolhas entre abordagens ortogonais, há apenas
escolhas limitadas na maioria dos pacotes estatísticos para rotações obliquas. Por
exemplo, SPSS fornece OBLIMIN; SAS tem PROMAX e ORTOBLIQUE; BMDP fornece
DQUART, DOBLIMIN e ORTOBLIQUE. Os objetivos de simplificação são comparáveis aos
métodos ortogonais, com a característica extra de fatores correlacionados. Com a
possibilidade de fatores correlacionados, o pesquisador deve ter o cuidado extra de validar
fatores rotacionados obliquamente, uma vez que eles tem uma maneira adicionai (não-
ortogonalidade) de se tomar específicos a amostra e não generalizáveis, particularmente
com pequenas amostras ou pequenas proporções de casos por variáveis.

Exemplo 2.8 (página 505 J & W), referente à análise fatorial de dados de preferência de
consumo, já avaliados no Exemplo 2.3.
Tabela 2.4.
Cargas fatoriais
Cargas fatoriais COMUNALIDADE
Variável rotacionadas
F1 F2 F1∗ F2 ∗ ĥi2
Sabor 0.56 0.82 0.02 0.99 0.98
Boa compra 0.78 -0.52 0.94 -0.01 0.88
Gosto 0.65 0.75 0.13 0.98 0.98
Apropriado para
0.94 -0.10 0.84 0.43 0.89
snack
Fornece energia 0.80 -0.54 0.97 -0.02 0.93

Com base na Tabela 2.4., que apresenta as cargas fatoriais das variáveis antes e depois
da rotação feita através do método varim ax , podemos perceber que:

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 34


Capítulo 2 – Análise Fatorial

• (as variáveis 2, 4 e 5 definem o primeiro fator, pois apresentam cargas altas no fator 1 e
baixas no fator 2). O fator 1 pode er chamado de fator nutricional.
• as variáveis 1 e 3 definem o segundo fator, que pode ser chamado de fator de sabor.
A análise desse exemplo pode ser feita utilizando-se o PROC FACTOR, com os
seguinte comandos:
title 'Análise Fatorial '
title2 'Método Componentes Principais - Rotação Varimax';
data consumo (type=corr);
_type_='CORR';
input _name_ $ Taste Money Flavor Snack Energy;
cards;
Taste 1.00 . . . .
Money 0.02 1.00 . . .
Flavor 0.96 0.13 1.00 . .
Snack 0.42 0.71 0.50 1.00 .
Energy 0.01 0.85 0.11 0.79 1.00
;
proc factor res data=consumo method=prin nfact=2 rotate=varimax
preplot plot;
var taste money flavor snack energy;
run;

Eigenvalues of the Correlation Matrix: Total


= 5 Average = 1

Eigenvalue Difference Proportion Cumulative

1 2.85309042 1.04675797 0.5706 0.5706

2 1.80633245 1.60184223 0.3613 0.9319

3 0.20449022 0.10208076 0.0409 0.9728

4 0.10240947 0.06873203 0.0205 0.9933

5 0.03367744 0.0067 1.0000

2 factors will be retained by the NFACTOR criterion.

Factor Pattern

Factor1 Factor2

Taste 0.55986 0.81610

Money 0.77726 -0.52420

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 35


Capítulo 2 – Análise Fatorial

Factor Pattern

Factor1 Factor2

Flavor 0.64534 0.74795

Snack 0.93911 -0.10492

Energy 0.79821 -0.54323

Variance Explained by Each


Factor

Factor1 Factor2

2.8530904 1.8063325

Final Communality Estimates: Total = 4.659423

Taste Money Flavor Snack Energy

0.97946135 0.87892002 0.97588288 0.89292750 0.93223112

Residual Correlations With Uniqueness on the Diagonal

Taste Money Flavor Snack Energy

Taste 0.02054 0.01264 -0.01170 -0.02015 0.00644

Money 0.01264 0.12108 0.02048 -0.07493 -0.05518

Flavor -0.01170 0.02048 0.02412 -0.02757 0.00119

Snack -0.02015 -0.07493 -0.02757 0.10707 -0.01660

Energy 0.00644 -0.05518 0.00119 -0.01660 0.06777


~ ~t ~
• Matriz de correlações L L + Ψ , estimada pelo modelo.

Orthogonal Transformation Matrix

1 2

1 0.83571 0.54917

2 -0.54917 0.83571

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 36


Capítulo 2 – Análise Fatorial

Rotated Factor Pattern

Factor1 Factor2

Taste 0.01970 0.98948

Money 0.93744 -0.01123

Flavor 0.12856 0.97947

Snack 0.84244 0.42805

Energy 0.96539 -0.01563

Variance Explained by Each


Factor

Factor1 Factor2

2.5373960 2.1220269

Final Communality Estimates: Total = 4.659423

Taste Money Flavor Snack Energy

0.97946135 0.87892002 0.97588288 0.89292750 0.93223112

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 37


Capítulo 2 – Análise Fatorial

Plot of Factor Pattern for Factor1 and Factor2

Factor1
1
D
.9

EB .8

.7
C
.6
A
.5

.4

.3

.2
F
.1 a
c
-1 -.9-.8-.7-.6-.5-.4-.3-.2-.1 0 .1 .2 .3 .4 .5 .6 .7 .8 .9 1.0t
o
-.1 r
2
-.2

-.3

-.4

-.5

-.6

-.7

-.8

-.9

-1

Taste=A Money=B Flavor=C Snack=D Energy=E

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 38


Capítulo 2 – Análise Fatorial

Rotation Method: Varimax


Plot of Factor Pattern for Factor1 and Factor2

Factor1
1
B
.9
D
.8

.7

.6

.5

.4

.3

.2
F C
.1 a
c
-1 -.9-.8-.7-.6-.5-.4-.3-.2-.1 0 .1 .2 .3 .4 .5 .6 .7 .8 .9 A.0t
o
-.1 r
2
-.2

-.3

-.4

-.5

-.6

-.7

-.8

-.9

-1

Taste=A Money=B Flavor=C Snack=D Energy=B

Nota:
Observe que nesse caso, para entrada de dados nos SAS foi utilizado diretamente a matriz
de correlações.Esta opção permite somente fazer a análise fatorial, mas não conseguimos
calcular os escores fatoriais dos indivíduos como veremos a seguir.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 39


Capítulo 2 – Análise Fatorial

USO DE ALGUMAS ROTAÇÕES

Factor Pattern – Não Rotacionados Factor1 Factor2

Factor1 Factor2 Y1 Y1 0.70807 0.04606

Y1 Y1 0.68323 -0.19151 Y2 Y2 0.82528 -0.25952

Y2 Y2 0.69240 -0.51867 Y3 Y3 0.72488 -0.01064

Y3 Y3 0.68027 -0.25058 Y4 Y4 0.56234 0.27236

Y4 Y4 0.62085 0.07033 Y5 Y5 0.60299 0.67823

Y5 Y5 0.79388 0.43971

Rotated Factor Pattern (Standardized Regression Coefficie


nts)
Rotated Factor Pattern - Varimax PROMAX

Factor1 Factor2 Factor1 Factor2

Y1 Y1 0.60123 0.37684 Y1 Y1 0.56377 0.23500

Y2 Y2 0.84951 0.16360 Y2 Y2 0.90027 -0.07663

Y3 Y3 0.64295 0.33492 Y3 Y3 0.62203 0.17589

Y4 Y4 0.36550 0.50677 Y4 Y4 0.26468 0.45052

Y5 Y5 0.20850 0.88324 Y5 Y5 -0.01602 0.91530

Rotated Factor Pattern - Quartimx

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 40


Capítulo 2 – Análise Fatorial

2.6. CRITÉRIOS DE SIGNIFICÂNCIA PARA CARGAS FATORIAIS:

Ao interpretar fatores, é preciso tomar a decisão sobre quais cargas fatoriais


valem a pena considerar. A discussão a seguir detalha questões relativas à
significância prática e estatística, bem como ao numero de variáveis que afetam a
interpretação de cargas fatoriais.
Garantia da significância prática: A primeira sugestão não e baseada em
qualquer proposição matemática, mas se refere mais a significância prática. É uma
norma prática freqüentemente usada como um meio de fazer um exame preliminar
da matriz fatorial Em síntese, considera-se que as cargas fatoriais maiores que ±
0,30 atingem o nível mínimo; cargas de ± 0;40 são consideradas mais importantes;
e se as cargas são de ±0,50 ou maiores, elas são consideradas com significância
prática. Logo, quanto maior o valor absoluto da carga fatorial, mais importante a
carga na interpretação da matriz fatorial Como a carga fatorial e a correlação da
variável e do fator, a carga ao quadrado e a quantia de variância total da variável
explicada pelo fator. Assim, uma carga de 0,30 reflete aproximadamente 10% de
explicação, e uma carga de 0,50 denota que 25% da variância é explicada pelo
fator. A carga deve exceder 0,70 para que o fator explique 50% da variância. 0
pesquisador deve perceber que cargas extremamente altas (0,80 ou superiores)
não são comuns e que a significância prática das cargas e um critério importante.
Essas orientações são aplicáveis quando o tamanho da amostra é 100 ou maior. A
ênfase nessa abordagem é a significância prática, e não estatística.
Avaliação da significância estatística: Como anteriormente observado, uma
carga fatorial representa a correlação entre uma variável original e seu fator. Ao
determinar um nível de significância à interpretação de cargas, uma abordagem
semelhante à determinação da significância estatística de coeficientes de correlação
poderia ser usada. Entretanto, pesquisas têm demonstrado que as cargas fatoriais
tem substancialmente erros-padrao maiores do que as correlações normais; assim,
as cargas fatoriais devem ser avaliadas em níveis consideravelmente mais restritos.
O pesquisador pode empregar o conceito de poder estatístico para especificar
cargas fatoriais consideradas significantes para diferentes tamanhos de amostra.
Com o objetivo estabelecido de conseguir um nível de poder de 80%, 0 uso de um

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 41


Capítulo 2 – Análise Fatorial

nível de significância de 0,05 e a inflação proposta dos erros padrão de cargas


fatoriais, a Tabela 2.2 contém os tamanhos de amostra necessários para cada valor
de carga fatorial ser considerado significante. Por exemplo, em uma amostra de
100 respondentes, as cargas fatoriais de 0,55 ou mais são significantes. No
entanto, em uma amostra de 50, e exigida uma carga fatorial de 0,75 para
significância. Em comparação com a norma prática anterior, que denotava todas as
cargas de 0,30 como tendo significância prática, essa abordagem consideraria as
cargas de 0,30 como significantes somente para amostras de 350 ou maiores. Es-
sas são orientações muito conservadoras quando comparadas com as da seção
anterior ou mesmo com níveis estatísticos associados aos coeficientes de corre-
lação convencionais. Assim, essas orientações devem ser usadas como ponto de
partida na interpretação de cargas fatoriais, sendo as cargas menores consideradas
significantes e acrescentadas à interpretação baseada em outras considerações. A
seção a seguir detalha o processo de interpretação, bem como o papel de outras
considerações.
TABELA 2.2 Orientações para identificação de cargas fatoriais
significantes com base no tamanho da amostra
Carga Fatorial Tamanho necessário da amostra
para significância*
0.30 350
0.35 250
0.40 200
0.45 150
0.50 120
0.55 100
0.60 85
0.65 70
0.70 60
0.75 50
*A significância é baseada em um nível de significância de 0.05(α), um nível de poder de 80% e,
erros padrão, os quais se pressupõe que sejam o dobro dos de coeficientes de correlação
convencionais.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 42


Capítulo 2 – Análise Fatorial

Ajustes baseados no numero de variáveis: Uma desvantagem das duas


abordagens anteriores é que o numero de variáveis analisadas e o fator especifico
em exame não são considerados. Foi mostrado que quando o pesquisador se move
do primeiro fator para fatores posteriores, o nível aceitável para que uma carga
seja julgada significante deve aumentar. 0 numero de variáveis em analise também
é importante na decisão sobre quais cargas são significantes. À medida que o
numero de variáveis em analise aumenta, o nível aceitável para considerar uma
carga significante diminui. O ajuste para o numero de variáveis é cada vez mais
importante quando se move do primeiro fator extraído para fatores posteriores.
Para resumir os critérios de significância de cargas fatoriais, as seguintes
orientações podem ser dadas: (1) quanto maior o tamanho da amostra, menor a
carga a ser considerada significante; (2) quanto maior o numero de variáveis a
serem analisadas, menores as cargas a serem consideradas significantes; (3)
quanto maior o numero de fatores, maior o tamanho das cargas em fatores
posteriores a serem consideradas significantes para interpretação.

2.7. ESCORES FATORIAIS:


Embora o interesse principal da análise fatorial seja, usualmente, estimar os
parâmetros do modelo, os valores estimados dos fatores comuns, chamados
escores fatoriais também podem ser requisitados. Essas quantidades, que
correspondem aos valores de cada fator para cada indivíduos, são muitas vezes
usadas na construção de índices, para fazer diagnósticos ou como entrada em
análises subseqüentes.
Os escores fatoriais não são parâmetros do modelo, são valores atribuídos
às variáveis hipotéticas e por isso não podem ser estim ados no sentido
estatístico usual.
Na análise de componentes principais, os componentes eram definidos como
funções lineares das variáveis observadas e então os valores de cada componente
para cada indivíduo (escores) podiam ser facilmente encontrados. Na análise
fatorial, os fatores não são combinações lineares das variáveis observadas e os
escores não podem ser encontrados da mesma maneira.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 43


Capítulo 2 – Análise Fatorial

Apresentaremos alguns detalhes sobre dois métodos de estimação dos


escores fatoriais: o m étodo dos m ínim os quadrados ponderados e o m étodo
de regressão . Para ambos os métodos, supomos que os parâmetros do modelo
fatorial − L e Ψ − já foram estimados através de algum procedimento discutido
anteriormente, desprezando-se erros de amostragem.

2.7. 1. MÉTODO DOS MÍNIMOS QUADRADOS PONDERADOS:


Vamos supor que são conhecidos todos os parâmetros do modelo fatorial

Y−µ = L F + ε
(px 1) (pxm) (mx1) (px 1)

Desde que Var( ε i ) = ψ i , i = 1, 2, ..., p , Bartlett (1938) sugeriu que o método

dos m ínim os quadrados ponderados seja usado para estimar os valores dos
fatores comuns. A soma dos quadrados dos erros, ponderados pelo recíproco de
suas variâncias é igual a
p ε i2
∑ ψ = ε' Ψ -1ε = (y − µ − Lf )' Ψ -1 (y − µ − Lf ) (4-47)
i =1 i

Bartlett propôs escolher as estimativas f̂ de f que minimizam (4-47). A solução é:

f̂ = (L' Ψ −1L) −1 L' Ψ −1 (y − µ ) (4-48)

Motivado por (4-48), nós tomamos estimativas L̂ , Ψ̂ e µ̂ = y como valores

verdadeiros e obtemos os escores fatoriais para o j-ésimo caso como


 -1  −1
f̂ j = (L' Ψ
ˆ L) L ˆ'Ψ
ˆ -1 (y j − y ) (4-49)

Quando L̂ e Ψ̂ são determinados pelo método da máxima verossimilhança, essas


ˆ −1Lˆ = ∆ˆ , uma matriz
ˆ'Ψ
estimativas devem satisfazer a condição de unicidade, L
diagonal. Então temos que:

ESCORES FATORIAIS OBTIDOS POR MÍNIMOS QUADRADOS PONDERADOS PARA


ESTIMATIVAS DE MÁXIMA VEROSSIMILHANÇA
 -1  −1
f̂ j = (L' Ψ
ˆ L) L ˆ'Ψ
ˆ -1 (y j − y )

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 44


Capítulo 2 – Análise Fatorial

ˆ −1 Lˆ ' Ψ
= ∆ ˆ -1 (y j − y ) , j = 1, 2, ..., n

ou, se a matriz de correlações foi fatorada (4-50)


 
ˆ z−1 z j
ˆ z−1L z ) −1 Lˆ tz Ψ
f̂ j = (Ltz Ψ
ˆ −1 Lˆ tz Ψ
= ∆ ˆ z−1 z j , j = 1, 2, ..., n
−1 2
onde z j = D (y j − y ) e ρ̂ = L ˆ tz + Ψ̂z
ˆ zL

• Os escores fatoriais gerados por (9-50) têm vetor de médias 0 e covariâncias


amostrais nulas.

• Se forem utilizadas cargas rotacionadas L̂ = L̂ T no lugar das cargas originais
∗ ∗
em (9-50), os escores obtidos, f̂ j , estão relacionados com os f̂ j por f̂ j = T' f̂ j ,

j = 1, 2, ..., n.
• Se as cargas fatoriais forem obtidas pelo m étodo dos com ponentes
principais , os escores fatoriais são calculados por
 
f̂ j = (L' L) −1 Lˆ ' (y j − y )
ou
 
f̂ j = (Ltz L z ) −1 Lˆ tz z j

2.7. 2. MÉTODO DA REGRESSÃO:


A partir do modelo fatorial original, tratamos inicialmente a matriz de cargas
fatoriais L e a matriz de variâncias específicas Ψ , como conhecidas. Quando os
fatores comuns F e os fatores específicos (ou erros) ε têm distribuição conjunta
normal com média e covariâncias dada por (4-3), a combinação linear Y − µ = LF
+ ε tem distribuição N p (0, LL' + Ψ ) . A distribuição conjunta de (Y − µ) e F é

normal (p+m)-variada com vetor de médias o (m+p)x1 e matriz de covariâncias

Σ ∗ dada por
LL' + Ψ L 
∗ (pxm) 
Σ = 
( pxp )
(4-52)
( m+ p ) x ( m+ p )  (mxp)
L' I 
 (mxm)

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 45


Capítulo 2 – Análise Fatorial

A distribuição condicional de F | x é normal multivariada com


−1
média: E(F | y) = L' Σ (y − µ ) = L' (LL' + Ψ ) −1 (y − µ ) (4-53)

e
−1 −1
covariância: Cov(F | y) = I − L' Σ L = I − L' (LL' + Ψ ) L (4-54)
−1
As quantidades L' (LL' + Ψ ) em (4-53) são os coeficientes de uma regressão

(mul-tivariada) dos fatores sobre as variáveis. Estimativas desses coeficientes


produzem os escores fatoriais que são análogos às estimativas dos valores médios
condicionais na análise de regressão multivariada [ver Capítulo 1].
Dado um vetor de observações y j , j = 1, 2, ..., n e tomando as estimativas

de máxima verossimilhança L̂ e Ψ̂ como os valores verdadeiros, o j-ésimo vetor


de escores fatoriais é dado por:

f̂ j = Lˆ ' Σˆ −1 (y j − y ) = Lˆ ' (Lˆ Lˆ ' + Ψ


ˆ ) −1 (y j − y ) , j = 1, 2, ..., n (4-55)

Os cálculos de f̂ j podem ser simplificados usando-se a seguinte identidade

ˆ ' (L
L ˆL ˆ ) −1 = ( I + L
ˆ'+ Ψ ˆΨˆ −1L
ˆ ) −1 L ˆ −1
ˆ'Ψ (4-56)

que permite comparar os escores fatoriais em (9-55), gerados pelo método da

regres-são, que denotaremos por f̂ jR ,com aqueles (9-5o) gerados pelo método dos

mínimos quadrados ponderados, denotados por f̂ jM Q . Comparando as expressões

temos que

f̂ jM Q = ( I + (L
ˆΨˆ −1Lˆ ) −1 ) f jR (4-57)

ˆ'Ψ
Para estimativas de máxima verossimilhança temos que (L ˆ −1 ˆ −1
L) ˆ −1 e se
= ∆

os elementos da diagonal dessa matriz forem próximos a zero, os escores fatoriais


obtidos pelos dois métodos serão muito próximos.
Para reduzir os efeitos de uma (possível) incorreta determinação do número
de fatores comuns, sugere-se para o cálculo dos escores fatoriais em (4-55) usar S

(matriz original de covariâncias amostrais) no lugar de Σ̂ = L


ˆ Lˆ ' + Ψ̂ . Daí temos
que:

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 46


Capítulo 2 – Análise Fatorial

ESCORES FATORIAIS OBTIDOS POR REGRESSÃO

f̂ j = Lˆ ' S −1 (y j − y ) , para j = 1, 2, ..., n


ou, se a matriz de correlações for fatorada, (4-58)

f̂ j = Lˆ tz R −1z j , para j = 1, 2, ..., n

−1 2
onde z j = D (y j − y ) e ρ̂ = Lˆ z Lˆ tz + Ψ̂z

2.8. UMA ESTRATÉGIA PARA AVALIAÇÃO DA ANÁLISE FATORIAL:


1. Executar a análise fatorial por componentes principais. (Este método não
requer que as matrizes R ou S sejam não-singulares)
(a) Avaliar as observações suspeitas no gráfico de dispersão dos escores
fatoriais. Calcular escores padronizados e quadrados de distâncias para
cada observação.
(b) Tentar a rotação varimax.
2. Executar a análise fatorial por máxima verossimilhança, incluindo a rotação
varimax
2. Comparar as soluções obtidas nas duas análises fatoriais:
(a) As cargas fatoriais de agrupam da mesma maneira?
(b) Faça um gráfico dos escores fatoriais obtidos por componentes principais
contra os escores da análise por máxima verossimilhança.
4. Repita os três primeiros passos para outro número (m) de fatores comuns.
Qual fator extra contribui para o entendimento e interpretação dos dados?
5. Para grandes conjuntos de dados, divida-os pela metade e executa a análise
fatorial em cada uma das partes. Compare os resultados obtidos dos dois
subconjuntos e também com aqueles obtidos com os dados completos para
checar a estabilidade da solução.

2.9. OUTRAS MEDIDAS DE AJUSTE DO MODELO FATORIAL ORTOGONAL.

2.9. 1. MATRIZ ANTI-IMAGEM

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 47


Capítulo 2 – Análise Fatorial

A condição básica para uso da análise fatorial é de que existe uma estrutura
de dependência entre as variáveis envolvidas. Esta dependência pode ser
identificada a partir da matriz de variância-covariâncias ou matriz de correlações. A
existência desta estrutura significa que uma variável pode, dentro de certos limites,
ser “prevista” pelas demais. A verificação deste fato pode ser feita a partir do
calcula dos coeficientes de correlação parcial entre os pares de variáveis, eliminado
o efeito das demais variáveis. Espera-se que os valores obtidos sejam baixos. A
matriz anti-imagem é definida por esses coeficientes com sinais invertidos.

2.9. 2. KMO: KAISER-MEYER-OLKIN


O coeficiente KMO (Kaiser, 1970), parte do mesmo princípio da matriz anti-
imagem, ou seja, que as correlações entre pares de variáveis eliminando o efeito
das demais devem ser pequenas se o modelo for adequado. O coeficiente é
definido por:

∑𝑝𝑝𝑖𝑖=1 ∑𝑝𝑝𝑗𝑗=1 𝑟𝑟𝑖𝑖𝑖𝑖2


𝐾𝐾𝐾𝐾𝐾𝐾 =
∑𝑝𝑝𝑖𝑖=1 ∑𝑝𝑝𝑗𝑗=1 𝑟𝑟𝑖𝑖𝑖𝑖2 + ∑𝑝𝑝𝑖𝑖=1 ∑𝑝𝑝𝑗𝑗=1 𝑎𝑎𝑖𝑖𝑖𝑖2
𝑎𝑎𝑖𝑖𝑖𝑖 é a correlação parcial entre 𝑋𝑋𝑖𝑖 e 𝑋𝑋𝑗𝑗 eliminado o efeito das demais variáveis. A
tabela a seguir apresenta algumas sugestões existentes na literatura da estatística
para auxiliar na interpretação do KMO. A primeira parte da tabela foi proposta por
Kaiser e Rice (1974).

Tabela 3.1

KMO Interpretação
0.90 – 1.00 Excelente
0.80 – 0.89 Ótimo
0.70 - 0.79 Bom
0.60 – 0.69 Regular
0.50 – 0.60 Ruim
0.00 – 0.49 Inadequado
0.80 – 1.00 Excelente
0.70 - 0.79 Ótimo
0.60 – 0.69 Bom
0.50 – 0.60 Regular
0.00 – 0.49 Insuficiente

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 48


Capítulo 2 – Análise Fatorial

2.9. 3. MSA: MEASURE OF SAMPLING ADEQUACY


Medida muito similar ao KMO porém calculada individualmente para cada
variável. O objetivo é verificar se uma dada variável pode ser explicada pelas
demais (que é o esperado em uma análise fatorial). Valores baixos de MSAi, são
indícios de que a respectiva variável pode ser excluída da análise sem maiores
prejuízos. Pode ser interpretada utilizando os mesmos limites descritos para o KMO.
É definido por:

∑𝑝𝑝𝑗𝑗=1 𝑟𝑟𝑖𝑖𝑖𝑖2
𝑀𝑀𝑀𝑀𝑀𝑀𝑖𝑖 =
∑𝑝𝑝𝑗𝑗=1 𝑟𝑟𝑖𝑖𝑖𝑖2 + ∑𝑝𝑝𝑗𝑗=1 𝑎𝑎𝑖𝑖𝑖𝑖2

Como uma medida resumo, é possível calcular a média dos MASi para se ter
uma idéia do desempenho do conjunto das variáveis.

𝑝𝑝
𝑀𝑀𝑀𝑀𝑀𝑀𝑖𝑖
������
𝑀𝑀𝑀𝑀𝑀𝑀 = �
𝑝𝑝
𝑖𝑖=1

2.10. UMA APLICAÇÃO:


EXEMPLO 2.9:
Fonte:
FACHEL, J.M.G. Análise Fatorial, São Paulo, 1976, 81 p., Dissertação [Mestrado] -
IME USP.
Objetivo: estudar as causas dos diferentes rendimentos do fumo em uma
determinada região agrária do Rio Grande do Sul, caracterizada por uma
grande diversificação quanto à capacidade do uso do solo e geomorfologia.
As informações são relativas à safra de 1971, de 83 propriedades produtoras
de fumo, cujos proprietários são fornecedores de fumo à Companhia de Cigarros
Souza Cruz. As 17 variáveis analisadas foram as seguintes:
Var 01: Área cultivada com fumo na propriedade (em ha)
Var 02: Número de pés de fumo, por m2
Var 03: Número de pés de fumo plantados

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 49


Capítulo 2 – Análise Fatorial

Var04: Fumo produzido na propriedade (em kg)


Var05: Rendimento bruto com a venda do fumo (em Cr$)
Var06: Preço médio pago pela Cia. Souza Cruz (em Cr$/kg)
Var07: Rendimento (em kg/ha)
Var08: Rendimento (em Cr$/ha)
Var09: Fertilizantes aplicados (em kg)
Var 10: Inseticidas e fungicidas empregados (em kg)
Var 11: Quantidade de lenha consumida (em m3)
Var 12: Mão de obra empregada (em dias-homem)
Var 13: Renda líquida (em Cr$)
Var 14: Quantidade de inseticidas por pé plantado (em kg)
Var 15: Quantidade de adubo por pé plantado (em kg)
Var 16: Quantidade de lenha consumida (em kg) por kg de fumo
Var 17: Mão de obra por hectare plantado (em dias-homem)

Matriz de Correlações:

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 50


Capítulo 2 – Análise Fatorial

Obs _Var_ V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13 V14 V15 V16 V17

1 V1 1.00 0.15 0.99 0.74 0.64 -0.20 0.28 -0.31 0.94 0.71 0.98 0.97 0.08 0.01 -0.08 0.19 0.22

2 V2 0.15 1.00 0.01 0.10 0.18 0.13 -0.07 0.01 0.04 0.03 0.20 0.03 0.20 0.03 0.09 -0.10 -0.08

3 V3 0.99 0.01 1.00 0.74 0.62 -0.22 -0.27 -0.32 0.95 0.71 0.99 0.99 0.66 0.01 -0.09 0.20 0.24

4 V4 0.74 0.10 0.74 1.00 0.94 -0.08 0.39 0.31 0.63 0.33 0.71 0.70 0.66 -0.24 -0.27 -0.48 -0.45

5 V5 0.64 0.18 0.62 0.94 1.00 0.27 0.43 0.48 0.54 0.27 0.60 0.59 0.01 -0.22 -0.20 -0.52 -0.41

6 V6 -0.20 0.13 -0.22 -0.08 0.27 1.00 0.14 0.53 -0.16 -0.12 -0.22 -0.22 0.47 0.04 0.18 -0.18 -0.17

7 V7 0.28 -0.07 -0.27 0.39 0.43 0.14 1.00 0.91 -0.35 -0.40 -0.29 -0.30 0.75 -0.29 -0.23 -0.93 -0.92

8 V8 -0.31 0.01 -0.32 0.31 0.48 0.53 0.91 1.00 -0.37 -0.39 -0.34 -0.35 0.84 -0.23 -0.14 -0.86 -0.86

9 V9 0.94 0.04 0.95 0.63 0.54 -0.16 -0.35 -0.37 1.00 0.73 0.95 0.94 -0.03 0.09 0.22 0.29 0.33

10 V10 0.71 0.03 0.71 0.33 0.27 -0.12 -0.40 -0.39 0.73 1.00 0.72 0.73 -0.22 0.69 0.12 0.36 0.42

11 V11 0.98 0.20 0.99 0.71 0.60 -0.22 -0.29 -0.34 0.95 0.72 1.00 0.99 0.03 0.03 -0.06 0.23 0.26

12 V12 0.97 0.03 0.99 0.70 0.59 -0.22 -0.30 -0.35 0.94 0.73 0.99 1.00 0.00 0.04 -0.04 0.23 0.30

13 V13 0.08 0.20 0.66 0.66 0.01 0.47 0.75 0.84 -0.03 -0.22 0.03 0.00 1.00 -0.34 -0.25 -0.82 -0.83

14 V14 0.01 0.03 0.01 -0.24 -0.22 0.04 -0.29 -0.23 0.09 0.69 0.03 0.04 -0.34 1.00 0.27 0.30 0.34

15 V15 -0.08 0.09 -0.09 -0.27 -0.20 0.18 -0.23 -0.14 0.22 0.12 -0.06 -0.04 -0.25 0.27 1.00 0.24 0.28

16 V16 0.19 -0.10 0.20 -0.48 -0.52 -0.18 -0.93 -0.86 0.29 0.36 0.23 0.23 -0.82 0.30 0.24 1.00 0.96

17 V17 0.22 -0.08 0.24 -0.45 -0.41 -0.17 -0.92 -0.86 0.33 0.42 0.26 0.30 -0.83 0.34 0.28 0.96 1.00

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 51


Capítulo 2 – Análise Fatorial

Como sugerido na dissertação, o método de análise fatorial empregado foi o


de componentes principais (method = prin), já que na época, o método da máxima
verossimilhança ainda não estava disponível. A escolha do número de fatores
comuns ficou por conta da opção de considerar somente aqueles os fatores
associados às raí-zes características maiores ou iguais a 1 (mineigen = 1).

The FACTOR Procedure


Initial Factor Method: Principal Components
Prior Communality Estimates: ONE

Eigenvalues of the Correlation Matrix: Total


= 17 Average = 1

Eigenvalue Difference Proportion Cumulative

1 6.72895214 1.30572862 0.3958 0.3958

2 5.42322352 3.85151348 0.3190 0.7148

3 1.57171004 0.47107735 0.0925 0.8073

4 1.10063269 0.10716472 0.0647 0.8720

5 0.99346796 0.07270185 0.0584 0.9305

6 0.92076611 0.15468819 0.0542 0.9846

7 0.76607792 0.30190199 0.0451 1.0297

8 0.46417594 0.40076459 0.0273 1.0570

9 0.06341134 0.00556041 0.0037 1.0607

10 0.05785093 0.00944254 0.0034 1.0641

11 0.04840840 0.03235090 0.0028 1.0670

12 0.01605749 0.01013579 0.0009 1.0679

13 0.00592170 0.02337493 0.0003 1.0683

14 -.01745323 0.00941597 -0.0010 1.0672

15 -.02686920 0.36466872 -0.0016 1.0657

16 -.39153792 0.33325791 -0.0230 1.0426

17 -.72479583 -0.0426 1.0000

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 52


Capítulo 2 – Análise Fatorial

Factor Pattern

Factor1 Factor2 Factor3 Factor4

V1 0.93124 0.31712 -0.05994 -0.06534

V2 0.08304 0.12992 0.34675 0.58073

V3 0.95907 0.31403 -0.04347 0.14759

V4 0.57251 0.80243 -0.09212 -0.03544

V5 0.47381 0.72000 0.09124 -0.10839

V6 -0.26204 0.25359 0.69682 0.25035

V7 -0.39374 0.84667 -0.03835 -0.28892

V8 -0.50894 0.80369 0.26951 -0.10951

V9 0.96087 0.09706 0.08534 0.05579

V10 0.81262 -0.14057 0.35290 -0.37277

V11 0.97518 0.19076 -0.03674 0.10386

V12 0.97488 0.16668 -0.06451 0.00913

V13 -0.12114 0.88081 0.13488 0.26281

V14 0.18188 -0.40131 0.60514 -0.54394

V15 0.03940 -0.32854 0.58845 0.13430

V16 0.40262 -0.87063 -0.03329 0.13769

V17 0.45127 -0.84949 0.02065 0.10639

Variance Explained by Each Factor

Factor1 Factor2 Factor3 Factor4

6.7289521 5.4232235 1.5717100 1.1006327

Final Communality Estimates: Total = 14.824518

V1 V2 V3 V4 V5 V6

0.9756256 0.4812532 1.0421114 0.9813959 0.7629694 0.6812076

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 53


Capítulo 2 – Análise Fatorial

Final Communality Estimates: Total = 14.824518

V7 V8 V9 V10 V11 V12

0.9568258 0.9895754 0.9430819 0.9436069 0.9995087 0.9824139

Final Communality Estimates: Total = 14.824518

V13 V14 V15 V16 V17

0.8777647 0.8561891 0.4737955 0.9401648 0.9370286

Observações:
• os quatro primeiros fatores explicam 87,3% da variância total das variáveis origi-
nais;
• as cargas fatoriais, quando a análise é feita a partir da matriz de
correlações amostrais, são os coeficientes de correlação entre as
variáveis e os fatores comuns. Neste exemplo, considerou-se importantes na
construção dos fatores, as variáveis com coeficiente de correlação (cargas
fatoriais) iguais ou superiores a 0.60, em valor absoluto.
• o Fator 1: Explica 40% da variabilidade total e envolve as variáveis:
V1: Área Cultivada;
V 3: Números de pés plantados;
V9: Quantidade de adubo empregado;
V10: Quantidade de inseticida empregado;
V11: Lenha Consumida
V12: Mão de obra
Fator: Investimento
• o Fator 2: Explica 31,6% da variabilidade total e envolve as variáveis:
V4: Fumo Produzido;
V5: Rendimento Bruto;
V7: Rendimento kg/ha;
V8: Rendimento CR$/ha;
V13: Renda Líquida;
V16: Lenha Consumida por kg de fumo;

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 54


Capítulo 2 – Análise Fatorial

V17: Mão de obra por há colhido;


Fator: Rendimento.
• o Fator 3: Explica 9,3% da variabilidade total e envolve as variáveis:
V6: Preço médio/kg pago pela Cia;
V14: Grama inseticida por pé de fumo;
Fator: Qualidade do fumo.
• o Fator 4: Explica 6,5% da variabilidade total e envolve a variável:
V2: Espaçamento.
Fator: Espaçamento.
A análise pode continuar, fazendo-se uma rotação varimax (rotate = varimax)
para tentar melhorar a interpretação dos fatores comuns, usar o método de
estimação por máxima verossimilhança etc.
Rotação VARIMAX:

Rotated Factor Pattern

Factor1 Factor2 Factor3 Factor4

V1 0.98248084 -0.0036803 0.04166894 -0.0927748

V2 0.13041413 -0.0009683 -0.1719247 0.6593074

V3 1.01296819 -0.0645249 -0.0857698 0.06698468

V4 0.81362378 0.53890198 -0.1621915 -0.051873

V5 0.68658256 0.53901668 0.02085295 0.0244942

V6 -0.16804 0.35002525 0.21864896 0.69472664

V7 -0.0863787 0.95710997 -0.0855353 -0.1612103

V8 -0.2113543 0.95460527 0.00232939 0.18337972

V9 0.93486693 -0.221443 0.11725559 0.07949752

V10 0.69654434 -0.2483733 0.62845004 -0.0423571

V11 0.98449599 -0.1697881 -0.0200203 0.03236535

V12 0.97400976 -0.1724773 0.03021451 -0.0552951

V13 0.19228939 0.79156936 -0.3109894 0.34277268

V14 0.0046972 -0.2060025 0.90191095 0.0169287

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 55


Capítulo 2 – Análise Fatorial

Rotated Factor Pattern

Factor1 Factor2 Factor3 Factor4

V15 -0.0853042 -0.2606219 0.39969244 0.48871353

V16 0.08401598 -0.9550914 0.14456761 0.00259366

V17 0.1348638 -0.9364677 0.20372708 0.01907394

Na pesquisa original, após serem obtidos os escores fatoriais de cada fator


para cada uma das propriedades, o autor utilizou um programa de análise
discriminante para obter grupos de fumicultores, em relação aos fatores
Investimento e Rendimento, principalmente.

2.11. ALFA DE CRONBACH:

2.11.1 CONCEITO:

Uma das perguntas mais freqüentemente feitas pelos leitores e pelos próprios
pesquisadores é: até onde podemos confiar nos dados coletados para o desenvol-
vimento da pesquisa? Teríamos como exemplo: Será que medidas escolhidas para
mensurar as perspectivas dos clientes em relação ao produto A estarão coerentes
com os propósitos da pesquisa?
Análise da confiabilidade dos dados permite analisar as escalas de mensuração,
assim calcula um número de mensurações geralmente usadas de confiabilidade de
escalas e também fornece informação sobre as relações entre os itens individuais
em uma determinada escala. Assim, utilizando-se a análise da confiabilidade
podemos determinar a extensão em que os itens estão relacionados com os demais.
Alguns modelos para análise da confiabilidade são:
• Alfa de Cronbach - esse é um modelo de consistência interna baseada na
correlação média entre os itens.
• Split-half- esse modelo separa a escala em duas partes e examina a cor-
relação entre as partes.
• Guttman - este modelo calcula o limite inferior de Guttman para a con-

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 56


Capítulo 2 – Análise Fatorial

fiabilidade verdadeira.
• Paralelo - esse modelo assume que todos os itens tenham variâncias iguais e
variâncias de erros iguais.
• Paralelo estrito - esse modelo faz a preposição do modelo paralelo e
também assume a igualdade de médias entre os itens

Dentro desses modelos, o Alfa de Cronbach, que mede a consistência interna, é


o mais comum para análise da confiabilidade e está presente em diversos trabalhos
científicos. A idéia principal da medida de consistência interna é que os itens ou
indicadores individuais da escala devem medir o mesmo constructo e, assim, ser
altamente intercorrelacionados (Hair et al., 1998).
A confiabilidade é o grau em que uma escala produz resultados consistentes entre
medidas repetidas ou equivalentes de um mesmo objeto ou pessoa, revelando a
ausência de erro aleatório. Por exemplo, poderíamos constatar as variáveis que
compõem as competências do controller obtidas com as respostas do questionário
enviado em uma escala Likert e saber se o instrumento é fidedigno. A escala Likert,
proposta por Rensis Likert em 1932, é uma escala em que os respondentes não
apenas registram sua relação de preferência (ou concordância) das afirmações,
mas também relatam qual o grau da relação de preferência ou concordância. A
cada dado de resposta é atribuído um número que reflete a direção da atitude do
respondente em relação a cada afirmação. A pontuação total da atitude de cada
respondente é dada pela somatória das pontuações obtidas para cada afirmação.
O Alfa de Cronbach é um instrumento de mensuração da confiabilidade muito
utilizado pela psicometria. Esse nome deve-se a Lee J. Cronbach, psicólogo
educacional americano que em seu trabalho de teste de confiabilidade conseguiu
destaque com o desenvolvimento da generalizability theory, um modelo de iden-
tificação e quantificação das origens dos erros de mensuração. Cabe salientar a
existência de uma versão anterior denominada Kuder-Richardson Formula 20 (KR-
20), que se referia, também, a uma medida de confiabilidade, mas somente
aplicável a variáveis dicotômicas. Além desse, Gittman (1945) desenvolveu uma
métrica semelhante, o Lambda-2.
O Alfa de Cronbach é freqüentemente utilizado em pesquisas empíricas que

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 57


Capítulo 2 – Análise Fatorial

envolvem testes com vários itens, que abrangem variáveis aleatórias latentes, por
exemplo, a avaliação da qualidade de um questionário com uma métrica de perfil-
latente.

2.11.2 ALFA DE CRONBACH:


O Alfa de Cronbach pode ser calculado pela seguinte fórmula:

k ((cov/ var)
α=
1 + (k − 1)(cov/ var )
Onde
k = número de variáveis consideradas
cov = média das covariâncias
var = média das variâncias
Forma Alternativa:

Coeficiente sem o k-ésimo item:

O valor assumido pelo Alfa está entre O e 1, e quanto mais próximo de 1 estiver
seu valor, maior a fidedignidade das dimensões do construto. Segundo Nunnaly
(1978) apud Miguel (2002) e Dutra (2000), o valor mínimo para o Alfa de Cronbach
deve ser 0,7 para pesquisa preliminar, 0,8 para pesquisa básica e de 0,9 para
pesquisa aplicada. Hair (1998) trata 0,7 como mínimo ideal, mas também pode se
aceitar 0,6 para pesquisas exploratórias. Entretanto, não existe consenso quanto à
regra colocada acima.
Segundo Pereira (2004, p. 87), uma das possibilidades de interpretação do Alfa
de Cronbach seria considerá-lo como um coeficiente de correlação ao quadrado;
assim, por exemplo, quando um estudo tiver um alfa igual a 0,75, estaríamos
medindo 75% do impacto real das variáveis.

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 58


Capítulo 2 – Análise Fatorial

Os padrões de confiabilidade requeridos variam entre os tipos de estudos, por


exemplo, os testes de inteligência (cognitivos) tendem a ser mais confiáveis que os
testes de atitude e personalidade.
Em uma determinada amostra com k itens, o Alfa de Cronbach é definido como
uma correlação média entre os itens, ajustados pela fórmula de Spearman Brown.

2.11.3 PRESSUPOSTO DO ALFA DE CRONBACH

O pressuposto para a análise de Alfa de Cronbach é de que os itens


(variáveis) são paralelos, ou seja, as medidas têm scores verdadeiros e idênticos e
erros não correlacionados têm variâncias homogêneas (KONING; FRANSES, 2003).
Assim, a premissa principal a ser observada é que as correlações entre os itens
são positivas, necessitando que seja efetuada previamente análise da matriz de
correlação, e, caso alguma variável violar a premissa, deve-se mudar o sentido de
direção, multiplicando seus valores por -1.

2.11.4 APLICAÇÃO:
INTRODUÇÃO:
Durante o início de 2008, foi realizada a análise da pesquisa relacionada a
religiosidade e dependência química, realizada por um profissional da área da
saúde.
A pesquisa envolveu 138 indivíduos, divididos em cinco grupos de diferentes
origens: evangélicos, católicos, alcoólicos anônimos, serviço público e grupo não
religioso.
O objetivo geral deste trabalho é estudar o grau de religiosidade, mensurado
através da versão traduzida e adaptada transculturalmente para o Brasil do
instrumento Spirituality Self Rating Scale (SSRS), para os cinco grupos existentes.

OBJETIVO:
Avaliar o desempenho da versão traduzida e adaptada transculturalmente
para o Brasil do instrumento Spirituality Self Rating Scale (SSRS).

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 59


Capítulo 2 – Análise Fatorial

Resultados:
No SAS:

ods html;
ods graphics on;

proc corr alpha nomiss plots nosimple;


var urica_1-urica_32 ssrr_1-ssrr_6;
run;

ods graphics off;


ods html close;
Cronbach Coefficient Alpha

Variables Alpha

Raw 0.531475

Standardized 0.534598

Cronbach Coefficient Alpha with Deleted Variable

Deleted Raw Variables Standardized Variables Label


Variable
Correlation Alpha Correlation Alpha
with Total with Total

urica_1 0.157184 0.521482 0.111672 0.529618 urica_1

urica_2 0.089708 0.529728 0.142704 0.525737 urica_2

urica_3 0.156524 0.520560 0.147713 0.525108 urica_3

urica_4 0.073155 0.529979 0.131983 0.527081 urica_4

urica_5 0.191232 0.515162 0.102913 0.530708 urica_5

urica_6 -.071342 0.543255 -.039678 0.548126 urica_6

urica_7 0.082682 0.529047 0.175364 0.521620 urica_7

urica_8 0.132901 0.524281 0.202068 0.518230 urica_8

urica_9 -.019689 0.535409 -.051159 0.549502 urica_9

urica_10 0.188898 0.517186 0.204849 0.517876 urica_10

urica_11 0.194208 0.515423 0.129057 0.527447 urica_11

urica_12 0.102992 0.527045 0.155152 0.524172 urica_12

urica_13 -.002694 0.543286 -.081718 0.553146 urica_13

urica_14 0.137546 0.523237 0.208664 0.517389 urica_14

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 60


Capítulo 2 – Análise Fatorial

Cronbach Coefficient Alpha with Deleted Variable

Deleted Raw Variables Standardized Variables Label


Variable
Correlation Alpha Correlation Alpha
with Total with Total

urica_15 0.210239 0.516592 0.305995 0.504823 urica_15

urica_16 -.074653 0.536297 -.086053 0.553660 urica_16

urica_17 0.373235 0.494767 0.415833 0.490282 urica_17

urica_18 0.133097 0.523792 0.172190 0.522022 urica_18

urica_19 0.281136 0.509628 0.297147 0.505978 urica_19

urica_20 0.003515 0.534242 -.011706 0.544758 urica_20

urica_21 0.168524 0.522528 0.236216 0.513862 urica_21

urica_22 -.067787 0.540837 -.026668 0.546562 urica_22

urica_23 -.043751 0.554724 -.138867 0.559885 urica_23

urica_24 0.299827 0.507601 0.334968 0.501025 urica_24

urica_25 0.240828 0.512794 0.245582 0.512658 urica_25

urica_26 0.083012 0.530940 -.001829 0.543563 urica_26

urica_27 0.291003 0.499718 0.342726 0.500003 urica_27

urica_28 0.106332 0.531070 0.069817 0.534805 urica_28

urica_29 0.118027 0.527150 0.052910 0.536886 urica_29

urica_30 0.265301 0.507992 0.332062 0.501407 urica_30

urica_31 0.099381 0.527948 0.014407 0.541592 urica_31

urica_32 0.341683 0.486720 0.310801 0.504195 urica_32

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 61


Capítulo 2 – Análise Fatorial

EXEMPLO 2:
INTRODUÇÃO:
Uma empresa do ramo de calçados populares gostaria de entender melhor a
forma de relacionamento de algumas variáveis e como este relacionamento pode
interferir na condução de seu negócio. Para isso resolveu encomendar uma
pesquisa com outras empresas do ramo para identificar a importância de algumas
variáveis.
As variáveis observadas foram:
V1 – Automação
V2 – Crescimento do PIB
V3 – Parceria com fornecedores
V4 – Novos concorrentes
V5 – Diversidade de Produtos
V6 – Controle de Despesas

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 62


Capítulo 2 – Análise Fatorial

V7 – Câmbio
V8 – Estabilidade econômica

A pesquisa foi respondida, em todos os itens a partir de uma escala de


concordância, dada por:

1 – Não interfere
2 – Interfere Pouco
3 – Interfere
4 – Interfere Muito
5 – Fundamental
Dados Observados:

Obs Empresa V1 V2 V3 V4 V5 V6 V7 V8

1 c1 4 1 2 2 2 4 1 3

2 c2 4 1 2 2 2 4 1 3

3 c3 2 2 1 3 1 3 2 4

4 c4 5 4 3 3 3 5 2 4

5 c5 4 2 3 3 1 3 2 4

6 c6 4 2 2 3 3 4 2 4

7 c7 5 3 3 4 5 5 4 5

8 c8 2 1 1 4 6 3 5 5

9 c9 3 2 1 3 3 5 2 4

10 c10 4 2 2 3 1 3 2 4

11 c11 3 2 1 3 1 3 2 4

12 c12 3 2 1 3 2 4 6 4

13 c13 3 3 1 4 2 4 3 5

14 c14 3 3 1 4 2 4 3 5

15 c15 5 3 3 4 1 3 3 5

16 c16 3 1 1 2 2 4 1 3

17 c17 3 3 1 4 2 4 3 5

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 63


Capítulo 2 – Análise Fatorial

Obs Empresa V1 V2 V3 V4 V5 V6 V7 V8

18 c18 5 2 3 3 3 5 2 4

19 c19 3 3 1 4 1 3 3 5

20 c20 3 2 1 3 3 5 2 4

21 c21 3 2 1 2 3 5 3 2

22 c22 4 3 2 3 1 3 2 3

23 c23 4 5 2 4 1 3 3 5

24 c24 4 3 2 4 3 5 3 5

25 c25 4 2 2 3 2 4 2 4

26 c26 4 3 2 4 3 5 3 5

27 c27 5 3 3 4 2 4 3 5

28 c28 5 3 3 4 2 4 3 5

29 c29 4 3 2 4 2 4 3 5

30 c30 5 3 3 4 2 4 3 5

Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho Página 64