Você está na página 1de 16

SEXTA-FEIRA, 21 DE JANEIRO DE 2011

Interpretação dos resultados gerados pelo SPSS para


análise fatorial / análise de componentes principais
Enviar por e-mail BlogThis! Compartilhar no Twitter Compartilhar no Facebook Compartilhar no orkut Compartilhar no
Google Buzz

Se você não leu o post de introdução à análise fatorial, estará perdendo metade da história.
Leia-o aqui.

Abaixo, você pode ver a estatística descritiva com a média e desvio padrão dos itens.
Você pode pedir para o SPSS realizar o cálculo da assimetria (skewness) e da curtose.
Valores muito diferentes de zero nessas características certamente serão um sinal de
não-normalidade da variável. Teste isso com os testes de Kolmogorov-Smirnov e de
Shapiro-Wilk - valores de p menores que 0,05 indicarão uma diferença estatisticamente
significativa da curva normal esperada.
A matriz de correlação dos itens seguida da significância unicaudal é mostrada
parcialmente abaixo, por motivos de espaço.

O valor do determinante foi menor que 0,00001. Isto pode suscitar as hipóteses de que a
matriz de correlações apresenta multicolinearidade ou singularidade, ou seja: variáveis
excessivamente ou perfeitamente correlacionadas, respectivamente. O exame da matriz
não revela variáveis com coeficientes maiores que 0,9. Mesmo assim, é interessante
realizar o teste de significância de Haitovsky (não realizado pelo SPSS) para avaliar se
o determinante é diferente de zero, ou seja, se a matriz é singular. Se o teste for
significante, sabe-se que a matriz de correlação é siginificativamente diferente de uma
matriz singular, o que demonstraria não haver multicolinearidade grave.
O teste de Haitovsky é dado pela seguinte fórmula:

Onde p é o número de variáveis, N é o total de participantes da amostra, R é o


determinante e ln é o logaritmo natural. O resultado do teste tem distribuição qui-
quadrática com p(p – 1)/2 graus de liberdade. Calculando-se para a matriz em análise
temos:

Sabendo que os graus de liberdade são dados pela fórmula p(p – 1)/2, então gl = 20(20 –
1)/2 = 20 * 19 / 2 = 380 / 2 = 190. Como os valores críticos do qui-quadrado para p
menor que 0,05 com 100 e 200 graus de liberdade são, respectivamente, 124,34 e
233,99. O valor do qui-quadrado encontrado foi bem menor que esses valores,
indicando não significância, ou seja, o determinante da matriz não é significativamente
diferente de zero, e portanto há uma possibilidade grande de multicolinearidade nesses
dados, embora a inspeção da matriz de correlações não tenha mostrado coeficientes com
valores elevados. Como a multicolinearidade não é um problema tão grave na análise
fatorial quanto é na regressão, vamos conceder o benefício da dúvida e realizar a análise
mesmo assim.

Uma opção na análise é utilizar a matriz de covariâncias, a qual poderia levar a um


determinante maior que zero, ou mesmo uma estrutura fatorial diferente, por ser mais
sensível à variações na dispersão das variáveis, algo que os coeficientes de correlação
não consegue detectar, pois, por definição, estes medem apenas o grau de linearidade
entre as variáveis, e consequentemente “escondem” a variabilidade na dispersão dos
dados.

Em seguida, o SPSS mostra o inverso da matriz de correlações (“inverse of correlation


matrix”, R-1), mostrado abaixo, o qual é multiplicado pela matriz de carregamento
fatorial (“factor loadings matrix”) para obter a matriz de coeficientes de escore fatorial
(“matrix of factor score coefficients”), vista mais adiante.

O KMO, mostrado abaixo, indica a adequação do tamanho da amostra. Valores entre


0,5 e 0,7 são considerados “medíocres”; valores entre 0,7 e 0,8 são “bons”; entre 0,8 e
0,9, “ótimos”; e acima de 0,9, “magníficos”. Essa análise deve ser complementada com
a observação da linha diagonal da matriz de correlações de anti-imagem, na qual todas
as variáveis devem ter valores acima de 0,5. Se alguma variável tiver valores inferiores
a 0,5 na matriz de correlações de anti-imagem, sugere-se realizar a análise excluindo-a e
ver a diferença. O restante da matriz de correlações de anti-imagem representa as
correlações parciais entre as variáveis. Para uma boa análise fatorial, é desejável que
esses valores sejam baixos. Por isso, deve-se inspecionar todos os valores da matriz de
correlações de anti-imagem.

O teste de esfericidade de Bartlett testa a hipótese nula de que a matriz de correlação


original é uma matriz de identidade. Um teste significativo (p menor que 0,05) nos
mostra que a matriz de correlações não é uma matriz de identidade, e que, portanto, há
algumas relações entre as variáveis que se espera incluir na análise.

Para esses dados o KMO acima de 0,9 e os valores acima de 0,92 para todas as variáveis
na matriz de correlações de anti-imagem indicam tamanho adequado da amostra
(procure os valores de adequação amostral para cada variável assinalados com a letra
"a" em sobrescrito na matriz de correlações de anti-imagem, não na matriz de
covariâncias de anti-imagem). Os valores da matriz de correlações de anti-imagem
mostraram baixos coeficientes, indicando baixo nível de correlações parciais. O teste de
Bartlett foi altamente significativo [ X2 (190) = 6478,514, p menor que 0,001]; portanto,
a realização da análise fatorial é apropriada.
Em seguida o SPSS mostra a tabela de comunalidades.
Para entender o conceito de comunalidade é necessário entender os conceitos de
variância comum e variância única (ou específica). A variância total de uma variável em
particular terá dois componentes na comparação com as demais variáveis: a variância
comum, na qual ela estará dividida com outras variáveis medidas e a variância única,
que é específica para essa variável. No entanto, há também variância que é específica a
uma variável, mas de forma imprecisa, não-confiável, a qual é chamada de variância
aleatória ou erro. Comunalidade é a proporção de variância comum presente numa
variável.

Para fazer a redução a dimensões, precisamos saber o quanto de variância dos nossos
dados é variância comum. Todavia, a única maneira de sabermos a extensão da
variância comum é reduzir as variáveis em dimensões.

Desse modo, na análise dos componentes principais utiliza-se a variância total e


assume-se que a comunalidade de cada variável é 1, transpondo os dados originais em
componentes lineares constituintes.
Na análise de fatores principais apenas a variância comum é usada e vários métodos de
estimação das comunalidades podem ser usados – comumente se utiliza o quadrado da
correlação múltipla de cada variável com todas as outras.

Quando os fatores são extraídos, novas comunalidades podem ser calculadas, as quais
representam a correlação múltipla entre cada variável e os fatores extraídos. Portanto,
pode-se dizer que a comunalidade é uma medida da proporção da variância explicada
pelos fatores extraídos.

Em seguida o SPSS mostra a tabela de variância total explicada, com os autovalores


("eigenvalues") correspondentes a cada fator. Para entender melhor o conceito de
autovalor você tem que ler o post de introdução à análise fatorial clicando aqui. Nessa
tabela os 20 possíveis fatores (o número máximo de variáveis) são apresentados com
seus autovalores iniciais, após extração e após rotação. Nas colunas de autovalores
iniciais são mostrados os autovalores, o percentual da variância que os fatores são
capazes de explicar, e o percentual de variância explicada acumulado em cada fator.
Nas três colunas seguintes, os valores dos fatores mantidos na análise após a extração
são apenas repetidos e os valores dos fatores excluídos são omitidos. Na última coluna
encontram-se os autovalores dos fatores após rotação. A rotação otimiza a estrutura
fatorial e, como consequência, a importância relativa dos fatores remanescentes é
equalizada.
Caso tenha sido
solicitado na análise, o gráfico de scree plot deverá ser mostrado. A explicação para a
utilização do gráfico de scree plot está aqui. Mas, para lhe ajudar, fica a dica: veja no
gráfico abaixo a existência do ponto de inflexão no fator 3. Pelo critério do scree plot, o
número de fatores a ser extraído é o número de fatores à esquerda do ponto de inflexão -
neste caso, 2 fatores.

A observação da matriz de componentes permite a visualização dos carregamentos de


cada variável para os componentes (fatores) extraídos antes da rotação. Em outras
palavras, são os coeficientes de correlação entre as variáveis e os componentes (fatores)
não-rotacionados.

A parte superior da tabela de correlações reproduzidas (reproduzida abaixo apenas


parcialmente por questão de espaço) contém os coeficientes de correlação entre cada item
(questão) baseados no modelo do componente (fator). Os valores diferem da matriz de
correlação por que eles são originários do modelo matemático empregado, não dos dados
observados. Se os dados observados tivessem um comportamento igual ao do modelo, a
matriz de coeficientes de correlações reproduzidas seriam iguais aos da matriz de coeficientes
de correlações original. A parte inferior da tabela de correlações reproduzidas traz justamente
essa diferença entre os coeficientes observados e o do modelo, os quais são denominados
resíduos. Valores de resíduo abaixo de 0,05 são desejáveis e o SPSS contabiliza a quantidade
e a porcentagem de resíduos acima de 0,05. Não há regras rígidas para o percentual máximo
de resíduos acima de 0,05, embora um percentual acima de 50% deva ser motivo de
preocupação. Para os dados estudados, o percentual de 17% de resíduos acima de 0,05 pode
ser considerado adequado.
Conforme já dissemos no post de introdução à análise fatorial, quando se compreende que a
dimensão (ou fator) é um eixo de classificação no qual as variáveis estão posicionadas,
compreende-se a também a importância de se conhecer os métodos de rotação fatorial.

No gráfico a seguir, as variáveis da base de dados analisada são posicionadas de acordo


com sua carga fatorial nos dois componentes extraídos após rotação promax.
Na rotação ortogonal, os eixos que representam os componentes (ou fatores), são
rotacionados de forma perpendicular entre si (isto é, 90°). Nos métodos de rotação
ortogonal, a intenção é que os fatores (componentes) não sejam correlacionados entre si.

Se a rotação oblíqua é escolhida (como o método promax utilizado para estes dados)
pretende-se que os fatores (no caso, componentes) obtidos sejam correlacionados entre
si. Os eixos que representam os componentes não são mais rotacionados
perpendiculares entre si, e sim por um outro ângulo θ qualquer.

Alguns autores argumentam que não existe construto psicológico que não esteja
relacionado a outro construto psicológico, e que por isso, dados obtidos em seres
humanos jamais deveriam ser submetidos a rotações ortogonais. Portanto, rotações
oblíquas como a promax e a oblimin seriam sempre preferíveis.

No SPSS, as rotações ortogonais geram apenas uma matriz fatorial. Quando se escolhe
um método de rotação oblíqua, a matriz fatorial é dividida em duas matrizes: a matriz
de padrões e a matriz de estrutura.

Em seguida, pode-se verificar a matriz de padrões e a matriz de estrutura. A matriz de


padrões contém os carregamentos das variáveis para os fatores rotacionados e é
comparável à matriz fatorial observada nas rotações ortogonais.

A matriz de estrutura leva em conta as relações entre os fatores, e é, de fato, um produto


da matriz de padrões com a matriz dos coeficientes de correlação entre os fatores. A
maioria dos pesquisadores interpreta apenas a matriz de padrões pela simplicidade.
Todavia, há situações em que alguns valores na matriz de padrões podem ser
suprimidos devido à relação existente entre os componentes. Por isso é aconselhável
verificar a matriz de estrutura após a matriz de padrões, bem como incluir as duas
matrizes nos resultados.
A matriz de correlação entre os componentes apresentada a seguir evidencia um
coeficiente de 0,640 entre os dois componentes (R2 = 0,4096). Uma confirmação de que
a rotação oblíqua foi bem escolhida e que dados obtidos por rotações ortogonais não
podem ser considerados apropriadamente utilizáveis. Se a correlação entre os
componentes fosse baixa e não houvesse relação teórica entre os construtos pretendidos,
uma solução por rotação ortogonal seria uma consideração razoável. Todavia, na
prática, é mais plausível que fatores pertencentes ao mesmo construto sejam
correlacionados, fazendo com que as rotações oblíquas sejam as preferidas nesse caso.
A matriz de coeficiente de escore do componente mostrada abaixo ajuda a entender
como cada variável se relaciona aos escores dos componentes calculados para cada
participante. É comparável às correlações item-total comumente empregadas na teoria
clássica dos testes (correlação item-escore bruto) e na teoria de resposta ao item
(correlação item-theta). Correlações item componente maiores que 0,1 são satisfatórias.

A matriz abaixo mostra a covariância entre os escores nos componentes obtidos.

Em seguida, você deve utilizar a ferramenta de análise "Reliability" do SPSS para


verificar o alfa de Cronbach dos conjuntos de variáveis correspondentes a cada
fator/componente. A análise da confiabilidade pelo método da consistência interna,
utilizando-se o coeficiente de alfa de Cronbach indicou que os dois componentes
formam duas subescalas precisas (α = 0,947 e 0,952).

Escolha a opção de estatísticas item-total. A tabela de estatísticas item-total mostra a


média e a variância da escala se o item fosse excluído, a correlação item-total corrigida,
o quadrado da correlação múltipla (usado para o cálculo da comunalidade na análise de
fatores principais) e o valor do alfa de Cronbach resultante da exclusão do item. Itens
cuja exclusão aumentam o alfa da subescala para valores maiores que o coeficiente
resultante (α = 0,952) terão correlação item-total menor que a média e prejudicam a
confiabilidade do instrumento. Consequentemente, itens cuja exclusão diminuem o alfa
para valores menores que 0,952 terão correlação item total maior que a média. Por esta
análise, o item com pior qualidade psicométrica da subescala representada pelo
componente 1 foi o item 18. Observe que é também o item com o pior valor do
quadrado do coeficiente de correlação múltipla. Portanto o item 18 seria um bom
candidato à exclusão caso houvesse uma redução muito grande do alfa ou caso a
correlação item-total fosse muito baixa (menor que 0,2), o que não é o caso.

E para finalizar a série sobre análise fatorial, um pequeno epílogo: Como escrever resumidamente
e de forma correta os resultados da sua análise fatorial.

Vou melhorar sempre que possível o texto deste post. Aguardo as sugestões de vocês.

Abraços,

Collares

Poderá também gostar de:


• Introdução à análise fatorial e análise de componentes principais
• Como descrever os resultados de sua análise fatorial
• Teoria de resposta ao item (TRI) e o ENEM (Exame Nacional do Ensino Médio) - Perguntas e
Respostas
• Análise psicométrica do teste de progresso individual (TPI) realizado pelo curso de Medicina da
Universidade Cidade de São Paulo em 2009/2
LinkWithin