Você está na página 1de 10

17/02/2020 Blog do C.F.C.

: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

mais Criar um blog Login

Blog do C.F.C.
Traduzindo conceitos espinhosos.

Autoeficácia nas palavras do próprio Albert Bandura

Este artigo traduzido faz parte dos meus estudos de doutorado. Ele fornece um referencial teórico importante para estudantes e professores...

sexta-feira, 21 de janeiro de 2011

Interpretação dos resultados gerados pelo SPSS Quem sou eu

Carlos Fernando Collares


para análise fatorial / análise de componentes Maastricht, Netherlands
principais Médico, psicometrista, educador.
Visualizar meu perfil completo
Se você não leu o post de introdução à análise fatorial, estará perdendo metade da
história. Leia-o aqui.
Curriculum Vitae (Lattes)

http://lattes.cnpq.br/1443948196407242

Abaixo, você pode ver a estatística descritiva com a média e desvio padrão dos Pesquisar este blog

itens. Você pode pedir para o SPSS realizar o cálculo da assimetria (skewness) e Pesquisar
da curtose. Valores muito diferentes de zero nessas características certamente
serão um sinal de não-normalidade da variável. Teste isso com os testes de Postagens populares

Kolmogorov-Smirnov e de Shapiro-Wilk - valores de p menores que 0,05 indicarão O que quer dizer o F na análise de
variância (ANOVA)
uma diferença estatisticamente significativa da curva normal esperada.
Pense em um teste t. No teste t,
testa-se a hipótese de que as duas
amostras têm a mesma média. De
forma similar, a análise de variância
...

Testes post-hoc para análise de variância (ANOVA):


um tutorial básico
Sugiro ao leitor novato do blog que antes de
prosseguir neste post que dê uma lida na minha
análise crítica sobre o uso do p nos testes de ...

Interpretação dos resultados gerados


pelo SPSS para análise fatorial /
análise de componentes principais
Se você não leu o post de introdução
à análise fatorial, estará perdendo
metade da história. Leia-o aqui .
Abaixo, você pode ver a estatís...

O que diferencia uma análise fatorial exploratoria de


uma confirmatória
A análise fatorial exploratória analisa o padrão de
correlações existentes entre as variáveis e utiliza
esses padrões de correlações para a...

O que é e pra que serve a análise


multinível?
Da mesma forma que a modelagem
de equações estruturais , a análise de
regressão multinível tem, na prática,
diversos sinônimos na lite...

Introdução à análise fatorial e análise


de componentes principais
Análise fatorial, pra quem não lembra
ou não sabe, é uma técnica para se
reduzir o número de variáveis de uma
base de dados, identificando ...

A matriz de correlação dos itens seguida da significância unicaudal é mostrada Sobre o valor de p... Significa?
Significa...
parcialmente abaixo, por motivos de espaço.
O Ronnie Von tem uma longa história
artística no Brasil. Contudo, boa parte
de sua fama contemporânea se deve
a este vídeo no Youtube: ...

Autoeficácia nas palavras do próprio Albert Bandura

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 1/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais
Este artigo traduzido faz parte dos meus estudos de
doutorado. Ele fornece um referencial teórico
importante para estudantes e professores...

Gostaria de saber a diferença das correlações de


Spearman e Kandall? Quando posso usar uma ou
outra? Além disso, se tenho dados com distribuição
normal e dados que não apresentam distribuição
normal, posso fazer algum tipo de correlação?
Dentre os tipos de correlações utilizadas destaca-se
a clássica correlação de Pearson (entre duas
variáveis contínuas), que é um teste para...

Minha tese de doutorado, finalmente


Após um longo e difícil processo de
realização, redação e correção,
devido às dificuldades inerentes ao
fato de estar morando em outro pa...

Follow by Email

Email address... Submit

Arquivo do blog


► 2016 (2)

► 2015 (1)

► 2014 (4)

► 2013 (2)

► 2012 (16)
O valor do determinante foi menor que 0,00001. Isto pode suscitar as hipóteses de

▼ 2011 (37)
que a matriz de correlações apresenta multicolinearidade ou singularidade, ou seja: ►
► Novembro (1)
variáveis excessivamente ou perfeitamente correlacionadas, respectivamente. O ►
► Outubro (6)
exame da matriz não revela variáveis com coeficientes maiores que 0,9. Mesmo ►
► Setembro (3)

assim, é interessante realizar o teste de significância de Haitovsky (não realizado ►


► Agosto (4)

► Junho (1)
pelo SPSS) para avaliar se o determinante é diferente de zero, ou seja, se a matriz

► Maio (3)
é singular. Se o teste for significante, sabe-se que a matriz de correlação é

► Abril (1)
siginificativamente diferente de uma matriz singular, o que demonstraria não haver

► Fevereiro (8)
multicolinearidade grave.

▼ Janeiro (10)
O MELHOR LIVRO A SER LIDO
O teste de Haitovsky é dado pela seguinte fórmula:
So mto encanado com a lei seca, e quero saber
quan...
O que é análise fatorial?
Você pode me explicar uadaréu é essa TRI que
tanto...
Como descrever os resultados de sua análise
fatori...
Interpretação dos resultados gerados pelo SPSS
par...
Introdução à análise fatorial e análise de
compone...
Onde p é o número de variáveis, N é o total de participantes da amostra, R é o
Teoria de resposta ao item (TRI) e o ENEM
determinante e ln é o logaritmo natural. O resultado do teste tem distribuição qui- (Exame N...
Quando suspeitar de lesão hepática por Amanita?
quadrática com p(p – 1)/2 graus de liberdade. Calculando-se para a matriz em Qu...
análise temos: Quanto tempo devo esperar para dirigir depois de
b...


► 2010 (44)

► 2009 (20)

Seguidores

Seguidores (64) Próxima

Sabendo que os graus de liberdade são dados pela fórmula p(p – 1)/2, então gl =
Seguir
20(20 – 1)/2 = 20 * 19 / 2 = 380 / 2 = 190. Como os valores críticos do qui-
quadrado para p menor que 0,05 com 100 e 200 graus de liberdade são,
Visualizações do blog
respectivamente, 124,34 e 233,99. O valor do qui-quadrado encontrado foi bem
menor que esses valores, indicando não significância, ou seja, o determinante da 562,548
carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 2/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais
Faça uma doação de qualquer valor para o autor deste
matriz não é significativamente diferente de zero, e portanto há uma possibilidade blog no botão abaixo.
grande de multicolinearidade nesses dados, embora a inspeção da matriz de
correlações não tenha mostrado coeficientes com valores elevados. Como a
multicolinearidade não é um problema tão grave na análise fatorial quanto é na
regressão, vamos conceder o benefício da dúvida e realizar a análise mesmo
assim.

Uma opção na análise é utilizar a matriz de covariâncias, a qual poderia levar a um


determinante maior que zero, ou mesmo uma estrutura fatorial diferente, por ser
mais sensível à variações na dispersão das variáveis, algo que os coeficientes de
correlação não consegue detectar, pois, por definição, estes medem apenas o grau
de linearidade entre as variáveis, e consequentemente “escondem” a variabilidade
na dispersão dos dados.

Em seguida, o SPSS mostra o inverso da matriz de correlações (“inverse of

correlation matrix”, R-1), mostrado abaixo, o qual é multiplicado pela matriz de


carregamento fatorial (“factor loadings matrix”) para obter a matriz de coeficientes
de escore fatorial (“matrix of factor score coefficients”), vista mais adiante.

O KMO, mostrado abaixo, indica a adequação do tamanho da amostra. Valores


entre 0,5 e 0,7 são considerados “medíocres”; valores entre 0,7 e 0,8 são “bons”;
entre 0,8 e 0,9, “ótimos”; e acima de 0,9, “magníficos”. Essa análise deve ser
complementada com a observação da linha diagonal da matriz de correlações de
anti-imagem, na qual todas as variáveis devem ter valores acima de 0,5. Se
alguma variável tiver valores inferiores a 0,5 na matriz de correlações de anti-
imagem, sugere-se realizar a análise excluindo-a e ver a diferença. O restante da
matriz de correlações de anti-imagem representa as correlações parciais entre as
variáveis. Para uma boa análise fatorial, é desejável que esses valores sejam
baixos. Por isso, deve-se inspecionar todos os valores da matriz de correlações de
anti-imagem.

O teste de esfericidade de Bartlett testa a hipótese nula de que a matriz de


correlação original é uma matriz de identidade. Um teste significativo (p menor que
0,05) nos mostra que a matriz de correlações não é uma matriz de identidade, e
que, portanto, há algumas relações entre as variáveis que se espera incluir na
análise.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 3/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

Para esses dados o KMO acima de 0,9 e os valores acima de 0,92 para todas as
variáveis na matriz de correlações de anti-imagem indicam tamanho adequado da
amostra (procure os valores de adequação amostral para cada variável
assinalados com a letra "a" em sobrescrito na matriz de correlações de anti-
imagem, não na matriz de covariâncias de anti-imagem). Os valores da matriz de
correlações de anti-imagem mostraram baixos coeficientes, indicando baixo nível

de correlações parciais. O teste de Bartlett foi altamente significativo [ X2 (190) =


6478,514, p menor que 0,001]; portanto, a realização da análise fatorial é
apropriada.

Em seguida o SPSS mostra a tabela de comunalidades.

Para entender o conceito de comunalidade é necessário entender os conceitos de


variância comum e variância única (ou específica). A variância total de uma
variável em particular terá dois componentes na comparação com as demais
variáveis: a variância comum, na qual ela estará dividida com outras variáveis

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 4/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

medidas e a variância única, que é específica para essa variável. No entanto, há


também variância que é específica a uma variável, mas de forma imprecisa, não-
confiável, a qual é chamada de variância aleatória ou erro. Comunalidade é a
proporção de variância comum presente numa variável.

Para fazer a redução a dimensões, precisamos saber o quanto de variância dos


nossos dados é variância comum. Todavia, a única maneira de sabermos a
extensão da variância comum é reduzir as variáveis em dimensões.

Desse modo, na análise dos componentes principais utiliza-se a variância total e


assume-se que a comunalidade de cada variável é 1, transpondo os dados
originais em componentes lineares constituintes.

Na análise de fatores principais apenas a variância comum é usada e vários


métodos de estimação das comunalidades podem ser usados – comumente se
utiliza o quadrado da correlação múltipla de cada variável com todas as outras.

Quando os fatores são extraídos, novas comunalidades podem ser calculadas, as


quais representam a correlação múltipla entre cada variável e os fatores extraídos.
Portanto, pode-se dizer que a comunalidade é uma medida da proporção da
variância explicada pelos fatores extraídos.

Em seguida o SPSS mostra a tabela de variância total explicada, com os


autovalores ("eigenvalues") correspondentes a cada fator. Para entender melhor o
conceito de autovalor você tem que ler o post de introdução à análise fatorial
clicando aqui. Nessa tabela os 20 possíveis fatores (o número máximo de
variáveis) são apresentados com seus autovalores iniciais, após extração e após
rotação. Nas colunas de autovalores iniciais são mostrados os autovalores, o
percentual da variância que os fatores são capazes de explicar, e o percentual de
variância explicada acumulado em cada fator. Nas três colunas seguintes, os
valores dos fatores mantidos na análise após a extração são apenas repetidos e os
valores dos fatores excluídos são omitidos. Na última coluna encontram-se os
autovalores dos fatores após rotação. A rotação otimiza a estrutura fatorial e, como
consequência, a importância relativa dos fatores remanescentes é equalizada.

Caso tenha sido solicitado na análise, o gráfico de scree plot deverá ser mostrado.
A explicação para a utilização do gráfico de scree plot está aqui. Mas, para lhe
ajudar, fica a dica: veja no gráfico abaixo a existência do ponto de inflexão no fator
3. Pelo critério do scree plot, o número de fatores a ser extraído é o número de
fatores à esquerda do ponto de inflexão - neste caso, 2 fatores.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 5/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

A observação da matriz de componentes permite a visualização dos


carregamentos de cada variável para os componentes (fatores) extraídos antes da
rotação. Em outras palavras, são os coeficientes de correlação entre as variáveis e
os componentes (fatores) não-rotacionados.

A parte superior da tabela de correlações reproduzidas (reproduzida abaixo apenas


parcialmente por questão de espaço) contém os coeficientes de correlação entre
cada item (questão) baseados no modelo do componente (fator). Os valores
diferem da matriz de correlação por que eles são originários do modelo matemático
empregado, não dos dados observados. Se os dados observados tivessem um
comportamento igual ao do modelo, a matriz de coeficientes de correlações
reproduzidas seriam iguais aos da matriz de coeficientes de correlações original. A
parte inferior da tabela de correlações reproduzidas traz justamente essa diferença
entre os coeficientes observados e o do modelo, os quais são denominados
resíduos. Valores de resíduo abaixo de 0,05 são desejáveis e o SPSS contabiliza a
quantidade e a porcentagem de resíduos acima de 0,05. Não há regras rígidas
para o percentual máximo de resíduos acima de 0,05, embora um percentual
acima de 50% deva ser motivo de preocupação. Para os dados estudados, o
percentual de 17% de resíduos acima de 0,05 pode ser considerado adequado.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 6/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

Conforme já dissemos no post de introdução à análise fatorial, quando se


compreende que a dimensão (ou fator) é um eixo de classificação no qual as
variáveis estão posicionadas, compreende-se a também a importância de se
conhecer os métodos de rotação fatorial.

No gráfico a seguir, as variáveis da base de dados analisada são posicionadas de


acordo com sua carga fatorial nos dois componentes extraídos após rotação
promax.

Na rotação ortogonal, os eixos que representam os componentes (ou fatores), são


rotacionados de forma perpendicular entre si (isto é, 90°). Nos métodos de rotação
ortogonal, a intenção é que os fatores (componentes) não sejam correlacionados
entre si.

Se a rotação oblíqua é escolhida (como o método promax utilizado para estes


dados) pretende-se que os fatores (no caso, componentes) obtidos sejam
correlacionados entre si. Os eixos que representam os componentes não são mais
rotacionados perpendiculares entre si, e sim por um outro ângulo θ qualquer.

Alguns autores argumentam que não existe construto psicológico que não esteja
relacionado a outro construto psicológico, e que por isso, dados obtidos em seres
humanos jamais deveriam ser submetidos a rotações ortogonais. Portanto,
rotações oblíquas como a promax e a oblimin seriam sempre preferíveis.

No SPSS, as rotações ortogonais geram apenas uma matriz fatorial. Quando se


escolhe um método de rotação oblíqua, a matriz fatorial é dividida em duas
matrizes: a matriz de padrões e a matriz de estrutura.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 7/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

Em seguida, pode-se verificar a matriz de padrões e a matriz de estrutura. A matriz


de padrões contém os carregamentos das variáveis para os fatores rotacionados e
é comparável à matriz fatorial observada nas rotações ortogonais.

A matriz de estrutura leva em conta as relações entre os fatores, e é, de fato, um


produto da matriz de padrões com a matriz dos coeficientes de correlação entre os
fatores. A maioria dos pesquisadores interpreta apenas a matriz de padrões pela
simplicidade. Todavia, há situações em que alguns valores na matriz de padrões
podem ser suprimidos devido à relação existente entre os componentes. Por isso é
aconselhável verificar a matriz de estrutura após a matriz de padrões, bem como
incluir as duas matrizes nos resultados.

A matriz de correlação entre os componentes apresentada a seguir evidencia um

coeficiente de 0,640 entre os dois componentes (R2 = 0,4096). Uma confirmação


de que a rotação oblíqua foi bem escolhida e que dados obtidos por rotações
ortogonais não podem ser considerados apropriadamente utilizáveis. Se a
correlação entre os componentes fosse baixa e não houvesse relação teórica entre
os construtos pretendidos, uma solução por rotação ortogonal seria uma
consideração razoável. Todavia, na prática, é mais plausível que fatores
pertencentes ao mesmo construto sejam correlacionados, fazendo com que as
rotações oblíquas sejam as preferidas nesse caso.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 8/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

A matriz de coeficiente de escore do componente mostrada abaixo ajuda a


entender como cada variável se relaciona aos escores dos componentes
calculados para cada participante. É comparável às correlações item-total
comumente empregadas na teoria clássica dos testes (correlação item-escore
bruto) e na teoria de resposta ao item (correlação item-theta). Correlações item
componente maiores que 0,1 são satisfatórias.

A matriz abaixo mostra a covariância entre os escores nos componentes obtidos.

Em seguida, você deve utilizar a ferramenta de análise "Reliability" do SPSS para


verificar o alfa de Cronbach dos conjuntos de variáveis correspondentes a cada
fator/componente. A análise da confiabilidade pelo método da consistência interna,
utilizando-se o coeficiente de alfa de Cronbach indicou que os dois componentes
formam duas subescalas precisas (α = 0,947 e 0,952).

Escolha a opção de estatísticas item-total. A tabela de estatísticas item-total mostra


a média e a variância da escala se o item fosse excluído, a correlação item-total
corrigida, o quadrado da correlação múltipla (usado para o cálculo da
comunalidade na análise de fatores principais) e o valor do alfa de Cronbach
resultante da exclusão do item. Itens cuja exclusão aumentam o alfa da subescala
para valores maiores que o coeficiente resultante (α = 0,952) terão correlação item-
total menor que a média e prejudicam a confiabilidade do instrumento.
Consequentemente, itens cuja exclusão diminuem o alfa para valores menores que
0,952 terão correlação item total maior que a média. Por esta análise, o item com

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 9/10
17/02/2020 Blog do C.F.C.: Interpretação dos resultados gerados pelo SPSS para análise fatorial / análise de componentes principais

pior qualidade psicométrica da subescala representada pelo componente 1 foi o


item 18. Observe que é também o item com o pior valor do quadrado do coeficiente
de correlação múltipla. Portanto o item 18 seria um bom candidato à exclusão caso
houvesse uma redução muito grande do alfa ou caso a correlação item-total fosse
muito baixa (menor que 0,2), o que não é o caso.

E para finalizar a série sobre análise fatorial, um pequeno epílogo: Como escrever
resumidamente e de forma correta os resultados da sua análise fatorial.

Vou melhorar sempre que possível o texto deste post. Aguardo as sugestões de
vocês.

Abraços,

Collares

Poderá também gostar de:

Introdução à O que é e pra que Como descrever os O que eu não


análise fatorial e serve a análise resultados de sua consigo entender é
análise de multinível? análise fatorial como que redações
componentes ... em ...

Linkwithin

Postado por Carlos Fernando Collares às 13:04

Marcadores: análise de componentes principais, análise fatorial, anti-imagem, autovalor,


autovetor, correlações, eigenvalue, haitovsky, kaiser-meyer-olkin, multicolinearidade, passo-a-
passo, spss, tutorial

Postagem mais recente Página inicial Postagem mais antiga

Tema Simples. Tecnologia do Blogger.

carloscollares.blogspot.com/2011/01/interpretacao-dos-resultados-gerados.html 10/10

Você também pode gostar