Você está na página 1de 4

Aspectos relevantes do capítulo

1. A analise discriminante tem por objectivo escolher as variáveis que maximizam as


diferenças entre os grupos, de modo a que conhecendo-se as características de um
novo caso se possa prever a que grupo pertence, recorrendo para tal as funções
discriminantes lineares de Fisher.
2. Os grupos são constituídos pélas categorias da variável explicada (dependente) de
nível qualitativa, enquanto as variáveis explicativas (independentes) são quantitativas,
quando há apenas 2 grupos a analise discriminante diz-se simples, para mais de 2
grupos diz-se múltipla
3. A análise discriminante inclui as seguintes etapas: verificação dos pressupostos;
escolhas das variáveis explicativas que diferenciam os grupos; selecção do número de
funções discriminantes; identificação das variáveis que mais se correlacionam com
cada uma dessas funções; classificação dos casos; validação dos resultados e análise
da aleatoriedade das respostas omissas
4. Os pressupostos são: cada grupo é uma amostra aleatória de uma população normal
multivariada; igualdade das matrizes de variância e covariâncias para os grupos;
linearidade entre as variáveis explicativa e ausência de outliers
5. A análise discriminante é muito sensível aos outliers, pêlo que se opta frequentemente
por elimina-los ou transformar os dados antes de iniciar a análise.
6. Segundo Stevens (1986) a violação da igualdade das matrizes de variâncias e
covariância não afecta a analise discriminante desde que o grupo de menor dimensão
seja maior do que o número de variáveis e desde que as médias dos grupos não sejam
proporcionais as suas variâncias.
7. As variáveis explicativas que influenciam significativamente os grupos, identificam-
se: através dos teste Lambda de Wilks com distribuição F de Snedecor, para variáveis
cujos (P-valor < α/p); pelas variáveis sem grande multicolinearidade, obtidas através
das correlações do quadro Pooled Within-Groups, bem como nas variáveis de elevada
tolerância.
8. A tolerância e a proporção intrínseca de cada variável não explicada pélas restantes
variáveis.
9. O número de funções discriminantes, obtém-se: através do teste Lambda de Wilks
com distribuição do qui-quadrado; através do quadro Eigenvalues que mostra os
(valores próprios> 1), bem como da percentagem de variância explicada e da
correlação canónica.
10. As variáveis explicativas que influenciam significativamente cada categoria da
variável grupo são identificadas: através dos coeficientes não estandardizados das
funções discriminantes, do quadro canonical Discriminant Function Coeffcients;
através dos coeficientes estandardizados das funções discriminantes, do quadro
Standardized canonical Discriminant function coefficients e através da matriz de
estrutura, que deve ser analisada em simultâneo com a matriz das correlações.
Analise discriminantes
A analise discriminantes é uma técnica estatística multivariada, que se aplica quando a
variável endógena ou explicada é qualitativa e as variáveis exógenas ou explicativas são
quantitativas. As variáveis dicotómicas podem também ser incluídas como variáveis
explicativas.
Este procedimento tem por objectivo escolher as variáveis que se distinguem os grupos de
modo a que conhecendo-se as características de um novo caso se possa prever a que grupo
pertence.
Os grupos semelhantes tem os vectores das médias dos grupos, ou centroides, mais próximos,
aos quais correspondem os menores valores dos testes F da tabela Pairwise Group
Comparisons.

Pressupostos
Os pressupostos da análise discriminantes são:
1. Cada grupo é uma amostra aleatória de uma população normal multivariada. A análise
discriminante é robusta a violações da normalidade caso se deva apenas a não simetria
da distribuição, o que não afecta a potência do teste, se a violação se dever a
distribuição não ser mesocurtica, ou de forma ainda mais acentuada se for platicurtica,
deve optar-se pela regressão logística, binaria ou multinominal. Segundo Tabachnick
and Fidell (2001:462), a robustez a violação da normalidade multivariada esta
assegurada quando os grupos tem dimensões semelhantes de pelo menos 20
elementos. A verificação da normalidade das distribuições recorre a analise dos
resíduos não estandardizados, obtidos no General Linear Model, aos quias se aplicam
os testes e gráficos dos desvios a normalidade, bem como o estudo da simetria e do
achatamento. A violação pode levar a decisões incorrectas principalmente quando as
amostras são pequenas e tem dimensões, situação em que se pode optar pela
transformação de uma ou mais variáveis explicativas.
2. As matrizes de variância e covariância são iguais para todos os grupos, ou seja os
grupos tem variabilidades semelhantes. A verificação deste pressuposto faz-se através
do teste M de Box. A violação da igualdade das matrizes de variâncias e covariância
afecta sobretudo o nível de significância, ou erro tipo I, em grupos que não tem iguais
dimensão, mesmo que as diferenças sejam moderadas
3. Em cada grupo, existe uma relação linear entre todos os pares de variáveis
explicativas. A violação do pressuposto da linearidade reduz apenas a potência do
teste, pois diminui a confiança com que se aceita Ha, sem aumentar o erro tipo I
4. A análise discriminante pressupõe a inexistência de elevada multicolinearidade entre
as variáveis explicativas

Selecção das variáveis explicativas


A selecção das variáveis métricas para a diferenciação dos grupos, faz-se através das
funções discriminantes (Yp), que a semelhança do MRLM, são combinações lineares
das variáveis explicativas:
Y =α+β 1 x1 +.. . .. . β p x p , onde os parâmetros estimados são α , β a constante e os
coeficientes das variáveis explicativas.
O teste Lambda de Wilks ( ¿ ) com distribuição F de Snedecor informa sobre o
efeito das variáveis explicativas na diferenciação dos grupos, sendo robustas as
violações da igualdade das matrizes das variâncias/covariaveis quando os grupos tem
dimensão semelhante, isto é, quando (n maior grupo/ n menor grupo) < 1.96, para p-
valor=0.05.
Este teste obtém-se péla divisão entre a variação não explicada e a variação total, cujo
resultado varia entre 0 e 1, onde os pequenos valores indicam grandes diferencias
entre os grupos, enquanto os valores elevados indicam não haver diferenças. As
hipóteses são:
H 0 : μ1 i=μ2 i=. .. .=μ ki , as medias da variáveis explicativas i são iguais em todo
os grupos.
Ha:∃μ i≠μ j com i,j =1,….p, existe pelo menos um grupo com media diferente
dos restantes.
A rejeição de H0 para a variável i indica o poder dessa variável na discriminação entre
os grupos.
As correlações entre as variáveis explicativas obtidas na Pooled Within-groups
Matrice, permitem avaliar o grau de associação linear entre as variáveis e detectar a
presença de multicolinearidade.
Uma correlação positiva significa que, em media, valores elevados de uma variável
estão associados a valores elevados da outra. Quando a correlação é negativa,
significa que, em media, valores elevados numa variável estão associados a valores
baixos na outra.
No IBM-SPSS existem 3 procedimentos para a seleccionar as variáveis explicativas:
Enter independentes together; sequencial; Stepwise method.
Segundo Tabachnick and Fidell (2001:493), o IBM-SPSS resolve a
multicolinearidade atraves do Stepwise method, excluindo automaticamente as
variáveis cujo tolerância é insuficiente.

Número de funções discriminantes


O número das funções discriminantes (Dj) iguala o mínimo entre (g-1;p), onde g é o
número de grupos e p é o número de variáveis.
As funções discriminantes são combinações lineares das variáveis exógenas Xp,
dadas pela expressão: iD =w x +. . .. ..+w
i1 1 ip , com i=1,2…,Min (g-1;p).
Os coeficientes Wip são estimados de modo a maximizar a variação entre os grupos e
a minimizar a variação dentro de cada grupo, com a restrição Cov(Di,Dj)=0.
Quanto maior for Wip maior sera a contribuição relativa da variável na discriminação
dos grupos
O teste lambda de wilks com distribuição do Qui-quadrado permite avaliar a
significância das funções discriminantes, cujas hipóteses são:
H0: nenhuma das funções é relevante para discriminar as categorias da variável grupo
Ha: pélo menos a primeira função é significativa
Os valores próprios são o quociente da variação entre os grupos péla variação dentro
dos grupos e quanto mais elevado for o seu valor maior será a variação explicada péla
função discriminante.
Variáveis explicadas por cada função discriminante retida
A matriz de estrutura avalia a contribuição de cada variável na discriminação entre os grupos,
péla correlação existente entre cada variável e a função discriminante, realçando com um
asterisco as variáveis mais importante por funções. Quanto maiores forem os seus
coeficientes em valor absoluto, mais a função discriminante detém a informação contida
nessas variáveis.
Se duas variáveis tiverem uma elevada correlação então ambas devem pertencer a mesma
função discriminantes. Na eventualidade de uma delas estar marcada com asterisco na 1º
função, por ter ai maior score, e a outra com score elevado noutra função, a sua interpretação
terá de ser feita apenas na 1º função, não so por dificuldades em conhecer a parte referente a
cada uma, mas também porque as funções estão descritas por ordem decrescente da sua
importância.

Resumindo os pressupostos
1. Resumo de processamento de casos de análise, nos informa as estatísticas descritivas
ou seja a percentagem validos, casos omissos ou fora do intervalo.
2. Estatísticas de grupos apresentam em cada grupo a media, os desvios padrões e o
número de elementos de cada variável explicada.
Teste de igualdade de médias de grupos, o teste lambda de wilks com distribuição F
de Snedecor sobre o efeito das variaveis explicativas na diferenciação dos grupos as
hipótese são:
H : μ =μ =. .. .=μ ki
0 1i 2i , as médias das variáveis explicativas i são
iguais em todos os grupos.
Ha:∃μ i≠μ j com i,j =1,….p, existe pelo menos um grupo com media diferente
dos restantes.
3. Os residios devem ser normalmente distribuídos, ou seja os residios não padronizados
devem ser normalmente distribuídos (podemos fazer a partir de modelo linear geral)
4. A matrizes dentro de grupos em pool mostra as correlações entre as variáveis.
5. As variaveis em analise é importante pelo método de Stepwise, esse método elimina
as variaveis com excesso de colineralidade.
6. Resumo de funções discriminantes canónicas rete-se funções discriminante cujo
valores próprios são superiores a 1 e fazendo uma variabilidade total acumulado 60%

Você também pode gostar