Escolar Documentos
Profissional Documentos
Cultura Documentos
INTRODUÇÃO
Quando não podemos pressupor homocedasticidade, é razoável admitir que as variâncias sejam
proporcionais, sendo ωi os pesos, através do método de mínimos quadrados ponderados. Situações em
que é razoável utilizar MMQ ponderados:
1) Se as observações fossem, na verdade, médias de amostras de n observações com variância σ2,
nesse caso Var = σ2/n
2) Se o padrão não constante da variância possa ser descrito por alguma função de uma ou mais
covariáveis (pesos são ωi = 1/ xij).
3) Se as observações estiverem sujeitas a erros de medida que podem assumir diferentes distribuições
(ex. 3 equipamentos diferentes)
No R, incorporamos pesos por meio do argumento weights da função lm.
2) Propriedades:
Assim, a variância pode ser fatorada em dois componentes:
O primeiro a(φ) está associado exclusivamente à dispersão de y (não à sua média)
O segundo, usualmente denotado por V(µi) = b’’(θi), chamado de função de variância, é função da
média da distribuição e exprime a relação de média-variância de y.
Quais variáveis explicativas devem ser consideradas? Como elas serão incorporadas ao modelo?
(avaliar a necessidade de escalonar, transformar, categorizar ou incluir potências de variáveis
numéricas e necessidade de incluir efeitos de interação).
3) Função de ligação: função real, monótona e diferenciável, que “liga” o componente aleatório ao
sistemático. Tem o papel de linearizar a relação entre os componentes aleatório e sistemático do
modelo, deve produzir valores no espaço paramétrico (para µi) para qualquer valor produzido por ηi.
Apresentar propriedades estatísticas e computacionais desejadas. Proporcionar interpretações
práticas para os parâmetros de regressão β.
Função de ligação canônica: transforma a média no parâmetro canônico, que garante algumas
simplificações e propriedades desejadas no processo de ajuste do modelo.
ESTIMAÇÃO EM MODELOS LINEARES GENERALIZADOS
Em que (X’WX)-1 é a matriz informação de Fisher (ou de informação esperada); X é a matriz do modelo;
W é a matriz diagonal com os pesos:
A estimação dos parâmetros de um GLM pelo método da máxima verossimilhança requer a resolução
de um sistema de equações não lineares dos β’s. Assim, precisamos utilizar métodos iterativos:
2) Newton-Raphson: tem um valor inicial como primeira aproximação, em seguida uma aproximação é
obtida na vizinhança do valor inicial, por um polinômio de segundo grau (série de Taylor). Após a
repetição de uma sequência de aproximações o processo converge para o máximo (quando as
mudanças em β sejam suficientemente pequenas) se a função é bem comportada e a aproximação
inicial é boa.
3) Score de Fisher: utiliza o valor esperado da matriz Hessiana (informação esperada), enquanto o
método de Newton usa a própria Hessiana (informação observada). Para GLMs com função de
ligação canônica, ambas as matrizes são equivalentes.
4) Máxima Verossimilhança por Fisher x MMQ Ponderados: existe uma relação entre os dois métodos
que faz com que apenas precisemos de recursos computacionais que produzam estimativas de
MMQP. *********************(não entendi direito essa parte)
5) Estimação em GLM: com a obtenção dos estimadores, o ajuste pode ser apresentado na escala do
preditor ou na escala da média.
7) Robustez dos GLMs quanto à especificação incorreta do modelo: os estimadores dos parâmetros de
GLMS são consistentes ainda que a distribuição especificada esteja incorreta, mas desde que a
especificação do preditor linear e da função de ligação esteja correta.
Entretanto, ao assumir uma distribuição incorreta, a função de variância também está errada,
gerando resultados incorretos.
Os GLMs podem ter interesse exploratório (com hipóteses ou inferências sobre os parâmetros) ou
preditivo (só interessam os resultados).
Os modelos podem ser restritos (parâmetros restritos à H0) ou irrestritos (parâmetros livres).
*********************(não entendi direito essa parte)
Sendo S(β0chapéu) e Var(β0chapéu) a função escore e a matriz de variâncias avaliadas sob o modelo
restrito. Seguindo distribuição assintótica χ2 com q graus de liberdade, sendo q o número de
parâmetros fixados em H0.
ANÁLISE DE DEVIANCE
Deviance escalonada: é a deviance em que os θ’s comparados são referentes aos modelos saturado
e proposto.
Deviance residual: caso mais geral, quando a(φ) = φ, quanto pior o ajuste do modelo, maior a
Deviance
SELEÇÃO DE COVARIÁVEIS
Objetivo: identificação de um modelo parcimonioso, simples, com reduzido número de parâmetros, mas
capaz de ajustar satisfatoriamente os dados. Quando o problema envolve um número pequeno de
covariáveis, podemos usar a análise de deviances, com base em resultados de testes de hipóteses. Para
casos com maior número de covariáveis deve-se utilizar algum algoritmo de seleção. Em qualquer uma
das situações é recomendável analisar primeiramente o efeito marginal de cada covariável.
1) Critérios de informação: modelos especificados com diferentes distribuições podem ter seus ajustes
comparados usando medidas de informação.
Akaike: importante medida para avaliar a qualidade do ajuste de modelos que penaliza a complexidade
do modelo (número de parâmetros). AIC = -2l + 2p, onde l é a log-verossimilhança maximizada.
Queremos um modelo que produza o menor AIC.
BIC: penaliza mais fortemente modelos mais complexos para maiores tamanhos de amostras. BIC = -2l +
ln(n)*p.
2) Algoritmos de seleção: Forward (inicia pelo modelo nulo e vai incluindo as variáveis), backward
(inicia pelo modelo mais complexo e vai retirando as variáveis) e setpwise (inicia pelo modelo mais
complexo, mas pode incluir variáveis no processo).
DIAGNÓSTICO DO AJUSTE
1) Resíduo de Pearson:
Versão padronizada com
Caso geral Para GLM Poisson Para GLM Binomial
média 0 e variância ~ 1
Os resíduos de Pearson e componente de deviance não tem uma boa aproximação com a distribuição
Normal, ainda que o modelo ajustado esteja correto, por isso a avaliação requer a utilização de
envelopes simulados.
4) Resíduo Quantílico Aleatorizado: tem distribuição normal por construção, caso o modelo ajustado
esteja correto. Baseia-se no método da transformação integral de probabilidade. Se o modelo
estiver especificado corretamente, tem distribuição N(0,1).
6) Diagnóstico de influência: identificar pontos que exercem grande influência sobre o ajuste do
modelo. A estratégia adotada é do tipo leave-one-out, que avalia o quanto os resultados dos
modelos mudam ao desconsiderar uma particular observação.
As principais medidas que fazem uso da estratégia são: resíduos studentizados, DFBetas (avalia a
mudança em coeficientes individualmente) e Distância de Cook (avalia a mudança global no ajuste
do modelo).
Gráficos meio Normais com envelopes simulados: podem ser apropriados para checagem de
observações influentes;
Gráfico de valores ajustados x índice de observação: é importante para a avaliação comparativa dos
resultados.
7) Multicolinearidade: quase dependência linear entre as colunas o que produz estimativas bastante
instáveis e conclusões comprometidas. Assim como em regressão linear, pode ser feita uma
avaliação preliminar da matriz de correlações. Uma verificação mais formal baseia-se no cálculo do
VIF: