Você está na página 1de 23

FUNDAMENTOS EM MODELOS LINEARES

PRELIMINARES

1 / 23
FUNDAMENTOS EM MODELOS LINEARES
As Análises Estatı́sticas tem como objetivos gerais:

Descrever/resumir informações acerca de populações:


aplicável a dados de populações ou de amostras.

Inferir resultados baseados em amostras/experimentos para


populações.

Inferências podem ser do tipo estimação de causa-e-efeito ou


estudo e associações/relações/previsões.

Qualquer inferência deve ser acompanhada de alguma medida de


margem de erro ou confiabilidade e, o tipo de inferência depende
de como a coleta de dados foi realizada.
2 / 23
Tipos de estudos:

1. Observacionais: dados coletados por amostragem da


população sem intervenção do pesquisador. Mas, atenção,
precisa de planejamento para evitar vieses e permitir aplicação
dos métodos estatı́sticos. A inferência possı́vel é estudo de
associações/relações/previsões.

2. Experimentais: bem controlados, as entidades objeto de


estudo sofrem intervenção deliberada do pesquisador. Precisa
de planejamento e quando bem realizado permite inferência
de causa-e-efeito.

3 / 23
FUNDAMENTOS EM MODELOS LINEARES
Modelos Estatı́sticos:

Uma equação que descreve os possı́veis impactos de variáveis


explanatórias sobre uma variável resposta de interesse.

Associada à equação temos a distribuição de probabilidade, que


acreditamos estar gerando o processo, responsável pela
variabilidade aleatória presente nas observações da resposta.

Modelo Linear significa que a equação é linear com respeito aos


parâmetros. Parâmetros são as constantes desconhecidas
envolvidas no modelo.
4 / 23
Modelo 1: O modelo mais simples:

Yi = µ + ϵi i = 1, 2, · · · , n. (1)

Nesse modelo temos duas partes, uma fixa e uma aleatória que são
aditivas. Mas, qual o modelo para a parte aleatória? Precisamos,
pelo menos, assumir uma estrutura para média e variância de ϵi .
As suposições imediatas:

E(ϵi ) = 0 V(ϵi ) = σ 2 Cov(ϵi , ϵi′ ) = 0.

Disto, temos os resultados:

E(Yi ) = µ V(Yi ) = σ 2 Cov(Yi , Yi′ ) = 0.

Modelo homocedástico com observações não correlacionadas.


5 / 23
Então, o modelo mais simples tem dois parâmetros, µ e σ 2 , que
podem ser estimados via coleta de dados de Y , a única variável
que é observável. A variável ϵi , conhecida como erro aleatório, não
é observável ou mensurável, ela é dita ser latente.

A aleatoriedade do erro depende do planejamento de coleta, ou


seja, erros sistemáticos não estão contemplados e, nesse caso em
particular, o modelo está associado à amostragem aleatória
simples.

6 / 23
Uma possı́vel representação gráfica dos dados é
12

11

10
y

Figura 1: Dados/realizações de um modelo aditivo de uma média.

7 / 23
Com os dados de Y em mãos, podemos estimar os dois parâmetros
do modelo. A Estatı́stica Básica diz que o estimador de µ é
n
1X
Ȳ = Yi ,
n
i=1

obtido por senso comum, métodos dos momentos, método de


mı́nimos quadrados dos erros e método de máxima verossimilhança
(sob normalidade dos erros).

Tal estimador tem duas propriedades desejadas:

1. ele é não viciado, ou seja E(Ȳ ) = µ,


σ2
2. sua variância, V(Ȳ ) = n , converge pra zero quando n → ∞.

Em outras palavras, Ȳ é consistente.


8 / 23
Já o estimador de σ 2 é
n
1 X
S2 = (Yi − Ȳ )2 .
n−1
i=1

Este estimador não é originado nem pelo método dos momentos e


nem por máxima verossimilhança (sob normalidade). Ambos os
métodos resultam no estimador dado por:
n
2 1X
σ̂ = (Yi − Ȳ )2 ,
n
i=1

mas σ̂ 2 não tem a propriedade desejada de não tendenciosidade.


Felizmente, o vı́cio depende só de n e é facilmente corrigido,
resultando na expressão de S 2 dada acima. Assim, S 2 também é
consistente para σ 2 .
9 / 23
Na maioria dos estudos, o parâmetro σ 2 não é de interesse central,
é um parâmetro nuisance, de perturbação, mas de essencial
estimação, pois dele depende a precisão dos estimadores dos
parâmetros que são de interesse central.

No caso do modelo de uma média, o erro padrão do estimador Ȳ é


√σ e σ precisa ser estimado, o que vai nos dar o estimador do erro
n
padrão de Ȳ :
S
√ .
n

10 / 23
Exemplo: Seja Y a massa de indivı́duos adultos de certa raça de
gatos (em kg) e deseja-se estimar essa massa, em média. Uma
amostra aleatória de n = 20 forneceu os valores:

7.9 9.9 9.9 8.5 10.9 9.1 9.5 11.5 11.2 10.1
9.9 9.1 9.4 9.3 10.4 11.0 9.4 8.2 10.0 10.2

1. Obter a estimativa e seu erro padrão.

2. Informar sobre o parâmetro utilizando um intervalo de


confiança a 95% (IC(µ; 95%)).

3. Os dados fornecem evidências de que a massa média


populacional é diferente de 10kg?

11 / 23
Para responder, invocamos o Teorema Central do Limite que diz:

σ2
 
Ȳ ∼ N ormal µ;
n

para n grande o suficiente. No caso, os dados se mostram bem


comportados e temos tranquilidade em usar o teorema.
Equivalentemente, temos que

Ȳ − µ
Z= ∼ N ormal(0; 1)
√σ
n

Mas, σ =????, e não dá par usar o resultado anterior. Porém, temos a
teoria que diz que
Ȳ − µ
T = ∼ tn−1 ,
√S
n

em que tn−1 representa a distribuição t-Student, simétrica e centrada em

zero, cujo parâmetro é n − 1, conhecido como grau de liberdade.


12 / 23
Assim, podemos calcular o IC para µ:
 
S S
IC(µ; 95%) = Ȳ − |tn−1; α2 | √ ; Ȳ + |tn−1; α2 | √
n n

em que α = 1 − γ, γ é o coeficiente de confiança (γ = 0.95) e


α
tn−1; α2 é o quantil de ordem 2 na densidade tn−1 .

13 / 23
Modelo 2: Modelo de médias:

Yij = µi + ϵij i = 1, 2, · · · , K; j = 1, 2, · · · , ni . (2)

Agora temos K parâmetros média: µ1 , µ2 , · · · , µK . Podemos


continuar com a mesma estrutura para os erros aleatório (ou não!).

E(ϵij ) = 0 V(ϵij ) = σ 2 e todas as covariâncias entre pares nulas.

Disto, temos os resultados:

E(Yij ) = µi V(Yij ) = σ 2 e todas as covariâncias entre pares nulas.

Modelo homocedástico com observações não correlacionadas.

14 / 23
Generalizando os resultados do modelo de uma média, cada µi é
estimada pela média de seu grupo:
ni
1 X
µ̂i = Yij = Ȳi i = 1, · · · , K.
ni
j=1

Cada grupo também oferece um estimador de σ 2 :


i n
1 X
Si2 = (Yij − Ȳi )2 i = 1, · · · , K,
ni − 1
i=1

e como todos estimam o mesmo parâmetro σ 2 , obtemos um


estimador único dado por

(n1 − 1)S12 + (n2 − 1)S22 · · · + (nK − 1)SK


2
σ̂ 2 = S 2 =
(n1 − 1) + (n2 − 1) + · · · + (nK − 1)

15 / 23
Inferências para cada média podem ser realizadas de maneira
similar ao caso de uma média, pois Ȳi é não viciado com erro
padrão estimado dado por √S .
ni

No entanto, talvez, os parâmetros de maior interesse quando se


tem mais de um grupo ou sub-população é em comparações do
tipo: δ2 = µ2 − µ1 .

Uma comparação, dada por combinação linear de médias tal que


os coeficientes da combinação somam zero, é chamada de
contraste ou efeito.

Para encontrar o estimador do contraste basta aplicar os


estimadores das médias na combinação: δ̂2 = Ȳ2 − Ȳ1 .
16 / 23
Aplicando as propriedades de variância, encontramos:

V(δ̂2 ) = V(Ȳ1 − Ȳ2 )

= V(Ȳ1 ) + V(Ȳ2 ) − 2Ccov(Ȳ1 , Ȳ2 )


S2 S2
= + −2×0
n2 n1
 
2 1 1
= S +
n2 n1
e
(Ȳ2 − Ȳ1 ) − δ2
T = r  ∼ tGL
1 1
S n2 + n1

para GL = (n1 − 1) + (n2 − 1) + · · · + (nK − 1).


h i
IC(δ2 ; 95%) = (Ȳ2 − Ȳ1 ) − |tGL; α2 | × ep; (Ȳ2 − Ȳ1 ) + |tGL; α2 | × ep

17 / 23
Exemplo: Suponha agora que o interesse é na massa média de três
raças de gatos. Os dados são de amostras de tamanho 10 de cada
raça:

1: 10.1 10.0 7.6 10.3 11.3 8.8 10.2 11.3 9.2 10.5
2: 11.8 13.0 14.9 12.5 12.5 12.9 13.4 15.2 11.6 12.8
3: 7.1 6.8 8.1 8.7 8.9 8.0 10.4 8.4 8.1 8.6

Obtenha a estimativa da massa média de cada raça, incluindo o


erro padrão. Estime a diferença média entre a raça 1 e raça 3
através de IC a 95%.

18 / 23
Representação gráfica:

14

12
y

10

1 2 3

Figura 2: Dados/realizações de um modelo aditivo com três médias.

19 / 23
Modelo 3: Modelo para estrutura fatorial

A estrutura fatorial surge quando as sub-populações de interesse


são formadas pela combinação de nı́veis de dois ou mais fatores.

Fator A (pressão)
Fator B (temp) Baixa (0) Alta (1)
Parametrização:
Baixa (0) µ µ+β
Alta (1) µ+τ µ+τ +β+γ

Yijk = µ + βAi + τ Bj + γAi Bj + ϵijk ,

para Ai = 1 se nı́vel ”Baixa”paraA e Ai = 0 c.c. (indicadora de


A). Bj = 1 se nı́vel ”Baixa”paraB e Bj = 0 c.c. (indicadora de
B).
20 / 23
Note que:
γ = [(µ + τ + β + γ) − (µ + β)] − [µ − τ − µ] ⇒ interação

Efeitos Principais:

do fator A:

(µ + β + µ + τ + β + γ)/2 − (µ + τ + µ)/2 = β + γ/2

do fator B:

(µ + τ + µ + τ + β + γ)/2 − (µ + β + µ)/2 = τ + γ/2

Exemplo: Dados ToothGrowth no pacote faraway.

21 / 23
Modelo 4: Modelo de uma reta

Yi = β0 + β1 xi + ϵi

para xi quantitativa (i = 1, 2, · · · , n).

Modelo 5: Modelo de duas ou mais retas ou curvas, para xij


quantitativa e Aij indicadora (dummy ):

Paralelas: Yij = β0 + β1 xij + β2 Aij + ϵij

Mesma origem: Yij = β0 + β1 xij + β2 xij Aij + ϵij

Distintas: Yij = β0 + β1 xij + β2 Aij + β3 xij Ai + ϵij

Curvas: Yij = β0 + β1 xij + β2 x2ij + β3 Aij + β4 xij Ai + · · · + ϵij

22 / 23
Modelo 6: Modelo de planos ou outras superfı́cies (para x1 , · · · xK
quantitativas.)

Superfı́cie plana, sem interação:


Yi = β0 + β1 x1i + β2 x2i + ϵi

Superfı́cie plana, com interação:


Yi = β0 + β1 x1i + β2 x2i + β3 x1i x2i + ϵi

Superfı́cie curva:
Yi = β0 + β1 x1i + β2 x21i + β3 x2i + ϵi

23 / 23

Você também pode gostar