Você está na página 1de 13

Universidade do Minho

Escola de Engenharia

ESTATÍSTICA II
Mestrado Integrado em Engenharia e Gestão Industrial

FORMULÁRIO
Ano Lectivo 2007-2008
Índice

Intervalos de Confiança (uma amostra / duas amostras independentes)............................................................................... 1


Testes de Hipótese (uma amostra / duas amostras independentes)....................................................................................... 1
Bom Ajuste (grandes amostras)............................................................................................................................................ 2
Tabelas de Contingência....................................................................................................................................................... 2
Análise da Variância............................................................................................................................................................. 3
Planeamento Completamente Aleatório.......................................................................................................................... 3
Planeamento com Blocos Aleatórios .............................................................................................................................. 3
Planeamento Factorial com Replicações......................................................................................................................... 4
Planeamento 22 ......................................................................................................................................................... 5
Planeamento 23 ......................................................................................................................................................... 6
Testes a K Médias (não paramétrico) ................................................................................................................................... 6
Kruskal Wallis ................................................................................................................................................................ 6
Quade.............................................................................................................................................................................. 7
Bom Ajuste (pequenas amostras) ......................................................................................................................................... 7
Kolmogorov .................................................................................................................................................................... 7
Lilliefors para a Normal.................................................................................................................................................. 8
Lilliefors para a Exponencial .......................................................................................................................................... 8
Teste às Distribuições........................................................................................................................................................... 9
Kolmogorov – Smirnov .................................................................................................................................................. 9
Smirnov Unilateral.......................................................................................................................................................... 9
Regressão.............................................................................................................................................................................. 9
Regressão Linear Simples............................................................................................................................................... 9
Regressão Linear Múltipla.............................................................................................................................................. 10
Regressão Não Linear ..................................................................................................................................................... 10
Independência Estocástica.................................................................................................................................................... 11
Correlação de Pearson .................................................................................................................................................... 11
Correlação de Spearman ................................................................................................................................................. 11
FUNÇÕES DE PROBABILIDADE
DISCRETAS CONTÍNUAS
Distribuição de Bernoulli Distribuição Uniforme [U(a,b)]
f ( x ) = θ x (1 − θ )
1− x
x = 0,1  1
 a< x<b
µ = nθ σ = nθ (1 − θ )
2 f (x ) =  b − a
0 outros

µ=
a+b
σ2 =
(b − a ) 2

2 12
Distribuição Binomial [B(n,p)] Distribuição Exponencial [EN(1/θ)]
n 1 −x
f ( x ) =   p x (1 − p )
n−x
x = 0,1,2,..., n  e θ x>0
 x f ( x ) = θ
µ = np σ 2 = np (1 − p ) 0 outros

µ =θ σ 2 =θ 2
Distribuição Poisson [P(λ)] Distribuição Normal [N(µ,σ2)]
λx e −λ ( x − µ )2
f (x ) = 1 −
x = 0,1,2,..., n f (x ) = e 2σ 2
x! σ 2π
µ =λ σ2 =λ
µ = µ σ 2 =σ 2
X −µ
Z=
σ
Aproximação da Binomial à Poisson Aproximação da Binomial à Normal
N grande e p muito pequeno np > 5
λ = np Condições 
nq > 5
µ = np
σ 2 = npq
Distribuição Uniforme (discreta) Correcção de Yates

f (x ) =
1
x = x1 , x 2 ,..., x k P ( X ≤ x ) ≈ P ( X < x + 0.5)
k P (Y ≥ y ) ≈ P (Y > y − 0.5)
µ =∑
xi
σ2 =∑
(xi − µ )2
i k i k
INTERVALOS DE CONFIANÇA E TESTES DE HIPÓTESES PARA UMA AMOSTRA
Conhece
Parâmetro a estimar Tipo de População Dimensão da amostra E.T ~ Distribuição Intervalo de Confiança Notas
σ?
x −µ σ σ z(1−α
Normal Qualquer Sim Z = σ ~ N (0, 1) x − z(1−α 2) < µ < x + z(1−α 2)
2) : quantil da tabela acumulada
n n n da Normal padrão à esquerda
x −µ s s
Média Qualquer n ≥ 30 Não Z = s ~ N (0, 1) x − z(1−α 2) < µ < x + z(1−α 2) Estimador do desvio padrão: σ ≈s (1)
µ n n n
x −µ s s
Normal n < 30 Não T = s ~ t n −1 x − t(α 2), n −1 < µ < x + t(α 2), n −1
n n n
pˆ − p Estimador da proporção binomial
Z = ~ N (0, 1)
Proporção binomial
Bernoulli n > 30 (2) -
p (1− p )
pˆ (1 − pˆ ) pˆ (1 − pˆ ) p ≈ pˆ =
x
p n pˆ − z(1−α < p < pˆ + z(1−α 2)
2)
n n n

Variância População Normal


(n−1)s2 2 ( n − 1) s 2 < σ 2 < ( n − 1) s 2
Q= ~ χn−1
σ2 σ 2
χ (2α 2),n −1 χ (12 −α 2),n −1

INTERVALOS DE CONFIANÇA E TESTES DE HIPÓTESES PARA DUAS AMOSTRAS


Parâmetro a Conhece σ ?
Tipo de População Dimensão da amostra E.T ~ Distribuição Intervalo de Confiança Notas
estimar
( x1 − x2 ) − ( µ1 − µ2 ) ~ N (0,1)
σ1 e σ 2 Z= σ 12 σ 22
Normais Quaisquer σ 12
+
σ 22 ( x1 − x2 ) ± z(1−α 2) +
Sim
n1 n2 n1 n2

Z=
( x1 − x2 ) − ( µ1 − µ2 ) ~ N (0,1)
σ1 e σ 2 s12 s22
( x1 − x2 ) ± z(1−α 2)
Estimadores dos desvios padrão:
Quaisquer n1 ≥ 30 e n2 ≥ 30 s12 s22 + σ 1 ≈ s1 , σ 2 ≈ s2
Diferença entre as Não + n1 n2
médias n1 n2
µ1 − µ 2
T=
( x1 − x2 ) − ( µ1 − µ2 ) ~ t GL = n1 + n2 − 2
σ 1 e σ 2 Não 1 1
Normais n1 < 30 e n2 < 30
σ 12 = σ 22 sp
1 1
+
GL
( x1 − x2 ) ± t(α 2),GL s p + s 2p =
( n1 − 1) s12 + ( n2 − 1) s22
e n1 n2 n1 + n2 − 2
n1 n2
Normais Di − ( µ1 − µ2 ) sDi = sn −1 para
Amostras n1 < 30 e n2 < 30
σ1 e σ 2 T=
sDi
~ t( n −1)
Di − t( n−1),α 2 .
sDi
< µ1 − µ2 < Di + t( n −1),α 2 .
sDi

dependentes Não n n Di = X 1i − X 2i
n
Estimadores das proporções
Diferença de ( pˆ1 − pˆ 2 ) − ( p1 − p2 ) binomiais (4)
Z= ~ N (0,1) (3) pˆ1 (1 − pˆ1 ) pˆ 2 (1 − pˆ 2 )
proporções Bernoulli n1 ≥ 30 e n2 ≥ 30 -
pˆ1 (1 − pˆ1 ) pˆ 2 (1 − pˆ 2 ) ( pˆ1 − pˆ 2 ) ± z(1−α 2) + pˆ1 =
x1 x
e pˆ 2 = 2
p1 − p2 + n1 n2 n1 n2
n1 n2
s12 ν 1 = n1 − 1 e ν 2 = n2 − 1
Razão de variâncias
σ 12 s12 1 σ 2 s2 1 1
σ 12 Normais Quaisquer - F= ~ Fν1 ,ν 2 = F(α
s22 < 12 < 12 F(1−α
2),ν 2 ,ν 1
σ 22 σ 2 s2 F(α 2),ν1 ,ν 2 σ 2 s2 F(1−α 2),ν1 ,ν 2
2 2),ν 1 ,ν 2
2

(1) O desvio padrão σ , sendo desconhecido, é estimado através de s = 1 n


∑ ( xi − x )2 ; (2) Proporção para amostras de pequena dimensão necessário recorrer à solução exacta através da distribuição binomial; (3) e (4) No teste à diferença
n − 1 i =1
de proporções se H0 : p1 – p2 = 0 , a E.T. passa a ser
Z=
( pˆ1 − pˆ 2 ) ~ N (0,1), com pˆ =
x1 + x2
.
1 1 n1 + n2
pˆ (1 − pˆ )  + 
 n1 n2 

1
Teste do ”bom ajuste” do Qui-Quadrado para grandes amostras

• Probabilidades completamente esp ecificadas na hip ótese nula

H0 : p1 = p10 , p2 = p20 , ..., pk = pk0 e p10 + p20 + ...pk0 = 1.


R.R: Q≥c com c = χ2k−1,α

• Probabilidades não totalmente esp ecificadas na hip ótese nula

H0 : as probabilidades corresp ondentes das classes provêm de uma distribuição da família ...

R.R: R.R: Q≥c com c = χ2g.l,α

o o
graus de lib erdade = n de celas -1- n de parâmetros estimados

Pk (fi −ei )2
Q= i=1 ei com a frequência esp erada dada p or ei =n.pi

Tabelas de Contingência

Característica B
B1 B2 B3 Bb ni.
A1 f11 f12 f13 ··· f1b
Característica A2 f21 f22 f23 ··· f2b
A A3 f31 f32 f33 ··· f3b
.. .. .. .. ..
. . . . ··· .
Aa fa1 fa2 fa3 ··· fab
n.j n

1. . Teste de independência

Hipótese nula:

H0 : pij = pi. p.j (as variáveis são indep endentes), i = 1, ..., a e j = 1, ..., b
R.R: Q > c com c = χ2(a−1)(b−1),α

2 . Teste de homogeneidade

Hipótese nula:

H0 : w1j = w2j = ... = waj (as subp opulações A são equivalentes) para j = 1, ..., b.
R.R: Q > c com c = χ2(a−1)(b−1),α

Xb X a
(fij − eij )2 ni. n.j
Q= com a frequência esp eradada dada por eij = i = 1, ..., a e j = 1, ..., b
j=1 i=1
eij n

2
Planeamento completamente aleatório
Pk Pk 2
T.j 1 2
SQT = nj (y .j − Y )2 SQT = j=1 nj − N T..
Pj=1
k Pnj Pk Pnj 2 1 2
ST Q = (yij − Y )2 ST Q = i=1 yij − N T..
Pj=1
k Pi=1
nj 2
j=1
Pk
SQR = j=1 i=1 (yij − y .j ) SQR = ST Q − SQT com N= j=1 nj
T.j é o total dos valores obtidos para o tratamento j ; T.. é o grande total

Tendo-se ST Q = SQT + SQR

M odelo p opulacional: yij = µ + αj + eij


com i = 1, ..., nj e j = 1, ..., k eij ∼ N (0, σ 2 )

Teste às diferenças entre os tratamentos

H0 : α1 = α2 = ... = αk = 0
(não existem diferenças entre as m édias das k p opulações).

H1 : os efeitos da aplicação dos tratamentos são significativos

( ou existem diferenças entre os tratamentos).

R.R : F > c em que c (Fisher) é determinado p or forma a α = P [F > c; H0 ]

Tab ela ANOVA

Fonte de variação Soma dos quadrados graus de liberdade M édia dos quadrados v.a. F
Tratamentos SQT k-1 M QT=SQT/(k-1)
MQT
Resíduos SQR Σnj − k M QR=SQR/ (Σnj − k) F= MQR
Total STQ Σnj − 1

• Intervalos de confiança para diferenças entre pares de médias de tratamentos iej com

i 6= j = 1, 2, ..., k

(y .i − y .j ) − (µi − µj )
T = q ∼ tN −k
SQR 1 1
N−k ni ( + nj )

Planeamento com blocos aleatórios

Pk Pk
SQT = b j=1 (y .j − Y )2 SQT = 1b j=1 T.j2 − kb
1 2
T..
Pb 1
Pb 1 2
SQB = k i=1 (y i. − Y )2 2
SQB = k i=1 Ti. − kb T..
Pb Pk Pb Pk 1 2
ST Q = i=1 j=1 (yij − Y )2 ST Q = i=1 j=1 yij 2
− kb T..
P P
SQR = bi=1 kj=1 (yij − y i. − y .j + Y )2 SQR = ST Q − SQT − SQB
Ti. é o total dos valores obtidos para o bloco i ; T.j é o total dos valores obtidos para

o tratamento j

3
M odelo p opulacional: yij = µ + αj + β i + eij
para i = 1, ..., b e j = 1, ..., k eij ∼ N (0, σ 2 )

Teste às diferenças entre os tratamentos

H01 : α1 = α2 = ... = αk = 0
(não existem diferenças significativas entre os tratamentos).

H11 : os efeitos da aplicação dos tratamentos são significativos

( ou existem diferenças entre os tratamentos).

R.R : F1 > c em que c (Fisher) é determinado a partir de


MQT
α = P [F1,((k−1),(b−1)(k−1)) > c; H01 ] e F1 = M QR

Teste às diferenças entre os blocos

H02 : β 1 = β 2 = ... = β b = 0
(não existem diferenças significativas entre os efeitos dos blocos)

H12 : existem diferenças entre os efeitos dos blocos.

R.R : F2 > c em que c (Fisher) é determinado a partir de


M QB
α = P [F2,((b−1),(b−1)(k−1)) > c; H02 ] e F2 = MQR

Tab ela ANOVA

F. de variação S. dos quadrados graus de lib erdade M édia dos quadrados v.a. F
Tratamentos SQT k-1 M QT=SQT/(k-1)
MQT
Blocos SQB b-1 M QB=SQB/(b-1) F 1 = MQR
MQB
Resíduos SQR (k − 1).(b − 1) M QR=SQR/ (k − 1).(b − 1) F 2 = MQR
Total STQ k.b − 1

Intervalos de confiança para diferenças entre pares de médias de tratamentos:

(y j1 − y j2 ) − (µj1 − µj2 )
T = q ∼ t(b−1)(k−1)
M QR( 2b )

Planeamento factorial com replicações


P Pp 2
Ti. T..2
SQFA = qr pi=1 (y i.. − Y )2 SQFA = i=1

P qrq pqr
P T2 2
T..
SQFB = pr qj=1 (y .j. − Y )2 SQFB = j=1
rp
.j
− pqr
P
Pp Pq Pr P T2
SQR = i=1 j=1 k=1 (yijk − y ij. )2 2
SQR = ijk yijk − ijr ij
Pp Pq Pr Pp Pq Pr T..2
ST Q = i=1 j=1 k=1 (yijk − Y )2 ST Q = i=1 j=1 k=1 yijk 2
− pqr
SQIAB = ST Q − SQFA − SQFB − SQR

Tij é a soma das observações da célula (i, j)

M odelo p opulacional

yijk = µ + αi + β j + γ ij + eijk

4
para i = 1, ..., p , j = 1, ..., q . e k = 1, ..., r e eijk ∼ N (0, σ 2 )

Testes de hip óteses

• Factor A

H01 : α1 = α2 = ... = αp = 0
H11 : existem diferenças significativas entre os níveis de A
R.R : F1 > c com c (Fisher) determinado de
MQFA
α = P r[F1(p−1),pq(r−1) > c; H01 ] e F1 = MQR

• Factor B

H02 : β 1 = β 2 = ... = β q = 0
H12 : existem diferenças significativas entre os níveis de B
R.R : F2 > c com c (Fisher) determinado de
M QFB
α = P r[F2(q−1),pq(r−1) > c; H02 ] e F2 = MQR

• Interacção AB

H03 : γ 11 = γ 12 = ... = γ 21 = ... = γ pq = 0


H13 : existem diferenças significativas devido a interacção

R.R : F3 > c com c (Fisher) determinado de


MQIAB
α = P r[F3(p−1)(q−1),pq(r−1) > c; H03 ] e F3 = M QR

Tab ela ANOVA

Fonte de variação Soma dos Quadrados graus de lib. M édia dos Quadrados v.a F
Factor A SQF A p-1 M QF A
Factor B SQF B q-1 M QF B F1 = MQF
MQR
A

MQF
Interacção AxB SQI AB (p-1).(q-1) M QI AB F 2 = MQRB
MQIAB
Resíduos SQR p.q.(r-1) M QR F 3 = MQR
Total STQ p qr-1

Planeamento 22

tratamento factor A factor B A×B observações médias


1 - - + y11 y12 ... y1r y1
2 + - - y21 y22 ... y2r y2
3 - + - y31 y32 ... y3r y3
4 + + + y41 y42 ... y4r y4

Estimativa dos efeitos principais

eeA = (y2 −y1 )+(y


2
4 −y 3 )
SQFA = r (eeA )2
eeB = (y3 −y1 )+(y
2
4 −y 2 )
SQFB = r (eeB )2
(y4 −y3 )+(y1 −y2 )
eeAB = 2 SQIAB = r (eeAB )2
Pr 2
j=1 (yij −y i )
− Variância residual: s2 = 14 (s21 + s22 + s23 + s24 ) com s2i = (r−1)

Intervalos de confiança para os ”efeitos” devidos aos factores principais e à interacção

5
ee − µ
T =q ∼ t4(r−1)
2
( sr )

Planeamento 23

factores interacções observações médias


A B C AB AC BC ABC
T1 - - - + + + - y11 y12 ... y1r y1
T2 + - - - - + + y21 y22 ... y2r y2
T3 - + - - + - + y31 y32 ... y3r y3
T4 + + - + - - -
T5 - - + + - - + ...
T6 + - + - + - -
T7 - + + - - + -
T8 + + + + + + + y81 y82 ... y8r y8

1
Efeitos estimados: ee = 23−1 [±y 1 ± y 2 ± y 3 ± y 4 ± ... ± y 8 ]

A som a dos quadrados dos efeitos de cada factor (ou interacção) p ode ser calculada a partir de

2
SQfactor ou interac. = 2n−2 r(eefactor ou interac. )

sendo no número de factores presentes no planeamento e ro número de replicações.

s21 +s22 +...+s28


Variância residual: s2 = 8

Intervalos de confiança para os ”efeitos reais”

ee − ”ef eito real”


T = q ∼ t8(r−1)
s2
2r

Teste de Kruskal Wallis

H 0 : Não existem diferenças significativas entre os efeitos dos tratamentos ou as médias das distribuições das k p opulações são
idênticas

H 1 : Nem todas as k distribuições têm m édias idênticas.

R.R: H ≥ c onde c é determinado de α = P r[H ≥ c; H0 ] e

Xni
12 W2 W2 W2
H= [ 1 + 2 +...+ k ] − 3(n + 1)com W i = Rij i = 1, 2, ..., k
n(n + 1) n1 n2 nk j=1

Para k > 3 ou n1 , n2 , ... e/ou ni > 5, a distribuição assintótica de H é a χ2 com k−1 graus de liberdade.

A ’estatística’ a justada é

0 H
H= Pl
j=1qj (qj2 −1)
1− n(n2 −1)

em que l é o número de conjuntos com observações rep etidas existente e qj é o número de elementos nesse conjunto j (j =
0
1, ..., l). A ’estatística’ H tem ainda uma distribuição assintótica χ2k−1 .

6
Planeamento com blocos. Teste de Quade

Os dados consistem num conjunto de b variáveis aleatórias independentes a k dimensões


(yi1 , yi2 , ..., yik ), i = 1, ..., b, chamadas blocos.

Os cálculos para este teste devem estar assim ordenados:

Amplitude do bloco: Ai Graduações do bloco de acordo M atriz Sij


k+1
Ai = maxj (yij ) − minj (yij ) com a sua amplitude: R(Ai ) Sij = R(Ai )[R(yij ) − 2 ]

R(yij ) - graduações das observações yij , (j = 1, ..., k)


P P P P
Sj = bi=1 Sij ; SQT = 1b kj=1 Sj2 ; ST Q = bi=1 kj=1 Sij 2

Se não existirem observações rep etidas, ST Q reduz-se a

b(b + 1)(2b + 1)k(k + 1)(k − 1)/72.

Teste de hip óteses

H 0 : Não existem diferenças significativas entre os tratamentos

(ou, os efeitos dos tratamentos são idênticos)

H 1 : Pelo menos um dos tratamentos tende a conseguir valores observados maiores do que um outro tratamento.

R.R : T > c onde c é um p onto crítico da distribuição F que corresp onde ao nível de significância α,
com (k − 1) e (b − 1)(k − 1) graus de lib erdade

(b − 1)SQT
T =
ST Q − SQT

Comparações dois a dois


Os tratamentos iej são considerados significativamente diferentes se
s
2b(ST Q − SQT )
|S i −S j | > c
(b − 1)(k − 1)

sendo co p onto crítico da distribuição t-Student, com (b − 1)(k − 1) graus de lib erdade que corresp onde a uma região de
rejeição de tamanho α (nível de significância)

Testes de ajuste de distribuições


Testes do tipo de Kolmogorov para pequenas amostras

0
S(x) é a função de distribuição empírica que é definida como fracção dos Xi s (elementos da amostra) que são menores
ou iguais a X , para cada X (−∞ < X < +∞)

Dados: F ∗ (x) é uma função distribuição completamente esp ecificada.

A. Teste bilateral B. Teste unilateral C. Teste unilateral


H0 : F (x) = F ∗ (x) ∀x H0 : F (x) ≥ F ∗ (x) H0 : F (x) ≤ F ∗ (x)
H1 : F (x) 6= F ∗ (x) H1 : F (x) < F ∗ (x) H1 : F (x) > F ∗ (x)
T = supx | F ∗ (x) − S(x) | T + = supx [ F ∗ (x) − S(x) ] T − = supx [ S(x) − F ∗ (x) ]

R.R: T (T + ou T − ) > c com c calculado de α = P rob(Rej H0 ; H0 ) = P rob(T > c; H0 de A.) .

7
Os p ontos críticos da distribuição de T (T + ou T − ) correspondem a p=1−α

Teste de Lilliefors para a Normal

DADOS: Os dados consistem numa amostra aleatória X1 , X2 , ..., Xn de tamanho n associada com alguma função distribuição
desconhecida F (x).

H 0 : A amostra aleatória foi retirada de uma distribuição normal, com média e/ou variância não esp ecificadas.
0
H 1 : A função distribuição dos Xi s não é normal.

R.R: T1 > c sendo c o p onto crítico da distribuição de T1 que corresp onde a p=1−α

v
Pn u n
i=1 Xi
u 1 X
X= e s =t (Xi − X)2
n n − 1 i=1

Xi − X
Zi = , i = 1, 2, ..., n T 1 = supz | F ∗ (z) − S(z) |
s
Teste de Lilliefors para a exponencial

DADOS: Os dados consistem numa amostra aleatória X1 , X2 , ..., Xn de tamanho n associada com alguma função distribuição
desconhecida F (x).
H0 : A amostra aleatória segue a distribuição exp onencial:
½
∗ 1 − e−x/β , para x > 0
F (x) = F (x) =
0 para x < 0

em que β é um parâmetro desconhecido.


0
H1 : A distribuição dos Xi s não é exp onencial.

Pn
i=1 Xi Xi
X= Zi= , i = 1, 2, ..., n
n X
½
1 − e−z , para z > 0
F ∗ (z) =
0 para z < 0

T2 = supz | F ∗ (z) − S(z) |

R.R: T2 > c sendo c o p onto crítico da distribuição de T2 que corresp onde a p = 1 − α.

Teste a duas distribuições. Amostras independentes.


Teste de Kolmogorov - Smirnov

DADOS: Os dados consistem em duas amostras aleatórias indep endentes, uma de tamanho n, X1 , X2 , ..., Xn e outra de
tamanho m, Y1 , Y2 , ..., Ym retiradas de duas p opulações com distribuições F (x) e G(y) (ou G(x)) resp ectivamente.

A. Teste bilateral B. Teste unilateral C. Teste unilateral


H0 : F (x) = G(x) ∀x H0 : F (x) ≤ G(x) H0 : F (x) ≥ G(x)
H1 : F (x) 6= G(x) H1 : F (x) > G(x) H1 : F (x) < G(x)
T1 = supx | S1 (x) − S2 (x) | T1+ = supx [ S1 (x) − S2 (x) ] T1− = supx [ S2 (x) − S1 (x) ]

8
com S1 (x) a função empírica baseada na amostra X1 , X2 , ..., Xn e S2 (x) a função empírica baseada em Y1 , Y2 , ..., Ym
+
R.R: T1 (T1 ou T1− ) > c sendo c o p onto crítico da distribuição da estatística que corresp onde a um nível de significância
α.

Teste a k distribuições. Amostras independentes.Teste unilateral de Smirnov


DADOS: k amostras aleatórias de tamanho iguais a n. Se as distribuições empíricas

forem, resp ectivamente, S1 (x), S2 (x), ..., Sk (x), e as funções distribuição F1 (x),
F2 (x), ..., Fk (x) representam as k p opulações, desconhecidas,

H0 : F1 (x) ≤ F2 (x) ≤ ... ≤ Fk (x) para todo o x


H1 : Fi (x) > Fj (x) para algum i<j e algum x
R.R: T2 > c sendo c o p onto crítico, que corresp onde a p = 1 − α, ao nível de significância α.

T2 = supx,i<k [ S i (x) − S i+1 (x) ] i = 1, ..., k − 1

Regressão linear e simples

Yi ∼ N (α + βxi , σ 2 )
Yi = α + βxi + ei com xi = Xi − X , i = 1, .., n
2
Os estimadores de máxima verosimilhança, para os parâmetros α, β e σ são
Pn Pn Pn
Yi (Xi −X)(Yi −Y ) (Xi −X)Yi
α̃ = i=1 n = Y ; β̃ = i=1 Pn 2
= Pi=1n 2
;
i=1 (Xi −X) i=1 (Xi −X)

Pn
σ̃ 2 = 1
(n−2) i=1 [Yi − α̃ − β̃(Xi − X)]2

Testes de hipóteses

α̃ − α β̃ − β
T1 = q ∼ tn−2 ; T2 = q 2
∼ tn−2
σ̃ 2 P n σ̃ 2
n 1 (Xi −X)

H0 : β = 0
H1 : β > 0 (ou β 6= 0)
R.R: T2 ≥ c com c = tn−2,α (ou α/2)

Do mesmo modo, a ’estatística’ T1 p ode ser usada para calcular intervalos de confiança e testes de hip óteses relacionados com
o parâmetro α

Média e variância de um valor estimado de Y:

E[Y 0 ] = E[α̃] + (X 0 −X)E[β̃] = α + β(X 0 −X)

1 (X0 − X)2
var[Y 0 ] = σ 2 ( + Pn )
n i=1 (Xi − X)
2

9
Regressão linear e múltipla

Yi = α + βxi +γz i +ei

em que xi = Xi − X, zi = Zi − Z e ei é o erro aleatório de observação,normalmente distribuído com média zero e


variância comum σ 2 (i = 1, ..., n).

E[Y ] = α + β(X − X) + γ(Z − Z).

Pn Pn
Yi
α̃ = i=1
n =Y ; σ̃ 2 = 1
(n−3) i=1 (Yi − α̃ − β̃xi − γ̃zi )2

½ Pn P P
xi Yi = β̃ ni=1 x2i + γ̃ ni=1 xi zi
Pi=1
n Pn Pn 2
i=1 zi Yi = β̃ i=1 xi zi + γ̃ i=1 zi

As ’estatísticas’ T1 , T2 e T3 para testes de hip óteses e intervalos de confiança, em relação,

resp ectivamente, aos parâmetros α, β e γ , são:


α̃ − α β̃ − β γ̃ − γ
T1 = q ; T2 = r 2
; T3 = r 2
e seguem a distribuição t-Student com
σ̃ 2 σ̃P σ̃P
P ( x z )2 P ( x z )2
n x2i − P i 2i zi2 − P i 2i
z x
i i
n − 3 graus de lib erdade.

Regressão não-linear

i) E[Yi ] = α + βXi2
2
O modelo matemático geral, é: Yi = α + βwi + γwi + ei com wi = Wi −W e o ei ∼ N (0, σ2 ) (i = 1, ..., n).
2
Define-se X = W e Z = W , o que reduz este caso à regressão múltipla e linear.

ii) E[Yi ] = Xiβ


O modelo matemático mais geral e comum é: Yi = αeβXi ui . Os erros aleatórios ui (i = 1, ..., n) têm agora uma
distribuição, em geral não simétrica e centrada em 1.

Lineariza-se o modelo passando-se a ter: lnYi = lnα + βXi + lnui e aplica-se a análise de regressão linear e simples.

Testes de independência estocástica

• Coeficiente de correlação da amostra. Teste de Pearson

X ∼ N (µ1 , σ 21 ) e Y ∼ N (µ2 , σ22 )


H0 : ρ = 0
H1 : ρ 6= 0
R.R: |R| ≥ c. O valor de cé determinado de α = Pr [|R| ≥ c; H0 ]

Pn Pn P
Xi ni=1 Yi
i=1 Xi Yi −
i=1
n
R =q P P Pn P
n ( ni=1 Xi )
2 ( ni=1 Yi )
2
( i=1 Xi2 − n )( i=1 Yi2 − n )

e que é o coeficiente de correlação da am ostra de Pearson.

10

R
√ n−2
A variável T = 1−R2
∼ tn−2 e o teste resume-se a, rejeitar H0 se |T | ≥ c com c determ inado de α = Pr [|T | ≥
c; H0 ] .

• Correlação de Spearman

(X1 , Y1 ), (X2 , Y2 ), ..., (Xn , Yn ) amostra aleatória bivariada, de tamanho n


R(Xi ) graduação do valor de Xi
R(Yi ) graduação do valor de Yi (i = 1, 2, ..., n)

A medida de correlação de Spearman RS é definida p or

Pn n+1 n+1
i=1 [R(Xi ) − 2 ][R(Yi ) − 2 ]
RS = n(n2 −1)
12

ou

n
X
6T
RS = 1− com T = [R(X i ) − R(Y i )]2
n(n2 − 1) i=1

caso não existam observações rep etidas. Existindo rep etições deve usar-se a expressão:

Pn
R(Xi )R(Yi ) − n( n+1
i=1 2 )
2
RS = qP qP
n 2 n+1 2 n 2 n+1 2
i=1 R(Xi ) − n( 2 ) . i=1 R(Yi ) − n( 2 )

A. Teste bilateral

H 0 : As variáveis XeY são indep endentes.

H 1 : (a) Existe uma tendência para os maiores valores de X form arem pares com

os m aiores valores de Y , ou
(b) Existe uma tendência para os menores valores de X formarem pares com

os m aiores valores de Y.
α
R.R: RS > c1 ou RS < c2 , sendo c1 o p onto crítico que corresp onde a 1− 2 e
α
c2 o p onto crítico que corresp onde a 2

B. Teste unilateral para correlação p ositiva

H 0 : As variáveis XeY são indep endentes.

H 1 : Existe uma tendência para os maiores valores de X e de Y formarem pares.

R.R: RS > c, em que cé o p onto crítico que corresp onde a 1−α


C. Teste unilateral para correlação negativa

H 0 : As variáveis XeY são indep endentes.

H 1 : Existe uma tendência para os menores valores de X formarem pares com os

maiores valores de Y e vice-versa.

R.R: RS < c sendo c o ponto crítico que corresp onde a α.

11

Você também pode gostar