Escolar Documentos
Profissional Documentos
Cultura Documentos
Modelos Lineares - João Gil de Luna
Modelos Lineares - João Gil de Luna
COORDENAC
AO DE ESTAT
ISTICA
Modelos Lineares
(Notas de Curso)
Texto elaborado pelos professores Dr. Jo ao Gil de
Luna e Dra. Divanilda Maia Esteves, utilizado
na disciplina: Modelos Lineares do curso de Bachare-
lado em Estatstica da UEPB, para o perodo 2008.1.
CAMPINA GRANDE
Estado da Paraba - Brasil
2008
2 Luna, J. G. & Esteves, E. M.
SUM
ARIO
1 Topicos de matrizes 1
1.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Tipos de matrizes . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operacoes basicas com matrizes . . . . . . . . . . . . . . . . . . . 4
1.2.1 Adicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Subtracao . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Multiplicacao por escalar . . . . . . . . . . . . . . . . . . 5
1.2.4 Multiplicacao entre matrizes . . . . . . . . . . . . . . . . 5
1.2.5 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.6 Produto direto ou produto de Kronecker . . . . . . . . . . 6
1.2.7 Potencia de matrizes . . . . . . . . . . . . . . . . . . . . . 7
1.2.8 Parti cao de matrizes . . . . . . . . . . . . . . . . . . . . . 8
1.2.9 Formas escalonadas . . . . . . . . . . . . . . . . . . . . . 9
1.2.10 Formas escalonadas canonicas . . . . . . . . . . . . . . . . 9
1.2.11 Forma de Hermite (H) . . . . . . . . . . . . . . . . . . . 10
1.2.12 Posto ou rank de uma matriz . . . . . . . . . . . . . . . . 10
1.2.13 Inversa de matrizes nao singulares . . . . . . . . . . . . . 11
1.2.14 Diagonalizacao de matrizes reais . . . . . . . . . . . . . . 12
1.2.15 Autovalores e autovetores . . . . . . . . . . . . . . . . . . 15
1.2.16 Vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Fatora cao de matrizes . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Decomposicao de matrizes . . . . . . . . . . . . . . . . . . . . . . 24
1.4.1 A decomposi cao espectral . . . . . . . . . . . . . . . . . . 24
1.4.2 A decomposi cao em valores singulares . . . . . . . . . . . 26
1.5 Lista de exerccio # 1 . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6 Inversas generalizadas de matrizes reais . . . . . . . . . . . . . . 33
1.6.1 A Inversa generalizada de Moore-Penrose, A
+
. . . . . . 33
3
4 Luna, J. G. & Esteves, E. M.
1.6.2 Inversa generalizada condicional . . . . . . . . . . . . . . 38
1.6.3 Inversa generalizada de mnimos quadrados . . . . . . . . 39
1.7 Lista de exerccios # 2 . . . . . . . . . . . . . . . . . . . . . . . . 42
2 Solucoes de Equacoes Lineares 45
2.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Consistencia e Solucao . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3 Solucao Aproximada . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4 A Melhor Solu cao Aproximada . . . . . . . . . . . . . . . . . . . 55
2.5 Solucao Aproximada de Mnimos
Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3 Formas Quadraticas 61
3.1 Conceito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Casos de Interesse Para Estatstica . . . . . . . . . . . . . . . . . 62
3.3 Classicacao de Formas Quadraticas . . . . . . . . . . . . . . . . 62
3.4 Derivadas de Formas Quadraticas . . . . . . . . . . . . . . . . . . 66
3.5 Valor Esperado e Matriz de Dispersao . . . . . . . . . . . . . . . 68
3.6 Distribuicao e Independencia Sob Normalidade . . . . . . . . . . 71
4 Introducao aos Modelos Lineares 81
4.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Localizacao do Problema Fundamental . . . . . . . . . . . . . . . 81
4.3 O Modelo Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3.1 Dencao e Exemplos . . . . . . . . . . . . . . . . . . . . . 82
4.3.2 O Modelo Linear de Gauss-Markov (G.M.) . . . . . . . . 85
4.3.3 Um Exemplo Hipotetico . . . . . . . . . . . . . . . . . . . 87
4.3.4 O Sistema de Equacoes Normais (S.E.N.) . . . . . . . . . 88
4.4 Estimacao em Modelos Lineares . . . . . . . . . . . . . . . . . . . 91
4.5 Regras Praticas de Estimabilidade . . . . . . . . . . . . . . . . . 100
4.5.1 Func oes Basicas Estimaveis . . . . . . . . . . . . . . . . . 100
4.5.2 Combina coes Lineares de Funcoes Estimaveis . . . . . . . 101
4.5.3 Usando as Equacoes Normais . . . . . . . . . . . . . . . . 103
4.5.4 Um Teste Alternativo . . . . . . . . . . . . . . . . . . . . 104
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros . . . . . . . . . . . . . . . 104
4.6 A Analise de Variancia . . . . . . . . . . . . . . . . . . . . . . . . 107
4.6.1 Soma de Quadrados da Hipotese H
o
: B
= . . . . . . 114
4.7 Estimacao por Intervalo . . . . . . . . . . . . . . . . . . . . . . . 119
Luna, J. G. & Esteves, D. M. 5
4.8 Hipoteses Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9 Estimacao Por Regiao . . . . . . . . . . . . . . . . . . . . . . . . 123
4.10 Testes de Hipoteses . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.2 Testes de Hipoteses Baseados em Intervalos e Regioes de
Conan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.3 Teste Direto . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.10.4 O Teste da Razao de Verossimilhan ca . . . . . . . . . . . 135
Captulo 1
Topicos de matrizes
1.1 Conceitos
Matriz: e, em geral, um arranjo retangular de elementos em linhas e colunas.
Neste curso, uma matriz sera denotada por letras mai usculas em negrito e
sera constituda de elementos pertencentes ao conjunto dos n umeros reais.
Exemplos:
A =
_
2 3 1
0 2 3
_
; B =
_
1 2
3 5
_
; C =
_
_
1 1
1 1
1 0
_
_
.
Dimensao: O par ordenado de n umeros naturais que descreve o n umero de
linhas e o n umero de colunas de uma matriz dene a sua dimensao. Para
os exemplos anteriores, temos:
2
A
3
ou A
(23)
a matriz A tem duas linhas e tres colunas;
2
B
2
, B
(22)
ou B
(2)
a matriz B tem duas linhas e duas colunas;
3
C
2
, ou C
(32)
a matriz C tem tres linhas e duas colunas.
Forma Geral: De modo geral, uma matriz A com m linhas e n colunas e
denotada como:
m
A
n
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
ou simplesmente
A = (a
ij
),
onde i = 1, 2, , m e o ndice de linhas e j = 1, 2, , n e o ndice de
colunas.
1
2 Luna, J. G. & Esteves, E. M.
1.1.1 Tipos de matrizes
Matriz quadrada: Se
m
A
n
tem m = n, entao
m
A
n
e uma matriz quadrada
e e denotada por:
m
A
n
= A
(n)
.
Matriz triangular:
E a matriz quadrada A
(n)
que tem nulos todos os elemen-
tos abaixo ou acima da diagonal. Isto e,
B
(n)
=
_
_
_
_
_
b
11
b
12
b
1n
0 b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
nn
_
_
_
_
_
C
(n)
=
_
_
_
_
_
c
11
0 0
c
21
c
22
0
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
Aqui, B
(n)
e triangular superior e C
(n)
e triangular inferior.
Matriz diagonal: A matriz D
(n)
= (d
ij
) e uma matriz diagonal se, e somente
se, d
ij
= 0, para todo i = j.
Isto e,
D
(n)
=
_
_
_
_
_
d
11
0 0
0 d
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 d
nn
_
_
_
_
_
= diag{d
11
, d
22
, , d
nn
}
Matriz identidade:
E toda matriz diagonal tal que d
ii
= 1. Ou seja,
I
(n)
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
= diag{1, 1, , 1}.
Denotaremos sempre a matriz identidade por I.
Matriz simetrica: Se uma matriz quadrada A
(n)
= (a
ij
) tem a
ij
= a
ji
, para
todo par (i, j), entao A
(n)
e uma matriz simetrica.
Exemplo:
A =
_
_
5 2 3
2 9 1
3 1 4
_
_
.
Matriz transposta: Dada uma matriz
m
A
n
= (a
ij
), sua transposta, denotada
por A
ou A
t
, e dada por:
A
= A
t
= (a
ji
).
Luna, J. G. & Esteves, D. M. 3
Exemplo:
Se
2
A
3
=
_
2 3 1
5 1 2
_
, entao
3
A
2
=
_
_
2 5
3 1
1 2
_
_
Matriz nula: Se
m
A
n
= (a
ij
) tem a
ij
= 0, (i, j), entao Ae uma matriz nula.
Denotaremos a matriz nula por .
Matrizes iguais: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), entao, A =
B se, e somente se, a
ij
= b
ij
, (i, j).
Matriz com todos elementos iguais a um:
E caracterizada por:
m
E
n
= (e
ij
), e
ij
= 1, (i, j).
Neste curso, tal matriz sera denotada por E.
Matriz bloco diagonal: Tem aspecto de acordo com o seguinte exemplo,
A =
_
_
_
_
_
_
_
_
_
_
a b 0 0 0 0 0
c d 0 0 0 0 0
0 0 e f g 0 0
0 0 a b g 0 0
0 0 w x z 0 0
0 0 0 0 0 c d
0 0 0 0 0 x z
_
_
_
_
_
_
_
_
_
_
.
Vetor: Se uma matriz
m
A
n
e tal que m = 1 ou n = 1, entao
m
A
1
e um vetor coluna
e
1
A
n
e um vetor linha.
Aqui, sempre que mensionarmos o termo vetor estaremos nos referindo a
vetor na forma de coluna e sera denotado por letras min usculas em negrito.
Em estatstica e comum utilizarmos
y =
m
y
1
=
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
; y
=
1
y
m
=
_
y
1
y
2
y
m
_
.
Obs.: O vetor nulo sera denotado por .
4 Luna, J. G. & Esteves, E. M.
1.2 Operacoes basicas com matrizes
1.2.1 Adicao
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), dene-se a soma
entre elas como a matriz
m
C
n
=
m
A
n
+
m
B
n
= (c
ij
), tal que c
ij
= a
ij
+b
ij
,
(i, j).
Exemplo:
A =
_
2 1 0
1 a 3
_
; B =
_
r 1 1
0 2 3
_
.
Entao,
C = A+B =
_
r + 2 0 1
1 a 2 6
_
.
Algumas propriedades
Sejam
m
A
n
= (a
ij
),
m
B
n
= (b
ij
) e
m
C
n
= (c
ij
) matrizes reais. Em rela cao a
adi cao temos as seguintes propriedades:
Comutativa:
m
A
n
+
m
B
n
=
m
B
n
+
m
A
n
;
Associativa:
m
A
n
+
m
B
n
+
m
C
n
= (
m
B
n
+
m
A
n
) +
m
C
n
=
m
A
n
+ (
m
B
n
+
m
C
n
);
Elemento neutro: Se
m
n
e uma matriz nula e
m
A
n
e qualquer, entao,
A+ = +A = A;
1.2.2 Subtracao
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), denimos:
(i)
m
C
n
=
m
A
n
m
B
n
= (c
ij
), onde c
ij
= a
ij
b
ij
, (i, j).
(ii)
m
D
n
=
m
B
n
m
A
n
= (d
ij
), onde d
ij
= b
ij
a
ij
, (i, j).
Note que, em relacao a subtracao, a propriedade comutativa nao e valida.
Luna, J. G. & Esteves, D. M. 5
Exemplo:
A =
_
_
2 a
1 0
3 1
_
_
; B =
_
_
10 40
20 50
30 60
_
_
.
Entao,
C = AB =
_
_
8 a 40
19 50
33 59
_
_
e D = B A =
_
_
8 40 a
19 50
33 59
_
_
1.2.3 Multiplicacao por escalar
Denicao: Dado um escalar e uma matriz
m
A
n
, dene-se o produto escalar
A = A, como a matriz
m
B
n
= (b
ij
), onde b
ij
= a
ij
= a
ij
, (i, j).
Exemplo:
= 3 e A =
_
1 2
3 a
_
,
entao,
B = 3.
_
1 2
3 a
_
=
_
1 2
3 a
_
.3 =
_
3 6
9 3a
_
.
1.2.4 Multiplicacao entre matrizes
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
n
B
p
= (b
jk
), dene-se o produto
AB como a matriz
m
R
p
= (r
ik
), onde r
ik
=
n
j=1
a
ij
b
jk
.
Exemplo:
3
A
2
=
_
_
a
11
a
12
a
21
a
22
a
31
a
32
_
_
e
2
B
4
=
_
b
11
b
12
b
13
b
14
b
21
b
22
b
23
b
24
_
,
entao,
3
A
2 2
B
4
=
3
R
4
=
_
_
r
11
r
12
r
13
r
14
r
21
r
22
r
23
r
24
r
31
r
32
r
33
r
34
_
_
,
onde,
r
11
= a
11
b
11
+a
12
b
21
r
12
= a
11
b
12
+a
12
b
22
r
13
= a
11
b
13
+a
12
b
23
e assim por diante.
6 Luna, J. G. & Esteves, E. M.
Regra pratica: Tomando a primeira matriz em forma de vetores linha e a
segunda em forma de vetores coluna, teremos:
3
A
2 2
B
4
=
3
R
4
=
_
_
L
1
C
1
L
1
C
2
L
1
C
3
L
1
C
4
L
2
C
1
L
2
C
2
L
2
C
3
L
2
C
4
L
3
C
1
L
3
C
2
L
3
C
3
L
3
C
4
_
_
=
_
_
r
11
r
12
r
13
r
14
r
21
r
22
r
23
r
24
r
31
r
32
r
33
r
34
_
_
,
onde r
ik
= L
i
C
k
e a soma dos produtos dos elementos da linha i da
primeira matriz, pelos elementos correspondentes da coluna k da segunda.
Exemplo:
A =
_
2 1 0
1 2 3
_
; B =
_
_
1 1
1 2
1 3
_
_
=AB =
_
1 0
0 4
_
.
1.2.5 Soma direta
Denicao: Dadas as matrizes
m
A
n
e
r
B
s
, denimos sua soma direta como
AB =
_
A
B
_
=
m+r
C
n+s
Exemplo:
A =
_
1 2 3
_
e B =
_
6 7
4 1
_
, segue que
AB =
_
_
1 2 3 0 0
0 0 0 6 7
0 0 0 4 1
_
_
1.2.6 Produto direto ou produto de Kronecker
Denicao: Dadas as matrizes
m
A
n
e
r
B
s
, dene-se o produto direto de A por
B como a matriz
mr
C
ns
, tal que
C = AB =
_
_
_
_
_
a
11
B a
12
B a
1n
B
a
21
B a
22
B a
2n
B
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
B a
m2
B a
mn
B
_
_
_
_
_
Luna, J. G. & Esteves, D. M. 7
Exemplo: Sejam as matrizes
A =
_
1 0
0 1
_
, B =
_
x y
y x
_
e v =
_
_
1
2
3
_
_
.
Entao,
AB =
_
_
_
_
x y 0 0
y x 0 0
0 0 x y
0 0 y x
_
_
_
_
e B A =
_
_
_
_
x 0 y 0
0 x 0 y
y 0 x 0
0 y 0 x
_
_
_
_
,
Av =
_
_
_
_
_
_
_
_
1 0
2 0
3 0
0 1
0 2
0 3
_
_
_
_
_
_
_
_
e v A =
_
_
_
_
_
_
_
_
1 0
0 1
2 0
0 2
3 0
0 3
_
_
_
_
_
_
_
_
1.2.7 Potencia de matrizes
Denicao: Dada a matriz quadrada A
(n)
e um n umero inteiro e positivo k,
dene-se a k-esima potencia de A por:
A
k
= AAA A
. .
k vezes
Searle(1982), em analogia com os reais, dene A
0
(n)
= I
(n)
.
Exemplo:
A =
_
1 2
3 4
_
, A
2
= AA =
_
7 10
15 22
_
,
A
3
= A
2
A =
_
37 54
81 118
_
e assim por diante.
Denicao: Dada a matriz quadrada A
(n)
, entao, em rela cao a sua potencia,
ela sera:
1. Idempotente, se A
2
= A;
2. Nilpotente, se A
2
= ;
3. Unipotente, se A
2
= I.
8 Luna, J. G. & Esteves, E. M.
Exemplos:
A =
1
3
_
_
2 1 1
1 2 1
1 1 2
_
_
e idempotente,
B =
_
_
1 3 7
2 6 14
1 3 7
_
_
e nilpotente,
C =
_
_
_
_
1 0 2 3
0 1 4 5
0 0 1 0
0 0 0 1
_
_
_
_
e unipotente.
1.2.8 Particao de matrizes
Dada a matriz
m
A
n
, podemos particiona-la conforme nossas conveniencias.
Por exemplo:
X =
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
,
podemos particiona-la do seguinte modo
X =
_
X
1
X
2
X
3
_
=
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
e
X
X =
_
_
X
1
X
2
X
3
_
_
_
X
1
X
2
X
3
_
=
_
_
X
1
X
1
X
1
X
2
X
1
X
3
X
2
X
1
X
2
X
2
X
2
X
3
X
3
X
1
X
3
X
2
X
3
X
3
_
_
.
Isto e,
X
X =
_
_
_
_
_
_
_
_
6 3 3 2 2 2
3 3 0 1 1 1
3 0 3 1 1 1
2 1 1 2 0 0
2 1 1 0 2 0
2 1 1 0 0 2
_
_
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 9
1.2.9 Formas escalonadas
Uma matriz esta na forma escalonada se ela tiver as seguintes caractersticas:
( i) O 1
o
elemento da 1
a
_
_
4 2 2
4 4 0
4 0 4
_
_
_
_
4 2 2
0 2 2
0 2 2
_
_
_
_
4 2 2
0 2 2
0 0 0
_
_
_
_
4 0 4
0 2 2
0 0 0
_
_
_
_
1 0 1
0 1 1
0 0 0
_
_
= H.
Portanto, H e uma forma escalonada canonica de A.
10 Luna, J. G. & Esteves, E. M.
1.2.11 Forma de Hermite (H)
Denicao: Uma matriz A
(n)
esta na forma de Hermite, se estiver na forma
escalonada canonica e os lderes ocupam a diagonal principal.
Exemplo:
A
(3)
=
_
_
1 0 1
0 1 1
0 0 0
_
_
.
1.2.12 Posto ou rank de uma matriz
Denicao: Dada uma matriz
m
A
n
, denimos o posto de A , denotamos por
r(A), o n umero de linhas nao nulas de sua forma escalonada canonica.
Exemplo: Dada a matriz
A =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Usando o algoritmo de Gauss obtem-se a segunte forma:
_
A I
_
_
H L
_
.
Assim, teremos
_
A I
_
=
=
_
_
_
_
_
_
4 2 2 1 0 0
2 2 0 0 1 0
2 0 2 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 1
1
2
1
2
0
0 1 1
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_
=
_
H L
_
.
Segue que:
1. H e a forma de Hermite de A e r(A) = 2;
2. LA = H. Isto e,
LA =
_
_
_
_
_
_
1
2
1
2
0
1
2
1 0
1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
=
_
_
1 0 1
0 1 1
0 0 0
_
_
= H;
Luna, J. G. & Esteves, D. M. 11
3. ALA = A, ou seja
ALA =
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
1
2
1
2
0
1
2
1 0
1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A.
Segue, ainda, que
4. Se A
(n)
tem r(A) = n, entao H = I
(n)
, A
(n)
e nao singular e A
(n)
tem
posto completo;
5. Se
m
A
n
, tem r(A) = m, ent ao
m
A
n
tem posto linha completo, como por
exemplo:
B =
_
1 1 0
1 1 2
_
_
1 0 1
0 1 1
_
=r(B) = 2;
6. Se
m
A
n
, tem r(A) = n, ent ao
m
A
n
tem posto coluna completo, como por
exemplo:
X =
_
_
_
_
1 2
1 4
1 3
1 5
_
_
_
_
_
_
_
_
1 0
0 1
0 0
0 0
_
_
_
_
=r(X) = 2;
7. Se
m
A
n
, tem r(A) < min{m, n}, entao
m
A
n
e de posto incompleto.
Exemplo:
X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
_
_
1 0 1
0 1 1
0 0 0
0 0 0
_
_
_
_
=r(X) = 2.
1.2.13 Inversa de matrizes nao singulares
Dada a matriz quadrada A
(n)
de posto n, entao existe A
1
, tal que A
1
A =
AA
1
= I
(n)
. Sendo assim, A
(n)
e dita nao singular e A
1
(n)
e sua inversa unica.
Para obter A
1
utilzaremos o algoritmo de Gauss, conforme procedimento
a seguir:
_
A I
_
_
I A
1
_
12 Luna, J. G. & Esteves, E. M.
Exemplo: Seja a matriz
A
(3)
=
_
_
1 2 1
2 1 0
1 1 1
_
_
, entao,
_
A I
_
=
_
_
_
_
_
_
1 2 1 1 0 0
2 1 0 0 1 0
1 1 1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0
1
2
1
2
1
2
0 1 0 1 0 1
0 0 1
1
2
1
2
3
2
_
_
_
_
_
_
=
=
_
I
(3)
A
1
(3)
_
.
Isto e,
A
1
=
_
_
_
_
_
_
1
2
1
2
1
2
1 0 1
1
2
1
2
3
2
_
_
_
_
_
_
.
1.2.14 Diagonalizacao de matrizes reais
Opera coes de congruencia sobre uma matriz quadrada A
(n)
, sao opera coes
elementares efetuadas sequencialmente sobre linhas e colunas.
Teorema 1: Dada a matriz A
(n)
, real e simetrica, entao existe uma matriz C
nao singular tal que
CAC
= D
onde,
1. D = diag{d
1
, d
2
, , d
n
}, se r(A) = n;
2. D = diag{d
1
, d
2
, , d
k
, 0, , 0}, se r(A) = k < n.
Regra: Partindo de
_
A I
_
e fazendo operacoes elementares seq uenciais
sobre linhas e colunas de
_
A I
_
, chegamos a
_
D C
_
.
Exemplo:
A =
_
_
1 2 1
2 3 1
1 1 1
_
_
.
Luna, J. G. & Esteves, D. M. 13
Entao,
A I =
1 2 1 1 0 0
2 3 1 0 1 0
1 1 1 0 0 1
1 2 1 1 0 0
0 1 1 2 1 0
1 1 1 0 0 1
1 0 1 1 0 0
0 1 1 2 1 0
1 1 1 0 0 1
1 0 1 1 0 0
0 1 1 2 1 0
0 1 0 1 0 1
1 0 0 1 0 0
0 1 1 2 1 0
0 1 0 1 0 1
1 0 0 1 0 0
0 1 1 2 1 0
0 0 1 1 1 1
1 0 0 1 0 0
0 1 0 2 1 0
0 0 1 1 1 1
= D C .
Consequentemente,
D = CAC
=
_
_
1 0 0
2 1 0
1 1 1
_
_
_
_
1 2 1
2 3 1
1 1 1
_
_
_
_
1 2 1
0 1 1
0 0 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
Denicao: Dada a matriz A
(n)
real e simetrica e sua forma diagonal obtida
pelo Teorema 1, entao:
1. A
(n)
e uma matriz Positiva Denida se, e somente se, d
i
> 0, i
(d
i
, i = 1, 2, , n, elementos de D);
2. A
(n)
e Negativa Denida se, e somente se, d
i
< 0, i;
3. A
(n)
e Semi Positiva Denida se, e somente se, d
i
0, i;
4. A
(n)
e Semi Negativa Denida se, e somente se, d
i
0, i;
5. A
(n)
e Nao Denida se, e somente se, d
i
muda de sinal.
Observacao: Em estatstica temos particular interesse nas matrizes Denidas
Positivas e Semi Denidas Positivas.
Exemplo: Dada a matriz
=
_
_
2 1 1
1 2 1
1 1 2
_
_
14 Luna, J. G. & Esteves, E. M.
entao,
_
I
_
=
_
_
_
_
_
_
2 1 1 1 0 0
1 2 1 0 1 0
1 1 2 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
2 0 0 1 0 0
0
3
2
0
1
2
1 0
0 0
4
3
1
3
1
3
1
_
_
_
_
_
_
=
_
D C
_
e Denida Positiva.
Teorema 2: Dada a matriz A
(n)
real, simetrica e denida positiva, entao existe
uma matriz R
(n)
, tal que A = RR
. Neste caso, R = C
1
D
1/2
. Isto e,
D = CAC
C
1
DC
1
= C
1
CAC
C
1
C
1
D
1/2
. .
R
D
1/2
C
1
. .
R
= A
Exemplo: Seja a matriz
=
_
_
2 1 1
1 2 1
1 1 2
_
_
, entao
D =
_
_
_
_
_
_
2 0 0
0
3
2
0
0 0
4
3
_
_
_
_
_
_
, C =
_
_
_
_
_
_
1 0 0
1
2
1 0
1
3
1
3
1
_
_
_
_
_
_
,
C
1
=
_
_
_
_
_
_
1 0 0
1
2
1 0
1
2
1
3
1
_
_
_
_
_
_
e D
1/2
=
_
_
_
_
_
_
_
_
2 0 0
0
_
3
2
0
0 0
_
4
3
_
_
_
_
_
_
_
_
.
Portanto,
R = C
1
D
1/2
=
_
_
_
_
_
_
_
_
2 0 0
2
2
_
3
2
0
2
2
3
2
3
2
3
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
2 0 0
2
2
6
2
0
2
2
6
6
2
3
3
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 15
1.2.15 Autovalores e autovetores
Denicao 1: (Autovalor) Dada uma matriz quadrada real A
(n)
, entao a equacao
(A
(n)
I
(n)
) = |A
(n)
I
(n)
| = 0 e denida como a equacao carac-
terstica de A. Suas raizes sao chamadas de raizes caractersticas, auto-
valores ou valores proprios de A.
Exemplo: Seja a matriz
A =
_
2 1
1 2
_
, entao
(AI
(2)
) =
__
2 1
1 2
_
_
1 0
0 1
__
_
2 1
1 2
_
= (2 )
2
1 =
2
4 + 3 = =
4
16 12
2
=
_
1
= 3
2
= 1
sao os autovalores de A.
Para encontrar as raizes de um polinomio de mais alto grau poderemos usar
o metodo de Briot Runi. Seja, por exemplo:
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e
AI
(3)
3 1 1
1 3 1
1 1 3
.
Isto e,
AI
(3)
=
3
9
2
+ 24 20 = 0.
As possveis raizes do polinomio sao os divisores de 20: 1; 2; 4; 5; 10;
20. E assim, teremos:
Coef. do polinomio
Raizes 1 -9 24 -20
2 1 -7 10 0
2 1 -5 0
5 1 0
Portanto,
1
= 5,
2
= 2 e
3
= 2.
Denicao 2: (Autovetor) Os vetores x, tais que: (A I
(n)
)x = , sao os
autovetores de A.
Considerando o exemplo anterior, temos:
Para = 3,
16 Luna, J. G. & Esteves, E. M.
_
2 1
1 2
__
x
11
x
12
_
=
_
1 1
1 1
__
x
11
x
12
_
=
_
0
0
_
=
_
x
11
+x
12
= 0
x
11
x
12
= 0
=x
11
= x
12
=x
1
=
_
1
1
_
, .
Para = 1,
_
2 1
1 2
__
x
21
x
22
_
=
_
1 1
1 1
__
x
21
x
22
_
=
_
0
0
_
=
_
x
21
+x
22
= 0
x
21
+x
22
= 0
=x
21
= x
22
=x
2
=
_
1
1
_
, .
Observacao: Note que vetores sao representados por letras min usculas em
negrito enquanto que suas componentes sao representadas por letras min usculas
normais. Por exemplo: x
ij
e uma componente do vetor x
i
.
Denicao 3: (Norma) A norma de um vetor x e denida como:
x =
x =
j
x
2
j
.
Considerando = = 1 e os vetores x
1
e x
2
do exemplo anterior, temos
x
1
= x
2
=
2.
Denicao 4: (Vetor Normalizado, u)
E denido como:
u =
1
x
x.
Para os vetores x
1
e x
2
do exemplo anterior, temos
u
1
=
1
2
_
1
1
_
e u
2
=
1
2
_
1
1
_
.
1.2.16 Vetores ortogonais
Denicao: Dois vetores x e y sao ortogonais se, e somente se,
x
y = y
x = 0.
Exemplo:
x =
_
_
1
1
2
_
_
e y =
_
_
1
1
0
_
_
=x
y = y
x = 0.
Logo, x e y sao vetores ortogonais.
Luna, J. G. & Esteves, D. M. 17
Teorema 3: Dada uma matriz A
(n)
real e simetrica, entao existe P
(n)
ortog-
onal, tal que,
P
AP = P
1
AP =
(n)
,
onde P
= P
1
, = diag{
1
,
2
, ,
n
} e P e obtida dos autovetores
normalizados de A.
Exemplo:
A =
_
2 1
1 2
_
; u
1
=
1
2
_
1
1
_
; u
2
=
1
2
_
1
1
_
e
P =
_
u
1
u
2
_
=
_
_
1
2
1
2
1
2
1
2
_
_
, logo,
= P
AP =
_
_
1
2
1
2
1
2
1
2
_
_
_
2 1
1 2
_
_
_
1
2
1
2
1
2
1
2
_
_
=
_
3 0
0 1
_
Teorema 4: Dada a matriz quadrada real A
(n)
com raizes caractersticas
i
(i =
1, 2, , n), entao:
1.
i
= 0, i A e nao singular;
2. Se r(A) = k < n, entao A tem k raizes caractersticas nao nulas e
n k raizes nulas;
3. Se A
(n)
e nao singular, entao as raizes de A
1
sao 1/
i
, (i =
1, 2, , n);
4. Existe sempre um vetor caracterstico x
i
associado a uma raiz car-
acterstica
i
;
5. Tr(A) =
n
i=1
i
;
6. (A) =
n
i=1
i
;
7. Se A = B C, entao
(A)
=
(B)
(C)
, onde,
(A)
,
(B)
e
(C)
sao matrizes diagonais que exibem as raizes caractersticas de
A, B e C, respectivamente;
8. Sejam x
i
e x
j
vetores caractersticos associados, respectivamente, `as
raizes caractersticas
i
e
j
. Entao, se
i
=
j
=x
i
x
j
= 0;
18 Luna, J. G. & Esteves, E. M.
9. Se B e nao singular, entao A, B
1
AB e BAB
1
tem as mesmas
raizes caractersticas.
Teorema 5: Seja a matriz quadrada real A
(n)
e seja
(n)
a matriz diagonal
que exibe as raizes caractersticas de A. Isto e,
(n)
= diag{
1
, ,
n
}.
Entao:
1.
i
> 0, i, = A e positiva denida;
2.
i
0, i, e |
i
= 0, = A e semi-positiva denida;
3.
i
< 0, i, = A e negativa denida;
4.
i
0, i e |
i
= 0, = A e semi-negativa denida;
5.
i
muda de sinal = A e nao denida.
1.3 Fatoracao de matrizes
Veremos como obter matrizes B e C, tais que A = BC.
Teorema 6: Dada A
(n)
real, simetrica e nao negativa, entao existe uma matriz
R, tal que A = RR
.
Do Teorema 1, temos que CAC
C
1
= C
1
DC
1
= C
1
D
1/2
. .
R
D
1/2
C
1
. .
R
= RR
= A.
(1.1)
De modo analogo, temos do Teorema 3, que
P
AP = .
Pre e pos multiplicando ambos os lados por P e P
, respectivamente, vem,
PP
APP
= PP
= P
1/2
. .
R
1/2
P
. .
R
= RR
= A. (1.2)
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
, encontre R, tal que A = RR
.
Luna, J. G. & Esteves, D. M. 19
Para obter a fatoracao sugerida pela equacao (4.2), vem
_
_
_
_
_
_
4 2 2 1 0 0
2 2 0 0 1 0
2 0 2 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2 1 0 0
0 1 1
1
2
1 0
2 0 2 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
4 0 2 1 0 0
0 1 1
1
2
1 0
2 1 2 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
4 0 2 1 0 0
0 1 1
1
2
1 0
0 1 1
1
2
0 1
_
_
_
_
_
_
_
_
_
_
_
_
4 0 0 1 0 0
0 1 1
1
2
1 0
0 1 1
1
2
0 1
_
_
_
_
_
_
_
_
_
_
_
_
4 0 0 1 0 0
0 1 1
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
4 0 0 1 0 0
0 1 0
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_
=
_
D C
_
.
Por outro lado,
_
C I
_
=
_
_
_
_
_
_
1 0 0 1 0 0
1
2
1 0 0 1 0
1 1 1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 1 0 0
0 1 0
1
2
1 0
0 1 1 1 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 1 0 0
0 1 0
1
2
1 0
0 0 1
1
2
1 1
_
_
_
_
_
_
=
_
I
(3)
C
1
_
.
Agora,
R = C
1
D
1/2
=
_
_
_
_
_
_
1 0 0
1
2
1 0
1
2
1 1
_
_
_
_
_
_
_
_
2 0 0
0 1 0
0 0 0
_
_
=
_
_
2 0 0
1 1 0
1 1 0
_
_
.
20 Luna, J. G. & Esteves, E. M.
Observe que
RR
=
_
_
2 0 0
1 1 0
1 1 0
_
_
_
_
2 1 1
0 1 1
0 0 0
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Por outro lado, para obter a fatoracao sugerida pela equa cao (1.2), procedemos
conforme se segue:
Sendo A =
_
_
4 2 2
2 2 0
2 0 2
_
_
, entao
(AI) =
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
0 0
0 0
0 0
_
_
4 2 2
2 2 0
2 0 2
= 0.
Portanto,
(4 )(2 )
2
4(2 ) 4(2 ) = 0,
ou
(
2
8 + 12) = 0.
Portanto,
3
= 0
e
=
8
64 48
2
=
_
1
=
8+4
2
= 6
2
=
84
2
= 2
Assim,
1
= 6,
2
= 2 e
3
= 0.
Agora, teremos,
Para = 6,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
6 0 0
0 6 0
0 0 6
_
_
_
_
_
_
x
11
x
12
x
13
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
2 2 2
2 4 0
2 0 4
_
_
_
_
x
11
x
12
x
13
_
_
=
_
_
0
0
0
_
_
=
_
_
_
2x
11
+ 2x
12
+ 2x
13
= 0
2x
11
4x
12
= 0
2x
11
4x
13
= 0
ou _
_
_
x
11
= 2x
12
x
11
= 2x
13
x
11
= x
12
+x
13
=x
1
=
_
_
2
1
1
_
_
.
Luna, J. G. & Esteves, D. M. 21
Para = 2,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
2 0 0
0 2 0
0 0 2
_
_
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
2 2 2
2 0 0
2 0 0
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
=
_
_
_
2x
21
+ 2x
22
+ 2x
23
= 0
2x
21
= 0
2x
21
= 0
ou _
_
_
x
21
= 2x
22
2x
23
x
21
= 0
x
21
= 0
=x
2
=
_
_
0
1
1
_
_
.
Para = 0,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
0 0 0
0 0 0
0 0 0
_
_
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
31
x
32
x
33
_
_
=
_
_
0
0
0
_
_
=
_
_
_
4x
31
+ 2x
32
+ 2x
33
= 0
2x
31
+ 2x
32
= 0
2x
31
+ 2x
33
= 0
ou _
_
_
2x
31
= x
32
x
33
x
31
= x
32
x
31
= x
33
=x
3
=
_
_
1
1
1
_
_
.
Os autovetores normalizados de A, quando = = = 1, sao:
u
1
=
1
x
1
x
1
=
1
6
_
_
2
1
1
_
_
;
u
2
=
1
x
2
x
2
=
1
2
_
_
0
1
1
_
_
;
u
3
=
1
x
3
x
3
=
1
3
_
_
1
1
1
_
_
.
Assim sendo, teremos
P =
_
_
_
_
_
_
_
2
6
0
1
3
1
6
1
2
1
3
1
6
1
2
1
3
_
_
_
_
_
_
_
22 Luna, J. G. & Esteves, E. M.
e
P
AP = .
Isto e,
_
_
_
_
_
_
_
2
6
1
6
1
6
0
1
2
1
2
1
3
1
3
1
3
_
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
_
2
6
0
1
3
1
6
1
2
1
3
1
6
1
2
1
3
_
_
_
_
_
_
_
=
=
_
_
6 0 0
0 2 0
0 0 0
_
_
.
Agora, teremos R = P
1/2
. Ou seja,
R =
_
_
_
_
_
_
_
2
6
0
1
3
1
6
1
2
1
3
1
6
1
2
1
3
_
_
_
_
_
_
_
_
_
6 0 0
0
2 0
0 0 0
_
_
=
_
_
2 0 0
1 1 0
1 1 0
_
_
.
Observe que,
RR
=
_
_
2 0 0
1 1 0
1 1 0
_
_
_
_
2 1 1
0 1 1
0 0 0
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A
Teorema 7: Dada a matriz real
m
A
n
de posto k, entao existem matrizes
m
B
k
e
k
C
n
ambas de posto k, tais que,
m
A
n
=
m
B
kk
C
n
.
Em geral B e C nao sao unicas.
Algoritmo de Dwivedi (nao e unico). Este algoritmo converge em apenas
r(A) = k passos.
Dada a matriz
m
A
n
= (a
ij
), com r(A) = k, onde
i = 1, 2, , p, , m (e o ndice de linhas),
j = 1, 2, , q, , n (e o ndice de colunas).
(i) Escolher algum elemento a
pq
= 0;
Luna, J. G. & Esteves, D. M. 23
(ii) Obter o produto u
1
v
1
, onde
u
1
=
1
a
pq
_
_
_
_
_
_
_
_
_
_
a
1q
a
2q
.
.
.
a
pq
.
.
.
a
mq
_
_
_
_
_
_
_
_
_
_
e v
1
=
_
a
p1
a
p2
a
pq
a
pn
_
;
(iii) Fazer A
1
= Au
1
v
1
;
(iv) Se A
1
= , o processo esta encerrado e
B = u
1
e C = v
1
;
(v) Se A
1
= , repetir o processo para A
1
, e assim sucessivamente ate que
A
k
= . No nal do processo, teremos
m
A
n
= u
1
v
1
+u
2
v
2
+ +u
k
v
k
=
m
B
kk
C
n
,
onde
B =
_
u
1
u
2
u
k
_
e C =
_
_
_
_
_
v
1
v
2
.
.
.
v
k
_
_
_
_
_
.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
. Entao,
(i) a
11
= 4;
(ii) u
1
=
1
4
_
_
4
2
2
_
_
; v
1
=
_
4 2 2
_
, e
u
1
v
1
=
_
_
_
_
_
_
1
1
2
1
2
_
_
_
_
_
_
_
4 2 2
_
=
_
_
4 2 2
2 1 1
2 1 1
_
_
.
(iii) Obter A
1
= Au
1
v
1
. Ou seja,
A
1
=
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
4 2 2
2 1 1
2 1 1
_
_
=
_
_
0 0 0
0 1 1
0 1 1
_
_
= .
Como A
1
= , retomamos o processo. Isto e,
24 Luna, J. G. & Esteves, E. M.
(i) a
22
= 1;
(ii) u
2
=
1
1
_
_
0
1
1
_
_
; v
2
=
_
0 1 1
_
, e
A
2
= u
2
v
2
=
_
_
0
1
1
_
_
_
0 1 1
_
=
_
_
0 0 0
0 1 1
0 1 1
_
_
.
(iii) Como A
2
= A
1
u
2
v
2
= , o processo esta encerrado e teremos:
B =
_
_
_
_
_
_
1 0
1
2
1
1
2
1
_
_
_
_
_
_
e C =
_
4 2 2
0 1 1
_
.
Observe que
A = BC =
_
_
_
_
_
_
1 0
1
2
1
1
2
1
_
_
_
_
_
_
_
4 2 2
0 1 1
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
.
1.4 Decomposicao de matrizes
Nas duas subse coes a seguir, veremos dois casos muito importantes para a
estatstica.
1.4.1 A decomposicao espectral
Seja a matriz A
(n)
, real e simetrica, com autovalores {
i
} e autovetores
associados {u
i
}, tais que u
i
u
i
= 1, (i = 1, , n). Entao A
(n)
pode ser escrita
como
A
(n)
= UU
=
n
i=1
i
u
i
u
,
onde
= diag{
1
, ,
n
} e U = [u
1
u
n
].
A matriz U e ortogonal, visto que UU
= U
U = I. Tambem, se A
(n)
for
semipositiva denida, teremos,
A
m
= U
m
U
,
Luna, J. G. & Esteves, D. M. 25
com
m
= diag{
m
1
, ,
m
n
} para qualquer m inteiro. Se os autovalores {
i
}
sao todos nao negativos, entao potencias racionais de A
(n)
podem ser denidas
de modo analogo e em particular para potencias
1
2
e
1
2
.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Entao, conforme exemplo anterior,
1
= 6, ,
2
= 2 e
3
= 0,
u
1
=
_
_
_
_
_
_
_
2
6
1
6
1
6
_
_
_
_
_
_
_
, u
2
=
_
_
_
_
_
_
0
2
1
2
_
_
_
_
_
_
e u
3
=
_
_
_
_
_
_
_
1
3
_
_
_
_
_
_
_
.
e a decomposi cao espectral de A e
A =
3
i=1
i
u
i
u
i
=
1
u
1
u
1
+
2
u
2
u
2
+
3
u
3
u
3
= 6
_
_
_
_
_
_
_
2
6
1
6
1
6
_
_
_
_
_
_
_
_
2
6
1
6
1
6
_
+ 2
_
_
_
_
_
_
0
2
1
2
_
_
_
_
_
_
_
0
1
2
1
2
_
=
_
_
4 2 2
2 1 1
2 1 1
_
_
+
_
_
0 0 0
0 1 1
0 1 1
_
_
.
Por outro lado, temos
A
2
= U
2
U
=
_
_
_
2
6
0
1
3
1
6
1
2
1
3
1
6
1
2
1
3
_
_
_
_
_
6
2
0 0
0 2
2
0
0 0 0
_
_
_
_
_
2
6
1
6
1
6
0
1
2
1
2
1
3
1
3
1
3
_
_
_
=
_
_
24 12 12
12 8 4
12 4 8
_
_
= AA.
.
26 Luna, J. G. & Esteves, E. M.
Tambem,
A
1
2
= U
1
2
U
=
_
_
_
2
6
0
1
3
1
6
1
2
1
3
1
6
1
2
1
3
_
_
_
_
_
6
1
2
0 0
0 2
1
2
0
0 0 0
_
_
_
_
_
2
6
1
6
1
6
0
1
2
1
2
1
3
1
3
1
3
_
_
_
=
_
_
_
_
_
_
_
4
6
2
6
2
6
2
6
1
6
+
1
2
1
6
1
2
2
6
1
6
1
2
1
6
+
1
2
_
_
_
_
_
_
_
.
Observe que
A
1
2
A
1
2
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A.
1.4.2 A decomposicao em valores singulares
Se a matriz A tem dimensoes n p e posto k. Entao A pode ser escrita
como
A = UV
,
onde = diag{
1
, ,
k
}, com
1
2
k
0, U e uma matriz
ortogonal de ordem n k, e V e uma matriz ortogonal de ordem k k, isto
e, U
U = V
V = I. O conjunto de valores {
i
} sao chamados de valores
singulares de A. Se U e V sao escritos em termos de seus vetores coluna,
U = [u
1
u
2
u
k
] e V = [v
1
v
2
v
k
], entao {u
i
} sao os vetores singulares `a
esquerda de A e {v} sao os vetores singulares `a direita de A. A matriz A pode
entao ser escrita como
A =
k
i=1
i
u
i
v
i
.
Pode ser mostrado que {
2
i
} sao os autovalores nao nulos da matriz simetrica
AA
e tambem da matriz A
A. Os vetores {u
i
} sao os correspondentes autove-
tores normalizados de AA
, e os vetores {v
i
} sao os correspondentes autovetores
normalizados de A
A.
Exemplo: Seja a matriz
A =
_
_
5 2 9
0 1 2
2 1 4
4 3 2
_
_
.
Luna, J. G. & Esteves, D. M. 27
Entao a a decomposicao em valores singulares de A e
A =
_
_
0.901 0.098
0.169 0.195
0.394 0.000
0.056 0.980
_
_
_
11.619 0
0 5.477
_ _
0.436 0.218 0.873
0.802 0.535 0.267
_
ou equivalente
A = 11.619
_
_
0.393 0.196 0.787
0.074 0.037 0.148
0.172 0.086 0.344
0.024 0.012 0.049
_
_
+5.477
_
_
0.079 0.052 0.026
0.156 0.104 0.052
0.000 0.000 0.000
0.786 0.524 0.262
_
_
.
28 Luna, J. G. & Esteves, E. M.
1.5 Lista de exerccio # 1
1.1 Dadas as matrizes
A =
_
1 2
2 4
_
e B =
_
1 1
1/2 1
_
,
verique que em geral a multiplicacao de matrizes nao e comutativa.
1.2 Sendo
A =
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
,
verique que, com relacao a multiplicacao, A e A
= A; (c) (AB)
= B
;
(b) (A+B)
= A
+B
; (d) A
A e AA
sao simetricas.
1.4 Sejam
A =
_
_
1 2 3
0 1 0
0 0 5
_
_
; B =
_
_
3 1 1
1 3 1
1 1 3
_
_
e K = 2.
verique as propriedades de matrizes inversa:
(a) (A
1
)
1
= A; (c) (AB)
1
= B
1
A
1
, se A
1
e B
1
;
(b) (A
1
)
= (A
)
1
; (d) (AK)
1
= (KA)
1
=
1
K
A
1
.
1.5 O tra co de uma matriz quadrada A
(n)
e denido como sendo a soma dos
elementos da sua diagonal principal. Isto e, Tr(A) =
n
i=1
a
ii
. Usando
as matrizes A e B do exerccio 1.4, verique as seguintes propriedades:
(a) Tr(AB) = Tr(A) Tr(B); (b) Tr(A) = Tr(A
);
(c) Tr(A
1
BA) = Tr(B); (d) Tr(AB) = Tr(BA), se as
(e) Tr(AA
) =
i,j
a
2
ij
. dimensoes sao favoraveis.
1.6 Seja a identidade:
_
A u
v
a
_
1
=
_
B p
q
_
Luna, J. G. & Esteves, D. M. 29
Onde, u, v, p e q sao vetores, a e sao escalares e A e nao singular.
Considere
A =
_
1 2
0 3
_
; u =
_
1
0
_
; v =
_
1
0
_
; e a = 1.
Verique que:
(a) =
_
a v
A
1
u
_
1
; (b) B = A
1
+A
1
uv
A
1
;
(c) p = A
1
u; (d) q
= v
A
1
.
1.7 Dado o vetor y =
_
_
_
_
1
5
3
9
_
_
_
_
e a matriz E
(4)
=
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
.
(a) Verique que y
y =
4
i=1
y
2
i
(b) Obtenha yy
;
(c) Obtenha y
Ey.
1.8 Dadas as matrizes
A =
_
_
_
_
1 10
1 20
1 30
1 40
_
_
_
_
e B =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
(a) Obtenha A
A e B
B;
(b) Determine r(A), r(A
B);
(c) Dentre estas quatro matrizes existe alguma nao singular?
(d) Dentre elas existe alguma de posto coluna completo?
1.9 Dado o sistema de equacoes lineares
_
2x
1
+x
2
= 3
2x
1
+ 3x
2
= 5
(a) Escreva o sistema na forma matricial Ax = g;
(b) Encontre a solu cao do sistema x = A
1
g;
(c) Pre multiplique ambos os membros de Ax = g por A
e obtenha
A
Ax = A
g;
(d) Obtenha a solu cao do novo sistema atrves de x = (A
A)
1
A
g;
(e) Compare os resultados de (b) com (d).
30 Luna, J. G. & Esteves, E. M.
1.10 Dado o sistema de equacoes lineares com incognitas e :
+x
1
= y
1
+x
2
= y
2
+x
3
= y
3
+x
4
= y
4
(a) Escreva-o na forma matricial X = y, onde =
_
_
;
(b) Verique que a matriz X tem posto coluna completo;
(c) Verique que para i = 1, 2, 3, 4 = n
(i) X
X =
_
_
n
i
x
i
i
x
i
i
x
2
i
_
_
; (ii) X
y =
_
_
i
y
i
i
x
i
y
i
_
_
.
(d) Usando (c) escreva o sistema X
= X
y, onde
=
_
_
.
(e) Sendo
= (X
X)
1
X
y, Mostre que:
= y
x e
=
S
xy
S
xx
,
onde,
S
xy
=
n
i=1
x
i
y
i
i=1
x
i
n
i=1
y
i
n
; S
xx
=
n
i=1
x
2
i
_
n
i=1
x
i
_
2
n
;
x =
1
n
i
x
i
e y =
1
n
i
y
i
.
(f ) Admita X =
_
X
1
.
.
. X
2
_
=
_
_
_
_
1 : 10
1 : 20
1 : 30
1 : 40
_
_
_
_
e y =
_
_
_
_
100
90
150
160
_
_
_
_
.
Determine:
1. e
, atraves do item (e);
2. M =
y;
3. M = y
X)
1
X
;
4. T = y
y;
5. R = y
y;
6. R = y
(I P)y;
Luna, J. G. & Esteves, D. M. 31
7. r(P) e r[(I P)];
(g) Verique numericamente que:
1. P e (I P) sao idempotentes;
2. P(I P) = (I P)P = ;
(h) Usando o fato de que X
y =
_
_
i
y
i
i
x
i
y
i
_
_
e
=
_
_
, mostre
que:
M =
y = C +S,
onde,
C =
(
n
i=1
y
i
)
2
n
; e S =
S
xy
;
Calcule C e S.
(i) Usando os dados fornecidos para X e y no item (f) preencha o quadro
de analise de variancia a seguir
F. Variacao G.L. S.Q. Q.M. F
Correcao r(X
1
) C
Regressao r(X
2
) S a =
S
r(X2)
F =
a
b
Parametros r(X) M =
y
M
r(X)
Resduo n r(X) R = y
y b =
R
nr(X)
Total n T
1.11 Dado o sistema de equacoes lineares
+t
1
= y
11
+t
1
= y
12
+t
2
= y
21
+t
2
= y
22
t
1
+t
2
= 0
(a) Escreva-o na forma matricial X = y, onde
=
_
t
1
t
2
_
(b) Verique que a matriz X tem posto coluna completo;
(c) Verique que X
X =
_
_
n r
1
r
2
r
1
r
1
+ 1 1
r
2
1 r
2
+ 1
_
_
; onde, r
1
e o n umero de
repeti coes de t
1
e r
2
e o n umero de repeticoes de t
2
.
(d) Verique que X
y =
_
_
G
T
1
T
2
_
_
, onde G =
i,j
y
ij
, T
1
=
j
y
1j
e T
2
=
j
y
2j
.
32 Luna, J. G. & Esteves, E. M.
(e) Admitindo que y =
_
_
_
_
6
8
10
20
_
_
_
_
, obtenha o sistema X
= X
y e verique
que = y
..
;
t
1
= y
1.
y
..
;
t
2
= y
2.
y
..
e
t
1
+
t
2
= 0. Note que
=
_
t
1
t
2
_
.
(f ) Calcule:
1. M =
y;
2. M = y
X)
;
3. T = y
y;
4. R = y
y;
5. R = y
(I P)y;
6. r(P) e r(I P).
(g) Prove algebricamente e verique numericamente que:
1. P e I P sao idempotentes;
2. P(I P) = (I P)P = .
(h) Usando o fato de que
=
_
_
t
1
t
2
_
_
=
_
_
y
..
y
1.
y
..
y
2.
y
..
_
_
e X
y =
_
_
G
T
1
T
2
_
_
,
mostre que M = y
Py =
y = C +S, onde
C =
G
2
n
e S =
2
i=1
T
2
i
r
i
C =
2
i=1
r
i
( y
i.
y
..
)
2
.
(i) Calcule C e S;
(j) Preencha o quadro a seguir:
F. Variacao G.L. S.Q. Q.M. F
Correcao g
1
= r(X
1
) = C=
Tratamento g
2
= r(X
2
) = S= a =
S
g2
=
a
b
=
Parametros g
3
= r(X) = M =
M
g3
Resduo g
4
= n r(X) = R = b =
R
g4
=
TOTAL g
5
= n = T =
Luna, J. G. & Esteves, D. M. 33
1.6 Inversas generalizadas de matrizes reais
Dada uma matriz
m
A
n
de posto k, no que se refere a sua inversa, temos as
seguintes situa coes:
1. Se m = n = k =
m
A
n
= A
(n)
= A
1
, tal que AA
1
= A
1
A = I
(A e nao singular);
2. Se m = n > k =
m
A
n
= A
(n)
= A
1
. Logo A e singular;
3. Se m = n, nao faz sentido se falar da inversa A
1
.
O conceito de inversa de matrizes e aplicavel apenas `as matrizes quadradas
nao singulares que nem sempre e suciente para resolver problemas praticos.
Introduziremos a seguir mais tres tipos de inversa de matrizes.
1.6.1 A Inversa generalizada de Moore-Penrose, A
+
Denicao: Dada uma matriz
m
A
n
, de posto r(A) = k, entao a matriz
n
A
+
m
de posto r(A
+
) = k que satisfaz as quatro condicoes:
(i) AA
+
A = A (ii) A
+
AA
+
= A
+
(iii) A
+
A = (A
+
A)
(simetrica) (iv) AA
+
= (AA
+
)
( simetrica)
e dita inversa generalizada de Moore-Penrose.
Teorema 8: Dada a matriz
m
A
n
de posto r(A) = k, entao existe uma, e
somente uma matriz
n
A
+
m
, que satisfaz as quatro condicoes de Moore-
Penrose.
n
A
+
m
e dada por:
A
+
= C
(CC
)
1
(B
B)
1
B
B e CC
B
k
) = r(
k
CC
k
) = k, por construcao.
34 Luna, J. G. & Esteves, E. M.
(a) AA
+
A = BCC
(CC
)
1
. .
I
(B
B)
1
B
B
. .
I
C = BC = A;
(b) A
+
AA
+
= C
(CC
)
1
(B
B)
1
B
B
. .
I
CC
(CC
)
1
. .
I
(B
B)
1
B
= C
(CC
)
1
(B
B)
1
B
= A
+
;
(c) A
+
A = C
(CC
)
1
(B
B)
1
B
B
. .
I
C = C
(CC
)
1
C, que e uma forma
simetrica. Portanto, A
+
A = (A
+
A)
;
(d) AA
+
= BCC
(CC
)
1
. .
I
(B
B)
1
B
= B(B
B)
1
B
.
Portanto, A
+
existe.
2 - A unicidade de A
+
Admitamos a existencia de duas inversas generalizadas de Moore-Penrose,
A
+
1
e A
+
2
. Entao,
(a.1) AA
+
1
A = A (a.2) AA
+
2
A = A;
(b.1) A
+
1
AA
+
1
= A
+
1
(b.2) A
+
2
AA
+
2
= A
+
2
;
(c.1) A
+
1
A = (A
+
1
A)
(c.2) A
+
2
A = (A
+
2
A)
;
(d.1) AA
+
1
= (AA
+
1
)
(d.2) AA
+
2
= (AA
+
2
)
.
Assim,
(e) A
+
1
A
(a.1)
= A
+
1
AA
+
1
A
(c.1) e (c.2)
= A
A
+
1
A
+
2
(a.1)
= A
A
+
2
(c.2)
= A
+
2
A. Por-
tanto, A
+
1
A = A
+
2
A;
(f ) AA
+
1
(a.2)
= AA
+
2
AA
+
1
(c.1) e (c.2)
= A
+
2
A
A
+
1
A
= A
+
2
A
= (AA
+
2
)
=
AA
+
2
. Portanto, AA
+
1
= AA
+
2
;
(g) A
+
1
(b.1)
= A
+
1
AA
+
1
(e)
= A
+
2
AA
+
1
(f)
= A
+
2
AA
+
2
(b.2)
= A
+
2
. Logo A
+
1
= A
+
2
=
A
+
. Isto e, A
+
e unica.
Exemplo: Seja X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
. Encontre a inversa generalizada de Moore-
Penrose de X, X
+
. Para obtermos B e C tais que A = BC, usaremos o
algoritmo de Dwivedi. Isto e,
Luna, J. G. & Esteves, D. M. 35
(1) a
11
= 1, u
1
=
1
1
_
_
_
_
1
1
1
1
_
_
_
_
=
_
_
_
_
1
1
1
1
_
_
_
_
e v
1
=
_
1 1 0
_
;
(2) u
1
v
1
=
_
_
_
_
1
1
1
1
_
_
_
_
_
1 1 0
_
=
_
_
_
_
1 1 0
1 1 0
1 1 0
1 1 0
_
_
_
_
;
(3) A
1
= Au
1
v
1
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
_
_
1 1 0
1 1 0
1 1 0
1 1 0
_
_
_
_
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
= .
Vamos repetir o processo,
(1) a
32
= 1, u
2
=
1
1
_
_
_
_
0
0
1
1
_
_
_
_
=
_
_
_
_
0
0
1
1
_
_
_
_
e v
2
=
_
0 1 1
_
;
(2) u
2
v
2
=
_
_
_
_
0
0
1
1
_
_
_
_
_
0 1 1
_
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
;
(3) A
2
= A
1
u
2
v
2
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
= . O processo
esta encerrado e temos
4
B
2
=
_
u
1
.
.
. u
2
_
=
_
_
_
_
1 0
1 0
1 1
1 1
_
_
_
_
e
2
C
3
=
_
_
v
1
v
2
_
_
=
_
1 1 0
0 1 1
_
.
Da,
B
B =
_
1 1 1 1
0 0 1 1
_
_
_
_
_
1 0
1 0
1 1
1 1
_
_
_
_
=
_
4 2
2 2
_
e
(B
B)
1
=
1
2
_
1 1
1 2
_
;
36 Luna, J. G. & Esteves, E. M.
Por outro lado,
CC
=
_
1 1 0
0 1 1
_
_
_
1 0
1 1
0 1
_
_
=
_
2 1
1 2
_
e
(CC
)
1
=
1
3
_
2 1
1 2
_
.
Agora, calculamos:
C
(CC
)
1
=
1
3
_
_
1 0
1 1
0 1
_
_
_
2 1
1 2
_
=
1
3
_
_
2 1
1 1
1 2
_
_
;
(B
B)
1
B
=
1
2
_
1 1
1 2
__
1 1 1 1
0 0 1 1
_
=
1
2
_
1 1 0 0
1 1 1 1
_
.
Finalmente
A
+
= C
(CC
)
1
(B
B)
1
B
=
1
3
_
_
2 1
1 1
1 2
_
_
1
2
_
1 1 0 0
1 1 1 1
_
=
1
6
_
_
1 1 1 1
2 2 1 1
1 1 2 2
_
_
.
A inversa generalizada de Moore-Penrose tem excelentes propriedades, as
quais facilitam algumas demonstracoes teoricas. Dentre elas destacamos:
1. Se A e uma matriz nao singular, entao A
+
= A
1
;
2. Se A e simetrica, entao A
+
tambem e simetrica;
3. Da denic ao temos que AA
+
e A
+
A sao simetricas e demonstra-
se que ambas sao idempotentes. Isto e, (AA
+
)(AA
+
) = AA
+
e
(A
+
A)(A
+
A) = A
+
A. Alem disso, tem-se que r(A
+
A) = r(AA
+
) =
r(A
+
) = r(A).
4. Se r(A) = m (n umero de linhas de A), diz-se que A e de posto linha
completo. A
+
= A
(AA
)
1
e AA
+
= I
(m)
.
Se r(A) = n (n umero de colunas de A) diz-se que A e de posto
coluna completo. A
+
= (A
A)
1
A
e A
+
A = I
(n)
Luna, J. G. & Esteves, D. M. 37
5. Dadas as matrizes I
(n)
e
m
A
n
, com r(A) = k, entao tem-se que
r(I AA
+
) = n k;
6. Se A
(n)
e real e simetrica com raizes caractersticas
1
,
2
, ,
n
e
vetores caractersticos normalizados u
1
, u
2
, , u
n
. Entao
P
AP = , onde P = (u
1
u
2
u
n
)
e, portanto
A = PP
=
1
u
1
u
1
+
2
u
2
u
2
+ +
n
u
n
u
n
,
e chamada de decomposicao espectral de A e
A
+
= P
1
P
.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
de onde temos,
1
= 6 e
2
= 2;
x
1
=
_
_
_
_
_
_
2
1
1
_
_
_
_
_
_
=u
1
=
_
_
_
_
_
_
_
2
6
1
6
1
6
_
_
_
_
_
_
_
, x
2
=
_
_
_
_
_
_
0
1
1
_
_
_
_
_
_
=u
2
=
_
_
_
_
_
_
0
1
2
_
_
_
_
_
_
;
P =
_
u
1
u
2
_
=
_
_
_
_
_
_
_
2
6
0
1
6
1
2
1
6
1
2
_
_
_
_
_
_
_
;
= P
AP =
_
_
2
6
1
6
1
6
0
1
2
1
2
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
_
2
6
0
1
6
1
2
1
6
1
2
_
_
_
_
_
_
_
=
_
6 0
0 2
_
;
38 Luna, J. G. & Esteves, E. M.
PP
=
1
u
1
u
1
+
2
u
2
u
2
=
= 6
_
_
_
_
_
_
_
2
6
1
6
1
6
_
_
_
_
_
_
_
_
2
6
1
6
1
6
_
+ 2
_
_
_
_
_
_
0
1
2
_
_
_
_
_
_
_
0
1
2
1
2
_
=
_
_
_
_
_
_
4 2 2
2 1 1
2 1 1
_
_
_
_
_
_
+
_
_
_
_
_
_
0 0 0
0 1 1
0 1 1
_
_
_
_
_
_
=
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
= A;
A
+
= P
1
P
=
_
_
_
_
_
_
_
2
6
0
1
6
1
2
1
6
1
2
_
_
_
_
_
_
_
_
_
1
6
0
0
1
2
_
_
_
_
2
6
1
6
1
6
0
1
2
1
2
_
_
=
1
18
_
_
2 1 1
1 5 4
1 4 5
_
_
.
Observacao: Se A
(n)
for nao singular, entao
A
+
= A
1
=
1
1
u
1
u
1
+
1
2
u
2
u
2
+ +
1
n
u
n
u
n
.
1.6.2 Inversa generalizada condicional
Denicao: Dada uma matriz
m
A
n
de posto r(A) = k, toda matriz
n
A
m
que
satisfaz a condi c ao AA
;
3. Substituir em A,
_
M
1
_
=
_
1 0
0 1
_
;
(iii) Substituir em A,
_
M
1
_
=
_
_
0 0 0 0
0 1 0 0
0 0 1 0
_
_
.
Observe que
AA
A =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
0 0 0 0
0 1 0 0
0 0 1 0
_
_
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
= A.
1.6.3 Inversa generalizada de mnimos quadrados
Denicao: Dada uma matriz
m
A
n
de posto r(A) = k, toda matriz
n
A
m
que
satisfaz as condi coes:
(i) AA
A = A (ii) AA
=
_
AA
(simetrica)
e chamada inversa generalizada de mnimos quadrado de A.
40 Luna, J. G. & Esteves, E. M.
Teorema 9: Toda matriz A
= (A
A)
A)
. Alem disso, AA
= (AA
)(AA
).
Exemplo: Seja X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
, entao, X
X =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Consideremos tres inversas generalizadas condicionais de X
X. Isto e,
A
1
= (X
X)
=
_
_
_
_
_
_
0 0 0
0
1
2
0
0 0
1
2
_
_
_
_
_
_
, A
2
= (X
X)
=
_
_
_
_
_
_
1
2
1
2
0
1
2
1 0
0 0 0
_
_
_
_
_
_
e
A
3
= (X
X)
=
_
_
_
_
_
_
1
2
0
1
2
0 0 0
1
2
0 1
_
_
_
_
_
_
.
Assim sendo, teremos
X
1
= (X
X)
= A
1
X
=
_
_
_
_
_
_
0 0 0 0
1
2
1
2
0 0
0 0
1
2
1
2
_
_
_
_
_
_
,
X
2
= (X
X)
= A
2
X
=
_
_
_
_
_
_
0 0
1
2
1
2
1
2
1
2
1
2
1
2
0 0 0 0
_
_
_
_
_
_
e
X
3
= (X
X)
= A
3
X
=
_
_
_
_
_
_
1
2
1
2
0 0
0 0 0 0
1
2
1
2
1
2
1
2
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 41
Observe que
XX
1
= XX
2
= XX
3
=
_
_
_
_
_
_
_
_
_
_
1
2
1
2
0 0
1
2
1
2
0 0
0 0
1
2
1
2
0 0
1
2
1
2
_
_
_
_
_
_
_
_
_
_
.
42 Luna, J. G. & Esteves, E. M.
1.7 Lista de exerccios # 2
2.1 Dada a matriz A =
_
_
2 6 4 2
4 15 14 7
2 9 10 5
_
_
(a) Atraves do algortmo de Dwivedi, encontre matrizes B e C, tais que
A = BC e r(A) = r(B) = r(C). (observe que B e C nao sao unicas
e dependem da primeira escolha do elemento a
pq
);
(b) Determine a inversa de Moore-Penrose de A;
(c) Verique numericamente as quatro condicoes da deni cao de A
+
;
(d) Obtenha uma inversa condicional, A
.
2.2 Dado o vetor u =
_
_
_
_
1
2
3
4
_
_
_
_
, determine u
+
.
2.3 Considere o sistema de equa coes lineares X = y, conforme se segue,
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0
1 1 0 0
1 1 0 0
1 1 0 0
1 0 1 0
1 0 1 0
1 0 1 0
1 0 0 1
1 0 0 1
1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t
1
t
2
t
3
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
7
8
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
(a) Pre-multiplique o sistema por X
, obtendo-se X
X = X
y que,
como veremos posteriormente, e chamado de Sistema de Equacoes
Normais;
(b) Determine:
1.
o
1
= X
+
y;
2.
o
2
= (X
X)
+
X
y;
3.
o
3
= (X
X)
1
X
y;
4.
o
4
= (X
X)
2
X
y;
5.
o
5
= X
y;
onde (X
X)
1
e (X
X)
2
sao duas inversas condicionais distintas
de X
X.
Luna, J. G. & Esteves, D. M. 43
(c) Prove que as matrizes que pre-multiplicam y no item (b), (1,2,3,4 e
5) sao inversas de mnimos quadrados de X;
(d) Verique numericamente que
o
i
, i = 1, 2, , 5 e solucao do sistema
X
X = X
= X(X
X)
e
verique numericamente que y = X
o
= Py;
(h) Verique algebricamente que X
o
i
= Py, onde
o
i
, i = 1, 2, , 5
dados por (b);
(i) Determine:
1. e = y y;
2. e = y Py = (I P)y;
3. e = y X
o
i
, i.
(j) Preencha o seguinte quadro:
F. Variacao G.L. S.Q. Q.M. F
(obs.)
Media r(P
1
) =
1
= y
2
=
y
2
1
= -
Tratamento r(P P
1
) =
2
= y y
2
= a =
y y
2
2
= a/c =
Parametros r(P) =
3
= y
2
= b =
y
2
3
= b/c =
Resduo r(I P) =
4
= e
2
=
e
2
4
= -
TOTAL r(I) =
5
= y
2
= -
onde y = P
1
y, P
1
= X
1
X
+
1
, X
1
e a primeira coluna da matriz X e P =
XX
+
.
44 Luna, J. G. & Esteves, E. M.
2.4 Dada a matriz A =
_
_
_
_
_
_
_
n r
1
r
2
r
I
r
1
r
1
0 0
r
2
0 r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
r
I
0 0 r
I
_
_
_
_
_
_
_
, onde n =
I
i=1
r
i
, deter-
mine:
1. r(A);
2. Uma forma geral, com base no algortmo de Searle, para a inversa
condicional mais simples (diagonal) de A;
3. Atraves do item 2, determine uma inversa condicional para a matriz
A = X
X =
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
=
_
_
_
_
n r
1
r
2
r
3
r
1
r
1
0 0
r
2
0 r
2
0
r
3
0 0 r
3
_
_
_
_
. Note que,
nesse caso, X e dada no exerccio 2.3.
Captulo 2
Solucoes de Equac oes
Lineares
2.1 Introducao
Dado o sistema de equacoes lineares Ax = g, onde Ae uma matriz mn de
componentes reais, x e um vetor real n1 e g e um vetor m1 de componentes
reais, consideremos as seguintes questoes:
1. Existe ao menos um vetor x
o
, tal que, Ax
o
= g? (O sistema e consis-
tente?);
2. Se a resposta ao item 1 for Sim, a proxima pergunta sera: quantos
vetores x
o
existem? (O sistema e determinado ou indeterminado?);
3. Se a resposta ao item 1 e Nao, a proxima pergunta sera: existe algum
vetor x
j=1
x
o
ij
c
j
.
Assim,
g =
3
j=1
x
o
1j
c
j
= x
o
11
c
1
+x
o
12
c
2
+x
o
13
c
3
= 0
_
_
4
2
2
_
_
+ 3
_
_
2
2
0
_
_
+ 4
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
;
2. x
o
2
=
_
_
x
o
21
x
o
22
x
o
23
_
_
=
_
_
3
0
1
_
_
. Temos, que Ax
o
2
= g e
g = 3
_
_
4
2
2
_
_
+ 0
_
_
2
2
0
_
_
+ 1
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
;
Luna, J. G. & Esteves, D. M. 47
Finalmente,
3. x
o
3
=
_
_
x
o
31
x
o
32
x
o
33
_
_
=
_
_
4
1
0
_
_
. Temos, que Ax
o
3
= g e
g = 4
_
_
4
2
2
_
_
1
_
_
2
2
0
_
_
+ 0
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
e assim por diante. Naturalmente o sistema em questao e consistente
e indeterminado.
Teorema 2.2.2 Uma condicao necessaria e suciente para que o sistema Ax =
g seja consistente e que o posto da matriz A seja igual ao posto da matriz
A aumentada de g. Isto e, r(A) = r(A
.
.
. g).
Ax = g cons. r(A) = r(A
.
.
. g).
Exerccio 2.2.2 Tomando o sistema de equa coes lineares Ax = g do exerccio
anterior, onde A =
_
_
4 2 2
2 2 0
2 0 2
_
_
e r(A) = 2. Entao,
_
_
4 2 2 14
2 2 0 6
2 0 2 8
_
_
_
_
1 0 1 4
0 1 1 1
0 0 0 0
_
_
e portanto, r(A) = r(A
.
.
. g) = 2 e, como ja visto, o sistema e consistente.
Exerccio 2.2.3 Suponhamos agora o sistema
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
1
1
1
_
_
.
Desse modo,
_
_
4 2 2 1
2 2 0 1
2 0 2 1
_
_
_
_
1 0 1 0
0 1 1 1/2
0 0 0 1
_
_
.
Conforme podemos perceber r(A) = 2 = r(A
.
.
. g) = 3.
Note que os ultimos componentes dos vetores coluna da matriz resultante
de A sao todos nulos, enquanto que o ultimo componente do vetor resul-
tante de g e igual 1 = 0. Assim, nao existe combinacao linear das colunas
48 Luna, J. G. & Esteves, E. M.
de A que reproduza o vetor g. Em outras palavras, g C(A) e o sistema
nao e consistente. Lembre-se de que os coecientes das colunas, na com-
binacao linear, sao os componentes do vetor solucao. Entao, se nao existe
combinacao linear das colunas de A que reproduza g, o sistema Ax = g
nao tem solu cao.
Teorema 2.2.3 Uma condicao necessaria e suciente para que o sistema A
(n)n
x
1
=
n
g
1
seja consistente e que A seja nao singular.
Basta pre-multiplicar o sistema por A
1
e teremos x
o
= A
1
g. A unici-
dade de A
1
garante a invariancia de x
o
.
Exerccio 2.2.4 Seja o sistema Ax = g caracterizado por
_
2 1
1 1
__
x
1
x
2
_
=
_
7
5
_
.
Entao, x
o
= A
1
g =
_
1 1
1 2
__
7
5
_
=
_
2
3
_
.
Note que neste caso a solucao e unica. Isto e, existe apenas uma com-
binacao linear das colunas de A que reproduz g. Ou seja,
g = 2
_
2
1
_
+ 3
_
1
1
_
=
_
7
5
_
.
Nesse caso, o Teorema 2.2.2 pode fornecer diretamente a solu cao. Pois,
se existe A
1
, entao (A
.
.
. g) (I
.
.
. x
o
). de fato,
_
2 1 7
1 1 5
_
_
1 0 2
0 1 3
_
.
Teorema 2.2.4 Uma condicao necessaria e suciente para que o sistema de
equacoes Ax = g seja consistente e que exista uma inversa condicional de
A tal que AA
g = g.
(a) Ax = g consistente = AA
g = g.
Ax = g consistente = x
o
: Ax
o
= g (I).
Seja A
, vem
AA
Ax
o
= AA
g =Ax
o
= AA
g
(I)
=g = AA
g.
(b) AA
g = g = Ax = g e consistente. Seja AA
g = g. Basta tomar
x
o
= A
g e desse modo Ax
o
= g e o sistema e consistente.
Luna, J. G. & Esteves, D. M. 49
Exerccio 2.2.5 Seja o sistema Ax = g caracterizado por
_
_
1 1
1 1
2 0
_
_
_
x
1
x
2
_
=
_
_
3
1
2
_
_
Usando o algortmo de Searle, temos
M =
_
1 1
1 1
_
e M
1
=
_
_
1
2
1
2
1
2
1
2
_
_
.
Portanto,
A
=
_
_
1
2
1
2
0
1
2
1
2
0
_
_
.
g =
_
_
1 1
1 1
2 0
_
_
_
_
1
2
1
2
0
1
2
1
2
0
_
_
_
_
3
1
2
_
_
=
_
_
3
1
4
_
_
= g.
Portanto, o sistema e inconsistente. Esse fato pode ser conrmado facil-
mente atraves do Teorema 2.2.2.
Teorema 2.2.5 Sao condicoes necessarias e sucientes para que o sistema Ax =
g seja consistente.
(a) AA
g = g (b) AA
+
g = g.
Basta lembrar que A
+
e A
sao tambem A
.
Exerccio 2.2.6 Considere o sistema Ax = g caracterizado por
_
_
1 1
1 1
2 0
_
_
_
x
1
x
2
_
=
_
_
3
1
4
_
_
Usando
A
=
_
_
1
2
1
2
0
1
2
1
2
0
_
_
, A
=
1
6
_
1 1 2
3 3 0
_
= A
+
.
Obsevacao: Das propriedades da inversa de Moore-Penrose, vimos que,
se A tem posto coluna completo, entao A
+
= (A
A)
1
A
= A
e A
+
A =
I
(n)
.
50 Luna, J. G. & Esteves, E. M.
Dessa forma, tem-se que
AA
g = AA
g = AA
+
g =
_
_
3
1
4
_
_
= g,
e o sistema e consistente.
FATOS:
1. Veremos mais tarde que se A e de posto coluna completo, como no
exerccio acima, e se o sistema e consistente, entao a solucao e unica;
2. Note que, se Ax = g e consistente, entao
AA
g = A(A
A)
g = AA
g = AA
+
g = g.
Teorema 2.2.6 Uma condi cao suciente para que o sistema
m
A
nn
x
1
=
m
g
1
seja consistente e que r(A) = m.
De fato, vimos das propriedades da inversa de Moore-Penrose que se A e
de posto linha completo, entao A
+
= A
(AA
)
1
e AA
+
= I
(m)
.
Basta aplicar o resultado do teorema anterior e teremos
AA
+
g = Ig = g.
Teorema 2.2.7 O vetor x
o
= A
g + (I A
g +A(I A
A)h
= AA
g + (AAA
A)h = AA
g, h.
Sendo Ax = g consistente por hipotese, entao AA
g = g. Portanto,
Ax
o
= g e x
o
, assim denido, e solucao do sistema.
Exerccio 2.2.7 Seja Ax = g consistente, dado por
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
14
6
8
_
_
Luna, J. G. & Esteves, D. M. 51
Tomando tres inversas condicionais de A, temos tres solucoes distintas
para o sistema, obtidas por x
o
i
= A
i
g, i = 1, 2, 3, a saber
x
o
1
= A
1
g =
_
_
_
_
_
_
0 0 0
0
1
2
0
0 0
1
2
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
0
3
4
_
_
,
x
o
2
= A
2
g =
_
_
_
_
_
_
1
2
1
2
0
1
2
1 0
0 0 0
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
4
1
0
_
_
e
x
o
3
= A
3
g =
_
_
_
_
_
_
1
2
0
1
2
0 0 0
1
2
0 1
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
3
0
1
_
_
.
Tomemos agora o vetor
x
o
= A
1
g + (I A
1
A)h =
_
_
0
3
4
_
_
+
_
_
1 0 0
1 0 0
1 0 0
_
_
_
_
h
1
h
2
h
3
_
_
Portanto,
x
o
=
_
_
h
1
3 h
1
4 h
1
_
_
e solucao, h
1
R.
Assim, para h
1
= 3 temos
x
o
=
_
_
3
0
1
_
_
= x
o
2
;
para h
1
= 4 temos
x
o
=
_
_
4
1
0
_
_
= x
o
3
;
e assim por diante.
Teorema 2.2.8 Se Ax = g e consistente, entao os vetores
x
o
= A
g + (I A
A)h e
x
o
= A
+
g + (I A
+
A)h,
sao solucoes do sistema. Neste caso, basta lembrar que A
+
e A
sao
tambem A
.
52 Luna, J. G. & Esteves, E. M.
Teorema 2.2.9 Se o sistema Ax = g e consistente, entao
x
o
= A
g, x
o
= A
g e x
o
= A
+
g,
sao solucoes. Basta tomar h = nos teoremas 2.2.7 e 2.2.8.
Teorema 2.2.10 Uma condi cao necessaria e suciente para que o sistema con-
sistente
m
A
nn
x
1
=
m
g
1
, tenha solu cao unica e que r(A) = n.
Basta usar o teorema 2.2.7
Teorema 2.2.11 Dado o sistema consistente
m
A
nn
x
1
=
m
g
1
com r(A) =
k > 0 e g = , entao existem exatamente n k + 1 solu coes linearmente
independentes.
Teorema 2.2.12 O conjunto de solucoes do sistema linear homogeneo Ax =
e o complemento ortogonal do espa co coluna de A.
Teorema 2.2.13 Uma condi cao necessaria e suciente para que o sistema linear
homogeneo
m
A
nn
x
1
=
m
1
tenha solucoes diferentes da trivial, x
o
= ,
e que r(A) < n.
Teorema 2.2.14 O sistema linear homogeneo
m
A
nn
x
1
=
m
1
, com r(A) = k,
tem exatamente n k vetores solu cao linearmente independentes.
Teorema 2.2.15 Todo vetor solu cao de um sistema
m
A
nn
x
1
=
m
g
1
pode ser
obtido como a soma de um vetor solucao xo desse sistema e uma com-
binacao linear de n k linearmente independentes do sistema homogeneo
associado.
2.3 Solucao Aproximada
Consideremos agora, o caso no qual o sistema de equacoes lineares Ax = g
e inconsistente. Isto e, quando nao existe x
o
, tal que Ax
o
= g.
Em muitos problemas praticos, como por exemplo, nas analises estatsticas
de experimentos, e muito importante obtermos solucoes aproximadas de sis-
temas de equa coes lineares.
Denotemos por e(x
o
) o erro cometido ao tomar o vetor x
o
como solucao
aproximada do sistema Ax = g, inconsistente. Entao, teremos e(x
o
) = gAx
o
.
Observe que podemos ter muitas solucoes aproximadas, sendo que umas sao
melhores que outras, de modo que o nosso problema sera encontrar a melhor
delas.
Luna, J. G. & Esteves, D. M. 53
Uma forma de medir o tamanho do erro cometido ao tomar x
o
como solucao
do sistema inconsistente Ax = g, e atraves do quadrado da norma, popular-
mente conhecida como soma dos quadrados dos erros ou dos resduos. Ou seja,
e
2
= e
e =
_
e
1
e
2
e
n
_
_
_
_
_
_
e
1
e
2
.
.
.
e
n
_
_
_
_
_
=
n
i=1
e
2
i
.
Exerccio 2.2.8 Seja o sistema de equa coes lineares X = y, caracterizado
por
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
2
_
_
=
_
_
_
_
2
3
5
4
_
_
_
_
(i) Como nao conhecemos, ainda, uma regra para a obten cao de solucoes
aproximadas, tomemos a ttulo de exemplo dois vetores solucao com o
objetivo de quanticar o tamanho do erro cometido:
o
1
=
_
_
1
1
1
_
_
.O erro cometido ao tomarmos
o
1
como solucao, e
e
1
(
o
1
) = y X
o
1
=
_
_
_
_
2
3
5
4
_
_
_
_
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
1
1
1
_
_
=
_
_
_
_
0
1
3
2
_
_
_
_
.
Consequentemente,
e
1
2
= SQR
1
= (0)
2
+ (1)
2
+ (3)
2
+ (2)
2
= 14, 0.
Tomando, por exemplo,
o
2
=
_
_
14/6
1/6
13/6
_
_
, obtemos de modo analogo,
e
2
2
= SQR
2
= 1, 0, que sem d uvida e menor que SQR
1
.
(ii) Procuremos agora um vetor
o
, tal que, a soma dos quadrados dos resduos
seja a menor possvel. Neste caso temos que minimizar
SQR = f(,
1
,
2
) = e
2
= y X
2
= (y X)
(y X),
onde,
y X =
_
_
_
_
2
3
5
4
_
_
_
_
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
2
_
_
=
_
_
_
_
2
1
3
1
5
2
4
2
_
_
_
_
= e.
54 Luna, J. G. & Esteves, E. M.
Portanto,
SQR = e
2
= e
e = (y X)
(y X) =
4
i=1
e
2
i
= (2
1
)
2
+ (3
1
)
2
+ (5
2
)
2
+ (4
2
)
2
.
Os valores de ,
1
e
2
, isto e,
o
,
o
1
e
o
2
que minimizam a soma dos quadra-
dos dos resduos sao obtidos derivando-se parcialmente a SQR e igualando-se a
zero. Isto e,
(SQR)
= 28 + 8 + 4
1
+ 4
2
(SQR)
1
= 10 + 4 + 4
1
(SQR)
2
= 18 + 4 + 4
2
.
.
Igualando-se a zero, resulta em
_
_
_
4
o
+ 2
o
1
+ 2
o
2
= 14
2
o
+ 2
o
1
= 5
2
o
+ 2
o
2
= 9
Dessa forma, qualquer solucao do sistema
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
o
1
o
2
_
_
=
_
_
14
5
9
_
_
, (2.1)
ja sabidamente consistente, nos levara a uma menor soma dos quadrados dos
resduos.
Obs.1: O procedimento aqui utilizado e um caso particular do metodo dos
mnimos quadrados;
Obs.2: O sistema de equacoes lineares obtido em (2.1) e conhecido como sis-
temas de equa c oes normais.
Entre muitas solucoes do sistema (2.1) temos:
o
2
=
1
6
_
_
14
1
13
_
_
,
o
3
=
1
6
_
_
16
1
11
_
_
, e
o
4
=
1
2
_
_
4
1
5
_
_
,
de onde podemos perceber que SQR
1
> SQR
2
= SQR
3
= SQR
4
. Diante
deste fato, temos aqui um problema a ser resolvido. Ou seja, se existem muitas
solucoes que torna mnima a soma dos quadrados dos resduos, como escolher a
melhor delas?
Luna, J. G. & Esteves, D. M. 55
2.4 A Melhor Solucao Aproximada
Denicao 2.4.1 O vetor x
)
2
e(x
o
)
2
,
2. Caso prevale ca a igualdade, a melhor solucao aproximada sera aquela
que satisfaz a condicao: x
2
< x
o
2
.
Nota: A condi cao 2 diz que a melhor solucao aproximada, e a solucao de
norma mnima.
Teorema 2.4.1 A melhor solucao aproximada de Ax = g, inconsistente e x
=
A
+
g.
Exemplo 2.4.1 A solu cao do sistema inconsistente X = y do exemplo ante-
rior e dada por:
= X
+
y =
o
2
=
1
6
_
_
1 1 1 1
2 2 1 1
1 1 2 2
_
_
_
_
_
_
2
3
5
4
_
_
_
_
=
1
6
_
_
14
1
13
_
_
,
como obtida anteriormente.
2.5 Solucao Aproximada de Mnimos
Quadrados
Conforme vimos anteriormente, qualquer solucao do sistema de equacoes
obtida no Exerccio (2.2.8), leva a um mnimo a soma dos quadrados dos erros.
Vimos tambem, que a melhor solucao aproximada era uma delas.
Na verdade para os propositos deste curso, basta que tenhamos mnima a
soma dos quadrados dos erros. Nesse contexto, a propriedade da norma mnima
para o vetor solucao aproximada pode nao ser necessaria. Se for utilizada,
podemos perder, em muitos casos, a propriedade da unicidade da solucao apro-
ximada. No entanto, temos, em geral, a vantage da simplicidade de calculo, por
nao ter que usar a inversa generalizada de Moore-Penrose.
A solu cao de mnimos quadrados pressupoe apenas a primeira condicao da
Denicao 2.4.1 o que, em geral, e suciente para resolver os problemas es-
tatsticos abordados neste curso.
56 Luna, J. G. & Esteves, E. M.
Denicao 2.5.1: Um vetor x
o
e denido como um vetor solucao aproximado
de mnimos quadrados para o sistema inconsistente Ax = g se, e somente
se,
e(x
o
)
2
e(x
)
2
para qualquer solucao aproximada x
2
< x
2
. Assim, enquanto a BAS e unica, a LSS nao o e.
Nota 2: As solucoes LSS sao muito importantes em estatstica.
Vejamos agora algumas regras para obtencao de solucoes aproximadas de
mnimos quadrados.
Teorema 2.5.1: O vetor x
o
= A
Ax = A
g e
conhecido por Sistemas de Equac oes Normais.
Teorema 2.5.2: Os sistemas de equacoes normais sao sempre consistentes.
Teorema 2.5.3: Uma condicao necessaria e suciente para que x
o
seja uma
solucao aproximada de mnimos quadrados para o sistema inconsistente
Ax = g e que x
o
seja solucao das equa coes normais.
Exerccio 2.5.2: Como vimos no Exerccio 2.2.8 o sistema de equacoes nor-
mais X
X = X
2
_
_
=
_
_
14
5
9
_
_
.
Alem disso qualquer solucao exata deste sistema sempre consistente e
solucao aproximada de mnimos quadrados para o sistema inconsistente
y = X. Sao exemplos,
o
=
_
_
_
_
_
_
7
3
1
6
13
6
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
2
1
2
5
2
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
8
3
1
6
11
6
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
0
5
2
9
2
_
_
_
_
_
_
e existem muitos outros vetores
o
que nos levarao `a menor soma dos
quadrados dos resduos (no exemplo, SQR = 1, 0).
Luna, J. G. & Esteves, D. M. 57
Denicao 2.5.3: O vetor g = Ax
o
, onde x
o
e qualquer solucao aproximada
de mnimos quadrados para o sistema inconsistente Ax = g, e denido
como a aproximacao de mnimos quadrados para o vetor g.
Exerccio 2.5.3: No sistema inconsistente y = X, temos
y = X
o
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
1
2
_
_
0
5
9
_
_
=
1
2
_
_
_
_
5
5
9
9
_
_
_
_
.
Tomemos agora, outra solu cao das equacoes normais, a saber,
o
=
_
_
7/2
2
2
_
_
. Entao,
y =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
7/2
2
2
_
_
=
1
2
_
_
_
_
5
5
9
9
_
_
_
_
e, de modo analogo para qualquer
o
solucao de X
X = X
y.
Denicao 2.5.4: Denimos o erro de ajuste devido a aproximacao de mnimos
quadrados para Ax = g inconsistente, como
e = g g = g Ax
o
.
Exerccio 2.5.4: Para o exemplo em questao, temos
e = y y =
_
_
_
_
2
3
5
4
_
_
_
_
1
2
_
_
_
_
5
5
9
9
_
_
_
_
=
1
2
_
_
_
_
1
1
1
1
_
_
_
_
.
como ja visto no Exerccio 2.2.8.
Nota: Recordando que X
o
= XX
y = X(X
X)
y = Py. Temos,
entao:
y = X
o
= Py e e = y y = y X
o
= y Py = (I P)y.
Teorema 2.5.4: O erro devido a aproximacao de mnimos quadrados e orto-
gonal ao espa co gerado pelas colunas de A. Isto e, e C(A).
58 Luna, J. G. & Esteves, E. M.
Exerccio 2.5.5: Para o exemplo em questao, e imediato vericar que
X
e = .
Ou seja,
_
_
1 1 1 1
1 1 0 0
0 0 1 1
_
_
1
2
_
_
_
_
1
1
1
1
_
_
_
_
=
_
_
0
0
0
_
_
.
Luna, J. G. & Esteves, D. M. 59
Lista de Exerccios # 3
1. Verique se o sistema de equa coes lineares a seguir e consistete. Caso
armativo, apresente uma solucao.
_
_
_
x
1
+ x
2
+ x
3
= 3
x
1
+ x
2
+ x
4
= 6
2x
1
+ x
2
3x
4
= 5
2. Dado o sistema de equacoes lineares A = g, caracterizado por
_
_
5 2 3
2 2 0
3 0 3
_
_
_
_
3
_
_
=
_
_
33
18
15
_
_
2.1 Verique sua consistencia;
2.2 Apresente uma solucao da forma:
2.2.1
o
1
= A
g;
2.2.2
o
2
= A
+
g;
2.2.3
o
3
= A
G
g + (I A
G
A)h, para alguma G-inversa de A.
3. Estude a consistencia dos sistemas X = y, caracterizados por:
3.1
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
2
_
_
=
_
_
_
_
10
12
6
4
_
_
_
_
;
3.2
_
_
_
_
1 2
1 4
1 6
1 8
_
_
_
_
_
_
=
_
_
_
_
10
8
14
12
_
_
_
_
.
4. Dado o sistema Ax = g caracterizado por
_
_
_
_
5 1 1 1
1 5 1 1
1 1 5 1
1 1 1 5
_
_
_
_
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
26
22
18
14
_
_
_
_
,
4.1 Obtenha A
+
= A
1
=
4
i=1
1
i
P
i
P
i
, onde
i
e P
i
sao respectiva-
mente autovalores e autovetores normalizados de A;
4.2 Apresente a solucao do sistema.
5. Com os dados do exerccio 3 desta lista:
60 Luna, J. G. & Esteves, E. M.
5.1 Determine a melhor solucao aproximada e outra solucao de mnimos
quadrados para 3.1;
5.2 Verique a consistencia de X
X = X
X = X
y, utilizando
os dados de 3.1.
7. Dado o sistema X = y, caracterizado por
_
_
1 1 0
1 1 0
1 0 1
_
_
_
_
2
_
_
=
_
_
4
3
4
_
_
,
7.1 Determine:
7.1.1
o
= (X
X)
y
7.1.2 y = X
o
7.1.3 y = Py, onde P = X(X
X)
= XX
= XX
+
7.1.4 e = y y
7.1.5 e = (I P)y
7.1.6 SQTotal = y
y = y
Iy
7.1.7 SQPar. = y
Py = y
2
= X
o
2
7.1.8 SQRes. = y
(I P)y = e
2
= y y
2
= y X
o
2
7.1.9 r(P), r(I) e r(I P).
7.2 Verique numericamente que:
7.2.1 P e (I P) sao simetricas;
7.2.2 P e (I P) sao idempotentes;
7.2.3 P(I P) = (I P)P = ;
7.2.4 y
2
= y
2
+e
2
, (SQTotal=SQPar.+SQRes.).
Captulo 3
Formas Quadraticas
3.1 Conceito
Denicao 3.1.1: Uma funcao do tipo
Q(x) = x
Ax =
i,j
a
ij
x
i
x
j
,
onde a
ij
sao constantes reais, e chamada de forma quadratica em x.
Exemplo 3.1.1 A forma
Q(x) = 2x
2
1
+ 5x
2
2
x
2
3
x
1
x
2
+ 3x
2
x
3
=
_
x
1
x
2
x
3
_
_
_
_
_
_
_
2
1
2
0
1
2
5
3
2
0
3
2
1
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
= x
Ax
e uma forma quadratica em x.
Exemplo 3.1.2 De modo generico, a forma
Q(x) =
_
x
1
x
2
_
_
a
11
a
12
a
21
a
22
__
x
1
x
2
_
= a
11
x
2
1
+a
22
x
2
2
+a
12
x
1
x
2
+a
21
x
2
x
1
=
2
j=1
a
1j
x
1
x
j
+
2
j=1
a
2j
x
2
x
j
=
2
i=1
2
j=1
a
ij
x
i
x
j
61
62 Luna, J. G. & Esteves, E. M.
e uma forma quadratica em x, se a
ij
sao constantes reais.
Nestas condicoes, e facil observar que se a matriz A e simetrica, entao
Q(x) =
i=j
a
ij
x
2
i
+ 2
i=j
a
ij
x
i
x
j
.
3.2 Casos de Interesse Para Estatstica
1. Se A
(n)
= I
(n)
=Q(x) = x
Ix =
n
i=1
x
2
i
2. Se A
(n)
= E
(n)
=Q(x) = x
Ex = (
n
i=1
x
i
)
2
.
Note que
1
n1
_
x
Ix
x
Ex
n
_
fornece uma medida para a variancia de x.
3. Sendo Q(y) = y
Ay = 2y
2
1
+ 5y
2
2
y
1
y
2
+ 3y
2
y
3
, como determinar A
quando simetrica?
a
11
= 2, a
22
= 5, a
33
= 0,
2a
12
= 1 = a
12
=
1
2
,
2a
23
= 3 = a
23
=
3
2
,
a
13
= 0 e a
31
= 0.
Logo,
A =
_
_
_
_
_
_
2
1
2
0
1
2
5
3
2
0
3
2
0
_
_
_
_
_
_
.
3.3 Classicacao de Formas Quadraticas
Denicao 3.3.1: Dada a forma quadratica Q(y) = y
Iy = y
y =
i
y
2
i
e positiva denida, pois e uma soma de
quadrados e y
y = 0 y = ;
2. Q(y) = y
Ey = (
i
y
i
)
2
e semi positiva denida, pois se refere a
um quadrado, sendo portanto nao negativo. No entanto qualquer
y tal que a soma de seus elementos seja nula, por exemplo, leva a
Q(y) = 0;
3. Q(y) =
_
y
1
y
2
_
_
1 3
3 1
__
y
1
y
2
_
e nao denida, pois muda de
sinal conforme a escolha do vetor y = . Como por exemplo: y =
_
1
1
_
= Q(y) = 8, y =
_
1
1
_
= Q(y) = 4, e assim por
diante.
Observe que classicar uma forma quadratica pela denicao e algo bas-
tante laborioso. Uma alternativa interessante, sera vericar a classica cao
da forma quadratica atraves da classicacao da matriz n ucleo. Ou seja,
uma forma quadratica tem a mesma classicacao de sua matriz n ucleo.
Para tanto, basta diagonalizar a matriz n ucleo atraves de opera coes de
congruencia.
Por exemplo: A =
_
1 3
3 1
_
. Entao,
_
1 3
3 1
_
_
1 0
0 8
_
.Logo, A e nao denida.
Teorema 3.3.1: A classica cao de uma forma quadratica nao se altera por
transformacao nao singular.
Seja Q(x) = x
Ax = y
ACy = y
My, onde M = C
AC =
_
72 94
94 123
_
, cuja diagonal
congruente e D
2
=
_
72 0
0 1175/18
_
. Portanto, Q(y) = 72y
2
1
+188y
1
y
2
+
123y
2
2
e positiva denida. Alem disso,
y = C
1
x =
1
2
_
5 3
4 2
__
10
20
_
=
_
5
0
_
.
Portanto,
Q(y) = y
My = 72(5)
2
= 1800.
Teorema 3.3.2: Se A
(n)
e real e simetrica de posto k n, entao a forma
quadratica Q(x) = x
i=1
i
y
2
i
,
onde
i
, i = 1, 2, , k, sao as raizes caractersticas nao nulas de A.
Sendo A
(n)
real e simetrica de posto k, entao existe P ortogonal tal que
P
AP =
_
_
(k)
_
_
= diag{
1
, ,
k
, 0, , 0} = .
Seja
Q(x) = x
Ax e seja x = Py,
entao,
Q(y) = y
APy = ( y
1
y
2
)
_
_
(k)
_
_
_
_
y
1
y
2
_
_
= y
y =
k
i=1
i
y
2
i
.
Fato: Se A
(n)
e real, simetrica e idenpotente de posto k n, entao A
(n)
tem k raizes caractersticas iguais a um e (n k) raizes iguais a zero.
Assim,
P
AP =
_
I
(k)
_
e Q(y) = y
APy =
k
i=1
y
2
i
.
Luna, J. G. & Esteves, D. M. 65
Exerccio 3.3.3: Seja a forma quadratica
Q(x) = x
Ax, onde A =
_
_
2 1 1
1 2 1
1 1 2
_
_
e seja a transformacao x = Py, onde P
=
_
_
_
_
_
_
_
1
3
1
3
1
3
1
2
1
2
0
1
6
1
6
2
6
_
_
_
_
_
_
_
.
Entao, P
AP =
_
_
0 0 0
0 3 0
0 0 3
_
_
= .
Assim,
1
= 0,
2
=
3
= 3. Portanto, Q(x) e semi positiva denida.
Tomando, como exemplo, o vetor x =
_
_
1
1
1
_
_
=Q(x) = 0.
Por outro lado, Q(y) = 0y
2
1
+ 3y
2
2
+ 3y
2
3
= y
y, onde x = Py =
y = P
x (P ortogonal). Portanto, y =
_
_
_
_
_
_
3
3
0
0
_
_
_
_
_
_
e segue que, Q(y) =
0 3 + 3 0
2
+ 3 0
2
= 0.
Naturalmente, dada a similaridade, Q(x) e Q(y) tem a mesma classi-
cacao.
Teorema 3.3.3: Se A
(n)
e real, simetrica e positiva denida, entao a forma
quadratica x
i=1
y
2
i
.
Seja Q(x) = x
.
Seja a transforma cao y = B
x =x = B
1
y. Portanto,
Q(x) = y
B
1
AB
1
y = y
B
1
BB
1
y = y
y =
n
i=1
y
2
i
.
Exerccio 3.3.4: Seja a forma quadratica Q(x) = x
Ax, onde
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e =
_
_
5 0 0
0 2 0
0 0 2
_
_
.
66 Luna, J. G. & Esteves, E. M.
Assim,
1
= 5,
2
=
3
= 2 =A e p.d. =Q(x) e p.d.
Seja, como ilustra cao x =
_
_
1
1
1
_
_
=Q(x) = 15. Por outro lado,
B = C
1
D
1/2
=
_
_
_
_
_
_
1 0 0
1
3
1 0
1
3
1
4
1
_
_
_
_
_
_
_
_
_
_
_
_
3 0 0
0
6
3
0
0 0
10
2
_
_
_
_
_
_
=
_
_
_
_
_
_
3 0 0
3
3
2
6
3
0
3
3
6
6
10
2
_
_
_
_
_
_
.
Portanto,
y = B
x =
_
_
_
_
_
_
_
5
3
3
5
6
6
10
2
_
_
_
_
_
_
_
=Q(y) = 15.
Outra matriz B poderia ser
B = P
1/2
=
1
3
_
_
15 3
3
15 3
3
15 0 2
3
_
_
.
Nesse caso,
y = Bx =
_
_
15
0
0
_
_
e Q(y) = 15.
3.4 Derivadas de Formas Quadraticas
Em muitas situac oes e necessario as derivadas (parciais) de uma fun cao com
respeito as variaveis envolvidas. Por exemplo, considere a funcao das variaveis
reais x
1
, x
2
e x
3
, dada por
f(x
1
, x
2
, x
3
) = 6x
2
1
2x
1
x
2
+x
2
3
, < x
i
< i = 1, 2, 3. (3.1)
e suponha que e necessario obter as tres derivadas parciais
f(x)
x
1
,
f(x)
x
2
e
f(x)
x
3
.
Luna, J. G. & Esteves, D. M. 67
Desde que f(x) possa ser escrita como uma fun cao do vetor x, pode ser desejavel
expressar as tres derivadas parciais como um vetor. Denimos
f(x)
x
como
f(x)
x
=
_
_
_
_
_
_
_
f(x)
x1
f(x)
x2
f(x)
x3
_
_
_
_
_
_
_
e obtemos a expressao
f(x)
x
=
_
_
12x
1
2x
2
2x
1
2x
3
_
_
da equacao 3.1. E, isto nos conduz `a proxima denicao.
Denicao 3.4.1: Derivada de uma funcao em relacao a um vetor. Seja f(x)
uma funcao de n variaveis reais independentes x
1
, x
2
, , x
n
. A derivada
de f(x) com respeito ao vetor x, onde
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
,
e denotada por
f(x)
x
e e denida por
f(x)
x
=
_
_
_
_
_
_
_
_
_
_
_
_
f(x)
x1
f(x)
x2
.
.
.
f(x)
xn
_
_
_
_
_
_
_
_
_
_
_
_
Teorema 3.4.1: Seja (x) uma fun cao linear de n variaveis reais independentes
denida por (x) =
n
i=1
a
i
x
i
= a
x = x
a, onde a
=
_
a
1
a
2
a
n
_
e a
i
sao constantes quaisquer. Entao
(x)
x
= a.
Prova: Observe que o t-esimo elemento de (x)/x e, por deni cao, igual a
(x)/x
t
, que e claramente a
t
.
68 Luna, J. G. & Esteves, E. M.
Teorema 3.4.2: Seja Q(x) uma forma quadratica em n variaveis reais inde-
pendentes x
1
, x
2
, , x
n
denida por
Q(x) = x
Ax,
onde A = (a
ij
) e uma matriz n n simetrica de constantes reais. Entao,
Q(x)
x
= 2Ax.
Prova: Podemos escrever
Q(x) =
n
j=1
n
i=1
a
ij
x
i
x
j
,
O t-esimo elemento de Q(x)/x, e obviamente
Q(x)
x
t
=
n
j=1
a
tj
x
j
+
n
i=1
a
it
x
i
= 2
n
j=1
a
tj
x
j
= 2Ax
desde que A seja simetrica.
3.5 Valor Esperado e Matriz de Dispersao
Denicao 3.5.1: Dado um vetor x de variaveis aleatorias com funcao densi-
dade de probabilidade f(x
1
, , x
n
), denimos a esperan ca matematica
da funcao t(x
1
, , x
n
), como
E[t(x
1
, , x
n
)] =
_
t(x
1
, , x
n
)f(x
1
, , x
n
)dx
1
, , dx
n
(3.2)
desde que existam as integrais envolvidas.
Denicao 3.5.2: Seja
p
W
q
uma matriz na qual cada elemento e funcao de ve-
tores
n
x
1
, de variaveis aleatorias: W = (w
ij
), onde w
ij
= t
ij
(x
1
, , x
n
).
Entao a esperan ca matematica de W e igual a uma matriz
p
A
q
, tal que,
E[W] = A; onde A = (a
ij
) e a
ij
= E[t
ij
(x
i
, , x
n
)].
Em particular, se W =
_
_
_
_
_
x
11
x
12
x
1q
x
21
x
22
x
2q
.
.
.
.
.
.
.
.
.
.
.
.
x
p1
x
p2
x
pq
_
_
_
_
_
. Entao,
E[W] =
_
_
_
_
_
E(x
11
) E(x
12
) E(x
1q
)
E(x
21
) E(x
22
) E(x
2q
)
.
.
.
.
.
.
.
.
.
.
.
.
E(x
p1
) E(x
p2
) E(x
pq
)
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 69
Teorema 3.5.1: Sejam W e T matrizes de variaveis aleatorias e A
1
e A
2
matrizes de constantes reais. Entao se as dimensoes forem compatveis e
as integrais existirem, teremos
1. E(A
1
) = A
1
;
2. E(A
1
W) = A
1
E(W);
3. E(WA
2
) = E(W)A
2
;
4. E(A
1
WA
2
) = A
1
E(W)A
2
;
5. E(A
1
T +A
2
W) = A
1
E(T) +A
2
E(W).
Denicao 3.5.3: Se x e y forem vetores de variaveis aleatorias com E(x) e
E(y), dene-se a covariancia entre eles por:
Cov(x, y) = E{[x E(x)][y E(y)]
}.
Em particular, se x = y, temos a matriz de variancias e covariancias, ou
matriz de dispersao de x. Denotada por
V (x) =
_
_
_
_
_
V ar(x
1
) Cov(x
1
, x
2
) Cov(x
1
, x
n
)
Cov(x
1
, x
2
) V ar(x
2
) Cov(x
2
, x
n
)
.
.
.
.
.
.
.
.
.
.
.
.
Cov(x
1
, x
n
) Cov(x
2
, x
n
) V ar(x
n
)
_
_
_
_
_
.
Se A e uma matriz de constantes, entao
V [Ax] = AV (x)A
.
Teorema 3.5.2: Seja x um vetor de variaveis aleatorias com vetor de medias
e matriz de covariancia V , positiva denida. Seja tambem uma matriz
A, simetrica, de constantes reais. Entao,
E[x
Ax] = Tr(AV ) +
A. (3.3)
Exemplo 3.5.1 Suponha y = X + e, onde X tem dimensoes n k, y
N(X , I
2
) e seja P = XX
+
o projetor ortogonal de y em C(X), onde
X e n k e P e simetrica e idempotente. Entao:
(a)
E[y
Py] = Tr[PI
2
] +
PX
= Tr(P)
2
+
XX
+
X
= r(P)
2
+
X.
70 Luna, J. G. & Esteves, E. M.
Portanto,
E[y
Py] = r(X)
2
+
X.
(b)
E[y
(I P)y] = Tr[I P]
2
+
[I P]X
= r[I P]
2
+
PX
= (n k)
2
+
X.
Portanto,
E[y
(I P)y] = (n k)
2
.
Suponha que y = X + e seja caracterizado por y
ij
= +
i
+ e
ij
, com
i = 1, 2 e j = 1, 2. Neste caso,
_
_
_
_
y
11
y
12
y
21
y
22
_
_
_
_
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
2
_
_
+
_
_
_
_
e
11
e
12
e
21
e
22
_
_
_
_
Entao:
P =
_
_
_
_
1/2 1/2 0 0
1/2 1/2 0 0
0 0 1/2 1/2
0 0 1/2 1/2
_
_
_
_
;
(I P) =
_
_
_
_
1/2 1/2 0 0
1/2 1/2 0 0
0 0 1/2 1/2
0 0 1/2 1/2
_
_
_
_
;
e
X =
_
1
2
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
2
_
_
= 4
2
+ 2
2
i
+ 4
i
.
Usando (a) podemos escrever:
E[y
Py] = 2
2
+ 4
2
+ 2
2
i
+ 4
i
Alem disso, sob certas condi coes, pode ser desejavel tomar
i
i
= 0. E,
neste caso, vamos ter:
E[y
Py] = 2
2
+ 4
2
+ 2
2
i
.
Luna, J. G. & Esteves, D. M. 71
Nos estudos de componentes da variancia e de interesse obter os seguintes
resultados:
E
_
1
r(X)
y
Py
_
=
1
r(X)
E[y
Py] =
2
+ 2
2
+
2
i
.
e
E
_
1
r(I P)
[y
(I P)y]
_
=
1
n k
E[y
(I P)y] =
2
.
Teorema 3.5.2: Seja y N
n
(,
) e y =
_
_
y
1
y
2
_
_
, onde y
1
e p 1, y
2
tem dimensao q 1 e p + q = n. Entao y
1
e y
2
sao estatsticamente
independentes se, e somente se, Cov(y
1
, y
2
) = (Seber, 1977 pag.32).
3.6 Distribuicao e Independencia Sob Normali-
dade
Denicao 3.6.1: Dado um vetor y de variaveis aleatorias com distribuicao
normal n-dimensional, entao:
1. Se y N
n
(, I
(n)
) =Z = y
y =
n
i=1
y
2
i
2
(n)
.
2. Se y N
n
(, I
(n)
) = Z = y
y =
n
i=1
y
2
i
2
(n, )
, onde
=
1
2
2
). B tem posto
linha completo.
Teorema 3.6.1: Seja y N
n
(, I) e seja A
(n)
simetrica de posto k n.
Entao, uma condicao necessaria e suciente para que a variavel aleatoria
z = y
Ay
2
(k)
A
(n)
idempotente = P ortogonal tal que
P
AP =
_
I
(k)
_
= D.
Pois, a matriz idempotente A
(n)
de posto k n tem k raizes carac-
tersticas iguais a um e (n k) raizes nulas.
Seja z = P
y =y = Pz. Entao
72 Luna, J. G. & Esteves, E. M.
E[z] = P
E[y] = P
= .
V [z] = P
V [y]P = P
IP = P
P = I.
Logo,
z N
n
(, I).
Mas, y
Ay = z
APz = z
Dz =
k
i=1
z
2
i
. Portanto,
y
Ay
2
(k)
.
(NEC.) y
Ay
2
(k)
= A idempotente de posto k.
Do Teorema 3.3.2 sabemos que y
Ay =
k
i=1
i
z
2
i
, com z = P
y =y =
Pz e entao z N
n
(, I). Portanto,
y
Ay = z
APz = z
Dz =
k
i=1
i
z
2
i
2
(k)
,
onde D = diag{
1
, ,
k
} e
i
sao os autovalores nao nulos de A.
Por outro lado, a funcao geradora dos momentos de y
Ay, ca:
M
y
Ay
(t) = E
_
e
ty
Ay
_
= E
_
e
t
k
i=1
iz
2
i
_
= E
_
e
t1z
2
1
.e
t2z
2
2
. .e
k
z
2
k
_
e por independencia
= E
_
e
t1z
2
1
_
E
_
e
t2z
2
2
_
E
_
e
t
k
z
2
k
_
= M
z
2
1
(t
1
)M
z
2
2
(t
2
) M
z
2
k
(t
k
), que por hipotese
= (1 2t
1
)
1/2
(1 2t
2
)
1/2
(1 2t
k
)
1/2
= (1 2t)
k/2
,
que e a funcao geradora dos momentos de uma variavel aleatoria com
distribui cao de qui-quadrado com k graus de liberdade. Observe que este
resultado so se verica para A idempotente de posto k, onde
i
= 1 para
i = 1, 2, , k. Veja, por exemplo, Graybill, 1976, pg. 124.
Teorema 3.6.2: Seja y N
n
(, V ), V positiva denida e seja A
(n)
real e
simetrica de posto k. Entao, uma condicao necessaria e suciente para
que y
.
Fazendo z = B
1
y, teremos y = Bz =z = B
1
y, conseq uentemente,
E[z] = B
1
y = e
V [z] = (B
1
)V [y](B
1
)
= (B
1
)V (B
1
)
= (B
1
)BB
(B
1
)
= I.
Logo,
z N
n
(, I).
(ii) y
Ay = z
ABz.
Entao, pelo teorema anterior, uma condicao necessaria e suciente
para que z
ABz e, portanto, y
AB
seja idempotente de posto k.
Mostremos que AV idempotente e condicao necessaria e suciente
para que B
AB seja idempotente.
(SUF.) AV idempotente = B
AB idempotente
AV idempotente = AV AV = AV
Pos-multiplicando por V
1
, teremos AV A = A ().
Por outro lado, B
ABB
AB = B
AV AB
()
= B
AB.
Entao AV idempotente = B
AB idempotente
(NEC.) B
AB idempotente = AV idempotente
B
AB idempotente = B
ABB
AB = B
AB.
Pre-multiplicando por (B
1
)
e pos-mult. por B
1
, vem
ABB
A = A, Portanto, AV A = A.
Pos-multiplicando por V , teremos AV AV = AV , e, portanto,
B
AB idempotente = AV idempotente
Entao, AV idempotente e condi cao necessaria e suciente para que
B
AB seja idempotente.
Alem disso, sendo A
(n)
de posto k e sendo V nao singular, pois V e
positiva denida, entao r[AV ] = r[A] = k. Portanto,
y
Ay
2
(k)
AV e idempotente.
74 Luna, J. G. & Esteves, E. M.
Teorema 3.6.3: Dado um vetor y N
n
(, V ) e A
(n)
real e simetrica
de posto k, uma condicao necessaria e suciente para que y
Ay
2
(k , )
, onde =
1
2
2
2
(y )
A(y )
2
(k)
,e que A seja idempotente.
Seja z =
1
(y ). Entao teremos:
E[z] =
1
E[y ] = , e
V [z] =
1
2
V [y ] =
1
2
I
2
= I.
Logo,
z N
n
(, I).
Por teorema anterior, z
Az
2
(k)
A for idempotente.
Mas z
Az =
1
2
(y )
A(y )
2
(k)
A for idempotente.
Teorema 3.6.5: Se y N
n
(, V ), A
(n)
e real e simetrica de posto k e
q
B
n
real de posto linha completo. Entao:
(i) E[y
Ay] = Tr(AV ) +
Ay] = 2BV A;
(iii) Cov[By , Ay] = BV A.
Teorema 3.6.6: Se y N
n
(, V ) e A
(n)
e real e simetrica, entao
uma condicao necessaria e suciente para que a forma linear By
e a forma quadratica y
Ay independentes
Seja BV A = . Pos-multiplicando por 2 = 2BV A = .
Entao, do item (ii) do teorema anterior, Cov(By , y
Ay) = . Por-
tanto, sob normalidade, By e y
Ay sao independentes.
(NEC.) By e y
Ay independentes =BV A = .
By e y
Ay indep. = 2BV A = = BV A = , .
Teorema 3.6.7: Seja y N
n
(, V ) e sejam A
(n)
e B
(n)
matrizes reais
e simetricas. Entao uma condicao necessaria e suciente para que
y
Ay e y
Py
2
e
y
(I P)y
2
, onde P = X(X
X)
= XX
+
.
Entao, as formas quadraticas
y
Py
2
e
y
(IP)y
2
sao independentes.
Pois,
P(I P) = XX
+
(I XX
+
) = XX
+
XX
+
XX
+
= .
De modo analogo, teremos (I P)P = .
Alem disso, sendo P e (I P) matrizes simetricas e idempotentes
com r(P) = r(XX
+
) = r(X) e r(I P) = n r(X), temos duas
formas quadraticas com distribui cao de qui-quadrado. Isto e,
y
Py
2
2
[r(X) , 1]
e
y
(I P)y
2
2
[nr(X) , 2]
,
cujos parametros de nao centralidade sao:
1
=
1
2
2
XX
+
X =
1
2
2
X.
e
2
=
1
2
2
(I XX
+
)X = .
Portanto,
y
Py
2
2
[r(X) ,
1
2
2
X]
, nao central
e
y
(I P)y
2
2
[n(X)]
, central.
E, conforme ja vimos, sao independentes. Pois, P(I P) = .
Teorema 3.6.8: Teorema de Fisher-Cochran - Seja o vetor de variaveis
aleatorias y distribudo como y N
n
(, I
2
) e seja y
Iy = y
y =
p
i=1
y
A
i
y. Entao, uma condicao necessaria e suciente para que
y
A
i
y
2
[r(Ai) , i]
, onde
i
=
1
2
2
A
i
e para que
y
A
i
y e y
A
i
y, i = i
, i, i
= 1, 2, , p sejam independentes,
e que r
_
p
i=1
A
i
_
=
p
i=1
r(A
i
).
Ou seja, sendo r(I
(n)
) = n, deveremos ter
p
i=1
r(A
i
) = n.
76 Luna, J. G. & Esteves, E. M.
Exerccio 3.6.2: Note que o exerccio anterior pode ser resolvido atraves
do teorema de Fisher - Cochran. Basta notar que
I = P + (I P).
Suponha, a ttulo de ilustra cao, que os elementos envolvidos sejam:
n
y
1
, I
(n)
, e
n
X
p
, com r(X) = k n.
Assim, teremos
r(I
(n)
) = n, r(P) = k e r(I P) = n k.
Portanto,
r(I
(n)
) = r(P) +r(I P).
E, assim, teremos diretamente
y
Py
2
2
[k , ]
, =
1
2
2
X
e
y
(I P)y
2
2
[nk]
e sao independentemente distribudas. Pois,
P(I P) = P P = .
Teorema 3.6.9: Sejam as variaveis aleatorias: Z, W, V e U, indepen-
dentemente distribudas, como:
Z N
n
(, I), W
2
[k]
, V
2
[r]
e U
2
[p, ]
.
Entao:
i)
Z
_
W
k
t
(k)
, ii)
Z
_
V
r
t
(r)
, iii)
W/k
V/r
F
[k, r]
,
iv)
U/p
W/k
F
[p, k, ]
e v)
U/p
V/r
F
[p, r, ]
.
onde e o parametro de nao centralidade.
Luna, J. G. & Esteves, D. M. 77
Lista de Exerccios # 4
4.1 Dadas as matrizes:
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e B =
_
_
3 1 1
1 3 1
1 1 3
_
_
.
4.1.1 Forne ca para cada uma delas, uma matriz diagonal congruente;
4.1.2 De suas classica coes;
4.1.3 Encontre matrizes T
1
e T
2
, tais que A = T
1
T
1
e B = T
2
T
2
;
4.1.4 Verique se r(A) = r(T
1
) e se r(B) = r(T
2
);
4.1.5 Encontre os autovalores de A e de B;
4.2 Dada a matriz X =
_
_
_
_
_
_
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
, obtenha:
4.2.1 P, onde P = X(X
X)
= XX
= XX
+
;
4.2.2 A =
1
5
E, onde E e uma matriz quadrada de uns com dimensao 5;
4.2.3 P A;
4.2.4 I P;
4.2.5 Verique numericamente que A, P, P A e I P sao simetricas
e idempotentes.
4.3 Suponha que y N(X , I
2
), onde
= (
1
2
), com 3
1
+ 2
2
= 0.
(Use este fato para simplicacoes futuras) e de a distribuicao das formas
quadraticas:
4.3.1 Q
1
=
1
2
y
Ay;
4.3.2 Q
2
=
1
2
y
(P A)y;
4.3.3 Q
3
=
1
2
y
Py;
4.3.4 Q
4
=
1
2
y
y =
1
2
y
Iy;
4.3.5 Q
5
=
1
2
y
(I P)y;
4.3.6 Verique a independencia entre as formas quadraticas do numer-
ador e do denominador em 4.3.7 e 4.3.8.
4.3.7 F
1
=
_
1
2
y
(PA)y
r(X)1
_
/
_
1
2
y
(IP)y
nr(X)
_
, com n = 5;
78 Luna, J. G. & Esteves, E. M.
4.3.8 F
2
=
_
1
2
y
Py
r(X)
_
/
_
1
2
y
(IP)y
nr(X)
_
.
4.4 Suponha que y
Ay; Q
2
= y
(P A)y; Q
3
= y
Py;
Q
4
= y
(I P)y e Q
5
= y
Iy.
4.5 Verique numericamente que
Q
1
+Q
2
= Q
3
; Q
1
+Q
2
+Q
4
= Q
5
e Q
3
+Q
4
= Q
5
.
4.6 Utilizando os dados do item 4.4, preencha com valores numericos a seguinte
tabela:
F. Variacao G.L. S.Q. Q.M. F
Media 1 Q
1
= - -
Tratamento r(X) 1 = Q
2
= a =
Q2
r(X)1
=
a
c
=
parametros r(X) = Q
3
= b =
Q3
r(X)
=
b
c
=
Resduo n r(X) = Q
4
= c =
Q4
nr(X)
= -
Total n = Q
5
= - -
4.7 Aplique o teorema de Fisher Cochran a tabela do item 4.6.
4.8 Usando o teorema adequado prove cada resultado (apenas das colunas das
esperan cas matematicas) do quadro seguinte:
F. Variacao GL SQ E[SQ] E[QM]
Media 1 Q
1
2
+ 5
2
2
+ 5
2
Tratamento 1 Q
2
2
+ 3
2
1
+ 2
2
2
2
+
3
2
1
+2
2
2
1
parametros 2 Q
3
2
2
+ 5
2
+ 3
2
1
+ 2
2
2
2
+
5
2
+3
2
1
+2
2
2
2
Resduo 3 Q
4
3
2
2
Total 5 Q
5
5
2
+ 5
2
+ 3
2
1
+ 2
2
2
-
Luna, J. G. & Esteves, D. M. 79
OBS.: Proceda `as simplicacoes propostas em 4.3.
4.9 Aplique o Teorema 3.3.2 `as formas quadraticas Q
1
a Q
5
do item 4.4 (use
computador para encontrar as raizes caractersticas dos n ucleos das formas
quadraticas correspondentes).
80 Luna, J. G. & Esteves, E. M.
Captulo 4
Introducao aos Modelos
Lineares
4.1 Generalidades
Estudaremos neste captulo alguns dos aspectos fundamentais na teoria dos
modelos lineares, no que se refere `as equa coes normais, estimacao e teste de
hipoteses sobre parametros. Tendo em vista os objetivos iniciais da simplicidade
na apresenta cao e da comparacao, sempre que possvel, dos resultados aqui
obtidos com aqueles que constam nos textos classicos de Estatstica Experi-
mental, estaremos usando como exemplo um modelo para experimentos com
um fator inteiramente casualizado. Sem d uvida, essa compara cao sera bastante
facilitada atraves do conceito de restri cao nao estimavel nas solucoes.
Aqui, nao abordaremos o uso e as conseq uencias da imposi cao de restri-
coes estimaveis aos parametros. Os interessados poderao buscar informacoes
nos textos, devidos a CARVALHO (1984), DACHS e CARVALHO (1984) e
SEARLE (1984), entre outros.
4.2 Localizacao do Problema Fundamental
Seja y uma variavel que deve ser explicada atraves de um conjunto de fatores
x
1
, x
2
, , x
d
. Isto e,
y = f(x
1
, x
2
, , x
d
, e) = f(x, e)
onde e representa um conjunto provavelmente grande de outros fatores nao
considerados e que denominaremos de erro ou resduo.
81
82 Luna, J. G. & Esteves, E. M.
De certo modo, nosso problema resume-se no fato de encontrarmos uma
funcao f(x, ) que aproxime convenientemente y, como ja o zemos anterior-
mente. Aqui, consideraremos apenas as fun coes que sao lineares nos parametros
(componentes do vetor ). Assim, sao lineares nos parametros:
y =
1
+
2
x
2
+
3
x
3
+e, y =
0
+
1
log x
1
+e, etc.
Nao sao lineares nos parametros:
y =
0
1
+x
2
2
+
3
x
3
+e, y =
1
x
1
+
2
2
x
2
+e, etc.
Nesse contexto, uma funcao linear nos parametros que se presta para apro-
ximar um vetor y, de observacoes, e um modelo linear.
OBS.1: Os modelos lineares sao classicados de acordo com as variaveis que
descrevem os fatores sejam qualitativos , quantitativos ou ambas. Maiores
detalhes podem ser visto, por exemplo, em GRYBILL(1961, p. 103 e
seguintes). Aqui, abordaremos apenas os modelos para delineamentos
experimentais, que o referido autor classica como modelo 4.
OBS.2 Usaremos neste captulo, a norma euclideana para calcularmos a fun cao
distancia. Onde procuramos uma funcao d[y, f(x, )] que seja mnima.
4.3 O Modelo Linear
Nesta secao deniremos o modelo linear geral e apresentaremos algunas ca-
racterizacoes comumente encontradas na solu cao de problemas praticos.
4.3.1 Dencao e Exemplos
Denicao 4.3.1: Sejam, sobre o corpo dos reais:
n
y
1
, um vetor de observa coes;
n
X
p
, uma matriz de constantes conhecidas, de posto k min{n, p};
p
1
, um vetor de elementos desconhecidos, que chamaremos vetor de parame-
tros e que desejamos estima-los;
n
e
1
, um vetor de elementos desconhecidos que chamaremos vetor dos erros sem
nenhuma pressuposicao adicional.
Luna, J. G. & Esteves, D. M. 83
Entao,
y = X +e (4.1)
e denido como um modelo linear.
Naturalmente, de acordo com o interesse, o modelo linear podera assumir
diferentes caracteriza coes, como por exemplo:
(a) y
i
=
0
+
1
X
i
+e
i
Regresso linear simples,
(b) y
i
=
0
+
1
X
1i
+
2
X
2i
+ +
k
X
ki
+e
i
Regresso linear m ultipla,
(c) y
ij
= +
i
+e
ij
Experimento inteiramente ao acaso,
(d) y
ij
= +
i
+X
ij
+e
ij
Modelo para analise de covariancia,
(e) y
ij
= +
i
+
j
+e
ij
Experimento em blocos ao acaso,
(f ) y
ikj
= +
i
+
k
+
ik
+e
ikj
Fatorial AB inteiramente ao acaso.
Considerando i = 1, 2, , n para os itens (a), (b) e i = 1, 2; j = 1, 2, 3; k =
1, 2 para o item (f), as caracterizacoes poderao ser escritas, conforme o modelo
(4.1), do seguinte modo:
(a)
_
_
y
1
y
2
.
.
.
y
n
_
_
=
_
_
1 x
1
1 x
2
.
.
.
.
.
.
1 x
n
_
_
_
0
1
_
+
_
_
e
1
e
2
.
.
.
e
n
_
_
,
(b)
_
_
y
1
y
2
.
.
.
y
n
_
_
=
_
_
1 x
11
x
21
x
k1
1 x
12
x
22
x
k2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
1n
x
2n
x
kn
_
_
_
2
.
.
.
k
_
_
+
_
_
e
1
e
2
.
.
.
e
n
_
_
,
(c)
_
_
y
11
y
12
y
13
y
21
y
22
y
23
_
_
=
_
_
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
1 0 1
_
_
_
_
2
_
_
+
_
_
e
11
e
12
e
13
e
21
e
22
e
23
_
_
,
(d)
_
_
y
11
y
12
y
13
y
21
y
22
y
23
_
_
=
_
_
1 1 0 x
11
1 1 0 x
12
1 1 0 x
13
1 0 1 x
21
1 0 1 x
22
1 0 1 x
23
_
_
_
_
+
_
_
e
11
e
12
e
13
e
21
e
22
e
23
_
_
,
84 Luna, J. G. & Esteves, E. M.
(e)
_
_
y
11
y
12
y
13
y
21
y
22
y
23
_
_
=
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
3
_
_
+
_
_
e
11
e
12
e
13
e
21
e
22
e
23
_
_
,
(f )
_
_
y
111
y
112
y
113
y
121
y
122
y
123
y
211
y
212
y
213
y
221
y
222
y
223
_
_
=
_
_
1 1 0 1 0 1 0 0 0
1 1 0 1 0 1 0 0 0
1 1 0 1 0 1 0 0 0
1 1 0 0 1 0 1 0 0
1 1 0 0 1 0 1 0 0
1 1 0 0 1 0 1 0 0
1 0 1 1 0 0 0 1 0
1 0 1 1 0 0 0 1 0
1 0 1 1 0 0 0 1 0
1 0 1 0 1 0 0 0 1
1 0 1 0 1 0 0 0 1
1 0 1 0 1 0 0 0 1
_
_
_
11
12
21
22
_
_
+
_
_
e
111
e
112
e
113
e
121
e
122
e
123
e
211
e
212
e
213
e
221
e
222
e
223
_
_
.
Sendo y um vetor de observa coes e se o nosso objetivo e encontrar para
alguma caracterizacao de y = X+e, a melhor aproxima cao y, para y, entao o
problema resume-se em encontrarmos para essas caracteriza coes, um vetor
o
tal
que a distancia entre y e y seja a menor possvel. Mas isso nos ja sabemos fazer
desde o captulo 2, pois qualquer
o
solucao das Equa coes Normais, minimiza
essa distancia.
Assim, para o modelo (c), o sistema de equacoes normais, X
X
o
= X
y,
ca:
_
_
6 3 3
3 3 0
3 0 3
_
_
_
_
2
_
_
=
_
_
y
..
y
1.
y
2.
_
_
Escolhendo a inversa condicional mais simples, teremos uma solu cao de
mnimos quadrados. Isto e,
o
= X
y = (X
X)
y, entao,
_
_
o
1
o
2
_
_
=
_
_
0 0 0
0 1/3 0
0 0 1/3
_
_
_
_
y
..
y
1.
y
2.
_
_
=
_
_
0
y
1.
y
2.
_
_
E, conforme ja vimos, como X
=
X(X
X)
E facil intuir que o conceito de variavel aleatoria esta aqui embutido. Nesse
contexto, torna-se desejavel ligar essas ideias ao modelo.
4.3.2 O Modelo Linear de Gauss-Markov (G.M.)
Denicao 4.3.2: O modelo
y = X +e (4.2)
onde,
y e um vetor de realizacoes de variaveis aleatorias de dimensoes n 1,
X e uma matriz de constantes conhecidas de dimensoes n p, de posto k
min{n, p},
e um vetor de parametros desconhecidos de dimensoes p 1, que desejamos
estima-lo,
e e um vetor de componentes nao observaveis e aleatorios de dimensoes n 1
com media e variancia I
2
. Quando o modelo apresenta essa estrutura
para o erro, o mesmo sera denido como Modelo Linear Ordinario de
Gauss-Markov.
86 Luna, J. G. & Esteves, E. M.
FATOS:
(i) De acordo com as deni coes dos termos no modelo (4.2), teremos por con-
seq uencia que: E[y] = E[X +e] = X, V ar[y] = V ar[X +e] = I
2
.
Alem disso, o S.E.N. e dado por:
X
X = X
y
e a solu cao de mnimos quadrados ordinaria e:
o
=
_
X
X
_
y;
(ii) A matriz de covariancias dos erros pode assumir caracteriza coes mais com-
plexas do que simplesmente I
2
. Se V ar[e] e diagonal diferente de I
2
,
as demais pressuposi coes permanecem inalteradas, isto e, se E[e] = e
V ar[e] = D
2
, entao o modelo e conhecido na literatura como Modelo
Linear Ponderado de Gauss Markov. Nesse caso o S.E.N. ca:
X
D
1
X = X
D
1
y
e a solu cao de mnimos quadrados ponderada e dada por:
o
=
_
X
D
1
X
_
D
1
y;
(iii) Se a matriz de covariancias tem estrutura mais geral que as formas diago-
nais anteriores, isto e, se E[e] = e V [e] =
2
, entao o modelo e referido
como Modelo Linear Generalizado de Gauss-Markov. E, o S.E.N. e dado
por:
X
1
X = X
1
y
e uma solu cao de mnimos quadrados generalizada e dada por:
o
=
_
X
1
X
_
1
y.
(iv) No momento em que formos desenvolver o item sobre inferencia estatstica,
mais especicamente a estima cao por intervalo, por regiao e testes de
hipoteses sera necessario associar uma distribuicao de probabilidade aos
erros.
Denicao 4.3.3: Quando associamos a distribui cao normal ao erro e, do mo-
delo y = X+e denido em (4.2) teremos o modelo conhecido por Modelo
Linear de Gauss Markov Normal (G.M.N.). Assim, teremos:
Luna, J. G. & Esteves, D. M. 87
y = X +e, (G.M.N) =
_
_
e N
n
(, I
2
) Ordin ario
e N
n
(, D
2
) Ponderado
e N
n
(,
2
) Generalizado.
Observacao: Neste contexto, sempre que mensionarmos o modelo linear de
Gauss-Markov, estaremos supondo o modelo ordinario, caso contrario,
comentaremos o fato.
4.3.3 Um Exemplo Hipotetico
Para efeito de sedimenta cao dos conceitos, tomaremos como exemplo, o mo-
delo associado a um experimento com um fator inteiramente casualizado. Isto
e, y = X +e, caracterizado por: y
ij
= +
i
+e
ij
.
Exemplo: Consideraremos um ensaio hipotetico de complementacao alimen-
tar para engorda de suinos, instalado num delineamento inteiramente ao
acaso. No qual foram considerados os seguintes tratamentos: T
1
: Ureia,
T
2
:
Oleo vegetal a 1% e T
3
:
Oleo vegetal a 2%. Os resultados relativos ao
ganho de peso(em kg) por animal, apos 30 dias, encontram-se na Tabela
4.1.
Tabela 4.1: Dados hipoteticos de um ensaio inteiramente casualizado.
Tratamento
Leitao T
1
T
2
T
3
1 y
11
= 5, 0 y
21
= 6, 0 y
31
= 9, 0
2 y
12
= 4, 0 y
22
= 7, 0 y
32
= 8, 0
3 y
13
= 3, 0 y
23
= 8, 0 y
33
= 10, 0
4 y
14
= 4, 0 - -
Total y
1.
= 16, 0 y
2.
= 21, 0 y
3.
= 27, 0
Media y
1
= 4, 0 y
2
= 7, 0 y
3
= 9, 0
Variancia s
2
1
= 2/3 s
2
2
= 1, 0 s
2
3
= 1, 0
Seja o modelo y = X +e, G.M. caracterizado por: y
ij
= +
i
+e
ij
. Ao
adotarmos este modelo, estamos supondo que:
(i) Cada observacao pode ser explicada atraves de uma adicao (modelo aditivo)
de dois componentes: um xo, +
i
=
i
e um aleatorio e
ij
;
88 Luna, J. G. & Esteves, E. M.
Figura 4.1: Gracos de y
1
N(4, 1), y
2
N(7, 1) e y
3
N(9, 1)
(ii) Desde que E[e
ij
] = 0 = E[y
ij
] = +
i
=
i
;
(iii) Como
i
e constante para cada i, entao V [y
ij
] = V [e
ij
] =
2
.
De fato, y = X + e (G.M). = E[y] = X e V [y] = I
2
, que
mostra tambem, atraves de I
2
, que os erros sao independentes. Isto
e, E[e
ij
e
i
j
] = E[e
ij
]E[e
i
j
] = 0, para i = i
ou j = j
. Sendo e
ij
independentes, entao os y
ij
tambem o sao.
(iv) Entao, as observacoes y
ij
sao independentemente distribudas e sao tais
que y
ij
N(
i
,
2
) ou y N
n
(X , I
2
).
A Figura 4.1 representa o comportamento probabilstico de tres populacoes
normais independentes com medias
1
= 4,
2
= 7 e
3
= 9 e variancia comum
2
= 1.
Obs.: A analise dos resduos, a qual nao sera abordada aqui, fornece um con-
junto de tecnicas para vericar se as suposicoes acerca do modelo adotado
estao coerentes com o conjunto de dados em estudo.
Associando o modelo y = X + e caracterizado por y
ij
= +
i
+ e
ij
`as
observacoes obtidas no experimento, podemos escrever:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
11
y
12
y
13
y
14
y
21
y
22
y
23
y
31
y
32
y
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5, 0
4, 0
3, 0
4, 0
6, 0
7, 0
8, 0
9, 0
8, 0
10, 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0
1 1 0 0
1 1 0 0
1 1 0 0
1 0 1 0
1 0 1 0
1 0 1 0
1 0 0 1
1 0 0 1
1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
3
_
_
_
_
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
e
11
e
12
e
13
e
14
e
21
e
22
e
23
e
31
e
32
e
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4.3.4 O Sistema de Equacoes Normais (S.E.N.)
Ja sabemos que a aproxima cao de mnimos quadrados para y e dada por
y = Py = X
o
, onde
o
e qualquer solucao do sistema de equa coes normais,
independentemente da distribuicao de probabilidade associada ao erro e
ij
. As-
sim, para os dados experimentais aqui considerados, temos o seguinte S.E.N.
Luna, J. G. & Esteves, D. M. 89
X
X
o
= X
y:
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
_
_
_
_
o
1
o
2
o
3
_
_
_
_
=
_
_
_
_
64
16
21
27
_
_
_
_
Observe que, para o modelo aqui considerado, o S.E.N pode ser escrito generi-
camente, do seguinte modo:
_
_
_
_
_
_
_
n r
1
r
2
r
k
r
1
r
1
0 0
r
2
0 r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
r
k
0 0 r
k
_
_
_
_
_
_
_
_
_
_
_
_
_
_
o
1
o
2
.
.
.
o
k
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
y
..
y
1.
y
2.
.
.
.
y
k.
_
_
_
_
_
_
_
onde,
n =
k
i=1
r
i
, e o n umero total de observacoes;
r
i
e o n umero de repeticoes do tratamento i, i = 1, , k;
y
..
e o total geral;
y
i.
e o total das observa coes no tratamento i.
Uma solucao do S.E.N. pode ser obtida, de modo generico, por
o
= (X
X)
y.
E, considerando a inversa generalizada mais simples, teremos:
_
_
_
_
_
_
_
o
1
o
2
.
.
.
o
k
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0 0 0 0
0 1/r
1
0 0
0 0 1/r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1/r
k
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
..
y
1.
y
2.
.
.
.
y
k.
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0
y
1
y
2
.
.
.
y
k
_
_
_
_
_
_
_
.
Para os dados do exemplo, temos:
o
=
_
_
_
_
o
1
o
2
o
3
_
_
_
_
=
_
_
_
_
0
y
1
y
2
y
3
_
_
_
_
=
_
_
_
_
0
4, 0
7, 0
9, 0
_
_
_
_
e y = X
o
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
90 Luna, J. G. & Esteves, E. M.
Isto e, y
ij
= y
i
.
No exemplo em questao, a solucao
o
, para e obtida facilmente (em outros
modelos isto nem sempre ocorre). Veremos, em momento oportuno, que se a
matriz X nao tem posto coluna completo, entao
o
nao e um estimador nao
viciado para , e sim, para funcoes dos componentes de .
Luna, J. G. & Esteves, D. M. 91
4.4 Estimacao em Modelos Lineares
O sistema de equa coes normais (S.E.N.) apresenta propriedades importantes.
Dentre elas destacam-se aquelas sobre proje cao e invariancia. Estudaremos
agora, algumas ideias sobre a solu cao das equacoes normais, ja sabidamente
consistente, visando introduzir o conceito de estimacao por ponto no modelo
linear de Gauss-Markov.
Dado o modelo y = X + e (G.M.), se X tem posto coluna completo,
como em geral ocorre nos problemas de regressao, a menos da existencia de
colinearidade, entao X
= (X
X)
1
Xy.
Alem disso,
e um estimador nao viciado para . Ou seja,
E[
] = E[(X
X)
1
X
y] = (X
X)
1
X
E[y] = (X
X)
1
X
X = .
Assim, podemos dizer que se X tem posto coluna completo, a solu cao unica
de mnimos quadrados
e o estimador de mnimos quadrados para .
Por outro lado, a matriz de dispersao de
pode ser obtida como:
V [
] = V [(X
X)
1
X
y] = (X
X)
1
X
V [y]X(X
X)
1
= (X
X)
1
X
I
2
X(X
X)
1
= (X
X)
1
2
.
Observe que sendo X
X)
1
tambem o e.
Se, no entanto, X nao tem posto coluna completo, como normalmente ocorre
nos delineamentos experimentais, a menos que sejam impostas restricoes ou
reparametrizacoes, Entao nao existe (X
X)
1
e o S.E.N. e indeterminado.
Dentre as possveis solucoes, temos:
o
= X
y = (X
X)
y,
o
= X
+
y, etc.
Nesses casos
o
nao e um estimador nao viciado para . Pois,
E[
o
] = E[(X
X)
y] = (X
X)
E[y] = (X
X)
X = H,
Onde, H = (X
X)
X)
1
=
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
,
temos
H
1
= (X
X)
1
(X
X) =
_
_
_
_
0 0 0 0
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
_
_
3
_
_
_
_
=
_
_
_
_
0
+
1
+
2
+
3
_
_
_
_
.
Se considerarmos outra inversa condicional de X
X, digamos:
(X
X)
2
=
1
3
_
_
_
_
1 1 1 0
1 7/4 1 0
1 1 2 0
0 0 0 0
_
_
_
_
,
teremos,
H
2
= (X
X)
2
(X
X) =
_
_
_
_
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
_
_
_
_
_
_
_
_
3
_
_
_
_
=
1
3
_
_
_
_
+
3
3
0
_
_
_
_
Observe que para cada H temos aparentemente um novo conjunto de fun coes
estimaveis. Na verdade os elementos de um conjunto podem ser obtidos como
combinacoes lineares do outro.
Note que no modelo em questao, E[y
ij
] = +
i
. E, portanto, +
i
e
estimavel. Esses resultados estao em H. Tambem o primeiro elemento de
H
2
e do tipo +
i
. Alem disso, os outros dois elementos nao nulos de H
2
sao,
( +
1
) ( +
3
) =
1
3
( +
2
) ( +
3
) =
2
3
.
Naturalmente existem outras funcoes nesse modelo que sao estimaveis.
Formalizaremos agora, algumas ideias basicas sobre estimacao em modelos
lineares.
Luna, J. G. & Esteves, D. M. 93
Denicao 4.4.1: (RAO, 1945) - Uma funcao linear parametrica do tipo
,
e dita estimavel no modelo linear y = X + e (G.M.) se, e somente se,
existir uma combinacao linear das observacoes, a
y] =
.
FATO: Essa denicao sera muito util em demonstracoes, como veremos poste-
riormente, no entanto do ponto de vista pratico, ela e pouco operacional,
pois depende da dimensao do vetor y das observa coes.
Exemplo 4.4.1 Consideremos a fun cao parametrica
=
_
1 1 0 0
_
_
_
_
_
3
_
_
_
_
= +
1
.
Estudemos a sua estimabilidade, empregando a deni cao.
E[a
y] =
=a
X =
=a
X =
=X
a = .
Assim,
_
_
_
_
1 1 1 1 1 1 1 1 1 1
1 1 1 1 0 0 0 0 0 0
0 0 0 0 1 1 1 0 0 0
0 0 0 0 0 0 0 1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
a
2
a
3
a
4
a
5
a
6
a
7
a
8
a
9
a
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
1
1
0
0
_
_
_
_
ou _
_
a
1
+a
2
+a
3
+a
4
+a
5
+a
6
+a
7
+a
8
+a
9
+a
10
= 1
a
1
+a
2
+a
3
+a
4
= 1
a
5
+a
6
+a
7
= 0
a
8
+a
9
+a
10
= 0
Observe que os vetores, a
1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
1
1
1
2
2
0
1
1
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
e a
2
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1/4
1/4
1/4
1/4
0
0
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, sao tais que
E[a
1
y] = a
1
E[y] = a
1
X = a
2
X =
= +
1
94 Luna, J. G. & Esteves, E. M.
e existem outros vetores com esta caracterstica.
Note que
a
1
y =
_
4 1 1 1 2 2 0 1 1 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
11
y
12
y
13
y
14
y
11
y
22
y
23
y
31
y
32
y
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= 4y
11
(y
12
+y
13
+y
14
) + 2(y
21
y
22
) + (y
31
y
32
).
Alem disso, sendo a
X =
_
1 1 0 0
_
, tem-se
E[a
1
y] = a
1
X =
_
1 1 0 0
_
_
_
_
_
3
_
_
_
_
= +
1
=
.
De modo analogo, verica-se que
a
2
y = y
1.
e E[a
2
y] = a
2
X = +
1
=
.
Dessa forma, temos:
(a)
= +
1
e uma funcao parametrica estimavel;
(b) Dois dentre seus estimadores nao viesados sao:
= a
1
y = 4y
11
(y
12
+y
13
+y
14
) + 2(y
21
y
22
) + (y
31
y
32
)
= a
2
y =
1
4
(y
11
+y
12
+y
13
+y
14
) = y
1.
.
(c) Usando os dados observados no exemplo da sub-secao 4.3.3, duas dentre
suas estimativas nao viciadas, sao:
= a
1
y =
_
4 1 1 0
_
_
_
_
_
_
_
_
5
4
.
.
.
8
10
_
_
_
_
_
_
_
= 9, 0.
= a
2
y =
_
1/4 1/4 0 0
_
_
_
_
_
_
_
_
5
4
.
.
.
8
10
_
_
_
_
_
_
_
= 4, 0.
Luna, J. G. & Esteves, D. M. 95
Observe que existem muitos outros estimadores nao tendenciosos a
y de
= +
1
, basta escolher o vetor a, tal que X
a = . Veremos posteriormente
que apenas um deles sera o escolhido, por ser o melhor dentre todos.
Teorema 4.4.1: (RAO, 1945) - Uma condicao necessaria e suciente para que
a fun cao parametrica
).
(Suf.) C(X
) =
e estimavel.
C(X
) = a : X
a = =
= a
X,
Pos-multiplicando por =
= a
X =
= a
E[y] =
= E[a
y] =
estimavel.
(Nec.)
estimavel = C(X
).
estimavel =a : E[a
y] =
=a
X =
=
C(X
), .
Exemplo 4.4.2: Empregue o Teorema 4.4.1, para vericar se as funcoes
1
=
1
+
2
e
2
=
1
2
sao estimaveis no modelo linear de Gauss-
Markov y = X +e.
Vericando: Ora,
1
C(X
, tal que,
1
v
1
+
2
v
2
+ +
k
v
k
=
1
. Onde,
i
R (i = 1, 2, , k)
e v
i
(i = 1, 2, , k) sao vetores (colunas) linearmente independentes de
X
. Assim, teremos:
1
_
_
_
_
1
1
0
0
_
_
_
_
+
2
_
_
_
_
1
0
1
0
_
_
_
_
+
3
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
1
1
0
_
_
_
_
=
_
1
+
2
+
3
= 0
1
= 1
2
= 1
3
= 0
Como nao existem
i
, tal que,
3
i=1
i
v
i
=
1
, entao a funcao parametrica
1
nao e estimavel no modelo linear (G.M.).
Por outro lado, a funcao parametrica
2
=
1
2
e estimavel. Pois,
1
_
_
_
_
1
1
0
0
_
_
_
_
+
2
_
_
_
_
1
0
1
0
_
_
_
_
+
3
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
1
1
0
_
_
_
_
=
_
1
+
2
+
3
= 0
1
= 1
2
= 1
3
= 0
96 Luna, J. G. & Esteves, E. M.
Note que
1
= 1,
2
= 1 e
3
= 0 e solu cao do sistema de equacoes. Isto
e, existem
i
, tal que,
3
i=1
i
v
i
=
2
. Portanto, a fun cao parametrica
2
e
estimavel no modelo linear de Gauss-Markov.
Corolario 4.4.1: Cada condi cao dada a seguir e necessaria e suciente para
que
] = r[X
.
.
.],
(b) r[X
X] = r[X
X
.
.
.].
Observe a associacao entre os conceitos de estimabilidade e de consistencia
visto no Captulo 2.
Exemplo 4.4.3: Consideremos o exemplo hipotetico da sub-secao 4.3.3 e as
fun coes parametricas:
1
=
1
+
2
,
2
= +
1
e
3
=
1
+
2
2
3
.
Entao,
_
_
_
_
10 4 3 3 0 1 0
4 4 0 0 1 1 1
3 0 3 0 1 0 1
3 0 0 3 0 0 2
_
_
_
_
_
_
_
_
1 0 0 1
2
3
0
2
3
0 1 0 1
11
12
1
4
11
12
0 0 1 1 1 0 1
0 0 0 0 1 0 0
_
_
_
_
Desse modo, dentre as tres fun coes dadas, apenas
1
=
1
+
2
nao e estimavel,
nesse modelo.
Denicao 4.4.2: Dada a funcao parametrica
X = e denido como
sistema de equa coes normais associadas.
Observacao: O sistema de equacoes normais associadas (S.E.N.A.) preserva as
propriedades importantes do sistema de equacoes normais (S.E.N.), como
por exemplo, a invariancia de X
o
,
o
solucao do S.E.N.A.
Tomemos como exemplo o contraste
=
1
3
, ja sabidamente es-
timavel.
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
_
_
_
_
4
_
_
_
_
=
_
_
_
_
0
1
0
1
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 97
Dentre outras possveis solucoes tomemos:
o
(1)
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
0
1
4
0 0
0 0
1
3
0
0 0 0
1
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
0
1
4
0
1
3
_
_
_
_
_
_
_
_
_
_
e
o
(2)
=
_
_
_
_
_
_
_
_
_
_
1
3
1
3
1
3
0
1
3
7
12
1
3
0
1
3
1
3
2
3
0
0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
1
3
7
12
1
3
0
_
_
_
_
_
_
_
_
_
_
.
Portanto,
[X
o
(1)
]
= [X
o
(2)
]
=
_
1
4
1
4
1
4
1
4
0 0 0
1
3
1
3
1
3
_
e invariante.
Vimos que se
y] =
y.
Entao a
se, e
somente se,
V [a
y] = Min{V [a
y]}, a
y : E[a
y] =
.
A combinacao linear a
.
Teorema 4.4.2: Se
y,
onde e qualquer solucao das E.N.A.
y e unica. Veriquemos,
entao, se
y e realmente o BLUE de
.
98 Luna, J. G. & Esteves, E. M.
(a)
. Isto e,
E[
y] =
X =
X = =
X.
(b)
.
Calculemos inicialmente a variancia de
y.
V [
y] =
V [y]X =
X
2
=
2
. (I)
Seja, agora,
y = (
. Entao,
V [a
y] = (
)V (y)(X )
= (
X +
)
2
. (II)
Por outro lado, na classe dos nao viciados, temos que:
E[a
y] = E[(
)y] = (
)X
=
X =
X =
X.
Usando as E.N.A., temos que,
X =
X = , . (III).
Assim, (II) ca:
V [a
y] = (
X +
)
2
e, das E.N.A., vem
V [a
y] = (
)
2
. (IV )
Mas e um vetor e, portanto,
0.
Entao, comparando (I) e (IV), temos:
V [a
y] V [
Xy].
Assim, da deni cao, temos que
Xy =
.
Alem disso, a igualdade so e vericada quando = , garantindo, como
ja vimos no incio da demonstra cao, a unicidade do BLUE.
Exemplo 4.4.4: Seja
=
1
3
. Entao, usando resultados anteriores,
2
=
o
(1)
y =
o
(2)
y = y
1
y
2
= 4 9 = 5.
O teorema a seguir fornece uma regra mais operacional, baseada nas E.N.,
para a obten cao de
estimavel.
Luna, J. G. & Esteves, D. M. 99
Teorema 4.4.3: (Teorema de Gauss-Markov) - Se
e estimavel no mode-
lo y = X + e (G.M.), ent ao o BLUE de
e dado por
o
, isto e,
=
o
, para qualquer
o
solucao das equacoes normais.
estimavel = : X
X = =
X,
pos-multiplicando por
o
=
o
=
X
o
.
Usando as E.N., vem:
o
=
y =
.
FATOS:
(a) A unicidade de
o
=
(X
X)
y =
X(X
X)
y =
XX
+
y
=
y.
(b) Atraves do teorema de Gauss-Markov podemos obter uma forma mais op-
eracional para a variancia do BLUE de
.
V [
] = V [
o
] = V [
(X
X)
y]
=
(X
X)
X[(X
X)
2
Sendo
estimavel =a : X
a = . Portanto,
V [
] =
(X
X)
X[(X
X)
a
2
Por outro lado, [(X
X)
X (veja,
dentre outros, SEARLE, 1971, pg. 20, Teorema 7, item (i)). Entao,
X[(X
X)
= XX
+
= P. Assim sendo, temos:
V [
] =
(X
X)
2
.
Exemplo 4.4.5: Seja
3
e considerando
o
=
_
_
_
_
0
4, 0
7, 0
9, 0
_
_
_
_
do exemplo
anterior, temos que
3
=
o
=
_
0 1 0 1
_
_
_
_
_
0
y
1
y
2
y
3
_
_
_
_
= y
1
y
3
= 5, 0
100 Luna, J. G. & Esteves, E. M.
e
V [
] = V [
3
] =
(X
X)
2
=
_
0 1 0 1
_
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
=
7
12
2
Se usarmos outra condicional de (X
3
] =
7
12
2
.
4.5 Regras Praticas de Estimabilidade
Na se cao anterior estudamos estima cao por ponto baseado no espaco colu-
na de X
2
_
_
=
_
_
_
_
+
1
+
1
+
2
+
2
_
_
_
_
.
Portanto, as funcoes basicas estimaveis nesse modelo, sao do tipo
=
+
i
.
De fato,
E[y
ij
] = E[ +
i
+e
ij
] = +
i
.
(b) Na caracterizacao y
ij
= +
i
+
j
+e
ij
, i = 1, 2 e j = 1, 2, 3.
E[y] =
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
3
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
+
1
+
1
+
1
+
2
+
1
+
3
+
2
+
1
+
2
+
2
+
2
+
3
_
_
_
_
_
_
_
_
Luna, J. G. & Esteves, D. M. 101
Entao, E[y
ij
] = +
i
+
j
exibe o conjunto de fun coes basicas estimaveis
nesse model. E assim por diante.
A associa cao dessa propriedade com outra que vem a seguir, resolve a
maioria dos problemas praticos de estimabilidade.
4.5.2 Combinac oes Lineares de Func oes Estimaveis
Sejam
1
,
2
, ,
p
, p funcoes lineares parametricas estimaveis em
alguma caracterizacao de y = X + e (G.M.). Entao, da denicao de estima-
bilidade, tem-se que a : E[a
y] =
i
, i = 1, 2, , p.
Seja c
1
y] = c
1
a
1
X = c
1
E[c
2
a
2
y] = c
2
a
2
X = c
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
E[c
p
a
p
y] = c
p
a
p
X = c
p
E[
p
=1
c
y] =
p
=1
c
X =
p
=1
c
Portanto,
w
=
p
=1
c
=
p
=1
c
y] =
.
Entao,
=
p
=1
c
e estimavel.
Exemplo 4.4.6: Considere as fun coes basicas estimaveis do exemplo inicial,
isto e,
i
= +
i
, entao s ao estimaveis, dentre outras,
(a)
4
= 3 +
1
+
2
+
3
. Basta tomar c
i
= 1, i e teremos
4
=
3
i=1
c
i
i
=
_
3 1 1 1
_
ou simplesmente
( +
1
) + ( +
2
) + ( +
3
) = 3 +
1
+
2
+
3
.
(b)
5
= 2
1
3
= 2( +
1
) ( +
2
) ( +
3
). Ou seja,
1
=
_
_
_
_
1
1
0
0
_
_
_
_
,
2
=
_
_
_
_
1
0
1
0
_
_
_
_
3
=
_
_
_
_
1
0
0
1
_
_
_
_
, c
1
= 2, c
2
= c
3
= 1.
102 Luna, J. G. & Esteves, E. M.
Assim,
5
=
3
i=1
c
i
i
= 2
_
_
_
_
1
1
0
0
_
_
_
_
1
_
_
_
_
1
0
1
0
_
_
_
_
1
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
2
1
1
_
_
_
_
.
Portanto,
5
=
_
0 2 1 1
_
_
_
_
_
3
_
_
_
_
= 2
1
3
e assim por diante.
Denicao 4.4.4: Seja o modelo linear y = X+e (G.M.) e seja , tal que,
=
_
1
k
.
.
.
1
s
.
.
.
11
ks
.
.
.
_
. Entao
as funcoes parametricas do tipo
k
i=1
c
i
i
,
s
j
c
j
j
,
k
i=1
s
j=1
c
ij
ij
, etc,
sao denominadas contrastes se, e somente se,
k
i=1
c
i
=
s
j=1
c
j
=
k
i=1
s
j=1
c
ij
= 0.
Assim, sao exemplos de contrastes:
1
=
1
2
,
2
=
1
1
2
(
2
+
3
),
3
= 3
1
4
, etc.
Observacoes:
(a) Os contrastes formam um subconjunto das fun coes estimaveis, sendo por-
tanto, estimaveis (caso particular onde
= 0, no teorema da com-
binacao linear).
(b) Sendo
o
=
(X
X)
y =
i
y
i
,
e
V [
] =
(X
X)
2
=
2
i
r
i
2
Luna, J. G. & Esteves, D. M. 103
onde, r
i
e o n umero de repeticoes do tratamento i, sao invariantes para
qualquer (X
X)
.
Considerando-se um modelo com um fator inteiramente casualizado e a
inversa condicional mais simples, e facil chegar a esses resultados.
Exemplo 4.4.7: Seja a fun cao parametrica
=
_
0 2 1 1
_
_
_
_
_
3
_
_
_
_
= 2
1
3
,
Entao,
o
= 2 y
1
y
2
y
3
= 8, 0.
e
V [
] =
(X
X)
2
=
_
(2)
2
4
+
(1)
2
3
+
(1)
2
3
_
2
=
5
3
2
.
4.5.3 Usando as Equacoes Normais
Dado o sistema de equa coes normais X
X = X
y, entao
e estimavel
se, e somente se, puder ser obtida como combina cao linear dos componentes de
X
X (lado esquerdo do S.E.N.). Em caso armativo, seu BLUE sera dado pela
mesma combina cao linear dos componentes de X
3
_
_
_
_
=
_
_
_
_
64
16
21
27
_
_
_
_
.
Seja a fun cao parametrica
=
1
2
=
1
4
_
4 4 0 0
_
_
_
_
_
3
_
_
_
_
1
3
_
3 0 3 0
_
_
_
_
_
3
_
_
_
_
Portanto,
2
=
1
4
(16)
1
3
(21) = 3, 0.
Se considerarmos
= +
3
=
1
3
_
3 0 0 3
_
_
_
_
_
3
_
_
_
_
,
104 Luna, J. G. & Esteves, E. M.
teremos
+
3
=
1
3
(27) = 9, 0 = y
3
.
4.5.4 Um Teste Alternativo
Ja vimos que
estimavel = a : X
a = =
= a
X. Pos-
multiplicando por H = (X
X)
(X
X), temos
H = a
X(X
X)
(X
X) = a
[X(X
X)
]X
= a
PX = a
XX
+
X = a
X =
.
Em outras palavras, se
e estimavel, entao
H =
.
No exemplo em questao, seja
1
=
1
2
, ja sabidamente estimavel e seja
2
=
1
+
2
+
3
.
Tomando duas matrizes H, isto e,
H
1
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
_
_
_
_
e H
2
=
_
_
_
_
_
_
_
_
_
_
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
_
_
_
_
_
_
_
_
_
_
,
podemos vericar que:
1
H
1
=
1
H
2
=
1
, pois
1
2
e estimavel.
e que
2
H
1
=
2
e
2
H
2
=
2
, pois
1
+
2
+
3
nao e estimavel.
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros
Nesta secao apresentaremos algumas ideias acerca de equacoes normais re-
duzidas, as quais sao de grande utilidade para o estudo de modelos mais parametriza-
dos que o inteiramente casualizado com um fator.
Consideremos o modelo y = X +e (G.M.) e as particoes:
X =
_
X
1
.
.
. X
2
_
e
=
_
1
.
.
.
2
_
.
Entao podemos escrever
y =
_
X
1
.
.
. X
2
_
_
_
2
_
_
+e = X
1
1
+X
2
2
+e
Luna, J. G. & Esteves, D. M. 105
e o sistema de equa coes normais, X
X = X
y, ca:
_
_
X
1
X
1
X
1
X
2
X
2
X
1
X
2
X
2
_
_
_
_
2
_
_
=
_
_
X
1
y
X
2
y
_
_
ou _
_
_
X
1
X
1
1
+X
1
X
2
2
= X
1
y (I)
X
2
X
1
1
+X
2
X
2
2
= X
2
y (II)
Para encontrar o sistema de equacoes normais reduzidas de
2
eliminado
1
,
procedemos como segue.
Pre- multiplicando (I) por X
2
X
+
1
, vem
X
2
X
+
1
1
X
1
1
+X
2
X
+
1
1
X
2
2
= X
2
X
+
1
1
y =
X
2
X
1
X
+
1
X
1
1
+X
2
X
1
X
+
1
X
2
2
= X
2
X
1
X
+
1
y =
X
2
X
1
1
+X
2
P
1
X
2
2
= X
2
P
1
y, (III)
onde P
1
= X
1
X
+
1
= X
1
(X
1
X
1
)
1
e o projetor ortogonal de y em C(X
1
).
Subtraindo-se (III) de (II), temos:
X
2
X
1
1
+X
2
X
2
2
= X
2
y
X
2
X
1
1
X
2
P
1
X
2
2
= X
2
P
1
y
X
2
(I P
1
)X
2
2
= X
2
(I P
1
)y
que e o sistema de equa coes normais reduzidas para
2
eliminado
1
.
Para o exemplo que temos considerado nas se coes anteriores, podemos ter:
X =
_
X
1
.
.
. X
2
_
, =
_
_
_
_
, onde =
_
_
3
_
_
.
Assim sendo, o modelo linear e o S.E.N.R. para eliminado , cam:
y = X
1
+X
2
+e e
3
10
_
_
8 4 4
4 7 3
4 3 7
_
_
_
_
3
_
_
=
3
10
_
_
32
6
26
_
_
,
respectivamente.
Uma solucao de mnimos quadrados para e dada por:
o
= [X
2
(I P
1
)X
2
]
2
(I P
1
)y
=
1
40
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
32
6
26
_
_
=
_
_
0
3
5
_
_
.
106 Luna, J. G. & Esteves, E. M.
Observacoes:
(a) Sendo (I P
1
) = (I X
1
X
+
1
) idempotente, podemos escrever
X
2
(I P
1
)(I P
1
)X
2
2
= X
2
(I P
1
)y.
Fazendo W = (I P
1
)X
2
teremos W
W
=
W
2
(IP
1
)X
2
tem dimensoes menores que X
X. Para o exemplo
em questao a reducao das dimen coes e pequena, porem em modelos mais
parametrizados esta e bastante signicativa, facilitando sobremaneira a
obtencao das solucoes. De modo analogo, no estudo de estimabilidade e
na obtencao dos BLUEs e suas variancias. Observe que, num modelo
mais parametrizado,
de
, ca reduzida a
de
, onde
e do
tipo:
=
_
.
.
.
.
.
.
.
.
.
.
.
.
_
.
No exemplo em questao, temos
=
_
0
.
.
.
_
.
Teorema 4.6.1: Uma funcao linear parametrica
e estimavel no modelo
linear de Gauss-Markov y = X
1
1
+ X
2
2
+ e se, e somente se,
C[X
2
(I P
1
)].
Prova: Tomando as E.N.A. X
.
Sejam X =
_
X
1
.
.
. X
2
_
,
=
_
1
.
.
.
2
_
e
=
_
.
.
.
_
.
Entao, o sistema de equa coes normais associados ca:
_
_
_
X
1
X
1
1
+X
1
X
2
2
= (I)
X
2
X
1
1
+X
2
X
2
2
=
(II)
Pre-multiplicando (I) por X
2
X
+
1
e subtraindo de (II), encontramos
X
2
(I P
1
)X
2
1
=
,
que, por resultados discutidos anteriormente, e a prova do teorema.
Teorema 4.6.2: Se
2
e estimavel no modelo y = X
1
1
+X
2
2
+e (G.M.),
entao seu BLUE pode ser obtido por:
2
=
o
2
.
invariante,
o
2
solucao das E.N.A. Alem disso,
V [
2
] =
[X
2
(I P
1
)X
2
]
2
.
A prova do teorema e semelhante `a do item anterior.
Luna, J. G. & Esteves, D. M. 107
Exerccio 4.6.2 Sejam as funcoes lineares parametricas
1
=
1
2
e
2
=
2
1
3
, ja estudadas anteriormente, para as quais tivemos:
1
= 3, 0 e V [
1
] =
7
12
2
e
2
= 8, 0 e V [
2
] =
5
3
2
.
No caso presente, temos:
o
=
_
1 1 0
_
_
_
0
3
5
_
_
= 3, 0
e
V [
] =
[X
2
(I P
1
)X
2
]
2
=
1
12
_
1 1 0
_
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
1
1
0
_
_
2
=
7
12
2
.
o
=
_
2 1 1
_
_
_
0
3
5
_
_
= 8, 0
e
V [
] =
[X
2
(I P
1
)X
2
]
2
=
1
12
_
2 1 1
_
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
2
1
1
_
_
2
=
5
3
2
.
4.6 A Analise de Variancia
Vimos anteriormente que y pode ser decomposto na soma de dois vetores de
espacos ortogonais, ou seja, y = y +e. Assim, temos
y
2
= y
2
+e
2
= X
o
2
+y X
o
2
.
Usando a denicao da norma euclideana e lembrando que o sistema de
equacoes normais e dado por X
X
o
= X
y, vem
y
y =
o
X
y + (y
y
o
X
y)
108 Luna, J. G. & Esteves, E. M.
cujos termos sao denidos respectivamente como: Soma de quadrados total,
Soma de quadrados dos parametros e Soma de quadrados dos resduos. Ou
melhor,
SQTotal = SQPar. + SQRes.
Para o exemplo que estamos considerando, temos
SQTotal = y
y =
i,j
y
2
ij
= (5, 0)
2
+ (4, 0)
2
+ + (10, 0)
2
= 460, 0,
SQPar. =
o
X
y =
_
0 4 7 9
_
_
_
_
_
64
16
21
27
_
_
_
_
= 454, 0
e
SQRes. = SQTotal SQPar. = 460, 0 454, 0 = 6, 0.
As formas quadraticas correspondentes cam facilmente identicadas quando
substituimos
o
por (X
X)
y. Ou seja,
y
y =
o
X
y + (y
y
o
X
y)
= y
X(X
X)
y + (y
y y
X(X
X)
y).
Portanto,
y
Iy = y
Py + (y
Iy y
Py)
ou ainda,
y
Iy = y
Py +y
(I P)y,
onde P e o projetor ortogonal de y em C(X), o subespaco dos parametros e
(I P) e o projetor ortogonal de y no espa co ortogonal ao espaco coluna de
X, C
Py = y
Py = y
y
Luna, J. G. & Esteves, D. M. 109
Mas,
y = Py =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0 0 0 0
1
3
1
3
1
3
0 0 0 0 0 0 0
1
3
1
3
1
3
0 0 0 0 0 0 0
1
3
1
3
1
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
8
7
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Assim,
SQPar. = y
Py = y
y = y
y
=
_
5 4 3 4 6 8 7 9 8 10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= 454, 0,
SQRes = y
(I P)y = y
(I P)
(I P)y = e
e.
Mas,
e = (I P)y
110 Luna, J. G. & Esteves, E. M.
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
3
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
3
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
3
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
3
4
0 0 0 0 0 0
0 0 0 0
2
3
1
3
1
3
0 0 0
0 0 0 0
1
3
2
3
1
3
0 0 0
0 0 0 0
1
3
1
3
2
3
0 0 0
0 0 0 0 0 0 0
2
3
1
3
1
3
0 0 0 0 0 0 0
1
3
2
3
1
3
0 0 0 0 0 0 0
1
3
1
3
2
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
8
7
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
0
1
0
1
1
0
0
1
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Portanto,
SQRes. = y
(I P)y = e
e = 6, 0
Observe que na secao 4.3.3, Tabela 4.1 a variancia da amostra que recebeu
o tratamento i, (i=1,2,3), foi obtida a partir da expressao:
s
2
i
=
1
r
i
1
_
_
j
y
2
ij
(
j
y
ij
)
2
r
i
_
_
,
e, desse modo, sob (G.M.)
E[s
2
i
] =
2
.
Deve ser observado tambem que P e (I P) sao idempotentes. Isto e,
PP = P e (I P)(I P) = (I P). Alem disso, que as formas quadraticas
y
Py e y
Iy =g.l.[SQTotal] = r[I
(n)
] = r[I
(10)
] = 10,
SQPar. = y
SQPar.
2
=
y
Py
2
2
[r(X);
1
2
2
X]
,
pois,
PX =
XX
+
X =
X.
SQRes.
2
=
y
(IP)y
2
2
[nr(X)]
,
uma vez que
(I P)X =
XX
+
X = .
Os parametros envolvidos no modelo considerado, resumem-se em media e
tratamento. Assim sendo, temos:
SQPar. = SQM edia + SQTrat.
Em geral, estamos interessados nos efeitos dos tratamentos. Dessa forma,
podemos tomar
SQTrat. = y
(P P
1
)y,
onde,
=
_
_
_
_
, X =
_
X
1
.
.
. X
2
_
, X
1
=
_
1 1 1
_
e
P
1
= X
1
(X
1
X
1
)
1
=
1
n
X
1
X
1
=
1
n
E
(n)
,
onde E
(n)
e uma matriz quadrada de ordem n com todos seus elementos iguias
a um.
Portanto,
SQM edia = y
P
1
y =
1
n
y
Ey =
_
i,j
y
ij
_
2
n
=
y
2
..
n
= C
Onde, C e conhecido como fator de correcao ou soma de quadrados da media.
Assim sendo, denimos a soma de quadrados de tratamento como:
SQTrat. = y
(P P
1
)y = y
Py y
P
1
y = SQPar. C.
Alem disso, pode ser vericado que
SQTrat. = y
(P P
1
)y =
i
r
i
( y
i.
y
..
)
2
=
i
y
2
i.
r
i
C.
Considerando-se os dados do exemplo, temos:
112 Luna, J. G. & Esteves, E. M.
C =
y
2
..
n
=
(64)
2
10
= 409.6 e
SQTrat. =
3
i=1
y
2
i.
ri
C =
(16)
2
4
+
(21)
2
3
+
(27)
2
3
409.6 = 44, 4.
Observe que (P P
1
) e simetrica e idempotente, e entao,
r[(P P
1
)] = Tr[(P P
1
) = Tr[P] Tr[P
1
] = r[X] 1
Desse modo,
SQTrat. = y
(P P
1
)y =g.l.[SQTrat.] = r[X] 1 e segue que,
SQTrat
2
=
y
(PP1)y
2
2
[r(X)1;
1
2
2
i
ri(i )
2
]
.
Pois, mostra-se que
(P P
1
)X =
i
r
i
(
i
)
2
=
i
r
i
(
i
)
2
.
Assim, nos delineamento inteiramente casualizados, onde sao considerados
apenas tratamentos, a hipotese natuaral a ser formulada e:
H
0
:
1
=
2
= =
k
=
Assim, sob H
0
,
SQTrat.
2
=
y
(P P
1
)y
2
2
[r(X)1]
.
Observe que no modelo de Gauss Markov, sob qualquer hipotese,
SQRes.
2
segue distribui cao de qui-quadrado central com n r(X) graus de liberdade e
sob H
0
,
SQTrat.
2
tem distribuicao de qui-quadrado central com r(X) 1 graus
de liberdade. Alem de serem independentes. Pois, pode-se vericar que (I
P)(P P
1
) = .
Por outro lado, os valores esperados das somas dos quadrados sao:
E[SQRes.] = E[y
(I P)X
= [n r(X)]
2
,
E[SQTrat.] = E[y
(P P
1
)y] = Tr[(P P
1
)]
2
+
(P P
1
)X
= [r(X) 1]
2
+
i
r
i
(
i
)
2
e os respectivos valores esperados dos quadrados medios sao:
E[QMRes.] =
E[SQRes.]
n r(X)
=
2
Luna, J. G. & Esteves, D. M. 113
e
E[QMTrat.] =
E[SQTrat.]
r(X) 1
=
2
+
i
r
i
(
i
)
2
r(X) 1
=
2
+f(), f() 0.
Note que o quadrado medio do resduo e um estimador nao viciado para
2
,
fato que ja era esperado sob as condicoes de Gauss-Markov.
Resta vericar se, ao nvel de signicancia especicado, a hipotese H
0
e
rejeitada ou nao, com base nas informacoes contidas nos dados da amostra.
Obviamente, se
1
=
2
= =
k
= , entao
f() = 0 e
E[QMTrat.]
E[QMRes.]
=
2
+f()
2
= 1.
Entao, no contexto de variaveis aleatorias, podemos obter uma regra para
vericar se
2
+f()
2
e signicativamente diferente de 1. Ou seja, se
i
e signi-
cativamente diferente de , usando os dados amostrais.
Entao, segue que,
[n r(X)]
QMRes.
2
=
y
(I P)y
2
2
[nr(X)]
e, sob H
0
,
SQTrat. = [r(X) 1]
QMTrat.
2
=
y
(P P
1
)y
2
2
[r(X)1]
.
Portanto,
F =
[r(X)1]QMTrat.
[r(X)1]
2
[nr(X)]QMRes.
[nr(X)]
2
=
QMTrat.
QMRes.
F
[r(X)1; nr(X)]
Dessa forma, se QMTrat. for muito maior que QMRes., o valor de F sera
muito maior que 1, tao maior que ultrapassara o valor crtico da distribuicaio
F
[t; r, ]
(valores que ja se encontram tabelado a um dado nvel de sig-
nicancia), localizando-se na regiao de rejeicao de H
0
. Esse fato ocorre conforme
ilustra as Figuras 4.3 e ??.
Para o exemplo que estamos considerando, encontramos os seguintes resul-
tados para analise de variancia:
Observe que
F =
QMTrat.
QMRes.
=
22, 2000
0, 8571
= 25, 90.
Os valores crticos da distribui cao F com 2 e 7 graus de liberdade e nveis de
signicancia = 0, 05 e = 0, 01 sao respectivamente F
[2, 7, 0,05]
= 4, 74 e
F
[2, 7, 0,01]
= 9, 55.
Como F = 25, 90 > F
[2, 7, 0,01]
= 9, 55, rejeitamos H
0
e concluimos que os
efeitos medios dos tratamentos nao sao iguis.
114 Luna, J. G. & Esteves, E. M.
Figura 4.2: Graco da Distribuicao F: Regiao de Aceitacao e Regiao de
Rejeicao de H
0
; Valores crticos de F quando = 0, 05 e = 0, 01
Tabela 4.2: Analise de variancia
F. Variacao GL SQ QM F
Media r(X
1
) = 1 409,60
Tratamento r(X) 1 = 2 44,40 22,2000 25, 90
=
Este assunto e bastante amplo e nesta seq uencia estudaremos o caso mais
simples. Os interessados que desejarem aprofundar-se poderao encontrar su-
porte teorico em Rao (1945-1965), Scheff e (1959), Searle (1966), Searle
(1971-1984), dentre outros.
Partiremos do princpio de que somente hipoteses baseadas em funcoes pa-
rametricas estimaveis sao testaveis. Neste sentido, estaremos interessados em
testar apenas hipoteses do tipo H
0
: B
= , onde B
e estimavel e B
tem
posto linha completo.
Sabemos do Modelo Linear de Gauss-Markov, que y N
n
(X , I
2
) e
entao,
N(
(X
X)
2
)
Luna, J. G. & Esteves, D. M. 115
e que
N
r(B)
(B
, B
(X
X)
B
2
)
Sabemos que B
(X
X)
(X
X)
B]
1
= A
A =B
(X
X)
B = A
1
A
1
.
e seja a forma quadratica Q
Q, onde
Q =
A(
.
Entao,
E[Q] =
1
E[A
AB
] =
V [Q] =
1
2
AV [
]A
=
1
2
AA
1
A
1
A
2
= I.
Segue que,
Q
Q
2
r(B)
.
Isto e,
Q
Q =
(
[B
(X
X)
B]
1
(
2
2
[r(B)]
.
Sabemos que
SQRes. = y
(I P)y e
1
2
y
(I P)y
2
[nr(X)]
.
Alem disso,
Q
Q e y
(I P)y
sao independentes, pois,
(I P)[B
(X
X)
B]
1
= .
Portanto,
F =
Q
Q/r(B)
QMRes.
F
[r(B) ; nr(X)]
.
Denicao 4.6.2: - Soma de Quadrados de Hipotese - A forma quadratica do
tipo (
[B
(X
X)
B]
1
(
= , entao
SQH
o
= (
[B
(X
X)
B]
1
(
)
116 Luna, J. G. & Esteves, E. M.
Exerccio 4.6.3: Retomando o exemplo que estamos considerando, queremos
testar a hipotese H
o
:
1
=
2
=
3
= 0.
Entao,
H
o
: B
=
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
3
_
_
_
_
=
_
_
+
1
+
2
+
3
_
_
=
_
_
3
_
_
=
_
_
0
0
0
_
_
Nesse caso,
= B
o
=
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
0
4
7
9
_
_
_
_
=
_
_
4
7
9
_
_
e
B
(X
X)
B =
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
0 0 0 0
0
1
4
0 0
0 0
1
3
0
0 0 0
1
3
_
_
_
_
_
_
_
_
1 1 1
1 0 0
0 1 0
0 0 1
_
_
_
_
=
_
_
1
4
0 0
0
1
3
0
0 0
1
3
_
_
.
Dessa forma, temos
SQH
0
=
_
4 7 9
_
_
_
4 0 0
0 3 0
0 0 3
_
_
_
_
4
7
9
_
_
= 4(4)
2
+ 3(7)
2
+ 3(9)
2
= 454,
que corresponde `a soma de quadrados de parametros ja calculada anteriormente.
i
r
i
(
+
i
)
2
=
i
r
i
y
2
i
.
Para testar a hip otese H
o
:
i
= , podemos tomar B
constituda de
funcoes estimaveis de tratamentos (lembre-se de que
i
nao e estimavel).
Se tomarmos, por exemplo, B
(X
X)
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
3
_
_
_
_
=
_
2
+
3
2
1
+
2
+
3
_
=
_
0
0
_
.
Alem disso,
= B
o
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
=
_
2
8
_
e
B
(X
X)
B =
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
_
_
_
_
0 0
0 2
1 1
1 1
_
_
_
_
=
_
_
2/3 0
0 3/5
_
_
Portanto,
SQH
0
=
_
2 8
_
_
_
3/2 0
0 3/5
_
_
_
2
8
_
=
3
2
(2)
2
+
3
5
(8)
2
= 6, 00 + 38, 4 = 44, 4 = SQTrat.
Note que, de modo geral, se os contrastes envolvidos forem ortogonais entre
si, vamos ter:
B
(X
X)
B = Diag{a
ii
}, onde a
ii
=
2
i
r
i
,
i
.
No exemplo,
118 Luna, J. G. & Esteves, E. M.
a
11
=
(1)
2
3
+
(1)
2
3
=
2
3
,
a
22
=
(2)
2
4
+
(1)
2
3
+
(1)
2
3
=
5
3
.
Podemos, entao, reorganizar as somas de quadrados na seguinte tabela:
Tabela 4.3: Decomposicao da SQTrat. em somas de quadrados de contrastes
ortogonais de interesse.
F. Variacao GL SQ QM F
H
(1)
o
:
2
=
3
1 6,00 6,0000 7, 00
H
(2)
o
:
1
=
2+3
2
1 38,40 38,4000 44, 80
Tratamento (H
(3)
0
:
1
=
2
=
3
= ) 2 44,40 22,2000 25, 90
Resduo 7 6,00 s
2
= 0, 8571 -
Total 9 50,40 - -
() Efeito signicativo ao nvel de 5% de probabilidade.
() Efeito signicativo ao nvel de 1% de probabilidade.
Da tabela da distribui cao F, tem-se:
F
[1 ; 7 ; 0,05]
= 5, 59; F
[1 ; 7 ; 0,01]
= 12, 20 e F
[2 ; 7 ; 0,01]
= 9, 55.
Conclusao: A hipotese H
(1)
o
foi rejeitada ao nvel de 5% de signicancia pelo
teste F enquanto que as hipoteses H
(2)
o
e H
(3)
o
foram rejeitadas ao nvel
de 1%.
Luna, J. G. & Esteves, D. M. 119
4.7 Estimacao por Intervalo
Sabemos que se a funcao parametrica
N(
(X
X)
2
).
Uma estimador para V [
] e obtido de
V [
] =
(X
X)
s
2
,
onde s
2
= QMRes.
Alem disso, o teorema a seguir garante a indepedencia entre
e QMRes.
Teorema 4.6.3: Se
e y
y. Alem disso,
(I P) =
(I XX
+
) =
XX
+
=
(XX
+
)
X
+
= .
Portanto,
e y
(X
X)
2
.
Entao,
E[Z] =
1
_
(X
X)
2
E[
] = 0
e
V [Z] =
_
1
_
(X
X)
2
_
2
V [
] = 1.
Portanto,
Z =
(X
X)
2
N(0, 1).
e, pode ser demonstrato que
T =
(X
X)
s
2
t
[nr(X)]
.
120 Luna, J. G. & Esteves, E. M.
Dessa forma,
Pr
_
t
(X
X)
s
2
t
2
_
= 1 ,
e intervalos com 100(1 )% de conanca para
)
[100(1)%]
:
_
2
_
(X
X)
s
2
_
Exerccio 4.6.4: Encontre intervalos com 99% de conanca para as fun coes
parametricas
1
=
2
+
3
e
2
= 2
1
+
2
+
3
.
Com base nos dados do exemplo considerado, temos que
=
1
o
=
_
0 0 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 2
e
=
2
0
=
_
0 2 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 8, 00,
e usando a tabela da distribuicao t-Student com 7 graus de liberdade e
= 0, 01 encontramos t
2
= 3, 50.
Por outro lado,
(X
X)
1
=
2
3
,
2
(X
X)
2
=
5
3
e s
2
= QMRes. = 0, 8571.
Portanto,
IC(
2
+
3
)
[99%]
:
_
2, 00 3, 50
_
2
3
(0, 8571)
_
= [2, 00 2, 65]
e
IC(2
1
+
2
+
3
)
[99%]
:
_
8, 00 3, 50
_
5
3
(0, 8571)
_
= [8, 00 4, 18]
Observe que o IC(
2
)
[99%]
nao contem o ponto zero, enquanto que o
IC(
1
)
[99%]
contem o ponto zero concordando com os resultados obtidos para
os testes das hipoteses desses contrastes na Tabela 4.3.
Luna, J. G. & Esteves, D. M. 121
4.8 Hipoteses Equivalentes
Para o melhor aproveitamento das vantagens que a SQH
o
oferece, e conve-
niente introduzirmos o conceito de Hipoteses Equivalentes. Note que na SQH
o
,
temos B
, onde B
= e H
(2)
o
: A
= , duas hipoteses
lineares testaveis. Dizemos que elas sao equivalentes se, e somente se,
existir uma matriz nao singular R, tal que RA
= B
.
Teorema 4.6.5: Se H
(1)
o
e H
(2)
o
sao hipoteses equivalentes, entao suas regioes
crticas sao coincidentes.
Prova: Sejam as regioes:
(i) (B
[B
(X
X)
B]
1
(B
)
e
(ii) (A
[A
(X
X)
A]
1
(A
).
Sendo B
= RA
=B = AR
[B
(X
X)
B]
1
(B
) = (RA
[RA
(X
X)
AR
]
1
(RA
)
=
AR
R
1
[A
(X
X)
A]
1
R
1
RA
= (A
[A
(X
X)
A]
1
(A
).
Pois, sendo A de posto coluna completo, entao A
= B
A = B
A = R = B
A(A
A)
1
,
que e uma regra para obten cao de R.
De fato,
RA
= B
A(A
A)
1
A
= B
AA
+
= B
I = B
.
Exerccio 4.6.5: Consideremos as seguintes hipoteses:
H
(1)
0
: A
= , H
(2)
0
: B
= , H
(3)
0
: C
= , H
(4)
0
: D
= ,
onde:
122 Luna, J. G. & Esteves, E. M.
A
=
_
0 1 0 1
0 1 1 0
_
_
_
_
_
3
_
_
_
_
=
_
1
2
_
;
B
=
_
0 1 1 0
0 0 1 1
_
_
_
_
_
3
_
_
_
_
=
_
1
3
_
;
C
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
3
_
_
_
_
=
_
2
3
2
1
3
_
;
D
=
_
1 0 1 0
0 1 0 1
_
_
_
_
_
3
_
_
_
_
=
_
+
1
3
_
.
Inicialmente veriquemos se H
(1)
0
e H
(4)
0
sao hipoteses equivalentes.
Se H
(1)
0
e H
(4)
0
forem equivalentes entao R
1
nao singular, tal que R
1
D
=
A
, onde
R
1
= A
D(D
D)
1
=
_
_
0 1
1
2
1
2
_
_
.
Mas,
R
1
D
=
_
_
0 1 0 1
1
2
1
2
1
2
1
2
_
_
= A
.
Dessa forma, H
(1)
0
e H
(4)
0
nao sao hipoteses equivalentes.
Por outro lado, H
(1)
0
e H
(3)
0
, sao equivalentes. Pois, R
2
nao singular, tal
que R
2
C
= A
, onde
R
2
= A
C(C
C)
1
=
_
_
1
2
1
2
1
2
1
2
_
_
.
Agora temos,
R
2
C
=
_
_
0 1 0 1
0 1 1 0
_
_
= A
.
De modo analogo, podemos vericar que H
(1)
0
, H
(2)
0
e H
(3)
0
sao hipoteses equi-
valentes entre si e nenhuma delas e equivalente a H
(4)
0
. De fato:
Luna, J. G. & Esteves, D. M. 123
(a) Em H
(1)
0
: A
= ,
_
1
3
= 0
2
= 0
=
_
1
=
3
1
=
2
=
1
=
2
=
3
.
(b) Em H
(2)
0
: B
= ,
_
1
2
= 0
3
= 0
=
_
1
=
2
2
=
3
=
1
=
2
=
3
.
(c) Em H
(3)
0
: C
= ,
_
2
3
= 0
2
1
3
= 0
_
2
=
3
2
1
2
2
= 0
_
2
=
3
1
=
2
1
=
2
=
3
Ate agora so podemos testar hipotese sobre a igualdade entre efeitos de
tratamentos (ausencia de efeito diferencial). Como
i
nao e individualmente
estimavel no modelo em questao, nao podemos testar hipotese do tipo H
0
:
i
= 0, i. Para que seja possvel testar esse tipo de hipotese, adotaremos uma
restricao parametrica nao estimavel, do tipo
i
i
= 0. Nesse caso, e facil ver
que acrescentando-se a equa cao
1
+
2
+
3
= 0 a qualquer um dos tres pares de
equacoes acima, a hipotese comum ca: H
0
:
i
= 0, i, mas isso sera assunto
para as proximas secoes.
4.9 Estimacao Por Regiao
Consideraremos aqui o problema relativo `a construcao de regioes de con-
anca para um conjunto de p fun coes estimaveis linearmente independentes.
Para tanto, sejam
p
B
2
(
[B
(X
X)
B]
1
(
)
2
[r(B)]
,
se B
2
2
[nr(X)]
.
Desse modo, dada a independencia entre Q e R, teremos
(
[B
(X
X)
B]
1
(
)
p
2
F
[p; nr(X); ]
,
onde, p = r(B). Nesse contexto, podemos obter estimativas por regiao, com
coeciente de conan ca 1 para B
[B
(X
X)
B]
1
(
) p
2
F
[p; nr(X); ]
.
124 Luna, J. G. & Esteves, E. M.
Exerccio 4.6.6: Tomando o exemplo considerado e admitindo que estamos
interessados em construir uma regiao de conan ca - RC, para o conjunto
das funcoes estimaveis: B
, onde
B
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
3
_
_
_
_
=
_
2
+
3
2
1
+
2
+
3
_
=
_
1
2
_
.
Admitindo = 0, 01, vamos ter:
(i) p
2
F
[2 ; 7 ; 0.01]
= (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,
(ii) [B
(X
X)
B]
1
=
_
3/2 0
0 3/5
_
e
(iii)
B
= B
o
=
_
2
8
_
.
Com estes resultados, a regiao de conanca RC pode ser obtida por:
1
16, 3706
_
2
1
8
2
_
_
3/2 0
0 3/5
__
2
1
8
2
_
1,
ou
1, 5
16, 3706
(2
1
)
2
+
0, 6
16, 3706
(8
2
)
2
1
ou ainda,
(
1
2)
2
10, 9137
+
(
2
8)
2
27, 2843
1.
Fazendo a translacao, vem
x =
_
x
1
x
2
_
=
_
1
2
2
8
_
.
Temos que Q(x) = x
,
delimitada pela elipse de centro C(2 ; 8) e semi-eixos a = 3, 30 e b = 5, 22
Observacoes:
Note que a elpse nao contem a origem dos eixos, isto e nao contem o ponto
(0 , 0), concordando com a rejeicao de H
0
:
1
=
2
=
3
(ver ANOVA);
De modo analogo, o intervalo de conanca obtido para
3, 82 2
1
+
2
+
3
12, 18,
nao contem o ponto zero, enquanto que o intervalo de conan ca obtido
para
0, 65
2
+
3
4, 65
contem a origem. Estes resultados sao concordantes com os testes das
hipoteses correspondentes; Ureia vs
Oleos Vegetais e Entre
Oleos Vegetais,
apresentados na tabela da ANOVA;
Na tabela da ANOVA a hipotese de igualdade entre efeitos dos oleos vege-
tais nao foi rejeitada ao nvel de signicancia = 0, 01, fato concordante
com o graco aqui apresentado;
A regiao de conan ca assim construda tem um coeciente de conanca
conjunto de (1 ).
Uma outra ideia e construir um retangulo de conanca usando os intervalos
de conan ca individualmente. No entanto, tal retangulo nao preserva o coe-
ciente de conanca conjunto (1 ), mas sim:
126 Luna, J. G. & Esteves, E. M.
1. c = (1 )
p
( Seber(1977), Kirk(1968), dentre outros),
2. c
= 0, 90 em lugar de
0,95. E, assim por diante. Obviamente, o erro cresce conforme p cresce.
5. No exemplo em questao, para ns didaticos, escolhemos funcoes (con-
trastes) ortogonais. Este fato, leva a B
(X
X)
(X
X)
x, onde
y =
_
y
1
y
2
_
, P =
_
cos sen
sen cos
_
e x =
_
x
1
x
2
_
.
Assim, teremos:
_
y
1
y
2
_
=
_
cos sen
sen cos
_ _
x
1
x
2
_
ou
_
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
.
Exerccio 4.6.7: Admitamos agora, que estamos interessados em construir a
regiao de conanca - RC, para o conjunto das funcoes estimaveis: B
,
onde
B
=
_
0 1 0 1
0 0 1 1
_
_
3
_
_
=
_
1
+
3
2
+
3
_
=
_
1
2
_
.
Admitindo = 0, 01, vamos ter:
Luna, J. G. & Esteves, D. M. 127
(i) p
2
F
[2 ; 7 ; 0,01]
= (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,
(ii) [B
(X
X)
B]
1
=
_
2, 4 1, 2
1, 2 2, 1
_
e
(iii)
B
= B
o
=
_
5
2
_
.
Substituindo estes resultados, a regiao de conan ca RC ca:
_
5
1
2
2
_
2, 4 1, 2
1, 2 2, 1
_ _
5
1
2
2
_
16, 3706. (4.3)
Fazendo a substituicao (translacao), x =
_
x
1
x
2
_
=
_
1
5
2
2
_
na inequa cao
(4.3), obtem-se:
_
x
1
x
2
_
2, 4 1, 2
1, 2 2, 1
_ _
x
1
x
2
_
16, 3706 (4.4)
ou
2, 4x
2
1
2 1, 2x
1
x
2
+ 2, 1x
2
2
16, 3706.
Fazendo a transformacao ortogonal (rotacao de eixos), do tipo y = P
x,
onde P e uma matriz ortogonal obtida a partir dos autovetores normalizados
de A = [B
(X
X)
B]
1
. Assim sendo, a matriz P e tal que P
AP = =
diag{
1
,
2
}.
Para o nosso exemplo, encontramos:
P =
_
0, 7497 0, 6618
0, 6618 0, 7497
_
e =
_
3, 4594 0
0 1, 0407
_
.
Como dissemos anteriormente, a matriz P pode tambem ser obtida a partir de:
P =
_
cos sen
sen cos
_
, onde, tg2 =
2k
p q
.
Para o nosso caso,
tg2 =
2 1, 2
2, 4 2, 1
= 8 =2 = 82, 875 = = 41, 4375.
Dessa forma, vamos ter:
_
y
1
y
2
_
3, 4594 0
0 1, 0407
_ _
y
1
y
2
_
16, 3706 (4.5)
ou
3, 4594y
2
1
+ 1, 0407y
2
2
16, 3706. (4.6)
128 Luna, J. G. & Esteves, E. M.
Dividindo ambos os membros por 16,3706 e colocando a inequa cao (4.6) na
forma tpica da elipse, encontramos:
y
2
1
(2, 1755)
2
+
y
2
2
(3, 9663)
2
1.
Assim, a Figura 4.4 mostra a regiao delimitada por essa elipse.
Figura 4.4: Regiao com coeciente de conan ca conjunta de 99% para B
, de-
limitada pela elipse de centro C(5 ; 2) e semi-eixos a = 2, 1755 e b = 3, 9663
As estimativas por intervalo, com coecientes de conanca de 99%, para as
fun coes parametricas
1
=
1
+
3
e
2
=
2
+
3
, foram obtidos do
seguinte modo:
=
1
o
=
_
0 1 0 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 5
e
=
2
0
=
_
0 0 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 2,
Luna, J. G. & Esteves, D. M. 129
e usando a tabela da distribui cao t-Student com 7 graus de liberdade e = 0, 01
encontramos t
2
= 3, 500.
Por outro lado,
(X
X)
1
=
7
12
,
2
(X
X)
2
=
2
3
e s
2
= QMRes. = 0, 8571.
Portanto,
IC(
1
+
3
)
[99%]
:
_
5, 00 3, 50
_
7
12
(0, 8571)
_
= [2, 53 ; 7, 47]
e
IC(
2
+
3
)
[99%]
:
_
2, 00 3, 50
_
2
3
(0, 8571)
_
= [0, 65 ; 4, 65] .
Para testar as hipoteses marginais:
H
(1)
o
:
1
=
1
+
3
= 0 vs H
(1)
1
=
1
+
3
= 0
e
H
(2)
o
:
2
=
2
+
3
= 0 vs H
(2)
2
=
2
+
3
= 0,
procedemos do seguinte modo:
Calculamos:
t
1
=
|
1
0|
_
1
(X
X)
1
s
2
=
|5 0|
_
7
12
0, 8571
= 7, 071
e
t
2
=
|
2
0|
_
2
(X
X)
2
s
2
=
|2 0|
_
2
3
0, 8571
= 1, 528.
A tabela t Student nos fornece para 7 graus de liberdade ao nvel de
signicancia ( = 0, 01) o valor crtico t
[7 , 0,01]
= 3, 500. Isso indica que a
hipotese H
(1)
o
foi rejeitada ao nvel de signicancia = 0, 01 enquanto que a
hipotese H
(2)
o
nao foi rejeitada.
Observe que o IC(
2
)
[99%]
contem o ponto zero, enquanto que o IC(
1
)
[99%]
nao contem o ponto zero, concordando com os resultados obtidos para os testes
das hipoteses pelo teste t Student.
E bom lembrar que o teste t Student
aplicado `as duas hipotese marginais nao preserva o nvel de signicancia con-
junto.
130 Luna, J. G. & Esteves, E. M.
Lista de Exerccios # 5
Os valores observados de uma variavel resposta num experimento inteiramente
casualizado foram os seguintes:
Tratamento Repeti coes Total Media Variancia
T
i
R
1
R
2
R
3
y
i.
y
i
s
2
i
T
1
4 3 2 9 3,00 1,00
T
2
3 4 5 12 4,00 1,00
T
3
6 7 8 21 7,00 1,00
Geral - - - 42 4,67 -
5.1 Fa ca a analise de variancia usual.
5.2 Admitindo o modelo y = X + , G.M. Normal, caracterizado por: y
ij
=
+
i
+ e
ij
, (i, j = 1, 2, 3). Escreva o conjunto de equacoes relativas a
cada observa cao.
5.3 Escreva o sistema de equacoes do item anterior na forma matricial.
5.4 Escreva o sistema de equacoes normais.
5.5 Determine:
(a)
o
1
= (X
X)
1
Xy, (b)
o
2
= (X
X)
2
Xy,
(c)
o
3
= X
+
y, (d)
o
4
= X
y.
5.6 Apresente quatro fun coes estimaveis neste modelo.
5.7 Verique a estimabilidade das seguintes funcoes parametricas associadas a
este modelo:
(a)
1
=
1
2
, (b)
2
= +
1
,
(c)
3
= , (d)
4
=
3
,
(e)
5
=
1
+
2
+
3
, (f)
6
= 2
1
3
.
5.8 Sendo
=
1
2
uma fun cao estimavel, use a denicao de Rao(1945)
para determinar duas combinacoes lineares das observacoes, a
y, tal que,
E(a
y) =
1
.
5.9 No item anterior foram determinados dois estimadores imparciaias para
1
. Seus valores numericos sao duas estimativas imparciais de
1
.
(a) Determine agora o blue de
1
e sua variancia;
(b) Compare V (
1
) com V (a
1
y) e V (a
2
y) do item anterior e observe
que V (
1
) min{V (a
1
y) , V (a
2
y)}.
Luna, J. G. & Esteves, D. M. 131
Na verdade, a igualdade so ocorrera se o valor numerico da combinacao
linear escolhida coincidir com o blue.
5.10 Determine o blue de cada funcao parametrica estimavel do item 5.7 e suas
respectivas variancias estimadas.
5.11 Para cada fun cao parametrica do item 5.7, determine
o
, (j = 1, 2, , 7)
e verique a invariancia de
o
para as funcoes estimaveis e a total in-
consistencia de
o
para as fun coes nao estimaveis.
5.12 Para cada funcao parametrica do item 5.7, calcule
j
(X
X)
j
, (j =
1, 2, , 7).
5.13 Atraves da regra pratica de estimabilidade (lados esquerdo e direito das
E.N.) determine
+
1
.
5.14 Calcule:
(a) SQTotal = y
y,
(b) SQPar. = y
Py =
o
X
y,
o
, solucao das E.N.
(c) SQRes. = y
(I P)y = y
y
o
X
y,
o
, solucao das E.N.
(d) SQRes. =
i
(r
i
1)s
2
i
, (e) SQTrat. = y
(P P
1
)y,
(f ) C = y
P
1
y, (g) SQTrat =
o
X
y C,
Obs.: X =
_
X
1
.
.
. X
2
_
e P
1
= X
1
(X
1
X
1
)
1
.
5.15 Verique que:
(a) P e (I P) sao simetricas e idempotentes,
(b) SQPar e SQRes sao independentes.
5.16 De as distribui coes das formas quadraticas relativas a:
(a)
SQPar
2
, (b)
SQTrat
2
(c)
SQRes
2
.
5.17 Encontre:
(a) E[QMTrat], (b) E[QMRes].
5.18 Com relacao ao item anterior, qual a hipotese natural a ser testada?
5.19 Preencha a tabela a seguir:
132 Luna, J. G. & Esteves, E. M.
F. Varia cao GL SQ QM F
Media r[P
1
] = y
P
1
y =
Tratamentos r[P P
1
] = y
(P P
1
)y =
y
(PP1)y
r[PP1]
=
Parametros r[P] = y
Py =
y
Py
r[P]
=
Resduo r[I P] = y
(I P)y =
y
(IP)y
r[IP]
=
Total r[I] = y
Iy =
5.20 Encontre estimativas por ponto (blue) e por intervalo ( = 0, 05) para as
fun coes parametricas:
(a)
1
=
1
2
, (b)
2
=
2
3
,
(c)
3
= +
1
, (d)
4
= +
2
.
5.21 Determine as regioes de conanca ( = 0.05), para:
(a) B
1
, onde B
1
=
_
_
2
_
_
,
(b) B
2
, onde B
2
=
_
_
4
_
_
.
5.22 Construa as elipses do item 5.21.
5.23 Usando SQH
o
, teste as hipoteses:
(a) H
(1)
o
:
1
=
2
e (b) H
(2)
o
:
2
=
3
.
Comente esses resultados comparando com os intervalos obtidos no item
5.20 (a e b).
5.24 Usando SQH
o
, fa ca a particao da SQTrat, na soma de quadrados dos
contrastes ortogonais:
1
=
3
1
e
2
=
1
2
2
+
3
. Sugestao: Use
B
=
_
_
2
_
_
.
5.25 Construa o elipsoide de conan ca ( = 0.01) para as funcoes parametricas
do item 5.24.
Luna, J. G. & Esteves, D. M. 133
5.26 Preencha a tabela a seguir:
F. Variacao GL SQ QM F
Media r[P
1
] = y
P
1
y =
H
(1)
o
:
1
=
3
r[
1
] =
H
(2)
o
:
1+3
2
=
2
r[
2
] =
Tratamentos r[P P
1
] = y
(P P
1
)y =
y
(PP1)y
r[PP1]
=
Parametros r[P] = y
Py =
y
Py
r[P]
=
Resduo r[I P] = y
(I P)y =
y
(IP)y
r[IP]
=
Total r[I] = y
Iy =
5.27 Verique se as hipoteses H
(1)
o
e H
(2)
o
, a seguir, sao equivalentes:
H
(1)
o
: B
1
= e H
(2)
o
: B
2
= , onde,
B
1
=
_
0 1 0 1
0 1 2 1
_
,
B
2
=
_
0 1 1 0
0 0 1 1
_
e
=
_
3
_
_
5.28 Construa algebricamente e gracamente a regiao de conanca ( = 0.05)
para a cole cao de fun coes estimaveis:
+
1
, +
2
, +
3
.
134 Luna, J. G. & Esteves, E. M.
4.10 Testes de Hipoteses
(i) Baseadas em Intervalos ou Regioes de Conanca
(ii) Testes Diretos
(iii) Teste da Razao de Verossimilhanca
4.10.1 Introducao
Seja
p
B
1
um conjunto de funcoes parametricas estimaveis linearmente
independentes. Isto e r(B) = p, e seja o modelo linear normal de Gauss-Markov,
no qual queremos testar as seguintes hipoteses:
H
o
: B
= vs H
: B
= .
Observacoes:
(i) Comentarios importantes sobre espa cos vetoriais e hipoteses do tipo B
=
, podem ser vistos em Graybill de Matrizes (pag. 91 e 92);
(ii) Comentarios sobre casos particulares da hipotese linear geral citada, podem
ser encontrados em Searle (Linear Model, pag. 110).
4.10.2 Testes de Hipoteses Baseados em Intervalos e Regioes
de Conanca
Ja sabemos que a regiao de conan ca para um conjunto de fun coes estimaveis
linearmente independentes, ao nvel de conanca (1 ), e dado por:
(
[B
(X
X)
1
B]
1
(
B) p
2
F
[r(B) , nr(X) , (1)]
e que, sob H
o
: B
= ,
(
[B
(X
X)
1
B]
1
(
)
r(B)
2
F
[r(B) , nr(X) , ]
Assim, a regiao de aceitacao de H
o
: B
= , ao nvel de signicancia , e
dada por:
(
[B
(X
X)
1
B]
1
(
) r(B)
2
F
[r(B) , nr(X) , ]
e a regiao de rejeicao de H
o
: B
= , ao nvel de signicancia , e:
(
[B
(X
X)
1
B]
1
(
) > r(B)
2
F
[r(B) , n=r(X) , ]
.
Luna, J. G. & Esteves, D. M. 135
Isto e, rejeita-se H
o
: B
i
IC(
i
)
[1]
ou se, e somente se,
2
_
i
(X
X)
i
s
2
Exerccio 4.10.2.1 Elaborar posteriormente.
4.10.3 Teste Direto
Antes de abordar esse tipo de teste deveremos estudar:
(i) Restricao Prametrica;
(ii) Hipoteses Equivalentes.
Por falta desse embasamento teorico deixaremos para outra oportunidade o
estudo desse tipo de teste.
4.10.4 O Teste da Razao de Verossimilhanca
Consideremos um conjunto de funcoes estimaveis B
, linearmente indepen-
dentes, e o problema de testar no Modelo Linear de Gauss-Markov:
_
H
o
: B
=
H
: B
=
Se designarmos por o espaco dos parametros e por
o
o espaco dos
parametros restritos `a B
(y X)
(y X)
2
2
_
(ii) Sob
o
f(e,
2
,
o
) =
1
(2)
n/2
(
2
)
n/2
Exp
_
(y X
o
)
(y X
o
)
2
2
_