Você está na página 1de 140

UEPB - CCT - DME

COORDENAC

AO DE ESTAT

ISTICA
Modelos Lineares
(Notas de Curso)
Texto elaborado pelos professores Dr. Jo ao Gil de
Luna e Dra. Divanilda Maia Esteves, utilizado
na disciplina: Modelos Lineares do curso de Bachare-
lado em Estatstica da UEPB, para o perodo 2008.1.
CAMPINA GRANDE
Estado da Paraba - Brasil
2008
2 Luna, J. G. & Esteves, E. M.
SUM

ARIO
1 Topicos de matrizes 1
1.1 Conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Tipos de matrizes . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Operacoes basicas com matrizes . . . . . . . . . . . . . . . . . . . 4
1.2.1 Adicao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Subtracao . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Multiplicacao por escalar . . . . . . . . . . . . . . . . . . 5
1.2.4 Multiplicacao entre matrizes . . . . . . . . . . . . . . . . 5
1.2.5 Soma direta . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.6 Produto direto ou produto de Kronecker . . . . . . . . . . 6
1.2.7 Potencia de matrizes . . . . . . . . . . . . . . . . . . . . . 7
1.2.8 Parti cao de matrizes . . . . . . . . . . . . . . . . . . . . . 8
1.2.9 Formas escalonadas . . . . . . . . . . . . . . . . . . . . . 9
1.2.10 Formas escalonadas canonicas . . . . . . . . . . . . . . . . 9
1.2.11 Forma de Hermite (H) . . . . . . . . . . . . . . . . . . . 10
1.2.12 Posto ou rank de uma matriz . . . . . . . . . . . . . . . . 10
1.2.13 Inversa de matrizes nao singulares . . . . . . . . . . . . . 11
1.2.14 Diagonalizacao de matrizes reais . . . . . . . . . . . . . . 12
1.2.15 Autovalores e autovetores . . . . . . . . . . . . . . . . . . 15
1.2.16 Vetores ortogonais . . . . . . . . . . . . . . . . . . . . . . 16
1.3 Fatora cao de matrizes . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Decomposicao de matrizes . . . . . . . . . . . . . . . . . . . . . . 24
1.4.1 A decomposi cao espectral . . . . . . . . . . . . . . . . . . 24
1.4.2 A decomposi cao em valores singulares . . . . . . . . . . . 26
1.5 Lista de exerccio # 1 . . . . . . . . . . . . . . . . . . . . . . . . 28
1.6 Inversas generalizadas de matrizes reais . . . . . . . . . . . . . . 33
1.6.1 A Inversa generalizada de Moore-Penrose, A
+
. . . . . . 33
3
4 Luna, J. G. & Esteves, E. M.
1.6.2 Inversa generalizada condicional . . . . . . . . . . . . . . 38
1.6.3 Inversa generalizada de mnimos quadrados . . . . . . . . 39
1.7 Lista de exerccios # 2 . . . . . . . . . . . . . . . . . . . . . . . . 42
2 Solucoes de Equacoes Lineares 45
2.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Consistencia e Solucao . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3 Solucao Aproximada . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.4 A Melhor Solu cao Aproximada . . . . . . . . . . . . . . . . . . . 55
2.5 Solucao Aproximada de Mnimos
Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3 Formas Quadraticas 61
3.1 Conceito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2 Casos de Interesse Para Estatstica . . . . . . . . . . . . . . . . . 62
3.3 Classicacao de Formas Quadraticas . . . . . . . . . . . . . . . . 62
3.4 Derivadas de Formas Quadraticas . . . . . . . . . . . . . . . . . . 66
3.5 Valor Esperado e Matriz de Dispersao . . . . . . . . . . . . . . . 68
3.6 Distribuicao e Independencia Sob Normalidade . . . . . . . . . . 71
4 Introducao aos Modelos Lineares 81
4.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Localizacao do Problema Fundamental . . . . . . . . . . . . . . . 81
4.3 O Modelo Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3.1 Dencao e Exemplos . . . . . . . . . . . . . . . . . . . . . 82
4.3.2 O Modelo Linear de Gauss-Markov (G.M.) . . . . . . . . 85
4.3.3 Um Exemplo Hipotetico . . . . . . . . . . . . . . . . . . . 87
4.3.4 O Sistema de Equacoes Normais (S.E.N.) . . . . . . . . . 88
4.4 Estimacao em Modelos Lineares . . . . . . . . . . . . . . . . . . . 91
4.5 Regras Praticas de Estimabilidade . . . . . . . . . . . . . . . . . 100
4.5.1 Func oes Basicas Estimaveis . . . . . . . . . . . . . . . . . 100
4.5.2 Combina coes Lineares de Funcoes Estimaveis . . . . . . . 101
4.5.3 Usando as Equacoes Normais . . . . . . . . . . . . . . . . 103
4.5.4 Um Teste Alternativo . . . . . . . . . . . . . . . . . . . . 104
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros . . . . . . . . . . . . . . . 104
4.6 A Analise de Variancia . . . . . . . . . . . . . . . . . . . . . . . . 107
4.6.1 Soma de Quadrados da Hipotese H
o
: B

= . . . . . . 114
4.7 Estimacao por Intervalo . . . . . . . . . . . . . . . . . . . . . . . 119
Luna, J. G. & Esteves, D. M. 5
4.8 Hipoteses Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . 121
4.9 Estimacao Por Regiao . . . . . . . . . . . . . . . . . . . . . . . . 123
4.10 Testes de Hipoteses . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.2 Testes de Hipoteses Baseados em Intervalos e Regioes de
Conan ca . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.10.3 Teste Direto . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.10.4 O Teste da Razao de Verossimilhan ca . . . . . . . . . . . 135
Captulo 1
Topicos de matrizes
1.1 Conceitos
Matriz: e, em geral, um arranjo retangular de elementos em linhas e colunas.
Neste curso, uma matriz sera denotada por letras mai usculas em negrito e
sera constituda de elementos pertencentes ao conjunto dos n umeros reais.
Exemplos:
A =
_
2 3 1
0 2 3
_
; B =
_
1 2
3 5
_
; C =
_
_
1 1
1 1
1 0
_
_
.
Dimensao: O par ordenado de n umeros naturais que descreve o n umero de
linhas e o n umero de colunas de uma matriz dene a sua dimensao. Para
os exemplos anteriores, temos:
2
A
3
ou A
(23)
a matriz A tem duas linhas e tres colunas;
2
B
2
, B
(22)
ou B
(2)
a matriz B tem duas linhas e duas colunas;
3
C
2
, ou C
(32)
a matriz C tem tres linhas e duas colunas.
Forma Geral: De modo geral, uma matriz A com m linhas e n colunas e
denotada como:
m
A
n
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
ou simplesmente
A = (a
ij
),
onde i = 1, 2, , m e o ndice de linhas e j = 1, 2, , n e o ndice de
colunas.
1
2 Luna, J. G. & Esteves, E. M.
1.1.1 Tipos de matrizes
Matriz quadrada: Se
m
A
n
tem m = n, entao
m
A
n
e uma matriz quadrada
e e denotada por:
m
A
n
= A
(n)
.
Matriz triangular:

E a matriz quadrada A
(n)
que tem nulos todos os elemen-
tos abaixo ou acima da diagonal. Isto e,
B
(n)
=
_
_
_
_
_
b
11
b
12
b
1n
0 b
22
b
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 b
nn
_
_
_
_
_
C
(n)
=
_
_
_
_
_
c
11
0 0
c
21
c
22
0
.
.
.
.
.
.
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
Aqui, B
(n)
e triangular superior e C
(n)
e triangular inferior.
Matriz diagonal: A matriz D
(n)
= (d
ij
) e uma matriz diagonal se, e somente
se, d
ij
= 0, para todo i = j.
Isto e,
D
(n)
=
_
_
_
_
_
d
11
0 0
0 d
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 d
nn
_
_
_
_
_
= diag{d
11
, d
22
, , d
nn
}
Matriz identidade:

E toda matriz diagonal tal que d
ii
= 1. Ou seja,
I
(n)
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
= diag{1, 1, , 1}.
Denotaremos sempre a matriz identidade por I.
Matriz simetrica: Se uma matriz quadrada A
(n)
= (a
ij
) tem a
ij
= a
ji
, para
todo par (i, j), entao A
(n)
e uma matriz simetrica.
Exemplo:
A =
_
_
5 2 3
2 9 1
3 1 4
_
_
.
Matriz transposta: Dada uma matriz
m
A
n
= (a
ij
), sua transposta, denotada
por A

ou A
t
, e dada por:
A

= A
t
= (a
ji
).
Luna, J. G. & Esteves, D. M. 3
Exemplo:
Se
2
A
3
=
_
2 3 1
5 1 2
_
, entao
3
A

2
=
_
_
2 5
3 1
1 2
_
_
Matriz nula: Se
m
A
n
= (a
ij
) tem a
ij
= 0, (i, j), entao Ae uma matriz nula.
Denotaremos a matriz nula por .
Matrizes iguais: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), entao, A =
B se, e somente se, a
ij
= b
ij
, (i, j).
Matriz com todos elementos iguais a um:

E caracterizada por:
m
E
n
= (e
ij
), e
ij
= 1, (i, j).
Neste curso, tal matriz sera denotada por E.
Matriz bloco diagonal: Tem aspecto de acordo com o seguinte exemplo,
A =
_
_
_
_
_
_
_
_
_
_
a b 0 0 0 0 0
c d 0 0 0 0 0
0 0 e f g 0 0
0 0 a b g 0 0
0 0 w x z 0 0
0 0 0 0 0 c d
0 0 0 0 0 x z
_
_
_
_
_
_
_
_
_
_
.
Vetor: Se uma matriz
m
A
n
e tal que m = 1 ou n = 1, entao
m
A
1
e um vetor coluna
e
1
A
n
e um vetor linha.
Aqui, sempre que mensionarmos o termo vetor estaremos nos referindo a
vetor na forma de coluna e sera denotado por letras min usculas em negrito.
Em estatstica e comum utilizarmos
y =
m
y
1
=
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
; y

=
1
y

m
=
_
y
1
y
2
y
m
_
.
Obs.: O vetor nulo sera denotado por .
4 Luna, J. G. & Esteves, E. M.
1.2 Operacoes basicas com matrizes
1.2.1 Adicao
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), dene-se a soma
entre elas como a matriz
m
C
n
=
m
A
n
+
m
B
n
= (c
ij
), tal que c
ij
= a
ij
+b
ij
,
(i, j).
Exemplo:
A =
_
2 1 0
1 a 3
_
; B =
_
r 1 1
0 2 3
_
.
Entao,
C = A+B =
_
r + 2 0 1
1 a 2 6
_
.
Algumas propriedades
Sejam
m
A
n
= (a
ij
),
m
B
n
= (b
ij
) e
m
C
n
= (c
ij
) matrizes reais. Em rela cao a
adi cao temos as seguintes propriedades:
Comutativa:
m
A
n
+
m
B
n
=
m
B
n
+
m
A
n
;
Associativa:
m
A
n
+
m
B
n
+
m
C
n
= (
m
B
n
+
m
A
n
) +
m
C
n
=
m
A
n
+ (
m
B
n
+
m
C
n
);
Elemento neutro: Se
m

n
e uma matriz nula e
m
A
n
e qualquer, entao,
A+ = +A = A;
1.2.2 Subtracao
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
m
B
n
= (b
ij
), denimos:
(i)
m
C
n
=
m
A
n

m
B
n
= (c
ij
), onde c
ij
= a
ij
b
ij
, (i, j).
(ii)
m
D
n
=
m
B
n

m
A
n
= (d
ij
), onde d
ij
= b
ij
a
ij
, (i, j).
Note que, em relacao a subtracao, a propriedade comutativa nao e valida.
Luna, J. G. & Esteves, D. M. 5
Exemplo:
A =
_
_
2 a
1 0
3 1
_
_
; B =
_
_
10 40
20 50
30 60
_
_
.
Entao,
C = AB =
_
_
8 a 40
19 50
33 59
_
_
e D = B A =
_
_
8 40 a
19 50
33 59
_
_
1.2.3 Multiplicacao por escalar
Denicao: Dado um escalar e uma matriz
m
A
n
, dene-se o produto escalar
A = A, como a matriz
m
B
n
= (b
ij
), onde b
ij
= a
ij
= a
ij
, (i, j).
Exemplo:
= 3 e A =
_
1 2
3 a
_
,
entao,
B = 3.
_
1 2
3 a
_
=
_
1 2
3 a
_
.3 =
_
3 6
9 3a
_
.
1.2.4 Multiplicacao entre matrizes
Denicao: Dadas as matrizes
m
A
n
= (a
ij
) e
n
B
p
= (b
jk
), dene-se o produto
AB como a matriz
m
R
p
= (r
ik
), onde r
ik
=

n
j=1
a
ij
b
jk
.
Exemplo:
3
A
2
=
_
_
a
11
a
12
a
21
a
22
a
31
a
32
_
_
e
2
B
4
=
_
b
11
b
12
b
13
b
14
b
21
b
22
b
23
b
24
_
,
entao,
3
A
2 2
B
4
=
3
R
4
=
_
_
r
11
r
12
r
13
r
14
r
21
r
22
r
23
r
24
r
31
r
32
r
33
r
34
_
_
,
onde,
r
11
= a
11
b
11
+a
12
b
21
r
12
= a
11
b
12
+a
12
b
22
r
13
= a
11
b
13
+a
12
b
23
e assim por diante.
6 Luna, J. G. & Esteves, E. M.
Regra pratica: Tomando a primeira matriz em forma de vetores linha e a
segunda em forma de vetores coluna, teremos:
3
A
2 2
B
4
=
3
R
4
=
_
_
L
1
C
1
L
1
C
2
L
1
C
3
L
1
C
4
L
2
C
1
L
2
C
2
L
2
C
3
L
2
C
4
L
3
C
1
L
3
C
2
L
3
C
3
L
3
C
4
_
_
=
_
_
r
11
r
12
r
13
r
14
r
21
r
22
r
23
r
24
r
31
r
32
r
33
r
34
_
_
,
onde r
ik
= L
i
C
k
e a soma dos produtos dos elementos da linha i da
primeira matriz, pelos elementos correspondentes da coluna k da segunda.
Exemplo:
A =
_
2 1 0
1 2 3
_
; B =
_
_
1 1
1 2
1 3
_
_
=AB =
_
1 0
0 4
_
.
1.2.5 Soma direta
Denicao: Dadas as matrizes
m
A
n
e
r
B
s
, denimos sua soma direta como
AB =
_
A
B
_
=
m+r
C
n+s
Exemplo:
A =
_
1 2 3
_
e B =
_
6 7
4 1
_
, segue que
AB =
_
_
1 2 3 0 0
0 0 0 6 7
0 0 0 4 1
_
_
1.2.6 Produto direto ou produto de Kronecker
Denicao: Dadas as matrizes
m
A
n
e
r
B
s
, dene-se o produto direto de A por
B como a matriz
mr
C
ns
, tal que
C = AB =
_
_
_
_
_
a
11
B a
12
B a
1n
B
a
21
B a
22
B a
2n
B
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
B a
m2
B a
mn
B
_
_
_
_
_
Luna, J. G. & Esteves, D. M. 7
Exemplo: Sejam as matrizes
A =
_
1 0
0 1
_
, B =
_
x y
y x
_
e v =
_
_
1
2
3
_
_
.
Entao,
AB =
_
_
_
_
x y 0 0
y x 0 0
0 0 x y
0 0 y x
_
_
_
_
e B A =
_
_
_
_
x 0 y 0
0 x 0 y
y 0 x 0
0 y 0 x
_
_
_
_
,
Av =
_
_
_
_
_
_
_
_
1 0
2 0
3 0
0 1
0 2
0 3
_
_
_
_
_
_
_
_
e v A =
_
_
_
_
_
_
_
_
1 0
0 1
2 0
0 2
3 0
0 3
_
_
_
_
_
_
_
_
1.2.7 Potencia de matrizes
Denicao: Dada a matriz quadrada A
(n)
e um n umero inteiro e positivo k,
dene-se a k-esima potencia de A por:
A
k
= AAA A
. .
k vezes
Searle(1982), em analogia com os reais, dene A
0
(n)
= I
(n)
.
Exemplo:
A =
_
1 2
3 4
_
, A
2
= AA =
_
7 10
15 22
_
,
A
3
= A
2
A =
_
37 54
81 118
_
e assim por diante.
Denicao: Dada a matriz quadrada A
(n)
, entao, em rela cao a sua potencia,
ela sera:
1. Idempotente, se A
2
= A;
2. Nilpotente, se A
2
= ;
3. Unipotente, se A
2
= I.
8 Luna, J. G. & Esteves, E. M.
Exemplos:
A =
1
3
_
_
2 1 1
1 2 1
1 1 2
_
_
e idempotente,
B =
_
_
1 3 7
2 6 14
1 3 7
_
_
e nilpotente,
C =
_
_
_
_
1 0 2 3
0 1 4 5
0 0 1 0
0 0 0 1
_
_
_
_
e unipotente.
1.2.8 Particao de matrizes
Dada a matriz
m
A
n
, podemos particiona-la conforme nossas conveniencias.
Por exemplo:
X =
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
,
podemos particiona-la do seguinte modo
X =
_
X
1
X
2
X
3
_
=
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
e
X

X =
_
_
X

1
X

2
X

3
_
_
_
X
1
X
2
X
3
_
=
_
_
X

1
X
1
X

1
X
2
X

1
X
3
X

2
X
1
X

2
X
2
X

2
X
3
X

3
X
1
X

3
X
2
X

3
X
3
_
_
.
Isto e,
X

X =
_
_
_
_
_
_
_
_
6 3 3 2 2 2
3 3 0 1 1 1
3 0 3 1 1 1
2 1 1 2 0 0
2 1 1 0 2 0
2 1 1 0 0 2
_
_
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 9
1.2.9 Formas escalonadas
Uma matriz esta na forma escalonada se ela tiver as seguintes caractersticas:
( i) O 1
o

elemento da 1
a

coluna e sempre zero ou um. Se ele for um, este sera


um lder;
( ii) Toda coluna que tem lder tem todos os outros elementos nulos;
(iii) O um lder da linha i esta sempre `a esquerda (numa coluna anterior) aos
1s lderes das proximas linhas.
Exemplos:
A =
_
_
1 0 0
0 1 0
0 0 1
_
_
, B =
_
1 0 0 x
0 1 1 x
_
, C =
_
_
1 0 x
0 1 x
0 0 0
_
_
.
1.2.10 Formas escalonadas canonicas
A matriz
m
A
n
esta na forma escalonada canonica se estiver na forma esca-
lonada com todas as linhas nulas abaixo das linhas nao nulas.
Exemplo 1:
A
(3)
=
_
_
1 0 1
0 1 1
0 0 0
_
_
.
Exemplo 2: Dada a matriz A =
_
_
4 2 2
2 2 0
2 0 2
_
_
, podemos obter a sua forma
escalonada canonica do seguinte modo:
_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
4 2 2
4 4 0
4 0 4
_
_

_
_
4 2 2
0 2 2
0 2 2
_
_

_
_
4 2 2
0 2 2
0 0 0
_
_

_
_
4 0 4
0 2 2
0 0 0
_
_

_
_
1 0 1
0 1 1
0 0 0
_
_
= H.
Portanto, H e uma forma escalonada canonica de A.
10 Luna, J. G. & Esteves, E. M.
1.2.11 Forma de Hermite (H)
Denicao: Uma matriz A
(n)
esta na forma de Hermite, se estiver na forma
escalonada canonica e os lderes ocupam a diagonal principal.
Exemplo:
A
(3)
=
_
_
1 0 1
0 1 1
0 0 0
_
_
.
1.2.12 Posto ou rank de uma matriz
Denicao: Dada uma matriz
m
A
n
, denimos o posto de A , denotamos por
r(A), o n umero de linhas nao nulas de sua forma escalonada canonica.
Exemplo: Dada a matriz
A =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Usando o algoritmo de Gauss obtem-se a segunte forma:
_
A I
_

_
H L
_
.
Assim, teremos
_
A I
_
=
=
_
_
_
_
_
_
4 2 2 1 0 0
2 2 0 0 1 0
2 0 2 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
1 0 1
1
2

1
2
0
0 1 1
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_
=
_
H L
_
.
Segue que:
1. H e a forma de Hermite de A e r(A) = 2;
2. LA = H. Isto e,
LA =
_
_
_
_
_
_
1
2

1
2
0

1
2
1 0
1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
=
_
_
1 0 1
0 1 1
0 0 0
_
_
= H;
Luna, J. G. & Esteves, D. M. 11
3. ALA = A, ou seja
ALA =
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
1
2

1
2
0

1
2
1 0
1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A.
Segue, ainda, que
4. Se A
(n)
tem r(A) = n, entao H = I
(n)
, A
(n)
e nao singular e A
(n)
tem
posto completo;
5. Se
m
A
n
, tem r(A) = m, ent ao
m
A
n
tem posto linha completo, como por
exemplo:
B =
_
1 1 0
1 1 2
_

_
1 0 1
0 1 1
_
=r(B) = 2;
6. Se
m
A
n
, tem r(A) = n, ent ao
m
A
n
tem posto coluna completo, como por
exemplo:
X =
_
_
_
_
1 2
1 4
1 3
1 5
_
_
_
_

_
_
_
_
1 0
0 1
0 0
0 0
_
_
_
_
=r(X) = 2;
7. Se
m
A
n
, tem r(A) < min{m, n}, entao
m
A
n
e de posto incompleto.
Exemplo:
X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_

_
_
_
_
1 0 1
0 1 1
0 0 0
0 0 0
_
_
_
_
=r(X) = 2.
1.2.13 Inversa de matrizes nao singulares
Dada a matriz quadrada A
(n)
de posto n, entao existe A
1
, tal que A
1
A =
AA
1
= I
(n)
. Sendo assim, A
(n)
e dita nao singular e A
1
(n)
e sua inversa unica.
Para obter A
1
utilzaremos o algoritmo de Gauss, conforme procedimento
a seguir:
_
A I
_

_
I A
1
_
12 Luna, J. G. & Esteves, E. M.
Exemplo: Seja a matriz
A
(3)
=
_
_
1 2 1
2 1 0
1 1 1
_
_
, entao,
_
A I
_
=
_
_
_
_
_
_
1 2 1 1 0 0
2 1 0 0 1 0
1 1 1 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0
1
2
1
2
1
2
0 1 0 1 0 1
0 0 1
1
2

1
2
3
2
_
_
_
_
_
_
=
=
_
I
(3)
A
1
(3)
_
.
Isto e,
A
1
=
_
_
_
_
_
_

1
2
1
2
1
2
1 0 1

1
2

1
2
3
2
_
_
_
_
_
_
.
1.2.14 Diagonalizacao de matrizes reais
Opera coes de congruencia sobre uma matriz quadrada A
(n)
, sao opera coes
elementares efetuadas sequencialmente sobre linhas e colunas.
Teorema 1: Dada a matriz A
(n)
, real e simetrica, entao existe uma matriz C
nao singular tal que
CAC

= D
onde,
1. D = diag{d
1
, d
2
, , d
n
}, se r(A) = n;
2. D = diag{d
1
, d
2
, , d
k
, 0, , 0}, se r(A) = k < n.
Regra: Partindo de
_
A I
_
e fazendo operacoes elementares seq uenciais
sobre linhas e colunas de
_
A I
_
, chegamos a
_
D C
_
.
Exemplo:
A =
_
_
1 2 1
2 3 1
1 1 1
_
_
.
Luna, J. G. & Esteves, D. M. 13
Entao,
A I =
1 2 1 1 0 0
2 3 1 0 1 0
1 1 1 0 0 1

1 2 1 1 0 0
0 1 1 2 1 0
1 1 1 0 0 1

1 0 1 1 0 0
0 1 1 2 1 0
1 1 1 0 0 1

1 0 1 1 0 0
0 1 1 2 1 0
0 1 0 1 0 1

1 0 0 1 0 0
0 1 1 2 1 0
0 1 0 1 0 1

1 0 0 1 0 0
0 1 1 2 1 0
0 0 1 1 1 1

1 0 0 1 0 0
0 1 0 2 1 0
0 0 1 1 1 1
= D C .
Consequentemente,
D = CAC

=
_
_
1 0 0
2 1 0
1 1 1
_
_
_
_
1 2 1
2 3 1
1 1 1
_
_
_
_
1 2 1
0 1 1
0 0 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
Denicao: Dada a matriz A
(n)
real e simetrica e sua forma diagonal obtida
pelo Teorema 1, entao:
1. A
(n)
e uma matriz Positiva Denida se, e somente se, d
i
> 0, i
(d
i
, i = 1, 2, , n, elementos de D);
2. A
(n)
e Negativa Denida se, e somente se, d
i
< 0, i;
3. A
(n)
e Semi Positiva Denida se, e somente se, d
i
0, i;
4. A
(n)
e Semi Negativa Denida se, e somente se, d
i
0, i;
5. A
(n)
e Nao Denida se, e somente se, d
i
muda de sinal.
Observacao: Em estatstica temos particular interesse nas matrizes Denidas
Positivas e Semi Denidas Positivas.
Exemplo: Dada a matriz
=
_
_
2 1 1
1 2 1
1 1 2
_
_
14 Luna, J. G. & Esteves, E. M.
entao,
_
I
_
=
_
_
_
_
_
_
2 1 1 1 0 0
1 2 1 0 1 0
1 1 2 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
2 0 0 1 0 0
0
3
2
0
1
2
1 0
0 0
4
3

1
3

1
3
1
_
_
_
_
_
_
=
_
D C
_
e Denida Positiva.
Teorema 2: Dada a matriz A
(n)
real, simetrica e denida positiva, entao existe
uma matriz R
(n)
, tal que A = RR

. Neste caso, R = C
1
D
1/2
. Isto e,
D = CAC

C
1
DC
1
= C
1
CAC

C
1
C
1
D
1/2
. .
R
D
1/2
C
1
. .
R

= A
Exemplo: Seja a matriz
=
_
_
2 1 1
1 2 1
1 1 2
_
_
, entao
D =
_
_
_
_
_
_
2 0 0
0
3
2
0
0 0
4
3
_
_
_
_
_
_
, C =
_
_
_
_
_
_
1 0 0

1
2
1 0

1
3

1
3
1
_
_
_
_
_
_
,
C
1
=
_
_
_
_
_
_
1 0 0
1
2
1 0
1
2
1
3
1
_
_
_
_
_
_
e D
1/2
=
_
_
_
_
_
_
_
_

2 0 0
0
_
3
2
0
0 0
_
4
3
_
_
_
_
_
_
_
_
.
Portanto,
R = C
1
D
1/2
=
_
_
_
_
_
_
_
_

2 0 0

2
2
_
3
2
0

2
2

3
2
3
2

3
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_

2 0 0

2
2

6
2
0

2
2

6
6
2

3
3
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 15
1.2.15 Autovalores e autovetores
Denicao 1: (Autovalor) Dada uma matriz quadrada real A
(n)
, entao a equacao
(A
(n)
I
(n)
) = |A
(n)
I
(n)
| = 0 e denida como a equacao carac-
terstica de A. Suas raizes sao chamadas de raizes caractersticas, auto-
valores ou valores proprios de A.
Exemplo: Seja a matriz
A =
_
2 1
1 2
_
, entao
(AI
(2)
) =

__
2 1
1 2
_

_
1 0
0 1
__

_
2 1
1 2
_

= (2 )
2
1 =
2
4 + 3 = =
4

16 12
2
=
_

1
= 3

2
= 1
sao os autovalores de A.
Para encontrar as raizes de um polinomio de mais alto grau poderemos usar
o metodo de Briot Runi. Seja, por exemplo:
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e

AI
(3)

3 1 1
1 3 1
1 1 3

.
Isto e,

AI
(3)

=
3
9
2
+ 24 20 = 0.
As possveis raizes do polinomio sao os divisores de 20: 1; 2; 4; 5; 10;
20. E assim, teremos:
Coef. do polinomio
Raizes 1 -9 24 -20
2 1 -7 10 0
2 1 -5 0
5 1 0
Portanto,

1
= 5,
2
= 2 e
3
= 2.
Denicao 2: (Autovetor) Os vetores x, tais que: (A I
(n)
)x = , sao os
autovetores de A.
Considerando o exemplo anterior, temos:
Para = 3,
16 Luna, J. G. & Esteves, E. M.
_
2 1
1 2
__
x
11
x
12
_
=
_
1 1
1 1
__
x
11
x
12
_
=
_
0
0
_
=
_
x
11
+x
12
= 0
x
11
x
12
= 0
=x
11
= x
12
=x
1
=
_
1
1
_
, .
Para = 1,
_
2 1
1 2
__
x
21
x
22
_
=
_
1 1
1 1
__
x
21
x
22
_
=
_
0
0
_
=
_
x
21
+x
22
= 0
x
21
+x
22
= 0
=x
21
= x
22
=x
2
=
_
1
1
_
, .
Observacao: Note que vetores sao representados por letras min usculas em
negrito enquanto que suas componentes sao representadas por letras min usculas
normais. Por exemplo: x
ij
e uma componente do vetor x
i
.
Denicao 3: (Norma) A norma de um vetor x e denida como:
x =

x =

j
x
2
j
.
Considerando = = 1 e os vetores x
1
e x
2
do exemplo anterior, temos
x
1
= x
2
=

2.
Denicao 4: (Vetor Normalizado, u)

E denido como:
u =
1
x
x.
Para os vetores x
1
e x
2
do exemplo anterior, temos
u
1
=
1

2
_
1
1
_
e u
2
=
1

2
_
1
1
_
.
1.2.16 Vetores ortogonais
Denicao: Dois vetores x e y sao ortogonais se, e somente se,
x

y = y

x = 0.
Exemplo:
x =
_
_
1
1
2
_
_
e y =
_
_
1
1
0
_
_
=x

y = y

x = 0.
Logo, x e y sao vetores ortogonais.
Luna, J. G. & Esteves, D. M. 17
Teorema 3: Dada uma matriz A
(n)
real e simetrica, entao existe P
(n)
ortog-
onal, tal que,
P

AP = P
1
AP =
(n)
,
onde P

= P
1
, = diag{
1
,
2
, ,
n
} e P e obtida dos autovetores
normalizados de A.
Exemplo:
A =
_
2 1
1 2
_
; u
1
=
1

2
_
1
1
_
; u
2
=
1

2
_
1
1
_
e
P =
_
u
1
u
2
_
=
_
_
1

2
1

2
1

2

1

2
_
_
, logo,
= P

AP =
_
_
1

2
1

2
1

2

1

2
_
_
_
2 1
1 2
_
_
_
1

2
1

2
1

2

1

2
_
_
=
_
3 0
0 1
_
Teorema 4: Dada a matriz quadrada real A
(n)
com raizes caractersticas
i
(i =
1, 2, , n), entao:
1.
i
= 0, i A e nao singular;
2. Se r(A) = k < n, entao A tem k raizes caractersticas nao nulas e
n k raizes nulas;
3. Se A
(n)
e nao singular, entao as raizes de A
1
sao 1/
i
, (i =
1, 2, , n);
4. Existe sempre um vetor caracterstico x
i
associado a uma raiz car-
acterstica
i
;
5. Tr(A) =

n
i=1

i
;
6. (A) =

n
i=1

i
;
7. Se A = B C, entao
(A)
=
(B)

(C)
, onde,
(A)
,
(B)
e

(C)
sao matrizes diagonais que exibem as raizes caractersticas de
A, B e C, respectivamente;
8. Sejam x
i
e x
j
vetores caractersticos associados, respectivamente, `as
raizes caractersticas
i
e
j
. Entao, se
i
=
j
=x
i

x
j
= 0;
18 Luna, J. G. & Esteves, E. M.
9. Se B e nao singular, entao A, B
1
AB e BAB
1
tem as mesmas
raizes caractersticas.
Teorema 5: Seja a matriz quadrada real A
(n)
e seja
(n)
a matriz diagonal
que exibe as raizes caractersticas de A. Isto e,
(n)
= diag{
1
, ,
n
}.
Entao:
1.
i
> 0, i, = A e positiva denida;
2.
i
0, i, e |
i
= 0, = A e semi-positiva denida;
3.
i
< 0, i, = A e negativa denida;
4.
i
0, i e |
i
= 0, = A e semi-negativa denida;
5.
i
muda de sinal = A e nao denida.
1.3 Fatoracao de matrizes
Veremos como obter matrizes B e C, tais que A = BC.
Teorema 6: Dada A
(n)
real, simetrica e nao negativa, entao existe uma matriz
R, tal que A = RR

.
Do Teorema 1, temos que CAC

= D. Pre e pos multiplicando ambos


os lados por C
1
e C
1
, respectivamente, temos:
C
1
CAC

C
1
= C
1
DC
1
= C
1
D
1/2
. .
R
D
1/2
C
1
. .
R

= RR

= A.
(1.1)
De modo analogo, temos do Teorema 3, que
P

AP = .
Pre e pos multiplicando ambos os lados por P e P

, respectivamente, vem,
PP

APP

= PP

= P
1/2
. .
R

1/2
P

. .
R

= RR

= A. (1.2)
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
, encontre R, tal que A = RR

.
Luna, J. G. & Esteves, D. M. 19
Para obter a fatoracao sugerida pela equacao (4.2), vem
_
_
_
_
_
_
4 2 2 1 0 0
2 2 0 0 1 0
2 0 2 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
4 2 2 1 0 0
0 1 1
1
2
1 0
2 0 2 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
4 0 2 1 0 0
0 1 1
1
2
1 0
2 1 2 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
4 0 2 1 0 0
0 1 1
1
2
1 0
0 1 1
1
2
0 1
_
_
_
_
_
_

_
_
_
_
_
_
4 0 0 1 0 0
0 1 1
1
2
1 0
0 1 1
1
2
0 1
_
_
_
_
_
_

_
_
_
_
_
_
4 0 0 1 0 0
0 1 1
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_

_
_
_
_
_
_
4 0 0 1 0 0
0 1 0
1
2
1 0
0 0 0 1 1 1
_
_
_
_
_
_
=
_
D C
_
.
Por outro lado,
_
C I
_
=
_
_
_
_
_
_
1 0 0 1 0 0

1
2
1 0 0 1 0
1 1 1 0 0 1
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0 1 0 0
0 1 0
1
2
1 0
0 1 1 1 0 1
_
_
_
_
_
_

_
_
_
_
_
_
1 0 0 1 0 0
0 1 0
1
2
1 0
0 0 1
1
2
1 1
_
_
_
_
_
_
=
_
I
(3)
C
1
_
.
Agora,
R = C
1
D
1/2
=
_
_
_
_
_
_
1 0 0
1
2
1 0
1
2
1 1
_
_
_
_
_
_
_
_
2 0 0
0 1 0
0 0 0
_
_
=
_
_
2 0 0
1 1 0
1 1 0
_
_
.
20 Luna, J. G. & Esteves, E. M.
Observe que
RR

=
_
_
2 0 0
1 1 0
1 1 0
_
_
_
_
2 1 1
0 1 1
0 0 0
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Por outro lado, para obter a fatoracao sugerida pela equa cao (1.2), procedemos
conforme se segue:
Sendo A =
_
_
4 2 2
2 2 0
2 0 2
_
_
, entao
(AI) =

_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
0 0
0 0
0 0
_
_

4 2 2
2 2 0
2 0 2

= 0.
Portanto,
(4 )(2 )
2
4(2 ) 4(2 ) = 0,
ou
(
2
8 + 12) = 0.
Portanto,

3
= 0
e
=
8

64 48
2
=
_

1
=
8+4
2
= 6

2
=
84
2
= 2
Assim,

1
= 6,
2
= 2 e
3
= 0.
Agora, teremos,
Para = 6,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
6 0 0
0 6 0
0 0 6
_
_
_
_
_
_
x
11
x
12
x
13
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
2 2 2
2 4 0
2 0 4
_
_
_
_
x
11
x
12
x
13
_
_
=
_
_
0
0
0
_
_
=
_
_
_
2x
11
+ 2x
12
+ 2x
13
= 0
2x
11
4x
12
= 0
2x
11
4x
13
= 0
ou _
_
_
x
11
= 2x
12
x
11
= 2x
13
x
11
= x
12
+x
13
=x
1
=
_
_
2
1
1
_
_
.
Luna, J. G. & Esteves, D. M. 21
Para = 2,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
2 0 0
0 2 0
0 0 2
_
_
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
2 2 2
2 0 0
2 0 0
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
=
_
_
_
2x
21
+ 2x
22
+ 2x
23
= 0
2x
21
= 0
2x
21
= 0
ou _
_
_
x
21
= 2x
22
2x
23
x
21
= 0
x
21
= 0
=x
2
=
_
_
0
1
1
_
_
.
Para = 0,
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
0 0 0
0 0 0
0 0 0
_
_
_
_
_
_
x
21
x
22
x
23
_
_
=
_
_
0
0
0
_
_
.
Isto e,
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
31
x
32
x
33
_
_
=
_
_
0
0
0
_
_
=
_
_
_
4x
31
+ 2x
32
+ 2x
33
= 0
2x
31
+ 2x
32
= 0
2x
31
+ 2x
33
= 0
ou _
_
_
2x
31
= x
32
x
33
x
31
= x
32
x
31
= x
33
=x
3
=
_
_
1
1
1
_
_
.
Os autovetores normalizados de A, quando = = = 1, sao:
u
1
=
1
x
1

x
1
=
1

6
_
_
2
1
1
_
_
;
u
2
=
1
x
2

x
2
=
1

2
_
_
0
1
1
_
_
;
u
3
=
1
x
3

x
3
=
1

3
_
_
1
1
1
_
_
.
Assim sendo, teremos
P =
_
_
_
_
_
_
_
2

6
0
1

3
1

6

1

2

1

3
1

6
1

2

1

3
_
_
_
_
_
_
_
22 Luna, J. G. & Esteves, E. M.
e
P

AP = .
Isto e,
_
_
_
_
_
_
_
2

6
1

6
1

6
0
1

2
1

2
1

3

1

3

1

3
_
_
_
_
_
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
_
2

6
0
1

3
1

6

1

2

1

3
1

6
1

2

1

3
_
_
_
_
_
_
_
=
=
_
_
6 0 0
0 2 0
0 0 0
_
_
.
Agora, teremos R = P
1/2
. Ou seja,
R =
_
_
_
_
_
_
_
2

6
0
1

3
1

6

1

2

1

3
1

6
1

2

1

3
_
_
_
_
_
_
_
_
_

6 0 0
0

2 0
0 0 0
_
_
=
_
_
2 0 0
1 1 0
1 1 0
_
_
.
Observe que,
RR

=
_
_
2 0 0
1 1 0
1 1 0
_
_
_
_
2 1 1
0 1 1
0 0 0
_
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A
Teorema 7: Dada a matriz real
m
A
n
de posto k, entao existem matrizes
m
B
k
e
k
C
n
ambas de posto k, tais que,
m
A
n
=
m
B
kk
C
n
.
Em geral B e C nao sao unicas.
Algoritmo de Dwivedi (nao e unico). Este algoritmo converge em apenas
r(A) = k passos.
Dada a matriz
m
A
n
= (a
ij
), com r(A) = k, onde
i = 1, 2, , p, , m (e o ndice de linhas),
j = 1, 2, , q, , n (e o ndice de colunas).
(i) Escolher algum elemento a
pq
= 0;
Luna, J. G. & Esteves, D. M. 23
(ii) Obter o produto u
1
v

1
, onde
u
1
=
1
a
pq
_
_
_
_
_
_
_
_
_
_
a
1q
a
2q
.
.
.
a
pq
.
.
.
a
mq
_
_
_
_
_
_
_
_
_
_
e v

1
=
_
a
p1
a
p2
a
pq
a
pn
_
;
(iii) Fazer A
1
= Au
1
v

1
;
(iv) Se A
1
= , o processo esta encerrado e
B = u
1
e C = v

1
;
(v) Se A
1
= , repetir o processo para A
1
, e assim sucessivamente ate que
A
k
= . No nal do processo, teremos
m
A
n
= u
1
v

1
+u
2
v

2
+ +u
k
v

k
=
m
B
kk
C
n
,
onde
B =
_
u
1
u
2
u
k
_
e C =
_
_
_
_
_
v

1
v

2
.
.
.
v

k
_
_
_
_
_
.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
. Entao,
(i) a
11
= 4;
(ii) u
1
=
1
4
_
_
4
2
2
_
_
; v

1
=
_
4 2 2
_
, e
u
1
v

1
=
_
_
_
_
_
_
1
1
2
1
2
_
_
_
_
_
_
_
4 2 2
_
=
_
_
4 2 2
2 1 1
2 1 1
_
_
.
(iii) Obter A
1
= Au
1
v

1
. Ou seja,
A
1
=
_
_
4 2 2
2 2 0
2 0 2
_
_

_
_
4 2 2
2 1 1
2 1 1
_
_
=
_
_
0 0 0
0 1 1
0 1 1
_
_
= .
Como A
1
= , retomamos o processo. Isto e,
24 Luna, J. G. & Esteves, E. M.
(i) a
22
= 1;
(ii) u
2
=
1
1
_
_
0
1
1
_
_
; v

2
=
_
0 1 1
_
, e
A
2
= u
2
v

2
=
_
_
0
1
1
_
_
_
0 1 1
_
=
_
_
0 0 0
0 1 1
0 1 1
_
_
.
(iii) Como A
2
= A
1
u
2
v

2
= , o processo esta encerrado e teremos:
B =
_
_
_
_
_
_
1 0
1
2
1
1
2
1
_
_
_
_
_
_
e C =
_
4 2 2
0 1 1
_
.
Observe que
A = BC =
_
_
_
_
_
_
1 0
1
2
1
1
2
1
_
_
_
_
_
_
_
4 2 2
0 1 1
_
=
_
_
4 2 2
2 2 0
2 0 2
_
_
.
1.4 Decomposicao de matrizes
Nas duas subse coes a seguir, veremos dois casos muito importantes para a
estatstica.
1.4.1 A decomposicao espectral
Seja a matriz A
(n)
, real e simetrica, com autovalores {
i
} e autovetores
associados {u
i
}, tais que u

i
u
i
= 1, (i = 1, , n). Entao A
(n)
pode ser escrita
como
A
(n)
= UU

=
n

i=1

i
u
i
u

,
onde
= diag{
1
, ,
n
} e U = [u
1
u
n
].
A matriz U e ortogonal, visto que UU

= U

U = I. Tambem, se A
(n)
for
semipositiva denida, teremos,
A
m
= U
m
U

,
Luna, J. G. & Esteves, D. M. 25
com
m
= diag{
m
1
, ,
m
n
} para qualquer m inteiro. Se os autovalores {
i
}
sao todos nao negativos, entao potencias racionais de A
(n)
podem ser denidas
de modo analogo e em particular para potencias
1
2
e
1
2
.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Entao, conforme exemplo anterior,

1
= 6, ,
2
= 2 e
3
= 0,
u
1
=
_
_
_
_
_
_
_
2

6
1

6
1

6
_
_
_
_
_
_
_
, u
2
=
_
_
_
_
_
_
0

2
1

2
_
_
_
_
_
_
e u
3
=
_
_
_
_
_
_
_
1

3
_
_
_
_
_
_
_
.
e a decomposi cao espectral de A e
A =
3

i=1

i
u
i
u

i
=
1
u
1
u

1
+
2
u
2
u

2
+
3
u
3
u

3
= 6
_
_
_
_
_
_
_
2

6
1

6
1

6
_
_
_
_
_
_
_
_
2

6
1

6
1

6
_
+ 2
_
_
_
_
_
_
0

2
1

2
_
_
_
_
_
_
_
0
1

2
1

2
_
=
_
_
4 2 2
2 1 1
2 1 1
_
_
+
_
_
0 0 0
0 1 1
0 1 1
_
_
.
Por outro lado, temos
A
2
= U
2
U

=
_
_
_
2

6
0
1

3
1

6
1

2

1

3
1

6

1

2

1

3
_
_
_
_
_
6
2
0 0
0 2
2
0
0 0 0
_
_
_
_
_
2

6
1

6
1

6
0
1

2

1

2
1

3

1

3

1

3
_
_
_
=
_
_
24 12 12
12 8 4
12 4 8
_
_
= AA.
.
26 Luna, J. G. & Esteves, E. M.
Tambem,
A
1
2
= U
1
2
U

=
_
_
_
2

6
0
1

3
1

6
1

2

1

3
1

6

1

2

1

3
_
_
_
_
_
6
1
2
0 0
0 2
1
2
0
0 0 0
_
_
_
_
_
2

6
1

6
1

6
0
1

2

1

2
1

3

1

3

1

3
_
_
_
=
_
_
_
_
_
_
_
4

6
2

6
2

6
2

6
1

6
+
1

2
1

6

1

2
2

6
1

6

1

2
1

6
+
1

2
_
_
_
_
_
_
_
.
Observe que
A
1
2
A
1
2
=
_
_
4 2 2
2 2 0
2 0 2
_
_
= A.
1.4.2 A decomposicao em valores singulares
Se a matriz A tem dimensoes n p e posto k. Entao A pode ser escrita
como
A = UV

,
onde = diag{
1
, ,
k
}, com
1

2

k
0, U e uma matriz
ortogonal de ordem n k, e V e uma matriz ortogonal de ordem k k, isto
e, U

U = V

V = I. O conjunto de valores {
i
} sao chamados de valores
singulares de A. Se U e V sao escritos em termos de seus vetores coluna,
U = [u
1
u
2
u
k
] e V = [v
1
v
2
v
k
], entao {u
i
} sao os vetores singulares `a
esquerda de A e {v} sao os vetores singulares `a direita de A. A matriz A pode
entao ser escrita como
A =
k

i=1

i
u
i
v

i
.
Pode ser mostrado que {
2
i
} sao os autovalores nao nulos da matriz simetrica
AA

e tambem da matriz A

A. Os vetores {u
i
} sao os correspondentes autove-
tores normalizados de AA

, e os vetores {v
i
} sao os correspondentes autovetores
normalizados de A

A.
Exemplo: Seja a matriz
A =
_

_
5 2 9
0 1 2
2 1 4
4 3 2
_

_
.
Luna, J. G. & Esteves, D. M. 27
Entao a a decomposicao em valores singulares de A e
A =
_

_
0.901 0.098
0.169 0.195
0.394 0.000
0.056 0.980
_

_
_
11.619 0
0 5.477
_ _
0.436 0.218 0.873
0.802 0.535 0.267
_
ou equivalente
A = 11.619
_

_
0.393 0.196 0.787
0.074 0.037 0.148
0.172 0.086 0.344
0.024 0.012 0.049
_

_
+5.477
_

_
0.079 0.052 0.026
0.156 0.104 0.052
0.000 0.000 0.000
0.786 0.524 0.262
_

_
.
28 Luna, J. G. & Esteves, E. M.
1.5 Lista de exerccio # 1
1.1 Dadas as matrizes
A =
_
1 2
2 4
_
e B =
_
1 1
1/2 1
_
,
verique que em geral a multiplicacao de matrizes nao e comutativa.
1.2 Sendo
A =
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
,
verique que, com relacao a multiplicacao, A e A

comutam (Ae normal).


1.3 Sejam
A =
_
1 3
2 5
_
e B =
_
0 2
4 1
_
,
verique as seguintes propriedades:
(a) (A

= A; (c) (AB)

= B

;
(b) (A+B)

= A

+B

; (d) A

A e AA

sao simetricas.
1.4 Sejam
A =
_
_
1 2 3
0 1 0
0 0 5
_
_
; B =
_
_
3 1 1
1 3 1
1 1 3
_
_
e K = 2.
verique as propriedades de matrizes inversa:
(a) (A
1
)
1
= A; (c) (AB)
1
= B
1
A
1
, se A
1
e B
1
;
(b) (A
1
)

= (A

)
1
; (d) (AK)
1
= (KA)
1
=
1
K
A
1
.
1.5 O tra co de uma matriz quadrada A
(n)
e denido como sendo a soma dos
elementos da sua diagonal principal. Isto e, Tr(A) =

n
i=1
a
ii
. Usando
as matrizes A e B do exerccio 1.4, verique as seguintes propriedades:
(a) Tr(AB) = Tr(A) Tr(B); (b) Tr(A) = Tr(A

);
(c) Tr(A
1
BA) = Tr(B); (d) Tr(AB) = Tr(BA), se as
(e) Tr(AA

) =

i,j
a
2
ij
. dimensoes sao favoraveis.
1.6 Seja a identidade:
_
A u
v

a
_
1
=
_
B p
q


_
Luna, J. G. & Esteves, D. M. 29
Onde, u, v, p e q sao vetores, a e sao escalares e A e nao singular.
Considere
A =
_
1 2
0 3
_
; u =
_
1
0
_
; v =
_
1
0
_
; e a = 1.
Verique que:
(a) =
_
a v

A
1
u
_
1
; (b) B = A
1
+A
1
uv

A
1
;
(c) p = A
1
u; (d) q

= v

A
1
.
1.7 Dado o vetor y =
_
_
_
_
1
5
3
9
_
_
_
_
e a matriz E
(4)
=
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
.
(a) Verique que y

y =

4
i=1
y
2
i
(b) Obtenha yy

;
(c) Obtenha y

Ey.
1.8 Dadas as matrizes
A =
_
_
_
_
1 10
1 20
1 30
1 40
_
_
_
_
e B =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
(a) Obtenha A

A e B

B;
(b) Determine r(A), r(A

A), r(B) e r(B

B);
(c) Dentre estas quatro matrizes existe alguma nao singular?
(d) Dentre elas existe alguma de posto coluna completo?
1.9 Dado o sistema de equacoes lineares
_
2x
1
+x
2
= 3
2x
1
+ 3x
2
= 5
(a) Escreva o sistema na forma matricial Ax = g;
(b) Encontre a solu cao do sistema x = A
1
g;
(c) Pre multiplique ambos os membros de Ax = g por A

e obtenha
A

Ax = A

g;
(d) Obtenha a solu cao do novo sistema atrves de x = (A

A)
1
A

g;
(e) Compare os resultados de (b) com (d).
30 Luna, J. G. & Esteves, E. M.
1.10 Dado o sistema de equacoes lineares com incognitas e :
+x
1
= y
1
+x
2
= y
2
+x
3
= y
3
+x
4
= y
4
(a) Escreva-o na forma matricial X = y, onde =
_

_
;
(b) Verique que a matriz X tem posto coluna completo;
(c) Verique que para i = 1, 2, 3, 4 = n
(i) X

X =
_
_
n

i
x
i

i
x
i

i
x
2
i
_
_
; (ii) X

y =
_
_

i
y
i

i
x
i
y
i
_
_
.
(d) Usando (c) escreva o sistema X

= X

y, onde

=
_

_
.
(e) Sendo

= (X

X)
1
X

y, Mostre que:
= y

x e

=
S
xy
S
xx
,
onde,
S
xy
=
n

i=1
x
i
y
i

i=1
x
i
n

i=1
y
i
n
; S
xx
=
n

i=1
x
2
i

_
n

i=1
x
i
_
2
n
;
x =
1
n

i
x
i
e y =
1
n

i
y
i
.
(f ) Admita X =
_
X
1
.
.
. X
2
_
=
_
_
_
_
1 : 10
1 : 20
1 : 30
1 : 40
_
_
_
_
e y =
_
_
_
_
100
90
150
160
_
_
_
_
.
Determine:
1. e

, atraves do item (e);
2. M =

y;
3. M = y

Py, onde P = X(X

X)
1
X

;
4. T = y

y;
5. R = y

y;
6. R = y

(I P)y;
Luna, J. G. & Esteves, D. M. 31
7. r(P) e r[(I P)];
(g) Verique numericamente que:
1. P e (I P) sao idempotentes;
2. P(I P) = (I P)P = ;
(h) Usando o fato de que X

y =
_
_

i
y
i

i
x
i
y
i
_
_
e

=
_

_
, mostre
que:
M =

y = C +S,
onde,
C =
(

n
i=1
y
i
)
2
n
; e S =

S
xy
;
Calcule C e S.
(i) Usando os dados fornecidos para X e y no item (f) preencha o quadro
de analise de variancia a seguir
F. Variacao G.L. S.Q. Q.M. F
Correcao r(X
1
) C
Regressao r(X
2
) S a =
S
r(X2)
F =
a
b
Parametros r(X) M =

y
M
r(X)
Resduo n r(X) R = y

y b =
R
nr(X)
Total n T
1.11 Dado o sistema de equacoes lineares
+t
1
= y
11
+t
1
= y
12
+t
2
= y
21
+t
2
= y
22
t
1
+t
2
= 0
(a) Escreva-o na forma matricial X = y, onde

=
_
t
1
t
2
_
(b) Verique que a matriz X tem posto coluna completo;
(c) Verique que X

X =
_
_
n r
1
r
2
r
1
r
1
+ 1 1
r
2
1 r
2
+ 1
_
_
; onde, r
1
e o n umero de
repeti coes de t
1
e r
2
e o n umero de repeticoes de t
2
.
(d) Verique que X

y =
_
_
G
T
1
T
2
_
_
, onde G =

i,j
y
ij
, T
1
=

j
y
1j
e T
2
=

j
y
2j
.
32 Luna, J. G. & Esteves, E. M.
(e) Admitindo que y =
_
_
_
_
6
8
10
20
_
_
_
_
, obtenha o sistema X

= X

y e verique
que = y
..
;

t
1
= y
1.
y
..
;

t
2
= y
2.
y
..
e

t
1
+

t
2
= 0. Note que

=
_


t
1

t
2
_
.
(f ) Calcule:
1. M =

y;
2. M = y

Py, onde P = X(X

X)

;
3. T = y

y;
4. R = y

y;
5. R = y

(I P)y;
6. r(P) e r(I P).
(g) Prove algebricamente e verique numericamente que:
1. P e I P sao idempotentes;
2. P(I P) = (I P)P = .
(h) Usando o fato de que

=
_
_

t
1

t
2
_
_
=
_
_
y
..
y
1.
y
..
y
2.
y
..
_
_
e X

y =
_
_
G
T
1
T
2
_
_
,
mostre que M = y

Py =

y = C +S, onde
C =
G
2
n
e S =
2

i=1
T
2
i
r
i
C =
2

i=1
r
i
( y
i.
y
..
)
2
.
(i) Calcule C e S;
(j) Preencha o quadro a seguir:
F. Variacao G.L. S.Q. Q.M. F
Correcao g
1
= r(X
1
) = C=
Tratamento g
2
= r(X
2
) = S= a =
S
g2
=
a
b
=
Parametros g
3
= r(X) = M =
M
g3
Resduo g
4
= n r(X) = R = b =
R
g4
=
TOTAL g
5
= n = T =
Luna, J. G. & Esteves, D. M. 33
1.6 Inversas generalizadas de matrizes reais
Dada uma matriz
m
A
n
de posto k, no que se refere a sua inversa, temos as
seguintes situa coes:
1. Se m = n = k =
m
A
n
= A
(n)
= A
1
, tal que AA
1
= A
1
A = I
(A e nao singular);
2. Se m = n > k =
m
A
n
= A
(n)
= A
1
. Logo A e singular;
3. Se m = n, nao faz sentido se falar da inversa A
1
.
O conceito de inversa de matrizes e aplicavel apenas `as matrizes quadradas
nao singulares que nem sempre e suciente para resolver problemas praticos.
Introduziremos a seguir mais tres tipos de inversa de matrizes.
1.6.1 A Inversa generalizada de Moore-Penrose, A
+
Denicao: Dada uma matriz
m
A
n
, de posto r(A) = k, entao a matriz
n
A
+
m
de posto r(A
+
) = k que satisfaz as quatro condicoes:
(i) AA
+
A = A (ii) A
+
AA
+
= A
+
(iii) A
+
A = (A
+
A)

(simetrica) (iv) AA
+
= (AA
+
)

( simetrica)
e dita inversa generalizada de Moore-Penrose.
Teorema 8: Dada a matriz
m
A
n
de posto r(A) = k, entao existe uma, e
somente uma matriz
n
A
+
m
, que satisfaz as quatro condicoes de Moore-
Penrose.
n
A
+
m
e dada por:
A
+
= C

(CC

)
1
(B

B)
1
B

onde B e C sao matrizes de posto coluna e posto linha completos, respec-


tivamente e sao tais que A = BC.
1 - A existencia de A
+
Se
m
A
n
= =
n
A
+
m
= que satisfaz;
Se
m
A
n
= com r(A) = k = 0, entao pelo Teorema 7, existem
matrizes
m
B
k
e
k
C
n
ambas de posto k tais que A = BC.
Naturalmente B

B e CC

sao matrizes nao singulares. Observe que


r(
k
B

B
k
) = r(
k
CC

k
) = k, por construcao.
34 Luna, J. G. & Esteves, E. M.
(a) AA
+
A = BCC

(CC

)
1
. .
I
(B

B)
1
B

B
. .
I
C = BC = A;
(b) A
+
AA
+
= C

(CC

)
1
(B

B)
1
B

B
. .
I
CC

(CC

)
1
. .
I
(B

B)
1
B

= C

(CC

)
1
(B

B)
1
B

= A
+
;
(c) A
+
A = C

(CC

)
1
(B

B)
1
B

B
. .
I
C = C

(CC

)
1
C, que e uma forma
simetrica. Portanto, A
+
A = (A
+
A)

;
(d) AA
+
= BCC

(CC

)
1
. .
I
(B

B)
1
B

= B(B

B)
1
B

, que e, tambem uma


forma simetrica. Portanto, AA
+
= (AA
+
)

.
Portanto, A
+
existe.
2 - A unicidade de A
+
Admitamos a existencia de duas inversas generalizadas de Moore-Penrose,
A
+
1
e A
+
2
. Entao,
(a.1) AA
+
1
A = A (a.2) AA
+
2
A = A;
(b.1) A
+
1
AA
+
1
= A
+
1
(b.2) A
+
2
AA
+
2
= A
+
2
;
(c.1) A
+
1
A = (A
+
1
A)

(c.2) A
+
2
A = (A
+
2
A)

;
(d.1) AA
+
1
= (AA
+
1
)

(d.2) AA
+
2
= (AA
+
2
)

.
Assim,
(e) A
+
1
A
(a.1)
= A
+
1
AA
+
1
A
(c.1) e (c.2)
= A

A
+
1

A
+
2
(a.1)
= A

A
+
2
(c.2)
= A
+
2
A. Por-
tanto, A
+
1
A = A
+
2
A;
(f ) AA
+
1
(a.2)
= AA
+
2
AA
+
1
(c.1) e (c.2)
= A
+

2
A

A
+

1
A

= A
+

2
A

= (AA
+
2
)

=
AA
+
2
. Portanto, AA
+
1
= AA
+
2
;
(g) A
+
1
(b.1)
= A
+
1
AA
+
1
(e)
= A
+
2
AA
+
1
(f)
= A
+
2
AA
+
2
(b.2)
= A
+
2
. Logo A
+
1
= A
+
2
=
A
+
. Isto e, A
+
e unica.
Exemplo: Seja X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
. Encontre a inversa generalizada de Moore-
Penrose de X, X
+
. Para obtermos B e C tais que A = BC, usaremos o
algoritmo de Dwivedi. Isto e,
Luna, J. G. & Esteves, D. M. 35
(1) a
11
= 1, u
1
=
1
1
_
_
_
_
1
1
1
1
_
_
_
_
=
_
_
_
_
1
1
1
1
_
_
_
_
e v

1
=
_
1 1 0
_
;
(2) u
1
v

1
=
_
_
_
_
1
1
1
1
_
_
_
_
_
1 1 0
_
=
_
_
_
_
1 1 0
1 1 0
1 1 0
1 1 0
_
_
_
_
;
(3) A
1
= Au
1
v

1
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_

_
_
_
_
1 1 0
1 1 0
1 1 0
1 1 0
_
_
_
_
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
= .
Vamos repetir o processo,
(1) a
32
= 1, u
2
=
1
1
_
_
_
_
0
0
1
1
_
_
_
_
=
_
_
_
_
0
0
1
1
_
_
_
_
e v

2
=
_
0 1 1
_
;
(2) u
2
v

2
=
_
_
_
_
0
0
1
1
_
_
_
_
_
0 1 1
_
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
;
(3) A
2
= A
1
u
2
v

2
=
_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_

_
_
_
_
0 0 0
0 0 0
0 1 1
0 1 1
_
_
_
_
= . O processo
esta encerrado e temos
4
B
2
=
_
u
1
.
.
. u
2
_
=
_
_
_
_
1 0
1 0
1 1
1 1
_
_
_
_
e
2
C
3
=
_
_
v

1

v

2
_
_
=
_
1 1 0
0 1 1
_
.
Da,
B

B =
_
1 1 1 1
0 0 1 1
_
_
_
_
_
1 0
1 0
1 1
1 1
_
_
_
_
=
_
4 2
2 2
_
e
(B

B)
1
=
1
2
_
1 1
1 2
_
;
36 Luna, J. G. & Esteves, E. M.
Por outro lado,
CC

=
_
1 1 0
0 1 1
_
_
_
1 0
1 1
0 1
_
_
=
_
2 1
1 2
_
e
(CC

)
1
=
1
3
_
2 1
1 2
_
.
Agora, calculamos:
C

(CC

)
1
=
1
3
_
_
1 0
1 1
0 1
_
_
_
2 1
1 2
_
=
1
3
_
_
2 1
1 1
1 2
_
_
;
(B

B)
1
B

=
1
2
_
1 1
1 2
__
1 1 1 1
0 0 1 1
_
=
1
2
_
1 1 0 0
1 1 1 1
_
.
Finalmente
A
+
= C

(CC

)
1
(B

B)
1
B

=
1
3
_
_
2 1
1 1
1 2
_
_
1
2
_
1 1 0 0
1 1 1 1
_
=
1
6
_
_
1 1 1 1
2 2 1 1
1 1 2 2
_
_
.
A inversa generalizada de Moore-Penrose tem excelentes propriedades, as
quais facilitam algumas demonstracoes teoricas. Dentre elas destacamos:
1. Se A e uma matriz nao singular, entao A
+
= A
1
;
2. Se A e simetrica, entao A
+
tambem e simetrica;
3. Da denic ao temos que AA
+
e A
+
A sao simetricas e demonstra-
se que ambas sao idempotentes. Isto e, (AA
+
)(AA
+
) = AA
+
e
(A
+
A)(A
+
A) = A
+
A. Alem disso, tem-se que r(A
+
A) = r(AA
+
) =
r(A
+
) = r(A).
4. Se r(A) = m (n umero de linhas de A), diz-se que A e de posto linha
completo. A
+
= A

(AA

)
1
e AA
+
= I
(m)
.
Se r(A) = n (n umero de colunas de A) diz-se que A e de posto
coluna completo. A
+
= (A

A)
1
A

e A
+
A = I
(n)
Luna, J. G. & Esteves, D. M. 37
5. Dadas as matrizes I
(n)
e
m
A
n
, com r(A) = k, entao tem-se que
r(I AA
+
) = n k;
6. Se A
(n)
e real e simetrica com raizes caractersticas
1
,
2
, ,
n
e
vetores caractersticos normalizados u
1
, u
2
, , u
n
. Entao
P

AP = , onde P = (u
1
u
2
u
n
)
e, portanto
A = PP

=
1
u
1
u

1
+
2
u
2
u

2
+ +
n
u
n
u

n
,
e chamada de decomposicao espectral de A e
A
+
= P
1
P

.
Exemplo: Seja A =
_
_
4 2 2
2 2 0
2 0 2
_
_
de onde temos,

1
= 6 e
2
= 2;
x
1
=
_
_
_
_
_
_
2
1
1
_
_
_
_
_
_
=u
1
=
_
_
_
_
_
_
_
2

6
1

6
1

6
_
_
_
_
_
_
_
, x
2
=
_
_
_
_
_
_
0
1
1
_
_
_
_
_
_
=u
2
=
_
_
_
_
_
_
0
1

2
_
_
_
_
_
_
;
P =
_
u
1
u
2
_
=
_
_
_
_
_
_
_
2

6
0
1

6
1

2
1

6

1

2
_
_
_
_
_
_
_
;
= P

AP =
_
_
2

6
1

6
1

6
0
1

2

1

2
_
_
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
_
_
_
_
_
_
_
2

6
0
1

6
1

2
1

6

1

2
_
_
_
_
_
_
_
=
_
6 0
0 2
_
;
38 Luna, J. G. & Esteves, E. M.
PP

=
1
u
1
u

1
+
2
u
2
u

2
=
= 6
_
_
_
_
_
_
_
2

6
1

6
1

6
_
_
_
_
_
_
_
_
2

6
1

6
1

6
_
+ 2
_
_
_
_
_
_
0
1

2
_
_
_
_
_
_
_
0
1

2

1

2
_
=
_
_
_
_
_
_
4 2 2
2 1 1
2 1 1
_
_
_
_
_
_
+
_
_
_
_
_
_
0 0 0
0 1 1
0 1 1
_
_
_
_
_
_
=
_
_
_
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
_
_
= A;
A
+
= P
1
P

=
_
_
_
_
_
_
_
2

6
0
1

6
1

2
1

6

1

2
_
_
_
_
_
_
_
_
_
1
6
0
0
1
2
_
_
_
_
2

6
1

6
1

6
0
1

2

1

2
_
_
=
1
18
_
_
2 1 1
1 5 4
1 4 5
_
_
.
Observacao: Se A
(n)
for nao singular, entao
A
+
= A
1
=
1

1
u
1
u

1
+
1

2
u
2
u

2
+ +
1

n
u
n
u

n
.
1.6.2 Inversa generalizada condicional
Denicao: Dada uma matriz
m
A
n
de posto r(A) = k, toda matriz
n
A

m
que
satisfaz a condi c ao AA

A = A, e chamada de inversa generalizada condi-


cional de A.
Um algoritmo util para encontrar inversas generalizadas condicionais de
A e o Algoritmo de Searle cujo procedimento e como segue:
1. Tomar uma matriz menor M de posto r(A) = k da matriz A;
2. Obter
_
M
1
_

;
3. Substituir em A,
_
M
1
_

em lugar de M e fazer todos os outros


elementos de A, nulos;
4. Transpor a matriz resultante;
5. O resultado obtido e uma inversa generalizada condicional de A.
Luna, J. G. & Esteves, D. M. 39
Exemplo: Seja a matriz A =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
, entao, temos
(i) Como r(A) = 2 podemos escolher a matriz menor M =
_
1 0
0 1
_
;
(ii) Sendo M
1
=
_
1 0
0 1
_
entao
_
M
1
_

=
_
1 0
0 1
_
;
(iii) Substituir em A,
_
M
1
_

em lugar de M e anular todos os outros ele-


mentos de A:
_
_
_
_
0 0 0
0 1 0
0 0 1
0 0 0
_
_
_
_
(iv) Transpor a matriz resultante. Isto e,
_
_
0 0 0 0
0 1 0 0
0 0 1 0
_
_
.
(v) O resultado obtido e uma inversa generalizada condicional de A, Isto e,
A

=
_
_
0 0 0 0
0 1 0 0
0 0 1 0
_
_
.
Observe que
AA

A =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
0 0 0 0
0 1 0 0
0 0 1 0
_
_
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
= A.
1.6.3 Inversa generalizada de mnimos quadrados
Denicao: Dada uma matriz
m
A
n
de posto r(A) = k, toda matriz
n
A

m
que
satisfaz as condi coes:
(i) AA

A = A (ii) AA

=
_
AA

(simetrica)
e chamada inversa generalizada de mnimos quadrado de A.
40 Luna, J. G. & Esteves, E. M.
Teorema 9: Toda matriz A

= (A

A)

e inversa de mnimos quadrados


de A.
Pode ser demonstrado que AA

e unica e invariante para qualquer condi-


cional (A

A)

. Alem disso, AA

e simetrica e idempotente. Isto e,


AA

= (AA

)(AA

).
Exemplo: Seja X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
, entao, X

X =
_
_
4 2 2
2 2 0
2 0 2
_
_
.
Consideremos tres inversas generalizadas condicionais de X

X. Isto e,
A
1
= (X

X)

=
_
_
_
_
_
_
0 0 0
0
1
2
0
0 0
1
2
_
_
_
_
_
_
, A
2
= (X

X)

=
_
_
_
_
_
_
1
2

1
2
0

1
2
1 0
0 0 0
_
_
_
_
_
_
e
A
3
= (X

X)

=
_
_
_
_
_
_
1
2
0
1
2
0 0 0

1
2
0 1
_
_
_
_
_
_
.
Assim sendo, teremos
X

1
= (X

X)

= A
1
X

=
_
_
_
_
_
_
0 0 0 0
1
2
1
2
0 0
0 0
1
2
1
2
_
_
_
_
_
_
,
X

2
= (X

X)

= A
2
X

=
_
_
_
_
_
_
0 0
1
2
1
2
1
2
1
2

1
2

1
2
0 0 0 0
_
_
_
_
_
_
e
X

3
= (X

X)

= A
3
X

=
_
_
_
_
_
_
1
2
1
2
0 0
0 0 0 0

1
2

1
2
1
2
1
2
_
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 41
Observe que
XX

1
= XX

2
= XX

3
=
_
_
_
_
_
_
_
_
_
_
1
2
1
2
0 0
1
2
1
2
0 0
0 0
1
2
1
2
0 0
1
2
1
2
_
_
_
_
_
_
_
_
_
_
.
42 Luna, J. G. & Esteves, E. M.
1.7 Lista de exerccios # 2
2.1 Dada a matriz A =
_
_
2 6 4 2
4 15 14 7
2 9 10 5
_
_
(a) Atraves do algortmo de Dwivedi, encontre matrizes B e C, tais que
A = BC e r(A) = r(B) = r(C). (observe que B e C nao sao unicas
e dependem da primeira escolha do elemento a
pq
);
(b) Determine a inversa de Moore-Penrose de A;
(c) Verique numericamente as quatro condicoes da deni cao de A
+
;
(d) Obtenha uma inversa condicional, A

.
2.2 Dado o vetor u =
_
_
_
_
1
2
3
4
_
_
_
_
, determine u
+
.
2.3 Considere o sistema de equa coes lineares X = y, conforme se segue,
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0
1 1 0 0
1 1 0 0
1 1 0 0
1 0 1 0
1 0 1 0
1 0 1 0
1 0 0 1
1 0 0 1
1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

t
1
t
2
t
3
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
7
8
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
(a) Pre-multiplique o sistema por X

, obtendo-se X

X = X

y que,
como veremos posteriormente, e chamado de Sistema de Equacoes
Normais;
(b) Determine:
1.
o
1
= X
+
y;
2.
o
2
= (X

X)
+
X

y;
3.
o
3
= (X

X)

1
X

y;
4.
o
4
= (X

X)

2
X

y;
5.
o
5
= X

y;
onde (X

X)

1
e (X

X)

2
sao duas inversas condicionais distintas
de X

X.
Luna, J. G. & Esteves, D. M. 43
(c) Prove que as matrizes que pre-multiplicam y no item (b), (1,2,3,4 e
5) sao inversas de mnimos quadrados de X;
(d) Verique numericamente que
o
i
, i = 1, 2, , 5 e solucao do sistema
X

X = X

y (veremos posteriormente que existem outras solucoes);


(e) Dentre os vetores solucao
o
i
, obtidos em (b) qual deles apresenta
menor norma?
(f ) Veremos nas proximas secoes que se X e de posto coluna completo,
entao o vetor solucao
o
nao tem valor por si so. Nesse caso, o
que importa realmente, e o vetor y = X
o
o qual e invariante para
qualquer
o
que seja solucao das equa coes normais. Posteriormente
deniremos o vetor y como aproxima cao de mnimos quadrados para
y. Verique essa invariancia atraves das cinco solucoes obtidas em
(b);
(g) Determine y = Py, onde P = XX
+
= XX

= X(X

X)

e
verique numericamente que y = X
o
= Py;
(h) Verique algebricamente que X
o
i
= Py, onde
o
i
, i = 1, 2, , 5
dados por (b);
(i) Determine:
1. e = y y;
2. e = y Py = (I P)y;
3. e = y X
o
i
, i.
(j) Preencha o seguinte quadro:
F. Variacao G.L. S.Q. Q.M. F
(obs.)
Media r(P
1
) =
1
= y
2
=
y
2
1
= -
Tratamento r(P P
1
) =
2
= y y
2
= a =
y y
2
2
= a/c =
Parametros r(P) =
3
= y
2
= b =
y
2
3
= b/c =
Resduo r(I P) =
4
= e
2
=
e
2
4
= -
TOTAL r(I) =
5
= y
2
= -
onde y = P
1
y, P
1
= X
1
X
+
1
, X
1
e a primeira coluna da matriz X e P =
XX
+
.
44 Luna, J. G. & Esteves, E. M.
2.4 Dada a matriz A =
_
_
_
_
_
_
_
n r
1
r
2
r
I
r
1
r
1
0 0
r
2
0 r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
r
I
0 0 r
I
_
_
_
_
_
_
_
, onde n =

I
i=1
r
i
, deter-
mine:
1. r(A);
2. Uma forma geral, com base no algortmo de Searle, para a inversa
condicional mais simples (diagonal) de A;
3. Atraves do item 2, determine uma inversa condicional para a matriz
A = X

X =
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
=
_
_
_
_
n r
1
r
2
r
3
r
1
r
1
0 0
r
2
0 r
2
0
r
3
0 0 r
3
_
_
_
_
. Note que,
nesse caso, X e dada no exerccio 2.3.
Captulo 2
Solucoes de Equac oes
Lineares
2.1 Introducao
Dado o sistema de equacoes lineares Ax = g, onde Ae uma matriz mn de
componentes reais, x e um vetor real n1 e g e um vetor m1 de componentes
reais, consideremos as seguintes questoes:
1. Existe ao menos um vetor x
o
, tal que, Ax
o
= g? (O sistema e consis-
tente?);
2. Se a resposta ao item 1 for Sim, a proxima pergunta sera: quantos
vetores x
o
existem? (O sistema e determinado ou indeterminado?);
3. Se a resposta ao item 1 e Nao, a proxima pergunta sera: existe algum
vetor x

, tal que a igualdade se verique ao menos aproximadamente,


para uma conveniente deni cao de aproximacao? (Existe alguma solucao
aproximada x

para o sistema inconsistente Ax = g, com propriedades


adequadas?).
2.2 Consistencia e Solucao
Teorema 2.2.1 Uma condicao necessaria e suciente para que o sistema Ax =
g seja consistente e que g perten ca ao espaco coluna de A.
Ax = g consistente =g C(A).
45
46 Luna, J. G. & Esteves, E. M.
Ax = g consistente = x
o
: Ax
o
= g = g e combina cao linear
das colunas de A. Uma regra para essa combinacao e dada por x
o
.
Entao g C(A).
g C(A) =Ax = g consistente.
g C(A) = g e combina cao linear das colunas de A. Entao
qualquer x
o
que forneca uma combinacao linear das colunas de A,
que reproduza g, e solu cao do sistema. Desse modo, x
o
: Ax
o
= g
e o sistema e consistente.
Exerccio 2.2.1 Seja o sistema de equacoes lineares Ax = g caracterizado por:
_
_
_
4x
1
+ 2x
2
+ 2x
3
= 14
2x
1
+ 2x
2
= 6
2x
1
+ 2x
3
= 8
ou
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
14
6
8
_
_
A ttulo de ilustracao, consideremos tres vetores solu cao do sistema x
o
j
, j =
1, 2, 3.
1. x
o
1
=
_
_
x
o
11
x
o
12
x
o
13
_
_
=
_
_
0
3
4
_
_
. Veriquemos que Ax
o
1
= g. Alem disso,
g esta no espa co coluna de A. Pois, pode ser obtido como combinacao
linear das suas colunas. Uma combinacao e dada por x
o
1
. Isto e,
g =
3

j=1
x
o
ij
c
j
.
Assim,
g =
3

j=1
x
o
1j
c
j
= x
o
11
c
1
+x
o
12
c
2
+x
o
13
c
3
= 0
_
_
4
2
2
_
_
+ 3
_
_
2
2
0
_
_
+ 4
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
;
2. x
o
2
=
_
_
x
o
21
x
o
22
x
o
23
_
_
=
_
_
3
0
1
_
_
. Temos, que Ax
o
2
= g e
g = 3
_
_
4
2
2
_
_
+ 0
_
_
2
2
0
_
_
+ 1
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
;
Luna, J. G. & Esteves, D. M. 47
Finalmente,
3. x
o
3
=
_
_
x
o
31
x
o
32
x
o
33
_
_
=
_
_
4
1
0
_
_
. Temos, que Ax
o
3
= g e
g = 4
_
_
4
2
2
_
_
1
_
_
2
2
0
_
_
+ 0
_
_
2
0
2
_
_
=
_
_
14
6
8
_
_
e assim por diante. Naturalmente o sistema em questao e consistente
e indeterminado.
Teorema 2.2.2 Uma condicao necessaria e suciente para que o sistema Ax =
g seja consistente e que o posto da matriz A seja igual ao posto da matriz
A aumentada de g. Isto e, r(A) = r(A
.
.
. g).
Ax = g cons. r(A) = r(A
.
.
. g).
Exerccio 2.2.2 Tomando o sistema de equa coes lineares Ax = g do exerccio
anterior, onde A =
_
_
4 2 2
2 2 0
2 0 2
_
_
e r(A) = 2. Entao,
_
_
4 2 2 14
2 2 0 6
2 0 2 8
_
_

_
_
1 0 1 4
0 1 1 1
0 0 0 0
_
_
e portanto, r(A) = r(A
.
.
. g) = 2 e, como ja visto, o sistema e consistente.
Exerccio 2.2.3 Suponhamos agora o sistema
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
1
1
1
_
_
.
Desse modo,
_
_
4 2 2 1
2 2 0 1
2 0 2 1
_
_

_
_
1 0 1 0
0 1 1 1/2
0 0 0 1
_
_
.
Conforme podemos perceber r(A) = 2 = r(A
.
.
. g) = 3.
Note que os ultimos componentes dos vetores coluna da matriz resultante
de A sao todos nulos, enquanto que o ultimo componente do vetor resul-
tante de g e igual 1 = 0. Assim, nao existe combinacao linear das colunas
48 Luna, J. G. & Esteves, E. M.
de A que reproduza o vetor g. Em outras palavras, g C(A) e o sistema
nao e consistente. Lembre-se de que os coecientes das colunas, na com-
binacao linear, sao os componentes do vetor solucao. Entao, se nao existe
combinacao linear das colunas de A que reproduza g, o sistema Ax = g
nao tem solu cao.
Teorema 2.2.3 Uma condicao necessaria e suciente para que o sistema A
(n)n
x
1
=
n
g
1
seja consistente e que A seja nao singular.
Basta pre-multiplicar o sistema por A
1
e teremos x
o
= A
1
g. A unici-
dade de A
1
garante a invariancia de x
o
.
Exerccio 2.2.4 Seja o sistema Ax = g caracterizado por
_
2 1
1 1
__
x
1
x
2
_
=
_
7
5
_
.
Entao, x
o
= A
1
g =
_
1 1
1 2
__
7
5
_
=
_
2
3
_
.
Note que neste caso a solucao e unica. Isto e, existe apenas uma com-
binacao linear das colunas de A que reproduz g. Ou seja,
g = 2
_
2
1
_
+ 3
_
1
1
_
=
_
7
5
_
.
Nesse caso, o Teorema 2.2.2 pode fornecer diretamente a solu cao. Pois,
se existe A
1
, entao (A
.
.
. g) (I
.
.
. x
o
). de fato,
_
2 1 7
1 1 5
_

_
1 0 2
0 1 3
_
.
Teorema 2.2.4 Uma condicao necessaria e suciente para que o sistema de
equacoes Ax = g seja consistente e que exista uma inversa condicional de
A tal que AA

g = g.
(a) Ax = g consistente = AA

g = g.
Ax = g consistente = x
o
: Ax
o
= g (I).
Seja A

alguma inversa condicional de A. Pre-multiplicando (I) por


AA

, vem
AA

Ax
o
= AA

g =Ax
o
= AA

g
(I)
=g = AA

g.
(b) AA

g = g = Ax = g e consistente. Seja AA

g = g. Basta tomar
x
o
= A

g e desse modo Ax
o
= g e o sistema e consistente.
Luna, J. G. & Esteves, D. M. 49
Exerccio 2.2.5 Seja o sistema Ax = g caracterizado por
_
_
1 1
1 1
2 0
_
_
_
x
1
x
2
_
=
_
_
3
1
2
_
_
Usando o algortmo de Searle, temos
M =
_
1 1
1 1
_
e M
1
=
_
_
1
2
1
2
1
2

1
2
_
_
.
Portanto,
A

=
_
_
1
2
1
2
0
1
2

1
2
0
_
_
.

E facil vericar que


AA

g =
_
_
1 1
1 1
2 0
_
_
_
_
1
2
1
2
0
1
2

1
2
0
_
_
_
_
3
1
2
_
_
=
_
_
3
1
4
_
_
= g.
Portanto, o sistema e inconsistente. Esse fato pode ser conrmado facil-
mente atraves do Teorema 2.2.2.
Teorema 2.2.5 Sao condicoes necessarias e sucientes para que o sistema Ax =
g seja consistente.
(a) AA

g = g (b) AA
+
g = g.
Basta lembrar que A
+
e A

sao tambem A

.
Exerccio 2.2.6 Considere o sistema Ax = g caracterizado por
_
_
1 1
1 1
2 0
_
_
_
x
1
x
2
_
=
_
_
3
1
4
_
_
Usando
A

=
_
_
1
2
1
2
0
1
2

1
2
0
_
_
, A

=
1
6
_
1 1 2
3 3 0
_
= A
+
.
Obsevacao: Das propriedades da inversa de Moore-Penrose, vimos que,
se A tem posto coluna completo, entao A
+
= (A

A)
1
A

= A

e A
+
A =
I
(n)
.
50 Luna, J. G. & Esteves, E. M.
Dessa forma, tem-se que
AA

g = AA

g = AA
+
g =
_
_
3
1
4
_
_
= g,
e o sistema e consistente.
FATOS:
1. Veremos mais tarde que se A e de posto coluna completo, como no
exerccio acima, e se o sistema e consistente, entao a solucao e unica;
2. Note que, se Ax = g e consistente, entao
AA

g = A(A

A)

g = AA

g = AA
+
g = g.
Teorema 2.2.6 Uma condi cao suciente para que o sistema
m
A
nn
x
1
=
m
g
1
seja consistente e que r(A) = m.
De fato, vimos das propriedades da inversa de Moore-Penrose que se A e
de posto linha completo, entao A
+
= A

(AA

)
1
e AA
+
= I
(m)
.
Basta aplicar o resultado do teorema anterior e teremos
AA
+
g = Ig = g.
Teorema 2.2.7 O vetor x
o
= A

g + (I A

A)h, onde h e um vetor n 1,


e solucao do sistema
m
A
nn
x
1
=
m
g
1
, consistente.
Se x
o
e solucao, devemos ter Ax
o
= g. O que e equivalente a pre-
multiplicar x
o
por A. Isto e,
Ax
o
= AA

g +A(I A

A)h
= AA

g + (AAA

A)h = AA

g, h.
Sendo Ax = g consistente por hipotese, entao AA

g = g. Portanto,
Ax
o
= g e x
o
, assim denido, e solucao do sistema.
Exerccio 2.2.7 Seja Ax = g consistente, dado por
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
14
6
8
_
_
Luna, J. G. & Esteves, D. M. 51
Tomando tres inversas condicionais de A, temos tres solucoes distintas
para o sistema, obtidas por x
o
i
= A

i
g, i = 1, 2, 3, a saber
x
o
1
= A

1
g =
_
_
_
_
_
_
0 0 0
0
1
2
0
0 0
1
2
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
0
3
4
_
_
,
x
o
2
= A

2
g =
_
_
_
_
_
_
1
2

1
2
0

1
2
1 0
0 0 0
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
4
1
0
_
_
e
x
o
3
= A

3
g =
_
_
_
_
_
_
1
2
0
1
2
0 0 0

1
2
0 1
_
_
_
_
_
_
_
_
14
6
8
_
_
=
_
_
3
0
1
_
_
.
Tomemos agora o vetor
x
o
= A

1
g + (I A

1
A)h =
_
_
0
3
4
_
_
+
_
_
1 0 0
1 0 0
1 0 0
_
_
_
_
h
1
h
2
h
3
_
_
Portanto,
x
o
=
_
_
h
1
3 h
1
4 h
1
_
_
e solucao, h
1
R.
Assim, para h
1
= 3 temos
x
o
=
_
_
3
0
1
_
_
= x
o
2
;
para h
1
= 4 temos
x
o
=
_
_
4
1
0
_
_
= x
o
3
;
e assim por diante.
Teorema 2.2.8 Se Ax = g e consistente, entao os vetores
x
o
= A

g + (I A

A)h e
x
o
= A
+
g + (I A
+
A)h,
sao solucoes do sistema. Neste caso, basta lembrar que A
+
e A

sao
tambem A

.
52 Luna, J. G. & Esteves, E. M.
Teorema 2.2.9 Se o sistema Ax = g e consistente, entao
x
o
= A

g, x
o
= A

g e x
o
= A
+
g,
sao solucoes. Basta tomar h = nos teoremas 2.2.7 e 2.2.8.
Teorema 2.2.10 Uma condi cao necessaria e suciente para que o sistema con-
sistente
m
A
nn
x
1
=
m
g
1
, tenha solu cao unica e que r(A) = n.
Basta usar o teorema 2.2.7
Teorema 2.2.11 Dado o sistema consistente
m
A
nn
x
1
=
m
g
1
com r(A) =
k > 0 e g = , entao existem exatamente n k + 1 solu coes linearmente
independentes.
Teorema 2.2.12 O conjunto de solucoes do sistema linear homogeneo Ax =
e o complemento ortogonal do espa co coluna de A.
Teorema 2.2.13 Uma condi cao necessaria e suciente para que o sistema linear
homogeneo
m
A
nn
x
1
=
m

1
tenha solucoes diferentes da trivial, x
o
= ,
e que r(A) < n.
Teorema 2.2.14 O sistema linear homogeneo
m
A
nn
x
1
=
m

1
, com r(A) = k,
tem exatamente n k vetores solu cao linearmente independentes.
Teorema 2.2.15 Todo vetor solu cao de um sistema
m
A
nn
x
1
=
m
g
1
pode ser
obtido como a soma de um vetor solucao xo desse sistema e uma com-
binacao linear de n k linearmente independentes do sistema homogeneo
associado.
2.3 Solucao Aproximada
Consideremos agora, o caso no qual o sistema de equacoes lineares Ax = g
e inconsistente. Isto e, quando nao existe x
o
, tal que Ax
o
= g.
Em muitos problemas praticos, como por exemplo, nas analises estatsticas
de experimentos, e muito importante obtermos solucoes aproximadas de sis-
temas de equa coes lineares.
Denotemos por e(x
o
) o erro cometido ao tomar o vetor x
o
como solucao
aproximada do sistema Ax = g, inconsistente. Entao, teremos e(x
o
) = gAx
o
.
Observe que podemos ter muitas solucoes aproximadas, sendo que umas sao
melhores que outras, de modo que o nosso problema sera encontrar a melhor
delas.
Luna, J. G. & Esteves, D. M. 53
Uma forma de medir o tamanho do erro cometido ao tomar x
o
como solucao
do sistema inconsistente Ax = g, e atraves do quadrado da norma, popular-
mente conhecida como soma dos quadrados dos erros ou dos resduos. Ou seja,
e
2
= e

e =
_
e
1
e
2
e
n
_
_
_
_
_
_
e
1
e
2
.
.
.
e
n
_
_
_
_
_
=
n

i=1
e
2
i
.
Exerccio 2.2.8 Seja o sistema de equa coes lineares X = y, caracterizado
por
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_

2
_
_
=
_
_
_
_
2
3
5
4
_
_
_
_
(i) Como nao conhecemos, ainda, uma regra para a obten cao de solucoes
aproximadas, tomemos a ttulo de exemplo dois vetores solucao com o
objetivo de quanticar o tamanho do erro cometido:

o
1
=
_
_
1
1
1
_
_
.O erro cometido ao tomarmos
o
1
como solucao, e
e
1
(
o
1
) = y X
o
1
=
_
_
_
_
2
3
5
4
_
_
_
_

_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
1
1
1
_
_
=
_
_
_
_
0
1
3
2
_
_
_
_
.
Consequentemente,
e
1

2
= SQR
1
= (0)
2
+ (1)
2
+ (3)
2
+ (2)
2
= 14, 0.
Tomando, por exemplo,
o
2
=
_
_
14/6
1/6
13/6
_
_
, obtemos de modo analogo,
e
2

2
= SQR
2
= 1, 0, que sem d uvida e menor que SQR
1
.
(ii) Procuremos agora um vetor
o
, tal que, a soma dos quadrados dos resduos
seja a menor possvel. Neste caso temos que minimizar
SQR = f(,
1
,
2
) = e
2
= y X
2
= (y X)

(y X),
onde,
y X =
_
_
_
_
2
3
5
4
_
_
_
_

_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_

2
_
_
=
_
_
_
_
2
1
3
1
5
2
4
2
_
_
_
_
= e.
54 Luna, J. G. & Esteves, E. M.
Portanto,
SQR = e
2
= e

e = (y X)

(y X) =
4

i=1
e
2
i
= (2
1
)
2
+ (3
1
)
2
+ (5
2
)
2
+ (4
2
)
2
.
Os valores de ,
1
e
2
, isto e,
o
,
o
1
e
o
2
que minimizam a soma dos quadra-
dos dos resduos sao obtidos derivando-se parcialmente a SQR e igualando-se a
zero. Isto e,
(SQR)

= 28 + 8 + 4
1
+ 4
2
(SQR)
1
= 10 + 4 + 4
1
(SQR)
2
= 18 + 4 + 4
2
.
.
Igualando-se a zero, resulta em
_
_
_
4
o
+ 2
o
1
+ 2
o
2
= 14
2
o
+ 2
o
1
= 5
2
o
+ 2
o
2
= 9
Dessa forma, qualquer solucao do sistema
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_

o
1

o
2
_
_
=
_
_
14
5
9
_
_
, (2.1)
ja sabidamente consistente, nos levara a uma menor soma dos quadrados dos
resduos.
Obs.1: O procedimento aqui utilizado e um caso particular do metodo dos
mnimos quadrados;
Obs.2: O sistema de equacoes lineares obtido em (2.1) e conhecido como sis-
temas de equa c oes normais.
Entre muitas solucoes do sistema (2.1) temos:

o
2
=
1
6
_
_
14
1
13
_
_
,
o
3
=
1
6
_
_
16
1
11
_
_
, e
o
4
=
1
2
_
_
4
1
5
_
_
,
de onde podemos perceber que SQR
1
> SQR
2
= SQR
3
= SQR
4
. Diante
deste fato, temos aqui um problema a ser resolvido. Ou seja, se existem muitas
solucoes que torna mnima a soma dos quadrados dos resduos, como escolher a
melhor delas?
Luna, J. G. & Esteves, D. M. 55
2.4 A Melhor Solucao Aproximada
Denicao 2.4.1 O vetor x

e denido como a melhor solucao aproximada do


sistema de equacoes lineares Ax = g, inconsistente (BAS: Best Approxi-
mate Solution) se, e somente se, para qualquer outra solu cao aproximada
x
o
, tivermos:
1. e(x

)
2
e(x
o
)
2
,
2. Caso prevale ca a igualdade, a melhor solucao aproximada sera aquela
que satisfaz a condicao: x

2
< x
o

2
.
Nota: A condi cao 2 diz que a melhor solucao aproximada, e a solucao de
norma mnima.
Teorema 2.4.1 A melhor solucao aproximada de Ax = g, inconsistente e x

=
A
+
g.
Exemplo 2.4.1 A solu cao do sistema inconsistente X = y do exemplo ante-
rior e dada por:

= X
+
y =
o
2
=
1
6
_
_
1 1 1 1
2 2 1 1
1 1 2 2
_
_
_
_
_
_
2
3
5
4
_
_
_
_
=
1
6
_
_
14
1
13
_
_
,
como obtida anteriormente.
2.5 Solucao Aproximada de Mnimos
Quadrados
Conforme vimos anteriormente, qualquer solucao do sistema de equacoes
obtida no Exerccio (2.2.8), leva a um mnimo a soma dos quadrados dos erros.
Vimos tambem, que a melhor solucao aproximada era uma delas.
Na verdade para os propositos deste curso, basta que tenhamos mnima a
soma dos quadrados dos erros. Nesse contexto, a propriedade da norma mnima
para o vetor solucao aproximada pode nao ser necessaria. Se for utilizada,
podemos perder, em muitos casos, a propriedade da unicidade da solucao apro-
ximada. No entanto, temos, em geral, a vantage da simplicidade de calculo, por
nao ter que usar a inversa generalizada de Moore-Penrose.
A solu cao de mnimos quadrados pressupoe apenas a primeira condicao da
Denicao 2.4.1 o que, em geral, e suciente para resolver os problemas es-
tatsticos abordados neste curso.
56 Luna, J. G. & Esteves, E. M.
Denicao 2.5.1: Um vetor x
o
e denido como um vetor solucao aproximado
de mnimos quadrados para o sistema inconsistente Ax = g se, e somente
se,
e(x
o
)
2
e(x

)
2
para qualquer solucao aproximada x

, (LSS: Least Squares Soluction).


Nota 1: A solu cao LSS, nao exige como a BAS que se prevalecer a igualdade,
entao x
o

2
< x

2
. Assim, enquanto a BAS e unica, a LSS nao o e.
Nota 2: As solucoes LSS sao muito importantes em estatstica.
Vejamos agora algumas regras para obtencao de solucoes aproximadas de
mnimos quadrados.
Teorema 2.5.1: O vetor x
o
= A

g e uma solucao aproximada de mnimos


quadrados do sistema inconsistente Ax = g.
Denicao 2.5.2: Os sistemas de equa coes lineares do tipo A

Ax = A

g e
conhecido por Sistemas de Equac oes Normais.
Teorema 2.5.2: Os sistemas de equacoes normais sao sempre consistentes.
Teorema 2.5.3: Uma condicao necessaria e suciente para que x
o
seja uma
solucao aproximada de mnimos quadrados para o sistema inconsistente
Ax = g e que x
o
seja solucao das equa coes normais.
Exerccio 2.5.2: Como vimos no Exerccio 2.2.8 o sistema de equacoes nor-
mais X

X = X

y referente ao sistema inconsistente y = X, e dado


por
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_

2
_
_
=
_
_
14
5
9
_
_
.
Alem disso qualquer solucao exata deste sistema sempre consistente e
solucao aproximada de mnimos quadrados para o sistema inconsistente
y = X. Sao exemplos,

o
=
_
_
_
_
_
_
7
3
1
6
13
6
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
2
1
2
5
2
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
8
3

1
6
11
6
_
_
_
_
_
_
;
o
=
_
_
_
_
_
_
0
5
2
9
2
_
_
_
_
_
_
e existem muitos outros vetores
o
que nos levarao `a menor soma dos
quadrados dos resduos (no exemplo, SQR = 1, 0).
Luna, J. G. & Esteves, D. M. 57
Denicao 2.5.3: O vetor g = Ax
o
, onde x
o
e qualquer solucao aproximada
de mnimos quadrados para o sistema inconsistente Ax = g, e denido
como a aproximacao de mnimos quadrados para o vetor g.
Exerccio 2.5.3: No sistema inconsistente y = X, temos
y = X
o
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
1
2
_
_
0
5
9
_
_
=
1
2
_
_
_
_
5
5
9
9
_
_
_
_
.
Tomemos agora, outra solu cao das equacoes normais, a saber,

o
=
_
_
7/2
2
2
_
_
. Entao,
y =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
7/2
2
2
_
_
=
1
2
_
_
_
_
5
5
9
9
_
_
_
_
e, de modo analogo para qualquer
o
solucao de X

X = X

y.
Denicao 2.5.4: Denimos o erro de ajuste devido a aproximacao de mnimos
quadrados para Ax = g inconsistente, como
e = g g = g Ax
o
.
Exerccio 2.5.4: Para o exemplo em questao, temos
e = y y =
_
_
_
_
2
3
5
4
_
_
_
_

1
2
_
_
_
_
5
5
9
9
_
_
_
_
=
1
2
_
_
_
_
1
1
1
1
_
_
_
_
.
como ja visto no Exerccio 2.2.8.
Nota: Recordando que X
o
= XX

y = X(X

X)

y = Py. Temos,
entao:
y = X
o
= Py e e = y y = y X
o
= y Py = (I P)y.
Teorema 2.5.4: O erro devido a aproximacao de mnimos quadrados e orto-
gonal ao espa co gerado pelas colunas de A. Isto e, e C(A).
58 Luna, J. G. & Esteves, E. M.
Exerccio 2.5.5: Para o exemplo em questao, e imediato vericar que
X

e = .
Ou seja,
_
_
1 1 1 1
1 1 0 0
0 0 1 1
_
_
1
2
_
_
_
_
1
1
1
1
_
_
_
_
=
_
_
0
0
0
_
_
.
Luna, J. G. & Esteves, D. M. 59
Lista de Exerccios # 3
1. Verique se o sistema de equa coes lineares a seguir e consistete. Caso
armativo, apresente uma solucao.
_
_
_
x
1
+ x
2
+ x
3
= 3
x
1
+ x
2
+ x
4
= 6
2x
1
+ x
2
3x
4
= 5
2. Dado o sistema de equacoes lineares A = g, caracterizado por
_
_
5 2 3
2 2 0
3 0 3
_
_
_
_

3
_
_
=
_
_
33
18
15
_
_
2.1 Verique sua consistencia;
2.2 Apresente uma solucao da forma:
2.2.1
o
1
= A

g;
2.2.2
o
2
= A
+
g;
2.2.3
o
3
= A
G
g + (I A
G
A)h, para alguma G-inversa de A.
3. Estude a consistencia dos sistemas X = y, caracterizados por:
3.1
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_

2
_
_
=
_
_
_
_
10
12
6
4
_
_
_
_
;
3.2
_
_
_
_
1 2
1 4
1 6
1 8
_
_
_
_
_

_
=
_
_
_
_
10
8
14
12
_
_
_
_
.
4. Dado o sistema Ax = g caracterizado por
_
_
_
_
5 1 1 1
1 5 1 1
1 1 5 1
1 1 1 5
_
_
_
_
_
_
_
_
x
y
z
w
_
_
_
_
=
_
_
_
_
26
22
18
14
_
_
_
_
,
4.1 Obtenha A
+
= A
1
=

4
i=1
1
i
P
i
P

i
, onde
i
e P
i
sao respectiva-
mente autovalores e autovetores normalizados de A;
4.2 Apresente a solucao do sistema.
5. Com os dados do exerccio 3 desta lista:
60 Luna, J. G. & Esteves, E. M.
5.1 Determine a melhor solucao aproximada e outra solucao de mnimos
quadrados para 3.1;
5.2 Verique a consistencia de X

X = X

y com os dados de 3.1 e 3.2.


Um tem solu cao unica e o outro e indeterminado. Justique.
6. Estude a invariancia de X
o
,
o
solucao de X

X = X

y, utilizando
os dados de 3.1.
7. Dado o sistema X = y, caracterizado por
_
_
1 1 0
1 1 0
1 0 1
_
_
_
_

2
_
_
=
_
_
4
3
4
_
_
,
7.1 Determine:
7.1.1
o
= (X

X)

y
7.1.2 y = X
o
7.1.3 y = Py, onde P = X(X

X)

= XX

= XX
+
7.1.4 e = y y
7.1.5 e = (I P)y
7.1.6 SQTotal = y

y = y

Iy
7.1.7 SQPar. = y

Py = y
2
= X
o

2
7.1.8 SQRes. = y

(I P)y = e
2
= y y
2
= y X
o

2
7.1.9 r(P), r(I) e r(I P).
7.2 Verique numericamente que:
7.2.1 P e (I P) sao simetricas;
7.2.2 P e (I P) sao idempotentes;
7.2.3 P(I P) = (I P)P = ;
7.2.4 y
2
= y
2
+e
2
, (SQTotal=SQPar.+SQRes.).
Captulo 3
Formas Quadraticas
3.1 Conceito
Denicao 3.1.1: Uma funcao do tipo
Q(x) = x

Ax =

i,j
a
ij
x
i
x
j
,
onde a
ij
sao constantes reais, e chamada de forma quadratica em x.
Exemplo 3.1.1 A forma
Q(x) = 2x
2
1
+ 5x
2
2
x
2
3
x
1
x
2
+ 3x
2
x
3
=
_
x
1
x
2
x
3
_
_
_
_
_
_
_
2
1
2
0

1
2
5
3
2
0
3
2
1
_
_
_
_
_
_
_
_
x
1
x
2
x
3
_
_
= x

Ax
e uma forma quadratica em x.
Exemplo 3.1.2 De modo generico, a forma
Q(x) =
_
x
1
x
2
_
_
a
11
a
12
a
21
a
22
__
x
1
x
2
_
= a
11
x
2
1
+a
22
x
2
2
+a
12
x
1
x
2
+a
21
x
2
x
1
=
2

j=1
a
1j
x
1
x
j
+
2

j=1
a
2j
x
2
x
j
=
2

i=1
2

j=1
a
ij
x
i
x
j
61
62 Luna, J. G. & Esteves, E. M.
e uma forma quadratica em x, se a
ij
sao constantes reais.
Nestas condicoes, e facil observar que se a matriz A e simetrica, entao
Q(x) =

i=j
a
ij
x
2
i
+ 2

i=j
a
ij
x
i
x
j
.
3.2 Casos de Interesse Para Estatstica
1. Se A
(n)
= I
(n)
=Q(x) = x

Ix =

n
i=1
x
2
i
2. Se A
(n)
= E
(n)
=Q(x) = x

Ex = (

n
i=1
x
i
)
2
.
Note que
1
n1
_
x

Ix
x

Ex
n
_
fornece uma medida para a variancia de x.
3. Sendo Q(y) = y

Ay = 2y
2
1
+ 5y
2
2
y
1
y
2
+ 3y
2
y
3
, como determinar A
quando simetrica?
a
11
= 2, a
22
= 5, a
33
= 0,
2a
12
= 1 = a
12
=
1
2
,
2a
23
= 3 = a
23
=
3
2
,
a
13
= 0 e a
31
= 0.
Logo,
A =
_
_
_
_
_
_
2
1
2
0

1
2
5
3
2
0
3
2
0
_
_
_
_
_
_
.
3.3 Classicacao de Formas Quadraticas
Denicao 3.3.1: Dada a forma quadratica Q(y) = y

Ay, no que se refere a


sua classicacao, temos:
1. Se Q(y) > 0, y = =Q(y) e positiva denida;
2. Se Q(y) 0 para y = e existe pelo menos um y = , tal que
Q(y) = 0, entao Q(y) e semi positiva denida;
3. Se Q(y) < 0, y = , =Q(y) e negativa denida;
4. Se Q(y) 0 para y = e existe pelo menos um y = , tal que
Q(y) = 0, entao Q(y) e semi negativa denida;
Luna, J. G. & Esteves, D. M. 63
5. Se Q(y) muda de sinal conforme a escolha de y = , entao Q(y) e
nao denida.
Exerccio 3.3.1: Consideremos os seguintes casos:
1. Q(y) = y

Iy = y

y =

i
y
2
i
e positiva denida, pois e uma soma de
quadrados e y

y = 0 y = ;
2. Q(y) = y

Ey = (

i
y
i
)
2
e semi positiva denida, pois se refere a
um quadrado, sendo portanto nao negativo. No entanto qualquer
y tal que a soma de seus elementos seja nula, por exemplo, leva a
Q(y) = 0;
3. Q(y) =
_
y
1
y
2
_
_
1 3
3 1
__
y
1
y
2
_
e nao denida, pois muda de
sinal conforme a escolha do vetor y = . Como por exemplo: y =
_
1
1
_
= Q(y) = 8, y =
_
1
1
_
= Q(y) = 4, e assim por
diante.
Observe que classicar uma forma quadratica pela denicao e algo bas-
tante laborioso. Uma alternativa interessante, sera vericar a classica cao
da forma quadratica atraves da classicacao da matriz n ucleo. Ou seja,
uma forma quadratica tem a mesma classicacao de sua matriz n ucleo.
Para tanto, basta diagonalizar a matriz n ucleo atraves de opera coes de
congruencia.
Por exemplo: A =
_
1 3
3 1
_
. Entao,
_
1 3
3 1
_

_
1 0
0 8
_
.Logo, A e nao denida.
Teorema 3.3.1: A classica cao de uma forma quadratica nao se altera por
transformacao nao singular.
Seja Q(x) = x

Ax e seja uma transformacao nao singular x = Cy. Entao


Q(x) = x

Ax = y

ACy = y

My = Q(y). Onde A e M sao congru-


entes, tendo portanto, a mesma classicacao. Portanto, Q(x) e Q(y) tem
a mesma classicacao.
Exemplo 3.3.2: Seja Q(x) = 2x
2
1
+ 2x
1
x
2
+ 3x
2
2
. Logo
A =
_
2 1
1 3
_
e sua diagonal congruente e D
1
=
_
2 0
0 5/2
_
.
Portanto, Q(x) e positiva denida.
64 Luna, J. G. & Esteves, E. M.
Tomando, como exemplo, o vetor x =
_
10
20
_
. Entao
Q(x) =
_
10 20
_
_
2 1
1 3
__
10
20
_
= 1800.
Seja, agora, a transforma cao nao singular x = Cy, onde
C =
_
2 3
4 5
_
e C
1
=
1
2
_
5 3
4 2
_
.
Entao, Q(y) = y

My, onde M = C

AC =
_
72 94
94 123
_
, cuja diagonal
congruente e D
2
=
_
72 0
0 1175/18
_
. Portanto, Q(y) = 72y
2
1
+188y
1
y
2
+
123y
2
2
e positiva denida. Alem disso,
y = C
1
x =
1
2
_
5 3
4 2
__
10
20
_
=
_
5
0
_
.
Portanto,
Q(y) = y

My = 72(5)
2
= 1800.
Teorema 3.3.2: Se A
(n)
e real e simetrica de posto k n, entao a forma
quadratica Q(x) = x

Ax pode ser escrita na forma similar mais simples


Q(y) =
k

i=1

i
y
2
i
,
onde
i
, i = 1, 2, , k, sao as raizes caractersticas nao nulas de A.
Sendo A
(n)
real e simetrica de posto k, entao existe P ortogonal tal que
P

AP =
_
_

(k)


_
_
= diag{
1
, ,
k
, 0, , 0} = .
Seja
Q(x) = x

Ax e seja x = Py,
entao,
Q(y) = y

APy = ( y

1
y

2
)
_
_

(k)


_
_
_
_
y
1
y
2
_
_
= y

y =
k

i=1

i
y
2
i
.
Fato: Se A
(n)
e real, simetrica e idenpotente de posto k n, entao A
(n)
tem k raizes caractersticas iguais a um e (n k) raizes iguais a zero.
Assim,
P

AP =
_
I
(k)


_
e Q(y) = y

APy =
k

i=1
y
2
i
.
Luna, J. G. & Esteves, D. M. 65
Exerccio 3.3.3: Seja a forma quadratica
Q(x) = x

Ax, onde A =
_
_
2 1 1
1 2 1
1 1 2
_
_
e seja a transformacao x = Py, onde P

=
_
_
_
_
_
_
_
1

3
1

3
1

3
1

2

1

2
0
1

6
1

6

2

6
_
_
_
_
_
_
_
.
Entao, P

AP =
_
_
0 0 0
0 3 0
0 0 3
_
_
= .
Assim,
1
= 0,
2
=
3
= 3. Portanto, Q(x) e semi positiva denida.
Tomando, como exemplo, o vetor x =
_
_
1
1
1
_
_
=Q(x) = 0.
Por outro lado, Q(y) = 0y
2
1
+ 3y
2
2
+ 3y
2
3
= y

y, onde x = Py =
y = P

x (P ortogonal). Portanto, y =
_
_
_
_
_
_
3

3
0
0
_
_
_
_
_
_
e segue que, Q(y) =
0 3 + 3 0
2
+ 3 0
2
= 0.
Naturalmente, dada a similaridade, Q(x) e Q(y) tem a mesma classi-
cacao.
Teorema 3.3.3: Se A
(n)
e real, simetrica e positiva denida, entao a forma
quadratica x

Ax pode ser escrita na forma similar mais simples:


Q(x) = Q(y) =
n

i=1
y
2
i
.
Seja Q(x) = x

Ax. Se A e p.d. = B nao singular, tal que A = BB

.
Seja a transforma cao y = B

x =x = B

1
y. Portanto,
Q(x) = y

B
1
AB

1
y = y

B
1
BB

1
y = y

y =
n

i=1
y
2
i
.
Exerccio 3.3.4: Seja a forma quadratica Q(x) = x

Ax, onde
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e =
_
_
5 0 0
0 2 0
0 0 2
_
_
.
66 Luna, J. G. & Esteves, E. M.
Assim,
1
= 5,
2
=
3
= 2 =A e p.d. =Q(x) e p.d.
Seja, como ilustra cao x =
_
_
1
1
1
_
_
=Q(x) = 15. Por outro lado,
B = C
1
D
1/2
=
_
_
_
_
_
_
1 0 0
1
3
1 0
1
3
1
4
1
_
_
_
_
_
_
_
_
_
_
_
_
3 0 0
0

6
3
0
0 0

10
2
_
_
_
_
_
_
=
_
_
_
_
_
_
3 0 0

3
3
2

6
3
0

3
3

6
6

10
2
_
_
_
_
_
_
.
Portanto,
y = B

x =
_
_
_
_
_
_
_
5

3
3
5

6
6

10
2
_
_
_
_
_
_
_
=Q(y) = 15.
Outra matriz B poderia ser
B = P
1/2
=
1
3
_
_

15 3

3

15 3

3

15 0 2

3
_
_
.
Nesse caso,
y = Bx =
_
_

15
0
0
_
_
e Q(y) = 15.
3.4 Derivadas de Formas Quadraticas
Em muitas situac oes e necessario as derivadas (parciais) de uma fun cao com
respeito as variaveis envolvidas. Por exemplo, considere a funcao das variaveis
reais x
1
, x
2
e x
3
, dada por
f(x
1
, x
2
, x
3
) = 6x
2
1
2x
1
x
2
+x
2
3
, < x
i
< i = 1, 2, 3. (3.1)
e suponha que e necessario obter as tres derivadas parciais
f(x)
x
1
,
f(x)
x
2
e
f(x)
x
3
.
Luna, J. G. & Esteves, D. M. 67
Desde que f(x) possa ser escrita como uma fun cao do vetor x, pode ser desejavel
expressar as tres derivadas parciais como um vetor. Denimos
f(x)
x
como
f(x)
x
=
_
_
_
_
_
_
_
f(x)
x1
f(x)
x2
f(x)
x3
_
_
_
_
_
_
_
e obtemos a expressao
f(x)
x
=
_
_
12x
1
2x
2
2x
1
2x
3
_
_
da equacao 3.1. E, isto nos conduz `a proxima denicao.
Denicao 3.4.1: Derivada de uma funcao em relacao a um vetor. Seja f(x)
uma funcao de n variaveis reais independentes x
1
, x
2
, , x
n
. A derivada
de f(x) com respeito ao vetor x, onde
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
,
e denotada por
f(x)
x
e e denida por
f(x)
x
=
_
_
_
_
_
_
_
_
_
_
_
_
f(x)
x1
f(x)
x2
.
.
.
f(x)
xn
_
_
_
_
_
_
_
_
_
_
_
_
Teorema 3.4.1: Seja (x) uma fun cao linear de n variaveis reais independentes
denida por (x) =

n
i=1
a
i
x
i
= a

x = x

a, onde a

=
_
a
1
a
2
a
n
_
e a
i
sao constantes quaisquer. Entao
(x)
x
= a.
Prova: Observe que o t-esimo elemento de (x)/x e, por deni cao, igual a
(x)/x
t
, que e claramente a
t
.
68 Luna, J. G. & Esteves, E. M.
Teorema 3.4.2: Seja Q(x) uma forma quadratica em n variaveis reais inde-
pendentes x
1
, x
2
, , x
n
denida por
Q(x) = x

Ax,
onde A = (a
ij
) e uma matriz n n simetrica de constantes reais. Entao,
Q(x)
x
= 2Ax.
Prova: Podemos escrever
Q(x) =
n

j=1
n

i=1
a
ij
x
i
x
j
,
O t-esimo elemento de Q(x)/x, e obviamente
Q(x)
x
t
=
n

j=1
a
tj
x
j
+
n

i=1
a
it
x
i
= 2
n

j=1
a
tj
x
j
= 2Ax
desde que A seja simetrica.
3.5 Valor Esperado e Matriz de Dispersao
Denicao 3.5.1: Dado um vetor x de variaveis aleatorias com funcao densi-
dade de probabilidade f(x
1
, , x
n
), denimos a esperan ca matematica
da funcao t(x
1
, , x
n
), como
E[t(x
1
, , x
n
)] =
_

t(x
1
, , x
n
)f(x
1
, , x
n
)dx
1
, , dx
n
(3.2)
desde que existam as integrais envolvidas.
Denicao 3.5.2: Seja
p
W
q
uma matriz na qual cada elemento e funcao de ve-
tores
n
x
1
, de variaveis aleatorias: W = (w
ij
), onde w
ij
= t
ij
(x
1
, , x
n
).
Entao a esperan ca matematica de W e igual a uma matriz
p
A
q
, tal que,
E[W] = A; onde A = (a
ij
) e a
ij
= E[t
ij
(x
i
, , x
n
)].
Em particular, se W =
_
_
_
_
_
x
11
x
12
x
1q
x
21
x
22
x
2q
.
.
.
.
.
.
.
.
.
.
.
.
x
p1
x
p2
x
pq
_
_
_
_
_
. Entao,
E[W] =
_
_
_
_
_
E(x
11
) E(x
12
) E(x
1q
)
E(x
21
) E(x
22
) E(x
2q
)
.
.
.
.
.
.
.
.
.
.
.
.
E(x
p1
) E(x
p2
) E(x
pq
)
_
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 69
Teorema 3.5.1: Sejam W e T matrizes de variaveis aleatorias e A
1
e A
2
matrizes de constantes reais. Entao se as dimensoes forem compatveis e
as integrais existirem, teremos
1. E(A
1
) = A
1
;
2. E(A
1
W) = A
1
E(W);
3. E(WA
2
) = E(W)A
2
;
4. E(A
1
WA
2
) = A
1
E(W)A
2
;
5. E(A
1
T +A
2
W) = A
1
E(T) +A
2
E(W).
Denicao 3.5.3: Se x e y forem vetores de variaveis aleatorias com E(x) e
E(y), dene-se a covariancia entre eles por:
Cov(x, y) = E{[x E(x)][y E(y)]

}.
Em particular, se x = y, temos a matriz de variancias e covariancias, ou
matriz de dispersao de x. Denotada por
V (x) =
_
_
_
_
_
V ar(x
1
) Cov(x
1
, x
2
) Cov(x
1
, x
n
)
Cov(x
1
, x
2
) V ar(x
2
) Cov(x
2
, x
n
)
.
.
.
.
.
.
.
.
.
.
.
.
Cov(x
1
, x
n
) Cov(x
2
, x
n
) V ar(x
n
)
_
_
_
_
_
.
Se A e uma matriz de constantes, entao
V [Ax] = AV (x)A

.
Teorema 3.5.2: Seja x um vetor de variaveis aleatorias com vetor de medias
e matriz de covariancia V , positiva denida. Seja tambem uma matriz
A, simetrica, de constantes reais. Entao,
E[x

Ax] = Tr(AV ) +

A. (3.3)
Exemplo 3.5.1 Suponha y = X + e, onde X tem dimensoes n k, y
N(X , I
2
) e seja P = XX
+
o projetor ortogonal de y em C(X), onde
X e n k e P e simetrica e idempotente. Entao:
(a)
E[y

Py] = Tr[PI
2
] +

PX
= Tr(P)
2
+

XX
+
X
= r(P)
2
+

X.
70 Luna, J. G. & Esteves, E. M.
Portanto,
E[y

Py] = r(X)
2
+

X.
(b)
E[y

(I P)y] = Tr[I P]
2
+

[I P]X
= r[I P]
2
+

PX
= (n k)
2
+

X.
Portanto,
E[y

(I P)y] = (n k)
2
.
Suponha que y = X + e seja caracterizado por y
ij
= +
i
+ e
ij
, com
i = 1, 2 e j = 1, 2. Neste caso,
_
_
_
_
y
11
y
12
y
21
y
22
_
_
_
_
=
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_

2
_
_
+
_
_
_
_
e
11
e
12
e
21
e
22
_
_
_
_
Entao:
P =
_
_
_
_
1/2 1/2 0 0
1/2 1/2 0 0
0 0 1/2 1/2
0 0 1/2 1/2
_
_
_
_
;
(I P) =
_
_
_
_
1/2 1/2 0 0
1/2 1/2 0 0
0 0 1/2 1/2
0 0 1/2 1/2
_
_
_
_
;
e

X =
_

1

2
_
_
_
4 2 2
2 2 0
2 0 2
_
_
_
_

2
_
_
= 4
2
+ 2

2
i
+ 4

i
.
Usando (a) podemos escrever:
E[y

Py] = 2
2
+ 4
2
+ 2

2
i
+ 4

i
Alem disso, sob certas condi coes, pode ser desejavel tomar

i

i
= 0. E,
neste caso, vamos ter:
E[y

Py] = 2
2
+ 4
2
+ 2

2
i
.
Luna, J. G. & Esteves, D. M. 71
Nos estudos de componentes da variancia e de interesse obter os seguintes
resultados:
E
_
1
r(X)
y

Py
_
=
1
r(X)
E[y

Py] =
2
+ 2
2
+

2
i
.
e
E
_
1
r(I P)
[y

(I P)y]
_
=
1
n k
E[y

(I P)y] =
2
.
Teorema 3.5.2: Seja y N
n
(,

) e y =
_
_
y
1

y
2
_
_
, onde y
1
e p 1, y
2
tem dimensao q 1 e p + q = n. Entao y
1
e y
2
sao estatsticamente
independentes se, e somente se, Cov(y
1
, y
2
) = (Seber, 1977 pag.32).
3.6 Distribuicao e Independencia Sob Normali-
dade
Denicao 3.6.1: Dado um vetor y de variaveis aleatorias com distribuicao
normal n-dimensional, entao:
1. Se y N
n
(, I
(n)
) =Z = y

y =

n
i=1
y
2
i

2
(n)
.
2. Se y N
n
(, I
(n)
) = Z = y

y =

n
i=1
y
2
i

2
(n, )
, onde
=
1
2
2

e o parametro de nao centralidade.


3. Se y N
n
(, V ) = By N
n
(B, BV B

). B tem posto
linha completo.
Teorema 3.6.1: Seja y N
n
(, I) e seja A
(n)
simetrica de posto k n.
Entao, uma condicao necessaria e suciente para que a variavel aleatoria
z = y

Ay tenha distribui cao de qui-quadrado central com k graus de


liberdade e que A
(n)
seja idempotente.
(SUF.)
A
(n)
idempotente
r(A) = k
_
=y

Ay
2
(k)
A
(n)
idempotente = P ortogonal tal que
P

AP =
_
I
(k)


_
= D.
Pois, a matriz idempotente A
(n)
de posto k n tem k raizes carac-
tersticas iguais a um e (n k) raizes nulas.
Seja z = P

y =y = Pz. Entao
72 Luna, J. G. & Esteves, E. M.
E[z] = P

E[y] = P

= .
V [z] = P

V [y]P = P

IP = P

P = I.
Logo,
z N
n
(, I).
Mas, y

Ay = z

APz = z

Dz =

k
i=1
z
2
i
. Portanto,
y

Ay
2
(k)
.
(NEC.) y

Ay
2
(k)
= A idempotente de posto k.
Do Teorema 3.3.2 sabemos que y

Ay =

k
i=1

i
z
2
i
, com z = P

y =y =
Pz e entao z N
n
(, I). Portanto,
y

Ay = z

APz = z

Dz =
k

i=1

i
z
2
i

2
(k)
,
onde D = diag{
1
, ,
k
} e
i
sao os autovalores nao nulos de A.
Por outro lado, a funcao geradora dos momentos de y

Ay, ca:
M
y

Ay
(t) = E
_
e
ty

Ay
_
= E
_
e
t

k
i=1
iz
2
i
_
= E
_
e
t1z
2
1
.e
t2z
2
2
. .e

k
z
2
k
_
e por independencia
= E
_
e
t1z
2
1
_
E
_
e
t2z
2
2
_
E
_
e
t
k
z
2
k
_
= M
z
2
1
(t
1
)M
z
2
2
(t
2
) M
z
2
k
(t
k
), que por hipotese
= (1 2t
1
)
1/2
(1 2t
2
)
1/2
(1 2t
k
)
1/2
= (1 2t)
k/2
,
que e a funcao geradora dos momentos de uma variavel aleatoria com
distribui cao de qui-quadrado com k graus de liberdade. Observe que este
resultado so se verica para A idempotente de posto k, onde
i
= 1 para
i = 1, 2, , k. Veja, por exemplo, Graybill, 1976, pg. 124.
Teorema 3.6.2: Seja y N
n
(, V ), V positiva denida e seja A
(n)
real e
simetrica de posto k. Entao, uma condicao necessaria e suciente para
que y

Ay tenha distribuicao de qui-quadrado com k graus de liberdade,


e que AV seja idempotente.
Consideracoes preliminares.
Luna, J. G. & Esteves, D. M. 73
(i) V positiva denida = B nao singular tal que V = BB

.
Fazendo z = B
1
y, teremos y = Bz =z = B
1
y, conseq uentemente,
E[z] = B
1
y = e
V [z] = (B
1
)V [y](B
1
)

= (B
1
)V (B
1
)

= (B
1
)BB

(B
1
)

= I.
Logo,
z N
n
(, I).
(ii) y

Ay = z

ABz.
Entao, pelo teorema anterior, uma condicao necessaria e suciente
para que z

ABz e, portanto, y

Ay, seja uma


2
(k)
e que B

AB
seja idempotente de posto k.
Mostremos que AV idempotente e condicao necessaria e suciente
para que B

AB seja idempotente.
(SUF.) AV idempotente = B

AB idempotente
AV idempotente = AV AV = AV
Pos-multiplicando por V
1
, teremos AV A = A ().
Por outro lado, B

ABB

AB = B

AV AB
()
= B

AB.
Entao AV idempotente = B

AB idempotente
(NEC.) B

AB idempotente = AV idempotente
B

AB idempotente = B

ABB

AB = B

AB.
Pre-multiplicando por (B
1
)

e pos-mult. por B
1
, vem
ABB

A = A, Portanto, AV A = A.
Pos-multiplicando por V , teremos AV AV = AV , e, portanto,
B

AB idempotente = AV idempotente
Entao, AV idempotente e condi cao necessaria e suciente para que
B

AB seja idempotente.
Alem disso, sendo A
(n)
de posto k e sendo V nao singular, pois V e
positiva denida, entao r[AV ] = r[A] = k. Portanto,
y

Ay
2
(k)
AV e idempotente.
74 Luna, J. G. & Esteves, E. M.
Teorema 3.6.3: Dado um vetor y N
n
(, V ) e A
(n)
real e simetrica
de posto k, uma condicao necessaria e suciente para que y

Ay

2
(k , )
, onde =
1
2
2

A, e que AV seja idempotente.


Teorema 3.6.4: Dado um vetor y N
n
(, I
2
) e uma matriz A
(n)
real e simetrica de posto k, uma condicao necessaria e suciente para
que
1

2
(y )

A(y )
2
(k)
,e que A seja idempotente.
Seja z =
1

(y ). Entao teremos:
E[z] =
1

E[y ] = , e
V [z] =
1

2
V [y ] =
1

2
I
2
= I.
Logo,
z N
n
(, I).
Por teorema anterior, z

Az
2
(k)
A for idempotente.
Mas z

Az =
1

2
(y )

A(y )
2
(k)
A for idempotente.
Teorema 3.6.5: Se y N
n
(, V ), A
(n)
e real e simetrica de posto k e
q
B
n
real de posto linha completo. Entao:
(i) E[y

Ay] = Tr(AV ) +

A,(mesmo y nao sendo normal);


(ii) Cov[By , y

Ay] = 2BV A;
(iii) Cov[By , Ay] = BV A.
Teorema 3.6.6: Se y N
n
(, V ) e A
(n)
e real e simetrica, entao
uma condicao necessaria e suciente para que a forma linear By
e a forma quadratica y

Ay sejam independentemente distribuda e


que BV A = .
(SUF.) BV A = = By e y

Ay independentes
Seja BV A = . Pos-multiplicando por 2 = 2BV A = .
Entao, do item (ii) do teorema anterior, Cov(By , y

Ay) = . Por-
tanto, sob normalidade, By e y

Ay sao independentes.
(NEC.) By e y

Ay independentes =BV A = .
By e y

Ay indep. = 2BV A = = BV A = , .
Teorema 3.6.7: Seja y N
n
(, V ) e sejam A
(n)
e B
(n)
matrizes reais
e simetricas. Entao uma condicao necessaria e suciente para que
y

Ay e y

By seja independentemente distribuda e que AV B =


(ou de modo equivalente BV A = ).
Luna, J. G. & Esteves, D. M. 75
Exerccio 3.6.1: Seja y N
n
(X , I
2
) e sejam as formas quadraticas
y

Py

2
e
y

(I P)y

2
, onde P = X(X

X)

= XX
+
.
Entao, as formas quadraticas
y

Py

2
e
y

(IP)y

2
sao independentes.
Pois,
P(I P) = XX
+
(I XX
+
) = XX
+
XX
+
XX
+
= .
De modo analogo, teremos (I P)P = .
Alem disso, sendo P e (I P) matrizes simetricas e idempotentes
com r(P) = r(XX
+
) = r(X) e r(I P) = n r(X), temos duas
formas quadraticas com distribui cao de qui-quadrado. Isto e,
y

Py

2

2
[r(X) , 1]
e
y

(I P)y

2

2
[nr(X) , 2]
,
cujos parametros de nao centralidade sao:

1
=
1
2
2

XX
+
X =
1
2
2

X.
e

2
=
1
2
2

(I XX
+
)X = .
Portanto,
y

Py

2

2
[r(X) ,
1
2
2

X]
, nao central
e
y

(I P)y

2

2
[n(X)]
, central.
E, conforme ja vimos, sao independentes. Pois, P(I P) = .
Teorema 3.6.8: Teorema de Fisher-Cochran - Seja o vetor de variaveis
aleatorias y distribudo como y N
n
(, I
2
) e seja y

Iy = y

y =

p
i=1
y

A
i
y. Entao, uma condicao necessaria e suciente para que
y

A
i
y

2

[r(Ai) , i]
, onde
i
=
1
2
2

A
i

e para que
y

A
i
y e y

A
i
y, i = i

, i, i

= 1, 2, , p sejam independentes,
e que r
_
p

i=1
A
i
_
=
p

i=1
r(A
i
).
Ou seja, sendo r(I
(n)
) = n, deveremos ter
p

i=1
r(A
i
) = n.
76 Luna, J. G. & Esteves, E. M.
Exerccio 3.6.2: Note que o exerccio anterior pode ser resolvido atraves
do teorema de Fisher - Cochran. Basta notar que
I = P + (I P).
Suponha, a ttulo de ilustra cao, que os elementos envolvidos sejam:
n
y
1
, I
(n)
, e
n
X
p
, com r(X) = k n.
Assim, teremos
r(I
(n)
) = n, r(P) = k e r(I P) = n k.
Portanto,
r(I
(n)
) = r(P) +r(I P).
E, assim, teremos diretamente
y

Py

2

2
[k , ]
, =
1
2
2

X
e
y

(I P)y

2

2
[nk]
e sao independentemente distribudas. Pois,
P(I P) = P P = .
Teorema 3.6.9: Sejam as variaveis aleatorias: Z, W, V e U, indepen-
dentemente distribudas, como:
Z N
n
(, I), W
2
[k]
, V
2
[r]
e U
2
[p, ]
.
Entao:
i)
Z
_
W
k
t
(k)
, ii)
Z
_
V
r
t
(r)
, iii)
W/k
V/r
F
[k, r]
,
iv)
U/p
W/k
F
[p, k, ]
e v)
U/p
V/r
F
[p, r, ]
.
onde e o parametro de nao centralidade.
Luna, J. G. & Esteves, D. M. 77
Lista de Exerccios # 4
4.1 Dadas as matrizes:
A =
_
_
3 1 1
1 3 1
1 1 3
_
_
e B =
_
_
3 1 1
1 3 1
1 1 3
_
_
.
4.1.1 Forne ca para cada uma delas, uma matriz diagonal congruente;
4.1.2 De suas classica coes;
4.1.3 Encontre matrizes T
1
e T
2
, tais que A = T
1
T

1
e B = T
2
T

2
;
4.1.4 Verique se r(A) = r(T
1
) e se r(B) = r(T
2
);
4.1.5 Encontre os autovalores de A e de B;
4.2 Dada a matriz X =
_
_
_
_
_
_
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_
, obtenha:
4.2.1 P, onde P = X(X

X)

= XX

= XX
+
;
4.2.2 A =
1
5
E, onde E e uma matriz quadrada de uns com dimensao 5;
4.2.3 P A;
4.2.4 I P;
4.2.5 Verique numericamente que A, P, P A e I P sao simetricas
e idempotentes.
4.3 Suponha que y N(X , I
2
), onde

= (
1

2
), com 3
1
+ 2
2
= 0.
(Use este fato para simplicacoes futuras) e de a distribuicao das formas
quadraticas:
4.3.1 Q
1
=
1

2
y

Ay;
4.3.2 Q
2
=
1

2
y

(P A)y;
4.3.3 Q
3
=
1

2
y

Py;
4.3.4 Q
4
=
1

2
y

y =
1

2
y

Iy;
4.3.5 Q
5
=
1

2
y

(I P)y;
4.3.6 Verique a independencia entre as formas quadraticas do numer-
ador e do denominador em 4.3.7 e 4.3.8.
4.3.7 F
1
=
_
1

2
y

(PA)y
r(X)1
_
/
_
1

2
y

(IP)y
nr(X)
_
, com n = 5;
78 Luna, J. G. & Esteves, E. M.
4.3.8 F
2
=
_
1

2
y

Py
r(X)
_
/
_
1

2
y

(IP)y
nr(X)
_
.
4.4 Suponha que y

= (5 6 4 10 12). Determine os valores numericos das forma


quadraticas:
Q
1
= y

Ay; Q
2
= y

(P A)y; Q
3
= y

Py;
Q
4
= y

(I P)y e Q
5
= y

Iy.
4.5 Verique numericamente que
Q
1
+Q
2
= Q
3
; Q
1
+Q
2
+Q
4
= Q
5
e Q
3
+Q
4
= Q
5
.
4.6 Utilizando os dados do item 4.4, preencha com valores numericos a seguinte
tabela:
F. Variacao G.L. S.Q. Q.M. F
Media 1 Q
1
= - -
Tratamento r(X) 1 = Q
2
= a =
Q2
r(X)1
=
a
c
=
parametros r(X) = Q
3
= b =
Q3
r(X)
=
b
c
=
Resduo n r(X) = Q
4
= c =
Q4
nr(X)
= -
Total n = Q
5
= - -
4.7 Aplique o teorema de Fisher Cochran a tabela do item 4.6.
4.8 Usando o teorema adequado prove cada resultado (apenas das colunas das
esperan cas matematicas) do quadro seguinte:
F. Variacao GL SQ E[SQ] E[QM]
Media 1 Q
1

2
+ 5
2

2
+ 5
2
Tratamento 1 Q
2

2
+ 3
2
1
+ 2
2
2

2
+
3
2
1
+2
2
2
1
parametros 2 Q
3
2
2
+ 5
2
+ 3
2
1
+ 2
2
2

2
+
5
2
+3
2
1
+2
2
2
2
Resduo 3 Q
4
3
2

2
Total 5 Q
5
5
2
+ 5
2
+ 3
2
1
+ 2
2
2
-
Luna, J. G. & Esteves, D. M. 79
OBS.: Proceda `as simplicacoes propostas em 4.3.
4.9 Aplique o Teorema 3.3.2 `as formas quadraticas Q
1
a Q
5
do item 4.4 (use
computador para encontrar as raizes caractersticas dos n ucleos das formas
quadraticas correspondentes).
80 Luna, J. G. & Esteves, E. M.
Captulo 4
Introducao aos Modelos
Lineares
4.1 Generalidades
Estudaremos neste captulo alguns dos aspectos fundamentais na teoria dos
modelos lineares, no que se refere `as equa coes normais, estimacao e teste de
hipoteses sobre parametros. Tendo em vista os objetivos iniciais da simplicidade
na apresenta cao e da comparacao, sempre que possvel, dos resultados aqui
obtidos com aqueles que constam nos textos classicos de Estatstica Experi-
mental, estaremos usando como exemplo um modelo para experimentos com
um fator inteiramente casualizado. Sem d uvida, essa compara cao sera bastante
facilitada atraves do conceito de restri cao nao estimavel nas solucoes.
Aqui, nao abordaremos o uso e as conseq uencias da imposi cao de restri-
coes estimaveis aos parametros. Os interessados poderao buscar informacoes
nos textos, devidos a CARVALHO (1984), DACHS e CARVALHO (1984) e
SEARLE (1984), entre outros.
4.2 Localizacao do Problema Fundamental
Seja y uma variavel que deve ser explicada atraves de um conjunto de fatores
x
1
, x
2
, , x
d
. Isto e,
y = f(x
1
, x
2
, , x
d
, e) = f(x, e)
onde e representa um conjunto provavelmente grande de outros fatores nao
considerados e que denominaremos de erro ou resduo.
81
82 Luna, J. G. & Esteves, E. M.
De certo modo, nosso problema resume-se no fato de encontrarmos uma
funcao f(x, ) que aproxime convenientemente y, como ja o zemos anterior-
mente. Aqui, consideraremos apenas as fun coes que sao lineares nos parametros
(componentes do vetor ). Assim, sao lineares nos parametros:
y =
1
+
2
x
2
+
3
x
3
+e, y =
0
+
1
log x
1
+e, etc.
Nao sao lineares nos parametros:
y =
0

1
+x
2
2
+
3
x
3
+e, y =
1
x
1
+
2
2
x
2
+e, etc.
Nesse contexto, uma funcao linear nos parametros que se presta para apro-
ximar um vetor y, de observacoes, e um modelo linear.
OBS.1: Os modelos lineares sao classicados de acordo com as variaveis que
descrevem os fatores sejam qualitativos , quantitativos ou ambas. Maiores
detalhes podem ser visto, por exemplo, em GRYBILL(1961, p. 103 e
seguintes). Aqui, abordaremos apenas os modelos para delineamentos
experimentais, que o referido autor classica como modelo 4.
OBS.2 Usaremos neste captulo, a norma euclideana para calcularmos a fun cao
distancia. Onde procuramos uma funcao d[y, f(x, )] que seja mnima.
4.3 O Modelo Linear
Nesta secao deniremos o modelo linear geral e apresentaremos algunas ca-
racterizacoes comumente encontradas na solu cao de problemas praticos.
4.3.1 Dencao e Exemplos
Denicao 4.3.1: Sejam, sobre o corpo dos reais:
n
y
1
, um vetor de observa coes;
n
X
p
, uma matriz de constantes conhecidas, de posto k min{n, p};
p

1
, um vetor de elementos desconhecidos, que chamaremos vetor de parame-
tros e que desejamos estima-los;
n
e
1
, um vetor de elementos desconhecidos que chamaremos vetor dos erros sem
nenhuma pressuposicao adicional.
Luna, J. G. & Esteves, D. M. 83
Entao,
y = X +e (4.1)
e denido como um modelo linear.
Naturalmente, de acordo com o interesse, o modelo linear podera assumir
diferentes caracteriza coes, como por exemplo:
(a) y
i
=
0
+
1
X
i
+e
i
Regresso linear simples,
(b) y
i
=
0
+
1
X
1i
+
2
X
2i
+ +
k
X
ki
+e
i
Regresso linear m ultipla,
(c) y
ij
= +
i
+e
ij
Experimento inteiramente ao acaso,
(d) y
ij
= +
i
+X
ij
+e
ij
Modelo para analise de covariancia,
(e) y
ij
= +
i
+
j
+e
ij
Experimento em blocos ao acaso,
(f ) y
ikj
= +
i
+
k
+
ik
+e
ikj
Fatorial AB inteiramente ao acaso.
Considerando i = 1, 2, , n para os itens (a), (b) e i = 1, 2; j = 1, 2, 3; k =
1, 2 para o item (f), as caracterizacoes poderao ser escritas, conforme o modelo
(4.1), do seguinte modo:
(a)
_

_
y
1
y
2
.
.
.
y
n
_

_
=
_

_
1 x
1
1 x
2
.
.
.
.
.
.
1 x
n
_

_
_

0

1
_
+
_

_
e
1
e
2
.
.
.
e
n
_

_
,
(b)
_

_
y
1
y
2
.
.
.
y
n
_

_
=
_

_
1 x
11
x
21
x
k1
1 x
12
x
22
x
k2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
1n
x
2n
x
kn
_

_
_

2
.
.
.

k
_

_
+
_

_
e
1
e
2
.
.
.
e
n
_

_
,
(c)
_

_
y
11
y
12
y
13
y
21
y
22
y
23
_

_
=
_

_
1 1 0
1 1 0
1 1 0
1 0 1
1 0 1
1 0 1
_

_
_
_

2
_
_
+
_

_
e
11
e
12
e
13
e
21
e
22
e
23
_

_
,
(d)
_

_
y
11
y
12
y
13
y
21
y
22
y
23
_

_
=
_

_
1 1 0 x
11
1 1 0 x
12
1 1 0 x
13
1 0 1 x
21
1 0 1 x
22
1 0 1 x
23
_

_
_

_
+
_

_
e
11
e
12
e
13
e
21
e
22
e
23
_

_
,
84 Luna, J. G. & Esteves, E. M.
(e)
_

_
y
11
y
12
y
13
y
21
y
22
y
23
_

_
=
_

_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_

_
_

3
_

_
+
_

_
e
11
e
12
e
13
e
21
e
22
e
23
_

_
,
(f )
_

_
y
111
y
112
y
113
y
121
y
122
y
123
y
211
y
212
y
213
y
221
y
222
y
223
_

_
=
_

_
1 1 0 1 0 1 0 0 0
1 1 0 1 0 1 0 0 0
1 1 0 1 0 1 0 0 0
1 1 0 0 1 0 1 0 0
1 1 0 0 1 0 1 0 0
1 1 0 0 1 0 1 0 0
1 0 1 1 0 0 0 1 0
1 0 1 1 0 0 0 1 0
1 0 1 1 0 0 0 1 0
1 0 1 0 1 0 0 0 1
1 0 1 0 1 0 0 0 1
1 0 1 0 1 0 0 0 1
_

_
_

11

12

21

22
_

_
+
_

_
e
111
e
112
e
113
e
121
e
122
e
123
e
211
e
212
e
213
e
221
e
222
e
223
_

_
.
Sendo y um vetor de observa coes e se o nosso objetivo e encontrar para
alguma caracterizacao de y = X+e, a melhor aproxima cao y, para y, entao o
problema resume-se em encontrarmos para essas caracteriza coes, um vetor
o
tal
que a distancia entre y e y seja a menor possvel. Mas isso nos ja sabemos fazer
desde o captulo 2, pois qualquer
o
solucao das Equa coes Normais, minimiza
essa distancia.
Assim, para o modelo (c), o sistema de equacoes normais, X

X
o
= X

y,
ca:
_
_
6 3 3
3 3 0
3 0 3
_
_
_
_

2
_
_
=
_
_
y
..
y
1.
y
2.
_
_
Escolhendo a inversa condicional mais simples, teremos uma solu cao de
mnimos quadrados. Isto e,
o
= X

y = (X

X)

y, entao,
_
_

o
1

o
2
_
_
=
_
_
0 0 0
0 1/3 0
0 0 1/3
_
_
_
_
y
..
y
1.
y
2.
_
_
=
_
_
0
y
1.
y
2.
_
_
E, conforme ja vimos, como X

X tem posto incompleto, uma solucao qual-


quer
o
nao tem valor por si so, mas sim atraves de X. Pois como ja sabemos
y = X
o
e a aproxima cao de mnimos quadrados para o vetor y das equacoes
normais. Alem disso, sabemos que o vetor dos erros e = y y e ortogonal ao
espaco coluna de X ou espa co dos parametros. Ademais P = XX
+
= XX

=
X(X

X)

, unico para cada X, e o projetor ortogonal de y em C(X) e o


Luna, J. G. & Esteves, D. M. 85
vetor projetado ortogonalmente e exatamente y = X
o
= Py, a aproximacao
de mnimos quadrados para y.
Usando o teorema de Pitagoras, podemos ver que o vetor y se decompoe na
soma de dois vetores pertencentes a subespa cos ortogonais entre si: o vetor y
do subespa co dos parametros, C(X), e o vetor e, o subespaco dos resduos. Isto
e,
y
2
= y
2
+ e
2
Note que ate o momento nao impuzemos nenhuma estrutura ao vetor de
erros. O modelo em questao sera bastante util e suciente para grande parte
do estudo a que nos propomos neste curso. No entanto, em problemas praticos
ocorre o fato de que dados experimentais podem ser, em geral, melhor descritos
atraves de variaveis aleatorias. Para bem interpretar esse fato, pense no seguinte
experimento: Plantar uma muda de tomateiro em um vaso e medir sua altura
apos 20 dias. Ora, e bem sabido que se esse experimento for repetido, digamos
dez vezes, as alturas das plantas serao, em geral, diferentes mesmo que sejam
mantidas todas as condi coes experimentais do primeiro vaso, por exemplo: se-
mentes geneticamente semelhantes, mesmo solo, mesmos tratos culturais, etc.

E facil intuir que o conceito de variavel aleatoria esta aqui embutido. Nesse
contexto, torna-se desejavel ligar essas ideias ao modelo.
4.3.2 O Modelo Linear de Gauss-Markov (G.M.)
Denicao 4.3.2: O modelo
y = X +e (4.2)
onde,
y e um vetor de realizacoes de variaveis aleatorias de dimensoes n 1,
X e uma matriz de constantes conhecidas de dimensoes n p, de posto k
min{n, p},
e um vetor de parametros desconhecidos de dimensoes p 1, que desejamos
estima-lo,
e e um vetor de componentes nao observaveis e aleatorios de dimensoes n 1
com media e variancia I
2
. Quando o modelo apresenta essa estrutura
para o erro, o mesmo sera denido como Modelo Linear Ordinario de
Gauss-Markov.
86 Luna, J. G. & Esteves, E. M.
FATOS:
(i) De acordo com as deni coes dos termos no modelo (4.2), teremos por con-
seq uencia que: E[y] = E[X +e] = X, V ar[y] = V ar[X +e] = I
2
.
Alem disso, o S.E.N. e dado por:
X

X = X

y
e a solu cao de mnimos quadrados ordinaria e:

o
=
_
X

X
_

y;
(ii) A matriz de covariancias dos erros pode assumir caracteriza coes mais com-
plexas do que simplesmente I
2
. Se V ar[e] e diagonal diferente de I
2
,
as demais pressuposi coes permanecem inalteradas, isto e, se E[e] = e
V ar[e] = D
2
, entao o modelo e conhecido na literatura como Modelo
Linear Ponderado de Gauss Markov. Nesse caso o S.E.N. ca:
X

D
1
X = X

D
1
y
e a solu cao de mnimos quadrados ponderada e dada por:

o
=
_
X

D
1
X
_

D
1
y;
(iii) Se a matriz de covariancias tem estrutura mais geral que as formas diago-
nais anteriores, isto e, se E[e] = e V [e] =
2
, entao o modelo e referido
como Modelo Linear Generalizado de Gauss-Markov. E, o S.E.N. e dado
por:
X

1
X = X

1
y
e uma solu cao de mnimos quadrados generalizada e dada por:

o
=
_
X

1
X
_

1
y.
(iv) No momento em que formos desenvolver o item sobre inferencia estatstica,
mais especicamente a estima cao por intervalo, por regiao e testes de
hipoteses sera necessario associar uma distribuicao de probabilidade aos
erros.
Denicao 4.3.3: Quando associamos a distribui cao normal ao erro e, do mo-
delo y = X+e denido em (4.2) teremos o modelo conhecido por Modelo
Linear de Gauss Markov Normal (G.M.N.). Assim, teremos:
Luna, J. G. & Esteves, D. M. 87
y = X +e, (G.M.N) =
_

_
e N
n
(, I
2
) Ordin ario
e N
n
(, D
2
) Ponderado
e N
n
(,
2
) Generalizado.
Observacao: Neste contexto, sempre que mensionarmos o modelo linear de
Gauss-Markov, estaremos supondo o modelo ordinario, caso contrario,
comentaremos o fato.
4.3.3 Um Exemplo Hipotetico
Para efeito de sedimenta cao dos conceitos, tomaremos como exemplo, o mo-
delo associado a um experimento com um fator inteiramente casualizado. Isto
e, y = X +e, caracterizado por: y
ij
= +
i
+e
ij
.
Exemplo: Consideraremos um ensaio hipotetico de complementacao alimen-
tar para engorda de suinos, instalado num delineamento inteiramente ao
acaso. No qual foram considerados os seguintes tratamentos: T
1
: Ureia,
T
2
:

Oleo vegetal a 1% e T
3
:

Oleo vegetal a 2%. Os resultados relativos ao
ganho de peso(em kg) por animal, apos 30 dias, encontram-se na Tabela
4.1.
Tabela 4.1: Dados hipoteticos de um ensaio inteiramente casualizado.
Tratamento
Leitao T
1
T
2
T
3
1 y
11
= 5, 0 y
21
= 6, 0 y
31
= 9, 0
2 y
12
= 4, 0 y
22
= 7, 0 y
32
= 8, 0
3 y
13
= 3, 0 y
23
= 8, 0 y
33
= 10, 0
4 y
14
= 4, 0 - -
Total y
1.
= 16, 0 y
2.
= 21, 0 y
3.
= 27, 0
Media y
1
= 4, 0 y
2
= 7, 0 y
3
= 9, 0
Variancia s
2
1
= 2/3 s
2
2
= 1, 0 s
2
3
= 1, 0
Seja o modelo y = X +e, G.M. caracterizado por: y
ij
= +
i
+e
ij
. Ao
adotarmos este modelo, estamos supondo que:
(i) Cada observacao pode ser explicada atraves de uma adicao (modelo aditivo)
de dois componentes: um xo, +
i
=
i
e um aleatorio e
ij
;
88 Luna, J. G. & Esteves, E. M.
Figura 4.1: Gracos de y
1
N(4, 1), y
2
N(7, 1) e y
3
N(9, 1)
(ii) Desde que E[e
ij
] = 0 = E[y
ij
] = +
i
=
i
;
(iii) Como
i
e constante para cada i, entao V [y
ij
] = V [e
ij
] =
2
.
De fato, y = X + e (G.M). = E[y] = X e V [y] = I
2
, que
mostra tambem, atraves de I
2
, que os erros sao independentes. Isto
e, E[e
ij
e
i

j
] = E[e
ij
]E[e
i

j
] = 0, para i = i

ou j = j

. Sendo e
ij
independentes, entao os y
ij
tambem o sao.
(iv) Entao, as observacoes y
ij
sao independentemente distribudas e sao tais
que y
ij
N(
i
,
2
) ou y N
n
(X , I
2
).
A Figura 4.1 representa o comportamento probabilstico de tres populacoes
normais independentes com medias
1
= 4,
2
= 7 e
3
= 9 e variancia comum

2
= 1.
Obs.: A analise dos resduos, a qual nao sera abordada aqui, fornece um con-
junto de tecnicas para vericar se as suposicoes acerca do modelo adotado
estao coerentes com o conjunto de dados em estudo.
Associando o modelo y = X + e caracterizado por y
ij
= +
i
+ e
ij
`as
observacoes obtidas no experimento, podemos escrever:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
11
y
12
y
13
y
14
y
21
y
22
y
23
y
31
y
32
y
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5, 0
4, 0
3, 0
4, 0
6, 0
7, 0
8, 0
9, 0
8, 0
10, 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 1 0 0
1 1 0 0
1 1 0 0
1 1 0 0
1 0 1 0
1 0 1 0
1 0 1 0
1 0 0 1
1 0 0 1
1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

3
_
_
_
_
+
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
e
11
e
12
e
13
e
14
e
21
e
22
e
23
e
31
e
32
e
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4.3.4 O Sistema de Equacoes Normais (S.E.N.)
Ja sabemos que a aproxima cao de mnimos quadrados para y e dada por
y = Py = X
o
, onde
o
e qualquer solucao do sistema de equa coes normais,
independentemente da distribuicao de probabilidade associada ao erro e
ij
. As-
sim, para os dados experimentais aqui considerados, temos o seguinte S.E.N.
Luna, J. G. & Esteves, D. M. 89
X

X
o
= X

y:
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
_
_
_
_

o
1

o
2

o
3
_
_
_
_
=
_
_
_
_
64
16
21
27
_
_
_
_
Observe que, para o modelo aqui considerado, o S.E.N pode ser escrito generi-
camente, do seguinte modo:
_
_
_
_
_
_
_
n r
1
r
2
r
k
r
1
r
1
0 0
r
2
0 r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
r
k
0 0 r
k
_
_
_
_
_
_
_
_
_
_
_
_
_
_

o
1

o
2
.
.
.

o
k
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
y
..
y
1.
y
2.
.
.
.
y
k.
_
_
_
_
_
_
_
onde,
n =

k
i=1
r
i
, e o n umero total de observacoes;
r
i
e o n umero de repeticoes do tratamento i, i = 1, , k;
y
..
e o total geral;
y
i.
e o total das observa coes no tratamento i.
Uma solucao do S.E.N. pode ser obtida, de modo generico, por
o
= (X

X)

y.
E, considerando a inversa generalizada mais simples, teremos:
_
_
_
_
_
_
_

o
1

o
2
.
.
.

o
k
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0 0 0 0
0 1/r
1
0 0
0 0 1/r
2
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1/r
k
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
..
y
1.
y
2.
.
.
.
y
k.
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
0
y
1
y
2
.
.
.
y
k
_
_
_
_
_
_
_
.
Para os dados do exemplo, temos:

o
=
_
_
_
_

o
1

o
2

o
3
_
_
_
_
=
_
_
_
_
0
y
1
y
2
y
3
_
_
_
_
=
_
_
_
_
0
4, 0
7, 0
9, 0
_
_
_
_
e y = X
o
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
90 Luna, J. G. & Esteves, E. M.
Isto e, y
ij
= y
i
.
No exemplo em questao, a solucao
o
, para e obtida facilmente (em outros
modelos isto nem sempre ocorre). Veremos, em momento oportuno, que se a
matriz X nao tem posto coluna completo, entao
o
nao e um estimador nao
viciado para , e sim, para funcoes dos componentes de .
Luna, J. G. & Esteves, D. M. 91
4.4 Estimacao em Modelos Lineares
O sistema de equa coes normais (S.E.N.) apresenta propriedades importantes.
Dentre elas destacam-se aquelas sobre proje cao e invariancia. Estudaremos
agora, algumas ideias sobre a solu cao das equacoes normais, ja sabidamente
consistente, visando introduzir o conceito de estimacao por ponto no modelo
linear de Gauss-Markov.
Dado o modelo y = X + e (G.M.), se X tem posto coluna completo,
como em geral ocorre nos problemas de regressao, a menos da existencia de
colinearidade, entao X

X e positiva denida e portanto nao singular. Nesse


caso a sulu cao unica do sistema e dada por:

= (X

X)
1
Xy.
Alem disso,

e um estimador nao viciado para . Ou seja,
E[

] = E[(X

X)
1
X

y] = (X

X)
1
X

E[y] = (X

X)
1
X

X = .
Assim, podemos dizer que se X tem posto coluna completo, a solu cao unica
de mnimos quadrados

e o estimador de mnimos quadrados para .
Por outro lado, a matriz de dispersao de

pode ser obtida como:
V [

] = V [(X

X)
1
X

y] = (X

X)
1
X

V [y]X(X

X)
1
= (X

X)
1
X

I
2
X(X

X)
1
= (X

X)
1

2
.
Observe que sendo X

X simetrica, sua inversa unica (X

X)
1
tambem o e.
Se, no entanto, X nao tem posto coluna completo, como normalmente ocorre
nos delineamentos experimentais, a menos que sejam impostas restricoes ou
reparametrizacoes, Entao nao existe (X

X)
1
e o S.E.N. e indeterminado.
Dentre as possveis solucoes, temos:

o
= X

y = (X

X)

y,
o
= X
+
y, etc.
Nesses casos
o
nao e um estimador nao viciado para . Pois,
E[
o
] = E[(X

X)

y] = (X

X)

E[y] = (X

X)

X = H,
Onde, H = (X

X)

X e uma forma escalonada. Mais tarde veremos que


as funcoes determinadas por H serao chamadas de funcoes parametricas es-
timaveis. Existem outras.
Dessa forma, a menos de condicoes especiais, como por exemplo, em certos
casos de restricao parametrica e/ou reparametriza cao, os componentes do vetro
92 Luna, J. G. & Esteves, E. M.
nao sao individualmente estimaveis. Ou seja, se X nao tem posto culuna
completo, entao a solucao
o
nao tem valor por si so, mas sim atraves de X.
Pois, X
o
= y = Py e, conforme ja vimos, invariante para qualquer
o
solucao
das equacoes normais.
No exemplo em questao, tomando a inversa condicional mais simples, isto e:
(X

X)

1
=
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
,
temos
H
1
= (X

X)

1
(X

X) =
_
_
_
_
0 0 0 0
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
_
_

3
_
_
_
_
=
_
_
_
_
0
+
1
+
2
+
3
_
_
_
_
.
Se considerarmos outra inversa condicional de X

X, digamos:
(X

X)

2
=
1
3
_
_
_
_
1 1 1 0
1 7/4 1 0
1 1 2 0
0 0 0 0
_
_
_
_
,
teremos,
H
2
= (X

X)

2
(X

X) =
_
_
_
_
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
_
_
_
_
_
_
_
_

3
_
_
_
_
=
1
3
_
_
_
_
+
3

3
0
_
_
_
_
Observe que para cada H temos aparentemente um novo conjunto de fun coes
estimaveis. Na verdade os elementos de um conjunto podem ser obtidos como
combinacoes lineares do outro.
Note que no modelo em questao, E[y
ij
] = +
i
. E, portanto, +
i
e
estimavel. Esses resultados estao em H. Tambem o primeiro elemento de
H
2
e do tipo +
i
. Alem disso, os outros dois elementos nao nulos de H
2

sao,
( +
1
) ( +
3
) =
1

3
( +
2
) ( +
3
) =
2

3
.
Naturalmente existem outras funcoes nesse modelo que sao estimaveis.
Formalizaremos agora, algumas ideias basicas sobre estimacao em modelos
lineares.
Luna, J. G. & Esteves, D. M. 93
Denicao 4.4.1: (RAO, 1945) - Uma funcao linear parametrica do tipo

,
e dita estimavel no modelo linear y = X + e (G.M.) se, e somente se,
existir uma combinacao linear das observacoes, a

y,tal que E[a

y] =

.
FATO: Essa denicao sera muito util em demonstracoes, como veremos poste-
riormente, no entanto do ponto de vista pratico, ela e pouco operacional,
pois depende da dimensao do vetor y das observa coes.
Exemplo 4.4.1 Consideremos a fun cao parametrica

=
_
1 1 0 0
_
_
_
_
_

3
_
_
_
_
= +
1
.
Estudemos a sua estimabilidade, empregando a deni cao.
E[a

y] =

=a

X =

=a

X =

=X

a = .
Assim,
_
_
_
_
1 1 1 1 1 1 1 1 1 1
1 1 1 1 0 0 0 0 0 0
0 0 0 0 1 1 1 0 0 0
0 0 0 0 0 0 0 1 1 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
a
2
a
3
a
4
a
5
a
6
a
7
a
8
a
9
a
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
1
1
0
0
_
_
_
_
ou _

_
a
1
+a
2
+a
3
+a
4
+a
5
+a
6
+a
7
+a
8
+a
9
+a
10
= 1
a
1
+a
2
+a
3
+a
4
= 1
a
5
+a
6
+a
7
= 0
a
8
+a
9
+a
10
= 0
Observe que os vetores, a
1
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
1
1
1
2
2
0
1
1
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
e a
2
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1/4
1/4
1/4
1/4
0
0
0
0
0
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, sao tais que
E[a

1
y] = a

1
E[y] = a

1
X = a

2
X =

= +
1
94 Luna, J. G. & Esteves, E. M.
e existem outros vetores com esta caracterstica.
Note que
a

1
y =
_
4 1 1 1 2 2 0 1 1 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
11
y
12
y
13
y
14
y
11
y
22
y
23
y
31
y
32
y
33
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= 4y
11
(y
12
+y
13
+y
14
) + 2(y
21
y
22
) + (y
31
y
32
).
Alem disso, sendo a

X =
_
1 1 0 0
_
, tem-se
E[a

1
y] = a

1
X =
_
1 1 0 0
_
_
_
_
_

3
_
_
_
_
= +
1
=

.
De modo analogo, verica-se que
a

2
y = y
1.
e E[a

2
y] = a

2
X = +
1
=

.
Dessa forma, temos:
(a)

= +
1
e uma funcao parametrica estimavel;
(b) Dois dentre seus estimadores nao viesados sao:

= a

1
y = 4y
11
(y
12
+y
13
+y
14
) + 2(y
21
y
22
) + (y
31
y
32
)

= a

2
y =
1
4
(y
11
+y
12
+y
13
+y
14
) = y
1.
.
(c) Usando os dados observados no exemplo da sub-secao 4.3.3, duas dentre
suas estimativas nao viciadas, sao:

= a

1
y =
_
4 1 1 0
_
_
_
_
_
_
_
_
5
4
.
.
.
8
10
_
_
_
_
_
_
_
= 9, 0.

= a

2
y =
_
1/4 1/4 0 0
_
_
_
_
_
_
_
_
5
4
.
.
.
8
10
_
_
_
_
_
_
_
= 4, 0.
Luna, J. G. & Esteves, D. M. 95
Observe que existem muitos outros estimadores nao tendenciosos a

y de

= +
1
, basta escolher o vetor a, tal que X

a = . Veremos posteriormente
que apenas um deles sera o escolhido, por ser o melhor dentre todos.
Teorema 4.4.1: (RAO, 1945) - Uma condicao necessaria e suciente para que
a fun cao parametrica

seja estimavel no modelo y = X +e (G.M.) e


que C(X

).
(Suf.) C(X

) =

e estimavel.
C(X

) = a : X

a = =

= a

X,
Pos-multiplicando por =

= a

X =

= a

E[y] =

= E[a

y] =

estimavel.
(Nec.)

estimavel = C(X

).

estimavel =a : E[a

y] =

=a

X =

=
C(X

), .
Exemplo 4.4.2: Empregue o Teorema 4.4.1, para vericar se as funcoes

1
=
1
+
2
e

2
=
1

2
sao estimaveis no modelo linear de Gauss-
Markov y = X +e.
Vericando: Ora,
1
C(X

) se existir uma combina cao linear das colunas de


X

, tal que,
1
v
1
+
2
v
2
+ +
k
v
k
=
1
. Onde,
i
R (i = 1, 2, , k)
e v
i
(i = 1, 2, , k) sao vetores (colunas) linearmente independentes de
X

. Assim, teremos:

1
_
_
_
_
1
1
0
0
_
_
_
_
+
2
_
_
_
_
1
0
1
0
_
_
_
_
+
3
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
1
1
0
_
_
_
_
=
_

1
+
2
+
3
= 0

1
= 1

2
= 1

3
= 0
Como nao existem
i
, tal que,

3
i=1

i
v
i
=
1
, entao a funcao parametrica

1
nao e estimavel no modelo linear (G.M.).
Por outro lado, a funcao parametrica

2
=
1

2
e estimavel. Pois,

1
_
_
_
_
1
1
0
0
_
_
_
_
+
2
_
_
_
_
1
0
1
0
_
_
_
_
+
3
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
1
1
0
_
_
_
_
=
_

1
+
2
+
3
= 0

1
= 1

2
= 1

3
= 0
96 Luna, J. G. & Esteves, E. M.
Note que
1
= 1,
2
= 1 e
3
= 0 e solu cao do sistema de equacoes. Isto
e, existem
i
, tal que,

3
i=1

i
v
i
=
2
. Portanto, a fun cao parametrica

2
e
estimavel no modelo linear de Gauss-Markov.
Corolario 4.4.1: Cada condi cao dada a seguir e necessaria e suciente para
que

seja estimavel no modelo linear de Gauss-Markov.


(a) r[X

] = r[X

.
.
.],
(b) r[X

X] = r[X

X
.
.
.].
Observe a associacao entre os conceitos de estimabilidade e de consistencia
visto no Captulo 2.
Exemplo 4.4.3: Consideremos o exemplo hipotetico da sub-secao 4.3.3 e as
fun coes parametricas:

1
=
1
+
2
,

2
= +
1
e

3
=
1
+
2
2
3
.
Entao,
_
_
_
_
10 4 3 3 0 1 0
4 4 0 0 1 1 1
3 0 3 0 1 0 1
3 0 0 3 0 0 2
_
_
_
_

_
_
_
_
1 0 0 1
2
3
0
2
3
0 1 0 1
11
12
1
4
11
12
0 0 1 1 1 0 1
0 0 0 0 1 0 0
_
_
_
_
Desse modo, dentre as tres fun coes dadas, apenas

1
=
1
+
2
nao e estimavel,
nesse modelo.
Denicao 4.4.2: Dada a funcao parametrica

estimavel no modelo linear


de Gauss-Markov, entao o sistema consistente X

X = e denido como
sistema de equa coes normais associadas.
Observacao: O sistema de equacoes normais associadas (S.E.N.A.) preserva as
propriedades importantes do sistema de equacoes normais (S.E.N.), como
por exemplo, a invariancia de X
o
,
o
solucao do S.E.N.A.
Tomemos como exemplo o contraste

=
1

3
, ja sabidamente es-
timavel.
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
_
_
_
_

4
_
_
_
_
=
_
_
_
_
0
1
0
1
_
_
_
_
.
Luna, J. G. & Esteves, D. M. 97
Dentre outras possveis solucoes tomemos:

o
(1)
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
0
1
4
0 0
0 0
1
3
0
0 0 0
1
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
0
1
4
0

1
3
_
_
_
_
_
_
_
_
_
_
e

o
(2)
=
_
_
_
_
_
_
_
_
_
_
1
3

1
3

1
3
0

1
3
7
12
1
3
0

1
3
1
3
2
3
0
0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_

1
3
7
12
1
3
0
_
_
_
_
_
_
_
_
_
_
.
Portanto,
[X
o
(1)
]

= [X
o
(2)
]

=
_
1
4
1
4
1
4
1
4
0 0 0
1
3

1
3

1
3
_
e invariante.
Vimos que se

e estimavel, ela pode apresentar muitos estimadores nao


viciados, nos modelos de posto incompleto. Veremos agora, que apenas
uma delas e a melhor.
Denicao 4.4.3: Seja o modelo y = X +e (G.M.) e todas as possveis com-
bina coes lineares a

y, tais que E[a

y] =

. Dentre elas, seja a

y.
Entao a

y e denida como o melhor estimador nao viesado de

se, e
somente se,
V [a

y] = Min{V [a

y]}, a

y : E[a

y] =

.
A combinacao linear a

y assim denida, e conhecida como BLUE de

(Best Linear Umbiased Estimator) e e denotada por: BLUE de

.
Teorema 4.4.2: Se

e estimavel no modelo linear de Gauss-Markov, entao


seu BLUE e obtido de modo unico por:

y,
onde e qualquer solucao das E.N.A.

E facil ver, dada a invariancia de X, que

y e unica. Veriquemos,
entao, se

y e realmente o BLUE de

.
98 Luna, J. G. & Esteves, E. M.
(a)

y e um estimador nao viciado de

. Isto e,
E[

y] =

X =

, pois das E.N.A, temos que X

X = =

X.
(b)

y tem a menor variancia dentre todos os estimadores nao viciados de

.
Calculemos inicialmente a variancia de

y.
V [

y] =

V [y]X =

X
2
=

2
. (I)
Seja, agora,

y = (

)y um outro estimador nao viciado


de

. Entao,
V [a

y] = (

)V (y)(X )
= (

X +

)
2
. (II)
Por outro lado, na classe dos nao viciados, temos que:
E[a

y] = E[(

)y] = (

)X
=

X =

X =

X.
Usando as E.N.A., temos que,

X =

se, e somente se,

X = , . (III).
Assim, (II) ca:
V [a

y] = (

X +

)
2
e, das E.N.A., vem
V [a

y] = (

)
2
. (IV )
Mas e um vetor e, portanto,

0.
Entao, comparando (I) e (IV), temos:
V [a

y] V [

Xy].
Assim, da deni cao, temos que

Xy =

.
Alem disso, a igualdade so e vericada quando = , garantindo, como
ja vimos no incio da demonstra cao, a unicidade do BLUE.
Exemplo 4.4.4: Seja

=
1

3
. Entao, usando resultados anteriores,

2
=
o
(1)

y =
o
(2)

y = y
1
y
2
= 4 9 = 5.
O teorema a seguir fornece uma regra mais operacional, baseada nas E.N.,
para a obten cao de

estimavel.
Luna, J. G. & Esteves, D. M. 99
Teorema 4.4.3: (Teorema de Gauss-Markov) - Se

e estimavel no mode-
lo y = X + e (G.M.), ent ao o BLUE de

e dado por

o
, isto e,

=
o
, para qualquer
o
solucao das equacoes normais.

estimavel = : X

X = =

X,
pos-multiplicando por
o
=

o
=

X
o
.
Usando as E.N., vem:

o
=

y =

.
FATOS:
(a) A unicidade de

esta garantida, pois,

o
=

(X

X)

y =

X(X

X)

y =

XX
+
y
=

y.
(b) Atraves do teorema de Gauss-Markov podemos obter uma forma mais op-
eracional para a variancia do BLUE de

.
V [

] = V [

o
] = V [

(X

X)

y]
=

(X

X)

X[(X

X)

2
Sendo

estimavel =a : X

a = . Portanto,
V [

] =

(X

X)

X[(X

X)

a
2
Por outro lado, [(X

X)

e tambem inversa condicional de X

X (veja,
dentre outros, SEARLE, 1971, pg. 20, Teorema 7, item (i)). Entao,
X[(X

X)

= XX
+
= P. Assim sendo, temos:
V [

] =

(X

X)

2
.
Exemplo 4.4.5: Seja

3
e considerando
o
=
_
_
_
_
0
4, 0
7, 0
9, 0
_
_
_
_
do exemplo
anterior, temos que

3
=

o
=
_
0 1 0 1
_
_
_
_
_
0
y
1
y
2
y
3
_
_
_
_
= y
1
y
3
= 5, 0
100 Luna, J. G. & Esteves, E. M.
e
V [

] = V [

3
] =

(X

X)

2
=
_
0 1 0 1
_
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
_
_
_
_
0
1
0
1
_
_
_
_
=
7
12

2
Se usarmos outra condicional de (X

X) chegaremos ao mesmo resultado.


Isto e, V [

3
] =
7
12

2
.
4.5 Regras Praticas de Estimabilidade
Na se cao anterior estudamos estima cao por ponto baseado no espaco colu-
na de X

(ou no espaco linha de X). Agora, consideraremos algumas regras


praticas, objetivando facilitar o estudo de estimabilidade.
4.5.1 Funcoes Basicas Estimaveis
Sabemos que dado o modelo linear y = X +e (G.M.), entao E[y] = X.
Portanto, X e estimavel. Usando este fato, podemos determinar as fun coes
basicas estimaveis para cada caracteriza cao de y = X+e. Assim, por exemplo:
(a) Na caracterizacao y
ij
= +
i
+e
ij
, i = 1, 2 e j = 1, 2
E[y] = X =
_
_
_
_
1 1 0
1 1 0
1 0 1
1 0 1
_
_
_
_
_
_

2
_
_
=
_
_
_
_
+
1
+
1
+
2
+
2
_
_
_
_
.
Portanto, as funcoes basicas estimaveis nesse modelo, sao do tipo

=
+
i
.
De fato,
E[y
ij
] = E[ +
i
+e
ij
] = +
i
.
(b) Na caracterizacao y
ij
= +
i
+
j
+e
ij
, i = 1, 2 e j = 1, 2, 3.
E[y] =
_
_
_
_
_
_
_
_
1 1 0 1 0 0
1 1 0 0 1 0
1 1 0 0 0 1
1 0 1 1 0 0
1 0 1 0 1 0
1 0 1 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_

3
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
+
1
+
1
+
1
+
2
+
1
+
3
+
2
+
1
+
2
+
2
+
2
+
3
_
_
_
_
_
_
_
_
Luna, J. G. & Esteves, D. M. 101
Entao, E[y
ij
] = +
i
+
j
exibe o conjunto de fun coes basicas estimaveis
nesse model. E assim por diante.
A associa cao dessa propriedade com outra que vem a seguir, resolve a
maioria dos problemas praticos de estimabilidade.
4.5.2 Combinac oes Lineares de Func oes Estimaveis
Sejam

1
,

2
, ,

p
, p funcoes lineares parametricas estimaveis em
alguma caracterizacao de y = X + e (G.M.). Entao, da denicao de estima-
bilidade, tem-se que a : E[a

y] =

i
, i = 1, 2, , p.
Seja c

, n umeros reais arbitrarios, entao


E[c
1
a

1
y] = c
1
a

1
X = c
1

E[c
2
a

2
y] = c
2
a

2
X = c
2

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
E[c
p
a

p
y] = c
p
a

p
X = c
p

E[

p
=1
c

y] =

p
=1
c

X =

p
=1
c

Portanto,
w

=

p
=1
c

=

p
=1
c

, tais que, E[w

y] =

.
Entao,

=

p
=1
c

e estimavel.
Exemplo 4.4.6: Considere as fun coes basicas estimaveis do exemplo inicial,
isto e,
i
= +
i
, entao s ao estimaveis, dentre outras,
(a)

4
= 3 +
1
+
2
+
3
. Basta tomar c
i
= 1, i e teremos

4
=
3

i=1
c
i

i
=
_
3 1 1 1
_
ou simplesmente
( +
1
) + ( +
2
) + ( +
3
) = 3 +
1
+
2
+
3
.
(b)

5
= 2
1

3
= 2( +
1
) ( +
2
) ( +
3
). Ou seja,

1
=
_
_
_
_
1
1
0
0
_
_
_
_
,
2
=
_
_
_
_
1
0
1
0
_
_
_
_

3
=
_
_
_
_
1
0
0
1
_
_
_
_
, c
1
= 2, c
2
= c
3
= 1.
102 Luna, J. G. & Esteves, E. M.
Assim,

5
=
3

i=1
c
i

i
= 2
_
_
_
_
1
1
0
0
_
_
_
_
1
_
_
_
_
1
0
1
0
_
_
_
_
1
_
_
_
_
1
0
0
1
_
_
_
_
=
_
_
_
_
0
2
1
1
_
_
_
_
.
Portanto,

5
=
_
0 2 1 1
_
_
_
_
_

3
_
_
_
_
= 2
1

3
e assim por diante.
Denicao 4.4.4: Seja o modelo linear y = X+e (G.M.) e seja , tal que,

=
_

1

k
.
.
.
1

s
.
.
.
11

ks
.
.
.
_
. Entao
as funcoes parametricas do tipo
k

i=1
c
i

i
,
s

j
c
j

j
,
k

i=1
s

j=1
c
ij

ij
, etc,
sao denominadas contrastes se, e somente se,
k

i=1
c
i
=
s

j=1
c
j
=
k

i=1
s

j=1
c
ij
= 0.
Assim, sao exemplos de contrastes:

1
=
1

2
,

2
=
1

1
2
(
2
+
3
),

3
= 3
1

4
, etc.
Observacoes:
(a) Os contrastes formam um subconjunto das fun coes estimaveis, sendo por-
tanto, estimaveis (caso particular onde

= 0, no teorema da com-
binacao linear).
(b) Sendo

estim avel, entao

o
=

(X

X)

y =

i
y
i
,
e
V [

] =

(X

X)

2
=

2
i
r
i

2
Luna, J. G. & Esteves, D. M. 103
onde, r
i
e o n umero de repeticoes do tratamento i, sao invariantes para
qualquer (X

X)

.
Considerando-se um modelo com um fator inteiramente casualizado e a
inversa condicional mais simples, e facil chegar a esses resultados.
Exemplo 4.4.7: Seja a fun cao parametrica

=
_
0 2 1 1
_
_
_
_
_

3
_
_
_
_
= 2
1

3
,
Entao,

o
= 2 y
1
y
2
y
3
= 8, 0.
e
V [

] =

(X

X)

2
=
_
(2)
2
4
+
(1)
2
3
+
(1)
2
3
_

2
=
5
3

2
.
4.5.3 Usando as Equacoes Normais
Dado o sistema de equa coes normais X

X = X

y, entao

e estimavel
se, e somente se, puder ser obtida como combina cao linear dos componentes de
X

X (lado esquerdo do S.E.N.). Em caso armativo, seu BLUE sera dado pela
mesma combina cao linear dos componentes de X

y (lado direito do S.E.N.).


No exemplo em questao, temos
_
_
_
_
10 4 3 3
4 4 0 0
3 0 3 0
3 0 0 3
_
_
_
_
_
_
_
_

3
_
_
_
_
=
_
_
_
_
64
16
21
27
_
_
_
_
.
Seja a fun cao parametrica

=
1

2
=
1
4
_
4 4 0 0
_
_
_
_
_

3
_
_
_
_

1
3
_
3 0 3 0
_
_
_
_
_

3
_
_
_
_
Portanto,

2
=
1
4
(16)
1
3
(21) = 3, 0.
Se considerarmos

= +
3
=
1
3
_
3 0 0 3
_
_
_
_
_

3
_
_
_
_
,
104 Luna, J. G. & Esteves, E. M.
teremos

+
3
=
1
3
(27) = 9, 0 = y
3
.
4.5.4 Um Teste Alternativo
Ja vimos que

estimavel = a : X

a = =

= a

X. Pos-
multiplicando por H = (X

X)

(X

X), temos

H = a

X(X

X)

(X

X) = a

[X(X

X)

]X
= a

PX = a

XX
+
X = a

X =

.
Em outras palavras, se

e estimavel, entao

H =

.
No exemplo em questao, seja

1
=
1

2
, ja sabidamente estimavel e seja

2
=
1
+
2
+
3
.
Tomando duas matrizes H, isto e,
H
1
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
_
_
_
_
e H
2
=
_
_
_
_
_
_
_
_
_
_
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
_
_
_
_
_
_
_
_
_
_
,
podemos vericar que:

1
H
1
=

1
H
2
=

1
, pois
1

2
e estimavel.
e que

2
H
1
=

2
e

2
H
2
=

2
, pois
1
+
2
+
3
nao e estimavel.
4.5.5 Equacoes Normais Reduzidas e Estimacao
de Subconjuntos de Parametros
Nesta secao apresentaremos algumas ideias acerca de equacoes normais re-
duzidas, as quais sao de grande utilidade para o estudo de modelos mais parametriza-
dos que o inteiramente casualizado com um fator.
Consideremos o modelo y = X +e (G.M.) e as particoes:
X =
_
X
1
.
.
. X
2
_
e

=
_

1
.
.
.
2
_
.
Entao podemos escrever
y =
_
X
1
.
.
. X
2
_
_
_

2
_
_
+e = X
1

1
+X
2

2
+e
Luna, J. G. & Esteves, D. M. 105
e o sistema de equa coes normais, X

X = X

y, ca:
_
_
X

1
X
1
X

1
X
2
X

2
X
1
X

2
X
2
_
_
_
_

2
_
_
=
_
_
X

1
y
X

2
y
_
_
ou _
_
_
X

1
X
1

1
+X

1
X
2

2
= X

1
y (I)
X

2
X
1

1
+X

2
X
2

2
= X

2
y (II)
Para encontrar o sistema de equacoes normais reduzidas de
2
eliminado
1
,
procedemos como segue.
Pre- multiplicando (I) por X

2
X
+
1

, vem
X

2
X
+
1

1
X
1

1
+X

2
X
+
1

1
X
2

2
= X

2
X
+
1

1
y =
X

2
X
1
X
+
1
X
1

1
+X

2
X
1
X
+
1
X
2

2
= X

2
X
1
X
+
1
y =
X

2
X
1

1
+X

2
P
1
X
2

2
= X

2
P
1
y, (III)
onde P
1
= X
1
X
+
1
= X
1
(X

1
X
1
)

1
e o projetor ortogonal de y em C(X
1
).
Subtraindo-se (III) de (II), temos:
X

2
X
1

1
+X

2
X
2

2
= X

2
y
X

2
X
1

1
X

2
P
1
X
2

2
= X

2
P
1
y
X

2
(I P
1
)X
2

2
= X

2
(I P
1
)y
que e o sistema de equa coes normais reduzidas para
2
eliminado
1
.
Para o exemplo que temos considerado nas se coes anteriores, podemos ter:
X =
_
X
1
.
.
. X
2
_
, =
_
_

_
_
, onde =
_
_

3
_
_
.
Assim sendo, o modelo linear e o S.E.N.R. para eliminado , cam:
y = X
1
+X
2
+e e
3
10
_
_
8 4 4
4 7 3
4 3 7
_
_
_
_

3
_
_
=
3
10
_
_
32
6
26
_
_
,
respectivamente.
Uma solucao de mnimos quadrados para e dada por:

o
= [X

2
(I P
1
)X
2
]

2
(I P
1
)y
=
1
40
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
32
6
26
_
_
=
_
_
0
3
5
_
_
.
106 Luna, J. G. & Esteves, E. M.
Observacoes:
(a) Sendo (I P
1
) = (I X
1
X
+
1
) idempotente, podemos escrever
X

2
(I P
1
)(I P
1
)X
2

2
= X

2
(I P
1
)y.
Fazendo W = (I P
1
)X
2
teremos W

W
=
W

y que tem as carac-


tersticas das equa coes normais, sendo portanto consistente.
(b) Note que X

2
(IP
1
)X
2
tem dimensoes menores que X

X. Para o exemplo
em questao a reducao das dimen coes e pequena, porem em modelos mais
parametrizados esta e bastante signicativa, facilitando sobremaneira a
obtencao das solucoes. De modo analogo, no estudo de estimabilidade e
na obtencao dos BLUEs e suas variancias. Observe que, num modelo
mais parametrizado,

de

, ca reduzida a

de

, onde

e do
tipo:

=
_

.
.
.

.
.
.

.
.
.
.
.
.

_
.
No exemplo em questao, temos

=
_
0
.
.
.

_
.
Teorema 4.6.1: Uma funcao linear parametrica

e estimavel no modelo
linear de Gauss-Markov y = X
1

1
+ X
2

2
+ e se, e somente se,


C[X

2
(I P
1
)].
Prova: Tomando as E.N.A. X

X = e uma fun cao parametrica

.
Sejam X =
_
X
1
.
.
. X
2
_
,

=
_

1
.
.
.
2
_
e

=
_

.
.
.

_
.
Entao, o sistema de equa coes normais associados ca:
_
_
_
X

1
X
1

1
+X

1
X
2

2
= (I)
X

2
X
1

1
+X

2
X
2

2
=

(II)
Pre-multiplicando (I) por X

2
X
+
1
e subtraindo de (II), encontramos
X

2
(I P
1
)X
2

1
=

,
que, por resultados discutidos anteriormente, e a prova do teorema.
Teorema 4.6.2: Se

2
e estimavel no modelo y = X
1

1
+X
2

2
+e (G.M.),
entao seu BLUE pode ser obtido por:

2
=

o
2
.
invariante,
o
2
solucao das E.N.A. Alem disso,
V [

2
] =

[X

2
(I P
1
)X
2
]

2
.
A prova do teorema e semelhante `a do item anterior.
Luna, J. G. & Esteves, D. M. 107
Exerccio 4.6.2 Sejam as funcoes lineares parametricas

1
=
1

2
e

2
=
2
1

3
, ja estudadas anteriormente, para as quais tivemos:

1
= 3, 0 e V [

1
] =
7
12

2
e

2
= 8, 0 e V [

2
] =
5
3

2
.
No caso presente, temos:

o
=
_
1 1 0
_
_
_
0
3
5
_
_
= 3, 0
e
V [

] =

[X

2
(I P
1
)X
2
]

2
=
1
12
_
1 1 0
_
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
1
1
0
_
_

2
=
7
12

2
.

o
=
_
2 1 1
_
_
_
0
3
5
_
_
= 8, 0
e
V [

] =

[X

2
(I P
1
)X
2
]

2
=
1
12
_
2 1 1
_
_
_
0 0 0
0 7 3
0 3 7
_
_
_
_
2
1
1
_
_

2
=
5
3

2
.
4.6 A Analise de Variancia
Vimos anteriormente que y pode ser decomposto na soma de dois vetores de
espacos ortogonais, ou seja, y = y +e. Assim, temos
y
2
= y
2
+e
2
= X
o

2
+y X
o

2
.
Usando a denicao da norma euclideana e lembrando que o sistema de
equacoes normais e dado por X

X
o
= X

y, vem
y

y =
o
X

y + (y

y
o
X

y)
108 Luna, J. G. & Esteves, E. M.
cujos termos sao denidos respectivamente como: Soma de quadrados total,
Soma de quadrados dos parametros e Soma de quadrados dos resduos. Ou
melhor,
SQTotal = SQPar. + SQRes.
Para o exemplo que estamos considerando, temos
SQTotal = y

y =

i,j
y
2
ij
= (5, 0)
2
+ (4, 0)
2
+ + (10, 0)
2
= 460, 0,
SQPar. =
o
X

y =
_
0 4 7 9
_
_
_
_
_
64
16
21
27
_
_
_
_
= 454, 0
e
SQRes. = SQTotal SQPar. = 460, 0 454, 0 = 6, 0.
As formas quadraticas correspondentes cam facilmente identicadas quando
substituimos
o
por (X

X)

y. Ou seja,
y

y =
o
X

y + (y

y
o
X

y)
= y

X(X

X)

y + (y

y y

X(X

X)

y).
Portanto,
y

Iy = y

Py + (y

Iy y

Py)
ou ainda,
y

Iy = y

Py +y

(I P)y,
onde P e o projetor ortogonal de y em C(X), o subespaco dos parametros e
(I P) e o projetor ortogonal de y no espa co ortogonal ao espaco coluna de
X, C

(X), o espa co dos resduos.


Na pratica, nao calculamos as somas de quadrados atraves dos projetores.
Pois, quando trabalhamos com grandes massas de dados e inpraticavel a sua
utilizacao.
Exerccio 4.6.1: Utilizando os dados do exemplo em questao, temos:
SQPar. = y

Py = y

Py = y

y
Luna, J. G. & Esteves, D. M. 109
Mas,
y = Py =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
1
4
1
4
1
4
1
4
0 0 0 0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0
1
3
1
3
1
3
0 0 0
0 0 0 0 0 0 0
1
3
1
3
1
3
0 0 0 0 0 0 0
1
3
1
3
1
3
0 0 0 0 0 0 0
1
3
1
3
1
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
8
7
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Assim,
SQPar. = y

Py = y

y = y

y
=
_
5 4 3 4 6 8 7 9 8 10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
4
4
4
4
7
7
7
9
9
9
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
= 454, 0,
SQRes = y

(I P)y = y

(I P)

(I P)y = e

e.
Mas,
e = (I P)y
110 Luna, J. G. & Esteves, E. M.
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
3
4

1
4

1
4

1
4
0 0 0 0 0 0

1
4
3
4

1
4

1
4
0 0 0 0 0 0

1
4

1
4
3
4

1
4
0 0 0 0 0 0

1
4

1
4

1
4
3
4
0 0 0 0 0 0
0 0 0 0
2
3

1
3

1
3
0 0 0
0 0 0 0
1
3
2
3

1
3
0 0 0
0 0 0 0
1
3

1
3
2
3
0 0 0
0 0 0 0 0 0 0
2
3

1
3

1
3
0 0 0 0 0 0 0
1
3
2
3

1
3
0 0 0 0 0 0 0
1
3

1
3
2
3
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
5
4
3
4
6
8
7
9
8
10
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
0
1
0
1
1
0
0
1
1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Portanto,
SQRes. = y

(I P)y = e

e = 6, 0
Observe que na secao 4.3.3, Tabela 4.1 a variancia da amostra que recebeu
o tratamento i, (i=1,2,3), foi obtida a partir da expressao:
s
2
i
=
1
r
i
1
_
_

j
y
2
ij

(

j
y
ij
)
2
r
i
_
_
,
e, desse modo, sob (G.M.)
E[s
2
i
] =
2
.
Deve ser observado tambem que P e (I P) sao idempotentes. Isto e,
PP = P e (I P)(I P) = (I P). Alem disso, que as formas quadraticas
y

Py e y

(I P)y sao independentes. Pois, P(I P) = .


Denicao 4.6.1: Graus de Liberdade - O n umero de graus de liberdade de
uma soma de quadrados e dado pelo posto da matriz n ucleo da forma
quadratica correspondente.
Assim, para o exemplo que estamos considerando, temos:
SQTotal = y

Iy =g.l.[SQTotal] = r[I
(n)
] = r[I
(10)
] = 10,
SQPar. = y

Py =g.l.[SQPar.] = r[P] = r[XX


+
] = r[X] = 3,
Luna, J. G. & Esteves, D. M. 111
SQRes. = y

(I P)y =g.l.[SQRes.] = r[I P] = r[I] r[P] = 7.


De acordo com o que estudamos no captulo das formas quadraticas, tem-se
que:

SQPar.

2
=
y

Py

2

2
[r(X);
1
2
2

X]
,
pois,

PX =

XX
+
X =

X.

SQRes.

2
=
y

(IP)y

2

2
[nr(X)]
,
uma vez que

(I P)X =

XX
+
X = .
Os parametros envolvidos no modelo considerado, resumem-se em media e
tratamento. Assim sendo, temos:
SQPar. = SQM edia + SQTrat.
Em geral, estamos interessados nos efeitos dos tratamentos. Dessa forma,
podemos tomar
SQTrat. = y

(P P
1
)y,
onde,
=
_
_

_
_
, X =
_
X
1
.
.
. X
2
_
, X

1
=
_
1 1 1
_
e
P
1
= X
1
(X

1
X
1
)

1
=
1
n
X
1
X

1
=
1
n
E
(n)
,
onde E
(n)
e uma matriz quadrada de ordem n com todos seus elementos iguias
a um.
Portanto,
SQM edia = y

P
1
y =
1
n
y

Ey =
_

i,j
y
ij
_
2
n
=
y
2
..
n
= C
Onde, C e conhecido como fator de correcao ou soma de quadrados da media.
Assim sendo, denimos a soma de quadrados de tratamento como:
SQTrat. = y

(P P
1
)y = y

Py y

P
1
y = SQPar. C.
Alem disso, pode ser vericado que
SQTrat. = y

(P P
1
)y =

i
r
i
( y
i.
y
..
)
2
=

i
y
2
i.
r
i
C.
Considerando-se os dados do exemplo, temos:
112 Luna, J. G. & Esteves, E. M.
C =
y
2
..
n
=
(64)
2
10
= 409.6 e
SQTrat. =

3
i=1
y
2
i.
ri
C =
(16)
2
4
+
(21)
2
3
+
(27)
2
3
409.6 = 44, 4.
Observe que (P P
1
) e simetrica e idempotente, e entao,
r[(P P
1
)] = Tr[(P P
1
) = Tr[P] Tr[P
1
] = r[X] 1
Desse modo,
SQTrat. = y

(P P
1
)y =g.l.[SQTrat.] = r[X] 1 e segue que,

SQTrat

2
=
y

(PP1)y

2

2
[r(X)1;
1
2
2

i
ri(i )
2
]
.
Pois, mostra-se que

(P P
1
)X =

i
r
i
(
i
)
2
=

i
r
i
(
i
)
2
.
Assim, nos delineamento inteiramente casualizados, onde sao considerados
apenas tratamentos, a hipotese natuaral a ser formulada e:
H
0
:
1
=
2
= =
k
=
Assim, sob H
0
,
SQTrat.

2
=
y

(P P
1
)y

2

2
[r(X)1]
.
Observe que no modelo de Gauss Markov, sob qualquer hipotese,
SQRes.

2
segue distribui cao de qui-quadrado central com n r(X) graus de liberdade e
sob H
0
,
SQTrat.

2
tem distribuicao de qui-quadrado central com r(X) 1 graus
de liberdade. Alem de serem independentes. Pois, pode-se vericar que (I
P)(P P
1
) = .
Por outro lado, os valores esperados das somas dos quadrados sao:
E[SQRes.] = E[y

(I P)y] = Tr[(I P)]


2
+

(I P)X
= [n r(X)]
2
,
E[SQTrat.] = E[y

(P P
1
)y] = Tr[(P P
1
)]
2
+

(P P
1
)X
= [r(X) 1]
2
+

i
r
i
(
i
)
2
e os respectivos valores esperados dos quadrados medios sao:
E[QMRes.] =
E[SQRes.]
n r(X)
=
2
Luna, J. G. & Esteves, D. M. 113
e
E[QMTrat.] =
E[SQTrat.]
r(X) 1
=
2
+

i
r
i
(
i
)
2
r(X) 1
=
2
+f(), f() 0.
Note que o quadrado medio do resduo e um estimador nao viciado para
2
,
fato que ja era esperado sob as condicoes de Gauss-Markov.
Resta vericar se, ao nvel de signicancia especicado, a hipotese H
0
e
rejeitada ou nao, com base nas informacoes contidas nos dados da amostra.
Obviamente, se
1
=
2
= =
k
= , entao
f() = 0 e
E[QMTrat.]
E[QMRes.]
=

2
+f()

2
= 1.
Entao, no contexto de variaveis aleatorias, podemos obter uma regra para
vericar se

2
+f()

2
e signicativamente diferente de 1. Ou seja, se
i
e signi-
cativamente diferente de , usando os dados amostrais.
Entao, segue que,
[n r(X)]
QMRes.

2
=
y

(I P)y

2

2
[nr(X)]
e, sob H
0
,
SQTrat. = [r(X) 1]
QMTrat.

2
=
y

(P P
1
)y

2

2
[r(X)1]
.
Portanto,
F =
[r(X)1]QMTrat.
[r(X)1]
2
[nr(X)]QMRes.
[nr(X)]
2
=
QMTrat.
QMRes.
F
[r(X)1; nr(X)]
Dessa forma, se QMTrat. for muito maior que QMRes., o valor de F sera
muito maior que 1, tao maior que ultrapassara o valor crtico da distribuicaio
F
[t; r, ]
(valores que ja se encontram tabelado a um dado nvel de sig-
nicancia), localizando-se na regiao de rejeicao de H
0
. Esse fato ocorre conforme
ilustra as Figuras 4.3 e ??.
Para o exemplo que estamos considerando, encontramos os seguintes resul-
tados para analise de variancia:
Observe que
F =
QMTrat.
QMRes.
=
22, 2000
0, 8571
= 25, 90.
Os valores crticos da distribui cao F com 2 e 7 graus de liberdade e nveis de
signicancia = 0, 05 e = 0, 01 sao respectivamente F
[2, 7, 0,05]
= 4, 74 e
F
[2, 7, 0,01]
= 9, 55.
Como F = 25, 90 > F
[2, 7, 0,01]
= 9, 55, rejeitamos H
0
e concluimos que os
efeitos medios dos tratamentos nao sao iguis.
114 Luna, J. G. & Esteves, E. M.
Figura 4.2: Graco da Distribuicao F: Regiao de Aceitacao e Regiao de
Rejeicao de H
0
; Valores crticos de F quando = 0, 05 e = 0, 01
Tabela 4.2: Analise de variancia
F. Variacao GL SQ QM F
Media r(X
1
) = 1 409,60
Tratamento r(X) 1 = 2 44,40 22,2000 25, 90

Parametros r(X) = 3 454,00


Resduo n r(X) = 7 6,00 s
2
= 0, 8571
Total n = 10 460,00
4.6.1 Soma de Quadrados da Hip otese H
o
: B

=
Este assunto e bastante amplo e nesta seq uencia estudaremos o caso mais
simples. Os interessados que desejarem aprofundar-se poderao encontrar su-
porte teorico em Rao (1945-1965), Scheff e (1959), Searle (1966), Searle
(1971-1984), dentre outros.
Partiremos do princpio de que somente hipoteses baseadas em funcoes pa-
rametricas estimaveis sao testaveis. Neste sentido, estaremos interessados em
testar apenas hipoteses do tipo H
0
: B

= , onde B

e estimavel e B

tem
posto linha completo.
Sabemos do Modelo Linear de Gauss-Markov, que y N
n
(X , I
2
) e
entao,

N(

(X

X)

2
)
Luna, J. G. & Esteves, D. M. 115
e que

N
r(B)
(B

, B

(X

X)

B
2
)
Sabemos que B

(X

X)

B e positiva denida e, portanto, nao singular, pois


B

tem posto linha completo. Seja A nao singular, tal que,


[B

(X

X)

B]
1
= A

A =B

(X

X)

B = A
1
A

1
.
e seja a forma quadratica Q

Q, onde
Q =
A(

.
Entao,
E[Q] =
1

E[A

AB

] =
V [Q] =
1

2
AV [

]A

=
1

2
AA
1
A

1
A

2
= I.
Segue que,
Q

Q
2
r(B)
.
Isto e,
Q

Q =
(

[B

(X

X)

B]
1
(

2

2
[r(B)]
.
Sabemos que
SQRes. = y

(I P)y e
1

2
y

(I P)y
2
[nr(X)]
.
Alem disso,
Q

Q e y

(I P)y
sao independentes, pois,
(I P)[B

(X

X)

B]
1
= .
Portanto,
F =
Q

Q/r(B)
QMRes.
F
[r(B) ; nr(X)]
.
Denicao 4.6.2: - Soma de Quadrados de Hipotese - A forma quadratica do
tipo (

[B

(X

X)

B]
1
(

) e denida como soma de


quadrados devida a hipotese H
o
: B

= . Como estamos interessados


nas hipoteses do tipo H
o
: B

= , entao
SQH
o
= (

[B

(X

X)

B]
1
(

)
116 Luna, J. G. & Esteves, E. M.
Exerccio 4.6.3: Retomando o exemplo que estamos considerando, queremos
testar a hipotese H
o
:
1
=
2
=
3
= 0.
Entao,
H
o
: B

=
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_

3
_
_
_
_
=
_
_
+
1
+
2
+
3
_
_
=
_
_

3
_
_
=
_
_
0
0
0
_
_
Nesse caso,

= B

o
=
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
0
4
7
9
_
_
_
_
=
_
_
4
7
9
_
_
e
B

(X

X)

B =
_
_
1 1 0 0
1 0 1 0
1 0 0 1
_
_
_
_
_
_
0 0 0 0
0
1
4
0 0
0 0
1
3
0
0 0 0
1
3
_
_
_
_
_
_
_
_
1 1 1
1 0 0
0 1 0
0 0 1
_
_
_
_
=
_
_
1
4
0 0
0
1
3
0
0 0
1
3
_
_
.
Dessa forma, temos
SQH
0
=
_
4 7 9
_
_
_
4 0 0
0 3 0
0 0 3
_
_
_
_
4
7
9
_
_
= 4(4)
2
+ 3(7)
2
+ 3(9)
2
= 454,
que corresponde `a soma de quadrados de parametros ja calculada anteriormente.

E facil ver que


SQH
o
=

i
r
i
(

+
i
)
2
=

i
r
i
y
2
i
.
Para testar a hip otese H
o
:
i
= , podemos tomar B

constituda de
funcoes estimaveis de tratamentos (lembre-se de que
i
nao e estimavel).
Se tomarmos, por exemplo, B

com k 1 contrastes ortogonais, teremos a


vantagem de obter B

(X

X)

B diagonal, resguardando o balanceamento.


No exemplo em questao, poderamos tomar, a ttulo de ilustracao, dois con-
trastes:
Luna, J. G. & Esteves, D. M. 117
a) Entre oleos vegetais:
H
(1)
o
:
2
=
3
H
(1)
o
:
2
=
3
H
(1)
o
:
2
+
3
= 0,
b) Ureia vs oleos vegetais:
H
(2)
o
:
1
=

2
+
3
2
H
(2)
o
: 2
1
=
2
+
3
H
(2)
o
: 2
1
+
2
+
3
= 0.
Obviamente, teremos
H
0
: B

=
_
0 0 1 1
0 2 1 1
_
_
_
_
_

3
_
_
_
_
=
_

2
+
3
2
1
+
2
+
3
_
=
_
0
0
_
.
Alem disso,

= B

o
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
=
_
2
8
_
e
B

(X

X)

B =
=
_
0 0 1 1
0 2 1 1
_
_
_
_
_
0 0 0 0
0 1/4 0 0
0 0 1/3 0
0 0 0 1/3
_
_
_
_
_
_
_
_
0 0
0 2
1 1
1 1
_
_
_
_
=
_
_
2/3 0
0 3/5
_
_
Portanto,
SQH
0
=
_
2 8
_
_
_
3/2 0
0 3/5
_
_
_
2
8
_
=
3
2
(2)
2
+
3
5
(8)
2
= 6, 00 + 38, 4 = 44, 4 = SQTrat.
Note que, de modo geral, se os contrastes envolvidos forem ortogonais entre
si, vamos ter:
B

(X

X)

B = Diag{a
ii
}, onde a
ii
=

2
i
r
i
,
i
.
No exemplo,
118 Luna, J. G. & Esteves, E. M.
a
11
=
(1)
2
3
+
(1)
2
3
=
2
3
,
a
22
=
(2)
2
4
+
(1)
2
3
+
(1)
2
3
=
5
3
.
Podemos, entao, reorganizar as somas de quadrados na seguinte tabela:
Tabela 4.3: Decomposicao da SQTrat. em somas de quadrados de contrastes
ortogonais de interesse.
F. Variacao GL SQ QM F
H
(1)
o
:
2
=
3
1 6,00 6,0000 7, 00

H
(2)
o
:
1
=
2+3
2
1 38,40 38,4000 44, 80

Tratamento (H
(3)
0
:
1
=
2
=
3
= ) 2 44,40 22,2000 25, 90

Resduo 7 6,00 s
2
= 0, 8571 -
Total 9 50,40 - -
() Efeito signicativo ao nvel de 5% de probabilidade.
() Efeito signicativo ao nvel de 1% de probabilidade.
Da tabela da distribui cao F, tem-se:
F
[1 ; 7 ; 0,05]
= 5, 59; F
[1 ; 7 ; 0,01]
= 12, 20 e F
[2 ; 7 ; 0,01]
= 9, 55.
Conclusao: A hipotese H
(1)
o
foi rejeitada ao nvel de 5% de signicancia pelo
teste F enquanto que as hipoteses H
(2)
o
e H
(3)
o
foram rejeitadas ao nvel
de 1%.
Luna, J. G. & Esteves, D. M. 119
4.7 Estimacao por Intervalo
Sabemos que se a funcao parametrica

e estimavel no modelo linear de


Gauss-Markov Normal, entao

N(

(X

X)

2
).
Uma estimador para V [

] e obtido de

V [

] =

(X

X)

s
2
,
onde s
2
= QMRes.
Alem disso, o teorema a seguir garante a indepedencia entre

e QMRes.
Teorema 4.6.3: Se

e estimavel no Modelo Linear de Gauss-Markov, entao

e y

(I P)y sao independentes.


Prova: Sabemos que

y. Alem disso,

(I P) =

(I XX
+
) =

XX
+
=

(XX
+
)

X
+

= .
Portanto,

e y

(I P)y. sao independentes.


Por outo lado, seja
Z =

(X

X)

2
.
Entao,
E[Z] =
1
_

(X

X)

2
E[

] = 0
e
V [Z] =
_
1
_

(X

X)

2
_
2
V [

] = 1.
Portanto,
Z =

(X

X)

2
N(0, 1).
e, pode ser demonstrato que
T =

(X

X)

s
2
t
[nr(X)]
.
120 Luna, J. G. & Esteves, E. M.
Dessa forma,
Pr
_
t

(X

X)

s
2
t

2
_
= 1 ,
e intervalos com 100(1 )% de conanca para

podem ser obtidos


por:
IC (

)
[100(1)%]
:
_

2
_

(X

X)

s
2
_
Exerccio 4.6.4: Encontre intervalos com 99% de conanca para as fun coes
parametricas
1

=
2
+
3
e
2

= 2
1
+
2
+
3
.
Com base nos dados do exemplo considerado, temos que

=
1

o
=
_
0 0 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 2
e

=
2

0
=
_
0 2 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 8, 00,
e usando a tabela da distribuicao t-Student com 7 graus de liberdade e
= 0, 01 encontramos t

2
= 3, 50.
Por outro lado,

(X

X)

1
=
2
3
,
2

(X

X)

2
=
5
3
e s
2
= QMRes. = 0, 8571.
Portanto,
IC(
2
+
3
)
[99%]
:
_
2, 00 3, 50
_
2
3
(0, 8571)
_
= [2, 00 2, 65]
e
IC(2
1
+
2
+
3
)
[99%]
:
_
8, 00 3, 50
_
5
3
(0, 8571)
_
= [8, 00 4, 18]
Observe que o IC(
2

)
[99%]
nao contem o ponto zero, enquanto que o
IC(
1

)
[99%]
contem o ponto zero concordando com os resultados obtidos para
os testes das hipoteses desses contrastes na Tabela 4.3.
Luna, J. G. & Esteves, D. M. 121
4.8 Hipoteses Equivalentes
Para o melhor aproveitamento das vantagens que a SQH
o
oferece, e conve-
niente introduzirmos o conceito de Hipoteses Equivalentes. Note que na SQH
o
,
temos B

, onde B

e de posto linha completo, cujas linhas escolhidas podem


ser ortogonais.
Denicao 4.6.3: Sejam H
(1)
o
: B

= e H
(2)
o
: A

= , duas hipoteses
lineares testaveis. Dizemos que elas sao equivalentes se, e somente se,
existir uma matriz nao singular R, tal que RA

= B

.
Teorema 4.6.5: Se H
(1)
o
e H
(2)
o
sao hipoteses equivalentes, entao suas regioes
crticas sao coincidentes.
Prova: Sejam as regioes:
(i) (B

[B

(X

X)

B]
1
(B

)
e
(ii) (A

[A

(X

X)

A]
1
(A

).
Sendo B

= RA

=B = AR

, entao, (i) ca:


(B

[B

(X

X)

B]
1
(B

) = (RA

[RA

(X

X)

AR

]
1
(RA

)
=

AR

R
1

[A

(X

X)

A]
1
R
1
RA

= (A

[A

(X

X)

A]
1
(A

).
Pois, sendo A de posto coluna completo, entao A

A e positiva denida e, por-


tanto, nao singular. Alem disso, AA
+
= I.
Da denicao temos que RA

= B

. Pos-multiplicando por A, vem


RA

A = B

A = R = B

A(A

A)
1
,
que e uma regra para obten cao de R.
De fato,
RA

= B

A(A

A)
1
A

= B

AA
+
= B

I = B

.
Exerccio 4.6.5: Consideremos as seguintes hipoteses:
H
(1)
0
: A

= , H
(2)
0
: B

= , H
(3)
0
: C

= , H
(4)
0
: D

= ,
onde:
122 Luna, J. G. & Esteves, E. M.
A

=
_
0 1 0 1
0 1 1 0
_
_
_
_
_

3
_
_
_
_
=
_

1

2
_
;
B

=
_
0 1 1 0
0 0 1 1
_
_
_
_
_

3
_
_
_
_
=
_

1

3
_
;
C

=
_
0 0 1 1
0 2 1 1
_
_
_
_
_

3
_
_
_
_
=
_

2

3
2
1

3
_
;
D

=
_
1 0 1 0
0 1 0 1
_
_
_
_
_

3
_
_
_
_
=
_
+
1

3
_
.
Inicialmente veriquemos se H
(1)
0
e H
(4)
0
sao hipoteses equivalentes.
Se H
(1)
0
e H
(4)
0
forem equivalentes entao R
1
nao singular, tal que R
1
D

=
A

, onde
R
1
= A

D(D

D)
1
=
_
_
0 1

1
2
1
2
_
_
.
Mas,
R
1
D

=
_
_
0 1 0 1

1
2
1
2

1
2

1
2
_
_
= A

.
Dessa forma, H
(1)
0
e H
(4)
0
nao sao hipoteses equivalentes.
Por outro lado, H
(1)
0
e H
(3)
0
, sao equivalentes. Pois, R
2
nao singular, tal
que R
2
C

= A

, onde
R
2
= A

C(C

C)
1
=
_
_
1
2
1
2

1
2
1
2
_
_
.
Agora temos,
R
2
C

=
_
_
0 1 0 1
0 1 1 0
_
_
= A

.
De modo analogo, podemos vericar que H
(1)
0
, H
(2)
0
e H
(3)
0
sao hipoteses equi-
valentes entre si e nenhuma delas e equivalente a H
(4)
0
. De fato:
Luna, J. G. & Esteves, D. M. 123
(a) Em H
(1)
0
: A

= ,
_

1

3
= 0

2
= 0
=
_

1
=
3

1
=
2
=
1
=
2
=
3
.
(b) Em H
(2)
0
: B

= ,
_

1

2
= 0

3
= 0
=
_

1
=
2

2
=
3
=
1
=
2
=
3
.
(c) Em H
(3)
0
: C

= ,
_

2

3
= 0
2
1

3
= 0

_

2
=
3
2
1
2
2
= 0

_

2
=
3

1
=
2

1
=
2
=
3
Ate agora so podemos testar hipotese sobre a igualdade entre efeitos de
tratamentos (ausencia de efeito diferencial). Como
i
nao e individualmente
estimavel no modelo em questao, nao podemos testar hipotese do tipo H
0
:

i
= 0, i. Para que seja possvel testar esse tipo de hipotese, adotaremos uma
restricao parametrica nao estimavel, do tipo

i

i
= 0. Nesse caso, e facil ver
que acrescentando-se a equa cao
1
+
2
+
3
= 0 a qualquer um dos tres pares de
equacoes acima, a hipotese comum ca: H
0
:
i
= 0, i, mas isso sera assunto
para as proximas secoes.
4.9 Estimacao Por Regiao
Consideraremos aqui o problema relativo `a construcao de regioes de con-
anca para um conjunto de p fun coes estimaveis linearmente independentes.
Para tanto, sejam
p
B

, esse conjunto, onde B

tem posto linha completo.


Vimos que:
Q =
1

2
(

[B

(X

X)

B]
1
(

)
2
[r(B)]
,
se B

tem posto linha completo.


Vimos tambem, que R = [n r(X)]

2

2
[nr(X)]
.
Desse modo, dada a independencia entre Q e R, teremos
(

[B

(X

X)

B]
1
(

)
p
2
F
[p; nr(X); ]
,
onde, p = r(B). Nesse contexto, podemos obter estimativas por regiao, com
coeciente de conan ca 1 para B

estimavel, delimitada pelo elipsoide:


(

[B

(X

X)

B]
1
(

) p
2
F
[p; nr(X); ]
.
124 Luna, J. G. & Esteves, E. M.
Exerccio 4.6.6: Tomando o exemplo considerado e admitindo que estamos
interessados em construir uma regiao de conan ca - RC, para o conjunto
das funcoes estimaveis: B

, onde
B

=
_
0 0 1 1
0 2 1 1
_
_
_
_
_

3
_
_
_
_
=
_

2
+
3
2
1
+
2
+
3
_
=
_

1

2
_
.
Admitindo = 0, 01, vamos ter:
(i) p
2
F
[2 ; 7 ; 0.01]
= (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,
(ii) [B

(X

X)

B]
1
=
_
3/2 0
0 3/5
_
e
(iii)

B

= B

o
=
_
2
8
_
.
Com estes resultados, a regiao de conanca RC pode ser obtida por:
1
16, 3706
_
2
1
8
2
_
_
3/2 0
0 3/5
__
2
1
8
2
_
1,
ou
1, 5
16, 3706
(2
1
)
2
+
0, 6
16, 3706
(8
2
)
2
1
ou ainda,
(
1
2)
2
10, 9137
+
(
2
8)
2
27, 2843
1.
Fazendo a translacao, vem
x =
_
x
1
x
2
_
=
_

1
2

2
8
_
.
Temos que Q(x) = x

Ax fornece a regiao delimitada pelo elipsoide (aqui, elpse,


p = 2) de centro (2 , 8) e equa cao
x
2
1
10, 91
+
x
2
2
27, 28
= 1.
Lembrando que a equacao tpica da elipse de centro C(h, k) e semi-eixos a e
b e dada por:
(
1
h)
2
a
2
+
(
2
k)
2
b
2
= 1.
Entao, teremos para o nosso exemplo: a = 3, 30 e b = 5, 22. Assim, a Figura
4.3 mostra a regiao delimitada por essa elipse.
Luna, J. G. & Esteves, D. M. 125
Figura 4.3: Regiao com coeciente de conanca conjunta de 99% para B

,
delimitada pela elipse de centro C(2 ; 8) e semi-eixos a = 3, 30 e b = 5, 22
Observacoes:
Note que a elpse nao contem a origem dos eixos, isto e nao contem o ponto
(0 , 0), concordando com a rejeicao de H
0
:
1
=
2
=
3
(ver ANOVA);
De modo analogo, o intervalo de conanca obtido para
3, 82 2
1
+
2
+
3
12, 18,
nao contem o ponto zero, enquanto que o intervalo de conan ca obtido
para
0, 65
2
+
3
4, 65
contem a origem. Estes resultados sao concordantes com os testes das
hipoteses correspondentes; Ureia vs

Oleos Vegetais e Entre

Oleos Vegetais,
apresentados na tabela da ANOVA;
Na tabela da ANOVA a hipotese de igualdade entre efeitos dos oleos vege-
tais nao foi rejeitada ao nvel de signicancia = 0, 01, fato concordante
com o graco aqui apresentado;
A regiao de conan ca assim construda tem um coeciente de conanca
conjunto de (1 ).
Uma outra ideia e construir um retangulo de conanca usando os intervalos
de conan ca individualmente. No entanto, tal retangulo nao preserva o coe-
ciente de conanca conjunto (1 ), mas sim:
126 Luna, J. G. & Esteves, E. M.
1. c = (1 )
p
( Seber(1977), Kirk(1968), dentre outros),
2. c

= 1 p (Seber(1977), dentre outros).


3. No nosso exemplo, c = (1 0, 01)
2
0, 98 e c

= 1 2(0, 01) = 0, 98.


4. Se = 0, 05, teriamos: c 0, 90 em lugar de 0,95 e c

= 0, 90 em lugar de
0,95. E, assim por diante. Obviamente, o erro cresce conforme p cresce.
5. No exemplo em questao, para ns didaticos, escolhemos funcoes (con-
trastes) ortogonais. Este fato, leva a B

(X

X)

B diagonal. Desse modo


nao ocorrem duplos produtos na equacao da elipse. Se as fun coes envolvi-
das na construc ao da regiao de conanca nao forem ortogonais, a matriz
B

(X

X)

B nao sera diagonal (a menos para fun coes do tipo +


i
,
nesse modelo), e portanto, ocorrerao duplos produtos. Nesse contexto,
para obtencao da equacao tpica da elipse, torna-se necessaria uma trans-
formacao ortogonal. Neste sentido, ha muitas formas equivalentes para
se efetuar a rotacao (transformacao ortogonal). Aqui, apresentamos uma
delas.
Seja a elipse:
px
2
1
+ 2kx
1
x
2
+qx
2
2
= s.
(a) Obeter tg 2 =
2k
pq
, onde e o angulo da rotacao;
(b) Efetuar a transformacao ortogonal y = P

x, onde
y =
_
y
1
y
2
_
, P =
_
cos sen
sen cos
_
e x =
_
x
1
x
2
_
.
Assim, teremos:
_
y
1
y
2
_
=
_
cos sen
sen cos
_ _
x
1
x
2
_
ou
_
y
1
= x
1
cos x
2
sen
y
2
= x
1
sen +x
2
cos
.
Exerccio 4.6.7: Admitamos agora, que estamos interessados em construir a
regiao de conanca - RC, para o conjunto das funcoes estimaveis: B

,
onde
B

=
_
0 1 0 1
0 0 1 1
_
_

3
_

_
=
_

1
+
3

2
+
3
_
=
_

1

2
_
.
Admitindo = 0, 01, vamos ter:
Luna, J. G. & Esteves, D. M. 127
(i) p
2
F
[2 ; 7 ; 0,01]
= (2)(0, 8571)(9, 55) = 16, 3706. Alem disso,
(ii) [B

(X

X)

B]
1
=
_
2, 4 1, 2
1, 2 2, 1
_
e
(iii)

B

= B

o
=
_
5
2
_
.
Substituindo estes resultados, a regiao de conan ca RC ca:
_
5
1
2
2

_
2, 4 1, 2
1, 2 2, 1
_ _
5
1
2
2
_
16, 3706. (4.3)
Fazendo a substituicao (translacao), x =
_
x
1
x
2
_
=
_

1
5

2
2
_
na inequa cao
(4.3), obtem-se:
_
x
1
x
2

_
2, 4 1, 2
1, 2 2, 1
_ _
x
1
x
2
_
16, 3706 (4.4)
ou
2, 4x
2
1
2 1, 2x
1
x
2
+ 2, 1x
2
2
16, 3706.
Fazendo a transformacao ortogonal (rotacao de eixos), do tipo y = P

x,
onde P e uma matriz ortogonal obtida a partir dos autovetores normalizados
de A = [B

(X

X)

B]
1
. Assim sendo, a matriz P e tal que P

AP = =
diag{
1
,
2
}.
Para o nosso exemplo, encontramos:
P =
_
0, 7497 0, 6618
0, 6618 0, 7497
_
e =
_
3, 4594 0
0 1, 0407
_
.
Como dissemos anteriormente, a matriz P pode tambem ser obtida a partir de:
P =
_
cos sen
sen cos
_
, onde, tg2 =
2k
p q
.
Para o nosso caso,
tg2 =
2 1, 2
2, 4 2, 1
= 8 =2 = 82, 875 = = 41, 4375.
Dessa forma, vamos ter:
_
y
1
y
2

_
3, 4594 0
0 1, 0407
_ _
y
1
y
2
_
16, 3706 (4.5)
ou
3, 4594y
2
1
+ 1, 0407y
2
2
16, 3706. (4.6)
128 Luna, J. G. & Esteves, E. M.
Dividindo ambos os membros por 16,3706 e colocando a inequa cao (4.6) na
forma tpica da elipse, encontramos:
y
2
1
(2, 1755)
2
+
y
2
2
(3, 9663)
2
1.
Assim, a Figura 4.4 mostra a regiao delimitada por essa elipse.
Figura 4.4: Regiao com coeciente de conan ca conjunta de 99% para B

, de-
limitada pela elipse de centro C(5 ; 2) e semi-eixos a = 2, 1755 e b = 3, 9663
As estimativas por intervalo, com coecientes de conanca de 99%, para as
fun coes parametricas
1

=
1
+
3
e
2

=
2
+
3
, foram obtidos do
seguinte modo:

=
1

o
=
_
0 1 0 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 5
e

=
2

0
=
_
0 0 1 1
_
_
_
_
_
0
4
7
9
_
_
_
_
= 2,
Luna, J. G. & Esteves, D. M. 129
e usando a tabela da distribui cao t-Student com 7 graus de liberdade e = 0, 01
encontramos t

2
= 3, 500.
Por outro lado,

(X

X)

1
=
7
12
,
2

(X

X)

2
=
2
3
e s
2
= QMRes. = 0, 8571.
Portanto,
IC(
1
+
3
)
[99%]
:
_
5, 00 3, 50
_
7
12
(0, 8571)
_
= [2, 53 ; 7, 47]
e
IC(
2
+
3
)
[99%]
:
_
2, 00 3, 50
_
2
3
(0, 8571)
_
= [0, 65 ; 4, 65] .
Para testar as hipoteses marginais:
H
(1)
o
:

1
=
1
+
3
= 0 vs H
(1)

1
=
1
+
3
= 0
e
H
(2)
o
:

2
=
2
+
3
= 0 vs H
(2)

2
=
2
+
3
= 0,
procedemos do seguinte modo:
Calculamos:
t
1
=
|

1
0|
_

1
(X

X)

1
s
2
=
|5 0|
_
7
12
0, 8571
= 7, 071
e
t
2
=
|

2
0|
_

2
(X

X)

2
s
2
=
|2 0|
_
2
3
0, 8571
= 1, 528.
A tabela t Student nos fornece para 7 graus de liberdade ao nvel de
signicancia ( = 0, 01) o valor crtico t
[7 , 0,01]
= 3, 500. Isso indica que a
hipotese H
(1)
o
foi rejeitada ao nvel de signicancia = 0, 01 enquanto que a
hipotese H
(2)
o
nao foi rejeitada.
Observe que o IC(
2

)
[99%]
contem o ponto zero, enquanto que o IC(
1

)
[99%]
nao contem o ponto zero, concordando com os resultados obtidos para os testes
das hipoteses pelo teste t Student.

E bom lembrar que o teste t Student
aplicado `as duas hipotese marginais nao preserva o nvel de signicancia con-
junto.
130 Luna, J. G. & Esteves, E. M.
Lista de Exerccios # 5
Os valores observados de uma variavel resposta num experimento inteiramente
casualizado foram os seguintes:
Tratamento Repeti coes Total Media Variancia
T
i
R
1
R
2
R
3
y
i.
y
i
s
2
i
T
1
4 3 2 9 3,00 1,00
T
2
3 4 5 12 4,00 1,00
T
3
6 7 8 21 7,00 1,00
Geral - - - 42 4,67 -
5.1 Fa ca a analise de variancia usual.
5.2 Admitindo o modelo y = X + , G.M. Normal, caracterizado por: y
ij
=
+
i
+ e
ij
, (i, j = 1, 2, 3). Escreva o conjunto de equacoes relativas a
cada observa cao.
5.3 Escreva o sistema de equacoes do item anterior na forma matricial.
5.4 Escreva o sistema de equacoes normais.
5.5 Determine:
(a)
o
1
= (X

X)

1
Xy, (b)
o
2
= (X

X)

2
Xy,
(c)
o
3
= X
+
y, (d)
o
4
= X

y.
5.6 Apresente quatro fun coes estimaveis neste modelo.
5.7 Verique a estimabilidade das seguintes funcoes parametricas associadas a
este modelo:
(a)

1
=
1

2
, (b)

2
= +
1
,
(c)

3
= , (d)

4
=
3
,
(e)

5
=
1
+
2
+
3
, (f)

6
= 2
1

3
.
5.8 Sendo

=
1

2
uma fun cao estimavel, use a denicao de Rao(1945)
para determinar duas combinacoes lineares das observacoes, a

y, tal que,
E(a

y) =

1
.
5.9 No item anterior foram determinados dois estimadores imparciaias para

1
. Seus valores numericos sao duas estimativas imparciais de

1
.
(a) Determine agora o blue de

1
e sua variancia;
(b) Compare V (

1
) com V (a

1
y) e V (a

2
y) do item anterior e observe
que V (

1
) min{V (a

1
y) , V (a

2
y)}.
Luna, J. G. & Esteves, D. M. 131
Na verdade, a igualdade so ocorrera se o valor numerico da combinacao
linear escolhida coincidir com o blue.
5.10 Determine o blue de cada funcao parametrica estimavel do item 5.7 e suas
respectivas variancias estimadas.
5.11 Para cada fun cao parametrica do item 5.7, determine

o
, (j = 1, 2, , 7)
e verique a invariancia de

o
para as funcoes estimaveis e a total in-
consistencia de

o
para as fun coes nao estimaveis.
5.12 Para cada funcao parametrica do item 5.7, calcule

j
(X

X)

j
, (j =
1, 2, , 7).
5.13 Atraves da regra pratica de estimabilidade (lados esquerdo e direito das
E.N.) determine

+
1
.
5.14 Calcule:
(a) SQTotal = y

y,
(b) SQPar. = y

Py =
o
X

y,
o
, solucao das E.N.
(c) SQRes. = y

(I P)y = y

y
o
X

y,
o
, solucao das E.N.
(d) SQRes. =

i
(r
i
1)s
2
i
, (e) SQTrat. = y

(P P
1
)y,
(f ) C = y

P
1
y, (g) SQTrat =
o
X

y C,
Obs.: X =
_
X
1
.
.
. X
2
_
e P
1
= X
1
(X

1
X
1
)

1
.
5.15 Verique que:
(a) P e (I P) sao simetricas e idempotentes,
(b) SQPar e SQRes sao independentes.
5.16 De as distribui coes das formas quadraticas relativas a:
(a)
SQPar

2
, (b)
SQTrat

2
(c)
SQRes

2
.
5.17 Encontre:
(a) E[QMTrat], (b) E[QMRes].
5.18 Com relacao ao item anterior, qual a hipotese natural a ser testada?
5.19 Preencha a tabela a seguir:
132 Luna, J. G. & Esteves, E. M.
F. Varia cao GL SQ QM F
Media r[P
1
] = y

P
1
y =
Tratamentos r[P P
1
] = y

(P P
1
)y =
y

(PP1)y
r[PP1]
=
Parametros r[P] = y

Py =
y

Py
r[P]
=
Resduo r[I P] = y

(I P)y =
y

(IP)y
r[IP]
=
Total r[I] = y

Iy =
5.20 Encontre estimativas por ponto (blue) e por intervalo ( = 0, 05) para as
fun coes parametricas:
(a)

1
=
1

2
, (b)

2
=
2

3
,
(c)

3
= +
1
, (d)

4
= +
2
.
5.21 Determine as regioes de conanca ( = 0.05), para:
(a) B

1
, onde B

1
=
_
_

2
_
_
,
(b) B

2
, onde B

2
=
_
_

4
_
_
.
5.22 Construa as elipses do item 5.21.
5.23 Usando SQH
o
, teste as hipoteses:
(a) H
(1)
o
:
1
=
2
e (b) H
(2)
o
:
2
=
3
.
Comente esses resultados comparando com os intervalos obtidos no item
5.20 (a e b).
5.24 Usando SQH
o
, fa ca a particao da SQTrat, na soma de quadrados dos
contrastes ortogonais:

1
=
3

1
e

2
=
1
2
2
+
3
. Sugestao: Use
B

=
_
_

2
_
_
.
5.25 Construa o elipsoide de conan ca ( = 0.01) para as funcoes parametricas
do item 5.24.
Luna, J. G. & Esteves, D. M. 133
5.26 Preencha a tabela a seguir:
F. Variacao GL SQ QM F
Media r[P
1
] = y

P
1
y =
H
(1)
o
:
1
=
3
r[
1
] =
H
(2)
o
:
1+3
2
=
2
r[
2
] =
Tratamentos r[P P
1
] = y

(P P
1
)y =
y

(PP1)y
r[PP1]
=
Parametros r[P] = y

Py =
y

Py
r[P]
=
Resduo r[I P] = y

(I P)y =
y

(IP)y
r[IP]
=
Total r[I] = y

Iy =
5.27 Verique se as hipoteses H
(1)
o
e H
(2)
o
, a seguir, sao equivalentes:
H
(1)
o
: B

1
= e H
(2)
o
: B

2
= , onde,
B

1
=
_
0 1 0 1
0 1 2 1
_
,
B

2
=
_
0 1 1 0
0 0 1 1
_
e
=
_

3
_

_
5.28 Construa algebricamente e gracamente a regiao de conanca ( = 0.05)
para a cole cao de fun coes estimaveis:
+
1
, +
2
, +
3
.
134 Luna, J. G. & Esteves, E. M.
4.10 Testes de Hipoteses
(i) Baseadas em Intervalos ou Regioes de Conanca
(ii) Testes Diretos
(iii) Teste da Razao de Verossimilhanca
4.10.1 Introducao
Seja
p
B

1
um conjunto de funcoes parametricas estimaveis linearmente
independentes. Isto e r(B) = p, e seja o modelo linear normal de Gauss-Markov,
no qual queremos testar as seguintes hipoteses:
H
o
: B

= vs H

: B

= .
Observacoes:
(i) Comentarios importantes sobre espa cos vetoriais e hipoteses do tipo B

=
, podem ser vistos em Graybill de Matrizes (pag. 91 e 92);
(ii) Comentarios sobre casos particulares da hipotese linear geral citada, podem
ser encontrados em Searle (Linear Model, pag. 110).
4.10.2 Testes de Hipoteses Baseados em Intervalos e Regioes
de Conanca
Ja sabemos que a regiao de conan ca para um conjunto de fun coes estimaveis
linearmente independentes, ao nvel de conanca (1 ), e dado por:
(

[B

(X

X)
1
B]
1
(

B) p
2
F
[r(B) , nr(X) , (1)]
e que, sob H
o
: B

= ,
(

[B

(X

X)
1
B]
1
(

)
r(B)
2
F
[r(B) , nr(X) , ]
Assim, a regiao de aceitacao de H
o
: B

= , ao nvel de signicancia , e
dada por:
(

[B

(X

X)
1
B]
1
(

) r(B)
2
F
[r(B) , nr(X) , ]
e a regiao de rejeicao de H
o
: B

= , ao nvel de signicancia , e:
(

[B

(X

X)
1
B]
1
(

) > r(B)
2
F
[r(B) , n=r(X) , ]
.
Luna, J. G. & Esteves, D. M. 135
Isto e, rejeita-se H
o
: B

= , ao nvel de signicancia se, e somente se, o


elips oide nao contem o ponto B

= (Schee, pg. 31). Em particular, onde


r(B) = 1, rejeita-se H
o
se, e somente se,

i
IC(
i
)
[1]
ou se, e somente se,

2
_

i
(X

X)

i
s
2
Exerccio 4.10.2.1 Elaborar posteriormente.
4.10.3 Teste Direto
Antes de abordar esse tipo de teste deveremos estudar:
(i) Restricao Prametrica;
(ii) Hipoteses Equivalentes.
Por falta desse embasamento teorico deixaremos para outra oportunidade o
estudo desse tipo de teste.
4.10.4 O Teste da Razao de Verossimilhanca
Consideremos um conjunto de funcoes estimaveis B

, linearmente indepen-
dentes, e o problema de testar no Modelo Linear de Gauss-Markov:
_
H
o
: B

=
H

: B

=
Se designarmos por o espaco dos parametros e por
o
o espaco dos
parametros restritos `a B

, sob G.M.N., podemos obter as funcoes de verossim-


ilhan ca:
(i) Sob
f(e,
2
, ) =
1
(2)
n/2
(
2
)
n/2
Exp
_

(y X)

(y X)
2
2
_
(ii) Sob
o
f(e,
2
,
o
) =
1
(2)
n/2
(
2
)
n/2
Exp
_

(y X
o
)

(y X
o
)
2
2
_

Você também pode gostar