Escolar Documentos
Profissional Documentos
Cultura Documentos
Apostila Matrizes PDF
Apostila Matrizes PDF
DE
MATRIZES
DCE/ESALQ – USP
Fevereiro de 2007
1
ÍNDICE
3 1
3 − 2 4 − 2 3 é a sua transposta.
Por exemplo: Se A =
1 3 7 ⇒ A’ =
4 7
A notação (aji) indica que o elemento da i-ésima linha e j-ésima coluna de A é encon-
trado na j-ésima linha e i-ésima coluna de A’. Se A é n×p então A’ é p×n.
A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22,
…, app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A é forma-
da pelos elementos 3, 10 e 9.
Se a matriz nAn contém zeros em todas as posições fora da diagonal ela é uma
matriz diagonal, como por exemplo,
8 0 0 0
0 −3 0 0
D=
0 0 0 0
0 0 0 4
que também pode ser denotada como
D = diag(8, –3, 0, 4)
Nós usamos a notação diag(A) para indicar a matriz diagonal com os mesmos ele-
mentos da diagonal de A, como por exemplo,
3 2 6 3 0 0
A = 2 10 − 7 ⇒ diag(A) = 0 10 0
6 − 7 9 0 0 9
Uma matriz diagonal com o número 1 em cada posição da sua diagonal é cha-
mada de matriz identidade e é denotada por I, como por exemplo,
1 0 0
I(3) = diag(1, 1, 1) = 0 1 0
0 0 1
que é igual à soma dos produtos dos elementos da i-ésima linha de A pelos elementos
da j-ésima coluna de B. Assim, nós multiplicamos todas as linhas de A por todas as
colunas de B. Se A é (n×m) e B é (m×p) então C = AB é (n×p). Por exemplo,
1 4
2 1 3 2 6
A(2×3) = e B(3×2) =
4 6 5
3 8
Então
(2)(1) + (1)(2) + (3)(3) (2)(4) + (1)(6) + (3)(8) 13 38
A B
2 2 = C
2 2 = (4)(1) + (6)(2) + (5)(3) (4)(4) + (6)(6) + (5)(8) = 31 92
18 25 23
3BA3 = 3D3 = 28 38 36
38 51 49
Se A é n×m e B é m×p, onde n ≠ p, então o produto AB é definido, mas BA não
é definido. Se A é n×p e B é p×n, então AB é n×n e BA é p×p. Neste caso, certamen-
te, AB ≠ BA, como ilustrado no exemplo anterior. Se A e B são n×n então AB e BA
têm o mesmo tamanho, mas, em geral:
AB ≠ BA (2.12)
Usando (2.13) e (2.14) nós podemos expandir produtos como (A – B)(C – D):
(A – B)(C – D) = (A – B)C – (A – B)D
= AC – BC – AD + BD (2.15)
Desde que b’c é uma soma de produtos (um escalar!) tem-se que b’c = c’b:
b’c = b1c1 + b2c2 + … + bpcp
c’b = c1b1 + c2b2 + … + cpbp
⇒ b’c = c’b (2.16)
Assim, b’b é uma soma de quadrados e bb’ é uma matriz quadrada e simétrica.
Se j é um vetor n×1 de 1’s como definido em (2.6), então por (2.18) e (2.19),
nós temos que:
1 1 L 1
1 1 L 1
j’j = n, jj’ = = J(n×n) (2.21)
M M O M
1 1 L 1
onde Jn×n é uma matriz quadrada de 1’s como ilustrada em (2.7), Se a é um vetor n×1
e A é uma matriz n×p, então
n
a’j = j’a = ∑ ai (2.22)
i =1
∑ j a1 j
[∑i ai1 ∑i ai 2 ∑ a
∑i aip ]
2 j
j’A = L e Aj = j (2.23)
M
∑ j anj
Assim, a’j = j’a é a soma dos elementos em a, j’A contem as somas das colunas de A
e Aj contem as somas das linhas de A. Note que em a’j, o vetor j é n×1; em j’A, o
vetor j é n×1 e em Aj, o vetor j é p×1.
Para ilustrar os passos dessa prova, vamos usar as matrizes A2×3 e B3×2:
b11 b12
a a a13 b
AB = 11 12 b22
a23
21
a21 a22 b31 b32
Exemplo 2. Seja y = [y1, y2, …, yn]’ um vetor de pesos de n frangos de corte. Para
calcular a média e a variância dos pesos desses frangos, nós usamos:
1 n 1 n
y = ∑ yi s2 = ∑ ( yi − y )2
n i =1 n − 1 i =1
1
Matricialmente, a média pode ser calculada por y = j’y, onde j é um vetor n×1 de
n
1’s e n = j’j. Para calcular a variância precisamos, primeiramente, calcular o vetor de
desvios:
1 1 1 1
y – y = y –j y = y – j j' y = y – jj’y = y – Jy = I − J y
n n n n
Onde I é a matriz identidade n×n e J é uma matriz n×n de 1’s. Para calcular a soma
de quadrados de desvios fazemos:
s2 =
1 n
∑ ( yi − y )2 = 1 y' I − 1 J y
n − 1 i =1 n −1 n
Qualquer matriz A pode ser multiplicada pela sua transposta para formar A’A
ou AA’. Algumas propriedades desses produtos são dadas no próximo Teorema.
Teorema 2.2C. Seja A uma matriz n×p. Então A’A e AA’ têm as seguintes proprie-
dades:
(i) A’A é p×p e é obtida como produto das colunas de A.
(ii) AA’ é n×n e é obtida como produto das linhas de A.
(iii) Ambas as matrizes A’A e AA’ são simétricas.
(iv) Se A’A = Φ então A = Φ.
Seja A uma matriz quadrada n×n e D = diag(d1, d2, … , dn). No produto DA, a
i-ésima linha de A é multiplicada por di e em AD, a j-ésima coluna de A é multipli-
cada por dj. Por exemplo, se n = 3, nós temos:
d1 0 0 a11 a12 a13 d1a11 d1a12 d1a13
DA = 0 d2 0 a21 a22 a23 = d a d 2 a22 d 2 a23 (2.29)
2 21
0 0 d 3 a31 a32 a33 d 3a31 d 3a32 d 3a33
Vale notar que DA ≠ AD. Entretanto, no caso especial onde a matriz diagonal é
a matriz identidade, (2.29) e (2.30) temos:
IA = AI = A (2.32)
Se A é retangular, (2.32) continua valendo, mas as identidades das duas igual-
dades são de dimensões diferentes.
10 11 15 0 0 0
A⊕C= ≠Φ (Perceba que A+C = Φ)
0 0 0 − 10 − 11 − 15
1 2 1 2
− 1 − 2 3 4
0 0 − 1 − 2
A⊗y = , y ⊗A =
3 4 − 3 − 4
− 3 − 4 0 0
0 0 0 0
Exemplo 5. Sejam:
6 − 2 3 4 17
A = 2 1 0 , b = 2 ⇒ Ab = 10
4 3 2 −1 20
Usando uma combinação linear de colunas de A como em (2.37), nós obtemos:
Ab = b1a1 + b2a2 + b3a3
6 − 2 3 24 − 4 3 17
= 4 2 + 2 1 + (–1) 0 = 8 + 2 – 0 = 10
4 3 2 16 6 2 20
Por (2.28) e (2.29), as colunas do produto AB são combinações lineares das co-
lunas de A. Os coeficientes para a j-ésima coluna de AB são os elementos da j-ésima
coluna de B.
Pode-se mostrar que o número de colunas l.i. de qualquer matriz é igual ao número de
linhas l.i. dessa matriz.
Se a matriz retangular A(n×p) de posto p, onde p < n, então A tem o maior posto
possível e é dito ter posto coluna completo.
Em geral, o maior posto possível de uma matriz A(n×p) é o min(n, p). Assim, em
uma matriz retangular, as linhas, as colunas ou ambas são linearmente dependentes.
Nós ilustramos esse fato no próximo exemplo.
Nem sempre é fácil perceber que uma linha (ou coluna) é uma combinação li-
near de outras linhas (ou colunas). Nesses casos pode ser difícil “calcular” o posto de
uma matriz. Entretanto, se conseguirmos obter a forma escalonada canônica (f.e.c.)
da matriz, o seu posto corresponderá ao número de linhas (ou colunas) que tenham o
número 1 como líder. A obtenção da f.e.c. de uma matriz é feita através de operações
elementares em suas linhas (ou colunas).
Teorema: Uma matriz A é equivalente por linhas a uma matriz B se B pode ser obti-
da de A aplicando-se uma seqüência de operações elementares sobre as suas linhas.
Definição: Dizemos que uma matriz A(n×m) está na sua forma escalonada canônica ou
reduzida se ocorrer simultaneamente que:
(a) o primeiro elemento não nulo de cada linha não nula é o número 1 (pivô);
(b) toda coluna que tem um pivô, tem todos os outros elementos nulos;
(c) o pivô da linha i +1 ocorre à direita do pivô da linha i (i = 1, 2, …, n – 1).
(d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das
linhas não nulas.
Definição: Dizemos que uma matriz está na forma escalonada se ela satisfaz as pro-
priedades (c) e (d), mas não necessariamente as propriedades (a) e (b).
Teorema. Dada uma matriz real A(n×p) é sempre possível obtermos a sua forma esca-
lonada canônica (f.e.c.) através de operações elementares.
Definição: Dizemos que uma matriz quadrada está na forma de Hermite (Graybill
1969, p.120) se satisfaz as seguintes condições:
(a) é uma matriz triangular superior;
(b) tem apenas valores zero ou um na sua diagonal;
(c) se tem o valor zero na diagonal, os elementos restantes na linha são zeros;
(d) se tem o valor um na diagonal, os elementos restantes da coluna em que apare-
ce o número um, são nulos.
Definição: Dizemos que uma matriz quadrada está na forma de Echelon (Graybill,
1969, p.286) se ela satisfaz as condições de uma forma de Hermite e apresenta as
linhas de zeros abaixo das linhas que não são nulas.
Teorema 2.4A.
(i) Se as matrizes A e B são conformes, então rank(AB) ≤ rank(A) e rank(AB) ≤
rank(B).
(ii) A multiplicação por uma matriz não-singular (ver Seção 2.5) não altera o posto
da matriz, isto é, se B e C são não-singulares⇒ rank(AB) = rank(CA) = rank(A).
(iii) Para qualquer matriz A, rank(A’A) = rank(AA’) = rank(A’) = rank(A).
Prova:
(i) Todas as colunas de AB são combinações lineares das colunas de A (ver um co-
mentário no Exemplo 2.3) conseqüentemente, o número de colunas l.i. de AB é
menor ou igual ao número de colunas l.i. de A, e rank(AB) ≤ rank(A). Similar-
mente, todas as linhas de AB são combinações lineares das linhas de B [ver
comentário em (2.38)] e daí, rank(AB) ≤ rank(B).
(ii) Se B é não singular, existe uma matriz B -1 tal que B B -1 = I [ver (2.45) a seguir].
Então, de (i) nós temos que:
rank(A) = rank(AB B -1 ) ≤ rank(AB) ≤ rank(A).
Assim ambas as desigualdades tornam-se igualdades e rank(A) = rank(AB). Simi-
larmente, rank(A) = rank(CA) para C não-singular.
Importante: Se a matriz B é singular ou retangular, ela não pode ser cancelada nos
dois lados da igualdade AB = CB.
Teorema 2.5A. Se A é não singular, então A’ é não singular e a sua inversa pode ser
encontrada como:
–1 –1
(A’) = (A )’ (2.48)
1 1
Exemplo 10. A variância definida como s2 = y' I − J y = y’Ay é uma forma
n −1 n
quadrática e a sua matriz núcleo é simétrica:
1 1 1 1 −1 −1
1 − n − L −
n n
n(n − 1)
L
n(n − 1)
n
1 1 1 −1 1 −1
1 − 1 − L − L
A= n n n = n(n − 1) n n(n − 1)
n −1
M M M M M M
−1 −
1 1 − 1
L 1 −
−1
L
1
n n n n(n − 1) n(n − 1) n
Teorema 2.6A.
(i) Se A é positiva definida, então todos os elementos aii da sua diagonal são posi-
tivos.
(ii) Se A é positiva semidefinida, então todos aii ≥ 0.
(Ver prova na página 23 do livro do Rencher)
Corolário 1. Seja A(p×p) uma matriz positiva definida e seja a matriz B(k×p) de posto
k ≤ p. Então a matriz BAB’ é positiva definida.
Corolário 2. Seja A(p×p) uma matriz positiva definida e seja a matriz B(k×p). Se k > p
ou se rank(B) = r, onde r < k e r < p, então a matriz BAB’ é positiva semidefinida.
2
Note que se B é uma matriz quadrada, a matriz B = BB não é necessariamente
positiva semidefinida. Por exemplo, seja a matriz:
1 − 2
B=
1 − 2
Então:
− 1 2 2 − 4
B2 = , B’B = − 4
− 1 2 8
Neste caso, B2 não é positiva semidefinida, mas B’B é positiva semidefinida, porque
2
y’B’By = 2(y1 – 2y2) ≥ 0.
–1
Teorema 2.6E. Se A é positiva definida, então A é positiva definida.
Prova: Pelo Teorema 2.6C, A = P’P, onde P é não singular. Pelos Teoremas 2.5A e
–1 –1 –1 –1 –1 –1
2.5B, A = (P’P) = P (P’) = P (P )’, que é positiva definida pelo Teore-
ma 2.6C.
4
x2
3
0
0 1 2 3 4 5
x1
A Figura 2.1 mostra as três linhas que representam as três equações do sistema.
Note que as três linhas cruzam no ponto de coordenadas (2, 1), que é a solução única
do sistema de três equações.
4
x2
3
0
0 1 2 x1 3 4 5
Toda matriz (quadrada ou retangular) tem uma inversa condicional. Isso é ga-
rantido mesmo para vetores. Por exemplo:
1 então x1− = [1, 0, 0, 0] é uma inversa generalizada de x que
2
satisfaz (2.57). Outros exemplos são x −2 = [0, 1/2, 0, 0], x 3− = [0,
x=
3 0, 1/3, 0] e x −4 = [0, 0, 0, 1/4]. Para cada x i− , nós temos que:
4 x xi− x = x 1 = x, i = 1, 2, 3.
Nessa ilustração, x é um vetor coluna e x i− é um vetor linha. Esse modelo é generali-
zado no seguinte teorema.
Material elaborado pelo Prof. César Gonçalves de Lima
32
–
Teorema 2.8A. Se A é n×p então qualquer inversa generalizada A é p×n.
1 1 0
1 1 0
Exemplo 15. Calcular uma inversa generalizada (condicional) de X =
1 0 1
1 0 1
Usando o algoritmo de Searle (e lembrando que o posto da matriz X é 2), escolhemos
convenientemente:
1 0 –1 1 0 –1 1 0
C= ⇒ C = 0 1 ⇒ (C )’ = 0 1
0 1
0 0 0
0 0 0 0 0
1 0 0 1 0 0 é uma inversa condicional de X
⇒ ⇒ X– =
0 0 1
0 0 1 0
0 0 0
Vale lembrar que escolhendo outras matrizes C e usando o algoritmo, podemos en-
contrar outras inversas condicionais de X.
–
Teorema 2.8C. Seja A (n×p) de posto r, seja A uma inversa generalizada de A e
–
seja (A’A) uma inversa generalizada de A’A. Então:
(i) posto(A’A) = posto(AA’) = posto(A) = r.
– – –
(ii) (A’) é uma inversa generalizada de A’; isto é (A’) = (A )’.
– –
(iii) A = A(A’A) A’A e A’ = A’A(A’A) A’.
– – –
(iv) (A’A) A’ é uma inversa generalizada de A, isto é, A = (A’A) A’.
– –
(v) A(A’A) A’ é simétrica, rank[A(A’A) A’] = r e é invariante à escolha de
– – –
(A’A) ; isto é, A(A’A) A’ permanece a mesma, para qualquer (A’A) .
Material elaborado pelo Prof. César Gonçalves de Lima
34
Uma inversa generalizada de uma matriz simétrica não é necessariamente si-
métrica. Entretanto, também é verdade que uma inversa generalizada simétrica de
uma matriz simétrica, sempre pode ser encontrada; ver Problema 2.45. Neste livro,
nós assumimos que as inversas generalizadas de matrizes simétricas também são si-
métricas.
Além da inversa generalizada (condicional) definida em (2.57) existem outras,
mq +
como a inversa de mínimos quadrados (A ) e a inversa de Moore-Penrose (A ) que
é muito útil em demonstrações envolvendo modelos lineares.
Definição: Dada a matriz A(n×p) então toda matriz A mq (p×n) que satisfaz as duas
condições seguintes, é uma inversa de mínimos quadrados da matriz A:
mq
(a) AA A = A
mq
(b) AA é uma matriz simétrica
mq –
Teorema. Toda matriz do tipo A = (A’A) A’ é uma inversa de mínimos qua-
–
drados de A [qualquer que seja a inversa condicional (A’A) ].
1 1 0
1 1 0
Exemplo 16. Obter uma inversa de mínimos quadrados de X =
1 0 1
1 0 1
4 2 2
2 0
Primeiramente calculamos X’X = 2 2 0 . Escolhendo C = 0 2 e usando o al-
2 0 2
goritmo de Searle, obtemos:
0 0 0
(X’X) = 0 0,5 0
–
0 0 0,5
Então uma inversa de mínimos quadrados de X é igual a:
0 0 0 0
X
mq –
= (X’X) X’ = 0,5 0,5 0 0
0 0 0,5 0,5
Vale observar que escolhendo outras matrizes C e, correspondentemente, cal-
culando outras inversas condicionais de X’X, podemos encontrar outras inversas de
mínimos quadrados da matriz X.
Material elaborado pelo Prof. César Gonçalves de Lima
35
+
Definição: Dada a matriz A (n×p) de posto r, então a matriz A (p×n), de posto r, que
satisfaz às quatro condições seguintes, é definida como a inversa generalizada de
Moore-Penrose da matriz A:
+
(a) AA A = A
+ + +
(b) A AA = A
+
(c) A A é simétrica
+
(d) A A é simétrica
+
Teorema 2. Para cada matriz A (n×p) existe sempre uma e só uma matriz A que
satisfaz as condições de Moore-Penrose.
–
Teorema 2.8D. Se o sistema de equações Ax = c é consistente e se A é uma inversa
–
generalizada de A, então x = A c é uma solução.
Ver prova na pág.32 do livro do Rencher.
–
Vale lembrar mais uma vez que diferentes escolhas de A , resultarão em diferentes
soluções para Ax = c.
Uma condição necessária e suficiente para que o sistema Ax = c seja consistente pode
ser dado em termos de uma inversa generalizada (ver Graybill 1976, p.36).
Material elaborado pelo Prof. César Gonçalves de Lima
36
Teorema 2.8F. O sistema de equações Ax = c é consistente se e somente se para
–
qualquer inversa generalizada A de A
–
AA c = c.
Ver prova na pág. 33 do livro do Rencher.
Observe que o Teorema 2.8F fornece uma alternativa ao Teorema 2.7A para decidir
se um sistema de equações é consistente.
2.9. DETERMINANTES
Antes de definirmos o determinante de uma matriz quadrada, precisamos definir per-
mutação e número de inversões. Seja o conjunto dos cinco primeiros números intei-
ros S = {1, 2, 3, 4, 5} arrumados em ordem crescente.
• Qualquer outra ordem j1, j2, …, j5 dos elementos de S é chamada uma permu-
tação de S. Por exemplo: 32451, 45321, 32541, 12354 são permutações de S.
• O número de permutações possíveis com n objetos (índices, neste caso) é igual
a n! = n(n – 1)(n – 2)…(2)(1). Por exemplo: com os índices {1, 2, 3} conse-
guimos 3! = 6 permutações, a saber, {123, 132, 213, 231, 312, 321}.
• Uma permutação j1, j2, …, j5 de S tem uma inversão se um número inteiro jr
precede um inteiro menor js. Por exemplo: a permutação 32451 tem 5 inversões
porque: o 3 antes do 2; o 3 antes do 1; o 2 antes do 1; o quatro antes do 1 e o 5
antes do 1.
• Cada produto elementar é do tipo pi = a1j1 a2j2 a3j3… anjn em que, nos índices j1,
j2, …, jn são colocados os números de alguma permutação simples do conjunto
{1, 2, …, n}.
• Em cada produto pi existe somente um elemento de cada linha e coluna.
• Cada produto elementar recebe o sinal + ou –, conforme o número de inversões
envolvidas em pi seja par ou ímpar, respectivamente.
Essa definição não é muito útil para calcular o determinante de uma matriz, exceto
para o caso de matrizes 2×2 ou 3×3. Para matrizes maiores, existem programas espe-
cíficos (proc iml do SAS, Mapple e MathCad por exemplo) para calcular os deter-
minantes.
Material elaborado pelo Prof. César Gonçalves de Lima
37
a11 a12 a13 2 0 1
Exemplo 17. Seja a matriz A = a 21 a 22 a 23 = 3 − 1 4
a31 a32 a33 − 5 6 7
Teorema 2.9A.
n
(i) Se D = diag(d1, d2, …, dn) então det(D) = ∏ di
i =1
Corolário 1.
|AB| = |BA| (2.77)
Corolário 2.
2 2
|A | = |A| (2.77)
Quando θ = 90º, a’b = (a' a )(b' b ) cos(90º) = 0, porque cos(90º) = 0. Assim a e b são
perpendiculares quando a’b = 0.
4 − 1
Exemplo 18. Sejam os vetores a = e b = . Então a’b = 0 ⇒ cos(θ) = 0 ⇒ o
2 2
ângulo formado entre eles é de 90º, ou seja, os vetores a e b são perpendiculares.
Se a’a = 1, dizemos que o vetor a está normalizado. Um vetor b pode ser nor-
malizado dividindo-o pelo seu comprimento (ou norma), b' b . Assim, o vetor:
b
c= (2.81)
b' b
está normalizado, porque c’c = 1.
∑i=1 aii
n
tr(A) =
8 4 2
Por exemplo, se A = 2 − 3 6 , o traço de A é igual a tr(A) = 8 + (–3) + 9 = 14.
3 5 9
Teorema 2.11A.
(i) Se A e B são (n×n) então
tr(A ± B) = tr(A) ± tr( B) (2.85)
(ii) Se A é (n×p) e B é (p×n), então
tr(AB) = tr(BA) (2.86)
Note que em (2.86) n pode ser menor, igual ou maior que p
Material elaborado pelo Prof. César Gonçalves de Lima
41
(iii) Se A é (n×p)
p
tr(A’A) = ∑ a tj a j (2.87)
j =1
2.12.1 Definição
2.12.3. Produtos
Similar ao comentário feito após a apresentação de (2.97), os autovalores de AB não
são produtos da forma λAλB. Entretanto, os autovalores de AB são os mesmos de BA.
Teorema 2.12D. Se A é uma matriz simétrica com autovalores λ1, λ2, …,λn e autove-
tores normalizados x1, x2, …,xn então A pode ser expressa como
A = CDC’ (2.102)
n
= ∑ λ i x i x ti (2.103)
i =1
onde D = diag(λ1, λ2, …,λn) e C é a matriz ortonormal C = [x1, x2, …,xn]. O resultado
mostrado em (2.102) ou (2.103) é chamado de decomposição espectral de A.
Ver prova nas pág. 46-47.
Teorema 2.12E. Se A é uma matriz com autovalores λ1, λ2, …,λn então
n
(i) det(A) = | A | = ∏ λi (2.106)
i =1
n
(ii) tr(A) = ∑ λi (2.107
i =1
Teorema 2.12F. Se A é uma matriz com autovalores λ1, λ2, …,λn então
(i) Se A é positiva definida então λi > 0 para i = 1, 2, …, n
(ii) Se A é positiva semidefinida então λi ≥ 0 para i = 1, 2, …, n. O número de
autovalores λi para os quais λi > 0 é igual ao posto de A.
Teorema A.5.2 Seja A uma matriz real e simétrica, n×n, e D = diag(λ1, λ2, ...,λn) é a
matriz diagonal que exibe as raízes características de A. Então:
a) λi > 0, ∀i ⇔ A é positiva definida.
b) λi ≥ 0, ∀i, ∃ λi = 0 ⇔ A é positiva semi-definida.
c) λi < 0, ∀i ⇔ A é negativa definida.
Teorema 2.13E. Se A é uma matriz n×n idempotente, P é uma matriz n×n não
singular e C é uma matriz n×n ortogonal, então:
(i) I – A é idempotente.
(ii) A(I – A) = 0 e (I – A)A = 0
-1
(iii) P AP é idempotente
(iv) C’AC é idempotente (se A é simétrica, C’AC é uma matriz simétrica e idempo-
tente).
Material elaborado pelo Prof. César Gonçalves de Lima
47
–
Teorema 2.13F. Seja A uma matriz n×p de posto r, seja A qualquer inversa genera-
– – –
lizada de A e seja (A’A) uma inversa generalizada de A’A. Então A A, AA e
–
A(A’A) A’ são todas idempotentes.
Teorema 2.13G. Supondo que a matriz simétrica A n×n possa ser escrita como A =
∑i=1 A i para algum k, onde cada Ai é uma matriz simétrica n×n. Então, quaisquer
k
Teorema 2.14A. Seja u = a’x = x’a , onde a’ = [a1, a2, …, ap] é um vetor de constan-
tes. Então
∂u ∂ (a' x) ∂ (x' a)
= = =a (2.111)
∂x ∂x ∂x
(Ver prova na pág. 51 do livro do Rencher).
Para encontrarmos β̂β que minimiza εε̂ ’ εε̂ , calculamos a diferencial de ε̂ε ’ ε̂ε em relação
β̂ . Observando que:
aβ
∂ ∂
(y’y) = 0 ⇒ β ’X’y) = –2X’y,
(2 β̂ por (2.111)
∂β̂
β ∂β̂
β
∂
β ’X’X β̂
(β
β̂ β ) = 2X’X β̂
β, por (2.112)
∂β̂
β
Daí tem-se que:
∂εˆ ' εˆ
= – 2X’y + 2X’X β̂
β
∂βˆ
Igualando o resultado a um vetor de zeros, obtemos o sistema de equações normais:
X’X β̂
β = X’y (7.8)
Como X’X é não-singular, a solução do sistema é única e obtida por:
–1
β = (X’X) X’y
β̂
Esta solução é chamada de solução de mínimos quadrados.
Searle, S. R. (1982). Matrix Algebra Useful for Statistics. New York: Wiley.
EXERCÍCIOS
Ver exercícios das páginas 52-61 do livro texto.
2 − 4 5
− 4 5
E = 0 1 4 e F=
3 2 3
2 1
1) Se as operações forem possíveis, calcule:
1 2
(a) C + E (b) AB e BA (c) D– F (d) B’C + A’
3 5
a + b c + d 4 6
4) Se = , calcule os valores de a, b, c e d.
c − d a − b 10 2
–1 –1
6) Mostrar algebricamente que se A é não singular então (A’) = (A )’, usando a
a a12
matriz A = 11 .
21
a a `22
4 2 2 x1 20
9) Seja o sistema escrito na forma matricial Ax = b, ou 2 2 0 x2 = 12 .
2 0 2 x3 8
(a) Encontre uma inversa generalizada simétrica de A.
(b) Encontre uma inversa generalizada não simétrica de A.
–
(c) Encontre duas soluções do sistema x = A b utilizando as inversas calculadas
nos itens anteriores e indique qual delas tem o menor comprimento.
–
(d) Mostre que a matriz AA é idempotente.
ASPECTOS GERAIS