Você está na página 1de 29

Apostila: Matrizes e Determinantes

Prof. André Luís Rossi de Oliveira

1 Matrizes
1.1 Conceitos Básicos

Chamamos de matriz a uma tabela de elementos dispostos em linhas e colunas.

Exemplos:
(1) Considere a tabela abaixo:

Altura (metros) Peso (quilos) Idade (anos)


Pessoa 1 1,70 70 23
Pessoa 2 1,75 60 45
Pessoa 3 1,60 52 25
Pessoa 4 1,81 72 30

Ao abstraírmos os significados das linhas e colunas, obtemos a matriz

⎡1, 70 70 23⎤
⎢1, 75 60 45⎥⎥

⎢1, 60 52 25⎥
⎢ ⎥
⎣1,81 72 30 ⎦

(2) Os elementos de uma matriz podem ser números, funções etc, como nas
matrizes abaixo:

⎡ x2 1⎤ ⎡0⎤
⎢ ⎥ ⎢ e3 ⎥
⎢ x 2⎥ [5 sen x −2] ⎢ ⎥
⎢ x + 1 3⎥ ⎢⎣3x ⎥⎦
⎣ ⎦

1
Representamos uma matriz de m linhas e n colunas por

⎡ a11 a12 a1n ⎤


⎢a a22 a2 n ⎥⎥
Am×n = ⎢ 21 = ⎡a ⎤ ,
⎢ ⎥ ⎣ ij ⎦ m×n
⎢ ⎥
⎣⎢ am1 am 2 amn ⎦⎥

onde aij é o elemento característico da matriz, com i representando a linha e j, a coluna.

Definição: Duas matrizes Am×n = ⎡⎣ aij ⎤⎦ e Br×s = ⎡⎣bij ⎤⎦ são iguais, ou seja, A = B , se elas
m×n r ×s

têm o mesmo número de linhas ( m = r ) e colunas ( n = s ) e todos os seus elementos


correspondentes são iguais ( aij = bij ).

Exemplo:
⎡ 22 ln1 sen 90o ⎤ ⎡ 4 0 1⎤
⎢ ⎥
⎢ 3 0 9 ⎥ = ⎢⎢ 3 0 3⎥⎥
⎢ cos 900 −1 3 ⎥⎥ ⎢⎣ 0 −1 3⎥⎦
⎢⎣ ⎦

1.2 Tipos Especiais de Matrizes

Seja Am×n uma matriz com m linhas e n colunas. Alguns tipos importantes de matrizes
são os seguintes:

(a) Quadrada: É aquela cujo número de linhas é igual ao número de colunas


( m = n ).

⎡ 2 0 −9 ⎤
⎢ 4 −8 −7 ⎥
⎢ ⎥ [ 4]1×1
⎢⎣ 2 8 6 ⎥⎦ 3×3

2
(b) Nula: aij = 0 ∀i, j .

⎡0 0 0 0⎤
⎢0 0 ⎥⎥
⎡0 0 ⎤ ⎢ 0 0
⎢0 0 ⎥ ⎢0 0⎥
⎣ ⎦ 0 0
⎢ ⎥
⎣0 0 0 0⎦

(c) Coluna: n = 1 .
⎡6⎤
⎡1⎤ ⎢0⎥
⎢4⎥ ⎢ ⎥
⎢ ⎥ ⎢ −8 ⎥
⎣⎢ −3⎦⎥ ⎢ ⎥
⎣ −7 ⎦

Uma matriz coluna é chamada de vetor-coluna.

(d) Linha: m = 1 .

[3 −7 −4] [6 4 1 −8]

Uma matriz linha é chamada de vetor-linha.

(e) Diagonal: É uma matriz quadrada onde aij = 0 ∀i ≠ j .

⎡2 0 0 ⎤
⎢0 1 0 ⎥
⎢ ⎥
⎢⎣ 0 0 −4 ⎥⎦

(f) Identidade: É uma matriz diagonal onde todos os elementos da diagonal são
iguais a 1, ou seja, aii = 1 e aij = 0 ∀i ≠ j .

3
⎡1 0 0 ⎤
⎢0 1 0⎥
⎢ ⎥
⎢⎣0 0 1 ⎥⎦

(g) Triangular Superior: É uma matriz quadrada onde todos os elementos abaixo
da diagonal são nulos, isto é, aij = 0 ∀i > j .

⎡ 4 −3 −2 9 ⎤
⎢ 0 −1 0 1 ⎥
⎢ ⎥
⎢ 0 0 3 −4 ⎥
⎢ ⎥
⎣0 0 0 1 ⎦

(h) Triangular Inferior: É uma matriz quadrada onde todos os elementos acima
da diagonal são iguais a zero, isto é, aij = 0 ∀i < j .

⎡2 0 0 0⎤
⎢ −3 −2 0 0 ⎥⎥

⎢ −3 −3 4 0⎥
⎢ ⎥
⎣ −2 4 8 9⎦

(i) Simétrica: É uma matriz quadrada onde aij = a ji ∀i, j .

⎡ 1 2 −4 ⎤
⎢2 3 1⎥
⎢ ⎥
⎢⎣ −4 1 2 ⎥⎦

1.3 Operações com Matrizes

Adição: A + B = ⎡⎣ aij + bij ⎤⎦ , onde Am×n = ⎡⎣ aij ⎤⎦ e Bm×n = ⎡⎣bij ⎤⎦ .


m×n

4
⎡1 −5⎤ ⎡ 0 −8⎤ ⎡ 1 −13⎤
Exemplo: ⎢⎢ 3 −3⎥⎥ + ⎢⎢ −7 1 ⎥⎥ = ⎢⎢ −4 −2 ⎥⎥
⎢⎣ 4 −2 ⎥⎦ ⎢⎣ 9 0 ⎥⎦ ⎢⎣13 −2 ⎥⎦

Propriedades da adição: Dadas as matrizes A, B e C de mesma ordem mxn, temos:


(i) A + B = B + A (comutatividade)
(ii) A + ( B + C ) = ( A + B ) + C (associatividade)

(iii) A + 0 = A , onde 0 é a matriz nula mxn.

Demonstração: Exercício!

Multiplicação por escalar: k . A = ⎡⎣ kaij ⎤⎦ , onde A = ⎡⎣ aij ⎤⎦ e k é um número real.


m×n m×n

⎡ 0 −3⎤ ⎡ 0 −21⎤
Exemplo: 7 ⎢ ⎥=⎢ ⎥
⎣ 4 5 ⎦ ⎣ 28 35 ⎦

Propriedades: Dadas matrizes A e B de mesma ordem mxn e números reais k , k1 e k2 ,


temos:
(i) k ( A + B ) = kA + kB

(ii) ( k1 + k2 ) A = k1 A + k2 A

(iii) 0. A = 0
(iv) k1 ( k2 A) = ( k1k2 ) A

Demonstração: Exercício!

Transposição: Dada uma matriz A = ⎡⎣ aij ⎤⎦ , a matriz transposta de A é definida como


m×n

AT = ⎡⎣bij ⎤⎦ , cujas linhas são as colunas de A, isto é, bij = a ji ∀i, j .


n×m

Exemplos:

5
⎡ 3 −8⎤
⎡3 0 0⎤
A = ⎢⎢0 7 ⎥⎥ AT = ⎢ ⎥
⎢⎣0 3 ⎥⎦ ⎣ −8 7 3 ⎦

⎡4 2⎤ ⎡ 4 2⎤
B=⎢ ⎥ B T
= ⎢2 1⎥
⎣2 1⎦ ⎣ ⎦

Propriedades:
(i) Uma matriz é simétrica se, e somente se, ela é igual à sua transposta, ou seja, A = AT .

(A )
T
(ii) T
=A

( A + B)
T
(iii) = AT + BT

( kA)
T
(iv) = kAT

( AB )
T
(v) = BT AT

Demonstração: Exercício!

Multiplicação de Matrizes: Sejam A = ⎡⎣ aij ⎤⎦ e B = [brs ]n× p . Definimos o produto


m×n

matricial AB = [ cuv ]m× p por

n
cuv = ∑ auk bkv = au1b1v + + aunbnv
k =1

Perceba que só é possível efetuar o produto de duas matrizes Am×n e Bl× p se n = l , ou

seja, se o número de colunas da matriz que aparece pré-multiplicando for igual ao número
de linhas da matriz que aparece pós-multiplicando.

Exemplos:

6
⎡ 3 5 ⎤ ⎡ −1 0 ⎤ ⎡ ( 3)( −1) + ( 5 )( 4 ) ( 3)( 0 ) + ( 5 )( 7 ) ⎤ ⎡17 35 ⎤
⎢ 4 6 ⎥ ⎢ 4 7 ⎥ = ⎢ 4 −1 + 6 4 ⎥=⎢ ⎥
⎣ ⎦⎣ ⎦ ⎣( )( ) ( )( ) ( 4 )( 0 ) + ( 6 )( 7 ) ⎦ ⎣ 20 42 ⎦
⎡1 3⎤ ⎡ (1)( 5 ) + ( 3)( 9 ) ⎤ ⎡32 ⎤
⎢ 2 8 ⎥ ⎡5⎤ = ⎢ 2 5 + 8 9 ⎥ = ⎢82 ⎥
⎢ ⎥ ⎢9 ⎥ ⎢ ( )( ) ( )( ) ⎥ ⎢ ⎥
⎣ ⎦ ⎢ 4 5 + 0 9 ⎥ ⎢ 20 ⎥
⎣⎢ 4 0 ⎦⎥ ⎣( )( ) ( )( ) ⎦ ⎣ ⎦
⎡ 2 8 9⎤ ⎡ x1 ⎤ ⎡ 2 x1 + 8 x2 + 9 x3 ⎤
⎢ ⎥ ⎢ ⎥
A = ⎢ −3 9 0 ⎥ x = ⎢ x2 ⎥ Ax = ⎢⎢ −3 x1 + 9 x2 ⎥⎥
⎢⎣ −2 −1 3⎥⎦ ⎢⎣ x3 ⎥⎦ ⎢⎣ −2 x1 − x2 + 3 x3 ⎥⎦

Propriedades:
(i) Em geral, AB ≠ BA .
⎡ 1 −1 1 ⎤ ⎡ 1 2 3⎤
Exemplo: Se A = ⎢⎢ −3 2 −1⎥⎥ B = ⎢⎢ 2 4 6⎥⎥ , então
⎢⎣ −2 1 0 ⎥⎦ ⎢⎣1 2 3⎥⎦

⎡0 0 0⎤ ⎡ −11 6 −1⎤
AB = ⎢0 0 0 ⎥ e BA = ⎢⎢ −22 12 −2 ⎥⎥
⎢ ⎥
⎢⎣0 0 0 ⎥⎦ ⎢⎣ −11 6 −1⎥⎦

É importante perceber que AB = 0 sem que A = 0 ou B = 0 .


Desde que estejam bem definidas as operações, as seguintes propriedades são válidas:
(ii) AI = IA = A
(iii) A ( B + C ) = AB + AC

(iv) ( A + B ) C = AC + BC
(v) ( AB ) C = A ( BC )
( AB )
T
(vi) = BT AT

(vii) 0. A = 0 e A.0 = 0

7
1.4 Matriz Inversa

Definição: Seja A uma matriz quadrada. A matriz inversa de A, denotada por A−1 , é aquela
que satisfaz a condição AA−1 = A−1 A = I .

Obs.: (i) Nem toda matriz quadrada possui inversa. Se uma matriz quadrada possui
inversa, ela é chamada de não-singular. Se ela não possui inversa, é chamada de singular.
(ii) Se existe a matriz inversa, então ela é única.

⎡1 1⎤
⎢ − ⎥
⎡3 1 ⎤ 3 6
Exemplos: Se A = ⎢ ⎥ e B=⎢ ⎥ , então
⎣0 2⎦ ⎢0 1 ⎥
⎣⎢ 2 ⎥⎦

⎡ 3 1 ⎤ ⎡ 2 −1⎤ 1 ⎡ 6 0 ⎤ 1 ⎡1 0⎤
AB = ⎢ ⎥⎢ ⎥ =⎢ ⎥ =⎢ ⎥ = I.
⎣0 2⎦ ⎣0 3 ⎦ 6 ⎣0 6⎦ 6 ⎣0 1⎦
Podemos verificar facilmente que BA = I , de forma que B = A−1 e A = B −1 .

Propriedades:

(i) (A )
−1 −1
=A

( AB )
−1
(ii) = B −1 A − 1

Demonstração: Seja C a inversa de AB. Então CAB = I , de forma que

CABB −1 A−1 = IB −1 A−1 = B −1 A−1.

Mas também é verdade que

CABB −1 A−1 = CAIA−1 = CAA−1 = CI = C ,

o que implica C = B −1 A−1 .

8
(A ) = ( A−1 )
T −1 T
(iii)

1.5 Sistemas de Equações Lineares e Matrizes

Um sistema de equações lineares com m equações e n incógnitas é um conjunto de


equações do tipo:

⎧a11 x1 + a12 x2 + + a1n xn = b1


⎪a x + a x + + a x = b
⎪ 21 1 22 2 2n n 2


⎪⎩am1 x1 + am 2 x2 + + amn xn = bm

onde os aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n , são números reais.

Uma solução do sistema acima é uma lista de n números (n-upla) do tipo


( x1 , x2 ,…, xn ) que satisfaça simultaneamente as m equações.

O sistema pode ser escrito na forma matricial como

⎡ a11 a12 … a1n ⎤ ⎡ x1 ⎤ ⎡ b1 ⎤


⎢a a22 … a2 n ⎥⎥ ⎢⎢ x2 ⎥⎥ ⎢⎢b2 ⎥⎥
⎢ 21 = ou Ax = b,
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣⎢ am1 am 2 … amn ⎦⎥ ⎣⎢ xn ⎦⎥ ⎣⎢bn ⎦⎥

onde A é a matriz dos coeficientes, x é o vetor das incógnitas e b é o vetor dos termos
independentes.
Outra matriz importante é a matriz ampliada do sistema:

⎡ a11 a12 … a1n b1 ⎤


⎢a a22 … a2 n b2 ⎥⎥
⎢ 21
⎢ ⎥
⎢ ⎥
⎢⎣ am1 am 2 … amn bn ⎥⎦

9
⎧2 x1 + 3x2 − 5 x3 = 7

Exemplo: Considere o sistema ⎨− x1 + 7 x2 − x3 = 4 . A sua forma matricial é

⎩ x1 + 5 x2 + 9 x3 = −3

⎡ 2 3 −5⎤ ⎡ x1 ⎤ ⎡ 7 ⎤
⎢ −1 7 −1⎥ ⎢ x ⎥ = ⎢ 4 ⎥ .
⎢ ⎥⎢ 2⎥ ⎢ ⎥
⎢⎣ 1 5 9 ⎥⎦ ⎢⎣ x3 ⎥⎦ ⎢⎣ −3⎥⎦

Operações Elementares

(i) Permuta da i-ésima e j-ésima linhas ( Li ↔ L j )

Exemplo: L1 ↔ L2

⎡ 2 0 ⎤ ⎡ 4 −2 ⎤
⎢ 4 −2 ⎥ → ⎢ 2 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ −5 1 ⎥⎦ ⎢⎣ −5 1 ⎥⎦

(ii) Multiplicação da i-ésima linha por um escalar (número real) não nulo k ( Li → kLi )

Exemplo: L3 → −2 L3

⎡2 0 ⎤ ⎡2 0 ⎤
⎢ 4 −2 ⎥ → ⎢ 4 − 2 ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ −5 1 ⎥⎦ ⎢⎣10 −2 ⎥⎦

(iii) Substituição da i-ésima linha pela i-ésima linha mais k vezes a j-ésima linha
( Li → Li + kL j )

Exemplo: L2 → L2 + 3L1

⎡2 0 ⎤ ⎡ 2 0 ⎤
⎢ 4 −2 ⎥ → ⎢10 −2 ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ −5 1 ⎥⎦ ⎢⎣ −5 1 ⎥⎦

10
Se A e B são matrizes mxn, dizemos que B é linha-equivalente a A se B pode ser
obtida de A através de um número finito de operações elementares sobre as linhas de A. A
notação para isso é A → B ou A ∼ B .

⎡ 1 0 ⎤ ⎡1 0 ⎤
Exemplo: ⎢ 4 −1⎥ → ⎢ 0 1 ⎥ , pois
⎢ ⎥ ⎢ ⎥
⎢⎣ −3 4 ⎥⎦ ⎢⎣ 0 0 ⎥⎦

⎡1 0 ⎤ ⎡1 0 ⎤ ⎡1 0 ⎤
⎢ 4 −1⎥ ⎯⎯⎯⎯⎯ → ⎢ ⎥ ⎯⎯⎯⎯→ ⎢ ⎥
⎢ ⎥ L2 → L2 − 4 L1 ⎢0 −1⎥ L3 → L3 +3 L1 ⎢ 0 −1⎥
⎣⎢ −3 4 ⎥⎦ ⎣⎢ −3 4 ⎦⎥ ⎣⎢ 0 4 ⎥⎦
⎡1 0 ⎤ ⎡1 0 ⎤
⎯⎯⎯⎯ ⎢
→ 0 1 ⎯⎯⎯⎯⎥ ⎯→⎢ ⎥
L2 →− L2 ⎢ ⎥ L3 → L3 − 4 L2 ⎢ 0 1 ⎥
⎣⎢0 4 ⎦⎥ ⎣⎢0 0 ⎦⎥

Teorema: Dois sistemas que possuem matrizes ampliadas equivalentes são equivalentes, ou
seja, toda solução de um dos sistemas também é solução do outro.
Demonstração: Não será apresentada.

Forma Escada

Definição: Uma matriz mxn é linha-reduzida à forma escada se:


(a) O primeiro elemento não nulo de uma linha não nula é 1;
(b) Cada coluna que contém o primeiro elemento não nulo de alguma linha tem todos
os seus outros elementos iguais a zero;
(c) Toda linha nula ocorre abaixo de todas as linha não nulas;
(d) Se as linhas 1,… , r são as linhas não nulas, e se o primeiro elemento não nulo da

linha i ocorre na coluna ki , então k1 < k2 < < kr .

Exemplos:

11
⎡1 −4 0 ⎤
(1) A matriz ⎢⎢0 0 0 ⎥⎥ não satisfaz as condições (b) e (c).
⎢⎣0 1 0 ⎥⎦

⎡0 3 0 ⎤
(2) A matriz ⎢⎢1 0 −2 ⎥⎥ não satisfaz as condições (a), (b) e (d).
⎢⎣0 0 1 ⎥⎦

⎡0 1 0 −2 2⎤
(3) A matriz ⎢⎢ 0 0 1 0 3 ⎥⎥ está na forma escada.
⎢⎣ 0 0 0 0 0 ⎥⎦

Teorema: Toda matriz Am×n é linha-equivalente a uma única matriz linha-reduzida à forma
escada.
Dem.: Não será apresentada.

Definição: Dada uma matriz Am×n , seja Bm×n a matriz linha-reduzida à forma escada
equivalente a A. O posto de A, denotado por p, é o número de linhas não nulas de B. A
nulidade de A é igual ao número n-p.

⎡1 2 1 0⎤
Exemplo: Considere a matriz A = ⎢⎢ −1 0 3 5 ⎥⎥ . Efetuamos as seguintes operações:
⎢⎣ 1 −2 1 1 ⎥⎦

⎡1 2 1 0⎤ ⎡1 2 1 0⎤ ⎡1 2 1 0 ⎤
⎢ −1 0 3 ⎥
5 ⎥ ⎯⎯⎯⎯ → ⎢⎢0 2 4 ⎥
5 ⎥ ⎯⎯⎯→ ⎢0 1 2 5 2 ⎥⎥
⎢ L2 → L2 + L1
L →L − L
L
L2 → 2 ⎢
⎢⎣ 1 −2 1 1 ⎥⎦ 3 3 1 ⎢⎣0 −4 0 1 ⎥⎦ 2
⎢⎣ 0 −4 0 1 ⎥⎦
⎡ 1 0 −3 −5 ⎤ ⎡ 1 0 − 3 −5 ⎤ ⎡1 0 0 − 7 8⎤
⎯⎯⎯⎯
L1 → L1 − 2 L2
→ ⎢⎢0 1 2
⎯ ⎥
5 2 ⎥ ⎯⎯⎯ ⎢
L → ⎢0

1 2 5 2 ⎥ ⎯⎯⎯⎯
L1 → L1 + 3 L3
→ ⎢⎢ 0 1 0
⎯ −1 4 ⎥⎥
L3 → 3
L3 → L3 + 4 L2 L → L −2 L
⎢⎣0 0 8 11 ⎥⎦ 8
⎢⎣0 0 1 11 8⎥⎦ 2 2 3 ⎢⎣ 0 0 1 11 8 ⎥⎦

O posto de A é 3 e a nulidade é 4-3=1.

12
Podemos interpretar a matriz A como sendo a matriz ampliada do seguinte sistema
linear:

⎧ x1 + 2 x2 + x3 = 0

⎨− x1 + 0 x2 + 3x3 = 5
⎪x − 2x + x = 1
⎩ 1 2 3

Pelo que foi demonstrado acima, esse sistema é equivalente ao seguinte sistema:

⎧ 7
⎪ x1 = − 8

⎪ 1
⎨ x2 = −
⎪ 4
⎪ 11
⎪ x3 = 8

Soluções de Sistemas de Equações Lineares

Considere o sistema formado de apenas uma equação e uma incógnita ax = b . Nesse


caso, há três possibilidades:
b
(i) a ≠ 0 : Existe uma única solução x = .
a
(ii): a = 0 e b = 0 : Neste caso, o sistema torna-se 0 x = 0 e qualquer número real é uma
solução.
(iii) a = 0 e b ≠ 0 : Neste caso, o sistema torna-se 0x = b e não possui solução.

Analogamente, no caso de um sistema de m equações lineares e n incógnitas, há três


casos possíveis: uma única solução, infinitas soluções ou nenhuma solução. No primeiro
caso, o sistema é dito possível (ou compatível) e determinado, no segundo, possível e
indeterminado, e, no terceiro, impossível (ou incompatível).
O seguinte teorema traz alguns resultados sobre a existência de soluções.

13
Teorema:
(i) Um sistema de m equações e n incógnitas admite solução se, e somente se, o posto da
matriz ampliada é igual ao posto da matriz de coeficientes;
(ii) Se as duas matrizes têm o mesmo posto p e p = n , a solução é única.
(iii) Se as duas matrizes têm o mesmo posto e p<n, podem ser escolhidas n-p incógnitas, e
as demais p incógnitas serão dadas em função destas.

Exemplos:
⎡1 0 0 5⎤
(1) O sistema com matriz ampliada ⎢⎢ 0 1 0 −1⎥⎥ tem solução única, dada por
⎢⎣0 0 1 −2 ⎥⎦

x1 = 5, x2 = −1, x3 = −2 , já que o posto da matriz de coeficientes ( pc ) é igual ao da matriz

ampliada ( pa ), pc = pa = 3 , e o número de incógnitas é igual ao posto.

⎡1 0 8 −2 ⎤
(2) Para o sistema com matriz ampliada ⎢0 1 −2 5⎥ , temos
⎣ ⎦
pc = pa = 2, m = 2, n = 3, p = 2 , de maneira que há infinitas soluções, dadas por

x1 = −2 − 8 x3
x2 = 5 + 2 x3

⎡1 0 8 −2 ⎤
(3) O sistema com matriz ampliada ⎢⎢0 1 −2 5⎥⎥ é impossível, pois pc = 2, pa = 3.
⎢⎣0 0 0 3 ⎥⎦

⎧ x1 + 2 x2 + x3 + x4 = 0
(4) Considere o sistema ⎨ . A matriz ampliada do sistema pode ser
⎩ x1 + 3x2 − x3 + 2 x4 = 0
transformada na forma escada através das seguintes operações.

⎡1 2 1 1 0⎤ ⎡1 2 1 1 0⎤ ⎡1 0 5 −1 0 ⎤
⎢1 3 ⎥ ⎯⎯⎯⎯ →⎢ ⎥ ⎯⎯⎯⎯→ ⎢0
⎣ −1 2 0⎦ L2 → L2 − L1
⎣0 1 −2 1 0 ⎦ L1 → L1 − 2 L2
⎣ 1 −2 1 0⎥⎦

14
Podemos observar que pc = pa = 2, m = 2, n = 4 , de forma que há 2 graus de

liberdade. As variáveis x3 e x4 são livres. Se fizermos x3 = λ1 e x4 = λ2 , obteremos as


seguintes soluções do problema:
x1 = −5λ1 + λ2
x2 = 2λ1 − λ2
x3 = λ1
x4 = λ2

2 Determinantes
2.1 Definição e propriedades básicas

Considere o sistema de apenas uma equação e uma incógnita ax = b , com a ≠ 0 . A


b
solução desse sistema é x = . O denominador a está associado à matriz de coeficientes do
a
sistema, [ a ] .

⎧a11 x1 + a12 x2 = b1
Em um sistema 2x2 do tipo ⎨ , a solução é dada por
x +
⎩ 21 1 22 2
a a x = b 2

b1a22 − b2 a12 b a −ba


x1 = e x2 = 2 11 1 21 .
a11a22 − a12 a21 a11a22 − a12 a21

Perceba que os denominadores são iguais. Além disso, de maneira análoga ao caso de
uma equação e uma incógnita, os denominadores estão associados à matriz de coeficientes
do sistema, qual seja

⎡ a11 a12 ⎤
⎢a ⎥
⎣ 21 a22 ⎦

Em um sistema 3x3, as soluções x1 , x2 e x3 são frações com denominadores iguais a

a11a22 a33 − a11a23 a32 − a12 a21a33 + a12 a23 a31 + a13 a21a32 − a13 a22 a31 ,

15
que também estão relacionados à matriz de coeficientes do sistema, dada por
⎡ a11 a12 a13 ⎤
⎢a a23 ⎥⎥
⎢ 21 a22
⎣⎢ a31 a32 a33 ⎦⎥

Os denominadores mencionados acima são chamados de determinantes das matrizes


de coeficientes.
Para podermos definir determinante, precisamos da noção de inversão, dada a seguir:

Definição: Dada uma permutação dos inteiros 1, 2,… , n , existe uma inversão quando um
inteiro precede outro menor do que ele.

Podemos agora definir o conceito de determinante.

Definição: O determinante de uma matriz quadrada A = ⎡⎣ aij ⎤⎦ é definido como

det A = ∑ ( −1) a1 j1 a2 j2 … anjn ,


J

onde J = J ( j1 , j2 ,… , jn ) é o número de inversões da permutação ( j1 , j2 ,…, jn ) e ρ indica

que a soma ocorre sobre todas as permutações de (1, 2,… , n ) (existem n! permutações).

Podemos fazer as seguintes observações com relação a essa definição.

Obs.: (i) Em cada termo do somatório, existe um e apenas um elemento de cada linha e um,
e apenas um, elemento de cada coluna da matriz;
(ii) O determinante também pode ser definido através da fórmula

det A = ∑ ( −1) a j11a j2 2 … a jn n ,


J

Exemplos:
(1) det [ a ] = a

⎡a a ⎤
(2) det ⎢ 11 12 ⎥ = a11a22 − a12 a21
⎣ a21 a22 ⎦

16
⎡ a11 a12 a13 ⎤
det ⎢⎢ a21 a22 a23 ⎥⎥ = a11a22 a33 − a11a23a32 − a12 a21a33
(3)
⎢⎣ a31 a32 a33 ⎥⎦
+ a12 a23a31 + a13a21a32 − a13a22 a31

Propriedades:

(1) Se todos os elementos de uma linha ou coluna de uma matriz A são nulos, então
det A = 0 .
Dem.: Segue-se imediatamente da observação (i).
(2) det A = det AT .

Dem.: Se A = ⎡⎣ aij ⎤⎦ , sabemos que AT = ⎡⎣bij ⎤⎦ , onde bij = a ji . Sendo assim,

det ⎡⎣bij ⎤⎦ = ∑ ( −1) b1 j1 b2 j2 … bnjn


J

= ∑ ( −1) a j11a j2 2 … a jn n
J

= det ⎡⎣ aij ⎤⎦ ,

pela observação (ii).


a b a c
Exemplo: = ad − bc, = ad − bc.
c d b d
(3) Se a linha de uma matriz é multiplicada por uma constante, o determinante fica
multiplicado por esta constante.
Dem.: Segue-se imediatamente da observação (i).
ka kb a b
Exemplo: = kad − kbc = k ( ad − bc ) = k .
c d c d
(4) A troca da posição de duas linhas (ou colunas) altera o sinal do determinante,
mas não o seu valor numérico.
Dem.: Quando duas linhas são trocadas, é alterada a paridade do número de
inversões dos índices, o que significa que o sinal dos termos é trocado.
a b c d
Exemplo: = ad − bc, = cb − ad = − ( ad − bc ) .
c d a b

17
(5) O determinante de uma matriz que tem duas linhas (ou colunas) iguais é zero.
Dem.: Quando as posições das linhas iguais são trocadas, o determinante troca
de sinal, pela propriedade (4). Por outro lado, a matriz que resulta da troca de
linhas (ou colunas) é a mesma de antes, o que significa que o determinante tem
que ser o mesmo. Portanto, a única possibilidade é que o determinante seja nulo.
(6) Se uma linha (ou coluna) é um múltiplo de outra linha (ou coluna), então o valor
do determinante é zero.
Dem.: Mesmo argumento utilizado acima, utilizando também a propriedade (3).
(7) O determinante não se altera se for somada a uma linha (ou coluna) outra linha
(ou coluna) multiplicada por uma constante.
a b a b
Exemplo: = a ( d + kb ) − b ( c + ka ) = ad − bc = .
c + ka d + kb c d

(8) det ( AB ) = ( det A)( det B )

2.2 Desenvolvimento de Laplace

O determinante de uma matriz A de dimensão 3x3 pode ser escrito como

A = a11a22 a33 − a11a23 a32 − a12 a21a33 + a12 a23 a31 + a13 a21a32 − a13 a23 a31
= a11 ( a22 a33 − a23a32 ) − a12 ( a21a33 − a23 a31 ) + a13 ( a21a32 − a22 a31 )
a22 a23 a a23 a a22
= a11 − a12 21 + a13 21
a32 a33 a31 a33 a31 a32
= a11 A11 − a12 A12 + a13 A13 ,

onde Aij é a submatriz da matriz inicial que resulta da retirada da i-ésima linha e da j-ésima

coluna.

Defina agora ∆ ij = ( −1)


i+ j
Aij , chamado de o cofator do elemento aij . A fórmula do

desenvolvimento de Laplace é a seguinte:


n
det An×n = ∑ aij ∆ ij ,
j =1

18
onde podemos observar que o determinante foi desenvolvido pela i-ésima linha. Uma
fórmula análoga vale para o desenvolvimento a partir de uma determinada coluna.

Exemplos:
(1)
1 −2 3
A= 2 1 −1 = ( −2 ) ∆12 + 1∆ 22 + ( −1) ∆ 32 = ( −2 )( −2 ) + (1)( 8 ) + ( −1)( 7 ) = 5,
−2 −1 2

2 −1 2+ 2 1 3 3+ 2 1 3
onde ∆12 = ( −1) = −2, ∆ 22 = ( −1) = 8 e ∆ 32 = ( −1)
1+ 2
.
−2 2 −2 2 2 −1

(2)
−1 2 3 −4 −5 2 3 −4
−5 3 −4
4 2 0 0 (7) 0 2 0 0
= 2 ( −1)
2+ 2
= −5 −3 0
−1 2 −3 0 C1 →C1 − 2 C2 −5 2 −3 0
−8 3 1
2 5 3 1 −8 5 3 1
5 −3 4 10 0 4
( 3) (7) 10 4
= ( −2 ) 5 3 0 = ( −2 ) 5 3 0 = ( −2 )( 3)( −1)
2+ 2

L1 → L1 + L2 13 −1
8 −3 −1 L3 → L3 + L2
13 0 −1
= ( −6 )( −10 − 52 ) = 372.

2.3 Cálculo da matriz inversa

Definição: A matriz de cofatores de uma matriz An×n é definida como A = ⎡⎣ ∆ ij ⎤⎦ .

⎡ 2 1 0⎤
Exemplo: Considere a matriz A = ⎢⎢ −3 1 4 ⎥⎥ . Então
⎢⎣ 1 6 5 ⎥⎦

1 4 1+ 2 −3 4 1+ 3 −3 1
∆11 = ( −1) = −19, ∆12 = ( −1) = 19, ∆13 = ( −1)
1+1
= −19,
6 5 1 5 1 6
e assim por diante, de maneira que

19
⎡ −19 19 −19 ⎤
A = ⎢⎢ −5 10 −11⎥⎥ .
⎢⎣ 4 −8 5 ⎥⎦

Definição: Dada uma matriz quadrada A, definimos a matriz adjunta de A como sendo a
transposta da matriz dos cofatores de A.

Exemplo: Para a matriz A do exemplo anterior, temos


⎡ −19 −5 4 ⎤
adj A = ⎢⎢ 19 10 −8⎥⎥ .
⎢⎣ −19 −11 5 ⎥⎦

Teorema: AAT = A ( adj A) = ( det A) I n .


Dem.: (Para n = 3 )
Considere uma matriz A de dimensão 3x3. Então
⎡ a11 a12 a13 ⎤ ⎡ ∆11 ∆ 21 ∆ 31 ⎤
A ( adj A ) = ⎢⎢ a21 a22 a23 ⎥⎥ ⎢⎢ ∆12 ∆ 22 ∆ 32 ⎥⎥ = ⎡⎣cij ⎤⎦ ,
⎢⎣ a31 a32 a33 ⎥⎦ ⎢⎣ ∆13 ∆ 23 ∆ 33 ⎥⎦

onde
c11 = a11∆11 + a12 ∆12 + a13∆13 = det A
c12 = a11∆ 21 + a12 ∆ 22 + a13∆ 23 ,

e assim por diante. Podemos verificar que c12 corresponde ao desenvolvimento de Laplace

a11 a12 a13


de a11 a12 a13 , que é igual a zero porque duas linhas são iguais.
a31 a32 a33

Analogamente, cii = det A e cij = 0, i ≠ j , de forma que

⎡det A 0 0 ⎤

A ( adj A ) = ⎢ 0 det A 0 ⎥⎥ = ( det A ) I 3 .
⎢⎣ 0 0 det A⎥⎦

Dada uma matriz quadrada A de ordem n que possua inversa, temos que

20
det ( AA−1 ) = ( det A ) ( det A−1 ) .

Além disso, sabemos que AA−1 = I n e que det I n = 1 , de maneira que

( det A ) ( det A−1 ) = 1 . Podemos então concluir que, se A tem inversa, então
(i) det A ≠ 0
1
(ii) det A−1 = ,
det A
ou seja, det A ≠ 0 é uma condição necessária para que A tenha inversa. Mas essa condição é
também suficiente, pois sabemos que AAT = ( det A) I , de forma que, se det A ≠ 0 , então

⎛ 1 ⎞ T −1 ⎛ 1 ⎞ T
A⎜ ⎟A =I eA =⎜ ⎟ A . Isso conduz ao seguinte resultado:
⎝ det A ⎠ ⎝ det A ⎠

Teorema: Uma matriz quadrada A admite inversa se, e somente se, det A ≠ 0 . Nesse caso,
1
A −1 = ( adj A ) .
det A

⎡ 4 1 −1⎤
Exemplo: Seja A = ⎢⎢ 0 3 2 ⎥⎥ . Então B = 99 ≠ 0 e a matriz de cofatores é
⎢⎣ 3 0 7 ⎥⎦

⎡ 3 2 0 2 0 3⎤
⎢ − ⎥
⎢ 0 7 3 7 3 0⎥
⎢ 1 ⎡ 21 6 −9 ⎤
−1 4 −1 4 1⎥ ⎢
⎢− ⎥ = −7 31 3 ⎥ .
⎢ 0 7 3 7 3 0⎥ ⎢ ⎥
⎢ ⎥ ⎣⎢ 5 −8 12 ⎥⎦
⎢ 1 −1 4 −1 4 1⎥
⎢⎣ 3 2 0 2 0 3 ⎥⎦

⎡ 21 −7 5 ⎤
Portanto, adj A = ⎢⎢ 6 31 −8⎥⎥ e
⎢⎣ −9 3 12 ⎥⎦

21
⎡ 21 −7 5 ⎤
A−1 = ⎢⎢ 6 31 −8⎥⎥
1
99
⎢⎣ −9 3 12 ⎥⎦

2.4 Regra de Cramer

Considere um sistema de n equações lineares e n incógnitas:


⎧a11 x1 + a12 x2 + + a1n xn = b1
⎪a x + a x + + a2 n xn = b2
⎪ 21 1 22 2


⎩⎪an1 x1 + an 2 x2 + + ann xn = bn

Seja A a matriz de coeficientes desse sistema e denote por ∆ i o determinante da


matriz obtida substituindo a i-ésima coluna de A pela coluna dos termos independentes. A
regra de Cramer estabelece a seguinte relação entre determinantes e a solução do sistema:

Teorema: O sistema acima tem uma única solução se, e somente se, det A ≠ 0 . Nesse caso,
a solução única é dada por
∆1 ∆ ∆
x1 = , x2 = 2 ,… , xn = n .
det A det A det A

É preciso enfatizar que a regra de Cramer só pode ser utilizada para resolver sistemas
de equações lineares com o mesmo número de equações e incógnitas e quando det A ≠ 0 .
Na verdade, se det A = 0 , o teorema não diz se o sistema tem solução ou não.

⎧2 x + 3 y − z = 1

Exemplo: Considere o sistema ⎨3x + 5 y + 2 z = 8 . O determinante da matriz de coeficientes
⎪ x − 2 y − 3z = −1

2 3 −1
desse sistema é det A = 3 5 2 = 22 . Além disso,
1 −2 −3

22
1 3 −1 2 1 −1 2 3 1
∆1 = 8 5 2 = 66, ∆ 2 = 3 8 2 = −22, ∆ 3 = 3 5 8 = 44.
−1 −2 −3 1 −1 −3 1 −2 −1

Utilizando a regra de Cramer, obtemos

∆1 ∆ ∆
x= = 3, y = 2 = −1, z = 3 = 2.
det A det A det A

2.5 Exemplos de Economia e Econometria

2.5.1 Economia

Considere uma economia com dois bens em que as funções de demanda e oferta são
lineares. Temos então as seguintes relações em um mercado competitivo:

Qd1 = a0 + a1 P1 + a2 P2
Qs1 = b0 + b1 P1 + b2 P2
Qd1 − Qs1 = 0
Qd2 = α 0 + α1 P1 + α 2 P2
Qs2 = β 0 + β1 P1 + β 2 P2
Qd2 − Qs2 = 0,

onde os ai′ s e b j′s são parâmetros das funções de demanda e oferta do bem 1 e os α i′ s e

β j′ s são parâmetros das funções de demanda e oferta do bem 2, respectivamente.


Podemos substituir a primeira e a segunda equações na terceira, e a quarta e a quinta
equações na sexta, para obter o seguinte sistema de equações nos preços P1 e P2 :

⎧c1 P1 + c2 P2 = −c0
⎨ ,
⎩γ 1 P1 + γ 2 P2 = −γ 0
onde ci ≡ ai − bi , i = 0,1, 2 e γ i ≡ α i − βi , i = 1, 2,3 .
Podemos aplicar a regra de Cramer a esse sistema, desde que o determinante da
matriz de coeficientes seja diferente de zero. Suponha que c1γ 2 ≠ c2γ 1 . Então

23
c1 c2
det A = = c1γ 2 − c2γ 1 ≠ 0,
γ1 γ 2
e o método pode ser aplicado.
Os outros determinantes de que necessitamos são
−c0 c2
∆1 = = −c0γ 2 + c2γ 0
−γ 0 γ2
c1 −c0
∆2 = = −c1γ 0 + c0γ 1
γ 1 −γ 0

A solução é então dada por:


∆1 c γ −c γ ∆ c γ −cγ
P1 = = 2 0 0 2 , P2 = 2 = o 1 1 0 .
det A c1γ 2 − c2γ 1 det A c1γ 2 − c2γ 1

Para que os preços sejam positivos, é preciso que os numeradores tenham o mesmo
sinal que o denominador, o que introduz novas restrições sobre os parâmetros.
As quantidades de equilíbrio podem ser encontradas por substituição dos preços de
equilíbrio nas funções de oferta ou demanda.
Outra aplicação é a modelos de Teoria dos Jogos. O problema mais conhecido em
Teoria dos Jogos e o “Dilema dos Prisioneiros”, que pode ser representado pela matriz de
payoffs abaixo:

Não confessar Confessar


Não confessar -2,-2 -10,-1
Confessar -1,-10 -5,-5

No jogo acima, “Confessar” (C) é uma estratégia dominante para ambos jogadores e o
perfil (C,C) é um equilíbrio de Nash.
O jogo abaixo está na forma extensiva e é conhecido como o Jogo da Cerveja-Quiche
(Beer-Quiche):

24
Natureza

Forte Fraco

1 1

s w s w
2 2

l r l rl r l r

⎛ −20 ⎞ ⎛ 0 ⎞⎛ −30 ⎞ ⎛ −10 ⎞ ⎛ −30 ⎞ ⎛ −10 ⎞ ⎛ −20 ⎞ ⎛0⎞


⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟
⎝ −10 ⎠ ⎝ 0 ⎠⎝ −10 ⎠ ⎝ 0 ⎠ ⎝ 10 ⎠ ⎝ 0 ⎠ ⎝ 10 ⎠ ⎝0⎠

O jogo se desenvolve como a seguir. O jogador 1 observa um movimento aleatório da


natureza que determina o seu tipo: ele é forte (S) com probabilidade 0,9 e fraco (W), com
probabilidade 0,1. Após tomar conhecimento do seu tipo, o jogador 1 envia um de dois
sinais ao jogador 2: s (“Eu sou forte”) ou w (“Eu sou fraco”). Enviar um sinal verdadeiro
não custa nada, mas enviar um sinal falso custa 10 unidades de payoff. Após receber o
sinal, o jogador 2 decide se luta (l) ou recua (r). Se decidir lutar, ele ganhará 10 unidades de
payoff se o jogador 1 for fraco e perderá 10 se ele for forte. O jogador 1, por outro lado,
perderá 20 unidades de payoff se ocorrer a luta (independentemente do seu tipo).
Cada jogador tem 4 estratégias puras. Para o jogador 1, elas são: “sempre s” (ss), “s
quando S, w quando W” (sw), “w quando S, s quando W” (ws), e “sempre w (ww). As
estratégias do jogador 2 são: “recuar quando s, lutar quando w” (rl), “sempre recuar” (rr),
“sempre lutar” (ll), e “lutar quando s, recuar quando w” (lr).
A matriz de payoffs é:
rl rr ll lr
ss -1,0 -1,0 -21,-8 -21,-8
sw -2,1 0,0 -20,-8 -18,-9
ws -28,-9 -10,0 -30,-8 -12,1
ww -29,-8 -9,0 -29,-8 -9,0

25
Para entender melhor os payoffs da matriz, observe o perfil (ws,rf). O payoff do
jogador 1 pode ser recalculado como
( 0.9 )( −30 ) + ( 0.1)( −10 ) = −28,
enquanto o payoff do jogador 2 é
( 0.9 )( −10 ) + ( 0.1)( 0 ) = −9.
Os equilíbrios de Nash com estratégias puras são (ss,rf) e (ww,fr). Agora suponha que
estejamos interessados em encontrar os equilíbrios de Nash com estratégias mistas. Sejam
as estratégias mistas do jogador 1 representadas pelo vetor σ 1 = ( x1 , x2 , x3 , x4 ) e as do

jogador 2, por σ 2 = ( y1 , y2 , y3 , y4 ) .

Observe que y3 = 0 em qualquer equilíbrio de Nash, pois ff é estritamente dominada

por rr. Observe também que x3 = 0 em qualquer equilíbrio de Nash, pois ws não é
racionalizável.
Queremos determinar as condições sob as quais (ss,sw) pode fazer parte de um
equilíbrio de Nash com estratégias mista, isto é, onde x1 > 0 e x2 > 0 . Sabemos que para

isso ser verdade é preciso que u1 ( ss, σ 2 ) = u1 ( sw, σ 2 ) , onde

u1 ( ss, σ 2 ) = − y1 − y2 − 21y3 − 21y4 = − ( y1 + y2 ) − 21( y3 + y4 )


u2 ( sw, σ 2 ) = −2 y1 + 0 y2 − 20 y3 − 18 y4 = −2 y1 − 20 y3 − 18 y4 .

Lembrando que y3 = 0 , obtemos a seguinte equação:

− ( y1 + y2 ) − 21 y4 = −2 y1 − 18 y4 ⇒ y1 − y2 − 3 y4 = 0.

Combinando essa equação com y1 + y2 + y4 = 1 , obtemos um sistema de equações que


pode ser resolvido como a seguir:
⎡1 −1 −3 0⎤ ⎡1 −1 −3 0⎤
⎢1 1 1 1 ⎥ ⎯⎯⎯⎯ L2 → L2 − L1
→⎢
1⎥⎦
⎣ ⎦ ⎣0 2 4
⎡ 1⎤
⎡1 −1 −3 0 ⎤ ⎢1 0 −1
⎯⎯⎯ ⎢ ⎥ 2⎥
L → ⎯⎯⎯⎯ →⎢ ⎥
L2 → 2 ⎢0 1 2 1 ⎥ L1 → L1 + L2 ⎢ 1⎥
⎣ 2⎦
2
0 1 2
⎢⎣ 2 ⎥⎦
Esse sistema tem uma infinidade de soluções. Fazendo y4 = λ , obtemos

26
1 1
y1 = + λ , y2 = − 2λ .
2 2
Se λ = 1 10 , por exemplo, então y1 = 6 10 e y2 = 3 10 .

2.5.2 Econometria

Suponha que a relação entre a variável dependente e várias variáveis independentes


(explicativas) seja a seguinte:
yi = β1 xi1 + β 2 xi 2 + + β K xiK + ε i , i = 1,… , n.
A relação acima é chamada de equação de regressão, onde a variável dependente, y, é
explicada pelas variáveis x1 ,… , xK . O subíndice i indexa as observações, que totalizam n.

O termo ε é o erro aleatório. Esse erro surge por diversas razões, sendo a principal o fato
de que não é possível captar todas as influências sobre uma determinada variável y. O
resultado líquido de todos os fatores omitidos está refletido no erro. Outro elemento
capturado pelo erro aleatório são os erros de medição, que estão presentes em qualquer
amostra.
Por exemplo, suponha que estejamos interessados em estudar o comportamento da
renda dos indivíduos e que tenhamos postulado o seguinte modelo de regressão simples:
renda = β 0 + β1educação + ε .

Esse modelo não leva em consideração que outros fatores além do nível de educação
podem afetar a renda do indivíduo, como idade e nível de educação dos pais. Portanto, o
erro aleatório ε refletirá a omissão dessas variáveis. Além disso, é bastante provável que a
variável educação esteja medida com erro, mesmo porque não há consenso sobre como ela
deve ser medida. Isso também é capturado pelo erro aleatório.
A equação de regressão na verdade é um conjunto de equações, uma para cada
observação:
y1 = β1 x11 + β 2 x12 + + β K x1K + ε1
y2 = β1 x21 + β 2 x22 + + β K x2 K + ε 2
−−−−−−−−−−−−−−−−−−−−−
yn = β1 xn1 + β 2 xn 2 + + β K xnK + ε n

27
Essas equações podem ser representadas na forma matricial como a seguir:
y = X β +ε,
onde
⎡ y1 ⎤ ⎡ x11 x12 x1K ⎤ ⎡ β1 ⎤ ⎡ ε1 ⎤
⎢y ⎥ ⎢x x22 ⎥
x2 K ⎥ ⎢ β ⎥ ⎢ε ⎥
y = ⎢ 2 ⎥ , X = ⎢ 21 , β = ⎢ 2 ⎥, ε = ⎢ 2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢⎣ yn ⎥⎦ ⎢⎣ xn1 xn 2 xnK ⎥⎦ ⎢⎣ β K ⎥⎦ ⎢⎣ε n ⎥⎦

O objetivos principais de uma análise de regressão são estimar os parâmetros


desconhecidos β i , usar os dados disponíveis para estudar a validade de proposições
teóricas e usar o modelo para testar hipóteses e fazer previsões sobre a variável dependente.
Para obter estimativas dos parâmetros, o método mais utilizado é o de mínimos
quadrados ordinários. Esse método procura encontrar os coeficientes que minimizam a
soma dos quadrados dos resíduos
n

∑e
i =1
2
i = eT e,

⎡ e1 ⎤
⎢e ⎥
onde e = ⎢ 2 ⎥ é o vetor de resíduos, sendo o resíduo da i-ésima observação definido por
⎢ ⎥
⎢ ⎥
⎢⎣en ⎥⎦

ei = yi − ( xi1b1 − xi 2b2 − − xiK bK ) e bi a estimativa de β i .

A solução do problema de minimização é

b = ( X T X ) X T y.
−1

Podemos então calcular os resíduos como

e = y − Xb = y − X ( X T X ) X T y
−1

(
= I − X ( X T X ) X T y = My.
−1
)
A matriz M tem grande importância para a análise de regressão, e apresenta
propriedades interessantes. Além de ser simétrica, essa matriz é idempotente, o que
significa que M 2 = M . De fato,

28
M 2 = ⎡⎢ I − X ( X T X ) X T ⎤⎥ ⎡⎢ I − X ( X T X ) X T ⎤⎥
−1 −1

⎣ ⎦⎣ ⎦
= I − X (XT X ) XT − X (XT X ) XT + X (XT X ) XT X (XT X ) XT
−1 −1 −1 −1

= I − 2 X ( X T X ) X T + X ( X T X ) IX T
−1 −1

= I − 2X ( X T X ) X T + X ( X T X ) X T
−1 −1

= I − X (XT X ) XT = M

e
M T = ⎡I − X ( X T X ) X T ⎤ = I − ⎡ X ( X T X ) X T ⎤
−1 T −1 T

⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦
−1
= I − ( X T ) ⎡⎢( X T X ) ⎤⎥ X T = I − X ⎡⎢( X T X ) ⎤⎥ X T
T −1 T T

⎣ ⎦ ⎣ ⎦
= I − X ( X T X ) X T = M.
−1

29