Você está na página 1de 57

Álgebra Linear

Leis de uma Álgebra:

Uma lei interna T associa dois elementos x e y de um conjunto A à um terceiro elemento z  A . Por
exemplo: x  y  z onde a lei interna é a adição  , ou x y  z , onde a lei interna é a multiplicação  . Na
nossa notação se afirma que xT y  z  x  y  z ou xT y  z  xyz.

A lei será associativa se:


 xT y  T z  xT  y T z  e será comutativa se xT y  y T x .
O elemento a  A será REGULAR se xT a  yT a  x  y e aT x  aT y  x  y . O elemento
e  A será unitário sobre a lei T se xT e  eT x  x .
O elemento x  A possui elemento inverso x sobre a lei T se x  A / xT x  x T x  e .

Teorema: se uma lei T possui elemento unitário, é associativa e x  A possui inversa, então a inversa é única
e x é regular.

Provar por absurdo: supor que  x  x inversos de x .

x T  xT x   x T e  x


Nesse caso: xT x  e e xT x  e além disso . Agora, como T é associativo então
x T  xT x    x T x  T x  eT x  x
o que implica que x  x em contradição com x  x . Logo a
inversa é única.

Falta a regularidade: Seja a  xT y e b  xT z . Queremos mostrar que se a  b então y  z . Aplicando a


x T  xT y   x T  xT z 
inversa de x de ambos os lados temos que e usando a associatividade
 x T x  T y   x  T x  T z logo eT y  eT z e, finalmente y  z C.Q.D.

Álgebra com duas Leis. Vamos chamar a lei T de lei 1 e uma outra lei 2 de  . A lei  será distributiva frente

à lei T se
 xT y   z   x  z  T  y  z  ou
z   xT y    z  x  T  z  y 
para  x, y , z  A . Exemplo:

mostrar que a multiplicação é distributiva frente à adição mas o inverso não é verdade.
 x  y z  x z  y z
x y  z   x  z  y  z
logo a mulitplicação é distributiva. Entretanto .

GRUPO. Um conjunto G é um grupo se  uma lei interna T com as seguintes propriedades:

1. T é associativa
2. T admite elemento unitário e
3.  x  G admite inversa x  G

Se, além da propriedade associativa, T for comutativa, o grupo é chamado de Abeliano.


CAMPOS. Seja G um grupo Abeliano de T com uma segunda lei  associativa e distributiva frente à T . Seja
e o elemento unitário de G e G* , onde G* é o conjunto de todos os elementos de G exceto e . Se  é uma
lei de grupo para G então G é um campo.
*

Exemplo: vamos considerar as leis  e  para o conjunto dos números reais.

Primeira lei  :
 x  y  z  x   y  z associativa
x  y  y  x comutativa
x  e  e  x  x então e  0 é o elemento unitário da adição.
x    x   e  x x
Inversa e é a inversa de . Note que se o conjunto fosse o dos naturais não haveria inversa
G   x   / x  0
*
pois ele não inclui números negativos. Então   G e .

*
Agora vamos analisar o comportamento da multiplicação frente ao G .
 x y z  x y z associativa
x y  y x comutativa
 x  y z  x z  y z distributiva frente à adição
x e  e x  x então e  1 é o elemento unitário da multiplicação. Logo a inversa será dada por x x  1 , ou
1
x 
seja, x . Note que sem a exclusão do zero teríamos problema com a inversa do elemento unitário da
1
0 
adição pois 0.

Então  é um CAMPO frente à adição e multiplicação. Note a necessidade de ampliar os conjuntos para a
obtenção de grupos e campos. Partindo dos naturais  e da operação  foi necessário incluir os números
negativos para a existência da inversa, chegando ao conjunto  .

Já para a operação multiplicação foi-se obrigado a inlcuir o conjunto dos racionais  para admitir inversas
1
x 
x . Além disso, para admitir operações como x x  y com x  G e y  G percebe-se a necessidade de
inclusão dos irracionais e dos imaginários, caso y  0 .
Matrizes

Uma matriz é uma tabela com m linhas e n colunas em que cada elemento é identificado pelos índices da
a i j , ou seja, o
linha e da coluna. Assim o elemento ij é encontrado no cruzamento da linha com a coluna
primeiro índice se refere à linha e o segundo à coluna.

coluna  1 2 3  n
linha     
1   a11 a12 a13  a1n 
 
2   a21 a22 a23  a2 n 
3   a31 a32 a33  a3n 
 
      
m   am1 am 2 am 3  amn 

A
Note que quando denotamos uma matriz mn temos um bloco com n  m números. Uma analogia é com
um circuito integrado, composto de milhões de elementos individuais. Outra analogia seriam as rotinas dos
softwares que podem ser utilizadas como blocos individuais. Se existe uma álgebra para lidar com os blocos
sem muita necessidade de descer ao nível dos elementos individuais, isso representa uma enorme economia
de esforço intelectual. Assim, se for possível simplificar todo um conjunto de operação com matrizes apenas no
nível mais alto, mais abstrato, o trabalho se torna muito mais produtivo. Por isso a álgebra de matrizes é uma
ferramenta matemática das mais poderosas.

Exemplo: matriz Insumo-Produto. Para produzir


qi unidades do produto i é necessário usar
ai1, ai 2 , , ain unidades dos insumos
1, 2, , n . Nesse exemplo podemos escrever a matriz na forma:
Insumo  I1 I2 I3  I n produto
produto      
produto1   a11 a12 a13  a1n   q1 
  q 
produto2   a21 a22 a23  a2 n   2
produto3   a31 a32 a33  a3n   q3 
   
        
produtom   am1 am 2 am 3  amn   qm 

Vamos formalizar uma “ÁLGEBRA” de matrizes.

Aij
Dimensão: uma matriz de dimensão m  n [m por n] possui m linhas e n colunas. O elemento está no
encontro da iésima linha com a jésima coluna.
Omn / Oij  0  i, j
Matriz NULA: , ou seja, todos os elementos são nulos.
Matriz COLUNA:
Cm1 tem apenas uma coluna e m linhas
L
Matriz LINHA: 1n tem apenas uma linha e n colunas.
Matriz QUADRADA: se n  m , A é uma matriz quadrada Amm de ordem m.

1 se i  j
 ij  
Função Delta de Kronecker: 0 se i  j

Matrizes quadradas especiais:


Dij  0 se i  j Dii
1. DIAGONAL: , já pode tomar qualquer valor. Em termos da Delta de Kronecker
D d  di i . A  ij garante que todos os
pode ser escrita como: ij i ij onde é o elemento da diagonal
elementos fora da diagonal serão nulos.
I ij    ij
n
2. IDENTIDADE: Matriz diagonal na qual , onde n denota a ordem da matriz quadrada. Ou
seja, é uma matriz com todos os elementos da diagonal iguais a UM e todos os elementos fora da
diagonal iguais a ZERO.
ij  0 se i  j
3. Matriz TRIANGULAR SUPERIOR: , ou seja, todos os elementos abaixo da
diagonal são NULOS.
ij  0 se i  j
4. Matriz TRIANGULAR INFERIOR: , ou seja, todos os elementos acima da diagonal
são NULOS.
Sij  S ji
5. Matriz SIMÉTRICA:
Aij   A ji
6. Matriz ANTISIMÉTRICA:

Note que matrizes representam um conjunto de números, logo é preciso definir as operações sobre esse
conjunto.

A B Aij  Bij  ij
Operação IGUALDADE: se, e somente se, .

Os elementos da diagonal de uma matriz antisimétrica são nulos:


Aii   Aii  2 Aii  0  Aii  0 .

Operação ADIÇÃO: essa operação sobre ser efetuada sobre matrizes de mesma dimensões,
Amn e
Bmn , e
 A  B  ij  Aij  Bij
é definida como .
 A  B  ij  Aij  Bij
Operação SUBTRAÇÃO: é a inversa da ADIÇÃO.

Propriedades da operação ADIÇÃO de matrizes:

a. A  B  B  A pois Aij  Bij  Bij  Aij ou seja é comutativa frente à adição.

b.
A   B  C    A  B  C pois
  
Aij  Bij  Cij  Aij  Bij  Cij  , ou seja, é distributiva.

c. A  O  A , a matriz nula é o elemento unitário da operação adição de matrizes.

 aA ij  aAij
Operação multiplicação por um escalar: , ou seja, todos os elementos da matriz são
multiplicados pelo escalar (número) a .

Propriedades da operação multiplicação por escalar:

1.
k  A  B   kA  kB distributiva

2.
 k1  k2  A  k1 A  k2 A
3. 0A  O é uma matriz nula
4.
k1  k2 A    k1k2  A

Aij  A ji
Operação TRANSPOSTA é denotada por A  A , e é definida por . Ou seja, essa operação troca

linhas por colunas. Gosto da notação A porque podemos usá-la facilmente em equações como
A B que

teria que usar parênteses na notação A , ou seja,  A  B  . Além disso a aplicação da operação transposta
duas vezes pode ser escrita como A e na outra como A . Matriz simétrica tem a propriedade: S  S . Note
que nesse caso a matriz S é obrigatoriamente quadrada.

Propriedades da operação Transposta:

1. A  A , pois Aij  A ji
 A ij  A ji  Aij .
logo

2. A  B  A  B , pois
 A  B  ij   A  B  ji  A ji  B ji   A ij   B  ij   A  B  ij .
3.
kA  k A

4. Se S é simétrica então
 S  ij  S ji  Sij
S  S , pois

5. Se A é antisimétrica então A   A , pois


 A ij  A ji   Aij
B  B  S é simétrica. 
B  B  B  B  B  B  B  B  B  B   B  B
6. , logo é
simétrica.

7. BB A é antisimétrica.
 B  B  B  B  B  B   B  B , logo

 B  B     B  B  é antisimétrica.
8. Toda matriz quadrada pode ser decomposta em uma matriz simétrica e uma antisimétrica. Prova:

Prova:
1 1
2
1
2
1
2
1
2
1
2
1
2
1
M  M  M  M  M  M  M  M M  M M
2 2
    logo

M  S  A onde
1
S  M M
2 e

1
A M M
2
  

Operação MULTIPLICAÇÃO de matrizes:

Motivação. Suponha uma matriz que fornece as quantidades de vitaminas A, B e C nos alimentos I e II, do tipo:

vitamina A B C
  
alimento I   4 3 0
alimento II  5 0 1
 
Quanto existe de cada vitamina em um prato com 5 unidades do alimento I e 2 do alimento II?
 4 3 0
5 2     5  4  2  5 5  3  2  0 5  0  2  1   30 15 2 
5 0 1 . Note que
multiplicamos linha por coluna para obter a quantidade de cada uma das vitaminas em um prato combinando
diferentes alimentos.

Só podemos, então, multiplicar duas matrizes A e B se o número de colunas de A for igual ao número de
linhas de B . A operação MULTIPLICAÇÃO entre uma matriz de ordem m n e outra de ordem
n p é
n
( AB)ij   Aik Bkj
definida por k 1 , resultando em uma matriz de ordem
m p
. Note que o índice repetido
da primeira matriz é o segundo, da coluna, e da segunda é o primeiro, o da linha. A regra para saber a
Amn Bn p  Cm p n
dimensão da matriz multiplicação é cancelar a dimensão repetida, ou seja: , ou seja, o
repetido desapareceu.

Propriedades da operação MULTIPLICAÇÃO de matrizes:

a. Em geral AB  BA , ou seja, a operação multiplicação não comuta. Existem que casos em que a
AB BA Amn Bn p
operação está definida mas a operação não. Exemplo: está definida pois o

número n A é igual ao de linhas de B , mas a operação Bn p Amn não se p  m .


de colunas de
Para que as duas operações AB e BA sejam definidas é necessário que se A é m  n então B é
n  m . Mesmo nesse caso os produtos Amn Bnm  Cmm e Bnm Amn  Dnn , sequer
possuem a mesma dimensão., logo não podem ser iguais. Se m  n então as duas matrizes terão as
mesmas dimensões, mas ainda assim os produtos AB e BA , genericamente, são diferentes. Podem
ser iguais apenas em certas condições especiais. Note a diferença entre os dois produtos:
 AB  ij   Aik Bkj  BA  ij   Akj Bik
k e k

Propriedades da operação MULTIPLICAÇÃO.

1. Na álgebra de números reais sabemos que se ab  0 , então a  0 , ou b  0 , ou ainda a  0 e


b  0 . No entanto no produto de matrizes é possível que AB  O e A  O e B  O . Veja o
 1 1 1   1 2 3
A   3 2 1  O B   2 4 6   O
 
 2 1 0   1 2 3
exemplo:   e   então:

 1 2 1 2  4 1 3 6  3  0 0 0
AB   3  4  1 6  8  2 9  12  3    0 0 0 
 2  2 4  4 6  6   0 0 0  .

2. Multiplicação pela matriz identidade: AI  IA  A , ou seja, a matriz identidade é o elemento
unitário frente à operação multiplicação de matrizes. Prova:
 AI  ij   Aik I kj   Aik kj  Aij   A  ij
k k , logo AI  A . Por outro lado
 IA ij   Iik Akj    ik Akj  Aij   A ij
k k , logo IA  A .
3.
A  B  C   AB  AC é distributiva à esquerda.

4.
 A  B  C  AC  BC é distributiva à direita.

Prova:


 A  B  C   ij   Aik  B  C  kj   Aik Bkj  Ckj 
k k

  Aik Bkj   Aik Ckj   AB  ij   AC  ij
k k


 A  B  C  ij    A  B  ik Ckj   Aik  Bkj Ckj 
k k

  Aik Ckj   Bik Ckj   AC  ij   BC  ij
k k

5.
A  BC    AB  C , é associativa.

 A  BC   ij   Aik  BC  kj   Aik  Bkl Clj 


k k l

 
  Aik Bkl Clj     Aik Bkl Clj    AB  il Clj   AB  C  ij
k l l k  l

6. OA  O e AO  O
7.
AB  B A , na transposta do produto é preciso comutar a multiplicação.
 AB    AB    A jk Bki   B
  ij ji
k k
  ik  A kj   B Aij
Prova:

8. Se
Q é uma matriz quadrada então
QQ  S é simétrica. Prova:
QQ  QQ  QQ logo

 QQ    QQ  , logo QQ  S é simétrica.
9. A multiplicação de duas matrizes triangulares superiores é triangular superior.

10. A multiplicação de duas matrizes triangulares inferiores é triangular inferior.


ij  0 se i  j i j
Matriz triangular superior é tal que . Nesse caso, se então:

 T 
j n j n
 
  ik Tkj    ik  Tkj   ik Tkj    0Tkj    ik 0
ij k k 1 k  j 1 k 1 k  j 1

Já se
i j então:

 T 
i j j
 
 ik Tkj    ik  Tkj   ik Tkj    ik Tkj  
ij k k 1 k i 1 k i 1
j
  ik Tkj   0
k i 1

Logo trata-se de uma matriz triangular superior.

ij  0 se i  j i j
Matriz triangular inferior é tal que , nesse caso se então:

 T 
i n i n
 
  ik Tkj   ik Tkj     ik  Tkj   ik 0   0Tkj  0
ij k k 1 k i 1 k 1 k i 1

Já se
i j então

 
j i n i
 T    ik Tkj   ik Tkj   ik Tkj   ik Tkj   ik Tkj  0
ij k k 1 k  j 1 k i 1 k  j 1

Logo trata-se de uma matriz triangular inferior.

VETORES.

 B1 
  B2 
B 
 
  
A   A1 A2  An   Bn  .
Vetores são matrizes linha ou coluna que denotamos por ou

A   A1 A2  An 
Produto escalar ou produto interno. Vamos multiplicar a matriz linha pela matriz
 B1   B1 

 B2   B 
B   AB   A1 A2  An   2    Ai Bi
    i
   
coluna  Bn  . O resultado  Bn  se chama PRODUTO ESCALAR e é
      
denotado por A  B . Note que se B  A então
A  A  A1  A2    An2 e chamamos a norma de A
2 2
  
A  A  A  A12  A22    An2
. A interpretação geométrica do produto escalar pode ser obtida, sem
 
perda de generalidade, tomando o eixo x na direção de A e colocando o vetor B no plano fazendo um
xy
ângulo  x
com o eixo . Nesse caso podemos usar apenas duas dimensões e os vetores são dados por
   
A   A, 0  B   B cos  , B sin  
e . O produto escalar será  B  AB cos  . Dois vetores não nulos para os
A
 
A B
  cos      
quais A  B  0 são perpendiculares entre si. Note que A  A B  B é um número que varia entre
1 e 1 .
Desigualdade de Schwartz no produto escalar:
   
  A  B     A  B   0  pois é o produto escalar de um vetor por ele mesmo. Mas
         
  A  B     A  B    A  A  2 A  B  B  B  0 . Aqui usamos as propriedades distibutiva
2

      
A B  C   A B  AC    
e comutativa A  B  B  A do produto escalar. Mas a equação
     
 A  A   2  A  B     B  B   0 é uma parábola em  do tipo a  b  c com o coeficiente a
2
2

 
a   A  A  0
e a desigualdade a  b  c  0 só será válida se b  4ac  0 , ou sjea não
2 2
positivo, pois
 
 A B
2

          1
4  A  B   4  A  A  B  B   0   A  B  B  e
2
A
existem raízes reais. Nesse caso, que implica em
 
A B
1       1
A A B  B .


Se A é um vetor complexo então precisamos não apenas transpor o vetor coluna mas conjugá-lo para garantir
 A1 
 A 
A 2
 
 
um número real positivo após a operação. Chamamos de adjunto do vetor  An  o vetor linha
 
A†  A*   A1* *
A
2  A *
n , ou seja, é necessário transpor e conjugar. Agora sim, o produto
 A1 
  A 
A† A   A1*  An 
*  2
  Ai* Ai   Ai
2
A2*
  i i
 
 An  será um número real positivo e pode ser usado na
definição da norma, ou módulo, de um vetor complexo.
Funções de Matrizes quadradas:

A nossa álgebra de matrizes nos permiet apenas realizar as operações adição, multiplicação por um escalar e
multiplicação de matrizes. A adição só pode ser realizada com matrizes de mesma dimensão e a multiplicação
exige condições sobre as dimensão das duas matrizes. Se trabalharmos apenas com matrizes quadradas tanto
as condições da adição quanto as da multiplicação serão automaticamente satisfeitas. Sabendo a operação
multiplicação podemos definir a operação potenciação de matrizes: An  A  A    A , sem problemas
com matrizes quadradas.

Faz sentido falar de uma função de matrizes? Por exemplo:


exp( A) , ou cos  A  ? Sabemos calcular essas

funções para um argumento real apenas. No entanto sabemos calcular a função


f  A   An
e isso é o
suficiente para definirmos uma função de matrizes desde que essa função possa ser expandida em série de
Taylor-McLaurin, ou seja, seja de classe C e com raio de convergência infinito. Dentre essas funções estão a
f    0 n
 n
f  x   x
exponencial, o seno, o coseno, etc. Assim, considere a série de Taylor da função n 0 n ! .
f    0
n

Note que n! são apenas escalares (números). Assim definimos a função de matrizes através da série:

f    0 n
 n
f  A   A
n 0 n !

Sabemos realizar essa operação? Sim, sabemos, pois sabemos calcular An , sabemos multiplicá-la por um
 n
f  0
escalar n! , e sabemos somar as matrizes:

f   0  2 f    0  3 f    0 n
3 n
f  A  f  0  I  f   0  A  A  A  A
2! 3! n! .

1. Se D é uma matriz diagonal na forma:

 1 0  0
0   0 
D 2
   
 
0 0  n 
 f  1  0  0 
 
0 f  2   0 
f  D  
     
 
 0 0  f  n  
Então .

 1n 0 0
 
n
 0 2  0 
Dn   
    
 0 0  nn 
Para tanto basta notar que  , portanto
  f  n  0  
 1n 0  0 
 n 0 n ! 
 
f    0 n
 n
 
 f n
 0  D n   0  2  0 
 n 0 n! 
n0 n!  
     
  f  n  0

 0 0   n
n 
 n!
 n 0  logo
 1n 0 0
 f  1  0  0  


  2n  0 
0 f  2   0   0
Dn  
f  D   
          
   0
 0 0  f  n    0  nn 
. Uma forma de mostrar que
Dij  i ij
é usando indução com a seguinte notação: . Daí mostramos que

D 2
ij
  Dik Dkj  i k  ik  kj  i2 ij
k k
D 
3
ij
  Dik Dkj2  i k2 ik  kj  i3 ij
k k
, e que .

Supomos verdadeiro para n , isto é, que


D  n
ij
 in ij
e mostramos que é verdadeiro para n  1 , ou seja
D n 1
ij
  Dik Dkjn  i kn ik  kj  in 1 ij
k k
D  n
ij
 in ij
. Assim está provado que é sempre
verdadeiro.

Matrizes Periódica, idempotente e nihilpotente.


A é PERIÓDICA com período p  n  1 , n  2 , se An  A , onde A  A A A
n
Uma matriz quadrada
é a matriz A multiplicada por si própria n vezes.

Uma matriz periódica com período 1, i.e., A2  A , é chamada IDEMPOTENTE.

Uma matriz quadrada A é NIHILPOTENTE de índice p se p é o menor inteiro tal que A p  O .

a. Se A é periódica com período p então An  p 1  An , n  0 .

b. Se A é idempotente então An  A , n  1 .

c. Se A é nihilpotente de índice p então A p  n  O , n  0 .


Determinantes:

Determinantes são uma função que associa um número real à matrizes quadradas de números reais na forma
det  A  : m  m   . A melhor forma de definir determinante é através dos tensores de Levi-Civita e por
isso vamos começar com definições e estabelecer as propriedades desses tensores.

Definições.
 1 se x  0

sgn( x)   0 se x  0
1 se x  0
A função sinal (sgn) é definida por  .

n
  j  1  2 3  n
j1
O produtório é representado por

Propriedade da função sinal:


sgn  xy   sgn  x  sgn  y 
ou, generalizando,
 
sgn  xi   sgn  xi 
i i .
A operação produtório entra e sai do argumento da função sinal.

 

  1 ,  2 , ,  n   sgn    k   j
1 j  k n
  (1 )  1
O Tensor de Levi-Civita é definido por: , e
  sgn  z   só pode assumnir os valores 1, 0 e  1 .
quando houver apenas uma variável. Como então

Esclarecendo a notação. Note que:

 ( k   j )   n   n1   n   n2   n  1    n1  n2    n1  1    2  1 


1 j  k  n
j  k . Não podemos usar j  k k   j  0
mantendo sempre porque e o produtório inteiro seria nulo.

 ( k   j ) n  n  1
1 j  k n 2
O número de termos no produtório é . Para ver isso começamos de:
k n jk   n  n1   n  n2   n  1    n  1 termos
k  n  1 j  k   n 1  n  2   n 1  n 3   n 1  1    n  2  termos
k 2 jk  2  1   1 termo

S  1  2     n  1 
 n  1  n  1  1 
n  n  1
Então devemos somar a PA 2 2 .

Por definição se houver apenas um  então


     1.

Já se existirem dois então


  1, 2   sgn  2  1  .

Para n  3 temos que   1, 2 , 3   sgn  3  2   3  1   2  1   .


Para n  4 temos:
  1, 2 , 3 , 4   sgn  4  3   4  2   4  1   3  2   3  1   2  1  
.
Exemplos de cálculos de  s :
 
  4,5,1,2   sgn  2  1  2  5   2  4   1  5   1  4   5  4     1  1
4

1.        
 
  2,3,1,2   sgn  2  1  2  3  2  2   1  3   1  2   3  2    0
2.    0    
 
  1,2,3, 4   sgn  4  3  4  2   4  1  3  2   3  1  2  1   1
3.        
 
  4,3,2,1  sgn  1  2   1  3  1  4   2  3  2  4   3  4     1  1
6

4.        
 
  3,2,1  sgn  1  2   1  3  2  3    1  1
3

5.     

Note no caso 2 que se dois valores quaisquer são iguais o tensor se anula porque dois valores, o primeiro e o
último, foram iguais (2).
 j  k j  k . Cada inversão traz um sinal negativo. Se o
Inversões: existe uma inversão sempre que e

conjunto
 1 ,  2 , , n  com i   j i  j possui p inversões então
  1 ,  2 , ,  n    1
p
. Logo  será 1 se
p for par e  será 1 se p for ímpar. Foi a contando o
número de inversões que calculamos
 
  4,5,1,2   sgn  2  1  2  5   2  4   1  5   1  4   5  4     1  1
4

       
Tem 4 inversões. Não é necessário escrever todo o produtório para contar o número de inversões. Tome o
exemplo da seqüência:
2 5 4 1 3
  
1 3 2
Tem um total de 1  3  2  6 inversões. As inversões do 2 foram o 1, o único número à direita menor do que

2. As inversões do 5 foram 4, 1 e 3, e do 4 foram 1 e 3. Com 6 inversões sabemos que


  2,5,4,1,3  1 .
Contando as inversões podemos calcular o  
rapidamente. Por exemplo: 1762354
 1 pois a seqüência
1762354 25314
54 1 tem 5  4  1  10 inversões. Já
 25314  1 pois a seqüência 1 3 1 tem 1 3 1  5
inversões.

Arranjos de
 1 ,  2 , , n  :
Percebemos então que  só não é nulo se todos os  s forem diferentes. Escolhido um conjunto qualquer
 1 ,  2 , , n  de  s diferentes entre si de quantas formas podemos ordenar esse conjunto? Trata-se do
problema de colocar n objetos distintos em n caixas em que a ordem dos objetos importa. Assim existem:
n  n  1  n  2  1
  n  n  1  n  2  1  n!
1 2 3 n
formas de reordenar esse conjunto.

Exemplos:

1.
n  2   1,2  e  2,1  2 formas , e 2!  2 .
2. n3 existem
3!  6 formas mostradas abaixo:

1 2 3 ;  1 3 2  ;  2 1 3 ;  2 3 1 ;  3 1 2  ;  3 2 1
Total 6 arranjos      

Propriedades do tensor de Levi-Civita:


  1 ,  2 , ,  n   0 se  i   j i  j   1 ,  2 , ,  n   0
1. . Corolário: se então
 i   j i  j
.
  1, 2 , ,n   1
2. .
1  2    n , i   j i  j   1 ,  2 , ,  n   1
3. Se isto é, então . Nesse caso
   
 k  i  k i  0 logo ik  k  i    0 e sgn ik  k  i    1 .
  1,  2 ,  3 , ,  n      2 ,  3 , ,  n 
4.
n n1
1  2    n , i   j i  j   1 ,  2 , ,  n    1 2
5. Se isto é, então . Note

que nesse caso todos os termos


 k  i  k i  0 e
sgn  k  i  k i  1
, como existem
n  n  1 n n1

2   1 ,  2 , ,  n    1 2
termos, então .
  1  p ,  2  p , ,  n  p     1 ,  2 , ,  n 
6. . Basta notar que

sgn k  p   j  p  sgn k   j  .
7.
  
 1 ,  2 , ,  i , ,  j , ,  n   1 ,  2 , ,  j , ,  i , ,  n  . Aqui estamos supondo
i  j . Ou seja, a transposição de dois índices troca o sinal de  .

Prova: como só vamos trocar


j basta analisar os termos contendo esses dois índices, pois todo restante
i por
não muda. No produtório vamos separar os termos de acordo com a ordem
k  j  i, j  l  i ,
j  i  m e m  i  j . Os termos que contém apenas i e j são:

   
  
 k j i k   j  k  i     j l i  j  l  l  i    
 
 
    j  m  i  m     j  i
 j i  m 
 

Agora
 k   j   k  i    k  i   k   j  portanto trocar i por j nada muda nesse termo. Da
mesma forma para o termo
  j  m   i  m    i  m    j  m  . Já no termo:
  j  l   l  i    1  l   j   1  i  l    1 2  l   j   i  l 
O sinal foi trocado duas vezes. Portanto, trocar trocar i por
j leva a
 i  l   l   j     j  l   l  i  .

O único termo que sobrou foi


  j  i    1  i   j  , mostrando que qualquer permuta nos índices
troca o sinal de  .

8. Se
 1 2  n  é obtido
 1 2  n  através de
p transposições então
  1  2  n    1   1 2  n  , pois cada transposição troca o sinal uma
p

vez. Corolário: Se
 1 2  n  é obtido através de
p transposições de
1 2  n
  1  2  n    1
p
então .

9. Reordenamento simultâneo: sejam


 1 2  n  ,  1 2  n  e
 k1 k2  k n  reordenamentos de
 1 2  n  , logo não existem índices iguais, i.e.
i  j i  j
é sempre verdade. Então:
  1  2  n    1 2  n     k1   k2  kn  k1   k2  kn .
Para provar basta notar que


 k1 
k2  kn   1   1 2  n 
p

  k 
k2  kn   1   1  2  n 
p
1

Pois
 k1
k2  kn  é um reordenamento de
 1 2  n  e
 k1
k2  kn 
é o mesmo reordenamento de
 1 2  n  logo as permutações são idênticas em ambos os casos.
2p
 1 2 p   1 
  1  1
p
Como a igualdade está provada.

  1,  2 ,  3 , ,  n      2 ,  3 , ,  n    2 , 3 , , n 
10. onde é um reordenamento de
 2, 3, ,n . Todos os termos com sgn  i 1  1  1 e desaparecem do produtório.
Para provar as propriedades do determinante vamos precisar ainda dos teoremas de preenchimento.

Teoremas de preenchimento:

1. Sejam
 1 2  n  todos os reordenamentos possíveis de
1 2  n , portanto
i  j i  j
é sempre verdade, e
 k1 k2  k n  um reordenamento fixo de
1 2  n , então
 k
1
 k2   kn  varre todos os reordenamentos possíveis de
1 2  n .

Antes de demonstrar o teorema vamos exemplificá-lo com n  3, e


1 2 3 e escolher
 k1 k2 k3    2 3 1 . Agora vamos reordenar
 1 2 3  e ver o que obtemos com
 2  3 1  :

 1 2 3   2 3 1 
   
 1 3 2   3 2 1 
 2 1 3   1 3 2 
 1 2 3       2  3 1    
 2 3 1   3 1 2 
 3 1 2   1 2 3 
   
 3 2 1   2 1 3 

Note que com


  2  3 1  obtivemos de volta os 6 arranjos apenas em uma ordem diferente. Ou seja
 2 3 1  é tão bom quanto  1  2  3  para varrer todas as possibilidades de arranjos.

Para
 1 2  n  exaurir todas as possibilidades de reordenamento ele precisa de n! conjuntos de

n elementos, diferentes entre si [os conjuntos]. Se


 k 1
 k2   kn  n!
contém conjuntos

diferentes, obrigatoriamente contém todos os possíveis reordenamentos de


 1 2  n . Para cada

 1 2  n  corresponde um
 k1
 k2   kn , logo o número de conjuntos de

 k1
 k2   kn  é igual ao de
 1  2   n  . Na realidade   k1  k2   kn  é um
reordenamento de
 1 2   n  . Como o número de conjuntos são iguais entre si e igual a n! então

basta provar que não existem


 k
1
 k2   kn  repetidos.
Vamos provar por absurdo:

Suponha que os dois conjuntos


 1  2   n    1  2   n  , diferentes entre si, levam a

dois conjuntos
 k1
 k2   kn  repetidos, i.e.:
 k 1
 k2   kn   k1   k  k 
2 n
 ki   ki i j  j j j  ki , e, portanto que
Mas isso implica que o que significa que , fazendo
 1  2   n    1  2   n  em contradição com a hipótese de que
 1  2   n    1  2   n  . Logo não há repetição nos conjuntos

 k1
 k2   kn  e eles varrem todos os possíveis reordenamentos de  1 2  n .

2. Sejam
 1 2  n  todos os reordenamentos possíveis de
1 2  n e
 1 2  n  um reordenamento fixo de
1 2  n , então o reordenamento
 1 2  n  tal que
 1  1,  2  2 ,  , n  n
também varre todos os

reordenamentos possíveis de
1 2  n .

Antes de demonstrar o teorema vamos aplicá-lo para entender a regra de associação entre os diversos índices.

Vamos escolher
 1 2 3    3 1 2  e a regra para encontrar o  é dada por
 1  3,  2  1, 3  2
. Então se
 1  2  3    2 1 3 , 1  3 porque 3   3 , 2  2
porque
1  2 e
3  1 porque
2   1 . Trata-se, portanto, de encontrar a função inversa
  i   i  i   1
 i  .
  3  2  1  3  2
No exemplo dado, 1 , e , teremos:

 1 2 3   3 1 2 
   
 1 3 2   2 1 3 
 2 1 3   3 2 1 
 1  2 3      1 2 3    
 2 3 1   2 3 1 
 3 1 2   1 2 3 
   
 3 2 1   1 3 2  

Note que
 1 2 3  varreu todas as possibilidades de reordenamento de  1 2 3 também.

A prova é semelhante e basta provar que não há repetição, ou seja, se


 1  2   n  
    1 2  n 

 1  2   
n   então
 i  i e  i  i   i   i  j  j
logo
 1  2   n    1  2   n  .

com
 2  3 1  obtivemos de volta os 6 arranjos apenas em uma ordem diferente. Ou seja
 2  3 1  é tão bom quanto
 1 2 3  para varrer todas as possibilidades de arranjos.

Para
 1 2  n  exaurir todas as possibilidades de reordenamento ele precisa de n! conjuntos de

n elementos, diferentes entre si [os conjuntos]. Se


 k1
 k2   kn  n!
contém conjuntos

diferentes, obrigatoriamente contém todos os possíveis reordenamentos de


 1 2  n . Para cada

 1 2  n  corresponde um
 k 1
 k2   kn , logo o número de conjuntos de

 k1
 k2   kn  é igual ao de
 1  2   n  . Na realidade   k1  k2   kn  é um
reordenamento de
 1 2   n  . Como o número de conjuntos são iguais entre si e igual a n! então

basta provar que não existem


 k 1
 k2   kn  repetidos.
Vamos provar por absurdo: Suponha que os dois conjuntos
 1  2   n    1  2   n  ,

diferentes entre si, levam a dois conjuntos


 k1
 k2   kn  repetidos, i.e.:
 k 1
 k2   kn   k1    k2   kn 
 ki   ki i j  j j j  ki , e, portanto que
Mas isso implica que o que significa que , fazendo
 1  2   n    1  2   n  em contradição com a hipótese de que
 1  2   n    1  2   n  . Logo não há repetição nos conjuntos

 k1
 k2   kn  e eles varrem todos os possíveis reordenamentos de  1 2  n .

DEFINIÇÃO DE DETERMINANTE:

O determinante é uma função que associa um número à matrizes quadradas, ou seja, é uma função de
matrizes, o domínio é o conjunto de matrizes quadradas, e o contradomínio são os reais, definida pela regra:
n n n
det( A)        1 ,  2 , ,  n  A1 A2  An
1 2 n
1 1  2 1  n 1
.

Também denotado por:


det( A)     1 ,  2 , ,  n  A1 A2  An
1 2 n
1 , 2 ,, n

Ou ainda na forma mais abreviada:



det( A)  
    
A1 A2  An

1 2 n

   1 ,  2 , ,  n 
com

Note que a somatória é feita sobre o segundo índice dos elementos da matriz, que correspondem às colunas.
Também se percebe que a propriedade (1) das  s nos garante que podemos trabalhar apenas com

reordenamentos de
1 2  n  , evitando assim índices repetidos.

Exemplos: encontrar a forma explícita dos determinantes de matrizes 1 1 , 2  2 e 3 3 .


1
det A11     1  A11  A11
1. 1 1 .
2 2
det A22      1, 2  A11 A22    1,2  A11 A22    2,1 A12 A21
2. 1 1 2 1 , ou seja,
det A22  A11 A22  A12 A21 .

Trata-se da famosa regra:

3 3 3
det A33       1, 2 , 3  A11 A2 2 A33
3. 1 1 2 1 3 1

det A33    1,2,3 A11 A22 A33    2,3,1 A12 A23 A31    3,1,2  A13 A21 A32 
  3,2,1 A13 A22 A31    1,3,2  A11 A23 A32    2,1,3 A12 A21 A33

Agora note que


  1,2,3    2,3,1    3,1,2   1
e que
  3,2,1    1,3,2     2,1,3  1
e mais ainda que varremos todos os reordenamentos possíveis [devem existir 2 começando com 1, dois
começando com 2 e 2 começando com 3]. Trata-se também de outra regra famosa:
O determinante de uma matriz 4  4 terá 4!  24 termos e o processo de cálculo vai se tornando tedioso. O
EXCEL já tem uma função embutida que faz esse cálculo. Na mão o melhor é calcular usando a regra dos
menores que provaremos adiante.

Propriedades dos determinantes:

det( A)     1 ,  2 , ,  n    1 ,  2 , ,  n  A  A  A
1 1 2 2 n n
1 , 2 ,, n
1.

Onde
 1 , 2 , , n  é um reordenamento de
1 2  n  . Note que a diferença com a definição
det( A)     1 ,  2 , ,  n  A1 A2  An
1 2 n
1 , 2 ,, n
inicial do determinante foi o reordenamento

de
1 2  n .

Prova: por definição temos que:

det( A)     1, 2, , n    1 ,  2 , ,  n  A1 A2  An


1 2 n
1 , 2 ,, n

Agora aplicamos dois reordenamentos iguais e simultâneos:


 1, 2, , n   1 , 2 , , n 
 1 ,  2 , , n    1 ,  2 , ,  n 
e usamos a propriedade (7):
  1, 2, , n    1 ,  2 , ,  n     1 ,  2 , ,  n    1 ,  2 , ,  n 
.
Para completar, precisamos usar o teorema de preenchimento para garantir que os  s varrerão todos o

reordenamentos possíveis de
1 2  n como faziam os  s iniciais. Isso garante que a somatória
incluirá todos os termos.

det( A)     1 ,  2 , ,  n    1 ,  2 , ,  n  A  A  A
1 1 2 2 n n
1 , 2 ,,n
2. . Note que
agora a somatória é feita sobre o primeiro índice, ou seja, sobre as linhas.

Prova: novamente começamos de:


det( A)     1, 2, , n    1 ,  2 , ,  n  A1 A2  An
1 2 n
1 , 2 ,, n

O procedimento de reordenação agora será o seguinte – reordenar cada


 1 ,  2 , , n  até chegar a um

mesmo
 1 ,  2 , , n  fixo, o que requer que     j . Se aplicamos o mesmo reordenamento para
j

 1, 2, ,n obteremos  1 , 2 , , n  , ou seja, se  j virou  j então j virou  j . Como os


reordenamentos são, novamente, simultâneos, vale a propriedade (7)
  1, 2, , n    1 ,  2 , ,  n     1 ,  2 , ,  n    1 ,  2 , ,  n   s
. A diferença agora é que os

estão fixos e os  s variando nos reordenamentos de


 1, 2, ,n . O teorema 2 do preenchimento garante
que essa variação preencherá todos os n! reordenamentos. Assim a propriedade está provada.

det  A   det  A 
3. .

det( A)     1 ,  2 , ,  n    1 ,  2 , ,  n  A  A  A 
1 1 2 2 n n
1 , 2 ,,n

    1 ,  2 , , n    1 ,  2 , ,  n  A  A  A  det  A 
1 1 2 2 n n
1 , 2 ,,n

Usando a propriedade (2). O determinante de uma matriz é igual ao da sua transposta.

4. Se A é obtida de A multiplicando a iésima linha por  então det A   det A .

Aij   Aij e Ak ij  Aij


A transformação é dada por . Nesse caso
det A     1 2  n  A11 A2 2  Aii  An n 

    1 2  n  A11 A22  Aii  Ann 

     1 2  n  A11 A22  Aii  Ann   det A

4.a.
det   A    det  A 
n

det   A      1 2  n   A11 A22  Aii  Ann   n det A


A é obtida de A multiplicando a jésima coluna por  então det A   det A .


5. Se
Nesse caso notamos que A é obtida de A multiplicando a jésima linha por  , e como det A  det A

então det A   det A .
6. Trocar duas linhas, ou duas colunas, de uma matriz troca o sinal do determinante. Para mostra a troca
de colunas basta usar o fato de que det A  det A .

D  det( A)     1 ,  2 , ,  n  A1 A2  An


1 2 n
1 , 2 ,, n

  
 1 ,  2 , ,  i , ,  j , ,  n   1 ,  2 , ,  j , ,  i , ,  n 
D  
1 , 2 ,, n
 
 1 ,  2 , ,  i , ,  j , ,  n A1 A2  A j  Ai  An 
1 2 i j n

 
1 , 2 ,, n
 
 1 ,  2 , ,  j , ,  i , ,  n A1 A2  A j  Ai  An
1 2 i j n

 j  i i   j
Chamando e

D   
1 , 2 ,, n
 
 1 ,  2 , , i , , j , ,  n A1 A2   A j  Ai  An   det A
1 2 j i n

7. Se uma matriz tem uma linha (ou uma coluna) nula então det A  0 . Multiplica a linha por zero e usa
propriedade (4).
A são iguais então det A  0 . Se duas linhas i e j são iguais, trocá-las
8. Se dua linhas (ou colunas) de
não muda a matriz, i.e., A  A . Por outro lado, pela propriedade (6) então
det A   det A  det A   det A  2det A  0  det A  0 .
A det A  0 Aij  kAij
9. E duas linhas (ou duas colunas) de são proporcionais então . Nesse caso
onde a matriz A possui duas linhas iguais, logo det A  k det A  k  0  0 .
10. Considere duas matrizes
A1 e
A2 que só diferem na iésima linha, i.e.,
 A11  A1n 
A12  A11 A12  A1n 
A  A2 n 
A22 A A22  A2 n 
 21  21
           
A1    A1   
 Ai1 Ai 2
 Ain   Ai1 Ai2  Ain 
           
   
 An1  Ann 
An 2  An1 An 2  Ann 
e , então
 A11 A12  A1n 
 A A22  A2 n 
 21
     
det A  det    det A  det A
 Ai1  Ai1 Ai 2  Ai2  Ain  Ain 
     
 
 An1 An 2  Ann 
.

   1 ,  2 , ,  n  A1 A2   Ai  Ai  An 


det A  

1

2
 i i
 n

   1 ,  2 , ,  n  A1 A2   Ai  An  


   1 ,  2 , ,  n  A1 A2   Ai  An 
 
1 2 i n 1 2 i n
 
 det A1  det A2
A mesma propriedade vale para duas colunas.

11. Somar à uma linha um múltiplo de outra linha não altera o determinante. Basta usar as propriedades
acima:
det A  det A  det A2
1 mas
A2 possui duas linhas proporcionais logo
det A2  0 . O
mesmo vale para colunas.
Cij   Aik Bkj
12.
det  AB   det A  det B . Seja C  AB então k e nnn

   1 ,  2 , ,  n  C1 C 2  C n 
det C  
1 2 n

    
    ,
1 2 , ,  
n   A B
11 11   A B 
2 2  2  2    Ann  n n 
B


  1
  2   n 
  A1 A2  An 
 1 2    1 ,  2 , ,  n  B  B   B  
n 1 1 2 2 n n
  n
Agora
 2  1 ,  2 , , n     1 ,  2 , ,  n    1 ,  2 , ,  n   1
desde que
 1 , 2 , , n 
seja um reordenamento de
 1, 2, ,n . Logo podemos incluí-lo na somatória acima obtendo:
det C     1 ,  2 , , n  A1 A2  An 
 1 2 n

   1 ,  2 , ,  n    1 ,  2 , ,  n  B  B

1 1 2 2
 B
n n


    1 ,  2 , , n  A1 A2  An  det B  det A  det B
 1 2 n

det  AB   det  BA   det  AB   det  BA   det  AB   det  BA   det A  det B


13. pois
det M  det M e
det  MN   det M  det N .

n
det( A)   Aii  A11 A22  Ann
14. Se a matriz A é diagonal então i 1 .

Se A é diagonal então Aij  Ai ij . Nesse caso o determinante é dado por:

det( A)     1 ,  2 , ,  n  A11 A2 2  Ann


1 2 n
1 , 2 ,, n

Mas os deltas de Kronecker dentro da somatória garantem que que apenas os termos com
1  1, 2  2, , n  n sobrevivem, logo a somatória será
det( A)  A1A2  An , ou seja, a
multiplicação dos elementos da diagonal.

n
det( A)   Aii  A11 A22  Ann
15. Se a matriz A é triangular superior, ou inferior, então i 1 .

Trata-se de uma propriedade intuitiva porque exceto pela diagonal todos os outros termos serão multiplicados
por algum elemento nulo do triângulo inferior. Basta mostrar para a triangular superior, pois a inferior sai com
det A  det A . Se A é matriz trinagular superiro então Aij  0 se i  j , o que impõe restrições nos
 s .
det( A)     1 ,  2 , ,  n  A1 A2  An 1 2 n
1 , 2 ,, n
A11  0 0  1  2  1  1 1  1 então i  1 i  1 . O próximo termo é o
Note que para . Se
2 , que pela propriedade da matriz deve ser menor do que 3, mas acima de 1, logo 2  2 . Continuando o
argumento percebemos que a única solução não nula é para
1  1, 2  2, , n  n e
det( A)  A11 A22  Ann .
Essa propriedade (15) é a base do método numérico de triangularização da matriz, usando o fato de que
operações elementares não alteram o determinante, mais eficiente para cálculo de determinantes.

Definição do COFATOR.

 ij Ann extraindo a iésima linha e a jésima coluna. A matriz cofator


Vamos obter a matriz à partir da matriz

ij de A é definida como: cof  A ij   1


i j
 .
det ij

1 0 2
A   3 1 1 
 2 1 2
Exemplo, seja  .
1 1 
11    det 11  1 cofA11  1
1 2 

3 1
12   det 12  4 cofA12  4
2 2 
3 1
13   det 13  1 cofA13  1
2 1

0 2
 21    det  21  2 cofA21  2
 1 2 

1 2
 22    det  22  2 cofA22  2
 2 2 

1 0
 23    det  23  1 cofA23  1
 2 1 

0 2
31    det  31  2 cofA31  2
1 1

1 2
32    det 32  5 cofA32  5
3 1
1 0
33    det  33  1 cofA33  1
3 1

 1 4 1 
cof  A    2 2 1
 2 5 1 
 

Propriedades do cofator:

 1 0  0   A22 A23  A2 n 
A A22  A2 n  A A33  A3n 
det A  det  21  det 11  det  32
           
   
1.  An1 An 2  Ann   An 2 An3  Ann  , ou seja,
iniciamos com uma matriz nn e caímos em uma matriz
 n  1   n  1 . Note que os elementos
A11  11   1.
da primeira linha podem ser escritos como , anulando todos os elementos com 1

det( A)     1 ,  2 , ,  n  1 A2  An 


1 2 n
1 , 2 ,, n

    1,  2 , ,  n  A2  An 
  2 ,,n  1 2 n

     2 , ,  n  A2  An  det 11


  2 ,,n  1 2 n

Expansão nos cofatores:


 A11 A12  A1n   A11 A12  A1n   A11 A12  A1n 
A A22  A2n  A A22  A2 n  A A22  A2 n 
 21  21  21
                 
det    det    det   
 Ai1 Ai 2  Ain   Ai1 0  0   0 Ai 2  0 
                 
     
 An1 An 2  Ann   An1 An 2  Ann   An1 An 2  Ann 
 A11 A12  A1n 
A
 21 A22  A2 n 
     
 det  
 0 0  Ain 
     
 
 An1 An 2  Ann 

 A11 A12  A1n   A11 A12  A1n   A11 A12  A1n 


A A22 
 A2 n  A A22 
 A2 n  A A22  A2 n 
 21  21  21
                 
det    Ai1 det    Ai 2 det    
 Ai1 Ai 2  Ain   1 0  0   0 1  0 
                 
     
 An1 An 2  Ann   An1 An 2  Ann   An1 An 2  Ann 
 A11 A12  A1n 
A
 21 A22  A2 n 
     
 Ain det  
 0 0  1 
     
 
 An1 An 2  Ann 

 A11 A12  A1k  A1n 


A A22  A2 k  A2 n 
 21
       
Dik  det  
 0 0  1  0 
       
det A   Aik Dik  
k  An1 An 2  Ank  Ann 
Portanto com , com a
linha i substituida pro zeros exceto na coluna k em que é substituída por 1. Agora vamos trocando as linhas
até levar a linha i para a primeira linha na ordem. Não podemos simplesmente trocar a linha i pela linha 1
porque isso desordena o resto da matriz. Vamos fazer o seguinte: primeiro trocamos a linha i com a linha
i  1, depois com a linha i  2 e assim sucessivamente até chegar a primeira linha. Nesse processo trocamos
de linhas
 i  1 vezes, portanto:

 A11 A12  A1k  A1n   0 0  1  0 


A A22  A2 k  A2 n  A A12  A1k  A1n 
 21  11
        i 1  A21 A22  A2 k  A2 n 
det      1 det  
 0 0  1  0         
         
   
 An1 An 2  Ank  Ann   An1 An 2  Ank  Ann 

Agora vamos trocando as colunas da mesma forma até levar a coluna k para a primeira coluna, então:

 A11 A12  A1k  A1n   1 0 0  0 


A A22  A2 k 
 A2 n  A A11 A12  A1n 
 21  1k
        i 1 k 1  A2 k A21 A22  A2 n 
det     1  1 det  
 0 0  1  0       
           
   
 An1 An 2  Ank  Ann   Ank An1 An 2   Ann 
Ou seja
 1 0 0 0 

A A11 A12 A1n 

 1k
ik A A21 A22  A2 n 
Dik   1 det  2 k   cof  A  ik
     
   
 
 Ank An1 An 2   Ann 

Pois extraimos a linha i e a coluna k.

det A   Aik cof  A  ik   Akj cof  A  kj


Então, acabamos de provar que k k

Nesse caso temos dois métodos de decomposição no cofatores para calcular um determinante – escolhe uma
linha e usa a primeira somatória, ou escolhe uma coluna e usa a segunda. A idéia é procurar linhas ou colunas
com muitos zeros para facilitar os cálculos. Para fazer determinantes 4 4 ou 5  5 na mão, dependendo da
quantidade de zeros na matriz, esse método pode ser até rápido. Se precisar de uma resposta analítica em
lugar de numérica também deve-se usar esse método. Para calcular valores numéricos de qualquer
determinante não é o mais adequado. Entretanto, o método é valioso demais para provar o teorema a seguir:

Teoremas:

 Aik cof  A  jk   ij det A  Akj cof  A  ki   ij det A


k ou k

Prova: vamos criar uma matriz A à partir da A trocando a linha j pela i , i.e.,
 Apq se p  j

Apq  
 Aiq se p  j

Note que se
i j ficamos com duas linhas iguais. Agora
det A   Ajk cof  A  jk   Aik cof  A  jk  0 i  j
k k por conta das duas linhas iguais. Se

escolhemos a linha
j para a expansão dos cofatores então cof  A   cof  A  . Se, por outro lado, i  j , a
 Aik cof  A  ik  det A
troca não muda nada e k . Nesse caso podemos então escrever que

 Aik cof  A  jk   Akj cof  A  ki   ij det A


k k

 Aik cof  A  jk   Aik cof  A  kj   Aik Akj†


Note agora que k k k onde matriz adjunta de A , dada por
Akj†  cof  A  kj
, é a transposta da matriz cofator. Note o que temos aqui:
 1 
A A†   I
AA   det A  I

ou  det A 
Por outro lado também vale:
 1 †
A A   det A  I
†  det A A  A  I
ou
1
1 1
A 1  A†
Logo acabamos de encontrar a matriz inversa de A ( AA  A A  I ): det A . A inversa é a
transposta do cofator dividida pelo determinante de A . Note que essa fórmula só pode ser utilizada se
det A  0 .

Assim podemos encontrar facilmente a matriz inversa de uma matriz 2 2 não singular:
A A12   A22  A21   A22  A12 
A   11   cof  A     A 


 A21 A22    A12 A11    A21 A11 
Ou seja, para obter a matriz adjunta simplesmente trocamos os dois elementos da diagonal e os sinais dos dois
elementos fora da diagonal. A matriz inversa é dada por:

 A22  A12 
 A A11 
1
A   21
( A11A22  A12 A21 )

Formalização de Matriz Inversa

1. Definição de matrizes SINGULAR e NÃO-SINGULAR. A matriz A é SINGULAR se


det( A)  0 , e é NÃO
SINGULAR se
det( A)  0 .
1.1. Divisores da matriz NULA: Se AB  O então A  O ou B  O ou A e B , as duas, são matrizes
singulares. Claro que se A  O ou B  O então AB  O . Mas estamos interssados no caso em
que A  O , B  O mas AB  O . Aplicando o determinante temos que
det  AB   det A  det B  0 . Pareceria então que exigir que det A  0 ou det B  0 seria
suficiente, mas essa caso é mais forte, os dois devem ser nulos. Suponha que det A  0 e det B  0
. Mas se det A  0 então A admite inversa, portanto
A1 AB  A1O  B  O em
contradição com B  O .

2. Definição de matriz inversa. Se existir uma matriz X tal que AX  I e que XA  I então X éa
1
matriz inversa de A , denotada por X  A .
2.1. Se a inversa existe ela é única. Supor que existem duas diferentes, ou seja, Y  X / AY  I . Mas
X  XI  X  AY    XA  Y  IY  Y ou seja X Y em contradição com X Y . Logo a
inversa, se existir, é única.
2.2. Se A admite inversa então A é não singular.
AA1  I  
 det AA1  det I  1  det  A  det A1  1   , logo det A  0 e
1
det A1 
det A1  0 . Mais ainda det A .
1
A†
2.3. Vale também o converso, se A é não singular então A admite inversa. Nesse caso det A existe
1
A 1  A†
e det A .
Então podemos afirmar A admite inversa  A é não singular.

2.4. Se A é singular, A não admite inversa, pois


 
det  A  det A1  1
logo

 
0  det A1  1  0  1
gera uma contradição.
1 1
2.5. A é a inversa de A1 . Pois AA  I e A A  I .
2.6. Se A é não singular, A também é não singular, pois det A  det A  0 .

2.7. Se A e B são não singulares então AB é não singular, admite inversa e


 AB  1  B 1 A1 é a
inversa de AB .

B 1 1
A   AB   B  A A B  B
1 1 1
IB  B 1B  I

 A
1
 A1
2.8. Se A é não singular então .

 
1
1 AA1  I  I  A 1 A  I A 1  A
Partindo de AA I e aplicando a transposta logo .

OPERAÇÕES ELEMENTARES:

São três as operações elementares sobre matrizes quadradas.

1. Multiplicar uma linha, ou uma coluna, por um escalar   0 . O determinante é multiplicado por  .
2. Permutar duas linhas, ou duas colunas. O determinante é multiplicado por 1 .
3. Adicionar à uma linha, ou uma coluna, um múltiplo de outra linha, ou coluna. Nesse caso o
determinante é preservado.

Vamos denotar um operador por Ô que aplicado em uma matriz A , ou seja


A a modifica para a matriz
ˆ . Para diferenciar operações nas linhas das colunas vamos chamar o operador nas linhas de Oˆ L e o
A  OA

operador nas colunas de C.

Teorema:
 
Oˆ L  AB   Oˆ L A B OˆC  AB   A OˆC B
e
 .
Oˆ L
 AB  ij   Aik Bkj
O operador só atua nas linhas, ou seja, apenas no primeiro índice do produto k ,


Oˆ L  AB  ij   Oˆ L Aik Bkj
k
 Oˆ L  AB    Oˆ L A  B Oˆ
C só atua
portanto que significa . Já o operador

je
OˆC  AB  ij   Aik
k
 Oˆ B 
C kj
no índice .

Matrizes elementares.

Uma matriz elementar é obtida aplicando operadores linha e/ou coluna sobre a matriz identidade. Denotamos
essas matrizes por E e
EL ou
EC se a operação for apenas sobre linhas ou colunas.

0 1 0
E1   1 0 0 
0 0 1
Exemplo: A matriz   troca as linhas 1 e 2. Veja
 0 1 0   A11 A12 A13   A21 A22 A23   0 0
   
E1 A   1 0 0   A21 A22 A23    A11 A12 A13  E2   0 1 0 
 0 0 1  A    0 0 1  multiplica
  31 A32 A33   A31 A32 A33  . A matriz 
1  0
E3   0 1 0 
0 0 1
a linha 1 por  . A matriz   soma à linha 1,   linha 2. Note:

 1  0   A11 A12 A13   A11   A21 A12   A22 A13   A23 


   
E3 A   0 1 0   A21 A22 A23    A21 A22 A23 
 0 0 1  A A32 
A33    A31 A32 A33 
  31 

1 0 0
E4    1 0 
0 0 1 
Já a matriz  soma á coluna 1,   coluna 2, ou seja, opera nas colunas, em lugar das
linhas.

Teorema.

1. det E  0 , pois selecionamos as operações elementares com essa propriedade. Note que det I  1
e que det E  k  0 para a operação multiplicar uma linha por uma constante não nula,
det E  1 para a operação trocar duas linhas e det E  1 para a operação adicionar á uma linha
um múltiplo de outra linha.
2. Realizar uma operação sobre as linhas é equivalente à pré-multiplicar a matriz pela matriz elementar
da operação desejada. Já realizar a operação sobre colunas é equivalente a pós-multiplicar pela matriz
elementar.

A  IA  OL IA   OL I  A  EL A por outro lado


A  AI  OC AI  A  OL I   AEC

3. Como o determinante das matrizes elementares não é nulo elas admitem inversa. A inversa de E
também é uma matriz elementar. Se
ˆ
E  OI  I  Oˆ 1E  IE 1  Oˆ 1EE 1  E 1  Oˆ 1I , ou seja E 1 também é
obtida pela operação elementar reversa aplicada na matriz identidade.

Matrizes equivalentes A B

Definição: A B , A é equivalente à B , se B pode ser obtido de A através de uma cadeia de operações


elementares.

Teoremas:

1. A  A , pois A  IA e I é uma matriz elementar.


1 1 1
2. Se A B então B  A , pois se A  E1E2  En B  B  En  E2 E1 A .
1 1 1
3. Se A B e B C então A C . Note que A  E1E2  En B e B  Em  E2 E1 C logo
A  E1E2  En Em1 E21E11C.
4. Todas as matrizes quadrada não singulares podem ser expressas como um produto de matrizes
elementares.

Se A é não singular então A admite inversa. Isso significa que um conjunto de operações elementares leva
A até I, ou seja,
E1E2  En A  I , logo A  En1 E21E11I  En1 E21E11 . Isso também

significa que
A1  E1E2  En .

Método para achar matriz inversa através de operações elementares.

Coloque as duas matrizes, A e I lado a lado. Agora, usando operações elementares de linhas vá
transformando A na matriz identidade. Toda operação realizada sobre A também deve ser realizada sobre
1
I . Quando A se tornar a identidade a identidade se tornou A .
2 3
A
4 5 
Exemplo 1: achar inversa de . Usando a matriz adjunta sabemos que

1 1  5 3    5 2 3 2 
A   
 10  12   4 2   2 1  . Agora vamos usar apenas as operações elementares.
Colocar as duas lado à lado:

 2 3 1 0  2  1 3 1 0   4 1 3 1 0  linha 2
   2 2   2 2  
4  0 3
 4 5 0 1   5 0 1  linha1
 1 2 1   2
1 0  5 3  1 0  5 3 
 2 2  2 2
 0 1 2  
1   1  0 1 2 1 

1
1  2 3  5 3 
A    2 2
 4 5  2 1  .
Então 

2 4 5
A   1 3 2 
 2 2 3
Exemplo 2: achar inversa de   . Faremos mais de uma operação elementar por vez.

 5 1 0 0 
 2 4 5 1 0 0  2 1 2 2 2 
   
 1 3 2 0 1 0   1 3 2 0 1 0  linha1 
 2 2 3 0 0 1  2
  1 1 3 0 0 1  linha1
 2 2
1 2 5 1 0 0  1 0 7 3 2 0 
 2 2  2  linha 2  2 2 
0 1  1  1 1 0   0 1  1  1 1 0  
 2 2   2 2 
 0 1 1 1  linha 2   2
 0 1  0 0  3 1 1 1   3
 2 2  2 2
1 0 7 3 2 0   7  linha3  5 2 7 
 2 2  2 1 0 0 6 6 6 
 0 1  1  1 1 0   1  linha3   0 1 0  1 4 1 
 2 2  2  6 6 6
 0 0 1 2 2  1   0 0 1 4  4  2 
 3 3 3  6 6 6
1
2 4 5  5 2 7 
1
A1   1 3 2    1 4 1 
2 2 3 6 
Ou seja    4 4 2  .

Matrizes na forma escada reduzida por linha:

Uma matriz na forma escada reduzida obedece aos seguintes critérios:

1. O primeiro elemento não nulo de uma linha é 1.


Aij i Aij  0 j  i
2. Se é o primeiro elemento não nulo da linha então , ou seja, todos os
j A
elementos da coluna , exceto ij , são nulos.
3. Todas as linhas nulas estão abaixo das linhas não nulas.
4. Se as linhas
1, 2, , p são não nulas e
ki é o primeiro elemento não nulo da linha i então
k1  k2    k p
.

Teorema: Toda matriz


Amn pode ser colocada na forma escada através de operações elementares.

A demonstração do teorema é a descrição do procedimento para atingir o objetivo – colocar a matriz na forma
escada reduzida por linhas. O procedimento é o seguinte:

1. Suponha que já se colocou as i  1 linhas com primeiro elemento não nulo iguais à 1 e todo o resto da
coluna desse elemento nula. Tome agora a linha i :
2. Se ela é nula nada precisa ser feito.
Aij Aij
3. Se o primeiro elemento não nulo é o divida a linha por . Assim tornamos o primeiro elemento
não nulo igual a 1. Falta anular todos os elementos da coluna
j.

4. Some todos os elementos da linha k  i com a linha i multiplicada por


  Akj  . Assim anulamos
j Aij  1
todos os elementos da linha exceto o .
5. Repita o procedimento para as próximas linhas. Note que os zeros abaixo e acima do elemento igual a
1 não desfazem os 1 e zeros já obtidos.
6. Permute as linhas até colocar a matriz na forma escada.

 0 2 1 4
M   3 0 5 2 
 0 0 0 3
Exemplo: colocar a matriz   na forma escada reduzida por linhas.
1 0 1 1 2  2  linha3 0 1 1 0 1 0 5 0
0 2 1 4 2  2   2 trocar linha1  3 
 3 0 5 2  1 


 3  1 0
5 2   2  linha3   1 0 5 
0 com linha 2  0 1 1 0
3 3 3  3   2 
0 0 0 3 
  1 
0 0 0 1   0 0 0 1  0 0 0 1 
3      

Unicidade da forma escada reduzida por linhas.

Qualquer operação elementar de linhas em uma matriz na forma escada reduzida por linhas ou a tira da
condição de escada ou nada modifica, deixando a matriz invariante.

1. Multiplicar uma linha por   1 . Se a linha for nula nada muda. Se a linha não for nula contém o
primeiro elemento não nulo igual a 1, que se torna igual a  após a operação e a matriz não está mais
na forma escada.
k  k   kp
2. Trocar duas linhas não nula altera a ordem escada 1 2 .
3. Somar duas linhas não nulas colocaria 1 onde deveria ser zero

Isso significa que se


Aesc  Besc então
Aesc  Besc . Matematicamente podemos provar a unicidade da
forma usual, supondo que existe
  Aesc .
Aesc Nesse caso então
Aesc  E1 E2  En A e
  E1E2  Em A , logo Aesc  A
Aesc A  A então Aesc  Aesc
e esc
 o que implica que Aesc  Aesc
 .
Cuidado para manter apenas operações de linhas, porque operações elementares de colunas podem gerar
duas matrizes escadas. Exemplo:

1 0 0 5  1 0 5 0
 3  3 
0 1 0 1   0 1 1 0
 2  2 
 0 0 1 0   0 0 0 1 
   
Nesse caso trocamos as colunas 3 e 4 e as duas matrizes, embora diferentes, estão na forma escada.

POSTO e NULIDADE de uma Matriz: ao terminar de colocar a matriz na forma escada reduzida por linhas o

número r de linhas não nulas será o posto [rank em inglês] da matriz M. Ou seja, posto de A , p  A , é o
 
A  A . A nulidade de Amn é N A  n  p , o número de colunas
número de linhas não nulas de esc
subtraído do posto. Note que no caso de um sistema de equações lineares o número de colunas é igual ao
número de incógnitas.

Antes de utilizar o conceito poderoso de posto de uma matriz na resolução de sistema de equações lineares
vamos estabelecer alguns teoremas.

Teoremas do posto de uma matriz


Amn .

1. Se
p  A   0 então A  O . Claro, pois todas as linhas são nulas.
2.
p  A  m . Trivial pois Aesc também é mn e o número de linhas não nulas não pode ser maior
do que o número de linhas.

3.
p  A  n . Aqui complica um pouco por estamos usando colunas em lugar de linhas. Isso implica que
N  A  n  p  0 . Na forma escada k1  k2    k p onde
p  posto = número de linhas
não nulas. Por outro lado
ki é a coluna do iésimo elemento diferente de zero da linha i . Logo ki  n
kp  n k  1 , k2  k1  2 e, continuando,
e . As condições da forma escada requerem que 1
kp  p p  kp  n p  n.
. Então concluímos que , ou seja,

Definição equivalente de Posto.

Posto de uma matriz A é o máximo


p
para o qual uma sub-matriz quadrada de A na forma k k é não
A
singular, ou seja, tem determinante não nulo. Fica claro a equivalência com a definição anterior para matrizes
na forma escada. As operações elementares jamais anulam o determinante de uma matriz não singular,
portanto podemos permutar as colunas da matriz na forma escada para colocar os 1´s em colunas adjacentes
crescentes. Todas as linhas após
p serão nulas, então o máximo determinante não nulo tem dimensão
p p. Qualquer sub-matriz
Al l terá linhas nulas com determinantes nulos. Procurar sub-matriz não
singular pode ser feito diretamente na matriz A sem necessidade de reduzi-la à forma escada. O fato de que
det E  0 sempre garante que as operações elementares sobre A jamais anularão qualquer determinante
que já não fosse nulo. A vantagem dessa definição é que facilita a demonstração de teoremas. Do ponto de
vista de operacionalidade pode ser muito fácil descobrir a sub-matriz não singular mas fica complicado
operacionalizar o procedimento de sair procurando uma a uma as submatrizes. Melhor começar pelas matrizes
de dimensão mais alta possível.

Exemplos:

0 2 1 4
A34   3 0 5 2 
p  A 0 0 0 3 A34
Achar onde  . Como o posto será no máximo 3. Fica fácil de ver que a
0 2 1 4
 
 3 0 5 2 
0 0 0 3
sub-matriz   marcada é triangular superior com determinante diferente de zero, logo
p  A  3 .
1 2 0 3 0
0 0 1 2 0 
A45 
0 0 0 0 1
 
p  A 0 0 0 0 0
Achar onde . Como a última linha é nula sabemos que o posto será no
 1 2 0 3 0
  1 0 0
 0 0 1 2 0  
   0 1 0
 0 0 0 0 1  0 0 1
  
máximo 3. Esolhendo a sub-matriz  0 0 0 0 0  obtemos uma sub-matriz

identidade com determinante não nulo, logo


p  A  3 .

Teoremas. Com essa definição fica fácil mostrar que:

1.
0  p  Amn   min  m, n pois uma sub-matriz quadrada só pode ser, no máximo, de ordem
min  m, n .

2.
 
p A  p  A
. Sabemos que det A  det A . Portanto se extraímos uma sub-matriz Ap p de A
Ap  p A A
com determinante não nulo também podemos extrair a da matriz . Se tiver uma linha
nula a A terá uma correspondente coluna nula.
3. Se A é sub-matriz de A então p  A   p  A  .
4.
p  EA   p  AE   p  A  , pois det  EA  det E  det A . Operações elementares, tanto nas
linhas quanto nas colunas, não alteram o posto de uma matriz.

5.
p   A   p  A  ,   constante.
p  AB   min  p  A  , p  B  
6. .

Se Ae B são conformes para multiplicação então


Amn e
Bnk e o produto
Amn Bnk  Cmk . Note
que as operações elementares de linha só se aplicam à matriz A do produto. Através de operações
elementares podemos levar a matriz A para a forma escada com
m  p  A  linhas nulas. O produto então

também terá, pelo menos,


m  p  A B . Isso implica que
linhas nulas. sobre colunas só se aplica à matriz

p  AB   p  A  . Por outro lado


   
p  AB   p AB  p B A  p B  p  B    , então
p  AB   min  p  A  , p  B  
.

7. O posto de uma matriz não muda se ele é pré/pós-multiplicada por uma matriz quadrada não singular.
Pré-multiplicação:
Cmn  X mm Amn . Como X é não singular então
p X   m e
p  A  m , logo

p  XA   p  A  , pela teorema 6. Por outro lado


 
p  A   p X 1 XA  p  XA 
, que nos leva a
p  XA  p  A   p  XA  com a única solução possível
p  XA   p  A  . Basta transpor para concluir

o mesmo para a pós-multiplicação


p  AX   p  A .

Dois sistemas de equações lineares são equivalentes se eles possuem as mesmas soluções e as mesmas
nulidades, ou variáveis livres.

8.
 
p AA  p  A 
AA é uma matriz simétrica quadrada.
. Note que
   
Considere o sistema
A X
mn n1  0 m1 e o sistema A n m A X
mn n1  0 n1 . Nesse caso
 
  
X1n Anm Amn X n1  011  0 . Isso pode ser re-escrito como AX AX 0
.
   Mas
 v1 
  v2 
 
AX   
    
 
 vm  e
 AX    v1 v2  vm 
e
  
AX AX  v12  v22    vm2  0
    só será
verdadeiro se
vi  0 i . Logo AX  0 é a única solução para AAX  0 , ou seja, AAX  0 e
 
AX  0 são equivalentes. Igualando as nulidades
n  p  A   n  p AA   concluímos que

 
p AA  p  A 
.

Sistema de Equações Lineares:

x , x ,, xn é escrito como: a1x1  a2 x2


1. Uma equação linear nas incógnitas 1 2
   an xn  b . Se
b0 a equação é chamada de equação linear HOMOGÊNEA.
2. Um sistema de m x , x ,, xn é escrito como:
equações lineares nas incógnitas 1 2

a11x1  a12 x2    a1n xn  b1  a11 a12  a1n  x1   b1 


a  a2 n   b 
a21x1  a22 x2    a2 n xn  b2  21 a22 x
    2 
2
           
    
am1x1  am 2 x2    amn xn  bm ou, na forma matricial:  am1 am 2  amn  xn   bm 
 b1   0 
b   
 2   0
    
     
Se
b1  b2    bm  0 , ou seja, b  0 b 0
, ou ainda  m    , o sistema é chamado de HOMOGÊNEO.

1. x y 5
2. 2 x  y  3
3. Equações redundantes. Suponha as seguintes equações:
3. 3 x  2 y  8 .
A terceira equação foi
obtida simplesmente somando as duas primeiras. Não contém qualquer informação extra. É uma
equação redundante. Correta, mas desnecessária.

4. Solução. Qualquer conjunto 1 2   , ,,  


n que satisfaça a todas equações do sistema é uma
solução. Em termos das soluções os sistemas são classificados em CONSISTENTES ou INCONSISTENTES.
Os sistemas inconsistentes não admitem qualquer solução, ou seja, o conjunto solução é vazio. Os
sistemas consistentes admitem pelo menos uma solução.

1. x1  x2  1
Exemplo:
2. x1  x2  0 nos leva a 1  0 , uma inconsistência. Não existe solução para esse sistema.

O sistemas consistentes podem ter uma única solução ou infinitas soluções.

1. x1  x2  1
Por exemplo, a equação dois do sistema
2. x1  x2  0 implica que
x2  x1 que substituída na equação

x1  1
2
 1,2    1 2 , 1 2 
um implica que e o conjunto é a única solução do sistema. Por outro lado a
equação
x1  x2  1 admite infinitas soluções. Escolhe um valor qualquer para x1 x
e 2
 1  x1 .

SOLUÇÃO TRIVIAL: um sistema homogêneo

Um sistema homogêneo do tipo:


a11x1  a12 x2    a1n xn  0
a21x1  a22 x2    a2 n xn  0

am1x1  am 2 x2    amn xn  0

Admite pelo menos uma solução, a solução trivial


 0,0,,0  . Todo sistema homogêneo é consistente.
No sistema:
a11x1  a12 x2    a1n xn  b1
a21x1  a22 x2    a2 n xn  b2

am1x1  am 2 x2    amn xn  bm

 a11 a12  a1n 


a a22  a2 n 
Amn   21
     
  
Chamamos  am1 am 2  amn 
de matriz dos coeficientes do sistema. Já x é o vetor das
 x1   b1 
x   b 

xn1   2  bm1   2 
   
   
incógnitas  xn  e  bm  . Chamamos de matriz ampliada a matriz:
 a11 a12  a1n b1 
 
 a a22  a2 n b2 
Ab 
m n 1
  21
     
 
 am1 am 2  amn bm 
. O sistema pode então ser escrito na forma matricial como:
 
Ax  b .
  
x
Se o sistema for consistente então Ax  b admite pelo menos uma solução. Vamos chamar o uma solução
   
particular do sistema, então
Ax o  b é verdadeira. O sistema homogêneo associado Ax  0 é sempre
  
x
consistente, logo também admite pelo menos uma solução H tal que
AxH  0 . Nesse caso então
      
xo  xH também é uma solução de Ax  b , pois A  xo  xH   Axo  AxH  b  0  b . Se a única
  
    
x
solução do sistema homogêneo for a trivial então H
 0 e o
x  xH  xo .

Resolução de sistemas de equações lineares:

a11x1  a12 x2    a1n xn  b1


a21x1  a22 x2    a2 n xn  b2

Vamos voltar ao sistema
am1x1  am 2 x2    amn xn  bm
As soluções não mudam por qualquer operação elementar entre linhas realizadas de ambos os lados da

  . Podemos então mostra



Ab
igualdade. Considere agora a matriz dos coeficientes A e a matriz ampliada
os seguintes teoremas:

  o sistema é inconsistente e não admite qualquer solução.



p  A  p A b
1. Se

Nesse caso ao reduzir o sistema à forma escada obeteríamos um sistema do tipo:


0 x1  0 x2    0 xn  bk  0 que gera a inconsistência
0  bk  0 .

 

p  A  p A b  n
2. Se o sistema é consistente e admite apenas uma solução. Note que a

nulidade desse sistema é zero. Se


p  A  n é porque
 k1 , k2 ,, k p    1, 2,, n  o que
  reduzidas na forma escada tem que ser do tipo:

Ab
significa que as matrizes Ae

1 0 0 0 1 0 0 0 c1 
0  
 1 0 0  0 1 0 0 c2 
0 0  0 0 1 0 
Aesc 
0 1
  Ab   
0 0 0 1 0 0 0 1 c4 
0 0 0 0 0 0 0 0 0
   
0 0 0 0 0 0 0 0 0 
e o que levaria a algumas equações redundantes e
x
a solução única i
 ci i   1, n  .

 

p  A  p A b  n
3. Se o sistema é consistente e admite infinitas soluções. Neste caso a nulidade
n pé o número de variáveis livres que podem passar para o lado direito da equação. Sejam
k1 , k2 , , k p
as colunas dos primeiros termos não nulos de cada linha. Nesse caso sabemos que
Aesc 1k1  1 Aesc 2k2  1 Aesc pk p  1
, , ..., e que esses termos são os únicos não nulos nas colunas
k1 , k2 , , k p n p
. Passamos para o lado direito as incógnitas restantes para obter um sistema de
equações do tipo:
xk1  c1    1 j x j
j

j  k1 , k2 , , k p 
xk2  c2    2 j x j
j
 
xk p  c p    pj x j
j

 xk1    1 j1  1 j2   1 jn  p   x j   c1 
    1   
 xk2    2 j1  2 j2   2 jn  p   x j2   c2 
     
           
 xk    pj  pj2   pjn  p   x jn  p   c p 
 p   1  
  
X dep  CX ind  d

Dados

x j j  k1 , k2 , , k p 
os valores de

xi i  k1 , k2 , , k p  são únicos, mas como os x j s
podem assumir quaisquer valores existem infinitas soluções.

Suponha um sistema consistente com n variáveis, posto


p e nulidade
n  p . Note então que o sistema
possui
n p variáveis livres, independentes, e
p variáveis dependentes. Sempre podemos escolher as ps
primeiras como as dependentes e as
n p últimas como independentes. Agora vamos reescrever o sistema

 a11 a12  a1n  x1   b1 


a  a2 n   b 
 21 a22 x
    2 
2
          
    
 am1 am 2  amn  xn   bm 

Exemplo: suponha que após a redução à forma escada o sistema ficou na forma:
x 
1 2 0 3 0 1   1
0 x 1 2 0 3 0 1
 0 1 2 0   2   2   
 x3   0 0 1 2 0 2
0 0 0 0 1   3
  x4   0 0 0 0 1 3
0 0 0 0 0     0   
 x5  0 0 0 0 0 0 
no qual a matriz ampliada é dada por . Vemos

 

p  A  p A b  3  5 n  p  5  3  2 . Logo existem
que estamos no caso em que e a nulidade é
duas variáveis livres. Nesse problema, seguindo a nossa notação,
k1  1, k2  3 e
k3  5 , assim
x ,x
escolhemos 1 3
e x5 para ficarem do lado esquerdo das equações:

x1  2 x2  3 x4  1  x1  1  2 x2  3 x4
x3  2 x2  2  x3  2  2 x2
x5  3  x5  3

As duas variáveis livres são


x2 e x4 , x5 está determinada mas
x1 e x3 podem assumir infinitos valores
dependendo de
x2 e x4 .

 
4. O sitema homogêneo Ax  0 com n incógnitas admite uma solução NÃO TRIVIAL se, e somente se,

p  A  n . Prova: se p  A  n então

p A0 n 
pois o acréscimo de uma coluna de zeros não
altera o posto da matriz, então o sistema admite apenas uma solução. Sabemos que a solução trivial
  p  A  n
x0 é uma solução, logo é a única solução. Se então o sistema admite infinitas
soluções. No caso do sistema acima teríamos:

x1  2 x2  3 x4  0  x1  2 x2  3x4
x3  2 x2  0  x3  2 x2
x5  0  x5  0
  Ann
5. Se o sistema homgêneo Ax  0 com possui solução NÃO TRIVIAL, então A é singular. Se o

sistema admite solução não trivial então


p  A  n
, o que significa que ao reduzir a matriz para a
forma escada via operações elementares, que jamais anulam o determinante, terminaremos com uma
ou mais linhas nulas. O determinante de uma matriz com linha nula é ZERO. Logo det A  0 e A é
singular.

6. Se
p  A  p então A contém uma sub-matriz quadrada
p p
com determinante não nulo.
Novamente podemos usar o fato de que as operações elementares, via linhas ou colunas, jamais
anulam o determinante. Então podemos transformar a matriz original, via operações elementares de
linhas e ou colunas na forma:
1 0 0 
0 1 0 
 
0 0 1 
 
 1 
0 0 0 0 0 0 0 

0 0 0 0 0 0 

Nesse caso o determinante da sub-matriz


p p
das
p
primeiras linhas e colunas é obviamente não nulo,
vale 1, pois todos os elementos da diagonal valem 1. Além do resultado acima ainda podemos afirmar mais,
que todos os determinantes de sub-matrizes
k  k, k  p serão nulos pois terão pelo menos uma linha
nula.

Um último ponto em relação às operações elementares é que qualquer matriz de posto


p pode ser reduzida,
através de operações elementares de linha e ou coluna, à forma:

 I p p O p n  p  
 
 O m  p   p O m  p   n  p  
 
Ou seja, a matriz identidade no canto superior esquerdo e matriz nulas nos outros 3 quadrantes. É fácil
perceber como proceder para isso. Primeiro coloca-se a matriz na forma escada com operações elementares
de linhas, depois com operações de colunas leva-se a matriz para a forma:

1 0 0 0 c11  c1 n  p  
 
0 1 0 0 c21  c2 n  p  
 
0 0 1     
0 0  1 c p1  c p n  p  
 
0 0 0  0  0 
 
0 0 0  0 0 
  

cij  0
Agora utilzamos os 1´s da diagonal para anular via subtração de colunas todos os termos da matriz
C p n p 
que sobrou.

Sistemas de equações lineares com n incógnitas e n equações. São sistemas que podem ser escritos na forma:
 
Ax  b com A sendo uma matriz n  n . Se A é não singular, i.e., det A  0 então A admite inversa e
  1

podemos calcular o vetor x da única solução imediatamente através de x  A b . Em particular se a
  
equação é homogênea então só existe a solução trivial x  A1 0  0 . Se A é singular significa que posto de
A é menor do que n e teremos soluções diferentes da trivial.
Regra de Cramer:

 
Note que para matrizes dos coeficientes não singular obtivemos x  A1b . Por outro lado
 11 12  1n   v1   11 12  1n  b1 
   2 n  v    2 n  
1 A† 1   21  22  2    21  22  b
  2
A  
det A det A                
      
  n1 n2   nn 
e o vetor  vn    n1 n2   nn  bn 
 A11 A12  b1  A1n 
A A22  b2  A2 n 
vi   bk  ki  det  21
k        
 
np é tal que cada componente é dada por  An1 An 2  bn  Ann 
de
onde extraímos a regra de Cramer:

 A11 A12  b1  A1n 


A A22  b2  A2 n 
det  21
       
 
xi   An1 An 2  bn  Ann 
 A11 A12  A1i  A1n 
A A22  A2i  A2 n 
det  21
       
 
 An1 An 2  Ani  Ann 

A regra é: troca-se a iésima coluna da matriz do numerador pelo vetor b e divide-se o detrminante dessa
matriz pelo determinante da matriz dos coeficientes.

Exemplo:
2 3
det 
1 2  4  3 1
x  
2x  3 y  2  2 3   2 2 3 4  9 5
A  b   det  
3x  2 y  1 então  3 2 e 1 então 3 2 e
2 2
det 
3 1  2  6 4  1 
y 
3 4  9 5
  x  5
2  y   4 
det 
3 2  então
 
 5  é a solução. Recalculando através da inversa:

 2 3   2 3  2 
1 1  2 3    5 5   x  5 5  2  5 
A    y   3  
 4  9   3 2   3 2     2  1  45 
 5 5 então  5 5  .

Combinações lineares:

Equações paramétricas.

Suponha que exista uma curva no plano x-y, ou no espaço      2 . A equação do LUGAR GEOMÉTRICO
da curva é uma relação do tipo,
R  x, y   0 entre as variáveis x e y. Exemplo: círculo centrado na origem
2 2 2
possui a relação
x y R , ou
x  y  R 2  0 , onde R é o raio do círculo. Vamos tentar extrair
2 2

dessa relação o y em função de x. Mas note que


y   R2  x2
não é uma função
y  x :   
porque admite dois valores para cada x. Uma função é uma regra de associação entre todos os elementos de
um conjunto chamado de domínio com elementos de outro conjunto chamado contra-domínio e não admite
dúvida sobre a qual elemento do contra-domínio devemos associar cada elemento do domínio. Caso contrário
seria impossível obedecer a ordem associe os elementos através da regra – o operador ficaria em dúvida sobre
qual elemento associar.

A idéia da equação paramétrica [de parâmetro] é usar um parâmetro t em termos do qual as funções
x t :    e
y t :    existem sendo bem definidas. Podemos agora fazer um gráfico de
y vs
x da seguinte forma: construímos uma coluna com os valores de t , com ele calculamos x  t  e
y t e no
y x t , y  t  :    2
final fazemos o gráfico vs x esquecendo o t . Criamos uma função   . Para obter
a relação do lugar geométrico é necessário eliminar o parâmetro. Vejamos o exemplo do círculo:
x  t   R cos t e
y  t   R sin t . Agora elevando as duas ao quadrado e somando obtemos
x 2  y 2  R 2 cos 2 t  sin 2 t   R 2
, eliminando o parâmetro t e ficando com a equação do lugar
2 2 2
gemétrico dos pontos
x y R .

Outro exemplo interessante é o da elipse:


x  t   a cos t e
y  t   b sin t . Agora somamos a equação
2 2 2 2
x y x y
 cos 2 t  sin 2 t  1
a2 com a2 para obter a2 b2 .

Com um parâmetro podemos descrever uma curva, com dois uma superfície, com três um volume e assim por

diante. Note que se mantenho R fixo nas equações


x  t   R cos t e
y  t   R sin t consigo gerar um
círculo. Mas se ganhamos a liberdade de variar R de podemos preencher toda a área de um círculo, de um
anel e até todo o plano x-y.

Equação paramétrica da reta.



Tome um vetor V e o multiplique por t . Variando t de ,   podemos gerar todos os pontos ao longo

da reta na direção V . Note que estamos
 do vetor usando as equações paramétricas:
 x  t  , y  t    tV  t  V1 ,V2  x  t   tV1 y  t   tV2 . Eliminando o parâmetro obtemos
, ou seja, e
y V2
   
x V1 que é uma reta que passa no origem. Já a equação
X  X o  tV , x  t   xo  tV1 e
y  t   yo  tV2 é uma reta que passa no ponto
 xo , yo  com a equação do lugar geométrico dada por:
y  yo V2

x  xo V1 .

1. Mostre que se o sistema homogêneo de n equações e n incógnitas:


A11 t1 + A12 t2 + ... + A1n tn = 0

A21 t1 + A22 t2 + ... + A2n tn = 0


A21 t1 + A22 t2 + ... + A2n tn = 0

admite solução diferente da trivial, i.e,


(tt1 , 2 , , tn )  (0, 0, , 0) então det(A) = 0.

 A11  B1  A1n 
A  B2  A2n 
 21 
     
A Bn  Ann 
xi   n1

 A11  A1i  A1n 
A  A2i  A2n 
 21 
     
A Ani  Ann 
2. Prove a regra de Cramer  n1 
para as soluções do sistema de n equações
e n incógnitas:

A11 t1 + A12 t2 + ... + A1n tn = B1

A21 t1 + A22 t2 + ... + A2n tn = B2


A21 t1 + A22 t2 + ... + A2n tn = Bn

em que A é NÃO SINGULAR.

Espaços Vetoriais

Seja ℑ o conjunto de todos os números reais positivos. Defina a operação adição ⊕ pelo produto usual

de dois números, i.e., ⃗u ⊕⃗v =u v . Seja α ∈ ℜ um escalar e defina a operação multiplicação por um
α
escalar através da regra α ⊗ ⃗ u =u . Mostre que ℑ é um espaço vetorial. Qual a necessidade da
restrição para valores positivos?
Se ℑ e ℵ são espaços vetoriais mostre que ℑ∩ℵ também é um espaço vetorial.

Considere o conjunto das matrizes m×n com as operações adição e multiplicação por escalar matriciais
usuais. Mostre que esse conjunto é um espaço vetorial. Quem é o elemento nulo?

Considere o conjunto das matrizes 2×2 e as operações matriciais usuais. Encontre uma base para esse
espaço. Qual a dimensão desse espaço? O conjunto de matrizes 2×2 simétricas é um subespaço vetorial?
Encontre uma base para esse espaço. Qual a dimensão desse sub-espaço?

Sitemas superdeterminados.

n
 aij x j  bi i   1, , m  m  n
Tome o caso em que j 1 m
  . Nesse caso temos mais equações do que
A x  b1m . Mesmo que o sistema seja inconsistente, de
incógnitas. Em termos matriciais temos que mn 1n
  
A x  b1m não admite solução, queremos achar os valores x1*n para os quais de a soma
modo que mn 1n
* *  2
A x  b1m então 1m 1m  min . A norma de um vetor é dada por

* b b
dos desvios, i.e., se mn 1n
 
V   Vi 2  V V *  *  *  *  *  * 
i . Então b  b  Ax  b logo
b  b  Ax  b  Ax  b  x A  b

     
*  *            
b  b b  b  x * A  b Ax *  b  x * AA x *  x * Ab  b Ax *  bb
logo .
 
Agora note que
b 1 m Amn n1  11 é um número,
x um escalar, logo,   então
       
bAx  b Ax  x Ab  x Ab , logo a nossa equação é dada por:

  
Min  x * AA x *  2 x * Ab  bb 
 
 

Vamos escreve-la na forma mais adequada à diferenciação:

 
ij
 
Min   xi* AA x*j  2  xi* Aij b j  b 2 
b 2

2
b
i j i j  onde .

A solução é dada quando o gradiente da função de x é nulo, ou seja:
  2
  
xk*  i j
x*
i AA
ij
 
x *
j  2   xi
*
Aij b j  b   0 k   1, , n 
i j  .

Mas nesse caso temos que:

  2
*   
xk  i j
x*
i  AA  ij
x *
j  2   xi
*
Aij b j  b 
i j 
   
   xi* AA   ij x* x*j  i j  x* xi*   AA ij x*j  2i j  x* xi*  Aij bi 
i j k  k   k 

j
  ij i j
  ij
   xi* AA  jk     ik AA x*j  2   ik Aij bi 
i i j

  xi* AA
i
  ik  j  AA kj x*j  2i Akj b j

Agora
A A é simétrica, logo:

 xi*  AA ik    AA kj x*j  2 Akj b j   xi*  AA  ki    AA  kj x*j  2 Akj b j 


i j i i j i

j  kj x*j  j  AA kj x*j  2i Akj b j  2j  AA kj x*j  2i Akjb j
  AA

2 AA j  kj x*j  2i Akj b j  0   AA kj x*j   Akj b j


Então note que implica na equação j i que pode

   
   1 
A A x*  Ab x *  A A Ab
ser escrita na forma matricial como . Então a embora não seja uma
 2
 
 1 
    Ax *  b x*  A A Ab
solução de
A x b minimiza o desvio . Se  0 então é uma
 
solução de
A x b.

Regressão linear:
Problema de autovalores e autovetores:

O problema de diagonalização de matrizes é resolvido através do problema de autovalor. Problema do auto-



ui e autovalores i tais que
valor de uma matriz M quadrada: queremos saber se existem autovetores
 
Mui  i ui .
A forma canônica com que esse problema é resolvido é escrever a equação na forma do sistema de equações
 
u  0 se det  M   I   0 . Note que isso
 
 M   I  u  0 que só admite solução diferente da trivial
lineares
 M 11   M 12  M 1n 
 M
 M 22    M 2 n 
det 21
0
    
 
n  M n1 M n2  M nn   
leva a uma equação de grau pois e não é possível se afirmar à
priori, mesmo se M for uma matriz real, que as raízes, correspondentes aos autovalores, serão reais ou
complexas.

Entretanto se M for real e simétrica podemos afirmar com certeza que os autovalores serão reais. Poderíamos
relaxar afirmando que se M for Hermitiana os autovalores são reais.

Matrizes Hermitianas

Uma matriz M é Hermitiana se M  M , ou seja, M   M . Se M é real e Hermitiana então M é


† *

simplesmente simétrica, M   M . Ou seja, matrizes reais simétricas são Hermitianas – um sub-conjunto das
matrizes Hermitianas. Qual a propriedade interessante das matrizes Hermitianas?

1. Os autovalores são reais


2. Os autovetores são ortogonais
   
M u i  i ui
M u j   ju j
Prova: Temos que e . Aplicando o operador adjunto na segunda equação
 M u j   u j M   j u j como M †  M então u j M   *j u†j . Agora multiplicamos a primeira equação por
 † † † * † †
       
u †j u †j M ui  i u †j ui ui
u †j M ui   *j u †j ui
obtendo e a última por obtendo . Subtraindo uma da outra temos

que i
    j  u j ui  0 . Se i  j então ui ui  0 e a igualdade só é satisfeita se i  i* , o que significa que i
* †  † 
  
  j u  u  u †j ui  0
é real. Por outro lado se i  j , i [caso não degenerado] é preciso que j i , o que significa
que os autovetores são ortogonais entre si. Se M é real e simétrica os autovalores e autovetores serão reais.
Agora, se além de real e simétrica M for definida positiva então os autovalores, além de reais, são
     
ui
 M ui  i ui  ui  0 u  u  0 sempre, então i  0 .
obrigatoriamente positivos, pois e como i i
 
i i iM u  u
Existe uma arbitrariedade na escolha do autovetor uma vez que é possível multiplicar a equação
por uma constante de ambos os lados sem perda de validade. Já que se pode multiplicar por uma constante
   
ui  ui  1 ui  u j   ij
qualquer pode-se multiplicar pela constante que garanta que e . Neste caso geramos uma
base ortonormal – ortogonal normalizada à 1. Todos os autovetores são unitários, i.e., possuem norma igual a
1.

Diagonalização de Matrizes:

Vamos considerar que encontramos todos os autovalores da base ortonormal de autovetores de modo que
   
M ui  i ui e ui  u j   ij . O que acontece se realizamos a seguinte operação:

 u1 
 u 
 2  M  u u  u 
  1 2 n

 
 un  . Note que nossa notação para o símbolo de vetor é de uma matriz coluna logo

 u j1   u1 
   
  u j2   u2 
uj 
   
      
 u jn  e que  un  e  u1 u2  un  são matrizes n  n . Na primeira os vetores estão alinhados na

 u1 
 u 
 2    u u  u  
  1 2 n

 
u
forma de linhas e na segunda na forma de colunas. Além disso note que  n  . Aplicando
M a cada um dos autovetores normalizados teremos:
 
 u1   u1 
 u   u 
  M  u u  u    2    u
2     
2u2  nu n 
  1 2 n
  1 1
   
 un   un  e, finalmente, que
      
 u1   1u1  u1 2u1  u2  nu1  un 
 u    u  u  u  u  nu2  un 
 
  
 M u u  u    1 2 1
2 2 2 2

  1 2 n
    
        
 un   1un  u1 2un  u2  n un  un 
. Agora usamos o fato de que os vetores

 u1   1 0  0 
 u   
 2  M  u u  u    0 2  0 
  1 2 n
  
   
 un   0 0  n 
são ortonormais para chegar ao resultado . Ou seja a matriz
 u11 u21  un1 
u
    u22  un 2 
S   u1 u2  un   12

   
 
M foi diagonalizada. A matriz que a diagonaliza é  u1n u2 n  unn  onde o

 u1 
 u 
S   2 
 
 
primeiro índice se refere ao autovetor e o segundo às suas componentes. Note que  un  e que S S  I ,
det  S S   det  I 
ou seja, S   S . São chamadas matrizes ortogonais. Aplicando o determinante
1
, e usando
det  AB   det  A  det  B  det  A   det  A  det  I   1 det 2  S   1
o fato de que , e vemos que que nos
det  S   1 det  S   1
leva a . Na realidade , sendo 1 em rotações e -1 em operações que envolvem
reflexões, que não é o caso aqui.


Então a operação S M S  D transforma a matriz M em uma matriz diagonal. Para voltar da diagonal à M

basta inverter S´com S: S M S  D  SS M SS   S D S   M  S D S  .

Transformação de similaridade:
 1
Quando transformamos uma matriz segundo a forma: M  S M S dizemos que fizemos uma transformação
de similaridade. A transformação de similaridade preserva o determinante e o traço da matriz. A preservação
det  M    det  S 1M S   det  S 1S  det  M   det  M 
do determinantes é demonstrada facilmente pois .
tr  M    M ii
Já o traço é dado pela soma dos elementos da diagonal i e tem as seguinte propriedades:
tr  A  B   tr  A   tr  B  tr  cA   c tr  A  tr  AB   tr  BA 
, e . As duas primeiras são triviais. A última é
 AB  ij   Aik Bkj tr  AB    Aik Bki   Bki Aik  tr  BA 
demonstrada da seguinte forma: k e i k k i . Com
tr  S M S   tr  M SS
1 1
  tr  M  .
isso a preservação do traço pode ser facilmente demonstrada Se a
D det  M   12  n
matriz M foi diagonalizada para e o determinante e o traço são preservados então e
t r  M   1  2    n
o .

Diagonalização da Matriz inversa:


Podemos mostrar que a mesma matriz S que diagonaliza a matriz M também diagonaliza sua inversa. Sabemos
que MM  I e S MS  D . Inserindo I  SS  dos dois lados de M: SS MSS M
1
1
 I , e usando o fato de
que M se torna diagonal obtemos SDS M
1
 I . Agora multiplicamos à direita e à esquerda pela inversa de S

ou S´ para obter S SDS M S  S IS , que se transforma em


1 D S M 1S  I  
, o que significa que
1 
 0 0 
 1 
 1 
 1 0  0  1 0 2
 0
D  
0   0
   
D 2 
 
   1 
  0 0 
 S M 1S   D1 . Entretanto se  0 0  n  então

 n 
e também é
diagonal. Ou seja, a transformação S também diagonaliza a matriz inversa e, além disso, os autovalores da
matriz inversa são os recíprocos da direta.
1

 u 
Em resumo se i é um autovalor de M com autovetor i então i é o autovalor de M -1 correspondendo ao

u
meso autovetor i .

 x 0 0   ao   x 0 0   a1 
 1 x 0  a1   
    1 x 0   a2 
det  0 1 x   a2    x det  0 1 x  a2 
   
             
 0 0  1  an1  x    0 0  1  an1  x  
 

Aij   x ij  an 1 in jn   i  j 1  ai 1 jn

Você também pode gostar