Você está na página 1de 51

1

SOLUO DE SISTEMAS DE EQUAES LINEARES ALGBRICAS

1. Introduo

Um sistema de equaes lineares algbricas pode ser representado como:

Eq.1: a11 x1 + a12 x2 + ... + a1n xn = b1


Eq.2 : a21 x1 + a22 x2 + ... + a2 n xn = b2

Eq.m : am1 x1 + am 2 x2 + ... + amn xn = bm

onde temos n incgnitas xj (j = 1, 2, ..., n) relacionadas a m equaes. Os coeficientes aij (i =


1, 2, ..., m; j = 1, 2, ..., n) so constantes conhecidas, assim com os termos independentes bi (i
= 1, 2, ..., m), representando os termos no lado direito das equaes que constituem o
sistema.

Quando n = m, o sistema apresenta um mesmo nmero de incgnitas e equaes


disponveis e h uma boa chance de obter-se um nico conjunto de solues xj. Esta soluo
nica no pode ser obtida se uma ou mais das M equaes do sistema for uma combinao
linear das outras (degenerao de linha). Outra possibilidade para a no existncia de uma
soluo nica quando todas as equaes do sistema contm certas variveis dispostas em
uma exata combinao linear (degenerao de coluna). No caso n = m, uma degenerao de
linha implica uma degenerao de coluna e vice-versa. Um sistema de equaes que
apresenta degenerao chamado de singular.

Forma matricial

O sistema mostrado acima (Eq. 1) pode ser tambm representado na forma matricial, isto :

Ax = b

onde A a matriz de coeficientes, x o vetor de incgnitas e b o vetor de termos


independentes, dados por:

a11 a12 a1n x1 b1


a b
; x = 2 ; b = 2
a22 a2 n x
A = 21

xm bm
am1 am 2 amn

onde o primeiro ndice de um elemento aij indica a sua linha e o segundo ndice a sua coluna.

Classificao de sistemas de equaes lineares

Um sistema de equaes denominado compatvel (possvel ou, ainda, consistente) quando


admite soluo. Um sistema compatvel pode ser determinado, quando admite uma nica
2

soluo, ou indeterminado, quando admite mais de uma soluo (na verdade, infinitas
solues).

x + y = 5
determinado (1 soluo). Ex.: x = 4; y = 1
x y = 3
possvel
x = 25; y = 0
4 x + 2 y = 100
sistemas indeterminado (mltiplas solues). Ex.: x = 24; y = 2
8 x + 4 y = 200

etc...
x + y = 9
impossvel. Ex.: x = ?, y = ?
x + y = 5

Um sistema de equaes dito incompatvel (impossvel ou, ainda, inconsistente) quando


no admite soluo.

Operaes elementares e sistemas equivalentes

Dois sistemas de equaes lineares so equivalentes quando admitem a mesma soluo. Um


dado sistema pode ser transformado em um sistema equivalente quando so realizadas as
seguintes operaes elementares:

1) Permutao de duas equaes:


2 x + 4 y 6 z = 10 2 x + 4 y 6 z = 10

4 x + 2 y + 2 z = 16 L23 2 x + 8 y 4 z = 24
2 x + 8 y 4 z = 24 4 x + 2 y + 2 z = 16

2) Multiplicao de uma equao por um escalar (diferente de zero):
2 x + 4 y 6 z = 10 1x + 2 y 3 z = 5
1
4 x + 2 y + 2 z = 16 L1 2 x + 8 y 4 z = 24
2 x + 8 y 4 z = 24 2 4 x + 2 y + 2 z = 16

3) Substituio de uma equao por uma soma envolvendo outra equao multiplicada
por um escalar (diferente de zero):
1x + 2 y 3z = 5 1x + 2 y 3z = 5

2 x + 8 y 4 z = 24 L2 = L2 + (2) L1 0 x + 4 y + 2 z = 14

4 x + 2 y + 2 z = 16 4 x + 2 y + 2 z = 16

Observe que todos os sistemas mostrados acima so equivalentes, pois apresentam a


mesma soluo (x = 2, y = 3, z = 1).
3

2. Mtodos de soluo de sistemas de equaes lineares

A anlise de problemas de Mecnica Aplicada usando mtodos numricos (Mtodo dos


Elementos Finitos, Mtodo dos Volumes Finitos, Mtodo das Diferenas Finitas) necessita,
geralmente, da resoluo de um sistema de equaes lineares. Mesmo em problemas onde
no linearidades de ordem fsica e/ou geomtrica so consideradas, o sistema de equaes
acaba sendo reduzido a um sistema linear por algum procedimento de linearizao.
Portanto, um amplo conhecimento sobre os mtodos de soluo de sistemas lineares de
equaes existentes possibilita uma escolha adequada no que se refere obteno de um
cdigo numrico eficiente. Ou seja, a rotina de soluo deve ser a mais rpida possvel para
o tipo de problema a ser analisado, o que implica tambm a utilizao racional da memria
computacional.

H uma srie de mtodos de soluo de sistemas de equaes lineares disponveis, sendo


classificados basicamente em mtodos de soluo diretos e indiretos, como mostra o
esquema abaixo:

Mtodos de soluo diretos

Decomposio LU

Decomposio de doolittle

Decomposio de Croutt

Decomposio de Choleski

Decomposio de Banachiewicz

Eliminao de Gauss

Mtodo de Choleski

Eliminao de Gauss-Jordan

Armazenamento: sistemas simtricos banda, soluo frontal

Mtodos de soluo indiretos:

Mtodo iterativo de Gauss-seidel

Mtodo dos gradientes conjugados

2.1 Mtodos diretos

Teorema da decomposio LU

Inicialmente definem-se como submatrizes principais Am da matriz quadrada e real An de


ordem n, as matrizes reais e quadradas formadas a partir dos elementos da matriz A de tal
forma que A = akl, com k,l = 1 at m e m = 1 at n.
4

Assim, tem-se que:

A1 = [ a11 ]

a a12
A 2 = 11
a21 a22

a11 a12 a13


A = a21
3
a22 a23
a31 a32 a33

O teorema da decomposio LU pode se enunciado da seguinte forma: seja An uma matriz


real e quadrada de ordem n com determinantes detAi 0 para todo i = 1 at n. Assim, a
matriz An pode ser decomposta no produto de uma matriz triangular inferior L por uma
matriz triangular superior U. A decomposio s ser nica se forem arbitrados os
coeficientes da diagonal de L. Usualmente atribui-se um valor unitrio aos elementos da
diagonal de L.

A prova do enunciado acima pode ser feita por induo matemtica. Assim, se n = 1, tem-se:

A1 = L1U1 a11 = l11u11

Considerando que l11 = 1, obtm-se que u11 = a11. Logo, verifica-se o teorema proposto para
ordem n = 1. Assumindo que o teorema seja verificado para todas as matrizes de ordem n
1 que obedeam ao enunciado acima, pode-se escrever que:

A n 1 = Ln 1U n 1

onde os termos da diagonal de Ln-1 so todos unitrios.

Representando por R a ltima linha (sem o elemento da diagonal) da matriz An e por C a


ltima coluna (sem o elemento da diagonal) de An, possvel representar An da seguinte
forma:

A n1 C
An =
R ann

Lembrando que o determinante de uma matriz triangular dado pelo produto dos
elementos da diagonal principal, conclui-se que detLn-1 = 1. Como o determinante de um
produto de matrizes igual ao produto dos determinantes das matrizes, pode-se escrever
que:

detA n 1 = detLn 1detU n 1 = detU n 1 0

Portanto, uma vez satisfeita a hiptese, conclui-se que Un-1 no singular e, assim, pode ser
obtida a sua inversa.
5

Definindo-se que:

S = R (U n 1 ) 1
W = (Ln 1 ) 1 C
bnn = ann S.W

possvel definir a matriz An como:

Ln 1 0 U n 1 W
An =
S 1 0 bnn

A primeira das duas matrizes direita da igualdade uma matriz triangular inferior com
elementos unitrios na diagonal principal e a segunda uma matriz triangular superior.
Logo, tem-se que:

A n = Ln U n

Portanto, conclui-se a prova do teorema, uma vez que a decomposio existe para ordem 1
e tambm existir para ordem 2 ou para qualquer ordem acima.

Para provar que a decomposio nica, aps arbitrados os coeficientes da diagonal


principal de L, deve-se lembrar que para ordem 1 a decomposio provou ser nica.
Assumindo que para ordem n 1 a decomposio seja tambm nica, resulta que WS e bnn
so nicos porque R, C, Ln-1, Un-1 e ann so nicos. Logo, resulta que Ln e Un so nicos e,
portanto, se a decomposio nica para ordem 1 ela tambm ser para ordem 2 e assim
por diante.

Mtodos de decomposio

Vrios mtodos de soluo de um sistema de equaes lineares podem ser desenvolvidos


dependendo da forma como feita a decomposio LU. De uma forma geral, ao decompor a
matriz de coeficientes A em um produto entre uma matriz triangular inferior L e uma matriz
triangular superior U, o sistema de equaes passa a ser descrito pela seguinte expresso:

L.U.x = b

Considerando que:

U.x = y

resulta que:

L.y = b

Logo, a partir de um procedimento de substituio frente possvel obter-se y da soluo


do sistema auxiliar L.y = b, com o qual obtm-se a soluo x do sistema de equaes a partir
de um processo de retrossubstituio aplicado sobre o sistema auxiliar U.x = y.
6

Na sequncia so apresentados alguns dos mtodos de decomposio mais comuns obtidos


a partir de certas condies impostas sobre as matrizes L e U.

a) decomposio de Doolittle: considera-se que os elementos da diagonal principal de L


so unitrios, ou seja lii = 1. Logo, tem-se que:
A = LU
a11 a12 a13 1 0 0 u11 u12 u13
a
21 a22 a23 = l21 1 0 0 u22 u23
a31 a32 a33 l31 l32 1 0 0 u33
a11 a12 a13 u11 u12 u13
a
21 a22 a23 = l21u11 l21u12 + u22 l21u13 + u23
a31 a32 a33 l31u11 l31u12 + l32u22 l31u13 + l32u23 + u33
Aplicando o processo de eliminao de Gauss, obtm-se:
u11 u12 u13
l u l u + u l u + u piv L 2 : (l21u11 ) u11 = l21
21 11 21 12 22 21 13 23 piv L3 : (l31u11 ) u11 = l31
l31u11 l31u12 + l32u22 l31u13 + l32u23 + u33
u11 u12 u13
0 u22 u23
piv L3: (l32u22 ) u22 = l32
0 u22l32 u23l32 + u33
u11 u12 u13
0 u22 u23
0 0 u33
Ao final do processo de eliminao, obtm-se a matriz U, onde os pivs empregados
na decomposio correspondem aos elementos da matriz L.
b) decomposio de Croutt: considera-se que os elementos da diagonal principal de U
so unitrios, ou seja uii = 1. Logo, tem-se que:
A = LU
a11 a12 a13 l11 0 0 1 u12 u13
a
21 a22 a23 = l21 l22 0 0 1 u23
a31 a32 a33 l31 l32 l33 0 0 1
a11 a12 a13 l11 l11u12 l11u13
a l21u13 + l22u23
21 a22 a23 = l21 l21u12 + l22
a31 a32 a33 l31 l31u12 + l32 l31u13 + l32u23 + l33
Para a matriz resultante observa-se que:
Primeira coluna: li1 = ai1 (i = 1, n)
Primeira linha: u1 j = a1 j l11 ( j = 2, n)
Para os demais elementos:
j 1
lij = aij lik ukj (i = 2, n; j = 2, i)
k =1
7

j 1
a jk l ji uik
u jk = i =1
( j = 2, n; k > j, n)
l jj

c) decomposio de Choleski: considera-se a relao U = LT para as matrizes resultantes


da decomposio da matriz de coeficientes A, a qual deve ser simtrica e positivo-
definida. Logo, obtm-se A = LU = LLT, ou seja:

a11 a12 a13 l11 0 0 l11 l12 l13


a a22 a23 = l21 l22 0 0 l22 l23
21
a31 a32 a33 l31 l32 l33 0 0 l33

a11 a12 a13 l112 simetrica


a
21 a22 a23 = l11l21 l212 l222
a31 a32 a33 l11l31 l21l31 + l22l32 2 2 2
l31 + l32 + l33

Para a matriz resultante, observa-se que:

l11 = a11

j 1
l jj = a jj l 2jk ( j = 2, n)
k =1

j 1
aij lik l jk
lij = k =1
(i = j + 1, n)
l jj

d) decomposio de Banachiewicz: considera-se a matriz de coeficientes A simtrica


com decomposio A = LU, sendo U = DLT, onde D uma matriz diagonal e lii = 1, ou
seja:
a11 a12 a13 1 0 0 d11 0 0 1 l12 l13
a
21 a22 a23 = l21 1 0 0 d 22 0 0 1 l23
a31 a32 a33 l31 l32 1 0 0 d33 0 0 1

a11 a12 a13 1 0 0 d11 d11l12 d11l13


a a23 = l21 1 0 0 d 22l23
21 a22 d 22
a31 a32 a33 l31 l32 1 0 0 d33
a11 a12 a13 d11 simetrica
a a23 = l21d11 l212 d11 + d 22
21 a22
a31 a32 a33 l31d11 l31l21d11 + l32 d 22 l312 d11 + l322 d 22 + d33

Para a matriz resultante, observa-se que:


8

d11 = a11

i 1
dii = aii lik2 d kk (i = 2, n)
k =1

j 1
aij lik l jk d kk
lij = k =1
(i = j + 1, n)
d jj

Eliminao de Gauss

Considere o sistema de equaes abaixo:

6 x1 + 3 x2 + 6 x3 = 30 6 3 6 x1 30

2 x1 + 3x2 + 3x3 = 17 2 3 3 x2 = 17
x + 2 x + 2 x = 11
1 2 3 1 2 2 x3 11

Dividindo-se a primeira linha do sistema pelo valor encontrado na diagonal principal


correspondente, obtm-se:

6 3 6 x1 30 1 1 2 1 x1 5
2 3 3 x = 17 1 .L 2 3 3 x = 17
2 6
1 2

1 2 2 x3 11
1 2 2 x3 11

Busca-se agora zerar todos os elementos da primeira coluna da matriz, com exceo ao
elemento da diagonal principal. Para isso, so realizadas as seguintes operaes:

1 1 2 1 x1 5 1 1 2 1 x1 5
2 3 3 x = 17 L = L 2.L 0 2 1 x = 7
2 2 2 1 2

1 2 2 x3 11 L3 = L3 1.L1
0 3 2 1 x3 6

Nesta etapa repetem-se as operaes acima a partir da segunda linha do sistema. Portanto,
toda a segunda linha deve ser primeiramente dividida por 2, que o valor do elemento na
diagonal principal correspondente:

1 1 2 1 x1 5 1 1 2 1 x1 5
0 2 1 x = 7 L = 1 L
0 1 1 2 x2 = 7 2
2 2
2
2

0 3 2 1 x3 6
0 3 2 1 x3 6

Na sequencia, os elementos da matriz localizados na segunda coluna e abaixo da posio da


diagonal principal devem ser zerados. No caso, observe que h apenas o elemento a32 = 3/2:
9

1 1 2 1 x1 5 1 1 2 1 x1 5
0 1 1 2 x = 7 2 L = L 3 .L
0 1 1 2 x2 = 7 2
2 3 3
2
2

0 3 2 1 x3 6
0 0 1 4 x3 3 4

Finalmente, a ltima linha do sistema dividida pelo valor do elemento localizado na


diagonal principal correspondente, obtendo-se:

1 1 2 1 x1 5 1 1 2 1 x1 5
0 1 1 2 x = 7 2 1 .L 0 1 1 2 x = 7 2
2 14
3 2

0 0 1 4 x3 3 4 1 x3 3
0 0

O sistema agora pode ser resolvido usando-se o procedimento de retrossubstituio, a


comear pela linha 3 do sistema obtido acima:

x3 = 3
7 3
x2 = =2
2 2
x1 = 5 1 3 = 1

Observe que os procedimentos de soluo usando o mtodo da eliminao de Gauss


envolvem a diviso de cada linha do sistema pelo respectivo elemento na diagonal principal
(pivs). Neste processo, os elementos abaixo de cada um dos pivs so zerados usando-se
operaes matriciais elementares. Este conjunto operaes foi realizado 3 vezes, uma vez
que o sistema formado por 3 equaes. Portanto, o mtodo da eliminao de Gauss pode
ser dividido em duas fases: i) fase de eliminao, onde operaes elementares so realizadas
sobre a matriz a fim de obter uma matriz triangular superior; ii) fase de retrossubstituio,
onde o sistema comea a ser resolvido a partir da soluo da ltima linha do sistema, a qual
usada para resolver a linha imediatamente acima. Este procedimento segue at que a
primeira linha do sistema possa tambm ser resolvida.

O determinante da forma escalonada (triangular superior) da matriz de coeficientes do


sistema 1, o qual deve ser multiplicado pelos pivs de cada uma das linhas que o compe
para obter-se o determinante da matriz de coeficientes original, que representa o sistema de
equaes. Logo, chamando de A a matriz de coeficientes do sistema, tem-se que:
n
det A = pi
i =1

onde pi so os divisores (pivs) utilizados em cada uma das n linhas do sistema de equaes.
Portanto, no exemplo acima temos:
n
1
det A = pi = 6.2. = 3
i =1 4

Observe que se o elemento da diagonal principal (piv) de uma das linhas da matriz de
coeficientes for zero, o procedimento de diviso dos elementos da linha correspondente
10

pelo seu piv no pode ser realizado. Neste caso, o sistema poder no ter soluo. No
entanto, em muitos problemas de Engenharia o sistema de equaes governante tal que
nunca apresentar um elemento nulo na diagonal principal durante a fase de eliminao.
Quando isto ocorre, diz-se que a matriz de coeficientes uma matriz positiva definida.

Quando um elemento nulo encontrado na diagonal principal durante o processo de


eliminao, o mtodo de Gauss ainda pode ser aplicado. Para isso, ser necessria a troca de
posio entre linhas do sistema com o intuito de obter-se um piv no nulo e permitir,
assim, a diviso dos elementos daquela linha por este piv. Em uma situao como essa, a
matriz de coeficientes do sistema de equaes no uma matriz positivo definida, mas
ainda pode ser uma matriz regular (matriz no singular determinante diferente de zero).

Assim, o mtodo de Gauss produz a soluo de um sistema linear de equaes desde que a
matriz de coeficientes seja regular e linhas do sistema possam ser permutadas quando aii =
0.

Considere agora o sistema de equaes abaixo:

6 x1 + 3 x2 + 6 x3 = 30 6 3 6 x1 30

2 x1 + 1x2 + 3x3 = 17 2 1 3 x2 = 17
x + 2 x + 2 x = 11
1 2 3 1 2 2 x3 11

Dividindo-se a primeira linha do sistema pelo 1 piv, obtm-se:

6 3 6 x1 30 1 1 2 1 x1 5

2 1 3 x = 17
.L1 2 1 3 x2 = 17
1
2 6
1 2 2 x3 11
1 2 2 x3 11

Busca-se agora zerar todos os elementos da primeira coluna da matriz, com exceo ao
elemento da diagonal principal. Para isso, so realizadas as seguintes operaes:

1 1 2 1 x1 5 1 1 2 1 x1 5
2 1 3 x = 17 L = L 2.L 0 0 1 x = 7
2 2 2 1 2

1 2 2 x3 11 L3 = L3 1.L1
0 3 2 1 x3 6

O surgimento de um zero no elemento da diagonal principal da segunda linha impossibilita a


operao de diviso dos elementos desta linha pelo seu respectivo piv. Como o elemento
a32 localizado logo abaixo tem valor no nulo, efetua-se a troca das duas ltimas linhas do
sistema, obtendo-se:

1 1 2 1 x1 5 1 1 2 1 x1 5
0 0 1 x = 7 L 0 3 2 1 x = 6
2 23 2
0 3 2 1 x3 6 0 0 1 x3 7

Agora possvel definir o 2 piv com um valor no nulo, permitindo a diviso de toda a
segunda linha do sistema pelo valor correspondente:
11

1 1 2 1 x1 5 1 1 2 1 x1 5
0 3 2 1 x = 6 1 L
0 1 2 3 x2 = 4
2 32
2

0 0 1 x3 7 1 x3 7
0 0

Obtida a forma escalonada da matriz de coeficientes, a soluo do sistema dada pelo


processo de retrossubstituio:

x3 = 7
2 2
x2 = 4 7. =
3 3
1 2 5
x1 = 5 7 =
2 3 3

O determinante da matriz obtido da seguinte forma:


n
det A = pi = ( 6). ( 3 2 ) .1 = 9
i =1

O sinal negativo se deve ao fato de ter havido uma troca de linhas. Lembre que cada troca
de linhas implica a troca de sinal do determinante. Portanto, a matriz decomposta no
mais positiva definida, mas a decomposio ainda pode ser realizada mediante trocas
adequadas de linhas.

Considere o sistema de equaes abaixo:

6 x1 + 3 x2 + 6 x3 = 30 6 3 6 x1 30

2 x1 + 1x2 + 3 x3 = 17 2 1 3 x2 = 17
x + 1 2 x + 2 x = 11
1 2 3 1 1 2 2 x3 11

Dividindo a primeira linha do sistema pelo elemento da diagonal principal correspondente,


obtm-se:

6 3 6 x1 30 1 1 2 1 x1 5

2 1 3 x = 17
.L1 2 1 3 x2 = 17
1
2 6
1 1 2 2 x3 11
1 1 2 2 x3 11

Os elementos da primeira coluna da matriz, com exceo ao elemento da diagonal principal


da primeira linha, so zerados empregando-se operaes elementares sobre as duas ltimas
linhas do sistema, ou seja:

1 1 2 1 x1 5 1 1 2 1 x1 5
2 1 3 x = 17 L = L 2.L 0 0 1 x = 7

2 2 2 1 2

1 1 2 2 x3 11 L3 = L3 1.L1
0 0 1 x3 6
12

Observe que o elemento da diagonal principal da segunda linha nulo, necessitando de uma
troca linhas para obter-se um piv no nulo. Entretanto, a terceira a terceira linha apresenta
tambm um elemento nulo na segunda coluna, o que torna sem efeito o procedimento de
troca de linhas. Assim, conclui-se que no possvel obter uma soluo para o sistema, j
que a matriz de coeficientes do sistema singular (det A = 0).

Os procedimentos do mtodo da eliminao de Gauss podem ser generalizados da seguinte


forma. Dado o sistema:

a110 x1 + a120 x2 + ... + a10n xn = b10


0
a21 x1 + a22
0
x2 + ... + a20n xn = b20

an01 x1 + an02 x2 + ... + ann
0
xn = bn0

onde o superndice 0 indica que os elementos apresentam seus valores iniciais.

A primeira linha do sistema dividida por a11, obtendo-se:

x1 + a12
1
x2 + ... + a11n xn = b11

sendo:

a10j b10
a =
1
1j ( j = 2, n) ; b11 =
a110 a110

A incgnita x1 pode ser agora eliminada das demais linhas do sistema, obtendo-se um novo
sistema de (n-1) equaes:

a122 x2 + a23
1
x3 + ... + a12 n xn = b21
1
a32 x2 + a33
1
x3 + ... + a31n xn = b31

a x + a x + ... + a x = bn1
1
n2 2
1
n3 3
1
nn n

sendo:

aij1 = aij0 ai01a11 j ; bi1 = bi0 ai01b11 (i, j = 2, n)

Um procedimento similar aplicado para eliminar as demais incgnitas xk do sistema acima


(superndice 1). O algoritmo para a eliminao das incgnitas xk pode ser expresso da
seguinte forma:

akjk 1 bkk 1
a =
k
k 1
; bkk = ( j = k + 1, n)
akkk 1
kj
akk
aijk = aijk 1 aikk 1akjk ; bik = bik 1 aikk 1bkk (i, j = k + 1, n)
13

Depois que o procedimento acima tenha sido aplicado (n-1) vezes, o sistema de equaes
original reduzido seguinte equao:
n 1
ann xn = bnn 1

A qual pode ser resolvida para a obteno de xn, ou seja:

bnn 1
xn = n 1
ann

Uma vez que o procedimento de eliminao esteja completado, a matriz de coeficientes do


sistema de equaes inicial adquire a forma de uma matriz triangular superior com
elementos unitrios em sua diagonal principal. Para uma linha k qualquer, tem-se que:

xk + akk,k +1 xk +1 + ... + akk,n xn = bkk

Desta forma, ao obter-se a soluo para xn, as incgnitas restantes do sistema podem ser
resolvidas por retrossubstituio:
n
xk = bkk a
j = k +1
k
kj xj

Obteno da inversa de uma matriz por eliminao de Gauss

Dado um sistema de equaes A.x = b, escrito na forma matricial, ao pr-multiplicar ambos


os lados da igualdade por A-1, obtm-se A-1.A.x = A-1.b, ou seja, I.x = A-1.b x = A-1.b. Assim,
a soluo pode ser obtida pr-multiplicando o vetor de termos independentes b pela inversa
da matriz de coeficientes A-1.

A forma mais simples de se obter a inversa de uma matriz quadrada de ordem nxn consiste
em resolver n sistemas de equaes da seguinte maneira:

sendo cn vetores de termos independentes definidos por:

1 0 0
0 1 0

c1 = 0 ; c 2 = 0 ; c n =
0

0 0 1

os n sistemas de equaes so dados por A.x1 = c1, A.x2 = c2, ..., A.xn = cn. Estes sistemas
tambm podem ser representados por A(x1, x2, ..., xn) = (c1, c2, ..., cn) = I. Ao pr-multiplicar
ambos os lados da igualdade por A-1, obtm-se (x1, x2, ..., xn) = A-1. Desta forma, os vetores
xn constituem as colunas de A-1. Uma forma mais conveniente de tratar o problema
empregar uma matriz de coeficientes expandida, incluindo a matriz identidade I, isto :
14

a11 a12 a1n 1 0 0


a a22 a2 n 0 1 0
( A I ) = 21

an1 an 2 ann 0 0 1

Os procedimentos de eliminao so agora realizados sobre uma matriz retangular de n


linhas e 2n colunas. A diviso de uma linha pelo elemento correspondente localizado na
diagonal principal e a eliminao de incgnitas executada at a coluna 2n da matriz
expandida. Depois que a matriz de coeficientes A na matriz expandida encontra-se
triangularizada, aplicam-se os procedimentos de retrossubstituio matriz nas linhas 1 a n
e nas colunas de n+1 at 2n. O resultado final a matriz inversa A-1, localizada na regio da
matriz expandida onde originalmente estava disposta a matriz identidade I.

Tcnicas de pivotamento

A troca de linhas (ou colunas) de um sistema de equaes se faz necessria quando algum
dos pivs nulo. Assim, uma operao de troca de linhas realizada na forma Lk Lp com p
> k, onde o elemento apk satisfaz a condio apk 0. Da mesma forma, a fim de eliminar erros
de preciso, operaes de mudana de linha tambm devem ser realizadas quando pivs
no so exatamente iguais a zero. Nas tcnicas de pivotamento descritas abaixo, as linhas do
sistema vo sendo definidas pela ordem dos pivs.

Pivotamento parcial a escolha dos pivs feita na seguinte ordem: define-se o 1 piv
como o elemento de maior valor absoluto da coluna 1; define-se o 2 piv como o elemento
de maior valor absoluto entre os elementos da coluna 2 abaixo do elemento da diagonal
principal (inclusive o prprio elemento da diagonal principal); procede-se da mesma forma
at que todos os pivs sejam definidos.

Pivotamento total a escolha dos pivs feita da seguinte forma:

1 piv = mx aij (1 i n), (1 j n) elemento de maior valor absoluto da matriz de


coeficientes A = aij.

2 piv = mx aij (2 i n), (2 j n) elemento de maior valor absoluto da matriz de


coeficientes obtida aps a primeira
transformao A = aij para i 2 e j 2.

Para os demais pivs procede-se de forma


anloga.

Sistemas de equaes simtricos e sistemas em


banda

Muitas matrizes de coeficientes de sistemas de


equaes governantes de problemas de
engenharia apresentam a caracterstica de
simetria. Quando levado em conta adequadamente, este aspecto do sistema possibilita uma
15

reduo significativa de tempo de processamento e de consumo de memria associados aos


procedimentos de soluo pelo mtodo da eliminao de Gauss. Como o processo de
soluo do mtodo de Gauss no altera a propriedade de simetria da matriz de coeficientes,
possvel trabalhar apenas com uma matriz triangular superior ou inferior para a
representao do sistema. Assim, o processo de decomposio fica restrito apenas aos
elementos da matriz triangular (tringulo de trabalho).

Outra caracterstica encontrada em sistemas de equaes governantes de problemas de


engenharia a concentrao de elementos no nulos da matriz de coeficientes em uma
faixa central conhecida como banda. O nmero de elementos na banda de uma matriz
conhecido com largura de banda (B), sendo a semilargura de banda (SB) obtida pela relao
B = 2.SB 1.

Como os elementos nulos fora da banda no sofrem alteraes de valor durante os


procedimentos de decomposio pelo mtodo de Gauss, as operaes relativas a estes
elementos so desnecessrias. Logo, no preciso reservar espao de memria para
armazenar os elementos fora da banda, apenas os elementos no interior da largura de
banda. Na figura abaixo mostrada a forma de armazenamento de uma matriz banda, onde
a coluna j na matriz original passa a ser localizada na representao em banda atravs da
seguinte expresso: J = j i + SB.

0 0 0 0 (x) x x x x
0 0 0 x (x) x x x x

0 0 x x (x) x x x x

0 x x x (x) x x x x
x x x x (x) x x x x

x x x x (x) x x x x


x x x x (x) x x x x

x x x x (x) x x x x
x x x x (x) x x x x

x x x x (x) x x x 0

x x x x (x) x x 0 0
x x x x (x) x 0 0 0

x x x x (x) 0 0 0 0

Observe abaixo que as linhas de uma matriz organizada em banda apresentam a mesma
posio, mas as colunas da matriz original transformam-se em diagonais na formao em
banda.
16

Em muitos casos as matrizes de coeficientes de sistemas de equaes de problemas de


engenharia so do tipo banda simtricas. Neste caso, a representao do sistema original
pode ser ainda mais simplificada, como mostra a figura abaixo. Uma coluna j na matriz
original passa a ser localizada na representao em banda simtrica atravs da seguinte
expresso: J = j i + 1.

(x) x x x x
(x) x x x x

(x) x x x x

(x) x x x x
(x) x x x x

(x) x x x x
(x)

x x x x

(x) x x x x
(x) x x x x

(x) x x x 0

(x) x x 0 0
(x) x 0 0 0

(x) 0 0 0 0

Soluo frontal

A grande maioria das matrizes de rigidez associadas a formulaes de estruturas apresenta


um aspecto semelhante ao perfil de edifcios de uma cidade quando observados na linha do
horizonte ao entardecer. Desta semelhana surge o termo Sky line para designar o
formato perfilado encontrado em matrizes de coeficientes deste tipo. Assim, as matrizes de
rigidez de estruturas tm a caracterstica de banda simtrica alm de serem do tipo
perfiladas. Neste caso, se for conhecida a posio do primeiro elemento no nulo em cada
uma de suas colunas e se estas posies forem armazenadas em um vetor perfil p, possvel
diminuir o nmero de operaes algbricas durante os procedimentos de decomposio.

Considere o sistema simtrico apresentado abaixo:

K11 K12 K13 K14 1 F1


K K 22 K 23 K 24 2 F2
21 = K ij = K ji
K 31 K 32 K 33 K 34 3 F3

K 41 K 42 K 43 K 44 4 F4

Aplicando a eliminao de Gauss a partir da terceira linha, obtm-se:

K13 K K F
K12 13 K K14 13 F1 13
K K K
K11 K 33 31 K 33
32 0
K 34 1
33
K 3
33

K K 23 K K 22 23
K K K 23 K 23
21 K 33 31 32 0 K 24 K 34 2 F2 F3
K 33 K 33 = K 33

K 31 K 32 K 33 K 34 3 F3

K
K 42 43
K K K 44 43
K K 4 F4 43
K F
K 41 43 K K 31 K 32 0
K 33 34 K 33 3
33 33
Observe que o sistema continua simtrico, excetuando-se a linha e a coluna 3. Ainda assim,
possvel armazenar toda a informao do sistema apenas na matriz triangular superior,
17

utilizando a coluna 3 para armazenar os termos da equao esquerda da diagonal


principal.

K13 K F
K12 13 K K F1 13
K K
K11 K 33 31 K 32 K13 K14 13 K K 34 1 K 3
33 33 33

K K 23 K
K 22
K 23
K 23 K 24
K 23 F K 23 F
21 K 33 31 K 33 32 K 33 34 2 = 2 K 33 3
K K


K 31 K 32 K 33 K 34 3 F3

K K 0 K 44 43
K K 4 F4 43
K F
K 41 43 K K 31 K 42 43 K K 32 K 33 34 K 33 3
33 33
Na prtica, basta no zerar os termos simtricos da coluna 3.

K11' K12' 0 K14' 1 F1'


'
K 21
'
K 22 0 K 24' 2 F2'
=
K 31 K 32 K 33 K 34 3 F3
'
K 41
'
K 42 0 K 44' 4 F4'

Na sequncia a decomposio de Gauss aplicada para eliminar a incgnita 2 das linhas 1 e


4:

' K12' ' K' ' ' K12' '


K11 ' K 21 0 0 K14' 12 ' K 24 1 F1 ' F2

K 22 K 22 K 22

'
K 22 '
K 22 0 '
K 24 2 F2'
=
K31 K 32 K 33 K 34 3 F3
' K'
' '
'

K 42 ' K 24 4
K
K 41 42 ' K 21 F4 42 ' F2
' ' ' '
0 0 K 44
K 22 K 22 K 22

se a decomposio de Gauss eliminando a incgnita 4 da equao 1:


Por fim, aplica-se

'' K14'' '' K ''


K11 '' K 41 0 0 0 1 F1'' 14 '' F4''
K 44 K 44

'
K 22 '
K 22 0 K 24 2 =
'
F2 '


K 31 K 32 K 33 K 34 3 F3
''
K 41 0 0 ''

K 44 4 F4 ''

O resultado final :

K11''' 0 0 0 1 F1'''
' ' '
2 = F2
'
K 21 K 22 0 K 24
K 31 K 32 K 33 K 34 3 F3
'' '' ''
K 41 0 0 K 44 4 F4
18

o que equivale eliminao de Gauss feita fora de ordem, o que pode ser verificado com
uma troca de linhas e da ordem das incgnitas do sistema:

K 33 K 32 K 34 K 31 3 F3
0 ' '
2 = F2
' '
K 22 K 24 K 21
0 0 K ''
44
''
K 41 4 F4''

0 0 0 K11''' 1 F1'''

No mtodo de Choleski, o uso da tcnica do vetor perfil introduzido a partir das seguintes
alteraes:

i 1 i 1
sii = aii ski2 sii = aii ski2
k =1 k =p (i )

i 1 i 1
aij ski skj aij ski skj
sij = k =1
sij = k =m
( j > i)
sii sii

onde m o maior valor entre p(i) e p(j).

Mtodo de Choleski

O mtodo de Choleski empregado especificamente em sistemas de equaes onde a


matriz de coeficientes positivo-definida. Neste caso, a matriz de coeficientes pode ser
expressa como o produto de duas matrizes triangulares da seguinte forma:

A = STS

a11 a12 a1n s11 0 0 s11 s12 s1n


a a22 a2 n s12 s22 0 0 s22 s2 n
21 = .


an1 an 2 ann s1n a2 n snn 0 0 snn

Observando a expresso acima possvel constatar que:

aij = s1i s1 j + s2i s2 j + + sii s jj (i < j )


aii = s + s + + s
2
1i
2
2i
2
ii (i = j )

Logo, o produto da coluna j da matriz S pela linha i da matriz ST deve fornecer aij com j i, j
que se considera apenas a matriz triangular superior:
i
aij = ski skj ( j i)
k =1
19

Assim, os elementos da primeira linha de S so determinados considerando que i = 1, ou


seja:

s11 = a11
a1 j
s1 j = ( j > 1)
a11

Para uma linha i qualquer, obtm-se primeiramente o elemento da diagonal principal desta
linha impondo que j = i, ou seja:

i i 1 i 1
aii = ski2 = sii2 + ski2 sii = aii ski2
k =1 k =1 k =1

Um elemento da linha i com j > i determinado por:


i 1

i 1
aij ski skj
aij = sii sij + ski skj sij = k =1
( j > i)
k =1 sii

Portanto, a soluo de um sistema de equaes dado por Ax = b pelo mtodo de Choleski


consiste na resoluo de dois sistemas equivalentes dados por STy = b e Sx = y a partir de
STSx = b. Atravs de substituio frente possvel obter-se y de STy = b, com o qual obtm-
se x por retrossubstituio a partir de Sx = y.

A operao de substituio frente para obteno de y pode ser expressa pelas seguintes
expresses:

b1
y1 =
s11

i 1
bi ski yk
yi = k =1
(i > 1)
sii

As operaes de retrossubstituio para a obteno de x so expressas por:

yn
xn =
snn

n
yi s ik xk
xi = k = i +1
(i < n )
sii
20

Mtodo de Gauss-Jordan (mtodo da diagonalizao)

O mtodo de Gauss-Jordan consiste basicamente em transformaes lineares aplicadas


sobre as linhas de um sistema de equaes lineares (A.x = y) com o objetivo de diagonalizar
a matriz de coeficientes A. Para este fim, emprega-se o mtodo da eliminao de Gauss com
ou sem pivotamento.

O mtodo de Gauss-Jordan bastante utilizado para calcular a inversa de uma matriz Anxn,
pois atravs de operaes elementares transforma-se a matriz em uma matriz identidade.
Entretanto, necessrio armazenar o vetor de termos independentes e manipul-lo ao
longo dos procedimentos de inverso. Alm disso, ao resolver um sistema de equaes
lineares, o mtodo aproximadamente trs vezes mais lento do que os mtodos mais
rpidos. Por outro lado, o processo de clculo altamente estvel, principalmente quando a
tcnica de pivotamento total empregada.

O mtodo de Gauss-Jordan pode ser descrito considerando-se um sistema de equaes Ax =


y, cuja soluo obtida atravs dos seguintes passos:

a) obteno da matriz aumentada do sistema [A/y];


b) utilizao de operaes elementares sobre a matriz aumentada para transform-la
em uma matriz diagonal;
c) resolver o sistema obtido aps as operaes de transformao.

Exemplo: resolver o sistema de equaes lineares abaixo usando o mtodo de Gauss-Jordan.


Obtenha tambm a inversa da matriz de coeficientes A.

1 3 4 x1 1
2 8 6 x = 2 Ax = y
2
3 5 15 x3 5

Obtendo a matriz aumentada do sistema:

1 3 4 1

2 8 6 2 A y
3 5 15 5

Operando agora sobre a matriz aumentada para a obteno de uma matriz diagonal:

1 3 4 1 1 3 4 1

2 8 6 2 L2 = L2 + 2.L1 0 2 2 4
3 5 15 5 3 5 15 5

1 3 4 1 1 3 4 1

0 2 2 4 L3 = L3 3.L1 0 2 2 4
3 5 15 5 0 4 3 2
21

1 3 4 1 3 1 0 7 7
L1 = L1 + .L2
0 2 2 4 2 0 2 2 4
0 4 3 2 L3 = L3 2.L2 0 0 1 6

1 0 7 7 1 0 0 35
L1 = L1 + 7.L3
0 2 2 4 0 2 0 8
L2 = L2 + 2.L3
0 0 1 6 0 0 1 6

Assim, resolvendo o sistema resultante, obtm-se:

x1 = 35
x2 = 4
x3 = 6

Para a obteno da matriz inversa da matriz de coeficiente do sistema, repetem-se os passos


empregados na soluo acima, sendo que neste caso a matriz aumentada contm a matriz
identidade e busca-se a transformao da matriz de coeficientes em uma matriz identidade,
ou seja:

1 3 4 1 0 0

2 8 6 0 1 0 A I
3 5 15 0 0 1

1 3 4 1 0 0 1 3 4 1 0 0

2 8 6 0 1 0 L2 = L2 + 2.L1 0 2 2 2 1 0
3 5 15 0 0 1 3 5 15 0 0 1

1 3 4 1 0 0 1 3 4 1 0 0

0 2 2 2 1 0 L3 = L3 3.L1 0 2 2 2 1 0
3 5 15 0 0 1 0 4 3 3 0 1

3
L1 = L1 + .L2
1 3 4 1 0 0 2 1 0 7 4 1,5 0

0 2 2 2 1 0 L3 = L3 2.L2 0 1 1 1 0, 5 0
0 4 3 3 0 1 1 0 0 1 7 2 1
L2 = L2
2

1 0 7 4 1,5 0 L1 = L1 + 7.L3 1 0 0 45 12,5 7



0 1 1 1 0, 5 0 L2 = L2 + L3 0 1 0 6 1,5 1
0 0 1 7 2 1 L3 = ( 1).L3 0 0 1 7 2 1

Portanto, a inversa de A :
22

45 12,5 7
A 1 = 6 1,5 1

7 2 1

Observa-se que os passos realizados para a obteno da inversa podem se resumidos da


seguinte forma:

A -1 A I = A -1 A A -1I = I A -1

2.2 Mtodos indiretos

Sistemas de equaes lineares podem tambm ser resolvidos de forma iterativa, onde
necessrio adotar um critrio de convergncia para indicar quando o processo iterativo
finalizado. Geralmente adota-se a norma da diferena entre duas solues consecutivas e
um nmero mximo de iteraes no caso da soluo no convergir. Os mtodos indiretos
so indicados para sistemas de grande porte (dimenso n grande) onde a porcentagem do
nmero de elementos nulos da matriz de coeficientes alta (sistemas esparsos). Nos
mtodos diretos, o processo de soluo por eliminao no preserva a esparsidade do
sistema, ou seja, muitos elementos nulos podem tornar-se no nulos. Por outro lado, os
mtodos indiretos tm a propriedade de manter a esparsidade.

Ao contrrio dos mtodos diretos, os mtodos iterativos no so grandemente afetados por


erros de arredondamento j que o processo continuar at que a soluo tenha convergido
para uma tolerncia estabelecida inicialmente. O tempo de convergncia depende do
condicionamento da matriz de coeficientes e da proximidade do vetor de partida do
processo iterativo em relao soluo. Para matrizes mal condicionadas a convergncia
pode ocorrer, mas de uma forma muito lenta. Os principais mtodos indiretos existentes so
os mtodos de Gauss-Seidel, Jacobi e gradiente conjugados.

Para os mtodos de Gauss-Seidel e Jacobi, diferentes critrios so adotados para estabelecer


a condio suficiente para convergncia:

a) Critrio das linhas ou de Frobenius se a matriz de coeficientes A de um sistema de


n
equaes lineares diagonalmente dominante, aii > j =1
aij , ento tanto o mtodo
( j i )

de Jacobi como o mtodo de Gauss-Seidel gera uma sequncia xr convergente de


resultados para a soluo do sistema ao longo dos passos iterativos (r), independente
da aproximao inicial x0 adotada.
b) Critrio de Sassenfeld Sendo:
S1 =
1
a11
( a12 + a13 + a14 + + a1n )
23

S2 =
1
a22
(a 21 S1 + a23 + a24 + + a2 n )
S3 =
1
a33
( a31 S1 + a32 S2 + a34 + + a3n )

Sn =
1
ann
(a n1 S1 + an 2 S 2 + + an n 1 S n 1 )
o mtodo de Gauss-Seidel produz uma sequncia de resultados xr convergente para a
soluo do sistema ao longo dos passos iterativos (r), qualquer que seja a
aproximao inicial x0 empregada, quando S1 < 1, S2 < 1, ... , Sn < 1.

Mtodo de Jacobi

Dado um sistema de equaes lineares descrito por y = Ax, o valor de xk correspondente k-


sima equao do sistema obtido por:
k 1 n
yk aki xir 1 aki xir 1
xkr = i =1 i = k +1

akk

Usando o mtodo de Jacobi, arbitra-se um vetor soluo inicial x0 e substitui-se o mesmo na


equao acima, obtendo-se um novo vetor soluo x1, o qual novamente introduzido na
equao acima, obtendo-se uma nova estimativa x2. O processo repetido at que se
obtenha um vetor soluo que satisfaa a condio de convergncia. Como visto
anteriormente, se a matriz de coeficientes do sistema for uma matriz diagonal dominante,
ento o processo convergir para a soluo. Recordando, uma matriz diagonal dominante
caracterizada por:
n
aii > j =1
aij
( j i )

Exemplo: resolva o sistema abaixo pelo mtodo de Jacobi.

1 4 0 1 x1 2

0 0 1 2 x2 3
= Ax = y
2 0 0 1 x3 1

1 2 0 1 0 x4 3 2

Reordenando o sistema para satisfazer o critrio de convergncia de Frobenius, obtm-se:


24

11 a1 j 2 > 1
a >
j =1
( j i )
n
a >
22 j
2 0 1 x1 1
0 a2 j 4 > 1 + 1
1
4 1 x2 2
0
=1
( j i )
=
1 2 0 0 x3 3 2
1 a >
n


0 1 2 x4 3 33 a3 j 1 > 1 2
0 j =1
( j i )
n
a44 > a4 j 2 > 1
j =1
( j i )

k 1 n
yk aki xi( r 1) aki xi( r 1)
Usando a equao xk( r ) = i =1 i = k +1
, obtm-se as seguintes frmulas de
akk
recorrncia:

1 x4r 1
x1r =
2

2 x1r 1 + x4r 1
x2r =
4

3 1 r 1
x3r = .x1
2 2

3 + x3r 1
x4r =
2

Para a primeira iterao (r = 1) e aproximao inicial xi0 = 0, chega-se a:

x11 = 0, 5

x12 = 0,5

x31 = 1, 5

x14 = 1,5

Para a segunda iterao (r = 2) e aproximaes xi1 , chega-se a:

1 + 1,5
x12 = = 1, 25
2

2 0, 5 1,5
x22 = = 1, 0
4
25

3 1
x32 = .0,5 = 1, 25
2 2

3 + 1,5
x42 = = 0, 75
2

Na 11 iterao, obtm-se:

x111 = 1, 000488282

2 = 1, 000000
x11

x311 = 1, 000488281

4 = 0,9995117185
x11

Na 12 iterao obtm-se uma soluo com erro absoluto x12 x11 < 10 3 . A soluo exata
x = (1, -1, 1, -1).

Mtodo de Gauss-Seidel

O mtodo de Gauss-Seidel parte dos mesmos pressupostos utilizados pelo mtodo de


Jacobi. Porm, neste caso, os vetores soluo obtidos na iterao anterior so introduzidos
nos clculos da iterao atual. Assim, em lugar da expresso empregada no mtodo de
Jacobi, tem-se a seguinte expresso para uma iterao r qualquer:
k 1 n
yk aki xi( r ) aki xi( r 1)
xk( r ) = i =1 i = k +1

akk

Com o objetivo de aumentar a velocidade de convergncia pode-se adotar um fator de


sobrerrelaxao. Neste caso, necessrio o clculo da variao do vetor de soluo entre
duas iteraes consecutivas r e r-1:

xk( r ) = xk( r ) xk( r 1)

Assim, obtm-se:
k 1 n
yk aki xi( r ) aki xi( r 1)
xk( r ) = i =1 i = k +1

akk

O novo vetor soluo ser ento:

xk( r ) = xk( r 1) + xk( r )


26

onde o fator de sobrerrelaxao. Pode-se provar que para matrizes simtricas no


singulares o valor de deve estar no intervalo 0 < < 2 para que o processo tenha
convergncia. Embora o valor dependa da matriz de coeficientes A, os valores usuais
encontram-se entre 1,4 e 1,9.

importante destacar que o mtodo de Gauss-Seidel bastante sensvel a pequenas


variaes na matriz de coeficientes, fazendo com que a convergncia seja muito lenta para
sistemas mal condicionados. Inclusive, pode haver falha no processo de convergncia
mesmo que o sistema seja no singular. A convergncia determinada usualmente pelo
critrio de Frobenius (matriz diagonal dominante):
n
aii > j =1
aij
( j i )

Exemplo: resolva o sistema abaixo pelo mtodo de Gauss-Seidel.

4 2 0 0 x1 4
2
8 2 0 x2 0
= Ax = y
0 2 8 2 x3 0

0 0 2 4 x4 0

Observa-se que a matriz de coeficientes satisfaz o critrio de convergncia (Frobenius).


k 1 n
yk aki xi( r ) aki xi( r 1)
Assim, usando a equao xk( r ) = i =1 i = k +1
, obtm-se as seguintes frmulas
akk
de recorrncia:

4 2 x2r 1
x1r =
4

2 x1r 2 x3r 1
x2r =
8

2 x2r 2 x4r 1
x3r =
8

2 x3r
x4r =
4

Para a primeira iterao (r = 1) e aproximao inicial xi0 = 0, chega-se a:

x11 = 1

1
x12 =
4
27

1
x31 =
16

1
x14 =
32

Para a segunda iterao (r = 2) e aproximaes xi1 , chega-se a:

1 1
x12 = 4 + 2. = 1,12
4 4

1 1
x22 = 2.1,12 2. = 0, 296
8 16

1 1
x32 = 2.0, 296 + 2. = 0, 0818
8 32

1
x42 = ( 2.0, 0818 ) = 0, 0409
4

Aps vrias iteraes, obtm-se:

x1 = 1,155

x2 = 0,311

x3 = 0, 089

x4 = 0, 044

Mtodo dos gradientes conjugados

Considera-se, inicialmente, uma forma quadrtica dada por:

1 T
f (x) = x Ax b T x + c
2

onde A uma matriz de coeficientes, x e b so vetores e c uma constante escalar. Observa-


se que caso A seja uma matriz simtrica e positivo-definida, a funo f(x) ser minimizada
pela soluo do sistema Ax = b. Para ilustrar, toma-se um exemplo definido pelos seguintes
parmetros:

3 2 2
A= b= c=0
2 6 8

O sistema linear Ax = b representado graficamente na figura abaixo, onde nota-se que o


vetor soluo x = [2, -2]T corresponde ao ponto de interseco entre duas retas que formam
28

o sistema de equaes. No caso geral, a soluo sempre corresponde interseco de n


hiperplanos de dimenso n-1.

Desenhando a funo quadrtica f(x) correspondente ao exemplo apresentado (figura


abaixo), verifica-se que o ponto de mnimo da superfcie a prpria soluo do sistema Ax =
b.

O gradiente de uma forma quadrtica f(x) definido como:


x f (x)
1

f ( x )
f ( x ) = x2


f ( x )
xn
29

O gradiente de f(x), para um dado ponto x, aponta sempre na direo de aumento mais
acentuado da funo f(x), como mostra a figura a seguir para o exemplo apresentado acima.
Na medida em que o gradiente nulo no ponto de mnimo da funo f(x), possvel
tambm minimizar f(x) fazendo f(x) = 0.

A primeira derivada da funo quadrtica f(x) dada por:

1 T 1
f (x) = A x + Ax b
2 2

Caso A seja simtrica, obtm-se:

f ( x ) = Ax b

Se A simtrica e positivo-definida, a soluo x do sistema um mnimo de f(x).

A funo quadrtica f(x) correspondente ao exemplo mostrado acima pode ser interpretada
geometricamente como um paraboloide disposto no espao. Quando A positivo-definida,
tem-se a superfcie (a) da figura abaixo. Por outro lado, se A no apresenta esta
propriedade, vrias outras formas so possveis. Por exemplo, A poderia ser negativo-
definida, produzindo uma superfcie oposta superfcie com A positivo-definida (figura b
abaixo). A matriz A poderia ser singular, indicando que a soluo do sistema no nica.
Neste caso, o conjunto de solues uma linha (hiperplano) com valor f(x) constante (figura
c). Se A no enquadra-se em nenhum dos casos acima, a soluo x um ponto de sela
(saddle point) e mtodos como gradientes conjugados provavelmente iro falhar em
convergir (figura d).
30

Mtodo do Mximo Descenso

No Mtodo de Mximo Descenso inicia-se com uma estimativa inicial x(0) para a soluo do
sistema de equaes Ax = b e busca-se o ponto de mnimo da funo quadrtica f(x) atravs
de deslocamentos sucessivos sobre a superfcie representada por f(x). Este processo de
passos sucessivos continua at que uma estimativa x(i) esteja prxima o suficiente da soluo
exata x. Em cada passo de deslocamento escolhida a direo na qual a funo f(x) decresce
mais rapidamente na posio atual x(i). Esta direo corresponde direo oposta a f(x(i)), a
qual determinada por:

f ( x ( i ) ) = b Ax ( i )

Em um dado passo i, o erro da estimativa atual x(i) definido como sendo e(i) = x(i) x e o
resduo correspondente dado por r(i) = b Ax(i). Logo, conclui-se que r(i) = Ae(i) e, alm
disso, r(i) = f(x(i)). Ou seja, o resduo indica a direo do mximo descenso.

O processo de passos sucessivos de aproximao para a soluo do sistema de equaes


pode ser descrito pela seguinte expresso:

x ( i ) = x ( i 1) + r( i 1)

onde x(i-1) uma estimativa da soluo exata no passo iterativo i-1, r(i-1) o vetor resduo
correspondente e um escalar que define o tamanho do passo a ser tomado para a
obteno da prxima estimativa x(i). A determinao de se d a partir de um procedimento
denominado busca em linha (line search), no qual minimiza a funo f(x) ao longo de
uma linha. A minimizao de f(x) ocorre quando a derivada direcional df(x(i))/d igual a
zero. Sendo df(x(i))/d = f(x(i))Tr(i-1), pode-se concluir, consequentemente, que f(x(i)) e r(i-1)
so ortogonais.

Para ilustrar as observaes feitas acima, considera-se o exemplo utilizado anteriormente.


Supondo uma estimativa inicial dada pelo vetor x(0) = [-2, -2]T, obtm-se a linha na direo de
mximo descenso (figura a). Assim, a nova estimativa x(1) ser buscada sobre a linha de
interseco entre o plano vertical e o paraboloide funo f(x) (figuras b e c). No ponto de
31

mnimo da funo f(x(i-1) + r(i-1)) em relao a , o gradiente f(x(i)) ortogonal ao gradiente


f(x(i-1)) (figuras c e d).

Para a obteno de uma expresso a partir da qual determina-se o escalar , considera-se


que f(x(i)) = - r(i) e r(i)Tr(i-1) = 0. Assim, tem-se:

( b Ax )
T
r(Ti )r(i 1) = 0 (i ) r(i 1) = 0

( b Ax ) b A ( x ( i 1) + r( i 1) ) r( i 1) = 0
T T
(i ) r( i 1) = 0

b A ( x ( i 1) + r( i 1) ) r( i 1) = 0 ( b Ax ) r( i 1) ( Ar( i 1) ) r( i 1) = 0
T T T

( i 1)

r(Ti 1)r(i 1)
( b Ax(i1) ) r(i1) = ( Ar(i 1) ) r(i 1) =
T T

r(Ti 1) Ar(i 1)

Portanto, as frmulas empregadas pelo mtodo do mximo descenso para a obteno da


soluo de um sistema de equaes lineares A.x = b so as seguintes:

r( i ) = b Ax ( i )

r(Ti )r( i )
(i ) =
r(Ti ) Ar(i )

x ( i +1) = x ( i ) + ( i )r( i )

O processo iterativo acima continua at que se obtenha a convergncia para x(i+1), ou seja,
x(i+1) x(i). Na figura abaixo mostrado um exemplo de aplicao do mtodo de mximo
32

descenso para o problema proposto inicialmente com uma estimativa inicial x(0) = [-2, -2]T.
Observa-se que o caminho seguido at a convergncia descreve um avano em zigue-zague,
uma vez que o gradiente avaliado na posio atual x(i) sempre ortogonal ao gradiente
avaliado na posio anterior x(i-1).

Mtodo das direes conjugadas

No mtodo das direes conjugadas considera-se a seguinte expresso para a obteno de


uma nova aproximao referente soluo do sistema de equaes:

x ( i +1) = x ( i ) + ( i )d ( i )

onde d(i) um vetor representando a direo de busca atual, a qual deve ser ortogonal ao
erro e(i+1) da nova estimativa x(i+1). A partir desta condio, obtm-se (i) da seguinte forma:

dT(i )e(i )
T
d e
( i ) ( i +1) =0 d T
(i ) (e (i) + (i )d ( i ) ) = 0 (i ) =
d(Ti )d( i )

No entanto, no possvel, em geral, determinar o erro e(i). Assim, a soluo realizar


buscas em direes do tipo A-ortogonal (ou conjugada) para o vetor d(i) em relao ao vetor
erro e(i+1) ao invs de buscar simplesmente as direes ortogonais. Dois vetores quaisquer v1
e v2 so ditos A-ortogonais ou conjugados se:

v1T Av 2 = 0

onde A uma matriz.

Partindo da condio em que e(i+1) A-ortogonal em relao a d(i) (ver figura abaixo),
possvel obter uma expresso para a determinao de (i) da seguinte forma:

dT(i ) Ae(i )
d Ae ( i +1) = 0
T
(i) d A ( e(i ) + ( i )d (i ) ) = 0
T
(i) (i ) =
d(Ti ) Ad(i )
33

dT(i )r(i )
(i ) =
d(Ti ) Ad(i )

Os vetores de busca d(i) so obtidos pelo processo de A-ortogonalizao de Gram-Schmidt.


Supondo um conjunto de n vetores linearmente independentes ui (i = 0,n-1), deseja-se obter
vetores d(i) tomando-se ui e subtraindo as componentes que no so A-ortogonais em
relao aos vetores d anteriores (i-1, i-2, ..., 0). Para i > 0 e d(0) = u0, tem-se:
i 1
d (i ) = ui + ik d ( k )
k =0

O escalar ij obtido considerando-se que:


i 1
d T( i ) Ad ( j ) = uiT Ad ( j ) + ik d (Tk ) Ad ( j ) 0 = uiT Ad ( j ) + ij d T( j ) Ad ( j ) (i > j )
k =0

u iT Ad ( j )
ij = (i > j )
d T(j ) Ad ( j )

Mtodo dos gradientes conjugados

O mtodo dos gradientes conjugados obtido a partir do mtodo das direes conjugadas,
considerando que as direes de busca so determinadas pela conjugao dos resduos, isto
, ui = r(i). Neste caso, o processo de A-ortogonalizao por Gram-Schmidt torna-se simples,
uma vez que r(i+1) j A-ortogonal em relao a todos os vetores de busca, com exceo a
d(i). Assim, o escalar ij redefinido como i,i-1 = (i), sendo expresso da seguinte forma:

riT Ad ( j ) r(Ti )r( i )


ij = (i ) =
d T( j ) Ad ( j ) d T( i 1)r( i 1)
34

r(Ti )r( i )
(i ) =
r(Ti 1)r( i 1)

A soluo do sistema pelo mtodo dos gradientes conjugados obtida empregando-se o


seguinte formulrio:

d (0) = r(0) = b Ax (0)

r(Ti )r( i )
(i ) =
d(Ti ) Ad(i )

x ( i +1) = x ( i ) + ( i )d ( i )

r( i +1) = r( i ) ( i ) Ad ( i )

r(Ti +1) r( i +1)


(i +1) =
r(Ti )r( i )

d ( i +1) = r( i +1) + ( i +1)d ( i )

Precondicionamento

A tcnica de precondicionamento consiste em alterar o sistema de equaes a ser resolvido


a fim de melhorar as condies de convergncia do problema. Para avaliar a convergncia da
soluo de um sistema de equaes lineares usando procedimentos iterativos deve-se
realizar uma anlise espectral da matriz de coeficientes.

Dada uma matriz B simtrica, possvel representar o produto Bx, onde x um vetor
qualquer no espao n-dimensional, atravs da seguinte composio:

Bx = Bv j = j v j ( j = 1, n )
sendo vj os autovetores de B e j os seus respectivos autovalores. Como B simtrica, os
autovetores so linearmente independentes. Quando B positivo-definida, todos os seus
autovalores so positivos. Ao aplicar-se sucessivamente o produto Bx, obtm-se:

B i x = B i v j = ij v j ( j = 1, n )
Assim, se o mdulo de todos os autovalores j for menor do que 1, observa-se que Bix ir
convergir para zero. Por outro lado, quando algum dos autovalores maior do que 1, o vetor
x tender a valores infinitos. A fim de avaliar as condies de convergncia de uma matriz B
qualquer, define-se o raio espectral (B) como:

( B ) = max i

onde i so os autovalores de B.
35

Aplicando o conceito de raio espectral no contexto da soluo de sistemas de equaes


lineares atravs de procedimentos iterativos, verifica-se que a convergncia ser rpida
quando (A) < 1, onde A a matriz de coeficientes.

Outro parmetro importante para definir as condies de convergncia de um sistema o


nmero de condicionamento espectral de sua matriz de coeficientes, sendo definido por:

max
C (A) =
min

sendo max e min os autovalores mximo e mnimo de A. Quanto maior for C(A), mais mal
condicionada a matriz de coeficientes A e, portanto, mais lenta a convergncia.

Portanto, as tcnicas de precondicionamento buscam reduzir o nmero de condicionamento


espectral da matriz de coeficientes do sistema de equao com o objetivo de melhorar as
condies de convergncia. A ideia central consiste em alterar o sistema de equaes Ax = b
atravs da pr-multiplicao por uma matriz M da seguinte forma:

M 1Ax = M 1b

onde M uma matriz simtrica e positivo-definda, denominada matriz de


precondicionamento. O sistema na forma apresentada acima chamado de sistema
precondicionado.

Observa-se que quando M = A, a matriz de coeficientes precondicionada ser uma matriz


identidade I e a soluo ser obtida em apenas uma iterao. Entretanto, este procedimento
corresponde obteno da soluo do sistema de equaes atravs de um mtodo direto.
Por outro lado, quando M = I tem-se a ausncia de precondicionamento. Assim, a matriz de
precondicionamento dever ser uma matriz simtrica e positivo-definida o mais prxima
possvel de A, definida entre a matriz identidade I e a prpria matriz de coeficientes A.

Os precondicionadores mais comuns so o precondicionador de Jacobi (ou precondicionador


diagonal) e o precondicionador incompleto de Choleski. No precondicionador de Jacobi a
matriz de precondicionamento definida por:

M = diag ( A )

ou seja, a matriz M constituda pelos termos da diagonal da matriz de coeficientes A. Este


precondicionador traz vantagens como a facilidade de obteno de sua inversa e uma menor
exigncia de memria de armazenamento. Por outro lado, necessita geralmente de um
nmero maior de iteraes para obteno da convergncia.

Um precondicionador mais elaborado obtido pela fatorizao incompleta de Choleski


aplicada sobre a matriz de coeficientes A. Pela tcnica da fatorizao de Choleski obtm-se A
= LLT, onde L uma matriz triangular inferior. A fatorizao incompleta de Choleski uma
variante da tcnica original na qual a matriz de coeficientes A aproximada por A LL T ,
sendo L uma matriz triangular inferior com elementos no nulos no mesmo padro
apresentado pela matriz A. A matriz de precondicionamento definida por M LL T .
36

A formulao empregada para a soluo de sistemas de equaes lineares pelo mtodo dos
gradientes conjugados precondicionado dada abaixo:

r(0) = b Ax (0)

d (0) = M 1r(0)

r(Ti ) M 1r(i )
(i ) =
d(Ti ) Ad(i )

x ( i +1) = x ( i ) + ( i )d ( i )

r( i +1) = r( i ) ( i ) Ad ( i )

r(Ti +1) M 1r( i +1)


(i +1) =
r(Ti ) M 1r( i )

d ( i +1) = M 1r( i +1) + ( i +1) d ( i )

Condicionamento de matrizes

Considerando um sistema de equaes lineares representado por A.x = b, onde x1 e x2 so


duas aproximaes para a soluo exata x, deseja-se determinar qual destas aproximaes
tem maior exatido. Para exemplificar, toma-se o seguinte sistema:

0, 24 x + 0,36 y + 0,12 z = 0,84

0,12 x + 0,16 y + 0, 24 z = 0,52


0,15 x + 0, 21y + 0, 25 z = 0, 64

cuja soluo exata xT = {3, 4,1} . Considerando as aproximaes x1T = {25; 14; 1} e
xT2 = {3; 4;0} , observa-se que os resduos ficam definidos por:

r1T = b Ax1 = {0, 00;0, 00;0, 08}

r2T = b Ax2 = {0,12;0, 24;0, 25}

Portanto, embora o resduo r1 seja menor do que o resduo r2, a soluo aproximada x1 no
apresenta sequer um dgito exato em relao soluo exata. Assim, nem sempre a soluo
de menor resduo a aproximao mais exata.

Um problema dito mal condicionado quando pequenas perturbaes nos dados de entrada
ocasionam grandes erros nos resultados finais. Considerando o sistema abaixo:
37

0,992 x + 0,873 y = 0,119

0, 481x + 0, 421 y = 0, 060

cuja soluo exata xT = {1, 00; 1,00} . Ao considerar uma pequena perturbao em um dos
elementos do termo independente e preciso de 3 dgitos significativos, obtm-se que:

0,992 x + 0,873 y = 0,120


x T = {0,815; 0, 789}
0, 481x + 0, 421 y = 0, 060

Portanto, obtm-se uma variao de 20% no resultado a partir de uma variao de 0,1% em
um dos dados de entrada.

Em geral, possvel associar um sistema de equaes lineares a um conjunto de retas, onde


a soluo corresponde ao ponto de interseco entre estas retas. Quando um sistema bem
condicionado, as retas apresentam-se dispostas de tal forma que a interseco possvel.
Por outro lado, quando as retas apresentam-se paralelas, o sistema singular e no h
soluo possvel. Para um sistema mal condicionado, as retas apresentam-se quase
paralelas, de tal forma que uma pequena perturbao na descrio de alguma das retas
provoca uma grande diferena em sua soluo.
38

Medida de condicionamento

Sendo A a matriz de coeficientes de um sistema linear qualquer de ordem nxn, representada


atravs de seus elementos da seguinte forma:

a11 a12 a1n


a a22 a2 n
21


an1 an 2 ann

onde k = ak21 + ak22 + ak23 + + akn2 com k = 1,...,n. Define-se o determinante normalizado
de A como sendo:

det A
NORM A = n


k =1
k

O determinante normalizado deve estar sempre compreendido entre -1 e 1. Assim, quanto


mais afastado deste intervalo, mais mal condicionada ser a matriz A.

Para determinar o condicionamento do sistema de equao como um todo, procede-se da


seguinte maneira: ao alterar-se o termo independente de um sistema de equaes A.x = b
de b para b, obtm-se um novo sistema dado por A.x = b. Assim, tem-se que: b b = A.x -
A.x = A.(x x) x x = A-1.(b b).

A forma normalizada da ltima expresso acima dada por:

x x = A -1. ( b b ) A -1 . ( b b )

Ento, tem-se:

x x ( b b )
A -1 .
x x
39

Levando em conta que A.x = b, obtm-se:

1 A
b A.x
x b

Finalmente, substituindo a expresso acima na equao imediatamente anterior, chega-se a:

x x ( b b )
A . A -1 .
x b

onde:

x x
erro relativo: valor relativo da variao provocada pela alterao no sistema (b
x
por b);

A . A -1 fator de ampliao da perturbao gerada pela alterao no sistema


(COND(A));

( b b )
valor relativo perturbao gerada no sistema.
b

Assim, define-se o nmero de condicionamento de um sistema de equaes lineares como


sendo:

COND ( A ) = A . A -1

Portanto, quanto maior for o valor COND(A), mais sensvel a perturbaes ser o sistema de
equaes.

Na sequncia so apresentadas as definies das normas vetoriais e matriciais mais


utilizadas:

a) Norma euclidiana
n
= x
v 2
Vetores: x E i
i =1

n n
= a
m 2
Matrizes: A E ij
i =1 j =1

b) Norma do mximo
= mx xi
v
Vetores: x max i =1, n

Matrizes:
n
= mx aij
m
- Mximo das colunas: A mxj 1 j n
i =1
40

n
= mx aij
m
- Mximo das linhas: A mxi 1 i n
j =1

c) Norma da soma
n
= xi
v
Vetores: x sum
i =1
41

Lista de programas FORTRAN para o mtodo da eliminao de Gauss:

GAUSS1 - mtodo da eliminao de Gauss sem troca de linhas (matrizes de coeficientes


positivo definidas).

GAUSS2 - mtodo da eliminao de Gauss com troca de linhas (matrizes de coeficientes no


positivo definidas).

GAUSS3 - mtodo da eliminao de Gauss para sistemas de equaes simtricos (matrizes


de coeficientes positivo-definidas).

GAUSS4 mtodo da eliminao de Gauss para sistemas de equaes em banda no


simtricos.

GAUSS5 mtodo da eliminao de Gauss para sistemas de equaes em banda simtricos.

GAUSSinver obteno da inversa de uma matriz quadrada usando a eliminao de Gauss.

Lista de programas FORTRAN para o mtodo de Choleski:

CHOLE1 soluo de sistema de equaes usando o mtodo de Choleski. A matriz de


coeficientes deve ser positivo-definida e simtrica.

CHOLEinver obteno da inversa de uma matriz quadrada simtrica disposta na forma de


uma matriz triangular superior usando o mtodo de Choleski.

Programa FORTRAN para o mtodo de Gauss-Jordan

GAUSSJ soluo de sistema de equaes usando o mtodo de Gauss-Jordan com


pivotamento total.

Programa FORTRAN para o mtodo de Jacobi

JACOBI - soluo de sistemas de equaes lineares usando o mtodo iterativo de Jacobi, sem
troca de linhas.

Programa FORTRAN para o mtodo de Gauss-Seidel

GAUSSEIDEL - soluo de sistemas de equaes lineares usando o mtodo iterativo de


Gauss-Seidel, sem troca de linhas.

Pgina com soluo de mtodos numricos online:

http://www.dma.uem.br/kit/paginas/proced_numericos/mgausspivot.html
42

APNDICE

lgebra matricial reviso

Matrizes

So arranjos bidimensionais organizados em forma de linhas e colunas. Uma matriz de


ordem m por n (mxn) tem m linhas e n colunas, apresentando m.n elementos.

Quando m = n, a matriz denominada quadrada de ordem nxn ou, simplesmente, de ordem


n. Uma matriz quadrada de ordem n dita simtrica quando satisfaz a condio aij = aji para i
= 1,2,...,n e j = 1,2,...,n. Por outro lado, uma matriz dita antissimtrica quando aij = -aji para i
j e aij = 0 para i = j, com i = 1,2,...,n e j = 1,2,...,n.

1 2 3
Exemplo matriz quadrada simtrica de ordem 3: 2 4 5

3 5 6

0 2 3
Exemplo matriz quadrada antissimtrica de ordem 3: 2 0 5

3 5 0

Em uma matriz quadrada A = [aij] de ordem n, os elementos aij em que i = j constituem a


diagonal principal. Assim, a diagonal principal formada pelos elementos a11, a22, ..., ann. Por
outro lado, os elementos aij em que i + j = n + 1 constituem a diagonal secundria.

Matriz zero ou matricial nula aquela cujos elementos aij so todos nulos.

Define-se como matriz diagonal aquela matriz quadrada em que so nulos todos os
elementos com exceo feita aos elementos da diagonal principal, ou seja, aij = 0 para i j,
com i = 1,2,...,n e j = 1,2,...,n. No caso particular de aij = 1 para i = j e aij = 0 para i j, a matriz
chamada de matriz identidade ou unitria.

1 0 0
Exemplo matriz identidade: 0 1 0

0 0 1

Uma matriz que contm uma nica coluna chamada de matriz coluna, sendo normalmente
designada como um vetor. Assim, basta um ndice para indicar a posio de um de seus
elementos no vetor. Um vetor com n elementos apresenta ordem n. Da mesma forma, uma
matriz contendo apenas uma linha definida como uma matriz linha ou um vetor linha.
43

v1
v

Exemplos vetor v de ordem n: v = 2 vetor linha d de ordem n: d = { d1 d2 dn }

vn

A transposta de um a matriz obtida trocando-se suas linhas por suas colunas


correspondentes em ndice. Sua identificao feita pelo superndice T. Assim, AT a matriz
transposta de A. A transposta de uma matriz transporta produz a matriz original, ou seja,
(AT)T = A. A transposta de uma matriz linha uma matriz composta e vice-versa.

1 2 3 1 4 7
Exemplo matriz A e sua transposta: A = 4 5 6 A T = 2 5 8

7 8 9 3 6 9

Propriedades da matriz transposta:

I) (A + B)T = AT + BT
II) (A)T = AT : escalar qualquer
T T
III) (A ) = A
IV) (AB)T = BTAT

Dada uma matriz quadrada A de ordem n, a sua inversa A-1 aquela que satisfaz o produto
A.A-1 = I, onde I a matriz identidade. Uma matriz que no tem inversa dita singular, pois
apresenta determinante nulo. Uma matriz dita nula (ou matriz zero) quando todos os seus
elementos aij so nulos.

Propriedades da matriz inversa:

I) Se uma matriz A admite inversa (det A 0), esta nica.


II) Se uma matriz A no singular (det A 0), sua inversa A-1 tambm .
III) A matriz inversa de A-1 A.
IV) A matriz identidade I no singular e a sua prpria inversa I = I-1.
V) S uma matriz A no singular, sua transposta AT tambm . A matriz inversa de
AT (A-1)T.
VI) Se as matrizes A e B so no singulares e de mesma ordem, o produto A.B uma
matriz no singular. A matriz inversa de A.B a matriz B-1A-1.

Para matrizes pequenas, possvel calcular a matriz inversa usando a transposta da matriz
de cofatores, tambm conhecida como matriz adjunta, da seguinte forma:

1
( Cij ) =
1
Cij = ( 1) det A i, j
i+ j
T
A 1 = adj A
det A det A

onde det A-i,-j o determinante da submatriz obtida pela excluso das linha i e da coluna j da
matriz A.
44

Para matrizes extensas obtm-se a matriz inversa de uma matriz quadrada A a partir da
transformao desta matriz em uma matriz identidade.

Exemplo: determinar a matriz inversa de A.

2 1 3
A = 4 2 2
2 5 3
2 1 3 1 0 0 1 1 2 3 21 2 0 0
1
4 2 2 0 1 0 2
.L1 4 2 2 0 1 0
2 5 3 0 0 1 2 5 3 0 0 1

1 1 2 3 21 2 0 0 1 1 2 3 21 2 0 0

4 2 2 0 1 0 L2 = L2 4.L1 0 0 4 2 1 0
2 5 3 0 0 1 2 5 3 0 0 1

1 1 2 3 21 2 0 0 1 1 2 3 21 2 0 0

0 0 4 2 1 0 L3 = L3 2.L1 0 0 4 2 1 0
2 5 3 0 0 1 0 4 0 1 0 1

1 1 2 3 21 2 0 0 1 1 2 3 21 2 0 0

0 0 4 2 1 0 L23 0 4 0 1 0 0
0 4 0 1 0 1 0 0 4 2 1 0

1 1 2 3 21 2 0 0 1 12 32 12 0 0
1
0 4 0 1 0 0 .L2 0 1 0 1 4 0 14
4
0 0 4 2 1 0 0 0 4 2 1 0

1 12 32 12 0 0 1 12 32 12 0 0
1
0 1 0 1 4 0 1 4 .L3 0 1 0 1 4 0 14
4
0 0 4 2 1 0 0 0 1 12 1 4 0

1 12 32 12 0 0 1 0 32 58 0 1 8
1
0 1 0 1 4 0 14 L1 = L1 .L2 0 1 0 1 4 0 14
2
0 0 1 12 1 4 0 0 0 1 12 1 4 0
45

1 0 32 58 0 1 8 1 0 0 1 8 3 8 1 8
3
0 1 0 1 4 0 14 L1 = L1 .L3 0 1 0 1 4 0 14
2
0 0 1 12 1 4 0 0 0 1 1 2 1 4 0

Logo:

1 8 3 8 1 8
A = 1 4
1
0 1 4
1 2 1 4 0

Uma matriz triangular aquela que possui todos os elementos acima ou abaixo da diagonal
principal iguais a zero. Quando os elementos nulos encontram-se abaixo da diagonal
principal a matriz chamada de triangular superior. No caso contrrio, a matriz dita
triangular inferior.

Quando uma matriz quadrada apresenta uma faixa em torno da diagonal principal onde se
concentram elementos com valores predominantemente diferentes de zero, fora da qual os
coeficientes so nulos, ela denominada matriz banda. A largura da banda definida pelo
nmero mximo de elementos contidos nesta faixa, o qual obtido verificando-se a
extenso da faixa em cada uma das linhas da matriz. Eventualmente, pode haver elementos
nulos dentro da banda, porm todos os elementos externos banda devem ser nulos.

Uma matriz dita ortogonal quando sua inversa coincide com sua transposta, ou seja, A-1 =
AT. Assim, tem-se que A.AT = AT.M = I.

Chama-se determinante de uma matriz quadrada soma algbrica dos produtos que se
obtm efetuando-se todas as permutaes dos segundos ndices do termo principal
(produto dos elementos da diagonal principal), fixados os primeiros ndices, e fazendo-se
preceder os produtos do sinal + ou -, conforme a permutao dos segundos ndices seja de
classe par ou classe mpar.

Diz-se que dois elementos de uma permutao formam uma inverso se esto em ordem
inversa da permutao principal. Assim, tomando abc como a permutao principal, os
elementos c e b formam uma inverso na permutao acb. Uma permutao de classe par
ou mpar, conforme apresente um nmero par ou mpar de inverses. O total de
permutaes presentes no clculo do determinante de uma matriz quadrada de ordem n
dado por n!

Clculo de determinantes de 2 ordem:

a a12 a a12
A = 11 det A = 11 det A = a11.a22 a12 .a21
a21 a22 a21 a22
46

Usando permutaes:

Tabela de permutaes

Permutao principal Permutao Nmero de inverses Classe de permutao Sinal


12 12 0 Par +
12 21 1 mpar -

1) Escrever os elementos do termo principal somente com os primeiro ndices em


nmero igual ao nmero de permutaes (2! = 2): a1 a2 a1 a2
2) Colocar nos segundos ndices as permutaes (12 e 21): a11 a22 a12 a21
3) Indicar os sinais das permutaes: +a11 a22 -a12 a21
4) Obter a soma dos termos: det A = a11 a22 - a12 a21

Clculo de determinantes de 3 ordem:

a11 a13
a12 a11 a12 a13
A = a21
a22 a23 det A = a21 a22 a23
a31
a32 a33 a31 a32 a33
det A = a11.a22 .a33 + a12 .a23 .a31 + a13 .a21 .a32 a13 .a22 .a31 a11 .a23 .a32 a12 .a21.a33

Usando permutaes:

Tabela de permutaes

Permutao principal Permutao Nmero de inverses Classe de permutao Sinal


123 123 0 par +
123 132 1 mpar -
123 312 2 par +
123 213 1 mpar -
123 231 2 par +
123 321 3 mpar -

1) Escrever os elementos do termo principal somente com os primeiro ndices em


nmero igual ao nmero de permutaes (3! = 6):
a1 a2 a3 a1 a2 a3 a1 a2 a3 a1 a2 a3 a1 a2 a3 a1 a2 a3
2) Colocar nos segundos ndices as permutaes (123, 132, 312, 213, 231, 321):
a11 a22 a33 a11 a23 a32 a13 a21 a32 a12 a21 a33 a12 a23 a31 a13 a22 a31

3) Indicar os sinais das permutaes:


+a11 a22 a33 -a11 a23 a32 +a13 a21 a32 -a12 a21 a33 +a12 a23 a31 -a13 a22 a31

4) Obter a soma dos termos: det A = +a11 a22 a33 + a13 a21 a32 + a12 a23 a31
-a11 a23 a32 - a12 a21 a33 - a13 a22 a31
47

Propriedades dos determinantes:

I) O determinante de uma matriz no se altera quando se trocam as linhas pelas


colunas (det A = det AT).
II) Se uma matriz possui uma linha (ou coluna) com todos os elementos nulos, o seu
determinante nulo.
III) Se uma matriz tem duas linhas (ou colunas) iguais, o seu determinante nulo.
IV) Se em uma matriz duas linhas (ou colunas) tm seus elementos correspondentes
proporcionais, o seu determinante nulo:
a ka1
det A = 1 =0
a2 ka2
a1 b1 + c1 a b1 a1 c1
V) = 1 +
a2 b2 + c2 a2 b2 a2 c2
VI) O determinante de uma matriz diagonal (superior ou inferior) igual ao produto
a11 a12 a13
dos elementos da diagonal principal: det A = 0 a22 a23 = a11.a22 .a33
0 0 a33
VII) Trocando-se duas linhas (ou colunas) de uma matriz entre si, o determinante
muda de sinal.
VIII) Ao multiplicar-se todos os elementos de uma linha (ou coluna) de uma matriz, o
seu determinante fica multiplicado por esse nmero.
IX) O determinante de uma matriz no se altera quando se somam aos elementos de
uma linha (ou coluna) os elementos correspondentes de outra linha (ou coluna)
multiplicados por um nmero real diferente de zero:
a11 a12 a13 a11 a12 a13
a21 a22 a23 = a21 + ka11 a22 + ka12 a23 + ka13
a31 a32 a33 a31 a32 a33

Clculo de determinantes de ordem qualquer:

Para calcular o determinante de uma matriz quadrada de ordem n qualquer pode-se utilizar
o processo de triangularizao da matriz. Assim, dada uma matriz quadrada, operaes
adequadas sobre suas linhas (ou colunas) so realizadas a fim de transform-la em uma
matriz triangular superior ou inferior.
Quanto aos elementos da diagonal principal da matriz, trs hipteses podem ocorrer:
1) O elemento igual a zero: procede-se com a operao de troca de linhas, devendo-se
multiplicar ao final o determinante da matriz por -1.
2) O elemento igual a k: nesse caso, multiplicam-se todos os elementos da linha por
1/k e o determinante da matriz por k.
3) O elemento igual a 1: nesse caso, no h nada a fazer em relao diagonal
principal.
48

2 4 6 1 2 3
1
Exemplo: det A = 5 9 8 L1 det A = 2. 5 9 8
2
7 2 1 7 2 1

1 2 3 1 2 3
L2 = L2 5.L1
det A = 2. 5 9 8 2. 0 1 7
7 2 1 L3 = L3 7.L1 0 12 20

1 2 3 1 2 3
det A = 2. 0 1 7 1.L2 2.(1). 0 1 7
0 12 20 0 12 20

1 2 3
det A = 2.(1). 0 1 7 L3 = L3 + 12.L2
0 12 20

1 2 3
det A = 2.(1). 0 1 7 det A = 2.(1).64 = 128
0 0 64

O posto (rank) de uma matriz quadrada A definido como o nmero de colunas (linhas)
linearmente independentes de A. O nmero de colunas linearmente independentes de
qualquer matriz igual ao nmero de linhas linearmente independentes dessa matriz. Em
geral, o maior posto possvel de uma matriz Amn o min(m,n). Portanto, as colunas de A so
linearmente independentes se A.c = 0, o que implica c = 0.

Exemplo:

1 2 3
A=
5 2 4

O posto de A igual a 2, pois as duas linhas da matriz so linearmente independentes:

1 5 0
0
c1 2 + c2 2 = 0 c =

3 4 0 0

Assim, pela definio de posto, o nmero de colunas linearmente independentes deve


tambm ser igual a 2. Portanto, as trs colunas de A so linearmente dependentes por
existirem constantes c1, c2 e c3 (nem todas nulas), tais que:
49

14
1 2 3 0
c1 + c2 + c3 = c = 11
5 2 4 0 12

A soluo do sistema obtida para qualquer vetor mltiplo de c.

Uma matriz simtrica A dita positivo definida se xT.A.x > 0 para todos os possveis vetores
x, com exceo de x = 0. Similarmente, se xT.A.x 0 para todos os possveis vetores x, com
exceo de x = 0, a matriz A dita positiva semidefinida.

Exemplo: dada a forma quadrtica.

3 x12 + x22 + 2 x32 + 4 x1 x2 + 5 x1 x3 6 x2 x3

Podemos express-la da seguinte forma:

3 4 5 x1
x Ax
T
A = 0 1 -6 x = x2

0 0 2 x3

Alternativamente, esta forma quadrtica pode ser representada usando uma matriz
simtrica dada por:

3 2 5 2
1
2
( A+A )= 2
T 1 3
5 2 3 2

Assim, a matriz da forma quadrtica pode sempre ser representada por uma matriz
simtrica e nica.

Propriedades das matrizes positivas definidas:

I) Se A positiva definida, ento todos os elementos da sua diagonal principal so


positivos.
II) Se A positiva semidefinida, ento para todos os elementos da diagonal
principal, tem-se que aii 0.
III) Uma matriz simtrica A positiva definida se e somente se existe uma matriz no
singular B tal que A = BTB.
IV) Uma matriz positiva definida no singular.
V) Se A positiva definida ento A-1 positiva definida.

Uma matriz quadrada A = [aij] pode ser multiplicada n vezes por si mesma. A matriz que
resulta dessas operaes chamada potncia n da matriz, sendo representada por An.
50

Exemplo:

1 2
A=
4 3
1 2 1 2 9 8
A2 = . =
4 3 4 3 16 17
1 2 1 2 1 2 9 8 1 2 41 42
A3 = . . = . =
4 3 4 3 4 3 16 17 4 3 84 83

Propriedades sobre as operaes bsicas

Propriedades da adio de matrizes:

I) A + (B + C) = (A + B) + C
II) A+0=0+A
III) A + A = A A
IV) A+B=B+A

Propriedades da multiplicao de matrizes:

I) (AB)C = A(BC)
II) (A + B)C = AC + BC
III) C(A + B) = CA + CB
IV) Sendo A = [amn]: ImA = AIn = A
V) (A)B = A(B) = (AB)
VI) Se AB = 0, A ou B no necessariamente uma matriz nula.
VII) A multiplicao matricial no , em geral, comutativa.
Os elementos de uma matriz Cmp = [cij] que resulta do produto entre duas matrizes, Amn =
n
[aij] e Bnp = [bij] podem ser definidos por cij = a ik b kj .
k =1

Propriedades da multiplicao de uma matriz por um escalar:


I) ()A = (A)
II) ( + )A = A + A
III) (A + B) = A + B
IV) 1A = A

Operaes bsicas com matrizes

1) Adio e subtrao duas matrizes com mesmas dimenses podem ser somadas ou
subtradas. O resultado da soma das matrizes A e B, ambas de ordem mxn, uma
matriz C dada por:
C= A+B
cij = aij + bij ( i = 1,2,...,m ) ; ( j = 1,2,...,n )
O resultado da subtrao das matrizes A e B, ambas de ordem mxn, uma matriz D
dada por:
51

D = AB
d ij = aij bij ( i = 1,2,...,m ) ; ( j = 1,2,...,m )
2) Produto de duas matrizes Seja uma matriz A de ordem mxn e uma matriz B de
ordem nxp. O produto de A por B uma matriz C que satisfaz a seguinte equao:
C = A.B
n
cij = aik .bkj ( i = 1,2,...,m ) ; ( j = 1,2,...,p )
k =1
Observe que as duas matrizes s podem ser multiplicadas se o nmero de colunas da
primeira matriz for igual ao nmero de linhas da segunda matriz.
3) Produto de uma matriz por um vetor Neste caso, o nmero de colunas da matriz
que precede o vetor deve ser igual ao nmero de elementos do vetor. O produto de
uma matriz A de ordem (mxn) por um vetor de ordem (n) descrito por:
y = A.x
n
yi = aij .x j ( i = 1,2,...,n )
j =1

Você também pode gostar