Você está na página 1de 78

Lorem Ipsum Dolor

Algebra Linear Aplicada MAT0343 - Turma 02


Algoritmo de Eliminação de Professor
Gauss Silvio José Bezerra
Algoritmo da Eliminação de Gauss
Esta seção é dedicada a sistematizar o método da eliminação de Gauss. A idéia essencial de
como ele funciona já está colocada nos exemplos 3.1-3.7. Basicamente, cada iteração do método
usa um elemento não nulo de uma linha, para zerar todos os elementos da mesma coluna e que
estão abaixo dele. Vale dizer, se pensamos no sistema de equações correspondente, para eliminar
uma das variáveis de todas as equações que estão abaixo dele.
No método de eliminação de Gauss, dá-se o nome de pivô ao elemento não nulo que é
usado para zerar a coluna abaixo dele. A posição que ele ocupa na matriz é denominada de
posição de pivô, e sua coluna leva o nome de coluna de pivô.
Exemplo 3.9 - Eliminação de Gauss para resolver Ax=b

1 2 3 3 1 1
[0 ]
Ax = b ⇒ 2 4 5 6 2 x = 0
3 6 5 4 3
A matriz ampliada do sistema se escreve:

1 2 3 3 1 1
 = [A | b] ⇒ 2 4 5 6 2 0
3 6 5 4 3 0

Devemos pensá-la como uma matriz que vai variar a cada iteração, sem mudar de nome.
Primeira iteração: Eliminando x1 das duas últimas equações, usando como pivô ̂ = 1.
A11
1 2 3 3 1 1 A2̂ =A2̂ −2A1̂ 1 2 3 3 1 1
 = [A | b] ⇒ 2 4 5 6 2 0 0 0 −1 0 0 −2
A3̂ =A3̂ −3A1̂
3 6 5 4 3 0 0 0 −4 −5 0 −3

Segunda iteração: Queremos eliminar uma variável na última equação, sem mexer com o que já está
feito. x2 já foi automaticamente eliminada das duas últimas equações. Mas x3 pode ser eliminada da
̂
terceira equação usando como pivô A23 = − 1.
1 2 3 3 1 1 A3̂ =A3̂ −4A2̂
1 2 3 3 1 1
0 0 −1 0 0 −2 0 0 −1 0 0 −2
0 0 −4 −5 0 −3 0 0 0 −5 0 5
A matriz a que chegamos acima corresponde ao sistema de equações:

x1 + 2x2 + 3x3 + 3x4 + x5 = 1


−x3 = − 2
−5x4 = 5

Observe que mantendo, nas equações acima, as variáveis correspondentes aos pivôs onde estão, e
passando as demais para o outro lado, obtemos:

x1 + 3x3 + 3x4 = 1 − x2 − x5
−x3 = − 2
−5x4 = 5
Chegamos a um sistema triangular superior, cujas soluções podem ser explicitadas em forma
paramétrica. Por exemplo, fazendo-se x2 = λ1 e x5 = λ2, obtemos, “de baixo para cima”:
x4 = 1
x3 = 2
x1 = 1 − 2x2 − x5 − 3x3 − 3x4 = − 2 − 2λ1 − λ2

Temos aí um exemplo típico do que faz o método de eliminação de Gauss, no caso de um sistema
Ax = b , que tem soluções. Elimina sucessivamente variáveis do sistema, de modo a chegar num
novo sistema Ux = b̂, fácil de resolver por substituição, de “baixo para cima”.
Observe que a matriz U, a qual chegamos, tem a forma de uma escada, com as seguintes
características:

Abaixo dela só tem zeros


Em cada degrau ca um pivô.
Em cada linha não nula a escada desce apenas um degrau.
fi
Matriz na Forma escada
Diz-se que uma matriz U tem a forma escada, caso:

• As linhas nulas, se existirem, estejam abaixo de todas as não nulas.


• O primeiro elemento não nulo de cada linha esteja sempre numa coluna à esquerda do
primeiro elemento não nulo da linha seguinte.
Exemplo 3.10
A matriz abaixo é mais um exemplo de matriz na forma escada. Nos “degraus”, temos números não-
nulos p1, p2, p3, p4 (pivôs), demarcando a escada. Abaixo dela, todas as entradas são nulas. Nas
demais entradas, representadas por ×, temos números reais quaisquer.

0 p1 × × × × × × × × × × ×
0 0 p2 × × × × × × × × × ×
0 0 0 0 0 p3 × × × × × × ×
0 0 0 0 0 0 0 0 p4 × × × ×
0 0 0 0 0 0 0 0 0 0 0 0 0
O método da eliminação de Gauss para resolver Ax = b , consiste em substituir a equação original
por outra Ux = b̂ , que tenha as mesmas soluções, e cuja matriz [U | b]̂ ampliada esteja na forma
escada.
Def. 3.2: Posição de pivô e coluna de pivô de uma matriz na forma
escada

Se U é uma matriz na forma escada, mantemos a denominação de pivô para os primeiros elementos
não nulos de cada linha. As posições que ocupam (degraus da escada), bem como suas colunas
continuam levando a denominação de posições e colunas de pivôs.
Exemplo3.11 - Resolver Ax=b por Gauss
Ao empregar a eliminação de Gauss para resolver, começamos naturalmente com o pivô 1, na
posição (1,1) da matriz ampliada, fazendo:
1 2 3 1
[ ]
Ax = b ⇒ 2 4 5 b = 0
1 1 3 1

1 2 3 1 A2̂ =A2̂ −2A1̂ 1 2 3 1


[0 −1 0 ]
2 4 5 0 0 0 −1 −2
A3̂ =A3̂ −A1̂
1 1 3 1 0
̂ ,
O passo seguinte seria tentar chegar num sistema triangular, zerando o número −1 na posição A32
̂ . Só que neste caso, não dispomos de um pivô na posição desejada. O jeito
usando um pivô em A22
aí é trocar as linhas 2 e 3, chegando a:

1 2 3 1 Â =Â 1 2 3 1
[0 −1 0 ] [ ]
3 2
0 0 −1 −2 0 −1 0 0
0 0 0 −1 −2

Desta forma, chegamos a um sistema triangular, com as mesmas soluções do original, e fácil de
resolver com a substituição “ de baixo para cima”.
Def.3.3. Operações elementares nas linhas de A
Substituir uma das linhas de A por uma combinação linear dela própria com um múltiplo de outra
linha de A.
Trocar a posição de duas linhas entre si
Def.3.4. Matriz linha equivalente
Diz-se que duas matrizes m × n, A e B, são linha-equivalentes , se B for obtida de A por uma
sequência de operações elementares nas linhas.
Observação.3.2
Se duas matrizes ampliadas são linha-equivalentes, então os sistemas que representam têm
conjuntos de soluções idênticos
Antes de descrever o algoritmo da eliminação de Gauss em geral, preferimos exempli car como ele
opera num caso particular. O algoritmo da eliminação de Gauss começa com uma matriz  e a
atualiza sucessivamente, de modo a chegar numa matriz Û , na forma escada. Em cada iteração, o
algoritmo obtém uma das linhas de Û , e usa os pivôs que vão sendo encontrados, em colunas
cada vez mais à esquerda de A,̂ para zerar os elementos nas colunas dos pivôs que estão abaixo
deles.

fi
Exemplo3.12 - Resolver Ax = b por Gauss
1 2 −2 1 0 1
−1 −1 5 1 1 1
A= b=
2 6 2 6 1 0
2 7 5 5 4 2
Primeira Iteração: Na primeira coluna da matriz ampliada dispomos do pivô 1 na primeira linha. Com
isto, podemos operar na primeira coluna da matriz ampliada A,̂ fazendo:

1 2 −2 1 0 1 A2̂ =A2̂ +1A1̂ 1 2 −2 1 0 1


̂ −1 −1 5 1 1 1 A3̂ =A3̂ −2A1̂ 0 1 3 2 1 2
A = (A | b) =
2 6 2 6 1 0 0 2 6 4 1 −2
2 7 5 5 4 2 A4̂ =A4̂ −2A1̂ 0 3 9 3 4 0
Segunda Iteração: Como na segunda coluna há um elemento não nulo na segunda linha, ele vai
funcionar como pivô da segunda coluna. Desta forma:

1 2 −2 1 0 1 1 2 −2 1 0 1
A3̂ =A3̂ −2A1̂
0 1 3 2 1 2 0 1 3 2 1 2
0 2 6 4 1 −2 A4̂ =A4̂ −3A1̂ 0 0 0 0 −1 −6
0 3 9 3 4 0 0 0 0 −3 1 −6
Terceira Iteração: Desta vez, toda a terceira coluna abaixo da segunda linha é nula. Portanto, não há
nada a zerar aí. Na quarta coluna, temos um elemento não nulo na última linha(A44 ̂ = − 3) , mas não
temos um pivô corretamente posicionado na terceira linha desta coluna ̂ = 0) . A solução neste
(A34
caso é trocar a quarta linha com a terceira.

1 2 −2 1 0 1 1 2 −2 1 0 1
0 1 3 2 1 2 A4̂ ⇔A4̂ 0 1 3 2 1 2
0 0 0 0 −1 −6 0 0 0 −3 1 −6
0 0 0 −3 1 −6 0 0 0 0 −1 −6
Algoritmo de Eliminação de Gauss
Passo 1 - Critério de parada do algoritmo na i-ésima iteração:
Considere a submatriz Aux, formada pelas linhas i, i+1, ⋅⋅⋅⋅, m de A.
Se i=m, ou se Aux for toda nula, pare.

Passo 2 - Escolha do pivô da i-ésima iteração:


Denote por ji a primeira coluna não nula de Aux e garanta-lhe um pivô (número real não-nulo) na sua
primeira linha, possivelmente trocando a primeira linha de Aux com alguma linha abaixo.

Passo 3 - Eliminação na coluna do pivô e término da i-ésima iteração:


Anule os coeficientes da coluna ji de Aux que estiverem abaixo de sua primeira linha, usando operações
de substituição O1, (substituição das linhas de Aux, por elas mesmas menos múltiplos adequados da primeira).
Substitua i por i+1 e volte para o primeiro passo.
Teorema Chave 3.1.
O algoritmo da eliminação de Gauss nunca falha
De fato, o algoritmo da eliminação de Gauss tem todos os seus passos bem de nidos e sempre
termina em, no máximo, m iterações, devolvendo uma matriz na forma escada linha-equivalente à
original.

Teorema Chave 3.2.


Se duas matrizes escada forem linha-equivalente a A, então as colunas de seus pivôs coincidem. Em
particular, também o número de linhas não nulas

fi
De nição chave 3.5
Posto de A é o número de linhas não nulas de qualquer matriz escada linha-equivalente a A.
Do mesmo jeito, as colunas de pivô, bem como as posições de pivô de A são as
correspondentes colunas e posições de pivô de qualquer matriz na forma escada linha-
equivalente a A.
Observe que a cada variável de Ax = b, corresponde uma coluna de A Denominamos de pivotais
às variáveis correspondentes às colunas de pivôs e de livres às demais.
fi
Lorem Ipsum Dolor

Algebra Linear Aplicada MAT0343 - Turma 02


Soluções de um sistema de Professor
equações lineares Silvio José Bezerra
Soluções de um sistema de equações lineares
Dado que o algoritmo da eliminação de Gauss nunca fracassa, encontrar as soluções de um sistema
de equações lineares se reduz ao problema de encontrar as soluções de um sistema na forma
escada.

Ao longo de toda esta seção 3.3, vamos denotar por (U | b) uma matriz ampliada na forma escada e
analisar o conjunto das soluções de Ux = b. Para xar idéias, começamos analisando um destes
sistemas no próximo exemplo, para em seguida discutir o caso geral:

fi
Exemplo 3.14. Considere o sistema
x1
2 1 3 2 −1 3 x2 b1
0 0 2 1 0 1 x3 b2
Ux = x4 =
0 0 0 0 0 3 b3
0 0 0 0 0 0 x5 b4
x6

Obviamente Ux = b não admitirá solução, se b4 ≠ 0


Se b4 = 0, a última equação é redundante.
2x1 + x2 + 3x3 + 2x4 − x5 + 3x6 = b1 2x1 + 3x3 + 3x6 = b1 − x2 − 2x4 + x5
2x3 + x4 + x6 = b2 ⇒ 2x3 + x6 = b2 − x4
3x6 = b3 3x6 = b3

Do mesmo modo que nos anteriores, mantivemos acima as variáveis dependentes (pivotais) onde
estavam e passamos as variáveis livres para o outro lado. Recaímos num sistema triangular superior
e sem zeros na diagonal, a ser resolvido em função das variáveis livres, isto é, tendo as variáveis livres
como parâmetros a serem arbitrados.
Do ponto de vista matricial, observe que o sistema acima se escreve como:

2 3 3 x1 1 2 −1 x2

[0 0 3 ] x [0 0 0 ] x
0 2 1 x3 = b̂ − 0 1 0 x4
6 5

Observação3.6

No exemplo acima reescrevemos Ux̂ = b̂ , na forma Û D xD = b̂ − Û L xL


Procedimentos:
Vamos dispensar as linhas nulas da matriz ampliada (U | b), pois correspondem a equações
redundantes, da forma
0x1 + 0x2 + … + 0xn = 0
Basta portanto estudarmos sistemas na forma escada cujo posto é igual ao número de linhas. Daqui
por diante, no restante desta seção, vamos denotar por (Û | b)̂ uma matriz na forma escada, sem
linhas nulas, com Û sendo p × n.
Passamos a adotar ainda a notação de nida na observação 3.14 para o sistema Ux ̂ = b̂ , ou seja,
xD denota o vetor das variáveis dependentes (pivotais), xL é o vetor das variáveis livres, UD uma
matriz cujas colunas são as colunas pivotais de Û e Û L armazena as demais colunas de Û . Do
̂
mesmo modo que antes, chegamos a: Ux = Û D xD + Û L xL
fi
Resolução de
Estamos supondo que a matriz ampliada (Û | b)̂ está na forma escada, não tem linhas nulas, é
p × (n + 1) e de posto p. Segue daí que ou bem posto de Û vale p − 1 ou então vale p. Do
mesmo jeito que no exemplo 3.14, cada uma das duas possibilidades correspondem a casos bem
distintos:
Posto(Û ) = p − 1 Ux̂ = b̂ não tem solução. (sistema impossível)
Posto(Û ) = p Ux̂ = b̂ tem solução (sistema possível)
Não há variáveis livres (p = n) (sistema possível e determinado)
Há variáveis livres (l = n − p > 0) (sistema possível e indeterminado)
̂
3.3.2. Solução geral da equação homogênea Ux = 0

Nesta subseção trataremos de algumas propriedades das soluções do caso particular muito
importante de sistemas de equações lineares homogêneos, ou seja, nos quais o termo
independente é b = 0. Neste caso sempre há pelo menos a solução x = 0, uma vez que U0 ̂ = 0.
Em especial, descreveremos uma solução geral de Ux ̂ = 0, vale dizer, uma família parametrizada de
soluções, que inclui todas as soluções do sistema.
̂
Exemplo 3.15 Obter todas as soluções de Ux = 0
Faremos uma de suas variáveis livres valha 1 e as demais valha zero,

2 1 3 2 −1 3
[0 0 0 0 0 3]
Û = 0 0 2 1 0 1

−1/2
x2 1
1 −1/2
[0] [ 0 ]
0
Se xL = x4 = 0 , obtemos xD = (1)
0 . Então a solução é S =
x5 0
0
0
̂
Exemplo 3.15 Obter todas as soluções de Ux = 0
Faremos uma de suas variáveis livres valha 1 e as demais valha zero,

2 1 3 2 −1 3
[0 0 0 0 0 3]
Û = 0 0 2 1 0 1

−1/4
x2 0
0 −1/4
[0] [ 0 ]
−1/2
Se xL = x4 (2)
= 1 , obtemos xD = −1/2 . Então a solução é S =
x5 1
0
0
̂
Exemplo 3.15 Obter todas as soluções de Ux = 0
Faremos uma de suas variáveis livres valha 1 e as demais valha zero,

2 1 3 2 −1 3
[0 0 0 0 0 3]
Û = 0 0 2 1 0 1

−1/2
x2 0
0 −1/2
[1] [ 0 ]
0
Se xL = x4 = 0 , obtemos xD = (3)
0 . Então a solução é S =
x5 0
1
0
Considere agora uma combinação linear qualquer das três soluções, digamos
1 1 1
− 2 λ1 − λ
4 2
+ λ
2 3
1
−2 1
−4 1
2
λ1 1 0 0 λ1
1 1
y = λ1S (1)
+ λ2S (2)
+ λ3S (3)
= − 2 λ2 = 0 −2 0 λ2 = Sλ
λ2 0 1 0 λ3
λ3 0 0 1
0 0 0 0
Observe que:
y também é solução de Ax = 0, já que, pela linearidade do produto matriz-vetor:

(1) (2) (3) (1) (2) (3)


Ay = A(λ1S + λ2S + λ3S ) = λ1AS + λ2 AS + λ3AS =0

(1) (2) (3)


Todas as soluções de Ax = 0 são combinações lineares de S , S eS
Observação 3.6
̂
Combinações lineares de soluções de Ux = 0 também são soluções

(1) (2) (l)


Para veri cá-lo, considere soluções Y , Y , …, Y de Ux ̂ = 0, bem como números reais
λ1, λ2, …, λl . Da linearidade do produto matriz-vetor, obtemos:

̂ (1) (2) (l) ̂ (1) ̂ (2) ̂ (l)


U(λ1Y + λ2Y + … + λlY = λ1UY + λ2UY + … + λlUY = 0

Ou seja
(1) (2) (l)
λY = λ1Y + λ2Y + … + λlY

̂
também é solução de Ux =0
fi
̂
Observação 3.7 Uma solução geral de Ux = 0
(1) (2) (l)
Da observação anterior, dadas as soluções canônicas S , S , …, S , então

(1) (2) (3)


xλ = Sλ = λ1S + λ2S + λ3S

̂
é une família a l parâmetros de soluções de Ux = 0. Na verdade, uma tal xλ = Sλ é também uma
solução geral
̂
3.3.3. Solução Geral de Ux = b
Exemplo 3.16 Encontrar a solução geral para

2 1 3 2 −1 3 4
[0 0 0 0 0 3] [3 ]
Ux̂ = 0 0 2 1 0 1 x = b b 3

Renomeando as variáveis livres porx2 = λ1, x4 = λ2 e x5 = λ3 e resolvendo de baixo para cima,


obtemos, para as variáveis dependentes:
1 1 1
2x1 + 3x3 + 3x6 = 4 − λ1 − 2λ2 + λ3 x1 =−1− λ
2 1
− λ
4 2
+ λ
2 3
2x3 + x6 = 4 − λ2 ⇒ x3 =1−
1
λ
2 2
3x6 =3 x6 =1

Ou seja, obtemos todas as soluções do sistema na forma:


1 1 1
−1 −2 −4 2
0 1 0 0 λ1
1 0 −2
1
0 λ2 = xp + Sλ
xλ = +
0
0 0 1 0 λ3
1 0 0 1
0 0 0
Observação 3.8
̂ = b consistiu de uma solução particular, somada com a
No exemplo acima, a solução geral de Ux
solução geral da equação homogênea Ux ̂ = 0. Isto, na verdade, acontece em geral, devido ao fato
que duas soluções de Ux̂ = b diferem por uma solução da equação homogênea.
̂
Sejam x e xp soluções de Ux = b, e considere sua diferença xH = x − xp . Então xH é solução de
Ux̂ = 0, visto que:
Ux̂ H = U(x
̂ − xp) = Ux̂ − Ux̂ p − b − b = 0
̂
Em particular, se xp é uma solução de Ux
= b, então todas as demais soluções são da forma
x = xp + xH, onde xH é alguma solução de Ux̂ = 0. Ou seja, a solução geral de Ux̂ = b é:
xλ = xp + Sλ
̂
Exemplo 3.16 Encontrar a solução geral para Ux = b

[0 0 2 2] [2]
̂ 1 2 3 1 1
Ux = b ⇒ x=

Passo 1 - Obtendo uma solução particular xp do sistema.

Se arbitramos as variáveis livres x2 = x4 = 0, obtemos x3 = 1 e x1 = − 2.

−2
0
Ou seja : xp =
1
0
Passo 2 - Solução geral da equação homogênea.

−2 2
̂ = 0 são S =
(1) 1 (2) 0
As soluções canônicas de Ux eS =
0 −1
0 1

−2 2
̂ 1 0
Uma solução geral (canônica) de Ux = 0 : Sλ = λ
0 −1
0 1
Passo 3 - Somando as duas

̂
Uma solução geral de Ux =b

−2 −2 2
0 1 0
x = xp + Sλ = + λ
1 0 −1
0 0 1
3.3.4 Algoritmo para resolver Ax=b
Passo1
i- Encontre uma matriz escada (U | b) linha-equivalente a (A | b)
ii- Obtenha (Û | b)̂ eliminando as linhas nulas de (U | b) e seja p o posto de (Û | b)̂
iii- Considere a matriz Û D formada pelas colunas pivotais de Û

iv- Se p < n, considere a matriz Û L, formada pelas demais colunas de Û .


Passo2

Se a última linha de (Û | b)̂ for [ p]


0 0 … 0 | b̂ então Ax = b não tem solução

Passo1
i- Se p = n, obtenha a solução resolvendo Û D x = b̂
ii- Se p < n , e xL for o vetor de variáveis livres de uma solução x, obtenha o vetor de variáveis dependentes xD resolvendo
Û D xD = b̂ − Û L xL
Exemplo 3.18
Consideremos o circuito elétrico formado por 8 resistências e uma bateria, dispostos como abaixo.
A cada o atribui-se uma corrente com uma orientação hipotética. A convenção que se faz na teoria
de circuitos é que se a orientação da corrente física coincidir com a hipotética, seu sinal será
positivo. Caso contrário, será negativo.
fi
O “esqueleto geométrico” do circuito é formado pelos seus ramos e nós. A cada um dos ramos
atribuímos, uma orientação de nida pela orientação dada à corrente no ramo. Este “esqueleto
geométrico” é denominado grafo orientado do circuito. Os ramos R1, R2, …, R8 correspondem
aos os do circuito correspondem por onde a corrente circula, e os nós aos pontos de encontro de
dois ou mais os. Podemos representá-lo por:
fi
fi
fi
Voltamos ao exemplo do circuito eletrico, com uma diferença. Neste caso, vamos supor que a
resistência do ramo da bateria é desprezível, ou seja, que R1 = 0 e que as demais valem todas
100Ω Ω. Suponhamos ainda que a bateria vale e1 = 12V.
Lembramos que o equacionamento do circuito se fez com duas equações matriciais:

{M p = Ri − e
Mi = 0
T

1a Lei de Kirchoff
2a Lei de Kirchoff
−1 1 0 0 1 0 0 0.
0 −1 1 0 0 −1 0 0
M= 0 0 −1 1 0 0 1 0 Matriz de incidência
1 0 0 −1 0 0 0 −1
0 0 0 0 −1 1 −1 1
i1
i2
i3 p1
p2
i4
i= vetor das correntes nos ramos p = p3 vetor dos potenciais elétricos em cada nó.
i5 p4
i6 p5
i7
i8
0 0 … 0
0 100 … 0
R= Matriz das resistências (Diagonal, com os Ri na diagonal).
⋮ ⋱ ⋮
0 0 … 100

12
0
0
0
e= Fontes de tensão em cada um dos ramos
0
0
0
0
No exemplo, a matriz R resultava invertível, e isto nos permitia explicitar a solução na forma de um
sistema determinado na forma
−1 T −1
MR M p = − MR e

Neste caso, isto não ocorre mais, pois R continua sendo uma matriz diagonal, porém com um zero
na sua diagonal. O jeito é trabalhar com o sistema 3.10, nas 13 incógnitas armazenadas em i e p,
com as 13 equações que reescrevemos na forma:

{−Ri + M p = − e
Mi = 0
(3.10) T

Ou seja, a matriz ampliada se escreve:


[−R M T] [ p] [−e]
M 0 i 0
R= =

−1 1 0 0 1 0 0 0 0 0 0 0 0 0
0 −1 1 0 0 −1 0 0 0 0 0 0 0 0
0 0 −1 1 0 0 1 0 0 0 0 0 0 0
1 0 0 −1 0 0 0 −1 0 0 0 0 0 0
0 0 0 0 −1 1 −1 1 0 0 0 0 0 0
0 0 0 0 0 0 0 0 −1 0 0 1 0 −12
A = 0 −100 0 0 0 0 0 0 1 −1 0 0 0 b= 0
0 0 −100 0 0 0 0 0 0 1 −1 0 0 0
0 0 0 −100 0 0 0 0 0 0 1 −1 0 0
0 0 0 0 −100 0 0 0 1 0 0 0 −1 0
0 0 0 0 0 −100 0 0 0 −1 0 0 1 0
0 0 0 0 0 0 −100 0 0 0 −1 0 −1 0
0 0 0 0 0 0 0 −100 0 0 0 −1 1 0
−1 1 0 0 1 0 0 0 0 0 0 0 0 0
0 −1 1 0 0 −1 0 0 0 0 0 0 0 0
0 0 −1 1 0 0 1 0 0 0 0 0 0 0
0 0 0 −100 0 100 100 0 1 −1 0 0 0 0
0 0 0 0 −1 1 −1 1 0 0 0 0 0 0
0 0 0 0 0 −100 0 0 −1 2 −1 0 0 −12
Û = Û D = 0 0 0 0 0 0 −2 −2 0 0 0 0 0 b̂ = 0
0 0 0 0 0 0 0 100 0 −1 2 −1 0 0
0 0 0 0 0 0 0 0 −1 0 0 1 0 −12
0 0 0 0 0 0 0 0 0 −2 1 2 −1 −24
0 0 0 0 0 0 0 0 0 0 0.5 −2 2.5 24
0 0 0 0 0 0 0 0 0 0 0 12 −14 −132
0 0 0 0 0 0 0 0 0 0 0 0 −3.5 −15
Observação 3.9
Uma alternativa mais “barata” para resolver 3.10

Uma maneira alternativa de resolver o sistema 3.10, parte da observação que as cinco primeiras
equações não envolvem as variáveis em p, mas apenas as relativas à corrente i. Ou seja, a matriz do
sistema 3.10 é diagonal em blocos. Isto nos permite atacar primeiro a equação MI = 0, explicitar sua
solução geral na forma iλ = Sλ e levar este valor nas demais equações do sistema. Este tipo de
procedimento alternativo pode ser importante em problemas “grandes” . Ou seja, encontrar
alternativas para “baratear computacionalmente” a resolução de Ax = b, usando informações sobre
a estrutura do problema.
n
Observação 3.10 Seja A uma matriz m × n e b ∈ℜ
Posto(A) < Posto(A |b) se e somente se Ax = b não tem solução
Posto(A) = Posto(A |b) se e somente se Ax = b tem solução
Posto(A) = Posto(A |b) = n se e somente se Ax = b tem uma única solução
Posto(A) = m se e somente se Ax = b tem solução para todo b ∈ ℜn
Posto(A) = n se e somente se Ax = b nunca admite mais de uma solução.

Dizer que o posto de A iguala seu número de linhas é sinônimo de dizer que Ax = b tem
sempre solução, para todo b. Dizer que o posto de A iguala o número de colunas é sinônimo
de garantir unicidade para as soluções de Ax = b, quando existirem.
Lorem Ipsum Dolor

MAT
Algebra Linear Aplicada Silvio José Bezerra

Matriz Escada na Forma


Canônica
Matriz Escada na Forma Canônica
Na subseção 3.1 vimos que a resolução de Ax = b se reduz, com a eliminação de Gauss, a resolver
sistemas de equações triangulares superior na forma Û D xD = b̂ − Û L xL , para obter as variáveis
básicas de uma solução cujas variáveis livres são arbitradas em xL. Veremos a seguir que é possível
melhorar um pouco esta resolução, “esticando” o método da eliminação de Gauss de forma a
transformar a matriz Û D na matriz identidade. Para tanto, usaremos precisamos de uma terceira
operação elementar sobre as linhas de uma matriz, qual seja:
O3 – Trocar uma linha de uma matriz por um múltiplo não nulo dela mesma.
2 1 3 2 −1 3
[0 0 0 0 0 3]
Exemplo3.19 Considere a matriz Û = U = 0 0 2 1 0 1

Vamos realizar operações elementares nas linhas de U, de forma a transformar cada coluna de pivô
de U, numa coluna da matriz identidade. Dividimos o procedimento em três iterações :
0
[1]
Iteração 1: Transformando a última coluna de pivô em 0

Passo 1 Divida a última linha de U pelo pivô p3 = 3


U16
Passo 2 Anule e U26, usando a operação elementar O1, tendo como pivô U36
=1
2 1 3 2 −1 3 2 1 3 2 −1 3 U2=U2−U3 2 1 3 2 −1 0
[0 0 0 ] [0 0 0 0 0 1] 1 1 3 [0 0 0 0 0 1]
U3
0 0 2 1 0 1 U3= 3 0 0 2 1 0 1 U =U −3U 0 0 2 1 0 0
0 0 3
0
[0]
Iteração 2 : Transformando a penúltima coluna de pivô em 1

Passo 1 Divida a penúltima linha de U pelo pivô p2 = 2


Passo 2 Anule U13, usando a operação elementar O1, tendo como pivô U23 = 1
2 1 3 2 −1 0 2 1 3 2 −1 0 2 1 0 1/2 −1 0
[0 0 0 0 0 1] [0 0 0 0 ] [ ]
U2
U = U1=U1−3U2
0 0 2 1 0 0 2 2 0 0 1 1/2 0 0 0 0 1 1/2 0 0
0 1 0 0 0 0 0 1
1
[0]
Iteração 3 : Transformando a ante-penúltima coluna de pivô em 0

Passo 1 Divida a ante-penúltima linha de U pelo pivô p1 = 2


2 1 0 1/2 −1 0 1 1/2 0 1/4 −1/2 0
[0 0 0 0 ] [ ]
U1
0 0 1 1/2 0 0 U1= 2 0 0 1 1/2 0 0
0 1 0 0 0 0 0 1
Chamemos de Ũ a nova matriz. Observe que a equação original Ux = 0 terá as mesmas soluções que
1 1/2 0 1/4 −1/2 0
[0 0 0 0 ]
Ux = 0 0 1 1/2 0 0 x=0
0 1

1 0 0
[0 0 1]
A vantagem é que agora a matriz das variáveis dependentes resulta em ŨD = 0 1 0

Em particular as variáveis dependentes se obtêm de graça em função das livres xL = λ:

1/2 1/4 −1/2 λ1

[ 0 ]
xD = ŨD xD = − ŨL xL = − 0 1/2 0 λ2
0 0 λ3
A matriz da solução geral canônica resulta em
−1/2 −1/4 1/2
1 0 0
0 −1/2 0
S = [S (1) S (2) S ]
(3) =
0 1 0
0 0 1
0 0 0

Ou seja, as variáveis livres das soluções canônicas resultam ser as colunas de −UL
De nição 3.7: Matriz na forma escada reduzida
Dizemos que uma matriz U tem a forma escada reduzida (canônica) se, além de ter U a forma
escada, a sua matriz de colunas pivotais UD for a identidade. Equivalentemente, se todos os seus
pivôs valerem 1, e nas colunas dos pivôs todas as demais entradas forem nulas
fi
Algoritmo 3.4 : Eliminação Regressiva de Gauss
Dada uma matriz p × n na forma escada U, de posto p, começando com i = p, faça:
Passo 1 Atribuindo o valor 1 ao pivô na i-ésima linha e nalização do algoritmo:
Divida a linha Ui pelo correspondente pivô da linha.

Se i = 1, pare
Passo 2 Eliminação na coluna do i-ésima pivô de U e m i-ésima iteração:
Anule os coe cientes da coluna do i-ésimo pivô de U que estiverem acima da posição do pivô
usando operações de substituição O1.
Substitua i por i − 1 e volte para o primeiro passo.
fi
fi
fi
Observação 3.12 Unicidade da forma escada reduzida

Se U e V são matrizes na forma escada reduzida e linha-equivalentes, suas colunas pivotais


coincidem (pelo teorema chave 3.2), bem como suas matrizes de variáveis pivotais UD e VD (ambas
valem a identidade p × p). Como as soluções de Ux = 0 e Vx = 0 são as mesmas, podemos
explicitar suas variáveis dependentes na forma xD = − UL xL = − VL xL , para todo vetor de variáveis
livres xL. Mas então UL λ = VL λ, para todo λ de ℜ ( l= número de variáveis livres) e isto signi ca que
l

UL = VL .
Com isto “esticamos ” o teorema-chave 3.2 para dizer que “cada matriz A admite uma única matriz
linha-equivalente e na forma escada reduzida”. (Daí a denominação forma escada canônica
frequentemente utilizada em vez de forma escada reduzida, já que, usualmente, a designação
canônica está associada a uma conotação de unicidade)

fi
Lorem Ipsum Dolor

MAT343
Algebra Linear Aplicada Silvio José Bezerra

Inversão de Matrizes e
resolução de sistemas
3.5 Inversão de matrizes e resolução de sistemas
O principal objetivo desta seção é dizer que este procedimento funciona sempre para matrizes
quadradas, desde que o posto de A seja máximo, bem como sistematizar a forma de encontrar
inversas. Na verdade vamos fazê-lo, veri cando primeiramente as condições nas que uma matriz A,
m × n, admite uma inversa à direita. Em seguida analisamos as condições nas quais A admite uma
inversa à esquerda.

fi
Observação3.13 Condições para que A admita inversa a direita

Se A = Am×n tem inversa à direita então o posto de A é m

Seja X = Xn×m uma inversa à direita de A, ou seja, tal que AX = Im×m. Tome um b qualquer no ℜm
e observe que y = Xb é solução de Ax = b, já que
Ay = A(Xb) = (AX)b = Ib = b

Portanto, y = Xb sempre resolve Ax = b. Pela observação 3.10, A tem posto m.


Se A tem posto m, então A tem uma inversa à direita.
Se X for uma inversa à direita de A, então AX = Im×m . Em particular, isto signi ca que cada coluna
de AX = [AX (1) AX (2) … AX (m)] é igual à correspondente coluna da identidade. Ou seja, são
soluções de m sistemas de equações lineares, a saber

(i)
Ax = I , para i = 1,2,…, m

Como o posto de A é m, a observação 3.10 nos garante que cada um dos m sistemas acima admite
(i) (i)
uma tal solução X . A inversa X resulta como a matriz cujas colunas são estas soluções X .

A = Am×n admite inversa à direita se e somente se o posto de A for m.

fi
1 2 3
Exemplo 3.20 Determine a inversa a direita de [1 1 1]
A= 2 3 3

Procuramos uma matriz X tal que AX = [AX (1) AX (2) … AX (m)] = I3×3 .
1 2 3 1 0 0 A2=A2−2A1 1 2 3 1 0 0
[1 1 1 0 0 1] 3 3 1 [0 −1 −2 −1 0 1]
[A | I] = 2 3 3 0 1 0 A =A −A 0 −1 −3 −2 1 0

1 2 3 1 0 0 1 2 3 1 0 0
[0 −1 −2 −1 0 1] [0 0 ]
A3=A3−A2
0 −1 −3 −2 1 0 0 −1 −3 −2 1 0
1 1 −1 1
1 2 3 1 0 0 A1=A1−3A3 1 2 0 −2 3 −3
[0 0 ] 3 [ ]
0 −1 −3 −2 1 0 A =A +3A 0 −1 0 1 −2 3
2 2
1 1 −1 1 0 0 1 1 −1 1

1 2 0 −2 3 −3 A2=−A2 1 0 0 0 −1 3
[0 0 1 1 −1 1 ] 1 1 2 [0 0 1 1 −1 1 ]
0 −1 0 1 −2 3 A =A −2A 0 1 0 −1 2 −3

X
Veri que que AX =I
fi
Exemplo 3.21.
Vamos procurar calcular diretamente uma inversa à esquerda da mesma matriz A do exemplo
anterior. Nosso ponto de partida é a observação que se X é uma inversa à esquerda de A, então

T T T
I = XA = (XA) = A X

T T
Ou seja, X é uma inversa à esquerda de A sss X é uma inversa à direita de A . Como já sabemos
T
calcular inversas à direita, basta procurarmos uma inversa à direita de A e tomar sua transposta. A
técnica é a mesma do exemplo anterior. Ou seja, basta procurarmos uma matriz na forma escada
T
reduzida e linha equivalente a [A | I].
1 2 1 1 0 0 1 0 0 0 −1 1
[3 3 1 0 0 1] [0 0 1 3 ]
T
[A | I] = 2 3 1 0 1 0 ⇒ 0 1 0 −1 2 −1
3 1

XT
Observação3.14 Condições para que A admita inversa a esquerda

Do mesmo jeito que no exemplo 3.21, a forma de procurar uma inversa à esquerda para uma matriz
T T T
A = Am×n é procurando uma inversa à direita para A . Veja que se Im×m = A X , resulta que X é
T T
uma inversa à esquerda de A. Neste caso, A é n × m ou seja A tem n linhas. Portanto, pela
observação 3.13

T
A admite uma inversa à esquerda se e somente se posto de A for n

Posto(AT ) = Posto(A) = n ? Resposta = SIM

A admite uma inversa à esquerda se e somente se posto de A for n


Observação 3.15 As matrizes invertíveis n × n são exatamente as de posto
máximo

Uma matriz que não é quadrada nunca tem inversas dos dois lados
Uma matriz n × n é invertível se e somente se tiver posto n.

A primeira das a rmações segue do fato que, se A = Am×n tem inversas dos dois lados, pelas
observações 3.13 e 3.14, temos Posto(A) = m = n. Isto nos garante ainda, no caso quadrado
m = n, que se A é invertível então tem posto n. Vice-versa, no caso de A ter posto máximo n,
temos garantidas inversas à direita X e à esquerda Y. Só falta veri car que, neste caso X = Y. Para
tanto, basta observar que
Y = YIn×n = Y(AX) = (YA)X = In×n X = X
fi
fi
Lorem Ipsum Dolor

MAT313

Algebra Linear Aplicada Silvio José Bezerra

Fatoração LU
3.6 Fatoração LU
O objetivo desta seção é estabelecer, como “subproduto” do algoritmo da eliminação de Gauss, a
fatoração de uma matriz A como um produto de matrizes triangulares, que tem grande
importância teórica e prática. Na seção 3.6.1, discutimos uma situação mais simples, na qual o
algoritmo da eliminação de Gauss é executado sem que nenhuma troca de linhas seja realizada. Na
seção 3.6.2, discutimos o caso geral, no qual se faz uso do pivoteamento indicado no passo 2
3.6.1 Fatoração LU na Eliminação de Gauss sem pivotamento

Falamos em eliminação de Gauss sem pivoteamento, para nos referirmos a uma aplicação do
algoritmo da eliminação de Gauss, na qual não se troca de linhas no passo 2 do algoritmo e ainda
assim ele termina sem fracassar.
Para alguns tipos de matrizes, isto é possível de se prever a priori, mas o nosso principal objetivo em
estudar este caso é para simpli car a exposição.

a11 a12 a13 1 0 0 a11 a12 a13


A = LU = a21 a22 a23 = l21 1 0 0 u22 u23
a31 a32 a33 l31 l32 1 0 0 u33
fi
Exemplo 3.22
Vamos aplicar o algoritmo da eliminação de Gauss, à matriz
2 1 1
[4 ]
A = −2 −2 2
3 3
Denotemos por U uma matriz que varia a cada iteração do método, começando com U =Ae
terminando com uma matriz triangular superior
U2=U2−L21U1

2 1 1 L21=−1 2 1 1 U3=U3−L32U2 2 1 1
[4 ] 31 1 [ ] [ ]
−2 −2 2 U =U −L U 0 −1 3 L32=−1
0 −1 3
3 3
3 3 0 1 1 0 0 4
L31=2
U
2 1 1 1 0 0 2 1 1
[4 ] [ ] [ ]
A = LU ⇒ −2 −2 2 = −1 1 0 0 −1 3
3 3 2 −1 1 0 0 4

Você também pode gostar