P. 1
algebra 2

algebra 2

|Views: 4.947|Likes:
Publicado porKelton Rodrigues

More info:

Published by: Kelton Rodrigues on Apr 06, 2011
Direitos Autorais:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

02/05/2013

pdf

text

original

Sections

  • Lógica e Demonstração
  • 1 Demonstração Directa
  • 2 Recíproco e Contrapositivo
  • 3 Demonstração Indirecta ou por Redução ao Absurdo
  • 3 Demonstração Indirecta ou por Redução ao Absurdo
  • 4 Demonstração por Indução Matemática
  • Matrizes e Determinantes
  • 5 Nota Histórica
  • 6 Teoria das Matrizes
  • 6.1 Definições e Generalidades
  • 6.2 Álgebra Matricial
  • 6.2.1 Soma de matrizes
  • 6.2.2 Multiplicação de uma matriz por um escalar
  • 6.2.3 Multiplicação de matrizes
  • 6.2.4 Multiplicação por blocos
  • 6.3 Transposição de matrizes. Matrizes Simétricas
  • 6.4 Traço de uma matriz
  • 6.6 Característica de uma matriz. Operações elementares
  • 6.6.1 Operações Elementares
  • 6.6.2 Determinação da Característica de Linha de uma Matriz
  • 6.7 Inversão de Matrizes
  • 6.7.1 Definições e Resultados
  • 6.7.2 Determinação da Inversa de uma Matriz Regular
  • 6.8 A Característica Revisitada
  • 6.9 Resolução de Sistemas de Equações Lineares
  • 6.9.1 Enquadramento Teórico
  • 6.9.2 Sistemas de Equações Lineares Indeterminados
  • 6.9.3 Algoritmo de Gauss-Jordan
  • 6.10 Matrizes com propriedades especiais

Álgebra Linear

Índice
Lógica e Demonstração 3
1 Demonstração Directa 3
2 Recíproco e Contrapositivo 3
3 Demonstração Indirecta ou por Redução ao Absurdo 4
4 Demonstração por Indução Matemática 5
Matrizes e Determinantes 7
5 Nota Histórica 7
6 Teoria das Matrizes 15
6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18
6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20
6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22
6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27
6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30
6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5 Dependência e independência lineares de filas paralelas de uma
matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.6 Característica de uma matriz. Operações elementares. . . . . . . 41
6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42
6.6.2 Determinação da Característica de Linha de uma Matriz . 51
6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56
6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66
6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70
6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74
6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74
6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87
6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97
6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98
2
2 Recíproco e Contrapositivo
Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática ex-
istentes, e cuja aplicação será assídua ao longo de todo o texto.
1 Demonstração Directa
O modo directo de demonstrar a proposição A ⇒ B consiste em determnar
uma sequência de teoremas e/ou axiomas aceites na forma A
i
⇒ A
i+1
, para
i = 1, · · · , n de modo a que A
1
⇒A e A
n
⇒B. A dificuladade está, obviamente,
em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre
A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a
afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito
denomina-se raciocínio dedutivo.
Consideremos o seguinte Teorema ilustrativo:
Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m×p é um
inteiro par.
Demonstração.
1. m é um inteiro par (Dado, por hipótese).
2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro
par).
3. m×p = (2q) p (Utilizando o axioma a = b ⇒ac = bc).
4. m×p = 2 (qp) (Pela propriedade associativa da multiplicação).
5. m×p é um inteiro (Pela definição de um número inteiro par).
2 Recíproco e Contrapositivo
Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A
se verifica então a tese, B, também se verifica. O recíproco da proposição Π é
a proposição B ⇒A.
3
3 Demonstração Indirecta ou por Redução ao Absurdo
O recíproco de uma proposição Π consiste em inverter os papéis da hipótese
e da tese de Π. Há muitas situações em que o recíproco e uma proposição ver-
dadeira não é verdadeiro. Por exemplo, a proposição a = b ⇒ac = bc, ∀
a,b,c∈R
é
sempre verdadeira, mas ac = bc ⇒ a = b não é verdadeira para quaisquer
a, b, c ∈ R; basta, evidentemente, que c = 0. Outras situações há, no entanto,
em que uma proposição e o seu recíproco são ambas verdadeiras.
Definição 2 Se a proposição A ⇒ B e o seu recíproco, B ⇒ A, são ambos
verdadeiros diz-se que A se verifica se e só se B se verifica. Alternativamente,
diz-se que A e B são equivalentes e escreve-se A ⇐⇒B.
Existe uma proposição, formada a partir de qualquer proposição Π, que é
verdadeira sempre que Π é verdadeira: o contrapositivo de Π.
Definição 3 Considere-se uma proposição Π : A =⇒B. A proposição ∼ B =⇒∼
A designa-se por contrapositivo de Π.
Exemplo 1 Considere-se a seguinte proposição:
(A) n é um número primo diferente de 2.=⇒(B) n é um inteiro ímpar.
O contrapositivo desta proposição será dado por:
(∼ B) n é um inteiro par.=⇒(A) n não é um número primo ou n = 2.
3 Demonstração Indirecta ou por Redução ao
Absurdo
Consideremos o seguinte resultado:
Proposição 1 A proposição A =⇒B é verdadeira se e só se o seu contraposi-
tivo é verdadeiro.
Demonstração. Com recurso a uma tabela de verdade é extremamente
simples provar que (A =⇒B) ⇐⇒(∼ B =⇒∼ A):
A B A =⇒B ∼ B ∼ A ∼ B =⇒∼ A
V V V V V V
F V V F V V
V F F V F F
F F V F F V
Note-se as colunas relativas a (A =⇒B) e (∼ B =⇒∼ A) o que completa a
demonstração.
4
4 Demonstração por Indução Matemática
Assim, uma forma de mostrar a validade de uma proposição A =⇒ B é
mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Esta linha de raciocínio
designa-se por demonstração indirecta ou demonstração por redução ao absurdo.
Com efeito, se, partindo de ∼ B, provarmos directamente que ∼ A é verdadeira,
o absurdo reside no facto de, originalmente, assumirmos que a afirmação A é
verdadeira.
Conideremos o seguinte Teorema ilustrativo.
Teorema 2 Se p é um número natural e p
2
é par, então p é par.
Demonstração. Pretende-se mostrar
¡
p
2
é par
¢
⇒ (p é par), para qual-
quer p ∈ N.
Suponhamos então que existe um natural p tal que p é ímpar. Então ∃
q∈N
:
p = 2q +1. Assim, p
2
= (2q + 1)
2
. Desenvolvendo, virá (2q + 1)
2
= 4q
2
+4q +1,
isto é, p
2
= 4
¡
q
2
+q
¢
+ 1. Mas então p
2
é um número ímpar, o que é absurdo,
pois a hipótese original era a de que p
2
era par. O absurdo vem de se assumir
que p é par, logo p terá de ser ímpar.
4 Demonstração por Indução Matemática
Existe um terceiro método de demonstração que difere significativamente do
método por demonstração directa e do método de transformação por indução:
a demonstração por indução matemática.
As demonstrações por indução têm a limitação de só poderem ser aplicadas a
afirmações envolvendo os números inteiros ou, indexadas aos números inteiros.
Consideremos então uma sequência de afirmações indexadas aos números in-
teiros, de modo que Π(1) é a primeira afirmação, Π(2) é a segunda afirmação
e Π(n) é a n − ´ esima afirmação. Suponhamos que é possível demonstrar dois
factos àcerca desta sequência:
(i) A afirmação Π(1) é verdadeira.
(ii) Se, para algum k ∈ N, a afirmação Π(k) é verdadeira então a afirmação
Π(k + 1) também é verdadeira.
Nestas circunstâncias a afirmação Π(n) é verdadeira para qualquer n ∈ N.
Conideremos o seguinte Teorema ilustrativo.
Teorema 3 A soma dos primeiros n números naturais, 1 +2 +· · · +n, é igual
a
1
2
n(n + 1).
5
4 Demonstração por Indução Matemática
Demonstração. Procedamos à demonstração por Indução Matemática,
sabendo que a afirmação a demonstrar é dada por:
Π(n) = 1 + 2 + · · · +n =
1
2
n(n + 1)
(i) Consideremos n = 1. Neste caso, a soma dos primeiros naturais será 1,
que é precisamente igual a
1
2
× 1 × (1 + 1).
(ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Mostemos
que então deverá ser válida para k+1. Assumindo que Π(k) é verdadeira,
sabemos que:
Π(k) = 1 + 2 + · · · +k =
1
2
k (k + 1)
Queremos mostrar que:
Π(k + 1) = 1 + 2 + · · · + (k + 1) =
1
2
(k + 1) (k + 2)
Mas,
Π(k + 1) = (1 + 2 + · · · +k)
| {z }
Π(k)
+ (k + 1) =
=
1
2
k (k + 1) + (k + 1) =
=
µ
1
2
k + 1

(k + 1) =
=
µ
k + 2
2

(k + 1) =
=
1
2
(k + 2) (k + 1)
Logo, Π(n) é válida para qualquer n ∈ N.
6
5 Nota Histórica
Matrizes e Determinantes
5 Nota Histórica
Historicamente, os primeiros esboços de matrizes e determinantes remontam ao
segundo século a. C. embora existam traços da sua existência em épocas tão
distantes quanto o séc. IV a. C. No entanto, não foi senão nos finais do séc.
XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu.
Não é surpreendente que os primórdios das matrizes e determinantes ten-
ham surgido através do estudo de sistemas de equações lineares. Os Babilónios
estudaram problemas que levaram à resolução simultânea de equações lineares.
Alguns destes problemas sobreviveram até hoje preservados em placas de argila.
Por exemplo, uma placa datada de cerca de 300 a. C. contém o seguinte prob-
lema:
Existem dois campos com uma área total de 1800 m
2
. Um produz
grão à taxa de
2
3
de alqueire por m
2
enquanto o outro produz grão à
taxa de
1
2
de alqueire por m
2
. Se a colheita total é de 1100 alqueires
qual é a área de cada campo.
Este problema conduz, modernamente, à resolução do sistema de equações
(1) ilustrado em seguida:
½
x +y = 1800
2
3
x +
1
2
y = 1100
(1)
Os Chineses, no período entre 200 a. C. e 100 a. C., chegaram mais próximo
da noção de matriz que os Babilónios. Efectivamente, é justo referir que o
texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da
dinastia Han (206 a. C.-220 d. C.) ilustra os primeiros exemplos conhecidos de
métodos matriciais, descrevendo principalmente um conjunto de problemas com
regras gerais para a sua solução. Estes problemas têm um carácter aritmético e
conduzem a equações algébricas com coeficientes numéricos. A título ilustrativo
considere-se um desses problemas:
Existem três tipos de milho. Três molhos do primeiro tipo, dois do
segundo e um do terceiro completam 39 medidas. Dois molhos do
primeiro tipo, três do segundo e um do terceiro prefazem 34 medi-
das. Finalmente, um molho do primeiro tipo, dois do segundo e três
do terceiro prefazem 26 medidas. Quantas medidas de milho estão
contidas num molho de cada tipo?
Modernamente, o sistema de equações lineares (2) permite resolver o prob-
lema em aberto.
7
5 Nota Histórica

3x + 2y +z = 39
2x + 3y +z = 34
x + 2y + 3z = 26
(2)
O autor do texto propôs um método de resolução notável: os coeficientes
das três equações a três incógnitas que compõem o sistema são dispostos como
uma tabela num ”quadro de contagem”:
1 2 3
2 3 2
3 1 1
26 34 39
Os métodos modernos dos finais do séc. XX levariam a dispor os coefi-
cientes das equações lineares em linhas, em vez de colunas, mas intrinsecamente
o método é idêntico.
Seguidamente, o autor, escrevendo em 200 a. C. instrui o leitor a multiplicar
a coluna central por 3 e subtrair a coluna da direita, tantas vezes quanto possível;
de modo semelhante, subtrai-se a coluna da direita, tantas vezes quanto possível,
da primeira coluna multiplicada por 3. Destas operações ,resulta o quadro:
0 0 3
4 5 2
8 1 1
39 24 39
Seguidamente, a coluna da esquerda é multiplicada 5 vezes e a coluna central
subtraída tantas vezes quanto possível, resultando no quadro:
0 0 3
0 5 2
36 1 1
99 24 39
Desta tabela é possível determinar, em primeiro lugar, a solução relativa-
mente ao terceiro tipo de milho, seguida do segundo e finalmente do primeiro
tipo. Este método é hoje em dia conhecido como o Método de Eliminação de
Gauss, discutido no âmbito da resolução de sistemas de equações lineares, tema
abordado na secção 6.9, que só virá a ser bem compreendido no início do séc.
XIX.
O matemático italiano Cardan, na sua obra ”Ars Magna”(1545), fornece
uma regra para resolver sistemas de 2 equações lineares, a que dá o nome de
regula de modo. Esta regra é, substantivamente, o que modernamente se designa
por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2
incógnitas, embora Cardan não tenha dado o passo decisivo e final na definição
8
5 Nota Histórica
da regra. Assim, Cardan não chega até á definição de determinante, mas, numa
perpectiva actual é possível concluir que o seu método leva efectivamente à
definição de determinante.
Muitos dos resultados associados à Teoria Elementar das Matrizes aparece-
ram antes das Matrizes serem objecto de investigação matemática. Por exemplo,
de Witt, na sua obra ”Elementos das Curvas”, publicado como parte dos co-
mentários à edição latina de 1660 da ”Geometria” de Descartes, mostra como
uma transformação dos eixos ordenados reduz a equação de uma cónica à forma
canónica. O processo consiste, modernamente, na diagonalização de uma matriz
simétrica, mas de Witt nunca raciocinou nestes termos.
A ideia de um conceito de determinante surge mais ou menos simultanea-
mente na Europa e no Japão no último quartel do séc. XVII, embora Seki, no
Japão, tenha publicado em primeiro lugar. Em 1683, Seki escreve o ”Método
para Resolver Problemas Dissimulados”, que contém métodos matriciais de-
scritos em tabelas, de forma em tudo idêntica à descrita nos métodos chineses,
acima abordados. Embora sem conter nenhuma palavra que corresponda ao
conceito ”determinante”, Seki mesmo assim introduz a noção e fornece méto-
dos gerais que permitem o seu cálculo, basados em exemplos. Utilizando os seus
”determinantes”, Seki conseguiu calcular determinantes de ordem 2, 3, 4 e 5
e aplicou-os à resolução, não de sistemas de equações lineares, mas de equaçõe
lineares.
De modo extraordinário, o primeiro aparecimento de um determinante na
Europa, ocorreu no exacto ano de 1683. Nesse ano, Leibniz escreveu a de
l’Hôpital explicando-lhe que o sistema de equações dado por:

10 + 11x + 12y = 0
20 + 21x + 22y = 0
30 + 31x + 32y = 0
... tinha solução porque
10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30
Esta igualdade é precisamente a condição que determina que a solvabilidade
de um sistema de equações requer que o determinante da matriz dos coeficientes
seja nulo. note-se que Leibniz não utiliza coeficientes numéricos mas dois sím-
bolos, em que o primeiro indica a equação em que ocorre e o segundo a que letra
pertence. Assim, ”21” denota o que modernamente escreveríamos como a
21
.
Leibniz estava convencido que a notação matemática era a chave para o pro-
gresso, tendo experimentado com várias notações para o sistema de coefcientes.
Os seus manuscritos não publicados contêm mais de cinquenta formas de repre-
sentar sistemas de coeficientes, sobre as quais trabalhou por um período de 50
9
5 Nota Histórica
anos, com início em 1678. Apenas duas publicações, em 1700 e 1710, contêm
resultados sobre sistemas de coeficientes, cuja notação é a mesma da utilizada
na carta a de l’Hôpital acima mencionada.
Leibniz utilizou o termo ”resultante” para certas somas combinatórias de
termos de um determinante. Demonstrou vários resultados sobre ”resultantes”,
incluindo o que é actualmente conhecido como a Regra de Cramer. Leibniz tam-
bém sabia que um determinante podia ser desenvolvido utilizando uma qualquer
coluna do sistema de coeficientes, no que é conhecido actualmente como o De-
senvolvimento de Laplace. Assim como o estudo de sistemas de coeficientes
de equações lineares levaram Leibniz na rota dos determinantes, o estudo de
sistemas de coeficientes de formas quadráticas resultou naturalmente num de-
senvolvimento no sentido de uma Teoria das Matrizes.
Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”, embora
não tenha sido publicado até 1748, dois anos após a sua morte. A obre contém
os primeiros resultados sobre determinantes, demonstrando a Regra de Cramer
para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes
de ordem 4.
Cramer forneceu a regra geral, que hoje aporta o seu nome, para a resolução
de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de
Curvas Algébricas”, publicado em 1750. O artigo foi motivado pelo desejo de
determinar a equação de uma curva plana que passasse por um certo número de
pontos. A regra propriamente dita surge como apêndice ao artigo, mas não é
fornecida qualquer demonstração. O seu enunciado, segundo o próprio Cramer,
é como se segue:
O valor de cada incógnita é determinado por um conjunto de n quo-
cientes, cujo denominador comum é composto de tantas parcelas
quantas as permutações de n ”coisas”.
Cramer prossegue, explicando precisamente como estas parcelas são calcu-
ladas, assim como os respectivos sinais (”+” ou ”-”). São efectivamente produ-
tos de certos coeficientes das equações. Refere ainda que os n numradores das
fracções podem ser determinados substituindo certos coeficientes neste cálculo
por termos constantes do sistema de equações.
O trabalho sobre determinantes começava agora a emergir com certa reg-
ularidade. Em 1764, Bézout forneceu métodos para calcular determinantes,
assim como Vandermonde em 1771. Em 1772, Laplace afirmou que os méto-
dos introduzidos por Cramer e Bézout eram impraticáveis. Num artigo onde
estuda as órbitas dos planetas interiores, Laplace discute a solução de sistemas
de equações lineares sem efectivamente os calcular, utilizando determinantes.
Surpreendentemente, Laplace utilizou o termo ”resultante” para referir o que
modernamente se designa por determinante; surpreendente, uma vez que é o
mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse es-
tado a par do trabalho de Leibniz. Laplace propôs ainda o desenvolvimento de
um determinante, método que aporta hoje em dia o seu nome.
10
5 Nota Histórica
Num artigo de 1773, Lagrange estudou identidades para determinantes fun-
cionais de ordem 3. No entanto, este comentário é feito a posteriori, uma vez
que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde
e Laplace. Este artigo de 1773, sobre Mecânica, contém pela primeira vez o que
hoje é a interpretação volumétrica de um determinante. Efectivamente, La-
grange demonstrou que o tetraedro formado pelos pontos O(0, 0, 0), M (x, y, z),
M
0
(x
0
, y
0
, z
0
) e M
00
(x
00
, y
00
, z
00
) tem volume dado por
1
6
[z (x
0
y
00
−y
0
x
00
) +z
0
(yx
00
−xy
00
) +z
00
(xy
0
−yx
0
)]
que é precisamente igual a
1
6
do determinante da matriz

x x
0
x
00
y y
0
y
00
z z
0
z
00
¸
¸
O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disqui-
sitiones Arithmeticae” de 1801, no decurso da discussão sobre formas quadráti-
cas. Gauss utilizou este termo porque o determinante determina as propiedades
de uma forma quadrática. No entanto, o conceito não é o mesmo que o con-
ceito moderno de determinante. Na mesma obra, Gauss dispõe os coeficientes
das suas formas quadráticas em tabelas rectangulares. Gauss descreve a mul-
tiplicação de matrizes, mas em termos de uma composição, pelo que ainda não
vislumbrava o conceito de uma Ágebra Matricial. Descreve ainda a inversão de
matrizes no contexto particular de matrizes de coeficientes relativas a formas
quadráticas.
O Método de Eliminação de Gauss, cuja aparição remonta ao texto ”Nove
Capítulos da Arte Matemática” em 200 a. C., foi utilizado por Gauss no seu
trabalho envolvendo o estudo da órbita do asteróide Pallas. Utilizando obser-
vações de Pallas feitas entre 1803 e 1809, Gauss obteve um sistema de 6 equações
lineares a 6 incógnitas. Gauss propôs um método sistemático para a resolução
de tais equações, precisamente o Método de Eliminação de Gauss sobre a matriz
dos coeficientes.
Foi Cauchy, em 1812, que usou o termo ”determinante” no seu sentido ac-
tual. O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos
sobre determinantes. Reprovou os primeiros resultados e forneceu novos resul-
tados por si descobertos sobre menores complementares e matrizes adjuntas.
No seu artigo de 1812, apresentado numa conferência no Institut de France,
o teorema da multiplicação de determinantes é demonstrado pela primeira vez
embora na mesma conferência, Binet tenha apresentado um artigo contendo
uma demonstração do mesmo teorema mas menos satisfatória que a prova de
Cauchy.
Em 1826 e no contexto das formas quadráticas em n variáveis, Cauchy uti-
lizou o termo ”tableau” para a matriz de coeficientes. Descobriu os seus valores
11
5 Nota Histórica
próprios e forneceu resultados sobre a diagonalização de uma matriz, no pro-
cesso que envolvia a transformação de uma forma quadrática numa soma de
quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não
o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma
equação característica. Ainda no contexto das formas quadráticas, mostrou que
qualquer matriz real simétrica é diagonalizável.
Jacques Sturm forneceu uma generalização do problema dos valores próprios
no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com
efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos
sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura,
d’Alembert estudava o movimento de uma corda com massas associadas em
vários pontos do seu comprimento.
Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do
alcance e generalidade das ideias que introduziram, considerando-as apenas no
contexto específico das suas áreas de investigação. Jacobi, na década de 1830
e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respec-
tivamente, também desenvolveram resultados sobre matrizes mas, de novo, no
contexto específico das transformações lineares. Jacobi publicou três tratados
sobre determinantes em 1841. Estes foram importantes na medida em que a
definição de determinante é introduzida de forma algorítmica. Para além disso,
Jacobi não especifica quais os termos dos determinantes, pelo que os resultados
se aplicam tão bem a casos onde os termos são números ou funções. Estes três
artigo de Jacobi tornaram a idieia de determinante largamente conhecida
Cayley, também escrevendo em 1841, publicou a primeira contribuição in-
glesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas
verticais limitando uma matriz, para denotar o seu determinante, notação esta
que permaneceu até aos nossos dias.
Eisenstein, em 1844, denotou substituições lineares por uma letra única e
mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no
que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro
a pensar que as substituições lineares poderiam formar uma álgebra, como se
pode induzir de um seu artigo publicado em 1844:
Um algoritmo para o seu cálculo pode ser baseado na aplicação das
regras normais para as operações soma, multiplicação, divisão e ex-
ponenciação a equações simbólicas entre sistemas lineares. Obtêm-se
deste modo equações simbólicas correctas, apenas ressalvando que a
ordem dos factores não pode ser alterada.
O primeiro a uilizar o termo ”matriz” foi Sylvester em 1850. Sylvester
definiu uma matriz como sendo um arranjo rectangular de termos no qual se
podiam definir vários determinantes sobre arranjos de termos contidos no ar-
ranjo global. Após ter deixado a América de regresso a Inglaterra em 1851,
Sylvester tornou-se advogado e conheceu Cayley, também advogada e que par-
tilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu
12
5 Nota Histórica
imediatamente o significado do conceito e matriz e, em 1853 publicaria uma
nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz.
Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”,
o qual constitu um texto notável por conter a primeira definição abstracta de
matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados
relativos a formas quadráticase transformações lineares são casos especiais de
um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra
Matricial onde define a adição, multiplicação, multiplicação por um escalar e
inversão. Adicionalmente, propõe uma construção explícita para a forma da
inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley
mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua
equação característica. Refere que verificou o resultado para matrizes de ordem
3, propondo uma demonstração mas:
[...] não me parece necessário empreender numa demonstração for-
mal para o caso geral de matrizes de qualquer ordem [...]
O importante resultado de que uma matriz satisfaz a sua equação caracterís-
tica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o
pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para
matrizes de ordem 4, no decurso das suas investigações sobre quaterniões.
Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições
e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de
uma forma canónica para substituições lineares sobre o corpo finito de ordem
primo.
Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre
Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do
trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e
não utiliza o termo ”matriz”. No entanto, demonstra resultados importantes
sobre matrizes canónicas como representantes de classes de equivalência de ma-
trizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais
dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demon-
strou o resultado geral de que uma matriz satisfaz a sua equação característica.
Este artigo de Frobenius de 1878 também encerra a definição de característica
de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas
e na definição de matrizes ortogonais.
A nulidade de uma matriz quadrada foi definida por Sylvester em 1884.
Sylvester definiu a nulidade da matriz A, denotada por n(A), como sendo o
maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo.
Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que
não são alteradas por certas transformações. Sylvester demonstrou que:
m´ ax{n(A), n(B)} ≤ n(AB) ≤ n(A) +n(B)
Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teo-
ria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo
13
5 Nota Histórica
”matriz”. Embora Cayley tenha apenas demonstrado o Teorema de Cayley-
Hamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o re-
sultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema
no caso geral.
Uma definição axiomática de determinante foi utilizada por Weierstrass nas
suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teo-
ria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre deter-
minantes também foram publicadas, de novo, postumamente. Com estas duas
publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou
um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabele-
cesse como uma teoria totalmente aceite. Um importante texto, que deu às
matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra
Superior” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos
influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear”
de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para
se manter até hoje como um dos mais importantes temas das licenciaturas em
Matemática.
14
6 Teoria das Matrizes
6 Teoria das Matrizes
6.1 Definições e Generalidades
Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos;
designa-se por matriz sobre K (cujos elementos se designam por escalares) a
todo o quadro de elementos de K dispostos em m linhas e n colunas.
Nota 1 K, em particular, pode ser o conjunto dos números reais, R. Neste
caso, as matrizes dizem-se reais.
Para designar genericamente uma matriz utilizam-se as seguintes notações:
A =

a
11
a
12
· · · a
1,n−1
a
1n
a
21
a
22
· · · a
2,n−1
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
· · · a
m,n−1
a
mn
¸
¸
¸
¸
¸
= [a
ij
] ,

a
ij
∈ K
i = 1, ..., m
j = 1, ..., n
(3)
Nestas notações, o primeiro índice (i) do elemento genérico a
ij
indica a
linha e o segundo (j) a coluna em que se encontra o elemento de K. Por
exemplo, a
23
é o elemento da matriz que se encontra na linha 2 e na coluna
3. A matriz denotada acima mostra que, em geral, é costume designar-se uma
matriz por uma letra maiúscula (quando não houver necessidade de especificar
os seus elementos) e os elementos pela correspondente letra minúscula afectada
pelos índices convenientes. Em algumas circunstâncias é por vezes conveniente
representar o elemento (i, j) por (A)
ij
.
Definição 5 Designa-se por M
m×n
(K) o conjunto de todas as matrizes do tipo
m×n (e lê-se ”éme-por-éne”) sobre o corpo K.
As matrizes do conjunto M
m×n
(K) podem ser classificadas quanto à forma
em matrizes rectangulares ou matrizes quadradas. Relativamente às matrizes
rectangulares destacam-se alguns tipos como ilustrado na Tab. 1.
Relativamente às matrizes quadradas, estas constituem um importante caso
particular que se caracteriza pelo número de linhas (m) ser igual ao número de
colunas (n). No caso das matrizes quadradas do tipo n ×n , a sua dimensão é
definida como ordem, designando-se a matriz como matriz de ordem n. Dentro
desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab.
2.
Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem
n a uma matriz A do tipo n ×n. O conjunto das matrizes quadradas de ordem
n sobre um corpo K designa-se por M
n
(K).
15
6 Teoria das Matrizes
Matrizes Rectangulares (m 6= n)
Designação Forma Geral
Matriz Linha
ou
Vector Linha
(m = 1)
£
a
11
a
12
· · · a
1n
¤
Matriz Coluna
ou
Vector Coluna
(n = 1)

a
11
a
21
.
.
.
a
m1
¸
¸
¸
¸
¸
ou
{a
11
, a
21
, · · · , a
m1
}
Tabela 1: Principais tipos de Matrizes Rectangulares
Matrizes Quadradas (m = n)
Designação Forma Geral
Matriz Triangular Superior
(i > j =⇒a
ij
= 0)

a
11
a
12
· · · a
1n
0 a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
¸
¸
¸
¸
¸
Matriz Triangular Inferior
(i < j =⇒a
ij
= 0)

a
11
0 · · · 0
a
21
a
22
· · · 0
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn
¸
¸
¸
¸
¸
Matriz Diagonal
(a
ij
= 0; i 6= j)

a
11
0 · · · 0
0 a
22
· · · 0
.
.
.
.
.
.
.
.
.
0 0 · · · a
nn
¸
¸
¸
¸
¸
ou
diag {a
11
, a
22
, · · · , a
nn
}
Matriz Escalar
É uma matriz diagonal em que
a
ij
= 0, i 6= j; a
ij
= a ∈ K, i = j
diag {a, a, · · · , a}
Matriz Identidade
É a matriz escalar em que
a
ij
= 0, i 6= j; a
ij
= 1 ∈ K, i = j
diag {1, 1, · · · , 1}
Representa-se por I
n
(ou apenas I)
m = n = 1
Neste caso identifica-se a matriz
[a] com o próprio escalar a ∈ R
Tabela 2: Principais tipos de Matrizes Quadradas
16
6 Teoria das Matrizes
Uma matriz diagonal pode tanbém ser entendida como uma matriz simul-
taneamente triangular superior e triangular inferior.
Definição 7 (Elementos homólogos) Dadas as matrizes A=[a
ij
] e B = [b
ij
]
do mesmo tipo m×n sobre um corpo K, designam-se por elementos homólogos
aos elementos com os mesmos índices, isto é, àqueles elementos que estão nas
mesmas linha e coluna. Por exemplo, a
36
e b
36
são elementos homólogos.
Definição 8 (Matrizes iguais) Dadas duas matrizes A = [a
ij
] e B = [b
ij
]
do mesmo tipo m×n sobre um corpo K, estas dizem-se iguais se os elementos
homólogos forem iguais. Denota-se simbolicamente essa igualdade por A = B.
Definição 9 (Diagonal) Seja a matriz A = [a
ij
] ∈ M
m×n
(K). Designa-se
por diagonal principal da matriz A aos elementos
©
a
11
, a
22
, · · · , a
min(m,n),min(m,n)
ª
(que se designam por elementos principais da matriz).
Se A = [a
ij
] ∈ M
n
(K) a diagonal principal da matriz A será dada por
{a
11
, a
22
, · · · , a
nn
} e é possível definir a diagonal secundária dada pelos ele-
mentos {a
1n
, a
2,n−1
, · · · , a
n1
}.
Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se
consideram matrizes quadradas.
Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respecti-
vas diagonais:

3 0 1 3 1
-1 2 0 -1 1
0 -2 -3 1 1
¸
¸
¸. Diagonal Principal: {3, 2, −3}. Diagonal Se-
cundária: não tem.

3 0
-1 2
0 -2
¸
¸
. Diagonal Principal: {3, 2}. Diagonal Secundária: não tem.

3 0 1
-1 2 0
0 -2 -3
¸
¸
¸. Diagonal Principal: {3, 2, −3}. Diagonal Secundária:
{1, 2, 0}.
17
6 Teoria das Matrizes
Definição 10 (Matriz nula) Designa-se por matriz nula do tipo M
m×n
(K)
à matriz A = [a
ij
] tal que a
ij
= 0, ∀
(i,j)∈{1,...,m}×{1,...,n}
. Neste caso, denota-se
A por 0
m×n
ou simplesmente por 0 se a ordem estiver subentendida e não hou-
ver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo
K).
Definição 11 (Matriz identidade) Designa-se por matriz identidade de or-
dem n à matriz escalar A = [a
ij
] ∈ M
n
(K), tal que a
ii
= 1 (onde ”1” é
o elemento neutro para a multiplicação no corpo K). Neste caso, denota-se A
por I
n
ou simplesmente por I se a ordem estiver subentendida e não hou- ver
ambiguidade.
6.2 Álgebra Matricial
Discutem-se nesta secção as principais operações com matrizes: adição de ma-
trizes, multiplicação de uma matriz por um escalar e multiplicação de matrizes.
6.2.1 Soma de matrizes.
Definição 12 Sejam A = [a
ij
] , B = [b
ij
] ∈ M
m×n
(K). Define-se soma A+B
à matriz C = [c
ij
], tal que c
ij
= a
ij
+b
ij
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Nota 3 Se as matrizes A e B não forem do mesmo tipo, isto é, se não tiverem
as mesmas dimensões e/ou o corpo subjacente não for igual, não é possível
determinar A+B, pelo que a soma de A com B diz-se indefinida.
Proposição 2 O conjunto M
m×n
(K) munido da adição definida na Definição
12 constitui um grupo abeliano (ou comutativo):
1. ∀
A,B∈Mm×n(K)
, ∃
C∈Mm×n(K)
: C = A + B. Esta é a propriedade mais
simples das estruturas algébricas. Ao verificar esta propriedade diz-se
que o conjunto M
m×n
(K) é um grupóide. Alternativamente, diz-se que
M
m×n
(K) é fechado para a adição.
2. ∀
A,B,C∈M
m×n
(K)
, A + (B +C) = (A+B) + C. Propriedade associativa
para a adição de matrizes.
3. ∀
A,B∈Mm×n(K)
, A+B = B +A. Propriedade comutativa para a adição de
matrizes.
4. ∀
A∈M
m×n
(K)
, ∃
B∈M
m×n
(K)
: A + B = A. A matriz Bdesigna-se por ele-
mento neutro para a adição de matrizes e representa-se, como já veri-
ficámos, por 0, ou por 0
m×n
.
18
6 Teoria das Matrizes
5. ∀
A∈Mm×n(K)
, ∃
B∈Mm×n(K)
: A+B = 0. A matriz Bdesigna-se por simé-
trico da matriz A para a adição de matrizes e representa-se por −A.
Diz-se ainda que todos os elementos A ∈ M
m×n
(K) são regulares.
Demonstração.
1. Como A, B ∈ M
m×n
(K), A+B ∈ M
m×n
(K). Adicionalmente
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
Como a
ij
, b
ij
∈ K então K é fechado para a adição, isto é a
ij
+b
ij
∈ K e
portanto [a
ij
+b
ij
] ∈ M
m×n
(K).
2. Como A, B, C ∈ M
m×n
(K) então A + (B +C) e (A+B) + C estão
definidas. Adicionalmente
{A+ (B +C)}
ij
= [a
ij
] + [b
ij
+c
ij
]
= [a
ij
+ (b
ij
+c
ij
)]
(porque a adição é associativa em K)
= [(a
ij
+b
ij
) +c
ij
]
= [a
ij
+b
ij
] + [c
ij
]
= {(A+B) +C}
ij
3. Como A, B ∈ M
m×n
(K) então A+B e B+A estão definidas. Adicional-
mente
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
(porque a adição é comutativa em K)
= [b
ij
+a
ij
]
= [b
ij
] + [a
ij
]
= (B +A)
ij
4. Seja A ∈ M
m×n
(K) e B = 0
m×n
∈ M
m×n
(K). Então:
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+ 0]
(porque 0 é o elemento neutro da adição em K)
= [a
ij
]
= (A)
ij
19
6 Teoria das Matrizes
5. Seja A = [a
ij
] ∈ M
m×n
(K) e B = [b
ij
] ∈ M
m×n
(K) tal que b
ij
=
−a
ij
, i = 1, ..., m; j = 1, ..., n. Então:
(A+B)
ij
= [a
ij
] + [b
ij
]
= [a
ij
+b
ij
]
= [a
ij
+ (−a
ij
)]
(porque ∀
a∈K
, ∃
b∈K
: a +b = 0 e b = −a)
= [0]
= (0)
ij
Exemplo 3 Considerem-se os seguintes casos:

·
1 2
3 4
¸
+
·
5 6
7 8
¸
=
·
1+5 2+6
3+7 4+8
¸
=
·
6 8
10 12
¸

·
1
2
¸
+
·
3
4
¸
=
·
1+3
2+4
¸
=
·
4
6
¸

£
3 4
¤
+
£
1 2
¤
=
£
3+1 4+2
¤
=
£
4 6
¤
6.2.2 Multiplicação de uma matriz por um escalar.
Definição 13 Seja A = [a
ij
] ∈ M
m×n
(K) e λ ∈ K um escalar. Define-se o
produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [b
ij
] ∈ M
m×n
(K)
tal que b
ij
= λa
ij
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Proposição 3 Sejam A, B ∈ M
m×n
(K) e λ, µ ∈ K. As seguintes propriedades
são verificadas:
1. λ(A+B) = λA+λB
2. (λ +µ) A = λA+µA
3. λ(µA) = (λµ) A
4. 1 · A = A. O escalar 1 designa-se por unidade ou elemento neutro do
corpo K.
Demonstração.
20
6 Teoria das Matrizes
1.
(λ(A+B))
ij
= λ[(a
ij
+b
ij
)]
= [λ(a
ij
+b
ij
)]
= [λa
ij
+λb
ij
]
= [λa
ij
] + [λb
ij
]
= λ[a
ij
] +λ[b
ij
]
= (λA)
ij
+ (λB)
ij
2.
(λ +µ) (A)
ij
= (λ +µ) [a
ij
]
= [(λ +µ) a
ij
]
= [λa
ij
+µa
ij
]
= [λa
ij
] + [µa
ij
]
= λ[a
ij
] +µ[a
ij
]
= (λA)
ij
+ (µA)
ij
3.
(λ(µA))
ij
= λ(µ[a
ij
])
= λ[µa
ij
]
= [(λµ) a
ij
]
= (λµ) [a
ij
]
= ((λµ) A)
ij
4.
(1(A))
ij
= 1· [a
ij
]
= [1·a
ij
]
= [a
ij
]
= (A)
ij
Exemplo 4 Considerem-se os seguintes casos:
• 3 ×
·
1 2
3 4
¸
=
·
3 × 1 3 × 2
3 × 3 3 × 4
¸
=
·
3 6
9 12
¸
21
6 Teoria das Matrizes


2 ×
·
1
2
¸
=
· √
2 × 1

2 × 2
¸
=
· √
2
2

2
¸

1
2
×
£
3 4
¤
=
£
1
2
× 3
1
2
× 4
¤
=
£
3
2
2
¤
Proposição 4 O conjunto M
m×n
(K) munido da adição definida na Definição
12 e da multiplicação por um escalar definida na Definição 13 é um espaço
vectorial sobre o corpo K de dimensão m· n.
Adiante se estudarão mais aprofundadamente os espaços vectoriais.
6.2.3 Multiplicação de matrizes.
Definição 14 Sejam A ∈ M
m×p
(K) e B ∈ M
p×n
(K). A matriz produto de A
por B, que se denota AB (ou A· B), é dada pela matriz C = [c
rs
] ∈ M
m×n
(K)
tal que c
rs
=
P
p
i=1
a
ri
· b
is
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Note-se que a matriz A, que multiplica à esquerda, tem tantas colunas quan-
tas as linhas de B. O elemento c
rs
obtém-se multiplicando os elementos da linha
r de A pelos elementos da coluna s de B, pela mesma ordem, e somando os pro-
dutos obtidos. Em nenhuma outra circunstância é possível multiplicar duas
matrizes. De um modo geral, dadas duas matrizes A e B de dimensões, respec-
tivamente m × n e p × q, os produtos C = AB e D = BA são possíveis nas
seguintes circunstâncias:
Produto Possível se ... Resultado
A
(m×n)
× B
(p×q)
n = p C
(m×q)
B
(p×q)
× A
(m×n)
q = m D
(p×n)
Exemplo 5 Considerem-se as seguinte matrizes reais:
A =

−2 3 −3
3 5 3
3 5 −5
¸
¸
B =

2 0
−2 1
−1 −3
¸
¸
C =
·
3 −5 5
−5 −4 −1
¸
D =
£
−3 5 −3
¤
Os produtos possíveis são AB, BC, CA, CB, DA e DB. A título exempli-
ficativo, ter-se-á:
22
6 Teoria das Matrizes
AB =

−2 3 −3
3 5 3
3 5 −5
¸
¸

2 0
−2 1
−1 −3
¸
¸
=

(−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)
3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3)
3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)
¸
¸
=

−7 12
−7 −4
1 20
¸
¸
Exemplo 6 Considerem-se os seguintes casos:

·
1 2
3 4
¸ ·
5 6
7 8
¸
=
·
1 × 5 + 2 × 7 1 × 6 + 2 × 8
3 × 5 + 4 × 7 3 × 6 + 4 × 8
¸
=
·
19 22
43 50
¸

·
5 6
7 8
¸ ·
1 2
3 4
¸
=
·
5 × 1 + 6 × 3 5 × 2 + 6 × 4
7 × 1 + 8 × 4 7 × 2 + 8 × 4
¸
=
·
23 34
41 46
¸

·
1
2
¸
£
3 4
¤
=
·
1 × 3 1 × 4
2 × 3 2 × 4
¸
=
·
3 4
6 8
¸

£
3 4
¤
·
1
2
¸
= [3 × 1 + 4 × 2]
= [11] = 11

·
1 −1
1 −1
¸ ·
1 −1
1 −1
¸
=
·
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
¸
=
·
0 0
0 0
¸
23
6 Teoria das Matrizes
Nota 4 Em geral AB 6= BA. Veja-se o exemplo 6.
Definição 15 (Matrizes comutáveis) Sejam A, B ∈ M
n
(K). Se AB =BA,
diz-se que A e B são matrizes comutáveis.
É evidente que só é possível que duas matrizes sejam comutáveis se forem
quadradas. Se não o forem, ou bem que pelo menos um dos produtos não é
possível, ou, se o forem, as matrizes produto têm dimensões diferentes.
Proposição 5 Considerem-se as matrizes A = [a
ij
] , B = [b
ij
] ∈ M
m×p
(K),
C = [c
jk
] , D = [d
jk
] ∈ M
p×q
(K), F = [f
kl
] ∈ M
q×n
(K) e o escalar λ ∈ K.
Verificam-se as seguintes propriedades:
1. (A+B) D = AD+AB e A(C +D) = AC+AD. Propriedade distributiva
da multiplicação de matrizes em relação à adição de matrizes.
2. λ(AD) = (λA) D = A(λD).
3. (AD) F = A(DF). Propriedade associativa da multiplicação de matrizes.
4. A0 = 0 e 0A = 0. A matriz nula é o elemento absorvente para a multi-
plicação de matrizes. As 4 matrizes nulas representadas nestas expressões
são diferentes uma vez que têm dimensões diferentes. Terão de ter as di-
mensões adequadas para o produto faça sentido. As suas dimensões são,
respectivamente, p ×q, m×q, q ×m e q ×p.
24
6 Teoria das Matrizes
Demonstração.
1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão
p ×q pelo que (A+B) D e AD +AB têm dimensão m×q.
((A+B) D)
ik
=
p
X
j=1
(A+B)
ij
d
jk
=
p
X
j=1
(a
ij
+b
ij
) d
jk
=
p
X
j=1
a
ij
d
jk
+
p
X
j=1
b
ij
d
jk
= (AD)
ik
+ (BD)
ik
2. De modo semelhante se mostra que A(C +D) = AC +AD.
(λ(AD))
ik
= λ
p
X
j=1
a
ij
d
jk
=
p
X
j=1
(λa
ij
) d
jk
=
p
X
j=1
(λA)
ij
d
jk
= ((λA) D)
ik
.
Mas também,
λ
p
X
j=1
a
ij
d
jk
=
p
X
j=1
λa
ij
(λd
jk
)
=
p
X
j=1
a
ij
(λD)
jk
= (A(λD))
ik
.
3. Note-se em primeiro lugar que as matrizes (AD) F e A(DF) têm ambas
dimensão m×n.
25
6 Teoria das Matrizes
((AD) F)
il
=
q
X
k=1
(AD)
ik
f
kl
=
q
X
k=1

¸
p
X
j=1
a
ij
d
jk
¸

f
kl
=
q
X
k=1
p
X
j=1
a
ij
d
jk
f
kl
=
p
X
j=1
a
ij
Ã
q
X
k=1
d
jk
f
kl
!
=
p
X
j=1
a
ij
(DF)
jl
= (A(DF))
il
.
Proposição 6 O conjunto M
n
(K) munido da adição definida na Definição 12
e da multiplicação definida na Definição 14 constitui um anel:
1. ∀
A,B∈Mn(K)
, ∃
C∈Mn(K)
: C = A +B. O conjunto M
n
(K) é fechado para
a adição.
2. ∀
A,B,C∈M
n
(K)
, A + (B +C) = (A+B) + C. Propriedade associativa da
adição de matrizes.
3. ∀
A,B∈M
n
(K)
, A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀
A∈Mn(K)
, ∃
B∈Mn(K)
: A + B = A. A matriz Bdesigna-se por elemento
neutro para a adição de matrizes.
5. ∀
A∈M
n
(K)
, ∃
B∈M
n
(K)
: A+B = 0. Todos os elementos são regulares para
a adição de matrizes.
6. ∀
A,B∈M
n
(K)
, ∃
C∈M
n
(K)
: C = A· B. O conjunto M
n
(K) é fechado para a
multiplicaçao.
7. ∀
A,B,C∈Mn(K)
, A(BC) = (AB) C. Propriedade associativa da multipli-
cação de matrizes.
26
6 Teoria das Matrizes
8. ∀
A∈Mn(K)
, ∃
B∈Mn(K)
: AB = BA = A. A matriz B é o elemento neutro
para a multiplicação de matrizes, e denomina-se por identidade de ordem
n, denotando-se por I
n
ou simplesmente I se não houver dúvida quanto à
ordem.
9. ∀
A,B,C∈Mn(K)
, A(B +C) = AB +BC. Propriedade distributiva da mul-
tiplicação em relação à adição de matrizes.
Nota 5 Note-se que, se A ∈ M
m×n
(K) tem-se I
m
A = A e AI
n
= A. Isto é,
desde que a matriz identidade tenha a ordem correcta para que o produto possa
ser efectuado, o produto (à esquerda ou à direita) de qualquer matriz A pela
identidade é sempre a matriz, como a seguir se demonstra
³
1
´
:
(I
m
A)
ik
=
m
X
j=1
δ
ij
a
jk
= a
ik
= (A)
ik
(AI
n
)
ik
=
n
X
j=1
a
ij
δ
jk
= a
ik
= (A)
ik
6.2.4 Multiplicação por blocos.
Definição 16 (Submatriz) Seja A ∈ M
m×n
(K). Designa-se submatriz de A
a uma matriz formada pelos elementos de A que pertencem a algumas linhas e
algumas colunas previamente fixadas de A.
Definição 17 (Partição em blocos) Seja A ∈ M
m×n
(K). Diz-se que A está
particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos
situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos
situados acima ou abaixo.
Por outras palavras, para que uma matriz esteja particionada em blocos é
necessário que as submatrizes que constituem cada bloco sejam formadas por
linhas e colunas consecutivas da matriz A.
A multiplicação por blocos realiza-se da seguinte forma:
(a) Sejam A ∈ M
m×p
(K) e B ∈ M
p×n
(K) e C = AB.
(b) Considerem-se números inteiros p
1
, p
2
, · · · , p
h
tais que sejam verifi-
cadas as relações 1 ≤ p
1
< p
2
< · · · < p
h
< p.
27
6 Teoria das Matrizes
(c) Escreva-se c
ij
=
p
1
X
r=1
a
ir
b
rj
| {z }
c
(1)
ij
+
p
2
X
r=p1+1
a
ir
b
rj
| {z }
c
(2)
ij
+ · · · +
p
X
r=p
h
+1
a
ir
b
rj
| {z }
c
(h+1)
ij
. O
elemento c
(1)
ij
resulta de somar os produtos dos primeiros p
1
elementos
da linha i de A pelos primeiros p
1
elementos da coluna j de B; c
(2)
ij
é a soma dos produtos dos p
2
−p
1
elementos seguintes da linha i de
A pelos p
2
− p
1
elementos seguintes da coluna j de B e assim por
diante.
Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto
AB por blocos se forem verificadas as seguintes condições:
(a) A ∈ M
m×p
(K) e B ∈ M
p×n
(K). Esta é a condição que requer que
o número de colunas da matriz que multiplica à esquerda seja igual
ao número de linhas da matriz que multiplica à direita.
(b) O número de colunas de blocos de A tem de ser igual ao número de
linhas de blocos de B.
(c) O número de colunas de cada bloco A
ij
tem de ser igual ao número
de linhas de cada bloco B
jt
, a fim de se poder efectuar o produto
A
ij
B
jt
.
Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas
nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de
ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da
matriz B é independente uma da outra.
A multiplicação por blocos é por vezes cómoda em particular se alguns dos
blocos forem matrizes nulas ou matrizes identidades.
Exemplo 7 Considerem-se as matrizes
A=

1 0 0 0 −1 −4
0 1 0 0 −3 −3
0 0 1 0 1 5
−2 3 −5 −5 1 5
¸
¸
¸
¸
e B=

−2 3 −3 3 5
3 3 5 −5 2
0 1 1 1 −3
3 −5 5 −5 −4
−1 −3 0 0 0
3 5 0 0 0
¸
¸
¸
¸
¸
¸
¸
¸
Os blocos considerados na partição acima transformam a matriz A nu- ma
matriz, que em termos da partição escolhida, pode ser classificada do tipo 2×3.
De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto
C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2.
28
6 Teoria das Matrizes
Simbolicamente, as partições consideradas para as matrizes A e B podem ser
representadas como:
A =
·
A
11
A
12
A
13
A
21
A
22
A
23
¸
e B =

B
11
B
12
B
21
B
22
B
31
B
32
¸
¸
Consequentemente, a matriz C será particionada, em termos de blocos, como
se simboliza de seguida:
C =
·
C
11
C
12
C
21
C
22
¸
Teremos assim:

C
11
= A
11
B
11
+A
12
B
21
+A
13
B
31
=
= I
3

−2 3
3 3
0 1
¸
¸
+

0
0
0
¸
¸
£
3 −5
¤
+

−1 −4
−3 −3
1 5
¸
¸
·
−1 −3
3 5
¸
=

−2 3
3 3
0 1
¸
¸
+

0 0
0 0
0 0
¸
¸
+

−6 −17
−6 −6
14 22
¸
¸
=

−8 −14
−3 −3
14 23
¸
¸

C
12
= A
11
B
12
+A
12
B
22
+A
13
B
32
=
= I
3

−3 3 5
5 −5 2
1 1 −3
¸
¸
+

0
0
0
¸
¸
£
5 −5 −4
¤
+

−1 −4
−3 −3
1 5
¸
¸
·
0 0 0
0 0 0
¸
=

−3 3 5
5 −5 2
1 1 −3
¸
¸
+

0 0 0
0 0 0
0 0 0
¸
¸
+

0 0 0
0 0 0
0 0 0
¸
¸
=

−3 3 5
5 −5 2
1 1 −3
¸
¸

C
21
= A
21
B
11
+A
22
B
21
+A
23
B
31
=
=
£
−2 3 −5
¤

−2 3
3 3
0 1
¸
¸
−5 ·
£
3 −5
¤
+
£
1 5
¤
·
−1 −3
3 5
¸
=
£
13 −2
¤
+
£
15 −25
¤
+
£
14 22
¤
=
£
42 −5
¤
29
6 Teoria das Matrizes

C
22
= A
21
B
12
+A
22
B
22
+A
23
B
32
=
=
£
−2 3 −5
¤

−3 3 5
5 −5 2
1 1 −3
¸
¸
−5 ·
£
5 −5 −4
¤
+
£
1 5
¤
·
0 0 0
0 0 0
¸
=
£
16 −16 11
¤
+
£
−25 25 20
¤
+
£
0 0 0
¤
=
£
−9 9 31
¤
A matriz C será portanto:
C =

−8 −14 −3 3 5
−3 −3 5 −5 2
14 23 1 1 −3
42 −5 −9 9 31
¸
¸
¸
¸
Definição 18 (Potência de uma matriz) Seja A ∈ M
n
(K). Designa-se
por potência de ordem k ∈ N de A, e escreve-se A
k
, à matriz C tal que
C = A
k
= A× · · · ×A
| {z }
k vezes
.
6.3 Transposição de matrizes. Matrizes Simétricas.
Definição 19 (Matriz transposta) Dada uma matriz A ∈ M
m×n
(K), deno-
mina-se matriz transposta de A, e denota-se por A
T
, a matriz B ∈ M
n×m
(K)
tal que b
ij
= a
ji
, ∀
(i,j)∈{1,...,m}×{1,...,n}
.
Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A,
A
T
, é do tipo n ×m; as linhas de A são as colunas de A
T
, pela mesma ordem,
e, consequntemente, as colunas de A serão as linhas de A
T
, pela mesma ordem.
Exemplo 8 Considerem-se os seguintes casos:

·
1 2
3 4
¸
T
=
·
1 3
2 4
¸

·
1
2
¸
T
=
£
1 2
¤

£
3 4
¤
T
=
·
3
4
¸
30
6 Teoria das Matrizes

·
3 −5 5
−5 −4 −1
¸
T
=

3 −5
−5 −4
5 −1
¸
¸
Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ M
n
(K), ma-
triz quadrada de ordem n. Diz-se que A é simétrica se A = A
T
e anti-simétrica
se A = −A
T
³
2
´
.
Exemplo 9 A matriz
A =
·
a b
b c
¸
é a forma geral de uma matriz simétrica de ordem 2.
A matriz
A =
·
0 b
−b 0
¸
é a forma geral de uma matriz anti-simétrica de ordem 2. Com efeito, por
definição, dever-se-á ter a
ii
= −a
ii
o que implica 2a
ii
= 0 e portanto a
ii
= 0.
Por outras palavras, numa matriz anti-simétrica, os elementos principais são
sempre nulos.
Proposição 7 Sejam A = [a
ij
] , B = [b
ij
] ∈ M
m×p
(K) , C = [c
jk
] ∈ M
p×n
(K)
e D
k
= [d
kl
] ∈ M
n
(K) , k = 1, ..., M. Verificam-se as seguintes propriedades:
1.
¡
A
T
¢
T
= A.
2. (A±B)
T
= A
T
±B
T
.
3. (AC)
T
= C
T
A
T
.
4.
³
Q
M
k=1
D
k
´
T
=
Q
M
k=1
D
T
k
.
Demonstração.
1.
³
¡
A
T
¢
T
´
ij
=
¡
A
T
¢
ji
= (A)
ij
.
31
6 Teoria das Matrizes
2.
³
(A±B)
T
´
ij
= (A±B)
ji
= a
ji
±b
ji
=
¡
A
T
¢
ij
±
¡
B
T
¢
ij
.
3.
³
(AC)
T
´
ki
= (AC)
ik
=
p
X
j=1
a
ij
c
jk
=
p
X
j=1
¡
A
T
¢
ji
¡
C
T
¢
kj
=
p
X
j=1
¡
C
T
¢
kj
¡
A
T
¢
ji
=
¡
C
T
A
T
¢
ki
.
4. Por indução em M. O caso M = 2 verifica-se na Propriedade 3. Supon-
hamos que, por hipótese,
³
Q
M−1
k=1
D
k
´
T
=
Q
M−1
k=1
D
T
k
. Mostremos que
³
Q
M
k=1
D
k
´
T
=
Q
M
k=1
D
T
k
também se verifica.
Ã
M
Y
k=1
D
k
!
T
=
ÃÃ
M−1
Y
k=1
D
k
!
D
M
!
T
= (D
M
)
T
Ã
M−1
Y
k=1
D
k
!
T
(pela Propriedade 3)
= (D
M
)
T
M−1
Y
k=1
D
T
k
(por hipótese)
=
M
Y
k=1
D
T
k
Proposição 8 O produto de duas matrizes A, B ∈ M
n
(K) simétricas é uma
matriz simétrica sse os seus factores comutam.
32
6 Teoria das Matrizes
Demonstração.
(=⇒)
AB = (AB)
T
(porque ABé simétrica)
= B
T
A
T
(pela Propriedade 3 da transposição de matrizes)
= BA (porque A e B são comutáveis)
(⇐=)
(AB)
T
= (BA)
T
(porque A e B comutam)
= A
T
B
T
(pela Propriedade 3 da transposição de matrizes.
= AB (porque A e B são simétricas)
6.4 Traço de uma matriz
Definição 21 (Traço de uma Matriz) Seja A = [a
ij
] ∈ M
m×n
(K). O traço
da matriz A é definido como a soma os seus elementos principais, ou, por outras
palavras, dos elementos ao longo da diagonal principal. Denota-se por:
tr (A) = a
11
+a
22
+ · · · +a
pp
, onde p = min(m, n) .
Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respec-
tivos traços:

3 0 1 3 1
−1 2 0 −1 1
0 −2 -3 1 1
¸
¸
¸. tr (A) = 3 + 2 + (−3) = 2.

3 0
−1 2
0 −2
¸
¸
. tr (A) = 3 + 2 = 5.

1 3 1
0 -1 1
−3 1 1
¸
¸
¸. tr (A) = 1 + (−1) + 1 = 1.
O operador tr (·) satisfaz as seguintes propriedades:
33
6 Teoria das Matrizes
Proposição 9 Sejam A=[a
ij
] , B=[b
ij
] ∈ M
m×n
(K) e C=[c
pq
] ∈ M
n×m
(K).
Verificam-se as seguintes igualdades:
1. tr (A+B) = tr (A) +tr (B).
2. tr (A+B) = tr (B +A).
3. tr (AC) = tr (CA).
Demonstração.
1. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se
definida. Prosseguindo com a argumentação, segue que:
tr (A+B) = tr
³
(A+B)
ij
´
=
min(m,n)
X
l=1
(a
ll
+b
ll
)
=
min(m,n)
X
l=1
a
ll
+
min(m,n)
X
l=1
b
ll
= tr (A) +tr (B)
2. Dado que A e B têm as mesmas dimensões as somas A + B e B + A
encontram-se definidas. Prosseguindo com a argumentação, segue que:
tr (A+B) = tr
³
(A+B)
ij
´
=
min(m,n)
X
l=1
(a
ll
+b
ll
)
=
min(m,n)
X
l=1
(b
ll
+a
ll
)
= tr
³
(B +A)
ij
´
= tr (B +A)
3. Se A ∈ M
m×n
(K) e C ∈ M
n×m
(K) , tem-se naturalmente AC ∈ M
m
(K).
O traco de AC será:
34
6 Teoria das Matrizes
tr (AC) = tr
³
(AC)
iq
´
= tr

¸
n
X
j=1
a
ij
c
jq
¸

=
m
X
i=1

¸
n
X
j=1
a
ij
c
ji
¸

=
m
X
i=1
n
X
j=1
a
ij
c
ji
Por outro lado tem-se CA ∈ M
n
(K). O traco de CA será:
tr (CA) = tr
³
(CA)
pj
´
= tr
Ã
m
X
i=1
c
pi
a
ij
!
=
n
X
j=1
Ã
m
X
i=1
c
ji
a
ij
!
=
n
X
j=1
m
X
i=1
c
ji
a
ij
=
m
X
i=1
n
X
j=1
a
ij
c
ji
= tr (AC)
6.5 Dependência e independência lineares de filas parale-
las de uma matriz.
Definição 22 (Combinação linear das filas de uma matriz) Seja a ma-
triz A ∈ M
m×n
(K) e sejam L
i
=
£
a
i1
a
i2
· · · a
in
¤
, i = 1, · · · , m as
linhas da matriz A e C
j
= {a
1j
, a
2j
, · · · , a
mj
} , j = 1, · · · , n as colunas da ma-
triz A.
1. À expressão
m
P
i=1
λ
i
L
i
designa-se combinação linear das linhas de A, onde

i
}
i=1,··· ,m
são quaisquer escalares do corpo K.
35
6 Teoria das Matrizes
2. À expressão
n
P
j=1
µ
j
C
j
designa-se combinação linear das colunas de A, onde
©
µ
j
ª
j=1,··· ,n
são quaisquer escalares do corpo K.
Definição 23 (Combinação linear nula das filas de uma matriz) Sejam
A ∈ M
m×n
(K), {L
i
}
i=1,··· ,m
as linhas da matriz A e {C
j
}
j=1,··· ,n
as colunas
da matriz A.
1. À expressão
m
P
i=1
λ
i
L
i
= 0 designa-se combinação linear nula das linhas de
A, onde {λ
i
}
i=1,··· ,m
são quaisquer escalares do corpo K.
2. À expressão
n
P
j=1
µ
j
C
j
= 0 designa-se combinação linear nula das colunas
de A, onde
©
µ
j
ª
j=1,··· ,n
são quaisquer escalares do corpo K.
Definição 24 (Independência linear) Sejam A ∈ M
m×n
(K), {L
i
}
i=1,··· ,m
as linhas da matriz A e {C
j
}
j=1,··· ,n
as colunas da matriz A. Diz-se que as
linhas (colunas) de A são linearmente independentes se
m
P
i=1
0L
i
(ou
n
P
j=1
0C
j
para
as colunas) é a única combinação linear nula dessas linhas (colunas).
Por outras palavras, as linhas (ou colunas) de uma matriz dizem-se linear-
mente independentes se a única combinação linear nula daquelas é a que se
obtém com todos os escalares nulos.
A seguinte constatação é consequência imediata da definição acima:
Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é
possível obter uma combinação linear nula daquelas com pelo menos um escalar
diferente de 0.
As definições acima aplicam-se indiferentemente às linhas e colunas de uma
qualquer matriz. Por esse motivo, faremos referência às filas de uma matriz
sempre que não for necessário referir explicitamente as linhas ou colunas da
matriz. Denotaremos por {F
k
}
k=1,··· ,p
as filas da matriz. Note-se, no entanto,
que a referência às filas de uma matriz deverá ser entendida como referência às
linhas ou às colunas e não aos dois conjuntos simultaneamente.
Matematicamente, a condição de independência linear das filas de uma ma-
triz pode ser descrita pelas equações (4).
m
P
i=1
λ
i
L
i
= 0 =⇒λ
i
= 0, i = 1, · · · , m (linhas)
n
P
j=1
µ
j
C
j
= 0 =⇒µ
j
= 0, j = 1, · · · , n (colunas)
(4)
Em geral, os resultados válidos para as linhas também o são para as colunas.
36
6 Teoria das Matrizes
Proposição 10 Sejam A ∈ M
m×n
(K) e {F
k
}
k=1,··· ,p
as filas da matriz A.
Verificam-se os seguintes resultados:
1. Se uma das filas de A é constituída integralmente por zeros, as filas são
linearmente dependentes.
2. Algumas das filas de A são linearmente dependentes se e só se todas o
são.
3. As filas de A são linearmente dependentes se e só as filas em que a fila F
k
é
substituída pela fila F
0
k
= α· F
k
, α ∈ K\ {0} são linearmente dependentes.
4. As filas de A são linearmente dependentes se e só as filas em que a fila F
k
é substituída pela fila F
0
k
= F
k
+F
l
, k 6= l são linearmente dependentes.
5. As filas de A são linearmente dependentes se e só se o mesmo sucede
às filas que se obtêm somando a uma delas uma combinação linear das
restantes.
6. As filas de A são linearmente dependentes se e só se algumas delas se
podem escrever como combinação linear das restantes.
Demonstração. Para efeito da demonstração utilizar-se-ão as linhas da
matriz. A prova para as colunas é equivalente.
1. Suponhamos que a linha L
k
é inteiramente nula. A combinação linear
nula das linhas da matriz é dada por
P
i6=k
λ
i
L
i
+ λ
k
L
k
= 0. Sabendo
que L
k
= 0 teremos λ
k
L
k
= 0 para qualquer λ
k
∈ K. Em particular, se
escolhermos λ
k
6= 0, teremos uma combinação linear nula das linhas com
pelo menos um escalar não nulo, precisamente o escalar λ
k
, logo, as linhas
da matriz A são linearmente dependentes
2.(=⇒) Suponhamos, sem perda de generalidade, que as p primeiras linhas
da matriz A são linearmente dependentes. Existirá assim pelo menos
um escalar não nulo, digamos λ
k
, com algum k : 1 ≤ k ≤ p tal
que
P
p
i=1
λ
i
L
i
= 0. Se escolhermos escalares nulos para as restantes
linhas da matriz teremos
P
m
i=p+1
λ
i
L
i
=
P
m
i=p+1
0L
i
= 0. Assim,
teremos
P
p
i=1
λ
i
L
i
+
P
m
i=p+1
λ
i
L
i
= 0 com o escalar λ
k
não-nulo,
isto é, as linhas da matriz A são linearmente dependentes.
(⇐=) Se as linhas da matriz A são linearmente dependentes, então

k∈{1,··· ,m}
: λ
k
6= 0 ∧
X
i6=k
λ
i
L
i

k
L
k
= 0
Se os restantes escalares forem nulos, teremos
37
6 Teoria das Matrizes
X
i6=k
λ
i
L
i

k
L
k
+
X
i6=k
0L
i

k
L
k
= λ
k
L
k
= 0
Deste modo, qualquer conjunto de linhas que inclua a linha L
k
, que
nestas circunstâncias é integralmente nula, é linearmente dependente.
3.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= α· L
k
, α 6= 0. A combinação
linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é
dada por
P
i6=k
λ
i
L
i
+ λ
k
L
0
k
= 0 ⇐⇒
P
i6=k
λ
i
L
i
+ (λ
k
· α) · L
k
= 0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva
combinação linear nula se obtém com pelo menos um escalar não nulo.
Ou bem que esse escalar é λ
i
, i 6= k, ou bem que será λ
k
· α. Neste
caso, como α 6= 0 teremos λ
k
6= 0. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i=1,···n
i6=k
∪ L
0
k
com
pelo menos um escalar não nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
X
i6=k
λ
i
L
i
+
λ
k
α
(α · L
k
) =
X
i6=k
λ
i
L
i
+
λ
k
α
L
0
k
= 0.
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
i
6= 0, i 6= k ou teremos
λ
k
α
6= 0. Neste caso, como α 6= 0 teremos
λ
k
6= 0. Em qualquer caso, é possível obter uma combinação linear
nula das linhas {L
i
}
i=1,··· ,m
com pelo menos um escalar não nulo.
4.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= L
k
+ L
l
, k 6= l. A combi-
nação linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é dada por
P
i6=k
λ
i
L
i

k
L
0
k
=
P
i6=k
λ
i
L
i

k
(L
k
+L
l
)=0. Esta ex-
pressão pode ser reescrita como
P
i6=k,l
λ
i
L
i

k
L
k
+(λ
k

l
) L
l
=0.
Mas as linhas de A são linearmente dependentes pelo que a respec-
tiva combinação linear nula se obtém com pelo menos um escalar
não nulo. Ou bem que esse escalar é λ
i
, i 6= k, l, ou bem que será
λ
k
, ou então será (λ
k

l
). Neste caso, ter-se-á obrigatoriamente
38
6 Teoria das Matrizes
λ
k
6= 0∨λ
l
6= 0. Em qualquer caso, é possível obter uma combinação
linear nula das linhas {L
i
}
i6=k
∪ L
0
k
com pelo menos um escalar não
nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
X
i6=k
λ
i
L
i
+ (λ
k
L
k

k
L
l
)
| {z }
λ
k
L
0
k
−λ
k
L
l
=
X
i6=k,l
λ
i
L
i
+ (λ
l
−λ
k
) L
l

k
L
0
k
=0
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
i
6= 0, i 6= k, l ou teremos λ
k
6= 0 ou ainda (λ
l
−λ
k
) 6= 0. Neste
caso, ter-se-á obrigatoriamente λ
k
6= 0 ∨ λ
l
6= 0. Em qualquer caso,
é possível obter uma combinação linear nula das linhas {L
i
}
i=1,··· ,m
com pelo menos um escalar não nulo.
5.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
Substituamos a linha L
k
pela linha L
0
k
= L
k
+
P
i6=k
α
i
L
i
. A combi-
nação linear nula das linhas de A onde a linha L
k
é substituída por L
0
k
é dada por
P
i6=k
λ
i
L
i

k
L
0
k
=
P
i6=k
λ
i
L
i

k
³
L
k
+
P
i6=k
α
i
L
i
´
=0.
Esta expressão pode ser reescrita como
P
i6=k

i

k
α
i
)L
i

k
L
k
=0.
Mas as linhas de A são linearmente dependentes pelo que a re-
spectiva combinação linear nula se obtém com pelo menos um es-
calar não nulo. Ou bem que esse escalar é λ
k
ou bem que será

i

k
α
i
) , i 6= k. Neste caso, ter-se-á obrigatoriamente λ
k
α
i
6= 0
(o que implica λ
k
6= 0)∨λ
i
6= 0, i 6= k. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i6=k
∪ L
0
k
com pelo
menos um escalar não nulo.
(⇐=) Suponhamos que as linhas {L
i
}
i6=k
∪L
0
k
são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
i6=k
λ
i
L
i

k
L
k
= 0,
a qual é passível de ser reescrita como
39
6 Teoria das Matrizes
X
i6=k
λ
i
L
i

k
L
k

k
X
i6=k
α
i
L
i
−λ
k
X
i6=k
α
i
L
i
=
X
i6=k

i
−λ
k
) L
i

k
L
0
k
=0
Dada a dependência linear de {L
i
}
i6=k
∪ L
0
k
ou bem que teremos
λ
k
6= 0 ou bem que teremos (λ
i
−λ
k
) 6= 0, i 6= k. Neste caso, ter-se-á
obrigatoriamente (λ
k
6= 0 ∨ λ
i
6= 0)
i6=k
. Em qualquer caso, é possível
obter uma combinação linear nula das linhas {L
i
}
i=1,··· ,m
com pelo
menos um escalar não nulo.
6.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Seja λ
k
um dos escalares não nulos para os quais se obtém uma combinação
linear nula das linhas de A. A combinação linear nula
P
i
λ
i
L
i
= 0
pode ser reescrita como L
k
= −
1
λ
k
P
i6=k
λ
i
L
i
, uma vez que λ
k
6= 0.
A expressão mostra que a linha L
k
pode ser escrita como combinação
linear das restantes linhas da matriz.
(⇐=) Suponhamos que é possível escrever a linha L
k
como combinação
linear das restantes linhas, isto é, L
k
=
P
i6=k
λ
i
L
i
. Resulta que
L
k

P
i6=k
λ
i
L
i
= 0, isto é, obteve-se uma combinação linear nula
das linhas da matriz A, em que pelo menos um escalar é não nulo (o
escalar 1 associado à linha L
k
). Tal mostra que as linhas de A são
linearmente dependentes.
Proposição 11 Sejam A ∈ M
m×n
(K), B ∈ M
n×p
(K) e C = AB. Então cada
linha (respectivamente coluna) de C é combinação linear das linhas (respectiva-
mente colunas) de B (respectivamente A). Mais precisamente:
1. A linha i
0
de C é combinação linear das linhas de B que se obtém uti-
lizando os escalares da linha i
0
de A.
2. A coluna j
0
de C é combinação linear das colunas de A que se obtém
utilizando os escalares da coluna j
0
de B.
Demonstração.
1. c
i0k
= (AB)
i0k
=
P
n
j=1
a
i0j
b
jk
. Logo,
L
C
i
0
=
£
c
i01
c
i02
· · · c
i0p
¤
=
£ P
n
j=1
a
i
0
j
b
j1
P
n
j=1
a
i
0
j
b
j2
· · ·
P
n
j=1
a
i
0
j
b
jp
¤
=
n
X
j=1
a
i
0
j
£
b
j1
b
j2
· · · b
jp
¤
=
n
X
j=1
a
i
0
j
L
B
j
40
6 Teoria das Matrizes
2. A prova é em tudo semelhante à anterior mutatis mutantis.
6.6 Característica de uma matriz. Operações elementares.
Definição 25 (Característica) Seja A∈M
m×n
(K). Designa-se caracterís-
tica de linha da matriz A ao número máximo de linhas linearmente indepen-
dentes; denota—se este valor por r
l
(A). Analogamente a característica de col-
una da matriz A, r
c
(A), é o número máximo de colunas linearmente indepen-
dentes. A característica da matriz, denotada por r
A
(ou simplesmente r quando
estiver claro a matriz a que se refere) define-se como o número máximo de linhas
ou colunas linearmente independentes, isto é, r
A
= m´ın{r
l
(A) , r
c
(A)}.
Tem-se claramente r
l
(A) ≤ m e r
c
(A) ≤ n e portanto r
A
≤ m´ın{m, n},
onde m e n são respectivamente o número de linhas e colunas da matriz em
causa.
Resta desenvolver um processo que permita determinar a característica de
linha (ou coluna) de uma matriz, e portanto da sua característica.
Proposição 12 Sejam A ∈ M
m×n
(K), B ∈ M
n×p
(K) e C = AB. Então
r
l
(C) ≤ r
l
(B) e r
c
(C) ≤ r
c
(A).
Demonstração. Recordando a proposição 11 verificámos que,
L
C
i
=
n
X
j=1
a
ij
L
B
j
, ∀
i=1,··· ,m
,
isto é, cada linha de C é combinação linear das linhas de B. Ora, se o número
máximo de linhas linearmente independentes de B é r
l
(B) então, cada linha de
C pode ser escrita apenas à custa das r
l
(B) linhas de B que são efectivamente
linearmente independentes; as restantes linhas de B ou bem que são nulas ou
bem que se podem escrever como combinação das que são linearmente indepen-
dentes como vimos na Proposição (10). Suponhamos, sem perda de generalidade
que são precisamente as primeiras r
l
(B) linhas de B que são linearmente inde-
pendentes. Tal significa que as linhas de C podem ser escritas como combinação
destas linhas de B (agora com outros escalares que não aqueles dados pelas li-
nhas de A). Isto é, L
C
i
=
P
r
l
(B)
k=1
λ
i
k
L
B
k
, ∀
i=1,··· ,m
. Suponhamos, por redução ao
absurdo que C tem r
l
(B) +1 linhas lineamente independentes, precisamente as
primeiras. Sabemos então que a combinação linear nula destas r
l
(B) +1 linhas
só é passível de ser obtida com todos os escalares nulos.
41
6 Teoria das Matrizes
0 =
r
l
(B)+1
X
i=1
µ
i
L
C
i
=
r
l
(B)+1
X
i=1
µ
i
r
l
(B)
X
k=1
λ
i
k
L
B
k
=

r
l
(B)+1
X
i=1
µ
i
λ
i
1
¸
¸
L
B
1
+

r
l
(B)+1
X
i=1
µ
i
λ
i
2
¸
¸
L
B
2
+ · · · +

r
l
(B)+1
X
i=1
µ
i
λ
i
r
l
(B)
¸
¸
L
B
r
l
(B)
Ora, as r
l
(B) primeiras linhas de B são linearmente independentes pelo que
a combinação nula anterior só se poderá obter com todos os escalares nulos, o
que corresponde a resolver o sistema em ordem a {µ
i
}
i=1,··· ,r
l
(B)+1
:

P
r
l
(B)+1
i=1
µ
i
λ
i
1
= 0
P
r
l
(B)+1
i=1
µ
i
λ
i
2
= 0
· · ·
P
r
l
(B)+1
i=1
µ
i
λ
i
r
l
(B)
= 0
O sistema acima temr
l
(B) e r
l
(B)+1 incógnitas. Trata-se de um sistema in-
determinado possuindo outras soluções que não a solução {µ
i
= 0}
i=1,··· ,r
l
(B)+1
.
Mas isto é um absurdo pois por hipótese as primeiras r
l
(B)+1 linhas de C eram
linearmente independentes. O absurdo reside evidentemente no facto de se ter
assumido que o número máximo de linhas linearmente idependentes de C era
superior a r
l
(B), logo dever-se-á ter r
l
(C) ≤ r
l
(B).
A prova relativamente à afirmação r
c
(C) ≤ r
c
(A) é em tudo semelhante à
anterior.
6.6.1 Operações Elementares
Os resultados da Proposição (10) permitem concluir que a dependência ou in-
dependência lineares das linhas (ou colunas) de uma matriz não é alterada por
um conjunto de operações que no seu conjunto se designam por Operações Ele-
mentares Sobre Filas de uma Matriz.
Definição 26 (Operações Elementares) Seja A ∈ M
m×n
(K). Define-se
como operação elementar sobre as filas da matriz A, a cada uma das seguintes
operações:
i. Troca entre si de duas linhas (ou colunas) da matriz.
ii. Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente
de 0.
42
6 Teoria das Matrizes
iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe
outra, multiplicada por um qualquer escalar (Operação de Jacobi).
As operações elementares acima definidas correspondem à multiplicação (à
esquerda ou à direita) da matriz A por matrizes que resultam da matriz iden-
tidade, que deverá ter dimensão apropriada, por aplicação das operações ele-
mentares.
Definição 27 (Matriz Elementar) Seja I ∈ M
n
(K) a matriz identidade de
ordem n. Designa-se por matriz elementar de ordem n a qualquer matriz E que
resulte de I por aplicação de uma das três operações elementares.
Consideremos genericamente uma matriz A ∈ M
m×n
(K). Vejamos, caso
a caso, que matriz, resultante da aplicação de operações elementares sobre a
matriz identidade, deve multiplicar, ou pela qual se deve multiplicar, a matriz
A de forma a que as mesmas operações elementares tenham o mesmo efeito
sobre A. Naturalmente que, a multiplicação à esquerda ou à direita da matriz
A implica uma escolha acertada para a ordem das matrizes elementares a mul-
tiplicar. Assim, a multiplicação à esquerda da matriz A implica a utilização
de matrizes elementares de ordem m, enquanto que a multiplicação à direita
implica a utilização de matrizes elementares de ordem n.
• Regra geral
Operações elementares sobre as linhas da matriz A fazem-se por multi-
plicações à esquerda desta enquanto que operações elementares sobre as
colunas se fazem por multiplicações à direita.
• Troca de Linhas
Dadas duas linhas, L
i
e L
k
, i 6= k da matriz A, a troca destas linhas
processa-se multiplicando a matriz A, à esquerda, pela matriz E que re-
sulta da troca das linhas i e k da matriz identidade I. Representa-se por
(L
i
←→L
k
). Matriz elementar associada: E
ik
.
• Troca de Colunas
Dadas duas colunas, C
j
e C
l
, j 6= l da matriz A, a troca destas colunas
processa-se multiplicando a matriz A, à direita, pela matriz F que resulta
da troca das colunas j e l da matriz identidade I. Representa-se por
(C
j
←→C
l
). Matriz elementar associada: F
jl
.
• Multiplicação de Linha por um Escalar
Dado um escalar α ∈ K, a multiplicação da linha L
i
da matriz A corre-
sponde a multiplicar A, à esquerda, pela matriz E que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
α, ou, por outras palavras, consiste na multiplicação da i-ésima linha da
matriz diagonal pelo escalar α. Representa-se por (L
i
←αL
i
). Matriz
elementar associada: E
i
(α).
43
6 Teoria das Matrizes
• Multiplicação de Coluna por um Escalar
Dado um escalar β ∈ K, a multiplicação da coluna C
j
da matriz A cor-
responde a multiplicar A, à direita, pela matriz F que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
β, ou, por outras palavras, consiste na multiplicação da i-ésima coluna da
matriz diagonal pelo escalar β. Representa-se por (C
j
←αC
j
). Matriz
elementar associada: F
j
(β).
• Operação de Jacobi sobre Linhas
Dadas duas linhas, L
i
e L
k
, i 6= k da matriz A e um escalar α ∈ K, a
substituição da linha L
i
pela linha L
i
+ α · L
k
processa-se multiplicando
a matriz A, à esquerda, pela matriz E que resulta da matriz identidade
por substituição da linha i pela que se obtém somando-lhe a linha k mul-
tiplicada pelo escalar α. Representa-se por (L
i
←L
i
+α · L
k
). Matriz
elementar associada: E
ik
(α).
• Operação de Jacobi sobre Colunas
Dadas duas colunas, C
j
e C
l
, j 6= l da matriz A e um escalar β ∈ K, a
substituição da linha C
j
pela linha C
j
+ β · C
l
processa-se multiplicando
a matriz A, à direita, pela matriz F que resulta da matriz identidade
por substituição da coluna j pela que se obtém somando-lhe a coluna l
multiplicada pelo escalar β. Representa-se por (C
j
←C
j
+β · C
l
). Matriz
elementar associada: F
jl
(β).
Exemplo 11 Considere-se a matriz
A =

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
Vejamos como cada uma das seguintes operações elementares sobre a ma-
triz A resulta da multiplicação desta matriz pela que resulta da identidade por
aplicação das mesmas operações elementares:
1. Troca das linhas 1 e 3.
Deveremos considerar uma multiplicação à esquerda. Tomamos a matriz
identidade I
3
e trocamos as linhas 1 e 3 para obter a matriz E:

1 0 0
0 1 0
0 0 1
¸
¸
L
1
←→L
3
−−−−−−−→

0 0 1
0 1 0
1 0 0
¸
¸
Procedendo à multiplicação obtém-se:
44
6 Teoria das Matrizes
A
0
= E
13
· A
=

0 0 1
0 1 0
1 0 0
¸
¸

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
=

30 90 −24 −52
90 52 43 91
−34 −68 −85 −38
¸
¸
A matriz A
0
resultou da matriz A por troca das linhas 1 e 3 como se
pretendia.
2. Troca das colunas 2 e 3.
Deveremos considerar uma multiplicação à direita. Tomamos a matriz
identidade I
4
e trocamos as colunas 2 e 3 para obter a matriz F:

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
¸
¸
¸
¸
C
2
←→C
3
−−−−−−−→

1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
¸
¸
¸
¸
Procedendo à multiplicação obtém-se:
A
0
= A· E
23
=

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸

1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
¸
¸
¸
¸
=

−34 −85 −68 −38
90 43 52 91
30 −24 90 −52
¸
¸
A matriz A
0
resultou da matriz A por troca das colunas 2 e 3 como se
pretendia.
3. Multiplicação de uma linha por um escalar.
Suponhamos que se pretende multiplicar a linha 2 da matriz A pelo escalar

2. Para tal, tomamos a matriz identidade I
3
e multiplicamos a segunda
linha pelo escalar pretendido para obter a matriz E. Seguidamente faz-se
o produto EA para obter a matriz pretendida.
45
6 Teoria das Matrizes

1 0 0
0 1 0
0 0 1
¸
¸
L
0
2
←−

2L
2
−−−−−−−−−→

1 0 0
0

2 0
0 0 1
¸
¸
Procedendo à multiplicação obtém-se:
A
0
= E
2
³

2
´
· A
=

1 0 0
0

2 0
0 0 1
¸
¸

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
=

−34 −68 −85 −38
90

2 52

2 43

2 91

2
30 90 −24 −52
¸
¸
A matriz A
0
resultou da matriz A por multiplicação da 2
a
linha por

2.
4. Multiplicação de uma coluna por um escalar.
Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo es-
calar
2
5
. Para tal, tomamos a matriz identidade I
4
e multiplicamos a ter-
ceira coluna pelo escalar pretendido para obter a matriz F. Seguidamente
faz-se o produto AF para obter a matriz pretendida.

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
¸
¸
¸
¸
C
0
3
←−
2
5
C
3
−−−−−−−−→

1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
¸
¸
¸
¸
Procedendo à multiplicação obtém-se:
A
0
= A· F
3
µ
2
5

=

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸

1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
¸
¸
¸
¸
=

−34 −68 −34 −38
90 52
86
5
91
30 90 −
48
5
−52
¸
¸
A matriz A
0
resultou da matriz A por multiplicação da linha 3
a
coluna por
2
5
.
46
6 Teoria das Matrizes
5. Operação de Jacobi sobre as linhas da matriz A.
Consideremos as linhas 1 e 3 da matriz A. Suponhamos que se pretende
substituir a linha L
3
pela que se obtém somando-lhe a linha L
1
multiplicada
pelo escalar

2. Tomamos a matriz identidade I
3
e substituímos a linha
L
3
pela que se obtém somando-lhe

2L
1
. A matriz F assim obtida é
multiplicada por A, à esquerda.

1 0 0
0 1 0
0 0 1
¸
¸
L
3
←− L
3
+

2L
1
−−−−−−−−−−−−−→

1 0 0
0 1 0

2 0 1
¸
¸
Procedendo à multiplicação obtém-se:
A
0
= E
31
³

2
´
· A
=

1 0 0
0 1 0

2 0 1
¸
¸

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
=

−34 −68 −85 −38
90 52 43 91
−34

2 + 30 −68

2 + 90 −85

2 −24 −38

2 −52
¸
¸
A matriz A
0
resultou da matriz A por substituição da linha 3 pela que se
obteve somando-lhe a linha 1 multiplicada por

2.
6. Operação de Jacobi sobre as colunas da matriz A.
Consideremos as colunas 2 e 3 da matriz A. Suponhamos que se pretende
substituir a coluna C
3
pela que se obtém somando-lhe a coluna C
2
multi-
plicada pelo escalar
2
5
. Tomamos a matriz identidade I
4
e substituímos a
coluna C
3
pela que se obtém somando-lhe
2
5
C
2
. A matriz F assim obtida
é multiplicada por A, à direita.

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
¸
¸
¸
¸
C
3
←− C
3
+
2
5
C
2
−−−−−−−−−−−−→

1 0 0 0
0 1
2
5
0
0 0 1 0
0 0 0 1
¸
¸
¸
¸
Procedendo à multiplicação obtém-se:
47
6 Teoria das Matrizes
A
0
= A· F
32
µ
2
5

=

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸

1 0 0 0
0 1
2
5
0
0 0 1 0
0 0 0 1
¸
¸
¸
¸
=

−34 −68 −
561
5
−38
90 52
319
5
91
30 90 12 −52
¸
¸
A matriz A
0
resultou da matriz A por substituição da coluna 3 pela que se
obteve somando-lhe a coluna 2 multiplicada por
2
5
.
O exemplo acima ilustra o facto de operações elementares sobre uma matriz
A qualquer poderem ser definidas como o produto de matrizes elementares pela
matriz A.
Exemplo 12 Considere-se a matriz
A =

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
Consideremos um conjunto de operações elementares a aplicar sobre a matriz
A:
• Troca das linhas 1 e 3 (L
1
←→L
3
).
• Troca das colunas 2 e 3 (C
2
←→C
3
).
• Multiplicação da linha 2 pelo escalar

2
¡
L
2
←−

2L
2
¢
.
• Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multipli-
cada pelo escalar 2 (L
3
←− L
3
+ 2L
1
).
• Multiplicação da coluna 3 pelo escalar
2
5
¡
C
3
←−
2
5
C
3
¢
.
• Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multi-
plicada pelo escalar −1 (C
3
←− C
3
−C
4
).
A questão que se coloca é a de saber qual a matriz A
0
que se obtém de
A por aplicação das 6 operações elementares acima descritas. Vejamos
então o resultado, por aplicação directa das operações sobre a matriz A:
48
6 Teoria das Matrizes

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
L
1
←→L
3
−−−−−−−→

30 90 −24 −52
90 52 43 91
−34 −68 −85 −38
¸
¸
C
2
←→C
3
−−−−−−−→

30 −24 90 −52
90 43 52 91
−34 −85 −68 −38
¸
¸
L
2
←−

2L
2
−−−−−−−−−→

30 −24 90 −52
90

2 43

2 52

2 91

2
−34 −85 −68 −38
¸
¸
L
3
←− L
3
+ 2L
1
−−−−−−−−−−−−→

30 −24 90 −52
90

2 43

2 52

2 91

2
26 −133 112 −142
¸
¸
C
3
←−
2
5
C
3
−−−−−−−−→

30 −24 36 −52
90

2 43

2
104
5

2 91

2
26 −133
224
5
−142
¸
¸
C
3
←− C
3
−C
4
−−−−−−−−−−−→

30 −24 88 −52
90

2 43

2 −
351
5

2 91

2
26 −133
934
5
−142
¸
¸
Vejamos agora que se obterá a mesma matriz A
0
se a matriz A for devi-
damente multiplicada pelas matrizes elementares associadas às operações
elementares descritas.
O produto desejado é, simbolicamente, o seguinte:
³
E
31
(2) ×E
2
³

2
´
×E
13
´
×A×
µ
F
23
×F
3
µ
2
5

×F
34
(−1)

O resultado será:
49
6 Teoria das Matrizes
(L
3
←−L
3
+2L
1
)
z }| {

1 0 0
0 1 0
2 0 1
¸
¸
(L2←−

2L2)
z }| {

1 0 0
0

2 0
0 0 1
¸
¸
(L
1
←→L
3
)
z }| {

0 0 1
0 1 0
1 0 0
¸
¸
×
×

−34 −68 −85 −38
90 52 43 91
30 90 −24 −52
¸
¸
×
×

1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
¸
¸
¸
¸
| {z }
(C
2
←→C
3
)

1 0 0 0
0 1 0 0
0 0
2
5
0
0 0 0 1
¸
¸
¸
¸
| {z }
(C
3
←−
2
5
C
3)

1 0 0 0
0 1 0 0
0 0 1 0
0 0 −1 1
¸
¸
¸
¸
| {z }
(C
3
←−C
3
−C
4
)
=

30 −24 88 −52
90

2 43

2 −
351
5

2 91

2
26 −133
934
5
−142
¸
¸
Como era de esperar o resultado dos dois métodos utilizado é o mesmo.
Nota 7 É importante notar a ordem pela qual os produtos, à esquerda e à
direita, são efectuados. Com efeito, se O
1
, O
2
, · · · , O
p
for um conjunto de oper-
ações elementares sobre linhas a executar, por esta ordem, sobre uma matriz A
qualquer, e se E
1
, E
2
, · · · , E
p
forem as matrizes elementares associadas a cada
uma daquelas operações, a matriz A
0
que se obtém por aplicação das operações
elementares é dada por E
p
× · · · × E
2
× E
1
× A. Note-se que a matriz que
primeiro multiplica A está associada à primeira operação elementar, a segunda
matriz à segunda operação elementar e assim sucessivamente. O mesmo ar-
gumento é válido para operações sobre colunas, isto é, se O
1
, O
2
, · · · , O
q
for
um conjunto de operações elementares sobre as colunas de uma matriz A, por
esta ordem, e F
1
, F
2
, · · · , F
p
forem as matrizes elementares associadas àquelas
operações, a matriz A
0
que resulta da aplicação destas operações é dada por
A×F
1
×F
2
× · · · ×F
p
.
Do acima exposto resulta o seguinte resultado:
Proposição 13 Se multiplicarmos A ∈ M
m×n
(K), à esquerda por uma matriz
elementar E (de ordem m), a matriz produto, EA, também se pode obter de
A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu
passar de I
m
a E.
Se multiplicarmos A ∈ M
m×n
(K), à direita por uma matriz elementar F
(de ordem n), a matriz produto, AF, também se pode obter de A efectuando
sobre as colunas de A a mesma operação sobre colunas que permitiu passar de
I
n
a F.
50
6 Teoria das Matrizes
Demonstração. A demonstração é simples e está ilustrada pelos exemplos
anteriores.
6.6.2 Determinação da Característica de Linha de uma Matriz
Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar
a característica de linha de qualquer matriz A ∈ M
m×n
(K). Na determinação
da característca de linha, r
l
(A), utilizaremos operações elementares sobre as
linhas de uma matriz, estudadas na secção anterior. Como já vimos, operações
elementares sobre linhas (colunas) não afectam a dependência (ou independên-
cia) linear das linhas (colunas) de uma matriz. Como tal, a característica de
linha de uma matriz não é modificada por operações elementares sobre as linhas
dessa matriz.
É importante verificar que, por enquannto, não há nenhum resultado que
garanta que operações elementares sobre as linhas de uma matriz não afectam
a sua característica de coluna ou, que operações elementares sobre as colunas
não afectam a sua caractrística de linha.
Proposição 14 Seja A ∈ M
m×n
(K). Se A for transformada na matriz A
0
através de operações elementares sobre linhas então r
l
(A) = r
l
³
A
0
´
.
Demonstração. A demonstração sai imediatamente da aplicação directa
da Definição 25 e da Proposição 10.
Definição 28 (Matriz em Escada) Seja A ∈ M
m×n
(K). Diz-se que a ma-
triz A está na forma de escada se a linha i apresenta mais zeros consecutivos
no início que a linha j, com i < j ≤ m.
Exemplo 13 As seguintes matrizes encontram-se em forma de escada:

0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
¸
¸
:
1
a
linha: 1 zero inicial
2
a
linha: 3 zeros iniciais
3
a
linha: 5 zeros iniciais

1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
¸
¸
:
1
a
linha: nenhum zero inicial
2
a
linha: 1 zero inicial
3
a
linha: 4 zeros iniciais
Proposição 15 A característica de linha de uma matriz A ∈ M
m×n
(K) em
forma de escada é igual ao número de linhas diferentes de zero.
51
6 Teoria das Matrizes
Demonstração. Suponhamos que a matriz A tem as primeiras p linhas
não nulas e as últimas m − p nulas. Vamos mostrar que as p primeiras lin-
has são linearmente independentes. Para tal, é necessário resolver a equação
P
p
i=1
λ
i
L
i
= 0, para os escalares {λ
i
}. A linha L
i
terá a configuração
£
0 · · · a
ij
i
· · · a
in
¤
onde a
ij
i
é o primeiro elemento não nulo da linha i. A combinação linear
nula das primeiras p linhas de A toma então a forma
p
X
i=1
λ
i
£
0 · · · a
ij
i
· · · a
in
¤
= 0
a que corresponde a resolução de um sistema de equações, a saber:

a
1j
1
λ
1
+
P
p
i=2
λ
i
· 0 = 0
a
1j2
λ
1
+a
2j2
λ
2
+
P
p
i=3
λ
i
· 0 = 0
a
1j
3
λ
1
+a
2j
3
λ
2
+a
3j
3
λ
3
+
P
p
i=4
λ
i
· 0 = 0
· · ·
P
p
i=1
a
ij
p
λ
i
· 0 = 0
Note-se que da primeira equação resulta λ
1
= 0. Substituindo λ
1
= 0 na
segunda equação e resolvendo resulta λ
2
= 0. Substituindo na terceira equação
λ
1
= λ
2
= 0 resulta λ
3
= 0. Prosseguindo esta substituição recursivamente
até à p−ésima equação permite concluir que {λ
i
= 0}
i=1,··· ,p
e que portanto
as primeiras p linhas de A são linearmente independentes. Se a este conjunto
de linhas adicionarmos uma qualquer linha k, com p < k ≤ m, resultará um
conjunto de p +1 linhas linearmente dependente, uma vez que a linha k é nula.
Esta conclusão resulta da Proposição 10.1. Assim, p é o número máximo de
linhas linearmente independente da matriz A, isto é a característica de linha de
A é igual a p: r
l
(A) = p.
Nota 8 É evidente que a característica da matriz identidade de ordem n é
exactamente n, uma vez que a matriz identidade está naturalmente em forma
de escada.
Exemplo 14 Determinação da característica de linha das seguintes matrizes
em escada.
52
6 Teoria das Matrizes
• A =

0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
¸
¸
. O número de linhas não nulas é 2 pelo que
a característica de linha da matriz é r
l
(A) = 2. Alternativamente, pode-
mos verificar que as duas primeiras linhas são linearmente independentes
e, sendo a terceira linha nula, o número máximo de linhas linearmente
independentes é precisamente 2 (sejam λ
1
e λ
2
os escalares associados,
respectivamente, à primeira e segunda linhas da matriz A):
1.

0 · λ
1
+ 0 · λ
2
= 0
1 · λ
1
+ 0 · λ
2
= 0
1 · λ
1
+ 0 · λ
2
= 0
(−1) · λ
1
+ 4 · λ
2
= 0
0 · λ
1
+ 9 · λ
2
= 0
⇐⇒

0 = 0
λ
1
= 0
0 = 0
λ
2
= 0
0 = 0
⇐⇒
½
λ
1
= 0
λ
2
= 0
• A =

1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
¸
¸
. O número de linhas não nulas é 3 pelo que a
característica de linha da matriz é r
l
(A) = 3. Alternativamente, podemos
verificar que as linhas são linearmente independentes, sendo portanto o
número máximo de linhas linearmente independentes que é precisamente
3 (sejam λ
1
, λ
2
e λ
3
os escalares associados, respectivamente, à primeira,
segunda e terceira linhas da matriz A):
1.

1 · λ
1
+ 0 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 1 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 2 · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ (−1) · λ
2
+ 0 · λ
3
= 0
0 · λ
1
+ 0 · λ
2
+ 1 · λ
3
= 0
⇐⇒

λ
1
= 0
λ
2
= 0
0 = 0
0 = 0
λ
3
= 0
⇐⇒

λ
1
= 0
λ
2
= 0
λ
3
= 0
O resultado acima sugere que, se for possivel transformar uma qualquer
matriz A ∈ M
m×n
(K) numa matriz B em forma de escada preservando a sua
característica de linha, então é possível determinar a característica de linha de
qualquer matriz. O resultado seguinte mostra que tal processo existe.
Proposição 16 Toda a matriz A ∈ M
m×n
(K) pode ser reduzida a uma matriz
B em forma de escada por meio de operações elementares sobre as suas linhas,
tendo-se consequentemente r
l
(A) = r
l
(B).
53
6 Teoria das Matrizes
Demonstração. Suponhamos que j
1
, com 1 ≤ j
1
≤ n é a primeira coluna
de A que não é nula. Por troca de linhas, colocamos um elemento a 6= 0 na
posição (1, j
1
) da matriz. Multiplica-se agora a linha L
(1)
1
por a
−1
; deste modo
fica o elemento 1 ∈ K na posição (1, j
1
); se uma das outras linhas de A, L
s
por
exemplo, com 1 < s ≤ m, tem um elemento b na coluna j
1
soma-se-lhe a linha
L
(1)
1
multiplicada pelo escalar −b, isto é, faz-se L
s
←L
s
+ (−b) L
(1)
1
(Operação
de Jacobi). Assim, a nova linha L
(1)
s
passa a ter o escalar 0 ∈ K na posição
(s, j
1
). Procedendo de igual modo com todas as linhas, que não a primeira, que
tenham um elemento não nulo na coluna j
1
obtem-se uma matriz com a forma:
A
1
=

0 · · · 0 1 a
(1)
1,j1+1
a
(1)
1,j1+2
· · · a
(1)
1n
0 · · · 0 0 a
(1)
2,j
1
+1
a
(1)
2,j
1
+2
· · · a
(1)
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 a
(1)
m,j
1
+1
a
(1)
2,j
1
+2
· · · a
(1)
mn
¸
¸
¸
¸
¸
¸
Suponhamos agora que j
2
, com j
1
< j
2
≤ n é a primeira coluna de A
1
que
tem elementos não nulos para além de, eventualmente, o primeiro. Por troca de
linhas, colocamos um elemento d 6= 0 na posição (2, j
2
) da matriz. Multiplica-se
agora a linha L
(2)
2
por d
−1
; deste modo fica o elemento 1 ∈ K na posição (2, j
2
);
se uma das outras linhas de A
1
, L
(1)
r
por exemplo, com 2 < r ≤ m, tem um
elemento f na coluna j
2
soma-se-lhe a linha L
(2)
2
multiplicada pelo escalar −f,
isto é, faz-se L
(1)
r
←L
(1)
r
+(−f) L
(2)
2
(Operação de Jacobi). Assim, a nova linha
L
(2)
r
passa a ter o escalar 0 ∈ K na posição (r, j
2
). Procedendo de igual modo
com todas as linhas, que não a primeira e a segunda, que tenham um elemento
não nulo na coluna j
2
obtem-se uma matriz com a forma:
A
2
=

0 · · · 0 1 a
(1)
1,j
1
+1
· · · a
(1)
1,j
2
a
(1)
1,j
2
+1
· · · a
(1)
1n
0 · · · 0 0 0 · · · 1 a
(2)
2,j2+1
· · · a
(2)
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 a
(2)
m,j
2
+1
· · · a
(2)
mn
¸
¸
¸
¸
¸
¸
Repetindo este processo um número, p, suficiente de vezes, sempre inferior
a n, obtém-se uma matriz B = A
p
na forma desejada. Adicionalmente, tem-
se r
l
(A) = r
l
(B) uma vez que operações elementares sobre as linhas de uma
matriz não alteram a sua característica de linha.
Definição 29 (Condensação Vertical) Ao processo implícito na Proposição
16, que permite transformar uma qualquer matriz A ∈ M
m×n
(K) numa matriz
B em forma de escada através de operações elementares sobre linhas designa-se
Condensação Vertical da matriz A.
54
6 Teoria das Matrizes
Exemplo 15 Considere-se a matriz A =

0 2 4 1 9
0 3 5 2 1
0 −1 2 0 0
¸
¸
. Determi-
nemos a sua característica de linha através de condensação vertical.

0 2 4 1 9
0 3 5 2 1
0 −1 2 0 0
¸
¸
L
1
←−
2
5
L
1
−−−−−−−−→

0 1 2
1
2
9
2
0 3 5 2 1
0 −1 2 0 0
¸
¸
L
2
←− L
2
−3L
1
−−−−−−−−−−−−→

0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 −1 2 0 0
¸
¸
L
3
←− L
3
+L
1
−−−−−−−−−−−→

0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 0 4
1
2
9
2
¸
¸
L
3
←− L
3
+ 4L
2
−−−−−−−−−−−−→

0 1 2
1
2
9
2
0 0 −1
1
2

25
2
0 0 0
5
2

91
2
¸
¸
Logo, a característica de linha da matriz A é r
l
(A) = 3. Repare-se que a 2
a
e 3
a
operações poderiam ter sido ambas efectuadas na 2
a
matriz, poupando-nos
assim, a escrita de uma das matrizes anteriores (a terceira).
Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVer-
tical, ao elemento, a
ij
, utilizado para, mediante a aplicação de Operações de
Jacobi, anular os elementos {a
kj
}
k>i
da respectiva coluna mas em linhas de
ordem superior, dá-se a designação de Elemento Redutor (o termo ”pivot” é
também frequentemente utilizado). O Elemento Redutor de uma linha não nula
é o elemento com índice de coluna mais baixo que ainda é não -nulo.
As colunas de uma matriz em forma de escada que contêm um elemento
redutor designam-se por Colunas Redutoras (ou Colunas Pivot).
Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K.
No exemplo anterior utilizàmos, por exemplo −1. Não nos afastemos do ob-
jectivo principal do processo de condensação que consiste em transformar uma
matriz numa outra em forma de escada. A utilização da operação elementar que
consiste em multiplicar uma linha da matriz por um escalar tem como objectivo
facilitar os cálculos mediante a transformação do elemento redutor no escalar
1 ∈ K, com o qual é muito mais simples realizar as Operações de Jacobi que se
seguem.
Se, numa matriz em forma de escada, todos os elementos redutores forem o
escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0,
diz-se que a matriz se encontra na forma de escada reduzida.
Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos
redutores devidamente assinalados.
55
6 Teoria das Matrizes

0 1 1 −1 0
0 0 0 4 9
0 0 0 0 0
¸
¸
¸. Trata-se de uma matriz em forma de escada.

1 0 0 0 0
0 1 2 −1 0
0 0 0 0 1
¸
¸
¸. Trata-se de uma matriz em forma de escada
reduzida.
Nota 10 Naturalmente que, numa matriz em forma de escada, o número de
linhas não nulas, o número de elementos redutores e o número de colunas redu-
toras são sempre iguais entre si.
6.7 Inversão de Matrizes
Nesta secção vamos estudar a Inversão de Matrizes, questão central na Teoria
das Matrizes com ramificações extremamente importantes na Álgebra Linear
em geral.
6.7.1 Definições e Resultados
Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A∈M
n
(K)
diz-se regular se existir B ∈ M
n
(K) tal que AB = I
n
= BA. A matriz B diz-
se inversa de A e escreve-se B = A
−1
. Do mesmo modo, A diz-se inversa de
B e escreve-se A = B
−1
. Se não existir uma matriz B nestas condições, diz-se
que a matriz A é singular.
3
Esta definição deixa em aberto uma afirmação que carece de demonstração.
O estabelecimento formal desta afirmação é como se segue:
Proposição 17 Considerem-se as matrizes A, B ∈ M
n
(K). Então AB = I se
e só se BA = I.
Demonstração.
(⇒) Suponhamos que AB = I. Pretende-se mostrar que BA = I.
3
Assumindo que o produto A· B
−1
se encontra bem definido, é incorrecto representá-lo por
A
B
. Com efeito, esta notação poderá denotar ambiguamente o produto A· B
−1
ou o produto
B
−1
· A, que não são necessariamente iguais.
56
6 Teoria das Matrizes
BA = BAI
(porque a identidade é elemento neu-
tro para a multiplicação de matrizes)
= B(AI)
(pela propriedade associativa pa-
ra a multiplicação de matrizes)
= B(IA) (porque a matriz identidade é comutável)
= B(AB) A(por hipótese)
= (BA) (BA)
(pela propriedade associativa pa-
ra a multiplicação de matrizes)
Resulta que BA = (BA) (BA) ⇐⇒ BA(BA−I) = 0. Se BA = 0 então
ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. Mas também
BAB = 0B ⇐⇒ B(AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. Logo deveremos
ter (BA−I) = 0 ⇐⇒BA = I.
(⇐=) Suponhamos que BA = I. Pretende-se mostrar que AB = I. De-
mostração em tudo idêntica à anterior mutatis mutantis.
Naturalmente que o conceito de regularidade de uma matriz só é passível de
ser aplicado a matrizes quadradas. Qualquer matriz, que não seja quadrada não
pode, por definição, ser regular, uma vez que não existe uma outra matriz que
possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos
produtos nunca será possível).
Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes re-
gulares.
1. Toda a matriz elementar é regular.
2. Se A ∈ M
n
(K) é regular então r
l
(A) = n = r
c
(A).
3. Se A ∈ M
n
(K) é regular então
¡
A
T
¢
−1
=
¡
A
−1
¢
T
.
4. Seja A ∈ M
m×n
(K). Se B ∈ M
n
(K) e D ∈ M
m
(K) forem regulares
então r
l
(DA) = r
l
(A) e r
c
(AB) = r
c
(A).
5. Se A, B ∈ M
n
(K) são matrizes regulares, AB também é regular e tem-se
(AB)
−1
= B
−1
A
−1
.
6. Se A
k
∈ M
n
(K) , k = 1, · · · , p são matrizes regulares então
Q
p
k=1
A
k
também o é e (
Q
p
k=1
A
k
)
−1
= A
−1
p
× · · · ×A
−1
1
.
7. O conjunto das matrizes regulares de ordem n sobre um corpo K constitui
um grupo a respeito da multiplicação; tal grupo designa-se por GL
n
(K),
Grupo Linear Geral de ordem n.sobre K.
57
6 Teoria das Matrizes
8. Seja A ∈ M
n
(K) uma matriz regular de ordem n sobre K. Se B ∈ M
n
(K)
é tal que BA = I
n
, então B = A
−1
; de igual modo, se B ∈ M
n
(K) é tal
que AD = I
n
então D = A
−1
.
Demonstração.
1. Seja E uma matriz elementar de ordem n sobre K. Se E resultou de I
n
por troca de linhas (ou colunas) é fácil verificar que EE = I
n
, logo E é
regular e inversa de si mesma. Com feito, se E resulta da troca das linhas
s e t; teremos (no caso da troca de linhas):
(EE)
ik
=
n
X
j=1
e
ij
e
jk
=

P
n
j=1
e
sj
e
jk
= e
tk
, se i = s
P
n
j=1
e
tj
e
jk
= e
sk
, se i = t
e
ik
, se i 6= s, t
=

½
1, se k = s
0, se k 6= s
, se i = s
½
1, se k = t
0, se k 6= t
, se i = t
e
ik
, se i 6= s, t
= δ
ik
Se E resultou da multiplicação da linha (ou coluna) s por um escalar
α ∈ K\ {0}, então, sendo F a matriz elementar resultante de multiplicar
a linha (ou coluna) s de I
n
por a
−1
, tem-se EF = I
n
= FE, logo E é
regular. Efectivamente, no caso das linhas,
(EF)
ik
=
n
X
j=1
e
ij
f
jk
=
½
e
ss
f
sk
= αf
sk
, se i = s
e
ik
, se i 6= s
=

½
1, se k = s
0, se k 6= s
, se i = s
e
ik
, se i 6= s
= δ
ik
Se E se obteve somando à linha (ou coluna) s de I
n
a linha (ou coluna)
t multiplicada por b ∈ K, a matriz H obtida de I
n
somando à linha (ou
coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE=I
n
=
EH, logo E é regular. Com efeito, para as linhas,
(EH)
ik
=
n
X
j=1
e
ij
h
jk
=
½ P
n
j=1
e
sj
h
jk
= e
ss
h
sk
+e
st
h
tk
, se i = s
e
ik
, se i 6= s
=

½
1 · 1 + 0 · 0 = 1, se k = s
1 · (−b) +b · 1 = 0, se k = t
, se i = s
e
ik
, se i 6= s
= δ
ik
58
6 Teoria das Matrizes
2. Se A é regular teremos AA
−1
= I
n
, e pela Proposição (12) n = r
c
(I
n
) ≤
r
c
(A). Como A tem apenas n colunas, virá r
c
(A) = n. De igual modo,
como A
−1
A = I
n
, ter-se-á n = r
l
(I
n
) ≤ r
l
(A) e como A tem apenas n
linhas, virá r
c
(A) = n.
3. Basta verificar que A
T
¡
A
−1
¢
T
=
¡
A
−1
A
¢
T
= I
n
.
4. Como DA = DA, tem-se, pela Proposição (12) r
l
(DA) ≤ r
l
(A). Mas
tem-se A = D
−1
DA pelo que r
l
(DA) ≥ r
l
(A). Logo, r
l
(DA) = r
l
(A).
O raciocínio que demostra o resultado para as colunas é, em todo, semel-
hante.
5. Basta verificar que (AB) B
−1
A
−1
= A
¡
BB
−1
¢
A
−1
= AA
−1
= I
n
.
6. O resultado constitui uma generalização do resultado anterior e pode ser
demonstrado por indução sobre o número de factores do produto. Para
p = 2 o resultado está demonstrado. Suponhamos que o resultado é válido
para p − 1 factores. Pretende-se mostrar que também é válido para p
factores:
Ã
p
Y
k=1
A
k
!
¡
A
−1
p
× · · · ×A
−1
1
¢
=
= (A
1
× · · · ×A
p
)
¡
A
−1
p
× · · · ×A
−1
1
¢
= A
1
× · · · ×
¡
A
p
A
−1
p
¢
× · · · ×A
−1
1
(porque A
p
é regular) = (A
1
× · · · ×A
p−1
)
¡
A
−1
p−1
× · · · ×A
−1
1
¢
= I
n
(por hipótese)
7. Vimos no ponto 5. desta proposição que o referido conjunto é fechado
para a multiplicação; na Proposição (5) verificámos que a multiplicação
de matrizes é associativa; o elemento neutro I
n
pertence ao conjunto;
finalmente, se A é regular A
−1
também o é, o que significa que A
−1

GL
n
(K). Conclui-se assim que GL
n
(K) é um grupo.
8. Se BA = I
n
então BAA
−1
= I
n
A
−1
, logo B = A
−1
. De igual modo, se
AD = I
n
então A
−1
AD = A
−1
I
n
, logo D = A
−1
.
Nota 11 Simbolicamente, a inversa de uma matriz regular é dada pelas seguin-
tes matrizes:
• E
−1
ik
= E
ik
• E
−1
i
(α) = E
i
¡
1
α
¢
, α 6= 0
59
6 Teoria das Matrizes
• E
−1
ik
(α) = E
ik
(−α)
A seguinte proposição é uma generalização do resultado estabelecido no
ponto 4 da Proposição (18):
Proposição 19 Seja A ∈ M
m×n
(K). Se F ∈ M
n
(K) e E ∈ M
m
(K) forem
matrizes elementares então r
l
(AF) = r
l
(A) e r
c
(EA) = r
c
(A).
Demonstração. Façamos a prova para as linhas. Considere-se A
0
= AF,
e recordemos que a multiplicação à direita por uma matriz elementar cor- re-
sponde a operar sobre as colunas (Proposição 13). Designem-se as linhas de
A por {L
s
}
s=1,··· ,n
e as de A
0
por
n
L
0
s
o
s=1,··· ,n
. Suponhamos, sem perda de
generalidade, que {L
s
}
s=1,··· ,h
são linearmente idependentes. Vejamos qual o
resultado da aplicação das três operações elementares sobre as linhas de A.
• Suponhamos então que A
0
resulta de A por troca das colunas i e j, com i<
j. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
sj
· · · a
si
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
Suponhamos agora que A
0
resulta de A por multiplicação da coluna j desta
última por um escalar β ∈ K\ {0}. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
60
6 Teoria das Matrizes
h
X
s=1
λ
s
£
a
s1
· · · β ×a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Em particular, relativamente às coordenadas de índice j, temos
P
h
s=1
λ
s
×
β ×a
sj
= β
P
h
s=1
λ
s
a
sj
= 0. Mas porque β 6= 0 virá
P
h
s=1
λ
s
a
sj
= 0, isto
é
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
• Admitamos agora que A
0
resulta de somar à coluna i de A a coluna j, com
i < j, multiplicada por um escalar β ∈ K\ {0}. Mostremos que as linhas
n
L
0
s
o
s=1,··· ,h
são linearmente independentes:
h
X
s=1
λ
s
L
0
s
= 0 ⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
+βa
sj
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
61
6 Teoria das Matrizes

P
h
s=1
λ
s
a
s1
= 0
.
.
.
P
h
s=1
λ
s
a
si

P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sn
= 0
⇐⇒

P
h
s=1
λ
s
a
s1
= 0
.
.
.
P
h
s=1
λ
s
a
si

P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sj
= 0
.
.
.
P
h
s=1
λ
s
a
sn
= 0
⇐⇒
h
X
s=1
λ
s
£
a
s1
· · · a
si
· · · a
sj
· · · a
sn
¤
= 0 ⇐⇒
h
X
s=1
λ
s
L
s
= 0 =⇒
λ
s
= 0, ∀
s=1,··· ,h
Assim, as linhas
n
L
0
s
o
s=1,··· ,n
são linearmente independentes.
Concluímos assim, que r
l
(A) ≤ r
l
(AF). Como F é uma matriz elemen-
tar, logo é regular e podemos escrever A = A
0
F
−1
, sendo também F
−1
uma matriz elementar (como verificámos na demonstração do ponto 1. da
Proposição 18). Do mesmo modo, teremos r
l
³
A
0
´
≤ r
l
³
A
0
F
−1
´
pela
Proposição 12, ou seja r
l
(AF) ≤ r
l
(A), donde a igualdade.
Analogamente se prova a afirmação relativamente à característica de col-
una.
Nota 12 Em termos práticos, o que o resultado anterior nos indica é que oper-
ações elementares sobre as linhas de uma matriz não afectam a sua característica
de coluna e que as operaçõs elementares sobre as colunas de uma matriz não
afectam a sua característica de linha.
62
6 Teoria das Matrizes
Podemos portanto concluir que operações elementares sobre as linhas ou col-
unas de uma matriz não afectam a sua característica.
Proposição 20 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n. A
redução da matriz A a uma matriz B em forma de escada por meio de operações
elementares sobre as linhas (ver Proposição 16) implica que B seja triangular
superior com todos os elementos principais não nulos.
Demonstração. Já verificámos na Proposição (16) que qualquer matriz é
redutível à forma de escada por meio de operações elementares, em particular
qualquer matriz A ∈ M
m×n
(K).
Suponhamos que a matriz A está reduzida à forma de escada mas que, por
exemplo, b
jj
= 0, com 1 ≤ j ≤ n. Tal significa que o primeiro elemento
significativo da linha
j
será pelo menos b
j,j+1
. Mas isso significa que o primeiro
elemento significativo da linha n será pelo menos b
n,n+1
. Mas a matriz B é
quadrada, logo, a n-ésima linha de B é nula. Pela Proposição (10) as linhas
de B, e portanto de A, serão linearmente dependentes, implicando que r
l
(A) =
r
l
(B) < n, o que é absurdo. O absurdo resulta de assumirmos que um dos
elementos da diagonal de B é não nulo, logo b
jj
6= 0, ∀
1≤j≤n
.
Assim, dada uma matriz A ∈ M
m×n
(K) a matriz B, em forma de escada,
que daquela resulta por aplicação de operações elementares terá a forma:

1 b
12
b
13
· · · b
1,n−2
b
1,n−1
b
1,n
0 1 b
23
· · · b
2,n−2
b
2,n−1
b
2,n
0 0 1 · · · b
3,n−2
b
3,n−1
b
3,n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1 b
n−2,n−1
b
n−2,n
0 0 0 · · · 0 1 b
n−1,n
0 0 0 · · · 0 0 1
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
(5)
Continuando a proceder a operações elementares sobre linhas, poderemos
transformar B em I
n
.
O seguinte conjunto de operações transformará a matriz B numa matriz B
(1)
onde a última coluna tem a forma {0, 0, 0, · · · 0, 0, 1}:
L
n−1
←L
n−1
−b
n−1,n
×L
n
L
n−2
←L
n−2
−b
n−2,n
×L
n
· · ·
L
1
←L
1
−b
1,n
×L
n
(6)
De igual modo, o seguinte conjunto de operações transformará a matriz B
(1)
numa matriz B
(2)
onde a penúltima coluna tem a forma {0, 0, 0, · · · 0, 1, 0}:
63
6 Teoria das Matrizes
L
n−2
←L
n−2
−b
n−2,n−1
×L
n−1
L
n−3
←L
n−3
−b
n−3,n−1
×L
n−1
· · ·
L
1
←L
1
−b
1,n−1
×L
n−1
(7)
Prossegue-se deste modo até se obter I
n
.
A seguinte proposição enuncia o acima explicitado.
Proposição 21 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n.
Através de um número finito de de operações elementares sobre as linhas é
possível transformar a matriz A na matriz I
n
.
Proposição 22 Seja A ∈ M
n
(K) uma matriz quadrada tal que r
l
(A) = n
(r
c
(A) = n). Então A é um produto de matrizes elementares, logo regular.
Demonstração. Verificámos, na Proposição 21, que é possível através
de operações elementares sobre linhas, transformar a matriz A na matriz I
n
.
Suponhamos que precisámos de t destas operações, digamos O
p
1
,O
p
2
,O
p
3
,· · ·,O
p
t
,
para obter I
n
. Vamos refazer o processo com o seguinte esquema:
A
O
p
1
−−−−−→ A
1
I
n
O
p
1
−−−−−→ E
1
,
onde E
1
é uma matriz elementar. Pelo estabelecido na Proposição 13 tem-se
ainda A
1
= E
1
· A. Efectuando uma sgunda operação tem-se:
A
1
O
p2
−−−−−→ A
2
E
1
O
p2
−−−−−→ E
12
I
n
O
p2
−−−−−→ E
2
,
onde A
2
= E
2
· A
1
e E
12
= E
2
· E
1
. Efectuando uma terceira operação,
tem-se:
A
2
O
p
3
−−−−−→ A
3
E
12
O
p
3
−−−−−→ E
123
I
n
O
p
3
−−−−−→ E
3
,
onde A
3
= E
3
· A
2
e E
123
= E
3
· E
12
, e assim sucessivamente até à operação
O
p
t
:
A
t−1
O
pt
−−−−−→ A
t
E
12···t−1
O
pt
−−−−−→ E
12···t
I
n
O
pt
−−−−−→ E
t
,
onde A
t
= E
t
· A
t−1
e E
12···t
= E
t
· E
12···t−1
.
64
6 Teoria das Matrizes
Como se referiu no início da demonstração, depois da aplicação destas t
operações obteve-se a matriz I
n
, isto é, A
t
= I
n
. Então,
E
12···t
= E
t
E
12···t−1
= E
t
E
t−1
· E
12···t−2
= (· · · )
= E
t
E
t−1
· · · · · E
3
E
2
E
1
e ainda
I
n
= A
t
= E
t
A
t−1
= E
t
E
t−1
· A
t−2
= (· · · )
= E
t
E
t−1
· · · · · E
3
E
2
E
1
A
= E
12···t
A
Nos pontos 1 e 5 da Proposição 18, respectivamente, estabelecemos que toda
maatriz elementar é regular e que o produto de matrizes regulares é ainda uma
matriz regular. Conclui-se portanto que a matriz E
12···t
é regular. Pelo ponto
8 da Proposição 18 vem A = (E
12···t
)
−1
, ou seja A = E
−1
1
E
−1
2
E
−1
3
· · · · · E
−1
t
.
Resta assinalar que cada E
−1
i
, 1 ≤ i ≤ t é uma matriz elementar.
A seguinte proposição generaliza o resultado da Proposição 19.
Proposição 23 Seja A ∈ M
m×n
(K). Se B ∈ M
n
(K) e D ∈ M
m
(K) forem
matrizes regulares então r
l
(AB) = r
l
(A) e r
c
(DA) = r
c
(A).
Demonstração. Façamos a prova para a característica de linha. Conforme
a Proposição 22, a matriz B é produto de matrizes elementares, digamos, B =
F
1
F
2
· · · F
i−1
F
i
. Tendo em conta o resultado da Proposição 19
r
l
(AB) = r
l
(AF
1
F
2
· · · F
i−1
F
i
)
= r
l
(AF
1
F
2
· · · F
i−1
)
= r
l
(AF
1
F
2
· · · F
i−2
)
= (· · · )
= r
l
(A)
Analogamente para a característica de coluna.
65
6 Teoria das Matrizes
Proposição 24 Seja A ∈ M
n
(K).
1. A matriz A é regular se e só se r
l
(A) = n (ou r
c
(A) = n).
2. A matriz A é regular se e só se tiver uma inversa direita (respectivamente
esquerda), isto é, se existir uma matriz B ∈ M
n
(K) tal que AB = I
n
(respectivamente BA = I
n
).
Demonstração.
1. Pelo ponto 2. da Proposição (18) se A é regular então r
l
(A) = n. Pela
Proposição (22), se r
l
(A) = n então A é regular. Analogamente para
r
c
(A) = n.
2. Se A é regular, por definição existe uma matriz B ∈ M
n
(K) tal que AB =
I
n
= BA. Se AB = I
n
, pela Proposição (12) tem-se n = r
c
(I
n
) ≤ r
c
(B),
logo r
c
(A) = n, e portanto A é regular pelo ponto anterior.
6.7.2 Determinação da Inversa de uma Matriz Regular
Nesta secção apresenta-se um método prático para a determinação da matriz
inversa de uma matriz A ∈ M
n
(K) regular. Pela Proposição (21) sabemos que
existem matrizes elementares E
1
, E
2
, · · · E
t
tais que E
t
E
t−1
· · · E
2
E
1
A = I
n
,
logo A
−1
= E
t
E
t−1
· · · E
2
E
1
A Isto significa que, se conhecermos sucessivamente
as matrizes elementares que permitem passar de A a I
n
. conhecermos a matriz
B tal que BA = I
n
, isto é, conheceremos a inversa de A. Consideremos então a
matriz ampliada
£
A|I
n
¤
do tipo n×2n e apliquemos toda a operação elementar
sobre as as linhas de A às linhas de I
n
. Suponhamos que O
p1
, O
p2
, · · · O
pt
são
as operações elementares a aplicar sobre a matriz A.
£
A|I
n
¤
O
p
1
−−−−−→
£
A
1
|E
1
I
n
¤
O
p
2
−−−−−→
£
A
2
|E
2
E
1
¤
O
p3
−−−−−→
£
A
3
|E
3
E
2
E
1
¤
· · ·
−−−−→
£
A
1
|E
1
¤
O
p
t
−−−−−→
£
I
n
|E
t
E
t−1
· · · E
2
E
1
¤
O que fizemos foi passar de uma matriz
£
A|I
n
¤
para uma matriz
£
I
n
|B
¤
através de operações elementares sobre linhas, em que B = A
−1
.
Exemplo 17 Consideremos a seguinte matriz real,
A =

1 1 1
1 −1 1
1 1 0
¸
¸
66
6 Teoria das Matrizes
Vamos veriicar se a matriz A é regular e, em caso afirmativo, determinar a
sua inversa. Em vez de condensar primeiro a matriz A, de modo a determinar
a característica, e no caso em que r
l
(A) = n, partindo de
£
A|I
n
¤
chegar a
£
I
n
|B
¤
vamos começar imediatamente com a redução de
£
A|I
n
¤
. Assim, se
A for regular, não é necessário repetir as operações elementares já efectuadas:

1 1 1
1 −1 1
1 1 0
¯
¯
¯
¯
¯
¯
1 0 0
0 1 0
0 0 1
¸
¸
L
2
←− L
2
−L
1
L
3
←− L
3
−L
1
−−−−−−−−−−−−→

1 1 1
0 −2 0
0 0 −1
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
−1 0 1
¸
¸
L
2
←− −
1
2
L
2
L
3
←− −L
3
−−−−−−−−−−−→

1 1 1
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯
1 0 0
1
2

1
2
0
1 0 −1
¸
¸
L
1
←− L
1
−L
3
−−−−−−−−−−−→

1 1 0
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯
0 0 1
1
2

1
2
0
1 0 −1
¸
¸
L
1
←− L
1
−L
2
−−−−−−−−−−−→

1 0 0
0 1 0
0 0 1
¯
¯
¯
¯
¯
¯

1
2
1
2
1
1
2

1
2
0
1 0 −1
¸
¸
Tem-se claramente que,
A
−1
=


1
2
1
2
1
1
2

1
2
0
1 0 −1
¸
¸
Conclui-se assim que a matriz é regular, conclusão esta atingida ao fim das
duas primeiras operações sobre as linhas de A, quando se obteve uma matriz
em escada de elementos principais significativos. Se a matriz A não fosse reg-
ular o processo teria terminado aqui. Sendo regular, prosseguiu-se na aplicação
de operações elementares sobre as linhas de A até se obter I
3
enquanto que
simultaneamente determinávamos A
−1
por aplicação das mesmas operações el-
ementares sobre I
3
.
Note-se que às operações elementares utilizadas correspondem, utilizando a
notação habitual, as seguintes matrizes elementares
L
2
←− L
2
−L
1
: E
21
(−1)
L
3
←− L
3
−L
1
: E
31
(−1)
L
2
←− −
1
2
L
2
: E
2
¡

1
2
¢
L
3
←− −L
3
: E
3
(−1)
L
1
←− L
1
−L
3
: E
13
(−1)
L
1
←− L
1
−L
2
: E
12
(−1)
67
6 Teoria das Matrizes
Tal significa, segundo o que verificámos na proposição 22, que a matriz A
−1
pode ser produzida pelo produto, pela ordem correcta!, das matrizes elementares
acima descritas. Verifiquemos então esse resultado:
A
−1
= E
12
(−1) · E
13
(−1) · E
3
(−1) · E
2
µ

1
2

· E
31
(−1) · E
21
(−1) =
=

¸

1 −1 0
0 1 0
0 0 1
¸
¸
·

1 0 −1
0 1 0
0 0 1
¸
¸
¸

·

¸

1 0 0
0 1 0
0 0 −1
¸
¸
·

1 0 0
0 −
1
2
0
0 0 1
¸
¸
¸

·

¸

1 0 0
0 1 0
−1 0 1
¸
¸
·

1 0 0
−1 1 0
0 0 1
¸
¸
¸

=
=

1 −1 −1
0 1 0
0 0 1
¸
¸

1 0 0
0 −
1
2
0
0 0 −1
¸
¸

1 0 0
−1 1 0
−1 0 1
¸
¸
=


1
2
1
2
1
1
2

1
2
0
1 0 −1
¸
¸
Como seria inevitável, a matriz obtida pelo produto das matrizes elementares
é precisamente A
−1
.
Por um processo semelhante, também será possível recuperar a matriz A.
Com efeito, esta matriz será a inversa do produto de matrizes elementares de-
scrito anteriormente. Sabendo que a inversa de uma matriz elementar tem uma
forma extremamente simples, é relativamente simples determinar A, como se
verifica em seguida:
A =
·
E
12
(−1) · E
13
(−1) · E
3
(−1) · E
2
µ

1
2

· E
31
(−1) · E
21
(−1)
¸
−1
=
E
−1
21
(−1) · E
−1
31
(−1) · E
−1
2
µ

1
2

· E
−1
3
(−1) · E
−1
13
(−1) · E
−1
12
(−1) =
E
21
(1) · E
31
(1) · E
2
(−2) · E
3
(−1) · E
13
(1) · E
12
(1) =
=

¸

1 0 0
1 1 0
0 0 1
¸
¸
·

1 0 0
0 1 0
1 0 1
¸
¸
¸

·

¸

1 0 0
0 −2 0
0 0 1
¸
¸
·

1 0 0
0 1 0
0 0 −1
¸
¸
¸

·

¸

1 0 1
0 1 0
0 0 1
¸
¸
·

1 1 0
0 1 0
0 0 1
¸
¸
¸

=
=

1 0 0
1 1 0
1 0 1
¸
¸

1 0 0
0 −2 0
0 0 −1
¸
¸

1 1 1
0 1 1
0 0 1
¸
¸
=

1 1 1
1 −1 −1
1 1 0
¸
¸
Definição 32 (Inversão por Condensação) Ao método atrás descrito para
a inversão de uma qualquer matriz A ∈ M
n
(K) dá-se o nome de Inversão por
Condensação.
Nota 13 É extremamente importante lembrar que a determinação da inversa
de uma matriz através do método descrito só pode ser realizada exclusivamente
68
6 Teoria das Matrizes
por aplicação de operações elementares sobre linhas. Com efeito, só assim é pos-
sível afirmar que E
t
E
t−1
· · · E
2
E
1
A = I
n
e que portanto A
−1
= E
t
E
t−1
· · · E
2
E
1
.
Se forem aplicadas operações sobre colunas, definidas pelas matrizes elementares
F
1
, F
2
, · · · F
s
, chegar-se-á à conclusão que E
t
E
t−1
· · · E
2
E
1
AF
1
F
2
· · · F
s
= I
n
.
Esta expressão não está, obviamente, na forma BA = I
n
não permitindo inferir
imediatamente a forma de A
−1
.
Nota 14 Quando uma matriz A ∈ M
n
(K) não é regular esta circunstância é
facilmente identificável durante o processo de inversão da matriz. Sucederá que
em determinado ponto, após a aplicação de s operações elementares sobre linhas,
se obterá uma matriz do tipo
£
A
s
|E
s
¤
em que o próximo elemento redutor
não poderá ter outro valor que não 0. Tal significa que não é possível reduzir
a matriz A original a uma matriz triangular superior com elementos proncipais
não nulos. Consequentemente, segundo a Proposição 20 a característica da
matriz será inferior a n e portanto não será regular.
Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real,
A =

1 1 1
1 −1 1
−1 −3 −1
¸
¸

1 1 1
1 −1 1
−1 −3 −1
¯
¯
¯
¯
¯
¯
1 0 0
0 1 0
0 0 1
¸
¸
L
2
←− L
2
−L
1
L
3
←− L
3
+L
1
−−−−−−−−−−−−→

1 1 1
0 −2 0
0 −2 0
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
1 0 1
¸
¸
L
3
←− L
3
−L
2
−−−−−−−−−−−−→

1 1 1
0 −2 0
0 0 0
¯
¯
¯
¯
¯
¯
1 0 0
−1 1 0
2 −1 1
¸
¸
Obteve-se uma matriz na forma
£
A
3
|E
3
¤
. Note-se que, neste ponto não há
forma de colocar na posição (3, 3) um elemento não nulo sem com essa operação
anular a configuração em forma de escada da matriz A
3
. Conclui-se assim que
a matriz A não é regular. Mais se conclui que, como a matriz A
3
está na forma
de escada, que a caratcterística da matriz A é 2.
69
6 Teoria das Matrizes
6.8 A Característica Revisitada
Na secção 6.6 estudámos um método, designado por Condensação Vertical,
para a determinação da característca de linha de uma qualquer matriz A ∈
M
m×n
(K). Nesta secção vamos estudar a relação entre três valores: a carac-
terísitca de linha, a característica de coluna e a característica de uma matriz.
Esse estudo resume-se ao seguinte resultado:
Proposição 25 Seja A ∈ M
m×n
(K). A características de linha e de coluna
da matriz A são iguais, isto é, r
l
(A) = r
c
(A).
Demonstração. Verificámos na Proposição 16 que a matriz A pode ser
reduzida a uma matriz A
(1)
, em forma de escada, por meio de operações ele-
mentares sobre as linhas da matriz A. Tal significa, por aplicação da Proposição
13 que existe uma matriz E, regular, tal que EA = A
(1)
. A matriz A
(1)
terá a
seguinte forma genérica:

0 · · · 0 1 b
1,j
1
+1
b
1,j
1
+2
· · · b
1,j
2
b
1,j
2
+1
· · · b
1,j
3
b
1,j
3
+1
· · · b
1,j
t
· · · b
1n
0 · · · 0 0 0 0 · · · 1 b
2,j
2
+1
· · · b
2,j
3
b
2,j
3
+1
· · · b
2,j
t
· · · b
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 b
3,j3+1
· · · b
3,jt
· · · b
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · b
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz
A
(2)
cuja forma é a seguinte:

1 b
1,j2
b
1,j3
· · · b
1,jt
b
1,j1+1
b
1,j1+2
· · · b
1,j2+1
· · · b
1,j3+1
· · · b
1n
0 · · · 0
0 1 b
2,j
3
· · · b
2,j
t
0 0 · · · b
2,j
2
+1
· · · b
2,j
3
+1
· · · b
2n
0 · · · 0
0 0 1 · · · b
3,j
t
0 0 · · · 0 · · · b
3,j
3
+1
· · · b
3n
0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1 0 0 · · · 0 · · · 0 · · · b
tn
0 · · · 0
0 0 0 · · · 0 0 0 · · · 0 · · · 0 · · · 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0 0 0 · · · 0 · · · 0 · · · 0 0 · · · 0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Seguidamente, através de operações de Jacobi sobre colunas poderemos uti-
lizar o elemento redutor a
(2)
11
para anular os elementos não nulos da primeira
linha de A
(2)
; de igual modo, utilizaremos o elemento redutor a
(2)
22
para anular
70
6 Teoria das Matrizes
os elementos não nulos da segunda linha de A
(2)
. Prosseguindo deste modo
até ao elemento redutor a
(2)
tt
poderemos constatar que a matriz A
(2)
pode ser
transformada, através de operações elementares sobre colunas, na matriz A
(3)
.
Tal significa, por aplicação da Proposição 13 que existe uma matriz F, regular,
tal que A
(1)
F = A
(3)
. A matriz A
(3)
terá a seguinte forma genérica, numa
representação por blocos:
A
(3)
=
·
I
t
0
t,n−t
0
m−t,t
0
m−t,n−t
¸
Em resumo, existem matrizes regulares E e F tais que EAF = A
(3)
.
Reconhecendo que, nestas circunstâncias, r
c
¡
A
(3)
¢
= t e, por aplicação do
ponto 3 da Proposição 18 e da Proposição 23 concluímos que:
t = r
l
³
A
(3)
´
= r
l
(EAF) = r
l
(AF) = r
l
(A)
t = r
c
³
A
(3)
´
= r
c
(EAF) = r
c
(AF) = r
c
(A)
Resulta imediatamente que r
l
(A) = r
c
(A).
A este valor r
l
(A) = r
c
(A) dá-se o nome de característica da matriz A e
designa-se simplesmente por r (A).
Definição 33 (Forma Canónica de uma Matriz) Seja A ∈ M
m×n
(K). A
matriz B =
·
I
t
0
t,n−t
0
m−t,t
0
m−t,n−t
¸
que resulta de A por aplicação de operações
elementares às suas linhas e colunas designa-se por forma canónica equiva-
lente a A.
Definição 34 (Condensação de uma Matriz) Seja A ∈ M
m×n
(K). O pro-
cesso que permite determinar a forma canónica equivalente a A designa-se por
condensação da matriz A.
Nota 15 O processo de condensação não consiste necessariamente na aplicação
de um conjunto de operações elementares sobre linhas seguido da aplicação de
um conjunto de operações elementares sobre colunas. A aplicação inicial de
um conjunto de operações elementares sobre linhas, processo que se designa
por condensação vertical como definido na Definição 29 permite determinar a
característica da matriz, digamos r (A). A partir daqui, o problema consiste,
através de operações elementares, indiferentemente sobre linhas ou colunas, em
criar uma matriz, cuja submatriz ocupando as primeiras r (A) linhas e colunas
é a identidade de ordem r (A) e os restantes elementos da matriz são nulos.
71
6 Teoria das Matrizes
Exemplo 19 Pelo processo de condensação determine-se a forma canónica de
cada uma das seguinte matrizes
1.

1 1 −1 −1 0
13 0 13 4 9
27 1 25 7 18
¸
¸

1 1 −1 −1 0
13 0 13 4 9
27 1 25 7 18
¸
¸
L
2
←− L
2
−13 ×L
1
L
3
←− L
3
−27 ×L
1
−−−−−−−−−−−−−−−−→

1 1 −1 −1 0
0 −13 26 17 9
0 −26 52 34 18
¸
¸
L
3
←− L
3
−2 ×L
2
−−−−−−−−−−−−−−→

1 1 −1 −1 0
0 −13 26 17 9
0 0 0 0 0
¸
¸
C
2
←− C
2
−C
1
C
3
←− C
3
+C
1
C
4
←− C
4
+C
1
−−−−−−−−−−−−−→

1 0 0 0 0
0 −13 26 17 9
0 0 0 0 0
¸
¸
C
3
←− C
3
+ 2 ×C
2
C
4
←− C
4
+
17
13
×C
2
C
5
←− C
5
+
9
13
×C
2
−−−−−−−−−−−−−−−−−→

1 0 0 0 0
0 −13 0 0 0
0 0 0 0 0
¸
¸
C
2
←− −
1
13
C
2
−−−−−−−−−−−−→

1 0 0 0 0
0 1 0 0 0
0 0 0 0 0
¸
¸
2.

1 2 1
1 −5 1
2 2 3
1 −1 1
0 0 1
¸
¸
¸
¸
¸
¸

1 2 1
1 −5 1
2 2 3
1 −1 −2
0 0 1
¸
¸
¸
¸
¸
¸
L
2
←−L
2
−L
1
L
3
←−L
3
−2×L
1
L
4
←−L
4
−L
1
−−−−−−−−−−−−−→

1 2 1
0 −7 0
0 −2 1
0 −3 −3
0 0 1
¸
¸
¸
¸
¸
¸
L
2
←− −
1
7
L
2
−−−−−−−−−→
72
6 Teoria das Matrizes

1 2 1
0 1 0
0 −2 1
0 −3 −3
0 0 1
¸
¸
¸
¸
¸
¸
L
3
←−L
3
+2×L
2
L
4
←−L
4
+3×L
2
−−−−−−−−−−−−−→

1 2 1
0 1 0
0 0 1
0 0 −3
0 0 1
¸
¸
¸
¸
¸
¸
L
4
←−L
4
+3×L
3
L
4
←−L
4
−L
3
−−−−−−−−−−−−−→

1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
A partir deste ponto temos duas alternativas possíveis. Ou prosseguimos
com operações elementares sobre linhas, ou com operações elementares
sobre colunas. Atente-se que o objectivo é criar uma matriz onde a iden-
tidade de ordem igual à característica da matriz, neste caso, obviamente,
3, constitui uma submatriz ocupando as primeiras 3 linhas e colunas da
matriz, sendo os restantes elementos da matriz nulos.
Utilizando operações elementares sobre linhas obtém-se:

1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
L
1
←− L
1
−L
3
−−−−−−−−−−−−→

1 2 0
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
L
1
←− L
1
−2 ×L
2
−−−−−−−−−−−−−−−−→

1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
Utilizando operações elementares sobre colunas obtém-se:

1 2 1
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
C
2
←− C
2
−2 ×C
1
C
3
←− C
3
−C
1
−−−−−−−−−−−−−−−−→

1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
¸
¸
¸
¸
¸
¸
73
6 Teoria das Matrizes
6.9 Resolução de Sistemas de Equações Lineares
Nesta secção focaremos o problema que consiste na resolução de sistemas de
equações lineares. A aplicação da Teoria das Matrizes estudada ao longo das úl-
timas secções revelar-se-á de fundamental importância para este estudo. Inicia-
se esta exposição com algumas definições.
6.9.1 Enquadramento Teórico
Definição 35 (Equação Linear) Seja K um corpo. A igualdade
a
1
x
1
+a
2
x
2
+ · · · +a
n−1
x
n−1
+a
n
x
n
= b
designa-se por equação linear. Os escalares {a
i
}
j=1,...,n
∈ K designam-se
por coeficientes da equação, o escalar b ∈ K designa-se por termo inde-
pendente e os elementos {x
i
}
j=1,...,n
∈ K designam-se por incógnitas (ou
variáveis) da equação. Uma equação linear em que as parcelas associadas às
incógnitas surgem no termo esquerdo da equação e o termo independente con-
stitui o termo direito, diz-se escrita na forma canónica.
Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro
grau em cada uma das incógnitas.
Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza
linear (ou não-linear):
• x +y −y
2
= 10 é uma equação não-linear uma vez que tem a parcela não
linear −y
2
.
• xy −x +y −12 = 0 é uma equação não-linear uma vez que tem a parcela
não linear xy.
• x
2
+ y
3
= 0 é uma equação não-linear uma vez que tem as parcelas não
lineares x
2
e y
3
.
• x + 2y + 6z = 7 é uma equação linear nas variáveis x, y e z.
• x + y − 2 = 0 é uma equação linear nas variáveis x e y. Basta verificar
que a equação pode ser reescrita na forma canónica como x +y = 2.
Definição 36 (Sistema de Equações Lineares) Seja K um corpo. Consi-
dere-se um conjunto de m equações lineares da forma
a
i1
x
1
+a
i2
x
2
+ · · · +a
i,n−1
x
n−1
+a
in
x
n
= b
i
74
6 Teoria das Matrizes
Quando se pretende resolver simultaneamente todas as equações, diz-se que
se tem um sistema de m equações lineares nas n incógnitas {x
j
}
j=1,...,n
, so qual
se representa do seguinte modo:

a
11
x
1
+a
12
x
2
+ · · · +a
1,n−1
x
n−1
+a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ · · · +a
2,n−1
x
n−1
+a
2n
x
n
= b
1
· · ·
a
m1
x
1
+a
m2
x
2
+ · · · +a
m,n−1
x
n−1
+a
mn
x
n
= b
1
(8)
Os escalares {a
ij
}
i=1,...,m; j=1,...,n
∈ K designam-se por coeficientes do
sistema, os escalares {b
i
}
i=1,...,m
∈ K designam-se por termos indepen-
dentes do sistema.
Qualquer sistema de m equações a n incógnitas pode ser escrito na forma
matricial se atendermos ao seguinte:
• Os coeficientes do sistema, {a
ij
}
i=1,...,m; j=1,...,n
∈ K, podem ser descritos
como uma matriz A ∈ M
m×n
(K), cujo elemento a
ij
é precisamente o
coeficiente da incógnita x
j
na i-ésima equação.
• Os termos independentes do sistema, {b
i
}
i=1,...,m
∈ K, podem ser de-
scritos como uma matriz coluna B ∈ M
m×1
(K), cujo elemento b
i
é pre-
cisamente o termo independete da i-ésima equação.
• As incógnitas do sistema, {x
j
}
j=1,...,n
∈ K, podem ser descritas como uma
matriz coluna X ∈ M
n×1
(K), cujo elemento x
j
é precisamente a j-ésima
incógnita.
Nestas circunstâncias, o sistema de equações definido pelas matrizes A, B e
X pode ser escrito como sendo a equação matricial :
AX = B (9)
Note-se que o produto de matrizes AX é uma matriz do tipo M
m×1
(K),
precisamente o tipo da matriz B. A cada coluna da matriz de coeficientes, A,
corresponde uma incógnita; assim, a j − ´ esima coluna da matriz A é composta
pelos coeficientes da variável x
j
nas m equações do sistema.
Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua
representação na forma de equações matriciais:

½
x +y = 1800
2
3
x +
1
2
y = 1100
O sistema pode ser escrito na forma matricial do seguinte modo:
75
6 Teoria das Matrizes
·
1 1
2
3
1
2
¸ ·
x
y
¸
=
·
1800
1100
¸

½
3x + 2y +z = 39
2x + 3y +z = 34
Este sistema pode ser escrito matricialmente na forma:
·
3 2 1
2 3 1
¸

x
y
z
¸
¸
=
·
39
34
¸

10 + 11x + 12y = 0
20 + 21x + 22y = 0
30 + 31x + 32y = 0
O sistema acima, reescrito na forma canónica, apresenta-se do seguinte
modo:

11x + 12y = −10
21x + 22y = −20
31x + 32y = −30
A respectiva equação matricial será portanto da forma:

11 12
21 22
31 32
¸
¸
·
x
y
¸
=
−10
−20
−30
Definição 37 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Designa-se por solução do sistema a toda a matriz D ∈ M
n×1
(K) tal
que AD = B.
• A matriz A designa-se por matriz simples do sistema e a matriz [ A| B]
designa-se por matriz ampliada.
• O sistema dir-se-á homogéneo se B=0; caso contrário dir-se-á não ho-
mogéneo.
76
6 Teoria das Matrizes
Do acima exposto conclui-se que o estudo da resolubilidade do sistema de
equações (8) é, pois, o da resolubilidade da equação matricial (9).
Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de
equações lineares é dado pela equação matricial AX = B, onde A ∈ M
m×n
(K),
B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Diz-se que o sistema de equações AX = B é possível quando tem pelo
menos uma solução, isto é, quando existe pelo menos uma matriz D ∈
M
n×1
(K) tal que AD = B. Se existe uma e uma só solução o sistema diz-
se determinado; se existir mais que uma solução diz-se indeterminado.
• Diz-se que o sistema é impossível se não existe nenhum D ∈ M
n×1
(K)
tal que AD = B.
Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de
equações lineares são dados pelas equações matriciais AX = B e A
0
X = B
0
onde A, A
0
∈ M
m×n
(K), B
0
, B ∈ M
m×1
(K) e X ∈ M
n×1
(K). Os sistemas
dizem-se equivalentes se toda a solução de uma equação for solução da outra.
Proposição 26 Considere-se um sistema de equações lineares dado pela equa-
ção matricial AX = B, onde A ∈ M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
1. Dada uma matriz regular P∈M
m
(K), os sistemas AX=B e (PA) X=PB
são equivalentes.
2. Se Q ∈ M
n
(K) for uma matriz regular, existirá uma bijecção entre o
conjunto de solução da equação AX = B e o conjunto de soluções da
equação (AQ) Y = B. Tal bijecção é definida por:
f : {sol. de AX = B} →{sol. de (AQ) Y = B}
X
0
7−→Q
−1
X
0
Demonstração.
1. Basta verificar que, dada a regularidade da matriz P, então P
−1
existe e
portanto
(PA) X = PB ⇐⇒
P
−1
(PA) X = P
−1
PB ⇐⇒
IAX = IB ⇐⇒
AX = B
77
6 Teoria das Matrizes
2. Injectividade. Temos de mostrar que

X0,X1:AX0=AX1=B
, f (X
0
) = f (X
1
) ⇒X0 = X1
Obviamente que
f (X
0
) = f (X
1
) ⇒
Q
−1
X
0
= Q
−1
X
1

¡
QQ
−1
¢
X
0
=
¡
QQ
−1
¢
X
1

IX
0
= IX
1

X
0
= X
1
Sobrejectividade. Temos de verificar que

D:(AQ)D=B
, ∃
X
0
:AX
0
=B
: f (X
0
) = D
Basta portanto exibirmos X
0
. Escolhamos X
0
= QD. É claro que X
0
resolve AX = B, uma vez que
AX
0
= A(QD)
= (AQ) D
= B
O ponto 1. da proposição anterior mostra que, ao aplicarem-se as mesmas
operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas
de equações equivalentes. A aplicação das operações elementares reside na mul-
tiplicação da matriz A e B, à esquerda, pela matriz P, regular. Lembremos
que, pela proposição 22, se P é uma matriz regular então é produto de matrizes
elementares.
Esta prática, que consiste em operar sobre as equações que compõem um
sistema de equações lineares, foi introduzida no ensino pré-universitário com
o objectivo de ”simplificar” algumas equações, nomeadamente no que diz re-
speito ao número de variáveis que contêm. Consideremos o seguinte exemplo de
enquadramento:
Exemplo 22 Consideremos o seguinte sistema de equações lineares:
78
6 Teoria das Matrizes

x
1
+ 2x
2
−x
3
= 1
−2x
1
+ 4x
2
+x
3
= 0
−x
1
+ 6x
2
= −1
A ”simplificação” deste sistema de equações consistia, por exemplo, em
”eliminar” a variável x
1
da primeira equação; para tal, somava-se a primeira
com a terceira equação, para se obter 8x
2
−x
3
= 0; esta equação, com duas var-
iáveis, vinha agora substituir a primeira equação do sistema, com três variáveis,
para se obter um sistema equivalente:

8x
2
−x
3
= 0
−2x
1
+ 4x
2
+x
3
= 0
−x
1
+ 6x
2
= −1
Prosseguia-se agora com a resolução resolvendo explicitamente para algu-
mas variáveis e substituindo o resultado nas equações com maior número de
variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente,
embora fosse intuitivamente evidente. No entanto, agora, à luz da teoria das
matrizes, é simples verificar que a transformação efectuada consistiu em tomar
a matriz elementar,
E =

1 0 1
0 1 0
0 0 1
¸
¸
e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos inde-
pendentes do sistema original, respectivamente,
A =

1 2 −1
−2 4 1
−1 6 0
¸
¸
e B =

1
0
−1
¸
¸
O resultado obtido, é, como não podia deixar de ser,
A
0
=

1 0 1
0 1 0
0 0 1
¸
¸

1 2 −1
−2 4 1
−1 6 0
¸
¸
=

0 8 −1
−2 4 1
−1 6 0
¸
¸
e
B
0
=

1 0 1
0 1 0
0 0 1
¸
¸

1
0
−1
¸
¸
=

0
0
−1
¸
¸
Note-se que as matrizes A
0
e B
0
são precisamente as matrizes de coeficientes
e de termos independentes do sistema após a transformação. Portanto, os sis-
temas AX = B e A
0
X = B
0
são equivalentes porque A
0
= EA e B
0
= EB e E
é uma matriz elementar, logo regular.
79
6 Teoria das Matrizes
Note-se ainda que a matriz elementar E está associada à operação de Jacobi
L
1
←− L
1
+L
3
aplicada sobre a matriz ampliada do sistema AX = B, isto é:
[ A| B] =

1 2 −1
−2 4 1
−1 6 0
¯
¯
¯
¯
¯
¯
1
0
−1
¸
¸
L
1
←− L
1
+L
3
−−−−−−−−−−−→

0 8 −1
−2 4 1
−1 6 0
¯
¯
¯
¯
¯
¯
0
0
−1
¸
¸
= [ A
0
| B
0
]
Do exposto anteriormente, poder-se-á concluir que o estudo da matriz ampli-
ada de um sistema, [ A| B], permite determinar a natureza e solução (se existir)
de qualquer sistema de equações lineares.
Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações
lineares dado pela equação matricial AX=B, onde A∈M
m×n
(K), B∈M
m×1
(K)
e X∈M
n×1
(K). O sistema AX = B é possível se e só se r (A) = r ([ A| B]).
Demonstração. Para benefício do leitor apresentam-se duas demonstrações
para este importante Teorema. A primeira versão, baseada na aplicação de
Operações Elementares e a segunda baseada na independência linear das colunas
de uma matriz.
Versão 1:
Comecemos por transformar o sistema AX = B no sistema equivalente
A
0
X = B
0
, em que a matriz ampliada do sistema original, [ A| B], é reduzida
a uma matriz [ A
0
| B
0
] em forma de escada reduzida por meio de operações ele-
mentares sobre linhas, e que constitui a matriz ampliada do sistema A
0
X = B
0
.
Foi verificado na Proposição 16 que esta redução é sempre possível. A matriz
[ A
0
| B
0
] terá a seguinte forma:

0 · · · 0 1 a
0
1,j
1
+1
a
0
1,j
1
+2
· · · a
0
1,j
2
a
0
1,j
2
+1
· · · a
0
1,j
3
a
0
1,j
3
+1
· · · a
0
1,j
t
· · · a
0
1n
0 · · · 0 0 0 0 · · · 1 a
0
2,j2+1
· · · a
0
2,j3
a
0
2,j3+1
· · · a
0
2,jt
· · · a
0
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 a
0
3,j
3
+1
· · · a
0
3,j
t
· · · a
0
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
0
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
0
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
0
1
b
0
2
b
0
3
.
.
.
b
0
t
b
0
t+1
0
.
.
.
0
|{z}
B
0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
80
6 Teoria das Matrizes
(=⇒) Suponhamos que o sistema AX = B é solúvel, então A
0
X = B
0
também
o será. Mas sendo este sistema solúvel, então b
0
t+1,n
= 0. Com efeito, se
b
0
t+1,n
6= 0, a equação t + 1 terá a forma 0 = b
0
t+1,n
, condição impossível.
Esta situação constitui um absurdo, pelo que, se o sistema é solúvel, se
deverá ter b
0
t+1,n
= 0. Ora, neste caso a (t + 1) − ´ esima linha da matriz
ampliada [ A
0
| B
0
] é nula. A matriz ampliada [ A
0
| B
0
] terá portanto t linhas
não nulas onde pelo menos um elemento da linha t da matriz A
0
é não
nulo. Imediatamente resulta que r (A
0
) = r ([ A
0
| B
0
]), ou, sabendo que
as operações elementares sobre as linha de uma matriz não alteram a sua
característica, pela Proposição 14, r (A) = r ([ A| B]).
(⇐=) Suponhamos que r (A) = r ([ A| B]). Então r (A
0
) = r ([ A
0
| B
0
]). Esta cir-
cunstância implica que b
0
t+1,n
= 0. Se assim não fosse, teríamos r (A
0
) <
r ([ A
0
| B
0
]), o que contraria a hipótese. Posto isto, basta exibir uma
solução para o sistema A
0
X = B
0
para mostrarmos que AX = B é solúvel.
Seja {j
1
, · · · j
t
} o conjunto dos índices de coluna associados às colunas de
A
0
que contêm um elemento redutor. Através de operações elementares
sobre as linhas de [ A
0
| B
0
], utilizemos o elemento redutor da i − ´ esima
linha, com i = 2, · · · , t, e que está na posição (i, j
i
), para anular todos
os elementos não nulos da coluna j
i
. Para o efeito, vamos aplicar um
conjunto de operações de Jacobi sobre as linhas de [ A
0
| B
0
]. Obteremos
com este processo, um sistema A
00
X = B
00
equivalente a A
0
X = B
0
, e
portanto a AX = B, cuja matriz ampliada [ A
00
| B
00
] está em forma de
escada reduzida, com a seguinte forma:

0 · · · 0 1 a
00
1,j
1
+1
a
00
1,j
1
+2
· · · 0 a
00
1,j
2
+1
· · · 0 a
00
1,j
3
+1
· · · 0 · · · a
00
1n
0 · · · 0 0 0 0 · · · 1 a
00
2,j2+1
· · · 0 a
00
2,j3+1
· · · 0 · · · a
00
2n
0 · · · 0 0 0 0 · · · 0 0 · · · 1 a
00
3,j
3
+1
· · · 0 · · · a
00
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
00
tn
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
00
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
00
1
b
00
2
b
00
3
.
.
.
b
00
t
b
00
t+1
0
.
.
.
0
|{z}
B
00
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Concretizemos as incógnitas do problema com os seguintes valores:
81
6 Teoria das Matrizes
x
j1
= b
00
1n
x
j2
= b
00
2n
· · · · · · · · ·
x
j2
= b
00
tn
x
j
= 0, j ∈ {1, · · · , n} \ {j
1
, · · · j
t
}
É simples verificar que a solução acima exposta constitui uma solução para
o sistema A
00
X = B
00
, logo, para o sistema AX = B. A título ilustrativo,
consideremos a primeira equação do sistema A
00
X = B
00
:
0 · x
1
+ · · · + 0 · x
j
1
−1
+x
j
1
+a
00
1,j
1
+1
· x
j
1
+1
+
+a
00
1,j1+2
· x
j1+2
+ · · · +a
00
1,j2
· x
j2
+a
00
1,j2+1
· x
j2+1
+
+· · · + 0 · x
j
t
+ · · · +a
00
1n
· x
n
= b
0
1
Ao substituirmos a solução encontrada nesta equação, obter-se-á, como
seria de prever b
0
1
= b
0
1
. Não é difícil intuir que as restantes equações do
sistema também serão satisfeitas, o que mostra que foi encontrada uma
solução para o sistema AX = B, como pretendido.
Versão 2:
(⇒) Admitamos então que AX = B admite uma solução, a coluna D =
{d
1
, · · · , d
n
}. Designando por A
1
, · · · , A
n
as colunas da matriz A, poder-
emos escrever B = d
1
A
1
+· · · d
n
A
n
. Ora, se o número máximo de colunas
da matriz A linearmente independentes é t, o número máximo de colunas
linearmente independentes da matriz [ A| B] terá também de ser t. Sem
perda de generalidade, suponhamos que as t primeiras colunas de A são
linearmente independentes podendo as restantes escrever-se de como com-
binação linear daquelas, de acordo com o ponto 6. da Proposição 10. Tal
significa que existem escalares {α
j
}
j=1,···t
tais que B = α
1
A
1
+ · · · α
t
A
t
.
Suponhamos, por redução ao absurdo que, por incluir a coluna B, o
número máximo de colunas linearmente independentes de [ A| B] é t + 1.
Uma das colunas deste conjunto terá de ser efectivamente B uma vez
que a matriz A só possui t colunas linearmente independentes. Mas B
escreve-se como combinação linear das colunas de A e, em particular das t
colunas de A que são linearmente independentes, uma vez que as restantes
n − t colunas de A se podem escrever à custa das t colunas que são lin-
earmente independentes. Logo, B não pode pertencer a um conjunto de
colunas linearmente independentes o que é absurdo. Conclui-se portanto
que o número máximo de colunas linearmente independentes de [ A| B] é
também t, isto é r (A) = r ([ A| B]).
82
6 Teoria das Matrizes
(⇐) Admitamos agora que r (A) = r ([ A| B]). Se r (A) = t suponhamos, sem
perda de generalidade, que as t primeiras colunas de A são linearmente
independentes. Como r ([ A| B]) = t também e se as t primeiras colunas
de A são linearmente independentes, então, de acordo com o ponto 6. da
Proposição 10, B pode ser escrita como combinação das primeiras t colunas
de A (as que são linearmente independentes), isto é, B = α
1
A
1
+· · · α
t
A
t
.
Utilizando escalares nulos para as restantes n−t colunas de A, verifica-se
que B pode ser escrita como combinação linear das colunas de A, isto é,
existe uma coluna de escalares D = {d
1
, · · · , d
n
} tais que AD = B, logo
D resolve AX = B.
O próximo resultado enquadra o modo como se identifica a indeterminação
(ou determinação) de um sistema de equações
Proposição 28 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ M
m×n
(K), B∈ M
m×1
(K) e X ∈ M
n×1
(K). O
sistema AX = B ...
1 ... é possível e determinado se e só se r (A) = r ([ A| B]) = n.
2 ... é possível e indeterminado se e só se r (A) = r ([ A| B]) < n.
Demonstração.
1.
2.(=⇒) Suponhamos que o sistema é possível e determinado. Então, existirá
apena uma coluna D ∈ M
n×1
(K) tal que AD = B. Se designarmos
por A
1
, · · · , A
n
as colunas da matriz A e se {d
1
, · · · , d
n
} forem os
elementos da matriz D, teremos d
1
A
1
+ · · · +d
n
A
n
= B.
A natureza da independência linear das colunas da matriz A pode ser
estudada compondo a combinação nula destas colunas e resolvendo
para os escalares. A combinação linear nula das colunas de A é dada
por λ
1
A
1
+ · · · + λ
n
A
n
= 0. Adicionando as duas equações termo a
termo, obtém-se
(d
1
A
1
+ · · · +d
n
A
n
) + (λ
1
A
1
+ · · · +λ
n
A
n
) =
= (d
1

1
) A
1
+ · · · + (d
n

n
) A
n
= B + 0 = B
A igualdade mostra que a coluna de elementos {d
1

1
, · · · d
n

n
}
é solução da equação AX = B. Como, por hipótese, a solução é única,
conclui-se que as colunas {d
1
, · · · , d
n
} e {d
1

1
, · · · , d
n

n
} de-
verão ser iguais, isto é, d
1
= d
1
+ λ
1
, · · · , d
n
= d
n
+ λ
n
, donde
λ
1
= · · · = λ
n
= 0, o que mostra que as colunas da matriz A
são linearmente independentes e, sendo em número de n, ter-se-á
r (A) = r ([ A| B]) = n.
83
6 Teoria das Matrizes
(⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colu-
nas de A são linearmente independentes. Por outro lado, dado que
r ([ A| B]) = n e [ A| B] tem n +1 colunas, então as colunas de [ A| B]
são linearmente independentes. Mostremos que B se pode escrever
como combinação linear das colunas de A. Seja então λ
1
A
1
+ · · · +
λ
n
A
n

n+1
B = 0 uma combinação linear nula, não trivial, das col-
unas da matriz [ A| B]. Se λ
n+1
= 0, resta λ
1
A
1
+ · · · + λ
n
A
n
= 0,
mas dada a independência linear das colunas da matriz A decorre
imediatamente que λ
1
= · · · = λ
n
= 0, o que é absurdo pois por
hipótese, partimos de uma combinação linear nula não trivial das
colunas de [ A| B]. Assim, deveremos ter λ
n+1
6= 0, e portanto
B = −
λ1
λ
n+1
A
1
−· · · −
λn
λ
n+1
A
n
.
Resta mostrar que esta combinação linear é única. Suponhamos então
que também se pode ter B = µ
1
A
1
+ · · · + µ
n
A
n
. Subtraindo esta
equação à determinada anteriormente obtém-se

1
A
1
+ · · · +µ
n
A
n
) −
µ

λ
1
λ
n+1
A
1
−· · · −
λ
n
λ
n+1
A
n

=
=
µ
µ
1
+
λ
1
λ
n+1

A
1
+ · · · +
µ
µ
n
+
λ
n
λ
n+1

A
n
= B −B = 0
Dada a independência linear das colunas de A decorre imediatamente
que µ
1
= −
λ
1
λn+1
, · · · , µ
n
= −
λ
n
λn+1
, que mostra a unicidade da com-
binação linear das colunas de A que resulta na coluna B.
Então, sabendo que o conjunto de escalares {d
1
, · · · , d
n
} tais que
B = d
1
A
1
+· · ·+d
n
A
n
é único, se designarmos por D uma coluna com
elementos {d
1
, · · · , d
n
}, resulta que D é a única coluna que satisfaz
AD = B e portanto constitui solução única do sistema de equações
AX = D.
3. A demonstração deste ponto é imediata. Com efeito, a afirmação ”o sis-
tema é determinado se e só se r (A) = n” demonstrada no ponto anterior é
equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”.
Como o número de colunas da matriz A é n, não poderemos ter r (A) > n
pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem
de ser verdadeira.
Na prática, a matriz em escada reduzida, terá formas distintas, no caso
de sistemas possíveis e determinados e indeterminados. Com efeito, a única
forma de satisfazer a condição r (A) = r ([ A| B]) = n é que, após a condensação
da matriz ampliada [ A| B], que denotaremos por [ A
0
| B
0
], a submatriz de A
0
que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular
superior. A matriz ampliada [ A
0
| B
0
] tem a seguinte configuração:
84
6 Teoria das Matrizes

1 a
0
12
a
0
13
· · · a
0
1,n
0 1 a
0
23
· · · a
0
2,n
0 0 1 · · · a
0
3,n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 1
0 0 0 · · · 0
0 0 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0
| {z }
A
0
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
0
1
b
0
2
b
0
3
.
.
.
b
0
n
0
0
.
.
.
0
|{z}
B
0
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a
que se designa por natureza de um sistema de equações lineares. Neste sen-
tido, o sistema de equações lineares dado pela equação matricial AX = B, onde
A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K) pode ser classificado, proviso-
riamente, quanto à sua natureza, segundo o seguinte esquema:
Equaç˜ ao AX = B

Sol´ uvel
(r(A)=r([ A|B]))

Indeterminado
(r(A)=r([ A|B])<n)
Determinado
(r(A)=r([ A|B])=n)
Insol´ uvel
(r(A)6=r([ A|B]))
Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:

x +y = 0
x −y = 1
4x + 2y = 1
A matriz ampliada do sistema é dada por:
[ A| B] =

1 1
1 −1
4 2
¯
¯
¯
¯
¯
¯
0
1
1
¸
¸
Procedendo à sua condensação, obtém-se o seguinte resultado:
85
6 Teoria das Matrizes

1 1
1 −1
4 2
¯
¯
¯
¯
¯
¯
0
1
1
¸
¸
L
2
←− L
2
−L
1
L
3
←− L
3
−4L
1
−−−−−−−−−−−−−→

1 1
0 −2
0 −2
¯
¯
¯
¯
¯
¯
0
1
1
¸
¸
L
3
←− L
3
−L
2
−−−−−−−−−−−→

1 1
0 −2
0 0
¯
¯
¯
¯
¯
¯
0
1
0
¸
¸
= [ A
0
| B
0
]
Dado que r (A) = r ([ A| B]) = 2, o sistema é possível e determinado.
Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:

2x
1
+ 2x
2
−2x
3
= 5
7x
1
+ 7x
2
+x
3
= 10
5x
1
+ 5x
2
−x
3
= 5
A matriz ampliada do sistema é dada por:
[ A| B] =

2 2 −2
7 7 1
5 5 −1
¯
¯
¯
¯
¯
¯
5
10
5
¸
¸
Procedendo à sua condensação, obtém-se o seguinte resultado:

2 2 −2
7 7 1
5 5 −1
¯
¯
¯
¯
¯
¯
5
10
5
¸
¸
L
2
←− L
2

7
2
L
1
L
3
←− L
3

5
2
L
1
−−−−−−−−−−−−−−→

2 2 2
0 0 8
0 0 −6
¯
¯
¯
¯
¯
¯
5

15
2

15
2
¸
¸
L
3
←− L
3
+
3
4
L
2
−−−−−−−−−−−−→

2 2 2
0 0 8
0 0 0
¯
¯
¯
¯
¯
¯
5

15
2
105
8
¸
¸
= [ A
0
| B
0
]
Dado que r (A) 6= r ([ A| B]), o sistema é impossível. Com efeito, a última
linha da matriz ampliada, [ A
0
| B
0
], corresponde à equação 0 =
105
8
, o que é
manifestamente impossível.
Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares:
½
x
1
−x
2
+x
3
= 1
x
1
+x
2
−x
3
= 2
86
6 Teoria das Matrizes
A matriz ampliada do sistema é dada por:
[ A| B] =
·
1 −1 1
1 1 −1
¯
¯
¯
¯
1
2
¸
Procedendo à sua condensação, obtém-se o seguinte resultado:
·
1 −1 1
1 1 −1
¯
¯
¯
¯
1
2
¸
L
2
←− L
2
−L
1
−−−−−−−−−−−→
·
1 −1 1
0 2 −2
¯
¯
¯
¯
1
1
¸
= [ A
0
| B
0
]
Dado que r (A) = r ([ A| B]) = 2 < n = 3, o sistema é possível e indetermi-
nado.
Os sistemas indeterminados, por terem múltiplas soluções requerem um es-
tudo mais aprofundado, que destacaremos em seguida:
6.9.2 Sistemas de Equações Lineares Indeterminados
Consideremos, de um modo geral, o sistema de equações lineares dado pela
equação matricial AX = B, onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈
M
n×1
(K). Suponhamos ainda que r (A) = r ([ A| B]) < n, isto é, o sistema
é indeterminado. Sabemos ainda que existe uma matriz regular P que permite
transformar a matriz ampliada do sistema, [ A| B], numa matriz [ A
00
| B
00
], rep-
resentando o mesmo sistema de equações, mas em forma de escada reduzida que
a seguir se apresenta:

0 · · · 0 1 a
00
1,j1+1
· · · 0 a
00
1,j2+1
· · · 0 a
00
1,j3+1
· · · 0 · · · a
00
1n
0 · · · 0 0 0 · · · 1 a
00
2,j
2
+1
· · · 0 a
00
2,j
3
+1
· · · 0 · · · a
00
2n
0 · · · 0 0 0 · · · 0 0 · · · 1 a
00
3,j
3
+1
· · · 0 · · · a
00
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 1 · · · a
00
tn
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 · · · 0 0 0 · · · 0 0 · · · 0 0 · · · 0 · · · 0
| {z }
A
00
=PA
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
b
00
1
b
00
2
b
00
3
.
.
.
b
00
t
0
0
.
.
.
0
|{z}
B
00
=PB
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
Temos portanto um conjunto de t colunas redutoras ocupando as colunas de
índices {j
1
, · · · , j
t
} É claro que, por troca das colunas da matriz A
00
= PA é
possível obter uma matriz, de quatro blocos, com a forma
87
6 Teoria das Matrizes
·
I
t
C
t,n−t
0
m−t,t
0
m−t,n−t
¸
Por outras palavras, existe uma matriz regular Q ∈ M
n
(K) tal que PAQ =
·
I
t
C
0 0
¸
. Como foi referido no ponto 2 da Proposição 26, se D for uma
solução de (PA) X = PB então Q
−1
D é uma solução de (PAQ) Y = PB. Ora,
facilmente se verifica que a equação
·
I
t
C
0 0
¸
Y = {b
00
1
, · · · , b
00
t
, 0, · · · , 0}
tem a solução D
0
= {b
00
1
, · · · , b
00
t
, 0, · · · , 0}, logo, (PAQ) D
0
= PB mostra
que QD
0
é solução de (PA) X = PB, e consequentemente de AX = B. Mas
existem muitas mais soluções para o sistema (PAQ) Y = PB, com X = QY .
Na realidade, existem infinitas soluções, assumindo que o corpo K tem infinitos
elementos.
A questão que se coloca de imediato é a de descrever na totalidade o con-
junto das soluções do sistema (PAQ) Y = PB e consequentemente do sistema
AX = B. Começemos por dividir em dois blocos o vector coluna das incógni-
tas, Y , fazendo Y =
h
Y
(1)
t,1
¯
¯
¯ Y
(2)
n−t,1
i
T
. Temos naturalmente Y
00(1)
t,1
= {y
1
, · · · , y
t
}
e Y
00(2)
n−t,1
= {y
t+1
, · · · , y
n
}. Dividamos tanbém em dois blocos o vector col-
una das varáveis independentes, B
00
, fazendo B
00
=
h
B
00(1)
t,1
¯
¯
¯ 0
m−t,1
i
T
, onde
B
00(1)
t,1
= {b
00
1
, · · · , b
00
t
}. Matricialmente, o sistema A
00
Y = B
00
representa-se do
seguinte modo:
·
I
t
C
t,n−t
0
m−t,t
0
m−t,n−t
¸
"
Y
(1)
t,1
Y
(2)
n−t,1
#
=
"
B
00(1)
t,1
0
m−t,1
#
(10)
Esta equação matricial pode ser reescrita como um sistema de duas equações
matriciais atendendo à partição em blocos escolhida. Obtém-se então:
(
I
t
· Y
(1)
t,1
+C
t,n−t
· Y
(2)
n−t,1
= B
00(1)
t,1
0
m−t,t
· Y
(1)
t,1
+ 0
m−t,n−t
· Y
(2)
n−t,1
= 0
m−t,1
A segunda equação pode ser omitida uma vez que constitui a condição uni-
versal 0
m−t,1
≡ 0
m−t,1
. Resta portanto a equação:
Y
(1)
t,1
+C
t,n−t
· Y
(2)
n−t,1
= B
00(1)
t,1
88
6 Teoria das Matrizes
Rearranjando os termos da equação acima, obtém-se:
Y
(1)
t,1
= B
00(1)
t,1
−C
t,n−t
· Y
(2)
n−t,1
A expressão acima mostra que t incógnitas, precisamente as incógnitas Y
(1)
t,1
,
podem ser expressas em função de n−t incógnitas, precisamente Y
(2)
n−t,1
. Assim,
a solução geral da equação A
00
Y = B
00
será dada pelo vector coluna:
"
B
00(1)
t,1
−C
t,n−t
· D
n−t,1
D
n−t,1
#
(11)
onde D
(2)
n−t,1
∈ K
n−t
é uma concretização arbitrária qualquer das incógnitas
representadas em Y
(2)
n−t,1
, a saber {y
t+1
, · · · , y
n
}. Em particular, se Y
(2)
n−t,1
= 0,
recupera-se a solução particular D
0
= {b
00
1
, · · · , b
00
t
, 0, · · · , 0} já mencionada.
Nota 18 A solução geral do sistema, dada pela expressão (11), foi obtida atrvés
de uma sucessão de equivalências que se iniciou na equação A
00
Y = B
00
, o que
significa que não só a expressão (11) é uma solução do sistema como também
qualquer solução do sistema A
00
Y = B
00
poderá ser escrita na forma dada pela
expressão (11), isto é, se G
n1
for uma solução de A
00
Y = B
00
então existe
D
(2)
n−t,1
∈ K
n−t
tal que:
G
n1
=
"
B
00(1)
t,1
−C
t,n−t
· D
n−t,1
D
n−t,1
#
É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na
base da classificação do sistema como indeterminado. Dependendo do número
de incógnitas arbitrárias, assim será o grau de indeterminação do sistema.
Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a
equação matricial relativa a um sistema de equações lineares, solúvel, onde A ∈
M
m×n
(K), B ∈ M
m×1
(K) e X ∈ M
n×1
(K). Sabemos que existem matrizes
regulares P ∈ M
m
(K) e Q ∈ M
n
(K) tais que o sistema (PAQ) Y = PB, com
X = QY é equivalente ao sistema original e assume a forma da expressão (10).
A solução é dada por Y =
h
Y
(1)
t,1
¯
¯
¯ Y
(2)
n−t,1
i
T
onde Y
(1)
t,1
= B
00(1)
t,1
−C
t,n−t
· Y
(2)
n−t,1
.
As variáveis originais X
(1)
t,1
= QY
(1)
t,1
, que se podem exprimir em função das var-
iáveis X
(2)
n−t,1
= QY
(2)
n−t,1
designam-se por variáveis dependentes do sistema
AX = B enquanto que as últimas se designam por variáveis independentes.
O número de variáveis dependentes é igual à característica da matriz de coefi-
cientes do sistema, r (A).
89
6 Teoria das Matrizes
Definição 41 (Grau de Indeterminação) O grau de indeterminação de um
sistema de equações lineares, possível, dado pela equação matricial AX = B,
onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K) é igual ao número de
variáveis independentes do sistema, isto é
Grau de Indeterminaç˜ ao = n −r (A)
Note-se que, se o sistema é possível e determinado, o grau de indeterminação
será nulo, uma vez que, pela Proposição 28, se tem n = r (A).
Poder-se-á ainda manipular a expressão (11) para concluir que se pode es-
crever como:
"
B
00(1)
t,1
0
n−t,1
#

·
C
t,n−t
−I
n−t
¸
D
n−t,1
(12)
Nota 19 A expressão (12) revela que a solução geral do sistema A
00
Y = B
00
é
dado pela solução particular B
00
à qual se adiciona uma combinação linear das
colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as
últimas n −t linhas pela matriz identidade multiplicada pelo escalar −1.
Nota 20 A solução geral do sistema original AX = B pode ser recuperada
aplicando a matriz Q à expressão (12) para se obter:
Q
("
B
00(1)
t,1
0
n−t,1
#

·
C
t,n−t
−I
n−t
¸
D
n−t,1
)
As seguintes observações auxiliarão no entendimento desta questão:
1. Pondo (PA) X = (PAQ)
¡
Q
−1
X
¢
, observa-se que a incógnita Y da equa-
ção (PAQ) Y = PB resulta de efectuar sobre as linhas da coluna incóg-
nita, Y , as mesmas trocas que foram feitas nas colunas de PA por efeito
de Q. Com efeito, ponhamos Q = E
1
E
2
· · · E
h
onde cada E
k
resultou de
I
t
por trocas das colunas i e j ou das linhas i e j; vimos na Proposição
18 que uma matriz deste tipo é inversa de sim mesmo, isto é, E
2
k
= I
t
;
assim, quando se escreve
(PAQ)
¡
Q
−1
X
¢
= (PA) E
1
E
2
· · · E
h
E
−1
h
· · · E
−1
2
E
−1
1
X
= (PA) E
1
E
2
· · · E
h
E
h
· · · E
2
E
1
X
90
6 Teoria das Matrizes
é possível verificar que, ao mesmo tempo que se trocam as colunas i e j
da matriz PA por efeito de E
1
(à direita) e se obtém PAE
1
, trocam-se as
linhas i e j de X por efeito da mesma matriz E
1
(à esquerda) obtendo-se
E
1
X, e analogamente com E
2
, · · · , E
h
.
2. Uma vez obtida uma solução D
0
de (PAQ) Y = PB, o produto QD
0
corre-
sponde a ”desfazer” em D
0
todas as trocas que levaram de X a Y , obtendo-
se assim uma solução de (PA) X = PB.
3. Na prática, o que se descreve em 1. é que é permitido, na resolução da
equação (PA) X = PB, trocar colunas na matriz PA desde que se efectue
a respectiva troca de linhas na coluna incógnita X.
4. A operação descrita em 1. é muito útil na exposição teórica da res-
olução de uma equação matricial mas na resolução de problemas poderá
dispensar-se como adiante veremos.
Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação
matricial:

1 2 −1 0 2
−2 4 1 1 0
−1 6 0 0 −1
¸
¸
| {z }
A

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸
| {z }
X
=

1
0
−1
¸
¸
| {z }
B
Assume-se que A e B são matrizes de elementos reais. Começa por se con-
densar a matriz ampliada [ A| B]. Assim, ao mesmo tempo que averiguamos
àcerca da solubilidade da equação, vamo-nos encaminhando, em caso afirmativo,
para a sua resolução (os elementos redutores utilizados encontram-se assinalados
em cada passo):

1 2 −1 0 2 1
−2 4 1 1 0 0
−1 6 0 0 −1 −1
¸
¸
L
2
←− L
2
+ 2L
1
L
3
←− L
3
+L
1
−−−−−−−−−−−−−→

1 2 −1 0 2 1
0 8 −1 1 4 2
0 8 −1 0 1 0
¸
¸
L
3
←− L
3
−L
2
−−−−−−−−−−−→

1 2 −1 0 2 1
0 8 −1 1 4 2
0 0 0 −1 −3 −2
¸
¸
= [ A
0
| B
0
]
A matriz ampliada encontra-se em forma de escada e, dado que r ([ A
0
| B
0
]) =
r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. Como r (A) < n
91
6 Teoria das Matrizes
conclui-se adicionalmente que o sistema é indeterminado com grau de indeter-
minação n−r (A) = 5−3 = 2. Em suma, o sistema é Possível e Indeterminado
com grau de indeterminação 2.
Prossegue-se o processo de condensação até a matriz ampliada estar na
forma de escada reduzida (os elementos redutores encontram-se devidamente
assinalados):

1 2 −1 0 2 1
0 8 −1 1 4 2
0 0 0 -1 −3 −2
¸
¸
¸
L
2
←−
1
8
L
2
L
3
←− −L
3
−−−−−−−−−−→

1 2 −1 0 2 1
0 1 −
1
8
1
8
1
2
1
4
0 0 0 1 3 2
¸
¸
L
1
←− L
1
−2L
2
−−−−−−−−−−−−→

1 0 −
3
4

1
4
1
1
2
0 1 −
1
8
1
8
1
2
1
4
0 0 0 1 3 2
¸
¸
L
2
←− L
2

1
8
L
3
L
1
←− L
1
+
1
4
L
3
−−−−−−−−−−−−−−→

1 0 −
3
4
0
7
4
1
0 1 −
1
8
0
1
8
0
0 0 0 1 3 2
¸
¸
Neste ponto, sabemos que existe uma matriz regular, P, tal que:
PA =

1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
¸
¸
e PB =

1
0
2
¸
¸
Consideremos agora 3 alternativas para a determinação da solução geral do
sistema:
Alternativa 1
Esta alternativa é baseada na descrição teórica acima realizada. A partir da
equação (PA) X = PB poderemos escrever, trocando as colunas 3 e 4 da matriz
PA o sistema:

1 0 0 −
3
4
7
4
0 1 0 −
1
8
1
8
0 0 1 0 3
¸
¸
| {z }
PAQ
¡
Q
−1
X
¢
=

1
0
2
¸
¸
| {z }
PB
Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5,
onde as colunas 2 e 3 foram trocadas:
92
6 Teoria das Matrizes
Q =

1 0 0 0 0
0 1 0 0 0
0 0 0 1 0
0 0 1 0 0
0 0 0 0 1
¸
¸
¸
¸
¸
¸
É fácil verificar que a coluna D
0
= {1, 0, 2, 0, 0} é uma solução particular
do sistema (PAQ) Y = PB pelo que D = QD
0
= {1, 0, 2, 0, 0} (basta trocar as
linhas 3 e 4 de D
0
) é solução de (PA) X = PB, logo de AX = B.
Dado que o sistema é indeterminado de ordem 2, onde {y
1
, y
2
, y
3
} são as
variáveis dependentes e {y
4
, y
5
} as variáveis independentes, e a característica
da matriz dos coeficientes é 5, a solução geral do sistema (PAQ) Y = PB é
dada por:
"
B
00(1)
3,1
0
2,1
#

·
C
3,2
−I
2
¸
D
2,1
onde B
00(1)
3,1
=

1
0
2
¸
¸
, C
3,2
=


3
4
7
4

1
8
1
8
0 3
¸
¸
, 0
2,1
=
·
0
0
¸
, I
2
=
·
1 0
0 1
¸
e D
2,1
=
·
α
1
α
2
¸
é um vector de escalares pertencentes ao corpo K (neste caso
K = R). Tem-se assim a solução geral, Y , de (PAQ) Y = PB dada por

y
1
y
2
y
3
y
4
y
5
¸
¸
¸
¸
¸
¸
=

1
0
2
0
0
¸
¸
¸
¸
¸
¸


3
4
7
4

1
8
1
8
0 3
−1 0
0 −1
¸
¸
¸
¸
¸
¸
·
α
1
α
2
¸
; α
1
, α
2
∈ R
A solução geral do sistema (PA) X = B e portanto AX = B será dada por:
Q

y
1
y
2
y
3
y
4
y
5
¸
¸
¸
¸
¸
¸
= Q

1
0
2
0
0
¸
¸
¸
¸
¸
¸


3
4
7
4

1
8
1
8
0 3
−1 0
0 −1
¸
¸
¸
¸
¸
¸
·
α
1
α
2
¸

=
93
6 Teoria das Matrizes
= Q

1
0
2
0
0
¸
¸
¸
¸
¸
¸
+Q

3
4

7
4
1
8

1
8
0 −3
1 0
0 1
¸
¸
¸
¸
¸
¸
·
α
1
α
2
¸
=
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸
+

3
4

7
4
1
8

1
8
1 0
0 −3
0 1
¸
¸
¸
¸
¸
¸
·
α
1
α
2
¸
Conclui-se, dizendo que a solução geral da equação AX = B é dada por:

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸

1

3
4
1
8
1
0
0
¸
¸
¸
¸
¸
¸

2


7
4

1
8
0
−3
1
¸
¸
¸
¸
¸
¸
; α
1
, α
2
∈ R
Alternativa 2
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(PA) X = PB, evitando assim potenciais erros devido às trocas das colunas de
(PA). O sistema a resolver é portanto:

1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
¸
¸
| {z }
PA
X =

1
0
2
¸
¸
| {z }
PB
As colunas redutoras da matriz PA têm índices {1, 2, 4}, correspondendo
às variáveis dependentes {x
1
, x
2
, x
4
}, donde se deduz imediatamente a solução
particular x
1
= b
0
11
= 1, x
2
= b
0
21
= 0 e x
4
= b
0
31
= 2. Às restantes variáveis, as
variáveis independentes {x
3
, x
5
}, associadas a colunas não redutoras associa-se
o escalar 0: x
3
= x
5
= 0. Assim, a coluna D = {1, 0, 0, 2, 0} é uma solução
particular do sistema (PA) X = PB.
Resta determinar as duas colunas (relativas ao grau de indeterminação do
sistema, que é 2) cuja combinação linear completará a expressão da solução
geral do sistema. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que
n = 5). Como regra geral, a coluna V
i
associada à variável independente x
i
terá
o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes
variáveis independentes que não x
i
; as restantes posições serão preenchidas com
94
6 Teoria das Matrizes
os escalares constantes da i − ´ esima coluna da matriz PA multiplicados por
−1, e por aquela ordem. Vejamos então a forma deste vectores coluna no caso
presente:
• Variável independente x
3
:
V
3
=

?
?
1
?
0
¸
¸
¸
¸
¸
¸
→V
3
=

3
4
1
8
1
0
0
¸
¸
¸
¸
¸
¸
¸
¸
• Variável independente x
5
:
V
5
=

?
?
0
?
1
¸
¸
¸
¸
¸
¸
→V
5
=


7
4

1
8
0
−3
1
¸
¸
¸
¸
¸
¸
¸
¸
Como se confirma, a solução geral de (PA) X = PB e portanto de AX =
B será:

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸

1
V
3

2
V
5
=
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸

1

3
4
1
8
1
0
0
¸
¸
¸
¸
¸
¸

2


7
4

1
8
0
−3
1
¸
¸
¸
¸
¸
¸
; α
1
, α
2
∈ R
Alternativa 3
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(PA) X = PB, evitando assim potenciais erros devido às trocas das colunas de
(PA). Reescrevendo o sistema na forma algébrica, é possível deduzir a solução
geral de forma intuitiva. O sistema a resolver é, como na alternativa 2:

1 0 −
3
4
0
7
4
0 1 −
1
8
0
1
8
0 0 0 1 3
¸
¸
| {z }
PA
X =

1
0
2
¸
¸
| {z }
PB
95
6 Teoria das Matrizes
Na forma algébrica o sistema tomará a forma:

x
1

3
4
x
3
+
7
4
x
5
= 1
x
2

1
8
x
3
+
1
8
x
5
= 0
x
4
+3x
5
= 2
Resolvendo este sistema em ordem às variáveis dependentes, obtém-se:

x
1
= 1 +
3
4
x
3

7
4
x
5
x
2
= 0 +
1
8
x
3

1
8
x
5
x
4
= 2 −3x
5
; x
3
, x
5
∈ R
Assim, a solução geral dada por:

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸
poderá ser reescrita em função das variáveis independentes {x
3
, x
5
} substi-
tuindo, no vector acima, as variáveis dependentes {x
1
, x
2
, x
4
} pelas respectivas
expressões em função de {x
3
, x
5
}:

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸

1 +
3
4
x
3

7
4
x
5
0 +
1
8
x
3

1
8
x
5
x
3
2 −3x
5
x
5
¸
¸
¸
¸
¸
¸
; x
3
, x
5
∈ R
Este vector pode ser reescrito com a soma de três vectores: um vector de
termos independentes, outro de termos em x
3
e outro de termos em x
5
obtendo-
se:

1 +
3
4
x
3

7
4
x
5
0 +
1
8
x
3

1
8
x
5
x
3
2 −3x
5
x
5
¸
¸
¸
¸
¸
¸

1
0
0
2
0
¸
¸
¸
¸
¸
¸
+

3
4
x
3
1
8
x
3
x
3
0
0
¸
¸
¸
¸
¸
¸
+


7
4
x
5

1
8
x
5
0
−3x
5
x
5
¸
¸
¸
¸
¸
¸
Colocando em evidência os escalares x
3
e x
5
:

1
0
0
2
0
¸
¸
¸
¸
¸
¸
+

3
4
x
3
1
8
x
3
x
3
0
0
¸
¸
¸
¸
¸
¸
+


7
4
x
5

1
8
x
5
0
−3x
5
x
5
¸
¸
¸
¸
¸
¸
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸
+x
3

3
4
1
8
1
0
0
¸
¸
¸
¸
¸
¸
+x
5


7
4

1
8
0
−3
1
¸
¸
¸
¸
¸
¸
96
6 Teoria das Matrizes
Como x
3
e x
5
: são quaisquer escalares reais, poderemos sombolizá-los por,
por exemplo, α
1
e α
2
, para se obter a já conhecida expressão geral das soluções
de AX = B:

x
1
x
2
x
3
x
4
x
5
¸
¸
¸
¸
¸
¸
=

1
0
0
2
0
¸
¸
¸
¸
¸
¸

1

3
4
1
8
1
0
0
¸
¸
¸
¸
¸
¸

2


7
4

1
8
0
−3
1
¸
¸
¸
¸
¸
¸
; α
1
, α
2
∈ R
Nota 21 A apresentação da solução geral do sistema em forma matricial ou
algébrica é indiferente a menos que uma das formas seja especificamente solic-
itada.
O estudo da Natureza de um sistema de equações lineares, resume-se no
seguinte quadro:
Natureza de um Sistema de Equac, o~es Lineares
Equaç˜ ao AX = B

Sol´ uvel
(r(A)=r([ A|B]))

Indeterminado
(r(A)=r([ A|B])<n)
Grau de Indeterminação
(n−r(A))
Determinado
(r(A)=r([ A|B])=n)
Insol´ uvel
(r(A)6=r([ A|B]))
Note-se que, a natureza de um sistema, requer que se identifique, no caso
indeterminado, o grau de indeterminação.
6.9.3 Algoritmo de Gauss-Jordan
O algoritmo de Gauss-Jordan é um método que permite resolver de forma sis-
temática um sistema de equações lineares dado pela equação matricial AX = B,
onde A ∈ M
m×n
(K),B ∈ M
m×1
(K) e X ∈ M
n×1
(K).
• Condensar a matriz ampliada do sistema, [ A| B], numa matriz em forma
de escada reduzida [ A
0
| B
0
]. Note-se que [ A| B] ∈ M
m×(n+1)
(K).
• Suponha-se que [ A
0
| B
0
] tem r linhas não-nulas e que o elemento redutor
na i − ´ esima linha ocorre na coluna c
i
para 1 ≤ i ≤ r. Ter-se-á então:
1 ≤ c
1
< c
2
< · · · < c
r
≤ n + 1
97
6 Teoria das Matrizes
Suponha-se ainda que as restantes colunas de A
0
terão índices c
r+1
, · · · , c
n
,
onde:
1 ≤ c
r+1
< c
2
< · · · < c
n
≤ n
Caso 1 c
r
= n+1. O sistema é impossível. Efectivamente, a última linha não-nula
de [ A
0
| B
0
] tem a forma
£
0 0 · · · 1
¤
, correspondente à equação:
0x
1
+ 0x
2
+ · · · + 0x
n
= 1
obviamente insolúvel
Caso 2 c
r
≤ n. O sistema é possível. Note-se que r ≤ n.
=⇒ Se r = n, então c
1
= 1, c
2
= 2, · · · , c
n
= n e o sistema é determinado
e terá a solução única:
£
b
0
1
b
0
2
· · · b
0
n
¤
T
=⇒ Se r < n, existirão soluções múltiplas. O sistema é indeterminado
com grau de indeterminação n −r. A solução geral obtem-se expri-
mindo as variáveis dependentes x
c
1
, · · · , x
c
r
nas variáveis indepen-
dentes x
c
r+1
, · · · , x
c
n
:

x
c
1
= b
0
1
−a
0
1c
r+1
x
c
r+1
−· · · −a
0
1c
n
x
c
n
· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·
x
c
r
= b
0
r
−a
0
rc
r+1
x
c
r+1
−· · · −a
0
rc
n
x
c
n
Soluções particulares do sistema podem ser obtidas concretizando as
variáveis independentes com valores particulares de K.
6.10 Matrizes com propriedades especiais
Nesta secção distinguem-se algumas matrizes que, pelas suas propriedades, se
enquadram numa definição particular. Daremos uma breve definição de cada
um destes tipos de matrizes assim como um exemplo ilustrando a respectiva
popriedade.
Definição 42 (Matriz idempotente) Seja A ∈ M
n
(K). Diz-se que a matriz
A é idempotente se A
2
= A.
98
6 Teoria das Matrizes
Exemplo 27 A matriz A =
·
8 −28
2 −7
¸
é idempotente uma vez que:
·
8 −28
2 −7
¸ ·
8 −28
2 −7
¸
=
·
8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7)
2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7)
¸
=
·
8 −28
2 −7
¸
Definição 43 (Matriz nilpotente) Seja A ∈ M
n
(K). A matriz A diz-se
nilpotente se A
p
= 0 para algum inteiro p. Se p é o menor inteiro para o qual
A
p
= 0, A diz-se nilpotente de ordem p.
Exemplo 28 A matriz A =

0 0 0
1 2 −1
1 4 −2
¸
¸
é nilpotente de ordem 3 uma vez
que:

0 0 0
1 2 −1
1 4 −2
¸
¸
6= 0

0 0 0
1 2 −1
1 4 −2
¸
¸
2
6=

0 0 0
1 0 0
2 0 0
¸
¸
6= 0

0 0 0
1 2 −1
1 4 −2
¸
¸
3
= 0
Definição 44 Seja A ∈ M
n
(K). A matriz A diz-se involuntória se A
2
= I.
Exemplo 29 É simples confirmar que a matriz A =


11
2

39
4

39
4
1
5
2
3
2
2 3 4
¸
¸
é
involuntória.
Definição 45 (Matrizes Equivalentes) Duas matrizes A, B ∈ M
n×m
(K)
dizem-se equivalentes se existem matrizes regulares P ∈M
n
(K) e Q∈M
m
(K)
tais que A = PBQ.
Uma propriedade importante das matrizes equivalentes traduz-se no seguinte
resultado:
99
6 Teoria das Matrizes
Proposição 29 Duas matrizes, A, B ∈ M
n×m
(K), equivalentes têm a mesma
característica.
Demonstração. Por definição, existem matrizes regulares P ∈ M
n
(K)
e Q ∈ M
m
(K) tais que A = PBQ. Pelo ponto 4 da Proposição 18 tem-
se r (PBQ) = r (BQ). Pela Proposição 23 tem-se r (BQ) = r (B). Como
A = PBQ resulta imediatamente r (A) = r (B).
Um caso particular de equivalência de matrizes é o de semelhança de ma-
trizes, que se definem em seguida.
Definição 46 (Matrizes Semelhantes) Duas matrizes A, B∈M
n
(K) dizem-
se semelhantes se existe uma matriz regular P ∈M
n
(K) tal que A = PBP
−1
.
100

Índice
Lógica e Demonstração
1 Demonstração Directa 2 Recíproco e Contrapositivo 3 Demonstração Indirecta ou por Redução ao Absurdo 4 Demonstração por Indução Matemática

3
3 3 4 5

Matrizes e Determinantes
5 Nota Histórica

7
7

6 Teoria das Matrizes 15 6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15 6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18 6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20 6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22 6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27 6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30 6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33 6.5 Dependência e independência lineares de filas paralelas de uma matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 6.6 Característica de uma matriz. Operações elementares. . . . . . . 41 6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42 6.6.2 Determinação da Característica de Linha de uma Matriz . 51 6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56 6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66 6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70 6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74 6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74 6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87 6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97 6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98

2

2 Recíproco e Contrapositivo

Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática existentes, e cuja aplicação será assídua ao longo de todo o texto.

1

Demonstração Directa

O modo directo de demonstrar a proposição A ⇒ B consiste em determnar uma sequência de teoremas e/ou axiomas aceites na forma Ai ⇒ Ai+1 , para i = 1, · · · , n de modo a que A1 ⇒ A e An ⇒ B. A dificuladade está, obviamente, em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito denomina-se raciocínio dedutivo. Consideremos o seguinte Teorema ilustrativo: Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m × p é um inteiro par. Demonstração. 1. m é um inteiro par (Dado, por hipótese). 2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro par). 3. m × p = (2q) p (Utilizando o axioma a = b ⇒ ac = bc). 4. m × p = 2 (qp) (Pela propriedade associativa da multiplicação). 5. m × p é um inteiro (Pela definição de um número inteiro par).

2

Recíproco e Contrapositivo

Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A se verifica então a tese, B, também se verifica. O recíproco da proposição Π é a proposição B ⇒ A.

3

Outras situações há. O contrapositivo desta proposição será dado por: (∼ B) n é um inteiro par. diz-se que A e B são equivalentes e escreve-se A ⇐⇒ B. evidentemente. 4 . Demonstração. 3 Demonstração Indirecta ou por Redução ao Absurdo Consideremos o seguinte resultado: Proposição 1 A proposição A =⇒ B é verdadeira se e só se o seu contrapositivo é verdadeiro. são ambos verdadeiros diz-se que A se verifica se e só se B se verifica. ∀a.b. B ⇒ A. b. que é verdadeira sempre que Π é verdadeira: o contrapositivo de Π. mas ac = bc ⇒ a = b não é verdadeira para quaisquer a. basta. Definição 3 Considere-se uma proposição Π : A =⇒ B. a proposição a = b ⇒ ac = bc. Com recurso a uma tabela de verdade é extremamente simples provar que (A =⇒ B) ⇐⇒ (∼ B =⇒∼ A): A V F V F B V V F F A =⇒ B V V F V ∼B V F V F ∼A V V F F ∼ B =⇒∼ A V V F V Note-se as colunas relativas a (A =⇒ B) e (∼ B =⇒∼ A) o que completa a demonstração. Exemplo 1 Considere-se a seguinte proposição: (A) n é um número primo diferente de 2. formada a partir de qualquer proposição Π. c ∈ R. que c = 0. Há muitas situações em que o recíproco e uma proposição verdadeira não é verdadeiro. Alternativamente.=⇒ (A) n não é um número primo ou n = 2. Existe uma proposição.3 Demonstração Indirecta ou por Redução ao Absurdo O recíproco de uma proposição Π consiste em inverter os papéis da hipótese e da tese de Π.=⇒ (B) n é um inteiro ímpar. Definição 2 Se a proposição A ⇒ B e o seu recíproco.c∈R é sempre verdadeira. em que uma proposição e o seu recíproco são ambas verdadeiras. A proposição ∼ B =⇒∼ A designa-se por contrapositivo de Π. Por exemplo. no entanto.

a afirmação Π (k) é verdadeira então a afirmação Π (k + 1) também é verdadeira. Teorema 3 A soma dos primeiros n números naturais. de modo que Π (1) é a primeira afirmação. logo p terá de ser ímpar. Conideremos o seguinte Teorema ilustrativo. assumirmos que a afirmação A é verdadeira. ¢ ¡ Demonstração. O absurdo vem de se assumir que p é par. uma forma de mostrar a validade de uma proposição A =⇒ B é mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Mas então p2 é um número ímpar. Desenvolvendo. 2 5 . indexadas aos números inteiros. Suponhamos que é possível demonstrar dois ´ factos àcerca desta sequência: (i) A afirmação Π (1) é verdadeira. partindo de ∼ B. 4 Demonstração por Indução Matemática Existe um terceiro método de demonstração que difere significativamente do método por demonstração directa e do método de transformação por indução: a demonstração por indução matemática. Suponhamos então que existe um natural p tal que p é ímpar. ¡ isto é. o que é absurdo. Conideremos o seguinte Teorema ilustrativo. p2¢= (2q + 1)2 . virá (2q + 1)2 = 4q 2 +4q +1. Esta linha de raciocínio designa-se por demonstração indirecta ou demonstração por redução ao absurdo. o absurdo reside no facto de. é igual a 1 n (n + 1). provarmos directamente que ∼ A é verdadeira. para qualquer p ∈ N. Assim. originalmente. se. Consideremos então uma sequência de afirmações indexadas aos números inteiros. p2 = 4 q 2 + q + 1. (ii) Se. para algum k ∈ N. Nestas circunstâncias a afirmação Π (n) é verdadeira para qualquer n ∈ N. As demonstrações por indução têm a limitação de só poderem ser aplicadas a afirmações envolvendo os números inteiros ou. então p é par. 1 + 2 + · · · + n. Então ∃q∈N : p = 2q +1.4 Demonstração por Indução Matemática Assim. pois a hipótese original era a de que p2 era par. Pretende-se mostrar p2 é par ⇒ (p é par). Π (2) é a segunda afirmação e Π (n) é a n − esima afirmação. Teorema 2 Se p é um número natural e p2 é par. Com efeito.

1 (k + 1) (k + 2) 2 Π (k + 1) = (1 + 2 + · · · + k) + (k + 1) = {z } | Π(k) = = = = 1 k (k + 1) + (k + 1) = 2 ¶ µ 1 k + 1 (k + 1) = 2 µ ¶ k+2 (k + 1) = 2 1 (k + 2) (k + 1) 2 Logo. sabendo que a afirmação a demonstrar é dada por: 1 n (n + 1) 2 Π (n) = 1 + 2 + · · · + n = (i) Consideremos n = 1. Procedamos à demonstração por Indução Matemática. Π (n) é válida para qualquer n ∈ N. 2 (ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Neste caso. Mostemos que então deverá ser válida para k + 1. a soma dos primeiros naturais será 1.4 Demonstração por Indução Matemática Demonstração. que é precisamente igual a 1 × 1 × (1 + 1). 6 . sabemos que: 1 k (k + 1) 2 Π (k) = 1 + 2 + · · · + k = Queremos mostrar que: Π (k + 1) = 1 + 2 + · · · + (k + 1) = Mas. Assumindo que Π (k) é verdadeira.

C. Os Babilónios estudaram problemas que levaram à resolução simultânea de equações lineares. C. dois do segundo e um do terceiro completam 39 medidas. Este problema conduz. não foi senão nos finais do séc. 7 . é justo referir que o texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da dinastia Han (206 a. A título ilustrativo considere-se um desses problemas: Existem três tipos de milho.-220 d. os primeiros esboços de matrizes e determinantes remontam ao segundo século a. XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu. chegaram mais próximo da noção de matriz que os Babilónios. C. à resolução do sistema de equações (1) ilustrado em seguida: ½ x + y = 1800 + 1 y = 1100 2 2 3x (1) Os Chineses. Por exemplo.. um molho do primeiro tipo. Não é surpreendente que os primórdios das matrizes e determinantes tenham surgido através do estudo de sistemas de equações lineares. três do segundo e um do terceiro prefazem 34 medidas. No entanto. C. o sistema de equações lineares (2) permite resolver o problema em aberto.5 Nota Histórica Matrizes e Determinantes 5 Nota Histórica Historicamente. Finalmente. embora existam traços da sua existência em épocas tão distantes quanto o séc. contém o seguinte problema: Existem dois campos com uma área total de 1800 m2 . modernamente. Dois molhos do primeiro tipo. Efectivamente. uma placa datada de cerca de 300 a. dois do segundo e três do terceiro prefazem 26 medidas. descrevendo principalmente um conjunto de problemas com regras gerais para a sua solução. Quantas medidas de milho estão contidas num molho de cada tipo? Modernamente.) ilustra os primeiros exemplos conhecidos de métodos matriciais. C. Estes problemas têm um carácter aritmético e conduzem a equações algébricas com coeficientes numéricos. Alguns destes problemas sobreviveram até hoje preservados em placas de argila. C. e 100 a. Se a colheita total é de 1100 alqueires 2 qual é a área de cada campo. no período entre 200 a. Três molhos do primeiro tipo. C. IV a. Um produz grão à taxa de 2 de alqueire por m2 enquanto o outro produz grão à 3 taxa de 1 de alqueire por m2 .

a solução relativamente ao terceiro tipo de milho. o que modernamente se designa por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2 incógnitas. fornece uma regra para resolver sistemas de 2 equações lineares. substantivamente.resulta o quadro: 0 0 3 4 5 2 8 1 1 39 24 39 Seguidamente. na sua obra ”Ars Magna”(1545). de modo semelhante. seguida do segundo e finalmente do primeiro tipo. tema abordado na secção 6. resultando no quadro: 0 0 3 0 5 2 36 1 1 99 24 39 Desta tabela é possível determinar. Destas operações . escrevendo em 200 a. embora Cardan não tenha dado o passo decisivo e final na definição 8   3x + 2y + z = 39 2x + 3y + z = 34  x + 2y + 3z = 26 (2) . Este método é hoje em dia conhecido como o Método de Eliminação de Gauss. a coluna da esquerda é multiplicada 5 vezes e a coluna central subtraída tantas vezes quanto possível. XIX. subtrai-se a coluna da direita. XX levariam a dispor os coeficientes das equações lineares em linhas. Esta regra é. que só virá a ser bem compreendido no início do séc. Seguidamente. instrui o leitor a multiplicar a coluna central por 3 e subtrair a coluna da direita.9. da primeira coluna multiplicada por 3. mas intrinsecamente o método é idêntico. em primeiro lugar. tantas vezes quanto possível. a que dá o nome de regula de modo. em vez de colunas. tantas vezes quanto possível. o autor. discutido no âmbito da resolução de sistemas de equações lineares. C.5 Nota Histórica O autor do texto propôs um método de resolução notável: os coeficientes das três equações a três incógnitas que compõem o sistema são dispostos como uma tabela num ”quadro de contagem”: 1 2 3 2 3 2 3 1 1 26 34 39 Os métodos modernos dos finais do séc. O matemático italiano Cardan.

mas de equaçõe lineares. na diagonalização de uma matriz simétrica. Em 1683. sobre as quais trabalhou por um período de 50 9 . embora Seki.. Utilizando os seus ”determinantes”. não de sistemas de equações lineares. mostra como uma transformação dos eixos ordenados reduz a equação de uma cónica à forma canónica. em que o primeiro indica a equação em que ocorre e o segundo a que letra pertence. de Witt. no Japão. Seki mesmo assim introduz a noção e fornece métodos gerais que permitem o seu cálculo. acima abordados. basados em exemplos. tenha publicado em primeiro lugar. mas de Witt nunca raciocinou nestes termos. de forma em tudo idêntica à descrita nos métodos chineses. Cardan não chega até á definição de determinante.5 Nota Histórica da regra. Leibniz estava convencido que a notação matemática era a chave para o progresso. XVII. na sua obra ”Elementos das Curvas”. ocorreu no exacto ano de 1683. que contém métodos matriciais descritos em tabelas. A ideia de um conceito de determinante surge mais ou menos simultaneamente na Europa e no Japão no último quartel do séc. Assim. Leibniz escreveu a de l’Hôpital explicando-lhe que o sistema de equações dado por:   10 + 11x + 12y = 0 20 + 21x + 22y = 0  30 + 31x + 32y = 0 . 3. note-se que Leibniz não utiliza coeficientes numéricos mas dois símbolos. Assim. mas. Seki escreve o ”Método para Resolver Problemas Dissimulados”. Embora sem conter nenhuma palavra que corresponda ao conceito ”determinante”. Por exemplo. O processo consiste. Nesse ano. publicado como parte dos comentários à edição latina de 1660 da ”Geometria” de Descartes. o primeiro aparecimento de um determinante na Europa. 4 e 5 e aplicou-os à resolução. tinha solução porque 10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30 Esta igualdade é precisamente a condição que determina que a solvabilidade de um sistema de equações requer que o determinante da matriz dos coeficientes seja nulo.. numa perpectiva actual é possível concluir que o seu método leva efectivamente à definição de determinante. Os seus manuscritos não publicados contêm mais de cinquenta formas de representar sistemas de coeficientes. Muitos dos resultados associados à Teoria Elementar das Matrizes apareceram antes das Matrizes serem objecto de investigação matemática. modernamente. De modo extraordinário. tendo experimentado com várias notações para o sistema de coefcientes. ”21” denota o que modernamente escreveríamos como a21 . Seki conseguiu calcular determinantes de ordem 2.

o estudo de sistemas de coeficientes de formas quadráticas resultou naturalmente num desenvolvimento no sentido de uma Teoria das Matrizes. é como se segue: O valor de cada incógnita é determinado por um conjunto de n quocientes. Bézout forneceu métodos para calcular determinantes. Apenas duas publicações. Demonstrou vários resultados sobre ”resultantes”. A regra propriamente dita surge como apêndice ao artigo.5 Nota Histórica anos. Cramer forneceu a regra geral. cujo denominador comum é composto de tantas parcelas quantas as permutações de n ”coisas”. com início em 1678. Surpreendentemente. uma vez que é o mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse estado a par do trabalho de Leibniz. em 1700 e 1710. segundo o próprio Cramer. Laplace discute a solução de sistemas de equações lineares sem efectivamente os calcular. Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”. embora não tenha sido publicado até 1748. Assim como o estudo de sistemas de coeficientes de equações lineares levaram Leibniz na rota dos determinantes. Refere ainda que os n numradores das fracções podem ser determinados substituindo certos coeficientes neste cálculo por termos constantes do sistema de equações. publicado em 1750. São efectivamente produtos de certos coeficientes das equações. Em 1772. Num artigo onde estuda as órbitas dos planetas interiores. assim como Vandermonde em 1771. explicando precisamente como estas parcelas são calculadas. dois anos após a sua morte. Laplace afirmou que os métodos introduzidos por Cramer e Bézout eram impraticáveis. Cramer prossegue. O artigo foi motivado pelo desejo de determinar a equação de uma curva plana que passasse por um certo número de pontos. O seu enunciado. Laplace propôs ainda o desenvolvimento de um determinante. que hoje aporta o seu nome. cuja notação é a mesma da utilizada na carta a de l’Hôpital acima mencionada. método que aporta hoje em dia o seu nome. Em 1764. incluindo o que é actualmente conhecido como a Regra de Cramer. mas não é fornecida qualquer demonstração. utilizando determinantes. O trabalho sobre determinantes começava agora a emergir com certa regularidade. Laplace utilizou o termo ”resultante” para referir o que modernamente se designa por determinante. contêm resultados sobre sistemas de coeficientes. no que é conhecido actualmente como o Desenvolvimento de Laplace. assim como os respectivos sinais (”+” ou ”-”). para a resolução de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de Curvas Algébricas”. Leibniz utilizou o termo ”resultante” para certas somas combinatórias de termos de um determinante. demonstrando a Regra de Cramer para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes de ordem 4. surpreendente. Leibniz também sabia que um determinante podia ser desenvolvido utilizando uma qualquer coluna do sistema de coeficientes. 10 . A obre contém os primeiros resultados sobre determinantes.

5 Nota Histórica Num artigo de 1773. z). Gauss obteve um sistema de 6 equações lineares a 6 incógnitas. No entanto. no decurso da discussão sobre formas quadráticas. contém pela primeira vez o que hoje é a interpretação volumétrica de um determinante. Gauss dispõe os coeficientes das suas formas quadráticas em tabelas rectangulares. O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos sobre determinantes. o teorema da multiplicação de determinantes é demonstrado pela primeira vez embora na mesma conferência. Gauss propôs um método sistemático para a resolução de tais equações. cuja aparição remonta ao texto ”Nove Capítulos da Arte Matemática” em 200 a. Gauss descreve a multiplicação de matrizes. Na mesma obra. Foi Cauchy. Binet tenha apresentado um artigo contendo uma demonstração do mesmo teorema mas menos satisfatória que a prova de Cauchy. y 0 . precisamente o Método de Eliminação de Gauss sobre a matriz dos coeficientes. Gauss utilizou este termo porque o determinante determina as propiedades de uma forma quadrática. y. M (x. que usou o termo ”determinante” no seu sentido actual. Lagrange demonstrou que o tetraedro formado pelos pontos O (0. mas em termos de uma composição. em 1812. o conceito não é o mesmo que o conceito moderno de determinante. z 00 ) tem volume dado por 1 [z (x0 y 00 − y 0 x00 ) + z 0 (yx00 − xy 00 ) + z 00 (xy 0 − yx0 )] 6 que é precisamente igual a 1 6 do determinante da matriz  x00 y 00  z 00  O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disquisitiones Arithmeticae” de 1801. 0). M 0 (x0 . apresentado numa conferência no Institut de France. C. No seu artigo de 1812. Cauchy utilizou o termo ”tableau” para a matriz de coeficientes. y 00 . 0. Em 1826 e no contexto das formas quadráticas em n variáveis. sobre Mecânica. z 0 ) e M 00 (x00 . foi utilizado por Gauss no seu trabalho envolvendo o estudo da órbita do asteróide Pallas. uma vez que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde e Laplace. este comentário é feito a posteriori. Lagrange estudou identidades para determinantes funcionais de ordem 3. Utilizando observações de Pallas feitas entre 1803 e 1809. Descobriu os seus valores 11 x x0  y y0 z z0 . Reprovou os primeiros resultados e forneceu novos resultados por si descobertos sobre menores complementares e matrizes adjuntas. Este artigo de 1773. Descreve ainda a inversão de matrizes no contexto particular de matrizes de coeficientes relativas a formas quadráticas. Efectivamente.. pelo que ainda não vislumbrava o conceito de uma Ágebra Matricial. No entanto. O Método de Eliminação de Gauss.

5 Nota Histórica

próprios e forneceu resultados sobre a diagonalização de uma matriz, no processo que envolvia a transformação de uma forma quadrática numa soma de quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma equação característica. Ainda no contexto das formas quadráticas, mostrou que qualquer matriz real simétrica é diagonalizável. Jacques Sturm forneceu uma generalização do problema dos valores próprios no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura, d’Alembert estudava o movimento de uma corda com massas associadas em vários pontos do seu comprimento. Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do alcance e generalidade das ideias que introduziram, considerando-as apenas no contexto específico das suas áreas de investigação. Jacobi, na década de 1830 e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respectivamente, também desenvolveram resultados sobre matrizes mas, de novo, no contexto específico das transformações lineares. Jacobi publicou três tratados sobre determinantes em 1841. Estes foram importantes na medida em que a definição de determinante é introduzida de forma algorítmica. Para além disso, Jacobi não especifica quais os termos dos determinantes, pelo que os resultados se aplicam tão bem a casos onde os termos são números ou funções. Estes três artigo de Jacobi tornaram a idieia de determinante largamente conhecida Cayley, também escrevendo em 1841, publicou a primeira contribuição inglesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas verticais limitando uma matriz, para denotar o seu determinante, notação esta que permaneceu até aos nossos dias. Eisenstein, em 1844, denotou substituições lineares por uma letra única e mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro a pensar que as substituições lineares poderiam formar uma álgebra, como se pode induzir de um seu artigo publicado em 1844: Um algoritmo para o seu cálculo pode ser baseado na aplicação das regras normais para as operações soma, multiplicação, divisão e exponenciação a equações simbólicas entre sistemas lineares. Obtêm-se deste modo equações simbólicas correctas, apenas ressalvando que a ordem dos factores não pode ser alterada. O primeiro a uilizar o termo ”matriz ” foi Sylvester em 1850. Sylvester definiu uma matriz como sendo um arranjo rectangular de termos no qual se podiam definir vários determinantes sobre arranjos de termos contidos no arranjo global. Após ter deixado a América de regresso a Inglaterra em 1851, Sylvester tornou-se advogado e conheceu Cayley, também advogada e que partilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu 12

5 Nota Histórica

imediatamente o significado do conceito e matriz e, em 1853 publicaria uma nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz. Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”, o qual constitu um texto notável por conter a primeira definição abstracta de matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados relativos a formas quadráticase transformações lineares são casos especiais de um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra Matricial onde define a adição, multiplicação, multiplicação por um escalar e inversão. Adicionalmente, propõe uma construção explícita para a forma da inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua equação característica. Refere que verificou o resultado para matrizes de ordem 3, propondo uma demonstração mas: [...] não me parece necessário empreender numa demonstração formal para o caso geral de matrizes de qualquer ordem [...] O importante resultado de que uma matriz satisfaz a sua equação característica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para matrizes de ordem 4, no decurso das suas investigações sobre quaterniões. Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de uma forma canónica para substituições lineares sobre o corpo finito de ordem primo. Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e não utiliza o termo ”matriz ”. No entanto, demonstra resultados importantes sobre matrizes canónicas como representantes de classes de equivalência de matrizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demonstrou o resultado geral de que uma matriz satisfaz a sua equação característica. Este artigo de Frobenius de 1878 também encerra a definição de característica de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas e na definição de matrizes ortogonais. A nulidade de uma matriz quadrada foi definida por Sylvester em 1884. Sylvester definiu a nulidade da matriz A, denotada por n (A), como sendo o maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo. Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que não são alteradas por certas transformações. Sylvester demonstrou que: m´x {n(A), n(B)} ≤ n(AB) ≤ n(A) + n(B) a Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teoria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo 13

5 Nota Histórica

”matriz ”. Embora Cayley tenha apenas demonstrado o Teorema de CayleyHamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o resultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema no caso geral. Uma definição axiomática de determinante foi utilizada por Weierstrass nas suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teoria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre determinantes também foram publicadas, de novo, postumamente. Com estas duas publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabelecesse como uma teoria totalmente aceite. Um importante texto, que deu às matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra Superior ” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear ” de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para se manter até hoje como um dos mais importantes temas das licenciaturas em Matemática.

14

. a23 é o elemento da matriz que se encontra na linha 2 e na coluna 3. 1. amn    aij ∈ K   i = 1. Nota 1 K. . designa-se por matriz sobre K (cujos elementos se designam por escalares) a todo o quadro de elementos de K dispostos em m linhas e n colunas. em geral. Dentro desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab.. estas constituem um importante caso particular que se caracteriza pelo número de linhas (m) ser igual ao número de colunas (n).. n Nestas notações.   j = 1. em particular. . Relativamente às matrizes rectangulares destacam-se alguns tipos como ilustrado na Tab. Por exemplo. 2. j) por (A)ij . as matrizes dizem-se reais..1 Teoria das Matrizes Definições e Generalidades Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos.6 Teoria das Matrizes 6 6.   A=  (3) 15 . Neste caso. am. Relativamente às matrizes quadradas. . ... .. No caso das matrizes quadradas do tipo n × n . designando-se a matriz como matriz de ordem n. é costume designar-se uma matriz por uma letra maiúscula (quando não houver necessidade de especificar os seus elementos) e os elementos pela correspondente letra minúscula afectada pelos índices convenientes. A matriz denotada acima mostra que.n−1 a1n a2n . . Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem n a uma matriz A do tipo n × n. am2 ··· ··· ··· a1. a sua dimensão é definida como ordem. Para designar genericamente uma matriz utilizam-se as seguintes notações:  a11 a21 .n−1 . O conjunto das matrizes quadradas de ordem n sobre um corpo K designa-se por Mn (K). Em algumas circunstâncias é por vezes conveniente representar o elemento (i. m  = [aij ] . . Definição 5 Designa-se por Mm×n (K) o conjunto de todas as matrizes do tipo m × n (e lê-se ”éme-por-éne”) sobre o corpo K. pode ser o conjunto dos números reais. am1 a12 a22 . . As matrizes do conjunto Mm×n (K) podem ser classificadas quanto à forma em matrizes rectangulares ou matrizes quadradas. R. .n−1 a2. o primeiro índice (i) do elemento genérico aij indica a linha e o segundo (j) a coluna em que se encontra o elemento de K.

. a. i = j diag {1. Matriz Diagonal (aij = 0. a} É a matriz escalar em que Matriz Identidade aij = 0. .6 Teoria das Matrizes Matrizes Rectangulares (m 6= n) Designação Forma Geral Matriz Linha £ ¤ ou a11 a12 · · · a1n Vector Linha (m = 1)   a11  a21  Matriz Coluna    . . Matriz Triangular Inferior (i < j =⇒ aij = 0)      0 a11 a21 . . . aij = 1 ∈ K. . i 6= j. · · · . 0 an2 · · · 0 ··· a22 · · · . . 0 ··· 0 ··· a22 · · · . (i > j =⇒ aij = 0)  .  . .  Vector Coluna am1 (n = 1) ou {a11 . . · · · . ou  . . .           ann 0 0 . . aij = a ∈ K. . a21 . . i 6= j)  an1 a11  0   . . ann 0 0 . · · · . . 1. i = j diag {a. am1 } Tabela 1: Principais tipos de Matrizes Rectangulares Matrizes Quadradas (m = n) Designação Forma Geral  a11 a12 · · · a1n  0 a22 · · · a2n Matriz Triangular Superior   . 1} Representa-se por In (ou apenas I) Neste caso identifica-se a matriz [a] com o próprio escalar a ∈ R m=n=1 Tabela 2: Principais tipos de Matrizes Quadradas 16 . a22 . . ann } Matriz Escalar aij = 0. 0      É uma matriz diagonal em que · · · ann ou diag {a11 . · · · .  . . i 6= j.

Diagonal Principal: {3.   3 0 •  -1 2 . Por exemplo. Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se consideram matrizes quadradas.n) (que se designam por elementos principais da matriz). · · · . Diagonal Secundária: não tem. 2. ann } e é possível definir a diagonal secundária dada pelos elementos {a1n .n). a36 e b36 são elementos homólogos. −3}. estas dizem-se iguais se os elementos homólogos forem iguais.n−1 . Denota-se simbolicamente essa igualdade por A = B. Diagonal Se0 -2 -3 1 1 cundária: não tem. 2}. Definição 7 (Elementos homólogos) Dadas as matrizes A = [aij ] e B = [bij ] do mesmo tipo m × n sobre um corpo K. 0 -2   3 0 1   0 . 2. 2. a22 . isto é. Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respectivas diagonais:   3 0 1 3 1   •  -1 2 0 -1 1 . −3}. · · · . Diagonal Principal: {3. Designa-se por diagonal principal da matriz A aos elementos ª © a11 .min(m. an1 }. Definição 8 (Matrizes iguais) Dadas duas matrizes A = [aij ] e B = [bij ] do mesmo tipo m × n sobre um corpo K. Diagonal Secundária: •  -1 2 0 -2 -3 {1. Diagonal Principal: {3. àqueles elementos que estão nas mesmas linha e coluna. 17 . Definição 9 (Diagonal) Seja a matriz A = [aij ] ∈ Mm×n (K). Se A = [aij ] ∈ Mn (K) a diagonal principal da matriz A será dada por {a11 . a2.6 Teoria das Matrizes Uma matriz diagonal pode tanbém ser entendida como uma matriz simultaneamente triangular superior e triangular inferior. a22 . amin(m. · · · . designam-se por elementos homólogos aos elementos com os mesmos índices. 0}.

diz-se que Mm×n (K) é fechado para a adição.. ∃C∈Mm×n (K) : C = A + B. tal que aii = 1 (onde ”1” é o elemento neutro para a multiplicação no corpo K)... tal que cij = aij + bij . se não tiverem as mesmas dimensões e/ou o corpo subjacente não for igual... multiplicação de uma matriz por um escalar e multiplicação de matrizes.. Nota 3 Se as matrizes A e B não forem do mesmo tipo.ver ambiguidade. Neste caso. 4.. não é possível determinar A + B. Proposição 2 O conjunto Mm×n (K) munido da adição definida na Definição 12 constitui um grupo abeliano (ou comutativo): 1. Esta é a propriedade mais simples das estruturas algébricas. isto é. ∀A∈Mm×n (K) .m}×{1.B∈Mm×n (K) . B = [bij ] ∈ Mm×n (K).B∈Mm×n (K) . ∀(i.C∈Mm×n (K) .. ∀A.m}×{1. ou por 0m×n . Ao verificar esta propriedade diz-se que o conjunto Mm×n (K) é um grupóide. ∀(i.n} . ∀A. Definição 11 (Matriz identidade) Designa-se por matriz identidade de ordem n à matriz escalar A = [aij ] ∈ Mn (K). 2. A + B = B + A. Propriedade comutativa para a adição de matrizes. 6. denota-se A por In ou simplesmente por I se a ordem estiver subentendida e não hou.. Alternativamente. Definição 12 Sejam A = [aij ] ... denota-se A por 0m×n ou simplesmente por 0 se a ordem estiver subentendida e não houver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo K).1 Soma de matrizes. pelo que a soma de A com B diz-se indefinida. Propriedade associativa para a adição de matrizes.6 Teoria das Matrizes Definição 10 (Matriz nula) Designa-se por matriz nula do tipo Mm×n (K) à matriz A = [aij ] tal que aij = 0. como já verificámos.n} .. ∃B∈Mm×n (K) : A + B = A. Neste caso. por 0.j)∈{1..2. 3. ∀A.. 18 .B. A + (B + C) = (A + B) + C. Define-se soma A + B à matriz C = [cij ]. 6.j)∈{1.2 Álgebra Matricial Discutem-se nesta secção as principais operações com matrizes: adição de matrizes... A matriz B designa-se por elemento neutro para a adição de matrizes e representa-se.

Como A. Adicionalmente (A + B)ij = [aij ] + [bij ] = [aij + bij ] Como aij . bij ∈ K então K é fechado para a adição. 2. ∃B∈Mm×n (K) : A + B = 0.6 Teoria das Matrizes 5. B ∈ Mm×n (K) então A + B e B + A estão definidas. Seja A ∈ Mm×n (K) e B = 0m×n ∈ Mm×n (K). A matriz B designa-se por simétrico da matriz A para a adição de matrizes e representa-se por −A. B ∈ Mm×n (K). ∀A∈Mm×n (K) . isto é aij + bij ∈ K e portanto [aij + bij ] ∈ Mm×n (K). 1. Adicionalmente (A + B)ij = [aij ] + [bij ] = [aij + bij ] (porque a adição é comutativa em K) = [bij + aij ] = [bij ] + [aij ] = (B + A)ij 4. C ∈ Mm×n (K) então A + (B + C) e (A + B) + C estão definidas. Como A. B. Então: (A + B)ij = [aij ] + [bij ] = [aij + 0] (porque 0 é o elemento neutro da adição em K) = [aij ] = (A)ij 19 . Demonstração. Como A. A + B ∈ Mm×n (K). Adicionalmente {A + (B + C)}ij = [aij ] + [bij + cij ] = [aij + (bij + cij )] (porque a adição é associativa em K) = [(aij + bij ) + cij ] = [aij + bij ] + [cij ] = {(A + B) + C}ij 3. Diz-se ainda que todos os elementos A ∈ Mm×n (K) são regulares.

. µ ∈ K. 1 · A = A. Definição 13 Seja A = [aij ] ∈ Mm×n (K) e λ ∈ K um escalar. Proposição 3 Sejam A. ∀(i... Então: (A + B)ij = = = : = = [aij ] + [bij ] [aij + bij ] [aij + (−aij )] a + b = 0 e b = −a) [0] (0)ij (porque ∀a∈K .2 3 Considerem-se os seguintes casos: ¸ · ¸ · ¸ · ¸ 2 5 6 1+5 2+6 6 8 + = = 4 7 8 3+7 4+8 10 12 ¸ · ¸ · ¸ · ¸ 3 1+3 4 + = = 4 2+4 6 ¤ £ ¤ £ ¤ £ ¤ 4 + 1 2 = 3+1 4+2 = 4 6 Multiplicação de uma matriz por um escalar. O escalar 1 designa-se por unidade ou elemento neutro do corpo K. n. Seja A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mm×n (K) tal que bij = −aij . j = 1..m}×{1.. 20 . Define-se o produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [bij ] ∈ Mm×n (K) tal que bij = λaij . . B ∈ Mm×n (K) e λ.n} ..2. As seguintes propriedades são verificadas: 1. λ (A + B) = λA + λB 2.. (λ + µ) A = λA + µA 3........j)∈{1. m. Demonstração. λ (µA) = (λµ) A 4.6 Teoria das Matrizes 5.. i = 1. ∃b∈K Exemplo · 1 • 3 · 1 • 2 £ 3 • 6.

6 Teoria das Matrizes 1. (1 (A))ij = = = = 1· [aij ] [1·aij ] [aij ] (A)ij Exemplo 4 Considerem-se os seguintes casos: · ¸ · ¸ · ¸ 1 2 3×1 3×2 3 6 = = • 3× 3 4 3×3 3×4 9 12 21 . (λ + µ) (A)ij = = = = = = (λ + µ) [aij ] [(λ + µ) aij ] [λaij + µaij ] [λaij ] + [µaij ] λ [aij ] + µ [aij ] (λA)ij + (µA)ij 3. (λ (A + B))ij = = = = = = λ [(aij + bij )] [λ (aij + bij )] [λaij + λbij ] [λaij ] + [λbij ] λ [aij ] + λ [bij ] (λA)ij + (λB)ij 2. (λ (µA))ij = = = = = λ (µ [aij ]) λ [µaij ] [(λµ) aij ] (λµ) [aij ] ((λµ) A)ij 4.

é dada pela matriz C = [crs ] ∈ Mm×n (K) p tal que crs = i=1 ari · bis . n=p q=m Resultado C (m×q) (p×n) Definição 14 Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K). pela mesma ordem. os produtos C = AB e D = BA são possíveis nas seguintes circunstâncias: Produto A × B A Possível se . Adiante se estudarão mais aprofundadamente os espaços vectoriais.n} . que seP denota AB (ou A · B). (m×n) (p×q) (p×q) B × (m×n) D Exemplo 5 Considerem-se as seguinte matrizes reais: −2 A= 3 · 3 3 C= −5  3 5 5 −5 −4  −3 3  −5 ¸ 5 −1  2 0 B =  −2 1  −1 −3 £ ¤ D = −3 5 −3  Os produtos possíveis são AB.. respectivamente m × n e p × q. O elemento crs obtém-se multiplicando os elementos da linha r de A pelos elementos da coluna s de B. ∀(i.j)∈{1.. A matriz produto de A por B. 6.. DA e DB. Em nenhuma outra circunstância é possível multiplicar duas matrizes...6 Teoria das Matrizes · √ ¸ · √ ¸ 2 √2 × 1 = √ 2×2 2 2 £ ¤ £ ¤ £ × 3 4 = 1 ×3 1 ×4 = 3 2 2 2 1 2 = · ¸ • • √ 2× 1 2 2 ¤ Proposição 4 O conjunto Mm×n (K) munido da adição definida na Definição 12 e da multiplicação por um escalar definida na Definição 13 é um espaço vectorial sobre o corpo K de dimensão m · n. Note-se que a matriz A.3 Multiplicação de matrizes. dadas duas matrizes A e B de dimensões.2. CB.m}×{1. que multiplica à esquerda. ter-se-á: 22 . A título exemplificativo. De um modo geral... e somando os produtos obtidos. BC. CA. tem tantas colunas quantas as linhas de B....

6 Teoria das Matrizes   2 0 −2 3 −3 AB =  3 5 3   −2 1  3 5 −5 −1 −3   (−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)  3 · 2 + 5 · (−2) + 3 · (−1) 3 · 0 + 5 · 1 + 3 · (−3) = 3 · 2 + 5 · (−2) + (−1) · (−1) 3 · 0 + 5 · 1 + (−5) · (−3)   −7 12 =  −7 −4  1 20 Exemplo 6 Considerem-se os seguintes casos: • · 1 2 3 4 ¸· 5 6 7 8 ¸ 1×5+2×7 1×6+2×8 3×5+4×7 3×6+4×8 · ¸ 19 22 = 43 50 = 5×1+6×3 5×2+6×4 = 7×1+8×4 7×2+8×4 · ¸ 23 34 = 41 46 ¤ = 1×3 1×4 2×3 2×4 · ¸ 3 4 = 6 8 = [3 × 1 + 4 × 2] = [11] = 11 ¸ · ¸ · · ¸  • · 5 6 7 8 ¸· 1 2 3 4 ¸ ¸ • · 1 2 ¸ £ 3 4 • £ · ¸· 3 4 ¤ · 1 2 ¸ • 1 −1 1 −1 1 −1 1 −1 ¸ 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1) = 1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1) · ¸ 0 0 = 0 0 · 23 .

É evidente que só é possível que duas matrizes sejam comutáveis se forem quadradas. A0 = 0 e 0A = 0. Terão de ter as dimensões adequadas para o produto faça sentido. ou bem que pelo menos um dos produtos não é possível. Proposição 5 Considerem-se as matrizes A = [aij ] . q × m e q × p. B = [bij ] ∈ Mm×p (K). C = [cjk ] . As suas dimensões são. respectivamente. 2. 3. Propriedade distributiva da multiplicação de matrizes em relação à adição de matrizes. Definição 15 (Matrizes comutáveis) Sejam A. 4. Se não o forem. Verificam-se as seguintes propriedades: 1. λ (AD) = (λA) D = A (λD). F = [fkl ] ∈ Mq×n (K) e o escalar λ ∈ K. As 4 matrizes nulas representadas nestas expressões são diferentes uma vez que têm dimensões diferentes. Propriedade associativa da multiplicação de matrizes. diz-se que A e B são matrizes comutáveis. D = [djk ] ∈ Mp×q (K). se o forem. Se AB = BA. Veja-se o exemplo 6. 24 . B ∈ Mn (K). p × q. as matrizes produto têm dimensões diferentes. (A + B) D = AD +AB e A (C + D) = AC +AD. ou.6 Teoria das Matrizes Nota 4 Em geral AB 6= BA. (AD) F = A (DF ). A matriz nula é o elemento absorvente para a multiplicação de matrizes. m × q.

25 . De modo semelhante se mostra que A (C + D) = AC + AD.6 Teoria das Matrizes Demonstração. p X j=1 p X j=1 p X j=1 ((A + B) D)ik = = (A + B)ij djk (aij + bij ) djk p X bij djk j=1 = aij djk + = (AD)ik + (BD)ik 2. p X (λ (AD))ik = λ aij djk = j=1 p X j=1 p X j=1 (λaij ) djk (λA)ij djk = = ((λA) D)ik . Mas também. 3. 1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão p × q pelo que (A + B) D e AD + AB têm dimensão m × q. Note-se em primeiro lugar que as matrizes (AD) F e A (DF ) têm ambas dimensão m × n. p p X X λ aij djk = λaij (λdjk ) j=1 j=1 p X = aij (λD)jk j=1 = (A (λD))ik .

Propriedade associativa da multiplicação de matrizes. O conjunto Mn (K) é fechado para a multiplicaçao. 6. ∃C∈Mn (K) : C = A + B. 7. ∀A. Propriedade associativa da adição de matrizes. ∀A∈Mn (K) .6 Teoria das Matrizes ((AD) F )il = k=1 q X q X (AD)ik fkl   p X  aij djk  fkl j=1 = k=1 = k=1 j=1 p X = aij q p XX aij djk fkl = = (A (DF ))il . ∀A. ∃B∈Mn (K) : A + B = 0.C∈Mn (K) . A (BC) = (AB) C. ∃C∈Mn (K) : C = A · B.B. A + (B + C) = (A + B) + C. A matriz B designa-se por elemento neutro para a adição de matrizes. 26 . O conjunto Mn (K) é fechado para a adição. ∀A∈Mn (K) . 2.C∈Mn (K) . 5.B∈Mn (K) . j=1 p X j=1 Ã q ! X djk fkl k=1 aij (DF )jl Proposição 6 O conjunto Mn (K) munido da adição definida na Definição 12 e da multiplicação definida na Definição 14 constitui um anel: 1. ∃B∈Mn (K) : A + B = A. 4. ∀A. ∀A. Propriedade comutativa para a adição de matrizes. ∀A. A + B = B + A. 3.B∈Mn (K) .B∈Mn (K) .B. Todos os elementos são regulares para a adição de matrizes.

Definição 17 (Partição em blocos) Seja A ∈ Mm×n (K). Designa-se submatriz de A a uma matriz formada pelos elementos de A que pertencem a algumas linhas e algumas colunas previamente fixadas de A.4 Multiplicação por blocos. 9. desde que a matriz identidade tenha a ordem correcta para que o produto possa ser efectuado. o produto (à esquerda ou à direita) de qualquer matriz A pela ³ ´ 1 identidade é sempre a matriz. ∀A∈Mn (K) .B. · · · . Nota 5 Note-se que.2. 27 . Por outras palavras. como a seguir se demonstra m X δ ij ajk = aik = (A)ik j=1 n X j=1 : (Im A)ik = (AIn )ik = aij δ jk = aik = (A)ik 6. A matriz B é o elemento neutro para a multiplicação de matrizes. ∀A. Diz-se que A está particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos situados acima ou abaixo. Isto é. ph tais que sejam verificadas as relações 1 ≤ p1 < p2 < · · · < ph < p. ∃B∈Mn (K) : AB = BA = A. e denomina-se por identidade de ordem n. Propriedade distributiva da multiplicação em relação à adição de matrizes.6 Teoria das Matrizes 8. Definição 16 (Submatriz) Seja A ∈ Mm×n (K).C∈Mn (K) . (b) Considerem-se números inteiros p1 . p2 . denotando-se por In ou simplesmente I se não houver dúvida quanto à ordem. se A ∈ Mm×n (K) tem-se Im A = A e AIn = A. A multiplicação por blocos realiza-se da seguinte forma: (a) Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K) e C = AB. para que uma matriz esteja particionada em blocos é necessário que as submatrizes que constituem cada bloco sejam formadas por linhas e colunas consecutivas da matriz A. A (B + C) = AB + BC.

6 Teoria das Matrizes

(c) Escreva-se cij =

p1 X

air brj + {z
(1)

elemento cij resulta de somar os produtos dos primeiros p1 elementos da linha i de A pelos primeiros p1 elementos da coluna j de B; cij é a soma dos produtos dos p2 − p1 elementos seguintes da linha i de A pelos p2 − p1 elementos seguintes da coluna j de B e assim por diante. Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto AB por blocos se forem verificadas as seguintes condições: (a) A ∈ Mm×p (K) e B ∈ Mp×n (K). Esta é a condição que requer que o número de colunas da matriz que multiplica à esquerda seja igual ao número de linhas da matriz que multiplica à direita. (b) O número de colunas de blocos de A tem de ser igual ao número de linhas de blocos de B. (c) O número de colunas de cada bloco Aij tem de ser igual ao número de linhas de cada bloco Bjt , a fim de se poder efectuar o produto Aij Bjt . Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da matriz B é independente uma da outra. A multiplicação por blocos é por vezes cómoda em particular se alguns dos blocos forem matrizes nulas ou matrizes identidades. Exemplo 7 Considerem-se as matrizes  −2 3 0 3 −1 3 3 3 1 −5 −3 5 −3 5 1 5 0 0 3 −5 1 −5 0 0 5 2 −3 −4 0 0        
(2)

(1)

|

r=1

cij

}

r=p1 +1

|

p2 X

air brj + · · · + }

cij

{z

r=ph +1

(2)

|

p X

air brj . O {z }

cij

(h+1)

1  0 A=   0 −2

0 1 0 3

0 0 1 −5

0 0 0 −5

−1 −3 1 1

 −4    −3  e B =   5   5

Os blocos considerados na partição acima transformam a matriz A nu- ma matriz, que em termos da partição escolhida, pode ser classificada do tipo 2 × 3. De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2. 28

6 Teoria das Matrizes

Simbolicamente, as partições consideradas para as matrizes A e B podem ser representadas como:   · ¸ B11 B12 A11 A12 A13 e B =  B21 B22  A= A21 A22 A23 B31 B32 Consequentemente, a matriz C será particionada, em termos de blocos, como se simboliza de seguida: ¸ · C11 C12 C= C21 C22 Teremos assim: • C11 = A11 B11 + A12 B21 + A13 B31 =       −1 −4 · 0 £ −2 3 ¤ −1 3  +  0  3 −5 +  −3 −3  = I3  3 3 0 1 5 0 1       −6 −17 0 0 −2 3 3  +  0 0  +  −6 −6  =  3 0 0 14 22 0 1   −8 −14 =  −3 −3  14 23  −3 5 ¸

• C12

= A11 B12 + A12 B22 + A13 B32 =     0 £ −3 3 5 = I3  5 −5 2  +  0  5 −5 0 1 1 −3    0 0 −3 3 5 −5 2 + 0 0 =  5 0 0 1 1 −3   −3 3 5 −5 2  =  5 1 1 −3

−1 −4 +  −3 1   0 0 0 + 0 0 0 ¤

 ¸ −4 ·  0 0 0 −3 0 0 0 5  0 0 0 0  0 0

C21

= A21 B11 + A22 B21 + A23 B31 =   · ¸ £ ¤ −2 3 £ ¤ £ ¤  3 3  − 5 · 3 −5 + 1 5 −1 −3 −2 3 −5 = 3 5 0 1 £ ¤ £ ¤ £ ¤ 13 −2 + 15 −25 + 14 22 = £ ¤ 42 −5 = 29

6 Teoria das Matrizes

• C22 = A21 B12 + A22 B22 + A23 B32 =   · ¸ £ ¤ −3 3 5 £ ¤£ ¤  5 −5 2  5 · 5 −5 −4 + 1 5 0 0 0 = −2 3 −5 − 0 0 0 1 1 −3 £ ¤ £ ¤ £ ¤ 16 −16 11 + −25 25 20 + 0 0 0 = £ ¤ −9 9 31 =  −8 −14 −3 3 5  −3 −3 5 −5 2   C=  14 23 1 1 −3  42 −5 −9 9 31 

A matriz C será portanto:

Definição 18 (Potência de uma matriz) Seja A ∈ Mn (K). Designa-se por potência de ordem k ∈ N de A, e escreve-se Ak , à matriz C tal que C = Ak = A × · · · × A. | {z }
k vezes

6.3

Transposição de matrizes. Matrizes Simétricas.

Definição 19 (Matriz transposta) Dada uma matriz A ∈ Mm×n (K), denomina-se matriz transposta de A, e denota-se por AT , a matriz B ∈ Mn×m (K) tal que bij = aji , ∀(i,j)∈{1,...,m}×{1,...,n} . Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A, AT , é do tipo n × m; as linhas de A são as colunas de AT , pela mesma ordem, e, consequntemente, as colunas de A serão as linhas de AT , pela mesma ordem. Exemplo 8 Considerem-se os seguintes casos: • • • · 1 2 3 4 1 2 ¸T ¸T = ¤T £ = · 1 3 2 4 ¤ ¸

·

1 2 · 3 4

£

3 4

=

¸

30

k = 1. (AC)T = C T AT . por definição. ³¡ ¢T ´ ¡ ¢ AT = AT ji ij = (A)ij . C = [cjk ] ∈ Mp×n (K) e Dk = [dkl ] ∈ Mn (K) . Diz-se que A é simétrica se A = AT e anti-simétrica ³ ´ T 2 .. ´T Q ³Q M M T = k=1 Dk .6 Teoria das Matrizes · ¸T  3 −5 =  −5 −4  5 −1  • 3 −5 5 −5 −4 −1 se A = −A Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ Mn (K).. B = [bij ] ∈ Mm×p (K) . Exemplo 9 A matriz · a b b c ¸ A= é a forma geral de uma matriz simétrica de ordem 2. Verificam-se as seguintes propriedades: ¡ ¢T = A. 3. 31 . Proposição 7 Sejam A = [aij ] . 1. 1. numa matriz anti-simétrica. AT 2. M . Por outras palavras.. 4. dever-se-á ter aii = −aii o que implica 2aii = 0 e portanto aii = 0. os elementos principais são sempre nulos. k=1 Dk Demonstração. matriz quadrada de ordem n. (A ± B)T = AT ± B T . A matriz · 0 b −b 0 ¸ A= é a forma geral de uma matriz anti-simétrica de ordem 2. Com efeito. .

¡ ¢ ¡ ji CT ¢ kj ¡ T¢ A ji ¢ kj Dk k=1 !T = ÃÃM−1 Y k=1 T Dk ! DM !T = (DM ) = (DM )T M Y T Dk M−1 Y k=1 ÃM−1 Y k=1 Dk !T (pela Propriedade 3) T Dk (por hipótese) = k=1 Proposição 8 O produto de duas matrizes A. B ∈ Mn (K) simétricas é uma matriz simétrica sse os seus factores comutam. 32 . ³ ´ T (AC) ki = (AC)ik = p X aij cjk j=1 p X¡ j=1 p X j=1 = AT CT = 4. = aji ± bji ¡ ¢ ¡ ¢ = AT ij ± B T ij . por hipótese. O caso M = 2 verifica-se na Propriedade 3. ´ ³ T (A ± B) = (A ± B)ji ij 3. k=1 Dk k=1 Ã M Y ¢ ¡ = C T AT ki . Mostremos que k=1 Dk ³Q ´T Q M T = M Dk também se verifica. = k=1 Dk . Supon´T ³Q QM−1 T M−1 hamos que. Por indução em M .6 Teoria das Matrizes 2.

ou.6 Teoria das Matrizes Demonstração. n) . tr (A) = 3 + 2 + (−3) = 2. por outras palavras. 1 −3 1  O operador tr (·) satisfaz as seguintes propriedades: 33 . onde p = min (m. tr (A) = 1 + (−1) + 1 = 1. (=⇒) AB = (AB) (porque ABé simétrica) = B T AT (pela Propriedade 3 da transposição de matrizes) = BA (porque A e B são comutáveis) (⇐=) (AB) = (BA) (porque A e B comutam) = AT B T (pela Propriedade 3 da transposição de matrizes. = AB (porque A e B são simétricas) T T T 6. Denota-se por: tr (A) = a11 + a22 + · · · + app . 0 −2   1 3 1   •  0 -1 1 . 0 −2 -3 1 1  3 0 •  −1 2 . O traço da matriz A é definido como a soma os seus elementos principais. Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respectivos traços:   3 0 1 3 1   •  −1 2 0 −1 1 .4 Traço de uma matriz Definição 21 (Traço de uma Matriz) Seja A = [aij ] ∈ Mm×n (K). tr (A) = 3 + 2 = 5. dos elementos ao longo da diagonal principal.

2. 1. tr (A + B) = tr (B + A). tr (A + B) = tr (A) + tr (B). segue que: ´ ³ tr (A + B) = tr (A + B)ij min(m.6 Teoria das Matrizes Proposição 9 Sejam A=[aij ] .n) = min(m. B =[bij ] ∈ Mm×n (K) e C =[cpq ] ∈ Mn×m (K).n) X l=1 (all + bll ) min(m. 3. tr (AC) = tr (CA).n) = min(m. tem-se naturalmente AC ∈ Mm (K). Se A ∈ Mm×n (K) e C ∈ Mn×m (K) . Verificam-se as seguintes igualdades: 1. Prosseguindo com a argumentação.n) X l=1 (all + bll ) = = tr (B + A) ´ ³ = tr (B + A)ij X l=1 (bll + all ) 3.n) = = tr (A) + tr (B) X l=1 all + X l=1 bll 2. Dado que A e B têm as mesmas dimensões as somas A + B e B + A encontram-se definidas. segue que: ³ ´ tr (A + B) = tr (A + B)ij min(m. O traco de AC será: 34 . Prosseguindo com a argumentação. Demonstração. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se definida.

m são quaisquer escalares do corpo K. j = 1. amj } . onde 1. · · · . n as colunas da matriz A. m P λi Li designa-se combinação linear das linhas de A. À expressão i=1 {λi }i=1. i = 1. · · · . 35 .5 Dependência e independência lineares de filas paralelas de uma matriz. a2j . O traco de CA será: ´ ³ tr (CA) = tr (CA)pj Ãm ! X cpi aij = tr i=1 j=1 i=1 n m XX j=1 i=1 m n XX i=1 j=1 Ãm ! n X X = cji aij cji aij aij cji = = = tr (AC) 6.··· .6 Teoria das Matrizes ´ ³ tr (AC) = tr (AC)iq   n X = tr  aij cjq  j=1 = m n XX aij cji = i=1 j=1 m X i=1   n X  aij cji  j=1 Por outro lado tem-se CA ∈ Mn (K). · · · . m as linhas da matriz A e Cj = {a1j . Definição 22 (Combinação linear £das filas de uma matriz) Seja a ma¤ triz A ∈ Mm×n (K) e sejam Li = ai1 ai2 · · · ain .

m P 1. Note-se.n são quaisquer escalares do corpo K.p as filas da matriz. n P µj Cj = 0 designa-se combinação linear nula das colunas 2. no entanto.··· . m P Definição 24 (Independência linear) Sejam A ∈ Mm×n (K). À expressão ª ©j=1 de A. À expressão µj Cj designa-se combinação linear das colunas de A. que a referência às filas de uma matriz deverá ser entendida como referência às linhas ou às colunas e não aos dois conjuntos simultaneamente.··· . Definição 23 (Combinação linear nula das filas de uma matriz) Sejam A ∈ Mm×n (K).m as linhas da matriz A e {Cj }j=1. os resultados válidos para as linhas também o são para as colunas. as linhas (ou colunas) de uma matriz dizem-se linearmente independentes se a única combinação linear nula daquelas é a que se obtém com todos os escalares nulos. Matematicamente. Denotaremos por {Fk }k=1.··· . · · · . {Li }i=1. i = 1. · · · . a condição de independência linear das filas de uma matriz pode ser descrita pelas equações (4). À expressão λi Li = 0 designa-se combinação linear nula das linhas de i=1 A.··· . as colunas) é a única combinação linear nula dessas linhas (colunas). j = 1. {Li }i=1. A seguinte constatação é consequência imediata da definição acima: Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é possível obter uma combinação linear nula daquelas com pelo menos um escalar diferente de 0. onde µj j=1.n são quaisquer escalares do corpo K. faremos referência às filas de uma matriz sempre que não for necessário referir explicitamente as linhas ou colunas da matriz.6 Teoria das Matrizes n P 2.n as colunas da matriz A. As definições acima aplicam-se indiferentemente às linhas e colunas de uma qualquer matriz. n (colunas) (4) j=1 . onde j=1 © ª µj j=1.··· . Por esse motivo.··· .··· . Por outras palavras.m são quaisquer escalares do corpo K. Diz-se que as m n P P 0Li (ou 0Cj para linhas (colunas) de A são linearmente independentes se i=1 j=1 Em geral. 36 i=1 n P λi Li = 0 =⇒λi = 0.··· .m as linhas da matriz A e {Cj }j=1. onde {λi }i=1. m (linhas) µj Cj = 0 =⇒µj = 0.n as colunas da matriz A.

··· . que as p primeiras linhas da matriz A são linearmente dependentes. se escolhermos λk 6= 0. 3. Existirá assim pelo menos um P escalar não nulo. Em particular. precisamente o escalar λk . Verificam-se os seguintes resultados: 1. A prova para as colunas é equivalente. 2. as linhas da matriz A são linearmente dependentes 2. 6. As filas de A são linearmente dependentes se e só se o mesmo sucede às filas que se obtêm somando a uma delas uma combinação linear das restantes. k 6= l são linearmente dependentes. isto é. sem perda de generalidade.6 Teoria das Matrizes Proposição 10 Sejam A ∈ Mm×n (K) e {Fk }k=1. 5. então X i6=k ∃k∈{1. Sabendo que Lk = 0 teremos λk Lk = 0 para qualquer λk ∈ K. As filas de A são linearmente dependentes se e só se algumas delas se podem escrever como combinação linear das restantes.··· . digamos λk . com algum k : 1 ≤ k ≤ p tal p que i=1 λi Li = 0. α ∈ K\ {0} são linearmente dependentes. As filas de A são linearmente dependentes se e só as filas em que a fila Fk é 0 substituída pela fila Fk = α · Fk . logo. 4. 1.m} : λk 6= 0 ∧ λi Li + λk Lk = 0 Se os restantes escalares forem nulos. As filas de A são linearmente dependentes se e só as filas em que a fila Fk 0 é substituída pela fila Fk = Fk + Fl . Demonstração. Se uma das filas de A é constituída integralmente por zeros. Pp Pm teremos i=1 λi Li + i=p+1 λi Li = 0 com o escalar λk não-nulo. as linhas da matriz A são linearmente dependentes. A combinação linear P nula das linhas da matriz é dada por i6=k λi Li + λk Lk = 0. Se escolhermos escalares nulos para as restantes P Pm linhas da matriz teremos m i=p+1 λi Li = i=p+1 0Li = 0. Assim. teremos 37 . Algumas das filas de A são linearmente dependentes se e só se todas o são.p as filas da matriz A. teremos uma combinação linear nula das linhas com pelo menos um escalar não nulo. (⇐=) Se as linhas da matriz A são linearmente dependentes. Para efeito da demonstração utilizar-se-ão as linhas da matriz. Suponhamos que a linha Lk é inteiramente nula. as filas são linearmente dependentes.(=⇒) Suponhamos.

ou bem que será λk · α. é possível obter uma combinação linear nula das linhas {Li }i=1. α α k i6=k 0 Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λi 6= 0. 3.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.6 Teoria das Matrizes X i6=k λi Li + λk Lk + X i6=k 0Li + λk Lk = λk Lk = 0 Deste modo. Neste caso. como α 6= 0 teremos λk 6= 0. A combinação 0 linear nula das linhas de A onde a linha Lk é substituída por Lk é P P 0 dada por i6=k λi Li + λk Lk = 0 ⇐⇒ i6=k λi Li + (λk · α) · Lk = 0. como α 6= 0 teremos α λk 6= 0. é linearmente dependente. qualquer conjunto de linhas que inclua a linha Lk . ou bem que será λk . l. Em qualquer caso. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. 4. é possível 0 obter uma combinação linear nula das linhas {Li }i=1. Ou bem que esse escalar é λi . Esta exi6 pressão pode ser reescrita como i6=k. k 6= l. 0 Substituamos a linha Lk pela linha Lk = α·Lk . ou então será (λk + λl ). Neste caso. 0 Substituamos a linha Lk pela linha Lk = Lk + Ll .l λi Li +λk Lk +(λk + λl ) Ll =0. i 6= k. Em qualquer caso. A combi0 nação linear nula das linhas de A onde a linha Lk é substituída por Lk P P 0 é dada por i6=k λi Li +λk Lk = P=k λi Li +λk (Lk + Ll )=0. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.m com pelo menos um escalar não nulo. i 6= k ou teremos λk 6= 0.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Ou bem que esse escalar é λi . α 6= 0. A combinação linear nula das linhas de A é dada por X i6=k 0 λi Li + λk Lk = 0.···n ∪ Lk com i6=k pelo menos um escalar não nulo. i 6= k. que nestas circunstâncias é integralmente nula. a qual é passível de ser reescrita como X i6=k λi Li + X λk λk 0 λi Li + (α · Lk ) = L = 0.··· . Neste caso. ter-se-á obrigatoriamente 38 .

é possível obter uma combinação linear nula das linhas {Li }i=1. A combinação linear nula das linhas de A é dada por X i6=k 0 λi Li + λk Lk = 0. i 6= k. a qual é passível de ser reescrita como X i6=k λi Li + (λk Lk + λk Ll ) − λk Ll = | {z } λk Lk 0 i6=k. Neste caso.··· . i 6= k. i 6= k. P Esta expressão pode ser reescrita como i6=k(λi +λk αi )Li+λk Lk =0. Em qualquer caso. Em qualquer caso. Em qualquer caso. ter-se-á obrigatoriamente λk αi 6= 0 (o que implica λk 6= 0)∨λi 6= 0. A combinação linear nula das linhas de A é dada por X i6=k 0 0 λi Li + λk Lk = 0.m com pelo menos um escalar não nulo. A combi0 nação linear nula das linhas de A onde a linha L³ é substituída por Lk k ´ P P P 0 é dada por i6=k λi Li +λk Lk = i6=k λi Li +λk Lk + i6=k αi Li =0. é possível 0 obter uma combinação linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não nulo. (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.6 Teoria das Matrizes λk 6= 0 ∨ λl 6= 0.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. a qual é passível de ser reescrita como 39 . é possível obter uma combinação 0 linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não nulo. Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. Neste caso. l ou teremos λk 6= 0 ou ainda (λl − λk ) 6= 0. ter-se-á obrigatoriamente λk 6= 0 ∨ λl 6= 0. 5.l X λi Li + (λl −λk ) Ll + λk Lk =0 0 Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λi 6= 0. Ou bem que esse escalar é λk ou bem que será (λi + λk αi ) . P 0 Substituamos a linha Lk pela linha Lk = Lk + i6=k αi Li . (⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.

uma vez que λk 6= 0. Neste caso. obteve-se uma combinação linear nula das linhas da matriz A. Seja λk um dos escalares não nulos para os quais se obtém umaP combinação linear nula das linhas de A. Lk = das i6=k λi Li . Demonstração. ter-se-á obrigatoriamente (λk 6= 0 ∨ λi 6= 0)i6=k . Em qualquer caso. A linha i0 de C é combinação linear das linhas de B que se obtém utilizando os escalares da linha i0 de A. isto é.6 Teoria das Matrizes X X X X 0 λi Li +λk Lk +λk αi Li −λk αi Li = (λi − λk ) Li +λk Lk =0 i6=k i6=k i6=k i6=k Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos λk 6= 0 ou bem que teremos (λi − λk ) 6= 0.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. em que pelo menos um escalar é não nulo (o escalar 1 associado à linha Lk ). (⇐=) Suponhamos que é possível escrever a linha Lk como combinação P linear P restantes linhas. Então cada linha (respectivamente coluna) de C é combinação linear das linhas (respectivamente colunas) de B (respectivamente A). é possível obter uma combinação linear nula das linhas {Li }i=1. Logo. Proposição 11 Sejam A ∈ Mm×n (K). isto é. Mais precisamente: 1. B ∈ Mn×p (K) e C = AB. i 6= k. 1.··· . 2. Tal mostra que as linhas de A são linearmente dependentes. A combinação linear nula i λi Li = 0 P 1 pode ser reescrita como Lk = − λk i6=k λi Li . ¤ ci0 1 ci0 2 · · · ci0 p £ Pn Pn = j=1 ai0 j bj1 j=1 ai0 j bj2 · · · n X £ ¤ ai0 j bj1 bj2 · · · bjp = j=1 n X j=1 Pn j=1 ai0 j bjp ¤ = ai0 j LB j 40 . A coluna j0 de C é combinação linear das colunas de A que se obtém utilizando os escalares da coluna j0 de B.m com pelo menos um escalar não nulo. Resulta que Lk − i6=k λi Li = 0. ci0 k = (AB)i0 k = LC i0 = £ Pn 0 j=1 ai0 j bjk . 6. A expressão mostra que a linha Lk pode ser escrita como combinação linear das restantes linhas da matriz.

m . Isto é. isto é. Suponhamos. Operações elementares. Resta desenvolver um processo que permita determinar a característica de linha (ou coluna) de uma matriz. Demonstração. denotada por rA (ou simplesmente r quando estiver claro a matriz a que se refere) define-se como o número máximo de linhas ou colunas linearmente independentes.··· . LC = k=1 λi LB . Tal significa que as linhas de C podem ser escritas como combinação destas linhas de B (agora com outros escalares que não aqueles dados pelas liPrl (B) nhas de A). as restantes linhas de B ou bem que são nulas ou bem que se podem escrever como combinação das que são linearmente independentes como vimos na Proposição (10). Então rl (C) ≤ rl (B) e rc (C) ≤ rc (A). por redução ao k k i absurdo que C tem rl (B) + 1 linhas lineamente independentes.6 Característica de uma matriz.··· . 6. Designa-se característica de linha da matriz A ao número máximo de linhas linearmente independentes. ı ı Tem-se claramente rl (A) ≤ m e rc (A) ≤ n e portanto rA ≤ m´n {m. onde m e n são respectivamente o número de linhas e colunas da matriz em causa. 41 . ∀i=1. j isto é. é o número máximo de colunas linearmente independentes. rc (A). A característica da matriz. Ora. n}. ∀i=1.m . A prova é em tudo semelhante à anterior mutatis mutantis. e portanto da sua característica. Definição 25 (Característica) Seja A∈Mm×n (K). Recordando a proposição 11 verificámos que. rA = m´n{rl (A) . B ∈ Mn×p (K) e C = AB. precisamente as primeiras. Suponhamos. denota—se este valor por rl (A). cada linha de C é combinação linear das linhas de B. se o número máximo de linhas linearmente independentes de B é rl (B) então. Sabemos então que a combinação linear nula destas rl (B) + 1 linhas só é passível de ser obtida com todos os escalares nulos. n X j=1 LC = i aij LB . sem perda de generalidade que são precisamente as primeiras rl (B) linhas de B que são linearmente independentes. Analogamente a característica de coluna da matriz A.6 Teoria das Matrizes 2. Proposição 12 Sejam A ∈ Mm×n (K). cada linha de C pode ser escrita apenas à custa das rl (B) linhas de B que são efectivamente linearmente independentes. rc (A)}.

6. logo dever-se-á ter rl (C) ≤ rl (B).1 Operações Elementares Os resultados da Proposição (10) permitem concluir que a dependência ou independência lineares das linhas (ou colunas) de uma matriz não é alterada por um conjunto de operações que no seu conjunto se designam por Operações Elementares Sobre Filas de uma Matriz. Trata-se de um sistema indeterminado possuindo outras soluções que não a solução {µi = 0}i=1.6 Teoria das Matrizes rl (B)+1 0 = rl (B)+1 X i=1 µi LC i rl (B) =  rl (B)+1 X i=1 µi k=1 Ora. Define-se como operação elementar sobre as filas da matriz A. A prova relativamente à afirmação rc (C) ≤ rc (A) é em tudo semelhante à anterior. a cada uma das seguintes operações: i.6. Mas isto é um absurdo pois por hipótese as primeiras rl (B)+1 linhas de C eram linearmente independentes. as rl (B) primeiras linhas de B são linearmente independentes pelo que a combinação nula anterior só se poderá obter com todos os escalares nulos. Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente de 0. Definição 26 (Operações Elementares) Seja A ∈ Mm×n (K).··· .rl (B)+1 .··· .rl (B)+1 :      Prl (B)+1 µ λi = 0 i=1 Prl (B)+1 i 1 µi λi = 0 2 i=1  ···  P  rl (B)+1  µi λi l (B) = 0 r i=1 =  X i=1 X λi LB k k  rl (B)+1 µi λi  LB +  1 1  X i=1 µi λi  LB + · · · +  2 2   rl (B)+1 X i=1 µi λi l (B)  LB (B) r rl  O sistema acima tem rl (B) e rl (B)+1 incógnitas. Troca entre si de duas linhas (ou colunas) da matriz. ii. O absurdo reside evidentemente no facto de se ter assumido que o número máximo de linhas linearmente idependentes de C era superior a rl (B). 42 . o que corresponde a resolver o sistema em ordem a {µi }i=1.

Definição 27 (Matriz Elementar) Seja I ∈ Mn (K) a matriz identidade de ordem n. • Regra geral Operações elementares sobre as linhas da matriz A fazem-se por multiplicações à esquerda desta enquanto que operações elementares sobre as colunas se fazem por multiplicações à direita. Matriz elementar associada: Eik . deve multiplicar. Representa-se por (Cj ←→ Cl ). resultante da aplicação de operações elementares sobre a matriz identidade. Dado um escalar α ∈ K. a troca destas colunas processa-se multiplicando a matriz A. por aplicação das operações elementares. a multiplicação à esquerda da matriz A implica a utilização de matrizes elementares de ordem m. que matriz. que é 1. à esquerda. • Troca de Linhas Dadas duas linhas. Representa-se por (Li ← αLi ). pela matriz E que resulta da troca das linhas i e k da matriz identidade I. por outras palavras. Designa-se por matriz elementar de ordem n a qualquer matriz E que resulte de I por aplicação de uma das três operações elementares. Li e Lk . Consideremos genericamente uma matriz A ∈ Mm×n (K).6 Teoria das Matrizes iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe outra. Matriz elementar associada: Ei (α). a multiplicação à esquerda ou à direita da matriz A implica uma escolha acertada para a ordem das matrizes elementares a multiplicar. à esquerda. ou. Vejamos. As operações elementares acima definidas correspondem à multiplicação (à esquerda ou à direita) da matriz A por matrizes que resultam da matriz identidade. pela matriz F que resulta da troca das colunas j e l da matriz identidade I. por α. que deverá ter dimensão apropriada. multiplicada por um qualquer escalar (Operação de Jacobi). Representa-se por (Li ←→ Lk ). i 6= k da matriz A. enquanto que a multiplicação à direita implica a utilização de matrizes elementares de ordem n. j 6= l da matriz A. a troca destas linhas processa-se multiplicando a matriz A. pela matriz E que resulta da matriz identidade por substituição do i-ésimo elemento da diagonal. à direita. caso a caso. a matriz A de forma a que as mesmas operações elementares tenham o mesmo efeito sobre A. Cj e Cl . consiste na multiplicação da i-ésima linha da matriz diagonal pelo escalar α. a multiplicação da linha Li da matriz A corresponde a multiplicar A. • Troca de Colunas Dadas duas colunas. ou pela qual se deve multiplicar. Assim. 43 • Multiplicação de Linha por um Escalar . Naturalmente que. Matriz elementar associada: Fjl .

pela matriz E que resulta da matriz identidade por substituição da linha i pela que se obtém somando-lhe a linha k multiplicada pelo escalar α. Representa-se por (Li ← Li + α · Lk ). i 6= k da matriz A e um escalar α ∈ K. à direita.6 Teoria das Matrizes • Multiplicação de Coluna por um Escalar Dado um escalar β ∈ K. a substituição da linha Li pela linha Li + α · Lk processa-se multiplicando a matriz A. Representa-se por (Cj ← Cj + β · Cl ). pela matriz F que resulta da matriz identidade por substituição da coluna j pela que se obtém somando-lhe a coluna l multiplicada pelo escalar β. a substituição da linha Cj pela linha Cj + β · Cl processa-se multiplicando a matriz A. pela matriz F que resulta da matriz identidade por substituição do i-ésimo elemento da diagonal. Tomamos a matriz identidade I3 e trocamos as linhas 1 e 3 para obter a matriz E:    0 0 1 1 0 0  0 1 0  L1 ←→ L3  0 1 0  −− − − − − −→ 1 0 0 0 0 1  Procedendo à multiplicação obtém-se: 44 . ou. Li e Lk . a multiplicação da coluna Cj da matriz A corresponde a multiplicar A. Cj e Cl . Matriz elementar associada: Fj (β). que é 1. consiste na multiplicação da i-ésima coluna da matriz diagonal pelo escalar β. por β. • Operação de Jacobi sobre Linhas Dadas duas linhas. Representa-se por (Cj ← αCj ). por outras palavras. Exemplo 11 Considere-se a matriz  −34 −68 −85 −38 52 43 91  A =  90 30 90 −24 −52  Vejamos como cada uma das seguintes operações elementares sobre a matriz A resulta da multiplicação desta matriz pela que resulta da identidade por aplicação das mesmas operações elementares: 1. à direita. à esquerda. Matriz elementar associada: Fjl (β). Deveremos considerar uma multiplicação à esquerda. Matriz elementar associada: Eik (α). j 6= l da matriz A e um escalar β ∈ K. • Operação de Jacobi sobre Colunas Dadas duas colunas. Troca das linhas 1 e 3.

Multiplicação de uma linha por um escalar. Troca das colunas 2 e 3. Suponhamos que se pretende multiplicar a linha 2 da matriz A pelo escalar √ 2. 2. Tomamos a matriz identidade I4 e trocamos as colunas 2 e 3 para obter a matriz F :    0  0   C2 ←→ C3  − − − −  − − −→ 0 1  0 0   0  1 0 1  0   0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 0 1 0 0 1 0 0 Procedendo à multiplicação obtém-se: 0 A = A · E23    −34 −68 −85 −38  52 43 91   =  90  30 90 −24 −52   −34 −85 −68 −38 43 52 91  =  90 30 −24 90 −52 0 1 0 0 0 0 0 1 0 0 1 0 0  0 0   0  1 A matriz A resultou da matriz A por troca das colunas 2 e 3 como se pretendia. 45 . tomamos a matriz identidade I3 e multiplicamos a segunda linha pelo escalar pretendido para obter a matriz E. Para tal. 3. Seguidamente faz-se o produto EA para obter a matriz pretendida. Deveremos considerar uma multiplicação à direita.6 Teoria das Matrizes A 0 = E13 · A  0 0 =  0 1 1 0  30 =  90 −34   1 −34 −68 −85 −38 0   90 52 43 91  0 30 90 −24 −52  90 −24 −52 52 43 91  −68 −85 −38 A matriz A resultou da matriz A por troca das linhas 1 e 3 como se pretendia.

0 1 √ 0 =  0 2 0 0  −34 √ =  90 2 30   0 −34 −68 −85 −38 52 43 91  0   90 30 90 −24 −52 1  −68 −85 −38 √ √ √ 52 2 43 2 91 2  90 −24 −52 √ 2. Multiplicação de uma coluna por um escalar. 1  0   0 0  0 1 0 0 0 0 1 0   0  0  0  C3 ←− 2 C3   0 − − − − → − − −5− 1 1 0 0 0 0 1 0 0 0 0 0 2 5 Procedendo à multiplicação obtém-se:  0 0   0  1 A 0 A matriz A resultou da matriz A por multiplicação da linha 3a coluna por 2 5. Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo escalar 2 . tomamos a matriz identidade I4 e multiplicamos a ter5 ceira coluna pelo escalar pretendido para obter a matriz F . 46 0 µ ¶ 2 = A · F3 5    −34 −68 −85 −38  52 43 91   =  90  30 90 −24 −52   −34 −68 −34 −38 86 52 91  =  90 5 30 90 − 48 −52 5 1 0 0 0 0 1 0 0 0 0 0 2 5  0 0   0  1 . Para tal.6 Teoria das Matrizes Procedendo à multiplicação obtém-se: 0    1 √ 0 0 1 0 0 √ 0  0 1 0  L2 ←− 2L2  0 2 0  −− − − − − − − −→ 0 0 1 0 0 1  ³√ ´ 2 ·A A = E2  A matriz A resultou da matriz A por multiplicação da 2a linha por 4. Seguidamente faz-se o produto AF para obter a matriz pretendida.

Operação de Jacobi sobre as colunas da matriz A. A matriz F assim obtida é multiplicada por A. Tomamos a matriz identidade I4 e substituímos a 5 coluna C3 pela que se obtém somando-lhe 2 C2 . Operação de Jacobi sobre as linhas da matriz A. Suponhamos que se pretende substituir a coluna C3 pela que se obtém somando-lhe a coluna C2 multiplicada pelo escalar 2 . 6. Consideremos as colunas 2 e 3 da matriz A. à esquerda.    1 0 0 1 0 0 √  0 1 0  L3 ←− L3 + 2L1  0 1 0  −−−−−−− −−−−−−→ √ 0 0 1 2 0 1  Procedendo à multiplicação obtém-se: ³√ ´ 2 ·A A 0   1 0 0 −34 −68 −85 −38 0 52 43 91  =  √ 1 0   90 30 90 −24 −52 2 0 1   −34 −68 −85 −38  90 52 43 91 =  √ √ √ √ −34 2 + 30 −68 2 + 90 −85 2 − 24 −38 2 − 52 A matriz A resultou da matriz A por substituição da linha 3 pela que se √ obteve somando-lhe a linha 1 multiplicada por 2. Consideremos as linhas 1 e 3 da matriz A.6 Teoria das Matrizes 5. à direita. Tomamos a matriz√ identidade I3 e substituímos a linha L3 pela que se obtém somando-lhe 2L1 . A matriz F assim obtida 5 é multiplicada por A.    0  0   C ←− C + 2 C2  0  −3− − −3− − →  − − − − −5 − 1  0 0   0  1 0 = E31  1  0   0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 1 0 2 5 Procedendo à multiplicação obtém-se: 47 . Suponhamos que se pretende substituir a linha L3 pela que se obtém somando-lhe a linha L1 multiplicada √ pelo escalar 2.

5 O exemplo acima ilustra o facto de operações elementares sobre uma matriz A qualquer poderem ser definidas como o produto de matrizes elementares pela matriz A. Vejamos então o resultado. √ √ ¡ ¢ • Multiplicação da linha 2 pelo escalar 2 L2 ←− 2L2 . 0 A questão que se coloca é a de saber qual a matriz A que se obtém de A por aplicação das 6 operações elementares acima descritas. Exemplo 12 Considere-se a matriz  −34 −68 −85 −38 52 43 91  A =  90 30 90 −24 −52  0 Consideremos um conjunto de operações elementares a aplicar sobre a matriz A: • Troca das linhas 1 e 3 (L1 ←→ L3 ). ¡ ¢ • Multiplicação da coluna 3 pelo escalar 2 C3 ←− 2 C3 .6 Teoria das Matrizes A 0 = A · F32    1 0 −34 −68 −85 −38  0 1 52 43 91   =  90  0 0 30 90 −24 −52 0 0   561 −34 −68 − 5 −38 319 91  52 =  90 5 30 90 12 −52 µ ¶ 2 5 0 1 0 2 5  0 0   0  1 A matriz A resultou da matriz A por substituição da coluna 3 pela que se obteve somando-lhe a coluna 2 multiplicada por 2 . por aplicação directa das operações sobre a matriz A: 48 . • Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multiplicada pelo escalar 2 (L3 ←− L3 + 2L1 ). 5 5 • Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multiplicada pelo escalar −1 (C3 ←− C3 − C4 ). • Troca das colunas 2 e 3 (C2 ←→ C3 ).

6 Teoria das Matrizes  −34 −68 −85 −38  90 52 43 91  L1− − − 3 − ←→ L − − −→ 30 90 −24 −52   30 90 −24 −52  90 52 43 91  C2− − − 3 − ←→ C − − −→ −34 −68 −85 −38   30 −24 90 −52 √  90 43 52 91  −2− − − 2L2 L ←− − → −−− − −34 −85 −68 −38   30 −24 90 −52 √ √ √ √  90 2 43 2 52 2 91 2  L3 ←− L3 + 2L1 −− − − − −→ −−−−−− −34 −85 −68 −38  30 −24 90 −52 √ √ √ √  90 2 43 2 52 2 91 2  C3 ←− 2 C3 − − −5− 26 −133 112 −142 − − − − →   30 −24 36 −52 √ √ √ √  90 2 43 2 104 2 91 2  C3 ←− C3 − C4 5 −− − − − − − − − − −→ 224 26 −133 −142 5   30 −24 88√ −52 √ √ √  90 2 43 2 − 351 2 91 2  5 934 26 −133 −142 5  Vejamos agora que se obterá a mesma matriz A se a matriz A for devidamente multiplicada pelas matrizes elementares associadas às operações elementares descritas. o seguinte: ³ µ ¶ µ ¶ ³√ ´ ´ 2 E31 (2) × E2 2 × E13 × A × F23 × F3 × F34 (−1) 5 0  O resultado será: 49 . O produto desejado é. simbolicamente.

isto é. O mesmo argumento é válido para operações sobre colunas. e se E1 . à esquerda por uma matriz elementar E (de ordem m). Se multiplicarmos A ∈ Mm×n (K). a matriz produto. Do acima exposto resulta o seguinte resultado: Proposição 13 Se multiplicarmos A ∈ Mm×n (K). e F1 . F2 . à esquerda e à direita. se O1 . · · · .6 Teoria das Matrizes  ×  |  Como era de esperar o resultado dos dois métodos utilizado é o mesmo. por esta ordem. · · · . Com efeito. Ep forem as matrizes elementares associadas a cada 0 uma daquelas operações. sobre uma matriz A qualquer. a matriz produto. Nota 7 É importante notar a ordem pela qual os produtos. por esta ordem. a matriz A que se obtém por aplicação das operações elementares é dada por Ep × · · · × E2 × E1 × A. · · · . Note-se que a matriz que primeiro multiplica A está associada à primeira operação elementar. · · · . O2 . Op for um conjunto de operações elementares sobre linhas a executar. (L2 ←− 2L2 ) (L1 ← →L3 ) }| {z z }| { }| { z    1 √ 0 0 1 0 0 0 0 1  0 1 0  0 2 0  0 1 0  × 2 0 1 1 0 0 0 0 1   −34 −68 −85 −38 52 43 91  × ×  90 30 90 −24 −52   1 0 0 0 1 0 0 0 1 0 0 0 0 0 1 0  0 1 0 0  0 1 0 0   0 1 0 0  0 0 2 0  0 0 1 0 5 0 0 0 1 0 0 −1 1 0 0 0 1 {z }| {z {z }| (C2 ←→C3 ) (C3 ← 3 −C4 ) −C (C3 ←− 2 C3 ) 5   30 −24 88√ −52 √ √ √  90 2 43 2 − 351 2 91 2  5 934 26 −133 −142 5 (L3 ←−L3 +2L1 ) √  }  =  50 . E2 . são efectuados. AF . à direita por uma matriz elementar F (de ordem n). a segunda matriz à segunda operação elementar e assim sucessivamente. O2 . a matriz A que resulta da aplicação destas operações é dada por A × F1 × F2 × · · · × Fp . também se pode obter de A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu passar de Im a E. Oq for um conjunto de operações elementares sobre as colunas de uma matriz A. também se pode obter de A efectuando sobre as colunas de A a mesma operação sobre colunas que permitiu passar de In a F . se O1 . Fp forem as matrizes elementares associadas àquelas 0 operações. EA.

Na determinação da característca de linha. Como tal. A demonstração sai imediatamente da aplicação directa da Definição 25 e da Proposição 10. a característica de linha de uma matriz não é modificada por operações elementares sobre as linhas dessa matriz. Se A for transformada na matriz A ³ 0´ através de operações elementares sobre linhas então rl (A) = rl A . por enquannto. 0 Demonstração. Como já vimos. Definição 28 (Matriz em Escada) Seja A ∈ Mm×n (K).2 Determinação da Característica de Linha de uma Matriz Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar a característica de linha de qualquer matriz A ∈ Mm×n (K).6 Teoria das Matrizes Demonstração. não há nenhum resultado que garanta que operações elementares sobre as linhas de uma matriz não afectam a sua característica de coluna ou.6. estudadas na secção anterior. É importante verificar que. com i < j ≤ m. operações elementares sobre linhas (colunas) não afectam a dependência (ou independência) linear das linhas (colunas) de uma matriz. utilizaremos operações elementares sobre as linhas de uma matriz. que operações elementares sobre as colunas não afectam a sua caractrística de linha. Diz-se que a matriz A está na forma de escada se a linha i apresenta mais zeros consecutivos no início que a linha j. A demonstração é simples e está ilustrada pelos exemplos anteriores. 6. Proposição 14 Seja A ∈ Mm×n (K). Exemplo  0 •  0 0  1 •  0 0 13 As seguintes matrizes encontram-se em forma de escada:  1a linha: 1 zero inicial 1 1 −1 0 0 0 4 9 : 2a linha: 3 zeros iniciais 0 0 0 0 3a linha: 5 zeros iniciais  1a linha: nenhum zero inicial 0 0 0 0 : 2a linha: 1 zero inicial 1 2 −1 0 0 0 0 1 3a linha: 4 zeros iniciais Proposição 15 A característica de linha de uma matriz A ∈ Mm×n (K) em forma de escada é igual ao número de linhas diferentes de zero. rl (A). 51 .

··· . a saber:            Pp a1j1 λ1 + Pi=2 λi · 0 = 0 p a1j2 λ1 + a2j2 λ2 + Pi=3 λi · 0 = 0 a1j3 λ1 + a2j3 λ2 + a3j3 λ3 + p λi · 0 = 0 i=4 ··· P p i=1 aijp λi · 0 = 0 Note-se que da primeira equação resulta λ1 = 0. Substituindo na terceira equação λ1 = λ2 = 0 resulta λ3 = 0. Para tal. Nota 8 É evidente que a característica da matriz identidade de ordem n é exactamente n. Substituindo λ1 = 0 na segunda equação e resolvendo resulta λ2 = 0.6 Teoria das Matrizes Demonstração. isto é a característica de linha de A é igual a p: rl (A) = p. é necessário resolver a equação Pp i=1 λi Li = 0. uma vez que a linha k é nula. Se a este conjunto de linhas adicionarmos uma qualquer linha k. Esta conclusão resulta da Proposição 10.1. p é o número máximo de linhas linearmente independente da matriz A. A linha Li terá a configuração £ 0 ··· aiji ··· ain ¤ onde aiji é o primeiro elemento não nulo da linha i. Assim. uma vez que a matriz identidade está naturalmente em forma de escada. 52 . com p < k ≤ m. para os escalares {λi }. A combinação linear nula das primeiras p linhas de A toma então a forma p X i=1 λi £ 0 ··· aiji ··· ain ¤ =0 a que corresponde a resolução de um sistema de equações.p e que portanto as primeiras p linhas de A são linearmente independentes. Vamos mostrar que as p primeiras linhas são linearmente independentes. Prosseguindo esta substituição recursivamente até à p−ésima equação permite concluir que {λi = 0}i=1. Suponhamos que a matriz A tem as primeiras p linhas não nulas e as últimas m − p nulas. resultará um conjunto de p + 1 linhas linearmente dependente. Exemplo 14 Determinação da característica de linha das seguintes matrizes em escada.

podemos verificar que as duas primeiras linhas são linearmente independentes e.6 Teoria das Matrizes  0 1 1 −1 0 • A =  0 0 0 4 9 . se for possivel transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz B em forma de escada preservando a sua característica de linha. O resultado seguinte mostra que tal processo existe. segunda e terceira linhas da matriz A): 1. Alternativamente. então é possível determinar a característica de linha de qualquer matriz. Alternativamente. tendo-se consequentemente rl (A) = rl (B). podemos verificar que as linhas são linearmente independentes. o número máximo de linhas linearmente independentes é precisamente 2 (sejam λ1 e λ2 os escalares associados. O número de linhas não nulas é 2 pelo que 0 0 0 0 0 a característica de linha da matriz é rl (A) = 2. Proposição 16 Toda a matriz A ∈ Mm×n (K) pode ser reduzida a uma matriz B em forma de escada por meio de operações elementares sobre as suas linhas.             0 · λ1 + 0 · λ2 1 · λ1 + 0 · λ2 1 · λ1 + 0 · λ2 (−1) · λ1 + 4 · λ2 0 · λ1 + 9 · λ2  =0  0=0    λ1 = 0 ½ =0  λ1 = 0 0 = 0 ⇐⇒ = 0 ⇐⇒ λ2 = 0   λ2 = 0 =0    0=0 =0  1 0 0 0 0 • A =  0 1 2 −1 0 . à primeira e segunda linhas da matriz A):  1.            1 · λ1 + 0 · λ2 + 0 · λ3 0 · λ1 + 1 · λ2 + 0 · λ3 0 · λ1 + 2 · λ2 + 0 · λ3 0 · λ1 + (−1) · λ2 + 0 · λ3 0 · λ1 + 0 · λ2 + 1 · λ3  =0  λ1 = 0     λ2 = 0 =0   λ1 = 0 0 = 0 ⇐⇒ λ2 = 0 = 0 ⇐⇒    0=0 λ3 = 0 =0    λ3 = 0 =0 O resultado acima sugere que. O número de linhas não nulas é 3 pelo que a 0 0 0 0 1 característica de linha da matriz é rl (A) = 3. à primeira. 53 . λ2 e λ3 os escalares associados. sendo a terceira linha nula. respectivamente. respectivamente. sendo portanto o número máximo de linhas linearmente independentes que é precisamente 3 (sejam λ1 .

j1 +2 (1) a2. . tem um (2) elemento f na coluna j2 soma-se-lhe a linha L2 multiplicada pelo escalar −f . deste modo fica o elemento 1 ∈ K na posição (2. (1) 0 0 am. com 2 < r ≤ m. amn (2) (1)       54 . . . . Procedendo de igual modo com todas as linhas.j1 +2 (1) (1) ··· ··· ··· a1n (1) a2n . j1 ) da matriz. colocamos um elemento d 6= 0 na posição (2. Multiplica-se agora a linha L1 por a−1 . com j1 < j2 ≤ n é a primeira coluna de A1 que tem elementos não nulos para além de. Procedendo de igual modo com todas as linhas. Suponhamos que j1 . isto é. amn (1) (1)       Repetindo este processo um número. 0 0 0 (1)   A1 =    a1. . Por troca de linhas. . que não a primeira e a segunda. . que tenham um elemento não nulo na coluna j1 obtem-se uma matriz com a forma:  0 ··· 0 ··· . . 0 ··· 0 1 a1. . p. Ls por exemplo. tem um elemento b na coluna j1 soma-se-lhe a linha (1) (1) L1 multiplicada pelo escalar −b. . . j2 ). que não a primeira. j1 ). Adicionalmente. eventualmente. faz-se Lr ← Lr + (−f ) L2 (Operação de Jacobi). sempre inferior a n. Multiplica-se (2) agora a linha L2 por d−1 .   A2 =    ··· ··· ··· a1. deste modo fica o elemento 1 ∈ K na posição (1. se uma das outras linhas de A. . j1 ). 0 (1) a1. Por troca de linhas. Lr por exemplo. 0 ··· 0 1 a1. obtém-se uma matriz B = Ap na forma desejada. a nova linha (2) Lr passa a ter o escalar 0 ∈ K na posição (r. (1) (1) (2) isto é. que permite transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz B em forma de escada através de operações elementares sobre linhas designa-se Condensação Vertical da matriz A. . . . a2. . . Assim.j1 +2 . am. Assim.6 Teoria das Matrizes Demonstração. .j2 +1 . . . . . faz-se Ls ← Ls + (−b) L1 (Operação (1) de Jacobi). . o primeiro.j2 1 .j1 +1 (1) 0 0 a2. a nova linha Ls passa a ter o escalar 0 ∈ K na posição (s. . j2 ). (1) se uma das outras linhas de A1 .j1 +1 (1) Suponhamos agora que j2 .j1 +1 .j1 +1 0 0 0 . com 1 < s ≤ m.j2 +1 (2) a2. temse rl (A) = rl (B) uma vez que operações elementares sobre as linhas de uma matriz não alteram a sua característica de linha. com 1 ≤ j1 ≤ n é a primeira coluna de A que não é nula. colocamos um elemento a 6= 0 na (1) posição (1. Definição 29 (Condensação Vertical) Ao processo implícito na Proposição 16. j2 ) da matriz. . . . .j2 +1 (2) (1) ··· ··· ··· a1n (2) a2n . suficiente de vezes. que tenham um elemento não nulo na coluna j2 obtem-se uma matriz com a forma:  0 ··· 0 ··· . . .

55 . por exemplo −1. diz-se que a matriz se encontra na forma de escada reduzida. numa matriz em forma de escada. utilizado para. Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVertical.6 Teoria das Matrizes  0 2 4 1 9 Exemplo 15 Considere-se a matriz A =  0 3 5 2 1 . poupando-nos assim. a característica de linha da matriz A é rl (A) = 3. Determi0 −1 2 0 0 nemos a sua característica de linha através de condensação vertical. Não nos afastemos do objectivo principal do processo de condensação que consiste em transformar uma matriz numa outra em forma de escada. As colunas de uma matriz em forma de escada que contêm um elemento redutor designam-se por Colunas Redutoras (ou Colunas Pivot).     9 0 2 4 1 9 0 1 2 1 2 2  0 3 5 2 1  L1 ←− 2 L1  0 3 5 2 1  L2 ←− L2 − 3L1 −− − − − −→ −−−−−− − − −5− 0 −1 2 0 0 − − − − → 0 −1 2 0 0   9 0 1 2 1 2 2  0 0 −1 1 − 25  L3 ←− L3 + L1 2 2 −− − − − − − − − − −→ 0 −1 2 0 0     9 9 1 0 1 2 0 1 2 1 2 2 2 2  0 0 −1 1 − 25  L3 ←− L3 + 4L2  0 0 −1 1 − 25  2 2 2 2 −− − − − −→ −−−−−− 9 5 0 0 4 1 0 0 0 − 91 2 2 2 2  a Logo. Se. mediante a aplicação de Operações de Jacobi. todos os elementos redutores forem o escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0. Repare-se que a 2a e 3 operações poderiam ter sido ambas efectuadas na 2a matriz. Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos redutores devidamente assinalados. No exemplo anterior utilizàmos. anular os elementos {akj }k>i da respectiva coluna mas em linhas de ordem superior. O Elemento Redutor de uma linha não nula é o elemento com índice de coluna mais baixo que ainda é não -nulo. A utilização da operação elementar que consiste em multiplicar uma linha da matriz por um escalar tem como objectivo facilitar os cálculos mediante a transformação do elemento redutor no escalar 1 ∈ K. dá-se a designação de Elemento Redutor (o termo ”pivot” é também frequentemente utilizado). aij . com o qual é muito mais simples realizar as Operações de Jacobi que se seguem. ao elemento. a escrita de uma das matrizes anteriores (a terceira). Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K.

6. o número de elementos redutores e o número de colunas redutoras são sempre iguais entre si. esta notação poderá denotar ambiguamente o produto A · B −1 ou o produto B B −1 · A. questão central na Teoria das Matrizes com ramificações extremamente importantes na Álgebra Linear em geral.1 Definições e Resultados Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A ∈ Mn (K) diz-se regular se existir B ∈ Mn (K) tal que AB = In = BA. que não são necessariamente iguais. 56 . Demonstração. Com efeito.3 Esta definição deixa em aberto uma afirmação que carece de demonstração. Se não existir uma matriz B nestas condições. o número de linhas não nulas. Então AB = I se e só se BA = I. Do mesmo modo. A diz-se inversa de B e escreve-se A = B −1 . Nota 10 Naturalmente que. numa matriz em forma de escada. diz-se que a matriz A é singular. (⇒) Suponhamos que AB = I. A matriz B dizse inversa de A e escreve-se B = A−1 .  6.7 Inversão de Matrizes Nesta secção vamos estudar a Inversão de Matrizes. Trata-se de uma matriz em forma de escada. Pretende-se mostrar que BA = I.7.6 Teoria das Matrizes  0 1 1 −1 0   •  0 0 0 4 9 . 3 Assumindo que o produto A· B −1 se encontra bem definido. 0 0 0 0 0   1 0 0 0 0   •  0 1 2 −1 0 . B ∈ Mn (K). O estabelecimento formal desta afirmação é como se segue: Proposição 17 Considerem-se as matrizes A. Trata-se de uma matriz em forma de escada 0 0 0 0 1 reduzida. é incorrecto representá-lo por A .

por definição. Seja A ∈ Mm×n (K). = A 4. B ∈ Mn (K) são matrizes regulares. 2. 57 . Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes regulares. 5. Se B ∈ Mn (K) e D ∈ Mm (K) forem regulares então rl (DA) = rl (A) e rc (AB) = rc (A). k = 1. Toda a matriz elementar é regular. Se Ak ∈ Mn (K) . Se A ∈ Mn (K) é regular então AT . tal grupo designa-se por GLn (K). (⇐=) Suponhamos que BA = I.6 Teoria das Matrizes BA = BAI (porque a identidade é elemento neutro para a multiplicação de matrizes) (pela propriedade associativa para a multiplicação de matrizes) = B (AI) = B (IA) (porque a matriz identidade é comutável) = B (AB) A (por hipótese) = (BA) (BA) (pela propriedade associativa para a multiplicação de matrizes) Resulta que BA = (BA) (BA) ⇐⇒ BA (BA − I) = 0. Se BA = 0 então ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. p são matrizes regulares então p Ak k=1 Q −1 também o é e ( p Ak ) = A−1 × · · · × A−1 . AB também é regular e tem-se −1 (AB) = B −1 A−1 . Logo deveremos ter (BA − I) = 0 ⇐⇒ BA = I. Se A ∈ Mn (K) é regular então rl (A) = n = rc (A). Mas também BAB = 0B ⇐⇒ B (AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. 1. De- Naturalmente que o conceito de regularidade de uma matriz só é passível de ser aplicado a matrizes quadradas. · · · . ser regular. Q 6. O conjunto das matrizes regulares de ordem n sobre um corpo K constitui um grupo a respeito da multiplicação. Pretende-se mostrar que AB = I. mostração em tudo idêntica à anterior mutatis mutantis. uma vez que não existe uma outra matriz que possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos produtos nunca será possível). Se A.sobre K. p 1 k=1 7. que não seja quadrada não pode. Grupo Linear Geral de ordem n. ¡ ¢−1 ¡ −1 ¢T 3. Qualquer matriz.

no caso das linhas. se E resulta da troca das linhas s e t. logo E é regular. Efectivamente. a matriz H obtida de In somando à linha (ou coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE = In = EH. se i = s n = j=1 etj ejk = esk . 1. logo E é regular e inversa de si mesma. t n X j=1 eij ejk (EF )ik = eij fjk = Se E se obteve somando à linha (ou coluna) s de In a linha (ou coluna) t multiplicada por b ∈ K. tem-se EF = In = F E. Se B ∈ Mn (K) é tal que BA = In . logo E é regular. Seja A ∈ Mn (K) uma matriz regular de ordem n sobre K. Com feito. se i = s 1 · (−b) + b · 1 = 0. se k 6= t    eik . se i = s    ½ 0. se k 6= s 1. se k = s  .6 Teoria das Matrizes 8. se k 6= s = = δ ik  eik . se k = s   . se B ∈ Mn (K) é tal que AD = In então D = A−1 . n X j=1  ½ 1. se i 6= s 58 eij hjk = ½ Pn j=1 esj hjk = ess hsk + est htk . se i = s . Com efeito. se i 6= s ½ ess fsk = αfsk . se k = t = = δ ik . se i 6= s. se i 6= s. se k = s  . n X  ½ 1. se i = t   0. se i = s eik . sendo F a matriz elementar resultante de multiplicar a linha (ou coluna) s de In por a−1 . se i = t  eik . Demonstração. Seja E uma matriz elementar de ordem n sobre K. teremos (no caso da troca de linhas):  Pn  Pj=1 esj ejk = etk . de igual modo. Se E resultou de In por troca de linhas (ou colunas) é fácil verificar que EE = In . se i = s 0. então. t (EE)ik = Se E resultou da multiplicação da linha (ou coluna) s por um escalar α ∈ K\ {0}. para as linhas. então B = A−1 . se k = t = δ ik =  eik . se i 6= s j=1  ½ 1 · 1 + 0 · 0 = 1. se i 6= s (EH)ik = eik .

8. em todo. Como A tem apenas n colunas. o elemento neutro In pertence ao conjunto. Suponhamos que o resultado é válido para p − 1 factores. ¢ ¡ 5. a inversa de uma matriz regular é dada pelas seguintes matrizes: −1 • Eik = Eik −1 • Ei (α) = Ei ¡1¢ α . Mas tem-se A = D−1 DA pelo que rl (DA) ≥ rl (A). Nota 11 Simbolicamente. Para p = 2 o resultado está demonstrado. Conclui-se assim que GLn (K) é um grupo. tem-se. De igual modo. Logo. logo B = A−1 . o que significa que A−1 ∈ GLn (K). Como DA = DA. Ak k=1 ¢ ¡ = (A1 × · · · × Ap ) A−1 × · · · × A−1 p 1 ¡ ¢ = A1 × · · · × Ap A−1 × · · · × A−1 p 1 ¢ ¡ (porque Ap é regular) = (A1 × · · · × Ap−1 ) A−1 × · · · × A−1 p−1 1 = In (por hipótese) ! ¡ −1 ¢ Ap × · · · × A−1 = 1 7. O raciocínio que demostra o resultado para as colunas é. na Proposição (5) verificámos que a multiplicação de matrizes é associativa. rl (DA) = rl (A). se AD = In então A−1 AD = A−1 In . desta proposição que o referido conjunto é fechado para a multiplicação. pela Proposição (12) rl (DA) ≤ rl (A). Se A é regular teremos AA−1 = In . Se BA = In então BAA−1 = In A−1 . 6. como A−1 A = In . se A é regular A−1 também o é. Basta verificar que (AB) B −1 A−1 = A BB −1 A−1 = AA−1 = In . Basta verificar que AT A−1 = A−1 A = In . e pela Proposição (12) n = rc (In ) ≤ rc (A). virá rc (A) = n. Pretende-se mostrar que também é válido para p factores: Ã p Y 4. virá rc (A) = n. α 6= 0 59 . O resultado constitui uma generalização do resultado anterior e pode ser demonstrado por indução sobre o número de factores do produto. finalmente. De igual modo. Vimos no ponto 5. ¢T ¡ ¢T ¡ 3.6 Teoria das Matrizes 2. semelhante. logo D = A−1 . ter-se-á n = rl (In ) ≤ rl (A) e como A tem apenas n linhas.

Mostremos que as linhas Ls s=1. Se F ∈ Mn (K) e E ∈ Mm (K) forem matrizes elementares então rl (AF ) = rl (A) e rc (EA) = rc (A). Vejamos qual o resultado da aplicação das três operações elementares sobre as linhas de A.··· .6 Teoria das Matrizes −1 • Eik (α) = Eik (−α) A seguinte proposição é uma generalização do resultado estabelecido no ponto 4 da Proposição (18): Proposição 19 Seja A ∈ Mm×n (K).h h X s=1 0 λs Ls ¤ ¤ 0 = 0 ⇐⇒ = 0 ⇐⇒ = 0 ⇐⇒ = 0 =⇒ = 0. Designem-se as linhas de n 0o 0 A por {Ls }s=1. com i< n 0o j. são linearmente independentes: h X s=1 λs Ls = 0 ⇐⇒ 0 60 . sem perda de s=1.n e as de A por Ls .h n 0o Assim.responde a operar sobre as colunas (Proposição 13). que {Ls }s=1. as linhas Ls s=1.h h X s=1 h X s=1 λs λs £ £ as1 as1 ··· ··· asj asi ··· ··· asi asj ··· ··· asn asn h X s=1 λs Ls λs Suponhamos agora que A resulta de A por multiplicação da coluna j desta n 0o última por um escalar β ∈ K\ {0}.··· .··· . Suponhamos.··· . e recordemos que a multiplicação à direita por uma matriz elementar cor.h são linearmente idependentes. ∀s=1.··· . Demonstração.n 0 generalidade.··· .··· . Considere-se A = AF . Mostremos que as linhas Ls são linearmente independentes: s=1. Façamos a prova para as linhas. • Suponhamos então que A resulta de A por troca das colunas i e j.n 0 são linearmente independentes.

relativamente às coordenadas de índice j. com i < j. Mas porque β 6= 0 virá s=1 λs asj = 0.h λs Ls λs n 0o Assim. ∀s=1. multiplicada por um escalar β ∈ K\ {0}.··· .··· . isto é h X s=1 λs £ as1 ··· asi ··· asj ··· asn h X s=1 ¤ = 0 ⇐⇒ = 0 =⇒ = 0. • Admitamos agora que A resulta de somar à coluna i de A a coluna j. as linhas Ls s=1.n 0 são linearmente independentes. ∀s=1. temos h λs × s=1 Ph Ph β × asj = β s=1 λs asj = 0.··· .··· . Mostremos que as linhas n 0o Ls são linearmente independentes: s=1.6 Teoria das Matrizes h X s=1 h X s=1 λs λs £ £ as1 ··· ··· asi β × asj ··· asj ··· ··· asn asn ¤ ¤ = 0 ⇐⇒ = 0 ⇐⇒ = 0 =⇒ = 0.h h X s=1 λs Ls ¤ 0 = 0 ⇐⇒ = 0 ⇐⇒ h X s=1 λs £ as1 ··· asi + βasj ··· asj ··· asn 61 .h as1 h X s=1 λs Ls λs P Em particular.

··· .  Ph   λs asj = 0    . n 0o Assim.n são linearmente independentes. .   P   h s=1 λs asn = 0 s=1 . ou seja rl (AF ) ≤ rl (A). s=1  . donde a igualdade. sendo também F −1 uma matriz elementar (como verificámos na demonstração do ponto 1. .  .  . logo é regular e podemos escrever A = A F −1 . Analogamente se prova a afirmação relativamente à característica de coluna.   P  Ph h    s=1 λs asi + β s=1 λs asj = 0  .  .h λs Ls λs = = Concluímos assim. s=1  . ∀s=1. Ph Ph s=1 λs as1 = 0 λs asi + β Ph ⇐⇒ ⇐⇒ ··· asi ··· asj ··· asn h X s=1 ¤ = 0 ⇐⇒ 0 =⇒ 0. as linhas Ls s=1.   P   h s=1 λs asn = 0  Ph λ a =0    . Nota 12 Em termos práticos.··· . o que o resultado anterior nos indica é que operações elementares sobre as linhas de uma matriz não afectam a sua característica de coluna e que as operaçõs elementares sobre as colunas de uma matriz não afectam a sua característica de linha.  .  Ph   λs asj = 0    . s=1 s s1   .  . Do mesmo modo. 62 . Como F é uma matriz elemen0 tar. . teremos rl A ≤ rl A F −1 pela Proposição 12.6 Teoria das Matrizes               h X s=1 λs £ as1 s=1 λs asj = 0 . da ³ 0´ ³ 0 ´ Proposição 18). que rl (A) ≤ rl (AF ). .

· · · 0. 1 0 0 b1. (1) O seguinte conjunto de operações transformará a matriz B numa matriz B onde a última coluna tem a forma {0. 0 0 0 0 0 0 b13 b23 1 . . ∀1≤j≤n . o que é absurdo. .n × Ln Ln−2 ← Ln−2 − bn−2. Assim. A redução da matriz A a uma matriz B em forma de escada por meio de operações elementares sobre as linhas (ver Proposição 16) implica que B seja triangular superior com todos os elementos principais não nulos.n 1            (5) Continuando a proceder a operações elementares sobre linhas.n−1 1 0 b1.j+1 . Tal significa que o primeiro elemento significativo da linha j será pelo menos bj. . .n−1 . . . logo bjj 6= 0. . . logo. . Proposição 20 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n. poderemos transformar B em In . 0. Suponhamos que a matriz A está reduzida à forma de escada mas que. Demonstração.n−1 b2. a n-ésima linha de B é nula. bn−2.n b3.n−1 b3.n b2. implicando que rl (A) = rl (B) < n. 1. . 0. bn−2. dada uma matriz A ∈ Mm×n (K) a matriz B.n bn−1. 0.n−2 b2. . bjj = 0. e portanto de A. . o seguinte conjunto de operações transformará a matriz B (1) numa matriz B (2) onde a penúltima coluna tem a forma {0. 1}: Ln−1 ← Ln−1 − bn−1.n × Ln ··· L1 ← L1 − b1. em particular qualquer matriz A ∈ Mm×n (K). 0. Pela Proposição (10) as linhas de B.n × Ln (6) De igual modo. · · · 0. 0. Mas a matriz B é quadrada.6 Teoria das Matrizes Podemos portanto concluir que operações elementares sobre as linhas ou colunas de uma matriz não afectam a sua característica.n+1 . Já verificámos na Proposição (16) que qualquer matriz é redutível à forma de escada por meio de operações elementares. . com 1 ≤ j ≤ n. em forma de escada. 0 0 0 ··· ··· ··· ··· ··· ··· b1.n . que daquela resulta por aplicação de operações elementares terá a forma:            1 b12 0 1 0 0 . por exemplo. O absurdo resulta de assumirmos que um dos elementos da diagonal de B é não nulo. serão linearmente dependentes.n−2 b3. Mas isso significa que o primeiro elemento significativo da linha n será pelo menos bn. 0}: 63 .n−2 .

Demonstração. transformar a matriz A na matriz In . Pelo estabelecido na Proposição 13 tem-se ainda A1 = E1 · A. onde At = Et · At−1 e E12···t = Et · E12···t−1 . onde E1 é uma matriz elementar. onde A2 = E2 · A1 e E12 = E2 · E1 . digamos Op1 . na Proposição 21.n−1 × Ln−1 Prossegue-se deste modo até se obter In . que é possível através de operações elementares sobre linhas.6 Teoria das Matrizes Ln−2 ← Ln−2 − bn−2.n−1 × Ln−1 Ln−3 ← Ln−3 − bn−3. A seguinte proposição enuncia o acima explicitado.n−1 × Ln−1 ··· L1 ← L1 − b1. logo regular. tem-se: O A2 − −p− A3 − −3 → O E12 − −p− E123 − −3 → O In − −p− E3 − −3 → . (7) Proposição 21 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n. Efectuando uma sgunda operação tem-se: O A1 − −p− A2 − −2 → O E1 − −p− E12 − −2 → O In − −p− E2 − −2 → . Através de um número finito de de operações elementares sobre as linhas é possível transformar a matriz A na matriz In . e assim sucessivamente até à operação Opt : O At−1 − −p− At − −t → O E12···t−1 − −p− E12···t − −t → O In − −p− Et − −t → . para obter In .· · ·. Então A é um produto de matrizes elementares. 64 . Efectuando uma terceira operação.Op2 . Vamos refazer o processo com o seguinte esquema: O A − −p− A1 − −1 → O In − −p− E1 − −1 → . Suponhamos que precisámos de t destas operações.Opt. onde A3 = E3 · A2 e E123 = E3 · E12 .Op3 . Proposição 22 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n (rc (A) = n). Verificámos.

isto é. Conforme a Proposição 22. ou seja A = E1 E2 E3 · · · · · Et . E12···t = = = = Et E12···t−1 Et Et−1 · E12···t−2 (· · · ) Et Et−1 · · · · · E3 E2 E1 e ainda In = = = = = = At Et At−1 Et Et−1 · At−2 (· · · ) Et Et−1 · · · · · E3 E2 E1 A E12···t A Nos pontos 1 e 5 da Proposição 18. digamos. Conclui-se portanto que a matriz E12···t é regular. Demonstração. 1 ≤ i ≤ t é uma matriz elementar. Façamos a prova para a característica de linha. 65 . Se B ∈ Mn (K) e D ∈ Mm (K) forem matrizes regulares então rl (AB) = rl (A) e rc (DA) = rc (A). Proposição 23 Seja A ∈ Mm×n (K). −1 Resta assinalar que cada Ei . B = F1 F2 · · · Fi−1 Fi .6 Teoria das Matrizes Como se referiu no início da demonstração. A seguinte proposição generaliza o resultado da Proposição 19. estabelecemos que toda maatriz elementar é regular e que o produto de matrizes regulares é ainda uma matriz regular. a matriz B é produto de matrizes elementares. respectivamente. Pelo ponto −1 −1 −1 −1 8 da Proposição 18 vem A = (E12···t )−1 . Então. depois da aplicação destas t operações obteve-se a matriz In . At = In . Tendo em conta o resultado da Proposição 19 rl (AB) = = = = = rl (AF1 F2 · · · Fi−1 Fi ) rl (AF1 F2 · · · Fi−1 ) rl (AF1 F2 · · · Fi−2 ) (· · · ) rl (A) Analogamente para a característica de coluna.

isto é. se rl (A) = n então A é regular. Demonstração. 6. 1. se conhecermos sucessivamente as matrizes elementares que permitem passar de A a In .7. por definição existe uma matriz B ∈ Mn (K) tal que AB = In = BA. Analogamente para rc (A) = n. logo A−1 = Et Et−1 · · · E2 E1 A Isto significa que. em que B = A−1 . conhecermos a matriz B tal que BA = £ n . pela Proposição (12) tem-se n = rc (In ) ≤ rc (B). da Proposição (18) se A é regular então rl (A) = n. Se AB = In . E2 . Pelo ponto 2. 2. Pela Proposição (22). Op2 . logo rc (A) = n. 1. £ A|In ¤ Exemplo 17 Consideremos a seguinte matriz real. matriz ampliada A|In do tipo n×2n e apliquemos toda a operação elementar sobre as as linhas de A às linhas de In . A matriz A é regular se e só se rl (A) = n (ou rc (A) = n).6 Teoria das Matrizes Proposição 24 Seja A ∈ Mn (K). · · · Et tais que Et Et−1 · · · E2 E1 A = In . 2. Pela Proposição (21) sabemos que existem matrizes elementares E1 . Suponhamos que Op1 .2 Determinação da Inversa de uma Matriz Regular Nesta secção apresenta-se um método prático para a determinação da matriz inversa de uma matriz A ∈ Mn (K) regular.  1 1 1 A =  1 −1 1  1 1 0  66 . Consideremos então a I é. · · · Opt são as operações elementares a aplicar sobre a matriz A. isto ¤ conheceremos a inversa de A. se existir uma matriz B ∈ Mn (K) tal que AB = In (respectivamente BA = In ). A matriz A é regular se e só se tiver uma inversa direita (respectivamente esquerda). e portanto A é regular pelo ponto anterior. £ £ ¤ ¤ A1 |E1 In A2 |E2 E1 Op1 Op2 O −− − − −¤ → − ¤− → − − − − −p3 → −− − £ £ ¤ £ A3 |E3 E2 E1 − ·−·→ A1 |E1 In |Et Et−1 · · · E2 E1 Opt ·− − −− − − −→ £ ¤ £ ¤ O que fizemos foi passar de uma matriz A|In para uma matriz In |B através de operações elementares sobre linhas. Se A é regular.

em caso afirmativo. se A for regular. Se a matriz A não fosse regular o processo teria terminado aqui. partindo de A|In chegar a ¤ ¤ £ In |B vamos começar imediatamente com a redução de A|In . quando se obteve uma matriz em escada de elementos principais significativos. Sendo regular. prosseguiu-se na aplicação de operações elementares sobre as linhas de A até se obter I3 enquanto que simultaneamente determinávamos A−1 por aplicação das mesmas operações elementares sobre I3 . conclusão esta atingida ao fim das duas primeiras operações sobre as linhas de A.6 Teoria das Matrizes Vamos veriicar se a matriz A é regular e. determinar a sua inversa. não é necessário repetir as operações elementares já efectuadas: ¯  1 1 1 ¯ 1 0 0 ¯  1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1 ¯ L3 ←− L3 − L1 1 1 0 ¯ 0 0 1 −− − − − − −→ −−−−− ¯   1 1 1 ¯ 1 0 0 1 ¯  0 −2 0 ¯ −1 1 0  L2 ←− − 2 L2 ¯ L3 ←− −L3 0 0 −1 ¯ −1 0 1 − − − − − − − − − − −→ ¯   0 0 1 1 1 ¯ 1 ¯  0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L3 2 ¯ 2 −− − − − − − − − − −→ 0 0 1 ¯ 1 0 −1 ¯   0 1 1 1 0 ¯ 0 ¯ 1 1  L1 ←− L1 − L2  0 1 0 ¯ ¯ 2 −2 0 −− − − − − − − − − −→ ¯ 1 0 0 1 0 −1 ¯   1 1 0 0 ¯ −1 1 2 ¯ 12 1   0 1 0 ¯ ¯ 2 −2 0 ¯ 1 0 0 1 0 −1  A−1 =   −1 2 1 1 2 1 2 −1 2 Tem-se claramente que. Note-se que às operações elementares utilizadas correspondem. as seguintes matrizes elementares L2 ←− L2 − L1 L3 ←− L3 − L1 L2 ←− − 1 L2 2 L3 ←− −L3 L1 ←− L1 − L3 L1 ←− L1 − L2 67 : : : : : : E21 (−1) E31¡(−1) ¢ E2 − 1 2 E3 (−1) E13 (−1) E12 (−1)  1 0  −1 . utilizando a notação habitual. de modo a determinar ¤ £ a £ característica. e no caso em que rl (A) = n. 0 Conclui-se assim que a matriz é regular. Assim. Em vez de condensar primeiro a matriz A.

segundo o que verificámos na proposição 22. Por um processo semelhante.6 Teoria das Matrizes Tal significa. a matriz obtida pelo produto das matrizes elementares é precisamente A−1 . esta matriz será a inversa do produto de matrizes elementares descrito anteriormente. pela ordem correcta!. Nota 13 É extremamente importante lembrar que a determinação da inversa de uma matriz através do método descrito só pode ser realizada exclusivamente 68 . é relativamente simples determinar A. das matrizes elementares acima descritas. como se verifica em seguida: ¶ µ · ¸−1 1 A = E12 (−1) · E13 (−1) · E3 (−1) · E2 − = · E31 (−1) · E21 (−1) 2 ¶ µ 1 −1 −1 −1 −1 −1 −1 E21 (−1) · E31 (−1) · E2 · E3 (−1) · E13 (−1) · E12 (−1) = − 2 E21 (1) · E31 (1) · E2 (−2) · E3 (−1) · E13 (1) · E12 (1) =               101 110 1 0 0 10 0 100 100      · · · · · =  1 1 0  0 1 0   0 −2 0  0 1 0   0 1 0  0 1 0  = 001 001 0 0 1 0 0 −1 001 101       1 1 1 1 1 1 1 0 0 1 0 0 =  1 1 0   0 −2 0   0 1 1  =  1 −1 −1  1 1 0 0 0 1 0 0 −1 1 0 1 Definição 32 (Inversão por Condensação) Ao método atrás descrito para a inversão de uma qualquer matriz A ∈ Mn (K) dá-se o nome de Inversão por Condensação. Com efeito. Sabendo que a inversa de uma matriz elementar tem uma forma extremamente simples. Verifiquemos então esse resultado: ¶ µ 1 A−1 = E12 (−1) · E13 (−1) · E3 (−1) · E2 − · E31 (−1) · E21 (−1) = 2                1 0 0 10 0 1 −1 0 1 0 −1 1 00 1 00        · · · =  0 1 0  0 1 0   0 1 0  0 − 1 0   0 1 0  −1 1 0  = · · 2 0 0 −1 0 0 1 0 0 1 00 1 −1 0 1 0 01       1 1 1 −1 −1 1 0 0 1 1 0 0 −2 2 0   0 − 1 0   −1 1 0  =  1 − 1 0  = 0 1 2 2 2 0 0 1 0 0 −1 −1 0 1 1 0 −1 Como seria inevitável. que a matriz A−1 pode ser produzida pelo produto. também será possível recuperar a matriz A.

chegar-se-á à conclusão que Et Et−1 · · · E2 E1 AF1 F2 · · · Fs = In . Esta expressão não está. F2 . que a caratcterística da matriz A é 2. como a matriz A3 está na forma de escada. Consequentemente. Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real. Note-se que. definidas pelas matrizes elementares F1 . segundo a Proposição 20 a característica da matriz será inferior a n e portanto não será regular. · · · Fs .  1 1 1 A =  1 −1 1  −1 −3 −1 ¯  1 1 1 ¯ 1 0 0 ¯  1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1 ¯ L3 ←− L3 + L1 −1 −3 −1 ¯ 0 0 1 −− − − − − −→ −−−−− ¯   ¯ 1 0 0 1 1 1 ¯  0 −2 0 ¯ −1 1 0  L3 ←− L3 − L2 ¯ −− − − − − −→ −−−−− 0 −2 0 ¯ 1 0 1 ¯   1 1 1 ¯ 1 0 0 ¯  0 −2 0 ¯ −1 1 0  ¯ 0 0 0 ¯ 2 −1 1 ¤ £ Obteve-se uma matriz na forma A3 |E3 . após a aplicação de s operações elementares sobre linhas. 3) um elemento não nulo sem com essa operação anular a configuração em forma de escada da matriz A3 . Conclui-se assim que a matriz A não é regular. na forma BA = In não permitindo inferir imediatamente a forma de A−1 . ¤ £ se obterá uma matriz do tipo As |Es em que o próximo elemento redutor não poderá ter outro valor que não 0. Mais se conclui que.6 Teoria das Matrizes por aplicação de operações elementares sobre linhas. Com efeito. só assim é possível afirmar que Et Et−1 · · · E2 E1 A = In e que portanto A−1 = Et Et−1 · · · E2 E1 . Sucederá que em determinado ponto. Tal significa que não é possível reduzir a matriz A original a uma matriz triangular superior com elementos proncipais não nulos. Nota 14 Quando uma matriz A ∈ Mn (K) não é regular esta circunstância é facilmente identificável durante o processo de inversão da matriz. Se forem aplicadas operações sobre colunas.   69 . obviamente. neste ponto não há forma de colocar na posição (3.

Nesta secção vamos estudar a relação entre três valores: a caracterísitca de linha. . ··· 0  0···0 0 · · · 0  0 · · · 0  . . .jt · · · b3n  . . .j3 +1 . rl (A) = rc (A). .jt b1.j2 +1 · · · b1.j3 +1 · · · 1 b3. . designado por Condensação Vertical. .jt · · · b2n  · · · b3. .j3 +1 . regular. . ··· 1 0 0 ··· 0 0 0 . ··· 0 0 0 · · · b1. . . A características de linha e de coluna da matriz A são iguais. por meio de operações elementares sobre as linhas da matriz A. . . .j3 +1 · · · b2. . . ··· 0 0 ··· 0 0 . A matriz A(1) terá a seguinte forma genérica:  0···0 0 · · · 0  0 · · · 0  . . ··· 0 ··· 0 ··· 0 ··· 0 .j1 +1 b1. . . . .j1 +2 0 0 0 0 0 0 . . . para a determinação da característca de linha de uma qualquer matriz A ∈ Mm×n (K).j3 +1 ··· 0 · · · b3. . 1 b1.j2 +1 ··· 0 0 .  . . . . .  .  . . .j3  0 0 1  . . . . . .j3 +1 · · · b2. 0 · · · 0  0 · · · 0  . 0···0 Seguidamente. . .8 A Característica Revisitada Na secção 6.j1 +2 0 0 · · · b2. Demonstração. . . . . . ··· 0 ··· 0 Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz A(2) cuja forma é a seguinte:  1 b1. . .j2 b1. . . . . . ··· 0 ··· 0 · · · b1n · · · b2n · · · b3n . .j1 +1 b1. . . . . 0 0 0 · · · b1. . . . tal que EA = A(1) . . . . .6 estudámos um método. .jt 0 0 . . . . .6 Teoria das Matrizes 6. ··· 0 0  · · · b1. . .  · · · 1 · · · btn  ··· 0 ··· 0   . . ··· 0 0 · · · b1.j3 b2. Verificámos na Proposição 16 que a matriz A pode ser reduzida a uma matriz A(1) . Tal significa. . . . .jt · · · b1n · · · b2. 0···0 0 0 0 · · · b1. . · · · btn ··· 0 . Esse estudo resume-se ao seguinte resultado: Proposição 25 Seja A ∈ Mm×n (K). isto é. . . . . através de operações de Jacobi sobre colunas poderemos uti(2) lizar o elemento redutor a11 para anular os elementos não nulos da primeira (2) linha de A(2) . . a característica de coluna e a característica de uma matriz.j3 0 1 b2.  . . . . .j2 +1 · · · b2. .j3 b1. 0 0 0  0 0 0  . . em forma de escada. . de igual modo.j2 b1. . . . . . . . . . . . . . ··· 0 0 ··· 0 0 . . . . 0 · · · 0  0 · · · 0  .jt · · · b3. utilizaremos o elemento redutor a22 para anular 70 .j2 +1 · · · 1 b2. . por aplicação da Proposição 13 que existe uma matriz E. 0 0 0 0 0 0 . . . . .

n−t elementares às suas linhas e colunas designa-se por forma canónica equivalente a A. nestas circunstâncias. 71 . processo que se designa por condensação vertical como definido na Definição 29 permite determinar a característica da matriz. através de operações elementares.t 0m−t. A matriz A(3) terá a seguinte forma genérica.n−t It que resulta de A por aplicação de operações matriz B = 0m−t.t 0t. existem matrizes regulares E e F tais¢que EAF = A(3) . por aplicação do ponto 3 da Proposição 18 e da Proposição 23 concluímos que: ³ ´ t = rl A(3) = rl (EAF ) = rl (AF ) = rl (A) ³ ´ t = rc A(3) = rc (EAF ) = rc (AF ) = rc (A) Resulta imediatamente que rl (A) = rc (A). regular. A partir daqui. ¡ Reconhecendo que. Prosseguindo deste modo (2) até ao elemento redutor att poderemos constatar que a matriz A(2) pode ser transformada. O processo que permite determinar a forma canónica equivalente a A designa-se por condensação da matriz A. A este valor rl (A) = rc (A) dá-se o nome de característica da matriz A e designa-se simplesmente por r (A). através de operações elementares sobre colunas. o problema consiste. na matriz A(3) . tal que A(1) F = A(3) . em criar uma matriz.n−t ¸ A (3) = Em resumo. cuja submatriz ocupando as primeiras r (A) linhas e colunas é a identidade de ordem r (A) e os restantes elementos da matriz são nulos.6 Teoria das Matrizes os elementos não nulos da segunda linha de A(2) . Tal significa. por aplicação da Proposição 13 que existe uma matriz F . Nota 15 O processo de condensação não consiste necessariamente na aplicação de um conjunto de operações elementares sobre linhas seguido da aplicação de um conjunto de operações elementares sobre colunas. Definição 33 (Forma Canónica de uma Matriz) Seja A ∈ Mm×n (K). rc A(3) = t e.n−t 0m−t. A aplicação inicial de um conjunto de operações elementares sobre linhas. indiferentemente sobre linhas ou colunas. numa representação por blocos: · It 0m−t. Definição 34 (Condensação de uma Matriz) Seja A ∈ Mm×n (K). digamos r (A). A ¸ · 0t.

     1 2 1 1 −5 1   2 2 3   1 −1 1  0 0 1  1 1  2  1 0 2 −5 2 −1 0   1 1 1  L2 ←−L2 −L1  0   3  L3 ←−L3 −2×L1  0   −2  L4 ←−L4 −L1  0 −−−−−−− −−−−−−→ 1 0 2 −7 −2 −3 0  1 0   1 1 L2 ←− − L2  7− −−−− −3 − − − − → 1 72 .  13 0 13 27 1 25 7 18  1 1 −1 −1 0 L ←− L2 − 13 × L1  13 0 13 4 9  2 L3 ←− L3 − 27 × L1 27 1 25 7 18 −− − − − − − − −→ −−−−−−−   1 1 −1 −1 0  0 −13 26 17 9  L3 ←− L3 − 2 × L2 −− − − − − −→ −−−−−−− 0 −26 52 34 18   C2 ←− C2 − C1 1 1 −1 −1 0  0 −13 26 17 9  C3 ←− C3 + C1 0 0 0 0 0 C4 ←− C4 + C1 − − − − − −→  −− − − − − −  C3 ←− C3 + 2 × C2 1 0 0 0 0  0 −13 26 17 9  C4 ←− C4 + 17 × C2 13 9 0 0 0 0 0 C5 ←− C5 + 13 × C2 −− − − − − − − − − − − − − − − −→   1 0 0 0 0  0 −13 0 0 0  C2 ←− − 1 C2 −− − − − −→ − − − − 13 − − 0 0 0 0 0   1 0 0 0 0  0 1 0 0 0  0 0 0 0 0    2.6 Teoria das Matrizes Exemplo 19 Pelo processo de condensação determine-se a forma canónica de cada uma das seguinte matrizes   1 1 −1 −1 0 4 9  1.

3. Ou prosseguimos com operações elementares sobre linhas. neste caso. ou com operações elementares sobre colunas. constitui uma submatriz ocupando as primeiras 3 linhas e colunas da matriz.6 Teoria das Matrizes  1 0  0  0 0  1  0   0   0 0 2 1 −2 −3 0 2 1 0 0 0   1 1 0 0   L ←−L3 +2×L2   1  3  L4 ←−L4 +3×L2  0 −− − − − − −  0 −3 − − − − − −→ 0 1  1 0   1   0  0 2 1 0 0 0  1 0   L ←−L4 +3×L3 1  4  L ←−L4 −L −3 − −4− − − − 3→ −−−−−− − 1 A partir deste ponto temos duas alternativas possíveis. Atente-se que o objectivo é criar uma matriz onde a identidade de ordem igual à característica da matriz. obviamente. Utilizando operações elementares sobre linhas obtém-se:           1 0 0 0 0 1 0 0 0 0 2 1 0 0 0 0 1 0 0 0 1 0 1 0 0 0 0 1 0 0      L1 ←− L1 − L3   −− − − − − −→  −−−−−         1 0 0 0 0 2 1 0 0 0 0 0 1 0 0    L1 ←− L1 − 2 × L2 −− − − − − − −→  −−−−−−−−      Utilizando operações elementares sobre colunas obtém-se:          1 0 0 0 0 2 1 0 0 0 1 0 1 0 0    C2 ←− C2 − 2 × C1      C3 C3 C  − − −←−− −− −1−  − − − − − − −→ − − 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0      73 . sendo os restantes elementos da matriz nulos.

9 Resolução de Sistemas de Equações Lineares Nesta secção focaremos o problema que consiste na resolução de sistemas de equações lineares.. • x + y − 2 = 0 é uma equação linear nas variáveis x e y. Basta verificar que a equação pode ser reescrita na forma canónica como x + y = 2. Definição 36 (Sistema de Equações Lineares) Seja K um corpo. Considere-se um conjunto de m equações lineares da forma ai1 x1 + ai2 x2 + · · · + ai. 6. A igualdade a1 x1 + a2 x2 + · · · + an−1 xn−1 + an xn = b designa-se por equação linear.. • x2 + y 3 = 0 é uma equação não-linear uma vez que tem as parcelas não lineares x2 e y 3 . Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza linear (ou não-linear): • x + y − y 2 = 10 é uma equação não-linear uma vez que tem a parcela não linear −y 2 .n ∈ K designam-se por incógnitas (ou variáveis) da equação.. o escalar b ∈ K designa-se por termo independente e os elementos {xi }j=1.. Uma equação linear em que as parcelas associadas às incógnitas surgem no termo esquerdo da equação e o termo independente constitui o termo direito.1 Enquadramento Teórico Definição 35 (Equação Linear) Seja K um corpo.n−1 xn−1 + ain xn = bi 74 . • x + 2y + 6z = 7 é uma equação linear nas variáveis x.. Iniciase esta exposição com algumas definições. A aplicação da Teoria das Matrizes estudada ao longo das últimas secções revelar-se-á de fundamental importância para este estudo.9. Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro grau em cada uma das incógnitas..n ∈ K designam-se por coeficientes da equação. diz-se escrita na forma canónica.. Os escalares {ai }j=1. y e z. • xy − x + y − 12 = 0 é uma equação não-linear uma vez que tem a parcela não linear xy.6 Teoria das Matrizes 6..

..n ∈ K...n−1 xn−1 + amn xn = b1 (8) Os escalares {aij }i=1. corresponde uma incógnita. Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua representação na forma de equações matriciais: ½ x + y = 1800 • 2 1 3 x + 2 y = 1100 O sistema pode ser escrito na forma matricial do seguinte modo: 75 . A cada coluna da matriz de coeficientes. Qualquer sistema de m equações a n incógnitas pode ser escrito na forma matricial se atendermos ao seguinte: • Os coeficientes do sistema.. {aij }i=1... j=1.n . cujo elemento aij é precisamente o coeficiente da incógnita xj na i-ésima equação.. cujo elemento xj é precisamente a j-ésima incógnita.n ∈ K.. {xj }j=1....m. Nestas circunstâncias. os escalares {bi }i=1. podem ser descritos como uma matriz A ∈ Mm×n (K).... precisamente o tipo da matriz B. podem ser descritas como uma matriz coluna X ∈ Mn×1 (K).m... {bi }i=1.... a j − esima coluna da matriz A é composta ´ pelos coeficientes da variável xj nas m equações do sistema. A. B e X pode ser escrito como sendo a equação matricial : AX = B (9) Note-se que o produto de matrizes AX é uma matriz do tipo Mm×1 (K).. so qual se representa do seguinte modo:   a11 x1 + a12 x2 + · · · + a1..n−1 xn−1 + a1n xn = b1   a21 x1 + a22 x2 + · · · + a2. diz-se que se tem um sistema de m equações lineares nas n incógnitas {xj }j=1... • Os termos independentes do sistema. cujo elemento bi é precisamente o termo independete da i-ésima equação.m ∈ K. j=1... o sistema de equações definido pelas matrizes A. podem ser descritos como uma matriz coluna B ∈ Mm×1 (K)... • As incógnitas do sistema....n−1 xn−1 + a2n xn = b1  ···   am1 x1 + am2 x2 + · · · + am.n ∈ K designam-se por coeficientes do sistema.. assim.6 Teoria das Matrizes Quando se pretende resolver simultaneamente todas as equações.m ∈ K designam-se por termos independentes do sistema.

apresenta-se do seguinte modo:   11x + 12y = −10 21x + 22y = −20  31x + 32y = −30 A respectiva equação matricial será portanto da forma:  ¸ 11 12 · −10  21 22  x = −20 y 31 32 −30  Definição 37 Considere-se um sistema de equações lineares dado pela equação matricial AX = B. onde A ∈ Mm×n (K). B ∈ Mm×1 (K) e X ∈ Mn×1 (K). caso contrário dir-se-á não homogéneo. 76 . • A matriz A designa-se por matriz simples do sistema e a matriz [ A| B] designa-se por matriz ampliada. • Designa-se por solução do sistema a toda a matriz D ∈ Mn×1 (K) tal que AD = B.6 Teoria das Matrizes · • ½ 3x + 2y + z = 39 2x + 3y + z = 34 1 2 3 1 1 2 ¸· x y ¸ = · 1800 1100 ¸ Este sistema pode ser escrito matricialmente na forma: ·   10 + 11x + 12y = 0 20 + 21x + 22y = 0 •  30 + 31x + 32y = 0 ¸  · ¸ x  y  = 39 34 z  3 2 1 2 3 1 O sistema acima. • O sistema dir-se-á homogéneo se B=0. reescrito na forma canónica.

pois. onde A ∈ Mm×n (K). Tal bijecção é definida por: f : {sol. 2. existirá uma bijecção entre o conjunto de solução da equação AX = B e o conjunto de soluções da equação (AQ) Y = B. dada a regularidade da matriz P . • Diz-se que o sistema é impossível se não existe nenhum D ∈ Mn×1 (K) tal que AD = B. quando existe pelo menos uma matriz D ∈ Mn×1 (K) tal que AD = B. Basta verificar que. os sistemas AX=B e (P A) X=P B são equivalentes. 1. isto é. então P −1 existe e portanto P −1 (P A) X (P A) X IAX AX 77 = = = = P B ⇐⇒ P −1 P B ⇐⇒ IB ⇐⇒ B . 1. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). Dada uma matriz regular P∈Mm (K). Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de equações lineares são dados pelas equações matriciais AX = B e A0 X = B 0 onde A. B ∈ Mm×1 (K) e X ∈ Mn×1 (K). B ∈ Mm×1 (K) e X ∈ Mn×1 (K).6 Teoria das Matrizes Do acima exposto conclui-se que o estudo da resolubilidade do sistema de equações (8) é. de AX = B} → {sol. B 0 . • Diz-se que o sistema de equações AX = B é possível quando tem pelo menos uma solução. Os sistemas dizem-se equivalentes se toda a solução de uma equação for solução da outra. A0 ∈ Mm×n (K). Se existe uma e uma só solução o sistema dizse determinado. Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de equações lineares é dado pela equação matricial AX = B. de (AQ) Y = B} X0 7−→ Q−1 X0 Demonstração. se existir mais que uma solução diz-se indeterminado. onde A ∈ Mm×n (K). o da resolubilidade da equação matricial (9). Se Q ∈ Mn (K) for uma matriz regular. Proposição 26 Considere-se um sistema de equações lineares dado pela equação matricial AX = B.

Temos de verificar que ∀D:(AQ)D=B . Injectividade. nomeadamente no que diz respeito ao número de variáveis que contêm. pela matriz P . Temos de mostrar que ∀X0 . à esquerda. ∃X0 :AX0 =B : f (X0 ) = D Basta portanto exibirmos X0 . Lembremos que.X1 :AX0 =AX1 =B . ao aplicarem-se as mesmas operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas de equações equivalentes. Escolhamos X0 = QD. foi introduzida no ensino pré-universitário com o objectivo de ”simplificar” algumas equações. Esta prática.6 Teoria das Matrizes 2. pela proposição 22. Consideremos o seguinte exemplo de enquadramento: Exemplo 22 Consideremos o seguinte sistema de equações lineares: 78 . regular. que consiste em operar sobre as equações que compõem um sistema de equações lineares. se P é uma matriz regular então é produto de matrizes elementares. da proposição anterior mostra que. uma vez que AX0 = A (QD) = (AQ) D = B O ponto 1. A aplicação das operações elementares reside na multiplicação da matriz A e B. É claro que X0 resolve AX = B. f (X0 ) = f (X1 ) ⇒ X0 = X1 Obviamente que f (X0 ) Q−1 X0 ¡ ¢ QQ−1 X0 IX0 X0 = = = = = f (X1 ) ⇒ Q−1 X1 ⇒ ¢ ¡ QQ−1 X1 ⇒ IX1 ⇒ X1 Sobrejectividade.

é simples verificar que a transformação efectuada consistiu em tomar a matriz elementar. agora.  1 0 1 E= 0 1 0  0 0 1  e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos independentes do sistema original. os sistemas AX = B e A0 X = B 0 são equivalentes porque A0 = EA e B 0 = EB e E é uma matriz elementar. A equivalência dos dois sistemas nunca foi justificada rigorosamente.  A0 B0 Note-se que as matrizes A0 e B 0 são precisamente as matrizes de coeficientes e de termos independentes do sistema após a transformação. para se obter 8x2 − x3 = 0. com duas variáveis. somava-se a primeira com a terceira equação. esta equação. por exemplo. logo regular. 79     1 2 −1 0 8 −1 1 0 1 =  0 1 0   −2 4 1  =  −2 4 1  e 0 0 1 −1 6 0 −1 6 0      0 1 1 0 1 =  0 1 0  0  =  0  −1 0 0 1 −1 . com três variáveis. em ”eliminar” a variável x1 da primeira equação.    1 2 −1 1 A =  −2 4 1  e B =  0  −1 −1 6 0  O resultado obtido. para se obter um sistema equivalente:   8x2 − x3 = 0 −2x1 + 4x2 + x3 = 0  −x1 + 6x2 = −1   x1 + 2x2 − x3 = 1 −2x1 + 4x2 + x3 = 0  −x1 + 6x2 = −1 Prosseguia-se agora com a resolução resolvendo explicitamente para algumas variáveis e substituindo o resultado nas equações com maior número de variáveis. para tal. à luz da teoria das matrizes. vinha agora substituir a primeira equação do sistema. respectivamente. como não podia deixar de ser. é. Portanto.6 Teoria das Matrizes A ”simplificação” deste sistema de equações consistia. embora fosse intuitivamente evidente. No entanto.

. . . 0 0 0 ··· 0 0 ··· 0 0 ··· 0 {z A0 ¯  ¯ ¯ · · · a0 ¯ b0  1n¯ 1  · · · a0 ¯ b0  2n¯ 2  · · · a0 ¯ b0  3n¯ 3  . isto é: ¯   1 2 −1 ¯ 1 ¯ [ A| B] =  −2 4 1 ¯ 0  −1− − −1− − 3 L ←− L + L ¯ − − − − −→ −1 6 0 ¯ −1 ¯   0 8 −1 ¯ 0 ¯  −2 4 1 ¯ 0  = [ A0 | B 0 ] ¯ −1 6 0 ¯ −1 Do exposto anteriormente. .j 2. . . . Demonstração. ¯ . onde A∈Mm×n (K) B∈Mm×1 (K) . .  ¯  ··· 0 ¯ 0  ¯ |{z} }¯ 0 B 80 . O sistema AX = B é possível se e só se r (A) = r ([ A| B]). . . .j 1. . . e que constitui a matriz ampliada do sistema A0 X = B 0 . . . . .j 1. . . . . . .j 2. poder-se-á concluir que o estudo da matriz ampliada de um sistema.j 1. .  0 ¯ b0  · · · atn¯ t  ¯  · · · 0 ¯ b0  ¯ t+1  ··· 0 ¯ 0  . . .  0 · · · 0 | 1 a0 1 +1 a0 1 +2 · · · a0 2 a0 2 +1 · · · a0 3 a0 3 +1 · · · a0 t 1. ¯ . .  0 · · · 0  0 · · · 0  0 · · · 0 . . . . . ¯ . Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações lineares dado pela equação matricial AX =B. Foi verificado na Proposição 16 que esta redução é sempre possível.j 1. ¯ . . Versão 1: Comecemos por transformar o sistema AX = B no sistema equivalente A0 X = B 0 . .j 0 0 0 ··· 0 0 · · · 1 a0 3 +1 · · · a0 t 3. é reduzida a uma matriz [ A0 | B 0 ] em forma de escada reduzida por meio de operações elementares sobre linhas. . . . .j 2. permite determinar a natureza e solução (se existir) de qualquer sistema de equações lineares. . . . [ A| B].j 0 0 0 · · · 1 a0 2 +1 · · · a0 3 a0 3 +1 · · · a0 t 2. baseada na aplicação de Operações Elementares e a segunda baseada na independência linear das colunas de uma matriz.j .6 Teoria das Matrizes Note-se ainda que a matriz elementar E está associada à operação de Jacobi L1 ←− L1 + L3 aplicada sobre a matriz ampliada do sistema AX = B.  .  . . [ A| B].j 1. em que a matriz ampliada do sistema original. ¯ . . . .  . A primeira versão. e X ∈Mn×1 (K). . . . . ¯ . . . Para benefício do leitor apresentam-se duas demonstrações para este importante Teorema. . . . .j 1.j 3.  . . A matriz [ A0 | B 0 ] terá a seguinte forma:  0 · · · 0  0 · · · 0  0 · · · 0  . 0 0 0 ··· 0 0 ··· 0 0 ··· 1 0 0 0 ··· 0 0 ··· 0 0 ··· 0 0 0 0 ··· 0 0 ··· 0 0 ··· 0 . .

. . um sistema A00 X = B 00 equivalente a A0 X = B 0 . com i = 2. . . . . . . · · · . . ¯ . Através de operações elementares sobre as linhas de [ A0 | B 0 ]. pelo que. . · · · jt } o conjunto dos índices de coluna associados às colunas de A0 que contêm um elemento redutor. .n = 0. Seja {j1 . . ¯ . pela Proposição 14. Então r (A0 ) = r ([ A0 | B 0 ]). . (⇐=) Suponhamos que r (A) = r ([ A| B]). . . Ora. . 0 0 0 ···0 0 ···0 0 ···1 0 0 0 ···0 0 ···0 0 ···0 0 0 0 ···0 0 ···0 0 ···0 .6 Teoria das Matrizes (=⇒) Suponhamos que o sistema AX = B é solúvel. . se b0 6= 0. A matriz ampliada [ A0 | B 0 ] terá portanto t linhas não nulas onde pelo menos um elemento da linha t da matriz A0 é não nulo. Se assim não fosse. .  ¯  · · · a00 ¯ b00  tn ¯ 00t  · · · 0 ¯ bt+1  ¯  ··· 0 ¯ 0  ¯ . . t. . Posto isto. utilizemos o elemento redutor da i − esima ´ linha. . . .  . . .  . .  . . Para o efeito. . ¯ .  .n . Esta cir0 cunstância implica que b0 t+1. . ou. Obteremos com este processo. .  0 · · · 0 | 1 a00 1 +1 a00 1 +2 · · · 0 a00 2 +1 · · · 0 a00 3 +1 · · · 0 1. cuja matriz ampliada [ A00 | B 00 ] está em forma de escada reduzida.j 1. . . sabendo que as operações elementares sobre as linha de uma matriz não alteram a sua característica. . Mas sendo este sistema solúvel. . Imediatamente resulta que r (A0 ) = r ([ A0 | B 0 ]). .  0 · · · 0  0 · · · 0  0 · · · 0 .n t+1. ¯  ··· 0 ¯ 0  }¯ |{z} ¯ 00 B 0 · · · 0  0 · · · 0  0 · · · 0  . e que está na posição (i. vamos aplicar um conjunto de operações de Jacobi sobre as linhas de [ A0 | B 0 ]. se deverá ter b0 ´ t+1. . . ji ). 0 0 0 ···0 0 ···0 0 ···0 {z A00 Concretizemos as incógnitas do problema com os seguintes valores: 81 . ¯ . . .j 0 0 0 ···0 0 · · · 1 a00 3 +1 · · · 0 3. . então A0 X = B 0 também o será. neste caso a (t + 1) − esima linha da matriz ampliada [ A0 | B 0 ] é nula. Esta situação constitui um absurdo.j 2. . o que contraria a hipótese. se o sistema é solúvel. teríamos r (A ) < 0 0 r ([ A | B ]).j .j 0 0 0 · · · 1 a00 2 +1 · · · 0 a00 3 +1 · · · 0 2. . . . condição impossível. . e portanto a AX = B. . . .j 1. basta exibir uma solução para o sistema A0 X = B 0 para mostrarmos que AX = B é solúvel. . .  . . . . Com efeito. então b0 t+1. com a seguinte forma:  ¯  ¯ ¯ · · · a00 ¯ b00  1n¯ 1  · · · a00 ¯ b00  2n¯ 2  · · · a00 ¯ b00  3n¯ 3  . a equação t + 1 terá a forma 0 = b0 t+1.n = 0. ¯ .n = 0. . r (A) = r ([ A| B]). para anular todos os elementos não nulos da coluna ji .j 1. . .

82 . Uma das colunas deste conjunto terá de ser efectivamente B uma vez que a matriz A só possui t colunas linearmente independentes. obter-se-á. An as colunas da matriz A. A título ilustrativo. Versão 2: (⇒) Admitamos então que AX = B admite uma solução. Não é difícil intuir que as restantes equações do 1 1 sistema também serão satisfeitas. j ∈ {1.j 1. dn }.6 Teoria das Matrizes xj1 = b00 1n xj2 = b00 2n ········· xj2 = b00 tn xj = 0. Suponhamos. Tal significa que existem escalares {αj }j=1. n} \ {j1 . da Proposição 10. · · · . como pretendido. por incluir a coluna B. se o número máximo de colunas da matriz A linearmente independentes é t. poderemos escrever B = d1 A1 + · · · dn An . uma vez que as restantes n − t colunas de A se podem escrever à custa das t colunas que são linearmente independentes. o que mostra que foi encontrada uma solução para o sistema AX = B. Mas B escreve-se como combinação linear das colunas de A e. Logo. Conclui-se portanto que o número máximo de colunas linearmente independentes de [ A| B] é também t.j + · · · + 0 · xjt + · · · + a00 · xn = b0 1n 1 0 · x1 + · · · + 0 · xj1 −1 + xj1 + a00 1 +1 · xj1 +1 + 1. o número máximo de colunas linearmente independentes de [ A| B] é t + 1. B não pode pertencer a um conjunto de colunas linearmente independentes o que é absurdo. · · · .···t tais que B = α1 A1 + · · · αt At . · · · . o número máximo de colunas linearmente independentes da matriz [ A| B] terá também de ser t. Ora. Designando por A1 . consideremos a primeira equação do sistema A00 X = B 00 : +a00 1 +2 · xj1 +2 + · · · + a00 2 · xj2 + a00 2 +1 · xj2 +1 + 1. por redução ao absurdo que. suponhamos que as t primeiras colunas de A são linearmente independentes podendo as restantes escrever-se de como combinação linear daquelas. de acordo com o ponto 6.j 1. como seria de prever b0 = b0 . em particular das t colunas de A que são linearmente independentes. · · · jt } É simples verificar que a solução acima exposta constitui uma solução para o sistema A00 X = B 00 .j Ao substituirmos a solução encontrada nesta equação. para o sistema AX = B. logo. Sem perda de generalidade. a coluna D = {d1 . isto é r (A) = r ([ A| B]).

Demonstração. então. onde A ∈ Mm×n (K) B∈ Mm×1 (K) e X ∈ Mn×1 (K). que as t primeiras colunas de A são linearmente independentes. Adicionando as duas equações termo a termo. conclui-se que as colunas {d1 . · · · . donde λ1 = · · · = λn = 0. obtém-se (d1 A1 + · · · + dn An ) + (λ1 A1 + · · · + λn An ) = = (d1 + λ1 ) A1 + · · · + (dn + λn ) An = B + 0 = B A igualdade mostra que a coluna de elementos {d1 + λ1 . B pode ser escrita como combinação das primeiras t colunas de A (as que são linearmente independentes). dn + λn } deverão ser iguais. Utilizando escalares nulos para as restantes n − t colunas de A..(=⇒) Suponhamos que o sistema é possível e determinado. isto é. da Proposição 10. Como. é possível e indeterminado se e só se r (A) = r ([ A| B]) < n. dn } e {d1 + λ1 . a solução é única. verifica-se que B pode ser escrita como combinação linear das colunas de A.. · · · . 1. A natureza da independência linear das colunas da matriz A pode ser estudada compondo a combinação nula destas colunas e resolvendo para os escalares. ter-se-á r (A) = r ([ A| B]) = n. 2. 2 . teremos d1 A1 + · · · + dn An = B. Como r ([ A| B]) = t também e se as t primeiras colunas de A são linearmente independentes.6 Teoria das Matrizes (⇐) Admitamos agora que r (A) = r ([ A| B]). · · · . logo D resolve AX = B. existe uma coluna de escalares D = {d1 . d1 = d1 + λ1 .. dn = dn + λn . isto é.. sem perda de generalidade. matricial AX = B. é possível e determinado se e só se r (A) = r ([ A| B]) = n. O sistema AX = B . o que mostra que as colunas da matriz A são linearmente independentes e. A combinação linear nula das colunas de A é dada por λ1 A1 + · · · + λn An = 0. Se r (A) = t suponhamos. An as colunas da matriz A e se {d1 . · · · dn + λn } é solução da equação AX = B. · · · . 1 . · · · . Então. de acordo com o ponto 6. por hipótese.. sendo em número de n. O próximo resultado enquadra o modo como se identifica a indeterminação (ou determinação) de um sistema de equações Proposição 28 Considere-se um sistema de equações lineares dado pela equação . · · · . dn } tais que AD = B.. 83 . existirá apena uma coluna D ∈ Mn×1 (K) tal que AD = B. isto é. dn } forem os elementos da matriz D. B = α1 A1 + · · · αt At . Se designarmos por A1 .

Assim. µn = − λλn . a única forma de satisfazer a condição r (A) = r ([ A| B]) = n é que. · · · . não trivial. dn } tais que B = d1 A1 +· · ·+dn An é único. Então. Suponhamos então que também se pode ter B = µ1 A1 + · · · + µn An . Se λn+1 = 0. das colunas da matriz [ A| B]. deveremos ter λn+1 6= 0. e portanto λ1 B = − λn+1 A1 − · · · − λλn An . sabendo que o conjunto de escalares {d1 .6 Teoria das Matrizes (⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colunas de A são linearmente independentes. após a condensação da matriz ampliada [ A| B]. Na prática. que mostra a unicidade da comn+1 n+1 binação linear das colunas de A que resulta na coluna B. dn }. · · · . a submatriz de A0 que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular superior. não poderemos ter r (A) > n pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem de ser verdadeira. · · · . A demonstração deste ponto é imediata. que denotaremos por [ A0 | B 0 ]. resta λ1 A1 + · · · + λn An = 0. Seja então λ1 A1 + · · · + λn An + λn+1 B = 0 uma combinação linear nula. Mostremos que B se pode escrever como combinação linear das colunas de A. se designarmos por D uma coluna com elementos {d1 . então as colunas de [ A| B] são linearmente independentes. Com efeito. Subtraindo esta equação à determinada anteriormente obtém-se µ ¶ λ1 λn (µ1 A1 + · · · + µn An ) − − A1 − · · · − An = λn+1 λn+1 µ µ ¶ ¶ λ1 λn = µ1 + A1 + · · · + µn + An = B − B = 0 λn+1 λn+1 Dada a independência linear das colunas de A decorre imediatamente que µ1 = − λλ1 . Como o número de colunas da matriz A é n. resulta que D é a única coluna que satisfaz AD = B e portanto constitui solução única do sistema de equações AX = D. partimos de uma combinação linear nula não trivial das colunas de [ A| B]. a matriz em escada reduzida. o que é absurdo pois por hipótese. dado que r ([ A| B]) = n e [ A| B] tem n + 1 colunas. 3. A matriz ampliada [ A0 | B 0 ] tem a seguinte configuração: 84 . no caso de sistemas possíveis e determinados e indeterminados. Por outro lado. mas dada a independência linear das colunas da matriz A decorre imediatamente que λ1 = · · · = λn = 0. terá formas distintas. Com efeito. a afirmação ”o sistema é determinado se e só se r (A) = n” demonstrada no ponto anterior é equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”. n+1 Resta mostrar que esta combinação linear é única.

. ¯  0 0 ··· 0 ¯ 0  ¯ |{z} {z }¯ 0 0 A B Equaç˜o AX = B a (r(A)=r([ A|B]))   (r(A)6=r([ A|B])) Sol´vel u Determinado Insol´vel u Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:   x+y =0 x−y =1  4x + 2y = 1  A matriz ampliada do sistema é dada por: Procedendo à sua condensação. . ¯ . . . . proviso. quanto à sua natureza. .n ¯ 2  0 1 · · · a0 ¯ b0  3. . Neste sentido. . . . ¯ .  . o sistema de equações lineares dado pela equação matricial AX = B. ¯ . 0 | Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a que se designa por natureza de um sistema de equações lineares. segundo o seguinte esquema:                    Indeterminado  (r(A)=r([ A|B])<n)   (r(A)=r([ A|B])=n) ¯  ¯ ¯ a0 a0 · · · a0 ¯ b0  12 13 1.  ¯  0 0 · · · 1 ¯ b0  ¯ n  0 0 ··· 0 ¯ 0  ¯  0 0 ··· 0 ¯ 0  ¯ . .  .  . obtém-se o seguinte resultado: ¯  1 1 ¯ 0 ¯ [ A| B] =  1 −1 ¯ 1  ¯ 4 2 ¯ 1 85 . ¯ .n ¯ 3  . . onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K) pode ser classificado. 0 0 0 . . .  . ¯ . .  . .n ¯ 1  1 a0 · · · a0 ¯ b0  23 2.B riamente.6 Teoria das Matrizes                      1 0 0 .

o sistema é possível e determinado. o sistema é impossível. a última 6 linha da matriz ampliada.6 Teoria das Matrizes Dado que r (A) = r ([ A| B]) = 2. corresponde à equação 0 = 105 . Com efeito. o que é 8 manifestamente impossível. [ A0 | B 0 ]. Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares: ½ x1 − x2 + x3 = 1 x1 + x2 − x3 = 2 86 . obtém-se o seguinte resultado:  2 2 −2  7 7 1 5 5 −1  2 2 2  0 0 8 0 0 −6  2 2  0 0 0 0 ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯  5 L ←− L2 − 7 L1 2 10  2 L3 ←− L3 − 5 L1 5 − − − − − − 2− → −−−−−−−  5 3 − 15  L3 ←− L3 + L2 2 − − − − −4 − − 15 − − − − − − → ¯ 2  ¯ 5 2 ¯ 8 ¯ − 15  = [ A0 | B 0 ] 2 ¯ 0 ¯ 105 8 2 2 −2 [ A| B] =  7 7 1 5 5 −1 Dado que r (A) = r ([ A| B]). Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:   2x1 + 2x2 − 2x3 = 5 7x1 + 7x2 + x3 = 10  5x1 + 5x2 − x3 = 5  ¯  ¯ 5 ¯ ¯ 10  ¯ ¯ 5 ¯  1 1 ¯ 0 ¯  1 −1 ¯ 1  L2 ←− L2 − L1 ¯ L ←− L3 − 4L 4 2 ¯ 1 −−3 − − − − − 1 − − − − − −→ ¯ ¯     1 1 ¯ 0 1 1 ¯ 0 ¯ ¯  0 −2 ¯ 1  L3 ←− L3 − L2  0 −2 ¯ 1  = [ A0 | B 0 ] ¯ ¯ −− − − − − − − − − −→ 0 0 ¯ 0 0 −2 ¯ 1  A matriz ampliada do sistema é dada por: Procedendo à sua condensação.

. . . . . . . . .6 Teoria das Matrizes A matriz ampliada do sistema é dada por: · ¯ ¸ 1 −1 1 ¯ 1 ¯ 1 1 −1 ¯ 2 [ A| B] = Procedendo à sua condensação. . . .2 Sistemas de Equações Lineares Indeterminados Consideremos. . . . . . . . .j 0 0 ···0 0 · · · 1 a00 3 +1 · · · 0 3. . . com a forma 87 0 · · · 0  0 · · · 0  0 · · · 0  . . Os sistemas indeterminados. o sistema de equações lineares dado pela equação matricial AX = B. ¯ ¯ · · · a00 ¯ b00 t tn ¯ ··· 0 ¯ 0 ¯ ··· 0 ¯ 0 . .9. . numa matriz [ A00 | B 00 ]. . . . . . que destacaremos em seguida: 6. obtém-se o seguinte resultado: · ¯ 1 −1 1 ¯ ¯ 1 1 −1 ¯ · 1 −1 1 0 2 −2 ¸ 1 L ←− L − L − − − − −→ 2 −2− − − 2− − 1 ¯ ¸ ¯ 1 0 0 ¯ ¯ 1 = [A | B ] Dado que r (A) = r ([ A| B]) = 2 < n = 3. . . isto é. . de um modo geral. .j . [ A| B]. . .j 1. . Suponhamos ainda que r (A) = r ([ A| B]) < n. . . o sistema é possível e indeterminado. por troca das colunas da matriz A00 = P A é possível obter uma matriz.B Mn×1 (K). por terem múltiplas soluções requerem um estudo mais aprofundado.  0 · · · 0  0 · · · 0  0 · · · 0 . ¯ . . . .j 1. . .j 0 0 · · · 1 a00 2 +1 · · · 0 a00 3 +1 · · · 0 2. ¯ . o sistema é indeterminado. . 0 0 ···0 0 ···0 0 ···0 {z A00 =P A B =P B . ¯ . onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ . . . . . representando o mesmo sistema de equações. . jt } É claro que. . mas em forma de escada reduzida que a seguir se apresenta:  ¯ ¯ ¯ 00 ¯ · · · a1n¯ b00 1 · · · a00 ¯ b00 2n¯ 2 · · · a00 ¯ b00 3 3n¯ . Sabemos ainda que existe uma matriz regular P que permite transformar a matriz ampliada do sistema. 0 0 ···0 0 ···0 0 ···1 0 0 ···0 0 ···0 0 ···0 0 0 ···0 0 ···0 0 ···0 . · · · . . ¯ . de quatro blocos.  0 · · · 0 | 1 a00 1 +1 · · · 0 a00 2 +1 · · · 0 a00 3 +1 · · · 0 1. ¯ ¯ ··· 0 ¯ 0 }¯ |{z} ¯ 00                      Temos portanto um conjunto de t colunas redutoras ocupando as colunas de índices {j1 .j 2. . . . .

1 + Ct. A questão que se coloca de imediato é a de descrever na totalidade o conjunto das soluções do sistema (P AQ) Y = P B e consequentemente do sistema AX = B. assumindo que o corpo K tem infinitos elementos. b00 }. · · · .1 = {yt+1 . 0} 1 t tem a solução D0 = {b00 . Como foi referido no ponto 2 da Proposição 26. Dividamos tanbém em dois blocos o vector col¯ iT h 00(1) ¯ una das varáveis independentes. b00 .n−t ¸" Yt.n−t 0m−t. yn }. · · · . · · · . Ora.1 + 0m−t.1 ¯ Yn−t. Começemos por dividir em dois blocos o vector coluna das incógni¯ h iT (1) ¯ (2) 00(1) tas.1 . Obtém-se então: ( It · Yt. 0.6 Teoria das Matrizes · It 0m−t. Matricialmente. Resta portanto a equação: Yt.1 .n−t · Yn−t.1 ¯ 0m−t.1 (2) Yn−t.1 = 0m−t. facilmente se verifica que a equação · It 0 C 0 ¸ Y = {b00 .1 (1) 00(1) # = " Bt.n−t · Yn−t. Y . logo. o sistema A00 Y = B 00 representa-se do 1 t seguinte modo: · It 0m−t. Mas existem muitas mais soluções para o sistema (P AQ) Y = P B. se D for uma 0 0 solução de (P A) X = P B então Q−1 D é uma solução de (P AQ) Y = P B.1 (1) (2) 00(1) A segunda equação pode ser omitida uma vez que constitui a condição universal 0m−t. yt } 00(2) e Yn−t.t Ct.1 + Ct. onde Bt. com X = QY .n−t ¸ ¸ · Por outras palavras.1 = {b00 . Temos naturalmente Yt.1 = Bt.1 ≡ 0m−t. 0}.1 = {y1 . · · · .1 00(1) # (10) Esta equação matricial pode ser reescrita como um sistema de duas equações matriciais atendendo à partição em blocos escolhida. · · · .n−t · Yn−t.1 0m−t.1 88 (1) (2) 00(1) . (P AQ) D0 = P B mostra 1 t que QD0 é solução de (P A) X = P B. existem infinitas soluções. Na realidade. 0. fazendo Y = Yt. existe uma matriz regular Q ∈ Mn (K) tal que P AQ = It C . · · · .1 (1) (2) 0m−t.t Ct.1 . B 00 .1 = Bt.n−t 0m−t. fazendo B 00 = Bt. · · · .t · Yt. b00 . e consequentemente de AX = B.

com X = QY é equivalente ao sistema original e assume a forma da expressão (10).1 00(1) onde Dn−t.1 − Ct.1 = Bt. 89 . podem ser expressas em função de n − t incógnitas.1 Dn−t. isto é. ¯ iT h (1) ¯ (2) (1) (2) 00(1) A solução é dada por Y = Yt. 0} já mencionada. Dependendo do número de incógnitas arbitrárias. Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a equação matricial relativa a um sistema de equações lineares. Em particular. r (A). Sabemos que existem matrizes regulares P ∈ Mm (K) e Q ∈ Mn (K) tais que o sistema (P AQ) Y = P B. que se podem exprimir em função das var- iáveis Xn−t. · · · . a saber {yt+1 . · · · . 1 t Nota 18 A solução geral do sistema. se Yn−t. obtém-se: Yt.6 Teoria das Matrizes Rearranjando os termos da equação acima. (1) (1) (2) (2) As variáveis originais Xt.1 − Ct. a solução geral da equação A00 Y = B 00 será dada pelo vector coluna: " (2) (2) (1) (1) 00(1) (2) Bt.1 . O número de variáveis dependentes é igual à característica da matriz de coeficientes do sistema. recupera-se a solução particular D0 = {b00 .1 − Ct. dada pela expressão (11). b00 . B ∈ Mm×1 (K) e X ∈ Mn×1 (K). precisamente as incógnitas Yt.1 . solúvel.1 . o que significa que não só a expressão (11) é uma solução do sistema como também qualquer solução do sistema A00 Y = B 00 poderá ser escrita na forma dada pela expressão (11). yn }.1 ∈ K n−t tal que: Gn1 = " Bt. onde A ∈ Mm×n (K).n−t · Dn−t.n−t · Yn−t. foi obtida atrvés de uma sucessão de equivalências que se iniciou na equação A00 Y = B 00 .1 designam-se por variáveis dependentes do sistema AX = B enquanto que as últimas se designam por variáveis independentes. Assim.n−t · Dn−t. · · · . assim será o grau de indeterminação do sistema.1 00(1) # (11) representadas em Yn−t.1 = Bt.1 ∈ K n−t é uma concretização arbitrária qualquer das incógnitas (2) (2) # É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na base da classificação do sistema como indeterminado.n−t · Yn−t.1 = QYt.1 A expressão acima mostra que t incógnitas. precisamente Yn−t. se Gn1 for uma solução de A00 Y = B 00 então existe (2) Dn−t.1 onde Yt.1 Dn−t.1 = QYn−t.1 .1 = 0.1 .1 − Ct.1 ¯ Yn−t. 0.

vimos na Proposição 2 18 que uma matriz deste tipo é inversa de sim mesmo. quando se escreve ¢ ¡ −1 −1 −1 = (P A) E1 E2 · · · Eh Eh · · · E2 E1 X (P AQ) Q−1 X = (P A) E1 E2 · · · Eh Eh · · · E2 E1 X 90 .6 Teoria das Matrizes Definição 41 (Grau de Indeterminação) O grau de indeterminação de um sistema de equações lineares. se tem n = r (A). Ek = It . se o sistema é possível e determinado. Pondo (P A) X = (P AQ) Q−1 X . isto é.1 ) As seguintes observações auxiliarão no entendimento desta questão: ¡ ¢ 1. as mesmas trocas que foram feitas nas colunas de P A por efeito de Q.1 0n−t.B variáveis independentes do sistema.n−t −In−t ¸ Dn−t. possível.1 0n−t.1 # − · Ct. dado pela equação matricial AX = B.1 (12) Nota 19 A expressão (12) revela que a solução geral do sistema A00 Y = B 00 é dado pela solução particular B 00 à qual se adiciona uma combinação linear das colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as últimas n − t linhas pela matriz identidade multiplicada pelo escalar −1. uma vez que. Y . assim. isto é Grau de Indeterminaç˜o = n − r (A) a Note-se que. pela Proposição 28. Nota 20 A solução geral do sistema original AX = B pode ser recuperada aplicando a matriz Q à expressão (12) para se obter: (" 00(1) Q Bt. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K) é igual ao número de . Com efeito. o grau de indeterminação será nulo. observa-se que a incógnita Y da equação (P AQ) Y = P B resulta de efectuar sobre as linhas da coluna incógnita.1 # − · Ct.n−t −In−t ¸ Dn−t. ponhamos Q = E1 E2 · · · Eh onde cada Ek resultou de It por trocas das colunas i e j ou das linhas i e j. Poder-se-á ainda manipular a expressão (11) para concluir que se pode escrever como: " 00(1) Bt.

Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação matricial:    1 2 −1 0 2   −2 4 1 1 0   −1 6 0 0 −1  {z } | A |  x1 x2 x3 x4 x5 {z X  Assume-se que A e B são matrizes de elementos reais. o que se descreve em 1. 2. Uma vez obtida uma solução D0 de (P AQ) Y = P B. e analogamente com E2 . o produto QD0 corresponde a ”desfazer” em D0 todas as trocas que levaram de X a Y . em caso afirmativo. dado que r ([ A0 | B 0 ]) = r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. trocam-se as linhas i e j de X por efeito da mesma matriz E1 (à esquerda) obtendo-se E1 X. Assim. é muito útil na exposição teórica da resolução de uma equação matricial mas na resolução de problemas poderá dispensar-se como adiante veremos. obtendose assim uma solução de (P A) X = P B. ao mesmo tempo que averiguamos àcerca da solubilidade da equação. na resolução da equação (P A) X = P B.6 Teoria das Matrizes é possível verificar que. é que é permitido. ao mesmo tempo que se trocam as colunas i e j da matriz P A por efeito de E1 (à direita) e se obtém P AE1 . Na prática. 4. A operação descrita em 1. para a sua resolução (os elementos redutores utilizados encontram-se assinalados em cada passo):  1  −2 −1  2 4 6 2 8 8 2 8 0 −1 1 0  1 L2 ←− L2 + 2L1 0  L3 ←− L3 + L1 −1 −− − − − − − → −−−−−−  −1 0 2 1 −1 1 4 2  L3− − − 3− − 2 − ←− L − L − − − − −→ −1 0 1 0  −1 0 2 1 −1 1 4 2  = [ A0 | B 0 ] 0 −1 −3 −2 0 1 0 2 0 −1    =   | }  1 0  −1 {z } B A matriz ampliada encontra-se em forma de escada e. Como r (A) < n 91 1  0 0  1  0 0 . · · · . trocar colunas na matriz P A desde que se efectue a respectiva troca de linhas na coluna incógnita X. Começa por se condensar a matriz ampliada [ A| B]. vamo-nos encaminhando. 3. Eh .

6 Teoria das Matrizes conclui-se adicionalmente que o sistema é indeterminado com grau de indeterminação n − r (A) = 5 − 3 = 2. trocando as colunas 3 e 4 da matriz P A o sistema: 1  0 0 |  0 1 0 0 −3 4 0 −1 8 1 0 {z   1 ¡ −1 ¢  Q X = 0  2 3 | {z } } 7 4 1 8  P AQ PB Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5. onde as colunas 2 e 3 foram trocadas: 92 . P . sabemos que existe uma matriz regular. tal que: 1 PA =  0 0  0 1 0 −3 4 −1 8 0 0 0 1  1  e PB =  0  2 3 7 4 1 8 1  0 0   Consideremos agora 3 alternativas para a determinação da solução geral do sistema: Alternativa 1 Esta alternativa é baseada na descrição teórica acima realizada. Prossegue-se o processo de condensação até a matriz ampliada estar na forma de escada reduzida (os elementos redutores encontram-se devidamente assinalados):  1   0 0  1  0 0  1 0  0 1 0 0 2 8 0 2 1 0 −3 4 −1 8 0  −1 −1 0 −1 −1 8 0 −1 4 1 8 0 1 -1 0 1 1 1 2 1 8 2 4 −3 2 3 1 2 1 4 1 2 1 2 1 4  1  L2 ←− 1 L2 8 2  L3 ←− −L3 −− − − −→ −−−−− −2   1  L2 ←− L2 − 8 L3 L1 ←− L1 + 1 L3 − − − − − − 4− → −−−−−−−  7 1 4 1 0  8 3 2  L1 ←− L1 − 2L2 −− − − − −→ −−−−−− 1 0 1 0 3 −3 4 −1 8 0 2 0 0 1 Neste ponto. Em suma. o sistema é Possível e Indeterminado com grau de indeterminação 2. A partir da equação (P A) X = P B poderemos escrever.

a solução geral do sistema (P AQ) Y = P B é dada por: "  00(1)   Q=    1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 1       B3. logo de AX = B. y2 .1 = .1 = α2 K = R). 0} é uma solução particular do sistema (P AQ) Y = P B pelo que D = QD0 = {1. 0. 2. 0.2 =  − 1 1 . e a característica da matriz dos coeficientes é 5. Tem-se assim a solução geral. 02.1 # − · C3. I2 = 8 8 0 0 1 2 0 3 ¸ · α1 é um vector de escalares pertencentes ao corpo K (neste caso e D2. Y .1   3 7  · ¸ · ¸ 1 −4 4 0 1 0 00(1) onde B3.1 =  0 . y5 } as variáveis independentes. α1 . 0. C3. 0} (basta trocar as linhas 3 e 4 de D0 ) é solução de (P A) X = P B. α2 ∈ R 0  −1      ¸          Q       −     ·  α1 3   α2 0  −1 = 93 . Dado que o sistema é indeterminado de ordem 2.2 −I2 ¸ D2.6 Teoria das Matrizes É fácil verificar que a coluna D0 = {1.1 02. y3 } são as variáveis dependentes e {y4 . 0. de (P AQ) Y = P B dada por       y1 y2 y3 y4 y5   1 0 2 0 0   −3 4 −1 8 0 −1 0 7 4 1 8 A solução geral do sistema (P A) X = B e portanto AX = B será dada por:  y1 y2 y3 y4 y5         =Q          1 0 2 0 0   −3 4 −1 8 0 −1 0 7 4 1 8     =         −     · ¸  α1 3   α2 . onde {y1 . 2.

Como regra geral. α2 ∈ R   Alternativa 2 Nesta alternativa. Resta determinar as duas colunas (relativas ao grau de indeterminação do sistema. donde se deduz imediatamente a solução particular x1 = b0 = 1. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que n = 5). as restantes posições serão preenchidas com 94 . Assim. 0} é uma solução particular do sistema (P A) X = P B. 0. evitando assim potenciais erros devido às trocas das colunas de (P A). 4}. x4 }. as 11 21 31 variáveis independentes {x3 . a coluna D = {1. associadas a colunas não redutoras associa-se o escalar 0: x3 = x5 = 0. a coluna Vi associada à variável independente xi terá o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes variáveis independentes que não xi . 2. x2 . x2 = b0 = 0 e x4 = b0 = 2. dizendo que a solução geral da equação AX = B é dada por:  x1  x2   x3   x4 x5   3   1 4  0  1       8    =  0  + α1  1  + α2         2  0   0 0   −7 4 −1 8 0 −3 1  1  0  =  0   2 0  3  1 4  1 0   8  2  + Q 0    1 0  0 0   3 −7 4 4   1 −1 8   8 + 1 0     0 −3 0 1 −7 4 −1 8 −3 0 1   · ¸  α1   α2 =  · ¸  α1   α2     . exibir-se-á a solução geral do sistema partindo da equação (P A) X = P B. 2. 0. x5 }. O sistema a resolver é portanto:  1  0 0 | 0 1 0 −3 4 −1 8 0 {z 0 0 1  1 X =  0  2 3 | {z } } 7 4 1 8   PA PB As colunas redutoras da matriz P A têm índices {1. α1 .6 Teoria das Matrizes   = Q     Conclui-se. que é 2) cuja combinação linear completará a expressão da solução geral do sistema. Às restantes variáveis. correspondendo às variáveis dependentes {x1 .

como na alternativa 2:  1  0 0 | 0 1 0 −3 4 −1 8 0 {z 0 0 1  1 X =  0  2 3 | {z } } 7 4 1 8   PA PB 95 .6 Teoria das Matrizes os escalares constantes da i − esima coluna da matriz P A multiplicados por ´ −1. Vejamos então a forma deste vectores coluna no caso presente: • Variável independente x3 :    3 ?  4  ?   1     1  → V3 =  8 V3 =   1    ?   0 0 0                 • Variável independente x5 :    −7 ? 4   ?   −1    8 V5 =  0  → V5 =    0    ?   −3 1 1 Como se confirma. α2 ∈ R   Nesta alternativa. é possível deduzir a solução geral de forma intuitiva. a solução geral de (P A) X = P B e portanto de AX = B será:  x1  x2   x3   x4 x5  1 0      =  0  + α1 V3 + α2 V5 =    2  0    3   7 1 −4 4 0  1   −1    8   8 =  0  + α1  1  + α2  0      2 0  −3 0 0 1    Alternativa 3    . α1 . exibir-se-á a solução geral do sistema partindo da equação (P A) X = P B. e por aquela ordem. evitando assim potenciais erros devido às trocas das colunas de (P A). O sistema a resolver é. Reescrevendo o sistema na forma algébrica.

x5 ∈ R 8 −3x5       Assim. outro de termos em x3 e outro de termos em x5 obtendose:  1 + 3 x3 − 7 x5 4 4  0 + 1 x3 − 1 x5 8 8   x3   2 − 3x5 x5 3 4 x3 1 8 x3 Colocando em evidência os escalares x3 e x5 :   1 0      0 +    2  0  − 7 x5 4   − 1 x5   8 x3  +  0   0   −3x5 0 x5       1  0      → 0 +      2  0   3 4 x3 1 8 x3 − 7 x5 4   − 1 x5   8 x3  +  0   0   −3x5 0 x5                 3   7 1 −4 4  0  1   −1     8   8  =  0  + x3  1  + x5  0        2 0  −3 0 0 1 96 . x3 . x2 . as variáveis dependentes {x1 . a solução geral dada por:  x1  x2   x3   x4 x5 poderá ser reescrita em função das variáveis independentes {x3 .6 Teoria das Matrizes Na forma algébrica o sistema tomará a forma:   x1    x1 x  2 x4 − 3 x3 4 − 1 x3 8 + 7 x5 4 + 1 x5 8 +3x5 =1 =0 =2 x2 x4 Resolvendo este sistema em ordem às variáveis dependentes. no vector acima. x3 . obtém-se: = = = 1 0 2 + 3 x3 4 + 1 x3 8 − 7 x5 4 − 1 x5 . x5 } substituindo. x4 } pelas respectivas expressões em função de {x3 . x5 ∈ R   Este vector pode ser reescrito com a soma de três vectores: um vector de termos independentes. x5 }:  x1  x2   x3   x4 x5  1 + 3 x3 − 7 x5 4 4   0 + 1 x3 − 1 x5 8 8   → x3     2 − 3x5 x5      .

Ter-se-á então: ´ 1 ≤ c1 < c2 < · · · < cr ≤ n + 1 97 .3 Algoritmo de Gauss-Jordan O algoritmo de Gauss-Jordan é um método que permite resolver de forma sistemática um sistema de equações lineares dado pela equação matricial AX = B. Note-se que [ A| B] ∈ Mm×(n+1) (K). requer que se identifique.~   Indeterminado     (r(A)=r([ A|B])<n)      Grau de Indeterminação       (n−r(A)) Sol´ u   (r(A)=r([vel  A|B]))   Equaç˜o AX = B a     Determinado   (r(A)=r([ A|B])=n)        Insol´vel  u (r(A)6=r([ A|B])) Note-se que. numa matriz em forma de escada reduzida [ A0 | B 0 ]. α1 e α2 . resume-se no seguinte quadro: Natureza de um Sistema de Equaco es Lineares . por exemplo. o grau de indeterminação. a natureza de um sistema. α2 ∈ R   Nota 21 A apresentação da solução geral do sistema em forma matricial ou algébrica é indiferente a menos que uma das formas seja especificamente solicitada. onde A ∈ Mm×n (K) ∈ Mm×1 (K) e X ∈ Mn×1 (K). . 6.9. O estudo da Natureza de um sistema de equações lineares. [ A| B]. no caso indeterminado.B • Condensar a matriz ampliada do sistema. α1 .6 Teoria das Matrizes Como x3 e x5 : são quaisquer escalares reais. poderemos sombolizá-los por. • Suponha-se que [ A0 | B 0 ] tem r linhas não-nulas e que o elemento redutor na i − esima linha ocorre na coluna ci para 1 ≤ i ≤ r. para se obter a já conhecida expressão geral das soluções de AX = B:  x1  x2   x3   x4 x5   3   7 1 −4 4  0  1   −1     8   8  =  0  + α1  1  + α2  0        2 0  −3 0 0 1       .

a última linha não-nula £ ¤ de [ A0 | B 0 ] tem a forma 0 0 · · · 1 . Daremos uma breve definição de cada um destes tipos de matrizes assim como um exemplo ilustrando a respectiva popriedade. 98 . c2 = 2. Definição 42 (Matriz idempotente) Seja A ∈ Mn (K). cn . · · · .6 Teoria das Matrizes Suponha-se ainda que as restantes colunas de A0 terão índices cr+1 . =⇒ Se r = n. cn = n e o sistema é determinado e terá a solução única: £ b0 1 b0 2 b0 n ¤T ··· =⇒ Se r < n. 6. pelas suas propriedades. · · · . xcr nas variáveis independentes xcr+1 . se enquadram numa definição particular. O sistema é indeterminado com grau de indeterminação n − r. · · · . existirão soluções múltiplas. onde: 1 ≤ cr+1 < c2 < · · · < cn ≤ n Caso 1 cr = n+1. então c1 = 1. Diz-se que a matriz A é idempotente se A2 = A. O sistema é possível. Note-se que r ≤ n. · · · .10 Matrizes com propriedades especiais Nesta secção distinguem-se algumas matrizes que. O sistema é impossível. A solução geral obtem-se exprimindo as variáveis dependentes xc1 . Efectivamente. correspondente à equação: 0x1 + 0x2 + · · · + 0xn = 1 obviamente insolúvel Caso 2 cr ≤ n. xcn :   xc1 = b0 − a0 r+1 xcr+1 − · · · − a0 n xcn 1 1c 1c ····································  xcr = b0 − a0 r+1 xcr+1 − · · · − a0 n xcn r rc rc Soluções particulares do sistema podem ser obtidas concretizando as variáveis independentes com valores particulares de K.

− 39 4 3 5 2 − 39 4 4 3 2  é Definição 45 (Matrizes Equivalentes) Duas matrizes A.6 Teoria das Matrizes · ¸ Exemplo 27 A matriz A = · 8 −28 2 −7 ¸· 8 −28 2 −7 ¸ = 8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7) 2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7) · ¸ 8 −28 = 2 −7 · 8 −28 2 −7 é idempotente uma vez que: ¸ Definição 43 (Matriz nilpotente) Seja A ∈ Mn (K). A matriz A diz-se involuntória se A2 = I. A diz-se nilpotente de ordem p. − 11 2  1 Exemplo 29 É simples confirmar que a matriz A = 2 involuntória. A matriz A diz-se nilpotente se Ap = 0 para algum inteiro p. B ∈ Mn×m (K) dizem-se equivalentes se existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K) tais que A = P BQ. Uma propriedade importante das matrizes equivalentes traduz-se no seguinte resultado: 99 .  0 0 0 Exemplo 28 A matriz A =  1 2 −1  é nilpotente de ordem 3 uma vez 1 4 −2 que:   0 0 0  1 2 −1  6= 0 1 4 −2 2    0 0 0 0 0 0  1 2 −1  6=  1 0 0  6= 0 1 4 −2 2 0 0 3  0 0 0  1 2 −1  = 0 1 4 −2   Definição 44 Seja A ∈ Mn (K). Se p é o menor inteiro para o qual Ap = 0.

Definição 46 (Matrizes Semelhantes) Duas matrizes A. existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K) tais que A = P BQ.6 Teoria das Matrizes Proposição 29 Duas matrizes. 100 . Demonstração. Como A = P BQ resulta imediatamente r (A) = r (B). Um caso particular de equivalência de matrizes é o de semelhança de matrizes. B ∈ Mn×m (K). A. Pelo ponto 4 da Proposição 18 temse r (P BQ) = r (BQ). que se definem em seguida. Pela Proposição 23 tem-se r (BQ) = r (B). equivalentes têm a mesma característica. B ∈Mn(K) dizemse semelhantes se existe uma matriz regular P ∈Mn (K) tal que A = P BP −1 . Por definição.

You're Reading a Free Preview

Descarregar
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->