Você está na página 1de 258

Álgebra Linear

Antonio Cândido Faleiros

Centro de Matemática, Computação e Cognição


Universidade Federal do ABC
Santo André, SP

30 de março de 2015
2
Sumário

1 Sistemas de equações lineares 9


1.1 Conjunto ordenado . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Equações algébricas lineares . . . . . . . . . . . . . . . . . . . . 11
1.3 Sistemas de equações lineares . . . . . . . . . . . . . . . . . . . 15
1.4 Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.5 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7 Operações elementares . . . . . . . . . . . . . . . . . . . . . . . 27
1.8 Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.10 O método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . 37
1.11 Operações matriciais . . . . . . . . . . . . . . . . . . . . . . . . 38
1.12 Multiplicação de matrizes . . . . . . . . . . . . . . . . . . . . . 41
1.13 Forma matricial de um sistema linear . . . . . . . . . . . . . . . 45
1.14 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.15 Matriz elementar . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.16 Um método para inverter matrizes . . . . . . . . . . . . . . . . 54
1.17 Sistemas equivalentes e matrizes elementares . . . . . . . . . . . 56
1.18 Equação matricial linear homogênea . . . . . . . . . . . . . . . . 57
1.19 Matriz inversa e sistema linear . . . . . . . . . . . . . . . . . . . 60
1.20 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.21 Matriz transposta . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.22 Matriz simétrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
1.23 Potência de uma matriz . . . . . . . . . . . . . . . . . . . . . . 69

2 Determinantes 71
2.1 De…nição de determinante . . . . . . . . . . . . . . . . . . . . . 76
2.2 Propriedades do determinante . . . . . . . . . . . . . . . . . . . 83
2.3 Determinante da soma . . . . . . . . . . . . . . . . . . . . . . . 90
2.4 Determinante do produto . . . . . . . . . . . . . . . . . . . . . . 90
2.5 Matriz cofatora e a inversa . . . . . . . . . . . . . . . . . . . . . 94

3
4 SUMÁRIO

2.6 Combinação linear das linhas ou colunas . . . . . . . . . . . . . 96


2.7 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 98

3 Espaço vetorial 101


3.1 Corpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.2 Espaço vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3 Conjuntos ordenados …nitos . . . . . . . . . . . . . . . . . . . . 106
3.4 Outros espaços vetoriais relevantes . . . . . . . . . . . . . . . . 107
3.5 Subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . 108
3.6 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7 Espaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.8 Dependência e independência linear . . . . . . . . . . . . . . . . 117
3.9 Dependência linear de funções . . . . . . . . . . . . . . . . . . . 121
3.10 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.11 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . 134
3.12 Mudança de coordenadas . . . . . . . . . . . . . . . . . . . . . . 140
3.13 Espaço linha e espaço coluna . . . . . . . . . . . . . . . . . . . . 143
3.14 O espaço nulo de uma matriz . . . . . . . . . . . . . . . . . . . 155

4 Transformação linear 165


4.1 Transformação linear e bases . . . . . . . . . . . . . . . . . . . . 172
4.2 Transformações lineares na Geometria . . . . . . . . . . . . . . . 176
4.3 Núcleo e imagem . . . . . . . . . . . . . . . . . . . . . . . . . . 180
4.4 Composição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
4.5 Isomor…smo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.6 Matriz de uma transformação linear . . . . . . . . . . . . . . . . 192
4.7 Matriz da transformação composta . . . . . . . . . . . . . . . . 197
4.8 Matriz da transformação inversa . . . . . . . . . . . . . . . . . . 200
4.9 Determinante de um operador linear . . . . . . . . . . . . . . . 203

5 Produto interno 207


5.1 Produto interno num espaço vetorial real . . . . . . . . . . . . . 207
5.2 Norma e distância . . . . . . . . . . . . . . . . . . . . . . . . . . 209
5.3 Desigualdade de Cauchy-Schwarz . . . . . . . . . . . . . . . . . 211
5.4 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . 213
5.5 Bases ortogonais e ortonormais . . . . . . . . . . . . . . . . . . 214
5.6 Coordenadas numa base ortogonal . . . . . . . . . . . . . . . . . 215
5.7 Obtendo bases ortogonais . . . . . . . . . . . . . . . . . . . . . 217
5.8 Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.9 Decomposição QR . . . . . . . . . . . . . . . . . . . . . . . . . 222
5.10 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . 224
SUMÁRIO 5

5.11 Projeção ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 226


5.12 Mínimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 227
5.13 Soluções de mínimos quadrados . . . . . . . . . . . . . . . . . . 229
5.14 Teorema sobre matriz inversível . . . . . . . . . . . . . . . . . . 234

6 Autovalores e autovetores 237


6.1 Autovalor e autovetor de uma matriz . . . . . . . . . . . . . . . 238
6.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
6.3 Polinômio matricial . . . . . . . . . . . . . . . . . . . . . . . . . 250
6.4 Diagonalização ortogonal . . . . . . . . . . . . . . . . . . . . . . 253
6.5 Autovalor e autovetor de operador linear . . . . . . . . . . . . . 255
6 SUMÁRIO
Prefácio

Estas notas de aula se basearam, inicialmente, no livro de Anton e Rorres,


Álgebra Linear com Aplicações. Depois elas foram in‡uenciadas por outros
excelentes livros:
Álgebra Linear e Aplicações do Calioli, Domingues e Costa [3]
Álgebra Linear do Boldrini, Costa, Figueiredo e Wetzler [2];
Álgebra Linear do Nicholson [11].
Certamente há nessas anotações um toque pessoal.

Antonio Cândido Faleiros

Notas de aula do Professor Faleiros


8 SUMÁRIO

Notas de aula do Professor Faleiros


Capítulo 1

Sistemas de equações lineares

Neste capítulo vamos estudar equações algébricas lineares do tipo

2x y + 3z = 4

e sistemas de equações algébricas lineares, formados por duas ou mais


equações lineares, como

x+y =5
2x y = 1

As letras x; y e z destes exemplos designam as incógnitas das equações.


Resolver uma equação ou um sistema consiste em determinar números reais
que, colocados no lugar das incógnitas, tornam as igualdades verdadeiras. Este
capítulo se dedica à descrição de técnicas capazes de determinar estes números
reais. A razão deste objetivo reside na ampla gama de aplicações dos sistemas
lineares na ciência.

1.1 Conjunto ordenado


Um conjunto A é igual a outro conjunto B quando todo elemento de A per-
tence ao conjunto B e todo elemento de B pertence ao conjunto A: Quando
este for o caso, escrevemos A = B e dizemos que A é igual a B: De acordo com
tal de…nição, o conjunto f1; 2g é igual ao conjunto f2; 1g e f1; 1g = f1g: A
ordem em que os elementos são inseridos no conjunto é irrelevante e a múltipla
inserção de um mesmo elemento em um conjunto não o altera. Se o conjunto A
não for igual ao conjunto B; dizemos que são diferentes e escrevemos A 6= B:
Existem ocasiões em que a múltipla inserção de um elemento ou a ordem
na qual os elementos são inseridos no conjunto são relevantes e, nestes casos,
precisamos do conceito de conjunto ordenado. O que difere um conjunto

Notas de aula do Professor Faleiros


10 Sistemas de equações lineares

normal do conjunto ordenado é que, no ordenado, a ordem em que os elementos


são inseridos ou mesmo a inserção múltipla de um mesmo elemento é relevante.
Enquanto os conjuntos são delimitados por chaves, os conjuntos ordenados são
delimitados por parêntesis. Nesta seção vamos tratar apenas dos conjuntos
ordenados …nitos de números reais. Sendo a e b números reais, o conjunto
ordenado (a; b) é chamado de par ordenado de números reais. Dois pares
ordenados de números reais (a; b) e (c; d) são iguais quando a = c e b = d
e escreveremos (a; b) = (c; d): O conjunto de todos os pares ordenados de
números reais é denotado por R2 : Quando dois pares ordenados de números
reais (a; b) e (c; d) não forem iguais, diremos que são diferentes e escreveremos
(a; b) 6= (c; d): Neste contexto, o par ordenado (1; 2) é diferente do par ordenado
(2; 1):
Vamos tratar agora de conjunto ordenado com um número …nito de números
reais. Seja n um número inteiro positivo e (a1 ; : : : ; an ); (b1 ; : : : ; bn ) dois conjun-
tos ordenados contendo n números reais cada um. O fato de serem ordenados
se re‡ete na de…nição de igualdade entre eles. Dois conjuntos ordenados

(a1 ; a2 ; : : : ; an ) e (b1 ; b2 ; : : : ; bn )

com o mesmo número de elementos são iguais quando

a1 = b 1 ; a2 = b2 ; :::; an = bn

e escrevemos
(a1 ; a2 ; : : : ; an ) = (b1 ; b2 ; : : : ; bn ):
Quando dois conjuntos ordenados com o mesmo número de elementos não
forem iguais, diremos que são diferentes e escrevemos

(a1 ; a2 ; : : : ; an ) 6= (b1 ; b2 ; : : : ; bn ):

Dois conjuntos ordenados …nitos são considerados diferentes quando não pos-
suírem o mesmo número de elementos. O conjunto ordenado (1; 2; 2) é difer-
ente do conjunto ordenado (1; 2) e escrevemos (1; 2; 2) 6= (1; 2): Um conjunto
ordenado com n números reais é chamado de n upla (leia-se ênupla). O con-
junto de todas as n uplas ordenadas de números reais é denotado por Rn : Em
particular, chamaremos uma 2-upla de par ordenado, uma 3-upla de terno or-
denado ou trinca ordenada e assim por diante, quadra, quina, sena ordenada,
etc.
Como exemplos apresentamos o par (6; 3); a trinca (1; 2; 3); a quadra (2;
0; 1; 6); a quina (4; 6; 5; 2; 8): Quando os números em uma n upla forem
fracionários, usaremos o ponto para separar a parte inteira da parte fracionária
do número como na quadra (2:1; 3:4; 5; 6:8):

Notas de aula do Professor Faleiros


1.2 Equações algébricas lineares 11

1.2 Equações algébricas lineares


No plano cartesiano, as coordenadas cartesianas (x; y) dos pontos de uma reta
satisfazem a uma equação do tipo

ax + by = c;

denominada equação geral da reta. Nela, a; b e c são números reais com a2 +


b2 6= 0: Esta desigualdade implica em que pelo menos um deles, a ou b; precisa
ser diferente de zero. Reciprocamente, todo ponto do plano cujas coordenadas
cartesianas (x; y) satisfazem à equação ax + by = c; pertencem à reta. Há
uma in…nidade de pares ordenados (x; y) que satisfazem à equação geral de
uma reta.
No espaço cartesiano, as coordenadas cartesianas (x; y; z) dos pontos de
um plano satisfazem a uma equação do tipo

ax + by + cz = d;

denominada equação geral do plano. Nela, a; b; c e d são números reais com


a2 + b2 + c2 6= 0: Esta desigualdade implica em que pelo menos um deles, a
ou b ou c; precisa ser diferente de zero. Reciprocamente, todo ponto do espaço
cujas coordenadas cartesianas (x; y; z) satisfazem à equação ax + by + cz
= d; pertencem ao plano. Tal como a reta, o plano possui uma in…nidade de
pontos e, em consequência, existe uma in…nidade de trincas ordenadas (x; y;
z) de números reais que satisfazem à equação geral de um plano.
Logo somos instigados a determinar um modo sistemático para obter os
pontos de uma reta ou de um plano. Este problema extrapola os limites da
Geometria, surgindo em outros contextos e pode ser reformulado de um modo
mais geral.
Dados os n números reais a1 ; : : : ; an ; onde pelo menos um deles não é nulo
e, dado o número real b; uma equação do tipo

a1 x 1 + + an x n = b (1.1)

é denominada equação algébrica linear ou equação linear nas n incóg-


nitas x1 ; : : : ; xn : Os números reais a1 ; a2 ; : : : ; an são os coe…cientes e b é o
termo constante da equação.
Exemplo. Uma equação algébrica linear nas incógnitas x e y é

2x 3y = 7

e outra equação algébrica linear nas incógnitas x1 ; x2 ; x3 é

x1 5x2 + x3 = 9:

Notas de aula do Professor Faleiros


12 Sistemas de equações lineares

Se c1 ; : : : ; cn forem números reais tais que

a1 c 1 + + an cn = b;

diremos que x1 = c1 ; : : : ; xn = cn é solução da equação linear (1.1). Também


podemos escrever a solução de (1.1) na forma de n-upla ordenada

(x1 ; : : : ; xn ) = (c1 ; : : : ; cn ):

Ao atribuir os valores c1 ; : : : ; cn às incógnitas x1 ; : : : ; xn ; a sentença a1 x1 +


+ an xn = b se torna verdadeira, isto é, a soma a1 c1 + + an cn …ca igual
a b:
De forma abreviada, pode-se dizer que a n upla (leia-se ênupla) (c1 ; c2 ;
: : : ; cn ) é solução de (1.1). Neste caso, é preciso que o contexto especi…que
claramente que c1 é o valor que será atribuído a x1 ; c2 é o valor que será
atribuído a x2 e assim por diante.
Exemplo. Uma solução da equação

x 4y + 6z = 1

é x = 3; y = 2; z = 1 pois 3 4 2 + 6 1 = 1: Um modo sistemático de


obter soluções para esta equação consiste em explicitar x em função de y e z
na equação dada
x = 1 + 4y 6z
e, ao atribuir valores reais para as incógnitas y e z; podemos calcular x usando
esta expressão. Para cada par de valores atribuídos a y e z; obtemos um valor
para x e estes valores fornecem uma solução da equação original. Tomando y
= z = 0; obtemos x = 1; de modo que uma solução da equação proposta é (x;
y; z) = (1; 0; 0): Também podemos dizer que x = 1; y = 0 e z = 0 é solução
de x 4y + 6z = 1: Escolhendo y = 2 e z = 0; obtemos x = 9; de modo que
(9; 2; 0) é outra solução de x 4y + 6z = 1: Esta equação, como se percebe,
possui uma in…nidade de soluções.

Quando a1 for diferente de zero, um modo sistemático de obter soluções


da equação a1 x1 + + an xn = b; nas incógnitas x1 ; : : : ; xn ; consiste em
explicitar x1
1
x1 = (b a2 x2 an x n ) (1.2)
a1
e, atribuindo valores c2 ; : : : ; cn a x2 ; : : : ; xn em (1.2) podemos calcular um
valor c1 para x1 : Este procedimento fornece uma solução (c1 ; : : : ; cn ) para a

Notas de aula do Professor Faleiros


1.2 Equações algébricas lineares 13

equação a1 x1 + + an xn = b; onde os números reais c2 ; : : : ; cn podem ser


quaisquer e c1 deve ser obtido através da expressão
1
c1 = (b a2 c 2 an c n ) :
a1
Na equação (1.2), x1 recebe o nome de variável dependente e x2 ; : : : ; xn
recebem o nome de variáveis independentes ou livres. As incógnitas rece-
beram o nome de variáveis pois x2 ; : : : ; xn podem variar livremente em (1.2),
enquanto x1 varia de acordo com a dependência estabelecida nesta equação.
Quando aj 6= 0; pode-se explicitar a variável xj na equação a1 x1 + +
aj x j + + an xn = b: Na equação obtida ao explicitar xj ; ela passa a ser a
variável dependente e, as restantes, as variáveis independentes.
Exemplo. Ao explicitar y na equação algébrica linear 3x 5y = 1 se
obtém y = (1=5)(3x 1): Fazendo x = 12 calculamos y = 7 resultando que
(x; y) = (12; 7) é uma solução de 3x 5y = 1: Esta equação possui in…nitas
soluções. Para cada valor atribuído a x em y = (1=5)(3x 1); calculamos um
valor de y para o qual (x; y) é solução da equação 3x 5y = 1: Fazendo x = 0
em y = (1=5)(3x 1); por exemplo, obtemos y = 1=5; mostrando que (x; y)
= (0; 1=5) é solução da equação 3x 5y = 1: Atribuindo outros valores para
x; obtemos outros valores para y: Como x pode assumir qualquer valor real, a
equação dada possui in…nitos valores.
Também é possível explicitar x em 3x 5y = 1 para obter x = (1+ 5y)=3: A
cada valor atribuído a y; calculamos um valor para x: Fazendo y = 1; obtemos
x = 2; de modo que (x; y) = (2; 1) é solução da equação 3x 5y = 1:

Uma equação algébrica linear do tipo

0x1 + + 0xn = b;

onde todos os coe…cientes são nulos é chamada degenerada. Quando b 6= 0;


ela não possui solução. Dentre as equações lineares, as degeneradas com termo
constante não nulo são as únicas que não possuem solução. Por outro lado,
quando b = 0; qualquer n nupla (c1 ; c2 ; : : : ; cn ) de números reais é solução
da equação degenerada.
O conjunto de todas as soluções de uma equação linear é denominado de
conjunto solução ou solução geral da equação. Se a equação não for de-
generada e possuir uma única incógnita, ela possuirá uma única solução. Se
não for degenerada e o número de incógnitas for maior do que 1; a equação
terá uma in…nidade de soluções.
Para obter o conjunto solução da equação linear não degenerada a1 x1 +
+ an xn = b; basta explicitar uma incógnita em função das demais. Se a1 6=

Notas de aula do Professor Faleiros


14 Sistemas de equações lineares

0; o conjunto solução será


1
f (x1 ; : : : ; xn ) : x1 = (b a2 x2 an xn ) com x2 ; : : : ; xn 2 R g
a1
Para obter soluções particulares, basta escolher os valores c2 ; : : : ; cn para x2 ;
: : : ; xn e calcular x1 usando a expressão
1
x1 = (b a2 c2 an c n ) :
a1

Exemplo. Explicitando o y na equação linear 5x y = 1 obtém-se y =


5x 1 e a solução geral da equação é
f (x; y) : y = 5x 1 com x 2 R g
Escolhendo x = 2; obtemos y = 5 2 1 = 9 e daí segue a solução particular
(2; 9) da equação. Para cada valor atribuído a x obtemos um valor de y e,
consequentemente, uma solução da equação.

Aproveitando o exemplo anterior, vamos observar que a solução geral da


equação pode ser apresentada tratando as incógnitas x e y em pé de igualdade
mediante a utilização de uma terceira variável. Se introduzirmos uma nova
variável t de…nida por t = x; então y = 5t 1 e o conjunto solução passa a ter
o formato
f ( t; 5t 1 ) : t 2 R g
A variável t é denominada de parâmetro da solução geral. Em lugar de expres-
sar a solução geral na forma de um conjunto pode-se simplesmente escrevê-la
na forma x = t e y = 5t 1; destacando que t é um parâmetro que percorre o
conjunto de números reais. Aqui se subentende que o conjunto formado pelos
pares (x; y) onde x = t e y = 5t 1; com t 2 R; é o conjunto solução da
equação. As equações x = t e y = 5t 1; com t percorrendo os reais, são
denominadas de equações paramétricas da solução geral da equação 5x y
= 1:
Exemplo. Explicite x na equação x 4y + 7z = 5; para obter x = 5+
4y 7z: Decorre daí que a solução geral de x 4y + 7z = 5 é
f (x; y; z) : x = 5 + 4y 7z; com y e z percorrendo os reais g
De…nindo os parâmetros r e s por r = y e s = z; obtemos a solução geral na
forma paramétrica
x=5 4r + 7s
y=r
z=s

Notas de aula do Professor Faleiros


1.3 Sistemas de equações lineares 15

onde os parâmetros r e s podem assumir qualquer valor real. A cada valor


atribuído a r e a s obtemos uma solução (x; y; z) da equação.

1.3 Sistemas de equações lineares


A interseção de duas retas do plano cartesiano cujas equações gerais são

a1 x + b 1 y = c 1
a2 x + b 2 y = c 2

pode ser vazia quando as retas forem paralelas e distintas, ter um único ponto
quando as retas não forem paralelas, ou uma in…nidade de pontos quando
as retas forem paralelas e coincidentes. No primeiro caso, não existe ponto
cujas coordenadas (x; y) satisfaz ao mesmo tempo as duas equações. No se-
gundo caso, haverá um único ponto cujas coordenadas (x; y) satisfazem às
duas equações. No terceiro caso, existe uma in…nidade de pontos do plano cu-
jas coordenadas (x; y) satisfazem às duas equações. No caso de termos três ou
mais retas, o cenário não muda pois a interseção das três pode ser o conjunto
vazio, pode conter um único ponto ou ainda uma in…nidade de pontos.
A interseção de dois planos no espaço cartesiano cujas equações gerais são

a1 x + b 1 y + c 1 z = b 1
a2 x + b2 y + c2 z = b2

pode ser vazio quando os planos forem paralelos e distintos, ser uma reta
quando os planos não forem paralelos ou pode ser o próprio plano quando
os dois forem coincidentes. Quando a interseção for vazia, não existe trinca
ordenada (x; y; z) de números reais que satisfazem às duas equações simultane-
amente. Quando a interseção é uma reta ou um plano, haverá uma in…nidade
de trincas ordenadas (x; y; z) de números reais satisfazendo às duas equações.
A interseção de três planos no espaço cartesiano cujas equações gerais são

a1 x + b 1 y + c 1 z = d 1
a2 x + b 2 y + c 2 z = d 2
a3 x + b 3 y + c 3 z = d 3

poderá ser o conjunto vazio, conter um único ponto, ser uma reta ou ser um
plano. Quando a interseção for vazia, não existirá trincas ordenadas (x; y; z) de
números reais que satisfazem as três equações simultaneamente. Se a interseção
contiver um único ponto, haverá uma única trinca (x; y; z) de números reais

Notas de aula do Professor Faleiros


16 Sistemas de equações lineares

a satisfazer às três equações simultanemante. No caso de a interseção ser


uma reta ou um plano, existirá uma in…nidade de trincas ordenadas (x; y; z)
de números reais que satisfazem simultaneamente as três equações gerais dos
planos.
Estes exemplos nos mostram a importância de estudar soluções comuns a
duas ou mais equações como as que surgem no estudo de retas e planos. Tão
importante quanto é o fato de que o estudo de soluções simultâneas de duas
ou mais equações dessa natureza surgem no contexto do Cálculo Numérico e
são de extrema importância para as aplicações da Matemática na Engenharia,
na Física, na Química, na Biologia, na Economia. Há problemas que con-
duzem a centenas ou milhares de equações lineares com centenas ou milhares
de variáveis.
Quando nos depararmos com duas ou mais equações lineares, estaremos di-
ante de um sistema de equações lineares. Passemos a estudar tais sistemas
em sua forma geral.
Sejam m e n números inteiros positivos. Sejam aij e bi números reais, onde
os índices i e j são números inteiros, com i percorrendo o intervalo de 1 a m e
j percorrendo o intervalo que vai de 1 a n: O conjunto de m equações lineares

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2 (1.3)

am1 x1 + am2 x2 + + amn xn = bm

nas incógnitas x1 ; : : : ; xn ; é chamado de sistema de equações algébricas


lineares (ou apenas sistema linear para simpli…car) com m equações e n
incógnitas. Diremos que x1 = c1 ; x2 = c2 ; : : : ; xn = cn é solução do sistema
(1.3) se esta for uma solução de todas as equações do sistema, ou seja,

a11 c1 + a12 c2 + + a1n cn = b1


a21 c1 + a22 c2 + + a2n cn = b2

am1 c1 + am2 c2 + + amn cn = bm

Pode-se escrever a solução do sistema de equações algébricas lineares na forma

(x1 ; : : : ; xn ) = (c1 ; : : : ; cn )

ou simplesmente dizer que (c1 ; : : : ; cn ) é solução do sistema. Neste último


caso, o texto ou o contexto, deve evidenciar que c1 é o valor a ser atribuído a
x1 ; c2 é o valor a ser atribuído a x2 e assim por diante.

Notas de aula do Professor Faleiros


1.3 Sistemas de equações lineares 17

Exemplo. Deixamos ao leitor a tarefa de veri…car que (x; y; z; w) = (1;


2; 0; 1) é uma solução do sistema

2x y + 3z + w = 1
x + 2y z + 3w = 2
y + 2z 2w = 4

Basta fazer x = 1; y = 2; z = 0 e w = 1 em todas as quatro equações e


veri…car que as sentenças se tornam verdadeiras.

Um sistema de equações lineares pode ter solução ou não. Quando uma


equação do sistema for degenerada,

0x1 + + 0xn = b;

onde todos os coe…cientes são nulos e b é diferente de zero, já podemos a…rmar


que o sistema não possui solução pois esta equação degenerada não possui
solução.
Exemplo. O sistema

x+y =1
0x + 0y = 2

não tem solução pois a segunda equação é degenerada e seu termo constante
é diferente de zero. O sistema

x+y =1
x+y =2

não possui solução pois a soma x + y não pode ser igual a 1 e a 2 ao mesmo
tempo. Já o sistema

x+y =2
0x + 0y = 0

possui in…nitas soluções. A segunda equação é satisfeita por qualquer par (x;
y) = (c1 ; c2 ) de números reais enquanto a primeira é satisfeita sempre que x
= 2 y: O sistema

x y=2
x+y =4

Notas de aula do Professor Faleiros


18 Sistemas de equações lineares

tem uma única solução (x; y) = (3; 1) que pode ser obtida observando que,
ao adicionar as duas equações obtemos 2x = 6 e, ao subtrair a primeira da
segunda, obtemos 2y = 2:

Um sistema de equações lineares é consistente ou compatível quando


possuir ao menos uma solução e inconsistente ou incompatível quando não
possuir solução. O conjunto de todas as soluções de um sistema de equações
algébricas lineares é o seu conjunto solução ou sua solução geral.
Exemplo. Para obter todas as soluções do sistema

x 3y + z = 0
y z=1

explicitamos x na primeira e y na segunda equação

x = 3y z;
y = 1 + z:

Usamos a segunda equação para eliminar y que aparece no lado direito da


primeira, obtendo

x = 3(1 + z) z = 3 + 2z;
y = 1 + z:

Atribuindo qualquer valor a z; podemos usar as relações acima para calcular x


e y; obtendo soluções do sistema. A solução geral do sistema dado é o conjunto
formado por todos os ternos ordenados (x; y; z) do R3 tais que x = 3 + 2z e
y = 1 + z:
Nas duas equações

x = 3 + 2z
y =1+z

o z pode variar livremente em R e, por este motivo, recebe o nome de variável


independente. O x e o y dependem de z e, por este motivo, se diz que x e y
são variáveis dependentes.

Antes de prosseguir com o estudo de sistemas, vamos introduzir o conceito


de matriz que, como veremos será muito útil por fornecer uma notação simples
e técnicas e…cientes na análise e busca de soluções para os sistemas de equações
algébricas lineares.

Notas de aula do Professor Faleiros


1.4 Matriz 19

1.4 Matriz
Para determinar a solução de um sistema de equações algébricas lineares pre-
cisamos apenas dos coe…cientes e das constantes de suas equações. Estes coe-
…cientes e constantes podem ser inseridos em uma matriz, que é uma coleção
de números dispostos em uma tabela retangular delimitada por colchetes, tal
como em 2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
6 .. .. . . .. 7
4 . . . . 5
am1 am2 amn
Cada número aij ; inserido na linha i coluna j da tabela, é denominado entrada
ou elemento da matriz. As linhas e as colunas da tabela serão as linhas e
as colunas da matriz. Fila é o termo usado para designar tanto uma linha
quanto uma coluna da matriz. Uma matriz de tamanho m n é aquela
que possui m linhas e n colunas. A matriz cuja entrada da linha i coluna
j é designada por aij ; pode ser representada de forma abreviada por [aij ] :
Quando for desejável indicar explicitamente o seu tamanho pode-se indicá-
la por [aij ]m n onde o m é o número de linhas e n é o número de colunas.
Usaremos letras minúsculas latinas ou gregas para indicar os números reais.
As entradas das matrizes são acompanhadas de subíndices para indicar sua
posição na tabela. O primeiro subíndice indica a linha e o segundo indica
a coluna. As letras maiúsculas serão utilizadas para designar as matrizes.
Quando escrevemos A = [aij ] estamos indicando que A é uma matriz cuja
entrada da linha i coluna j é aij : A entrada da linha i coluna j de A pode ser
indicada também por (A)ij : Sendo conveniente explicitar o tamanho de uma
matriz podemos escrever Am n para indicar que a matriz A possui m linhas e
n colunas. Uma matriz onde todas as entradas são zeros é chamada de matriz
nula. Matrizes nulas são indicadas pelo símbolo 0 (zero).
Exemplo. A matriz
1 2 3
4 7 9
possui duas linhas e três colunas. Seu tamanho é 2 3: A matriz 9 4
possui uma linha e duas colunas. Seu tamanho é 1 2:
A matriz
0 0 0
0=
0 0 0
é a matriz nula 2 3: Observe que o zero à esquerda do sinal de igualdade
indica uma matriz nula e os zeros nas entradas o número real zero. O mesmo
símbolo é usado para indicar objetos diferentes e o texto ou o contexto deve

Notas de aula do Professor Faleiros


20 Sistemas de equações lineares

esclarecer quando o 0 (zero) é usado para indicar uma matriz nula ou o número
real zero.

Os elementos a11 ; a22 ; a33 ; : : : para os quais o número da linha é igual ao


número da coluna formam a diagonal principal da matriz ou, simplesmente,
diagonal da matriz. Para uma matriz com n colunas, os elementos a1;n ; a2;n 1 ;
a3;n 2 ; : : : para os quais a soma do número da linha com o número da coluna
é igual a n + 1; são elementos da diagonal secundária da matriz. Uma
matriz onde apenas os elementos da diagonal principal são diferentes de zero
é chamada de matriz diagonal.
2 3
1 0 0
Exemplo. A matriz 4 0 2 0 5 é diagonal e 1; 2 e 3 são os elementos da
0 0 3
sua diagonal.

Quando o número de linhas for igual ao número de colunas se diz que


a matriz é quadrada. Uma matriz quadrada de tamanho n n é chamada
matriz de ordem n: Matrizes com um única coluna são denominadas matrizes
coluna ou vetores coluna. Matrizes com uma única linha são denominadas
matrizes linha ou vetores linha.
1 2 1
Exemplo. A matriz é quadrada, é uma matriz coluna e
4 3 2
1 2 é uma matriz linha.

Uma matriz quadrada na qual todas as entradas acima da diagonal princi-


pal são zeros, é chamada triangular inferior e uma matriz quadrada na qual
todas as entradas abaixo da diagonal principal são zeros, é chamada trian-
gular superior. Uma matriz triangular pode tanto ser triangular inferior
como triangular superior.
2 3 2 3
1 0 0 1 7 8
Exemplo. A matriz 4 4 2 0 5 é triangular inferior e a matriz 4 0 2 9 5
5 6 3 0 0 3
é triangular superior.

Duas matrizes A = [aij ] e B = [bij ] são iguais quando possuem o mesmo


tamanho e suas entradas correspondentes são iguais, isto é, aij = bij ; para i
e j percorrendo todas as linhas e todas as colunas de A e B: Quando duas
matrizes A e B forem iguais, escreveremos A = B:
Como enfatizamos no início desta seção, as matrizes mostraram-se muito

Notas de aula do Professor Faleiros


1.4 Matriz 21

úteis na representação de sistemas lineares. Dado o sistema linear


a11 x1 + a12 x2 + + a1n xn = b1
a21 x1 + a22 x2 + + a2n xn = b2

am1 x1 + am2 x2 + + amn xx = bm


com m equações e n incógnitas, a tabela retangular de números
2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
A = 6 .. .. .. .. 7
4 . . . . 5
am1 am2 amn
é chamada de matriz dos coe…cientes do sistema e
2 3
b1
6 7
B = 4 ... 5
bm
é a matriz das constantes do sistema. Ao acrescentar a coluna B à direita
de A; obtemos a matriz aumentada ou matriz completa do sistema
2 3
a11 a12 a1n b1
6 a21 a22 a2n b2 7
6 7
6 .. .. .. .. .. 7
4 . . . . . 5
am1 am2 amn bm
que será denotada por [ A j B ]:
Exemplo. A matriz dos coe…cientes e a matriz completa do sistema
x + y + 2z = 9
2x + 4y 3z = 1
3x + 6y 5z = 0
são, respectivamente,
2 3 2 3
1 1 2 1 1 2 9
4 2 4 3 5 e 4 2 4 3 1 5:
3 6 5 3 6 5 0

As matrizes simpli…cam a notação e proporcionam uma ferramenta matemática


e…ciente no estudo teórico e numérico dos sistemas, mormente no estudo daque-
les de grande porte, com muitas equações e muitas incógnitas.

Notas de aula do Professor Faleiros


22 Sistemas de equações lineares

1.5 Sistema escalonado


É muito simples obter a solução geral de alguns sistemas especiais e, dentre
eles, se destacam os sistemas escalonados. Para de…ni-lo introduziremos alguns
conceitos iniciais. Numa matriz, linha nula é aquela em que as entradas são
todas iguais a zero. Numa linha não nula, chamaremos de pivô o primeiro
elemento não nulo quando a linha é percorrida da esquerda para a direita.
Exemplo. Na matriz
2 3
0 1 1 3
4 2 6 5 7 5
0 0 0 0

o 1 é o pivô da primeira linha e o 2 é o pivô da segunda linha. A terceira linha


é nula e não possui pivô.

Uma matriz escalonada é aquela em que

1. as linhas nulas, se existirem, …cam agrupadas na parte inferior da matriz;

2. a partir da segunda linha, nas linhas não nulas, o pivô …ca à direita do
pivô da linha de cima.

Uma matriz é escalonada reduzida se

1. for escalonada;

2. os pivôs são todos iguais a 1 e,

3. nas colunas contendo um pivô, ele é o único elemento não nulo.

Exemplo. As matrizes
2 3 2 3
0 1 2 3 4 1 2 3 4 5
4 0 0 0 6 2 5 e 4 0 0 5 6 7 5
0 0 0 0 0 0 0 0 1 9

são escalonadas e 2 3
1 2 0 4 0 6
6 0 0 1 2 0 4 7
6 7
4 0 0 0 0 1 2 5
0 0 0 0 0 0

Notas de aula do Professor Faleiros


1.5 Sistema escalonado 23

é escalonada reduzida.

Um sistema linear é escalonado quando sua matriz completa for escalon-


ada e escalonado reduzido quando sua matriz completa for escalonada re-
duzida. As incógnitas multiplicadas pelos pivôs são chamadas de incógnitas
líderes.
Exemplo. O sistema

x + 2y + 3z + 4w = 5
y + 2z + 3w = 4
2w = 7

é escalonado pois sua matriz completa


2 3
1 2 3 4 5
4 0 1 2 3 4 5
0 0 0 2 7
é escalonada e x; y e w são suas incógnitas líderes.
O sistema
x + 7z = 1
y + 3z = 8
w = 6
é escalonado reduzido pois sua matriz completa
2 3
1 0 7 0 1
4 0 1 3 0 8 5
0 0 0 1 6
é escalonada reduzida e x; y e w são suas incógnitas líderes.

Um sistema escalonado só não possui solução quando uma de suas equações


for degenerada,
0x1 + 0x2 + + 0xn = b
e o termo constante b for diferente de zero. Neste caso a tarefa de buscar
soluções está encerrada. Tal sistema não possui solução. Nos demais casos,
o sistema escalonado sempre tem solução e podemos obter sua solução geral
com o procedimento descrito abaixo.
Inicialmente explicite em cada equação a sua incógnita líder. Em seguida,
siga um procedimento conhecido por substituição reversa. Use as equações
de baixo para eliminar as incógnitas líderes do lado direito das equações de
cima.

Notas de aula do Professor Faleiros


24 Sistemas de equações lineares

Quando o sistema escalonado possui solução, depois da substituição re-


versa, quando as incógnitas líderes são eliminadas do lado direito das equações,
as incógnitas que ainda restarem do lado direito das equações são denominadas
de variáveis independentes ou variáveis livres. O termo variável tem sua
origem no fato de podermos atribuir a elas qualquer valor real para obter
uma solução do sistema. As incógnitas líderes, aquelas que permaneceram do
lado esquerdo, passam a depender das variáveis livres e recebem o nome de
variáveis dependentes ou variáveis líderes.
Quando o sistema escalonado possui solução, encerrada a substituição re-
versa, existindo variáveis livres, a elas pode-se atribuir qualquer valor real.
A cada valor real atribuído às variáveis livres, calculamos as variáveis depen-
dentes usando as equações obtidas. Assim, havendo variável livre, o sistema
possui in…nitas soluções. Se não houver variável livre, o sistema terá uma única
solução.
Para sistemas escalonados reduzidos, aqueles para os quais a matriz com-
pleta é escalonada reduzida, a etapa de substituição reversa é desnecessária
pois, ao explicitar as variáveis líderes, restarão apenas as variáveis indepen-
dentes no lado direito das equações.
Exemplo. Para resolver o sistema escalonado
x y + 2z = 3
y z= 1
z= 2
explicitamos as variáveis líderes x; y e z; na primeira, segunda e terceira
equações, respectivamente
x=y 2z + 3
y=z 1
z=2
Podemos eliminar as variáveis líderes do lado direito destas equações usando
substituição reversa. A última equação é usada para eliminar z do lado direito
das equações acima. Depois, a terceira e a seguna equações são usadas para
eliminar z e y do lado direito da primeira equação. Usando este procedimento,
iniciando com a última equação, tomando depois a segunda e …nalmente a
primeira, chegamos a
z = 2;
y = z 1 = 2 1 = 1;
x = y 2z + 3 = 1 4 + 3 = 0:

Notas de aula do Professor Faleiros


1.5 Sistema escalonado 25

Concluímos que a única solução deste sistema é (x; y; z) = (0; 1; 2):

Exemplo. Para resolver o sistema escalonado


x + 2y z = 1
y+z =2
explicitamos as variáveis líderes x e y;
x = 2y + z + 1
y=2 z
e usamos a segunda equação para eliminar o y no lado direito da primeira
equação. Simpli…cando obtemos
y=2 z
x = 2(2 z) + z + 1 = 3z 3
Este sistema possui in…nitas soluções pois z é uma variável livre. Sua solução
geral é o conjunto formado por todas as trincas ordenadas (x; y; z) de números
reais, onde z pode assumir qualquer valor real, enquanto x = 2 z e y = 3z 3
dependem do valor de z: Ao estabelecer um valor para z; calculamos x e y
usando as expressões x = 3z 3 e y = 2 z: Cada valor de z nos dá um x e
um y e concluímos que o sistema possui in…nitas soluções.
Se desejarmos tratar as variáveis x; y e z em pé de igualdade, basta intro-
duzir uma nova variável t para substituir a variável livre z: Esta nova variável
é de…nida por t = z: Daí a solução geral é o conjunto de todos os ternos
ordenados (x; y; z) do R3 com
x = 3t 3; y=2 t; z = t;
onde t pode assumir qualquer valor real. Esta é a chamada forma paramétrica
da solução geral. A nova variável t recebe o nome de parâmetro da solução
geral.

Exemplo. Para resolver o sistema escalonado reduzido


x 2y + w = 1
z 3w = 2
explicitamos as variáveis líderes x e z
x = 1 + 2y w
z = 2 + 3w

Notas de aula do Professor Faleiros


26 Sistemas de equações lineares

As variáveis x e z dependem das variáveis livres y e w: Aqui não precisamos da


substituição reversa pois do lado direito só temos variáveis livres. O sistema
possui in…nitas soluções. A solução geral do sistema é o conjunto formado por
todas as quadras ordenadas (x; y; z; w) de números reais com x = 1 + 2y w
e z = 2 + 3w podendo y e w variar livremente no conjunto dos números reais.
Querendo tratar as quatro variáveis em pé de igualdade na solução geral,
pode-se introduzir duas novas variáveis r e s; de…nindas por r = y e s = w:
Agora a solução geral, escrita na forma paramétrica, é o conjunto de todas
as quadras ordenadas (x; y; z; w) de números reais, com
x = 1 + 2r s
y=r
z = 2 + 3s
w=s
onde os parâmetros r e s podem assumir qualquer valor real.

Exemplo. Para resolver o sistema escalonado


x + 2y z + w = 1
y + 2z w = 2
z+w =1
explicitamos as variáveis líderes
x=1 2y + z w
y=2 2z + w
z=1 w
e usamos substituição reversa para eliminar as variáveis líderes que …caram no
lado direito das equações, indo da última equação para a primeira
z=1 w
y=2 2(1 w) + w = 3w
x=1 2(3w) + (1 w) w = 2 8w
A solução geral é o conjunto formado por todas as quadras ordenadas (x; y; z;
w) de números reais tais que
x = 2 8w
y = 3w
z=1 w

Notas de aula do Professor Faleiros


1.6 Exercícios 27

onde w é variável independente e x; y; z são as variáveis dependentes.


Se desejarmos escrever a solução geral na forma paramétrica, de…nimos o
parâmetro t por t = w e agora solução geral pode ser apresentada na forma
paramétrica. É conjunto de todas as quadras ordenadas (x; y; z; w) tais que

x = 2 8t
y = 3t
z=1 t
w=t

onde o parâmetro t pode assumir qualquer valor real.

Num sistema escalonado com uma única variável independente, a solução


geral é uniparamétrica, havendo duas variáveis independentes a solução geral
é biparamétrica, existindo três variáveis independentes, triparamétrica.
Quando a solução geral possuir mais do que três variáveis livres, podemos usar
os pre…xos tetra, penta, hexa ou chamá-la de poliparamétrica.

1.6 Exercícios
Exercício 1.1 Obtenha a solução geral do sistema abaixo na forma paramétrica

x + 2y + 3z + w = 5;
y + z 2w = 3;
2z + 4w = 6:

1.7 Operações elementares


Nos resta agora discutir a solução de sistemas de equações algébricas genéricos.
Para estes, até o momento, não possuimos um modo sistemático de obter
sua solução geral. Uma técnica muito utilizada para abordar um problema
novo consiste em reduzi-lo a um outro mais simples que sabemos resolver.
Estudaremos algumas transformações que, aplicadas ao sistema original, não
modi…cam sua solução geral. Por meio delas, podemos modi…car o problema
original até tranformá-lo num sistema escalonado, cuja solução geral é idêntica
ao do sistema inicial. Dois sistemas de equações lineares são equivalentes
quando possuírem a mesma solução geral.
A transformação de um sistema em outro equivalente é realizada por meio
de operações elementares sobre as equações do sistema que são de três tipos:

Notas de aula do Professor Faleiros


28 Sistemas de equações lineares

1. Trocar de posição duas equações, levando cada uma para a posição da


outra.

2. Multiplicar uma equação por um número real diferente de zero. A nova


equação é denominada múltiplo da equação original.

3. Adicionar a uma equação um múltiplo de outra.

Ao aplicar uma operação elementar sobre um sistema chegamos a um outro


sistema que é equivalente ao original.
As operações elementares podem ser executadas diretamente sobre a matriz
completa do sistema. Nesta matriz, as operações elementares equivalentes
àquelas aplicadas ao sistema são:

1. Trocar de posição duas linhas, levando cada uma para a posição da outra.

2. Multiplicar todas as entradas de uma linha por um mesmo número real


diferente de zero. A linha obtida é um múltiplo da linha original.

3. Adicionar a uma linha um múltiplo de outra linha. Ao adicionar uma


linha [a1 an ] a outra [b1 bn ] obtemos a linha [a1 + b1 an + bn ]:

Exemplo. Partindo da matriz


2 3
1 1 1
A = 4 2 2 2 5;
3 3 3

levando sua primeira linha para a posição da terceira e trazendo a terceira


linha para a posição da primeira, obtemos
2 3
3 3 3
B = 4 2 2 2 5:
1 1 1

Se levarmos a primeira linha de B para a posição da terceira e trouxermos a


terceira linha para a posição da primeira, recuperamos A:
Multiplicando a primeira linha da matriz
2 3
1 1 1
A=4 2 2 2 5
3 3 3

Notas de aula do Professor Faleiros


1.7 Operações elementares 29

por 3 obtemos a matriz 2 3


3 3 3
B=4 2 2 2 5
3 3 3
Multiplicando a primeira linha de B por 1=3 recuperamos A:
Adicionando à segunda linha de
2 3
1 1 1
A=4 2 2 2 5
3 3 3
sua primeira linha multiplicada por 4; obtemos
2 3
1 1 1
B=4 6 6 6 5
3 3 3
Adicionando à segunda linha de B sua primeira linha multiplicada por 4;
recuperamos A:

Os exemplos acima mostram que as operações elementares são reversíveis.


Se a matriz B foi obtida ao aplicar uma operação elementar sobre a matriz A;
é possível retornar à matriz A aplicando em B outra operação elementar.
Se B foi obtida ao permutar as linhas r e s de A; permutando as mesmas
linhas de B recuperamos A: Vamos indicar a operação que permuta as linhas
r e s de uma matriz por
Lr $ Ls :
Multiplicando a linha r de A por um número real c diferente de zero, obtemos
uma matriz B: Multiplicando a mesma linha r de B por c 1 recuperamos a
matriz A: Vamos indicar por
cLr ! Lr
a operação elementar que multiplica a linha r de uma matriz por um número
real c:
Vamos indicar por
Lr + xLs ! Lr
a operação elementar que adiciona à linha r de A sua linha s multiplicada por
um número real c: Se a matriz B foi obtida ao aplicar a operação elementar
Lr + cLs ! Lr em A; aplicando a operação elementar Lr cLs ! Lr em B;
recuperamos A:
Em síntese, a operação elementar que reverte
Lr $ Ls

Notas de aula do Professor Faleiros


30 Sistemas de equações lineares

é ela mesma. A que reverte a operação elementar


cLr ! Lr é c 1 Lr ! Lr ;
razão pela qual se exige que c 6= 0: A que reverte a operação elementar
Lr + cLs ! Lr é Lr cLs ! Lr :

1.8 Método de Gauss


Vamos descrever nesta seção o método de Gauss, utilizado para resolver sis-
temas não escalonados de equações lineares. Este método consiste na apli-
cação de operações elementares sobre as linhas do sistema, levando-o a um
sistema escalonado que já sabemos como resolver. Para resolver um sistema
de equações algébricas lineares, em lugar de escrever o sistema todo, por uma
questão de econnomia, conveniência e comodidade, iremos trabalhar com a sua
matriz completa que denotaremos por C:
O método de Gauss segue o esquema apontado nos exemplos abaixo.
1. Sempre é possível anular as entradas que …cam embaixo do pivô de uma
linha mediante uma operação elementar. Aplicando à matriz
2 3
1 2 0 1
4 2 0 1 3 5
1 1 0 2
as operações elementares L2 2L1 ! L2 e L3 + L1 ! L3 obtemos a
matriz 2 3
1 2 0 1
4 0 4 1 5 5
0 3 0 3
cujos elementos embaixo do pivô da primeira linha são iguais a zero.
2. Se o pivô da primeira linha …ca à direita do pivô de alguma linha de
baixo, veri…que aquela cujo pivô …ca mais à esquerda e troque a posição
desta linha com a primeira. Dada a matriz
2 3
0 2 3
4 1 2 1 5
2 1 0
podemos trocar as posições das duas primeiras linhas para chegar à ma-
triz 2 3
1 2 1
4 0 2 3 5
2 1 0

Notas de aula do Professor Faleiros


1.8 Método de Gauss 31

onde o pivô da primeira linha não …ca à direita dos pivôs das linhas de
baixo. Agora, aplicando a esta matriz a operação elementar L3 2L1 !
L3 obtemos 2 3
1 2 1
4 0 2 3 5
0 3 2
matriz na qual as entradas abaixo do pivô da primeira linha são iguais a
zero.

Repetindo este procedimento com a segunda linha, depois com a terceira


e assim sucessivamente, chegamos a uma matriz escalonada que é a matriz
completa de um sistema equivalente ao original.
O método de Gauss consiste na aplicação das operações elementares acima
descritas sobre as linhas da matriz completa do sistema com o intuito de
transformá-la numa matriz escalonada.
Se R for uma matriz escalonada obtida ao aplicar uma sequência de …nita
de operações elementares sobre a matriz C; cada operação elementar sendo
realizada sobre a matriz modi…cada pela operação anterior, diremos que R é
uma forma escalonada de C: Quando R for uma matriz escalonada reduzida,
diremos que ela é a forma escalonada reduzida de C: Uma matriz pode
possuir mais de uma forma escalonada mas possui uma única forma escalonada
reduzida.
Exemplo. Vamos mostrar através deste exemplo que a forma escalonada
de uma matriz não é única. Realizando a operação elementar L2 L1 ! L2
na matriz
1 3
A=
1 7
obtemos
1 3
R1 = :
0 4
A matriz R1 é uma forma escalonada reduzida de A: Realizando a operação
elementar L1 $ L2 em A obtemos

1 7
:
1 3

Aplicando a esta matriz a operação elementar L2 L1 ! L2 ; chegamos a

1 7
R2 = :
0 4

Notas de aula do Professor Faleiros


32 Sistemas de equações lineares

Tanto R1 quanto R2 são formas escalonadas de A; o que evidencia a existência


de mais do que uma forma escalonada de uma matriz.
Realizando em R1 a operação elementar (1=4)L2 ! L2 e, na matriz resul-
tante, a operação L1 3L2 ! L1 ; chegamos na matriz

1 0
R= :
0 1

Esta matriz é a forma escalonada reduzida da matria A que, neste caso, é a


matriz identidade. Podemos chegar a ela aplicando em R2 a operação elemen-
tar ( 1=4)L2 ! L2 e, na matriz obtida, a operação L1 7L2 ! L1 : A matriz
R é a forma escalonada reduzida de A: Seja qual for o caminho percorrido para
chegar à forma escalonada reduzida, o resultado é sempre o mesmo.
Desa…amos o leitor a seguir outros caminhos, aplicando operações ele-
mentares diferentes para chegar à matriz escalonada reduzida R: Esta busca
por caminhos diferentes para chegar à matriz escalonada reduzida irá convencê-
los de que a matriz escalonada reduzida de uma atriz é única.

Passemos a descrever o método de Gauss usado para resolver um sistema


de equações algébricas lineares cuja matriz completa é C: No procedimento
abaixo, sempre que se deparar com uma linha nula, coloque-a na parte in-
ferior da matriz ou simplesmente a retire da matriz. Tal linha nula corre-
sponde a uma equação degenerada do sistema com termo constante nulo e
qualquer solução das outras equações do sistema será solução dela. Desta
forma, podemos esquecê-la durante a busca de soluções do sistema.
Olhe para a primeira linha da matriz completa C: Se ela for nula, leve-a
para a parte inferior da matriz ou simplesmente elimine-a da matriz. Se a
primeira linha não for nula, veri…que se o seu pivô se encontra à direita do
pivô de alguma linha de baixo. Em caso a…rmativo, veri…que em qual linha o
pivô …ca mais à esquerda. Leve-a para a posição da primeira e traga a primeira
linha para a posição dela, realisando a operação elementar L1 $ Lr ; onde r é
o índice da linha cujo pivô …ca mais à esquerda.
Agora, use a operação elementar Lr + cr L1 ! Lr nas linhas r = 2; 3; : : : ;
m; escolhendo o número cr de modo a zerar as entradas abaixo do pivô da
primeira linha.
Terminada esta etapa, passe para a segunda linha e repita o procedimento
descrito acia para a primeira linha. Se ela for nula, leve-a para a parte inferior
da matriz ou simplesmente a elimine da matriz. Se o pivô da segunda linha
…car à direita do pivô de alguma linha de baixo, troque a posição da segunda
linha com aquela cujo pivô …ca mais à esquerda. Agora, aplique as operações
elementares Lr + cr L2 ! Lr nas linhas r = 3; : : : ; m; escolhendo cr de modo
a zerar as entradas que …cam embaixo do pivô da segunda linha.

Notas de aula do Professor Faleiros


1.8 Método de Gauss 33

Repita este procedimento para as linhas de baixo, percorrendo a matriz de


cima para baixo até obter uma forma escalonada R da matriz completa do
sistema algébrico linear. A matriz R será a matriz completa de um sistema
equivalente ao sistema original cuja matriz completa é C; uma vez que usamos
apenas operações elementares que não modi…cam as soluções do sistema.
Eventualmente, quando o pivô de uma linha for igual a c; diferente de 1;
pode ser conveniente torná-lo unitário mediante a operação elementar c 1 Li
! Li : Se você estiver realizando as contas sem o auxílio de uma calculadora
ou computador, este expediente pode, em alguns casos, simpli…car os cálculos.
É importante ressaltar que:

1. Este processo de escalonamento poderá tornar nula uma linha da matriz.


Uma linha nula na matriz completa de um sistema corresponde a uma
equação degenerada do tipo

0x1 + + 0xn = 0:

Qualquer solução das outras equações do sistema será uma solução desta
equação degenerada, uma vez que ela é satisfeita por toda n upla or-
denada (x1 ; : : : ; xn ) de números reais. Desta forma, no processo de
busca das soluções podemos simplesmente desconsiderar as equações de-
generadas com termo constante nulo. Pode-se eliminas as linhas nulas
ou levá-las para a parte inferior da matriz, com o intuito de realizar o
escalonamento.

2. O escalonamento da matriz completa do sistema poderá nos conduzir a


uma linha na qual todas as entradas, com exceção da última, são iguais
a zero, como em
0 0 0 b
com b 6= 0: Esta linha, na matriz completa do sistema, corresponde a
uma equação degenerada do tipo

0x1 + + 0xn = b

Esta equação é inconsistente, não possui solução. Chegando a uma linha


com esta característica, pode-se encerrar o procedimento e a…rmar que o
sistema não possui solução.

Não havendo equações inconsistentes no sistema escalonado, ele sempre


terá solução. Quando não houver variável livre, o sistema possui uma única
equação. Havendo variáveis livres, o número de soluções é in…nito.

Notas de aula do Professor Faleiros


34 Sistemas de equações lineares

Exemplo. Vamos usar o método de Gauss para resolver o sistema nas


variáveis x; y; z; v; w cuja matriz completa é
2 3
0 1 1 1 2 7
C=4 1 3 2 4 0 6 5:
2 4 2 7 5 0
Como o pivô da segunda linha está à esquerda do pivô da primeira linha, deve-
mos trocá-las de posição, realizando a operação elementar L1 $ L2 ; obtendo
2 3
1 3 2 4 0 6
C1 = 4 0 1 1 1 2 7 5:
2 4 2 7 5 0
Efetuamos a operação elementar L3 2L1 ! L3 para anular a entrada não
nula que …ca na mesma coluna do pivô da primeira linha e embaixo dele.
Ficamos com 2 3
1 3 2 4 0 6
C2 = 4 0 1 1 1 2 7 5:
0 2 2 1 5 12
Com a operação elementar L2 ! L2 ; tornamos o pivô da segunda linha igual
a 1; o que pode simpli…car as contas
2 3
1 3 2 4 0 6
C3 = 4 0 1 1 1 2 7 5:
0 2 2 1 5 12
A operação elementar L3 +2L2 ! L3 ; anula a entrada da terceira linha que
…ca na coluna do pivô da segunda linha
2 3
1 3 2 4 0 6
4
C4 = 0 1 1 1 2 7 5:
0 0 0 1 1 2
A matriz está escalonada e o sistema correspondente é
x + 3y + 2z + 4v = 6;
y + z + v 2w = 7;
v + w = 2:
Para resolvê-lo, veri…camos que as variáveis dependentes são x; y; v e as var-
iáveis livres são z; w: Como existem duas variáveis livres, o sistema possui
in…nitas soluções. Explicitando as variáveis dependentes segue
x=6 3y 2z 4v;
y=7 z v + 2w;
v=2 w:

Notas de aula do Professor Faleiros


1.8 Método de Gauss 35

Usando substituição reversa, chegamos a

v = 2 w;
y = 7 z (2 w) + 2w = 5 z + 3w;
x = 6 3(5 z + 3w) 2z 4(2 w)
= 17 + z 5w:

Observe que no lado direito só …caram as variáveis livres. A solução geral do


sistema é o conjunto de todas as quinas ordenadas (x; y; z; v; w) de números
reais, onde

x = 17 + z 5w;
y = 5 z + 3w;
v = 2 w;

sendo que z e w podem assumir qualquer valor real.

Exemplo. Usando o método de Gauss para resolver o sistema nas variáveis


x1 ; x2 ; x3 ; x4 cuja matriz completa é
2 3
1 1 3 1 7
4 2 1 6 3 9 5
2 0 6 4 2
chegamos à matriz escalonada
2 3
1 1 3 1 7
4 0 1 0 1 5 5
0 0 0 0 2
Como a última linha corresponde à equação degenerada inconsistente

0x1 + 0x2 + 0x3 + 0x4 = 2;

o sistema não possui solução.

Exemplo. Vamos usar o método de Gauss para determinar os valores das


constantes a; b; c que tornam consistente o sistema linear

x + 2z = a;
2x + y + 5x = b;
x y + z = c:

Notas de aula do Professor Faleiros


36 Sistemas de equações lineares

Escalonando a matriz completa do sistema


2 3
1 0 2 a
4 2 1 5 b 5
1 1 1 c

obtemos 2 3
1 0 2 a
4 0 1 1 b 2a 5
0 0 0 b + c 3a
O sistema será consistente se, e só se, b + c 3a = 0 ou c = 3a b: Esta é a
condição que deve prevalecer entre a; b e c para o sistema ser consistente. Em
particular, quando a = 1; b = 0 e c = 3; o sistema é compatível e sua solução
geral é o conjunto de todos os ternos ordenados (x; y; z) de números reais de
modo que

x=1 2z
y=2 z

onde z é a variável livre e pode assumir qualquer valor real.

Exemplo. Ao escalonar o sistema de equações algébricas lineares cuja


matriz completa é 2 3
1 2 1 a
4 1 3 0 b 5
2 4 1 c
obtemos 2 3
1 2 1 a
4 0 1 1 b a 5:
0 0 1 2a + c
Como nenhuma linha corresponde a uma equação degenerada, o sistema tem
solução. As incógnitas líderes são x; y e z: Não havendo variável livre, o sistema
possui uma única solução para cada escolha de a; b; c: A solução em função
das constantes a; b e c é

x = 3a 2b 3c;
y = a + b + c;
z = 2a + c:

Notas de aula do Professor Faleiros


1.9 Exercícios 37

1.9 Exercícios
Exercício 1.2 Utilize o método de Gauss para obter a solução geral do sistema
de equações algébricas lineares cujas matrizes completas são
2 3 2 3 2 3
1 2 0 3 1 2 0 3 1 2 0 3
4 2 5 2 0 5 4 2 5 2 0 5 4 2 5 2 0 5
1 3 1 2 1 3 2 1 1 3 2 3
2 3
1 2 3 7
4 2 1 4 8 5:
1 4 1 9

1.10 O método de Gauss-Jordan


O método de Gauss-Jordan consiste na realização de operações elementares
sobre a matriz completa do sistema até obter sua forma escalonada reduzida.
Depois de escalonar a matriz completa do sistema linear usando o método
de Gauss, pode-se continuar o processo até transformá-la numa matriz escalon-
ada reduzida. Em cada linha use a operação elementar cLr ! Lr para tornar
o pivô unitário. Em seguida, utilize a operação elementar Ls + cr Lr ! Ls
para zerar as entradas que …cam acima e nas colunas dos pivôs. Começe an-
ulando as entradas que estão na coluna e acima do pivô da linha de baixo.
Vá repetindo esse procedimento nas linhas de cima, subindo uma a uma, até
obter uma matriz escalonada reduzida. Quando se chega à matriz escalonada
reduzida, basta explicitar as variáveis dependentes para obter a solução geral
do sistema linear correspondente.
O método de Gauss e o de Gauss-Jordan exigem o mesmo esforço computa-
cional para resolver um sistema de equações algébricas lineares. Desta forma,
a escolha de um ou outro método …ca por conta do gosto de cada um.
Exemplo. Considere o sistema linear cuja matriz completa na forma
escalonada é 2 3
1 3 2 1 0 1
4 0 0 1 2 1 0 5:
0 0 0 1 1 2
Vamos aplicar operações elementares para zerar as entradas na coluna e acima
do pivô da terceira linha, realizando as operações elementares L2 + 2L3 ! L2
e L1 L3 ! L1 que nos fornece a matriz
2 3
1 3 2 0 1 1
4 0 0 1 0 3 4 5:
0 0 0 1 1 2

Notas de aula do Professor Faleiros


38 Sistemas de equações lineares

Para anular a entrada acima do privô da segunda linha basta efetuar a operação
elementar L1 + 2 L2 ! L1 quando se chega na matriz escalonada reduzida
2 3
1 3 0 0 5 7
4 0 0 1 0 3 4 5:
0 0 0 1 1 2

Esta matriz corresponde ao sistema

x + 3y + 0z + 0v + 5w = 7
z + 0v + 3w = 4
v+w =2

cuja solução geral é obtida explicitando as variáveis líderes

x=7 3y 5w
z=4 3w
v=2 w

As variáveis y e w são livres e podem assumir qualquer valor real.


Desejando tratar as variáveis de um modo simétrico, podemos introduzir os
parâmetros r = y e s = w para escrever a solução geral na forma paramétrica

x=7 3r 5s
y=r
z=4 3s
v=2 s
w=s

onde r e s podem assumir qualquer valor real. A cada escolha de valores para
r e s obtemos uma solução do sistema.

1.11 Operações matriciais


As matrizes são úteis no tratamento de sistemas lineares, uma vez que fornecem
um modo compacto de apresentá-los e facilita o cálculo de suas soluções. Va-
mos de…nir algumas operações matriciais que irão ampliar o papel que as ma-
trizes desempenham no estudo e resolução de sistemas.

Notas de aula do Professor Faleiros


1.11 Operações matriciais 39

Multiplicação de uma matriz por um número real


Seja
A = [aij ]
uma matriz m n e c um número real. A multiplicação do número real c por
A é a operação que resulta na matriz

cA = [caij ] ;

de tamanho m n; chamada de múltiplo de A por c: Observe que a entrada


da linha i coluna j de cA é igual a c vezes a entrada da linha i coluna j de A:
Exemplo. Apresentamos alguns exemplos de multiplicação de uma matriz
por um número real

1 2 2 4 4 8
2 = ; 3 1 2 = 3 6 ; 2 = :
4 3 8 6 3 6

Adição de matrizes
Sejam
A = [aij ] e B = [bij ]
duas matrizes m n: A adição de A com B é a operação que resulta na matriz

A + B = [cij ];

de tamanho m n; onde
cij = aij + bij
para i = 1; : : : ; m e j = 1; : : : ; n: A matriz A + B é denominada de soma de
A com B: Duas matrizes de mesmo tamanho são conformes para a adição,
isto é, podem ser adicionadas uma à outra.
Exemplo. Vamos adicionar duas matrizes para exempli…car a de…nição

1 2 3 10 20 30 11 22 33
+ = :
4 5 6 40 50 60 44 55 66

Notas de aula do Professor Faleiros


40 Sistemas de equações lineares

Propriedades da adição e da multiplicação por um número real


Relembramos que matriz nula ou matriz zero
2 3
0 0
6 .. . . .. 7
0=4 . . . 5
0 0
é aquela onde todas as entradas são zeros. Ela pode possuir m linhas e n
colunas, ser quadrada ou não. Independentemente de seu tamanho, vamos
indicá-la sempre pelo mesmo símbolo 0: Se for desejável explicitar seu tamanho,
pode-se escrever 0m n :
Adicionando uma matriz A com a matriz nula de mesmo tamanho, obtemos
a matriz A
A + 0 = 0 + A = A:
Por este motivo, a matriz nula é chamada de elemento neutro da adição. A
matriz ( 1)A é denotada por A: Se a entrada da linha i coluna j da matriz
A for aij ; a entrada da linha i coluna j da matriz A é igual a aij de modo
que
A + A = A + ( A) = 0:
A matriz A é denominada oposta de A: De…nimos a diferença entre A e B
por
A B = A + ( B):
Sendo A; B e C matrizes de mesmo tamanho, x e y números reais, valem
as propriedades:
1. A adição de matrizes é comutativa:
A + B = B + A:

2. A adição de matrizes é associativa:


A + (B + C) = (A + B) + C:

3. A multiplicação de uma matriz por números reais é associativa:


(xy)A = x(yA):

4. A multiplicação de uma matriz por um número real é distributiva em


relação à adição:
x(A + B) = xA + xB;
(x + y)A = xA + yA:

Notas de aula do Professor Faleiros


1.12 Multiplicação de matrizes 41

1.12 Multiplicação de matrizes


De…nição 1.3 Seja A = [aik ] uma matriz m p cuja entrada da linha i coluna
k é aik : Seja B = [bkj ] uma matriz p n cuja entrada da linha k coluna j é
bkj : Observe que o número de colunas de A é igual ao número de linhas de B:
A matriz A possui p colunas e a matriz B possui p linhas.
A multiplicação da matriz A pela matriz B é a operação que leva A e B
na matriz AB = [cij ] de tamanho m n; onde
p
X
cij = ai1 b1j + ai2 b2j + + aip bpj = aik bkj
k=1

para i = 1; : : : ; m e j = 1; : : : ; n: A matriz AB é denominada de produto de


A por B:

Para obter a entrada cij da linha i coluna j de AB; destaque a linha i de


A e a coluna j de B: Efetue as multiplicações

ai1 b1j ; ai2 b2j ; ::: ; aip bpj :

A primeira entrada da linha i de A é multiplicada pela primeira entrada da


coluna j de B; a segunda entrada da linha i de A é multiplicada pela segunda
entrada da coluna j de B; e assim por diante. Adicione os produtos

ai1 b1j + ai2 b2j + + aip bpj

para obter cij ; que é o elemento da linha i coluna j de AB:


Vale a pena destacar que, para efetuar o produto AB; o número de colunas
de A deve ser igual ao número de linhas de B: Quando este for o caso, se diz
que A e B são, nesta ordem, conformes para a multiplicação.
Exemplo. Vamos calcular o produto AB das matrizes
2 3
2 0
1 0 2
A= e B=4 1 2 5
3 2 1
0 3

Denotando por cij a entrada da linha i coluna j do produto AB; temos

c11 = a11 b11 + a12 b21 + a13 b31 =1 2+0 1+2 0=2
c12 = a11 b12 + a12 b22 + a13 b32 =1 0+0 2+2 3=6
c21 = a21 b11 + a22 b21 + a23 b31 =3 2+2 1+1 0=8
c22 = a21 b12 + a22 b22 + a23 b32 =3 0+2 2+1 3=7

Notas de aula do Professor Faleiros


42 Sistemas de equações lineares

e assim obtemos o produto

2 6
AB = :
8 7

Para mostrar que o produto de matrizes não é comutativo calculamos


2 3
2 0 4
BA = 74 4 4 5
9 6 3

que é diferente de AB:

Exemplo. Sendo

3 1 1 4 2
A= e B=
0 2 2 0 1

podemos efetuar o produto AB mas não podemos efetuar o produto BA uma


vez que o número de colunas de B é diferente do número de linhas de A: O
produto AB é igual a
5 12 7
AB =
4 0 2

Exemplo. Sendo

1
X= e Y = 3 4
2

então
3 4
XY = e Y X = [11] :
6 8

Este exemplo mostra que quando X é um vetor coluna com m linhas e Y é


um vetor linha com n colunas, a matriz produto XY possui tamanho m n:
Quando X é um vetor coluna com m linhas e Y um vetor lina com m colunas,
o produto Y X é uma matriz 1 1:
Quando o tamanho de A for m n e o tamanho de B for n m; pode-se
calcular tanto AB quanto BA: Quando m for diferente de n; AB e BA pos-
suem tamanhos diferentes e não são iguais. Quando m = n; as matrízes A e

Notas de aula do Professor Faleiros


1.12 Multiplicação de matrizes 43

B são quadradas e, tanto AB quanto BA possuem o mesmo tamanho e são


quadradas. Mesmo neste caso, nem sempre, AB é igual a BA pois a multi-
plicação de matrizes não é uma operação comutativa. Em casos excepcionais,
quando AB = BA; se diz que as matrizes comutam.
Exemplo. A multiplicação não é uma operação comutativa mesmo quando
as matrizes são quadradas. Observe, tome as matrizes

1 2 1 0
A= e B= :
3 1 3 2

Os produtos AB e BA são diferentes:

7 4 1 2
AB = e BA =
6 2 9 8

Neste momento destacamos a matriz identidade n n que é a matriz


quadrada 2 3
1 0 0
6 0 1 0 7
6 7
I = 6 .. .. . . .. 7
4 . . . . 5
0 0 1
na qual todas as entradas da diagonal são iguais a 1 e as demais entradas
são iguais a zero. Quando for interessante destacar o tamanho da matriz
identidade, podemos indicar este fato escrevendo In : Sendo A uma matriz
m n e B uma matriz n p; então

AI=A e I B=B

onde I é a matriz identidade n n: Quando A for uma matriz quadrada n n;


então
A I = I A = A:
A matriz identidade é o elemento neutro da operação de multiplicação de
matrizes quadradas. Das igualdades acima, nota-se que a matriz identidade I
de tamanho n n comuta com qualquer matriz quadrada n n:
Exemplo. As matrizes

1 2 7 4
A= e B=
3 1 6 7

Notas de aula do Professor Faleiros


44 Sistemas de equações lineares

comutam pois
19 18
AB = BA = :
27 19
O leitor pode veri…car que B = A2 : Aliás, sendo r e s números inteiros não
negativos,
Ar As = As Ar :
Quando A for inversível, a igualdade também vale quando r e s forem números
inteiros quaisquer, podendo ser positivo, nulo ou negativo. As potências in-
teiras de uma matriz comutam.

Propriedades da multiplicação de matrizes


Em cada uma das propriedades abaixo, x é um número real. As matrizes A e
B e as matrizes B e C são conformes para a multiplicação. As matrizes A; A1
e A2 possuem o mesmo tamanho, sendo conformes para a adição. As matrizes
B; B1 e B2 possuem o mesmo tamanho e também são conformes para a adição.

1. A multiplicação de matrizes é associativa: A(BC) = (AB)C:


2. A multiplicação de matrizes é distributiva em relação à adição de ma-
trizes:

A(B1 + B2 ) = AB1 + AB2 ;


(A1 + A2 )B = A1 B + A2 B:

3. A multiplicação de matrizes é associativa em relação à multiplicação por


um número real:
x(AB) = (xA)B = A(xB):

Nota 1.4 Para a multiplicação de matrizes não vale a lei do cancelamento:


1. a igualdade AD = BD não implica em A = B; mesmo quando D é
diferente de zero.
2. a igualdade DA = DB não implica em A = B; mesmo quando D for
diferente de zero.
Veremos adiante que, quando D for uma matriz inversível, a lei do cance-
lamento é válida.

Exemplo. Considere as matrizes


1 3 5 3 0 0
A= ; B= e D= ;
2 4 6 4 1 2

Notas de aula do Professor Faleiros


1.13 Forma matricial de um sistema linear 45

para as quais vale a igualdade AD = BD enquanto A é diferente de B; mesmo


sendo D diferente de zero.

Nota 1.5 O produto de matrizes poder ser nulo mesmo quando todos os fa-
tores são diferentes de zero. Em outras palavras, sendo A e B duas matrizes
conformes para o produto, a igualdade AB = 0 não implica em A = 0 ou B =
0:

Exemplo. As matrizes
0 1 3 4
A= e B=
0 2 0 0
são diferentes da matriz nula ao passo que AB = 0:

1.13 Forma matricial de um sistema linear


As m igualdades existentes no sistema de equações algébricas lineares

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xn = bm

nas incógnitas x1 ; : : : ; xn podem ser substituídas por uma única igualdade


matricial 2 3 2 3
a11 x1 + a12 x2 + + a1n xn b1
6 a21 x1 + a22 x2 + + a2n xn 7 6 7
6 7 6 b2 7
6 .. 7 = 6 .. 7
4 . 5 4 . 5
am1 x1 + am2 x2 + + amn xx bm
ou, usando a de…nição de multiplicação de matrizes,
2 32 3 2 3
a11 a12 a1n x1 b1
6 a21 a22 a2n 7 6 7 6 7
6 7 6 x2 7 6 b2 7
6 .. .. ... .. 7 6 .. 7 = 6 .. 7:
4 . . . 54 . 5 4 . 5
am1 am2 amn xn bm

Usando matrizes, o sistema todo …ca reduzido a uma única equação matricial
linear

Notas de aula do Professor Faleiros


46 Sistemas de equações lineares

AX = B
onde
2 3 2 3 2 3
a11 a12 a1n b1 x1
6 a21 a22 a2n 7 6 b2 7 6 x2 7
6 7 6 7 6 7
A=6 .. .. ... .. 7; B=6 .. 7 e X=6 .. 7
4 . . . 5 4 . 5 4 . 5
am1 am2 amn bm xn

são, respectivamente, a matriz dos coe…cientes do sistema, a matriz das


constantes do sistema e a matriz das incógnitas do sistema. Numa equação
matricial, as matrizes A e B são dadas e X é a matriz que se deseja calcular
para tornar verdadeira a igualdade. Observe a concisão da notação matricial.
Todas as equações do sistema algébrico se reduziram a uma única equação
matricial AX = B: Resolver o sistema de equação algébrica linear ou a equação
matricial dela resultante são problemas equivalentes.

De…nição 1.6 Seja A uma matriz m n; B uma matriz m 1 e s1 ; : : : s n


números reais. A matriz coluna
2 3
s1
6 7
S = 4 ... 5
sn

é solução da equação matricial

AX = B

quando
AS = B:
Pode-se escrever também que X = S é solução de AX = B:
O conjunto de todas as soluções da equação matricial AX = B é chamado
de solução geral da equação matricial. Uma equação matricial linear é com-
patível ou consistente quando possuir pelo menos uma solução. Como uma
equação matricial linear corresponde a um sistema de equações algébricas lin-
eares, as técnicas utilizadas para resolver um se aplicam para resolver o outro.

Toda solução X = S da equação matricial AX = B fornece uma solução

x1 = s1 ; x2 = s2 ; : : : ; xn = sn

do sistema algébrico inicial e vice-versa. Tanto faz resolver o sistema de


equações quanto a equação matricial obtida a partir do sistema.

Notas de aula do Professor Faleiros


1.13 Forma matricial de um sistema linear 47

Exemplo. A matriz
2
1
é solução da equação matricial linear

1 3 x 5
=
2 0 y 4

pois
1 3 2 5
= :
2 0 1 4
Também é lícito escrever que

x 2
=
y 1

é solução da equação matricial. Esta notação evidencia os valores que devem


ser atribuídos a x e a y:

Exemplo. Escalonando a equação matricial

1 3 x 4
=
2 6 y 8

obtemos a equação equivalente

1 3 x 4
=
0 0 y 0

e concluímos que sua solução geral é

x
:y2R e x=4 3y :
y

A equação matricial dada possui in…nitas soluções. Para cada valor atribuído
a y; calculamos um valor de x usando a relação x = 4 3y: Fazendo y = 0 e
depois y = 1; obtemos duas soluções

4 1
; :
0 1

Notas de aula do Professor Faleiros


48 Sistemas de equações lineares

1.14 Matriz inversa


Quando olhamos para a equação matricial AX = B; onde A e B são matrizes
dadas e X é a matriz das incógnitas, …camos tentados a escrever que sua
solução é dada por X = A 1 B; onde A 1 seria, recorrendo à analogia com
as equações lineares ax = b envolvendo números reais, a inversa da matriz A:
Vamos mostrar que, sob certas condições, esta analogia faz sentido.

De…nição 1.7 Uma matriz quadrada A de ordem n é inversível quando hou-


ver uma matriz quadrada B de ordem n tal que

AB = BA = I;

onde I é a matriz identidade n n: A matriz B é chamada de inversa de A:


Uma matriz quadrada não inversível é denominada singular.

Façamos algumas observações:

1. Pela de…nição veri…camos que, se B for a inversa de uma matriz A; então


A é a inversa de B: Logo, a inversa de uma matriz inversível também é
inversível.

2. Uma matriz e sua inversa comutam.

3. Se D for inversível, vale a lei do cancelamento, isto é, se AD = BD;


então A = B: Ainda vale a lei do cancelamento quando D estiver mul-
tiplicando A e B pela esquerda. A prova é simples. Se D for inversível,
seja F a sua inversa. Sendo AD = BD; então

A = AI = A(DF ) = (AD)F = (BD)F = B(DF ) = BI = B:

Provamos que A = B: No desenvolvimento acima, I é a matriz identidade.

4. Toda matriz quadrada A com uma linha nula é singular. De fato, para
toda matriz B com o mesmo tamanho que A; a mesma linha nula em A
será nula no produto AB: Logo, não existe matriz quadrada B para a
qual AB = I e a matriz A não possui inversa.

5. Toda matriz quadrada A com uma coluna nula é singular. De fato,


para toda matriz B com o mesmo tamanho que A; a mesma coluna nula
em A será nula no produto BA: Logo, não existe matriz quadrada B
para a qual BA = I e a matriz A não possui inversa.

Notas de aula do Professor Faleiros


1.14 Matriz inversa 49

Exemplo. Dadas as matrizes

3 2 5 2
B= e A=
7 5 7 3

veri…ca-se que
AB = BA = I;
mostrando que B é a inversa de A e A é a inversa de B:

Exemplo. Considere as matrizes

3 5 2 5
A= e B= :
1 2 1 3

Os produtos AB e BA são ambos iguais à matriz identidade, mostrando que


A é a inversa de B e B é a inversa de A:

Toda matriz diagonal A cujos elementos diagonais aii são todos diferentes
de zero é inversível. Sua inversa é uma matriz diagonal cujo elemento diagonal
da linha i coluna i é igual a aii 1 :
Exemplo. A inversa da matriz diagonal

2 0 1=2 0
é :
0 3 0 1=3

a11 a12
Exemplo. Se a11 a22 a12 a21 6= 0; a matriz A = é inversível
a21 a22
e sua inversa é
1 a22 a12
B= :
a11 a22 a12 a21 a21 a11

Se todos os elementos da diagonal principal de uma matriz triangular forem


diferentes de zero, ela possui inversa. Nestes casos, a inversa de uma matriz
triangular superior é uma matriz triangular inferior e a inversa de uma matriz
triangular inferior é uma matriz triangular superior.

Teorema 1.8 A inversa de uma matriz, quando existe, é única.

Notas de aula do Professor Faleiros


50 Sistemas de equações lineares

Prova. De fato, se B e C forem as inversas de A; AB = BA = I e AC =


CA = I; onde I é a matriz identidade. Usando a de…nição de inversa, temos
B = IB = (CA)B = C(AB) = CI = C;
mostrando a unicidade da inversa.

Sendo única a inversa de uma matriz A; vamos denotá-la por A 1 : Como a


inversa de uma matriz é inversível, A 1 é inversível e a sua inversa é A: Feita
esta observação, podemos escrever
1 1
A = A:

Propriedades da matriz inversa


Sejam A; B e C matrizes quadradas de mesmo tamanho. Alertamos que aqui,
B não é a inversa de A; que agora é denotada por A 1 :
1. Quando a matriz A for inversível e x for um número real não nulo, a
matriz xA é inversível e
1
(xA) = x 1A 1:

2. Quando A e B forem inversíveis, a matriz AB é inversível e


1
(AB) = B 1A 1:
O leitor deve estar atento para a ordem dos fatores na inversa da matriz
AB; uma vez que a multiplicação de matrizes não é comutativa.
3. A matriz ABC é inversível e
1 1
(ABC) =C B 1A 1

onde pedimos a atenção do leitor para a ordem dos fatores no produto à


direita.
4. Se todas as matrizes A1 ; A2 ; : : : ; An forem inversíveis e do mesmo
tamanho, então o produto A1 A2 An é inversível e
1
(A1 A2 An ) = An 1 A2 1 A1 1
onde pedimos uma vez mais a atenção do leitor para a ordem dos fatores
no produto.
Escrevemos diversas vezes a inversa do produto e pedimos a atenção para
a ordem dos fatores pois, como estamos acostumados com a comutatividade
da multiplicação de números reais, podemos nos esquecer que a multiplicação
de matrizes não é comutativa.

Notas de aula do Professor Faleiros


1.15 Matriz elementar 51

1.15 Matriz elementar


Algumas matrizes especiais, denominadas elementares, desempenham um pa-
pel importante no desenvolvimento da teoria das matrizes e no cálculo da
inversa.

De…nição 1.9 Uma matriz quadrada é elementar quando for obtida a partir
da matriz identidade mediante uma única operação elementar.

As matrizes abaixo são elementares


2 3
1 0 0 0 2 3 2 3
6 1 0 4 1 0 0
1 0 6 0 0 0 1 77 4 0 1 0 5 4 0 1 0 5
0 8 4 0 0 1 0 5
0 0 1 0 0 1
0 1 0 0

A primeira foi obtida realizando na matriz identidade 2 2 a operação ele-


mentar 8L2 ! L2 : A segunda foi obtida realizando na matriz identidade
4 4 a operação elementar L2 $ L4 : A terceira foi obtida realizando na ma-
triz identidade 3 3 a operação elementar L1 + 4L3 ! L1 : A última matriz
é a identidade 3 3 que também é elementar. Podemos obter a identidade
realizando na identidade a operação elementar cL1 ! L1 ; com c = 1:
Considere a matriz 2 3
1 1 1 1
A=4 2 2 2 2 5
3 3 3 3
que é de fácil visualização. Observe os produtos abaixo, E1 A; E2 A e E3 A;
onde E1 ; E2 e E3 são matrizes elementares
2 32 3 2 3
0 1 0 1 1 1 1 2 2 2 2
4
E1 A = 1 0 0 5 4 5
2 2 2 2 = 1 1 4 1 1 5
0 0 1 3 3 3 3 3 3 3 3
2 32 3 2 3
6 0 0 1 1 1 1 6 6 6 6
E2 A = 4 0 1 0 5 4 2 2 2 2 5 4
= 2 2 2 2 5
0 0 1 3 3 3 3 3 3 3 3
2 32 3 2 3
1 0 0 1 1 1 1 1 1 1 1
E3 A = 4 0 1 0 5 4 2 2 2 2 5 = 4 2 2 2 2 5
4 0 1 3 3 3 3 7 7 7 7

Em cada um dos produtos, a matriz Ei A; i = 1; 2; 3; pode ser obtida realizando


em A a mesma operação elementar realizada sobre a matriz identidade para
obter Ei :

Notas de aula do Professor Faleiros


52 Sistemas de equações lineares

Interessante: Executar uma operação elementar em uma matriz A é equiv-


alente a multiplicá-la à esquerda por uma matriz elementar. Vamos enunciar
este fato como um teorema para destacar o resultado.

Teorema 1.10 Seja E uma matriz elementar m m e A uma matriz m n: A


matriz produto EA é igual à matriz obtida quando se realiza sobre A a mesma
operação elementar efetuada sobre a matriz identidade I para obter E:

As matrizes elementares são inversíveis como mostra o próximo exemplo.


Exemplo. As matrizes abaixo são elementares. As que estão lado a lado,
uma é a inversa da outra:
2 3 2 3
0 1 0 0 1 0
A=4 1 0 0 5 A 1=4 1 0 0 5
0 0 1 0 0 1
2 3 2 3
1 0 0 1 0 0
B=4 0 5 0 5 B 1 = 4 0 1=5 0 5
0 0 1 0 0 1
2 3 2 3
1 0 0 1 0 0
C=4 0 1 0 5 C 1=4 0 1 0 5
7 0 1 7 0 1
A matriz A é obtida realizando a operação L1 $ L2 na matriz identidade
e sua inversa A 1 é a própria matriz A: A matriz B foi obtida multiplicando
a segunda linha da matriz identidade por c = 5 e sua inversa B 1 foi obtida
multiplicando a segunda linha da matriz identidade por c 1 = 1=5: A matriz
C é obtida realizando na matriz identidade a operação elementar L3 + 7L1
! L3 e sua inversa C 1 é obtida realizando na matriz identidade a operação
elementar L3 7L1 ! L3 :

O exemplo mostra que a inversa de uma matriz elementar é elementar. Se


a matriz elementar E foi obtida realizando a operação elementar Lr $ Ls na
matriz identidade, sua inversa E 1 é ela mesma. Se a matriz elementar E foi
obtida realizando a operação elementar cLi ! Li na matriz identidade, onde
c é um número real não nulo, sua inversa E 1 é a matriz elementar obtida
realizando na matriz identidade a operação elementar c 1 Li ! Li : Se a matriz
elementar E foi obtida realizando a operação elementar Lr + cLi ! Lr ; na
matriz identidade, onde c é um número real qualquer, sua inversa E 1 é a
matriz elementar obtida realizando na matriz identidade a operação elementar
Lr cLi ! Lr : Daí podemos enunciar

Notas de aula do Professor Faleiros


1.15 Matriz elementar 53

Teorema 1.11 As matrizes elementares são inversíveis e sua inversa é uma


matriz elementar.

No processo desenvolvido anteriormente para obter a forma escalonada re-


duzida de uma matriz A; aplicamos a ela uma sequência de operações ele-
mentares, que correspondem a sucessivas multiplicações da matriz A por ma-
trizes elementares E1 ; E2 ; : : : ; Ek ; até chegar à forma escalonada reduzida R;
isto é,
R = Ek E2 E1 A:
Como as matrizes elementares são inversíveis,

A = E1 1 E2 1 Ek 1 R:

Em consequência dessas igualdades, se A for inversível, R também o é, por ser


o produto de matrizes inversíveis. Se R for inversível, A também o é, por ser
o produto de matrizes inversíveis. Deste modo, as matrizes A e R são ambas
inversíveis ou ambas singulares.
Exemplo. Exemplos de matrizes quadradas 3 3 escalonadas reduzidas
2 3 2 3 2 3
1 0 0 1 8 0 1 5 6
4 0 1 0 5; 4 0 0 1 5; 4 0 0 0 5
0 0 1 0 0 0 0 0 0
2 3 2 3 2 3
0 1 0 0 1 4 0 0 1
4 0 0 1 5; 4 0 0 0 5; 4 0 0 0 5
0 0 0 0 0 0 0 0 0
O único tipo de matriz quadrada 3 3 escalonada reduzida não representada
acima é a matriz nula. A primeira é a matriz identidade. Ela é a única
inversível. Todas as demais possuem pelo menos uma linha nula e, portanto,
são singulares.

Quando A é uma matriz quadrada, sua forma escalonada reduzida R tam-


bém é quadrada. Existem duas possibilidades para uma matriz quadrada
escalonada reduzida R : ou ela é a matriz identidade ou é singular pois possui
pelo menos uma linha nula. Se A for inversível, então R é inversível e, por-
tanto, só pode ser a matriz identidade. Se A for singular, então R é singular e,
portanto, pelo menos sua última linha é nula. Provamos o seguinte teorema:

Teorema 1.12 1. Uma matriz quadrada é inversível se, e só se, sua forma
escalonada reduzida é a matriz identidade.
2. Uma matriz quadrada é singular se, e só se, pelo menos a última linha
de sua forma escalonada reduzida é nula.

Notas de aula do Professor Faleiros


54 Sistemas de equações lineares

Vamos mostrar como estes resultados podem ser usados no cálculo da ma-
triz inversa.

1.16 Um método para inverter matrizes


Até agora não desenvolvemos um processo sistemático para obter a inversa de
uma matriz e este procedimento será desenvolvido agora.
Para obter a forma escalonada reduzida de uma matriz aplica-se a ela uma
sucessão de operações elementares. Quando a matriz for quadrada, sua forma
escalonada reduzida é a matriz identidade I ou é uma matriz cuja última linha
é nula. No primeiro caso, a matriz é inversível e, no segundo caso, singular.
Se A é inversível, sua forma escalonada reduzida é a matriz identidade.
Isto signi…ca que existem matrizes elementares Ek ; : : : ; E1 tais que
Ek E1 A = I:
1
Multiplicando os dois membros desta igualdade à direita por A obtemos
Ek E1 I = A 1 :
Perceba que, realizando sobre I as mesmas operações elementares que levam
A na matriz identidade, chega-se à inversa de A: Tal observação sugere um
dispositivo prático para determinar a inversa de uma matriz. Coloque a matriz
identidade à direita de A obtendo a matriz ampliada [A j I] e note que E[A j I]
= [EA j EI] para toda matriz E conforme para o produto com A: Efetue uma
sequência de operações elementares sobre esta matriz ampliada até transformar
a matriz A na matriz identidade I
Ek E1 [A j I] = [Ek E1 A j Ek E1 I] = [I j B]
No momento em que a matriz original A se transformou na identidade e a
matriz identidade se transformou na matriz B; esta é, exatamente, a inversa
de A:
Se a matriz A não for inversível, sua forma escalonada reduzida conterá uma
linha nula. Se, em algum momento do processo de escalonamento da matriz
ampliada [A j I] uma linha da matriz à esquerda se anular, pode encerrá-lo,
a…rmando que A não possui inversa. A partir do ponto em que uma linha da
matriz à esquerda se anula, não há como continuar o processo de escalonamento
até obter a matriz identidade no lugar de A:
Exemplo. Vamos calcular a inversa da matriz
2 3
1 2 3
A=4 2 5 3 5
1 0 8

Notas de aula do Professor Faleiros


1.16 Um método para inverter matrizes 55

usando este processo. Construímos a matriz ampliada [A j I] e realizamos op-


erações elementares sobre ela, até transformar A em I: Quando isto acontecer,
a matriz I terá se transformado em A 1 : Iniciamos com a matriz ampliada
2 3
1 2 3 1 0 0
4 2 5 3 0 1 0 5;
1 0 8 0 0 1

e realizamos sobre ela duas operações elementares L2 2L1 ! L2 e L3 L1


! L3 2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5
0 2 5 1 0 1
continuando o processo com a operação elementar L3 + 2L1 ! L3
2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5:
0 0 1 5 2 1

Multiplicando a terceira linha por 1


2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5
0 0 1 5 2 1

realizamos duas operações elementares, L2 + 3L3 ! L2 e L1 3L3 ! L1


2 3
1 2 0 14 6 3
4 0 1 0 13 5 3 5:
0 0 1 5 2 1

Com a operação elementar L1 2L2 ! L1 ; a matriz do lado esquerdo se torna


a identidade 2 3
1 0 0 40 16 9
4 0 1 0 13 5 3 5:
0 0 1 5 2 1
Tendo reduzido A à matriz identidade, sua inversa é a matriz 3 3 à direita
2 3
40 16 9
A 1 = 4 13 5 3 5:
5 2 1

Notas de aula do Professor Faleiros


56 Sistemas de equações lineares

Exemplo. Vamos veri…car que a matriz


2 3
1 2 1
A=4 1 0 2 5
2 6 1
não é inversível. A matriz ampliada [ A jI ]é
2 3
1 2 1 1 0 0
4 1 0 2 0 1 0 5
2 6 1 0 0 1
Efetuando sobre ela as operações elementares L2 L1 ! L2 e L3 2L1 !
L3 chega-se a 2 3
1 2 1 1 0 0
4 0 2 1 1 1 0 5
0 2 1 2 0 1
e, adicionando a segunda linha à terceira, segue
2 3
1 2 1 1 0 0
4 0 2 1 1 1 0 5
0 0 0 3 1 1
Observe que as entradas da terceira linha da matriz à esquerda é nula. Não
há como continuar o escalonamento e chegar à matriz identidade na parte
esquerda da matriz ampliada. Logo, A é singular.

1.17 Sistemas equivalentes e matrizes elementares


Sejam A e B matrizes m n: As matrizes A e B são equivalentes se for possível
levar A em B mediante a aplicação sucessiva de operações elementares em A:
Isto implica na existência de matrizes elementares E1 ; : : : ; Ek tais que
B = Ek E1 A:
Como as matrizes elementares são inversíveis e suas inversas são elementares
A = E1 1 Ek 1 B
é possível levar B em A aplicando em B uma sequência de operações ele-
mentares. Assim, sendo A e B equivalentes é possível levar uma na outra,
mediante uma sequência de operações elementares.
Se C e D forem matrizes coluna m 1; diremos que as equações AX =
C e BX = D são equivalentes quando as matrizes completas [AjC] e [BjD]
forem equivalentes. Sendo este o caso, a forma escalonada reduzida das duas
matrizes completas são iguais e os sistemas possuem a mesma solução geral.

Notas de aula do Professor Faleiros


1.18 Equação matricial linear homogênea 57

Resolução simultânea de diversos sistemas


Quando for preciso resolver diversos sistemas lineares AX = B1 ; : : : ; AX = Bk
cuja matriz dos coe…cientes A é a mesma em todos eles, podemos aplicar o
método de Gauss ou Gauss-Jordan à matriz completa ampliada [A j B1 j j Bk ] ;
onde acrescentamos B1 ; : : : ; Bk à direita de A e escalonando a matriz completa
ampliada de uma só vez.

Exercício 1.13 Use o método de Gauss-Jordan para resolver simultaneamente


os sistemas
8 8
< x + 3y + 2z = 5 < x + 3y + 2z = 3
y+z =6 y+z =1
: :
z=2 z=4

1.18 Equação matricial linear homogênea


Seja A uma matriz m n não nula e 0 a matriz coluna nula m 1: A equação

AX = 0

é denominada de equação matricial linear homogênea na matriz incóg-


nita X; cujo tamanho é n 1: Ela sempre admite a solução X = 0 (este 0 é a
matriz coluna nula n 1) denominada solução trivial. A equação homogênea
pode ter outras soluções além da trivial.
Exemplo. Resolvendo a equação homogênea

1 1 x 0
=
2 6 y 0

usando o método de Gauss, chegamos a

1 1 x 0
=
0 8 y 0

e concluímos que ele possui apenas a solução trivial

x 0
=
y 0

Notas de aula do Professor Faleiros


58 Sistemas de equações lineares

Exemplo. Escalonando a matriz dos coe…cientes do sistema homogêneo


1 2 x 0
=
3 6 y 0
chegamos ao sistema equivalente
1 2 x 0
=
0 0 y 0
e concluímos que ele possui in…nitas soluções. Qualquer solução da primeira
equação x + 2y = 0 é solução da equação matricial homogênea, cuja solução
geral é
2y 2
:y2R = y :y2R :
y 1
2
Aproveitamos para destacar que toda solução é um múltiplo da matriz :
1

A equação homogênea AX = 0 sempre possui a solução trivial X = 0: Pode


ter soluções diferentes da trivial ou não.
Quando X = S for solução não trivial de AX = 0 então X = kS será
solução da equação matricial homogênea para todo número real k:
Se S1 ; : : : ; Sr forem soluções não triviais da equação homogênea AX = 0;
para qualquer escolha dos números reais k1 ; : : : ; kr ; a combinação linear

k1 S1 + + kr Sr

também será solução de AX = 0:

Teorema 1.14 Seja A uma matriz não nula m n e 0 a matriz nula m 1:


Se o número de colunas de A for maior do que o número de linhas, a equação
AX = 0 possuirá in…nitas soluções.

Prova. Quando o número de colunas de A for maior que o número de


linhas, AX = 0 corresponde a um sistema homogêneo de equações algébricas
lineares com mais incógnitas do que equações. No processo de escalonamento
deste sistema homogêneo, sempre restarão variáveis livres e o sistema possuirá
in…nitas soluções.

Mesmo quando o número de colunas de A for menor do que o número de


linhas, o sistema homogêneo AX = 0 pode ter in…nitas soluções. Para que isto
aconteça, o número de colunas da forma escalonada de A deve ser maior do
que o número de linhas não nulas. Logo podemos enunciar o

Notas de aula do Professor Faleiros


1.18 Equação matricial linear homogênea 59

Corolário 1.15 Seja A uma matriz não nula m n e 0 a matriz nula m 1:


Se uma forma escalonada de A possuir mais colunas do que linhas não nulas,
a equação homogênea AX = 0 possui in…nitas soluções.

Exemplo. A forma escalonada reduzida da matriz dos coe…cientes de um


sistema homogêneo nas variáveis x1 ; x2 ; x3 ; x4 e x5 é
2 3
1 1 0 0 1
6 0 0 1 0 1 7
6 7
4 0 0 0 1 0 5
0 0 0 0 0

que possui 5 colunas e 3 linhas não nulas. Logo o sistema possui in…nitas
soluções. De fato, qualquer solução (x1 ; x2 ; x3 ; x4 ; x5 ) deste sistema satisfaz

x1 = x2 x5
x3 = x5
x4 = 0

onde as variáveis x2 e x5 são livres e podem assumir qualquer valor real.

Seja A uma matriz m n e B uma matriz m 1; ambas não nulas. A


equação AX = 0 é denominada equação homogênea associada à equação
AX = B: Há uma relação entre as soluções de ambas que estão enumeradas
no próximos teorema.

Teorema 1.16 Seja A uma matriz m n e B uma matriz coluna m 1 ambas


não nulas. Neste teorema, 0 indicará a matriz nula m 1:

1. Se AX0 = 0 e AX1 = B; então A(X0 + X1 ) = B:

2. Se AX1 = B e AX2 = B então A(X1 X2 ) = 0:

3. Se AX1 = B então toda solução X2 de AX = B será da forma X2 =


X0 + X1 ; onde X0 é solução da equação homogênea AX = 0:

4. Se AX = B tiver solução, ela será única se, e só se, AX = 0 possuir


apenas a solução trivial.

Prova. A prova deste teorema é simples e …cará por conta do leitor.

O primeiro item deste teorema nos informa que a soma de uma solução de
AX = 0 com uma solução de AX = B é solução de AX = B: O segundo item

Notas de aula do Professor Faleiros


60 Sistemas de equações lineares

deste teorema nos garante que, dadas duas soluções de AX = B; a diferença


delas é solução da equação homogênea AX = 0: O terceiro item deste teorema
nos informa que, para determinar a solução geral de AX = B; basta calcular
uma solução X1 de AX = B e a solução geral X0 de AX = 0: Toda solução X2
de AX = B é da forma X2 = X0 + X1 ; para alguma solução X0 da homogênea
AX = 0:

1.19 Matriz inversa e sistema linear


Há uma relação íntima entre a inversibilidade de uma matriz quadrada A e as
soluções da equação matricial homogênea AX = 0:

Teorema 1.17 Seja A uma matriz quadrada n n não nula e 0 a matriz nula
n 1: As a…rmações abaixo são equivalentes.

(1) A matriz A é inversível.


(2) Se AX = 0 para alguma matriz coluna X; então X = 0:
(3) A forma escalonada reduzida de A é a matriz identidade I:
(4) A matriz A pode ser expressa como um produto de matrizes ele-
mentares.
Prova. (1) ) (2): Se A é inversível e AX = 0; então

X = IX = A 1 A X = A 1
(AX) = A 1 0 = 0;

mostrando que a equação homogênea AX = 0 possui apenas a solução trivial.


(2) ) (3) A forma escalonada reduzida R de uma matriz quadrada A é a
matriz identidade ou uma matriz quadrada com pelo menos uma linha nula.
Se R possuir linha nula, a equação RX = 0 será equivalente a um sistema de
equações com mais incógnitas do que equações e apresentaria variáveis livres.
Por esta razão, possuiria soluções não triviais. As soluções não triviais de
RX = 0 são soluções de AX = 0; o que contraria a hipótese. Logo, a forma
escalonada reduzida de A é a matriz identidade.
(3) ) (4) Se a forma escalonada reduzida de A for a matriz identidade I;
então existem matrizes elementares E1 ; : : : ; Ek tais que

Ek E1 A = I

e assim
1
A = (Ek E1 ) I = E1 1 Ek 1 :
Como as inversas de matrizes elementares são elementares, provamos que A é
igual a um produto de matrizes elementares.

Notas de aula do Professor Faleiros


1.19 Matriz inversa e sistema linear 61

(4) ) (1) As matrizes elementares são inversíveis. Um produto de matrizes


inversíveis é inversível. Sendo A um produto de matrizes elementares, ela é
inversível.

Quando de…nimos inversibilidade, dissemos que matriz quadrada A é inver-


sível se existir uma matriz quadrada B para a qual AB = I e BA = I: Agora
vamos provar que basta AB = I para que tanto A quanto B serem inversíveis
e uma ser a inversa da outra.
Corolário 1.18 Sejam A e B duas matrizes quadradas de mesmo tamanho e
tais que AB = I: Então A e B são inversíveis, com A 1 = B e B 1 = A:
1
Prova. Vamos provar que B é inversível e que B = A: Seja X tal que
BX = 0: Como AB = I; segue
X = IX = (AB)X = A(BX) = A0 = 0:
Pelo item (2) do teorema anterior, se conclui que B é inversível. Multiplicando
os dois membros de AB = I pela direita por B 1 segue A = B 1 :
Vamos provar que A é inversível e que A 1 = B: Sabemos que a inversa de
uma matriz é inversível. Sendo A a inversa de B; ela é inversível e sua inversa
é B:

Corolário 1.19 Sejam A e B matrizes quadradas n n: Se A ou B for sin-


gular, então AB é singular.
Prova. (a) Vamos mostrar que AB é singular quando B for singular.
Sendo B singular, existe matriz coluna X diferente de zero tal que BX =
0: Portanto, (AB)X = A(BX) = A0 = 0: Como existe X não nula para a qual
(AB)X = 0; segue pelo item (2) do teorema anterior que AB é singular.
(b) Vamos mostrar que AB é singular quando A for singular. Sendo A
quadrada e singular, pelo menos a última linha de sua forma escalonada re-
duzida R é nula. Sabemos existirem matrizes elementares E1 ; : : : ; Ek tais que
R = Ek E1 A e assim,
RB = Ek E1 AB:
Se AB fosse inversível, o lado direito da igualdade acima seria inversível por
ser um produto de matrizes inversíveis. Entretanto, isto não pode ocorrer,
uma vez que pelo menos a última linha de RB é nula. Logo, AB é singular.

Sabemos que, quando A e B são inversíveis, AB também o é. Agora vamos


provar que se AB for inversível então A e B também o são.

Notas de aula do Professor Faleiros


62 Sistemas de equações lineares

Corolário 1.20 Sejam A e B matrizes quadradas com o mesmo tamanho. Se


AB for inversível, então A e B são inversíveis.

Prova. Se A ou B for singular, o corolário anterior garante que AB é


singular. Sendo AB inversível, as matrizes A e B são inversíveis.

Corolário 1.21 Uma matriz quadrada A de tamanho n n é inversível se, e


só se, para cada matriz coluna B de tamanho n 1; a equação AX = B na
matriz incógnita X tiver uma única solução. Esta única solução é dada por
X = A 1 B:

Prova. Se A é inversível, então X = A 1 B é uma solução de AX = B;


provando que esta equação tem solução.
Provemos que a solução é a única. Sejam S1 e S2 soluções da equação AX
= B; então S1 S2 é solução da equação homogênea AX = 0; que possui
apenas a solução trivial, o que implica em S1 = S2 : Logo, a única solução de
AX = B é X = A 1 B:
Se para cada matriz B a equação matricial linear AX = B tem uma única
solução, tomando B = 0; concluímos que AX = 0 só possui a solução trivial.
Daí A é inversível e a única solução de AX = B é X = A 1 B:

Exemplo. A matriz 2 3
1 2 3
A=4 2 5 3 5
1 0 8
possui inversa. Isto garante que o sistema homogêneo

x1 +2x2 +3x3 = 0
2x1 +5x2 +3x3 = 0
x1 +8x3 = 0

possui apenas a solução trivial.

Agora vamos apresentar uma curiosidade que consiste no seguinte fato: O


conceito de matriz inversa só se aplica a matrizes quadradas. Vejamos o porque
desta a…rmação. Quando A possui tamanho m n e B possui tamanho p q;
para efetuar o produto AB é preciso ter n = p: O produto BA só pode ser
realizado quando q = m: Concluímos que os produtos AB e BA só poderão
ser efetuados quando o tamanho de B for n m: O tamanho da matriz AB
será m m e o da matriz BA será n n: Quando m 6= n; vamos provar que

Notas de aula do Professor Faleiros


1.19 Matriz inversa e sistema linear 63

não existe matriz A de tamanho m n e matriz B de tamanho n m para as


quais
AB = Im e BA = In
sendo Im e In as matrizes identidade de ordens m e n; respectivamente.

Lema 1.22 Sejam m e n números inteiros positivos com m > n: Não existe
matriz A de tamanho m n e matriz B de tamanho n m; tais que AB =
Im ; onde Im é a matriz identidade de ordem m:

Prova. Sendo m > n; a matriz B possui mais colunas do que linhas. Logo,
existe matriz coluna X não nula, de tamanho m 1; para a qual BX = 0: Se
existisse uma matriz A de tamanho m n tal que AB = Im ; teríamos

X = Im X = (AB)X = A(BX) = A0 = 0;

o que é uma contradição, uma vez que X é diferente da matriz nula. Logo,
não existem A e B nas condições do enunciado para as quais AB = Im :

Teorema 1.23 Seja A uma matriz m n e B uma matriz n m: Se

AB = Im e BA = In

então m = n:

Prova. Se m > n; pelo lema anterior, não existem matrizes A e B nas


condições do enunciado para as quais AB = Im :
Se n > m; pelo lema anterior, não existem matrizes A e B nas condições
do enunciado para as quais BA = In :
Assim, se AB = Im e BA = In ; só resta a possibilidade m = n; quando A
e B são matrizes quadradas inversíveis.

Exemplo. Considere as matrizes


2 3
2 3
3 5 1
A= e B=4 1 2 5:
1 2 0
0 1

O produto
1 0
AB =
0 1

Notas de aula do Professor Faleiros


64 Sistemas de equações lineares

é a matriz identidade 2 2 enquanto


2 3
3 4 2
BA = 4 1 1 1 5
1 2 0

é diferente da matriz identidade 3 3: Aliás, não existe matriz C de tamanho


3 2 tal que CA é a matriz identidade, nem existe matriz D de tamanho 2 3
para a qual BD é igual à matriz identidade.

1.20 Combinação linear


Sejam M1 ; : : : ; Mn matrizes de mesmo tamanho e x1 ; : : : ; xn números reais.
A matriz M de…nida por

M = x1 M1 + + xn Mn

é denominada de combinação linear das matrizes M1 ; : : : ; Mn com coe…-


cientes x1 ; x2 ; : : : ; xn : Quando x1 = 0; x2 = 0; : : : ; xn = 0; a combinação
linear é denominada trivial, que resulta na matriz nula.
Se existirem números reais x1 ; x2 ; : : : ; xn nem todos nulos para os quais

x1 M1 + + xn Mn = 0

se diz que o conjunto de matrizes fM1 ; : : : ; Mn g é linearmente dependente


(LD). Se a igualdade
x1 M1 + + xn Mn = 0
for satisfeita apenas quando x1 = 0; x2 = 0; : : : ; xn = 0; diz-se que o conjunto
de matrizes fM1 ; : : : ; Mn g é linearmente independente (LI). Um conjunto
de matrizes é linearmente independente quando a única combinação linear
dessas matrizes que resulta na matriz nula é a trivial.
3
Exemplo. A matriz C = é uma combinação linear das matrizes
1

1 2
A= e B=
2 3

com coe…cientes 7 e 5 pois


C = 7A + 5B:

Notas de aula do Professor Faleiros


1.20 Combinação linear 65

As conjunto formado pelas matrizes A e B são linearmente independentes


pois
1 2 0
x +y =
2 3 0
apenas quando x = 0 e y = 0: De fato, a igualdade matricial acima corresponde
ao sistema de equações homogêneas

x + 2y = 0
2x 3y = 0

cuja única solução é x = 0 e y = 0:

Quando um conjunto de matrizes fM1 ; : : : ; Mn g de matrizes for linear-


mente dependente, então existem números reais x1 ; x2 ; : : : ; xn nem todos
nulos tais que
x1 M1 + + xn Mn = 0:
Se x1 6= 0; podemos escrever M1 como uma combinação linear de M2 ; : : : ; Mn
x2 xn
M1 = M2 Mn :
x1 x1

Quando xi 6= 0; é possível escreve a matriz Mi como uma combinação linear


das outras matrizes. Podemos então enunciar o próximo teorema.
Exemplo.

Teorema 1.24 Um conjunto de matrizes de mesmo tamanho é linearmente


independente se e só se uma das matrizes for combinação linear das demais.

O sistema de equações algébricas lineares

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2
..
.
am1 x1 + am2 x2 + + amn xx = bm

é equivalente à equação matricial

AX = B;

Notas de aula do Professor Faleiros


66 Sistemas de equações lineares

onde
2 3 2 3 2 3
a11 a12 a1n b1 x1
6 a21 a22 a2n 7 6 b2 7 6 x2 7
6 7 6 7 6 7
A=6 .. .. .. .. 7; B=6 .. 7 e X=6 .. 7;
4 . . . . 5 4 . 5 4 . 5
am1 am2 amn bm xn
e chamamos A de matriz dos coe…cientes, B de matriz das constantes e X de
matriz das incógnitas do sistema. As matrizes
2 3 2 3 2 3
a11 a12 a1n
6 a21 7 6 a22 7 6 a2n 7
6 7 6 7 6 7
A1 = 6 .. 7 ; A2 = 6 .. 7 ; ::: ; An = 6 .. 7
4 . 5 4 . 5 4 . 5
am1 am2 amn
são as colunas de A: No produto AX; o x1 multiplica as entradas da primeira
coluna de A; o x2 multiplica as entradas da segunda coluna de A e assim por
diante, de modo que AX é igual à combinação linear x1 A1 + x2 A2 + +
xn An ; ou seja,
AX = x1 A1 + x2 A2 + + xn An :
Portanto, o sistema de equações algébricas lineares e a equação matricial AX
= B proveniente desse sistema podem ser escritos na forma
x1 A 1 + x2 A 2 + + xn An = B
e, desta igualdade, tiramos uma lição que vamos enunciar como teorema.
Teorema 1.25 Seja A uma matriz m n e B uma matriz coluna m 1: A
equação matricial AX = B possui solução na incógnita X se, e só se, B for
igual a uma combinação linear das colunas de A:
Sabemos que uma matriz quadrada A é inversível se, e só se, X = 0 é a
única matriz coluna para a qual AX = 0 ou, em outras palavras, se, e só se a
combinação linear
x1 A1 + x2 A2 + + xn A n
resulta na matriz nula apenas quando x1 = 0; x2 = 0; : : : ; xn = 0: Isto sig-
ni…ca que A é inversível se, e só se, o conjunto de matrizes colunas de A for
linearmente independente.
Como consequência, A é singular, se e só se AX = 0 possui solução não
trivial. Quando 2 3
c1
6 7
C = 4 ... 5
cn

Notas de aula do Professor Faleiros


1.21 Matriz transposta 67

é uma dessas matrizes não nulas para as quais AC = 0; segue

c1 A1 + c2 A2 + + cn An = AC = 0;

onde A1 ; : : : ; An são as colunas de A: Como C 6= 0; pelo menos uma de


suas entradas é diferente de zero. Logo, A é singular se, e só se, suas colunas
formarem um conjunto linearmente dependente.
Provamos assim o seguinte resultado:

Teorema 1.26 Uma matriz quadrada A é singular se, e só se, uma de suas
colunas for uma combinação linear das outras colunas de A:

Na seção que trata dos espaços linha e coluna de uma matriz A; veremos
que este teorema continua verdadeiro quando trocamos a palavra coluna por
linha.

1.21 Matriz transposta


Dada uma matriz A = [aij ] de tamanho m n; podemos construir a matriz B
= [bij ] de tamanho n m onde bij = aji ; ou seja, a entrada da linha i coluna
j de B é a entrada da linha j coluna i de A: A matriz [bij ] é chamada de
transposta de A e é denotada por AT :
Exemplo. A transposta de

1 2 1 3
A= é AT =
3 4 2 4

e a transposta de
2 3
1 4
1 2 3
B= é BT = 4 2 5 5
4 5 6
3 6

1. Se A e B forem matrizes de mesmo tamanho e x for um número real,


valem as propriedades abaixo.

(a) (AT )T = A
(b) (A + B)T = AT + B T
(c) (xA)T = xAT

Notas de aula do Professor Faleiros


68 Sistemas de equações lineares

2. Se for possível calcular o produto AB das matrizes A e B então

(AB)T = B T AT

onde se deve atentar para a ordem dos fatores à esquerda e à direita da


igualdade.

3. Se for possível calcular o produto A1 Ak das matrizes A1 ; : : : ; Ak ;


então
(A1 An )T = ATn AT1
onde se deve observar com atenção a inversão na ordem dos fatores nos
dois lados da igualdade.

4. Quando A for inversível, AT é inversível e

(AT ) 1
= (A 1 )T :

1.22 Matriz simétrica


De…nição 1.27 Uma matriz quadrada A é simétrica quando AT = A:

Para qualquer matriz retangular A; as matrizes AAT e AT A são quadradas


e simétricas.

Teorema 1.28 Sejam A e B matrizes simétricas de mesmo tamanho e x um


número real. Então
(a) AT é simétrica.
(b) A + B e A B são simétricas.
(c) xA é simétrica.
(d) Se A for inversível, então A 1 é simétrica.

Nem sempre o produto de matrizes simétricas é uma matriz simétrica. O


produto AB de duas matrizes simétricas é simétrica se e só se os fatores A e
B comutarem, isto é, AB = BA:

Teorema 1.29 Se A é uma matriz quadrada inversível, então tanto AAT


quanto AT A são inversíveis.

Prova. Como A é inversível, também o é AT : Logo, AAT e AT A também


são inversíveis por serem o produto de matrizes inversíveis.

Notas de aula do Professor Faleiros


1.23 Potência de uma matriz 69

1.23 Potência de uma matriz


Seja A uma matriz quadrada e k um número inteiro maior do que zero. De…-
nimos as potências inteiras não negativas de A por

A0 = I; Ak = Ak 1 A

Se A for inversível, então pode-se provar por indução em k que

(A 1 )k = (Ak ) 1

e de…nimos as potências negativas de A por


k
A = (A 1 )k = (Ak ) 1 :

Propriedades
Sejam A e B matrizes quadradas com o mesmo tamanho, r e s números inteiros
não negativos. Então

1. Ar As = As Ar = Ar+s :

2. (Ar )s = Ars :

3. Quando as matrizes A e B comutarem, isto é, quando AB = BA; então

(AB)r = Ar B r :

4. Sendo AT a transposta de A; vale


r
(Ar )T = AT :

Se A e B forem inversíveis, as identidades acima valem quando r e s forem


números inteiros quaisquer, podendo ser positivos, negativos ou nulos. A
primeira propriedade nos informa que as potências de uma matriz A comu-
tam.

Notas de aula do Professor Faleiros


70 Sistemas de equações lineares

Notas de aula do Professor Faleiros


Capítulo 2

Determinantes

Sejam a1 ; b1 ; c1 ; a2 ; b2 ; c2 números reais dados. Para resolver um sistema de


duas equações com duas incógnitas x; y; como

a1 x + b 1 y = c 1 ;
(2.1)
a2 x + b 2 y = c 2 ;

podemos usar o método de eliminação da incógnitas. Para eliminar a incóg-


nita y; multiplicamos a primeira equação por b2 e a segunda por b1 : Subtraindo
uma da outra, obtemos uma equação sem y

(a1 b2 b1 a2 )x = (c1 b2 c2 b1 ):

As expressões entre parêntesis à esquerda e à direita envolvem as entradas das


matrizes
a1 b 1 c 1 b1
A= e B1 = :
a2 b 2 c 2 b2
Por este motivo, denominou-se o número real (a1 b2 b1 a2 ) de determinante de
A e (c1 b2 c2 b1 ) de determinante de B1 : A formação dos dois determinantes
segue a mesma regra: subtrai-se do produto das entradas da diagonal principal
o produto das entradas da diagonal secundária. O determinante de uma matriz
quadrada A é denotado por det(A) e, com esta notação, podemos escrever

x det(A) = det(B1 )

Agora, multiplicando a primeira equação do sistema (2.1) por a2 ; a segunda


equação por a1 e subtraindo uma da outra, obtemos uma equação sem a in-
cógnita x
y det(A) = det(B2 );

Notas de aula do Professor Faleiros


72 Determinantes

onde
a1 c 1
B2 = :
a2 c 2
Quando det(A) 6= 0; o sistema possuirá uma única solução que é
det(B1 ) det(B2 )
x= e y= :
det(A) det(A)
Observe a formação de B1 e B2 : Estas duas matrizes são obtidas trocando
uma coluna de A pelos termos constantes do sistema. Para obter B1 ; troque
a primeira coluna de A pelos termos constantes da equação. Para obter B2 ;
troque a segunda coluna de A pelos termos constantes da equação. Quando
det(A) = 0 o sistema poderá ter ou não solução. Tudo dependerá de B = [c1
c2 ]T ser ou não uma combinação linear das colunas de A:
Para …xar o conceito, dada a matriz 2 2
a1 b 1
A= ;
a2 b 2
seu determinante é o número real de…nido por
det(A) = a1 b2 b 1 a2 : (2.2)
A regra para calcular o determinante de uma matriz 2 2 é simples: do
produto das entradas da diagonal principal, subtraia o produto das entradas
da diagonal secundária.
Evidenciamos duas propriedades do determinante de uma matriz 2 2:
Primeiro, que o determinante de A é igual ao determinante de sua transposta,
det(A) = det AT :
Segundo, quando trocamos as posições das duas linhas ou das duas colunas, o
determinante muda de sinal
a1 b 1 a2 b 2 b 1 a1
det = det = det
a2 b 2 a1 b 1 b 2 a2
Os matemáticos veri…caram que a resolução de sistemas com mais do que
duas incógnitas pode ser resolvido pelo mesmo processo de eliminar variáveis
usado na resolução de sistemas com duas equações e duas incógnitas. Con-
sidere, por exemplo, o sistema linear abaixo com três equações e três incógnitas
x1 ; x 2 ; x 3
a11 x1 + a12 x2 + a13 x3 = b1 (2.3)
a21 x1 + a22 x2 + a23 x3 = b2 (2.4)
a31 x1 + a32 x2 + a33 x3 = b3 (2.5)

Notas de aula do Professor Faleiros


73

Para resolvê-lo, eliminamos uma variável de cada vez usando as equações (2.4)
e (2.5). Para eliminar x1 ; multiplicamos (2.4) por a31 e (2.5) por a21 e as
adicionamos

(a21 a32 a22 a31 )x2 + (a21 a33 a23 a31 )x3 = (a21 b3 a31 b2 ):

Observe que a igualdade acima implica em

a21 a22 a21 a23 a21 b2


det x2 + det x3 = det : (2.6)
a31 a32 a31 a33 a31 b3

Podemos simpli…car a notação denotando o determinante de uma matriz delimitando-


a entre barras verticais de modo que

a21 a22 a21 a22


= det
a31 a32 a31 a32

Para eliminar x2 ; multiplicamos (2.4) por a32 e (2.5) por a22 e as adicionamos

(a21 a32 a22 a31 )x1 + (a23 a32 a22 a33 )x3 = (a32 b2 a22 b3 )

que, na linguagem do determinante, se escreve

a21 a22 a22 a23 a22 b2


x1 x3 = : (2.7)
a31 a32 a32 a33 a32 b3

Repetindo o procedimento para eliminar x3 ; chega-se a

a21 a23 a a b2 a23


x1 + 22 23 x2 = : (2.8)
a31 a33 a32 a33 b3 a33

As matrizes cujos determinantes aparecem no lado esquerdo em (2.6), (2.7) e


(2.8) podem ser obtidas de
2 3
a11 a12 a13
4
A = a21 a22 a23 5
a31 a32 a33

eliminando a primeira linha e uma coluna. Vamos designar por Aij a matriz
obtida de A eliminando a linha i e a coluna j de modo que ela é uma matriz de
ordem 2; cujo determinante já foi de…nido. Vamos denotar por cij o número
real
cij = ( 1)i+j det(Aij ):

Notas de aula do Professor Faleiros


74 Determinantes

Com esta notação, (2.6), (2.7) e (2.8) se reduzem a

a21 b2
c13 x2 c12 x3 = (2.9)
a31 b3
b2 a22
c13 x1 c11 x3 = (2.10)
b3 a32
b2 a23
c12 x1 + c11 x2 = (2.11)
b3 a33

Podemos usar (2.9), (2.10) e (2.11) em (2.3) para obter três equações, cada
uma delas com uma das variáveis x1 ; x2 ou x3 : Multiplicando (2.3) por c11

a11 c11 x1 + a12 c11 x2 + a13 c11 x3 = b1 c11

e usando (2.10) e (2.11) chegamos a

a22 a23 b2 a23 b2 a22


(a11 c11 + a12 c12 + a13 c13 )x1 = b1 a12 + a13 :
a32 a33 b3 a33 b3 a32
(2.12)
Em seguida, multiplicando (2.3) por c12 e usando (2.9) e (2.11), segue

b2 a23 a21 a23 a21 b2


(a11 c11 + a12 c12 + a13 c13 )x2 = a11 b1 + a13 :
b3 a33 a31 a33 a31 b3
(2.13)
Finalmente, multiplicando (2.3) por c13 e usando (2.9) e (2.10), vem

a22 b2 a21 b2 a21 a22


(a11 c11 + a12 c12 + a13 c13 )x3 = a11 a12 + b1 :
a32 b3 a31 b3 a31 a32
(2.14)
Se de…nirmos o determinante de uma matriz 3 3
2 3
a11 a12 a13
A = 4 a21 a22 a23 5
a31 a32 a33
por
det(A) = a11 c11 + a12 c12 + a13 c13 (2.15)
os lados esquerdos de (2.12), (2.13) e (2.14) são iguais ao det(A) e os lados
direitos são, respectivamente, os determinantes das matrizes
2 3 2 3 2 3
b1 a12 a13 a11 b1 a13 a11 a12 b1
B1 = 4 b2 a22 a23 5 ; B2 = 4 a21 b2 a23 5 ; B3 = 4 a21 a22 b2 5 :
b3 a32 a33 a31 b3 a33 a31 a32 b3

Notas de aula do Professor Faleiros


75

e com isto chegamos a

det(A) x1 = det(B1 ); det(A) x2 = det(B2 ) e


det(A) x3 = det(B3 ):
(2.16)
Se det(A) 6= 0; o sistema de…nido pelas equações (2.3), (2.4) e (2.5) possui
uma única solução dada por
det(B1 ) det(B2 ) det(B3 )
x1 = ; x2 = e x3 = :
det(A) det(A) det(A)

Se det(A) = 0; o sistema de…nido pelas equações (2.3), (2.4), (2.5) poderá


ter solução ou não. Terá solução quando B = [b1 b2 b3 ]T for uma combinação
linear das colunas de A: Quando det(A) = 0 e B for uma combinação linear das
colunas de A; a equação matricial AX = B; correspondente ao sistema dado,
possuirá in…nitas soluções. Quando B não for uma combinação linear das
colunas de A; a equação matricial AX = B não terá solução. Esta a…rmação
é uma consequência direta do fato de ser possível escrever matricialmente o
sistema de…nido pelas equações (2.3), (2.4) e (2.5) no formato

x1 A1 + x2 A2 + x3 A3 = B;

onde A1 ; A2 e A3 são, respectivamante, a primeira, a segunda e a terceira


coluna de A:
Usamos (2.4) e (2.5)para obter três equações, uma sem x1 ; outra sem x2 e
outra sem x3 : Em seguida a equação (2.3) foi utilizada para obter as equações
em (2.16) onde
det(A) = a11 c11 + a12 c12 + a13 c13
que chamamos de desenvolvimento do determinante pela primeira linha de A:
Se houvéssemos usado (2.3) e (2.5) para obter três equações, uma sem x1 ;
outra sem x2 e outra sem x3 : Se em seguida houvéssemos usado a equação
(2.4) para obter uma equação envolvendo apenas x1 ; outra apenas x2 e outra
apenas x3 ; certamente chegaríamos ao mesmo resultado (2.16). Entretanto,
agora obteríamos
det(A) = a21 c21 + a22 c22 + a23 c23 (2.17)
que é chamado de desenvolvimento do determinante de A pela segunda linha.
Finalmente, usando (2.3) e (2.4) para depois usar (2.5) iríamos chegar em
(2.16) só que agora teríamos a expressão

det(A) = a31 c31 + a32 c32 + a33 c33

que é o desenvolvimento do determinante de A pela terceira linha. Isto indica


que o determinante de A pode ser obtido efetuando o seu desenvolvimento por

Notas de aula do Professor Faleiros


76 Determinantes

uma linha qualquer de A: O desenvolvimento do determinante de A pela linha


i pode ser expresso por
X
3
det(A) = ai1 ci1 + ai2 ci2 + ai3 ci3 = aij cij
j=1

onde i pode ser 1; 2 ou 3:

2.1 De…nição de determinante


O procedimento descrito na seção anterior para resolver sistemas lineares 2 2
e 3 3 se aplica para o caso geral de sistemas com n equações e n incógnitas.
Na resolução de tais sistemas surge o conceito de determinante de matrizes
de ordem n; aquelas com tamanho n n: O determinante de uma matriz
quadrada de ordem n; quando n > 2; é um número real de…nido de modo recur-
sivo, em termos de determinantes de matrizes quadradas de tamanho menor.
Sabendo como calcular o determinante de matrizes 2 2; podemos calcular os
determinantes de matrizes 3 3; que nos permitem calcular determinantes de
matrizes 4 4 e assim por diante.
Vamos à de…nição do determinante. Quando A = [a] é uma matriz 1 1;
de…ne-se seu determinante por
det(A) = a:
Quando
a11 a12
A=
a21 a22
é uma matriz quadrada 2 2; de…nimos
det(A) = a11 a22 a12 a21 :
Para de…nir o determinante de uma matriz quadrada de ordem n; quando
n > 2; precisamos estabelecer uma notação preparatória. Sendo A = [aij ] uma
matriz quadrada de ordem n; denote por Aij a matriz de ordem n 1 obtida
ao eliminar a linha i e a coluna j de A denominada de menor (i; j) de A: O
número real
cij = ( 1)i+j det(Aij )
é chamado de cofator (i; j) de A: O determinante de A é o número real
de…nido por
X
n
det(A) = a11 c11 + a12 c12 + + a1n c1n = a1j c1j :
j=1

Notas de aula do Professor Faleiros


2.1 De…nição de determinante 77

Esta fórmula é denominada de desenvolvimento do determinante por


cofatores da primeira linha ou desenvolvimento de Laplace do determi-
nante pela primeira linha ou, simplesmente, desenvolvimento do determi-
nante pela primeira linha.
A expressão acima pode ser usada para calcular o determinante de matrizes
2 2: Sendo
a11 a12
A=
a21 a22
então os cofatores cij desta matriz são c11 = a22 ; c12 = a21 ; c21 = a12 ; c22
= a11 : Desenvolvendo o determinante desta matriz 2 2 pela primeira linha
obtemos
det(A) = a11 c11 + a12 c12 = a11 a22 a12 a21 ;
a mesma expressão obtida anteriormente para matrizes 2 2: Para uma matriz
3 3 a de…nição de determinante nos fornece
2 3
a11 a12 a13
a22 a23 a21 a23 a21 a22
det 4 a21 a22 a23 5 = a11 det a12 det +a13 det :
a32 a33 a31 a33 a31 a32
a31 a32 a33

Notação: Pode-se denotar o determinante de uma matriz delimitando-a


por barras verticais, uma de cada lado, como em
2 3
a11 a1n a11 a1n
.. .. 6 .. 7 :
.
...
. = det 4 ... ...
. 5
an1 ann an1 ann

Exemplo. O determinante da matriz


2 3
1 2 3
A= 24 1 0 5
1 2 1

calculada usando o desenvolvimento de Laplace pela primeira linha é

1 0 2 0 2 1
det(A) = 1 2 + ( 3)
2 1 1 1 1 2
=1 ( 1) 2 ( 2) + ( 3) ( 5) = 18

O grande apelo desta de…nição se deve ao fato de ter surgido diretamente


da estudo da resolução de sistemas de equações algébricas lineares. Entretanto,

Notas de aula do Professor Faleiros


78 Determinantes

a de…nição por si só é inadequada para calcular o determinante de matrizes


com muitas linhas e muitas colunas. Observe que, quando A possui 20 linhas e
20 colunas, a de…nição acima exige o cálculo de 20 determinantes de matrizes
19 19: Cada um desses determinantes irá exigir o cômputo dos determinantes
de 19 matrizes 18 18; e assim segue até chegar a uma matriz 2 2 que exige
o cálculo de dois determinantes de matrizes 1 1: Ao …nal, teremos

20! = 2 432 902 008 176 640 000

parcelas, cada uma com 20 fatores, o que resulta em

20 20! = 48 658 040 163 532 800 000

operações. Trocando em miúdos, o cálculo do determinante pela de…nição


resulta em 48 quintilhões de operações, um número exagerado mesmo para os
computadores mais rápidos da atualidade.
Concluímos que, quando as matrizes começam a …car grandes, é preciso
desenvolver outras ferramentas (propriedades) para calcular o determinante.
Gosto de dizer que alguém com uma de…nição se encontra na posição de um
encanador que, acabando sua formação, recebe uma bela caixa de ferramentas
totalmente vazia. Ao se dirigir para a casa de um cliente para consertar um
cano furado, se depara com as di…culdades inerentes à ausência de ferramen-
tas. Como cavar a parede com as mãos? Assim é aquele que procura calcular
os determinantes dispondo apenas da de…nição. Ele se encontrará diante de
grandes di…culdades. Da mesma forma que o encanador, o matemático precisa
se munir de ferramentas adequadas para o cálculo dos determinantes e estas
ferramentas são suas propriedades. Entretanto, não estamos tão desprovidos
que não possamos calcular o determinante de algumas matrizes especiais us-
ando apenas a de…nição.
Exemplo. Vamos calcular o determinante da matriz identidade I de ordem
3: Desenvolvendo o determinante pela primeira linha,
2 3
1 0 0
1 0
det(I) = det 4 0 1 0 5 = det = 1:
0 1
0 0 1

Este resultado se aplica à matriz identidade de ordem n cujo determinante é


igual a 1:

Exemplo. Vamos calcular o determinante de uma matriz diagonal, aquela


matriz quadrada onde as entradas fora da diagonal principal são iguais a zero.

Notas de aula do Professor Faleiros


2.1 De…nição de determinante 79

Desenvolvendo o determinante pela primeira linha,


2 3
2 0 0
3 0
det 4 0 3 0 5 = 2 det =2 3 5:
0 5
0 0 5
O determinante desta matriz diagonal é igual ao produto das entradas diago-
nais. Este resultado é verdadeiro mesmo para matrizes diagonais de ordem n:
Seu determinant é igual ao produto das entradas diagonais.

Exemplo. Vamos calcular o determinante de uma matriz triangular in-


ferior - aquela matriz quadrada onde as entradas acima da diagonal principal
são iguais a zero. Desenvolvendo o determinante pela primeira linha,
2 3
2 0 0
3 0
det 4 6 3 0 5 = 2 det = 2 3 5:
8 5
7 8 5
Neste caso também, o determinante da matriz triangular inferior é igual ao
produto das entradas diagonais. Este resultado é verdadeiro mesmo para ma-
trizes triangulares inferiores de ordem n: Seu determinant é igual ao produto
das entradas diagonais.

Na introdução deste capítulo, ao resolver o sistema de equações lineares 3


3; mostramos ser possível desenvolver o determinante por uma linha qualquer
e não apenas pela primeira. Não provaremos esta propriedade. Iremos apenas
enunciá-la na forma de um teorema.
Teorema 2.1 (desenvolvimento do determinante por uma linha) Se A = [aij ]
for uma matriz quadrada n n; então
X
n
det(A) = ai1 ci1 + ai2 ci2 + + ain cin = aij cij :
j=1

onde cij é o cofator (i; j) da matriz A sendo que i é o índice da linha ao longo
da qual se desenvolve o determinante.
O determinante também pode ser calculado efetuando o seu desenvolvido
por uma coluna qualquer, tal como se enuncia no próximo teorema.
Teorema 2.2 (desenvolvimento do determinante por uma coluna) Se A =
[aij ] for uma matriz quadrada n n; então
X
n
det(A) = a1j c1j + a2j c2j + + anj cnj = aij cij :
i=1

Notas de aula do Professor Faleiros


80 Determinantes

onde cij é o cofator (i; j) da matriz A sendo que j é o índice da coluna ao


longo da qual se desenvolve o determinante.

O determinante pode ser desenvolvido por uma linha ou uma coluna qual-
quer. Como as linhas de uma matriz são as colunas de sua transposta, podemos
enunviar.

Teorema 2.3 O determinante de uma matriz é igual ao determinante de sua


transposta.

Sabendo que as linhas em uma matriz são as colunas na matriz transposta,


podemos enunciar:

Teorema 2.4 Todas as propriedades do determinante envolvendo as linhas


continuam válidas se as linhas forem substituidas por colunas. Todas as pro-
priedades do determinante válidas para as colunas também são verdadeiras para
as linhas.

Este teorema nos diz que, sempre que uma propriedade dos determinates
for enunciada em termos das linhas da matriz, esta propriedade continua ver-
dadeira se a palavra linha for substituída por coluna. Da mesma forma, as
propriedades válidas para as colunas se transferem para as linhas.
O determinante de uma matriz com uma linha nula ou com uma coluna
nula é igual a zero. De fato, desenvolvendo determinante pela …la nula, todos
os cofatores …cam multiplicados por zero.
Exemplo. No caso do determinante de uma matriz 3 3; segue

0 0 0
a2 a3 a1 a3 a1 a2
a1 a2 a3 =0 0 +0 =0
b2 b 3 b1 b3 b1 b2
b1 b2 b3

Exemplo. Os determinantes das matrizes


2 3 2 3
2 1 6 1 4 5
4 0 0 0 5 e 4 2 0 3 5
4 2 8 0 0 0

são iguais a zero pois ambos possuem uma linha nula. Para veri…car esta
a…rmação basta desenvolver o determinante da primeira matriz pela segunda

Notas de aula do Professor Faleiros


2.1 De…nição de determinante 81

linha e o determinante da segunda matriz pela terceira linha.

Exemplo. Se uma coluna da matriz for nula, seu determinante é nulo. O


desenvolvimento do determinante pela primeira coluna fornece o resultado

0 a1 b 1
a2 b2 a1 b 1 a1 b 1
0 a2 b 2 =0 0 +0 =0
a3 b3 a3 b 3 a2 b 2
0 a3 b 3

Exemplo. Para calcular o determinante da matriz


2 3
1 2 3
A=4 2 0 0 5
3 4 1

é conveniente desenvolvê-lo pela segunda linha que possui dois elementos nu-
los. Os cofatores (2; 2) e (2; 3) serão multiplicados por zero, o que reduzirá
o número de contas necessárias para calcular o determinante. Efetuando o
desenvolvimento pela segunda linha,

2 3
det(A) = 2 det = 2(2 12) = 20
4 1

Exemplo. Quando a matriz for triangular superior, matrizes cujas en-


tradas abaixo da diagonal principal são iguais a zero, podem ser calculadas
desenvolvendo o determinante pela primeira coluna, como em
2 3
2 6 9 1 2 3
6 0 3 7 0 7 3 7 0
4 8
det 6 7 4 5
4 0 0 4 8 5 = 2 det 0 4 8 = 2 3 det 0 5 = 2 3 4 5:
0 0 5
0 0 0 5

Estes exemplos nos permitem enunciar

Teorema 2.5 O determinante de uma matriz diagonal ou triangular é igual


ao produto das entradas da diagonal principal.

Notas de aula do Professor Faleiros


82 Determinantes

Regra de Sarrus para matrizes 3 3


Existe uma regra prática, denominada de regra de Sarrus, para calcular o
determinante de uma matriz 3 3: Enfatizamos que esta regra só se aplica a
matrizes 3 3 e pode ser veri…cada diretamente da de…nição. Ela funciona
assim: Acrescente as duas primeiras colunas à direita da matriz
2 3
a11 a12 a13
A = 4 a21 a22 a23 5
a31 a32 a33

obtendo a matriz ampliada


2 3
a11 a12 a13 a11 a12
4 a21 a22 a23 a21 a22 5
a31 a32 a33 a31 a32

Multiplique as entradas ao longo de cada uma das três diagonais principais,


aquelas que vão da esquerda para a direita e de cima para baixo e iniciam
nas entradas a11 ; a12 e a13 : Adicione os resultados. Multiplique as entradas ao
longo de cada uma das três diagonais secundárias, aquelas que vão da direita
para a esquerda e de cima para baixo e iniciam nas entradas a13; a11 e a12 :
Adicione estes produtos. Subtraia esta soma daquela obtida anteriormente e
o resultado será o determinante de A

det(A) = (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 )
(a13 a22 a31 + a11 a23 a32 + a12 a21 a33 ):

Exemplo. Vamos calcular o determinante da matriz


2 3
1 0 2
A=4 3 2 0 5
0 1 4

usando a regra de Sarrus. Acrescentamos as duas primeiras colunas da matriz


à sua direita 2 3
1 0 2 1 0
4 3 2 0 3 2 5:
0 1 4 0 1
Multiplicamos as entradas das três diagonais principais, aquelas que vão da
esquerda para a direita quando percorremos a matriz de cima para baixo

1 2 4+0 0 0+2 ( 3) 1=2

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 83

e as entradas das três diagonais secundárias, aquelas que vão da direita para
a esquerda quando a matriz é percorrida de cima para baixo

2 2 0+1 0 1+0 ( 3) 4 = 0:

Subtraímos o primeiro resultado do segundo para obter det(A) = 2:

Usando as propriedades que serão apresentadas em seguida, vamos chegar


a uma técnica para calcular o determinante que, mesmo para matrizes 3 3;
geralmente é mais e…ciente que a regra de Sarrus.

2.2 Propriedades do determinante


Se as matrizes não possuírem características especiais, calcular seu determi-
nante usando apenas a de…nição pode ser uma tarefa árdua, principalmente
quando se tratar de matrizes quadradas n n quando n é grande. No intuito
de simpli…car a tarefa, precisamos determinar propriedades adicionais do de-
terminante que ofereçam alternativas mais e…cientes para sua obtenção. Estas
propriedades estão enunciadas no próximo teorema.

Teorema 2.6 Sejam A e B matrizes quadradas de ordem n:

1. Se B foi obtida ao permutar duas linhas de A; realizando a operação


elementar Lr $ Ls ; então

det(B) = det(A):

2. Se B foi obtida ao adicionar a uma linha de A um múltiplo de outra


linha de A; então
det(B) = det(A):

3. Se B foi obtida adicionando a uma linha de A uma combinação linear


das outras linhas de A; então

det(B) = det(A):

4. Se B foi obtida multiplicando uma linha de A por um número real x;


então
det(B) = x det(A):

5. Sendo x um número real,

det(xA) = xn det(A):

Notas de aula do Professor Faleiros


84 Determinantes

6. O determinante de uma matriz é igual ao determinante de sua transposta

det(A) = det(AT ):

7. As propriedades 1, 2, 3 e 4 continuam válidas se a palavra linha for


substituída por coluna, isto é, toda propriedade válida para as linhas con-
tinuam válidas para as colunas e vice-versa.

Prova. 1. A propriedade vale para matrizes quadradas 2 2: Quando n


> 2; provamos a propriedade por indução. Supondo a propriedade válida para
matrizes quadradas de ordem (n 1); vamos mostrar que também vale para
matrizes quadradas de ordem n: Seja A = [aij ] uma matriz de ordem n e B =
[bij ] a matriz obtida ao permutar as posições das linhas r e s de A: A linha r de
B é a linha s de A e a linha s de B é a linha r de A: As demais linhas de B são
iguais às linhas correspondentes em A: Seja i uma linha de A distinta das linhas
r e s: Denotemos por Aij e Bij as matrizes obtidas retirando a linha i e a coluna
j de A e B; respectivamente. Permutando em Aij as antigas linhas r e s de A;
obtemos Bij : Pela hipótese de indução, det(Bij ) = det(Aij ): Denotando por
cij o cofator (i; j) de A e por dij o cofator (i; j) de B; concluímos que

cij = ( 1)i+j det(Aij ) = ( 1)i+j det(Bij ) = dij

Desenvolvendo o determinante de B em cofatores ao longo da linha i e lem-


brando que ela é igual à linha i de A; de modo que bij = aij ; para j = 1; : : : ;
n; segue

det(B) = bi1 di1 + + bin din


= ai1 ci1 ain cin = det(A):

2. Suponha B = [bij ] obtida de A = [aij ] adicionando à linha r de A um


múltiplo x da linha s de A: Em outras palavras, B é obtida realizando em A
a operação elementar Lr + xLs ! Lr : Ao longo de toda a linha r de B;

brj = arj + x asj :

Excetuando a linha r; todas as demais linhas de B são iguais às linhas de A:


Isto implica na igualdade dos cofatores (r; j) de A e dos cofatores (r; j) de B;
que vamos denotar por crj : Desenvolvendo o determinante de B em cofatores
ao longo da linha r;
X
n X
n X
n
det(B) = (arj + x asj )crj = arj crj + x asj crj :
j=1 j=1 j=1

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 85

P
O segundo somatório, nj=1 asj crj ; é o determinante de uma matriz M obtida
colocar a linha s da matriz A em sua linha r; …cando as linhas r e s de M
ambas iguais
Pnà linha s de A: Possuindo duas linhas iguais, o determinante de
M é zero, j=1 asj crj = 0: Desta forma,
X
n
det(B) = arj crj = det(A):
j=1

3. Se B foi obtida adicionando a uma linha de A uma combinação lin-


ear das outras linhas de A; então B foi obtida adicionando, seguidamente, a
uma das linhas A um múltiplo das outras linhas de A: Pela propriedade 3, o
determinante não se modi…ca durante cada etapa deste processo e det(B) =
det(A):
4. Se B = [bij ] foi obtida multiplicando a linha r de A = [aij ] por um
número real x; então, para a linha r e as colunas j = 1; : : : ; n; vale a igualdade
brj = x arj : Todas as demais linhas de B são iguais às linhas correspondentes
de A: Sendo crj o cofator (r; j) de A e drj o cofator (r; j) de B; então crj = drj :
Desenvolvendo o determinante de B em cofatores ao longo da linha r; segue
det(B) = br1 dr1 + br2 dr2 + + brn drn
= x ar1 cr1 + x ar2 cr2 + + x arn crn
= x det(A)
5. Quando multiplicamos uma matriz quadrada A de tamanho n n por
um número real x; multiplicamos todas as suas linhas por x: A cada linha de A
multiplicada por x; multiplicamos o determinante de A por x: Em x A; todas
as n linhas são multiplicadas por x; de modo que
det(x A) = xn det(A):
6. Vamos aceitar a propriedade da transposta sem prová-la
det(xA) = det(AT ):
7. Como a coluna de uma matriz é uma linha de sua transposta, concluímos
que todas as propriedades de 1 a 4 continuam válidas se trocarmos a palavras
linha por coluna.

Exemplo. O leitor poderá calcular os determinantes das matrizes abaixo


e veri…car a veracidade das a…rmações do teorema anterior. O determinante
da matriz 2 3
0 1 0
A=4 1 2 4 5
3 1 1

Notas de aula do Professor Faleiros


86 Determinantes

é 11: O determinante da matriz


2 3
3 1 1
B1 = 4 1 2 4 5
0 1 0

obtida de A trocando de posição a primeira e terceira linha, é 11: O deter-


minante da matriz 2 3
0 1 0
B2 = 4 1 2 4 5
5 5 9
obtida de A mediante a operação elementar L3 + 2L2 ! L3 é igual ao deter-
minante de A que é 11: O determinante da matriz
2 3
0 6 11
B3 = 4 1 2 4 5
3 1 1

obtida de A mediante a operação L1 + 3L2 L3 ! L1 (adicionamos à primeira


linha uma combinação linear da segunda e da terceira linhas) também é igual
ao determinante de A; que é 11: O determinante da matriz
2 3
0 1 0
B4 = 4 5 10 20 5
3 1 1

obtida de A multiplicando a segunda linha por 5 é 55: O determinante da


matriz 2 3 2 3
0 1 0 0 2 0
2A = 2 4 1 2 4 5 = 4 2 4 8 5
3 1 1 6 2 2
é 23 11 = 88 pois cada uma de suas três linhas foi multiplicada por 2: Logo,
o determinante de 2A é igual ao determinante de A multiplicado por 23 :

As propriedades enumeradas no teorema anterior nos fornecem ferramentas


e…cazes para calcular o determinante de uma matriz. Pode-se realizar oper-
ações elementares sobre a matriz até levá-la a uma matriz triangular superior
ou inferior por um método análogo ao método de Gauss usado para resolver
sistemas lineares. Quando se chega a este ponto, para calcular o determinante
basta multiplicar as entradas da diagonal.
Pode-se também realizar operações elementares sobre as linhas ou as col-
unas de uma matriz de modo a anular o maior número possível de entradas

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 87

de uma linha ou de uma coluna. Preferencialmente, deve-se proceder ao an-


ulamento das entradas de uma …la até restar apenas uma delas diferente de
zero. Ao atingir este ponto, podemos efetuar o desenvolvimento do determi-
nante por essa …la, chegando ao determinante de uma matriz de ordem menor.
Prosseguindo assim,vamos reduzindo as ordens das matrizes cujos determi-
nantes devemos calcular.
Exemplo. Vamos calcular o determinante da matriz
2 3
0 1 5
A=4 1 2 3 5:
2 6 1

Adicionamos à terceira linha a segunda linha multiplicada por 2 para zerar


o elemento da terceira linha primeira coluna. Esta operação não altera o de-
terminante. Em seguida, desenvolveremos o determinante pela segunda linha.

0 1 5
1 5
det(A) = 1 2 3 =1 ( 1)2+1 = ( 5 50) = 55:
10 5
0 10 5

Não precisamos dos cofatores (1; 1) e (3; 1) uma vez que as entradas corre-
spondentes são iguais a zero. O único cofator que contribui para o cálculo do
determinante é o (2; 1):

Exemplo. Vamos calcular o determinante da matriz


2 3
1 0 0 3
6 2 5 0 6 7
A=6 4 0 6 3
7
0 5
4 3 1 5

Adicionamos à quarta coluna a primeira coluna multiplicada por 3: Esta


operação elementar não altera o valor do determinante de modo que

1 0 0 3 1 0 0 0
2 5 0 6 2 5 0 0
det(A) = =
0 6 3 0 0 6 3 0
4 3 1 5 4 3 1 7

A matriz que restou é triangular inferior e seu determinante é o produto dos


elementos da diagonal

det(A) = 1 5 3 7 = 105:

Notas de aula do Professor Faleiros


88 Determinantes

Antes de sair fazendo contas de forma desvairada para calcular o determi-


nante, procure aplicar transformações que simpli…quem os cálculos. Observe
ainda a possibilidade de ser nulo o determinante. Não é difícil caracterizar as
matrizes cujos determinantes são nulos. Reuniremos no próximo teorema as
condições sob as quais o determinante de uma matriz é igual a zero.

Teorema 2.7 Seja A uma matriz quadrada.

1. Se uma linha de A for nula, det(A) = 0:

2. Se duas linhas de A forem iguais, det(A) = 0:

3. Se duas linhas de A forem proporcionais, det(A) = 0:

4. Se uma linha de A for igual a uma combinação linear das demais, det(A)
= 0:

5. As propriedades acima se mantêm se trocarmos a palavra linha por col-


una.

Prova. 1. Desenvolvendo o determinante pela linha nula, obtemos det(A)


= 0:
2. Esta propriedade já foi provada no teorema anterior e só a repetimos
aqui para agrupar as condições sob as quais o determinante de uma matriz é
nulo.
3. Seja A uma matriz cuja linha r é igual a x vezes a linha s: Se Li denotar
a linha i de A; então Lr = x Ls : Seja B a matriz obtida de A mediante a
realização da operação elementar Lr xLs ! Lr : Esta operação elementar
não altera o determinante da matriz, de modo que det(A) = det(B): Por outro
lado, det(B) = 0 pois a linha r de B é nula. Isto faz com que det(A) = det(B)
= 0:
4. Vamos supor, sem perda de generalidade, que a primeira linha de A é
uma combinação linear das suas demais linhas. Se L1 ; L2 ; : : : ; Ln designarem
as linhas de A; existem números reais x2 ; x3 ; : : : ; xn tais que

L1 = x2 L2 + x3 L3 + + xn Ln :

Podemos obter, a partir de A; uma matriz B com a primeira linha nula real-
izando sobre a primeira linha de A a seguinte operação

L1 (x2 L2 + x3 L3 + + xn Ln ) ! L1 :

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 89

Esta operação corresponde à realização de uma sequência de operações ele-


mentares
L1 x2 L 2 ! L 1
L1 x3 L 3 ! L 1

L1 xn L n ! L 1
que não alteram o determinante da matriz. Como det(A) = det(B) e a matriz
B possui uma linha igual a zero, det(A) = det(B) = 0:
5. As colunas de A são linhas da sua transposta AT de modo que, valendo
para as linhas de AT ; as propriedades valem para as colunas de A:

Exemplo. O determinante da matriz


2 3
1 2 3
4 5 5 5 5
1 2 3
é zero pois possui duas linhas iguais. O determinante da matriz
2 3
1 2 3
4 1 1 1 5
7 7 7
é zero pois a terceira linha é igual a 7 vezes a segunda linha. O determinante
da matriz 2 3
1 2 3
A=4 4 5 6 5
6 9 12
é zero pois L3 = L2 + 2L1 ; isto é, a terceira linha é igual à soma da segunda
linha com o dobro da primeira. Observe ainda que a terceira coluna é igual a
duas vezes a segunda menos a primeira. Estas combinações lineares não são
fáceis de serem percebidas. Deste modo, siga o procedimento explicado ante-
riormente. Procure zerar as entradas de uma linha ou coluna. Este caminho é
mais suave. Realizando em sequência as duas operações elementares L2 4L1
! L2 e L3 6L1 ! L3 obtemos
1 2 3 1 2 3
det(A) = 4 5 6 = 0 3 6 = 0:
6 9 12 0 3 6
O determinante desta matriz é igual a zero pois a segunda e a terceira linha
são iguais.

Notas de aula do Professor Faleiros


90 Determinantes

2.3 Determinante da soma


Nem sempre o determinante da soma de duas matrizes é igual à soma dos
determinantes de cada uma delas. Observem que

det(A + B) 6= det(A) + det(B)

para as matrizes

1 2 2 1
A= e B= ;
2 4 1 1

uma vez que det(A) = 0; det(B) = 1; ao passo que det(A + B) = 6: Para as


matrizes,
1 2 4 2
A= B=
3 4 8 6
vale a igualdade
det(A + B) = det(A) + det(B):
Enfatizamos que a igualdade det(A + B) = det(A) + det(B) se veri…ca em
alguns casos e não se veri…ca em outros. Não é uma propriedade geral.

2.4 Determinante do produto


O determinante de um produto de matrizes é o produto dos determinantes dos
fatores. Sendo A e B matrizes quadradas de mesmo tamanho, a igualdade

det(AB) = det(A) det(B)

sempre se veri…ca. Para provar esta igualdade, mostraremos inicialmente que


ela é verdadeira quando A é uma matriz elementar.

Determinante das matrizes elementares


Existem três tipos de matrizes elementares. Aquelas obtidas multiplicando
uma linha da matriz identidade por um número real x diferente de zero, aque-
las obtidas permutando duas linhas da matriz identidade e aquelas obtidas
adicionando a uma linha da matriz identidade um múltiplo de outra linha da
matriz identidade.

1. Se E foi obtida permutando duas linhas da matriz identidade, então


det(E) = 1:

Notas de aula do Professor Faleiros


2.4 Determinante do produto 91

2. Se E foi obtida adicionando a uma linha da matriz identidade um múlti-


plo de outra linha, então det(E) = 1:

3. Se E foi obtida multiplicando uma linha da matriz identidade por um


número real x diferente de zero, então det(E) = x:

As matrizes elementares do caso (1) correspondem àquelas obtidas real-


izando sobre a matriz identidade a operação elementar Lr $ Ls : As do caso
(2), correspondem àquelas obtidas realizando sobre a matriz identidade a oper-
ação elementear xLs + Lr ! Lr : As do caso (3), correspondem àquelas obtidas
realizando sobre a matriz identidade a operação elementear xLr ! Lr onde x
é um número real não nulo.
Nos três caso, o determinante é diferente de zero. Assim, o determinante
de uma matriz elementar é sempre diferente de zero.
Exemplo. Calculando os determinantes abaixo efetuando o desenvolvi-
mento de Laplace pela primeira linha obtemos
2 3
0 0 1
det 4 0 1 0 5 = 1
1 0 0
2 3
1 0 0
det 4 0 1 0 5 = 1
5 0 1
2 3
1 0 0
det 4 0 1 0 5 = 7
0 0 7

Lema 2.8 Se E for uma matriz elementar e B uma matriz quadrada, ambas
com o mesmo tamanho, então

det(EB) = det(E) det(B):

Prova. Vamos dividir a prova em três etapas, uma para cada tipo de
matriz elementar.
(a) Se E foi obtida permutando duas linhas da matriz identidade, então
det(E) = 1 e a matriz EB é igual à matriz obtida ao permutar duas linhas
de B: Com isto,

det(EB) = det(B) = det(E) det(B):

Notas de aula do Professor Faleiros


92 Determinantes

(b) Se E foi obtida adicionando a uma linha da matriz identidade um


múltiplo de outra, então det(E) = 1 e a matriz EB é igual à matriz obtida a
partir de B adicionando a uma das suas linhas um múltiplo de outra. Logo,

det(EB) = det(B) = det(E) det(B):

(c) Se E foi obtida multiplicando uma linha da matriz identidade por um


número real x diferente de zero, então det(E) = x e a matriz EB é igual à
matriz obtida a partir de B quando se multiplica uma de suas linhas por x:
Então
det(EB) = x det(B) = det(E) det(B):

Lema 2.9 Se E1 ; E2 ; : : : ; Ek forem matrizes elementares e B uma matriz


quadrada, todas do mesmo tamanho, então

det(E1 E2 Ek ) = det(E1 ) det(E2 ) det(Ek )

e
det(E1 E2 Ek B) = det(E1 E2 Ek ) det(B):

Prova. Vamos provar o lema quando k = 3; usando sucessivamente o lema


anterior que assegura a igualdade det(EB) = det(E) det(B); sempre que E
for uma matriz elementar. Assim, sendo E1 ; E2 e E3 matrizes elementares,

det(E1 E2 E3 B) = det(E1 ) det(E2 E3 B)


= det(E1 ) det(E2 ) det(E3 B)
= det(E1 ) det(E2 ) det(E3 ) det(B) (2.18)

Fazendo B igual à matriz identidade I; segue a primeira igualdade enunciada


no teorema
det(E1 E2 E3 ) = det(E1 ) det(E2 ) det(E3 ): (2.19)
Retomando o desenvolvimento anterior, substituindo (2.19) em (2.18) obtemos

det(E1 E2 E3 B) = det(E1 ) det(E2 ) det(E3 ) det(B)


= det(E1 E2 E3 ) det(B)

Para um k genérico, a prova é feita por indução …nita em k: Sabemos que


det(EB) = det(E) det(B) sempre que E é uma matriz elementar. Supondo
que E1 ; E2 ; : : : ; Ek são matrizes elementares, vamos supor, como hipótese

Notas de aula do Professor Faleiros


2.4 Determinante do produto 93

de indução, que a propriedade vale quando B estiver multiplicada por k 1


matrizes elementares

det(E2 Ek B) = det(E2 ) det(Ek ) det(B):

Vamos provar que a propriedade vale quando B for multiplicada por k matrizes
elementares, ou seja, que

det(E1 E2 Ek B) = det(E1 ) det(E2 ) det(Ek ) det(B):

Sendo E1 elementar,

det(E1 E2 Ek B) = det(E1 ) det(E2 Ek B) = det(E1 ) det(E2 ) det(Ek ) det(B);

o que completa a prova por indução.

Lema 2.10 Se a matriz A for inversível, então det(A) 6= 0:

Prova. Quando A é inversível, podemos escrevê-la como um produto


de matrizes elementares A = E1 Ek : Os determinantes das matrizes el-
ementares são diferente de zero. Pelo lema anterior

det A = det E1 det Ek :

Logo, o det(A) é diferente de zero pois, ao multiplicar números reais distintos


de zero, obtemos um produto diferente de zero.

Lema 2.11 Se a matriz A for singular, então det(A) = 0:

Prova. Quando A é singular, sua forma escalonada reduzida R possui


ao menos uma linha nula, de modo que o determinante de R é igual a zero.
Existem matrizes elementares E1 ; : : : ; Ek tais que A = E1 Ek R; obtemos

det(A) = det(E1 Ek R) = det(E1 Ek ) det(R) = 0:

Usando os dois lemas anteriores, podemos enunciar

Teorema 2.12 1. Uma matriz quadrada A é inversível se, e só se, det(A) 6=


0:
2. Uma matriz quadrada A é singular se, e só se, det(A) = 0:

Notas de aula do Professor Faleiros


94 Determinantes

Agora estamos aptos a provar o teorema central desta seção.

Teorema 2.13 Se A e B forem matrizes quadradas de mesmo tamanho, então

det(AB) = det(A) det(B):

Prova. Se A for singular, AB é singular. Daí, tanto o det A quanto o


det(AB) são iguais a zero, o que resulta na igualdade det(AB) = det(A) det(B);
uma vez que os dois membros da igualdade são nulos.
Se A for inversível, existem matrizes elementares E1 ; : : : ; Ek tais que A =
E1 Ek : Daí,

det(AB) = det(E1 Ek B) = det(E1 Ek ) det B = det A det B:

Sendo A inversível ou singular, provamos que

det(AB) = det(A) det(B):

Corolário 2.14 Se A for inversível, então


1
det(A 1 ) = = (det A) 1 :
det(A)
Prova. Sendo A inversível sabemos que det(A) 6= 0: Calculando o determi-
nante dos dois membros da igualdade A 1 A = I; obtemos det(A 1 A) = det(I);
o que implica em det(A 1 ) det(A) = 1: Como det(A) 6= 0; podemos dividir os
dois membros desta igualdadde pelo determinante de A para obter
1
det(A 1 ) = = (det A) 1 :
det(A)

2.5 Matriz cofatora e a inversa


Seja A = [aij ] uma matriz quadrada de tamanho n n e cij o cofator (i; j) de
A: A matriz
2 3
c11 : : : c1n
6 7
cof(A) = 4 ... . . . ... 5
cn1 : : : cnn

Notas de aula do Professor Faleiros


2.5 Matriz cofatora e a inversa 95

é denominada de matriz de cofatores de A: É interessante observar que

cof(A)T = cof AT :

Desenvolvendo o determinante de A pela linha j; temos


X
n
ajk cjk = det(A):
k=1

Quando i 6= j; o somatório

X
n
aik cjk = 0
k=1
Pn
pois k=1 aik cjk é o determinante de uma matriz B obtida de A levando a
linha i para o lugar da linha j: As linha i e j desta nova matriz são iguais e
seu determinante é nulo.
Denotando por ij o elemento da linha i coluna j da matriz identidade de
ordem n; podemos escrever I = [ ij ] onde

1 se i = j
ij =
0 se i 6= j

onde os índices i e j percorrem o intervalo de números inteiros que vai do 1 ao


n: Os n2 símbolos ij de…nem o chamado delta de Kronecker. Com o delta
de Kronecker, podemos juntar as duas igualdades
X
n X
n
ajk cjk = det(A) e aik cjk = 0
k=1 k=1

deduzidas acima, numa única. A segunda é válida quando i 6= j: Ambas são


iguais a
X n
aik cjk = det(A) ij (2.20)
k=1
P
: ; ng: Quando i = j; temos nk=1 aik cjk
para todo i e todo j no conjunto f1; 2; : : P
n
= det(A) e, P quando i 6= j; obtemos k=1 aik cjk = 0: Aproveitamos para
destacar que nk=1 aik cjk é o elemento da linha i e coluna j do produto matri-
cial
A cof(AT )
e, por este motivo, as n2 igualdades escalares em (2.20) correspondem a uma
única igualdade matricial

Notas de aula do Professor Faleiros


96 Determinantes

A cof(AT ) = det(A)I:
Quando det(A) for diferente de zero,

cof(AT )
A =I
det(A)

e esta igualdade garante que a inversa de A é

1 1
A = cof(AT ):
det(A)
Esta fórmula raramente é usada na prática para calcular a inversa da matriz
embora seja útil no estudo teórico da inversa.

2.6 Combinação linear das linhas ou colunas


Sendo C1 ; C2 ; : : : ; Cn ; matrizes coluna, vamos denotar por

[C1 j C2 j j Cn ]

a matriz formada da seguinte maneira: a primeira coluna é formada pelas


entradas de C1 ; a segunda coluna é formada pelas entradas da matriz C2 ; e
assim por diante, sendo a última coluna formada pelas entradas da matriz Cn :
Sejam A; B; C2 ; : : : ; Cn matrizes coluna de mesmo tamanho n 1 e x; y
números reais. Vale a igualdade

det [xA + yB j C2 j j Cn ] = x det [A j C2 j j Cn ] + y det [B j C2 j j Cn ] :

Para provara igualdade acima, considere que


2 3 2 3 2 3 2 3
a1 b1 c12 c1n
6 .. 7 6 . 7 6 . 7 6 .. 7 :
A=4 . 5 ; B = 4 .. 5 ; C2 = 4 .. 5 ; : : : ; Cn = 4 . 5
an bn cn2 cnn

Desenvolvendo o determinante da matriz [xA + yB j C2 j j Cn ] pela primeira


coluna, segue

X
n
det [xA + yB j C2 j j Cn ] = (xai + ybi )ci1
i=1

Notas de aula do Professor Faleiros


2.6 Combinação linear das linhas ou colunas 97

onde ci1 é o cofator (i; 1) da matriz [xA + yB j C2 j j Cn ] : Prosseguindo,

X
n X
n
det [xA + yB j C2 j j Cn ] = x ai ci1 + y bi ci1
i=1 i=1
= x det [A j C2 j j Cn ] + y det [B j C2 j j Cn ] :

Provamos que, quando a primeira coluna de uma matriz é uma combinação


linear de duas matrizes coluna, o seu determinante pode ser decomposto numa
soma de múltiplos x e y de dois determinantes. Na primeira matriz, a primeira
coluna é A; na segunda matriz, a primeira coluna é B: Este resultado continua
verdadeiro se outra coluna qualquer for uma combinação linear de duas ma-
trizes coluna.
Propriedade semelhante se aplica quando uma linha é uma combinação
linear de duas linhas. Sendo A; B; L2 ; : : : ; Ln matrizes linha de mesmo
tamanho e x; y números reais, vale a igualdade
2 3 2 3 2 3
xA + yB A B
6 L2 7 6 L2 7 6 L2 7
6 7 6 7 6 7
det 6 .. 7 = x det 6 .. 7 + y det 6 .. 7
4 . 5 4 . 5 4 . 5
Ln Ln Ln

Para provar esta a…rmação basta transpor a matriz do lado esquerdo, quando
as linhas se transformam em colunas e aplicar a propriedade provada anteri-
ormente.
O resultado pode ser generalizado: Se A1 ; : : : ; Ak ; C2 ; : : : ; Cn forem ma-
trizes coluna n 1 e x1 ; : : : ; xk forem números reais, então
" k #
X Xk
det xs As j C2 j j Cn = xs det [As j C2 j j Cn ] :
s=1 s=1

O resultado continua válido se outra coluna qualquer for combinação linear


de matrizes coluna. Resultado semelhante se aplica ao trocarmos a palavra
coluna por linha.
Exemplo. De acordo com o que …cou provado, podemos escrever
2 3 2 3 2 3
3 + 10 1 0 1 1 0 2 1 0
4 5 4 5
det 6 + 15 7 2 = 3 det 2 7 2 + 5 det 3 4 7 2 5:
9 + 20 4 8 3 4 8 4 4 8

Notas de aula do Professor Faleiros


98 Determinantes

2.7 Regra de Cramer


Seja A uma matriz quadrada inversível de tamanho n n que, como sabemos,
possui determinante diferente de zero. Seja B um vetor coluna com n linhas.
Sabemos que existe uma única matriz coluna X de tamanho n 1 tal que
AX = B: Esta única matriz X é dada por X = A 1 B: Vamos mostrar a
regra de Cramer, segundo a qual, sendo X = [x1 ; : : : ; xn ]T a matriz coluna
para a qual AX = B; então

det(Bj )
xj =
det(A)
onde Bj é a matriz obtida de A substituíndo a sua coluna j por B

Bj = A1 j j Aj 1 j B j Aj+1 j j An :
"
coluna j

onde Aj denota a coluna j de A: Se X = [x1 ; : : : ; xn ]T for a matriz para a


qual AX = B; então
B = x1 A 1 + + xn An :
Deste modo,

det(B1 ) = det([B j A2 j j An ])
" n #
X
= det xj Aj j A2 j j An
j=1
X
n
= xj det [Aj j A2 j j An ] :
j=1

Na soma do lado direito, apenas o primeiro determinante é diferente de zero,


uma vez que as outras matrizes possuem duas colunas iguais, cujos determi-
nantes são iguais a zero. Logo,

det(B1 ) = x1 det([A1 j A2 j j An ]) = x1 det(A):

Sendo o det(A) 6= 0; obtemos


det(B1 )
x1 = :
det(A)
De modo semelhante se prova que
det(B2 ) det(Bn )
x2 = ; : : : ; xn = :
det(A) det(A)

Notas de aula do Professor Faleiros


2.7 Regra de Cramer 99

Hoje a regra de Cramer tem apenas interesse teórico. O método da elimi-


nação de Gauss é muito mais e…ciente para calcular a solução de um sistema
linear. O método de Gauss, a não ser em casos especiais, também passa a ser
ine…ciente quando o sistema possui muitas equações e muitas incógnitas, algo
como algumas dezenas de milhar. A partir daí é preciso usar outros processos
de solução. Este tema foge ao escopo deste curso e foi citado apenas para
aguçar a curiosidade do leitor.
Exemplo. Vamos resolver a equação

2 1 x 4
=
1 3 y 7

pelo método de Cramer. Temos

2 1 4 1 2 4
A= ; B1 = ; B2 =
1 3 7 3 1 7

cujos determinantes são

det(A) = 5; det(B1 ) = 5; det(B2 ) = 10:

Logo,
det(B1 ) 5 det(B2 ) 10
x= = = 1; y= = = 2:
det(A) 5 det(A) 5

O exemplo fornece a impressão, verdadeira por sinal, de que, mesmo para


sistema 3 3 o método de Cramer é bem trabalhoso.

Notas de aula do Professor Faleiros


100 Determinantes

Notas de aula do Professor Faleiros


Capítulo 3

Espaço vetorial

3.1 Corpo
Um corpo é uma estrutura matemática formada por um conjunto K que possui
pelo menos dois elementos e duas operações, denominadas adição e multi-
plicação, descritas a seguir. Os elementos do conjunto K são denominados
escalares. A adição é uma operação que atua sobre dois escalares x e y de K
e os leva no escalar x + y de K denominado soma de x e y: A multiplicação
é uma operação que atua sobre dois escalares x e y de K e os leva no escalar
x y em K; também denotado por xy; denominado produto de x e y: Como
x + y e xy pertencem a K; se diz que as duas operações possuem a propriedade
do fechamento. Ao dizer que K é um corpo, entenda-se que K é um conjunto
munido de duas operações e esta estrutura formada pelo conjunto e as duas
operações é que constitui o corpo.
Para o conjunto K e as operações de adição e multiplicação formarem um
corpo, é preciso que as propriedades abaixo sejam satisfeitas:

1. Comutatividade. Dados dois escalares x e y em K;

x+y =y+x
xy = yx

2. Associatividade. Dados três escalares x; y e z em K;

x + (y + z) = (x + y) + z
x(yz) = (xy)z

3. Elemento neutro. Existem dois escalares 0 (zero) e 1 (um) em K tais

Notas de aula do Professor Faleiros


102 Espaço vetorial

que, para todo escalar x em K;

x+0=0+x=x
x1 = 1x = x

O 0 (zero) é o elemento neutro da adição e o 1 (um) é o elemento neutro


da multiplicação.

4. Elemento simétrico.

(a) Para cada escalar x em K; existe um outro escalar em K; denotado


por x; e chamado de simétrico aditivo ou oposto de x; para o
qual
x + ( x) = ( x) + x = 0:
(b) Para cada escalar x em K diferente do zero, existe um outro escalar
em K; denotado por x 1 ; e chamado de simétrico multiplicativo
ou inverso de x; para o qual

x(x 1 ) = (x 1 )x = 1:

5. Distributividade. Dados três escalares x; y e z em K;

x(y + z) = xy + xz;
(x + y)z = xa + yz:

Exemplo. O conjunto dos números racionais Q com as operações usuais


de adição e multiplicação de números racionais é um corpo. Também é um
corpo o conjunto dos números reais R com as operações usuais de adição e
multiplicação de números reais. Outro corpo que merece menção é aquele
formado pelo conjunto dos números complexos C; com as operações usuais de
adição e multiplicação de números complexos.

Exemplo. Existem corpos com um número …nito de elementos. O número


de elementos de tais corpos é um número primo ou uma potência inteira de
um número primo. Sendo p um número primo, o conjunto

Zp = f 0; 1; : : : ; p 1g

com as operações de adição e multiplicação módulo p é um corpo …nito.


Para de…nir as operações modulares, lembramos que, sendo x e n números
inteiros, com n > 1; então x mod n é o resto não negativo da divisão inteira de

Notas de aula do Professor Faleiros


3.2 Espaço vetorial 103

x por p: Este resto é um número inteiro entre zero e n 1: Se a e b forem dois


inteiros em Zp ; a + b e ab denotam, respectivamente, a adição e multiplicação
usual de números inteiros. A operação (a + b) mod n é denominada adição
módulo n e a operação (ab) mod n é denominada multiplicação módulo n: Os
corpos …nitos cujo número de elementos é uma potência inteira de um número
primo possuem uma representação em termos de polinômios cujos coe…cientes
são escalares no corpo Zp : Não entraremos nos detalhes de como construir esses
corpos. Os corpos …nitos são muito utilizados em Criptogra…a.

3.2 Espaço vetorial


Um espaço vetorial é uma estrutura matemática formada por um conjunto
não vazio V; cujos elementos são denominados de vetores, um corpo K; cujos
elementos são denominados escalares, e duas operações, sendo uma delas
a adição de vetores e a outra a multiplicação de um vetor por um
escalar. Estas duas operações precisam satisfazer algumas propriedades que
serão descritas abaixo. Os vetores serão representados por letras em negrito e
os escalares serão designados com letras sem negrito.
Por simplicidade, frequentemente se diz apenas que V é um espaço veto-
rial. Todavia, nunca se deve esquecer que o espaço vetorial é uma estrutura
formada pelo conjunto V; pelo corpo K e pelas duas operações: adição de ve-
tores e multiplicação de um vetor por um escalar que devem possuir algumas
propriedades como se descreve abaixo. Para enfatizar o papel do corpo na
estrutura do espaço vetorial é usual dizer que V é um espaço vetorial sobre o
corpo K: Se K for o corpo dos números reais, se diz que o espaço vetorial V é
real. Se K for o corpo dos números complexos, se diz que o espaço vetorial V
é complexo.
A adição de vetores é uma operação que leva um par v e w de vetores
de V no vetor v + w de V chamado de soma de v e w: A multiplicação de
um escalar por um vetor é uma operação que leva um escalar x de K e
um vetor v de V no vetor x v de V denominado de múltiplo escalar de v ou
somente múltiplo de v: Quando for conveniente, sendo x um escalar e v um
vetor, pode-se escrever v x em lugar de x v e, quando x 6= 0; podemos escrever
v
x
em lugar de x 1 v:
Para o conjunto V ser um espaço vetorial sobre o corpo K é preciso que
as operações de adição de vetores e multiplicação de um vetor por um escalar
possuam as propriedades abaixo:

Notas de aula do Professor Faleiros


104 Espaço vetorial

Propriedades da adição:
1. Comutatividade. Para todo par v e w de vetores em V;

v + w = w + v:

2. Associatividade. Sendo u; v e w vetores em V;

(u + v) + w = u + (v + w):

3. Vetor nulo. Existe um vetor em V; chamado de vetor zero ou vetor


nulo, denotado por 0 (em negrito) tal que, para todo vetor v em V;

v + 0 = 0 + v = v:

4. Elemento oposto. Para cada vetor v em V; existe um vetor w em V;


chamado de vetor oposto de v; para o qual

v + w = w + v = 0:

Propriedades da multiplicação de um vetor por escalar:


1. Associatividade. Para todo par x e y de escalares em K e todo vetor
v em V;
x(y v) = (x y)v:

2. Distributividade. Se x e y forem escalares em K; v e w vetores em V;

x(v + w) = x v + x w;
(x + y)v = x v + y v:

3. Elemento unidade. Se 1 for o elemento neutro da multiplicação em K;


para todo vetor v em V;
1v = v:

Cada vetor v em V possui um único vetor oposto. De fato, se w1 e w2


forem dois vetores opostos de v; então

w1 = w1 + 0 = w1 + (v + w2 ) = (w1 + v) + w2 = 0 + w2 = w2 ;

o que prova a unicidade do oposto de um vetor v: Graças a esta unicidade,


denotamos o vetor oposto de v por v: A subtração do vetor u pelo vetor v
é a operação que leva os vetores u e v no vetor diferença u v de…nido por

u v = u + ( v):

Notas de aula do Professor Faleiros


3.2 Espaço vetorial 105

Ao de…nirmos as operações de adição de vetores e multiplicação de um


vetor por um escalar x; estabelecemos que a soma u + v e o produto x v per-
tencem ambos a V: Muitos autores incluem este fato entre as propriedades das
operações dizendo que o espaço vetorial V é fechado na adição de vetores
e fechado na multiplicação de um vetor por um escalar. Por brevidade
é usual falar que o espaço vetorial V é fechado na adição e na multiplicação.

Propriedades adicionais dos espaços vetoriais

A partir das propriedades enunciadas acima, pode-se extrair todas as demais.


Dentre elas, aquelas abaixo, onde 0 (sem negrito) denota o escalar zero, que é
o elemento neutro da adição no corpo dos escalares e 0 (com negrito) denota o
vetor nulo, que é o elemento neutro da adição no espaço vetorial V: Os símbolos
sem negrito são escalares e aqueles com negrito são vetores.

1. 0v = 0:

2. x 0 = 0:

3. ( 1)v = v:

4. Se x v = 0 então x = 0 ou v = 0:

Prova das propriedades:

1. 0v = (0 + 0)v = 0v+ 0v: Adicionando o oposto de 0v aos dois lados da


igualdade, segue 0v + ( 0v) = (0v+0v) + ( 0v) o que implica em 0 =
0v + (0v + ( 0v)) o que resulta em 0 = 0v:

2. x 0 = x(0 + 0) = x 0 + x 0: Seguindo o mesmo raciocínio desenvolvido


na prova anterior, isto implica em x 0 = 0:

3. (v + ( 1v)) = (1 + ( 1))v = 0v = 0: Logo, ( 1)v é um oposto de v:


Usando a unicidade do oposto, ( 1v) = v:

4. Se x v = 0 e x 6= 0; então v = 1v = (x 1 x)v = x 1 (x v) = x 1 0 = 0:
Isto prova que x ou v devem ser iguais a zero, uma vez que, quando x 6=
0; devemos ter v = 0:

Notas de aula do Professor Faleiros


106 Espaço vetorial

3.3 Conjuntos ordenados …nitos


Vamos descrever o exemplo mais importante de espaço vetorial.
Seja n um número inteiro positivo. Relembramos que um conjunto orde-
nado é delimitado por parêntesis. Se x1 ; : : : ; xn forem números reais, então
(x1 ; : : : ; xn ) é um conjunto ordenado de n números reais. Tais conjuntos
são denominados de n upla (leia-se ênupla) ordenada de números reais. Os
números reais x1 ; : : : ; xn ; são chamados de elementos da n upla. O ele-
mento xi ocupa a i ésima posição e i é o seu índice. Quando n = 2 ou 3;
usamos os termos par ordenado e terno ordenado para designar a n upla
correspondente. O

Rn = f (x1 ; : : : ; xn ) : xi 2 R para i = 1; : : : ; n g

é o conjunto de todas as n uplas ordenadas de números reais.


Para relembrar, duas ênuplas (x1 ; : : : ; xn ) e (y1 ; : : : ; yn ) são iguais, isto é,

(x1 ; : : : ; xn ) = (y1 ; : : : ; yn )

quando
x1 = y1 ; x2 = y2 ; : : : ; xn = yn :
A adição de duas n uplas é a operação que leva x = (x1 ; : : : ; xn ) e y = (y1 ;
: : : ; yn ) em
x + y = (x1 + y1 ; : : : ; xn + yn ):
A multiplicação de um número real por uma ênupla é a operação que
leva um número real s e a n upla x = (x1 ; : : : ; xn ) na n upla

s x = ( s x1 ; : : : ; s xn ):

A n upla x + y é chamada de soma de x e y; a n upla s x é chamada de


múltiplo escalar de x: Estas são as operações usuais de adição e multiplicação
no Rn : A menos que se especi…que o contrário, sempre que nos referirmos ao
Rn ; estas operações estarão sendo consideradas.
O Rn ; com estas duas operações, é um espaço vetorial real, cujo vetor nulo
ou vetor zero é
0 = (0; : : : ; 0)
onde todos os elementos são iguais a zero. Note que usamos 0 com negrito
para indicar o vetor nulo e 0 sem negrito para indicar o escalar zero.
A n upla oposta de x = (x1 ; : : : ; xn ) é

x = ( x1 ; : : : ; xn ):

Notas de aula do Professor Faleiros


3.4 Outros espaços vetoriais relevantes 107

A prova de que as operações de adição de ênuplas e a multiplicação de um


número real por uma ênupla obedecem a todas as propriedades das operações
de um espaço vetorial decorrem das propriedades da adição e multiplicação de
números reais.
No Rn ; a subtração é a operação de…nida por
(x1 ; : : : ; xn ) (y1 ; : : : ; yn ) = (x1 y1 ; : : : ; xn yn ):
Quando tratarmos o Rn de espaço vetorial, sem de…nir explicitamente as
operações de adição e multiplicação, estaremos nos referindo ao espaço vetorial
constituído pelo Rn e pelas operações que acabamos de de…nir.
O Rn é um espaço vetorial real muito importante por ser o mais simples e
ser o protótipo dos espaços vetoriais de dimensão …nita. Explicaremos adiante
o que vem a ser dimensão …nita.
Podemos de…nir operações de adição e multiplicação no Rn diferentes daque-
las de…nidas anteriormente. Entretanto, elas não resultam, necessariamente,
em espaços vetoriais. Para ilustrar este fato, considere o conjunto R2 dos pares
ordenados de números reais onde se de…nem as operações de adição de pares
ordenados e de multiplicação de um número real s por um par (x1 ; x2 ) da
seguinte maneira
(x1 ; x2 ) + (y1 ; y2 ) = (x1 + y1 ; x2 + y2 )
s (x1 ; x2 ) = (s x1 ; 0):
A adição é a usual mas a multiplicação de um número real por um par ordenado
é diferente daquele de…nido anteriormente. O R2 ; com estas operações, não é
um espaço vetorial real pois 1(1; 2) = (1; 0); que é diferente de (1; 2); não
satisfazendo a propriedade 1v = v relativa aos espaços vetoriais.

3.4 Outros espaços vetoriais relevantes


1. Sejam m e n números inteiros positivos. O conjunto Mm n (R) das matrizes
reais m n com as operações de adição de matrizes e multiplicação de um
número real por uma matriz é um espaço vetorial real.
2. O conjunto das funções polinomiais reais, com as operações de adição de
polinômios e multiplicação de um número real por um polinômio é um espaço
vetorial real.
3. Sendo n um número inteiro positivo, o conjunto das funções polinomiais
reais de grau menor ou igual a n; com as operações de adição de polinômios e
multiplicação de um número real por um polinômio é um espaço vetorial real.
4. Considere o conjunto das funções reais contínuas, com domínio num
intervalo aberto (a; b) de números reais e imagem em R: Este conjunto, com

Notas de aula do Professor Faleiros


108 Espaço vetorial

as operações de adição de funções e multiplicação de um número real por uma


função é um espaço vetorial real.
5. O conjunto V = f0g que contém um único elemento, onde se de…ne
0 + 0 = 0 e x 0 = 0 para todo escalar x pertencente a um corpo K; é um
espaço vetorial sobre K denominado de espaço vetorial nulo.

3.5 Subespaços vetoriais


Seja S um subconjunto não vazio de um espaço vetorial V: Neste momento,
observe que, sendo V um espaço vetorial, nele há uma adição de vetores e uma
multiplicação de vetores por escalares. Como S está contido em V; podemos
adicionar os vetores de S e multiplicá-los por escalares. Diremos que o subcon-
junto S é fechado na adição se, dados dois vetores u e v em S; a soma u + v
pertence a S: O subconjunto S é fechado na multiplicação por escalar se,
dado um vetor v em S e um escalar c; o vetor c v pertence a S: Um subcon-
junto não vazio de um espaço vetorial V; fechado na adição e na multiplicação
por escalar, é denominado subespaço vetorial de V:

Teorema 3.1 Todo subespaço vetorial contém o vetor nulo.

Prova. Seja v um vetor qualquer do subespaço vetorial S: Multiplicando v


pelo escalar 0; obtém-se o vetor zero, uma vez que 0 v = 0: Como S é fechado
na multiplicação por escalar, 0 pertence a S:

Todo subespaço vetorial é um espaço vetorial, como se enuncia no próximo


teorema.

Teorema 3.2 Seja S um subespaço vetorial de V: Então S; com aquelas oper-


ações de adição e multiplicação de…nidas em V; também é um espaço vetorial.

Prova. Sendo S um subespaço vetorial de V; ele está contido em V: Todo


vetor de S também pertence a V: Se podemos adicionar dois vetores de V;
podemos adicionar dois vetores em S: Se podemos multiplicar um escalar por
um vetor de V podemos multiplicar um escalar por um vetor de S: Sendo S um
subespaço vetorial de V; ele é fechado na adição de vetores e na multiplicação
de um escalar por um vetor. Graças a isso, para todo escalar x e para todo
par de vetores v e w de S; tanto v + w quanto x v pertencem a S:
Se a adição de vetores é comutativa para todos os vetores de V; então,
a adição continua comutativa para os vetores de S: Se a adição de vetores é
associativa para todos os vetores de V; então, a adição continua associativa
para os vetores de S: O vetor nulo pertence a S: Dado v em S então v =

Notas de aula do Professor Faleiros


3.5 Subespaços vetoriais 109

( 1)v também pertence a S pela propriedade do fechamento. De modo todas


as outras propriedades das operações em V se transferem para os vetores de
S: Logo, S é um espaço vetorial.

Se V é um espaço vetorial, então o próprio V e o conjunto f0g; contendo


apenas o vetor nulo, são subespaços vetoriais de V denominados triviais. Em
particular, o subespaço vetorial que contém apenas o vetor nulo 0 é denomi-
nado de espaço nulo.
Seja S um subepaço vetorial de um espaço vetorial real. Se S possuir um
vetor não nulo v; então, para todo real x; o vetor xv pertence a S: Logo, o
número de elementos de S é in…nito.

Exemplos de subespaços vetoriais


O cérebro raciocina melhor quando conseguimos associar imagens geométricas
a estruturas algébricas.
O plano geométrico é usado para representar geométricamente os pontos do
2
R : Estabelecido um sistema de coordenadas cartesianas ortogonais no plano
geométrico, associa-se ao par (a; b) de números reais o ponto P do plano
cujas coordenadas neste sistema forem a e b: Podemos falar indistintamente
que (a; b) é um par ordenado de números reais ou que (a; b) é um ponto do
plano geométrico. Neste caso, estamos nos referindo ao ponto P do plano de
coordenadas (a; b):
O espaço geométrico é usado para representar geométricamente os pon-
tos do R3 : Estabelecido um sistema de coordenadas cartesianas ortogonais no
espaço geométrico, associa-se ao terno ordenado (a; b; c) de números reais o
ponto P do espaço cujas coordenadas neste sistema forem a; b e c: Podemos
falar indistintamente que (a; b; c) é um terno ordenado de números reais ou que
(a; b; c) é um ponto do espaço geométrico. Neste caso, estamos nos referindo
ao ponto P do espaço com coordenadas (a; b; c):
Uma reta no plano geométrico é um conjunto de pontos (x; y) deste plano
que obedecem a equações paramétricas da forma
x = a1 + b1 t;
y = a2 + b2 t;
onde a1 ; a2 ; b1 ; b2 são números reais e t é um parâmetro que percorre o conjunto
dos números reais. Para cada valor real de t; as expressões acima fornecem
um ponto (x; y) da reta. Esta reta passa pela origem (0; 0) quando existir um
número real t para o qual
a1 + b 1 t = 0
a2 + b 2 t = 0

Notas de aula do Professor Faleiros


110 Espaço vetorial

Exemplo. A reta cujos pontos (x; y) satisfazem às equações paraméricas


x = 2 t;
y = 4 + 2t;
cujo parâmetro t pode receber qualquer valor real, passa pela origem (0; 0)
quando t = 2: Esta reta
f (x; y) : x = 2 t; y = 4 + 2t; t 2 R g
é um subespaço vetorial do R2 :

Uma reta no espaço geométrico é um conjunto de pontos (x; y; z) deste


espaço que obedecem a equações paramétricas da forma
x = a1 + b1 t;
y = a2 + b2 t;
z = a3 + b3 t;
onde a1 ; a2 ; a3 ; b1 ; b2 ; b3 são números reais e t é um parâmetro que percorre
o conjunto dos números reais. Para cada valor real de t; as expressões acima
fornecem um ponto (x; y; z) da reta. Uma reta no espaço passa pela origem
(0; 0; 0) quando existir um número real t para o qual
a1 + b 1 t = 0
a2 + b 2 t = 0
a3 + b 3 t = 0

Exemplo. A reta cujos pontos (x; y; z) satisfazem às equações paramétri-


cas
x = 3t; y= t; z = 2t;
onde o parâmetro t percorre o conjunto dos números reais, passa pela origem
(0; 0) quando t = 0: Esta reta
f (x; y; z) : x = 3t; y = t; z = 2t; t 2 R g
é um subespaço vetorial do R3 :

Um plano no espaço geométrico é um conjunto de pontos (x; y; z) deste


espaço que obedecem a equações paramétricas da forma
x = a1 + b1 r + c1 s;
y = a2 + b2 r + c2 s;
z = a3 + b3 r + c3 s;

Notas de aula do Professor Faleiros


3.5 Subespaços vetoriais 111

onde a1 ; a2 ; a3 ; b1 ; b2 ; b3 ; c1 ; c2 ; c3 ; são números reais e r; s são parâmetros


que percorrem o conjunto dos números reais. Para cada par de valores reais
atribuídos a r e s; as expressões acima fornecem um ponto (x; y; z) do plano.
Um plano no espaço passa pela origem (0; 0; 0) quando existirem números
reais r e s para os quais

a1 + b1 r + c1 s = 0;
a2 + b2 r + c2 s = 0;
a3 + b3 r + c3 s = 0:

Exemplo. O plano cujos pontos (x; y; z) satisfazem às equações paramétri-


cas
x=1+r s; y=2 r; z=6 2s;
onde os parâmetros r e s percorrem o conjunto dos números reais, passa pela
origem (0; 0; 0) quando r = 2 e s = 3: Este plano

f (x; y; z) : x = 1 + r s; y = 2 r; z = 6 2s; r; s 2 R g

é um subespaço vetorial do R3 :
Fazendo a mudança de parâmetros v = r 2 e w = s 3; as equações
paramétricas acima se reduzem a

x=v w; y= v; z= 2w

e passa pela origem quando v = w = 0: Sempre é possível fazer uma mudança


de parâmetros de modo que o plano passa pela origem (0; 0; 0) quando os
parâmetros assumem valor zero. O plano

f (x; y; z) : x = v w; y = v; z = 2w; v; w 2 R g

é o mesmo que o apresentado acima, só que com outros parâmetros v e w:


Assim, é um subespaço vetorial do R3 :

Exemplo. Considere o espaço vetorial formado pelo conjunto M2 2 (R)


das matrizes quadradas reais de tamanho 2 2; pela adição de matrizes e pela
multiplicação de um número real por uma matriz. São exemplos de subespaços
vetoriais desse espaço vetorial:
1. O subconjunto das matrizes simétricas

a b
: a; b; c 2 R :
b c

Notas de aula do Professor Faleiros


112 Espaço vetorial

2. O subconjunto das matrizes diagonais

a 0
: a; b 2 R :
0 b

3. O subconjunto das matrizes triangulares superiores

a b
: a; b; c 2 R :
0 c

4. O subconjunto das matrizes triangulares inferiores

a 0
: a; b; c 2 R :
b c

Exemplo. Considere o espaço vetorial real formado pelo conjunto F (0; 1)


das funções reais com domínio no intervalo aberto (0; 1) de números reais e
pelas operações de adição de funções e multiplicação de um número real por
uma função. Lembramos que, se f; g : (0; 1) ! R forem duas funções em F (0;
1); então, para todo número real c e para todo x no intervalo (0; 1);

(f + g)(x) = f (x) + g(x) e (cf )(x) = cf (x):

São subespaços vetoriais desse espaço vetorial:


1. O conjunto das funções reais contínuas de…nidas no intervalo (0; 1):
2. O conjunto das funções reais de…nidas no intervalo (0; 1) e com derivada
contínua nesse intervalo.
3. O conjunto das funções reais de…nidas no intervalo (0; 1) e com derivadas
contínuas até uma ordem m nesse intervalo.
4. O conjunto das funções reais de…nidas no intervalo (0; 1) e com derivadas
contínuas de todas as ordens nesse intervalo.
5. O conjunto das funções reais polinomiais de…nidas no intervalo (0; 1):

Exemplo. Consideremos o espaço vetorial Mn 1 (R) das matrizes coluna


reais n 1: Seja A uma matriz retangular real m n e 0 a matriz nula m 1:
O conjunto solução

S = f X 2 Mn 1 (R) : AX = 0 g

da equação matricial homogênea AX = 0 é um subespaço vetorial do conjunto


das matrizes reais n 1: De fato, se X1 e X2 forem duas matrizes coluna tais

Notas de aula do Professor Faleiros


3.5 Subespaços vetoriais 113

que AX1 = 0 e AX2 = 0; então A(X1 + X2 ) = AX1 + AX2 = 0 + 0 = 0 e


A(cX1 ) = c(AX1 ) = 0: Mostramos que o conjunto de matrizes coluna n 1
tais que AX = 0 é fechado na soma e na multiplicação por um número real.
Logo, S é um subespaço vetorial do espaço de matrizes coluna Mn 1 (R):
1. Sendo 2 3
1 2 3
A=4 2 4 6 5;
3 6 9
T
a solução geral de AX = 0 é o conjunto formado pelas matrizes coluna x y z
nas quais x 2y + 3z = 0:
2. Quando
2 3
1 2 3
A=4 3 7 8 5
2 4 6
T
a solução geral de AX = 0 é o conjunto formado pelas matrizes coluna x y z
onde x = 5t; y = t; z = t; sendo t um número real qualquer.
3. Quando
2 3
1 2 3
A=4 3 7 8 5
4 1 2
T
a única solução de AX = 0 é a matriz coluna nula 0 0 0 e o conjunto
solução é o subespaço trivial, que contém apenas a matriz nula.
4. Quando
2 3
0 0 0
A = 4 0 0 0 5;
0 0 0

o espaço solução de AX = 0 é todo o espaço das matrizes 3 1:

Exemplo. Vamos apresentar um subconjunto de um espaço vetorial que


não é subespaço. O conjunto S de todos os pares ordenados de números reais
(x; y) em que y = x2 não é um subespaço vetorial do R2 por não ser fechado
na multiplicação por escalar. Observe que, enquanto (2; 4) pertence a S; o seu
múltiplo 3(2; 4) = (6; 12) não pertence a S pois 62 = 36 6= 12: O conjunto
S; não sendo fechado na multiplicação de um escalar por um vetor, não é
subespaço vetorial do R2 :

Notas de aula do Professor Faleiros


114 Espaço vetorial

3.6 Combinação linear


Se v1 ; v2 ; : : : ; vn forem vetores de um espaço vetorial V e s1 ; s2 ; : : : ; sn forem
escalares, então o vetor
s 1 v1 + + sn v n
é uma combinação linear (CL) dos vetores v1 ; : : : ; vn ; com coe…cientes s1 ;
s2 ; : : : ; sn : Se todos os escalares s1 ; : : : ; sn forem iguais a zero, a combinação
linear é denominada trivial e resulta no vetor nulo. Se pelo menos um dos
escalares for diferente de zero, a combinação linear é denominada não trivial.
Sendo s um escalar e v um vetor, o múltiplo sv de v é uma combinação linear
de um único vetor.
Exemplo. O terno ordenado de números reais u = (9; 2; 7) é uma combi-
nação linear dos vetores v = (1; 2; 1); w = (6; 4; 2) do R3 pois

u= 3v + 2w:

Por outro lado, o z = (4; 1; 8) não é combinação linear de v e w: De fato,


se z fosse uma combinação linear de v e w; existiriam números reais x e y tais

z = xv + yw

e, neste caso, x e y deveriam satisfazer ao sistema de equações algébricas


lineares

x + 6y = 4;
2x + 4y = 1;
x + 2y = 8:

Escalonando o sistema, chegamos a

x + 6y = 4;
8y = 9;
0=3

onde a última equação é inconsistente. Logo, z não é combinação linear dos


vetores v e w:

Exemplo. Sejam e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1) vetores do R3 :


O vetor (2; 3; 1) é uma combinação linear de e1 ; e2 ; e3 pois

(2; 3; 1) = 2e1 + 3e2 1e3 :

Notas de aula do Professor Faleiros


3.7 Espaço gerado 115

Aliás, todo vetor x = (x1 ; x2 ; x3 ) do R3 é uma combinação linear de e1 ; e2 ; e3 ;


uma vez que
x = x1 e1 + x2 e2 + x3 e3 :

3.7 Espaço gerado


Seja k um número inteiro positivo e

G = fv1 ; : : : ; vk g

um conjunto …nito e não vazio de vetores pertencentes a um espaço vetorial V


não nulo. O conjunto

S = f c1 v 1 + + ck vk : c1 ; : : : ; ck 2 R g

formado por todas as combinações lineares dos vetores v1 ; : : : ; vk é um sube-


spaço vetorial de V; chamado espaço vetorial gerado por G ou espaço veto-
rial gerado por v1 ; : : : ; vk : Observe que o vetor nulo está em S pois

0 = 0v1 + + 0vk

é a combinação linear trivial de v1 ; : : : ; vn :


Também é usual dizer que G é um conjunto gerador de S e ainda que os
vetores v1 ; : : : ; vk geram S: O espaço vetorial gerado por G é denotado por

S = ger(G) ou S = ger(v1 ; : : : ; vk ):

Exemplo. O subconjunto

S = f (a; 2a + b; b) : a; b 2 R g

do R3 é gerado pelos vetores (1; 2; 0); (0; 1; 1) do R3 pois todo vetor de S é da


forma
(a; 2a + b; b) = a(1; 2; 0) + b (0; 1; 1):

Exemplo. Seja x = (x1 ; x2 ; x3 ) um terno ordenado não nulo de números


reais. O subespaço gerado por ele é o conjunto formado pelos vetores da forma
cx; onde c é um número real. Tal conjunto é uma reta que passa pelo zero (0;

Notas de aula do Professor Faleiros


116 Espaço vetorial

0; 0): Um ponto y qualquer desta reta satisfaz à equação vetorial y = tx; com
t percorrendo os reais.

Exemplo. O conjunto fe1 ; e2 ; e3 g de vetores do R3 ; onde

e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1);

gera todo o R3 :

Exemplo. O conjunto de ternos ordenados

f (1; 1; 2); (1; 0; 1); (2; 1; 3) g

não gera o R3 : De fato, não existem números reais x; y; z tais que

x(1; 1; 2) + y(1; 0; 1) + z(2; 1; 3) = (1; 0; 0):

Se existissem, eles satisfariam ao sistema de equações algébricas lineares

x + y + 2z = 1;
x + z = 0;
2x + y + 3z = 0:

O leitor pode veri…car que este sistema é inconsistente e isto prova que o
conjunto dado não gera todo o R3 pois (1; 0; 0) não está no espaço gerado por
este conjunto.

Exemplo. Todo polinômio real a + bx + cx2 de grau menor ou igual a 2 na


variável x; é uma combinação linear dos polinômios 1; x; x2 : Logo, o conjunto
f1; x; x2 g gera o espaço vetorial dos polinômios reais de grau menor ou igual
a 2:

Propriedades dos espaços gerados


1. Seja G = fv1 ; : : : ; vn g um conjunto …nito e não vazio de vetores de um
espaço vetorial V não nulo. O espaço gerado por G não se altera ao:

(a) permutar a posição dos vetores de G;


(b) multiplicar um dos vetores de G por um escalar não nulo;
(c) adicionar a um vetor de G um múltiplo de outro vetor de G;

Notas de aula do Professor Faleiros


3.8 Dependência e independência linear 117

(d) incluir em G um vetor igual a uma combinação linear dos vetores


de G;
(e) retirar de G um vetor igual a uma combinação linear dos demais
vetores de G:

2. Sejam G1 e G2 dois conjuntos …nitos e não vazios de vetores de um espaço


vetorial V não nulo. Os conjuntos G1 e G2 geram o mesmo espaço vetorial
se, e só se, os vetores de G1 forem combinações lineares dos vetores de
G2 e os vetores de G2 forem combinações lineares dos vetores de G1 :

3.8 Dependência e independência linear


Seja G = fv1 ; :::; vn g um conjunto …nito e não vazio de vetores de um espaço
vetorial V não nulo. Quando existirem escalares c1 ; c2 ; : : : ; cn nem todos nulos
para os quais
c1 v 1 + + cn vn = 0;
diz-se que o conjunto G é linearmente dependente (LD) ou então que os
vetores v1 ; : : : ; vn são linearmente dependentes. Quando um conjunto
de vetores não for linearmente dependente, diremos que ele é linearmente
independente (LI). Neste caso, os únicos escalares c1 ; : : : ; cn para os quais
c1 v 1 + + cn vn = 0;
são c1 = 0; c2 = 0; : : : ; cn = 0: Dados os vetores v1 ; : : : ; vn ; podemos olhar
para
c1 v 1 + + cn vn = 0;
como sendo uma equação vetorial cujas incógnitas são os escalares c1 ; c2 ; : : : ;
cn : Esta equação sempre possui a solução c1 = 0; : : : ; cn = 0; denominada
solução trivial. Se esta for a única solução da equação vetorial, o conjunto
G = fv1 ; :::; vn g é linearmente independente. Quando a equação vetorial
possuir soluções não triviais, o conjunto G é linearmente dependente.
Exemplo. O conjunto de vetores
v1 = (2; 1; 0); v2 = (1; 2; 5); v3 = (7; 1; 5)
do R3 é linearmente dependente pois
3v1 + v2 v3 = 0:
Ao explicitar v3 obtemos este vetor como uma combinação linear de v1 e v2
v3 = 3v1 + v2 :

Notas de aula do Professor Faleiros


118 Espaço vetorial

Também é possível escrever v1 ou v2 como uma combinação linear dos outros


dois
1 1
v1 = v 2 + v3 ;
3 3
v2 = 3v1 + v3:

O exemplo anterior mostra que, se um conjunto de vetores é linearmente


dependente (LD), então pelo menos um dos vetores é uma combinação linear
dos demais.
Exemplo. Os vetores

e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1)

do R3 formam um conjunto linearmente independente de vetores.

Exemplo. O conjunto formado pelos vetores

v1 = (1; 2; 3); v2 = (5; 6; 1); v3 = (3; 2; 1)

do R3 é linearmente dependente. De fato, a equação vetorial

x(1; 2; 3) + y(5; 6; 1) + z(3; 2; 1) = (0; 0; 0)

corresponde à equação matricial homogênea


2 32 3 2 3
1 5 3 x 0
4 2 6 2 54 y 5 = 4 0 5:
3 1 1 z 0

Aplicando o método de Gauss para resolvê-la, chegamos a duas equações não


nulas

x + 5y + 3z = 0
2y + z = 0:

Explicitando x na primeira, z na segunda e aplicando a substituição reversa


para eliminar z no lado direito da equação em x; segue x = y e z = 2y: Sendo
y uma variável livre, o sistema homogêneo possui solução não trivial. Fazendo,
por exemplo y = 1; obtemos

v 1 + v2 2v3 = 0:

Notas de aula do Professor Faleiros


3.8 Dependência e independência linear 119

Fica provado que o conjunto de vetores fv1 ; v2 ; v3 g é linearmente dependente.


Note que v1 + v2 2v3 não é a única combinação linear de v1 ; v2 ; v3 igual
a zero. Para qualquer número real y real, yv1 + yv2 2yv3 = 0:

Exemplo. Consideremos o espaço vetorial P2 (R) dos polinômios reais com


grau menor ou igual a 2: Os polinômios

p(x) = 1 x; q(x) = 5 + 3x 2x2 ; r(x) = 1 + 3x x2

formam um conjunto linearmente dependente em P2 (R) uma vez que

3p q + 2r = 0:

Observe que esta é uma igualdade entre polinômios. O zero do lado direito é
o polinômio nulo. A igualdade 3p q+ 2r = 0 signi…ca que

3p(x) q(x) + 2r(x) = 0

para todo x real.

Exemplo. Vamos provar que conjunto de polinômios f1; x; : : : ; xn g é


linearmente independente em Pn (R): Sejam c1 ; c2 ; : : : ; cn números reais não
nulos para os quais
c1 1 + c2 x + + cn x n = 0
para todo x real. Fazendo x = 0; obtemos c1 = 0: Derivando em relação a
x os dois lados da igualdade e fazendo x = 0; obtemos c2 = 0: Derivando
sucessivamente o polinômio e fazendo x = 0; obtemos c3 = = cn = 0;
n
mostrando que o conjunto f1; x; : : : ; x g é linearmente independente.

Exemplo. O conjunto formado pelas funções f (x) = x e f (x) = sen x


é linearmente independente no espaço vetorial das funções reais com domínio
em R: De fato, se c1 e c2 forem dois números reais tais que c1 x+ c2 sen x = 0
para todo x real, derivando a igualdade em x obteríamos o sistema em c1 e c2

c1 x + c2 sen x = 0
c1 + c2 cos x = 0

que, para x = =2; possui apenas a solução trivial, uma vez que

=2 sen =2 =2 1
det = det = 1 6= 0:
1 cos =2 1 0

Notas de aula do Professor Faleiros


120 Espaço vetorial

Se, para x = =2 o sistema

c1 x + c2 sen x = 0
c1 + c2 cos x = 0

possui apenas a solução trivial c1 = 0 e c2 = 0; por maior razão a única solução


deste sistema válida para todo x é a trivial.

O teorema que segue mostra a origem do termo dependência linear. Nele


se prova que, quando um conjunto de vetores é linearmente dependente, há
uma dependência linear entre seus vetores. Com isto queremos dizer que
um dos vetores é uma combinação linear dos demais.

Teorema 3.3 Um conjunto …nito e não vazio de vetores é linearmente depen-


dente se, e só se, um dos seus vetores for uma combinação linear dos demais.

Prova. Seja G = fv1 ; : : : ; vn g um conjunto linearmente dependente. En-


tão existem escalares c1 ; : : : ; cn ; nem todos nulos, tais que

c1 v 1 + + cn v n = 0

Supondo que c1 6= 0; então


c2 cn
v1 = v2 + + vn
c1 c1
mostrando que v1 é combinação linear de v2 ; : : : ; vn : Se ci for diferente de
zero, para algum i; é possível explicitar vi e obtê-lo como combinação linear
dos demais.
Reciprocamente, se v1 = a2 v2 + + an vn ; então

1:v1 a2 v 2 an v n = 0

e o conjunto G é linearmente dependente. Observe que pelo menos o coe…ciente


de v1 é diferente de zero uma vez que é igual a 1:

Propriedades da dependência linear


1. Todo conjunto …nito de vetores que contém o vetor nulo é linearmente
dependente.

2. Todo conjunto com um único vetor é linearmente dependente se, e só se,


este vetor for o vetor nulo.

Notas de aula do Professor Faleiros


3.9 Dependência linear de funções 121

3. Todo conjunto com apenas dois vetores é linearmente dependende se, e


só se, um for múltiplo escalar do outro.

4. Se incluirmos um vetor em um conjunto linearmente dependente, ele


continua linearmente dependente.

5. Se retirarmos um vetor de um conjunto linearmente independente com


pelo menos dois vetores, ele continua linearmente independente.

6. Seja G conjunto linearmente independente. O vetor w é uma combinação


linear dos vetores G se, e só se, o conjunto obtido ao incluir w em G for
linearmente dependente.

3.9 Dependência linear de funções


Esta seção é um pouco mais avançada e pode ser omitida num primeiro curso
de Álgebra Linear.
Sejam a e b números reais com a < b: O a pode ser 1 e o b pode ser
+1 e observamos que ( 1; +1) é o conjunto dos números reais. Considere
o conjunto F (a; b) das funções reais com domínio no intervalo aberto (a; b) de
números reais. O conjunto F (a; b) é formado por funções do tipo f : (a; b)
! R com domínio em (a; b) e imagem em R: Duas funções f e g em F (a; b)
são iguais e se escreve f = g; quando f (x) = g(x) para todo x em (a; b):
Sendo f e g duas funções em F (a; b); de…nimos a adição de funções como
sendo a operação que associa ao par (f; g) de funções a função soma f + g :
(a; b) ! R de…nida por (f + g)(x) = f (x) + g(x): Sendo c um número real,
de…nimos a multiplicação de um número real por uma função como sendo a
operação que associa ao par (c; f ) a função produto cf : (a; b) ! R de…nida por
(cf )(x) = cf (x): O conjunto F (a; b); com as operações de adição de funções e
multiplicação de um número real por uma função, é um espaço vetorial real.
O conceito de dependência linear de vetores também se aplica às funções,
como elementos do espaço vetorial F (a; b): Sendo f1 ; f2 ; : : : ; fn funções em
F (a; b); o conjunto G = ff1 ; f2 ; : : : ; fn g é linearmente dependente se
existirem números reais c1 ; c2 ; : : : ; cn ; nem todos nulos, tais que

c1 f 1 + + cn fn = 0:

Observe que esta é uma igualdade entre funções e o 0 (zero) do lado direito é a
função identicamente nula, que leva todo x do intervalo (a; b) no zero. Desta
forma, a igualdade anterior implica em

c1 f1 (x) + + cn fn (x) = 0

Notas de aula do Professor Faleiros


122 Espaço vetorial

para todo x no intervalo (a; b): Como as funções envolvidas estão de…nidas
no intervalo (a; b); diremos que o conjunto de funções é linearmente depen-
dente em (a; b): Quando o conjunto não for linearmente dependente em (a;
b); diremos que o conjunto de funções é linearmente independente em (a;
b): Isto signi…ca que c1 = 0; c2 = 0; : : : ; cn = 0 é a única sequência de números
reais para a qual
c1 f1 (x) + + cn fn (x) = 0
em todo x no intervalo (a; b):
Exemplo. O conjunto formado pelas funções f1 (x) = sen2 x; f2 (x) =
cos2 x; f3 (x) = 5 de…nidas no conjunto dos números reais é linearmente depen-
dente em R pois 5f1 (x) + 5f2 (x) f3 (x) = 0 para todo x real, o que implica
na igualdade 5f1 + 5f2 f3 = 0: Nesta igualdade, o zero do lado direito é a
função nula, aquela que leva todo x no zero.

Wronskiano
Sejam a e b números reais, com a < b: O a pode ser 1 e o b pode ser +1: Seja
n um número inteiro positivo. O conjunto das funções reais em F (a; b) com
derivadas de ordem n contínuas no intervalo (a; b); é um subespaço vetorial de
F (a; b) denotado por C n (a; b): Como toda função com derivada contínua de
ordem n em (a; b) possui derivada de ordem n 1 contínua em (a; b); temos a
inclusão
C n (a; b) C n 1 (a; b):
Seja G = ff1 ; : : : ; fn g um conjunto …nito e não vazio de funções em
n 1
C (a; b): Se G for linearmente dependente em (a; b); existe uma sequência
não nula de escalares c1 ; : : : ; cn ; de modo que
c1 f1 (x) + + cn fn (x) = 0
para todo x em (a; b): Como as funções possuem derivadas contínuas até a
ordem n 1; podemos derivar sucessivamente a igualdade acima obtendo o
sistema
c1 f1 (x) + + cn fn (x) = 0
0 0
c1 f1 (x) + + cn fn (x) = 0

(n 1)
c1 f 1 (x) + + cn fn(n 1)
(x) = 0
Fixado o ponto x; as equações acima formam um sistema homogêneo de
equações algébricas lineares com n equações nas n incógnitas c1 ; c2 ; : : : ; cn :

Notas de aula do Professor Faleiros


3.9 Dependência linear de funções 123

Como este sistema algébrico possui solução não trivial, o determinante da ma-
triz dos coe…cientes deve ser igual a zero
2 3
f1 (x) fn (x)
6 .. ... .. 7
det 4 . . 5=0
(n 1) (n 1)
f1 (x) fn (x)

para todo x no intervalo (a; b): Este determinante é chamado de wronskiano


das funções f1 ; f2 ; : : : ; fn no ponto x e é denotado por

W [f1 ; : : : ; fn ](x):

Para simpli…car a notação, pode-se denotar o wronskiano das funções f1 ; f2 ;


: : : ; fn por W (x) e, neste caso, o contexto deve informar quais são as funções
envolvidas.
Quando um conjunto de funções for linearmente dependente em (a; b);
mostramos que o wronskiano delas é igual a zero para todo x em (a; b): A
recíproca desta propriedade não é verdadeira. Nem sempre um wronskiano
nulo em todos os pontos do intervalo (a; b) implica na dependência linear das
funções envolvidas.
Exemplo. Sejam f e g funções reais de…nidas por f (x) = x2 e g(x) =
x jxj ; para todo x no intervalo ( 2; 2): Quando x < 0; note que g(x) = x2 e,
quando x > 0; g(x) = x2 : Enquanto W [f; g](x) = 0 para todo x em ( 2; 2); o
conjunto de funções G = ff; gg é linearmente independente em ( 2; 2): Para
calcular o wronskiano em x = 0; o leitor deverá calcular a derivada de g em x
= 0: Para tanto, é preciso calcular as derivadas laterais de g em x = 0

0 + g(x) g(0) x2
g (0 ) = lim+ = lim+ =0
x!0 x x!0 x
g(x) g(0) x2
g 0 (0 ) = lim = lim =0
x!0 x x!0 x
e assim concluir que g 0 (0) = 0: Para provar a independência linear deste con-
junto de funções no intervalo dado, considere que c1 e c2 são dois números reais
tais que c1 x2 + c2 x j x j = 0 para todo x em ( 2; 2): Fazendo x = 1 e x = 1
na igualdade anterior obtemos o sistema

c1 c2 = 0
c1 + c2 = 0

cuja única solução é a trivial c1 = 0 e c2 = 0: Isto mostra que o conjunto G


é linearmente independente no intervalo ( 2; 2): Mostre que o conjunto de

Notas de aula do Professor Faleiros


124 Espaço vetorial

funções f e g são linearmente dependentes no intervalo ( 1; 0) e no intervalo


(0; +1): No primeiro intervalo, f + g = 0 e, no segundo intervalo, f g=
0:

Teorema 3.4 Seja G = ff1 ; : : : ; fn g um conjunto …nito e não vazio de


funções em C n 1 (a; b):
1. Se G for linearmente dependente, W [f1 ; : : : ; fn ](x) = 0 para todo x em
(a; b):
2. Se W [f1 ; : : : ; fn ](x0 ) 6= 0 em algum ponto x0 de (a; b); então G é lin-
earmente independente em (a; b):

Prova. 1. Se G for linearmente dependente em (a; b); existem números


reais c1 ; c2 ; : : : ; cn ; nem todos nulos, tais que c1 f1 (x) + + cn fn (x) = 0
para todo x em (a; b): Derivando esta igualdade n 1 vezes em relação a x
segue

c1 f1 (x) + + cn fn (x) = 0
0 0
c1 f1 (x) + + cn fn (x) = 0

(n 1)
c1 f 1 (x) + + cn fn(n 1)
(x) = 0

o que implica em W [f1 ; : : : ; fn ](x) = 0 para todo x em (a; b):


2. Se W [f1 ; : : : ; fn ](x0 ) 6= 0 para algum x0 em (a; b); o primeiro item deste
teorema garante que o conjunto G é linearmente independente em (a; b):

Exemplo. O wronskiano das funções x e x3 em x = 1 é igual a 2: Desta


forma, o conjunto de funções fx; x3 g é linearmente independente em todo
intervalo aberto (a; b) que contenha o ponto x = 1:

Exemplo. O wronskiano das funções x e sen x é igual a

x sen x
W [x; sen x](x) = det = x cos x sen x:
1 cos x

No ponto x = ; este wronskiano é igual a : Sendo o wronskiano diferente de


zero em x = ; o conjunto fx; sen xg é linearmente independente em qualquer
intervalo aberto que contém este ponto.

Notas de aula do Professor Faleiros


3.9 Dependência linear de funções 125

Exemplo. O wronskiano das funções 1; ex e e2x é


2 3
1 ex e2x
W [1; ex ; e2x ](x) = det 4 0 ex 2e2x 5 = 2e3x
0 ex 4e2x
Em x = 0 este wronskiano é igual a 2; o que garante a independência linear
do conjunto f 1; ex ; e2x g em qualquer intervalo aberto que contém o ponto x
= 0:

Quando o wronskiano for igual a zero em todos os pontos do intervalo


(a; b); não podemos a…rmar que o conjunto G = ff1 ; : : : ; fn g é linearmente
dependente em (a; b); a não ser que se incluam hipóteses adicionais. Quando
as funções envolvidas forem soluções de uma equação diferencial linear, temos
o seguinte resultado:

Teorema 3.5 Sejam a e b números reais com a < b: Sejam a0 (x); : : : ; an 1 (x)
funções contínuas no intervalo aberto (a; b): Sejam
y = f1 (x); : : : ; y = fn (x)
soluções no intervalo (a; b) da equação diferencial ordinária homogênea
y (n) + an 1 (x)y (n 1)
+ + a1 (x)y 0 (x) + a0 (x)y = 0:
O conjunto de funções
f f1 ; : : : ; f n g
é linearmente dependente em (a; b) se, e só se, o wronskiano
2 3
f1 (x) fn (x)
6 .. .. .. 7
W (x) = det 4 . . . 5
(n 1) (n 1)
f1 (x) fn (x)
for igual a zero para algum x0 em (a; b): Além disso, se o wronskiano for igual
a zero em um ponto de (a; b); ele será igual a zero em todos os pontos deste
intervalo.

O teorema acima nos permite concluir que, quando y = f1 (x); : : : ; y =


fn (x) forem soluções em (a; b) da equação diferencial ordinária
y (n) + an 1 (x)y (n 1)
+ + a1 (x)y 0 (x) + a0 (x)y = 0;
onde a0 (x); a1 (x); : : : ; an 1 (x) são funções contínuas em (a; b) e W (x) = 0 em
um ponto de (a; b); então o conjunto de funções G = ff1 ; : : : ; fn g é linearmente
dependente em (a; b):

Notas de aula do Professor Faleiros


126 Espaço vetorial

Exemplo. O wronskiano das funções x e x2 é igual a zero em x = 0 mas é


diferente de zero quando x 6= 0: Isto signi…ca que não existe equação diferencial
linear de segunda ordem do tipo

y 00 + a1 (x)y 0 + a0 (x)y = 0

com a1 (x); a0 (x) contínuas num intervalo (a; b) que contenha o zero e possuindo
x e x2 como soluções. Todavia, x e x2 são soluções da equação diferencial

x2 y 00 2 xy 0 + 2 y = 0

em toda a reta. Note que não há contradição com o teorema anterior, uma vez
que esta equação não se encontra na forma apresentada no enunciado. Para
ter o coe…ciente de y 00 igual a 1; devemos dividi-la por x2

y 00 (2=x)y 0 + (2=x2 )y = 0

e as funções 2=x e 2=x2 não são contínuas em x = 0:

3.10 Base e dimensão


Em R2 ; consideremos os conjuntos G1 = fe1 ; e2 g; G2 = fu1 ; u2 g e G3 = fv1 ;
v2 ; v3 g; onde

e1 = (1; 0) ; e2 = (0; 1) ;
u1 = (1; 2) ; u2 = (1; 1) ;
v1 = (1; 0) ; v2 = (0; 1) ; v3 = (1; 1) :

Observe que tomamos v1 = e1 e v2 = e2 : Qualquer par ordenado (x; y) do R2


é uma combinação linear dos vetores de G1 uma vez que

(x; y) = x e1 + y e2
Do mesmo modo, (x; y) é uma combinação linear dos vetores de G2 ; considerando-
se que

(x; y) = (y x)u1 + (2x y)u2


e também é uma combinação linear dos vetores de G3 ; pois

(x; y) = (x c)v1 + (y c)v2 + cv3 ;

Notas de aula do Professor Faleiros


3.10 Base e dimensão 127

para qualquer número real c: Isto signi…ca que todos os três conjuntos G1 ; G2
e G3 geram o R2 : Há apenas uma maneira de escrever (x; y) como combinação
linear de vetores de G1 : A mesma observação vale para os vetores de G2 :
Há uma única maneira de escrever o par (x; y) numa combinação linear dos
vetores de G2 : Como veremos adiante, isto decorre da independência linear dos
conjuntos G1 e G2 :
Ao escrever (x; y) como combinação linear dos vetores de G3 ; vemos que
há mais de um modo de fazê-lo. A cada escolha do número real c; temos uma
combinação linear diferente. Esta falta de unicidade decorre da dependência
linear deste conjunto. Os três conjuntos G1 ; G2 e G3 geram o R2 ; sendo G1 e G2
linearmente independentes e G3 linearmente dependente. Essas considerações
nos levam ao conceito de base.
De…nição 3.6 Seja B um conjunto …nito e não vazio de vetores de um espaço
vetorial V não nulo. O conjunto B é uma base de V se
1. for gerador de V ;
2. for linearmente independente.
De…nição 3.7 A base do espaço vetorial nulo f0g é o conjunto vazio =f
g:

Exemplo. Sejam v1 = (1; 1; 4); v2 = (0; 1; 2) e v3 = (1; 2; 1) vetores


do R3 : Vamos provar que o conjunto B = fv1 ; v2 ; v3 g é uma base do R3 :
1. Vamos veri…car que B gera o R3 : Dado um terno ordenado qualquer x
= (x1 ; x2 ; x3 ) de números reais, vamos veri…car que existem números reais c1 ;
c2 e c3 tais que
x = c1 v 1 + c2 v 2 + c3 v 3 :
Substituindo x; v1 ; v2 ; v3 pelos seus valores em termos de ternos ordenados,
chegamos à igualdade vetorial
(x1 ; x2 ; x3 ) = c1 (1; 1; 4) + c2 (0; 1; 2) + c3 (1; 2; 1)
que corresponde ao sistema de equações algébricas lineares
1c1 + 0c2 + 1c3 = x1 ;
1c1 + c2 + 2c3 = x2 ;
4c1 2c2 c3 = x3 ;
cuja solução é
c1 = 3x1 2x2 x3 ;
c2 = 7x1 5x2 3x3 ;
c3 = 2x1 + 2x2 + x3 :

Notas de aula do Professor Faleiros


128 Espaço vetorial

Isto garante que G gera o R3 : Todo terno ordenado x de números reais é


uma combinação linear c1 v1 + c2 v2 + c3 v3 : Basta tomar c1 ; c2 ; c3 dados pelas
expressões acima. Quando x = (1; 3; 2); por exemplo, obtemos c1 = 5;
c2 = 14; c3 = 6:
2. Vamos provar que G é linearmente independente. Fazendo x = 0 na
combinação linear x = c1 v1 + c2 v2 + c3 v3 ; obtemos c1 = c2 = c3 = 0; provando
que G é linearmente independente.

Exemplo. Vamos determinar uma base do conjunto solução da equação


matricial homogênea
2 3
2 3 x1 2 3
2 2 1 0 1 6 7 0
6 1 1 2 3 1 7 6 x2 7 6 0 7
6 7 6 x3 7 = 6 7 :
4 1 1 2 0 1 56 7 4 0 5
4 x4 5
0 0 1 1 1 0
x5
Usando o método de Gauss, obtemos a sua solução geral, que é o conjunto das
soluções da forma 2 3 2 3 2 3
x1 1 0
6 x2 7 6 0 7 6 1 7
6 7 6 7 6 7
6 x3 7 = r 6 1 7 + s 6 1 7
6 7 6 7 6 7
4 x4 5 4 0 5 4 0 5
x5 1 1
onde r e s são parâmetros que podem variar livremente no conjunto dos
números reais. Logo, o conjunto
82 3 2 39
>
> 1 0 >
>
>
>6 0 7 6 1 7> >
< 6 7 6 7=
6 7 6
G= 6 1 7 ; 6 1 7 7
>
> 4 0 5 4 0 5> >
>
> >
>
: ;
1 1
com duas matrizes coluna, gera a solução geral da equação dada. Sendo G
linearmente independente, ele é uma base para o espaço de soluções da equação
matricial linear apresentada.

Teorema 3.8 Unicidade da representação em uma base. Se B = fv1 ;


v2 ; : : : ; vn g é uma base de um espaço vetorial não nulo V; então, para cada
vetor w em V; existe uma única ênupla (a1 ; a2 ; : : : ; an ) de escalares para a
qual
w = a1 v 1 + a2 v 2 + + an vn :

Notas de aula do Professor Faleiros


3.10 Base e dimensão 129

A combinação linear a1 v1 + a2 v2 + + an vn é chamada de decomposição


de w na base B:

Prova. A existência da n upla (a1 ; a2 ; : : : ; an ) é garantida uma vez que


B é um conjunto gerador de V: Para provar a unicidade, vamos supor que
existem duas ênuplas (a1 ; a2 ; : : : ; an ) e (b1 ; b2 ; : : : ; bn ) para as quais

w = a1 v 1 + a2 v 2 + + an v n ;
w = b1 v 1 + b2 v 2 + + bn v n :

Subtraindo uma da outra, segue

(a1 b1 )v1 + (a2 b2 )v2 + + (an bn )vn = w w = 0:

Da independência linear de B; concluímos que ai = bi para i = 1; 2; : : : ; n:


Isto prova a unicidade da decomposição de w numa combinação linear dos
elementos da base.

Seja
w = a1 v 1 + a2 v 2 + + an v n
a decomposição de w na base B = fv1 ; v2 ; : : : ; vn g: Os escalares

a1 ; : : : ; a n

são chamados de coordenadas de w na base

B = fv1 ; v2 ; : : : ; vn g:

A n upla
(a1 ; : : : ; an )
do Rn é chamada de vetor das coordenadas de w na base B e é denotada
por (w)B : A matriz coluna 2 3
a1
6 .. 7
4 . 5
an
é chamada de matriz das coordenadas de w na base B e é denotada por
[w]B :
O vetor das coordenadas depende da ordem na qual escrevemos os vetores
da base. Uma mudança na ordem em que escrevemos os vetores da base
resulta numa mudança correspondente na ordem das entradas nos vetores das
coordenadas.

Notas de aula do Professor Faleiros


130 Espaço vetorial

Bases canônicas
Existem bases que, pela sua simplicidade e aplicabilidade, recebem o nome de
bases canônicas.
O conjunto formado pelos pares ordenados e1 = (1; 0) e e2 = (0; 1) é a base
canônica do R2 e todo vetor (x; y) do R2 pode ser decomposto na combinação
linear
(x; y) = xe1 + ye2 :
O conjunto formado pelas trincas ordenadas e1 = (1; 0; 0); e2 = (0; 1; 0) e
e3 = (0; 0; 1) é a base canônica do R3 e todo vetor (x; y; z) do R3 pode ser
decomposto na combinação linear

(x; y; z) = xe1 + ye2 + ze3 :

É usual denotar os vetores da base canônica do R2 por i; j e do R3 por i; j


e k em vez de e1 ; e2 ; e3 : Podemos utilizar as duas notações, de acordo com a
conveniência.
Considere as n uplas ordenadas de números reais

e1 = (1; 0; : : : ; 0); e2 = (0; 1; : : : ; 0); : : : ; en = (0; 0; : : : ; 1):

Na n upla ei ; apenas a entrada que ocupa a i ésima posição é diferente de


zero e igual a 1: O conjunto fe1 ; : : : ; en g é a base canônica do Rn : Todo vetor
(x1 ; : : : ; xn ) do Rn pode ser decomposto na combinação linear

(x1 ; : : : ; xn ) = x1 e1 + + xn e n :

O conjunto de polinômios f1; t; t2 ; : : : ; tn g na variável t é a base canônica do


espaço vetorial formado pelos polinômios de grau menor ou igual a n: Observe
que todo polinômio real a0 + a1 t + + an tn de grau menor ou igual a n; é
n
uma combinação linear de 1; t; : : : ; t e a0 ; a1 ; : : : ; an são as coordenadas do
polinômio na base f1; t; t2 ; : : : ; tn g:
O conjunto formado pelas matrizes
1 0 0 1 0 0 0 0
A1 = ; A2 = ; A3 = ; A4 =
0 0 0 0 1 0 0 1
é a base canônica do espaço vetorial das matrizes quadradas reais de ordem
2 2 e toda matriz
a b
A=
c d
é uma combinação linear dos elementos da base canônica

A = aA1 + bA2 + cA3 + dA4 :

Notas de aula do Professor Faleiros


3.10 Base e dimensão 131

Propriedades relacionadas às bases


Seja n um número inteiro positivo e V um espaço vetorial que possui uma base
com n vetores. Então:

1. Qualquer subconjunto …nito de V com mais do que n vetores é linear-


mente dependente.

2. Qualquer subconjunto de V com menos do que n vetores não gera V:

3. Todas as bases de V possuem n vetores. Esta propriedade é conhecida


como Princípio da Invariância.

4. Um conjunto linearmente independente com n vetores é base de V:

5. Um conjunto gerador de V com n vetores é base de V:

6. Pode-se incluir vetores a um conjunto linearmente independente com


menos do que n vetores, até obter uma base de V:

7. Um conjunto gerador …nito de V com mais do que n vetores pode ser


reduzido a uma base de V; retirando um a um aqueles vetores do conjunto
gerador que são combinações lineares dos que vão …cando, até chegar a
um conjunto linearmente independente.

Exemplo. A base canônica fe1 ; e2 g do R2 possui dois elementos. O


conjunto B = fv1 ; v2 g; formado pelos vetores v1 = ( 3; 7) e v2 = (5; 5) é
linearmente independente e, possuindo dois vetores, B é uma base de R2 :

Exemplo. A base canônica fe1 ; e2 ; e3 g do R3 possui três elementos. O


conjunto B = fv1 ; v2 v3 g; formado pelos vetores v1 = (2; 0; 1); v2 = (4; 0;
7) e v3 = ( 1; 1; 4) gera o R3 e, possuindo três vetores, B é uma base do R3 :

De…nição 3.9 Um espaço vetorial V é …nitamente gerado se for o espaço


vetorial nulo ou se houver um subconjunto …nito e não vazio de vetores de V
que o gera.

Teorema 3.10 Todo espaço vetorial …nitamente gerado possui base.

Notas de aula do Professor Faleiros


132 Espaço vetorial

Prova. Se V for o espaço vetorial nulo, sua base é o conjunto vazio.


Se V não for o espaço vetorial nulo, seja G um subconjunto …nito e não
vazio de vetores que gera V: Se G for linearmente independente, ele é base
de V e o teorema está provado. Em caso contrário, um dos vetores de G é
uma combinação linear dos demais. Retirando este vetor de G; obtemos um
conjunto G1 que ainda gera V: Se G1 for linearmente independente, ele é base
de V e o teorema estará provado. Se G1 não for linearmente independente,
um dos seus vetores é combinação linear dos demais. Retirando este vetor
de G1 ; obtendo um conjunto G2 que também gera V: Continuando com este
processo de retirar um a um os vetores que são combinações lineares dos que
vão …cando, chegamos a um conjunto linearmente independente que gera V:
Este conjunto é base de V e o teorema está provado.

Se um espaço vetorial V não nulo possuir uma base com n elementos, pelo
princípio da invariância, todas as suas bases terão n elementos. Neste caso,
se diz que V possui dimensão …nita e que sua dimensão é n: Indicaremos
este fato escrevendo dim(V ) = n: O espaço vetorial nulo f0g é tratado à parte.
Por de…nição, sua base é o conjunto vazio e sua dimensão é zero. Quando um
espaço vetorial não possuir base …nita, diremos que sua dimensão é in…nita.
Um espaço vetorial V possui dimensão …nita se, e só se, for …nitamente gerado.

Exemplo. Sejam m e n números inteiros positivos. A base canônica do


Rn possui n vetores. Logo, dim(Rn ) = n: O conjunto f1; x; x2 ; : : : ; xn g; com
n + 1 elementos é uma base do espaço vetorial Pn (R); dos polinômios reais
de grau menor ou igual a n: Logo, dim(Pn (R)) = n + 1: A base canônica do
espaço vetorial Mm n (R); das matrizes reais de tamanho m n; possui m n
elementos e, portanto, sua dimensão é m n:

Exemplo. Os espaços vetoriais deste exemplo não são …nitamente gerados


e assim, possuem dimensão in…nita. Seja (a; b) um intervalo aberto e não
vazio de números reais que pode ser, inclusive, o conjunto R dos números reais.
Considere o conjunto C k (a; b) das funções reais f : (a; b) ! R com domínio
no intervalo (a; b) e tendo derivadas contínuas até a ordem k neste intervalo.
Este conjunto, com as operações de adição de funções e multiplicação de um
número real por uma função é um espaço vetorial real de dimensão in…nita.
O conjunto das funções polinomiais reais com as operações de adição de
polinômios e multiplicação de um número real por um polinômio é um espaço
vetorial real e sua dimensão é in…nita. Alertamos para o fato de que neste
conjunto estão todos os polinômios, não havendo limitação quanto ao grau.

Notas de aula do Professor Faleiros


3.10 Base e dimensão 133

Agora provaremos que a dimensão de um subespaço é menor ou igual à


dimensão do espaço vetorial que o contém.
Teorema 3.11 Seja S um subespaço não nulo de um espaço vetorial V de
dimensão …nita. Então S possui dimensão …nita e
dim(S) dim(V ):
Quando dim(S) = dim(V ); então S = V:
Prova. Seja n a dimensão de V: Considere todos os subconjuntos de S
que são linearmente independentes. Estes subconjuntos possuem, no máximo,
n elementos, que é a dimensão de V: Destes subconjuntos, tome um dentre
aqueles que possuem o maior número de vetores. Seja B este conjunto que,
por construção, é linearmente independente e possui no máximo n vetores. Se
B não for base de S; existe um vetor v de S que não é combinação linear dos
vetores de B: Isto signi…ca que o conjunto obtido ao incluir v em B continua
linearmente independente. Entretanto, isto não é possível, uma vez que não
há conjunto linearmente independente com mais vetores do que B: Logo, B é
base de S e possui no máximo n vetores. Concluímos que dim(S) dim(V ):
Quando dim(S) = dim(V ) = n; toda base B de S possui n vetores e é
linearmente independente. Todo conjunto linearmente independente com n
vetores é base de V: Isto signi…ca que todo vetor v de V é uma combinação
linear de vetores de B e, portanto, pertence a S: Daí, V S e, como S é
subespaço de V; S V; o que implica na igualdade S = V:

Exemplo. Considere o subespaço vetorial


S = f (a; 2a) : a 2 Rg
do R2 : Todo vetor de S é um múltiplo de (1; 2): O conjunto f (1; 2) g gera S
e é LI. Logo, é base de S e dim(S) = 1 2 = dim(R2 ):

Exemplo. Considere o subespaço vetorial


S = f (x; 0; y) : x; y 2 Rg
do R3 : Todo vetor de S é da forma
(x; 0; y) = x(1; 0; 0) + y(0; 0; 1)
de modo que o conjunto B = f (1; 0; 0); (0; 0; 1) g gera S: Como B também é
linearmente independente, ele é base de S: Daí, dim(S) = 2 3 = dim(R3 ):

Notas de aula do Professor Faleiros


134 Espaço vetorial

3.11 Matriz de mudança de base


Seja n um número inteiro positivo e V um espaço vetorial de dimensão n:
Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g duas bases de V: Podemos
decompor cada vetor de B1 numa combinação linear dos vetores de B2

v1 = a11 w1 + a21 w2 + + an1 wn


v2 = a12 w1 + a22 w2 + + an2 wn

vn = a1n w1 + a2n w2 + + ann wn

onde aij é a coordenada de vj na direção de wi ; para i e j percorrendo os


valores inteiros de 1 a n: Usando o símbolo de somatório, as igualdades acima
podem ser escritas de forma compacta
X
n
vj = aij wi ; para j = 1; 2; : : : ; n:
i=1

A matriz 2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
M12 = 6 .. .. .. .. 7
4 . . . . 5
an1 an2 ann
é chamada de matriz de mudança da base B1 para a base B2 ou, sim-
plesmente, matriz de mudança de base. Se diz ainda que M12 é a matriz de
transição da base B1 para a base B2 : Observe que a primeira coluna de M12
é a matriz das coordenadas de v1 na base B2 ; a segunda coluna de M12 é a
matriz das coordenadas de v2 na base B2 ; e assim por diante.
Exemplo. Sejam B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g bases do R3 ;
onde
v1 = (0; 1; 3); v2 = (1; 2; 1); v3 = (1; 0; 3):
e
w1 = (1; 0; 1); w2 = (0; 1; 1); w3 = (0; 0; 2):
Podemos calcular os coe…cientes aij para os quais

(0; 1; 3) = a11 (1; 0; 1) + a21 (0; 1; 1) + a31 (0; 0; 2);


(1; 2; 1) = a12 (1; 0; 1) + a22 (0; 1; 1) + a32 (0; 0; 2);
(1; 0; 3) = a13 (1; 0; 1) + a23 (0; 1; 1) + a33 (0; 0; 2);

onde cada igualdade vetorial corresponde a três igualdades escalares.

Notas de aula do Professor Faleiros


3.11 Matriz de mudança de base 135

A primeira igualdade vetorial corresponde a três igualdades escalares


1a11 + 0a21 + 0a31 = 0;
0a11 + 1a21 + 0a31 = 1;
1a11 + 1a21 + 2a31 = 3:
Resolvendo este sistema de equações algébricas lineares obtemos a11 = 0; a21
= 1 e a31 = 1:
A segunda igualdade vetorial corresponde a outras três igualdades escalares
1a12 + 0a22 + 0a32 = 1;
0a12 + 1a22 + 0a32 = 2;
1a12 + 1a22 + 2a32 = 1:
Resolvendo este sistema de equações algébricas lineares obtemos a12 = 1; a22
= 2 e a32 = 1:
Finalmente, a terceira igualdade vetorial corresponde a
1a13 + 0a23 + 0a33 = 1;
0a13 + 1a23 + 0a33 = 0;
1a13 + 1a23 + 2a33 = 3:
A solução deste sistema de equações algébricas lineares é a13 = 1; a23 = 0 e
a33 = 1:
Chegamos à seguinte relação entre os vetores das bases B1 e B2
v 1 = w2 + w3
v2 = w1 + 2w2 w3
v 3 = w1 + w3
de onde extraímos a matriz de transição da base B1 para a base B2 :
2 3
0 1 1
M12 = 4 1 2 0 5:
1 1 1

Nota 3.12 A matriz dos coe…cientes dos três sistemas algébricos resolvidos
no exemplo anterior são iguais para todos
2 3
1 0 0
4 0 1 0 5
1 1 2

Notas de aula do Professor Faleiros


136 Espaço vetorial

Deste modo podemos resolver simultaneamente os três sistemas usando o método


de Gauss-Jordan para a matriz completa
2 3
1 0 0 0 1 1
4 0 1 0 1 2 0 5
1 1 2 3 1 3
cuja escalonada reduzida é
2 3
1 0 0 0 1 1
4 0 1 0 1 2 0 5
0 0 1 1 1 1
A matriz da metade direita é M12 ; a matriz de transição da base B1 para a
base B2 :
Teorema 3.13 Sejam B1 ; B2 e B3 bases de um espaço vetorial V de dimensão
n: Se M12 for a matriz de transição da base B1 para a base B2 ; se M23 for a
matriz de transição da base B2 para a base B3 ; então
M13 = M23 M12
é a matriz de transição da base B1 para a base B3 :
Prova. Sejam B1 = fv1 ; : : : ; vn g; B2 = fw1 ; : : : ; wn g e B3 = fu1 ; : : : ; un g
bases de um espaço vetorial V de dimensão n: Podemos escrever os vetores de
uma base como combinações lineares dos elementos das outras bases. Podemos
calcular as decomposições
X
n X
n X
n
vj = aij wi ; wj = bij ui e vj = cij ui
i=1 i=1 i=1

de onde extraímos
M12 = [aij ] ; M23 = [bij ] e M13 = [cij ] ;
respectivamente, as matrizes de mudança da base B1 para a base B2 ; da base B2
para a base B3 e da base B1 para a base B3 : O elemento da linha i coluna j de
cada uma dessas matrizes é aij ; bij ; cij ; respectivamente. Destas decomposições
segue
X
n X
n X
n
vj = akj wk = akj bik ui
k=1 k=1 i=1
!
Xn X
n X
n
= bik akj ui = cij ui
i=1 k=1 i=1

Notas de aula do Professor Faleiros


3.11 Matriz de mudança de base 137

Da independência linear do conjunto B3 = fu1 ; : : : ; un g; podemos escrever a


igualdade
X
n
cij = bik akj
k=1

para i e j variando de 1 a n: Tais igualdades entre escalares correspondem à


uma única igualdade matricial

M13 = M23 M12 :

Exemplo. Consideremos as três bases do R2

B1 = fv1 ; v2 g com v1 = ( 3; 2); v2 = (4; 3)


B2 = fv10 ; v20 g com v10 = (1; 0); v20 = ( 1; 1)
B3 = fv100 ; v200 g com v100 = (1; 1); v200 = (1; 2)

Podemos escrever os vetores da base B1 como combinação linear dos vetores


da base B2

v1 = ( 3; 2) = 1(1; 0) + 2( 1; 1) = 1v10 + 2v20


v2 = (4; 3) = 1(1; 0) 3( 1; 1) = 1v10 3v20

de modo que a matriz de transição da base B1 para a base B2 é


1 1
M12 = :
2 3
Pode-se decompor os vetores da base B2 nos vetores da base B3

v10 = (1; 0) = 2(1; 1) 1(1; 2) = 2v100 1v200


v20 = ( 1; 1) = 3(1; 1) + 2(1; 2) = 3v100 + 2v200

donde retiramos a matriz de transição da base B2 para a base B3


2 3
M23 = :
1 2
Finalmente, decompondo os vetores da base B1 como combinação linear de
vetores da base B3 ; segue

v1 = ( 3; 2) = 8(1; 1) + 5(1; 2) = 8v100 + 5v200


v2 = (4; 3) = 11(1; 1) 7(1; 2) = 11v100 7v200

Notas de aula do Professor Faleiros


138 Espaço vetorial

e a matriz de transição da base B1 para a base B3 é


8 11
M13 = :
5 7
Esta matriz pode ser obtida realizando a multiplicação
2 3 1 1 8 11
M23 M12 = = = M13 :
1 2 2 3 5 7

Teorema 3.14 Sejam B1 e B2 bases de um espaço vetorial V de dimensão


…nita. Se M12 for a matriz de transição da base B1 para a base B2 ; se M21 for
a matriz de transição da base B2 para a base B1 ; então
M21 M12 = I;
onde I e a matriz identidade. Em outras palavras, M12 e M21 são inversíveis
e uma é a inversa da outra
1 1
M21 = (M12 ) e M12 = (M21 ) :
Prova. Sendo B1 ; B2 e B3 três bases de um espaço vetorial V de dimensão
…nita, sabemos que
M23 M12 = M13 ;
onde M12 ; M23 e M13 são as matrizes de transição de B1 para B2 ; de B2 para
B3 e de B1 para B3 ; respectivamente. Fazendo B3 igual a B1 ; a matriz de
transição M13 é a matriz identidade I e M23 = M21 : Com tais considerações,
chega-se a
M21 M12 = I:
Esta igualdade mostra que as matrizes de mudança de base são inversíveis e
que a inversa de M12 é M21 :

Exemplo. Consideremos as duas bases do R2


B1 = fv1 ; v2 g com v1 = ( 3; 2); v2 = (4; 3)
B2 = fw1 ; w2 g com w1 = (1; 0); w2 = ( 1; 1)
Decompondo os vetores da base B1 como combinação linear dos vetores da
base B2 ; obtemos
v1 = ( 3; 2) = 1(1; 0) + 2( 1; 1) = 1w1 + 2w2
v2 = (4; 3) = 1(1; 0) 3( 1; 1) = 1w1 3w2

Notas de aula do Professor Faleiros


3.11 Matriz de mudança de base 139

de modo que a matriz de transição da base B1 para a base B2 é

1 1
M12 = :
2 3

Ao decompor os vetores da base B2 numa combinação linear dos vetores da


base B1 ; se chega a

w1 = (1; 0) = 3( 3; 2) 2(4; 3) = 3v1 2v2


w2 = ( 1; 1) = 1( 3; 2) 1(4; 3) = 1v1 1v2

donde retiramos a matriz de transição da base B2 para a base B1

3 1
M21 = :
2 1

Para veri…car que M21 é a inversa de M12 fazemos o produto

1 1 3 1 1 0
M12 M21 = = = I:
2 3 2 1 0 1

Teorema 3.15 Seja B1 = fv1 ; : : : ; vn g uma base de um espaço vetorial V


com dimensão n: Se 2 3
a11 a1n
6 7
M = 4 ... . . . ... 5
an1 ann
for uma matriz inversível e os vetores w1 ; : : : ; wn forem de…nidos por

w1 = a11 v1 + + an1 vn
..
.
wn = a1n v1 + + ann vn

então B2 = fw1 ; : : : ; wn g é base de V e M é a matriz de transição da base


B2 para a base B1 :

Exemplo. Considere os pares ordenados de números reais v1 = (1; 1) e


v2 = (2; 1): O conjunto

B1 = fv1 ; v2 g = f (1; 1); (2; 1) g

Notas de aula do Professor Faleiros


140 Espaço vetorial

é base do R2 : A matriz
1 2
M=
3 1
é inversível. Sendo

w1 = 1v1 + 3v2 = 1(1; 1) + 3(2; 1) = (7; 2);


w2 = 2v1 1v2 = 2(1; 1) 1(2; 1) = (0; 3);

podemos a…rmar que

B2 = f w1 ; w2 g = f (7; 2); (0; 3) g

é base do R2 e que M é a matriz de transição da base B2 para a base B1 :

3.12 Mudança de coordenadas


Vamos enunciar e provar um teorema que fornece a relação entre as coorde-
nadas do vetor u em duas bases diferentes B1 e B2 de um espaço vetorial
V:

Teorema 3.16 Seja u um vetor de um espaço vetorial V com dimensão …nita


e B1 ; B2 bases deste espaço. Se [u]1 e [u]2 forem as matrizes das coordenadas
de u nas bases B1 e B2 ; respectivamente, então

[u]2 = M12 [u]1 ;

onde M12 é a matriz de transição da base B1 para a base B2 :

Prova. Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g bases do espaço


vetorial V: Podemos decompor o vetor u nessas bases
X
n X
n
u= xj v j = y i wi :
j=1 i=1

As matrizes coluna

[u]1 = [x1 ; : : : ; xn ]T e [u]2 = [y1 ; : : : ; yn ]T

são as matrizes das coordenadas de u nas bases B1 e B2 ; respectivamente.


Sendo M12 = [aij ] a matriz de mudança da base B1 para a base B2 ;
X
n
vj = aij wi :
i=1

Notas de aula do Professor Faleiros


3.12 Mudança de coordenadas 141

Consequentemente,
X
n X
n X
n
u= x j vj = xj aij wi
j=1 j=1 i=1
!
X
n X
n X
n
= aij xj wi = yi wi :
i=1 j=1 i=1

Da independência linear de B2 obtemos


X
n
yi = aij xj
j=1

para i = 1; : : : ; n: Estas n igualdades escalares correspondem à igualdade


matricial
[u]2 = M12 [u]1 ;
o que prova o teorema.

Exemplo. Consideremos as duas bases do R2

B1 = fv1 ; v2 g com v1 = ( 3; 2); v2 = (4; 3)


B2 = fw1 ; w2 g com w1 = (1; 0); w2 = ( 1; 1)

Decompondo os vetores da base B1 como combinação linear dos vetores da


base B2 ; obtemos

v1 = ( 3; 2) = 1(1; 0) + 2( 1; 1) = 1w1 + 2w2 ;


v2 = (4; 3) = 1(1; 0) 3( 1; 1) = 1w1 3w2 ;

de modo que a matriz de transição da base B1 para a base B2 é


1 1
M12 = :
2 3

Ao decompor o vetor u = (7; 5) nas bases B1 e B2 ; obtemos

u = (7; 5) = 1( 3; 2) + 1(4; 3) = 1v1 + 1v2


u = (7; 5) = 2(1; 0) 5( 1; 1) = 2w1 5w2

de modo que as matrizes das coordenadas de u nas bases B1 e B2 são


1 2
[u]1 = e [u]2 =
1 5

Notas de aula do Professor Faleiros


142 Espaço vetorial

Observe que

1 1 1 2
M12 [u]1 = = = [u]2 :
2 3 1 5

Exemplo. Sabe-se que B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g são bases


de um espaço vetorial V de dimensão três e que
2 3
0 1 1
M12 4
= 1 2 0 5
1 1 1

é a matriz de mudança da base B1 para B2 : Isto signi…ca que

v1 = 0w1 + 1w2 + 1w3


v2 = 1w1 + 2w2 1w3
v3 = 1w1 + 0w2 + 1w3

Sabendo que
u= v2 + 2v3 = 0v1 1v2 + 2v3 ;

vamos determinar as coordenadas de u na base B2 : A matriz das coordenadas


de u na base B1 é
2 3
0
[u]1 = 4 1 5 :
2

A matriz das coordenadas de u na base B2 pode ser obtida multiplicando M12


por [u]1
2 32 3 2 3
0 1 1 0 1
[u]2 = M12 [u]1 = 4 1 2 0 54 1 5 = 4 2 5
1 1 1 2 3

e assim
u = w1 2w2 + 3w3 ;

de modo que o vetor das coordenadas de u na base B2 é (1; 2; 3):

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 143

3.13 Espaço linha e espaço coluna


Salta aos olhos a semelhança que há entre o vetor (x1 ; x2 ; x3 ) do R3 ; a matriz
linha x1 x2 x3 em M1 3 (R) e a matriz coluna
2 3
x1
4 x2 5
x3

em M3 1 (R): Em cada caso, temos uma representação diferente de uma mesma


coisa: um conjunto ordenado de três números reais. Esta analogia também se
observa entre as n-uplas ordenadas de números reais, as matrizes linha reais
com n colunas e as matrizes coluna reais com n linhas. Veremos nesta seção
como tirar proveito dessa semelhança na resolução de problemas.
Vamos levar adiante esta analogia quando estivermos trabalhando em um
espaço vetorial V qualquer de dimensão …nita n: Fixada uma base B = fv1 ;
: : : ; vn g deste espaço vetorial, a cada vetor w do espaço vetorial V podemos
calcular o seu vetor de coordenadas (x1 ; : : : ; xn ) na base B: Este vetor de
coordenadas pertence ao Rn : Reciprocamente, dado o vetor de coordenadas
(x1 ; : : : ; xn ) na base B; podemos reconstruir o vetor w; uma vez que

w = x1 v 1 + + xn v n :

Isto signi…ca que há uma função bijetora entre o espaço vetorial V de dimensão
n e o Rn : Esta bijeção associa a cada vetor x1 v1 + + xn vn o seu vetor de
coordenadas (x1 ; : : : ; xn ):
Se precisarmos operar em espaços vetoriais com dimensão …nita mais ab-
stratos do que o Rn ; podemos escolher uma base B do espaço vetorial V e
identi…car cada vetor w ao seu vetor de coordenadas (x1 ; : : : ; xn ) na base B:
Este vetor de coordenadas está no Rn : As contas podem ser realizadas no Rn
e, no …nal, pode-se retornar ao espaço vetorial de origem.
Por exemplo, quando estamos no espaço vetorial dos polinômios reais de
grau menor ou igual a dois e escolhemos a base f1; x; x2 g; o vetor de coorde-
nadas do polinômio a0 + a1 x + a2 x2 nesta base é (a0 ; a1 ; a2 ); que pertence ao
R3 : Em lugar de trabalhar com o polinômio a0 + a1 x + a2 x2 pode-se trabalhar
com o seu vetor de coordenadas (a0 ; a1 ; a2 ): Fazemos todas as contas no R3 :
Para voltar aos polinômios, basta transformar o terno ordenado (a0 ; a1 ; a2 ) no
polinômio a0 + a1 x + a2 x2 :
Vamos ilustrar, através de um exemplo, o que se entende por espaço linha
e espaço coluna de uma matriz. A matriz

2 1 3
A=
0 5 2

Notas de aula do Professor Faleiros


144 Espaço vetorial

possui duas linhas,

2 1 3 e 0 5 2

e três colunas
2 1 3
; e :
0 5 2
O espaço gerado pelas linhas da matriz A é formado por todos os vetores da
forma

x1 2 1 3 + x2 0 5 2 = 2x1 x1 + 5x2 3x1 + 2x2

onde x1 e x2 são números reais. Em particular, 6 7 5 ; pertence ao


espaço gerado pelas linhas da matriz A; uma vez que

3 2 1 3 2 0 5 2 = 6 7 5 :

O espaço gerado pelas colunas de A é formado por todos os vetores da forma

2 1 3 2y1 + y2 + 3y3
y1 + y2 + y3 = ;
0 5 2 5y2 + 2y3
T
onde y1 ; y2 e y3 são números reais. Em particular, a matriz coluna 16 1
pertence ao espaço gerado pelas colunas de A; uma vez que

2 1 3 16
4 1 +3 = ;
0 5 2 1

O espaço gerado pelas linhas de A é chamado de espaço linha de A e o


espaço gerado pelas colunas de A é chamado de espaço coluna de A: Como
o conjunto de matrizes linha

2 1 3 ; 0 5 2 ;

gera o espaço linha e é linearmente independente, este conjunto é base do


espaço linha de A: Todo vetor do espaço coluna de A é uma combinação linear
das matrizes do conjunto

2 1 3
; ; :
0 5 2

Este conjunto gera o espaço coluna de A mas é linearmente dependente e,


T
portanto, não é base do espaço coluna. A matriz coluna 3 2 é uma com-
binação linear das outras duas matrizes. Ao retirar esta matriz do conjunto, ele

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 145

continua gerando o espaço coluna de A e é linearmente independente. Sendo


assim, o conjunto de matrizes coluna

2 1
; :
0 5

é base de do espaço coluna de A:


Vamos à de…nição geral.

De…nição 3.17 Para uma matriz


2 3
a11 a12 ::: a1n
6 a21 a22 ::: a2n 7
6 7
A = 6 .. .. .. .. 7
4 . . . . 5
am1 am2 : : : amn

de tamanho m n; suas linhas

L1 = a11 a12 : : : a1n


L2 = a21 a22 : : : a2n

Lm = am1 am2 : : : amn

são denominadas vetores linha de A e suas colunas


2 3 2 3 2 3
a11 a12 a1n
6 a21 7 6 a22 7 6 a2n 7
6 7 6 7 6 7
C1 = 6 .. 7 ; C2 = 6 .. 7 ; : : : ; Cn = 6 .. 7
4 . 5 4 . 5 4 . 5
am1 am2 amn

são denominadas vetores coluna de A: O espaço vetorial gerado pelos vetores


linhas de A é o espaço linha de A: O espaço vetorial gerado pelos vetores
coluna de A é o espaço coluna de A:

Exemplo. O espaço linha da matriz real

1 0 2
A=
0 3 1

é gerado pelas duas linhas de A;

1 0 2 e 0 3 1

Notas de aula do Professor Faleiros


146 Espaço vetorial

e toda matriz pertencente ao espaço linha de A é da forma

x 1 0 2 +y 0 3 1 = x 3y 2x + y

onde x e y são números reais.


O espaço coluna de A é aquele gerado pelas colunas

1 0 2
; e :
0 3 1

e toda matriz do espaço coluna é do tipo

1 0 2 x + 2z
x +y +z =
0 3 1 3y + z

onde x; y e z são números reais. O conjunto

G1 = 1 0 2 ; 0 3 1

gera o espaço linha e o conjunto

1 0 2
G2 = ; ;
0 3 1

gera o espaço coluna de A: Sendo G1 linearmente independente, ele é base


do espaço linha. Sendo G2 linearmente dependente, ele não é base do es-
paço coluna de A: A terceira matriz é combinação linear das duas primeiras.
Retirando-a de G2 ; o conjunto resultante é linearmente independente e gera o
espaço coluna de A: Assim

1 0
G3 = ;
0 3

é base do espaço coluna de A:

Nota 3.18 Sejam A e B matrizes m n e E uma matriz m m tais que B


= EA: Se B1 ; : : : ; Bn forem as colunas de B e A1 ; : : : ; An forem as colunas
de A; então Bj = EAj para j = 1; : : : ; n: Se c1 ; : : : ; cn forem números reais
tais que
c1 A1 + + cn An = 0;
então
c1 B1 + + cn Bn = 0:

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 147

De fato, quando
c1 A 1 + + cn An = 0;
então

c1 B1 + + cn Bn = c1 EA1 + + cn EAn
E(c1 A1 + + cn An ) = E0 = 0:

T
Nota 3.19 Seja A uma matriz m n e X = x1 xn uma matriz
coluna n 1: Se A1 ; A2 ; : : : ; An forem as colunas de A; então

AX = x1 A1 + + xn An :

Esta observação nos permite enunciar o seguinte teorema

Teorema 3.20 Seja A uma matriz quadrada n n:


1. A matriz A é inversível se, e só se, as colunas de A formarem um
conjunto linearmente independente.
2. A matriz A é singular se, e só se, as colunas de A formarem um conjunto
linearmente dependente.

Prova. Sejam A1 ; : : : ; An as colunas da matriz A: Nesta prova o 0 indica


a matriz coluna nula n 1:
1. Sabemos que A é inversível se, e só se, AX = 0 implica em X = 0: Isto
ocorre se, e só se, x1 A1 + + xn An = 0 implica em x1 = = xn = 0: Logo,
A é inversível se, e só se, as colunas A1 ; : : : ; An de A formarem um conjunto
linearmente independentes de vetores.
2. O teorema enunciado neste item é o contra-recíproco da parte 1. Assim
o enunciado no item 2 é equivalente ao enunciado no item 1.

Propriedades dos espaços linha e coluna


1. Seja R uma matriz escalonada de tamanho m n:

(a) As linhas não nulas de R formam uma base do seu espaço linha.
(b) As colunas de R que possuem os pivôs formam uma base do seu
espaço coluna.
(c) O espaço linha de R e o espaço coluna de R possuem a mesma
dimensão.

Notas de aula do Professor Faleiros


148 Espaço vetorial

2. Seja R uma forma escalonada da matriz A de tamanho m n: Isto


signi…ca que é possível iniciar com a matriz A; realizar uma sequência de
operações elementares sobre as linhas até chegar na matriz escalonada
R:

(a) O espaço linha de A é igual ao espaço linha de R: Toda base do


espaço linha de A é base do espaço linha de R e vice-versa.
(b) Sejam R1 ; : : : ; Rn as colunas de R e A1 ; : : : ; An as colunas de A:
Existem números reais c1 ; : : : ; cn para os quais

c1 R 1 + + cn Rn = 0;

se, e só se,
c1 A1 + + cn An = 0:
(c) As colunas j1 ; j2 ; : : : ; jk de R formam uma base do espaço coluna
de R se, e só se, as colunas j1 ; j2 ; : : : ; jk de A formarem uma base
do espaço coluna de A:
(d) O espaço coluna de R nem sempre é igual ao espaço coluna de A
mas ambos possuem a mesma dimensão.
(e) A dimensão do espaço linha de A é igual à dimensão do espaço
coluna de A:

Alguns comentários sobre essas propriedades.


Sendo o espaço linha de A igual ao espaço linha de R; ambos possuem a
mesma dimensão e toda base de um é base do outro. As linhas não nulas de
R formam uma base do espaço linha de R e, portanto, do espaço linha de A:
Em (2.b) os números reais c1 ; : : : ; cn não precisam ser todos diferentes de
zero. Como exemplo para …xar os conceitos, vamos supor que R e A possuem
5 colunas e que as colunas R1 ; R3 e R5 de R formam um conjunto linearmente
dependente, sendo
2R1 4R3 + 7R5 = 0;
então as colunas A1 ; A3 e A5 de A formam um conjunto linearmente dependente
e
2A1 4A3 + 7A5 = 0:
Nestas duas combinações lineares podemos incluir o R2 e o R4 na primeira e o
A2 e o A4 na segunda, multiplicadas por zero. As duas igualdades se tornam

2R1 + 0R2 4R3 + 0R4 + 7R5 = 0

e
2A1 + 0A2 4A3 + 0A4 + 7A5 = 0:

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 149

Em ambas, c1 = 2; c2 = 0; c3 = 4; c4 = 0 e c5 = 7:
Em (2.c) por exemplo, se o conjunto formado pelas colunas R1 ; R3 e R4
de R for uma base do espaço coluna de R; então o conjunto formado pelas
colunas A1 ; A3 e A4 de A é uma base do espaço coluna de A:
Vamos provar as propriedades acima enunciadas.
A propriedade (1.a) é verdadeira porque as linhas não nulas de uma ma-
triz escalonada formam um conjunto linearmente independente que gera o seu
espaço linha.
A propriedade de (1.b) é verdadeira porque, numa matriz escalonada, as
colunas que possuem os pivôs, formam um conjunto linearmente independente.
Numa matriz escalonada, as colunas que não contêm pivô são combinações
lineares das colunas que possuem pivô e …cam à sua esquerda. Logo, as colunas
com os pivôs formam uma base do espaço coluna da matriz escalonada R:
A propriedade (1.c) é verdadeira porque numa matriz escalonada, as lin-
has não nulas são aquelas que possuem um pivô e o conjunto das linhas que
possuem os pivôs é linearmente independente e geram o espaço linha de R:
Logo, este conjunto é uma base do espaço linha de R e a dimensão deste es-
paço é igual ao número de pivôs de R: Numa matriz escalonada, o conjunto
das colunas que possuem os pivôs é linearmente independente e cada coluna
que não possui pivô é combinação das colunas que possuem pivô e …cam à sua
esquerda. Logo, o conjunto das colunas que possuem os pivôs formam uma
base do espaço coluna de R: Assim, a dimensão do espaço coluna de R é igual
ao número de pivôs desta matriz. Como o número de linhas com pivô é igual
ao número de colunas com pivô, isto prova que o espaço linha e o espaço coluna
de R possuem a mesma dimensão.
Para provar a propriedade (2.a), basta observar que, ao passar de A para R;
iniciamos com A e vamos realizando uma sequência de operações elementares
sobre as linhas até chegar na matriz R: De acordo com as propriedades dos
espaços gerados, as operações elementares são realizadas sobre as linhas da
matriz e, desta forma, não alteram o espaço linha, fazendo com que o espaço
linha de A seja igual ao espaço linha de R: Sendo iguais, os dois possuem a
mesma dimensão e qualquer base do espaço linha de R é base do espaço linha
de A:
Para provar (2.b), observe que AC = 0 se, e só se, RC = 0 onde C =
[c1 c2 cn ]T indica uma matriz coluna n 1: Isto é verdade uma vez que
as equações matriciais AX = 0 e RX = 0 possuem a mesma solução geral.
Sendo A1 ; A2 ; : : : ; An as colunas de A e R1 ; R2 ; : : : ; Rn as colunas de R; as
igualdades AC = 0 e RC = 0 equivalem a

c1 A1 + + cn An = 0;
c1 R1 + + cn Rn = 0;

Notas de aula do Professor Faleiros


150 Espaço vetorial

o que completa a prova da a…rmação (2.b).


Provemos a propriedade (2.c). Se as colunas j1 ; j2 ; : : : ; jk de R formam
uma base do espaço coluna de R; então elas formam um conjunto linearmente
independente e todas as outras colunas de R são combinações lineares delas.
A propriedade (2.b) garante que as colunas j1 ; j2 ; : : : ; jk de A formam um
conjunto linearmente independente e todas as outras colunas de A são combi-
nações lineares delas. Isto prova a propriedade (2.c)
Vamos denotar a dimensão do espaço coluna de uma matriz A por dim EC(A)
e a dimensão do espaço linha por dim EL(A): Em (2.a) mostramos que dim EL(A)
= dim EL(R): Em (1.c) mostramos que dim EL(R) = dim EC(R): Em (2.c)
mostramos que dim EC(R) = dim EC(A): Logo, dim EL(A) = dim EC(A); o
que prova a propriedade (2.d).
A dimensão do espaço linha de uma matriz A é igual à dimensão do seu
espaço coluna. Esta dimensão comum é chamada de posto da matriz A e
denotado por pos(A):
Evidentemente, o posto de uma matriz é igual ao posto de sua transposta.
O posto de uma matriz é menor ou igual ao número de suas linhas. O posto
de uma matriz é menor ou igual ao número de suas colunas. Se o tamanho da
matriz A for m n; seu posto deve ser menor ou igual a m e menor ou igual
a n; condição que pode ser colocada na forma da desigualdade
pos(A) minfm; ng:
Quando pos(A) = minfm; ng; diz-se-a que a matriz A possui posto máximo.
Podemos usar as propriedades dos espaços linha e coluna de uma matriz
para enunciar o próximo teorema.
Embora os espaços coluna de A e de sua forma escalonada reduzida R
tenham a mesma dimensão, nem sempre são iguais. É o que nos mostra o
exemplo que segue.
Exemplo. Considere a matriz A e sua escalonada reduzida R apresentdas
abaixo 2 3 2 3
1 0 1 0
A=4 0 1 5 e R = 4 0 1 5:
2 1 0 0
As matrizes 2 3 2 3
1 0
4 0 5 e 4 1 5
2 1
formam uma base do espaço coluna de A e as matrizes
2 3 2 3
1 0
4 0 5 e 4 1 5
0 0

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 151

formam uma base do espaço coluna de R: Os espaços coluna de A e de R


T
são diferentes mas ambos possuem dimensão 2: As matrizes 1 0 2 e
T
0 1 1 pertencem ao espaço coluna de A mas não pertencem ao espaço
T T
coluna de R: As matrizes 1 0 0 e 0 1 0 pertencem ao espaço
coluna de R mas não pertencem ao espaço coluna de A:
Os espaços linha de A e R são iguais. As matrizes linha 1 0 e 0 1
formam uma base tanto para o espaço linha de R quanto para o espaço linha
de A:

Exemplo. Considere a matriz escalonada por linhas


2 3
1 2 3 4 5
6 0 1 2 0 4 7
6 7
4 0 0 0 1 2 5:
0 0 0 0 0

Sua primeira, segunda e terceira linhas, exatamente aquelas que contêm os


pivôs, formam uma base do seu espaço linha. Sua primeira, segunda e quarta
colunas, aquelas que contêm os pivôs, formam uma base do seu espaço coluna.
Tanto o espaço linha quanto o espaço coluna possuem dimensão três.

Exemplo. Para obter uma base para o espaço linha da matriz


2 3
1 3 4 2 5 4
6 2 6 9 1 8 2 7
A=64 2 6 9
7
1 9 7 5
1 3 4 2 5 4

podemos reduzi-la à forma escalonada R mediante operações elementares


2 3
1 3 4 2 5 4
6 0 0 1 3 2 6 7
R=6 4 0 0 0
7:
0 1 5 5
0 0 0 0 0 0

Como as linhas de A e de R geram o mesmo espaço linha, conclui-se que as


três primeiras linhas de R formam uma base para o espaço linha de A e de R:
A primeira, terceira e quinta colunas de R, exatamente aquelas que contém
os pivôs, formam uma base para o seu espaço coluna. Todavia, estas colunas
não formam uma base do espaço coluna de A: Quem forma uma base do espaço
coluna de A são a primeira, a terceira e a quinta colunas de A: O leitor pode

Notas de aula do Professor Faleiros


152 Espaço vetorial

veri…car esta a…rmação mostrando que a primeira, a terceira e a quinta colunas


de A formam um conjunto linearmente independente e que a segunda, a quarta
e a sexta colunas de A são combinações lineares da primeira, terceira e quinta
colunas.

Exemplo. No exemplo acima, tomamos como base para o espaço linha de


A as linhas não nulas de sua forma escalonada R: Todavia elas não são linhas
de A: Para obter uma base do espaço linha da matriz
2 3
1 1 2 2 3
6 2 3 4 5 8 7
A=6
4 0
7
3 0 3 6 5
2 3 5 5 8

formada por vetores linha de A; siga os passos descritos em seguida.


1. Transponha A
2 3
1 2 0 2
6 1 3 3 3 7
6 7
A =6
T
6 2 4 0 5 7
7
4 2 5 3 5 5
3 8 6 8

2. Realize operações elementares na matriz AT até chegar a uma matriz


escalonada 2 3
1 2 0 2
6 0 1 3 1 7
6 7
R=6 6 0 0 0 1 7:
7
4 0 0 0 0 5
0 0 0 0
As colunas 1; 2 e 4 formam uma base para o espaço coluna de R: Logo, as
colunas 1; 2 e 4 de AT formam uma base para o espaço coluna desta matriz.
As linhas de uma matriz são as colunas da sua transposta. Conclui-se que as
linhas 1; 2 e 4 de A formam uma base do espaço linha de A:

Exemplo. Uma forma escalonada da matriz


2 3
1 2 0 2 5
6 2 5 1 1 8 7
A=6
4
7
0 3 3 4 1 5
3 6 0 7 2

Notas de aula do Professor Faleiros


3.13 Espaço linha e espaço coluna 153

é 2 3
1 2 0 2 5
6 0 1 1 3 2 7
R=6
4 0
7
0 0 1 1 5
0 0 0 0 0

As colunas 1; 2 e 4 de R são linearmente independentes e geram seu espaço


coluna. Logo, as colunas 1; 2 e 4 de A são linearmente independentes e geram
o espaço coluna de A:
Denotando as colunas de R por R1 ; R2 ; R3 ; R4 e R5 ; nota-se que R1 ; R2 e
R4 formam uma base para o seu espaço coluna e que

R3 = 2R1 R2
R5 = R1 + R2 + R4 :

Denotando as colunas de A por A1 ; A2 ; A3 ; A4 e A5 ; então A1 ; A2 e A4 formam


uma base do espaço coluna de A e

A3 = 2A1 A2 ;
A5 = A1 + A2 + A4 :

Exemplo. Sejam v1 = (1; 2; 0; 1; 2); v2 = (1; 1; 1; 1; 3); v3 = (2; 2;


3; 1; 6); v4 = (1; 3; 1; 1; 1) vetores do R5 e G = fv1 ; v2 ; v3 ; v4 g: Para
determinar uma base para o espaço S gerado por G; basta seguir os seguintes
passos:
1. Forme a matriz cujas linhas são as entradas de v1 ; v2 ; v3 e v4
2 3
1 2 0 1 2
6 1 1 1 1 3 7
A=6
4 2
7:
2 3 1 6 5
1 3 1 1 1

2. Mediante operações elementares, obtenha a forma escalonada de A


2 3
1 2 0 1 2
6 0 1 1 0 1 7
R=6
4 0
7
0 1 1 0 5
0 0 0 0 0

Notas de aula do Professor Faleiros


154 Espaço vetorial

3. Uma base do espaço linha de A é formada pelos vetores linha não nulos
de R: Logo, uma base para S é o conjunto formado pelo vetores

w1 = (1; 2; 0; 1; 2);
w2 = (0; 1; 1; 0; 1);
w3 = (0; 0; 1; 1; 0):

Observe que os vetores w1 ; w2 ; w3 não pertencem ao conjunto G: Se for de-


sejável obter uma base de S formada pelos elementos de G; proceda como
segue:
1. Forme a matriz cujas colunas são as entradas de v1 ; v2 ; v3 e v4
2 3
1 1 2 1
6 2 1 2 3 7
6 7
A =6
T
6 0 1 3 1 7
7
4 1 1 1 1 5
2 3 6 1

2. Escalone esta matriz


2 3
1 1 2 1
6 0 1 2 1 7
6 7
S=6
6 0 0 1 0 7
7
4 0 0 0 0 5
0 0 0 0

3. As colunas 1; 2 e 3 formam uma base do espaço coluna de S: Isto implica


em que as colunas 1; 2 e 3 de A formam uma base do espaço coluna de A: Logo,
v1 ; v2 ; v3 formam uma base do espaço gerado por G:

Teorema 3.21 Seja A uma matriz quadrada n n:

1. A matriz A é inversível se, e só se, suas colunas formarem um conjunto


linearmente independente.

2. A matriz A é singular se, e só se, uma de suas colunas for uma combi-
nação linear das demais.

Prova. Seja R a forma escalonada reduzida de A:


1. Já provamos que A é inversível se, e só se, a matriz nula X = 0 é a única
matriz coluna para a qual AX = 0: Sendo A1 ; A2 ; : : : ; An as colunas de A e

Notas de aula do Professor Faleiros


3.14 O espaço nulo de uma matriz 155

x1 ; x2 ; : : : ; xn as entradas de X; dizer que AX = 0 apenas quando X = 0 é


equivalente a a…rmar que

x1 A1 + x2 A2 + + xn An = 0

apenas quando x1 = 0; x2 = 0; : : : ; xn = 0 ou, em outras palavras, o conjunto


de matrizes coluna fA1 ; A2 ; ; An g é linearmente independente. Logo, A
é inversível se, e só se, o conjunto de matrizes coluna de A é linearmente
independente.
2. Se A for singular e o conjunto de matrizes formado por suas colunas
linearmente independente, então pelo item anterior, A é inversível, uma con-
tradição evidente. Logo, o conjunto de matrizes formado pelas colunas de A é
linearmente dependente ou seja, uma de suas colunas é uma combinação linear
das demais.
Agora, se uma coluna de A for uma combinação linear das demais, o con-
junto das matrizes coluna de A é linearmente dependente. A matriz A não
pode ser inversível pois, se fosse, pelo item anterior, o conjunto das matrizes
coluna de A seria linearmente independente. Logo, A é singular.

Como a dimensão do espaço linha é igual à dimensão do espaço coluna de


A; podemos enunciar o teorema anterior trocando a palavras coluna por linha.

Teorema 3.22 Seja A uma matriz quadrada n n:

1. A matriz A é inversível se, e só se, suas linhas formarem um conjunto


linearmente independente.

2. A matriz A é singular se, e só se, uma de suas linhas for uma combinação
linear das demais.

3.14 O espaço nulo de uma matriz


Seja A uma matriz m n e 0 a matriz coluna nula m 1: O conjunto solução

f X 2 Mn 1 (R) : AX = 0 g

da equação matricial homogênea AX = 0 é um subespaço vetorial de Mn 1 (R);


chamado espaço nulo de A ou núcleo de A: Denotamos este subespaço veto-
rial por nuc(A): O núcleo de A possui dimensão …nita e possui uma base fX1 ;
: : : ; Xk g; onde k n: Toda solução da equação homogênea AX = 0 será da
forma c1 X1 + + ck Xk ; onde c1 ; : : : ; ck são números reais. A dimensão do
espaço nulo de A é chamada de nulidade de A sendo denotada por nul(A):

Notas de aula do Professor Faleiros


156 Espaço vetorial

Sendo R uma forma escalonada de A; as equações AX = 0 e RX = 0


possuem a mesma solução geral e daí, os espaços nulos de A e de R são iguais,
o que implica na igualdade das nulidades de A e de R

nul(A) = nul(R):

Já …cou provado que os espaços linha de A e de R são iguais, o que implica na


igualdade entre os postos de A e de R

pos(A) = pos(R):

Exemplo. Escalonando o sistema homogêneo AX = 0 onde


2 3
1 2 1
A=4 2 4 2 5;
3 6 3

chegamos a 2 32 3 2 3
1 2 1 x 0
4
RX = 0 0 0 5 4 y = 0 5
5 4
0 0 0 z 0
que se reduz a uma única equação x 2y + z = 0: A solução geral de AX =
0é 2 3 2 3 2 3 2 3
x 2y z 2 1
X=4 y 5=4 y 5 = x2 4 1 5 + x3 4 0 5 ;
z z 0 1
onde y e z podem assumir quaisquer valores reais. Atribuindo valores para
y e z; obtemos soluções particulares da equação dada. Toda solução é uma
combinação linear das matrizes do conjunto
n o
T T
G= 2 1 0 ; 1 0 1 :

Como o conjunto formado por essas duas matrizes é linearmente independente,


ele é base do núcleo de A; de modo que a nulidade de A é igual a 2: O espaço
linha de R é gerado pela matriz 1 2 1 e, portanto, possui dimensão 1:
Como espaço linha de R é igual ao espaço linha de A; o posto de A é igual 1:
Ao adicionar o posto de A com a sua nulidade obtemos

pos(A) + nul(A) = 3:

Notas de aula do Professor Faleiros


3.14 O espaço nulo de uma matriz 157

Exemplo. Ao escalonar a equação homogênea AX = 0; onde


2 3
1 1 2
A=4 2 1 5 5;
1 2 1
obtemos pos 2 32 3 2 3
1 1 2 x 0
4
RX = 0 1 1 5 4 5 4
y = 0 5:
0 0 0 z 0
As soluções do sistema são soluções das equações

x y + 2z = 0;
y + z = 0:

Explicitando x na primeira e y na segunda obtemos, após realizar a substituição


reversa,

x = y 2z = 3z;
y = z:

O x e o y são as variáveis dependentes e o z é a variável independente. A


solução geral desta equação matricial é
2 3 2 3
x 3
X = 4 y 5 = z4 1 5
z 1
sendo que z pode assumir qualquer valor real. A nulidade de A; que é a
dimensão do seu espaço nulo, é igual a 1: O posto de R que é igual ao posto
de A é 2: Ao adicionar o posto de A com a nulidade de A obtemos

pos(A) + nul(A) = 3:

Exemplo. Abaixo estão uma matriz A e sua escalonada R


2 3 2 3
1 2 2 1 2 2
A=4 3 7 9 5; R = 4 0 1 3 5:
1 0 5 0 0 1
T
A única solução da equação homogênea RX = 0 é a trivial 0 0 0 : Deste
modo, o espaço nulo de R tem dimensão zero, sua nulidade é zero e seu posto

Notas de aula do Professor Faleiros


158 Espaço vetorial

é 3: Como o posto e a nulidade de A são iguais, respectivamente, ao posto de


à nulidade de R; temos pos(A) = 3 e nul(A) = 0 de modo que

pos(A) + nul(A) = 3:

Exemplo. Para determinar o posto e a nulidade da matriz


2 3
1 0 2 3 0
6 1 1 1 5 1 7
A=6 4 2
7:
2 6 2 2 5
1 1 3 1 1

nós a escalonamos 2 3
1 0 2 3 0
6 0 1 1 2 1 7
R=6
4 0
7:
0 0 0 0 5
0 0 0 0 0
A matriz R possui duas linhas não nulas, de modo que seu posto é 2: Sendo
T
X= x1 x2 x3 x 4 x 5

uma matriz incógnita com 5 linhas, toda solução da equação matricial RX =


0 é solução das equações

x1 + 2x3 3x4 = 0;
x2 x3 3x4 + x5 = 0:

Explicitando as variáveis líderes x1 e x2 obtemos

x1 = 2x3 + 3x4 ;
x2 = x3 + 3x4 x5 :

Veri…camos que x3 ; x4 e x5 são variáveis livres. Toda solução de RX = 0; que


são as mesmas de AX = 0 é da forma
2 3 2 3
x1 2x3 + 3x4
6 x2 7 6 x3 + 2x4 x5 7
6 7 6 7
6 x3 7 = 6 x 7
6 7 6 3 7
4 x4 5 4 x4 5
x5 x5

Notas de aula do Professor Faleiros


3.14 O espaço nulo de uma matriz 159

ou 2 3 2 3 2 3 2 3
x1 2 3 0
6 x2 7 6 1 7 6 2 7 6 1 7
6 7 6 7 6 7 6 7
6 x3 7 = x3 6 1 7 + x4 6 0 7 + x5 6 0 7:
6 7 6 7 6 7 6 7
4 x4 5 4 0 5 4 1 5 4 0 5
x5 0 0 1
Toda matriz que está no núcleo de R é uma combinação linear das três matrizes
acima, que estão multiplicadas por x3 ; x4 e x5 : Como o conjunto
82 3 2 3 2 39
>
> 2 3 0 >
>
>
> 7 6 2 7 6 1 7>
<6 6 1 7 6 7 6 7=
>
G= 6 1 7 6 7 6
7; 6 0 7; 6 0 7>
7
>6
> 4 0 5 4 1 5 4 0 5>
>
> >
>
: ;
0 0 1

gera o espaço nulo de R e de A; o núcleo de A possui dimensão 3

nul(A) = nul(R) = 3:

O espaço linha de R; que é igual ao espaço linha de A; é gerado pelas duas


primeiras linhas de R; que formam um conjunto linearmente independente.
Assim,
pos(A) = pos(R) = 2:
Daí segue
pos(A) + nul(A) = 5;
que é igual ao número de colunas de A: Observe que o posto de R é igual ao
número de variáveis líderes em RX = 0 e a nulidade de R é igual ao número de
variáveis livres em RX = 0: Ao somar o número de variáveis líderes ao número
de variáveis livres, obtemos o número de incógnitas em RX = 0; que é igual
ao número de colunas de R: E a matriz A possui o mesmo número de colunas
que R:

Se R é uma matriz escalonada, o número de variáveis líderes na equação


homogênea RX = 0 é igual ao número de linhas não nulas em R; que é igual ao
número de pivôs em R: Deste modo, o posto de R é igual ao número de variáveis
líderes na equação homogênea RX = 0: As variáveis restantes são livres e cada
uma dá origem a uma matriz na base do espaço nulo de R: Assim, o número
de variáveis livres no sistema homogêneo RX = 0 é igual à nulidade de R:
Como a soma do número de variáveis líderes com o número de variáveis livres
é igual ao número n de colunas de R; temos

pos(R) + nul(R) = n:

Notas de aula do Professor Faleiros


160 Espaço vetorial

Se R for uma forma escalonada de uma matriz A; sabemos que

pos(A) = pos(R) e nul(A) = nul(R)

de modo que …cou provado o teorema seguinte.

Teorema 3.23 Se n for o número de colunas da matriz A; então

pos(A) + nul(A) = n:

Exemplo. Se A é uma matriz 5 7; então pos(A) + nul(A) = 7: Se a sua


nulidade for igual a 3; seu posto será igual a 4:
Se B for uma matriz 7 5; então pos(B) + nul(B) = 5: Se sua nulidade
for igual a 1; seu posto será igual a 4:

Equação algébrica não homogênea


Sejam dadas duas matrizes A e B; onde A possui tamanho m n e B é uma
matriz coluna com m linhas. Indiquemos por X uma matriz incógnita com n
linhas. Cada solução Xp da equação não homogênea AX = B é chamada de
solução particular da equação matricial AX = B: O conjunto de todas as
soluções desta equação é sua solução geral.
Sendo fX1 ; : : : ; Xk g uma base do espaço nulo de A; toda solução da equação
homogênea AX = 0 é uma combinação linear das matrizes X1 ; : : : ; Xk e é da
forma
c1 X 1 + + ck X k ;
onde c1 ; : : : ; cn são números reais. Sendo Xp uma solução particular da equação
AX = B; então qualquer outra solução Xg de AX = B é tal que Xg Xp é
solução de AX = 0 e, portanto, é da forma

Xg X p = c1 X 1 + + ck X k ;

onde fX1 ; : : : ; Xn g é base do espaço nulo de A: Assim sendo,

X g = X p + c1 X 1 + + ck X k :

Esta igualdade nos diz que, conhecida uma solução Xp de AX = B e uma


base fX1 ; : : : ; Xk g do espaço nulo de A; a solução geral Xg de AX = B é o
conjunto de soluções da forma

X g = X p + c1 X 1 + + ck X k ;

Notas de aula do Professor Faleiros


3.14 O espaço nulo de uma matriz 161

onde c1 ; : : : ; cn são números reais quaisquer.


Quando AX = 0 possui apenas a solução trivial X = 0 e AX = B possuir
uma solução Xp ; esta solução será única.
Exemplo. As soluções da equação matricial não homogênea
2 3
2 3 x1 2 3
1 3 0 4 6 7 0
4 0 0 5 6 x2 7 4 5
1 2 4 = 0
x3 5
0 0 0 1 1
x4
são soluções das equações

x1 = 3x2 + 4 ;
x3 = 2 ;
x4 = 1 :

Observa-se que x2 é variável livre e que x1 ; x3 ; x4 são variáveis dependentes.


A solução geral da equação AX = B na forma matricial é
2 3 2 3 2 3
x1 4 3
6 x2 7 6 0 7 6 1 7
6 7 6 7 6 7
4 x3 5 = 4 2 5 + x2 4 0 5
x4 1 0
onde x2 pode ser qualquer número real. A primeira matriz do lado direito do
sinal de igualdade é uma solução particular da equação AX = B e a segunda
matriz do lado direito é solução da equação homogênea AX = 0 para qualquer
valor de x2 :

Seja A1 ; : : : ; An as colunas de uma matriz


2 3
a11 a1n
6 .. 7
A = 4 ... ..
. . 5
am1 amn

de tamanho m ne
T
X= x1 xn
uma matriz coluna com n linhas. Observe que

AX = x1 A1 + + xn An :

Esta igualdade nos permite a…rmar que, dadas a matriz A de tamanho m n


e a matriz coluna B com m linhas, a equação matricial linear AX = B na

Notas de aula do Professor Faleiros


162 Espaço vetorial

matriz incógnita X tem solução se, e só se, B for uma combinação linear das
colunas de A:
Quando B é uma combinação linear das colunas de A; a matriz B pertence
ao espaço coluna de A e então as matrizes

A= A1 An e Aj B = A1 An j B

possuem o mesmo espaço coluna. Logo, o posto da matriz A é igual ao posto


da matriz estendida [A j B]: Quando os postos destas duas matrizes forem
diferentes, a equação AX = B não possui solução.
Exemplo. A equação matricial AX = B abaixo
2 32 3 2 3
1 0 2 1 x1 0
6 2 1 5 3 7 6 7 6 1 7
6 7 6 x2 7 = 6 7
4 1 0 2 1 5 4 x3 5 4 1 5
4 1 9 5 x4 1

é inconsistente pois, escalonando sua matriz completa,


2 3
1 0 2 1 0
6 2 1 5 3 1 7
6 7
4 1 0 2 1 1 5
4 1 9 5 1

chegamos a 2 3
1 0 2 1 0
6 0 1 1 1 1 7
6 7
4 0 0 0 0 1 5
0 0 0 0 0
Vemos que a matriz dos coe…cientes tem posto 2 e a matriz completa tem
posto 3: Logo, B não é uma combinação linear das colunas de A e a equação
matricial AX = B não possui solução.

Para …nalizar este capítulo, vamos enunciar um teorema que reúne as princi-
pais propriedades apresentadas até o momento e que dizem respeito às matrizes
inversíveis.

Teorema 3.24 Seja A uma matriz quadrada de ordem n: As seguintes a…r-


mações são equivalentes:
(a) A matriz A é inversível.
(b) A única solução de AX = 0 é X = 0:
(c) A forma escalonada reduzida de A é a matriz identidade.

Notas de aula do Professor Faleiros


3.14 O espaço nulo de uma matriz 163

(d) A matriz A é um produto de matrizes elementares.


(e) O determinante de A é diferente de zero.
(f) O posto de A é igual a n:

Prova. A equivalência entre (a), (b), (c), (d) foram demonstradas no


primeiro capítulo sobre sistemas de equações algébricas lineares. A equivalên-
cia entre (a) e (e) foi demonstrada no capítulo que trata dos determinantes.
Para provar a equivalência entre (b) e (f), basta observar que X = 0 é a única
solução de AX = 0 se, e só se o conjunto formado pelas colunas de A for
linearmente independente, o que equivale dizer que o posto de A é igual a n:
Logo, as seis a…rmações são equivalentes.

Notas de aula do Professor Faleiros


164 Espaço vetorial

Notas de aula do Professor Faleiros


Capítulo 4

Transformação linear

O produto cartesiano A B de dois conjuntos não vazios A e B é o conjunto


formado por todos os pares ordenados (x; y) onde x pertence ao conjunto A e
y ao conjunto B
A B = f (x; y) : x 2 A e y 2 B g :

Exemplo. Se A = f1; 2; 3g e B = fa; bg; então A B = f(1; a); (1; b);


(2; a); (2; b); (3; a); (3; b)g:

Exemplo. Se A = B = R; então A B = R2 = f(x; y) : x e y 2 Rg:

Um subconjunto não vazio de A B é denominado relação de A em B:


Exemplo. Sendo A = f1; 2; 3g e B = fa; bg; então r = f(1; a); (1; b); (3;
b)g é uma relação de A em B:

Exemplo. Sendo A = B = R; então r = f(x; y) 2 R2 : x2 + y 2 = 1g é uma


relação de A em B:

Podemos usar os diagramas de Venn-Euler para representar gra…camente


as relações de A em B quando A e B forem conjuntos …nitos. Quando A e B
forem subconjuntos dos números reais, podemos usar o plano cartesiano para
representar gra…camente as relações de A em B; sendo (x; y) 2 R2 representado
pelo ponto do plano com abcissa x e ordenada y:
Uma função de A em B é uma relação f de A em B que, para todo x de
A; existe um e apenas um y de B para o qual (x; y) 2 f: Como há um único
y para cada x; se escreve y = f (x) : O y é chamado de valor de f em x ou
imagem de x por f: Também é usual dizer que a f leva x em y: Usaremos a

Notas de aula do Professor Faleiros


166 Transformação linear

notação f : A ! B para indicar que f é uma função de A em B: O conjunto


A é chamado domínio de f e o conjunto B é denominado contradomínio de
f: O conjunto
f (A) = f f (x) : x 2 A g
é a imagem de f e está contido em B: Duas funções f e g são iguais quando
possuírem o mesmo domínio A; o mesmo contradomínio B e f (x) = g (x) para
todo x em A: Escreveremos f = g para indicar que a função f é igual à função
g:
Exemplo. Considere as duas aplicações a seguir

r = f(x; y) 2 R R : x2 + y 2 = 1g;
f = f(x; y) 2 R R : y = x2 + 1; x 2 Rg:

A relação r não é uma função de R em Rpporque, dado um p número real x


no intervalo aberto ( 1; 1); existem y1 = 1 x e y2 = 1 x2 tais que
2

(x; y1 ) 2 r e (x; y2 ) 2 r: Além disso, dado um número real x fora do intervalo


fechado [ 1; 1]; não existe y real de modo que (x; y) 2 r:
A relação f é uma função de R em R porque, dado um número real x
qualquer, existe um único número real y; dado por y = x2 +1 tal que (x; y) 2 f e
escrevemos y = f (x) = x2 + 1:

Exemplo. Sendo A = f1; 2; 3g e B = fa; bg; considere as aplicações

r = f (1; a); (1; b); (3; b) g;


f = f (1; a); (2; b); (3; a) g:

A relação r não é uma função de A em B por dois motivos: o 1 está


relacionado com a e b; o 2 não está relacionado com ninguém.
A relação f é uma função pois o 1 está relacionado apenas com o a; o
2 apenas com o b e o 3 apenas com o a: Todo elemento do domínio está
relacionado com um e apenas um elemento do contradomínio.

Quando A e B forem subconjuntos de números reais, diremos que f é


uma função real de variável real ou, por brevidade, função real. Sendo V
e W espaços vetoriais, uma função T : V ! W é chamada de aplicação ou
transformação de V em W: As transformações T : V ! V; de um espaço
vetorial V sobre ele mesmo, recebem o nome de operadores. Não há erro
em denominar um operador de transformação. Nem há erro em chamar uma
transformação de função.

Notas de aula do Professor Faleiros


167

Vamos lembrar neste momento que o conjunto R; com as operações de


adição e multiplicação de números reais, é um espaço vetorial real. Este espaço
vetorial será utilizado com frequência neste capítulo.

Exemplo. A função T : R2 ! R onde T (x; y) = xy + 3x é uma transfor-


mação de R2 em R: A função L : R2 ! R2 onde L (x; y) = (3x 5y; 2x) é um
operador de R2 em R2 :

Exemplo. A função T : R2 ! R3 que leva o par (x; y) do R2 no terno


T (x; y) = (u; v; w) do R3 ; de…nido por

u=x+y
v = 2xy
w = x2 y 2

é uma transformação do R2 em R3 :

Agora vamos de…nir o conceito de transformação linear entre dois espaços


vetoriais sobre um mesmo corpo K: Se o leitor sentir alguma di…culdade para
visualizar espaços vetoriais sobre um corpo qualquer, imagine que K é o corpo
de números reais e que os espaços vetoriais envolvidos neste capítulos são
espaços vetoriais reais.

De…nição 4.1 Sejam V e W espaços vetoriais de…nidos sobre um mesmo


corpo K: Uma transformação T : V ! W é linear se, para todo v e w em V
e todo escalar c em K;

T (v + w) = T (v) + T (w);
T (c v) = c T (v):

Quando V = W é usual chamar a transformação linear de operador linear.

A transformação nula 0 : V ! W é aquela que leva todo vetor v do


espaço vetorial V no vetor nulo do espaço vetorial W; isto é, 0(v) = 0: O
operador identidade I : V ! V é aquele que leva todo vetor v de V nele
mesmo, isto é, I(v) = v: Tanto a transformação nula quanto a identidade são
lineares.

Exemplo. A transformação T (x; y) = 2x 3y do R2 em R é linear pois,

Notas de aula do Professor Faleiros


168 Transformação linear

sendo (x; y) e (u; v) pares ordenados de números reais,


T ( (x; y) + (u; v) ) = T (x + u; y + v)
= 2(x + u) 3(y + v)
= (2x 3y) + (2u 3v)
= T (x; y) + T (u; v)
e, sendo c um número real e (x; y) um par ordenado de números reais,
T (c(x; y)) = T (cx; cy) = 2(cx) 3(cy)
= c(2x 3y) = cT (x; y);
o que completa a prova da linearidade de T:
O leitor, seguindo o raciocínio acima, pode provar que a transformação
L : R2 ! R de…nida por L (x; y) = 5x é linear.
O leitor poderá provar também que o operador S (x; y) = (x + y; y) do
2 2
R no R é linear.

Exemplo. Sendo A uma matriz real m n; considere a transformação


T : Mn 1 (R) ! Mm 1 (R) de…nida por T (X) = AX; que leva a matriz coluna
X de tamanho n 1 na matriz coluna real AX de tamanho m 1: Esta
transformação é linear. Para provar esta a…rmação, considere que X e Y são
duas matrizes coluna reais n 1 e que c é um número real. Então
T (X + Y ) = A(X + Y ) = AX + AY = T (X) + T (Y )
e
T (cX) = A(cX) = c(AX) = cT (X);
o que prova a linearidade de T:

Exemplo. Seja P (R) o espaço vetorial dos polinômios reais. As transfor-


mações T e L de P (R) em P (R); de…nidas por
T (p)(x) = p(x + 1);
L(p)(x) = xp(x);
são lineares. Abaixo mostraremos a veracidade desta a…rmação.
Para veri…car como T e L agem sobre os polinômios, seja p(x) = a+bx+cx2
um polinômio do segundo grau. Aplicando as de…nições de T e L;
T (p)(x) = p(x + 1) = a + b(x + 1) + c(x + 1)2
= (a + b + c) + (b + 2c)x + cx2

Notas de aula do Professor Faleiros


169

e
L(p)(x) = xp(x) = ax + bx2 + cx3 :
Sendo p e q polinômios reais na variável x;

T (p + q)(x) = (p + q)(x + 1) = p(x + 1) + q(x + 1)


= T (p)(x) + T (q)(x) = (T (p) + T (q))(x)

Como a igualdade é verdadeira para todo x real, segue a igualdade entre funções

T (p + q) = T (p) + T (q):

Seja c um número real e p um polinômio real na variável x: Aplicando T em


cp obtemos

T (cp)(x) = (cp)(x + 1) = cp(x + 1) = cT (p)(x):

Esta igualdade é verdadeira para todo x real, de onde segue a igualdade entre
funções
T (cp) = cT (p):
Das igualdades T (p + q) = T (p) + T (q) e T (cp) = cT (p); que são verdadeiras
para todo real c e todo par de polinômios p e q; …ca provado que T é um
operador linear.
Entregamos ao leitor a tarefa de provar que a transformação L é linear.
Siga o raciocínio desenvolvido para provar que T é linear.

Exemplo. Sejam a e b dois números reais com a < b: Considere os es-


paços vetoriais das funções reais contínuas e das funções reais com derivadas
contínuas

C(a; b) = ff : (a; b) ! R; f é contínuag


C 1 (a; b) = ff : (a; b) ! R; f 0 é contínuag

É linear a transformação T : C 1 (a; b) ! C(a; b) que leva uma função real f :


(a; b) ! R que possui derivada contínua na função T (f ) : (a; b) ! R de…nida
em cada x real por
T (f )(x) = f 0 (x) ;
onde f 0 (x) é a derivada de f no ponto x: Como f possui derivada contínua, a
função T (f ) = f 0 é contínua. Para provar que T é linear, tome duas funções f;
g em C 1 (a; b) e um número real c: Usando a de…nição de T e as propriedades
da derivada,

T (f + g) = (f + g)0 = f 0 + g 0 = T (f ) + T (g)

Notas de aula do Professor Faleiros


170 Transformação linear

e
T (cf ) = (cf )0 = cf 0 = cT (f );
o que prova a linearidade de T:

Exemplo. É linear a transformação T : C(a; b) ! C 1 (a; b) que leva uma


função real contínua f : (a; b) ! R na função real T (f ) : (a; b) ! R de…nida
em cada número real x por
Z x
T (f )(x) = f (t)dt:
0

A prova da linearidade desta transformação T segue a linha desenvolvida no


exemplo anterior e …ca por conta do leitor que poderá usar os teoremas sobre
integração vistos no curso de Cálculo. O Teorema Fundamental do Cálculo
a…rma que, quando f é contínua em x; então T (f ) é derivável em x e sua
derivada neste ponto é dada por T (f )0 (x) = f (x): Sendo f contínua, a derivada
de T (f ) é contínua.

Exemplo. Sendo n > 1 um número inteiro, a função que leva uma matriz
quadrada A em seu determinante det(A) não é linear pois, sendo c um número
real, sendo A e B duas matrizes quadradas de mesmo tamanho, em geral o
det(A + B) é diferente da soma det(A) + det(B) e det(c B) = cn det(B); não
satisfazendo as condições para a linearidade.

Propriedades das transformações lineares


Sejam V e W espaços vetoriais sobre o mesmo corpo K:

1. Toda transformação linear T : V ! W leva o zero de V no zero de W;


isto é,
T (0) = 0:

2. Uma transformação T : V ! W é linear se, e só se,

T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 )

para todo par de escalares c1 ; c2 e todo par de vetores v1 ; v2 :


3. Sendo T : V ! W linear, dados os escalares c1 ; : : : ; cn e os vetores v1 ;
: : : ; vn de V; então

T (c1 v1 + + cn vn ) = c1 T (v1 ) + + cn T (vn ):

Notas de aula do Professor Faleiros


171

Usando o símbolo de somatório, esta igualdade pode ser escrita na forma


!
Xk Xk
T ci v i = ci T (vi ):
i=1 i=1

Prova. 1. Podemos escrever

T (0) = T (0 + 0) = T (0) + T (0):

Subtraindo T (0) dos dois membros desta igualdade, obtemos T (0) = 0:


2. Por hipótese, considere que T é linear. Para todo par c1 ; c2 de escalares
e todo par v1 ; v2 de vetores,

T (c1 v1 + c2 v2 ) = T (c1 v1 ) + T (c2 v2 ) = c1 T (v1 ) + c2 T (v2 ):

Reciprocamente, se

T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 )

para todo par de escalares c1 ; c2 e todo par de vetores v1 ; v2 ; fazendo c1 = c2


= 1; segue
T (v1 + v2 ) = T (v1 ) + T (v2 )
e, fazendo c2 = 0; obtemos

T (c1 v1 ) = c1 T (v1 );

provando a linearidade de T:
3. A igualdade apresentada neste item pode ser provada por indução em
n: No item anterior provou-se que a igualdade é verdadeira quando n = 2:
Como hipótese de indução, vamos assumir que a propriedade que se pretende
provar é verdadeira sempre que houver n 1 parcelas na soma. Usando esta
hipótese de indução e a propriedade anterior, vamos provar que a igualdade
vale quando existirem n parcelas na soma. De fato, usando a associatividade
da adição de vetores,

T (c1 v1 + + cn vn ) = T ((c1 v1 + + cn 1 v n 1 ) + cn v n ) =
T (c1 v1 + + cn 1 vn 1 ) + T (cn vn ) = c1 T (v1 ) + + cn 1 T (vn 1 ) + cn T (vn );

onde a última igualdade veio da hipótese de indução e a penúltima é oriunda


da propriedade anterior.

Notas de aula do Professor Faleiros


172 Transformação linear

Exemplo. A transformação T (x; y) = 5 + x + 2y do R2 em R não é


linear, uma vez que T (0; 0) = 5: Se T fosse linear, teríamos T (0; 0) = 0:

Exemplo. A transformação T (x; y) = (1 + x; 2 + y) do R2 no R2 não é


linear pois T (0; 0) = (1; 2); que não é igual a (0; 0); como deveria ser, caso T
fosse linear.

Toda transformação linear T : V ! W leva o vetor nulo de V no vetor


nulo de W: Entretanto, nem toda transformação que leva o vetor nulo no vetor
nulo é linear. O próximo exemplo ilustra este fato.
Exemplo. A função T (x; y) = x2 + y do R2 em R leva o (0; 0) do R2 no
0 de R: Entretanto T não é linear, uma vez que 2T (x; y) = T (2(x; y)) apenas
quando x = 0: Em particular, 2T (1; 1) = 2(1 + 1) = 4 e T (2(1; 1)) = T (2; 2)
= 4 + 2 = 6:

4.1 Transformação linear e bases


Sejam V e W espaços vetoriais sobre um mesmo corpo K e B = fv1 ; : : : ; vn g
uma base de V: Seja T : V ! W uma transformação linear. Para cada vetor
v de V; existem, e são únicos, os escalares x1 ; : : : ; xn para os quais

v = x1 v 1 + + xn v n :

Da linearidade de T;

T (v) = T (x1 v1 + + xn vn ) = x1 T (v1 ) + + xn T (vn ):

Que lições tiramos desta igualdade?

Primeira lição: Basta conhecer os valores de uma transformação linear T


nos vetores de uma base B = fv1 ; : : : ; vn g de V; para calcular o valor de
T em qualquer vetor de V: Conhecendo os valores w1 = T (v1 ); : : : ; wn =
T (vn ); para calcular T (v) num vetor v qualquer em V; basta determinar
a decomposição
v = x1 v 1 + + xn v n :
para calcular

T (v) = x1 T (v1 ) + + xn T (vn ) = x1 w1 + + xn w n :

Notas de aula do Professor Faleiros


4.1 Transformação linear e bases 173

Segunda lição: Se B = fv1 ; : : : ; vn g é uma base de V; então fT (v1 ); : : : ;


T (vn )g é um conjunto gerador da imagem de T:

Exemplo. Seja fv1 ; v2 ; v3 g uma base de um espaço vetorial V de dimensão


três e T uma transformação linear de V em R tal que T (v1 ) = 3; T (v2 ) = 2;
T (v3 ) = 1: Sendo v = 2v1 + 5v2 + 4v3 ; para calcular T (v) basta usar a
linearidade

T (v) = T ( 2v1 +5v2 +4v3 ) = 2T (v1 )+5T (v2 )+4T (v3 ) = 2 3+5 2+4 1 = 8

Exemplo. Considere a base B = fv1 ; v2 ; v3 g do R3 onde v1 = (1; 1; 1);


v2 = (1; 1; 0) e v3 = (1; 0; 0): Seja T : R3 ! R2 uma transformação linear
da qual se sabe que T (v1 ) = (1; 0); T (v2 ) = (2; 1) e T (v3 ) = (3; 2): Vamos
calcular T num terno ordenado (x; y; z) do R3 : Inicialmente é preciso decompor
(x; y; z) na base B; determinando os números reais c1 ; c2 ; c3 para os quais

(x; y; z) = c1 (1; 1; 1) + c2 (1; 1; 0) + c3 (1; 0; 0):

Esta igualdade vetorial corresponde ao sistema linear

c1 + c2 + c3 = x
c1 + c2 = y
c1 = z

cuja solução em c1 ; c2 ; c3 é c1 = z; c2 = y z e c3 = x y: Deste modo,

(x; y; z) = z(1; 1; 1) + (y z)(1; 1; 0) + (x y)(1; 0; 0)

Para calcular T (x; y; z); usamos a linearidade de T;

T (x; y; z) = zT (1; 1; 1) + (y z)T (1; 1; 0) + (x y)T (1; 0; 0)


= z(1; 0) + (y z)(2; 1) + (x y)(3; 2)
= ( 3x y z; 3y 2x z ):

Em particular, quando (x; y; z) = (1; 3; 4); segue

T (1; 3; 4) = ( 4; 3):

Notas de aula do Professor Faleiros


174 Transformação linear

Forma geral das transformações lineares do R2 em R


Seja T : R2 ! R uma transformação linear. Sejam a1 e a2 os números reais
de…nidos por a1 = T (1; 0) e a2 = T (0; 1): Bastam estes dois valores para calcular
T em qualquer par (x; y) do R2

T (x; y) = T (x(1; 0) + y(0; 1)) = xT (1; 0) + yT (0; 1) = a1 x + a2 y:

Esta é a forma geral das transformações lineares do R2 em R: Para todo (x; y)


do R2 ;
T (x; y) = a1 x + a2 y;
onde a1 e a2 são números reais.
Podemos dizer que as transformações do R2 em R de…nidas por

T1 (x; y) = 0;
T2 (x; y) = 3x y;
T3 (x; y) = 7y;

são lineares. Em T1 ; a1 = a2 = 0; em T2 ; a1 = 3 e a2 = 1; em T3 ; a1 = 0 e
a2 = 7: Não são lineares

T4 (x; y) = 5;
T5 (x; y) = 2 + x + y;
T6 (x; y) = x2 + 3y;

pois não possuem a forma acima determinada para as transformações lineares


do R2 em R:

Forma geral das transformações lineares do Rn em R


Seja B = fe1 ; : : : ; en g a base canônica do Rn e T : Rn ! R uma transformação
linear. Como
(x1 ; : : : ; xn ) = x1 e1 + + xn en
segue da linearidade,

T (x1 ; : : : ; xn ) = x1 T (e1 ) + + xn T (en ):

Sendo a1 ; : : : ; an os números reais a1 = T (e1 ); : : : ; an = T (en ); então

T (x1 ; : : : ; xn ) = a1 x1 + + an x n :

Esta é a forma geral das transformações lineares do Rn em R: Os números reais


a1 ; : : : ; an podem ser iguais a zero ou não.

Notas de aula do Professor Faleiros


4.1 Transformação linear e bases 175

Exemplo. As transformações L1 (x; y; z) = x+y 5z e L2 (x; y; z) = 3x+5z


e L3 (x; y; z) = 0 do R3 em R são lineares. Já as transformações S1 (x; y; z) =
x2 + y z; S2 (x; y; z) = 2x + sen y +z 2 ; S3 (x; y; z) = x + y + z + 1; não
são lineares por não possuírem a forma deduzida acima para as transformações
lineares.

Forma geral das transformações lineares do R2 em R2


Seja T : R2 ! R2 uma transformação linear. Como o contradomínio de T é
o R2 ; as imagens de T são pares ordenados de números reais. Vamos denotar
T (1; 0) por (a11 ; a21 ) e T (0; 1) por (a12 ; a22 ): Para todo (x; y) em R2 ;

T (x; y) = T (x(1; 0) + y(0; 1)) = xT (1; 0) + yT (0; 1) = x(a11 ; a21 ) + y(a12 ; a22 ):

A forma geral de uma transformação linear do R2 em R é

T (x; y) = ( a11 x + a12 y; a21 x + a22 y ):

Podemos ainda escrever

T (x; y) = ( T1 (x; y); T2 (x; y) )

onde

T1 (x; y) = a11 x + a12 y;


T2 (x; y) = a21 x + a22 y;

são transformações lineares do R2 em R: Transformações do R2 em R2 que não


possuem este formato não são lineares.
Exemplo. As transformações

L(x; y) = (0; 0);


T (x; y) = (x + y; 0);
S(x; y) = (2x 3y; x + 4y)

do R2 no R2 são lineares. Não são lineares as transformações

F (x; y) = (1 + x; y);
G(x; y) = (xy; 2x + y):

Notas de aula do Professor Faleiros


176 Transformação linear

Forma geral das transformações lineares do Rn em Rm


Sejam m e n números inteiros, com m > 1 e n > 1: Seja T : Rn ! Rm uma
transformação linear. Se B = fe1 ; : : : ; en g for a base canônica do Rn ; T (e1 );
: : : ; T (en ); são m-uplas ordenadas de números reais e assim
T (ej ) = (a1j ; : : : ; amj )
onde aij são números reais, para todo i = 1; : : : ; m e j = 1; : : : ; n: Desta
forma, sendo x = (x1 ; : : : ; xn ) uma n upla ordenada de números reais,
!
X
n Xn
T (x) = T (x1 ; : : : ; xn ) = T xj ej = xj T (ej )
j=1 j=1
X
n
= xj (a1j ; : : : ; amj )
j=1
!
X
n X
n
= a1j xj ; : : : ; amj xj :
j=1 j=1

Em resumo, toda transformação linear T do Rn no Rm é da forma


T (x) = ( T1 (x); : : : ; Tm (x) )
onde
T1 (x) = a11 x1 + + a1n xn
..
.
Tm (x) = am1 x1 + + amn xn
são transformações lineares de Rn em R:

4.2 Transformações lineares na Geometria


A Geometria Analítica usa coordenadas cartesianas ortogonais. As coorde-
nadas de cada ponto do plano cartesiano é um par ordenado (x; y) de números
reais. Graças a isto, usamos o plano cartesiano para representar geometrica-
mente o R2 ; onde identi…camos cada ponto do plano com o par ordenado (x; y)
determinado por suas coordenadas cartesianas. As coordenadas de cada ponto
do espaço geométrico é um terno ordenado (x; y; z) de números reais. Por este
motivo, usamos o espaço geométrico para representar geometricamente o R3 :
Identi…camos cada ponto do espaço com o terno ordenado (x; y; z) determinado
por suas coordenadas cartesianas.
Iniciaremos com as projeções, re‡exões e rotações no plano geométrico.

Notas de aula do Professor Faleiros


4.2 Transformações lineares na Geometria 177

Projeções no plano

As projeções no plano são operadores lineares. Temos, por exemplo, o operador


P1 (x; y) = (x; 0) que projeta o ponto (x; y) no ponto (x; 0) do eixo x do R2 e
o operador P2 (x; y) = (0; y) que projeta o ponto (x; y) no no ponto (0; y) do
eixo y do R2 :

Re‡exões no plano

No plano, as re‡exões em retas são operadores lineares. O operador T1 (x; y) =


(x; y) qre‡ete o ponto (x; y) no eixo x do R2 ; o operador T2 (x; y) = ( x; y)
re‡ete o ponto (x; y) no eixo y do R2 ; o operador T3 (x; y) = (y; x) re‡ete o
ponto (x; y) na reta x = y do R2 :

Rotações no plano

As rotações no plano também são operadores lineares. Seja um número real.


Se girarmos os pontos (1; 0) e (0; 1) do R2 de um ângulo no sentido anti-
horário em torno da origem, vamos obter os pontos (cos ; sen ) e ( sen ;
cos ): A transformação linear T : R2 ! R2 que leva (1; 0) em (cos ; sen ) e
(0; 1) em ( sen ; cos ) gira qualquer ponto (x; y) de um ângulo no sentido
anti-horário em torno da origem. Sendo T (1; 0) = (cos ; sen ) e T (0; 1) =
( sen ; cos ); obtemos

T (x; y) = xT (1; 0) + yT (0; 1)


= x(cos ; sen ) + y( sen ; cos )
= ( x cos y sen ; x sen + y cos ) :

Ao girar o ponto (x; y) de um ângulo no sentido anti-horário em torno da


origem, obtemos o ponto (r; s) dado por

r = x cos y sen ;
s = x sen + y cos ;

igualdades que, na notação matricial, correspondem a

r cos sen x
= :
s sen cos y

Agora vamos nos voltar para a geometria espacial, onde destacaremos as


projeções, re‡exões e rotações.

Notas de aula do Professor Faleiros


178 Transformação linear

Projeções no espaço
As projeções sobre os planos coordenados da geometria espacial são operadores
lineares. O operador T1 (x; y; z) = (0; y; z) projeta o ponto (x; y; z) no plano
yz do R3 : O operador T2 (x; y; z) = (x; 0; z) projeta o ponto (x; y; z) no plano
xz do R3 : O operador T3 (x; y; z) = (x; y; 0) projeta o ponto (x; y; z) no plano
xy do R3 :
As projeções sobre os eixos coordenados também são operadores lineares. O
operador L1 (x; y; z) = (x; 0; 0) projeta o ponto (x; y; z) no eixo x do R3 : O
operador L2 (x; y; z) = (0; y; 0) projeta o ponto (x; y; z) no eixo y do R3 : O
operador L3 (x; y; z) = (0; 0; z) projeta o ponto (x; y; z) no eixo z do R3 :

Re‡exões no espaço
Na geometria espacial, as re‡exões sobre os planos coordenados são operadores
lineares. Listamos alguns exemplos: O operador T1 (x; y; z) = ( x; y; z) re‡ete
o ponto (x; y; z) no plano yz do R3 ; o operador T2 (x; y; z) = (x; y; z) re‡ete
o ponto (x; y; z) no plano xz do R3 ; o operador T3 (x; y; z) = (x; y; z) re‡ete
o ponto (x; y; z) no plano xy do R3 :

Rotações no espaço
Na geometria espacial, as rotações em torno de retas que passam pela origem,
são operadores lineares. Nos exemplos apresntados a seguir é um número
real.

1. O operador

T (x; y; z) = ( x ; y cos z sen ; y sen + z cos )

gira o ponto (x; y; z) de um ângulo em torno do eixo x: Quando >


0; esta rotação acontece no sentido anti-horário quando se olha para a
origem a partir do semi-espaço x > 0: Da igualdade vetorial

(r; s; t) = T (x; y; z) = (x ; y cos z sen ; y sen + z cos );

obtemos a igualdade matricial


2 3 2 32 3
r 1 0 0 x
4 s 5 = 4 0 cos sen 54 y 5:
t 0 sen cos z

Notas de aula do Professor Faleiros


4.2 Transformações lineares na Geometria 179

2. O operador

T (x; y; z) = ( x cos + z sen ; y ; x sen + z cos )

gira o ponto (x; y; z) de um ângulo em torno do eixo y: Quando >


0; esta rotação acontece no sentido anti-horário quando se olha para a
origem a partir do semi-espaço y > 0: Da igualdade vetorial

(r; s; t) = T (x; y; z) = (x cos + z sen ; y ; x sen + z cos );

obtemos a igualdade matricial


2 3 2 32 3
r cos 0 sen x
4 s 5=4 0 1 0 54 y 5:
t sen 0 cos z

3. O operador

T (x; y; z) = (x cos y sen ; x sen + y cos ; z)

gira o ponto (x; y; z) de um ângulo em torno do eixo z: Quando > 0; esta


rotação acontece no sentido anti-horário quando se olha para a origem a partir
do semi-espaço z > 0: Da igualdade vetorial

(r; s; t) = T (x; y; z) = (x cos y sen ; x sen + y cos ; z);

obtemos a igualdade matricial


2 3 2 32 3
r cos sen 0 x
4 s 5 = 4 sen cos 0 5 4 y 5:
t 0 0 1 z

Dilatações e contrações no Rn

Seja k 0 um número real. O operador linear de…nido sobre o Rn por T (x) =


kx; é chamado de homotetia de razão k: Quando 0 6 k < 1 a homotetia
recebe o nome de contração e, quando k > 1; recebe o nome de dilatação.
A transformação linear T (x; y) = (2x; 2y) é uma dilatação no R2 com razão
2 e L(x; y) = (x=2; y=2) é uma contração no R2 com razão 1=2:

Notas de aula do Professor Faleiros


180 Transformação linear

4.3 Núcleo e imagem


Sejam V e W espaços vetoriais sobre o mesmo corpo K e T : V ! W uma
transformação linear. O conjunto

ima(T ) = fT (v) 2 W : v 2 V g

é chamado de imagem de T e o conjunto

nuc(T ) = fv 2 V : T (v) = 0g

dos vetores de V que são levados no zero por T é chamado de núcleo de T: A


imagem de T é um subespaço vetorial de W e o núcleo de T é um subespaço
vetorial de V: A dimensão do nuc(T ) é o posto de T; sendo denotada por
pos(T ): A dimensão do núcleo de T é a nulidade de T; sendo denotada por
nul(T ):
Exemplo. Seja T : R3 ! R3 a transformação linear

T (x; y; z) = (2x + 3y; x + z; 3x + 3y + z):

A imagem é formada por todo terno ordenado da forma

(2x + 3y; x + z; 3x + 3y + z) = x(2; 1; 3) + y(3; 0; 3) + z(0; 1; 1)

Assim, todo vetor da imagem é uma combinação linear dos vetores do conjunto

G = f (2; 1; 3); (3; 0; 3); (0; 1; 1) g:

Este conjunto não é uma base da imagem por ser linearmente dependente. O
vetor (0; 1; 1) é uma combinação linear dos vetores (2; 1; 3) e (3; 0; 3): Sendo o
conjunto f(2; 1; 3); (3; 0; 3)g linearmente independente, ele é uma base da im-
agem que, portanto, tem dimensão 2 e pos(T ) = 2: Todos os ternos ordenados
na imagem são da forma

c1 (2; 1; 3) + c2 (3; 0; 3)

onde c1 e c2 são números reais.


O núcleo de T é o conjunto dos ternos ordenados (x; y; z) de números rais
tais que
(2x + 3y; x + z; 3x + 3y + z) = (0; 0; 0):
Esta igualdade vetorial nos leva ao sistema homogêneo

2x + 3y = 0; x + z = 0; 3x + 3y + z = 0:

Notas de aula do Professor Faleiros


4.3 Núcleo e imagem 181

Resolvendo-o pelo método de Gauss obtemos x = z e y = 2z=3; onde z


aparece como variável livre. Deste modo, o núcleo é formado pelos ternos

(x; y; z) = ( z; 2z=3; z) = (z=3)( 3; 2; 3)

onde z é um número real qualquer. O conjunto f ( 3; 2; 3) g é uma base do


núcleo de T e a nulidade de T é 1:

Exemplo. O núcleo do operador T de…nido no R3 por T (x; y; z) = (x; y;


0) é
nuc(T ) = f(0; 0; z) 2 R3 : z 2 Rg
que possui dimensão 1 e sua imagem é

ima(T ) = f(x; y; 0) 2 R3 : x; y 2 Rg

que possui dimensão 2: Logo, nul(T ) + pos(T ) = 3:

Teorema 4.2 Seja T : V ! W uma transformação linear. Se V possuir


dimensão …nita, então

pos(T ) + nul(T ) = dim(V ):

Prova. Seja B = fv1 ; : : : ; vk g uma base do núcleo de T: Com isto, T (v1 )


= 0; : : : ; T (vk ) = 0: Sendo dim(V ) = n; inclua n k vetores a este conjunto
de modo a obter uma base de V

B1 = fv1 ; : : : ; vk ; vk+1 ; : : : ; vn g:

Se mostrarmos que
B2 = fT (vk+1 ); : : : ; T (vn )g
é uma base da imagem de T; o teorema estará demonstrado pois daí, nul(T )
= k; pos(T ) = n k e nul(T ) + pos(T ) = n = dim(V ):
Se w for um vetor da imagem de T; existe um vetor v de V tal que w =
T (v): Sendo B1 base de V; existem escalares x1 ; : : : ; xk ; : : : ; xn tais que

v = x 1 v1 + + xk v k + + xn v n :

Aplicando T em v; segue

w = T (v) = xk+1 T (vk+1 ) + + xn T (vn )

Notas de aula do Professor Faleiros


182 Transformação linear

uma vez que T (v1 ) = 0; : : : ; T (vk ) = 0: Isto prova que B2 gera a imagem
de T: Falta provar que B2 é linearmente independente. Se ck+1 ; : : : ; cn forem
escalares para os quais
ck+1 T (vk+1 ) + + cn T (vn ) = 0;
então T (ck+1 vk+1 + + cn vn ) = 0; mostrando que o vetor ck+1 vk+1 +
+ cn vn pertence ao núcleo de T: Como B1 é uma base do núcleo de T; existem
escalares c1 ; : : : ; ck tais que ck+1 vk+1 + + cn v n = c1 v 1 ck vk ou
c1 v 1 + + ck vk + ck+1 vk+1 + + cn vn = 0:
Sendo B1 uma base, a combinação do lado esquerdo da igualdade é nula apenas
quando c1 = 0; : : : ; ck = 0; ck+1 = 0; : : : ; cn = 0: Em particular, deve-se ter
ck+1 = 0; : : : ; cn = 0; provando que B2 é linearmente independente. Sendo
B2 linearmente independente e gerador da imagem de T; ele é uma base desta
imagem, o que completa a prova do teorema.

Exemplo. Seja um número real. A imagem do operador linear


T (x; y; z) = ( x cos y sen ; x sen + y cos ; 0 )
é gerada pelo conjunto f (cos ; sen ; 0); ( sen ; cos ; 0) g: O núcleo de T é
gerado pelo conjunto f (0; 0; 1) g: O posto de T é 2 e sua nulidade é 1; de modo
que nul(T )+ pos(T ) = 3; corroborando o teorema anterior.

Exemplo. Seja A uma matriz real de tamanho m n: Considere a trans-


formação T : Mn 1 (R) ! Mm 1 (R) de…nida por T (X) = AX: O núcleo de
T
nuc(T ) = f X 2 Mn 1 (R) : AX = 0 g
T
é o espaço nulo de A: Sendo A1 ; : : : ; An as colunas de A e X = x1 xn
uma matriz coluna n 1; então AX = x1 A1 + + xn An : Desta forma, a
imagem de T
ima(T ) = f AX : X 2 Mn 1 (R) g
= f x1 A 1 + + xn An : x1 ; : : : ; xn 2 R g
é o espaço coluna de A: Portanto, nul(T ) = nul(A) e pos(T ) = pos(A): Como
pos(A) + nul(A) = n
segue
pos(T ) + nul(T ) = n:

Notas de aula do Professor Faleiros


4.4 Composição 183

Exemplo. Considere a transformação linear T : M6 1 (R) ! M4 1 (R)


de…nida por T (X) = AX; onde
2 3
1 2 1 0 2 1
6 2 5 0 4 1 0 7
A=6 4 1
7:
4 3 8 4 3 5
3 5 5 4 9 5

Realizando operações elementares em A obtemos a matriz escalonada


2 3
1 2 1 0 2 1
6 0 1 2 4 3 2 7
R=6 4 0 0
7
0 0 0 0 5
0 0 0 0 0 0

que possui posto 2 e nulidade 4: Logo, o posto de T é igual a 2 e sua nulidade


é 4:

4.4 Composição
Sejam U; V e W espaços vetoriais sobre o mesmo corpo K: Sejam L : U ! V
e T : V ! W duas transformações entre espaços vetoriais. A transformação
T L : U ! W de…nida por

T L(u) = T (L(u))

é denominada composta de L com T: A operação que leva L e T na composta


T L é chamada de composição de transformações. Ao compor um operador
T : V ! V com o operador identidade I : V ! V; obtemos a própria T

T I=I T = T:

Exemplo. Considere as transformações lineares T (x; y) = (y; x + y; 2y) e


S(r; s; t) = 2r + s t: A composição S T é dada por

S T (x; y) = S (T (x; y)) = S (y; x + y; 2y) = 2y + (x + y) 2y = x + y:

Notas de aula do Professor Faleiros


184 Transformação linear

Exemplo. Denotemos por P (R) o espaço vetorial dos polinômios reais.


Considere as transformações lineares L : P (R) ! P (R) e T : P (R) ! P (R)
de…nidas por

L(p)(x) = xp(x) e T (q)(x) = q(1 + 2x):

Então

T L(p)(x) = T (L(p))(x) = L(p)(1 + 2x) = (1 + 2x)p(1 + 2x):

Observe que podemos calcular a composição L T

L T (p)(x) = L(T (p))(x) = xT (p)(x) = xp(1 + 2x):

No caso particular em que p(x) = 1 + x2 ; temos p(1 + 2x) = 1 + (1 + 2x)2 =


2 + 4x + 4x2 e

T L(p)(x) = (1 + 2x)p(1 + 2x) = (1 + 2x)(2 + 4x + 4x2 ) = 2 + 8x + 12x2 + 8x3 :

e
L T (p)(x) = xp(1 + 2x) = x(2 + 4x + 4x2 ) = 2x + 4x2 + 4x3 :

Teorema 4.3 A composta de duas transformações lineares é linear.

Prova. Sejam U; V e W espaços vetoriais de…nidos sobre um mesmo corpo.


Sejam L : U ! V e T : V ! W duas transformações lineares. Se r e s forem
dois vetores em U; se a e b forem dois escalares, então

T L(a r + b s) = T ( L(a r + b s) )
= T ( a L(r) + b L(s) )
= a T ( L(r) ) + b T ( L(s) )
= a T L(r) + b T L(s)

provando a linearidade da composta. Na passagem da primeira para a segunda


linha usamos a linearidade de L; da segunda para a terceira a linearidade de
T e, da terceira para a quarta, a de…nição de composta.

A composição de transformações é uma operação associativa. Dadas as


transformações,

T1 : V1 ! V2 ; T2 : V2 ! V3 ; T3 : V3 ! V4 ;

Notas de aula do Professor Faleiros


4.4 Composição 185

então
T3 (T2 T1 ) = (T3 T2 ) T1
e de…nimos
T3 T2 T1 : V1 ! V4
por
T3 T2 T1 = (T3 T2 ) T1
de modo que

T3 T2 T1 (v) = (T3 T2 ) T1 (v) = (T3 T2 )(T1 (v)) = T3 (T2 (T1 (v)));

para todo v em V:
Se L e T forem dois operadores sobre o mesmo espaço vetorial V; nem
sempre T L é igual a L T pois a composição não é uma operação comutativa.
Quando, eventualmente, T L for igual a L T; diremos que os operadores T
e L comutam.
Exemplo. Os operadores lineares sobre o R2

T (x; y) = (y; x) e L (x; y) = (x; 0)

não comutam pois

L T (x; y) = L( T (x; y) ) = L (y; x) = (y; 0)

e
T L (x; y) = T ( L (x; y) ) = T (x; 0) = (0; x)
mostrando que T L 6= L T:

Exemplo. Os operadores lineares sobre o R2

L(x; y) = ( x; y) e T (x; y) = (x; y)

comutam pois
L T (x; y) = L(x; y) = ( x; y)
e
T L(x; y) = T ( x; y) = ( x; y);
mostrando que L T = T L:

Notas de aula do Professor Faleiros


186 Transformação linear

Exemplo. Seja C 1 (R) o espaço vetorial das funções reais com derivadas
contínuas de todas as ordens. Consideremos os operadores lineares T e L
de…nidos sobre C 1 (R) por

T (f )(x) = xf (x)

e
L(f )(x) = f 0 (x);
onde f 0 é a derivada de f: Sendo T (f )0 a derivada de T (f ) obtemos
d
T (f )0 (x) = (xf (x)) = f (x) + xf 0 (x);
dx
de onde segue

T L(f )(x) = T (L(f ))(x) = T (f 0 )(x) = xf 0 (x)


L T (f )(x) = L(T (f ))(x) = T (f )0 (x) = f (x) + xf 0 (x)

e os operadores T e L não comutam.

4.5 Isomor…smo
As transformações são funções entre espaços vetoriais e para elas se aplicam
os conceitos de função injetora, sobrejetora, bijetora e inversa.

De…nição 4.4 Seja T : V ! W uma transformação do espaço vetorial V no


espaço vetorial W:
1. T é injetora quando leva vetores distintos de V em vetores distintos de
W: Isto signi…ca que, se v1 6= v2 ; então T (v1 ) 6= T (v2 ): Ou ainda, T é injetora
se, a igualdade T (v1 ) = T (v2 ) implicar em v1 = v2 :
2. T é sobrejetora quando sua imagem fT (v) : v 2 V g for igual a W:
Isto signi…ca que, se w pertence a W; existe v em V tal que T (v) = w:
3. T é bijetora quando for injetora e sobrejetora. Isto implica em que,
para cada w pertencente a W; existe um único v em V tal que T (v) = w:
1
Quando T : V ! W for bijetora, ela possui inversa T : W ! V: Se T (v)
= w; então T 1 (w) = v e podemos escrever
1
T (v) = w se, e só se, T (w) = v:

Desta forma,
1 1
T T (v) = v e T T (w) = w;

Notas de aula do Professor Faleiros


4.5 Isomor…smo 187

o que implica em
1 1
T T = IV e T T = IW ;
onde IV e IW são, respectivamente, os operadores identidade em V e W:
A projeção T (x; y; z) = (x; y; 0) do R3 no R3 não é injetora nem sobrejetora.
Não é injetora pois (1; 2; 3) e (1; 2; 4) possuem a mesma imagem (1; 2; 0): Não
é sobrejetora pois o ponto (1; 1; 1) não está na imagem de T: Não existe ponto
do R3 cuja imagem é (1; 1; 1) uma vez que a terceira coordenada das imagens
é igual a zero.
O operador linear
p
2
S(x; y) = ( x y; x + y)
2
gira o ponto (x; y) do R2 em torno da origem, no sentido anti-horário, em
um ângulo de =4 radianos. Este operador linear é bijetor. Para calcular sua
inversa, observamos que, escrevendo (u; v) = S(x; y); então S 1 (u; v) = (x; y):
Explicitando x e y em função de u e v; nas relações
p p
2 2
u= (x y) e v= (x + y)
2 2
obtemos p p
2 2
x= (u + v) e y= (v u):
2 2
A inversa de S é, portanto,
p
1 2
S (u; v) = (u + v; v u) :
2

De…nição 4.5 Uma transformação linear bijetora é chamada de isomor-


…smo. Existindo um isomor…smo entre V e W; estes espaços vetoriais são
ditos isomorfos.

Teorema 4.6 A inversa de um isomor…smo também é um isomor…smo.

Prova. Seja T : V ! W um isomor…smo e T 1 : W ! V sua inversa.


A inversa T 1 de uma função bijetora T é bijetora. Vamos provar que T 1 é
linear. Sejam c1 ; c2 escalares e w1 ; w2 vetores de W: Sendo T bijetora, existe
um único vetor v1 e um único vetor v2 ; ambos em V; tais que T (v1 ) = w1 e
T (v2 ) = w2 : Então T 1 (w1 ) = v1 e T 1 (w2 ) = v2 : Da linearidade de T; segue

T (c1 v1 + c2 v2 ) = c1 T (v1 ) + c2 T (v2 ) = c1 w1 + c2 w2

Notas de aula do Professor Faleiros


188 Transformação linear

e, desta forma,
1 1 1
T (c1 w1 + c2 w2 ) = c1 v1 + c2 v2 = c1 T (w1 ) + c2 T (w2 )
1 1
provando que T é linear. Sendo bijetora e linear, T é um isomor…smo.

Se L : U ! V e T : V ! W forem isomor…smos, então a composta T L


é um isomor…smo e
(T L) 1 = L 1 T 1 :
A composição de três ou mais isomor…smos é um isomor…smo. Se R; S e T
forem isomor…smos e, se for possível efetuar a composição R S T; ela será
um isomor…smo e
(R S T ) 1 = T 1 S 1 R 1 :
Para provar que uma transformação linear é um isomor…smo precisamos
provar que ela é injetora. O próximo teorema pode ser útil nesta etapa.

Teorema 4.7 Seja T : V ! W uma transformação linear entre os espaços


vetoriais V e W de…nidos sobre o mesmo corpo. Então T é injetora se, e só
se, T (v) = 0 implicar em v = 0:

Prova. Vamos supor que T é injetora. Sendo T linear, sabe-se que T (0) =
0: Se houver v tal que T (v) = 0; teremos v e 0 sendo levados no zero. A
injetividade de T implica em v = 0:
Reciprocamente, suponha que T (v) = 0 implica em v = 0: Sejam v1
e v2 vetores tais que T (v1 ) = T (v2 ) : Então, da linearidade de T; segue
T (v1 v2 ) = 0; o que implica em v1 v2 = 0 ou v1 = v2 ; provando que
T é injetora.

Exercício 4.8 Veri…que quais transformações abaixo são injetoras

1. T : R2 ! R2 de…nida por T (x; y) = (2x y; x + 3y):

2. T : R3 ! R3 de…nida por T (x; y; z) = (x; y; 0):

3. T : M3 1 (R) ! M2 1 (R) de…nida por T (X) = AX; onde

3 3 7
A= :
2 3 5

O próximo teorema mostra que uma transformação linear T : V ! W é


um isomor…smo se, e só se, T levar uma base fv1 ; : : : ; vn g de V numa base
fT (v1 ); : : : ; T (vn )g de W:

Notas de aula do Professor Faleiros


4.5 Isomor…smo 189

Teorema 4.9 Considere dois espaços vetoriais V e W sobre o mesmo corpo,


tendo V dimensão …nita. Seja T : V ! W uma transformação linear, B1 =
fv1 ; : : : ; vn g uma base de V e B2 = fT (v1 ); : : : ; T (vn )g:

1. T é injetora se, e só se, B2 for linearmente independente.

2. T é sobrejetora se, e só se, B2 gerar W:

3. T é bijetora se, e só se, B2 for uma base de W:

Prova. 1. Vamos supor que T é injetora. Sejam x1 ; : : : ; xn escalares tais


que x1 T (v1 ) + + xn T (vn ) = 0: Daí segue

T (x1 v1 + + xn vn ) = 0:

Sendo T injetora, x1 v1 + + xn vn = 0: Da independência linear de B1 ;


segue x1 = = xn = 0; provando que B2 é linearmente independente.
Agora vamos supor que B2 é linearmente independente. Seja v um vetor
de V tal que T (v) = 0: Para provar que T é injetora, basta provar que v = 0:
Como B1 é base de V; existem escalares a1 ; : : : ; an tais que v = a1 v1 +
+ an vn : Neste caso, 0 = T (v) = T (a1 v1 + + an vn ) = a1 T (v1 ) + +
an T (vn ): Da independência linear de B2 ; segue que a1 ; : : : ; an são todos iguais
a zero o que implica em v = 0; provando que T é injetora.
2. Vamos supor que T é sobrejetora. Para cada w em W existe um v em
V tal que w = T (v): Sendo B1 base de V; existem escalares y1 ; : : : ; yn tais que
v = y 1 v1 + + yn vn : Daí, w = T (v) = T (y1 v1 + + yn vn ) = y1 T (v1 )
+ + yn T (vn ); provando que B2 gera W:
Agora vamos supor que B2 gera W: Isto signi…ca que, dado um vetor w
em W; existem escalares b1 ; : : : ; bn tais que w = b1 T (v1 ) + + bn T (vn ) e
daí segue w = T (b1 v1 + + bn vn ); provando que w está na imagem de T:
Como w é um vetor genérico, T é sobrejetora.
3. Sendo T bijetora ela é injetora e sobrejetora. As partes (1) e (2) do
teorema garantem que B2 é linearmente independente e gera W; provando que
B2 é base de W:
Se B2 for uma base de W; ele é linearmente independente e gera W: Pelos
dois itens anteriores, T é injetora e sobrejetora. Logo, T é bijetora.

Corolário 4.10 Sejam V e W dois espaços vetoriais sobre um mesmo corpo.


Se V tem dimensão …nita, então V e W são isomorfos se, e só se, W tem
dimensão …nita e dim(W ) = dim(V ):

Notas de aula do Professor Faleiros


190 Transformação linear

Prova. Se V e W são isomorfos, existe um isomor…smo T : V ! W: Se


dim(V ) = n; seja B1 = fv1 ; : : : ; vn g uma base de V: O item (3) do teorema
anterior garante que B2 = fT (v1 ); : : : ; T (vn )g é uma base de W: Logo, W
possui dimensão …nita n e dim(W ) = dim(V ):
Se W tem dimensão …nita e dim(W ) = dim(V ) = n; sejam B1 = fv1 ; : : : ;
vn g e B2 = fw1 ; : : : ; wn g bases de V e W; respectivamente. O item (3) do
teorema anterior garante que a transformação linear T : V ! W de…nida nos
vetores da base B1 por T (v1 ) = w1 ; : : : ; T (vn ) = wn é um isomor…smo. Logo,
V e W são isomorfos.

O exemplo que segue é um caso particular importante do teorema anterior.


Exemplo. Seja B = fv1 ; : : : ; vn g uma base de um espaço vetorial V de
dimensão …nita n: A transformação linear T : V ! Rn de…nida por

T (x1 v1 + + xn vn ) = (x1 ; : : : ; xn )

é um isomor…smo de V em Rn : Este isomor…smo leva a base B de V na base


canônica do Rn :

Este exemplo nos permite dizer que todo espaço vetorial de dimensão n
é isomorfo ao Rn : O isomor…smo T leva cada vetor v = x1 v1 + + xn v n
de V no seu vetor de coordenadas (x1 ; : : : ; xn ) na base B; que pertence ao
Rn : Este isomor…smo permite identi…car v com (x1 ; : : : ; xn ): Desta forma
podemos trabalhar indistintamente com os vetores v do espaço vetorial V ou
com o seu vetor de coordenadas numa base B que são n uplas ordenadas de
números reais que pertencem ao Rn : Esta é a razão pela qual o Rn é um espaço
vetorial importante. Trabalhar no Rn é simples e ele é isomorfo a todo espaço
vetorial de dimensão n: Além da facilidade de se efetuar contas com as n-uplas
ordenadas, a reta, o plano e o espaço cartesianos são usados para representar
geometricamente o Rn ; quando n = 1; 2 e 3:
Os isomor…smos são fundamentais no âmbito da Álgebra Linear. Quando os
espaços envolvidos possuem a mesma dimensão …nita, a tarefa de mostrar que
uma transformação linear é um isomor…smo pode ser facilitada pelo próximo
teorema.

Teorema 4.11 Sejam V e W dois espaços vetoriais sobre um mesmo corpo,


ambos com dimensão …nita. Seja T : V ! W uma transformação linear. Se
dim(V ) = dim(W ) e

1. T for injetora, então T é isomor…smo.

2. T for sobrejetora, então T é isomor…smo.

Notas de aula do Professor Faleiros


4.5 Isomor…smo 191

Prova. Seja n a dimensão de V e de W: Seja B1 = fv1 ; : : : ; vn g uma base


de V e B2 = fT (v1 ) : : : ; T (vn )g:
1. Sendo T injetora, o item (1) do teorema anterior garante que B2 é
linearmente independente. Como dim(W ) = n; basta a independência linear
para garantir que B2 é uma base de W: Sendo B2 uma base de W; o item (3)
do teorema anterior garante que T é um isomor…smo.
2. Sendo T sobrejetora, o item (2) do teorema anterior garante que B2 =
fT (v1 ) : : : ; T (vn )g é um conjunto gerador de W: Como a dimensão de W é n;
basta ser um conjunto gerador para garantir que B2 é uma base de W: Daí o
item (3) do teorema anterior garante que T é um isomor…smo.

De acordo com este teorema, quando V e W possuem a mesma dimensão,


para demonstrar que uma transformação linear T : V ! W é um isomor…smo,
basta provar que T é injetora ou provar que T é sobrejetora. Não é preciso
provar a injetividade e sobrejetividade para garantir sua bijetividade. Basta
provar uma para garantir a outra. A prova da injetividade ou da sobrejetivi-
dade é o su…ciente para garantir a bijetividade.
Se dois espaços vetoriais forem isomorfos, toda propriedade de um se trans-
fere para o outro pelo isomor…smo. Uma propriedade que dois espaços isomor-
fos compartilham é a dimensão. Quando existir um isomor…smo independente
da escolha das bases entre dois espaços diremos que o isomor…smo é canônico
e que os dois espaços são canonicamente isomorfos. Sob o ponto de vista
da Álgebra Linear, dois espaços canonicamente isomorfos são indistinguíveis.

Exemplo. Seja A uma matriz real quadrada n n e considere a trans-


formação linear T : Mn 1 (R) ! Mn 1 (R) de…nida por T (X) = AX: Esta
transformação é um isomor…smo se e só se A for inversível. Neste caso a trans-
formação inversa é dada por T 1 (X) = A 1 X:

Exemplo. A transformação linear T : Pn (R) ! Pn+1 (R); de…nida por


T (p)(x) = xp(x); é injetora mas não é sobrejetora. Sua imagem é formada
pelos polinômios de grau igual ou menor do que n + 1; cujo termo constante é
nulo. O polinômio 1 + x pertence a Pn+1 (R) e não está na imagem de T:

Exemplo. A transformação linear D : C 1 (R) ! C(R) que leva uma função


real f em sua derivada Df não é injetora, uma vez que, se a diferença entre
duas funções f e g for uma função constante, Df = Dg:

Notas de aula do Professor Faleiros


192 Transformação linear

4.6 Matriz de uma transformação linear


Seja T : V ! W uma transformação linear entre dois espaços vetoriais V e W;
de…nidos sobre o mesmo corpo e ambos com dimensão …nita. Seja B1 = fv1 ;
: : : ; vn g uma base de V e B2 = fw1 ; : : : ; wm g uma base de W: Os vetores
T (v1 ); : : : ; T (vn ) estão em W e podem ser decompostos numa combinação
linear de vetores da base B2 : Em sendo assim, existem escalares aij ; com i =
1; : : : ; m e j = 1; : : : ; n; para os quais
X
m
T (vj ) = aij wi :
i=1

Os escalares a1j ; : : : ; amj são as coordenadas de T (vj ) na base B2 e a matriz


2 3
a11 a1n
6 .. 7
[T ]12 = 4 ... ..
. . 5
am1 amn

é denominada matriz de T nas bases B1 e B2 : As coordenadas de T (v1 ) na


base B2 formam a primeira coluna de [T ]12 ; as coordenadas de T (v2 ) na base
B2 formam a segunda coluna de [T ]12 ; e assim por diante.
Quando T : V ! V for um operador linear e B1 = B2 ; a matriz [T ]12 ;
é chamada de matriz de T na base B1 e pode ser denotada por [T ]11 ou
simplesmente por [T ]1 : A matriz do operador identidade I : V ! V na base
B1 = fv1 ; : : : ; vn g é a matriz identidade, uma vez que I(vi ) = vi :
Quando T for uma transformação linear do Rn no Rm ; B1 for a base
canônica do Rn e B2 for a base canônica do Rm ; a matriz [T ]12 de T nas
bases B1 e B2 é a chamada de matriz canônica de T:
Exemplo. Considere a transformação linear T : R3 ! R3 de…nida por

T (x; y; z) = (2x y; x 3y + z; y z):

Sendo fe1 ; e2 ; e3 g a base canônica do R3 ; então

T (e1 ) = (2; 1; 0) = 2e1 + e2


T (e2 ) = ( 1; 3; 1) = e1 3e2 + e3
T (e3 ) = (0; 1; 1) = e2 e3

de modo que a matriz canônica de T é


2 3
2 1 0
[T ] = 4 1 3 1 5:
0 1 1

Notas de aula do Professor Faleiros


4.6 Matriz de uma transformação linear 193

Exemplo. Sendo v1 = (1; 1) v2 = (0; 1); w1 = (1; 1; 0); w2 = (0; 1; 0) e


w3 = (0; 1; 1); então B1 = fv1 ; v2 g é uma base do R2 e B2 = fw1 ; w2 ; w3 g é
uma base do R3 : Seja T : R2 ! R3 de…nida por

T (x; y) = (x + y; 2x y; 3y):

Vamos calcular [T ]12 ; a matriz de T nas bases B1 e B2 : Sabemos que


2 3
a11 a12
[T ]12 = 4 a21 a22 5
a31 a32
onde

T (v1 ) = a11 w1 + a21 w2 + a31 w3


T (v2 ) = a12 w1 + a22 w2 + a32 w3 :

Vamos calcular os coe…cientes aij ; para i = 1; 2; 3 e j = 1; 2:

T (1; 1) = (2; 1; 3) = a11 (1; 1; 0) + a21 (0; 1; 0) + a31 (0; 1; 1)


T (0; 1) = (1; 1; 3) = a12 (1; 1; 0) + a22 (0; 1; 0) + a32 (0; 1; 1)

Destas igualdades vetoriais, obtemos as equações


2 32 3 2 3
1 0 0 a11 2
4 1 1 1 5 4 5 4
a21 = 1 5
0 0 1 a31 3
e 2 32 3 2 3
1 0 0 a12 1
4 1 1 1 5 4 a22 5 = 4 1 5
0 0 1 a32 3
que possuem a mesma matriz de coe…cientes. Resolvendo estas equações obte-
mos 2 3 2 3 2 3 2 3
a11 2 a12 1
4 a21 5 = 4 4 5 e 4 a22 5 = 4 5 5
a31 3 a32 3
o que nos permite construir a matriz
2 3
2 1
[T ]12 = 4 4 5 5:
3 3

Notas de aula do Professor Faleiros


194 Transformação linear

Exemplo. Lembre-se que Pn (R) denota o espaço vetorial dos polinômios


reais de grau menor ou igual a n: Seja T : P1 (R) ! P2 (R) a transformação
linear de…nida num polinômio p por T (p)(x) = xp(x): Sendo B1 = fp1 ; p2 g;
onde p1 (x) = 1 e p2 (x) = x e B2 = fp1 ; p2 ; p3 g; onde p3 (x) = x2 ; então B1 é
uma base de P1 (R) e B2 é uma base de P2 (R): Calculamos

T (p1 )(x) = xp1 (x) = x = p2 (x)


T (p2 )(x) = xp2 (x) = x2 = p3 (x)

de onde segue

T (p1 ) = p2 = 0p1 + 1p2 + 0p3


T (p2 ) = p3 = 0p1 + 0p2 + 1p3

de modo que [T ]12 ; a matriz de T nas bases B1 e B2 ; é


2 3
0 0
[T ]12 = 4 1 0 5 :
0 1

Teorema 4.12 Seja T : V ! W uma transformação linear, B1 uma base de


V e B2 uma base de W: Dado v em V;

[T (v)]2 = [T ]12 [v]1

onde [T ]12 é a matriz de T nas bases B1 e B2 ; [v]1 e [T (v)]2 são as matrizes


de coordenadas de v e T (v) nas bases B1 e B2 ; respectivamente.

Prova. Seja B1 = fv1 ; : : : ; vn g uma base de V e B2 = fw1 ; : : : ; wm g


uma base de W: Se
X
n X
m
v= xj v j e T (v) = yi wi ;
j=1 i=1

então 2 3 2 3
x1 y1
6 7 6 7
[v]1 = 4 ... 5 e [T (v)]2 = 4 ... 5
xn ym

Notas de aula do Professor Faleiros


4.6 Matriz de uma transformação linear 195

são as matrizes de coordenadas de v e T (v) nas bases B1 e B2 ; respectivamente.


Sendo 2 3
a11 a1n
6 .. 7
[T ]12 = 4 ... ...
. 5
am1 amn
a matriz de T nas bases B1 e B2 ; então
X
m
T (vj ) = aij wi ;
i=1

para j = 1; 2; : : : ; n e, usando a linearidade de T;


! !
Xn Xn X
n Xm X
m X
n
T (v) = T xj v j = xj T (vj ) = xj aij wi = aij xj wi :
j=1 j=1 j=1 i=1 i=1 j=1

Ao mesmo tempo,
X
m
T (v) = yi wi :
i=1

e, pela unicidade da decomposição de T (v) na base B2 ; se conclui que


X
n
yi = aij xj ;
j=1

para i = 1; : : : ; m: Estas m igualdades escalares nos levam à igualdade matricial


[T (v)]2 = [T ]12 [v]1 :

Exemplo. Denotamos por Pn (R) o espaço vetorial dos polinômios reais de


grau menor ou igual a n: Seja T : P2 (R) ! P2 (R) o operador linear de…nido
por T (p)(x) = p(2 x): Sendo B = fp1 ; p2 ; p3 g; onde p1 (x) = 1; p2 (x) = x;
p3 (x) = x2 ; uma base de P2 (R); calculamos
T (p1 )(x) = p1 (2 x) = 1 = p1 (x)
T (p2 )(x) = p2 (2 x) = 2 x = 2p1 (x) p2 (x)
T (p3 )(x) = p3 (2 x) = (2 x)2 = 4 4x + x2 = 4p1 (x) 4p2 (x) + p3 (x)
e a matriz de T na base B é
2 3
1 2 4
[T ] = 4 0 1 4 5:
0 0 1

Notas de aula do Professor Faleiros


196 Transformação linear

Para calcular T (p)(x); onde p(x) = 1 + 2x + 3x2 ; basta efetuar o produto


matricial 2 32 3 2 3
1 2 4 1 17
4 0 1 4 5 4 2 5 = 4 14 5
0 0 1 3 3
para obter T (p) = 17p1 14p2 + 3p3 e T (p)(x) = 17p1 (x) 14p2 (x) + 3p3 (x)
= 17 14x + 3x2 :

Exemplo. Consideremos as bases B1 = fv1 ; v2 g do R2 e B2 = fw1 ; w2 ;


w3 g do R3 ; onde v1 = (2; 1); v2 = (1; 2) e w1 = (1; 0; 1); w2 = (0; 1; 0); w3 =
(1; 2; 0): Seja T : R2 ! R3 a transformação linear cuja matriz [T ]12 nas bases
B1 e B2 é 2 3
1 0
[T ]12 = 4 3 2 5 :
2 1
De acordo com a de…nição de matriz da transformação linear, segue

T (v1 ) = 1w1 3w2 + 2w3 ;


T (v2 ) = 0w1 + 2w2 + 1w3 :

Sendo
v = a1 v 1 + a2 v 2 e T (v) = b1 w1 + b2 w2 + b3 w3 ;
sabemos que 2 3 2 3
b1 1 0
4 b2 5 = 4 a1
3 2 5 :
a2
b3 2 1
Para calcular T num par v = (x; y); precisamos escrever este par numa com-
binação linear dos vetores da base B1 = fv1 ; v2 g: A igualdade

(x; y) = a1 v1 + a2 v2 = a1 (2; 1) + a2 (1; 2);

implica em

2a1 + a2 = x
a1 + 2a2 = y

que, ao ser resolvido para a1 e a2 ; nos fornece a1 = (2x y)=3 e a2 = (2y x)=3;
donde segue
2x y 2y x
(x; y) = (2; 1) + (1; 2)
3 3

Notas de aula do Professor Faleiros


4.7 Matriz da transformação composta 197

e
2x y 2y x
T (x; y) = T (2; 1) + T (1; 2)
3 3
Como

T (2; 1) = T (v1 ) = 1w1 3w2 + 2w3


= 1(1; 0; 1) 3(0; 1; 0) + 2(1; 2; 0) = (1; 1; 1)

T (1; 2) = T (v2 ) = 0w1 + 2w2 + 1w3


= 0(1; 0; 1) + 2(0; 1; 0) + 1(1; 2; 0)
= (1; 4; 0):

obtemos
2x y 2y x
T (x; y) = T (2; 1) +
T (1; 2)
3 3
2x y 2y x
= (1; 1; 1) + (1; 4; 0)
3 3
1
= (x + y; 2x + 7y; 2x y):
3
Para calcular T (5; 7); por exemplo, basta fazer x = 5 e y = 7 na fórmula
acima
1
T (5; 7) = (5 + 7; 2 5+7 7; 2 5 7)
3
= (4; 13; 1):

4.7 Matriz da transformação composta


Considere três espaços vetoriais V; W e U; todos com dimensão …nita e de…nidos
sobre o mesmo corpo. Tome uma base B1 = fv1 ; : : : ; vm g do espaço vetorial
V; uma base B2 = fw1 ; : : : ; wn g do espaço vetorial W e uma base B3 = fu1 ;
: : : ; up g do espaço vetorial U: Sejam

L:V !W e T :W !U

duas transformações lineares.

Notas de aula do Professor Faleiros


198 Transformação linear

Para j = 1; : : : ; m; podemos decompor L(vj ) na base B2

X
n
L(vj ) = akj wk para j = 1; : : : ; m
k=1

e, para k = 1; : : : ; n; podemos decompor tanto T (wk ) quanto T L(vj ) na


base B3 ; resultando em
p
X
T (wk ) = bik ui para j = 1; : : : ; m
i=1
p
X
T L(vj ) = cij ui para j = 1; : : : ; m
i=1

Nos somatórios acima, o subíndice sobre o qual seP soma sempre aparece duas
vezes no lado direito. Por exemplo: no somatório nk=1 akj wk ; onde a soma é
efetuada sobre o índice k; ele aparece nos dois fatores, em akj e em wk : Para
simpli…car a notação, vamos ser arrojados
Pn e omitir o símbolo de somatório,
escrevendo apenas akj wk em lugar de k=1 akj wk : Sempre que houver um
subíndice repetido, há uma soma neste índice. Esta notação é denominada
de notação de Einstein que, possivelmente, a usou no desenvolvimento da
Relatividade Geral. Reescrevendo as igualdade anteriores usando esta notação,
segue

L(vj ) = akj wk T (wk ) = bik ui e T L(vj ) = cij ui :

De acordo com a de…nição de matriz de uma transformação linear,

akj é a entrada da linha k coluna j da matriz [L]12 ;

bik é a entrada da linha i coluna k da matriz [T ]23 e

cij é a entrada da linha i coluna j da matriz [T L]13 ;

de modo que

[L]12 = [akj ]; [T ]23 = [bik ] e [T L]13 = [cij ]:

Começando com o cálculo da composta T L em vj ; chegamos a

T L(vj ) = T (L(vj )) = T (akj wk ) = akj T (wk )


= akj bik ui = bik akj ui :

Notas de aula do Professor Faleiros


4.7 Matriz da transformação composta 199

Como T L(vj ) = cij ui ; pela unicidade da decomposição de um vetor numa


base, obtemos
cij = bik akj ;
para i = 1; : : : ; p e j = 1; : : : ; n: Estas p n igualdades escalares correspondem
à igualdade matricial
[T L]13 = [T ]23 [L]12 :
A matriz da composição T L é o produto das matrizes de T e L: Vamos
enunciar este resultado na forma de um teorema

Teorema 4.13 Considere três espaços vetoriais V; W e U; todos com dimen-


são …nita e de…nidos sobre o mesmo corpo. Seja B1 = fv1 ; : : : ; vm g uma base
de V; B2 = fw1 ; : : : ; wn g uma base de W e B3 = fu1 ; : : : ; up g uma base de
U: Sejam L : V ! W e T : W ! U duas transformações lineares. Sejam [L]12
a matriz de L nas bases B1 e B2 ; [T ]23 a matriz de T nas bases B2 e B3 e
[T L]13 a matriz da composta T L bas bases B1 e B3 : Então vale a igualdade

[T L]13 = [T ]23 [L]12 :

Na composição de três transformações lineares L : V1 ! V2 ; S : V2 ! V3 e


T : V3 ! V4 ; vale a associatividade

T S L=T (S L) = (T S) L;

e,
[T S L]14 = [T S]24 [L]12 = [T ]34 [S]23 [L]12 ;
onde as matrizes se referem a quatro bases B1 ; B2 ; B3 e B4 dos espaços vetoriais
V1 ; V2 ; V3 ; V4 ; respectivamente.
Exemplo. Consideremos três operadores lineares T1 ; T2 e T3 de R3 em R3 ;
onde p
2 p
T1 (x; y; z) = ( x y ; x + y ; 2z );
2
é a transformação que gira o ponto (x; y; z) do espaço em torno do eixo z;
de modo que sua projeção (x; y; 0) sobre o plano xy gira 45 no sentido anti-
horário, em relação a um observador que se situa no semi espaço z > 0: A
transformação
T2 (x; y; z) = ( x; y; z)
re‡ete o ponto (x; y; z) no plano yz e

T3 (x; y; z) = (x; y; 0)

Notas de aula do Professor Faleiros


200 Transformação linear

projeta (x; y; z) sobre o plano xy: A composição T = T3 T2 T1 executa


as três operações em sequência. As matrizes canônicas das transformações
lineares T1; T2 e T3 são
2 3 2 3 2 3
p 1 1 0 1 0 0 1 0 0
24
[T1 ] = 1 1 p0 5 [T2 ] = 4 0 1 0 5 [T3 ] = 4 0 1 0 5 :
2
0 0 2 0 0 1 0 0 0

Para obter a matriz canônica da composta T = T3 T2 T1 basta efetuar o


produto matricial [T3 ] [T2 ] [T1 ]
2 3
p 1 1 0
24
[T ] = [T3 ] [T2 ] [T1 ] = 1 1 0 5
2
0 0 0

de modo que p
2
T (x; y; z) = ( x + y; x + y; 0) :
2

4.8 Matriz da transformação inversa


Sejam V e W espaços vetoriais sobre o mesmo corpo. Quando uma transfor-
mação linear T de V em W é um isomor…smo, existe a inversa T 1 de W em V
que também é um isomor…smo. Vamos provar que a matriz de T 1 em relação
a duas bases é a inversa da matriz de T nestas mesmas bases.

Teorema 4.14 Sejam V e W espaços vetoriais de…nidos sobre o mesmo corpo


e ambos com dimensão …nita n: Seja B1 uma base de V e B2 uma base de W:
Uma transformação linear T : V ! W é um isomor…smo se, e só se, a matriz
[T ]12 de T nas bases B1 e B2 for inversível. Além disto, vale a igualdade
1
[T ]21 = [T ]121

Prova. 1. Sendo T um isomor…smo, seja T 1 : W ! V sua inversa.


Assim, T 1 T = idV ; onde idV é o operador identidade em V: Pelo que foi
provado,
[T 1 ]21 [T ]12 = T 1 T 11 = [idV ]11 :
1
Como [idV ]11 é a matriz identidade, concluímos que a matriz [T ]21 é a inversa
da matriz [T ]12 :

Notas de aula do Professor Faleiros


4.8 Matriz da transformação inversa 201

2. Sendo a matriz [T ]12 inversível, seja [T ]121 a sua inversa. Seja L : W ! V


a transformação linear cuja matriz [L]21 nas bases B2 e B1 é a matriz [T ]121 :
Neste caso, tanto [L]21 [T ]12 quanto [T ]12 [L]21 são iguais à matriz identidade,
o que implica em L T = idV e T L = idW ; onde idV é o operador identidade
em V e idW é o operador identidade em W: Assim, L é a inversa de T; donde
…ca provado que T é inversível. Sendo linear e inversível, T é um isomor…smo.

Exemplo. Considere o operador linear T : R3 ! R3 de…nido por


T (x; y; z) = ( 6x + 4y z; 2x + y; x y+z)
cuja matriz na base canônica é
2 3
6 4 1
4
[T ] = 2 1 0 5:
1 1 1
Esta matriz é inversível e sua inversa é
2 3
1 3 1
[T ] 1 = 4 2 7 2 5:
3 10 2
Tal fato nos permite a…rmar que T é um isomor…smo e que a sua inversa é
1
T (a; b; c) = ( a 3b + c; 2a + 7b 2c; 3a + 10b 2c ):

Exemplo. Seja um número real e w1 = (cos ; sen ); w2 = ( sen ;


cos ) dois vetores do R2 : O conjunto B1 = fw1 ; w2 g é uma base do R2 : Seja
T o operador linear do R2 no R2 de…nido por T (w1 ) = w1 e T (w2 ) = w2 :
Este operador re‡ete um par (x; y) de números reais na reta gerada por w1 :
Esta reta passa pela origem (0; 0) e possui uma inclinação de radianos em
relação ao eixo horizontal. A matriz de T na base B1 é
1 0
[T ]1 = :
0 1

Sendo B2 = fe1 ; e2 g a base canônica do R2 ; vale a relação


w1 = cos e1 + sen e2 ;
w2 = sen e1 + cos e2 :

Notas de aula do Professor Faleiros


202 Transformação linear

de onde obtemos a matriz de transição de B1 para B2


cos sen
M12 = :
sen cos
A inversa desta matriz é a matriz de transição de B2 para B1
cos sen
M21 = :
sen cos

Para calcular T (x; y) temos duas escolhas. Na primeira, obtemos e1 e e2 em


função de w1 ; w2 usando M21

e1 = cos w1 sen w2 ;
e2 = sen w1 + cos w2 :

e desenvolvemos

T (x; y) = xT (e1 ) + yT (e2 ) = xT (cos w1 sen w2 ) + yT (sen w1 + cos w2 )


= (x cos + y sen )T (w1 ) + ( x sen + y cos )T (w2 )
= (x cos + y sen )w1 ( x sen + y cos )w2
= (x cos + y sen )(cos ; sen ) + (x sen y cos )( sen ; cos ):

Depois de simpli…car, chega-se a

T (x; y) = ( x cos 2 + y sen 2 ; x sen 2 y cos 2 ):

Na segunda escolha, podemos calcular a matriz de T na base canônica B2


usando a fórmula
[T ]2 = M12 [T ]1 M21 :
Efetuando as contas,
cos sen 1 0 cos sen
[T ]2 =
sen cos 0 1 sen cos
cos 2 sen 2
=
sen 2 cos 2

A partir de [T ]2 obtemos diretamente da fórmula

cos 2 sen 2 x
[T (x; y)]2 = [T ]2 [(x; y)]2 =
sen 2 cos 2 y
que nos fornece

T (x; y) = ( x cos 2 + y sen 2 ; x sen 2 y cos 2 ):

Notas de aula do Professor Faleiros


4.9 Determinante de um operador linear 203

Em particular, quando = =6; obtemos

1 p p
T (x; y) = ( x + y 3; x 3 y ):
2

4.9 Determinante de um operador linear


Duas matrizes A e B; quadradas e de mesmo tamanho, são semelhantes
quando existe uma matriz inversível P para a qual
1
A = P BP :

Se A e B forem semelhantes, a matriz A é inversível se, e só se, B for inversível


e ambas possuem o mesmo determinante, como se prova em seguida:
1 1 1
det(A) = det(P BP ) = det(P ) det(B) det(P ) = det(P ) det(B) det(P ) = det(B):

Sendo o determinante um escalar, o produto de determinantes comuta. Esta


foi a propriedade usada para obter a última igualdade no desenvolvimento
anterior.
Pode-se provar ainda que matrizes semelhantes possuem o mesmo posto, o
mesmo núcleo, o mesmo traço (soma das entradas da diagonal principal).
Vamos mostrar que as matrizes de um operador linear em bases distintas
são semelhantes.
Seja V um espaço vetorial de dimensão …nita e B1 = fv1 ; : : : ; vn g uma
base de V: Dado um operador linear T : V ! V; podemos escrever
X
n
T (vj ) = aij vi :
i=1

A matriz de T na base B1 é aquela na qual a entrada da linha i coluna j é aij

[T ]1 = [aij ] :

Teorema 4.15 Seja V um espaço vetorial de dimensão …nita. Sejam B1 e B2


duas bases de V e M12 a matriz de transição da base B1 para a base B2 : Seja
T : V ! V um operador linear, [T ]1 a matriz de T na base B1 e [T ]2 a matriz
de T na base B2 : Então
[T ]2 = M12 [T ]1 M121 :

Notas de aula do Professor Faleiros


204 Transformação linear

Prova. Nesta demonstração usaremos a notação de Einstein para o so-


matório. Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases de V:
Sendo M12 = [xij ] a matriz de transição de B1 para B2 ;

vj = xij wi

para j = 1; : : : ; n: Sendo

T (vj ) = aij vi e T (wj ) = bij wi

para j = 1; : : : ; n; então [T ]1 = [aij ] é a matriz de T na base B1 e [T ]2 = [bij ]


é a matriz de T na base B2 : Por um lado,

T (vj ) = akj vk = xik akj wi

e, por outro,
T (vj ) = T (xkj wk ) = xkj T (wk ) = bik xkj wi :
Da unicidade da decomposição de um vetor numa base, segue

xik akj = bik xkj

para i e j iguais a 1; : : : ; n; que nos leva à igualdade matricial

M12 [T ]1 = [T ]2 M12 :

O teorema está provado uma vez que a matriz de transição é inversível.

Este teorema mostra que matrizes de operadores lineares T : V ! V em


bases diferentes são semelhantes. Se M for a matriz de T na base B1 e N for
a matriz de T na base B2 ; então N = P M P 1 ; onde P é a matriz de mudança
da base B1 para a base B2 e assim,

det(N ) = det(M ):

Provou-se que os determinantes das matrizes de um operador linear são sem-


pre iguais, independentemente da escolha da base. Esta propriedade enseja a
de…nição do determinante de um operador linear T como sendo o deter-
minante de sua matriz em uma base. Por de…nição,

det(T ) = det(M )

onde M é a matriz de T numa base qualquer de V: O determinante de T não


depende da base escolhida.

Notas de aula do Professor Faleiros


4.9 Determinante de um operador linear 205

Exemplo. Vamos ilustrar a independência do determinante em relação à


escolha da base. Considere duas bases B1 = fe1 ; e2 g e B2 = fv1 ; v2 g do R2 ;
onde e1 = (1; 0); e2 = (0; 1); v1 = (1; 1) e v2 = (1; 2): Observe que B1 é a base
canônica do R2 : Seja T : R2 ! R2 o operador linear de…nido por T (x; y) =
(x+ y; 2x+ 4y): Denotemos por [T ]1 a matriz de T na base canônica B1 e
por [T ]2 a matriz de T na base B2 : Como

T (e1 ) = (1; 2) = e1 2e2 ;


T (e2 ) = (1; 4) = e1 + 4e2 ;

a matriz canônica de T é
1 1
[T ]1 =
2 4
e det ([T ]1 ) = 6: Como

T (v1 ) = (2; 2) = 2v1 ;


T (v2 ) = (3; 6) = 3v2 ;

a matriz de T na base B2 é

2 0
[T ]2 =
0 3

e det ([T ]2 ) = 6: O determinante das matrizes de T tanto na base B1 quanto


na base B2 são iguais a 6: O determinante da matriz de T não muda quando
mudamos a base. Por de…nição, det(T ) = 6:

Exemplo. A matriz canônica do operador linear T : R2 ! R2 ; de…nido


por T (x; y) = (3x + 2y; x + y); é

3 2
M= :
1 1

O determinante de M é o determinante de T

det(T ) = det(M ) = 1:

Notas de aula do Professor Faleiros


206 Transformação linear

Notas de aula do Professor Faleiros


Capítulo 5

Produto interno

Na Geometria, um conceito fundamental é o de ângulo entre vetores. Os con-


ceitos de módulo e ângulo entre dois vetores são usados para de…nir o produto
escalar. A partir desta de…nição, prova-se algumas propriedades fundamentais
do produto escalar, a partir das quais se pode demonstrar todas as outras.
Aqui, o produto escalar, denominado de produto interno, será de…nido medi-
antes suas propriedades fundamentais a partir das quais se pode provar todas
as outras e obter como subproduto os conceitos de módulo ou norma de um
vetor e ângulo entre vetores.
Neste capítulo vamos nos restringir aos espaços vetoriais reais e complexos.

5.1 Produto interno num espaço vetorial real


Na Geometria se de…ne o produto escalar x y entre dois vetores x = x1 i +
x2 j + x3 k e y = y1 i + y2 j + y3 k; onde i; j; k; são os versores nas direções dos
eixos cartesianos por
x y = x1 y1 + x2 y2 + x3 y3 :
Observe que, quando x = y;

x x = x21 + x22 + x23 0:

A partir desta de…nição se prova que, dados os vetores x; y; z e um número


real c; valem as propriedades

1. x y = y x (simetria);

2. x (y + z) = x y + x z (aditividade);

3. x (c y) = c (x y) (homogeneidade);

Notas de aula do Professor Faleiros


208 Produto interno

4. x x 0 (positividade);

5. x x = 0 se, e só se, x = 0:

A partir dessas, se deduzem todas as propriedades do produto escalar. Com


esta observação em mente, vamos de…nir um produto interno em um espaço
vetorial real usando essas propriedades.

De…nição 5.1 Um produto interno em um espaço vetorial real V é uma


operação que associa a cada par de vetores v e w de V um número real,
denotado por hv; wi; com as seguintes propriedades: Para todo u; v; w em V
e para todo real c;

1. hv; wi = hw; vi (simetria);

2. hu; v + wi = hu; vi + hu; wi (aditividade);

3. h v; c wi = c hv; wi (homogeneidade);

4. hv; vi 0 (positividade);

5. hv; vi = 0 se, e só se, v = 0:

O número real hv; wi é chamado de produto interno dos vetores v e w e


também pode ser denotado por v w: Escolha a notação que preferir.
Exemplo. Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn :
A operação
h x; y i = x1 y1 + + xn y n
de…ne um produto interno em Rn chamado de produto interno euclidiano.

Exemplo. Sejam p1 ; : : : ; pn números reais positivos. Sejam x = (x1 ; : : : ;


xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn : A operação

h x; y i = p1 x1 y1 + + pn xn yn

de…ne um produto interno em Rn chamado de produto interno euclidiano


ponderado e os números p1 ; : : : ; pn são os pesos. Em particular, h x; y i =
2x1 y1 + 3x2 y2 é um produto interno euclidiano ponderado no R2 :

Notas de aula do Professor Faleiros


5.2 Norma e distância 209

Propriedades adicionais do produto interno


Para todo c real e todo u; v; w em um espaço vetorial real V com produto
interno,

1. h0; vi = hv; 0i = 0
2. hu; v + wi = hu; vi + hu; wi
3. h v; c wi = c hv; wi

O produto interno é linear nos dois fatores. Isto signi…ca que, ao …xar um
vetor v0 num espaço vetorial V com produto interno, as funções L e T de V
em R; de…nidas por

L(v) = hv; v0 i e T (v) = hv0 ; vi

são lineares.

5.2 Norma e distância


Seja V um espaço vetorial real com produto interno. De…nimos a norma ou
módulo de um vetor v em V por
p
kvk = hv; vi:

A distância d(v; w) entre dois vetores v e w de V é de…nida por


p
d(v; w) = kv wk = hv w; v wi:

Observe que kvk = d( v; 0): O conjunto dos vetores v em V tais que kvk =
1 é chamado de esfera unitária de V: O conjunto dos vetores v em V tais
que kvk 1 é chamado de disco unitário de V:
Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) duas ênuplas ordenadas de
números reais. Designando o produto interno euclidiano no Rn por x y; então
p q
kxk = x x = x21 + + x2n

é a norma euclidiana de x e
p p
d(x; y) = kx yk = (x y) (x y) = (x1 y1 )2 + + (xn yn )2

é a distância euclidiana entre x e y: Sendo x = (1; 2; 3); sua norma euclidiana


é p p
k(1; 2; 3)k = 1 + 4 + 9 = 14:

Notas de aula do Professor Faleiros


210 Produto interno

Exemplo. No R2 ; se o produto interno de x = (x1 ; x2 ) e y = (y1 ; y2 ) for o


euclidiano, h x; y i = x1 y1 + x2 y2 ; então a esfera unitária é a circunferência x21
+ x22 = 1 de centro na origem (0; 0) e raio unitário. Se a norma vier do produto
interno euclidiano ponderado h x; y i = 4x1 y1 + 9x2 y2 ; a esfera unitária será
uma elipse 4x21 + 9x22 = 1; centrada na origem, com semi eixos 1=2 e 1=3:

Exemplo. No espaço vetorial Mn 1 (R) das matrizes coluna reais, o pro-


duto de matrizes X T Y de…ne um produto interno
h X; Y i = X T Y
Em relação a este produto interno, sendo A uma matriz n n;
h AX; Y i = X; AT Y :

Exemplo. Quando A é uma matriz quadrada real inversível n n; então


hX; Y i = X T AT AY
é um produto interno no espaço vetorial Mn 1 (R) das matrizes coluna
reais. Quando A é a matriz identidade, obtemos o produto interno do exemplo
anterior hX; Y i = X T Y:

Exemplo. Seja [a; b] um intervalo fechado de números reais e C[a; b] o


conjunto de todas as funções contínuas em [a; b] e imagem real. Este conjunto,
com as operações de adição de funções e multiplicação de uma função por um
número real é um espaço vetorial real. Nele
Z b
hf; gi = f (x)g(x)dx
a
é um produto interno. Para destacar o fato de a integral ocorrer no intervalo
[a; b]; pode-se dizer que é um produto interno em [a; b]: Em relação a este
produto interno, podemos de…nir a norma e a distância entre funções f e g
Z b
2
kf k = f 2 (x)dx
a
e s
Z b
d(f; g) = [f (x) g(x)]2 dx:
a

Notas de aula do Professor Faleiros


5.3 Desigualdade de Cauchy-Schwarz 211

Propriedades da norma
Para todo real k e todo v; w num espaço vetorial real V com produto interno,

1. kvk 0

2. kvk = 0 se, e só se, v = 0

3. kk vk = jkj kvk

4. kv + wk kvk + kwk :

As três primeiras propriedades são consequências diretas das propriedades


do produto interno. A quarta propriedade é chamada de desigualdade tri-
angular e será provada um pouco adiante usando a desigualdade de Cauchy-
Schwarz.

Propriedades da distância
1. d(v; w) 0

2. d(v; w) = 0 se, e só se, v = w

3. d(v; w) = d(w; v)

4. d(v; w) d(v; u) + d(u; w):

Esta última desigualdade também recebe o nome de desigualdade trian-


gular e é uma consequência da desigualdade triangular para a norma.

5.3 Desigualdade de Cauchy-Schwarz


Sendo v e w dois vetores de um espaço vetorial real V com produto interno,
vale a desigualdade
jv wj kvk kwk ;
denominada de desigualdade de Cauchy-Schwarz.
Passemos a demonstrá-la. Para todo número real ; pela propriedade (1)
segue kv + wk 0: Elevando os dois membros da desigualdade ao quadrado,

0 kv + wk2 = (v + w) (v + w) = v v + v w + w v + 2
w w

e, usando a simetria v w = w v; chega-se a

kvk2 + 2 v w + 2
kwk2 0:

Notas de aula do Professor Faleiros


212 Produto interno

Sendo a = kwk2 ; b = 2v w e c = kvk2 ; o lado esquerdo desta desigualdade


pode ser escrita na forma a 2 +b +c: Este trinômio do segundo grau é maior ou
igual a zero para todo real. Isto ocorre se, e só se, b2 4ac 0: Retornando
aos valores originais de a; b e c; obtemos

4(v w)2 4 kvk2 kwk2 0

ou, dividindo por 4 e extraindo a raiz quadrada, chegamos à desigualdade de


Cauchy-Schwarz
jv wj kvk kwk :
Usando-a no desenvolvimento de kv + wk2

kv + wk2 = (v + w) (v + w) = v v + 2v w + w w kvk2 + 2 jv wj + kwk2


kvk2 + 2 kvk kwk + kwk2 = (kvk + kwk)2

obtemos
kv + wk2 (kvk + kwk)2
e, ao extrair a raiz quadrada, chegamos à desigualdade triangular para a norma

kv + wk kvk + kwk :

Desta desigualdade se deduz a desigualdade triangular para distâncias

d(v; w) = kv wk = k(v u) (w u)k kv uk+ku wk = d(v; u)+d(u; w):

Exemplo. Para qualquer par x e y de vetores num espaço vetorial com


um produto interno vale a igualdade
1 1
x y= kx + yk2 kx yk2 :
4 4
Para provar esta a…rmação, desenvolva

kx + yk2 = (x + y) (x + y) = kxk2 + 2x y + kyk2

e
kx yk2 = (x y) (x y) = kxk2 2x y + kyk2
Subtraindo o segundo desenvolvimento do primeiro chega-se à igualdade acima

kx + yk2 kx yk2 = 4x y:

Notas de aula do Professor Faleiros


5.4 Ângulo entre dois vetores 213

5.4 Ângulo entre dois vetores


Se v e w forem dois vetores não nulos de um espaço vetorial real V; segue da
desigualdade de Cauchy-Schwarz que

hv; wi
1:
kvk kwk

Logo, existe um único número real no intervalo [0; ] para o qual

hv; wi
= cos
kvk kwk

de onde segue
hv; wi = cos kvk kwk :
Este número real é chamado de ângulo entre os vetores v e w:
Se hv; wi = 0; diremos que v e w são ortogonais. Não se de…ne ângulo
entre dois vetores se um deles for o vetor nulo. Entretanto, como h0; vi = 0
para todo vetor v de V; se diz que o vetor nulo 0 é ortogonal a todo vetor v
de V:
Exemplo. (Teorema de Pitágoras) Se v e w são vetores ortogonais,
então
kv + wk2 = kvk2 + kwk2 :

Prova. Basta desenvolver o lado esquerdo que se chega ao lado direito

kv + wk2 = (v + w) (v + w) = v v + 2v w + w w = kvk2 + kwk2 ;

pois v w = 0:

Exemplo. No espaço vetorial das funções reais contínuas com domínio no


intervalo [ 1; 1]; os polinômios x e x2 são ortogonais em relação ao produto
interno Z 1
hf; gi = f (x)g(x)dx:
1

Para destacar o fato de que a integral é efetuada no intervalo [ 1; 1]; pode-se


dizer que os polinômios x e x2 são ortogonais no intervalo [ 1; 1]: Consider-
adas como funções de…nidas no intervalo [0; 1]; osR polinômios x e x2 não são
1
ortogonais em relação ao produto interno hf; gi = 0 f (x)g(x)dx; uma vez que

Notas de aula do Professor Faleiros


214 Produto interno

R1
x x2 dx = 14 não é igual a zero. Portanto, os polinômios x e x2 não são ortog-
0 R1
onais no intervalo [0; 1] em relação ao produto interno hf; gi = 0 f (x)g(x)dx:

Exemplo. O traço tr(A) de uma matriz quadrada real A é a soma das


entradas em sua diagonal principal. No espaço vetorial das matrizes quadradas
reais de ordem n; a operação

hA; Bi = tr(AT B) = tr(B T A)

de…ne um produto interno. Tomando n = 2; as matrizes

1 0 0 2
A= ; B=
1 1 0 0

são ortogonais neste produto interno.

Exemplo. O conjunto fx; x2 g é ortogonal no espaço vetorial dos polinômios


reais de grau menor ou igual a 2, em relação ao produto interno
Z 1
hp; qi = p(x)q(x) dx:
1

como
Z 1 2 Z 1 2
2 2 2 2 4
kxk + x = x dx + x dx =0+
1 1 9
Z 1 2
2 4
x + x2 = (x + x2 ) dx =
1 9

veri…ca-se que vale o teorema de Pitágoras para estes dois polinômios.

5.5 Bases ortogonais e ortonormais


Seja V um espaço vetorial real com produto interno h ; i : Um conjunto G de
vetores de V é ortogonal quando hv; wi = 0 para todo v; w em G com v
distinto de w: Isto signi…ca que os vetores de G são ortogonais quando tomados
dois a dois. Um conjunto ortogonal no qual todos os vetores têm norma 1 é
chamado ortonormal.

Notas de aula do Professor Faleiros


5.6 Coordenadas numa base ortogonal 215

Sendo fv1 ; : : : ; vn g um conjunto ortogonal de vetores que não contém o


vetor nulo, então
v1 vn
; :::;
kv1 k kvn k
é ortonormal.
Qualquer subconjunto …nito de vetores não nulos de um conjunto ortog-
onal é linearmente independente. De fato, se G = fv1 ; v2 ; : : : ; vn g for um
subconjunto …nito de vetores não nulos de um conjunto ortogonal, se c1 ; : : : ;
cn forem escalares tais que c1 v1 + + cn vn = 0; multiplicando escalarmente
por v1 obtemos 0 = c1 v1 v1 + + cn vn v1 = c1 v1 v1 = c1 kv1 k2 : Como
v1 é diferente de zero, c1 = 0: Multiplicando escalarmente por v2 ; : : : ; vn ;
provamos que c2 = = cn = 0; o que nos permite a…rmar que o conjunto é
linearmente independente.
Com este resultado podemos a…rmar que, num espaço vetorial de dimensão
…nita, todo conjunto ortogonal é …nito. Se a dimensão do espaço vetorial for n;
os conjuntos ortogonais de vetores não nulos pode ter, no máximo, n vetores.
Num espaço vetorial real V com produto interno e dimensão n; todo con-
junto ortogonal com n vetores, que não contém o vetor nulo, é uma base de
V: Uma base formada por vetores ortogonais é chamada de base ortogonal.
Uma base formada por vetores ortonormais é chamada de base ortonormal.
Exemplo. Consideremos o R3 com o produto interno euclidiano
(x1 ; y1 ; z1 ) (x2 ; y2 ; z2 ) = x1 x2 + y1 y2 + z1 z2 :
Em relação a este produto interno, o conjunto formado pelos vetores v1 =
(1; 0; 0); v2 = (0; 1; 1) e v3 = (0; 1; 1) é ortogonal. Suas p
normas, se oriundas
p
do produto interno euclidiano, são kv1 k = 1; kv2 k = 2; kv3 k = 2: O
conjunto
v1 v2 v3 1 1
; ; = (1; 0; 0); p (0; 1; 1); p (0; 1; 1)
kv1 k kv2 k kv3 k 2 2
é ortonormal.

5.6 Coordenadas numa base ortogonal


Seja B = fv1 ; : : : ; vn g uma base ortogonal de um espaço vetorial V com
produto interno. Dado um vetor w em V; existem escalares c1 ; : : : ; cn tais que
w = c1 v 1 + + cn vn : Efetuando o produto interno de w com vi ; para i =
1; 2; : : : ; n; obtemos
hw; vi i = ci hvi ; vi i

Notas de aula do Professor Faleiros


216 Produto interno

uma vez que hvj ; vi i = 0 para todo j 6= i: Explicitando ci ; segue

hw; vi i hw; vi i
ci = =
hvi ; vi i kvi k2

de onde se obtém
hw; v1 i hw; vn i
w= v1 + + vn :
kv1 k2 kvn k2

Se a base for ortonormal, então kvi k = 1 e

w = hw; v1 iv1 + + hw; vn ivn :

Exemplo. O conjunto B formado pelos vetores v1 = (0; 1; 0); v2 =


( 45 ; 0; 35 ); v3 = ( 53 ; 0; 54 ) é uma base ortonormal do R3 em relação ao pro-
duto interno euclidiano. As coordenadas do vetor w = (1; 2; 3) nesta base são
c1 = hw; v1 i = 2; c2 = hw; v2 i = 45 + 95 = 1; c3 = hw; v3 i = 53 + 12 5
= 3 e,
desta forma,
w = 2v1 + v2 + 3v3
e o vetor de coordenadas de w na base B é (2; 1; 3):

Produto interno numa base ortonormal


Se B = fv1 ; : : : ; vn g for uma base ortonormal de V; e u; w dois vetores de V
tais que

u = a1 v 1 + + an v n ;
w = b1 v 1 + + bn v n ;

então o produto interno de u e w é

hu; wi = a1 b1 + + an b n

a norma de u ao quadrado é

kuk2 = a21 + + a2n

e a distância entre u e w é
p
d(u; w) = (a1 b1 ) 2 + + (an bn )2

Notas de aula do Professor Faleiros


5.7 Obtendo bases ortogonais 217

5.7 Obtendo bases ortogonais


Vamos descrever o processo de Gram-Schmidt, que permite obter bases
ortogonais de espaços vetoriais de dimensão …nita. O nome é uma homenagem
aos matemáticos que o desenvolveram: Jürgen Pederson Gram (dinamarquês,
1850 - 1916) e Erhardt Schmidt (alemão, 1876 - 1959).
Este processo mostra como obter um conjunto ortogonal fw1 ; : : : ; wn g
a partir de um conjunto linearmente independente qualquer fv1 ; : : : ; vn g:
Comece de…nindo
w1 = v1 :
Em seguida tome escolha 12 em

w2 = v2 12 w1

de modo a tornar w2 ortogonal a w1 : Da exigência hw1 ; w2 i = 0; segue

hw1 ; v2 i
12 =
hw1 ; w1 i
Em seguida, escolha 13 e 23 em

w3 = v3 13 w1 23 w2

de modo a tornar w3 ortogonal a w1 e w2 : Aplicando estas duas condições,


hw1 ; w3 i = 0 e hw2 ; w3 i = 0 obtém-se

hw1 ; v3 i hw2 ; v3 i
13 = e 23 = :
hw1 ; w1 i hw2 ; w2 i
Continuando com este processo, de…na

wj = vj 1j w1 2j w2 j 1;j wj 1

e determine os escalares ij de modo a tornar wj ortogonal a wi ; para i = 1;


2; : : : ; j 1: Das condições de ortogonalidade obtemos
hwi ; vj i
ij =
hwi ; wi i
para i = 1; 2; : : : ; j 1:
Usando este processo, chega-se a um vetor w1 que pertence ao espaço ger-
ado por v1 ; chega-se a um vetor w2 que pertence ao espaço gerado por v1 e
v2 : Continuando com o processo até a etapa j; chega-se a um wj que pertence
ao espaço gerado por v1 ; v2 ; : : : ; vj :

Notas de aula do Professor Faleiros


218 Produto interno

Para obter uma base ortonormal usando o processo de Gram - Schmidt,


basta dividir cada vetor por sua norma
w1 w2 w3
q1 = ; q2 = ; q3 = :
kw1 k kw2 k kw3 k
O processo de Gram-Schmidt leva uma base fv1 ; : : : ; vn g em outra fq1 ;
: : : ; qn g ortonormal de modo que, para todo k 1; fq1 ; : : : ; qk g é base do
espaço gerado por fv1 ; : : : ; vk g e qk+1 é ortogonal a todo vetor do espaço
gerado por fv1 ; : : : ; vk g:
Exemplo. Obtenha uma base ortogonal fw1 ; w2 ; w3 g do R3 a partir da
base formada pelos vetores v1 = (1; 1; 1); v2 = (0; 1; 1); v3 = (0; 0; 1):

Solução. Começamos de…nindo w1 = v1 = (1; 1; 1): Em seguida, toma-se


w2 = v 2 12 w1 ; onde
hw1 ; v2 i 2
12 = = ;
hw1 ; w1 i 3
resultando que
2 1
w2 = (0; 1; 1) (1; 1; 1) = ( 2; 1; 1):
3 3
Finalmente,
w3 = v3 13 w1 23 w2

onde
hw1 ; v3 i 1
13 = =
hw1 ; w1 i 3
hw2 ; v3 i 1=3 1
23 = = =
hw2 ; w2 i 2=3 2
resultando em
1 11 1
w3 = (0; 0; 1) (1; 1; 1) ( 2; 1; 1) = (0; 1; 1):
3 23 2

5.8 Matriz ortogonal


Uma matriz quadrada A é ortogonal quando
1
A = AT :

Notas de aula do Professor Faleiros


5.8 Matriz ortogonal 219

As matrizes
2 3
3 2 6
14 cos sen
A= 6 3 2 5 e B=
7 sen cos
2 6 3
são ortogonais.
A inversa de uma matriz ortogonal é ortogonal. O produto de duas matrizes
ortogonais é uma matriz ortogonal. O determinante de uma matriz ortogonal
é igual a +1 ou igual a 1:
Exemplo. A matriz
1 1 1
A= p
2 1 1
é ortogonal e det(A) = 1:

Teorema 5.2 Seja A uma matriz real n n e hX; Y i = X T Y o produto interno


euclidiano em Mn 1 (R): São equivalentes as seguintes a…rmações:

1. A é ortogonal.
2. hAX; AY i = hX; Y i para qualquer X e Y em Mn 1 (R):
3. kAXk = kXk para qualquer X em Mn 1 (R):
4. Os vetores linha de A formam um conjunto ortonormal de M1 n em
relação ao produto interno hR; Si = R S T :
5. Os vetores coluna de A formam um conjunto ortonormal de Mn 1 em
relação ao produto interno hC; Di = C T D:

Prova. Vamos provar que 2 implica em 1: Se hAX; AY i = hX; Y i para


qualquer X e Y em Mn 1 (R); então X; (AT A I)Y = 0: Fazendo X =
(AT A I)Y; segue (AT A I)Y; (AT A I)Y = 0 ou (AT A I)Y = 0: Como
este sistema homogêneo de equações lineares deve ser satisfeito para todo Y;
AT A = I; mostrando que A é ortogonal.
Para provar que 1 e 4 são equivalentes, considere as linhas R1 ; : : : ; Rn as
linhas de A; que serão as colunas de AT : A matriz A é ortogonal se, e só se,
AAT = I: Esta igualdade se veri…ca se, e só se,
2 3
R1 R1T R1 R2T R1 RnT
6 R2 RT R2 RT R2 RnT 7
6 1 2 7
6 .. .. .. 7=I
4 . . . 5
T T T
Rn R1 Rn R2 Rn Rn

Notas de aula do Professor Faleiros


220 Produto interno

Esta igualdade matricial se veri…ca se, e só se, as linhas fR1 ; R2 ; : : : ; Rn g de


A formarem um conjunto ortonormal de M1 n :
Para provar que 1 e 5 são equivalentes, considere a igualdade AT A = I:

Teorema 5.3 Sejam B1 e B2 duas bases ortonormais de um espaço vetorial


real V com dimensão …nita. A matriz de transição da base B1 para a base B2
é ortogonal.

Prova. Sendo B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases


ortonormais de V; podemos escrever os vetores de B2 como combinação linear
dos vetores de B1 e os vetores de B1 como combinação linear dos vetores de
B2
Xn Xn
wj = aij vi e vj = bij wi :
i=1 i=1

Neste caso, M12 = [aij ] é a matriz de transição da base B1 para a base B2 e


M21 = [bij ] é a matriz de transição da base B2 para a base B1 : Já se sabe que
1
uma é a inversa da outra,
Pn M21 = M12 : Multiplicando escalarmentePn os dois lados
da igualdade wj = i=1 aij vi por vk chega-se a hwj ; vk i = i=1 aij hvi ; vk i =
T
akj : Do mesmo modo se obtém bij = hwi ; vj i = aji ; provando que M21 = M12 ;
1 T
de onde se conclui que M12 = M12 : A inversa de M12 é sua transposta e,
portanto, ela é uma matriz ortogonal.

Exemplo. Sendo v1 = (1; 0); v2 = (0; 1); w1 = (3=5; 4=5); w2 = (4=5;


3=5) os conjuntos B1 = fv1 ; v2 g e B2 = fw1 ; w2 g são bases ortonormais do
R2 em relação ao produto interno euclidiano. Como
3 4
w1 = v1 + v2
5 5
4 3
w2 = v1 v2 ;
5 5
a matriz de transição da base B1 para a base B2 é

1 3 4
M12 =
5 4 3

que é uma matriz ortogonal.

Exemplo. Rotação em duas dimensões. Seja B1 = fv1 ; v2 g uma base


ortonormal de um espaço vetorial V de dimensão dois com produto interno. A

Notas de aula do Professor Faleiros


5.8 Matriz ortogonal 221

base B2 = fw1 ; w2 g de…nida por

w1 = v1 cos + v2 sen
w2 = v1 sen + v2 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal
cos sen
M12 = :
sen cos

Exemplo. Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1 cos + v2 sen
w2 = v1 sen + v2 cos
w3 = v 3

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal 2 3
cos sen 0
M12 = 4 sen cos 0 5
0 0 1
cujo determinante é igual a 1:

Exemplo. Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1 cos v3 sen
w2 = v2
w3 = v1 sen + v3 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal 2 3
cos 0 sen
M12 = 4 0 1 0 5
sen 0 cos

Notas de aula do Professor Faleiros


222 Produto interno

cujo determinante é igual a 1:

Exemplo. Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1
w2 = v2 cos + v3 sen
w3 = v2 sen + v3 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal
2 3
1 0 0
M12 = 4 0 cos sen 5
0 sen cos
cujo determinante é igual a 1:

5.9 Decomposição QR
Sejam C1 ; : : : ; Cn vetores coluna m 1 linearmente independentes. No espaço
das matrizes reais m n considere o produto interno hX; Y i = X T Y: Podemos,
mediante a utilização do processo de ortogonalização de Gram-Schmidt, obter
um conjunto ortonormal fQ1 ; : : : ; Qn g de vetores coluna m 1: Calcule ini-
cialmente
1
11 = jjC1 jj e Q1 = C1
11

e depois faça o índice j percorrer os inteiros de 2 a n e calcule

ij= hQi ; Cj i para i = 1; : : : ; j 1


j j = jjCj 1; j Q1 j 1 ; j Qj 1 jj
1
Qj = (Cj 1; j Q1 j 1;j Qj 1 )
jj

A divisão é possível pois jj é diferente de zero para j = 1; : : : ; n: O jj


seria zero para algum j; apenas se a coluna Cj for uma combinação linear
das colunas C1 ; : : : ; Cj 1 ; o que não é o caso, por hipótese. Explicitando cj ;
obtemos

Notas de aula do Professor Faleiros


5.9 Decomposição QR 223

C1 = 11 Q1
C2 = 12 Q1 + 22 Q2
C3 = 13 Q1 + 23 Q2 + 33 Q3
..
.

Seja A = [C1 ; : : : ; Cn ] uma matriz m n cujas colunas C1 ; : : : ; Cn são linear-


mente independentes. Seja Q = [Q1 ; : : : ; Qn ] a matriz m n; cujas colunas são
as matrizes Q1 ; : : : ; Qn obtidas no processo de ortonormalização dos vetores
coluna de A: Desta forma,
A = QR
onde 2 3
11 12 1n
6 0 7
6 22 2n 7
6 0 0 7
R=6 3n 7:
6 .. .. .. .. 7
4 . . . . 5
0 0 nn

é uma matriz triangular superior inversível, uma vez que ii 6= 0 para i =


1; 2; : : : ; n: Podemos então enunciar o teorema conhecido como teorema da
decomposição QR.

Teorema 5.4 Seja A uma matriz m n cujas colunas formam um conjunto


linearmente independente de matrizes. Podemos realizar a fatoração A = QR;
onde Q é uma matriz m n cujos vetores coluna formam um conjunto orto-
normal e R é uma matriz n n triangular superior e inversível.

Quando A for quadrada, Q é quadrada e seus vetores coluna formam um


conjunto ortonormal no produto interno hX; Y i = X T Y: Uma matriz quadrada
cujos vetores coluna formam um conjunto ortonormal são denominadas de
matrizes ortogonais, que são inversíveis e sua inversa é a sua transposta. A
inversa de uma matriz ortogonal é ortogonal e o determinante de uma matriz
ortogonal é igual a 1 ou 1:
Exemplo. Para obter a decomposição QR de
2 3
1 0 0
A=4 1 1 0 5
1 1 1

Notas de aula do Professor Faleiros


224 Produto interno

ortogonalize seus vetores coluna C1 ; C2 e C3 usando o processo de Gram-


Schmidt obtendo os vetores coluna ortonormais
2 3 2 3 2 3
1 2 0
1 1 1
Q1 = p 4 1 5 ; Q 2 = p 4 1 5 ; Q 3 = p 4 1 5 :
3 1 6 1 2 1

formando a matriz
2 p p 3
1=p3 2=p 6 0p
Q = 4 1=p3 1=p6 1=p 2 5
1= 3 1= 6 1= 2

e a matriz dos coe…cientes obtidos do procedimento de Gram-Schmidt


2 3
hQ1 ; C1 i hQ1 ; C2 i hQ1 ; C3 i
R=4 0 hQ2 ; C2 i hQ2 ; C3 i 5
0 0 hQ3 ; C3 i
2 p p p 3
6 3 4p3 2p3
14
= 0 2 6 1p6 5 :
6
0 0 3 2

5.10 Complemento ortogonal


Seja S um subespaço de um espaço vetorial V com produto interno. Um vetor
v de V é dito ortogonal a S se v for ortogonal a todos os vetores de S: Dois
subespaços R e S de V são ortogonais se para todo r em R e todo s em
T; hr; si = 0: O complemento ortogonal de um subespaço S; denotado por
S ? ; é o conjunto de todos os vetores de V ortogonais a S: O complemento
ortogonal
S ? = f v 2 V : hv; si = 0 para todo s 2 S g
é um subespaço vetorial de V: O espaço nulo f0g é o complemento ortogonal
de V e vice-versa.

Propriedades do complemento ortogonal


Seja S um subespaço de um espaço vetorial V com produto interno.

1. O único vetor comum a S e a S ? é o 0:

Notas de aula do Professor Faleiros


5.10 Complemento ortogonal 225

2. Um vetor ortogonal a uma base de S é ortogonal a todo vetor de S:


?
3. Se a dimensão de S for …nita S ? = S: Vamos provar esta a…rmação
?
em duas etapas. Inicialmente provaremos que S S ? e depois que
?
S? S:
?
(a) Vamos provar que S S ? : De fato, se s pertence a S; então s é
?
ortogonal a todo vetor de S ? e, por isto, pertence a S ? : Logo,
?
S S? :
?
(b) Vamos provar que S ? S quando S possui dimensão …nita.
?
Seja w um vetor em S ? e s1 ; : : : ; sk uma base ortonormal de
S: Considere o vetor s = hw; s1 i s1 + + hw; sk i sk que está em
? ?
S e, consequentemente, em S : O vetor u = w s está em
? ?
S pois w e s lá estão. Por outro lado, hu; si i = hw; si i hs; si i
= hw; si i hw; si i hsi ; si i = 0 pois hsi ; si i = 1; mostrando que u
?
pertence a S : Estando u em S ? e em S ? ; u = 0; o que implica
?
?
em w = s que pertence a S: Conclui-se que S ? S:
? ?
Provamos que S S? e que S ? S o que implica na igual-
?
dade S ? = S:
4. Seja A uma matriz m n: Então o espaço nulo de A e o espaço col-
una de AT são complementos ortogonais com relação ao produto interno
euclidiano no espaço vetorial das matrizes coluna reais com n linhas.
De fato, sejam r1 ; r2 ; : : : ; rm as linhas de A que são as colunas de AT :
A matriz coluna x pertence ao espaço nulo de A; se, e só se, Ax = 0; o
que equivale a hr1 ; xi = = hrm ; xi = 0: Isto prova que x pertence ao
núcleo de A se, e só se, pertencer ao complemento ortogonal do espaço
coluna de AT :

Exemplo. Seja W o subespaço do R5 gerado pelos vetores


w1 = (2; 2; 1; 0; 1) w2 = ( 1; 1; 2; 3; 1)
w3 = (1; 1; 2; 0; 1) w4 = (0; 0; 1; 1; 1)
Vamos obter uma base para o complemento ortogonal de W: Dispomos os
vetores como linhas de uma matriz
2 3
2 2 1 0 1
6 1 1 2 3 1 7
6 7:
4 1 1 2 0 1 5
0 0 1 1 1

Notas de aula do Professor Faleiros


226 Produto interno

T
O espaço nulo desta matriz é gerado pelo vetor 1 1 0 0 0 : Conclui-
se que o complemento ortogonal de W é gerado pelo vetor (1; 1; 0; 0; 0):

5.11 Projeção ortogonal


Seja W um subespaço de V; um espaço vetorial real com produto interno. Seja
fw1 ; : : : ; wn g uma base ortogonal de W e v um vetor de V: O vetor
hv; w1 i hv; wn i
w= w1 + + wn
hw1 ; w1 i hwn ; wn i
pertence a W e é denominado projeção ortogonal de v em W: O vetor u = v
w pertence ao complemento ortogonal de W e é chamado de componente
de v ortogonal a W: Estes vetores são tais que que v = u + w: Quando a
base fv1 ; : : : ; vn g de W for ortonormal, então a projeção ortogonal de v em
W é
w1 = hv; v1 iv1 + + hv; vn ivn :

Exemplo. Considere no R3 o produto interno euclidiano. A projeção


ortogonal de x = (x1 ; x2 ; x3 ) no espaço gerado por v1 = (1; 0; 2) e v2 = (0;
1; 1) é
hx; v1 i hx; v2 i x1 + 2x3 x2 + x 3
v1 + v2 = (1; 0; 2) + (0; 1; 1)
hv1 ; v1 i hv2 ; v2 i 5 2
1
= (2x1 + 4x3 ; 5x2 + 5x3 ; 4x1 + 5x2 + 13x3 ):
10

Exemplo. Seja W o subespaço do R3 gerado pelos vetores v1 = (0; 1; 0)


e v2 = ( 4=5; 0; 3=5): Se considerarmos o produto interno euclidiano do R3 ; o
conjunto fv1 ; v2 g é uma base ortonormal de W: A projeção ortogonal de v =
(1; 1; 1) em W é

w = 1(0; 1; 0) 1=5( 4=5; 0; 3=5) = 1=25(4; 25; 3)

e o componente de v ortogonal a W é

u=v w = (1; 1; 1) (4=25; 1; 3=25) = 1=25(21; 0; 28):

Notas de aula do Professor Faleiros


5.12 Mínimos quadrados 227

Seja fv1 ; : : : ; vn g uma base ortogonal de um subespaço W de um espaço


vetorial V com produto interno. O operador T de…nido sobre V por
hv; v1 i hv; vn i
T (v) = v1 + + vn
hv1 ; v1 i hvn ; vn i
é linear e recebe o nome de projeção ortogonal sobre W: As projeções or-
togonais são tais que
T 2 = T:
Transformações com esta propriedade são denominadas idempotentes ou
projeções (não necessariamente ortogonais).
Exemplo. Consideremos o R2 com o produto interno euclidiano. O eixo
1 é gerado por e1 = (1; 0) e o eixo 2 é gerado por e2 = (0; 1): Os operadores
lineares T1 (x1 ; x2 ) = (x1 ; 0) e T2 (x1 ; x2 ) = (0; x2 ) são as projeções ortogonais
nos eixos 1 e 2; respectivamente. A reta x2 = x1 é gerada pelo vetor v = e1 +
e2 = (1; 1): O operador linear de…nido no R2 por
hx; vi hx; (1; 1)i
T (x) = v= (1; 1)
hv; vi 2
é a projeção ortogonal na reta x2 = x1 : Sendo x = (x1 ; x2 ); obtemos
1
T (x1 ; x2 ) = (x1 + x2 ; x1 + x2 )
2

Exemplo. Consideremos o R3 com o produto interno euclidiano. O plano


12 é gerado pelos vetores e1 = (1; 0; 0) e e2 = (0; 1; 0): O operador linear T12
de…nido em x = (x1 ; x2 ; x3 ) do R3 por
T12 (x) = hx; e1 ie1 + hx; e2 ie2 = (x1 ; x2 ; 0)
é a projeção ortogonal sobre o plano 12: As projeções sobre os planos 13
e 23 são, respectivamente, T13 (x1 ; x2 ; x3 ) = (x1 ; 0; x3 ) e T23 (x1 ; x2 ; x3 ) =
(0; x2 ; x3 ) :

5.12 Mínimos quadrados


Sejam u; v; w três vetores de um espaço vetorial real V com produto interno.
Vamos dizer que o vetor v está mais perto de u do que o vetor w se d(u; v) <
d(u; w): Esta desigualdade é equivalente a ku vk < ku wk :

Notas de aula do Professor Faleiros


228 Produto interno

Seja V um espaço vetorial real V com produto interno e W um subespaço


de V com dimensão …nita. Vamos investigar qual é o vetor de W que está mais
perto de um vetor x de V: Quando x está em W então ele é o vetor de W que
está mais perto de x:
Quando x não pertence a W; tomamos uma base ortonormal B = fv1 ; : : : ;
vn g do subespaço W e um vetor genérico w = a1 v1 + + an vn em W: Que
valores devemos atribuir aos reais a1 ; : : : ; an para w ser o vetor de W mais
próximo de x? Ora,
kx wk2 = hx w; x wi
= kxk2 2hx; wi + kwk2
= kxk2 2a1 hx; v1 i 2an hx; vn i + a21 + + a2n
Esta é uma função quadrática em a1 ; : : : ; an que possui um único valor mínimo
que ocorre no ponto onde as derivadas parciais em relação às variáveis a1 ; : : : ;
an forem iguais a zero. Calculando estas derivadas parciais e igualando a zero,
obtemos
ai = hx; vi i:
O vetor de W mais próximo de x é
w = hx; v1 iv1 + + hx; vn ivn :
Esta é a projeção ortogonal de x sobre W:
Existe uma outra maneira de resolver esta questão usando métodos pu-
ramente algébricos. Ao aproximar um vetor x de V por um vetor y de W;
cometemos um erro igual a x y: Quando x não está em W este erro é
sempre diferente de zero. Sendo w a projeção ortogonal de x sobre W;
kx yk2 = k(x w) (y w)k2 :
Como x w é ortogonal a todo vetor de W e y w pertence a W; vale o
teorema de Pitágoras
kx yk2 = k(x w) (y w)k2 = ku wk2 + ky wk2
e obtemos
ku yk2 = ku wk2 + ky wk2 ku wk2
pois ky wk2 0: Quando y é diferente de w; então ky wk2 > 0 e ku yk2
> ku wk2 : Portanto, o vetor de W que está mais perto de x é a sua pro-
jeção ortogonal sobre W: Usando apenas procedimentos algébricos, provamos
o resultado que já havíamos provado usando o Cálculo Diferencial.
Podemos dizer que a projeção ortogonal de x sobre W é a “melhor aprox-
imação”de x por vetores de W e vale o teorema da melhor aproximação
que é enunciado em seguida.

Notas de aula do Professor Faleiros


5.13 Soluções de mínimos quadrados 229

Teorema 5.5 Seja W um subspaço de dimensão …nita de um espaço vetorial


V com produto interno. Seja x um vetor de V: A projeção ortogonal de x sobre
W; que denotamos por projW x; é a melhor aproximação de x em W; no
seguinte sentido
kx projW xk < kx yk
para todo vetor y em W distinto da projeção ortogonal de x sobre W:

5.13 Soluções de mínimos quadrados


É muito comum que a formulação de alguns problemas físicos nos levem a
uma equação matricial AX = B onde A é uma matriz m n e B é uma
matriz m 1; ambas conhecidas e X é uma matriz n 1 que se deseja calcular.
Teoricamente a equação deveria ser consistente. Entretanto, “erros de medida”
nas entradas de A e de B perturbam su…cientemente a equação a ponto de criar
inconsistência. Em tais situações procuramos um valor de X que chegue “tão
perto quanto possível”de ser uma solução, no sentido que minimiza o valor de
kAX Bk em relação ao produto interno euclidiano de…nido no espaço das
matrizes coluna reais por

hX; Y i = X T Y:
A quantidade kAX Bk pode ser vista como uma medida do “erro” que re-
sulta por considerar X uma solução aproximada do sistema AX = B: Se o
sistema é consistente e X é uma solução exata, o erro é zero, pois kAX Bk =
0: Em geral, quanto maior o valor de kAX Bk ; mais pobre é a aproximação
X de uma solução do sistema.
A matriz coluna X que minimiza kAX Bk em relação ao produto interno
euclidiano é chamado de solução de mínimos quadrados de AX = B: O
nome tem origem no seguinte fato: Seja E = AX B o erro proveniente da
aproximação X: Uma solução que minimiza kEk = (e21 + + e2m )1=2 ; minimiza
kEk2 = e21 + + e2m e daí segue o nome mínimos quadrados.
Sendo A uma matriz m n e X uma matriz coluna n 1; sabemos que AX
é uma combinação linear das colunas de A e AX = B possui solução quando
B pertence ao espaço coluna de A: Vamos denotar este espaço coluna por W:
Quando B não pertence a W; AX = B não possui solução mas o sistema AX
= projW B possui.
Quando X for uma solução do sistema AX = projW B então B AX =
B projW B e, pelo teorema da melhor aproximação,

kB AXk = kB projW Bk < kB AY k

Notas de aula do Professor Faleiros


230 Produto interno

para toda matriz coluna Y para a qual AY é diferente da projeção ortogonal


de B sobre W: Como W é o espaço coluna de A; o seu complemento ortogonal
W T é o espaço nulo de AT : Estando B AX no espaço nulo de AT ; uma
solução por mínimos quadrados de AX = B é solução do sistema

AT (B AX) = 0

ou
AT AX = AT B
que é chamado de sistema normal associado a AX = B: Assim, o problema
de encontrar uma solução de mínimos quadrados foi reduzido a um outro que
consiste em encontrar uma solução exata do sistema normal associado.
Observe que o sistema normal envolve n equações em n variáveis, é con-
sistente e pode ter in…nitas soluções. Quando este for o caso, todas as suas
soluções são soluções de mínimos quadrados de AX = B:
Podemos então enunciar

Teorema 5.6 6.4.2 Para qualquer sistema linear AX = B; o sistema normal


associado
AT AX = AT B
é consistente e todas as soluções do sistema normal são soluções de mínimos
quadrados de AX = B: Além disso, se W é o espaço coluna de A e X é qualquer
solução de mínimos quadrados de AX = B; então a projeção ortogonal de B
em W é
projW B = AX:

Teorema 5.7 Seja A uma matriz m n: Os vetores coluna de A são linear-


mente independentes se e só se AT A for inversível.

Prova. Se os vetores coluna de A forem linearmente independentes e X for


solução do sistema AT AX = 0; então AX está no espaço nulo de AT e no espaço
coluna de A: Como um é o complemento ortogonal do outro, AX só pode ser
o vetor nulo, isto é, AX = 0: Como os vetores coluna de A são linearmente
independentes, X = 0: Mostramos que o sistema AT AX = 0 possui apenas a
solução trivial X = 0: Portanto, a matriz quadrada AT A é inversível.
Se os vetores coluna de A forem linearmente dependentes, existe X não nulo
tal que AX = 0 e, consequentemente, AT AX = 0: Portanto, AT A é singular.

Notas de aula do Professor Faleiros


5.13 Soluções de mínimos quadrados 231

Teorema 5.8 Se A é uma matriz m n com vetores coluna linearmente in-


dependentes, então para cada matriz B de tamanho n 1; o sistema linear
AX = B tem uma única solução de mínimos quadrados. Esta solução é dada
por
1 T
X = AT A A B:
Além disso, se W é o espaço coluna de A; então a projeção ortogonal de B em
W é
1 T
projW B = AX = A AT A A B:

As duas fórmulas acima possuem várias aplicações teóricas, mas não são
e…cientes para cálculos numéricos. As soluções de mínimos quadrados de AX =
B são melhor computadas por eliminação gaussiana ou eliminação de Gauss-
Jordan para resolver as equações normais e a projeção ortogonal de B no espaço
coluna de A é melhor obtida calculando AX onde X é a solução do sistema
normal AT AX = AT B: Em seguida, calcula-se AX que é a projeção ortogonal
de B sobre o espaço coluna de A:
Exemplo. Encontre a solução de mínimos quadrados do sistema linear
AX = B dado por

x1 + x2 = 4
3x1 + 2x2 = 1
2x1 + 4x2 = 3

e obtenha a projeção ortogonal de B no espaço coluna de A:

Resolução. Aqui,
2 3 2 3
1 1 4
A=4 3 2 5 e B = 4 1 5:
2 4 3

Os vetores coluna de A são linearmente independentes e, portanto, a solução


de mínimos quadrados é única. Temos

14 3 1
AT A = e AT B =
3 21 10

e a solução de AT AX = AT B é

x1 = 17=95 e x2 = 143=285:

Notas de aula do Professor Faleiros


232 Produto interno

A projeção ortogonal de B no espaço coluna de A é


2 3
92
1 4
AX = 439 5 :
285
470

Exemplo. Encontre a projeção ortogonal do vetor u = ( 3; 3; 8; 9) no


subespaço do R4 gerado pelos vetores
u1 = (3; 1; 0; 1); u2 = (1; 2; 1; 1); u3 = ( 1; 0; 2; 1):

Resolução. Poderíamos resolver este problema ortonormalizando fu1 ; u2 ;


u3 g e depois usar a fórmula da projeção ortogonal. Entretanto, o método a
seguir é mais e…ciente. Construa a matriz A cujas colunas são formadas pelas
entradas de u1 ; u2 e u3 e a matriz coluna B formada pelas entradas de u
2 3 2 3
3 1 1 3
6 1 2 0 7 6 3 7
A=6 4 0 1
7
5 e B=6 4 8 5:
7
2
1 1 1 9
O sistema AX = B não possui solução pois B não está no espaço coluna de A:
Se AX for a projeção ortogonal de B no espaço coluna de A; que denotaremos
por W; então B AX é ortogonal ao espaço coluna de A e está no espaço
nulo de A : Isto signi…ca que AT (AX
T
B) = 0: Sendo
2 3 2 3
11 6 4 3
AT A = 4 6 7 0 5 e AT B = 4 8 5
4 0 6 10
construímos o sistema normal AT AX = AT B cuja solução é
2 3
1
X = 4 2 5:
1
A projeção ortogonal de B no espaço coluna de A é
2 3 2 3
3 1 1 2 3 2
6 1 2 1
6 0 7
7 4
6
5=6 3 7
7
projW B = AX = 4 2
0 1 2 5 4 4 5
1
1 1 1 0

Notas de aula do Professor Faleiros


5.13 Soluções de mínimos quadrados 233

e assim a projeção de u no espaço gerado por fu1 ; u2 ; u3 g é

projW u = ( 2; 3; 4; 0):

De…nição 5.9 Se W é um subespaço de Rn ; a transformação P : Rn ! Rn


que leva cada vetor x em Rn em sua projeção ortogonal projW x em W é
chamada projeção ortogonal de Rn sobre W:

A matriz canônica da projeção ortogonal de Rn sobre W é

[P ] = A(AT A) 1 AT

onde A é a matriz cujas colunas são obtidas usando qualquer base de W:


Exemplo. A matriz da projeção ortogonal de R3 sobre o plano xy é
2 3
1 0 0
[P ] = 4 0 1 0 5 :
0 0 0

Vamos mostrar que esta matriz é compatível com a fórmula [P ] = A (AT A) 1


AT :
Os vetores (1; 0; 0) e (0; 1; 0) geram o plano xy: Com eles formamos a
matriz A; cujas colunas são as entradas destes dois vetores
2 3
1 0
A=4 0 1 5
0 0

onde observamos que AT A = I: Vamos calcular [P ] = A (AT A) 1


AT = AAT
2 3 2 3
1 0 1 0 0
1 0 0
[P ] = 4 0 1 5 =4 0 1 0 5
0 1 0
0 0 0 0 0

que confere com o valor de [P ] posto no início.

Exemplo. Obtenha a matriz canônica da projeção ortogonal P de R2


sobre a reta r que passa pela origem e faz um ângulo com o eixo x positivo.

Notas de aula do Professor Faleiros


234 Produto interno

O vetor direcional da reta é v = (cos ; sen ) e fvg é base do subespaço sobre


o qual desejamos efetuar a projeção. Formamos a matriz

cos
A=
sen

e, considerando que AT A é a matriz identidade de tamanho 1 1; calculamos

cos cos2 cos sen


[P ] = AAT = cos sen =
sen cos sen sin2

5.14 Teorema sobre matriz inversível


Vamos resumir neste teorema as condições sob as quais uma matriz A de
tamanho n n é inversível. Este é o teorema 6.4.5 do livro de Anton e Rorres
de onde foram retiradas algumas redundâncias.

Teorema 5.10 A…rmações equivalentes sobre a inversibilidade de uma matriz


quadrada A:
Seja A uma matriz real n n: As a…rmações abaixo são equivalentes:

1. A é inversível.

2. AX = 0 admite apenas a solução trivial.

3. A forma escalonada reduzida por linhas de A é a matriz identidade.

4. A é igual a um produto de matrizes elementares.

5. AX = B é consistente para cada matriz B de tamanho n 1:

6. AX = B tem exatamente uma solução para cada matriz B de tamanho


n 1:

7. det(A) 6= 0:

8. Os vetores coluna de A são linearmente independentes.

9. Os vetores linha de A são linearmente independentes.

10. Os vetores coluna de A geram Mn 1 (R):

Notas de aula do Professor Faleiros


5.14 Teorema sobre matriz inversível 235

11. Os vetores linha de A geram M1 n (R):

12. Os vetores coluna de A formam uma base do Mn 1 (R):

13. Os vetores linha de A formam uma base do M1 n (R):

14. O complemento ortogonal do espaço nulo de A é o Rn :

15. O complemento ortogonal do espaço linha de A é o f0g:

16. AT A é inversível.

Notas de aula do Professor Faleiros


236 Produto interno

Notas de aula do Professor Faleiros


Capítulo 6

Autovalores e autovetores

Uma tabela de m n números complexos delimitada por colchetes é uma


matriz complexa. Enquanto o conjunto das matrizes reais m n é denotado por
Mm n (R); o conjunto das matrizes complexas m n é denotado por Mm n (C):
Uma matriz complexa
2 3
a11 a1n
6 .. 7
A = 4 ... ...
. 5
am1 amn

pode ser representada de forma abreviada por A = [aij ] ; onde aij é a sua
entrada na linha i coluna j: Duas matrizes complexas
2 3 2 3
a11 a1n b11 b1n
6 .. 7 6 .. 7
A = 4 ... ...
. 5 e B = 4 ... ...
. 5
am1 amn bm1 bmn

ambas de tamanho m n são iguais quando aij = bij para i = 1; : : : ; m e j


= 1; : : : ; n: Podemos escrever as matrizes A e B abreviadamente por

A = [aij ] e B = [bij ] :

Se A = [aij ] e B = [bij ] forem duas matrizes de mesmo tamanho, de…nimos


as operações de adição de matrizes e a multiplicação de uma matriz complexa
por um números complexo c do modo análogo ao caso real
2 3 2 3
a11 + b11 a1n + b1n ca11 ca1n
6 .. .. 7 6 .. 7 :
A+B = 4 .
..
. . 5 e cA = 4 ... ..
. . 5
am1 + bm1 amn + bmn cam1 camn

Notas de aula do Professor Faleiros


238 Autovalores e autovetores

O conjunto das matrizes complexas m n com as operações acima de…nidas é


um espaço vetorial complexo de dimensão m n:
As propriedades válidas para as operações com matrizes reais permanecem
válidas no caso complexo. Aqui cabe comentar que um número real é um
número complexo cuja parte imaginária é igual a zero. Assim, matrizes reais
podem ser consideradas matrizes complexas nas quais as partes imaginárias de
todas as entradas são iguais a zero.

6.1 Autovalor e autovetor de uma matriz


Seja M uma matriz complexa n n: Um número complexo é um autovalor
de M se houver uma matriz coluna complexa não nula X; de tamanho n 1;
para a qual
M X = X:
Tais matrizes não nulas X para as quais M X = X são denominadas de
autovetores de M associados ao autovalor : Sendo X um autovetor de M
associado ao autovalor ;
(M I)X = 0
onde 2 3
1 0 0
6 0 1 0 7
6 7
I=6 .... . . .. 7
4 . . . . 5
0 0 1
é a matriz identidade de tamanho n n: Esta equação matricial homogênea
possui solução não trivial se, e só se,
det(M I) = 0:
Esta é uma equação polinomial de grau n em e suas raízes são os autovalores
de M:
Para determinar os autovalores e autovetores de uma matriz M; primeiro
determine as raízes do polinômio
det(M I);
que são os autovalores de M: Para cada autovalor encontrado, resolva a
equação homogênea
(M I)X = 0:
Como det(M I) = 0; a matriz M I é singular e a equação (M I)X
= 0 possui soluções não triviais. As soluções X não triviais de (M I)X =
0 são os autovetores de M associados ao autovalor :

Notas de aula do Professor Faleiros


6.1 Autovalor e autovetor de uma matriz 239

O polinômio det(M I) possui grau n em e recebe o nome de polinômio


característico de M: A equação det(M I) = 0 é polinomial em e recebe
o nome de equação característica de M:
Exemplo. Vamos determinar os autovalores e autovetores da matriz
2 3
2 4 9
M =4 5 7 15 5 :
4 4 7

Iniciamos com o cálculo dos autovalores. Determinemos o polinômio carac-


terístico.
2 3 2 3
2 4 9 2 4 9
(1)
det(M I) = det 4 5 7 15 5 = det 4 2 7 15 5
4 4 7 0 4 7
2 3 2 3
1 4 9 1 4 9
= ( + 2) det 4 1 7 15 5 = ( + 2) det 4 0 +3 6 5
0 4 7 0 4 7
+3 6
= ( + 2) det
4 7

Na igualdade com o rótulo (1) adicionamos a segunda coluna da matriz à


primeira. O leitor está desa…ado a descobrir as operações realizadas nas outras
passagens. Calculando o último determinante, obtemos
2
det(M I) = ( + 2)( +4 3) = ( + 2)( 1)( 3):
3
O polinômio característico de M é +2 2+5 6 e seus autovalores são
1 = 2; 2 = 1; 3 = 3:
Agora que determinamos os autovalores, passamos ao cálculo dos autove-
tores correspondentes a cada um destes autovalores.
(a) Para determinar os autovetores correspondentes a = 2; é preciso
resolver a equação (M I)X = 0; que escrita explicitamente para a matriz
dada é 2 32 3 2 3
2 4 9 x 0
4 5 7 15 5 4 y = 0 5:
5 4
4 4 7 z 0
Fazendo = 2; chegamos à equação homogênea
2 32 3 2 3
4 4 9 x 0
4 5 5 15 5 4 y 5 = 4 0 5
4 4 9 z 0

Notas de aula do Professor Faleiros


240 Autovalores e autovetores

que escalonada se transforma em


2 32 3 2 3
4 4 9 x 0
4 0 0 1 5 4 5 4
y = 0 5
0 0 0 z 0
cuja solução é z = 0 e x = y: Os autovetores correspondentes a = 2 são
da forma 2 3 2 3
y 1
X = 4 y 5 = y4 1 5
0 0
onde y é qualquer número real diferente de zero. Todos os autovetores corre-
T
spondentes ao autovalor = 2 são múltiplos de X1 = 1 1 0 :
(b) Para determinar os autovetores correspondente ao autovalor = 1;
resolvemos a equação (M I)X = 0; fazendo = 1 que neste caso …ca
2 32 3 2 3
1 4 9 x 0
4 5 8 15 5 4 y 5 = 4 0 5 :
4 4 6 z 0
Ao escalonar a matriz, segue
2 32 3 2 3
1 4 9 x 0
4 0 2 5 5 4 y = 0 5
5 4
0 0 0 z 0
cuja solução é x = z e 2y = 5z: Todo autovetor é da forma
2 3 2 3 2 3
x z 2
z
X = 4 y 5 = 4 (5=2)z 5 = 4 5 5
2
z z 2
onde z é um número real diferente de zero. Todos os autovetores correspon-
T
dentes ao autovalor = 1 são múltiplos de X2 = 2 5 2 :
(c) Finalmente determinamos os autovetores correspondentes ao autovalor
= 3; resolvendo a equação (M I)X = 0 fazendo = 3: A equação agora
é 2 32 3 2 3
1 4 9 x 0
4 5 10 15 5 4 y = 0 5
5 4
4 4 4 z 0
que escalonada resulta em
2 32 3 2 3
1 4 9 x 0
4 0 1 2 54 y 5 = 4 0 5
0 0 0 z 0

Notas de aula do Professor Faleiros


6.1 Autovalor e autovetor de uma matriz 241

cuja solução é x = z e y = 2z: Todo autovetor correspondente ao autovalor


= 3 é da forma 2 3 2 3 2 3
x z 1
4 5 4
X = y = 2z = z 2 5 5 4
z z 1
onde z é um número real diferente de zero. Todo autovetor correspondente ao
T
autovalor = 3 é múltiplo de X = 1 2 1 :

Este exemplo mostra claramente que, obtido um autovalor de M; qualquer


solução não trivial de (M I)X = 0 é autovetor de M correspondente a : O
autovetor X; como se percebe pelo exemplo, não é único. De fato, sendo X um
autovetor de M correspondente a ; então, para todo número complexo c não
nulo, cX também é um autovetor de M correspondente a pois, se (M I)X
= 0 então (M I)(cX) = 0:
Sendo um autovalor de uma matriz M; o conjunto

auto(M; ) = f X 2 Mn 1 (C) : (M I)X = 0 g


é denominado autoespaço de M correspondente ao autovalor : Ele é formado
pelos autovetores de M correspondentes ao autovalor e pelo vetor nulo. Se r
e s forem números complexos, se X e Y pertencem ao auto(M; ); então rX +
sY também pertence. Este fato mostra que o autoespaço de M correspondente
a um autovalor é um subespaço vetorial de Mn 1 (C):

Nota 6.1 Sendo M uma matriz quadrada de tamanho n n; então

det(M I) = det( ( I M )) = ( 1)n det( I M ):

Esta igualdade garante que as raízes do polinômio det(M I) são iguais às


raízes do polinômio det( I M ) e, para cada autovalor de ; as equações
( I M )X = 0 e (M I)X = 0 possuem as mesmas soluções.

Nota 6.2 O coe…ciente de maior potência de em det( I M ) é sempre


igual a 1 e o coe…ciente de maior potência de em det(M I) é igual a
( 1)n que é igual a 1 quando n for par e 1 quando n for ímpar.

Exemplo. O polinômio característico det( I M ) da matriz


2 3
1 0 0
M =4 4 3 4 5
0 0 1

Notas de aula do Professor Faleiros


242 Autovalores e autovetores

é
3 2
+ +5 +3= ( + 1)2 ( 3)
e suas raízes são 1 = 1 e 2 = 3: Para determinar os autovetores correspon-
dentes a 1 = 1; montamos o sistema homogêneo (M 1 I)X = 0; que neste
caso é 2 32 3 2 3
0 0 0 x 0
4 4 4 4 54 y 5 = 4 0 5:
0 0 0 z 0
T T
Toda solução desta equação matricial é da forma x 1 0 1 +y 0 1 1 ;
onde x e y são números complexos quaisquer. O autoespaço de M correspon-
dente ao autovalor 1 = 1 é gerado pelas matrizes
T T
V1 = 1 0 1 ; V2 = 0 1 1 :

O autovalor 1 = 1 é uma raiz dupla do polinômio característico e o autoes-


paço correspondente a este autovalor tem dimensão 2:
Para o autovalor 2 = 3; o sistema homogêneo (M 2 I)X = 0 é
2 32 3 2 3
4 0 0 x 0
4 4 0 4 5 4 5 4
y = 0 5
0 0 4 z 0

e qualquer solução é da forma x = 0; z = 0 e y é livre e o espaço de soluções


T
é gerado pela matriz V3 = 0 1 0 : O autoespaço de M correspondente
ao autovalor 2 = 3 é gerado por V3 : O autovalor 2 = 3 é raiz simples do
polinômio característico e o autoespaço correspondente a este autovalor tem
dimensão 1:

Conhecendo-se todos os autovalores distintos 1 ; 2 ; : : : ; k de uma matriz


quadrada M de tamanho n n; pode-se fatorar o seu polinômio característico,
escrevendo-o na forma

det(M I) = ( 1)n ( e1
1) ( 2)
e2
( ek
k) :

Os expoentes e1 ; e2 ; : : : ; ek são as multiplicidades algébricas dos auto-


valores 1 ; 2 ; : : : ; k ; respectivamente. A dimensão do autoespaço de M
correspondente ao autovalor i é chamada de multiplicidade geométrica
deste autovalor.
No exemplo anterior, a multiplicidade algébrica de 1 = 1 é igual a 2 e
sua multiplicidade geométrica também é igual a 2: As multiplicidades algébrica
e geométrica do autovalor 2 = 3 são ambas iguais a 1: Vale a seguinte relação
entre as multiplicidades algébrica e geométrica.

Notas de aula do Professor Faleiros


6.1 Autovalor e autovetor de uma matriz 243

Teorema 6.3 A multiplicidade geométrica de um autovalor é sempre menor


ou igual à sua multiplicidade algébrica.

Exemplo. O polinômio característico da matriz


2 3
1 1 1
M =4 0 8 8 5;
1 5 5
3
é 4 2 4 = ( + 2)2 : Os autovalores de M são 1 = 0 e 2 = 2:
O autoespaço de M correspondente ao autovalor 1 = 0 é gerado pelo vetor
T
0 1 1
e possui dimensção 1: A multiplicidade algébrica e geométrica do autovalor 1
= 0 são ambos iguais a 1: O autoespaço de M correspondente ao autovalor 2
= 2 é gerado pelo vetor
T
1 4 3
e possui dimensão 1: A multiplicidade algébrica de 2 = 2 é igual a 2 e sua
multiplicidade geométrica é igual a 1:

Exemplo. O polinômio característico de


2 3
9 24 18
M = 4 8 21 16 5
16 42 32
é
3 2
2 +3 = ( + 3) ( 1)
e suas raízes 1 = 3; = 0 e 3 = 1 são os autovalores de M: Os autoespaços
2
correspondentes a 1 ; 2 e 3 são gerados, respectivamente, por
2 3 2 3 2 3
1 2 3
4
V1 = 1 5 4
; V2 = 0 5 ; V3 = 2 5 :
4
2 1 4
As multiplicidades algébrica e geométrica dos três autovalores são iguais a 1:

Exemplo. Se uma matriz M = [aij ] de tamanho n n for triangular


superior ou inferior então seu polinômio característico é
(a11 )(a22 ) (ann ):

Notas de aula do Professor Faleiros


244 Autovalores e autovetores

Se todos os elementos da diagonal principal forem distintos, as multiplicidades


algébricas dos autovalores são todas iguais a 1:

2 3
1=2 0 0
Exemplo. Os autovalores de M = 4 1 2=3 0 5 são 1=2; 2=3 e
5 8 1=4
1=4:

3 0
Exemplo. Os autovalores da matriz M = são 1 e 3 e os
8 1
autoespaços são gerados, respectivamente por

0 1
e :
1 2

Uma matriz, mesmo real, pode ter um autovalor complexo porque seu
polinômio característico pode possuir raiz complexa. Isto é o que mostra o
próximo exemplo.
2 1
Exemplo. Os autovalores de M = ; são i e i e seus autoes-
5 2
paços são gerados, respectivamente, pelos autovetores

2 i 2+i
V1 = e V2 = :
5 5

Exercício 6.4 Determine os autovalores das matrizes abaixo, suas multipli-


cidades algébricas e geométricas e as bases de seus subespaços:
2 3 2 3 2 3
0 0 1 1 0 1 2 0 3
4 1 1 1 5; 4 1 1 1 5; 4 2 3 3 5;
0 0 1 0 0 1 0 0 3
2 3 2 3 2 3
0 1 0 3 0 0 13 8 34
4 0 0 1 5; 4 12 4 5 5; 4 2 4 1 5
4 2 2 5 4 4 5 4 14

Notas de aula do Professor Faleiros


6.2 Diagonalização 245

Exercício 6.5 Determine o polinômio característico da matriz abaixo e use


um método numérico para determinar aproximadamente seus autovalores
2 3
0 1 0
4 0 0 1 5:
2 2 2
Use um programa computacional para calcular aproximadamente os autovalores
e autovetores desta matriz.

6.2 Diagonalização
Por de…nição, quando M e N forem matrizes semelhantes, existe uma matriz
inversível P tal que M = P N P 1 : Vamos mostrar que, quando M e N são
semelhantes, seus autovalores são iguais. De fato,

det(M I) = det(P N P 1 P IP 1 ) = det(P (N I)P 1


)
= det(P ) det(N I) det(P 1 )
= det(P ) det(P ) 1 det(N I)
= det(N I):

Na penúltima igualdade usamos o fato de a multiplicação de escalares ser co-


mutativa. Este desenvolvimento mostra que as matrizes semelhantes possuem
o mesmo polinômio característico e, consequentemente, os mesmos autovalores.
Quanto aos autovetores de M e N temos a seguinte relação.

Teorema 6.6 Sejam M e N matrizes semelhantes de modo que M = P N P 1 ;


para uma matriz P inversível. Se X é autovetor de M correspondente ao
autovalor ; então P 1 X é autovetor de N correspondente ao autovalor : Se
Y é autovetor de N correspondente ao autovalor ; então P Y é autovetor de
M correspondente ao autovalor :

Prova. Como M = P N P 1 ; segue M P = P N e P 1 M = N P 1 :


Sendo X autovetor de M correspondente ao autovalor ; então M X =
X; o que implica em
1 1 1 1 1 1
N (P X) = (N P )X = (P M )X = P (M X) = P ( X) = (P X);

mostrando que P 1 X é autovetor de N correspondente ao autovalor :


Sendo Y autovetor de N correspondente ao autovalor ; então N Y = Y:
Assim,

M (P Y ) = (M P )Y = (P N )Y = P (N Y ) = P ( Y ) = (P Y );

Notas de aula do Professor Faleiros


246 Autovalores e autovetores

mostrando que P Y é autovetor de M correspondente ao autovalor :

Em síntese, se M e N forem matrizes semelhantes, então possuem os mes-


mos autovalores e, obtidos os autovetores de uma delas, determina-se os au-
tovetores da outra mediante uma multiplicação de matrizes.

De…nição 6.7 Uma matriz quadrada M é diagonalizável se ela for semel-


hante a uma matriz diagonal D: Isto signi…ca que existe uma matriz inversível
P tal que D = P 1 M P é uma matriz diagonal. Dizemos que a matriz P
diagonaliza M:

Teorema 6.8 Uma matriz quadrada M de tamanho n n é diagonalizável se,


e só se, possuir n autovetores linearmente independentes.

Prova. Se M for diagonalizável, existe uma matriz inversível P tal que


M P = P D; onde D é diagonal. Se as entradas das diagonais de D forem
1 ; 2 ; : : : ; n e P1 ; P2 ; : : : ; Pn forem as colunas de P; então M Pi = i Pi ;
para i = 1; : : : ; n: Isto signi…ca que a i ésima coluna de P é autovetor de M
correspondente à entrada na i ésima posição da diagonal de D:
Se M possuir n autovetores linearmente independentes, construa a matriz
P cujas colunas são formadas pelos autovetores. Como as n colunas formam
um conjunto linearmente independente, P é inversível. Sendo D a matriz
diagonal cujas entradas são os autovalores de M; colocados na mesma ordem
em que os respectivos autovetores foram colocados em P; obtemos M P = P D;
mostrando que M é diagonalizável.

Para uma matriz n n possuir n autovetores linearmente independentes,


a multiplicidade geométrica de cada autovalor de M deve ser igual à sua mul-
tiplicidade algébrica.
Para diagonalizar uma matriz devemos seguir o procedimento abaixo.

1. Determine os autovalores e autovetores da matriz M:

2. Veri…que se existem n autovetores P1 ; : : : ; Pn linearmente independentes


que correspondem, respectivamente, aos autovalores 1 ; : : : ; n (que não
precisam ser todos distintos).

3. Forme a matriz P = P1 : : : Pn cujas colunas são formadas pelos


autovetores.
1
4. A matriz P M P será a matriz diagonal D = diag( 1 ; : : : ; n ):

Notas de aula do Professor Faleiros


6.2 Diagonalização 247

Exemplo. Para diagonalizar a matriz


2 3
0 0 2
M= 1 24 1 5;
1 0 3

determine as raízes da sua equação característica ( 1)( 2)2 = 0 que


são os autovalores 1 = 2 e 2 = 1: Resolva as equações (M 1 I)X = 0 e
(M 2 I)X = 0 para obter os autovetores
2 3 2 3 2 3
1 0 2
V1 = 4 0 5 ; V2 = 4 1 5 e V3 = 4 1 5 :
1 0 1

Os dois primeiros autovetores correspondem ao autovalor 1 = 2 e o terceiro


a 2 = 1: Forme com eles a matriz
2 3
1 0 2
P = 4 0 1 1 5
1 0 1
1
cujas colunas são V1 ; V2 e V3 : Nem é preciso calcular P para concluir que
2 3
2 0 0
P 1M P = 4 0 2 0 5
0 0 1

é diagonal e os elementos da diagonal principal são os autovalores de M:

Exemplo. A matriz 2 3
1 0 0
M =4 1 2 0 5
3 5 2
não é diagonalizável pois ela possui dois autovalores 1 = 1 e 2 = 2 e, asso-
ciados a cada um deles, existe um único autovetor linearmente independente,
que são 2 3 2 3
1 0
V1 = 4 1 5 e V2 = 0 5 :
4
1 1
Como M possui apenas dois autovetores linearmente independentes, ela
não é diagonalizável.

Notas de aula do Professor Faleiros


248 Autovalores e autovetores

Teorema 6.9 Todo conjunto formado por autovetores correspondentes a au-


tovalores distintos é linearmente independente.
Prova. Sejam V1 ; : : : ; Vk autovetores de uma matriz M; correspondentes
a autovalores distintos 1 ; : : : ; k : Provemos, por indução, que o conjunto B
= fV1 ; : : : ; Vk g é linearmente independente.
Qualquer subconjunto de B contendo um único autovetor é linearmente in-
dependente uma vez que cada autovetor é diferente de zero. Como hipótese de
indução, vamos supor que todo subconjunto de B com r vetores é linearmente
independente, para qualquer número inteiro r menor do que k: Provemos, a
partir daí, que o conjunto fV1 ; : : : ; Vk g é linearmente independente.
Sejam c1 ; : : : ; ck escalares tais que c1 V1 + + ck Vk = 0: Multiplique esta
equação por M e por 1
c1 M V 1 + c2 M V 2 + + ck M V k = 0
c1 1 V1 + c2 1 V2 + + ck 1 V k = 0
Considerando que M Vi = i Vi ; chega-se a
c1 1 V1 + c2 2 V2 + + ck k Vk =0
c1 1 V 1 + c2 1 V 2 + + ck 1 Vk = 0

Subtraindo uma da outra segue


c1 ( 1 1 )V1 + c2 ( 2 1 )V2 + + ck ( k 1 )Vk = 0:
Sendo nula a primeira parcela, tem-se
c2 ( 2 1 )V2 + + ck ( k 1 )Vk = 0:
Pela hipótese de indução, o conjunto fV2 ; : : : ; Vk g é linearmente indepen-
dente, de onde obtemos
c2 ( 2 1) = 0; :::; ck ( k 1) = 0:
e, sendo os autovalores distintos, concluímos que c2 = = ck = 0: Da com-
binação linear original, restou apenas c1 V1 = 0 e, como V1 é diferente de zero,
segue que c1 = 0; o que prova a independência linear do conjunto fV1 ; V2 ; : : : ;
Vk g:

Nota 6.10 Sejam 1 ; 2 ; : : : ; k os autovalores distintos de uma matriz quadrada


M de ordem n: Para cada inteiro i entre 1 e k; a dimensão do auto-espaço
correspondente ao autovalor i pode ser maior do que 1: Seja Bi uma base do
auto-espaço correspondente ao autovalor i : A união de todas as bases Bi é
um conjunto linearmente independente. Se esta união possuir n autovetores
linearmente independentes, A é diagonalizável.

Notas de aula do Professor Faleiros


6.2 Diagonalização 249

Teorema 6.11 Se uma matriz M de tamanho n n tem n autovalores dis-


tintos, então M é diagonalizável.

Prova. Se M tem n autovalores distintos, então possui n autovetores


linearmente independentes e, portanto, M é diagonalizável.

Exemplo. A matriz
2 3
0 1 0
M =4 0 0 1 5
4 17 8
p p
possui três autovalores distintos, 1 = 4; 2 = 2 + 3 e 3 = 2 3: Portanto,
M é diagonalizável e existe uma matriz P; cujas colunas são autovetores de M
tal que 2 3
4 0p 0
P 1M P = 4 0 2 + 3 0p 5
0 0 2 3

Matrizes triangulares superiores ou inferiores com entradas distintas na


diagonal principal são diagonalizáveis.
2 3
1 2 4 0
6 0 3 1 7 7
Exemplo. A matriz M = 6 4 0 0 5
7 é diagonalizável pois possui
8 5
0 0 0 2
quatro autovalores distintos e, consequentemente, quatro autovetores linear-
mente independentes. Os autovalores de uma matriz triangular superior são,
exatamente, os elementos da diagonal.

Exercício 6.12 Veri…que se as matrizes abaixo são diagonalizáveis e deter-


mine as matrizes Pi inversíveis e Di diagonais tais que Mi = Pi Di Pi 1 :
2 3 2 3
16 7 4 12 5 2
M1 = 4 38 17 8 5; M2 = 4 32 13 6 5;
19 7 7 1 1 1
2 3 2 3
1 1 1 7 5 5
M3 = 24 1 2 ;5 M4 = 4 2 1 2 5:
4 5 6 12 9 10

Notas de aula do Professor Faleiros


250 Autovalores e autovetores

Exercício 6.13 Construa a matriz cujos autovalores são 1 = 1 e 2 = 2;


que o autoespaço correspondente ao autovalor 1 = 1 é gerado por
n o
T T
3 2 4 ; 1 1 2

e que o autoespaço correspondente ao autovalor 2 é gerado pelo vetor


T
2 0 1 :

6.3 Polinômio matricial


Seja M uma matriz quadrada e I a matriz identidade, ambas n n: De…nimos
as potências inteiras de M por

M 0 = I; M 1 = M; M2 = MM

e, recursivamente, para um número inteiro positivo k; de…nimos a potência M k


da matriz quadrada M por

M k = M k 1 M:

Quando M for inversível e k for um número inteiro positivo, de…ne-se

k 1 k
M = M :

Se p( ) = a0 + a1 + a2 2 + + ar r
for um polinômio de grau r na variável
; de…nimos a matriz p(M ) por

p(M ) = a0 I + a1 M + a2 M 2 + + ar M r :

Se X for um autovetor de M correspondente ao autovalor ;


2 3 r
M X = X; M 2X = X; M 3X = X; :::; M rX = X

Isto signi…ca que, quando X é autovetor de M correspondente ao autovalor ;


então X é autovetor de M 2 ; M 3 ; : : : ; M r correspondente aos autovalores 2 ;
3
; : : : ; r ; respectivamente. Em consequência disso, quando X for autovetor
de M correspondente ao autovalor e p(t) for um polinômio real em t; então
X é autovetor de p(M ) correspondente ao autovalor p( ); isto é,

p(M )X = p( )X:

Notas de aula do Professor Faleiros


6.3 Polinômio matricial 251

Exemplo. Os vetores coluna


2 3 3 2
1 0
X=4 0 5 e Y =4 1 5
1 0
são autovetores de 2 3
0 0 2
M =4 1 2 1 5;
1 0 3
ambos correspondentes ao autovalor = 2: Consideremos o polinômio real p(t)
= 3 + t2 + 2t3 : Os vetores coluna X e Y são autovetores do polinômio matricial
p(M ) = 3I + M 2 + 2M 3 correspondentes ao autovalor p(2) = 3 + 22 + 2 23
= 23:

Se M e N forem matrizes semelhantes, existe uma matriz inversível P de


modo que N = P 1 M P: Então

Nk = P 1
M kP

e, sendo g(t) um polinômio real na variável t; vale a igualdade


1
g(N ) = P g(M )P

Quando a matriz quadrada M é diagonalizável, existe uma matriz inversível


P e uma matriz diagonal D; tais que M = P DP 1 ; o que implica em M k =
P Dk P 1 : Sendo 2 3
1 0 : : : 0
6 0 2 ::: 0 7
6 7
D = 6 .. . . . .. 7
. :
4 . 0 5
0 0 0 n

uma matriz diagonal, obtemos


2 k
3
1 0 ::: 0
6 0 k
::: 0 7
6 2 7
Dk = 6 .. ... .. 7
4 . 0 . 5
k
0 0 0 n

e 2 3
k
1 0 ::: 0
6 0 k
::: 0 7
k k 1 6 2 7 1
M = PD P =P6 .. .. .. 7P :
4 . 0 . . 5
k
0 0 0 n

Notas de aula do Professor Faleiros


252 Autovalores e autovetores

Sendo g(t) um polinômio, obtemos


2 3
g( 1 ) 0 ::: 0
6 0 g( 2 ) : : : 0 7
1 6 7 1
g(M ) = P g(D)P =P6 .. .. .. 7P ;
4 . 0 . . 5
0 0 0 g( n )
facilitando, sobremaneira, o cálculo de g(M ):
Exemplo. Os autovalores de
2 3
0 0 2
M =4 1 2 1 5
1 0 1
são 2; 1; 2 e 2 3 2 3 2 3
1 2 0
4 0 5 4 3 5 4 1 5:
1 1 0
são autovetores correspondentes a estes autovalores, respectivamente. Seja
2 3
1 2 0
P =4 0 3 1 5
1 1 0
a matriz cujas colunas são formadas pelos autovetores de M e
2 3
2 0 0
D=4 0 1 0 5
0 0 2
a matriz diagonal com os autovalores na diagonal principal. Sabe-se que M =
P DP 1 e que M k = P Dk P 1 ; para todo número inteiro k: O cálculo de D6 é
simples, basta elevar à sexta potência cada entrada da diagonal principal
2 3 2 3
( 2)6 0 0 64 0 0
D6 = 4 0 16 0 5 = 4 0 1 0 5 :
0 0 26 0 0 64
Da propriedade M 6 = P D6 P 1 ; calculamos
2 32 3 2 3
1 2 0 64 0 0 1 0 2
1
M 6 = P D6 P 1 = 4 0 3 1 54 0 1 0 5 4 1 0 1 5
3
1 1 0 0 0 64 3 3 3
2 3
22 0 42
= 4 63 64 63 5
21 0 43

Notas de aula do Professor Faleiros


6.4 Diagonalização ortogonal 253

O trabalho foi um pouco menor do que calcular M 6 diretamente. Quando


se pretende calcular potências maiores ou polinômios de M; o método usado
acima é bem mais econômico.

6.4 Diagonalização ortogonal


*** No espaço vetorial das matrizes coluna complexas com n linhas, vamos
considerar o produto interno euclidiano

h X; Y i = X Y

de…nido para duas matrizes coluna X e Y em Mn 1 (C): Quando h X; Y i = 0;


diremos que as matrizes X e Y são ortogonais. Um conjunto fX1 ; : : : ; Xk g é
ortogonal se h Xi ; Xj i = 0 para i 6= j: Este conjunto ortogonal é ortonormal
quando h Xi ; X i i = 1; para i = 1; : : : ; k: : : :
Se M é uma matriz quadrada de tamanho n; então

h M X; Y i = X; M T Y :

e, quando M for simétrica,

h M X; Y i = h X; M Y i :

Uma matriz quadrada M é ortogonalmente diagonalizável se existir


uma matriz ortogonal P; aquela em que a transposta é a inversa, isto é, P T =
P 1 ; tal que
D = P 1M P = P T M P
é uma matriz diagonal. Se diz neste caso que P diagonaliza M ortogonalmente.
Se M for ortogonalmente diagonalizável, então M é simétrica. A recíproca
também é verdadeira, como se enuncia no próximo teorema.

Teorema 6.14 Seja M uma matriz real simétrica n n:

1. Os autovalores de M são reais.

2. Autovetores da M correspondentes a autovalores distintos são ortogonais.

3. M possui um conjunto ortonormal de n autovetores.

4. M é ortogonalmente diagonalizável

Notas de aula do Professor Faleiros


254 Autovalores e autovetores

Para obter a diagonalização ortogonal de uma matriz simétrica M; de


tamanho n n; siga os seguintes passos:
Passo 1. Determine os autovalores de M ;
Passo 2. Encontre uma base para cada auto-espaço de M ;
Passo 2. Use o processo de ortogonalização de Gram-Schmidt para obter
uma base ortogonal de cada auto-espaço.
Passo 3. Divida cada vetor dessas bases pelas suas normas para obter
bases ortonormais dos auto-espaços.
Passo 4. Forme a matriz P cujas colunas são os autovetores ortonor-
mais obtidos. Esta matriz diagonaliza a matriz M pois P T M P é uma matriz
diagonal.

Exemplo. A equação característica de


2 3
4 2 2
M =4 2 4 2 5
2 2 4

é( 8) ( 2)2 = 0: Suas raízes, 1 = 2 e 2 = 8; são os autovalores de M:


O autovalor 1 = 2 possui multiplicidade algébrica 2 e seu autoespaço é gerado
pelos autovetores
2 3 2 3
2 1
1 1
V1 = p 4 1 5 e V2 = p 4 1 5:
2 0 6 2

Eles já foram ortonormalizados pelo processo de Gram-Schmidt. O autovalor


2 = 8; possui multiplicidade algébrica 1 e seu autoespaço é gerado por

3 2
1
1
V3 = p 4 1 5 :
3 1

A matriz ortogonal P que diagonaliza M é


2 p p 3
2p3 1 p2
1
P =p 4 3 1 p2 5 :
6 0 2 2

Notas de aula do Professor Faleiros


6.5 Autovalor e autovetor de operador linear 255

6.5 Autovalor e autovetor de operador linear


Seja V um espaço vetorial complexo e T : V ! V uma transformação linear.
Um número complexo é um autovalor de T se houver um vetor v não nulo,
tal que
T v = v:
Os vetores não nulos v para os quais T v = v são denominados de autove-
tores de T associados ao autovalor :
Seja B = fv1 ; : : : ; vn g uma base de um espaço vetorial complexo V com
dimensão …nita e T : V ! V umPoperador linear. Se [T ] = [aij ] for a matriz
de T na base B; então T (vj ) = ni=1 aij vi : Sendo v = x1 v1 + + xn vn um
autovetor de T associado a ; então T (v) = v e
!
Xn Xn Xn
xi v i = T xj v j = xj T (vj )
i=1 j=1 j=1
! !
X
n X
n X
n X
n
= xj aij vi = aij xj vi
j=1 i=1 i=1 j=1

ou, da independência linear de B;


X
n X
n
aij xj = xi
j=1 i=1

para j = 1; : : : ; n: Estas n igualdades escalares correspondem à igualdade


matricial 2 32 3 2 3
a11 a1n x1 x1
6 .. ... .. 7 6 .. 7 = 6 .. 7
4 . . 54 . 5 4 . 5
am1 amn xn xn
que se resume a
[T ]X = X
onde X é a matriz das coordenadas de v na base B: Logo, é autovalor de
uma transformação linear T se, e só se, for autovalor de [T ]; que é a matriz de
T numa base B de V: Um vetor v é um autovetor de T se e só se sua matriz
de coordenadas X na base B for autovetor de [T ]:
Seja um autovalor de um operador linear T : V ! V: O conjunto

auto( ) = f v 2 V : T (v) = v g

que contém o vetor nulo e os autovetores de T correspondentes ao autovalor


é chamado autoespaço de T correspondente ao autovalor : Se v1 e v2

Notas de aula do Professor Faleiros


256 Autovalores e autovetores

forem dois vetores em auto( ) e c1 ; c2 forem dois escalares, então c1 v1 + c2 v2


também pertence ao auto( ): Por esta razão o auto( ) é um subespaço vetorial
de V:
Exemplo. Encontre os autovalores e os autoespaços do operador linear
T : R3 ! R3 de…nido por

T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ):

A matriz de T em relação à base canônica do R3 é


2 3
0 0 2
[T ] = 4 1 2 1 5
1 0 3

cujos autovalores são 1 =1e 2 = 2: A matriz coluna


T
X1 = 2 1 1

gera o autoespaço de [T ] associado a 1 = 1: As matrizes


T T
X2 = 1 0 1 e X3 = 0 1 0

formam uma base do autoespaço de [T ] associado a 2 = 2: Como X1 é a


matriz de ( 2; 1; 1) na base canônica do R3 ; este terno é autovetor de T e
forma uma base do autoespaço de T associado a 1 = 1: Como X2 e X3 são as
matrizes dos ternos ordenados ( 1; 0; 1) e (0; 1; 0) na base canônica do R3 ; o
conjunto f ( 1; 0; 1); (0; 1; 0) g é base do autoespaço de T associado a 2 = 2:

Exercício 6.15 Determine os autovalores e autovetores da transformação lin-


ear
T (x1 ; x2 ; x3 ) = (x1 ; x2 ; 0):

Exercício 6.16 Considere o operador linear T : R3 ! R3 de…nido por

T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ):

Encontre uma base de R3 em relação à qual a matriz de T é diagonal.

Notas de aula do Professor Faleiros


Referências Bibliográ…cas

[1]

[2] J. L. Boldrini, S. I. R. Costa, V. L. Figueiredo e H. G. Wetzler, Álgebra


Linear, Terceira Edição. Editora HARBRA Ltda, 1980

[3] C. A. Callioli, H. H. Domingues e R. C. F. Costa, Álgebra Linear e Apli-


cações, sexta edição. Editora Atual, 1990.

[4] Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.

[5] Ho¤mann & Kunze, Álgebra Linear. Editora da USP com Editora Polí-
gono.

[6] Bernard Kolman, Introdução à Álgebra Linear com Aplicações, sexta


edição. Editora LTC, 1998.

[7] Serge Lang, Álgebra Linear. Editora Edgard Blücher.

[8] Terry Lawson, Álgebra Linear. Editora Edgard Blücher, 1997. Acompan-
ham este livro: Matlab Labs for Linear Algebra, Mathematica Labs for
Linear Algebra, Maple Labs for Linear Algebra.

[9] Steven J. Leon, Álgebra Linear com Aplicações, quarta edição. Editora
LTC, 1999.

[10] Seymour Lipschutz, Álgebra Linear. Coleção Schaum. Makron Books.

[11] W. Keith Nicholson, Álgebra Linear, segunda ed. McGraw-Hill, 2004.

[12] Ben Noble & James W. Daniel, Álgebra Linear Aplicada, segunda edição.
Guanabara Koogan, 1986.

[13] David Poole, Álgebra Linear: Uma introdução moderna. Cengage Learn-
ing, 2004.

Notas de aula do Professor Faleiros


258 REFERÊNCIAS BIBLIOGRÁFICAS

[14] Chris Rorres e Howard Anton, Álgebra Linear com Aplicações, oitava
edição. Editora Bookman, 2001.

[15] Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra. SIAM,
Society for Industrial and Applied Mathematics, 1997.

Notas de aula do Professor Faleiros

Você também pode gostar