Você está na página 1de 148

CURSO DE

Álgebra Linear

Antonio Cândido Faleiros

Centro de Matemática, Computação e Cognição


Universidade Federal do ABC
Santo André, SP

28 de março de 2011
2
Sumário

1 Sistemas de equações lineares 9


1.1 Equações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Sistemas de equações lineares . . . . . . . . . . . . . . . . . . . 12
1.3 Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Sistema escalonado . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Operações elementares . . . . . . . . . . . . . . . . . . . . . . . 21
1.6 Método da eliminação de Gauss . . . . . . . . . . . . . . . . . . 22
1.6.1 A eliminação de Gauss-Jordan . . . . . . . . . . . . . . . 25
1.7 Operações matriciais . . . . . . . . . . . . . . . . . . . . . . . . 27
1.7.1 Adição de matrizes . . . . . . . . . . . . . . . . . . . . . 27
1.7.2 Multiplicação de uma matriz por um número real . . . . 27
1.7.3 Multiplicação de matrizes . . . . . . . . . . . . . . . . . 28
1.8 Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.9 Potências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.10 Matriz transposta . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.11 Matrizes elementares . . . . . . . . . . . . . . . . . . . . . . . . 34
1.11.1 Sistemas equivalentes e matrizes elementares . . . . . . . 36
1.12 Um método para inverter matrizes . . . . . . . . . . . . . . . . 36
1.13 Forma matricial de um sistema linear . . . . . . . . . . . . . . . 38

2 Determinantes 43
2.1 De…nição de determinante . . . . . . . . . . . . . . . . . . . . . 45
2.2 Propriedades do determinante . . . . . . . . . . . . . . . . . . . 47
2.3 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . 51
2.4 Cofatora, adjunta clássica e inversa . . . . . . . . . . . . . . . . 52
2.5 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 53

3 Espaço vetorial 55
3.1 Propriedades adicionais . . . . . . . . . . . . . . . . . . . . . . . 58
3.2 O espaço vetorial das ênuplas ordenadas . . . . . . . . . . . . . 58
3.3 Outros espaços vetoriais relevantes . . . . . . . . . . . . . . . . 59

3
4 SUMÁRIO

3.4 Subespaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . 60


3.5 Espaço gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.6 Dependência linear . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.7 Dependência linear de funções . . . . . . . . . . . . . . . . . . . 66
3.8 Base e dimensão de um espaço vetorial . . . . . . . . . . . . . . 69
3.9 Matriz de mudança de base . . . . . . . . . . . . . . . . . . . . 74
3.10 Espaço linha e espaço coluna . . . . . . . . . . . . . . . . . . . . 77
3.11 Sistemas lineares e o espaço nulo de uma matriz . . . . . . . . . 82

4 Transformação linear 89
4.1 Transformação linear e bases . . . . . . . . . . . . . . . . . . . . 91
4.2 Exemplos de transformações lineares . . . . . . . . . . . . . . . 94
4.3 Composição e inversa . . . . . . . . . . . . . . . . . . . . . . . . 96
4.4 Matriz de uma transformação linear . . . . . . . . . . . . . . . . 99
4.5 Matriz da composta e da inversa . . . . . . . . . . . . . . . . . . 101
4.6 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . . . 103
4.7 Núcleo e imagem . . . . . . . . . . . . . . . . . . . . . . . . . . 106

5 Produto interno 109


5.0.1 Produtos internos . . . . . . . . . . . . . . . . . . . . . . 109
5.1 Norma e distância . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.2 Desigualdade de Cauchy-Schwarz . . . . . . . . . . . . . . . . . 112
5.3 Ângulo entre dois vetores . . . . . . . . . . . . . . . . . . . . . . 113
5.4 Bases ortogonais e ortonormais . . . . . . . . . . . . . . . . . . 115
5.5 Coordenadas numa base ortogonal . . . . . . . . . . . . . . . . . 115
5.6 Produto interno numa base ortonormal . . . . . . . . . . . . . . 116
5.7 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . 117
5.8 Projeção ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.9 Obtendo bases ortogonais . . . . . . . . . . . . . . . . . . . . . 119
5.10 Decomposição QR . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.11 Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.12 Mínimos quadrados . . . . . . . . . . . . . . . . . . . . . . . . . 126
5.13 Soluções de mínimos quadrados . . . . . . . . . . . . . . . . . . 128
5.14 Teorema sobre matriz inversível . . . . . . . . . . . . . . . . . . 132

6 Autovalores e autovetores 135


6.1 Autovalor e autovetor de uma matriz . . . . . . . . . . . . . . . 135
6.2 Autovalor e autovetor de um operador linear . . . . . . . . . . . 138
6.3 Potências de matrizes . . . . . . . . . . . . . . . . . . . . . . . . 140
6.4 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.5 Potência de uma matriz . . . . . . . . . . . . . . . . . . . . . . 144
SUMÁRIO 5

6.6 Diagonalização ortogonal . . . . . . . . . . . . . . . . . . . . . . 145


6 SUMÁRIO
Prefácio

Estas notas de aula se basearam, inicialmente, no livro de Anton e Rorres,


Álgebra Linear Aplicada.
Depois elas foram in‡uenciadas pelos excelentes livros:
Álgebra Linear e Aplicações do Calioli, Domingues e Costa,
Álgebra Linear do Boldrini, Costa, Figueiredo e Wetzler
Álgebra Linear do Nicholson,
além de minhas preferências pessoais sobre como apresentar o assunto.

Antonio Cândido Faleiros

UFABC, Santo André, SP, 2011

Notas de aula do Professor Faleiros


8 SUMÁRIO

Notas de aula do Professor Faleiros


Capítulo 1

Sistemas de equações lineares

1.1 Equações lineares


Quando estudamos a geometria analítica plana, usando um sistema de coor-
denadas cartesianas ortogonais, cujos eixos caracterizamos pelos índices 1 e 2;
…xada uma reta, existem três números reais a1 ; a2 e b tais que as coordenadas
cartesianas (x1 ; x2 ) dos pontos da reta obedecem a uma equação do tipo

a1 x 1 + a2 x 2 = b

onde a1 ou a2 é diferente de zero.


Podemos pensar em a1 x1 +a2 x2 = b como sendo uma equação, denominada
equação geral da reta, envolvendo duas incógnitas x1 e x2 : Os pontos (c1 ; c2 ) da
reta satisfazem a a1 c1 + a2 c2 = b e são denominadas de soluções desta equação.
Os

Exemplo 1.1 O ponto (x1 ; x2 ) = (1; 2) do plano cartesiano pertence à reta


cuja equação geral é 3x1 x2 = 1:

Na geometria analítica espacial, quando se usa um sistema de coordenadas


cartesianas ortogonais, com eixos caracterizados pelos índices 1; 2 e 3; …xado
um plano, as coordenadas cartesianas (x1 ; x2 ; x3 ) dos seus pontos satisfazem
a uma equação da forma

a1 x 1 + a2 x 2 + a3 x 3 = b

onde a1 ; a2 ; a3 e b são números reais e, dos três números a1 ; a2 e a3 ; pelo menos


um não é nulo.

Exemplo 1.2 O ponto (x1 ; x2 ; x3 ) = (2; 1; 1) do espaço cartesiano pertence


ao plano cuja equação geral é 4x1 + 3x2 2x3 = 3:

Notas de aula do Professor Faleiros


10 Sistemas de equações lineares

Exemplo 1.3 No espaço cartesiano, x1 + x2 = 5 é a equação geral de um


plano, e não de uma reta, como poderíamos pensar num primeiro momento.
A ausência do x3 se deve ao fato de, nesta equação, ele estar multiplicado por
zero.

Podemos nos esquecer da geometria e nos ater à algebra das equações de


retas e planos. Seja n um número inteiro maior do que 1 e a1 ; : : : ; an ; números
reais. Sendo b um número real,

a1 x 1 + + an x n = b (1.1)

é uma equação algébrica linear ou equação linear nas n incógnitas x1 ;


: : : ; xn : Os números reais a1 ; a2 ; : : : ; an são os coe…cientes e b é o termo
constante da equação.
Se c1 ; : : : ; cn forem números reais tais que

a1 c 1 + + an cn = b;

diremos que x1 = c1 ; : : : ; xn = cn ou

(x1 ; : : : ; xn ) = (c1 ; : : : ; cn ):

é solução da equação linear (1.1). Ainda, por simplicidade, iremos dizer que
a sequência (c1 ; c2 ; : : : ; cn ) é solução de (1.1).
A equação
0x1 + + 0xn = b
onde todos os coe…cientes são nulos, é chamada de degenerada. Quando
b 6= 0; ela é a única equação linear que não possui solução. Quando b = 0;
toda sequência (c1 ; c2 ; : : : ; cn ) é solução.

Exemplo 1.4 Uma solução de 3x1 5x2 = 1 é x1 = 12 e x2 = 7: Podemos


dizer também que (x1 ; x2 ) = (12; 7) é solução ou que o par (12; 7) é solução.
Existem outras soluções para esta equação linear. Explicitando x1 ; obtemos
x1 = (1+ 5x2 )=3: Atribuindo um valor c2 qualquer a x2 ; obtemos desta igual-
dade um valor c1 para x1 tal que x1 = c1 e x2 = c2 é solução da equação linear
dada. Fazendo x2 = 1; obtemos x1 = 2 e (x1 ; x2 ) = (2; 1) é solução da equação
dada.

Na equação linear a1 x1 + +an xn = b; quando a1 6= 0; pode-se explicitar


a incógnita x1 para obter
1
x1 = (b a2 x 2 an x n ) :
a1

Notas de aula do Professor Faleiros


1.1 Equações lineares 11

Nesta equação, x1 recebe o nome de variável dependente e as demais de


variáveis independentes ou livres. As incógnitas recebem também o nome
de variável pois, ao escolher livremente os valores de x2 ; : : : ; xn ; a equação
acima estabelece um valor para x1 ; que depende dos valores das demais incóg-
nitas. Para obter uma solução, pode-se variar os valores das incógnitas que
passam a ser chamadas de variáveis.
Sendo c2 ; : : : ; cn números reais, fazendo x2 = c2 ; : : : ; xn = cn obtemos pela
equação acima x1 = a11 (b a2 c2 an cn ) : Denotando o número real do
lado direito desta igualdade por c1 ; a sequência (c1 ; c2 ; : : : ; cn ) é uma solução
da equação linear original.
De modo geral, se ak 6= 0; pode-se explicitar a variável xk ; que passa a ser a
variável dependente, sendo as incógnitas restantes as variáveis independentes.
Excetuando as equações lineares degeneradas com termo constante não
nulo, as demais, com duas ou mais variáveis, possuem in…nitas soluções. O
conjunto de todas elas é denominado de conjunto solução ou solução geral
da equação.
Para obter o conjunto solução da equação linear a1 x1 + +an xn = b
basta explicitar uma incógnita em função das demais. Se a1 6= 0; a solução
geral será o conjunto
1
f (x1 ; : : : ; xn ) : x1 = (b a2 x 2 an xn ) com x2 ; : : : ; xn 2 R g
a1
Exemplo 1.5 Explicitando o x2 em função de x1 na equação linear 5x1 x2 =
1 obtém-se x2 = 5x1 1 e a solução geral da equação linear original é
f (x1 ; x2 ) : x2 = 5x1 1 com x1 2 R g:
Aproveitando o exemplo anterior, vamos observar que a solução geral do
sistema pode ser apresentada de modo que as incógnitas x1 e x2 sejam tratadas
em pé de igualdade, como funções de uma terceira variável. Se introduzirmos
uma nova variável t de…nida por t = x1 ; então x2 = 5t 1 e o conjunto solução
passa a ter o formato
f ( t; 5t 1 ) : t 2 Rg:
A variável t é denominada de parâmetro da solução geral. Em lugar de expres-
sar a solução geral na forma de um conjunto pode-se simplesmente escrevê-la
na forma x1 = t e x2 = 5t 1; destacando que t é um parâmetro que percorre
os reais. Aqui se subentende que o conjunto formado pelos pares (x1 ; x2 ) onde
x1 = t e x2 = 5t 1; com t 2 R; é o conjunto solução da equação.
Exemplo 1.6 Na equação x 4y + 7z = 5 podemos explicitar x em função de
y e z para obter x = 5+ 4y 7z: A solução geral desta equação é
f (x; y; z) : x = 5 + 4y 7z; com y e z percorrendo os reais g

Notas de aula do Professor Faleiros


12 Sistemas de equações lineares

De…nindo os parâmetros r e c por r = y e c = z; obtemos a solução geral na


forma paramétrica

x=5 4t + 7c
y=t
z=c

onde os parâmetros t e c que podem assumir qualquer valor real. A cada valor
atribuído a t e a c temos uma solução da equação.

1.2 Sistemas de equações lineares


Quando estudamos Geometria Analítica Plana, quando se pretende analisar a
posição relativa de duas retas cujas equações gerais são

a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2

é preciso determinar os pontos (x1 ; x2 ) do plano que satisfazem simultanea-


mente às duas equações. Quando as retas forem paralelas e disjuntas, elas não
possuem pontos em comum, de modo que nenhum par ordenado (x1 ; x2 ) de
números reais satisfaz às duas equações. Quando as retas forem coincidentes
elas possuem uma in…nidade de pontos em comum e há uma in…nidade de
pares de números reais que satisfaz às duas equações. Quando a interseção das
retas ocorre em um ponto, há um único par (x1 ; x2 ) de números reais satisfaz
às duas equações.
Ainda na Geometria Analítica Plana, se faz o estudo da posição relativa de
três ou mais retas. Como no caso anterior, as retas podem ter uma in…nidade
de pontos, um único ponto ou nenhum ponto comum, casos em que as equações
gerais das retas serão satisfeitas simultaneamente por uma in…nidade de pares
de números reais, por um único par ou nenhum par, respectivamente.
Na Geometria Analítica Espacial, dois planos cujas equações gerais são

a11 x1 + a12 x2 + a13 x3 = b1


a21 x1 + a22 x2 + a23 x3 = b2

podem ter nenhum ou in…nitos pontos em comum. Eles podem ser paralelos
e distintos, paralelos e coincidentes ou a interseção pode ocorrer ao longo de
uma reta que pertence a ambos. Se os planos forem paralelos e distintos, não
existe nenhum terno ordenado (x1 ; x2 ; x3 ) de números reais que satisfaz às
duas equações gerais. Nos outros casos, onde a interseção não é vazia, há uma
in…nidade de pares a satisfazer as duas equações.

Notas de aula do Professor Faleiros


1.2 Sistemas de equações lineares 13

Ainda na Geometria Analítica Espacial, é interessante determinar a posição


relativa de três planos quando eles poderão coincidir, ou ter interseção vazia, ou
interseção ao longo de uma reta ou interseção num único ponto. Neste último
caso, haverá um único terno (x1 ; x2 ; x3 ) de números reais que satisfaz às três
equações das retas e, no segundo caso, não haverá nenhum terno satisfazendo
às três equações das retas. No primeiro e terceiro caso, de coincidência dos três
planos ou interseção ao longo de uma reta, teremos uma in…nidade de ternos
de números reais satisfazendo às equações das três retas ao mesmo tempo.
Estes exemplos nos mostram a importância de se estudar equações como
as que surgem no contexto da geometria plana e espacial. Equações dessa na-
tureza surgem no contexto do Cálculo Numérico e são de extrema importância
para as aplicações da Matemática na Engenharia, na Física, na Química, na
Biologia, na Economia.
As equações gerais de retas e planos são equações lineares. Quando nos
deparamos com mais de uma equação linear, dizemos estar diante de um sis-
tema de equações lineares. Passemos a estudar tais sistemas em sua forma
geral.
Sejam m e n inteiros maiores do que 1: Sejam aij e bi ; com i = 1; 2; : : : m
e j = 1; 2; : : : ; n; números reais. Um conjunto …nito de m equações lineares

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2 (1.2)

am1 x1 + am2 x2 + + amn xx = bm

nas incógnitas x1 ; : : : ; xn ; é chamado de sistema de equações algébricas


lineares ou um sistema linear com m equações e n incógnitas.
Se x1 = c1 ; : : : ; xn = cn for solução de todas as equações em (1.2), diremos
que ela é solução do sistema (1.2). Também diremos que

(x1 ; : : : ; xn ) = (c1 ; : : : ; cn )

ou que a ênupla ordenada de números reais (c1 ; : : : ; cn ) é solução do sistema


linear.
Um sistema de equações lineares pode ter solução ou não. Quando uma
equação do sistema for degenerada,

0x1 + + 0xn = b;

com todos os coe…cientes nulos e b diferente de zero, já podemos a…rmar que


o sistema não possui solução.

Notas de aula do Professor Faleiros


14 Sistemas de equações lineares

Podemos simpli…car a notação de um sistema usando o símbolo de so-


matório. Com ele pode-se escrever a i ésima equação na forma
X
n
aij xj = bi
j=1

e assim denotar todas as equações do sistema observando que i assume todos


os valores inteiros de 1 a m; como em
X
n
aij xj = bi ; com i = 1; : : : ; m:
j=1

Exemplo 1.7 O sistema

x1 + x2 = 1
0x1 + 0x2 = 2

não tem solução pois a segunda equação é degenerada e seu termo constante é
diferente de zero. O sistema

x1 + x2 = 1
x1 + x2 = 2

não possui solução pois a soma x1 + x2 não pode ser ao mesmo tempo igual a
1 e a 2: Já o sistema

x1 + x2 = 2
0x1 + 0x2 = 0

possui in…nitas soluções pois a segunda equação é satisfeita para quaisquer


valores que se atribua a x1 e a x2 : A primeira é satisfeita sempre que x1 = t
e x2 = 2 t; para todo t real. O sistema

x1 x2 = 2
x1 + x2 = 4

tem uma única solução (x1 ; x2 ) = (3; 1) que pode ser obtida observando que,
ao adicionar as duas equações obtemos 2x1 = 6 e, ao subtrair a primeira da
segunda, obtemos 2x2 = 2:

Um sistema de equações lineares é consistente ou compatível quando


tiver ao menos uma solução e inconsistente ou incompatível quando não
possuir solução. O conjunto de todas as soluções é chamado de conjunto
solução ou solução geral do sistema.

Notas de aula do Professor Faleiros


1.3 Matriz 15

Exemplo 1.8 Todas as soluções do sistema

x1 3x2 + x3 = 0
x2 x3 = 1

são tais que x1 = 3 + 2x3 ; x2 = 1 + x3 com x3 percorrendo os reais, e o seu


conjunto solução é

f (x1 ; x2 ; x3 ) : x1 = 3 + 2x3 ; x2 = 1 + x3 com x3 2 R g:

Para veri…car este fato, basta explicitar x1 na primeira equação, x2 na segunda


equação, usando-a para eliminá-la da primeira equação.

1.3 Matriz
Para determinar a solução de um sistema precisamos apenas dos seus coe…-
cientes e das suas constantes. Estes coe…cientes e constantes podem ser dispos-
tos em uma matriz que é uma coleção de números dispostos em uma tabela
retangular e delimitada por colchetes.
Os números que compõem uma matriz são denominados des entradas ou
elementos d matriz. As linhas e as colunas da tabela serão as linhas e as
colunas da matriz. Uma matriz de tamanho m n é aquela que possui
m linhas e n colunas. Quando o número de linhas for igual ao número de
colunas se diz que a matriz é quadrada. Uma matriz quadrada n n é
chamada matriz de ordem n: Matrizes com um única coluna são denominadas
matrizes coluna ou vetores coluna. Matrizes com uma única linha são
denominadas matrizes linha ou vetores linha. Vamos usar letras maiúsculas
para designar as matrizes e letras minúsculas com subíndices para designar suas
entradas. Estes índices informam a posição da entrada na matriz, tal como em
2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
A = 6 .. .. .. .. 7
4 . . . . 5
am1 am2 amn

onde aij é a entrada da linha i coluna j: A matriz acima pode ser representada
de forma abreviada por A = [aij ] ou por [aij ]m n quando for desejável indicar
explicitamente o seu tamanho. É comum usar a notação aij = (A)ij : Os
elementos aii ; para i = 1; 2; : : : são os elementos da diagonal principal da
matriz também denominada de diagonal da matriz. Os elementos ai; n+1 i ;
para i = 1; 2; : : : são os elementos da diagonal secundária da matriz. Uma

Notas de aula do Professor Faleiros


16 Sistemas de equações lineares

matriz quadrada onde apenas os elementos da diagonal principal são diferentes


de zero são chamadas de matriz diagonal.
Uma matriz quadrada na qual todas as entradas acima da diagonal prin-
cipal são zero é chamada triangular inferior e uma matriz quadrada naqual
todas as entradas abaixo da diagonal principal são zero é chamada triangu-
lar superior. Uma matriz que é triangular inferior ou triangular superior é
chamada triangular.
Quando se tratar de uma matriz linha ou coluna, podemos abrir uma ex-
ceção e usar uma letra minúscula em negrito para designá-la tal como em
2 3
b1
6 b2 7
6 7
a= a1 a2 an e b=6 .. 7
4 . 5
bm

Duas matrizes A = [aij ] e B = [bij ] são iguais quando ambas possuírem o


mesmo tamanho e suas entradas correspondentes forem iguais, isto é, aij = bij ;
para i e j percorrendo todas as linhas e todas as colunas de A e B: Quando
duas matrizes A e B forem iguais, escreveremos A = B:
Como enfatizamos no início desta seção, as matrizes mostraram-se muito
úteis na representação de sistemas lineares. Dado o sistema linear

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2

am1 x1 + am2 x2 + + amn xx = bm

com m equações e n incógnitas, a tabela retangular de números


2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
A=6 .. .. ... .. 7
4 . . . 5
am1 am2 amn

é chamada de matriz dos coe…cientes do sistema e


2 3
b1
6 7
b = 4 ... 5
bm

Notas de aula do Professor Faleiros


1.4 Sistema escalonado 17

é a matriz das constantes do sistema. Ao acrescentar a coluna b à direita


de A; obtemos a matriz aumentada ou matriz completa do sistema
2 3
a11 a12 a1n b1
6 a21 a22 a2n b2 7
6 7
6 .. .. .. .. .. 7
4 . . . . . 5
am1 am2 amn bm

que será denotada por [ A j b ]:


A notação matricial simpli…ca a notação e proporciona uma ferramenta
matemática e…ciente no estudo teórico e numérica dos sistemas, mormente
quando se estudam os sistemas de grande porte, que são aqueles com muitas
equações e muitas incógnitas.

Exemplo 1.9 A matriz completa do sistema

x + y + 2z = 9
2x + 4y 3z = 1
3x + 6y 5z = 0

é 2 3
1 1 2 9
4 2 4 3 1 5:
3 6 5 0

1.4 Sistema escalonado


É muito simples obter a solução geral de alguns sistemas especiais e, dentre
eles, se destacam os sistemas escalonados.
Uma matriz escalonada é aquela em que

1. as linhas nulas …cam agrupadas na parte inferior da matriz;

2. nas linhas não nulas, o primeiro elemento não nulo da esquerda para a
direita é o número 1: Este número é o líder ou pivô da linha;

3. a partir da segunda linha, o elemento líder …ca à direita do líder da linha


acima.

Uma matriz é escalonada reduzida se

1. for escalonada e

Notas de aula do Professor Faleiros


18 Sistemas de equações lineares

2. o líder é o único elemento não nulo de sua coluna.

Exemplo 1.10 As matrizes


2 3 2 3
0 1 2 3 4 1 2 3 4 5
4 0 0 0 1 2 5 e 4 0 0 1 2 3 5
0 0 0 0 0 0 0 0 1 2

são escalonadas e 2 3
1 2 0 4 0 6
6 0 0 1 2 0 4 7
6 7
4 0 0 0 0 1 2 5
0 0 0 0 0 0
é escalonada reduzida.

Um sistema linear é escalonado quando sua matriz completa for escalon-


ada e escalonado reduzido quando sua matriz completa for escalonada re-
duzida.

Exemplo 1.11 O sistema

x1 + 2x2 + 3x3 + 4x4 = 5


x2 + 2x3 + 3x4 = 4
x4 = 2

é escalonado e
x1 x3 = 5
x2 +2x3 = 6
x4 = 7
é escalonado reduzido.

Um sistema escalonado não possui solução quando uma de suas equações


for degenerada,
0x1 + 0x2 + + 0xn = b
com b diferente de zero. Nos demais casos, o sistema escalonado será consis-
tente e podemos obter sua solução geral com o procedimento descrito abaixo.
Inicialmente explicita-se em cada equação a incógnita que está multiplicada
pelo pivô. Estas são as incógnitas líderes do sistema. Em seguida, segue-se
um procedimento conhecido por substituição reversa. A expressão que está
do lado direito da última equação é usada para eliminar a última incógnita
lider das equações acima. A expressão que está do lado direito da penúltima
equação é usada para eliminar a penúltima incógnita líder das equações acima.

Notas de aula do Professor Faleiros


1.4 Sistema escalonado 19

Este procedimento é continuado até eliminar todas as incógnitas líderes do


lado direito das equações que formam o sistema.
Num sistema escalonado consistente, as incógnitas que restarem do lado
direito depois da substituição reversa, são denominadas de variáveis livres
ou independentes. O termo variável tem sua origem no fato de podermos
atribuir a elas qualquer valor real para obter uma solução do sistema. As
incógnitas líderes que permaneceram do lado esquerdo passam a depender dos
valores das variáveis livres e, por este motivo, recebem o nome de variáveis
dependentes ou variáveis líderes.
Quando não houver variável livre, o sistema terá uma única solução. Ex-
istindo variáveis livres, o sistema possuirá in…nitas soluções. Quando houver
uma equação degenerada com termo constante não nulo, o sistema não tem
solução.
Para obter a solução geral de sistemas escalonados reduzidos, a etapa de
substituição reversa é desnecessária pois, ao explicitar as variáveis líderes,
restarão apenas as variáveis independentes no lado direito das equações.

Exemplo 1.12 Para resolver o sistema escalonado

x1 x2 + 2x3 = 3
x2 x3 = 1
x3 = 2

Explicitamos as variáveis dependentes x1 ; x2 e x3 ; que são as variáveis dos


pivôs da matriz completa do sistema

x1 = x2 2x3 + 3
x2 = x3 1
x3 = 2

Podemos eliminar as as variáveis dependentes do lado direito das equações,


usando substituição reversa. A última equação é usada para eliminar x3 do
lado direito das equações acima. Depois, a penúltima equação é usada para
eliminar x2 do lado direito da equação acima. Usando este procedimento,
chegamos a

x3 = 2
x2 = x3 1=2 1=1
x1 = x2 2x3 + 3 = 1 4 + 3 = 0

e concluímos que a única solução deste sistema é (x1 ; x2 ; x3 ) = (0; 1; 2):

Notas de aula do Professor Faleiros


20 Sistemas de equações lineares

Exemplo 1.13 Para resolver o sistema escalonado

x1 + 2x2 x3 = 1
x2 + x3 = 2

explicitamos as variáveis dependentes x1 e x2 ;

x1 = 2x2 + x3 + 1
x2 = 2 x3

e usamos a segunda equação para eliminar o x2 da primeira equação

x1 = 2(2 x3 ) + x3 + 1 = 3x3 3

O x3 é a variável livre deste sistema, que terá in…nitas soluções. Sua solução
geral é x1 = 3x3 3; x2 = 2 x3 ; com x3 percorrendo os reais. Se desejar-
mos tratar x1 ; x2 e x3 em pé de igualdade, introduzimos uma nova variável t;
de…nindo-a por t = x3 quando então se escreve a solução geral na forma x1 =
3t 3; x2 = 2 t; x3 = t; com t percorrendo o conjunto dos números reais.
A nova variável t recebe o nome de parâmetro e com ele a solução geral se
apresenta na forma paramétrica.

Exemplo 1.14 Para resolver o sistema escalonado reduzido

x1 2x2 + 3x3 + x4 = 1
x3 3x4 = 2

explicitamos as variáveis dependentes x1 e x3

x1 = 1 + 2x2 3x3 x4
x3 = 2 + 3x4

Usamos a segunda equação para eliminar a variável dependente x3 do lado


direito da primeira equação e obter

x1 = 1 + 2x2 3(2 + 3x4 ) x4 = 2x2 10x4 5:

Temos duas variáveis livres, a x2 e a x4 e a solução geral deste sistema é

x1 = 2x2 10x4 5
x3 = 2 + 3x4

onde x2 e x4 podem assumir qualquer valor.

Notas de aula do Professor Faleiros


1.5 Operações elementares 21

Querendo tratar as quatro variáveis em pé de igualdade na solução geral,


pode-se introduzir duas novas variáveis r e s; de…nindo-as por r = x2 e s =
x4 : A solução geral poderá ser escrita na forma paramétrica

x1 = 2r 10c 5
x2 =r
x3 = 2 + 3s
x4 =s

onde os parâmetros r e s podem assumir qualquer valor real.

Diremos que a solução geral é uniparamétrica quando depender de um


parâmetro, biparamétrica quando depender de dois, triparamétrica se de-
pender de três. Quando a solução geral depender de mais do que três parâmet-
ros podemos continuar com os pre…xos tetra, penta, hexa ou chamá-la de
poliparamétrica.
Nos resta agora discutir a solução de sistemas genéricos. Veremos como
aplicar transformações ao sistema original até chegar a um sistema escalon-
ado equivalente. Dois sistemas são equivalentes quando possuem o mesmo
conjunto solução.

1.5 Operações elementares


A transformação de um sistem em outro equivalente é realizada por meio de
operações elementares sobre as equações do sistema que são de três tipos:

1. Trocar de posição duas equações, levando cada uma para a posição da


outra.

2. Multiplicar uma equação por uma constante não nula.

3. Adicionar a uma equação um múltiplo de outra.

Quando se multiplica uma equação por um número real, a equação obtida


é denominada de múltiplo da equação original.
As três operações elementares sobre as equações de um sistema correspon-
dem às operações elementares sobre as linhas da matriz completa:

1. Trocar de posição duas linhas, levando cada uma para a posição da outra.

2. Multiplicar uma linha por uma constante não nula.

3. Adicionar a uma linha um múltiplo de outra linha.

Notas de aula do Professor Faleiros


22 Sistemas de equações lineares

As operações elementares são reversíveis e transformam um sistema em


outro equivalente. Por reversíveis queremos dizer que, se mediante uma oper-
ação elementar podemos levar uma matriz A noutra matriz B; então é possível
levar a matriz B na matriz A efetuando uma operação elementar. Se B for
obtida de A permutando suas linhas r e s; podemos recuperarA permutando
as linhas r e s de B: Se B for obtida multiplicando a linha i de A por um
número real diferente de zero, podemos recuperar A multiplicando a linha i
de B por 1 : Se B for obtida adicionando à linha r de A um múltiplo da
sua linha s; podemos recuperar A adicionando à linha r de B o múltiplo
da sua linha s:
Quando aplicamos sucessivas operações elementares sobre uma matriz M e
chegamos a uma matriz escalonada R; dizemos que R é uma forma escalon-
ada da matriz M: Se R for escalonada reduzida, diremos que R é a forma
escalonada reduzida da matriz M: A forma escalonada reduzida de uma
matriz M é única.

1.6 Método da eliminação de Gauss


Quando todos os coe…cientes que multiplicam uma incógnita forem iguais a
zero, como em

x1 + 0x2 + 4x3 = 5
x1 + 0x2 8x3 = 7

a variável x2 é livre. Independentemente do valor que a ela for atribuído,


ela não contribuirá com a soma. A segunda coluna da matriz completa deste
sistema
1 0 4 5
1 0 8 8
é nula. Na prática, nem se escreve o termo x2 em sistemas como o acima e ele
é apresentado na forma

x1 + 4x3 = 5
x1 8x3 = 7

e se elimina a segunda coluna de sua matriz completa que passa a ser

1 4 5
:
1 8 8

Notas de aula do Professor Faleiros


1.6 Método da eliminação de Gauss 23

Se uma equação do sistema for identicamente nula como é o caso da terceira


equação do sistema

x1 3x2 + 2x3 = 9;
x1 + 4x2 + 6x3 = 1;
0x1 + 0x2 + 0x3 = 0:

o fato de qualquer solução das duas primeiras equações ser uma solução da
terceira, podemos eliminá-la e buscar soluções para as duas primeiras equações

x1 3x2 + 2x3 = 9;
x1 + 4x2 + 6x3 = 1:

Com relação à matriz completa do sistema,


2 3
1 3 2 9
4 1 4 6 1 5
0 0 0 0

a eliminação da última equação corresponde à eliminação da linha nula e es-


crever
1 3 2 9
:
1 4 6 1
Vamos trabalhar com a matriz completa do sistema e, numa primeira etapa,
iremos eliminar suas linhas e colunas nulas pelos motivos explicados acima.
Passemos à descrição do método da eliminação de Gauss, que consiste na
realização de operações elementares sobre a matriz completa até transformá-la
numa matriz escalonada. Denotaremos por bij a entrada da linha i coluna j
da matriz completa [ A j b ]:

1. Faça i = 1 e j = 1:

2. Se bij = 0; percorra a coluna r de cima para baixo.

(a) Se bis = 0 para todo s > j; passe para a próxima coluna fazendo
j = j + 1 e retorne à etapa 2.
(b) Se brs 6= 0 para algum s > j; leve a linha i para a posição da linha r
e leve esta para a posição da linha i: Agora a entrada bij é diferente
de zero.

3. Divida a linha i por bij para obter o pivô igual a 1:

Notas de aula do Professor Faleiros


24 Sistemas de equações lineares

4. Adicione múltiplos da linha i às linhas que estão abaixo, de modo a zerar


todas as entradas embaixo do pivô.

5. Passe à linha seguinte fazendo i = i + 1 e retorne à etapa 2.

6. Quando chegar à última linha, se bij 6= 0; divida-a por bij :

Ao …nal deste processo chega-se a um sistema escalonado, equivalente ao


sistema original. Se uma equação deste sistema for degenerada e inconsistente,
ele não terá solução. Se todas as equações do sistema escalonado forem consis-
tentes, havendo variável livre, o sistema terá in…nitas soluções e, quando não,
uma única solução.

Exemplo 1.15 Usando o método da eliminação de Gauss para resolver o sis-


tema nas variáveis x1 ; x2 ; x3 ; x4 ; x5 cuja matriz completa é
2 3
0 0 2 0 7 12
4 2 4 10 6 12 28 5
2 4 5 6 5 1
2 3
1 2 5 3 6 14
4
chegamos à matriz escalonada 0 0 1 0 7=2 6 5:
0 0 0 0 1 2

Exemplo 1.16 Usando o método da eliminação de Gauss para resolver o sis-


tema nas variáveis x1 ; x2 ; x3 ; x4 cuja matriz completa é
2 3
1 2 2 1 9
4 1 2 1 0 4 5
1 2 2 1 7

chegamos à matriz escalonada


2 3
1 2 2 1 9
4 0 0 1 1 5 5
0 0 0 0 2

Como a última linha corresponde à equação

0x1 + 0x2 + 0x3 + 0x4 = 2;

o sistema não possui solução.

Notas de aula do Professor Faleiros


1.6 Método da eliminação de Gauss 25

1.6.1 A eliminação de Gauss-Jordan


A eliminação de Gauss-Jordan consiste na utilização de operações elementares
sobre a matriz completa até transformá-la numa matriz escalonada reduzida.
Efetuada a primeira etapa do método da eliminação de Gauss, pode-se
continuar o processo, aplicando operações elementares sobre a matriz completa
com o intuito de anular os coe…cientes acima dos pivôs, começando com os
pivôs das linhas de baixo e subindo até a primeira linha e chegar a uma matriz
escalonada reduzida.
Lembre-se que a forma escalonada reduzida de uma matriz é única, seja
qual for o caminho percorrido.
Quando se chega à matriz escalonada reduzida, para obter a solução geral
do sistema, basta explicitar as variáveis dependentes, que são aquelas corre-
spondentes aos pivôs de cada linha.
O método de Gauss e o de Gauss Jordan exigem o mesmo esforço computa-
cional para resolver um sistema de equações algébricas lineares.

Exemplo 1.17 Considere o sistema linear cuja matriz completa na forma


escalonada é 2 3
1 2 5 3 6 14
4 0 0 1 0 7=2 6 5
0 0 0 0 1 2
use o método descrito para zerar as entradas acima dos pivôs. Comece zerando
as entradas acima do pivô da terceira linha. Em seguida, zere as entradas
acima do pivô da segunda linha obtendo
2 3
1 2 0 3 0 7
4 0 0 1 0 0 1 5
0 0 0 0 1 2
que corresponde ao sistema

x1 + 2x2 + 0x3 + 3x4 + 0x5 = 7


x3 + 0x4 + 0x5 = 1
x5 = 2

cuja solução geral é

x1 = 7 2x2 3x4
x3 = 1
x5 = 2

onde x2 e x4 são variáveis livres e podem assumir qualquer valor real.

Notas de aula do Professor Faleiros


26 Sistemas de equações lineares

Exemplo 1.18 Resolva por eliminação de Gauss-Jordan


x1 +3x2 2x3 +2x5 = 0
2x1 +6x2 5x3 2x4 +4x5 3x6 = 1
5x3 +10x4 +15x6 = 5
2x1 +6x2 +8x4 +4x5 +18x6 = 6
Resolução. A matriz completa do sistema é
2 3
1 3 2 0 2 0 0
6 2 6 5 2 4 3 1 7
6 7
4 0 0 5 10 0 15 5 5
2 6 0 8 4 18 6
Realizando a eliminação gaussiana, chegamos à matriz escalonada
2 3
1 3 2 0 2 0 0
6 0 0 1 2 0 3 1 7
6 7
4 0 0 0 0 0 1 1=3 5
0 0 0 0 0 0 0
Continuando com as operações elementares, zeramos as entradas acima do pivô
da terceira linha e, em seguida, zeramos as entradas acima do pivô da segunda
linha quando então se chega á matriz escalonada reduzida
2 3
1 3 0 4 2 0 0
6 0 0 1 2 0 0 0 7
6 7
4 0 0 0 0 0 1 1 5
3
0 0 0 0 0 0 0
que nos fornece imediatamente a solução geral do sistema
x1 = 3x2 4x4 2x5
x3 = x4
x6 = 1=3
onde x2 ; x4 e x5 são variáveis livres e podem assumir qualquer valor real.

Quando o sistema escalonado for consistente e possuir m equações não nulas


e n incógnitas, existirá uma única solução quando m = n e in…nitas soluções
quando m < n:
Exemplo 1.19 Dados k sistemas Ax = b1 ; : : : ; Ax = bk em que as matrizes
dos coe…cientes são idênticas, podemos resolvê-los simultaneamente, realizando
operações elementares sobre a matriz aumentada [A j b1 j j bk ] ; reduzindo-
a à forma escalonada e resolver todos os sistemas de uma só vez usando a
eliminação de Gauss ou ainda, reduzindo-a à forma escalonada reduzida e
resolvendo os sistemas usando o método de Gauss-Jordan.

Notas de aula do Professor Faleiros


1.7 Operações matriciais 27

1.7 Operações matriciais


1.7.1 Adição de matrizes
Sejam A = [aij ] e B = [bij ] duas matrizes m n: A adição de A com B é
a operação que resulta na matriz soma A + B = [cij ]; de tamanho m n;
onde cij = aij + bij para i = 1; : : : ; m e j = 1; : : : ; n: A matriz oposta de
B = [bij ] ; denotada por B; é aquela cuja entrada da linha i coluna j é bij :
A diferença A B é a matriz A + ( B); obtida subtraindo das entradas
de A as entradas correspondentes de B: Matrizes de tamanhos distintos não
podem ser adicionadas nem subtraídas. Matrizes de mesmo tamanho são ditas
conformes para a adição.

1.7.2 Multiplicação de uma matriz por um número real


Seja A = [aij ] uma matriz m n e c um número real. A multiplicação de c por
A é a operação que resulta na matriz cA = [caij ] de tamanho m n chamada
de múltiplo de A por c: Observe que cada entrada de cA é igual a c vezes a
entrada correspondente de A:
Se A1 ; A2 ; : : : ; An são matrizes de mesmo tamanho e c1 ; c2 ; : : : ; cn são
números reais, então uma expressão da forma

c 1 A1 + c 2 A2 + + c n An

é chamada de combinação linear de A1 ; A2 ; : : : ; An com coe…cientes c1 ; c2 ;


: : : ; cn :

Propriedades
Neste momento destacamos a matriz nula ou matriz zero
2 3
0 0
6 7
0 = 4 ... . . . ... 5
0 0

onde todas as entradas são nulas. Adicionando uma matriz A com a matriz
nula de mesmo tamanho, obtemos a matriz A: Por este motivo, a matriz nula
é chamada de elemento neutro da adição.
Sendo A; B e C matrizes de mesmo tamanho, x e y números reais e 1 a
unidade real, valem as propriedades:

1. A + B = B + A (Comutatividade da adição)

Notas de aula do Professor Faleiros


28 Sistemas de equações lineares

2. A + (B + C) = (A + B) + C (Associatividade da adição)

3. A + 0 = 0 + A = A (Elemento neutro)

4. B + ( B) = ( B) + B = 0 (A matriz B é a matriz oposta de B)

5. (xy)A = x(yA) (Associatividade da multiplicação por um real)

6. x(A + B) = xA + xB (Distributividade)

7. (x + y)A = xA + yA (Distributividade)

8. 1A = A

1.7.3 Multiplicação de matrizes


De…nição 1.20 Seja A = [aik ] uma matriz m p e B = [bkj ] uma matriz
p n: A multiplicação das matrizes A e B é a operação que leva A e B na
matriz AB = [cij ] de tamanho m n; onde
p
X
cij = aik bkj
k=1

para i = 1; : : : ; m e j = 1; : : : ; n: A matriz AB é denominada de produto


de A por B: Para obter a entrada cij da linha i e coluna j de AB; destaque a
linha i de A e a coluna j de B: Multiplique aik por bkj ; para k = 1; 2; : : : ; p e
adicione os resultados para obter cij :

Para ser possível multiplicar a matriz A pela matriz B; o número de colunas


da primeira deve ser igual ao número de linhas da segunda, quando então se
diz que são conformes para a multiplicação.
Mesmo quando é possível calcular o produto AB; nem sempre é possível
calcular BA e, quando for possível, nem sempre AB = BA pois o produto de
matrizes não é comutativo. Em casos excepcionais, quando AB = BA se diz
que as matrizes comutam.
O produto de matrizes triangulares superiores é uma matriz triangular
superior e o produto de matrizes triangulares inferiores é uma matriz triangular
inferior

Exemplo 1.21 A multiplicação da matriz


2 3
2 3 0
8 6 4
A= por B=4 9 1 3 5
3 9 5
5 2 7

Notas de aula do Professor Faleiros


1.7 Operações matriciais 29

resulta na matriz
58 26 10
AB = :
50 10 62
Se x for um vetor coluna com m linhas e y um vetor linha com n colunas,
então xy é uma matriz m n: Quando m = n; yx é uma matriz 1 1: Toda
matriz 1 1; com uma única entrada, tal como [m] ; é identi…cada ao número
real m e escreveremos [m] = m:
Exemplo 1.22 Sendo
1
x= e y= 3 4
2
então
3 4
xy = e yx = [11] :
6 8

Propriedades das multiplicação matricial


Em cada uma das propriedades abaixo, x é real. As matrizes A e B e as
matrizes B e C são conformes para a multiplicação. As matrizes A; A1 e A2
bem como as matrizes B; B1 e B2 são conformes para a adição.
1. A(BC) = (AB)C (Associatividade da multiplicação)
2. A(B1 + B2 ) = AB1 + AB2 (Distributividade à esquerda)
3. (A1 + A2 )B = A1 B + A2 B (Distributividade à direita)
4. (xB)C = x(BC) = B(xC) (Associatividade em relação ao produto por
um real)
Não vale a lei do cancelamento. A igualdade AD = BD não implica,
necessariamente, em A = B; mesmo quando D for diferente de zero.
1 3
Exemplo 1.23 Observe que AD = BD mas A 6= B quando A = e
2 4
5 3 0 0
B= eD= :
6 4 1 2

É possível obter AB = 0; mesmo quando A 6= 0 e B 6= 0: Logo, AB = 0


não implica em A = 0 ou B = 0:
0 1 3 4
Exemplo 1.24 Observe que AB = 0 quando A = eB= :
0 2 0 0
Entretanto, nem A e nem B são matrizes nulas.

Notas de aula do Professor Faleiros


30 Sistemas de equações lineares

Produto matricial como combinação linear

Sendo
2 3 2 3
a11 a12 a1n x1
6 a21 a22 a2n 7 6 x2 7
6 7 6 7
A=6 .. .. .. 7 e x=6 .. 7
4 . . . 5 4 . 5
am1 am2 amn xn

então

2 3
a11 x1 + a12 x2 + + a1n xn
6 a21 x1 + a22 x2 + + a2n xn 7
6 7
Ax = 6 .. 7
4 . 5
am1 x1 + am2 x2 + + amn xn
2 3 2 3 2 3
a11 a12 a1n
6 a21 7 6 a22 7 6 a2n 7
6 7 6 7 6 7
= x1 6 .. 7 + x2 6 .. 7+ + xn 6 .. 7
4 . 5 4 . 5 4 . 5
am1 am2 amn

Sendo
2 3 2 3 2 3
a11 a12 a1n
6 a21 7 6 a22 7 6 a2n 7
6 7 6 7 6 7
c1 = 6 .. 7 c2 = 6 .. 7 cn = 6 .. 7
4 . 5 4 . 5 4 . 5
am1 am2 amn

as colunas de A; então

Ax = x1 c1 + x2 c2 + + xn cn :

Uma expressão do tipo x1 c1 + x2 c2 + + xn cn é chamada de combinação


linear das matrizes c1 ; c2 ; : : : ; cn com coe…cientes x1 ; x2 ; : : : ; xn : A matriz
Ax é uma combinação linear das colunas de A cujos coe…cientes são as entradas
da matriz x:
De modo análogo, sendo y uma matriz linha, yA é uma combinação linear
das matrizes linha de A com coe…cientes provenientes da matriz y:

Notas de aula do Professor Faleiros


1.8 Matriz inversa 31

1.8 Matriz inversa


Neste momento destacamos a matriz identidade de tamanho n n
2 3
1 0 0 0
6 0 1 0 0 7
6 7
6 .. .. . . .. .. 7
In = 6 . . . . . 7
6 7
4 0 0 1 0 5
0 0 0 1
que possui todas as entradas iguais a zero, exceto aquelas que se encontram
na diagonal principal, que são iguais a 1: Sendo A uma matriz m n e B uma
matriz n p; então AIn = A e In B = B: Quando A for n n; então
AIn = In A = A:
Não havendo a necessidade de informar o tamanho da matriz identidade,
podemos indicá-la tão somente por I: A matriz identidade é o elemento neu-
tro da multiplicação de matrizes quadradas.

De…nição 1.25 Uma matriz quadrada A é invertível quando existe uma ma-
triz quadrada B tal que
AB = BA = I;
onde I é a matriz identidade. A matriz B é chamada de inversa de A: Uma
matriz quadrada não invertível é denominada singular.

Quando uma matriz A é invertível, sua inversa é única, sendo denotada por
1
A : De acordo com a de…nição, se B é a inversa de A então A é a inversa de
B ou, em outras palavras,
1
A= A 1 :
Uma matriz diagonal, como
2 3
d1 0 0
6 0 d2 0 7
6 7
D=6 .. .. ... .. 7
4 . . . 5
0 0 dn
é invertível se e só se todos os reais d1 ; d2 ; : : : ; dn forem diferentes de zero, e
sua inversa é 2 1 3
d1 0 0
6 0 d 1 0 7
6 2 7
D 1 = 6 .. .. .. .. 7 :
4 . . . . 5
0 0 dn 1

Notas de aula do Professor Faleiros


32 Sistemas de equações lineares

Uma matriz triangular é invertível se, e só se, todos os elementos da diagonal


principal forem diferentes de zero. A inversa de uma matriz triangular superior
é uma matriz triangular inferior e a inversa de uma matriz triangular inferior
é uma matriz triangular superior.
a b
A matriz A = é invertível se e só se ad bc 6= 0 e sua inversa é
c d

1 1 d b
A = :
ad bc c a

3 5 2 5
Exemplo 1.26 A matriz B = é a inversa de A = :
1 2 1 3

Nenhuma matriz quadrada A com uma coluna nula possui inversa pois,
para qualquer matriz B de mesmo tamanho, a mesma coluna de BA é nula e
assim, BA 6= I:
Toda matriz quadrada A com uma linha nula é singular pois, para qualquer
matriz quadrada B de mesmo tamanho, a mesma linha de AB será nula e
assim, AB 6= I:

Propriedades da matriz inversa


Sejam A e B matrizes invertíveis de mesmo tamanho.

1
1. Sendo k um número real, a matriz kA é invertível e (kA) = k 1A 1:

2. A matriz AB é invertível e
1
(AB) = B 1A 1:

Se as matrizes A1 ; A2 ; : : : ; An forem todas invertíveis e do mesmo tamanho,


então o produto A1 A2 An é invertível e
1
(A1 An ) = An 1 A1 1 :

1.9 Potências
Seja A uma matriz quadrada e n um número inteiro maior do que zero. De…n-
imos as potências inteiras não negativas de A por

A0 = I; An = An 1 A

Notas de aula do Professor Faleiros


1.10 Matriz transposta 33

Se A for invertível, então


(A 1 )n = (An ) 1

e de…nimos as potências negativas de A por


n
A = (A 1 )n = (An ) 1 :

Propriedades
Sejam A e B matrizes quadradas com o mesmo tamanho, r e s números inteiros
não negativos. Então

1. Ar As = Ar+s

2. (Ar )s = Ars

3. Se AB = BA; então (AB)r = Ar B r :

Quando A e B forem invertíveis, as identidades acima valem quando r e s


forem números inteiros negativos.

1.10 Matriz transposta


Se A = [aij ] uma matriz m n: A matriz [bij ] de tamanho n m; onde bij =
aji ; para todo i e todo j; é chamada de transposta de A e denotada por AT :

1 2 1 3
Exemplo 1.27 A transposta de A = é AT = :
3 4 2 4

Se A e B forem matrizes de mesmo tamanho e k for um número real, valem


as propriedades abaixo.

1. (AT )T = A

2. (A + B)T = AT + B T

3. (kA)T = kAT

4. (AT ) 1
= (A 1 )T

Se A e B forem matrizes conforme para a multiplicação,

(AB)T = B T AT

Notas de aula do Professor Faleiros


34 Sistemas de equações lineares

Quando os tamanhos de A1 ; : : : ; An forem tais que o produto A1 An


pode ser efetuado, então

(A1 An )T = ATn AT1 :

Observe que a ordem dos fatores se altera de A1 até An para ATn até AT1 :
Quando A for quadrada e n for um inteiro positivo, então
n
(An )T = AT :

Quando A for quadrada e invertível, o n pode ser qualquer inteiro na pro-


priedade acima.

De…nição 1.28 Uma matriz quadrada A é simétrica quando AT = A:

Para qualquer matriz retangular A; as matrizes AAT e AT A são quadradas


e simétricas.

Teorema 1.29 Sejam A e B matrizes simétricas de mesma ordem e um


real. Então
(a) AT é simétrica.
(b) A + B e A B são simétricas.
(c) A é simétrica.
(d) Se A for invertível, então A 1 é simétrica.
(e) Se A é invertível então AAT e AT A é invertível.

Nem sempre o produto de matrizes simétricas é simétrica. O produto de


duas matrizes simétricas A e B é simétrica se e só se A e B comutarem, isto
é, AB = BA:

Teorema 1.30 Se A é uma matriz invertível, então AAT e AT A também são


invertíveis.

Prova. Como A é invertível, também o é AT : Logo, AAT e AT A também


são invertíveis por serem o produto de matrizes invertíveis.

1.11 Matrizes elementares


De…nição 1.31 Uma matriz quadrada é elementar quando for obtida a par-
tir da matriz identidade executando uma única operação elementar.

Notas de aula do Professor Faleiros


1.11 Matrizes elementares 35

Exemplo 1.32 As matrizes abaixo são elementares


2 3
1 0 0 0 2 3 2 3
6 7 1 0 3 1 0 0
1 0 6 0 0 0 1 7 4 0 1 0 5 4 0 1 0 5
0 3 4 0 0 1 0 5
0 0 1 0 0 1
0 1 0 0

A última matriz é a identidade. Ela é uma matriz elementar pois pode ser
obtida da identidade multiplicando sua primeira linha por 1:

Denotemos por E(i $ j) a matriz elementar obtida da identidade per-


mutando as posições das linhas i e j: Denotemos por E( i ! i) a matriz
elementar obtida da identidade multiplicando sua linha i por um real não
nulo. Denotemos por E(i + j ! i) a matriz elementar obtida da identidade
adicionando vezes sua linha j à sua linha i:
Seja A uma matriz m n e vamos supor que as matrizes elementares a
seguir sejam m m: Trocando a linha i pela linha j de A; obtemos a matriz
E(i $ j)A: Multiplicando a linha i de A por obtemos a matriz E( i!
i)A: Adicionando vezes a linha j de A à sua linha i; obtemos a matriz
E(i + j ! i)A:
Resumindo: Seja A uma matriz m n e E uma matriz elementar m m: A
matriz EA é igual à matriz obtida quando se realiza sobre A a mesma operação
efetuada sobre I para obter E:
As matrizes elementares são invertíveis pois

E(i $ j) é a inversa de E(i $ j);


1
E( i ! i) é a inversa de E( i ! i);
E(i j ! i) é a inversa de E(i + j ! i):

No processo de obter a forma escalonada reduzida de uma matriz quadrada


A; aplicamos a ela uma sequência de operações elementares E1 ; E2 ; : : : ; Es
tais que R = Es E2 E1 A é a forma escalonada reduzida de A: Como A é
quadrada, esta matriz R é a identidade ou pelo menos sua última linha é
nula. As matrizes elementares são invertíveis. Se A for invertível, então R
é invertível e, portanto, só pode ser a matriz identidade. Se A for singular,
então R é singular (se não fosse, A seria invertível) e, portanto, pelo menos
sua última linha é nula. Provamos o seguinte teorema:

Teorema 1.33 Seja A uma matriz quadrada e R sua forma escalonada re-
duzida. Se A for invertível se e só se R é a identidade. Se A for singular se e
só se pelo menos a última linha de R é nula.

Notas de aula do Professor Faleiros


36 Sistemas de equações lineares

1.11.1 Sistemas equivalentes e matrizes elementares


Sejam A e B matrizes m n; b e c matrizes coluna m 1: Os sistemas
lineares Ax = b e Bx = c são equivalentes se possuírem a mesma solução
geral. Para serem equivalentes, as matrizes ampliadas [A j b] e [B j c] devem
possuir a mesma forma escalonada reduzida [R j d] onde o tamanho de R é
m n e o de d é m 1: Logo, existem matrizes elementares E1 ; : : : ; Er e E1 ;
: : : ; Es tais que

[R j d] = Er E1 [A j b] e [R j d] = Es E1 [B j c]

de onde se obtém

[A j b] = E1 1 Er 1 Es E1 [B j c] :

Nota-se assim que dois sistemas lineares com o mesmo número de equações e
o mesmo número de incógnitas são equivalentes quando for possível levar um
no outro mediante operações elementares. Note ainda que

A = E1 1 Er 1 Es E1 B

ou seja, a matriz dos coe…cientes de um sistema pode ser levado no outro


mediante operações elementares.

1.12 Um método para inverter matrizes


Para obter a forma escalonada reduzida de uma matriz aplica-se a ela uma
sucessão de operações elementares. Quando a matriz for quadrada, sua forma
escalonada reduzida é a identidade ou então possui uma ou mais linha nulas.
No primeiro caso, a matriz é invertível e, no segundo caso, singular.
Se A é invertível, realizando operações elementares sobre ela, chegamos
à matriz identidade, que é sua forma escalonada reduzida. Isto signi…ca que
existem matrizes elementares Er ; : : : ; E1 tais que

Er E1 A = I

de onde obtemos
1
A = Er E1 = Er E1 I:
Se
Er E1 A = I então Er E1 I = A 1 :
Observe: Realizando sobre I as mesmas transformações que levam A na ma-
triz identidade, chega-se à inversa de A: Tal observação sugere um dispositivo

Notas de aula do Professor Faleiros


1.12 Um método para inverter matrizes 37

prático para determinar a inversa de uma matriz. Coloque a matriz identidade


à direita de A obtendo a matriz ampliada [A j I]: Efetue operações elementares
sobre esta matriz ampliada até obter a matriz [I j B]; quando a matriz original
A se transformou na identidade e a matriz identidade se transformou na matriz
B: Esta matriz B é, exatamente, a inversa de A:
Se a matriz A não for invertível, sua forma escalonada reduzida conterá
uma linha nula. Se em algum momento do processo de escalonamento da
matriz ampliada [A j I]; uma linha de A se anular, pode encerrá-lo, a…rmando
que A não possui inversa.

Exemplo 1.34 Calcule a inversa de


2 3
1 2 3
A = 4 2 5 3 5:
1 0 8

Resolução. Justapomos as matrizes A e I formando a matriz ampliada


[A j I] e realizamos operações elementares sobre ela, até transformar A em I:
Quando isto acontecer, a matriz I terá se transformado em A 1
2 3
1 2 3 1 0 0
4 2 5 3 0 1 0 5
1 0 8 0 0 1
2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5
0 2 5 1 0 1
2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5
0 0 1 5 2 1
2 3
1 2 3 1 0 0
4 0 1 3 2 1 0 5
0 0 1 5 2 1
2 3
1 2 0 14 6 3
4 0 1 0 13 5 3 5
0 0 1 5 2 1
2 3
1 0 0 40 16 9
4 0 1 0 13 5 3 5
0 0 1 5 2 1

Notas de aula do Professor Faleiros


38 Sistemas de equações lineares

e assim, 2 3
40 16 9
A 1
= 4 13 5 3 5:
5 2 1

Exemplo 1.35 Repita o procedimento do exemplo anterior com a matriz


2 3
1 6 4
A=4 2 4 1 5
1 2 5

e conclua que ela não é invertível.

1.13 Forma matricial de um sistema linear


O sistema de equações algébricas lineares

a11 x1 + a12 x2 + + a1n xn = b1


a21 x1 + a22 x2 + + a2n xn = b2

am1 x1 + am2 x2 + + amn xx = bm

nas incógnitas x1 ; : : : ; xn pode ser escrito na forma matricial

Ax = b
onde 2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
A=6 .. .. .. .. 7
4 . . . . 5
am1 am2 amn
é a matriz dos coe…cientes do sistema,
2 3 2 3
b1 x1
6 7 6 .. 7
b = 4 ... 5 e x=4 . 5
bm xn

são, respectivamente, a matriz das contantes e a matriz das incógnitas


do sistema. Na forma matricial diremos que x = c; onde c é uma matriz

Notas de aula do Professor Faleiros


1.13 Forma matricial de um sistema linear 39

coluna n 1; é uma solução do sistema quando Ac = b: Também pode-se


dizer simplesmente que c é uma solução do sistema.
Um sistema linear
Ax = 0;
no qual o lado direito é a matriz nula, recebe o nome de sistema linear ho-
mogêneo. Ele sempre admite a solução x = 0; denominada solução trivial.
Além desta, tais sistemas podem ou não ter outras soluções. Quando o sis-
tema homogêneo possuir uma solução não trivial x = c; onde c 6= 0; então,
sendo k um número real, x = kc será solução do sistema homogêneo. Esta é
uma indicação de que, quando o sistema homogêneo possuir uma solução não
trivial, terá in…nitas soluções. Então, de duas uma: ou o sistema homogêneo
possui apenas a solução trivial ou possui in…nitas soluções.
Um sistema homogêneo com mais incógnitas do que equações sempre terá
in…nitas soluções e, dentre elas a solução trivial. Tal fato se deve ao processo de
escalonamento que sempre redunda num sistema escalonado compatível com
variáveis livres.
O sistema Ax = 0 é denominado de sistema homogêneo associado ao
sistema linear Ax = b:
Se c0 for solução de Ax = 0 e c1 for solução de Ax = b; então c0 + c1 é
solução de Ax = b: Se c1 e c2 forem soluções de Ax = b; então a diferença
c2 c1 é solução do sistema homogêneo Ax = 0: Logo, ao encontrar uma
solução c1 de Ax = b; sendo c2 outra solução, ela será da forma c0 + c1 ; para
alguma solução c0 do sistema homogêneo associado Ax = 0:
Se o sistema linear Ax = b for compatível, ele terá uma única solução se e
só se o sistema homogêneo Ax = 0 possuir apenas a solução trivial. Quando o
sistema homogêneo Ax = 0 possuir outras soluções além da trivial, o sistema
Ax = b terá in…nitas quando for compatível ou nenhuma solução quando for
incompatível.

Exemplo 1.36 A matriz aumentada de um sistema homogêneo é


2 3
2 2 1 0 1 0
6 1 1 2 3 1 0 7
6 7
4 1 1 2 0 1 0 5
0 0 1 1 1 0

que, levada à forma escalonada reduzida …ca


2 3
1 1 0 0 1 0
6 0 0 1 0 1 0 7
6 7
4 0 0 0 1 0 0 5
0 0 0 0 0 0

Notas de aula do Professor Faleiros


40 Sistemas de equações lineares

e a solução geral deste sistema é

x1 = x2 x5
x3 = x5
x4 = 0

onde x2 e x5 são variáveis livres e podem assumir qualquer valor real. Intro-
duzindo os parâmetros r = x2 e s = x5 ; pode-se escrever a solução geral na
forma paramétrica

x1 = r s; x2 = r; x3 = s; x4 = 0; x5 = s

onde r e s podem assumir qualquer valor real.

Teorema 1.37 A…rmações equivalentes para uma matriz quadrada A:

(1) A é invertível.
(2) O sistema homogêneo Ax = 0 tem somente a solução trivial.
(3) A forma escalonada reduzida por linhas de A é a matriz identidade I:
(4) A pode ser expressa como um produto de matrizes elementares.
Prova. (1) =) (2): Se A é invertível e c0 for uma solução de Ax = 0; então
c0 = Ic0 = (A 1 A) c0 = A 1 (Ac0 ) = A 1 0 = 0; mostrando que a equação
homogênea Ax = 0 possui apenas a solução trivial.
(2) =)(3) Se a única solução do sistema Ax = 0 for a trivial, ele é equiv-
alente ao sistema Ix = 0; onde I é a matriz identidade. Neste caso, podemos
levar A em I por meio de uma sucessão de operações elementares. Como I
é uma matriz escalonada reduzida, isto signi…ca que I é a forma escalonada
reduzida de A:
(3) ) (4) Se a forma escalonada de A; for I; então existem matrizes ele-
mentares E1 ; : : : ; Ek tais que

Ek E1 A = I

e assim
A = E1 1 Ek 1
provando que A é igual ao produto de matrizes elementares.
(4) ) (1) Sendo A um produto de matrizes elementares, que são invertíveis,
ela é invertível.

Corolário 1.38 Sejam A e B duas matrizes quadradas de mesmo tamanho.


(a) Se BA = I; então A é invertível e B = A 1 :
(b) Se AB = I; então A é invertível e B = A 1 :

Notas de aula do Professor Faleiros


1.13 Forma matricial de um sistema linear 41

Prova. (a) Se BA = I e c0 for uma solução do sistema homogêneo Ax = 0;


então c0 = Ic0 = (BA)c0 = B(Ac0 ) = B0 = 0: Logo, o sistema homogêneo
Ax = 0 possui apenas a solução trivial, donde se conclui que A é invertível.
Multiplicando os dois membros de BA = I pela direita por A 1 segue B =
A 1:
(b) Quando AB = I; pelo item anterior, B é invertível e A = B 1 : Sendo
a inversa de B; a matriz A é invertível e A 1 = B:

Corolário 1.39 Sejam A e B matrizes quadradas de mesmo tamanho. Se A


for singular, então AB e BA são singulares.

Prova. Se A for singular, o sistema linear homogêneo Ax = 0 possui


solução não trivial c0 : Daí, BAc0 = 0; mostrando que BA é singular.
Se A for singular, sua forma escalonada reduzida R pelo menos sua última
linha é nula. Existem matrizes elementares E1 ; : : : ; Ek tais que R = Ek
E1 A: Se AB for invertível, RB = Ek E1 (AB) também será, o que não
pode ocorrer pois pelo menos a última linha de RB é nula.

Corolário 1.40 A matriz A é invertível se e só se a única solução do sistema


Ax = b for x = A 1 b:

Prova. Se A é invertível, então c1 = A 1 b é uma solução de Ax = b: Sendo


c2 outra solução deste sistema, A(c1 c2 ) = 0 e, como o sistema homogêneo
Ax = 0 possui apenas a solução trivial, c1 = c2 ; mostrando que Ax = b possui
uma única solução dada por x = A 1 b:
Se Ax = b tem uma única solução para todo b; então Ax = 0 tem uma
única solução e A é invertível.

Exemplo 1.41 Como consequência da invertibilidade da matriz


2 3
1 2 3
A= 2 4 5 3 5
1 0 8

o sistema homogêneo
x1 +2x2 +3x3 = 0
2x1 +5x2 +3x3 = 0
x1 +8x3 = 0
possui apenas a solução trivial.

Notas de aula do Professor Faleiros


42 Sistemas de equações lineares

Exemplo 1.42 Para determinar a consistência do sistema linear

x1 +x2 +2x3 = b1
x1 +x3 = b2
2x1 +x2 +3x3 = b3

basta realizar operações elementares na matriz completa do sistema para obter


2 3
1 1 2 b1
4 0 1 1 b1 b2 5
0 0 0 b3 b2 b1

O sistema será consistente se e só se b3 b2 b1 = 0 ou b3 = b2 + b1 ; ou seja,


quando b for igual a
2 3 2 3 2 3
b1 1 0
b = 4 b2 5 = b1 4 0 5 + b2 4 1 5 :
b1 + b2 1 1
T
Quando b = 1 1 2 o sistema tem solução e sua solução geral pode ser
obtida pelo métodos de Gauss

x1 = 1 e x2 = x3
T
com x3 percorrendo o conjunto dos números reais. Quando b = 1 0 3 ;
o sistema não possui solução.

Exemplo 1.43 Escalonando a matriz completa do sistema

x1 +2x2 +3x3 = b1
2x1 +5x2 +3x3 = b2
x1 +8x3 = b3

chega-se a 2 3
1 2 3 b1
4 0 1 3 b2 2b1 5
0 0 1 b3 + 3b1 2b2
quando então se percebe que o sistema é sempre consistente, não havendo re-
strições sobre b:

Notas de aula do Professor Faleiros


Capítulo 2

Determinantes

Para resolver um sistema de duas equações com duas incógnitas

a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2

podemos usar o método de eliminação das incógnitas. Multiplicando a primeira


equação por a22 , a segunda por a12 e subtraindo a segunda equação da primeira,
obtemos
(a11 a22 a12 a21 )x1 = b1 a22 b2 a12 :
Quando a11 a22 a12 a21 6= 0; obtemos
b1 a22 b2 a12
x1 = :
a11 a22 a12 a21
As expressões do denominador e do numerador envolvem as entradas das ma-
trizes
a11 a12 b1 a12
A= e 1 =
a21 a22 b2 a22
e os matemáticos as denominaram de determinante de A1 e determinante de
1 , denotando-as por det(A) e det(A1 ): Para uma matriz 2 2; seu determi-
nante é de…nido por
a11 a12
det = a11 a22 a12 a21 :
a21 a22
De modo semelhante podemos eliminar x1 do sistema para obter
det( 2 )
x2 = :
det(A)
O sistema possuirá solução se e só se det(A) 6= 0 e a solução será única.

Notas de aula do Professor Faleiros


44 Determinantes

Os matemáticos veri…caram que este procedimento de eliminar variáveis


de um sistema poderia ser estendido para sistemas com mais do que duas
variáveis.
Por exemplo, para sistemas com três equações e três incógnitas,

a11 x1 + a12 x2 + a13 x3 = b1


a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3

é possível explicitar x2 e x3 em função de x1 usando a segunda e a terceira


equações. Substituindo as expressões obtidas na primeira equação, obtemos
det( 1 )
x1 =
det(A)
onde A e 1são matrizes 3 3 dadas por
2 3 2 3
a11 a12 a13 b1 a12 a13
A = 4 a21 a22 a23 5 ; 1 = 4 b2 a22 a23 5
a31 a32 a33 b3 a32 a33

e det(A); det( 1 ) são os seus determinantes, de…nidos a partir dos determi-


nantes de matrizes 2 2: Sendo A aquela matriz 3 3 logo acima, de…nimos

det(A) = a11 det(A11 ) a12 det(A12 ) + a13 det(A13 )

onde
a22 a23 a21 a23 a21 a22
A11 = ; A12 = e A13 =
a32 a33 a31 a33 a31 a32
são matrizes 2 2; obtidas da seguinte maneira:

Para obter A11 ; elimine a primeira linha e a primeira coluna de A:


Para obter A12 ; elimine a primeira linha e a segunda coluna de A:
Para obter A13 ; elimine a primeira linha e a terceira coluna de A:

Desenvolvendo os determinantes de A11 ; A12 e A13 obtemos

det(A) = a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a22 a31 ) :

Do mesmo modo se mostra que


det( 2 ) det( 3 )
x2 = x3 =
det(A) det(A)

Notas de aula do Professor Faleiros


2.1 De…nição de determinante 45

onde 2 3 2 3
a11 b1 a13 a11 a12 b1
2 = 4 a21 b2 a23 5 ; 3 = 4 a21 a22 b2 5 :
a31 b3 a33 a31 a32 b3
Se det(A) 6= 0; o sistema possuirá uma única solução para cada b = [b1 ; b2 ;
b3 ]T : Do que …cou demonstrado no capítulo anterior, A é invertível, se e só se
det(A) 6= 0:
Este procedimento se aplica a sistemas com n equações e n incógnitas,
quando surge a idéia de determinantes de matrizes de tamanho n n; que são
de…nidos em termos de matrizes quadradas de tamanho inferior.

2.1 De…nição de determinante


Seja A uma matriz quadrada n n: O determinante de A é um número real
que será de…nido de forma recursiva. Quando A = [a] é uma matriz 1 1;
de…ne-se
det A = a:
Quando
a11 a12
A=
a21 a22
for uma matriz quadrada 2 2; de…nimos

det(A) = a11 a22 a12 a21 :

O determinante de matrizes quadradas de tamanho n n; quando n > 2 é


de…nido de modo recursivo, a partir do determinante de matrizes de tamanho
menor.
Se A = [aij ] for uma matriz quadrada n n; denote por Aij a matriz de
tamanho (n 1) (n 1) obtida quando se elimina a linha i e a coluna j de
A: O cofator (i; j) de A é o número

Cij = ( 1)i+j det(Aij ):

O determinante de A é o número real de…nido por


X
n
det(A) = a11 C11 + a12 C12 + + a1n C1n = a1j C1j :
j=1

Esta fórmula é denominada de desenvolvimento do determinante por


cofatores ao longo da primeira linha ou desenvolvimento de Laplace ao longo
da primeira linha.

Notas de aula do Professor Faleiros


46 Determinantes

Exemplo 2.1 Calcule o determinante da matriz


2 3
1 0 3
A = det 4 2 1 0 5
8 4 1
Desenvolvendo o determinante pela primeira linha, obtemos
1 0 2 0 2 1
A=1 det 0 det +3 det
4 1 8 1 8 4
=1 ( 1) 0+3 0= 1
O determinante também pode ser calculado desenvolvendo o determinante
por cofatores ao longo da linha i
X
n
det(A) = ai1 Ci1 + ai2 Ci2 + + ain Cin = aij Cij :
j=1

e ainda pode ser desenvolvido por cofatores ao longo da coluna j


X
n
det(A) = a1j C1j + a2j C2j + + anj Cnj = aij Cij
i=1

Exemplo 2.2 Os determinantes das matrizes


2 3 2 3
2 1 0 1 4 5
4 3 7 0 5 e 4 2 0 3 5
4 2 0 0 0 0
são iguais a zero pois ambos possuem uma …la nula. Para veri…car esta a…r-
mação basta desenvolver o determinante da primeira pela terceira coluna e a
segunda pela terceira linha.
Nota 2.3 Este é um fato geral. Se a matriz possuir uma linha ou coluna nula,
seu determinate é igual a zero.
Exemplo 2.4 Para uma matriz for triangular inferior,
2 3
a11 0 0
6 a21 a22 0 7
6 7
A=6 a a a 7;
4 31 32 33 5
.. .. .. . .
. . . .
o determinante é o produto dos elementos de sua diagonal
det A = a11 a22 ann :
Em particular, o determinante da matriz identidade é igual a 1:

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 47

Exemplo 2.5 Para calcular o determinante de uma matriz 3 3; pode-se usar


a regra de Sarrus. Aplica-se esta regra do seguinte modo: Acrescente as duas
primeiras colunas à direita da matriz A obtendo
2 3
a11 a12 a13 a11 a12
4 a21 a22 a23 a21 a22 5
a31 a32 a33 a31 a32
Multiplique as entradas ao longo das três diagonais principais, aquelas que vão
da esquerda para a direita e de cima para baixo, que iniciam nas entradas a11 ;
a12 e a13 : Adicione os resultados. Multiplique as entradas ao longo das três
diagonais secundárias, aquelas que vão da direita para a esquerda e de cima
para baixo, que iniciam nas entradas a13; a11 e a12 : Adicione os produtos e o
subtraia da soma anterior para obter
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
(a13 a22 a31 + a11 a23 a32 + a12 a21 a33 ):

Se as matrizes não possuírem características especiais, calcular o determi-


nante de matrizes 4 4 usando apenas a de…nição exige um bom trabalho. Para
simpli…car o cálculo, precisamos de alternativas mais e…cientes que apenas a
de…nição.

2.2 Propriedades do determinante


Teorema 2.6 O determinante de uma matriz quadrada A de tamanho n n;
é igual ao determinante de sua transposta
det (A) = det(AT ):

Prova. O desenvolvimento do determinante de AT pela primeira coluna,


det(AT ) = ( 1)1+1 a11 det AT11 + + ( 1)1+n a1n det AT1n
= ( 1)1+1 a11 det A11 + + ( 1)1+n a1n det A1n
é o determinante de A desenvolvido pela primeira linha.

Nota 2.7 Este teorema garante que todo resultado válido para linha vale para
coluna e vice-versa.

Teorema 2.8 Se B for obtida multiplicando uma linha de A por k; então


det(B) = k det(A):

Notas de aula do Professor Faleiros


48 Determinantes

Teorema 2.9 Se B for obtida permutando duas linhas de A; então

det(B) = det(A):

Prova. Prova-se por indução no tamanho da matriz. A propriedade vale


para matrizes quadradas 2 2: Supondo a propriedade válida para matrizes
quadradas (n 1) (n 1) vamos mostrar que ela vale para uma matriz n n:
Fixemos uma linha i que não foi permutada na passagem de A para B: Sejam,
respectivamente, Aij e Bij as matrizes obtidas de A e B; eliminando em cada
uma a linha i e a coluna j: A matriz Bij pode ser obtida de Aij permutando
as mesmas linhas que levaram A em B: Pela hipótese de indução, det(Bij ) =
det(Aij ): Desenvolvendo o determinante de B em cofatores ao longo da linha
i;

det(B) = ( 1)i+1 ai1 det(Bi1 ) + + ( 1)i+n ain det(Bin )


= ( 1)i+1 ai1 det(Ai1 ) ( 1)i+n ain det(Ain ) = det(A):

Teorema 2.10 Se B for obtida adicionando a uma linha de A um múltiplo


de outra linha de A; então

det(B) = det(A):

Prova. Suponha que B foi obtida de A adicionando à sua linha i um


múltiplo k de sua linha r: Assim, bij = aij + k arj ; com j = 1; 2; : : : ; n: As
outras linhas de B são iguais às linhas de A: Desenvolvendo o determinante de
B pela linha i;
X
n X
n X
n
det(B) = (aij + karj )Cij = aij Cij + k arj Cij = det(A)
j=1 j=1 j=1

pois o somatório na segunda parcela é igual a zero uma vez que corresponde
ao determinante de uma matriz cuja linha i é igual à linha r:

Sejam v; v1 ; : : : ; vm ; matrizes linha ou matrizes coluna de mesmo tamanho.


Quando existirem números reais k1 ; k2 ; : : : ; km tais que

v = k1 v1 + + km vm

diremos que a matriz v é uma combinação linear de v1 ; : : : ; vm ;

Notas de aula do Professor Faleiros


2.2 Propriedades do determinante 49

Teorema 2.11 O determinante de uma matriz quadrada é nulo quando

1. uma linha ou coluna for nula.

2. duas linhas forem iguais.

3. duas linhas forem proporcionais.

4. uma linha for uma combinação linear das demais.

Exemplo 2.12 Determinante das matrizes elementares. Seja E uma


matriz elementar n n: Das propriedades provadas, se conclui que

1. Se E surge ao multiplicar uma linha da matriz identidade por k; então


det(E) = k:

2. Se E surge da permuta de duas linhas da matriz identidade, então det(E) =


1:

3. Se E é o resultado da adição a uma linha da matriz identidade um múlti-


plo de outra linha, então det(E) = 1:

Exemplo 2.13 Produto de uma matriz elementar por uma matriz


quadrada qualquer. Se E for uma matriz elementar e B uma matriz quadrada
qualquer, ambas de mesmo tamanho n n; então

det(EB) = det(E) det(B)

Se E1 ; : : : ; Ek forem matrizes elementares de tamanho n n; então

det(E1 Ek B) = det(E1 ) det(Ek ) det(B)

Matrizes invertíveis e singulares


Lema 2.14 Se A é invertível então det(A) 6= 0:

Prova. Se A for invertível, então podemos escrevê-la como um produto de


matrizes elementares A = E1 Ek : Assim,

det A = det E1 det Ek 6= 0:

Lema 2.15 Se A for singular então det(A) = 0:

Notas de aula do Professor Faleiros


50 Determinantes

Prova. Quando A é singular, sua forma escalonada reduzida R possui ao


menos uma linha nula, de modo que seu determinante é igual a zero. Como
existem matrizes elementares E1 ; : : : ; Ek tais que A = E1 Ek R; obtemos
det(A) = 0:

Dos dois lemas anteriores, podemos enunciar

Teorema 2.16 Uma matriz quadrada A é invertível se e só se det(A) 6= 0:

Determinante do produto

Teorema 2.17 Se A e B forem matrizes quadradas de mesmo tamanho, então


det(AB) = det(A) det(B):

Prova. Se A for singular, AB é singular. Daí, det A = 0 e det(AB) = 0;


o que resulta na igualdade det(AB) = det(A) det(B):
Se A for invertível, existem matrizes elementares E1 ; : : : ; Ek tais que A =
E1 Ek : Daí, det(AB) = det(E1 Ek B) = det E det Ek det B =
det(E1 Ek ) det B = det A det B:

Corolário 2.18 Se A for invertível, então det(A 1 ) = (det A) 1 :

Nota: Em geral, o det(A + B) é diferente do det(A) + det(B):

Teorema 2.19 Sejam c1; : : : ; ci ; : : : ; cn e di matrizes coluna n 1: Vale a


propriedade

det c1 ci + di cn = det c1 ci cn
+ det c1 di cn

Pode-se calcular o determinante de uma matriz realizando operações ele-


mentares em suas linhas e suas colunas até transformá-la numa matriz trian-
gular superior ou inferior.

Exemplo 2.20 Vamos calcular um determinante realizando sua redução por

Notas de aula do Professor Faleiros


2.3 Autovalores e Autovetores 51

linhas, transformando-a numa matriz triangular superior:


2 3 2 3
0 1 5 3 6 9
det 4 3 6 9 5 = det 4 0 1 5 5 =
(L1 $L2 ) (1=3)L1 !L1
2 6 1 2 6 1
2 3 2 3
1 2 3 1 2 3
3 det 4 0 1 5 5 = 3 det 4 0 1 5 5 =
L3 2L1 !L3 L3 10L2 !L3
2 6 1 0 10 5
2 3
1 2 3
4
3 det 0 1 5 5 = 3 ( 55) = 165:
0 0 55
Exemplo 2.21 Vamos calcular o determinante abaixo realizando uma oper-
ação elementar sobre colunas, subtraindo 3 vezes a primeira coluna da terceira,
e desenvolvendo o determinante da matriz resultante em cofatores pela primeira
linha 2 3 2 3
1 0 0 3 1 0 0 0
6 2 7 0 6 7 6 2 7 0 0 7
det 6 7 6
4 0 6 3 0 5 = det 4 0 6 3 0 5 = 546:
7

7 3 1 5 7 3 1 26

Matrizes triangulares superiores (inferiores) por blocos


Se A e B forem matrizes quadradas, então
A X
det = det A det B:
0 B

2.3 Autovalores e Autovetores


Seja A uma matriz quadrada real de ordem n n: Uma matriz coluna não nula
x de ordem n 1 é um autovetor de A se existir um número real tal que
Ax = x: Passando x para o lado esquerdo e colocando o x em evidência,
obtemos (A I)x = 0; que é um sistema linear homogêneo em x: Tal sistema
possui solução não trivial quando a matriz A I for singular, fato que ocorre
quando det(A I) = 0: Os valores de que satisfazem a esta equação são
denominados autovalor de A: Quando for um autovalor, as soluções não
triviais do sistema

(A I)x = 0
são chamadas de autovetores de A correspondentes ao autovalor : Como a
matriz A I é singular, o sistema (A I)x = 0 possui in…nitas soluções.

Notas de aula do Professor Faleiros


52 Determinantes

1 3
Exemplo 2.22 Determine os autovalores e autovetores da matriz A = :
4 2

A equação det(A I) = 0 é polinominal em ; denominada de equação


característica de A: O polinômio det(A I) é denominado polinômio
característico da matriz A: Como os polinômios podem possuir raízes com-
plexas, podemos ampliar a nossa de…nição e admitir autovetores e autovalores
complexos.

2.4 Cofatora, adjunta clássica e inversa


Sendo Cij o cofator do elemento aij da matriz A = [aij ] ; a matriz
0 1
C11 : : : C1n
B .. .. C
cof (A) = @ . . A
Cn1 : : : Cnn
é denominada de matriz de cofatores de A: A transposta da matriz cofatora
de A
0 1
C11 : : : Cn1
B .. C
adj(A) = @ ... . A
C1n : : : Cnn
é chamada de adjunta clássica de A: Sabemos que
X
n
aik Cik = det(A)
k=1

observe que, quando i 6= j;


X
n
ajk Cik = 0
k=1

pois o somatório em questão corresponde ao determinante de uma matriz na


qual as linhas i e j são iguais. Deste modo, para todo i e todo j no conjunto
f1; 2; : : : ; ng
Xn
aik Cjk = det(A) ij
k=1

o que implica na igualdade matricial

A adj(A) = det(A)I

Notas de aula do Professor Faleiros


2.5 Regra de Cramer 53

ou

1 1
A = adj(A)
det(A)

2.5 Regra de Cramer


Seja A uma matriz quadrada de ordem n; com determinante não nulo. Para
cada vetor coluna b com n linhas, o sistema Ax = b tem solução única dada
por x = A 1 b: Como A 1 = adj(A)= det(A); segue
1
x= adj(A)b:
det(A)

Cada linha de x é igual à linha correspondente do lado direito, de onde obtemos


1 1
xj = (b1 C1i + + bn Cni ) = det(Ai )
det(A) det(A)
onde Aj é obtida de A substituíndo a coluna j de A por b; isto é,
0 1
a11 : : : b1 : : : a1n
B .. .. .. C
Aj = @ . . . A:
a1n : : : bn : : : ann
"
Coluna j

Hoje a regra de Cramer tem apenas interesse teórico. O método da elimi-


nação de Gauss é muito mais e…ciente para calcular a solução de um sistema
linear.

Notas de aula do Professor Faleiros


54 Determinantes

Notas de aula do Professor Faleiros


Capítulo 3

Espaço vetorial

Um corpo é uma estrutura matemática formada por um conjunto K; com


pelo menos dois elementos, e duas operações, denominadas adição e multi-
plicação, descritas a seguir. Os elementos do conjunto K são denominados
escalares. A adição é uma operação que leva dois escalares e de K e os
leva num escalar de K que é denotado por + e denominado soma de
e : A multiplicação é uma operação que leva dois escalares e de K e os
leva num escalar de K que é denotado por ou ; denominado produto
de e : O fato de + e pertencerem a K nos faz dizer que as duas
operações possuem a propriedade do fechamento.
Para K com as operações de adição e multiplicação formarem um corpo é
preciso que as propriedades abaixo sejam satisfeitas:

1. Comutatividade. Dados dois escalares e ;


+ = +
=

2. Associatividade. Dados três escalares ; e ;


+( + )=( + )+
( )=( )

3. Elemento neutro. Existem dois escalares 0 e 1 tais que, para todo


escalar ;
+0=0+ =
1=1 =
O 0 (zero) é o elemento neutro da adição e o 1 (um) é o elemento neutro
da multiplicação.

Notas de aula do Professor Faleiros


56 Espaço vetorial

4. Elemento simétrico.

(a) Para cada escalar existe um outro escalar denotado por e


chamado de simétrico aditivo ou oposto de para o qual

+( )=( )+ = 0:

(b) Para cada escalar diferente do zero existe um outro escalar deno-
tado por 1 e chamado de simétrico multiplicativo ou inverso
de para o qual
( 1 ) = ( 1 ) = 1:

Exemplo 3.1 O conjunto dos números racionais Q com as operações usuais


de adição e multiplicação de números racionais é um corpo. Também são
corpos os conjuntos dos números reais R e o dos complexos C:

Exemplo 3.2 Existem corpos com um número …nito de elementos. Sendo


p um número primo, o conjunto Zp = f0; 1; : : : ; p 1g com as operações
de adição e multiplicação módulo p é um corpo …nito. Lembramos que as
operações de adição e muliplicação módulo p; denotadas por ( + ) mod p
e ( ) mod p são de…nidas realizando as operações usuais de com nos
inteiros e tomando o resto da divisão inteira do resultado por p: Estes corpos
são muito utilizados em Criptogra…a.

Um espaço vetorial é uma estrutura matemática formada por um con-


junto não vazio V; cujos elementos são denominados de vetores, um corpo K;
cujos elementos são denominados escalares, e duas operações, sendo a primeira
denominada de adição de vetores e a segunda recebe o nome de multiplicação
de um vetor por um escalar, descritas em seguida. Por simplicidade, frequente-
mente se diz apenas que V é um espaço vetorial. Todavia não se deve esquecer
que o espaço vetorial é um estrutura formada por V; K e pelas duas operações.
Para enfatizar o papel do corpo na estrutura do espaço vetorial também é
usual dizer que V é um espaço vetorial sobre o corpo K:
A adição de vetores é uma operação que leva um par v e w de vetores
de V num vetor de V denotado por v + w e chamado de soma de v e w: A
multiplicação de um escalar por um vetor é uma operação que leva um
escalar de K e um vetor v de V num outro vetor de V denotado por v e
denominado de múltiplo de v: O conjunto V é um espaço vetorial sobre K
Estas operações devem ainda possuir as propriedades abaixo:

Notas de aula do Professor Faleiros


57

Propriedades da adição:
1. Comutatividade da adição. Para todo vetor u e v em V;

u + v = v + u:

2. Associatividade da adição. Para todo vetor u; v e w em V;

(u + v) + w = u + (v + w):

3. Vetor nulo. Existe um vetor em V chamado de vetor zero ou vetor


nulo, denotado por 0; para o qual

v + 0 = 0 + v = v:

4. Elemento oposto. Para cada vetor v em V; existe um vetor denotado


por v em V e chamado de vetor oposto de v; para o qual

v + ( v) = ( v) + v = 0:

Propriedades da multiplicação por escalar:


5. Associatividade da multiplicação. Para todo escalar e em K e
todo vetor v em V;
( v) = ( )v:

6. Distributividade da multiplicação em relação à adição de ve-


tores. Para todo escalar em K e todo vetor v e w em V;

(v + w) = v + w:

1. Distributividade da adição de escalares em relação à multipli-


cação.
( + )v = v + v:

7. Elemento unidade. Se 1 for o elemento neutro da multiplicação em


K; para todo vetor v em V;

1v = v:

De…nimos a subtração do vetor v pelo vetor w como sendo a operação


que resulta no vetor v w de…nido por

v w = v + ( w):

Notas de aula do Professor Faleiros


58 Espaço vetorial

Quando for conveniente, sendo um escalar e v um vetor, escreveremos v


como sinônimo de v e
v

será um sinônimo de 1 v:
Se K for o corpo dos números reais, se diz que o espaço vetorial é real. Se K
for o corpo dos números complexos, se diz que o espaço vetorial é complexo.

Nota 3.3 Ao de…nirmos as operações de adição de vetores e multiplicação


um vetor por um escalar, estabelecemos que a soma u + v e o produto v per-
tencem ambos a V: Muitos autores incluem este fato entre as propriedades das
operações dizendo que o espaço vetorial V é fechado na adição e fechado
na multiplicação por escalar.

3.1 Propriedades adicionais


1. 0u = 0:

2. r 0 = 0:

3. ( 1)v = v:

4. Se r v = 0 então r = 0 ou v = 0:

Prova. 1. 0u = (0 + 0)u = 0u+0u o que implica em 0u = 0:


2. r0 = r(0 + 0) = r0+r0 o que implica em r0 = 0:
3. (v + ( 1v)) = (1 + ( 1))v = 0v = 0: Logo, 1v = v:
4. Se r 6= 0; então v = 1v = (r 1 r)v = r 1 (r v) = r 1 0 = 0:

3.2 O espaço vetorial das ênuplas ordenadas


Seja n um número inteiro positivo. Uma sequência (x1 ; : : : ; xn ) de números
reais, delimitada por parêntesis, é chamada de n-upla (leia-se ênupla) or-
denada de números reais. Os números reais xi ; onde i = 1; 2; : : : ; xn são
chamados de elementos da ênupla. Quando n = 2 ou 3; usamos o termo par
ordenado e terno ordenado.
Duas ênuplas (x1 ; : : : ; xn ) e (y1 ; : : : ; yn ) são iguais se x1 = y1 ; x2 = y2 ;
: : : ; xn = yn : O conjunto de todas as ênuplas ordenadas com esta de…nição de
igualdade é denotado por Rn :

Notas de aula do Professor Faleiros


3.3 Outros espaços vetoriais relevantes 59

De…nimos as operações de adição de duas ênuplas x = (x1 ; : : : ; xn ) e y =


(y1 ; : : : ; yn ) por
x + y = (x1 + y1 ; : : : ; xn + yn )
e a de multiplicação de um número real k por uma ênupla ordenada x = (x1 ;
: : : ; xn ) por
k x = (k x1 ; : : : ; k xn ):
A ênupla x + y é chamada de soma de x e y; a ênupla k x é o múltiplo
escalar de x: O Rn com estas duas operações é um espaço vetorial real, cujo
vetor nulo ou vetor zero é a n-upla

0 = (0; : : : ; 0)

onde todos os elementos são nulos. O inverso aditivo ou oposto de x = (x1 ;


: : : ; xn ) é
x = ( x1 ; : : : ; xn )
e a subtração no Rn é a operação

(x1 ; : : : ; xn ) (y1 ; : : : ; yn ) = (x1 y1 ; : : : ; x n yn )

O Rn é o espaço vetorial mais importante para as aplicações. Mais tarde es-


tudaremos os conceitos de dimensão e isomor…smo. Nesta ocasião, provaremos
que todo espaço vetorial real de dimensão n é isomorfo ao Rn : Isto signi…ca que
toda propriedade ou operação realizada no Rn se transfere para o outro espaço
e vice-versa e, desta forma, os dois espaços são equivalentes para os objetivos
da Álgebra Linear. Assim, se estudarmos apenas o Rn ; teremos estudado todos
os espaços de dimensão …nita.

3.3 Outros espaços vetoriais relevantes


Exemplo 3.4 Sejam m e n números inteiros positivos. O conjunto das ma-
trizes reais m n com as operações de adição de matrizes e multiplicação de
matriz por um número real é um espaço vetorial real.

Exemplo 3.5 O conjunto das funções reais contínuas com domínio num in-
tervalo aberto (a; b) e imagem em R; com as operações de adição de funções
e multiplicação de uma função por um número real é um espaço vetorial real.

Exemplo 3.6 O conjunto V = f0g que contém um único elemento, onde se


de…ne a adição por 0 + 0 = 0 e a multiplicação por um escalar por 0 = 0;
é um espaço vetorial denominado de espaço vetorial nulo.

Notas de aula do Professor Faleiros


60 Espaço vetorial

Observe que nem toda operação de adição e multiplicação por escalar em


um conjunto resulta em um espaço vetorial. Considere V = R2 onde de…nimos
a adição como é usual por

(x1 ; x2 ) + (y1 ; y2 ) = (x1 + y1 ; x2 + y2 )

e a multiplicação de um par (x1 ; x2 ) por um número real r de um modo um


pouco diferente que o usual

r (x1 ; x2 ) = (r x1 ; 0):

Observe que 1(1; 2) = (1; 0) que é diferente de (1; 2); não satisfazendo a última
propriedade da multiplicação por escalar. Logo, R2 com as operações acima
não forma um espaço vetorial real.

3.4 Subespaços vetoriais


Seja V um espaço vetorial e S um subconjunto não vazio de V: O subconjunto S
é fechado na adição se, dados dois vetores u e v em S; a soma u+v pertence
a S: O subconjunto S de V é fechado na multiplicação por escalar se dado
um vetor v em S e um escalar c real, o vetor c v pertence a S: Se S for um
subconjunto não vazio de V; fechado na adição e na multiplicação por escalar,
será denominado subespaço vetorial de V:
Todo subespaço vetorial contém o vetor nulo. De fato, se v for um vetor de
um subespaço vetorial S; multiplicando-o pelo escalar 0; obtém-se que o vetor
zero 0 = 0 v pertence a S; que é fechado na multiplicação por escalar.
Se V é um espaço vetorial, então o V e o conjunto f0g; contendo apenas o
vetor nulo, são subespaços vetoriais de V:
Seja S for um subespaço vetorial de V:

Teorema 3.7 Seja S um subespaço vetorial de V: Então S; juntamente com


as operações de adição de vetores e multiplicação por escalares herdadas do
espaço vetorial V; também é um espaço vetorial.

Exemplo 3.8 São subespaços do R2 ; o f(0; 0)g; retas passando pela origem e
o próprio R2 :

Exemplo 3.9 São subespaços do R3 ; o f(0; 0; 0)g; retas passando pela origem,
planos passando pela origem e o próprio R3 :

Exemplo 3.10 Planos do R3 passando pela origem, cuja equação geral é da


forma ax1 + bx2 + cx3 = 0; onde a; b e c são reais …xos e (x1 ; x2 ; x3 ) é um
ponto qualquer do plano.

Notas de aula do Professor Faleiros


3.4 Subespaços vetoriais 61

Exemplo 3.11 V = polinômios, S = polinômios de grau n:

Exemplo 3.12 São subespaços das matrizes quadradas Mn n o conjunto das


matrizes simétricas, o conjunto das matrizes diagonais, o conjunto das ma-
trizes triangulares superiores e o conjunto das matrizes triangulares inferiores.

Exemplo 3.13 Do espaço vetorial das funções reais com domínio em R; são
subespaços aqueles subconjuntos dos polinômios reais, das funções contínuas,
das funções com derivada contínuas, das funções com derivadas contínuas até
a ordem m; das funções reais com derivadas contínuas de todas as ordens.

Exemplo 3.14 Seja A uma matriz real m n: O conjunto solução do sistema


linear homogêneo Ax = 0 é um subespaço vetorial das matrizes reais n 1:
Quando 2 3
1 2 3
A=4 2 4 6 5
3 6 9
este subespaço é o subconjunto formado pelo plano de M3 1 cujos pontos [x1 ;
x2 ; x3 ]T satisfazem à equação x1 2x2 + 3x3 = 0: Quando
2 3
1 2 3
A=4 3 7 8 5
2 4 6

o espaço solução é a reta x1 = 5t; x2 = t; x3 = t; com t percorrendo os


reais. Quando 2 3
1 2 3
A=4 3 7 8 5
4 1 2
o espaço solução é o espaço trivial que contém apenas a origem x1 = 0; x2 =
0; x3 = 0: Quando 2 3
0 0 0
A= 0 4 0 0 5
0 0 0
o espaço solução é todo o M3 1 :

Exemplo 3.15 (Um contra-exemplo) O conjunto S de todos os pares ordena-


dos de números reais (x1 ; x2 ) com x1 0 não é um subespaço vetorial do R2
por não ser fechado na multiplicação por escalar, uma vez que 1(x1 ; x2 ) =
( x1 ; x2 ) não pertence a S quando x1 > 0; uma vez que x1 < 0:

Notas de aula do Professor Faleiros


62 Espaço vetorial

3.5 Espaço gerado


Se v1 ; v2 ; : : : ; vn forem vetores de um espaço vetorial V e s1 ; s2 ; : : : ; sn forem
escalares, então o vetor w = s1 v1 + +sn vn de V é uma combinação linear
dos vetores v1 ; : : : ; vn : Se v for um vetor de V e s for um escalar, o vetor w =
s v é chamado de múltiplo escalar de v:

Exemplo 3.16 Sejam e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1) vetores do R3 :


Dado um vetor x = (x1 ; x2 ; x3 ) do R3 ; podemos escrever x = x1 e1 +x2 e2 +x3 e3 :

Exemplo 3.17 Em R3 ; w = (9; 2; 7) é uma combinação linear de u = (1; 2; 1)


e v = (6; 4; 2) pois w = 3u+ 2v: Todavia, não é possível escrever z = (4;
1; 8) como combinação linear de u e v:

Seja G = fv1 ; : : : ; vk g um conjunto …nito e não vazio de vetores perten-


centes a um espaço vetorial V não nulo. O conjunto

S = f s1 v1 + + sn vn : s1 ; : : : ; sn 2 R g

formado por todas as combinações lineares dos vetores v1 ; : : : ; vk é um sube-


spaço vetorial de V; chamado espaço vetorial gerado por G ou espaço veto-
rial gerado por v1 ; : : : ; vk : Também se diz que os vetores v1 ; : : : ; vk geram
S e escreve-se

S = ger(G) ou S = ger(v1; : : : ; vk ):

Exemplo 3.18 O espaço gerado por um vetor não nulo v é uma reta que passa
pelo zero. Um ponto w qualquer desta reta satisfaz à equação vetorial w = tv;
com t percorrendo os reais.

Exemplo 3.19 O conjunto f e1 ; e2 ; e3 g; onde e1 = (1; 0; 0); e2 = (0; 1; 0);


e3 = (0; 0; 1); gera o R3 :

Exemplo 3.20 O conjunto fv1 ; v2 ; v3 g onde v1 = (1; 1; 2); v2 = (1; 0; 1);


v3 = (2; 1; 3) não gera o R3 :

Exemplo 3.21 O conjunto f1; x; x2 ; : : : ; xn g gera Pn :

Notas de aula do Professor Faleiros


3.6 Dependência linear 63

Propriedades dos espaços gerados


1. Seja G = fv1 ; : : : ; vn g um conjunto …nito e não vazio de vetores. O
espaço gerado por G não se altera quando:

(a) Se permuta a posição de seus vetores.


(b) Se multiplica um de seus vetores por um escalar não nulo.
(c) Se adiciona a um vetor de G um múltiplo de outro vetor de G:
(d) Se inclui em G um vetor igual a uma combinação linear dos vetores
de G:
(e) Se retira de G um vetor igual a uma combinação linear dos demais
vetores de G:

2. Dois conjuntos …nitos e não vazios de vetores G1 e G2 geram o mesmo


espaço vetorial se, e só se, os vetores de G1 forem combinações lineares
dos vetores de G2 e os vetores de G2 forem combinações lineares dos
vetores de G1 :

3.6 Dependência linear


Seja G = fv1 ; :::; vn g um conjunto …nito e não vazio de vetores de um espaço
vetorial V não nulo. Se existirem escalares c1 ; c2 ; : : : ; cn nem todos nulos tais
que
c1 v1 + + cn vn = 0;
então o conjunto G é chamado linearmente dependente. Se c1 = 0; c2 = 0;
: : : ; cn = 0 forem os únicos escalares para os quais

c1 v1 + + cn vn = 0;

o conjunto G é chamado de linearmente independente.


Dados os vetores v1 ; v2 ; : : : ; vn de um espaço vetorial V; podemos olhar
para
c1 v1 + + cn vn = 0;
como uma equação vetorial cujas incógnitas são os escalares c1 ; c2 ; : : : ; cn : Esta
equação sempre é satisfeita quando fazemos c1 = c2 = = cn = 0; chamada
de solução trivial da equação. Se a equação vetorial anterior possuir apenas
a solução trivial, o conjunto G = fv1 ; :::; vn g é linearmente independente e,
quando possuir soluções não triviais, o conjunto G é linearmente dependente.

Notas de aula do Professor Faleiros


64 Espaço vetorial

Exemplo 3.22 O conjunto de vetores


v1 = (2; 1; 0); v2 = (1; 2; 5); v3 = (7; 1; 5)
do R3 é linearmente dependente pois 3v1 +v2 v3 = 0: Desta equação, podemos
explicitar v3 para obter este vetor como uma combinação linear de v1 e v2 ;
obtendo v3 = 3v1 + v2 : Também é possível escrever v1 ou v2 como uma com-
binação linear dos outros dois.
Exemplo 3.23 Os polinômios
p1 = 1 x; p2 = 5 + 3x 2x2 ; p3 = 1 + 3x x2
formam um conjunto linearmente dependente em P3 pois 3p1 p2 + 2p3 = 0:
Exemplo 3.24 Os vetores
e1 = (1; 0; 0); e2 = (0; 1; 0); e3 = (0; 0; 1)
do R3 formam um conjunto linearmente independente.
Exemplo 3.25 Veri…que se o conjunto formado pelos vetores
v1 = (1; 2; 3); v2 = (5; 6; 1); v3 = (3; 2; 1)
é linearmente dependente. De fato, a equação vetorial
c1 (1; 2; 3) + c2 (5; 6; 1) + c3 (3; 2; 1) = (0; 0; 0)
corresponde ao sistema linear
2 32 3 2 3
1 5 3 c1 0
4 2 6 2 5 4 c2 5 = 4 0 5
3 1 1 c3 0
cuja solução é c2 = c1 e c3 = 2c1 : Fazendo c1 = 1; obtemos v1 + v2 2v3 =
0; mostrando que o conjunto de vetores formado por v1 ; v2 e v3 é linearmente
dependente.
Exemplo 3.26 O conjunto f1; x; : : : ; xn g é linearmente independente em
Pn (R): Basta escrever a equação
c1 1 + c2 x + + cn xn = 0
nos escalares c1 ; c2 ; : : : ; cn e observar que, se houver uma solução diferente da
trivial para esta equação, teríamos no lado esquerdo um polinômio não nulo
de grau n ou inferior com in…nitas raízes. Em particular, todo número inteiro
seria uma raiz deste polinômio. Ora, um polinômio não nulo de grau n ou
inferior pode ter, no máximo, n raízes. Logo, c1 = c2 = = cn = 0:

Notas de aula do Professor Faleiros


3.6 Dependência linear 65

Exemplo 3.27 O conjunto formado pelas funções f1 = x e f2 = sen x é lin-


earmente independente no espaço vetorial das funções reais com domínio em
R: De fato, se c1 e c2 forem dois escalares tais que c1 x+ c2 sen x = 0 para todo
x real, derivando a igualdade em x obteríamos o sistema em c1 e c2

c1 x + c2 sen x = 0
c1 + c2 cos x = 0

que, para x = =2 possui apenas a solução trivial, uma vez que

=2 sen =2 =2 1
det = det = 1 6= 0:
1 cos =2 1 0

O teorema que segue mostra a origem do termo dependência linear. Ele


sugere que, quando um conjunto de vetores é linearmente dependente, há uma
dependência linear entre seus vetores. Com isto queremos dizer que um dos
vetores é uma combinação linear dos demais.

Teorema 3.28 Um conjunto …nito de vetores é linearmente dependente se, e


só se, um dos seus vetores for uma combinação linear dos demais.

Prova. Seja G = fv1 ; : : : ; vn g um conjunto linearmente dependente. En-


tão existem escalares k1 ; : : : ; kn ; nem todos nulos, tais que

k1 v1 + + kn vn = 0

Supondo que k1 6= 0; então


k2 kn
v1 = v2 + + vn
k1 k1
mostrando que v1 é combinação linear de v2 ; : : : ; vn : Se ki for diferente de
zero, para algum i; é possível explicitar vi e obtê-lo como combinação linear
dos demais.
Reciprocamente, se v1 = 2 v2 + + n vn ; então 1:v1 2 v2
n vn = 0 e o conjunto G é linearmente dependente. Observe que pelo menos
o coe…ciente de v1 é diferente de zero.

Retas e planos
Seja v um vetor não nulo de um espaço vetorial V: O conjunto de vetores w
para os quais w = t v para algum t real é chamado de reta gerada por v e
w = t v; com t em R; é chamada de equação vetorial da reta gerada por v:

Notas de aula do Professor Faleiros


66 Espaço vetorial

Sejam v1 e v2 vetores de um espaço vetorial V onde um não é múltiplo


escalar do outro. O conjunto gerado por G = fv1 ; v2 g é chamado de plano
gerado por v1 e v2 : Se w for um ponto deste plano, existem escalares r e s
tais que w = r v1 + s v2 : Esta é a chamada equação vetorial do plano gerado
por v1 ; v2 :
Um conjunto com dois vetores fv1 ; v2 g de um espaço vetorial V é linear-
mente dependente se, e somente se, estiverem na mesma reta que passa pela
origem.
Um conjunto com três vetores fv1 ; v2 ; v3 g é linearmente dependente se, e
somente se, todos estiverem numa reta que passa pela origem ou num plano
que passa pela origem.

Propriedades da dependência linear


1. Todo conjunto …nito de vetores que contém o vetor nulo é linearmente
dependente.

2. Todo conjunto com um único vetor não nulo é linearmente independente.

3. Todo conjunto com dois vetores é linearmente dependende se, e só se,


um for múltiplo do outro.

4. Se incluirmos vetores em um conjunto linearmente dependente, ele con-


tinua linearmente dependente.

5. Se retirarmos vetores de um conjunto linearmente independente, ele con-


tinua linearmente independente.

6. Se incluirmos um vetor w a um conjunto linearmente independente G e


ele se tornar linearmente dependente, então w é uma combinação linear
dos elementos de G:

7. Seja G conjunto linearmente independente. Se o vetor w não for uma


combinação linear dos vetores G; o conjunto obtido acrescentando w a
G continua linearmente independente.

3.7 Dependência linear de funções


Consideremos o espaço vetorial F (a; b) das funções com domínio no intervalo
(a; b) de números reais e com imagem em R: O conceito de dependência linear
de vetores se aplica aos elementos deste conjunto. Sendo f1 ; f2 ; : : : ; fn funções

Notas de aula do Professor Faleiros


3.7 Dependência linear de funções 67

de F (a; b); o conjunto G = ff1 ; f2 ; : : : ; fn g é linearmente dependente se


existirem escalares c1 ; c2 ; : : : ; cn nem todos nulos tais que

c1 f1 + + cn fn = 0:

Observe que esta é uma igualdade entre funções e o 0 (zero) do lado direito é
a função identicamente nula o que implica em

c1 f1 (x) + + cn fn (x) = 0

para todo x no intervalo (a; b): Agora o zero da equação anterior não é mais
a função nula e sim o número real zero. Como se trata de funções de…nidas
num intervalo (a; b); diremos que o conjunto é linearmente dependente em (a;
b): Quando o conjunto não for linearmente dependente em (a; b); diremos que
o conjunto de funções é linearmente independente em (a; b): Isto signi…ca
que a única sequência c1 ; c2 ; : : : ; cn de escalares para os quais

c1 f1 (x) + + cn fn (x) = 0

para todo x no intervalo (a; b); é c1 = 0; c2 = 0; : : : ; cn = 0:

Exemplo 3.29 O conjunto formado pelas funções f1 (x) = sin2 x; f2 (x) =


cos2 x; f3 (x) = 5 de…nidas no conjunto dos números reais é linearmente de-
pendente em R pois 5f1 (x) + 5f2 (x) f3 (x) = 0 para todo x real.

Wronskiano
Consideremos o espaço vetorial das funções com derivadas contínuas até a
ordem n 1 no intervalo (a; b) que é denotado por C n 1 (a; b): Sendo G = ff1 ;
: : : ; fn g um conjunto linearmente dependente neste espaço de funções, existe
uma sequência não nula de escalares c1 ; : : : ; cn ; para a qual

c1 f1 (x) + + cn fn (x) = 0

para todo x em (a; b): Como as funções possuem derivadas contínuas até a
ordem n 1; podemos derivar sucessivamente a igualdade acima obtendo o
sistema linear

c1 f1 (x) + + cn fn (x) = 0
0 0
c1 f1 (x) + + cn fn (x) = 0

(n 1)
c1 f1 (x) + + cn fn(n) (x) = 0

Notas de aula do Professor Faleiros


68 Espaço vetorial

Como este sistema linear em c1 ; c2 ; : : : ; cn possui solução não trivial, segue


que 2 3
f1 (x) fn (x)
6 .. .. .. 7
W [f1 ; : : : ; fn ](x) = det 4 . . . 5=0
(n 1) (n 1)
f1 (x) fn (x)
para todo x real. Este determinante é chamado de wronskiano das funções
f1 ; f2 ; : : : ; fn e, quando se deseja simpli…car a notação, ele é denotado apenas
por W (x):
Assim, quando G = ff1 ; : : : ; fn g for linearmente dependente em (a; b);
então W (x) = 0 para todo x em (a; b): A recíproca desta propriedade não é
verdadeira como nos mostra o exemplo a seguir.

Exemplo 3.30 O conjunto de funções G = fx2 ; x j x jg é linearmente inde-


pendente em ( 2; 2) e W (x) = 0 para todo x em ( 2; 2): Para provar que
este conjunto é linearmente independente no intervalo considerado, sejam c1 e
c2 escalares tais que c1 x2 + c2 x j x j = 0 para todo x em ( 2; 2): Fazendo x =
1 e x = 1 obtemos

c1 c2 = 0
c1 + c2 = 0

cuja única solução é a trivial c1 = 0 e c2 = 0:

Se W (x0 ) 6= 0 para algum x0 em (a; b) e c1 ; : : : ; cn forem números reais


tais que c1 f1 (x) + + cn fn (x) = 0 para todo x em (a; b); podemos derivar
sucessivamente a igualdade anterior, veri…cando que c1 ; c2 ; : : : ; cn é solução
do sistema linear

c1 f1 (x0 ) + + cn fn (x0 ) = 0
0 0
c1 f1 (x0 ) + + cn fn (x0 ) = 0

(n 1)
c1 f1 (x0 ) + + cn fn(n) (x0 ) = 0

cuja única solução é a trivial, c1 = c2 = = cn = 0: Isto prova que o conjunto


formado pelas funções f1 ; : : : ; fn é linearmente independente em C (n 1) (a; b):
Provamos o seguinte teorema:

Teorema 3.31 Seja G = ff1 ; : : : ; fn g um conjunto de funções em C (n 1) (a;


b): Se G for linearmente dependente, W (x) = 0 para todo x real. Se W (x0 ) 6=
0 em algum ponto x de (a; b); então G é linearmente independente em (a; b):

Notas de aula do Professor Faleiros


3.8 Base e dimensão de um espaço vetorial 69

Quando W [f1 ; : : : ; fn ](x) = 0 em (a; b); nada se pode a…rmar sobre a


dependência ou independência linear do conjunto G = ff1 ; : : : ; fn g em (a; b);
sem hipóteses adicionais. Quando as funções envolvidas forem soluções de uma
equação diferencial linear, temos o seguinte resultado:

Teorema 3.32 Sejam a0 (x); : : : ; an 1 (x) e b(x) funções contínuas em (a; b)


e y = f1 (x); : : : ; y = fn (x) soluções da equação diferencial ordinária

y (n) + an 1 (x)y (n 1)
+ + a1 (x)y 0 (x) + a0 (x)y = b(x)

em (a; b): O conjunto de funções

f f1 ; : : : ; fn g

é linearmente independente em (a; b) se, e só se, o wronskiano


2 3
f1 (x) fn (x)
6 .. ... .. 7
W (x) = det 4 . . 5
(n 1) (n 1)
f1 (x) fn (x)

for diferente de zero para algum x0 em (a; b): Além disso, se o wronskiano for
diferente de zero em um ponto de (a; b); então será diferente de zero em todos
os pontos deste intervalo.

O teorema acima nos permite a…rmar que, quando y = f1 (x); : : : ; y =


fn (x) forem soluções de uma equação diferencial ordinária com coe…cientes
contínuos em (a; b) e W (x) = 0 em um ponto de (a; b); então o conjunto G =
ff1; : : : ; fn g é linearmente dependente em (a; b):

Exemplo 3.33 O conjunto f x; sen x g é linearmente independente em C 1


( 1; 1):

Exemplo 3.34 O conjunto f 1; ex ; e2x g é linearmente independente em


C 2 ( 1; 1):

3.8 Base e dimensão de um espaço vetorial


No R2 podemos escrever

(x1 ; x2 ) = x1 e1 + x2 e2
onde e1 = (1; 0); e2 = (0; 1)

Notas de aula do Professor Faleiros


70 Espaço vetorial

(x1 ; x2 ) = (x2 x1 )d1 + (2x1 x2 )d2


onde d1 = (1; 2) e d2 = (1; 1): Observe que, sendo v1 = (1; 0); v2 = (0; 1);
v3 = (1; 1);

(x1 ; x2 ) = (x1 t)v1 + (x2 t)v2 + tv3


para qualquer número real t: Destes exemplos notamos que podemos es-
crever todo vetor do R2 como combinação linear dos elementos de G e que
esta decomposição é única, tanto quando G = fe1 ; e2 g como quando G = fd1 ;
d2 g: Ainda podemos escrever todo vetor do R2 como combinação linear de
elementos de G = fv1 ; v2 ; v3 g mas esta decomposição não é única. Esta falta
de unicidade decorre da dependência linear do conjunto fv1 ; v2 ; v3 g:

De…nição 3.35 Seja B um conjunto …nito e não vazio de vetores de um es-


paço vetorial V não nulo. B é uma base de V se
1. for um conjunto gerador de V ;
2. for linearmente independente.

Exemplo 3.36 Sejam v1 = (1; 2; 1); v2 = (2; 9; 0) e v3 = (3; 3; 4) vetores do


R3 : O conjunto de vetores B = fv1 ; v2 ; v3 g é uma base do R3 : De fato, se
c1 v1 + c2 v2 + c3 v3 = 0; então c1 ; c2 ; c3 é uma solução do sistema linear

c1 + 2c2 + 3c3 = 0
2c1 + 9c2 + 3c3 = 0
c1 + 0c2 + 4c3 = 0

que possui apenas a solução trivial c1 = c2 = c3 = 0; uma vez que o determi-


nante da matriz 2 3
1 2 3
A= 2 94 3 5= 1
1 0 4
é diferente de zero. Além disto, sendo x = (x1 ; x2 ; x3 ) um vetor qualquer
do R3 ; podemos escrevê-lo como uma combinação linear x = 1 v1 + 2 v2 +
3 v3 ; onde 1 ; 2 ; 3 é a única solução do sistema

+2
1 2+3 3 = x1 ;
2 1+9 2+3 3 = x2 ;
1+0 2+4 3 = x3 :

Quando x = ( 1; 3; 2); por exemplo, obtemos 1 = 102; 2 = 14; 3 =


25:

Notas de aula do Professor Faleiros


3.8 Base e dimensão de um espaço vetorial 71

Exemplo 3.37 A solução geral do sistema homogêneo


2 3
2 3 x1 2 3
2 2 1 0 1 6 x2 7 0
6 1 1 2 3 1 7 6 7 6 0 7
6 7 6 x3 7 = 6 7
4 1 1 2 0 1 56 7 4
4 x4 5 0 5
0 0 1 1 1 0
x5
é x1 = r; x2 = s; x3 = r + s; x4 = 0; x5 = r s onde os parâmetros r e s
podem assumir quaisquer valor real. Logo, a solução geral do sistema linear é
T
o subespaço vetorial de M5 1 gerado pelos vetores coluna 1 0 1 0 1
T
e 0 1 1 0 1 :

Teorema 3.38 Se o espaço vetorial V possuir um conjunto gerador …nito,


então V possui base.

Prova. De fato, dado G …nito que gera V; se G for linearmente indepen-


dente, a a…rmação é verdadeira.
Sendo G linearmente dependente, um de seus vetores é uma combinação
linear dos demais. Retirando-o de G obtemos um conjunto G1 que ainda gera
V:
Se G1 for linearmente independente, a a…rmação está provada. Em caso
contrário, repete-se o procedimento anterior até chegar a um conjunto linear-
mente independente que gera V e que, portanto, será uma base de V:

Teorema 3.39 Unicidade da representação em uma base. Se B = fv1 ;


v2 ; : : : ; vn g é uma base de um espaço vetorial V; então, para cada vetor w em
V; existe uma única ênupla (a1 ; a2 ; : : : ; an ) para a qual

w = a1 v1 + a2 v2 + + an vn :

Prova. A existência é imediata pois B é base de V: Quanto à uniciade, se


existirem duas ênuplas (a1 ; a2 ; : : : ; an ) e (b1 ; b2 ; : : : ; bn ) para as quais

w = a1 v1 + a2 v2 + + an vn ;
w = b1 v1 + b2 v2 + + bn vn ;

então

(a1 b1 )v1 + (a2 b2 )v2 + + (an bn )vn = w w = 0:

Da independência linear de B; segue ai = bi para i = 1; 2; : : : ; n o que prova


a unicidade da decomposição de w numa combinação linear dos elementos da

Notas de aula do Professor Faleiros


72 Espaço vetorial

base.

Os escalares a1 ; : : : ; an para os quais w = a1 v1 + a2 v2 + + an vn são


chamados de coordenadas de w em relação à base B = fv1 ; v2 ; : : : ; vn g:
A ênupla (a1 ; : : : ; an ) do Rn é chamada de vetor de coordenadas de w
T
em relação a B e é denotado por (w)B : O vetor coluna a1 an é
chamado de matriz de coordenadas de w em relação a B:
O vetor de coordenadas depende da ordem na qual escrevemos os vetores
da base. Uma mudança na ordem dos vetores da base resulta numa mudança
correspondente da ordem das entradas nos vetores de coordenadas.

Bases canônicas
Existem bases que, pela sua simplicidade e aplicabilidade, recebem o nome de
bases canônicas.
O conjunto fe1 ; e2 g; onde e1 = (1; 0) e e2 = (0; 1) é a base canônica do R2
e todo vetor x = (x1 ; x2 ) pode ser decomposto na combinação linear x = x1 e1
+ x2 e2 :
O conjunto fe1 ; e2 ; e3 g; onde e1 = (1; 0; 0); e2 = (0; 1; 0) e e3 = (0; 0; 1) é
a base canônica do R3 e todo vetor x = (x1 ; x2 ; x3 ) pode ser decomposto na
combinação linear x = x1 e1 + x2 e2 + x3 e3 :
Nota: No R2 e no R3 os vetores da base canônica costumam ser denotados
por i; j e k em vez de e1 ; e2 ; e3 : Nós utilizaremos as duas notações, de acordo
com a conveniência.
O conjunto fe1 ; : : : ; en g; onde e1 = (1; 0; : : : ; 0); e2 = (0; 1; : : : ; 0); : : : ;
en = (0; 0; : : : ; 1) é a base canônica do Rn e todo vetor x = (x1 ; : : : ; xn ) pode
ser decomposto na combinação linear
x = x 1 e1 + + xn en :
O conjunto de polinômios f1; x; x2 ; : : : ; xn g é a base canônica do espaço
vetorial formado pelos polinômios de grau menor ou igual a n e estes polinômios
são da forma a0 + a1 t + + an tn ; onde a1 ; a2 ; : : : ; an são escalares.
O conjunto formado pelas matrizes
1 0 0 1 0 0 0 0
A1 = ; A2 = ; A3 = ; A4 =
0 0 0 0 1 0 0 1
é a base canônica do espaço vetorial M2 2 ; das matrizes quadradas de ordem
2 2 e toda matriz
a b
A=
c d
uma combinação linear dos elementos da base canônica A = aA1 + bA2 + cA3
+ dA4 :

Notas de aula do Professor Faleiros


3.8 Base e dimensão de um espaço vetorial 73

Propriedades das bases


Seja V um espaço vetorial não nulo que possui uma base com m elementos.
Então

1. Qualquer subconjunto de V com mais do que m vetores é linearmente


dependente.
2. Qualquer subconjunto de V com menos do que m vetores não gera V .
3. Todas as bases de V possuem m vetores. Esta propriedade é conhecida
como Princípio da Invariância.
4. Um conjunto linearmente independente com m vetores é base de V:
5. Um conjunto gerador de V com m vetores é base de V:
6. Um conjunto gerador de V com mais do que m vetores pode ser re-
duzido a uma base de V; removendo um a um aqueles vetores que são
combinações lineares dos demais.
7. Pode-se incluir vetores a um conjunto linearmente independente com
menos do que m vetores, até obter uma base de V: Um algoritmo possível
consiste em unir uma base ao conjunto, retirando os vetores agregados
que são combinação linear dos demais.

Exemplo 3.40 O conjunto B formado pelos vetores v1 = ( 3; 7) e v2 = (5;


5) é linearmente independente e, portanto, B é uma base de R2 :

Exemplo 3.41 O conjunto B formado pelos vetores v1 = (2; 0; 1); v2 = (4;


0; 7) e v3 = ( 1; 1; 4) gera o R3 e, portanto, B é uma base do R3 :

Se um espaço vetorial V não nulo possuir uma base com m elementos, pelo
princípio da invariância, todas as suas bases terão m elementos. Neste caso, se
diz que V possui dimensão …nita e que sua dimensão é m e escreveremos
dim(V ) = m:
O espaço vetorial nulo f0g é tratado à parte. Por de…nição, sua base é o
conjunto vazio e sua dimensão é zero.

Exemplo 3.42 Os espaços vetoriais Rm ; Pm (R); Mm n possuem dimensão


…nita e suas dimensões são, respectivamente, m; m + 1 e m n:

Exemplo 3.43 Os espaços vetoriais das funções reais com domínio na reta
F (R); das funções reais com derivadas contínuas até a ordem k em toda a reta
C k (R); dos polinômios reais P (R); com as operações de adição de funções e
multiplicação de um real por uma função, possuem todos dimensão in…nita.

Notas de aula do Professor Faleiros


74 Espaço vetorial

Teorema 3.44 Seja S um subespaço de um espaço vetorial V de dimensão


…nita. Então
dim(S) dim(V ):
Quando dim(S) = dim(V ); então S = V:

Prova. Como S está contido em V; toda base deste espaço vetorial é


um conjunto gerador de S; o que implica na desigualdade dim(S) dim(V ):
Quando dim(S) = dim(V ); toda base de V é conjunto gerador de S e, portanto,
uma base de S o que implica na igualdade S = V:

3.9 Matriz de mudança de base


Seja V um espaço vetorial de dimensão …nita n maior do que zero. Sejam B1 =
fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g duas bases de V: Podemos decompor cada
elemento de B2 numa combinação linear dos elementos de B1

w1 = a11 v1 + a21 v2 + + an1 vn


w2 = a12 v1 + a22 v2 + + an2 vn

wn = a1n v1 + a2n v2 + + ann vn

A matriz 2 3
a11 a12 a1n
6 a21 a22 a2n 7
6 7
M12 = 6 .. .. .. .. 7
4 . . . . 5
an1 an2 ann
é chamada de matriz de mudança de base ou, se desejarmos fazer referência
às bases envolvidas, matriz de mudança da base B1 para a base B2 ou matriz
de transição da base B1 para a base B2 : Observe que as coordenadas do
desenvolvimento de w1 na base B1 formam a primeira coluna, as coordenadas
do desenvolvimento de w2 na base B1 formam a segunda coluna, e assim por
diante.

Exemplo 3.45 Sejam B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g bases do R3 ;


onde
v1 = (1; 0; 1); v2 = (0; 1; 1); v3 = (0; 0; 2)
e
w1 = (0; 1; 3); w2 = (1; 2; 1); w3 = (1; 0; 3):

Notas de aula do Professor Faleiros


3.9 Matriz de mudança de base 75

Então 2 3
0 1 1
M12 =4 1 2 0 5
1 1 1

Sejam B1 = fv1 ; : : : ; vn g; B2 = fw1 ; : : : ; wn g e B3 = fu1 ; : : : ; un g bases


de V com podemos escrever os vetores de B3 como combinações lineares dos
elementos das bases: Usando o símbolo de somatório,

X
n X
n X
n
wj = aij vi ; uj = bij wi e uj = cij vi
i=1 i=1 i=1

de modo que M12 = [aij ] ; M23 = [bij ] e M13 = [cij ] são, respectivamente, as
matrizes de mudança da base B1 para a base B2 ; da base B2 para a base B3 e
da base B1 para a base B3 : Destas decomposições segue
X X X
uj = bkj wk = bkj aik vi
k k i
!
X X X
= aik bkj vi = cij vi
i k i

ou X
cij = aik bkj
k

para i e j variando de 1 a n: Tais igualdades entre escalares corresponde à


igualdade matricial
M13 = M12 M23 :
Quando B3 = B1 ; a matriz M13 é a matriz identidade e M23 = M21 : Da
igualdade acima segue
M12 M21 = I;
mostrando que as matrizes de mudança de base são inversíveis e que a inversa
de M12 é M21 :
Sejam i e j inteiros do conjunto f1; 2; : : : ; ng: O delta de Kronecker ij ;
é um conjunto de n2 números de…nidos do seguinte modo: ij = 1 quando i = j
e ij = 0 quando i 6= j: O elemento da linha i coluna j da matriz identidade
I de ordem n n é exatamente ij e podemos usar o delta de Kronecker para
escrever I = [ ij ]:
As igualdades matriciais

M12 M21 = I e M21 M12 = I

Notas de aula do Professor Faleiros


76 Espaço vetorial

quando escritas componente a componente, fornece


X X
aik bkj = ij e bik akj = ij
k k

para i e j percorrendo os valores 1; : : : ; n:

Mudança de coordenadas
Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g duas bases do espaço vetorial
V e u um vetor de V: Sejam

[u]1 = [x1 ; : : : ; xn ]T e [u]2 = [y1 ; : : : ; yn ]T

as matrizes das coordenadas de u nas bases B1 e B2 ; respectivamente. Seja


M12 = [aij ] a matriz de mudança da base B1 para a base B2 : Temos
X X
u= xi vi = yj wj
i j

e
X
n
wj = aij vi ;
i=1

de onde segue
X X X
u= yj wj = yj aij vi
j j i
!
X X X
= aij yj vi = xi vi :
i j i

Da unicidade da decomposição de um vetor nos elementos da base segue


X
xi = aij yj
j

que corresponde à igualdade matricial

[u]1 = M12 [u]2 :

Exemplo 3.46 Sabe-se que B1 = fv1 ; v2 ; v3 g e B2 = fw1 ; w2 ; w3 g são bases


de um espaço vetorial V de dimensão três e que
2 3
0 1 1
M12 = 4 1 2 0 5
1 1 1

Notas de aula do Professor Faleiros


3.10 Espaço linha e espaço coluna 77

é a matriz de mudança da base B1 para B2 : Sendo u = w2 + 2w3 ; sua


T
matriz de coordenadas na base B2 é 0 1 2 : A matriz das coordenadas
de u na base B1 pode ser obtida pela relação
2 32 3 2 3
0 1 1 0 1
[u]1 = M12 [u]2 = 4 1 2 0 54 1 5 = 4 2 5
1 1 1 2 3

e assim u = v1 2v2 + 3v3 :

3.10 Espaço linha e espaço coluna


Vamos veri…car que, com frequência, é interessante dispor um conjunto de
vetores do Rn nas linhas ou colunas de uma matriz. As matrizes são formas
compactas e convenientes de apresentar os vetores de um espaço vetorial.

De…nição 3.47 Para uma matriz


2 3
a11 : : : a1n
6 .. 7
A = 4 ... . 5
am1 : : : amn

de tamanho m n; suas linhas

ri = ai1 ai2 : : : ain

são denominadas vetores linha de A e suas colunas


2 3
a1j
6 a2j 7
6 7 T
cj = 6 .. 7 = a1j a2j : : : amj
4 . 5
amj

são denominadas vetores coluna de A: O espaço vetorial gerado pelos vetores


linhas é o espaço linha de A: O espaço vetorial gerado pelos vetores coluna
é o espaço coluna de A:

Propriedades dos espaços linha e coluna


Duas matrizes com o mesmo tamanho são equivalentes quando for possível
obter uma delas mediante uma sequência de operações elementares sobre a

Notas de aula do Professor Faleiros


78 Espaço vetorial

outra. Se operações elementares sobre A resultam numa matriz B; é pos-


sível levar B em A realizando sobre a primeira uma sequência de operações
elementares que são invertíveis. Se E1 ; : : : ; Ek forem matrizes elementares e

B = Ek E1 A;

então
A = E1 1 Ek 1 B:
Feita esta de…nição passemos a enunciar as propriedades dos espaços linha e
coluna de uma matriz.

1. Numa matriz escalonada,

(a) os vetores linha não nulos formam uma base do espaço linha da
matriz;
(b) os vetores coluna que possuem os pivôs formam uma base do espaço
coluna da matriz.

2. Sejam A e B matrizes equivalentes. Denote por a1 ; a2 ; : : : ; an os vetores


coluna de A e por b1 ; b2 ; : : : ; bn os vetores coluna de B:

(a) Se 1; :::; n forem escalares tais que

1 a1 + + n an =0

então
1 b1 + + n bn = 0:
Nesta propriedade não se pede que todos os escalares sejam difer-
entes de zero. Para matrizes com 5 colunas, se 1 a1 + 3 a3 + 5 a5
= 0; então 1 b1 + 3 b3 + 5 b5 = 0 e pode-se pensar que 2 e 4
são iguais a zero.
(b) Um subconjunto dos vetores coluna de A é linearmente dependente
se, e só se, as mesmas colunas de B formarem um conjunto linear-
mente dependente.

3. Sejam A e B matrizes equivalentes. Nem sempre o espaço coluna de


A é igual ao espaço coluna de B: Entretanto, ambos possuem a mesma
dimensão. Se as colunas j1 ; : : : ; jk de A formarem uma base do espaço
coluna de A; então as colunas j1 ; : : : ; jk de B formam uma base do
espaço coluna de B:

Notas de aula do Professor Faleiros


3.10 Espaço linha e espaço coluna 79

4. Duas matrizes equivalentes A e B possuem o mesmo espaço linha. Uma


base do espaço linha de B é base do espaço linha de A:

Exemplo 3.48 Considere a matriz escalonada por linhas


2 3
1 2 3 4 5
6 0 1 2 0 4 7
6 7:
4 0 0 0 1 2 5
0 0 0 0 0
Sua primeira, segunda e terceira linhas, exatamente aquelas que contêm os
pivôs, formam uma base do seu espaço linha. Sua primeira, segunda e quarta
colunas, aquelas que contêm os pivôs, formam uma base do seu espaço coluna.

Exemplo 3.49 As matrizes


2 3 2 3
1 0 1 0
A=4 0 1 5 e B=4 0 1 5
0 0 1 1
são equivalentes pois pode-se obter B adicionando à terceira linha de A sua
primeira e segunda linhas. Todavia, os espaços coluna de A e B são diferentes.
T T
Os vetores coluna 1 0 1 e 0 1 1 de B não pertencem ao espaço
coluna de A: Embora diferentes, os espaços coluna de A e B possuem ambos
dimensão 2:

Exemplo 3.50 Para obter uma base para o espaço linha da matriz
2 3
1 3 4 2 5 4
6 2 6 9 1 8 2 7
A=6 4 2 6
7
9 1 9 7 5
1 3 4 2 5 4
podemos reduzi-la à forma escalonada R mediante operações elementares
2 3
1 3 4 2 5 4
6 0 0 1 3 2 6 7
R=6 4 0 0 0 0
7
1 5 5
0 0 0 0 0 0
e concluir que as três primeiras linhas de R formam uma base para o espaço
linha de A:
A primeira, terceira e quinta colunas de R, exatamente aquelas que contém
os pivôs, formam uma base para o seu espaço coluna. Logo, a primeira, terceira
e quinta colunas de A formam uma base do espaço coluna de A.

Notas de aula do Professor Faleiros


80 Espaço vetorial

Exemplo 3.51 Para determinar uma base do espaço linha da matriz


2 3
1 2 0 0 3
6 2 5 3 2 6 7
A=6 4 0
7
5 15 10 0 5
2 6 18 8 6

formada por vetores linha de A; siga os passos descritos em seguida.


1. Transponha A
2 3
1 2 0 2
6 2 5 5 6 7
6 7
A =6
T
6 0 3 15 18 7
7
4 0 2 10 8 5
3 6 0 6

2. Realize operações elementares na matriz AT até chegar a uma matriz


escalonada 2 3
1 2 0 2
6 0 1 5 10 7
6 7
R=6 6 0 0 0 1 7
7:
4 0 0 0 0 5
0 0 0 0
As colunas 1; 2 e 4 formam uma base para o espaço coluna de R: Logo, as
colunas 1; 2 e 4 de AT formam uma base para o espaço coluna desta matriz.
Conclui-se que as linhas 1; 2 e 4 de A formam uma base do espaço linha de A:

Exemplo 3.52 Sejam v1 = (1; 2; 0; 0; 3); v2 = (2; 5; 3; 2; 6); v3 = (0; 5; 15; 10; 0);
v4 = (2; 6; 18; 8; 6) vetores do R4 e G = fv1 ; v2 ; v3 ; v4 g: Para determinar uma
base para o subespaço S gerado por G; basta seguir os seguintes passos:
1. Forme a matriz cujas linhas são as entradas de v1 ; v2 ; v3 e v4
2 3
1 2 0 0 3
6 2 5 3 2 6 7
A=6 4 0 5 15 10 0 5 :
7

2 6 18 8 6

2. Mediante operações elementares, reduza a matriz à forma escalonada


2 3
1 2 0 0 3
6 0 1 3 2 0 7
R=6 4 0 0 1 1
7
0 5
0 0 0 0 0

Notas de aula do Professor Faleiros


3.10 Espaço linha e espaço coluna 81

3. Uma base do espaço linha de A é formada pelos vetores linha não nulos
de R: Logo, uma base para S é

w1 = (1; 2; 0; 0; 3);
w2 = (0; 1; 3; 2; 0);
w3 = (0; 0; 1; 1; 0):

Os vetores w1 ; w2 ; w3 não pertencem ao conjunto G: Desejando uma base de


S formada pelos elementos de G; proceda como segue:

1. Forme a matriz cujas colunas são as entradas de v1 ; v2 ; v3 e v4


2 3
1 2 0 2
6 2 5 5 6 7
6 7
6
A=6 0 3 15 18 7 7
4 0 2 10 8 5
3 6 0 6

2. Escalone esta matriz


2 3
1 2 0 2
6 0 1 5 10 7
6 7
R=6
6 0 0 0 12 7
7
4 0 0 0 0 5
0 0 0 0

3. As colunas 1; 2 e 4 formam uma base do espaço coluna de R: Isto implica


em que as colunas 1; 2 e 4 de A formam uma base do espaço coluna de
A: Logo, v1 ; v2 ; v4 formam uma base do espaço gerado por G:

Exemplo 3.53 A matriz


2 3
1 2 0 2 5
6 2 5 1 1 8 7
A=6
4
7
0 3 3 4 1 5
3 6 0 7 2

é equivalente à matriz escalonada


2 3
1 2 0 2 5
6 0 1 1 3 2 7
B=6 4 0
7
0 0 1 1 5
0 0 0 0 0

Notas de aula do Professor Faleiros


82 Espaço vetorial

As colunas 1; 2 e 4 de B são linearmente independentes e geram seu espaço


coluna. Logo, as colunas 1; 2 e 4 de A são linearmente independentes e geram
o espaço coluna de A:
Denotando as colunas de B por b1 ; b2 ; b3 ; b4 e b5 ; nota-se que b1 ; b2 e
b4 formam uma base para o seu espaço coluna e que

b3 = 2b1 b2
b5 = b1 + b2 + b4 :

Denotando as colunas de A por a1 ; a2 ; a3 ; a4 e a5 ; então a1 ; a2 e a4 formam


uma base do espaço coluna de A e

a3 = 2a1 a2 ;
a5 = a1 + a2 + a4 :

Teorema 3.54 A dimensão do espaço linha de uma matriz é igual à dimensão


do seu espaço coluna.

Prova. Seja R uma forma escalonada de A: A dimensão do espaço linha


de A é igual à dimensão do espaço linha de R: A dimensão do espaço coluna
de A é igual à dimensão do espaço coluna de R: Uma base do espaço linha de
R é constituída das linhas que possuem os pivôs. Uma base do espaço coluna
de R é formada pelas colunas que possuem os pivôs. Logo, as dimensões do
espaço linha e do espaço coluna de R são iguais, provando o teorema.

O posto de uma matriz A; denotado por pos(A); é a dimensão do seu


espaço linha, que é igual à dimensão do seu espaço coluna. Sendo a dimensão
do espaço linha igual à do espaço coluna, o posto de uma matriz é igual ao
posto de sua transposta.

3.11 Sistemas lineares e o espaço nulo de uma


matriz
Quando A é uma matriz m n e b é uma matriz m 1; podemos nos perguntar
quando é que o sistema linear Ax = b tem solução. Sendo x a matriz coluna
[x1 xn ]T e c1 ; : : : ; cn os vetores coluna de A; então

Ax = x1 c1 + + xn cn :

Vemos que Ax = b se, e só se, b for uma combinação linear das colunas de A:
Em outras palavras, o sistema Ax = b possui solução se, e só se, b for uma

Notas de aula do Professor Faleiros


3.11 Sistemas lineares e o espaço nulo de uma matriz 83

combinação linear das colunas de A: A matriz b é uma combinação linear das


colunas de A se, e só se, o posto da matriz A dos coe…cientes é igual ao posto
da matriz completa [A j b] do sistema.
O posto de A é sempre menor ou igual a m e menor ou igual a n: Se o
posto de A for m; o sistema linear Ax = b será consistente para toda matriz
coluna b: Se o posto de A for igual a n; o sistema linear Ax = b possuirá no
máximo uma solução.
Quando m > n; o número de equações do sistema linear Ax = b é maior
do que o número de incógnitas e se diz que ele é sobredeterminado. Neste
caso o posto de A é menor do que m e o sistema linear Ax = b nem sempre
tem solução.
Quando m < n; o número de equações do sistema linear Ax = b é menor
do que o número de incógnitas e se diz que o sistema linear Ax = b é sub-
determinado. Quando o posto de A for igual a m; o sistema linear Ax = b
sempre possui solução.
Quando m = n; o número de equações do sistema linear Ax = b é igual ao
número de incógnitas e se diz que o sistema linear Ax = b é determinado.
Quando o posto de A for igual a m; a matriz A é invertível e o sistema linear
Ax = b possui uma única solução para cada b:
Quando o sistema Ax = b tem solução, ela será única se, e só se, o sistema
homogêneo Ax = 0 possuir apenas a solução trivial.
O conjunto solução do sistema homogêneo Ax = 0 é um espaço vetorial
chamado espaço nulo de A: O espaço nulo de A possui apenas o vetor nulo
ou possui in…nitas matrizes coluna. Neste caso, sendo fv1 ; : : : ; vk g uma base
do espaço nulo de A; toda solução do sistema homogêneo Ax = 0 é da forma
c1 v1 + + ck vk ; onde c1 ; : : : ; ck são escalares. Sendo x
~ uma solução do
sistema não homogêneo Ax = b; todas as suas soluções serão da forma
~ + c1 v1 +
x + ck vk ;
onde c1 ; : : : ; ck são escalares. Cada solução deste conjunto é chamada de
solução particular do sistema Ax = b:
A dimensão do espaço nulo de A é chamada de nulidade de A sendo
denotada por nul(A): Sempre é bom lembrar que a nulidade de A é igual ao
número de variáveis livres do sistema homogêneo Rx = 0; onde R é uma forma
escalonada de A e que o posto de A é igual a número de variáveis dependentes
do sistema homogêneo Rx = 0:

Exemplo 3.55 A solução geral do sistema do sistema escalonado


x1 +3x2 +4x4 = 0
x3 +2x4 = 0
x5 = 1

Notas de aula do Professor Faleiros


84 Espaço vetorial

é obtida por substituição reversa

x5 = 1; x3 = 2x4 ; x1 = 3x2 4x4 :

Nela, x2 ; x4 são variáveis livres e x1 ; x3 ; x5 são variáveis dependentes. In-


troduzindo os parâmetros r e s; de…nindo-os por r = x2 e s = x4 ; obtemos a
solução geral

x1 = 3r 4s; x2 = r; x3 = 2s; x4 = s; x5 = 1

na forma paramétrica. Ao colocar a solução geral na forma matricial,


2 3 2 3 2 3 2 3
x1 0 3 4
6 x2 7 6 0 7 6 1 7 6 0 7
6 7 6 7 6 7 6 7
6 x3 7 = 6 0 7 + r 6 0 7 + s 6 2 7
6 7 6 7 6 7 6 7
4 x4 5 4 0 5 4 0 5 4 1 5
x5 1 0 0

percebemos que o primeiro vetor coluna do lado direito é uma solução particular
do sistema dado e que os outros dois vetores coluna formam uma base para o
espaço de soluções do sistema linear homogêneo associado.

Exemplo 3.56 Escalonando o sistema homogêneo


2 32 3 2 3
1 2 3 x1 0
4 2 4 6 54 x2 = 0 5
5 4
3 6 9 x3 0

chegamos a 2 32 3 2 3
1 2 3 x1 0
4 0 0 0 5 4 x2 = 0 5
5 4
0 0 0 x3 0
cuja solução geral é
2 3 2 3 2 3
x1 2 3
4 x2 5 = s 4 1 5 + t 4 0 5
x3 0 1

onde s e t são escalares quaisquer.

Exemplo 3.57 Escalonando o sistema homogêneo


2 32 3 2 3
1 2 3 x1 0
4 3 7 8 5 4 x2 5 = 4 0 5
2 4 6 x3 0

Notas de aula do Professor Faleiros


3.11 Sistemas lineares e o espaço nulo de uma matriz 85

obtemos 2 32 3 2 3
1 2 3 x1 0
4 0 1 1 5 4 5 4
x2 = 0 5
0 0 0 x3 0
cuja solução geral é
2 3 2 3
x1 5
4 x2 5 = s 4 1 5
x3 1
onde s é um escalar qualquer.

Exemplo 3.58 O espaço solução do sistema homogêneo


2 32 3 2 3
1 2 3 x1 0
4 3 7 8 5 4 x2 5 = 4 0 5 ;
4 1 2 x3 0

é o espaço vetorial nulo, pois a única solução do sistema é dada por x1 = 0;


x2 = 0 e x3 = 0:

Exemplo 3.59 A solução geral do sistema linear homogêneo

2x1 + 2x2 x3 + 0x4 + x5 =0


x1 x2 2x3 3x4 + x5 =0
x1 + x2 2x3 + 0x4 x5 =0
0x1 + 0x2 + x3 + x4 + x5 =0

nas incógnitas x1 ; x2 ; x3 ; x4 ; x5 é
2 3 2 3 2 3
x1 1 1
6 x2 7 6 1 7 6 0 7
6 7 6 7 6 7
6 x3 7 = s6 0 7 + t6 1 7
6 7 6 7 6 7
4 x4 5 4 0 5 4 0 5
x5 0 1

onde s e t são dois parâmetros livres e a dimensão do espaço solução é 2:

Teorema 3.60 Se a matriz A possuir n colunas, então

pos(A) + nul(A) = n

Notas de aula do Professor Faleiros


86 Espaço vetorial

Prova. Seja R uma forma escalonada de A: O posto de A é igual ao número


de variáveis dependentes do sistema homogêneo Rx = 0 e a nulidade de A é
igual ao número de variáveis livres do sistema homogêneo Rx = 0: Como o
número de variáveis dependentes adicionado ao número de variáveis livres é
igual a n; decorre que
pos(A) + nul(A) = n:

Exemplo 3.61 Se A é uma matriz 5 7; então o sistema linear Ax = b é


subdeterminado e deve ser consistente para algum b e, para cada um destes b;
a solução deve ter nul(A) = 7 pos(A) parâmetros livres.
Exemplo 3.62 Para determinar o posto e a nulidade da matriz
2 3
1 2 0 4 5 3
6 3 7 2 0 1 4 7
A=6 4 2
7:
5 2 4 6 1 5
4 9 2 4 4 7
nós a escalonamos
2 3
1 0 4 28 37 13
6 0 1 2 12 16 5 7
R=6
4 0
7
0 0 0 0 0 5
0 0 0 0 0 0
o que nos permite concluir que
pos(A) = 2 e nul(A) = 4
veri…cando que pos(A) + nul(A) = 6: A solução geral do sistema homogêneo
Ax = 0 é
x1 = 4x3 + 28x4 + 37x5 13x6
x2 = 2x3 + 12x4 + 16x5 5x6
com x3 ; x4 ; x5 ; x6 variando livremente nos reais. Uma base do espaço nulo de

2 3 2 3 2 3 2 3
4 28 37 13
6 2 7 6 12 7 6 13 7 6 5 7
6 7 6 7 6 7 6 7
6 1 7 6 0 7 6 0 7 6 0 7
v1 = 6 7 6 7 6 7
6 0 7 ; v2 = 6 1 7 ; v3 = 6 0 7 ; v4 = 6 0 7 :
6 7
6 7 6 7 6 7 6 7
4 0 5 4 0 5 4 1 5 4 0 5
0 0 0 1

Notas de aula do Professor Faleiros


3.11 Sistemas lineares e o espaço nulo de uma matriz 87

Exemplo 3.63 A forma escalonada da matriz 4 6


2 3
1 2 0 4 5 3
6 3 7 2 0 1 4 7
A=6 4 2
7
5 2 4 6 1 5
4 9 2 4 4 7
é 2 3
1 2 0 4 5 3
6 0 1 2 12 16 5 7
R=6
4 0
7:
0 0 0 0 0 5
0 0 0 0 0 0
Como R possui duas linhas não nulas, pos(A) = 2: Como pos(A)+ nul(A) =
6; conclui-se que nul(A) = 4:

Exemplo 3.64 Vamos veri…car se o sistema


x1 2x2 3x3 + 2x4 = 4
3x1 + 7x2 x3 + x4 = 3
2x1 5x2 + 4x3 3x4 = 7
3x1 + 6x2 + 9x3 6x4 = 1
é consistente ou não. Tomando a matriz aumentada do sistema
2 3
1 2 3 2 4
6 3 7 1 1 3 7
6 7
4 2 5 4 3 7 5
3 6 9 6 1
e escalonando-a, chegamos à matriz
2 3
1 0 23 16 0
6 0 1 10 7 0 7
6 7
4 0 0 0 0 1 5
0 0 0 0 0
O sistema é inconsistente pois o posto da matriz dos coe…cientes é igual a 2 e
o posto da matriz aumentada é igual a 3:

Exemplo 3.65 Sistema sobredeterminado


x1 2x2 = b1
x 1 x 2 = b2
x 1 + x 2 = b3
x1 + 2x2 = b4
x1 + 3x2 = b5

Notas de aula do Professor Faleiros


88 Espaço vetorial

Usando a eliminação de Gauss-Jordan na matriz aumentada, chegamos a


1 0 2b2 b1
0 1 b2 b1
0 0 b3 3b2 + 2b1
0 0 b4 4b2 + 3b1
0 0 b5 5b2 + 4b1
O sistema será consistente se e só se
2b1 3b2 + b3 = 0
3b1 4b2 + b4 = 0
4b1 5b2 + b5 = 0
ou
b1 = 5r 4s
b2 = 4r 3s
b3 = 2r s
b4 = r
b5 = s
onde r e s são reais quaisquer.

Vamos enunciar um teorema que reune as propriedades enunciadas até o


momento e que dizem respeito às matrizes invertíveis.

Teorema 3.66 Seja A uma matriz quadrada de ordem n: As seguintes a…r-


mações são equivalentes:
(a) A é invertível.
(b) Ax = 0 admite somente a solução trivial.
(c) A forma escalonada reduzida de A é In .
(d) A pode ser escrita como um produto de matrizes elementares.
(e) Ax = b é consistente para cada matriz b de tamanho n 1:
(f) Ax = b tem exatamente uma solução para cada matriz b de tamanho
n 1:
(g) det(A) 6= 0:
(j) Os vetores coluna de A são linearmente independente.
(k) Os vetores linha de A são linearmente independente.
(l) Os vetores coluna de A geram Mn 1 :
(m) Os vetores linha de A geram Mn 1 :
(n) Os vetores coluna de A formam uma base de Mn 1
(o) Os vetores linha de A formam uma base de Mn 1
(p) A tem posto n:
(q) A nulidade de A é f 0 g:

Notas de aula do Professor Faleiros


Capítulo 4

Transformação linear

Uma função é uma regra f que associa a cada elemento de um conjunto A um,
e exatamente um, elemento de um conjunto B: Se f associa o elemento x de A
ao elemento y de B; escrevemos y = f (x) : O y é a imagem de x por f ou valor
de f em x: O conjunto A é o domínio de f e o conjunto B é o contradomínio
de f: Usaremos a notação f : A ! B para indicar que f é uma função com
domínio A e contradomínio B: O conjunto f (A) = ff (x) : x 2 Ag é a imagem
de f:
Quando A e B forem conjuntos de números reais diremos que f é função
real de uma variável real.
Duas funções f1 e f2 são iguais e escreveremos f1 = f2 quando tiverem
o mesmo domínio, o mesmo contradomínio e f1 (x) = f2 (x) para todo x do
domínio que é comum a ambas.
Sejam V e W espaços vetoriais. Uma função f : V ! W é chamada
de aplicação ou transformação de V em W: Quando V = W; as funções
f : V ! W; recebem o nome de operadores.

Exemplo 4.1 T : R2 ! R onde T (x; y) = xy+ 3x:

Exemplo 4.2 L : R2 ! R3 onde L (x; y) = (x y; 2x; 3x 5y):

Exemplo 4.3 As equações

u=x+y
v = 2xy
w = x2 y 2

de…nem uma transformação T : R2 ! R3 :

Notas de aula do Professor Faleiros


90 Transformação linear

De…nição 4.4 Uma transformação T : V ! W é linear se para todo u e v


em V e todo escalar k

T (u + v) = T (u) + T (v);
T (k v) = k T (v):

Se V = W então a transformação linear recebe o nome de operador linear.

A transformação nula, que leva todo vetor v no vetor nulo e a trans-


formação identidade que leva todo vetor nele mesmo são transformações
lineares.

Exemplo 4.5 As transformações T1 (x1 ; x2 ) = 2x1 3x2 e T2 (x1 ; x2 ) = 5x1


de R2 em R são lineares.

Exemplo 4.6 A transformação T3 (x1 ; x2 ) = (x1 + x2 ; x2 ) de R2 em R2 é


linear.

Exemplo 4.7 Se A for uma matriz m n; então T (x) = Ax é uma transfor-


mação linear que leva matrizes coluna x de tamanho n 1 em matrizes coluna
Ax de tamanho m 1:

Exemplo 4.8 Se B = fv1 ; : : : ; vn g for uma base de V a função T : V ! Rn ;


de…nida por T (v) = ( 1 ; : : : ; n ) que leva v no seu vetor de coordenadas ( 1 ;
: : : ; n ) na base B; é uma transformação linear.

Exemplo 4.9 Se V = P2 (R) for o espaço vetorial dos polinômios de grau


menor ou igual a 2 com coe…cientes reais, então as funções

T1 (p)(x) = p(ax + b)
T2 (p)(x) = xp(x)

de…nidas para todo p em P2 (R)

Exemplo 4.10 A transformação T que leva uma função f de C( 1; 1) na


função T (f ) de C 1 ( 1; 1); de…nida por
Z x
T (f )(x) = f (t)dt
0

é uma transformação linear.

Exemplo 4.11 A transformação T que leva uma função f de C 1 ( 1; 1) na


função T (f ) de C( 1; 1); de…nida por T (f )(x) = f 0 (x) é uma transformação
linear.

Notas de aula do Professor Faleiros


4.1 Transformação linear e bases 91

Exemplo 4.12 Sendo n > 1 um número inteiro, a função que leva uma matriz
quadrada n n em seu determinante não é linear pois, se k for um real e A;
B forem duas matrizes quadradas n n; então

det(A + B) 6= det(A) + det(B)

e
det(k B) = k n det(B):

Propriedades das transformações lineares


Se V e W forem espaços vetoriais e T : V ! W uma transformação linear
então, sendo c1 ; : : : ; cn escalares e v; v1 ; : : : ; vn vetores de V; então

1. T (0) = 0:

2. T ( v) = T (v):

3. T (v1 v2 ) = T (v1 ) T (v2 ):

4. T (c1 v1 + + cn vn ) = c1 T (v1 )+ + cn T (vn ):

Podemos usar o símbolo de somatório para expressar esta última pro-


priedade e escrever !
Xn Xn
T ci vi = ci T (vi ):
i=1 i=1

Exemplo 4.13 A transformação T (x1 ; x2 ) = (1 + x1 ; 2 + x2 ) do R2 no R2


não é linear pois T (0; 0) = (1; 2) não é igual a (0; 0):

4.1 Transformação linear e bases


Seja T : V ! W uma transformação linear e B = fv1 ; : : : ; vn g uma base de
V: Para cada vetor u de V; existem escalares c1 ; : : : ; cn tais que

u = c1 v1 + + cn vn :

Da linearidade de T;

T (u) = T (c1 v1 + + cn vn ) = c1 T (v1 ) + + cn T (vn ):

Desta igualdade tiramos duas conclusões. Primeiro: se conhecermos os valores


de T nos vetores de uma base de V; podemos calcular T num vetor u qual-
quer. Basta decompor este vetor numa combinação linear dos vetores da base.

Notas de aula do Professor Faleiros


92 Transformação linear

Segundo: sendo B = fv1 ; : : : ; vn g uma base de V; toda transformação linear


T de V em W é da forma

T (u) = c1 w1 + + cn wn

onde w1 = T (v1 ); : : : ; wn = T (vn ) são os valores de T no vetores vi de uma


base B e (c1 ; : : : ; cn ) é o vetor de coordenadas de u na base B:
Em particular, quando T é uma transformação linear do Rn em R e B =
fe1 ; : : : ; en g é a base canônica do Rn ; então

T (x1 ; : : : ; xn ) = x1 T (e1 ) + + xn T (en ) = a1 x1 + + an x n ;

onde a1 = T (e1 ); : : : ; an = T (en ) são números reais. Quando T é uma trans-


formação linear do Rn em Rm ; então

T (x1 ; : : : ; xn ) = x1 T (e1 ) + + xn T (en )

e agora

T (e1 ) = (a11 ; : : : ; am1 ); : : : ; T (en ) = (a1n ; : : : ; amn )

são vetores do Rm e

T (x1 ; : : : ; xn ) = (a11 x1 ; : : : ; am1 xn ) + + (a1n xn ; : : : ; amn xn )

ou

T (x1 ; : : : ; xn ) = (a11 x1 + + a1n xn ; : : : ; am1 xn + + amn xn ):

Conclusão: Toda transformação linear T : Rn ! R é da forma

T (x1 ; : : : ; xn ) = a1 x1 + + an x n ;

onde a1 ; : : : ; an são números reais. Toda transformação linear T : Rn ! Rm


é da forma

T (x1 ; : : : ; xn ) = (a11 x1 + + a1n xn ; : : : ; am1 xn + + amn xn ):

onde aij ; para i = 1; : : : ; m e j = 1; : : : ; n: Observe que

T1 (x1 ; : : : ; xn ) = a11 x1 + + a1n xn


..
.
Tm (x1 ; : : : ; xn ) = am1 x1 + + amn xn

Notas de aula do Professor Faleiros


4.1 Transformação linear e bases 93

são transformações lineares do Rn em R e


T (x1 ; : : : ; xn ) = ( T1 (x1 ; : : : ; xn ) ; : : : ; Tm (x1 ; : : : ; xn ) ):
Escrevendo
T (x1 ; : : : ; xn ) = (y1 ; : : : ; ym )
então
y1 = a11 x1 + + a1n xn
..
.
ym = am1 x1 + + amn xn
As igualdades acima podem ser resumidas numa única igualdade matricial
2 3 2 32 3
y1 a11 a1n x1
6 .. 7 6 .. .. .. 7 6 .. 7
4 . 5=4 . . . 54 . 5 ou [y] = [T ] [x];
ym am1 amn xn

onde [T ] = [aij ] é chamada de matriz canônica da transformação linear T;


enquanto [x] e [y] são as matrizes das coordenadas de x e y nas bases canônicas
do Rn e do Rm ; respectivamente.

Exemplo 4.14 Sendo fv1 ; v2 ; v3 g uma base de um espaço vetorial V de


dimensão três e T uma transformação linear de V em R tal que T (v1 ) = 3;
T (v2 ) = 2; T (v3 ) = 1: Se v = 2v1 + 5v2 + 4v3 ; então
T (v) = 2T (v1 ) + 5T (v2 ) + 4T (v3 ) = 2 3+5 2+4 1=8

Exemplo 4.15 Sejam v1 = (1; 1; 1); v2 = (1; 1; 0) e v3 = (1; 0; 0): Então fv1 ;
v2 ; v3 g é base do R3 : Sabendo que T : R3 ! R2 é linear e que T (v1 ) = (1; 0);
T (v2 ) = (2; 1) e T (v3 ) = (3; 2); podemos calcular T em todo terno ordenado
(x1 ; x2 ; x3 ): Basta decompor o terno numa combinação linear dos vetores da
base
(x1 ; x2 ; x3 ) = x3 (1; 1; 1) + (x2 x3 )(1; 1; 0) + (x1 x2 )(1; 0; 0)
e calcular
T (x1 ; x2 ; x3 ) = x3 T (1; 1; 1) + (x2 x3 )T (1; 1; 0) + (x1 x2 )T (1; 0; 0)
= x3 (1; 0) + (x2 x3 )(2; 1) + (x1 x2 )(3; 2)
= ( 3x1 x2 x3 ; 3x2 2x1 x3 ):
Em particular,
T (1; 3; 4) = (4; 7):

Notas de aula do Professor Faleiros


94 Transformação linear

Exemplo 4.16 As transformações T1 (x1 ; x2 ) = 2x1 x2 e T2 (x1 ; x2 ) = 3x2


do R2 em R são lineares. A transformação T3 (x1 ; x2 ) = 5 + x1 + 2x2 não é
linear por causa da parcela 5:

Exemplo 4.17 A matriz canônica da transformação linear T : R3 ! R3


de…nida por

T (x1 ; x2 ; x3 ) = (2x1 x 2 ; x1 3x2 + x3 ; x2 x3 )

é 2 3
2 1 0
[T ] = 4 1 3 1 5:
0 1 1

4.2 Exemplos de transformações lineares


Re‡exões no R2
O operador T1 (x1 ; x2 ) = (x1 ; x2 ) re‡ete o ponto (x; y) no eixo 1 do R2 :
O operador T2 (x1 ; x2 ) = ( x1 ; x2 ) re‡ete o ponto (x; y) no eixo do R2 :
O operador T3 (x1 ; x2 ) = (x2 ; x1 ) re‡ete o ponto (x; y) na reta x = y do
2
R:

Re‡exões no R3
O operador T (x1 ; x2 ; x3 ) = (x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 12 do
R3 :
O operador T (x1 ; x2 ; x3 ) = (x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 13
do R3 :
O operador T (x1 ; x2 ; x3 ) = ( x1 ; x2 ; x3 ) re‡ete o ponto (x; y) no plano 23
do R3 :

Rotações no R2
Seja um número real. Se girarmos os pontos (1; 0) e (0; 1) do R2 de um
ângulo no sentido anti-horário em torno da origem, vamos obter os pontos
(cos ; sen ) e ( sen ; cos ): Uma transformação linear que gira qualquer
ponto (x1 ; x2 ) de um ângulo no sentido anti-horário em torno da origem é
tal que

T (x1 ; x2 ) = x1 T (1; 0) + x2 T (0; 1)


= x1 (cos ; sen ) + x2 ( sen ; cos )
= ( x1 cos x2 sen ; x1 sen + x2 cos ) :

Notas de aula do Professor Faleiros


4.2 Exemplos de transformações lineares 95

Ao girar o ponto (x1 ; x2 ) de um ângulo obtemos o ponto (y1 ; y2 ) onde


T (x 1 ; x2 ) = (y1 ; y2 ) onde
y1 = x1 cos x2 sen ;
y2 = x1 sen + x2 cos :
Usando a notação matricial, chega-se a

y1 cos sen x1
= :
y2 sen cos x2

Rotações no R3
1. O operador
T (x1 ; x2 ; x3 ) = (x1 ; x2 cos x3 sen ; x2 sen + x3 cos )
estabelece uma rotação de um ângulo ; em torno do eixo 1; no sentido
anti-horário quando se olha para a origem do semi-espaço x1 > 0: Sendo
(y1 ; y2 ; y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial
2 3 2 32 3
y1 1 0 0 x1
4 y2 5 = 4 0 cos sen 5 4 x2 5 :
y3 0 sen cos x3
2. O operador
T (x1 ; x2 ; x3 ) = (x1 cos + x3 sen ; x2 ; x1 sen + x3 cos )
estabelece uma rotação de um ângulo ; em torno do eixo 2; no sentido
anti-horário quando se olha para a origem do semi-espaço x2 > 0: Sendo
(y1 ; y2 ; y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial
2 3 2 32 3
y1 cos 0 sen x1
4 y2 5 = 4 0 1 0 5 4 x2 5 :
y3 sen 0 cos x3
3. O operador

T (x1 ; x2 ; x3 ) = (x1 cos x2 sen ; x1 sen + x2 cos ; x3 )


estabelece uma rotação de um ângulo ; em torno do eixo 3; no sentido anti-
horário quando se olha para a origem do semi-espaço x3 > 0: Sendo (y1 ; y2 ;
y3 ) = T (x1 ; x2 ; x3 ); obtemos a igualdade matricial
2 3 2 32 3
y1 cos sen 0 x1
4 y2 5 = 4 sen cos 0 5 4 x2 5 :
y3 0 0 1 x3

Notas de aula do Professor Faleiros


96 Transformação linear

Dilatações e contrações no Rn
Seja k 0 um número real. O operador linear de…nido sobre o Rn por T (x) =
kx; é chamado de homotetia de razão k: Quando 0 6 k < 1 recebe o nome
de contração e, quando k > 1; recebe o nome de dilatação.

4.3 Composição e inversa


Sejam U; V e W espaços vetoriais, L : U ! V e T : V ! W duas transfor-
mações entre espaços vetoriais. A função T L : U ! W de…nida por

T L(u) = T (L(u))

é a composta de L com T: A operação que leva L e T em T L é chamada


de composição de transformações.

Teorema 4.18 A composta de duas transfomações lineares é linear.

Prova. Se u1 e u2 forem dois vetores em U; se e forem dois escalares,


então

T L( u1 + u2 ) = T ( L( u1 + u2 ) )
= T ( L(u1 ) + L(u2 ) )
= T ( L(u1 ) ) + T ( L(u2 ) )
= T L(u1 ) + T L(u2 )

provando a linearidade da composta. Na passagem da primeira para a segunda


linha usamos a linearidade de L; da segunda para a terceira a linearidade de
T e, da terceira para a quarta, a de…nição de composta.

A composição de transformações lineares é associativa mas, nem sempre,


comutativa. Quando dois operadores T e L forem tais que T L é igual a L T;
dizemos que eles comutam.

Exemplo 4.19 Os operadores lineares

T (x; y) = (y; x) e L (x; y) = (x; 0)

não comutam pois

L T (x; y) = L( T (x; y) ) = L (y; x) = (y; 0) :

e
T L (x; y) = T ( L (x; y) ) = T (x; 0) = (0; x) :

Notas de aula do Professor Faleiros


4.3 Composição e inversa 97

Exemplo 4.20 Os operadores

L(x1 ; x2 ) = ( x1 ; x2 ) e T (x1 ; x2 ) = (x1 ; x2 )

comutam pois
L T (x1 ; x2 ) = L(x1 ; x2 ) = ( x1 ; x2 )
e
T L(x1 ; x2 ) = T ( x1 ; x2 ) = ( x1 ; x2 );
mostrando que L T = T L:

Exemplo 4.21 Considere as transformações lineares L : P1 ! P2 e T : P2 !


P2 de…nidas por L(p)(x) = q(x) = xp(x) e T (p)(x) = p(2x + 4): Então

T L(p)(x) = T (L(p))(x) = T (q)(x) = q(2x + 4) = (2x + 4)p(2x + 4):

Ao compor uma transformação T : V ! V com a transformação identidade


I : V ! V; obtemos a própria T uma vez que

T I=I T = T:

O conceito de composição se aplica a duas ou mais transformações. Dadas as


transformações, T1 : V1 ! V2 ; T2 : V2 ! V3 ; T3 : V3 ! V4 ; de…nimos

T3 T2 T1 : V1 ! V4

por
T3 T2 T1 (v) = T3 (T2 (T1 (v)));
para todo v em V:
As de…nições de função injetora, sobrejetora, bijetora e inversa se aplicam
à transformações entre espaços vetoriais.

De…nição 4.22 Seja T : V ! W uma transformação do espaço vetorial V


no espaço vetorial W:
T é injetora se levar vetores distintos de V em vetores distintos de W: Isto
signi…ca que, se v1 6= v2 ; então T (v1 ) 6= T (v2 ): Ou ainda, se T (v1 ) = T (v2 )
implicar em v1 = v2 :
T é sobrejetora quando sua imagem for igual a W: Isto signi…ca que, se
w pertence a W; existe v em V tal que T (v) = w:
T é bijetora quando for injetora e sobrejetora. Neste caso, T possui inversa
T 1 : W ! V: Se T (v) = w; então T 1 (w) = v e
1 1
T T (v) = v e T T (w) = w:

Notas de aula do Professor Faleiros


98 Transformação linear

As projeções não são injetoras nem sobrejetoras. As rotações são isomor-


…smos.

Teorema 4.23 Seja T : V ! W uma transformação linear entre espaços


vetoriais. Então T é injetora se e só se T (v) = 0 implicar em v = 0:

Prova. Se T for linear, então T (0) = 0: Sendo T injetora e T (v) = 0


então v = 0:
Reciprocamente, suponha que T (v) = 0 implica em v = 0: Sejam v1 e v2
tais que T (v1 ) = T (v2 ) : Então, da linearidade de T; segue T (v1 v2 ) = 0; o
que implica em v1 v2 = 0; provando que T é injetora.

De…nição 4.24 Uma transformação linear bijetora é chamada de isomor-


…smo. Existindo um isomor…smo entre V e W; estes espaços vetoriais são
ditos isomorfos.

Teorema 4.25 Dois espaços vetoriais de dimensão …nita são isomorfos se, e
só se, suas dimensões forem iguais. O isomor…smo entre eles leva a base de
um espaço numa base do outros.

Teorema 4.26 Sejam V e W espaços vetoriais de dimensão …nita e T : V !


W uma transformação linear. Se dim V = dim W então são equivalentes

1. T é um isomor…smo.

2. T é sobrejetora.

3. T é injetora.
1
Sendo T : V ! W um isomor…smo existe a transformação inversa T :W
! V; que também é um isomor…smo.

Exemplo 4.27 Seja A uma matriz m n e considere a transformação linear


T : Mn 1 ! Mm 1 de…nida por T (x) = Ax: Esta transformação é invertível
se e só se A for invertível.

Sobre o ponto de vista da Álgebra Linear, dois espaços isomorfos são indis-
tinguíveis. Toda propriedade de um se transfere para o outro pelo isomor…smo.

Exemplo 4.28 A transformação linear T : Pn ! Pn+1 ; de…nida por T (p)(x) =


xp(x); é injetora mas não é sobrejetora. Sua imagem é formada pelos polinômios
de grau n + 1 cujo termo constante é nulo.

Notas de aula do Professor Faleiros


4.4 Matriz de uma transformação linear 99

Exemplo 4.29 A transformação linear D : C 1 (R) ! C(R) que leva uma


função f em sua derivada Df não é injetora, uma vez que as derivadas de
duas funções são iguais quando a diferença entre elas for a função constante.

Exercício 4.30 Veri…que quais transformações abaixo são injetoras

1. T : R2 ! R2 onde T (x; y) = (x cos ysen ; xsen + y cos):

2. T : R3 ! R3 onde T (x; y; z) = (x; y; 0):

3. T : M6 1 ! M3 1onde T (x) = Ax; onde


2 3
1 2 0 4 5 3
6 3 7 2 0 1 4 7
A=6 4 2
7:
5 2 4 6 1 5
4 9 2 4 4 7

Se L : U ! V e T : V ! W forem isomor…smos, então a composta T L


é um isomor…smo e (T L) 1 = L 1 T 1 :
Este resultado se aplica à composição de três ou mais transformações lin-
eares. Se R; S e T forem isomor…smos e a composição R S T puder ser
efetuada, ela será um isomor…smo e
1 1 1
(R S T) =T S R 1:

4.4 Matriz de uma transformação linear


Seja B1 = fv1 ; : : : ; vn g uma base de V e B2 = fw1 ; : : : ; wm g uma base de
W: Se T : V ! W for uma transformação linear, pode-se escrever
X
m
T (vj ) = aij wi
i=1

para j = 1; : : : ; n: A matriz de T em relação às bases B1 e B2 é


2 3
a11 a1n
6 .. 7
[T ]21 = 4 ... . . . . 5
am amn

Teorema 4.31 Seja T : V ! W uma transformação linear, B1 uma base de


V e B2 uma base de W: Dado v em V;

[T (v)]2 = [T ]21 [v]1

Notas de aula do Professor Faleiros


100 Transformação linear

onde [T ]21 é a matriz de T nas bases B2 e B1 ; [v]1 e [T (v)]2 são as matrizes


de coordenadas de v e T (v) nas bases B1 e B2 ; respectivamente.
Num linguagem informal, a matriz de coordenadas de T (v) é a matriz de
T multiplicada pela matriz de coordenadas de v:
P P
Prova. Se v = nj=1 xj vj e T (v) = m i=1 yi wi ; então [v]1 = [x1 ; : : : ; xn ]
T

; [T (v)]2 = [y1 ; : : : ; ym ]T são as matrizes de coordenadas de v e T (v) nas bases


P1m= fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wm g; respectivamente. Sendo T (vj ) =
B
i=1 aij wi ; então [T ]21 = [aij ] e
!
Xn Xn X
m Xm X n Xm
T (v) = xj T (vj ) = xj aij wi = aij xj wi = yi wi
j=1 j=1 i=1 i=1 j=1 i=1
Pn
de onde se conclui que yi = j=1 aij xj ; para i = 1; : : : ; m; que corresponde à
igualdade matricial
[T (v)]2 = [T ]21 [v]1 :

Quando T : V ! V for um operador linear, é usual tomar uma única base


B1 em lugar de duas bases distintas B1 e B2 : Neste caso, fazendo B1 = B2 ; a
matriz [T ]11 é chamada de matriz de T na base B1 e é denotada por [T ]1 : Se
denotarmos B1 por B; sem índice, denota-se [T ]1 simplesmente por [T ] : Sendo
v um vetor de V; [v] a matriz das coordenadas de v na base B e [T (v)] a
matriz das coordenadas de T (v) na base B; obtemos
[T (v)] = [T ][v]:
Quando B1 é a base canõnica do Rn e B2 é a base canônica do Rm ; a matriz
[T ]21 de uma transformação linear T do Rn no Rm nas bases B1 e B2 é a sua
matriz canônica.
Exemplo 4.32 Seja T : R2 ! R3 de…nida por
T (x; y) = (y; 2x + 3y; x y):
Sendo B1 = f (2; 1); (1; 2)g e B2 = f (1; 0; 1); (0; 1; 0); (1; 2; 0) g; temos
T (2; 1) = (1; 1; 1) = 1(1; 0; 1) 5(0; 1; 0) + 2(1; 2; 0)
T (1; 2) = (2; 4; 1) = 1(1; 0; 1) + 2(0; 1; 0) + 1(1; 2; 0)
e a matriz de T em relação às bases B1 e B2 é
2 3
1 1
[T ]21 = 4 5 2 5 :
2 1

Notas de aula do Professor Faleiros


4.5 Matriz da composta e da inversa 101

Exemplo 4.33 Seja T : P1 ! P2 de…nida por T (p)(x) = xp(x): Sendo B1 =


f1; xg e B2 = f1; x; x2 g; então
2 3
0 0
[T ]21 = 4 1 0 5:
0 1

Exemplo 4.34 Seja T : P2 ! P2 de…nida por T (p)(x) = p(3x 5): Sendo


B = f1; x; x2 g então
2 3
1 5 25
[T ] = 4 0 3 30 5 :
0 0 9
para calcular T (1 + 2x + 3x2 ); basta efetuar o produto matricial
2 32 3 2 3
1 5 25 1 66
4 0 3 30 5 4 2 5 = 4 84 5
0 0 9 3 27

para obter T (1 + 2x + 3x2 ) = 66 84x + 27x2 :

4.5 Matriz da composta e da inversa


Sejam U; V e W espaços vetoriais de dimensão …nita. Seja B1 = fu1 ; : : : ; um g
uma base de U; B2 = fv1 ; : : : ; vn g uma base de V e B3 = fw1 ; : : : ; wp g uma
base de U: Sejam L : V ! W e T : W ! U duas transformações lineares. Se
p p
X
n X X
L(uj ) = akj vk T (vk ) = bik wi e T L(uj ) = cij wi
k=1 i=1 i=1

então
[L]21 = [akj ]; [T ]32 = [bik ] e [T L]31 = [cij ]:
Observe: sempre que há somaPsobre um índice, ele aparece repetido. Por
n
exemplo, no somatório em k; k=1 akj vk ; o sub-índice k aparece em akj e
em vk : Vamos ser corajosos, omitindo o símbolo de somatório, para escrever
apenas akj vk ; a…rmando, enfaticamente, que ao haver um subíndice repetido,
há soma neste índice. Esta notação é denominada de notação de Einstein.
Usando-a obtemos

L(uj ) = akj vk T (vk ) = bik wi e T L(uj ) = cij wi

Notas de aula do Professor Faleiros


102 Transformação linear

Partindo da composta,
T L(uj ) = T (L(uj )) = T (akj vk ) = akj T (vk )
= akj bik wi = bik akj wi = cij wi :
Pela unicidade da decomposição de um vetor numa base, obtemos cij = bik
akj ; para i = 1; : : : ; p e j = 1; : : : ; m; que correspondem à igualdade matricial
[T L]31 = [T ]32 [L]21 :
Esta fórmula pode ser estendida para a composição de três ou mais transfor-
mações lineares.
Exercício 4.35 A transformação T : R3 ! R3 que roda um vetor no sentido
anti-horário em torno do eixo z por um ângulo ; re‡ete o vetor resultante no
plano yz e projeta este vetor ortogonalmente sobre o plano xy; nesta ordem,
é a composta de três transformações lineares T1 ; T2 e T3 ; onde T1 realiza ao
primeira, T2 realiza a segunda e T3 realiza a terceira operação. As matrizes
canônicas das transformações lineares T1; T2 e T3 são
2 3 2 3 2 3
cos sen 0 1 0 0 1 0 0
[T1 ] = 4 sen cos 0 5 [T2 ] = 4 0 1 0 5 [T3 ] = 4 0 1 0 5 :
0 0 1 0 0 1 0 0 0
Para obter a matriz canônica da composta T = T3 T2 T1 basta multiplicar
as matrizes 2 3
cos sen 0
[T ] = [T3 ] [T2 ] [T1 ] = 4 sen cos 0 5:
0 0 1
Lema 4.36 Se T : V ! W for um isomor…smo, se B1 for uma base de V e
B2 uma base de W; então
[T 1 ]12 = [T ]211
Prova. Se T 1 : W ! V for a inversa de T; então T 1 T = I onde I é o
operador identidade em V: Se B1 for uma base de V e B2 for uma base de W;
aplicando a fórmula anterior com B3 = B1 ; segue
1
[T ]12 [T ]21 = [I]11 :
1
Como [I]11 é a matriz identidade, concluímos que a matriz [T ]12 é a inversa
da matriz [T ]21 :

A recíproca também é verdadeira: Se [T ]21 for invertível, então a transfor-


mação linear T : V ! W é invertível e a matriz [T 1 ]12 de T 1 : W ! V é a
inversa da matriz [T ]21 : Podemos então enunciar

Notas de aula do Professor Faleiros


4.6 Matrizes semelhantes 103

Teorema 4.37 Sejam V e W espaços vetoriais de dimensão …nita. Uma


transformação linear T : V ! W é um isomor…smo se, e só se, as matrizes
de T nas bases de V e W forem invertíveis.

Exemplo 4.38 Considere o operador linear T : R3 ! R3 de…nido por

T (x1 ; x2 ; x3 ) = (3x1 + x2 ; 2x1 4x2 + 3x3 ; 5x1 + 4x2 2x3 )

cuja matriz na base canônica


2 3
3 1 0
[T ] = 4 2 4 3 5
5 4 2
é invertível e sua inversa
2 3
4 2 3
[T 1
] = [T ] 1
=4 11 6 9 5
12 7 10
1
é a matriz canônica de T :

4.6 Matrizes semelhantes


Duas matrizes quadradas e de mesmo tamanho A e B são semelhantes se
existir uma matriz invertível P para a qual
1
A=P BP:

Se A e B forem semelhantes, então seus determinantes, seus postos, suas nul-


idades e seus traços serão iguais. Além disto, A é invertível se, e só se, B
também o for.
Vamos mostrar que matrizes de um operador linear são semelhantes.

Teorema 4.39 Sejam B1 e B2 duas bases de um espaço vetorial V e M12 a


matriz de transição da base B1 para a base B2 : Seja T : V ! V um operador
linear, [T ]1 a matriz de T na base B1 e [T ]2 a matriz de T na base B2 : Então

[T ]2 = M121 [T ]1 M12 :

Prova. Nesta demonstração usaremos a notação de Einstein para o so-


matório. Sejam B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases de V:
Sendo M12 = [aij ] a matriz de transição de B1 para B2 ;

wj = aij vi

Notas de aula do Professor Faleiros


104 Transformação linear

para j = 1; : : : ; n: Sendo [T ]1 = [xij ] e [T ]2 = [yij ]; respectivamente as matrizes


de T nas bases B1 e B2 ; então

T (vj ) = xij vi e T (wj ) = yij wi :

Por um lado,
T (wj ) = ykj wk = ykj aik vi = aik ykj vi
e, por outro,

T (wj ) = T (akj vk ) = akj T (vk ) = akj xik vi = xik akj vi :

Da unicidade da decomposição de um vetor numa base, segue

aik ykj = xik akj

para i e j iguais a 1; : : : ; n; o que nos leva à igualdade matricial

M12 [T ]2 = [T ]1 M12

o que prova o teorema, uma vez que a matriz de transição é invertível.

Este teorema mostra que matrizes de operadores lineares T : V ! V em


bases diferentes são semelhantes. Isto nos permite de…nir o determinante de
um operador linear T por

det(T ) = det(A)

onde A é a matriz de T numa base qualquer de V: Como as matrizes de T


nas bases de V são todas semelhantes, esta de…nição de determinante não
dependente da base escolhida.

Exemplo 4.40 Seja T : R2 ! R2 de…nida por T (x1 ; x2 ) = (x1 + x2 ; 2x1 +


4x2 ): Determine a matriz de T na base canônica B1 = fe1 ; e2 g e a matriz de
T na base B2 = fv1 ; v2 g onde v1 = (1; 1) e v2 = (1; 2):
Resolução: Denotemos por [T ]1 a matriz de T na base canônica B1 e por
[T ]2 a matriz de T na base B2 : Temos

1 1
[T ]1 = :
2 4

Sendo
1 1
M12 =
1 2

Notas de aula do Professor Faleiros


4.6 Matrizes semelhantes 105

então
2 1
M21 = M121 =
1 1
e [T ]2 = M21 [T ]1 M12 : Efetuando o cálculo, obtemos

2 1 1 1 1 1 2 0
[T ]2 = =
1 1 2 4 1 2 0 3

e T (y1 v1 + y2 v2 ) = 2y1 v1 + 3y2 v2 :

Exemplo 4.41 A matriz canônica do operador linear T : R2 ! R2 ; de…nido


por T (x1 ; x2 ) = (3x1 + 2x2 ; x1 + x2 ); é

3 2
A= :
1 1

Seu determinante é o determinante de A; de modo que det(T ) = det(A) = 1:

Exemplo 4.42 Seja um número real e w1 = (cos ; sen ); w2 = ( sen ;


cos ) dois vetores do R2 : O conjunto B1 = fw1 ; w2 g é uma base do R2 :
Seja T o operador linear do R2 tal que T (w1 ) = w1 e T (w2 ) = w2 : Esta
transformação linear é tal que T (x) é o re‡exo de x na reta gerada por w1 : A
matriz de T na base B1 é
1 0
[T ]1 = :
0 1

Sendo B2 = fe1 ; e2 g a base canônica do R2 ; vale a relação

w1 = cos e1 + sen e2 ;
w2 = sen e1 + cos e2 ;

de onde obtemos a matriz de transição de B2 para B1


cos sen
M21 = :
sen cos

Sabemos que

[T ]2 = M121 [T ]1 M12 = M21 [T ]1 M211


cos sen 1 0 cos sen
=
sen cos 0 1 sen cos
cos 2 sen 2
= :
sen 2 cos 2

Notas de aula do Professor Faleiros


106 Transformação linear

Como [T (x)]2 = [T ]2 [x]2 ; segue


cos 2 sen 2 x1
[T (x)]2 =
sen 2 cos 2 x2
x1 cos 2 + x2 sen 2
=
x1 sen 2 x2 cos 2
e
T (x1 ; x2 ) = ( x1 cos 2 + x2 sen 2 ; x1 sen 2 x2 cos 2 ):
Quando = =6;
1 p p
T (x1 ; x2 ) = ( x1 + 3x2 ; 3x1 x2 ):
2

4.7 Núcleo e imagem


Seja T : V ! W uma transformação linear. O conjunto
Im (T ) = fT (v) : v 2 V g
é chamado de imagem de T e o conjunto
nuc(T ) = fv 2 V : T (v) = 0g
dos vetores de V que são levados no zero por T é chamado de núcleo de T: A
imagem de T é um subespaço de W e o núcleo de T é um subespaço de V:
A dimensão da imagem de T é chamada de posto de T; denotada por
pos(T ) e a dimensão do núcleo é chamada de nulidade de T; denotada por
nul(T ):
Se T : Mn 1 ! Mm 1 for a transformação linear T (x) = Ax onde A uma
matriz m n; então nul(T ) = nul(A) e pos(T ) = pos(A):
Exemplo 4.43 Seja A uma matriz real de tamanho m n: Considere a trans-
formação T : Rn ! Rm de…nida por T (x) = Ax: O núcleo de T é o espaço
nulo de A e a imagem de T é o espaço coluna de A:
Exemplo 4.44 Seja T : R3 ! R3 a transformação linear T (x; y; z) = (2x +
3y; x + z; 3x + 3y + z): Determine sua imagem e seu núcleo.
Exemplo 4.45 O núcleo do operador T de…nido no R3 por T (x; y; z) = (x;
y; 0) é
nuc(T ) = f(0; 0; z) 2 R3 : z 2 Rg
que possui dimensão 1 e sua imagem é
im(T ) = f(x; y; 0) 2 R3 : x; y 2 Rg
que possui dimensão 2: Logo, nul(T ) + pos(T ) = 1 + 2 = 3:

Notas de aula do Professor Faleiros


4.7 Núcleo e imagem 107

Teorema 4.46 Seja T : V ! W uma transformação linear. Se a dimensão


de V for n; então
pos(T ) + nul(T ) = n:
Prova. Seja fv1 ; : : : ; vk g uma base do núcleo e complete-a fv1 ; : : : ; vk ;
vk+1 ; : : : ; vn g; formando assim uma base de V: Para completar a prova, basta
mostrar que fT (vk+1 ); : : : ; T (vn )g é base da imagem. Se w for um vetor da
imagem de T; existe um vetor v de V tal que w = T (v): Como v = c1 v1 +
+ ck vk + + cn vn ; segue
w = T (v) = ck+1 T (vk+1 ) + + cn T (vn )
uma vez que T (v1 ); : : : ; T (vk ) são iguais ao vetor nulo. Mostramos assim que
fT (vk+1 ); : : : ; T (vn )g gera a imagem. Falta provar que este conjunto é linear-
mente independente. Se fT (vk+1 ); : : : ; T (vn )g fosse linearmente dependente,
existiriam escalares dk+1 ; : : : ; dn ; nem todos nulos, para os quais dk+1 T (vk+1 )
+ + dn T (vn ) = 0; o que acarreta em T (dk+1 vk+1 + + dn vn ) = 0:
Neste caso, o vetor dk+1 vk+1 + + dn vn pertenceria ao núcleo de T e, por-
tanto, existiriam escalares d1 ; : : : ; dk tais que dk+1 vk+1 + + dn vn = d1 v1
+ + dk vk contradizendo a independência linear do conjunto fv1 ; : : : ; vk ;
vk+1 ; : : : ; vn g: Logo, fT (vk+1 ); : : : ; T (vn )g é linearmente independente, o que
completa a prova do teorema.

Exemplo 4.47 Seja um número real. A imagem do operador linear T (x; y; z) =


(x cos y sen ; x sen + y cos ; z) é todo o R3 e o seu núcleo é o f0g:
Veri…ca-se que nul(T )+ pos(T ) = 3 de acordo com o teorema anterior.
Exemplo 4.48 Considere a transformação linear T : M6 1 (R) ! M4 1 (R)
de…nida por T (x) = Ax; onde
2 3
1 2 0 4 5 3
6 3 7 2 0 1 4 7
A=6 4 2
7:
5 2 4 6 1 5
4 9 2 4 4 7
Realizando operações elementares em A obtemos sua forma escalonada
2 3
1 2 0 4 5 3
6 0 1 2 12 16 5 7
R=6 4 0
7
0 0 0 0 0 5
0 0 0 0 0 0
que possui posto 2 e nulidade 4: Logo, o posto de T é igual a 2 e sua nulidade
é 4:

Notas de aula do Professor Faleiros


108 Transformação linear

Notas de aula do Professor Faleiros


Capítulo 5

Produto interno

5.0.1 Produtos internos


De…nição 5.1 Um produto interno ou produto escalar em um espaço ve-
torial real V é uma operação que associa a cada par de vetores v e w um
número real denotado por hv; wi; que tem as seguintes propriedades. Para
todo u; v; w em V e para todo real ;
1. hu; vi = hv; ui (simetria)
2. hu + v; wi = hu; wi + hv; wi (aditividade)
3. h u; vi = hu; vi (homegeneidade)
4. hv; vi 0 (positividade)
5. hv; vi = 0 $ v = 0
O produto interno de dois vetores v e w também é denotado por v w:
Escolha a notação que preferir.
Exemplo 5.2 Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn :
A operação
h x; y i = x1 y1 + + xn yn
de…ne um produto interno em Rn chamado de produto interno euclidiano.
Exemplo 5.3 Sejam 1 ; : : : ; n números reais positivos chamados pesos.
Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) dois vetores do Rn : A operação
h x; y i = 1 x1 y1 + + n xn yn

de…ne um produto interno em Rn chamado de produto interno euclidiano


ponderado. Em particular, h x; y i = 2x1 y1 + 3x2 y2 é um produto interno
euclidiano ponderado no R2 :

Notas de aula do Professor Faleiros


110 Produto interno

Propriedades adicionais do produto interno


Para todo real e todo u; v; w em um espaço vetorial real V com produto
interno,

1. h0; vi = hv; 0i = 0

2. hu; v + wi = hu; vi + hu; wi

3. h u; vi = hu; vi

O produto interno é linear nos dois fatores. Fixado um vetor v0 num espaço
vetorial V com produto interno, os operadores L(v) = hv; v0 i e T (v) = hv0 ; vi
são lineares.

5.1 Norma e distância


Seja V um espaço vetorial real com produto interno. De…nimos a norma de
um vetor v em V por p
kvk = hv; vi:
Sendo w outro vetor de V; de…nimos a distância de v a w por
p
d(v; w) = kv wk = hv w; v wi:

Observe que kvk = d( v; 0) e o conjunto dos vetores v em V tais que kvk =


1 é chamado de esfera unitária de V: O conjunto dos vetores v em V tais
que kvk 1 é chamado de disco unitário de V:

Exemplo 5.4 Sejam x = (x1 ; : : : ; xn ) e y = (y1 ; : : : ; yn ) duas ênuplas orde-


nadas de números reais. Designando o produto interno euclidiano no Rn por
x y; então q
p
kxk = x x = x21 + + x2n
é a norma euclidiana de x e
p p
d(x; y) = kx yk = (x y) (x y) = (x1 y1 )2 + + (xn yn )2

é a distância euclidiana entre x e y: Sendo x = (1; 2; 3); sua norma euclid-


iana é p p
k(1; 2; 3)k = 1 + 4 + 9 = 14:

Notas de aula do Professor Faleiros


5.1 Norma e distância 111

Exemplo 5.5 Sejam x = (x1 ; x2 ) e y = (y1 ; y2 ) dois pares do R2 : Se a


norma deste espaço vier do produto interno euclidiano h x; y i = x1 y1 + x2 y2
então a esfera unitária é a circunferência de raio 1: Se a norma vier do produto
interno euclidiano ponderado h x; y i = 4x1 y1 + 9x2 y2 ; a esfera unitária será
uma elipse de semi eixos 1=2 e 1=3:

Exemplo 5.6 Sendo x e y duas matrizes coluna n 1 o produto de matrizes

x y = xT y
de…ne um produto interno no espaço vetorial das matrizes coluna reais n 1:
Se A for uma matriz n n; então

(Ax) y = x AT y :

Exemplo 5.7 Seja A uma matriz quadrada real invertível n n; então

hx; yi = xT AT Ay

é um produto interno no espaço vetorial das matrizes coluna reais Mn 1 (R):


Um caso particular deste produto interno é aquele em que A é a matriz iden-
tidade, quando então,
hx; yi = xT y:

Exemplo 5.8 Seja [a; b] um intervalo de números reais e

C[a; b] = f f : [a; b] ! R : f é contínua g:

Este conjunto, com as operações de adição de funções e multiplicação de uma


função por um número real é um espaço vetorial real. Nele
Z b
hf; gi = f (x)g(x)dx
a

é um produto interno. Em relação a este produto interno, podemos de…nir a


norma e a distância entre funções f e g
Z b
2
kf k = f 2 (x)dx
a

e s
Z b
d(f; g) = [f (x) g(x)]2 dx:
a

Notas de aula do Professor Faleiros


112 Produto interno

Propriedades da norma
Para todo real k e todo v; w num espaço vetorial real V com produto interno,

1. kvk 0

2. kvk = 0 $ v = 0

3. kk vk = jkj kvk

4. kv + wk kvk + kwk :

As três primeiras propriedades são consequências diretas das propriedades


do produto interno. A quarta propriedade é chamada de desigualdade tri-
angular e será provada usando a desigualdade de Cauchy-Schwarz.

Propriedades da distância
1. d(v; w) 0

2. d(v; w) = 0 se, e só se, v = w

3. d(v; w) = d(w; v)

4. d(v; w) d(v; u) + d(u; w):

Esta última desigualdade também recebe o nome de desigualdade trian-


gular e é uma consequência da desigualdade triangular para a norma.

5.2 Desigualdade de Cauchy-Schwarz


Sendo v e w dois vetores de um espaço vetorial real V com produto interno,
vale a desigualdade
jv wj kvk kwk ;
denominada de desigualdade de Cauchy-Schwarz.
Passemos a demonstrá-la. Para todo número real ; pela propriedade (1)
segue kv + wk 0: Elevando os dois membros da desigualdade ao quadrado,

0 kv + wk2 = (v + w) (v + w) = v v + v w + w v + 2
w w

e
kvk2 + 2 v w + 2
kwk2 0:
O lado esquerdo desta desigualdade pode ser escrita na forma a 2 + b + c se
de…nirmos a = kwk2 ; b = 2v w e c = kvk2 : Este trinômio é maior ou igual a

Notas de aula do Professor Faleiros


5.3 Ângulo entre dois vetores 113

zero para todo real se e só se b2 4ac 0: Retornando aos valores originais


de a; b e c; obtemos
4(v w)2 4 kvk2 kwk2 0
ou, dividindo por 4 e extraindo a raiz quadrada, chegamos à desigualdade de
Cauchy-Schwarz
jv wj kvk kwk :
A partir dela, segue

kv + wk2 = (v + w) (v + w) = v v + 2v w + w w kvk2 + 2 jv wj + kwk2


kvk2 + 2 kvk kwk + kwk2 = (kvk + kwk)2

e, extraindo a raiz quadrada, obtemos a desigualdade triangular para a norma.


Desta desigualdade se deduz a desigualdade triangular para distâncias

d(v; w) = kv wk = k(v u) (w u)k kv uk+ku wk = d(v; u)+d(u; w):

Exemplo 5.9 Para qualquer par de ênuplas ordenadas x e y; vale


1 1
x y= kx + yk2 kx yk2 :
4 4
De fato,
kx + yk2 = (x + y) (x + y) = kxk2 + 2x y + kyk2
e
kx yk2 = (x y) (x y) = kxk2 2x y + kyk2
Logo,
kx + yk2 kx yk2 = 4x y
provando a igualdade acima.

5.3 Ângulo entre dois vetores


Se v e w forem dois vetores não nulos de um espaço vetorial real V; segue da
desigualdade de Cauchy-Schwartz que
hv; wi
1:
kvk kwk

Logo, existe um único número real no intervalo [0; ] para o qual

hv; wi
= cos
kvk kwk

Notas de aula do Professor Faleiros


114 Produto interno

e
hv; wi = cos kvk kwk :
Este número real é chamado de ângulo entre os vetores v e w:
Se hv; wi = 0; diremos que v e w são ortogonais. Não se de…ne ângulo
entre dois vetores se um deles for o vetor nulo. Entretanto, como h0; vi = 0
para todo vetor v de V; se diz que o vetor nulo 0 é ortogonal a todo vetor v
de V:
Exemplo 5.10 (Teorema de Pitágoras) Se v e w são vetores ortogonais
então kv + wk2 = kvk2 + kwk2 :
Prova. Temos kv + wk2 = (v + w) (v + w) = v v+ 2 v w + w w =
kvk2 + kwk2 ; pois u w = 0:

Exemplo 5.11 Os polinômios x e x2 são ortogonais no produto interno


Z 1
hf; gi = f (x)g(x)dx:
1

Exemplo 5.12 O tr(A) designa o traço de uma matriz quadrada A: No espaço


vetorial das matrizes reais quadradas de ordem n; a operação
hA; Bi = tr(AT B) = tr(B T A)
de…ne um produto interno. Tomando n = 2; as matrizes
1 0 0 2
A= ; B=
1 1 0 0
são ortogonais neste produto interno.
Teorema 5.13 (de Pitágoras) Se v e w forem vetores ortogonais, então
kv + wk2 = kvk2 + kwk2 :
Exemplo 5.14 O conjunto fx; x2 g é ortogonal no espaço vetorial dos polinômios
reais de grau menor ou igual a 2, em relação ao produto interno
Z 1
hp; qi = p(x)q(x) dx:
1
como
Z 1 2 Z 1 2
2 2 2 2 4
kxk + x = x dx + x dx =0+
1 1 9
Z 1 2
2 4
x + x2 = (x + x2 ) dx =
1 9
veri…ca-se que vale o teorema de Pitágoras para estes dois polinômios.

Notas de aula do Professor Faleiros


5.4 Bases ortogonais e ortonormais 115

5.4 Bases ortogonais e ortonormais


Seja V um espaço vetorial real com produto interno. Um conjunto de vetores
de V é ortogonal se dois a dois os vetores deste conjunto são ortogonais. Um
conjunto ortogonal no qual cada vetor tem norma 1 é chamado ortonormal.
Sendo fv1 ; : : : ; vn g um conjunto ortogonal de vetores que não contém o
vetor nulo, então
v1 vn
f ;:::; g
kv1 k kvn k
é ortonormal.
Se G = fv1 ; v2 ; : : : ; vn g é um conjunto ortogonal de vetores não nulos
de um espaço com produto interno, então G é linearmente independente. De
fato, se c1 ; : : : ; cn forem escalares tais que c1 v1 + + cn vn = 0; multiplicando
escalarmente os dois membros desta igualdade por vi ; obtemos ci hvi ; vi i = 0 o
que implica em ci = 0: Como i é qualquer inteiro entre 1 e n; concluímos que
c1 = c2 = = cn = 0; provando que G é linearmente independente.
Num espaço vetorial real V com produto interno e dimensão n; todo con-
junto ortogonal com n vetores, que não contém o vetor nulo, é uma base de
V: Uma base formada por vetores ortogonais é chamada de base ortogonal.
Uma base formada por vetores ortonormais é chamada de base ortonormal.

Exemplo 5.15 O conjunto fv1 ; v2 ; v3 g do R3 ; onde v1 = (0; 1; 0); v2 =


(1; 0; 1) e v3 = (1; 0; 1) é ortogonal em relação ao produto interno euclidiano.
Suas
p normaspde…nidas pelo produto interno euclidiano são kv1 k = 1; kv2 k =
2; kv3 k = 2: O conjunto
v1 v2 v3 1 1
; ; = (0; 1; 0); p (1; 0; 1); p (1; 0; 1)
kv1 k kv2 k kv3 k 2 2
é ortonormal.

Exemplo 5.16 Os vetores


1 1
v1 = (1; 0; 0); v2 = p (0; 1; 1); v3 = p (0; 1; 1)
2 2
formam um conjunto ortonormal em relação ao produto interno euclidiano do
R3 e, portanto, é uma base ortonormal do R3 :

5.5 Coordenadas numa base ortogonal


Se B = fv1 ; : : : ; vn g for uma base ortogonal de um espaço vetorial V com
produto interno, dado um vetor v em V; existem escalares c1 ; : : : ; cn tais que

Notas de aula do Professor Faleiros


116 Produto interno

v = c1 v1 + + cn vn : Efetuando o produto interno de v com vi ; para i = 1;


2; : : : ; n; obtemos
hv; vi i = ci hvi ; vi i

uma vez que hvj ; vi i = 0 para todo j 6= i: Explicitando ci ; segue

hv; vi i hv; vi i
ci = =
hvi ; vi i kvi k2

de onde se obtém
hv; v1 i hv; vn i
v= v1 + + vn :
kv1 k2 kvn k2
Se a base for ortonormal, então kvi k = 1 e

v = hv; v1 iv1 + + hv; vn ivn :

Exemplo 5.17 O conjunto B formado pelos vetores v1 = (0; 1; 0); v2 =


( 45 ; 0; 35 ); v3 = ( 35 ; 0; 54 ) é uma base ortonormal do R3 em relação ao pro-
duto interno euclidiano. As coordenadas do vetor v = (1; 2; 3) nesta base são
c1 = hv; v1 i = 2; c2 = hv; v2 i = 45 + 95 = 1; c3 = hv; v3 i = 53 + 12 5
= 3 e,
desta forma,
v = 2v1 + v2 + 3v3

e o vetor das coordenadas de v na base B é (2; 1; 3):

5.6 Produto interno numa base ortonormal


Se B = fv1 ; : : : ; vn g for uma base ortonormal de V; e v; w dois vetores de V
tais que

v= 1 v1 + + n vn ;
w= 1 v1 + + n vn ;

então
hv; wi = 1 1 + ::: + n n

kvk2 = 2
1 + ::: + 2
n
p
d(v; w) = ( 1 2 2
1) + ::: + ( n n)

Notas de aula do Professor Faleiros


5.7 Complemento ortogonal 117

5.7 Complemento ortogonal


Seja W um subespaço de um espaço vetorial V com produto interno. Um vetor
v de V é dito ortogonal a W se v for ortogonal a todos os vetores de W:
O conjunto de todos os vetores de V ortogonais a W é denotado por W ?
e chamado de complemento ortogonal de W: O complemento ortogonal de
W é um subespaço vetorial de V:
O espaço nulo f0g é o complemento ortogonal de V e vice-versa.

Propriedades do complemento ortogonal


Seja W um subespaço de um espaço vetorial V com produto interno.

1. O único vetor comum a W e a W ? é o 0:


2. Um vetor ortogonal a uma base de W é ortogonal a todo vetor de W:
3. Se a dimensão de W for …nita, o complemento ortogonal de W ? é W;
isto é, (W ? )? = W: *** Escrever a prova ***
4. Seja A uma matriz m n: Então o espaço nulo de A e o espaço col-
una de AT são complementos ortogonais com relação ao produto interno
euclidiano no espaço vetorial das matrizes coluna reais com n linhas.
De fato, sejam r1 ; r2 ; : : : ; rm as linhas de A que são as colunas de AT :
A matriz coluna x pertence ao espaço nulo de A; se, e só se, Ax = 0; o
que equivale a hr1 ; xi = = hrm ; xi = 0: Isto prova que x pertence ao
núcleo de A se, e só se, pertencer ao complemento ortogonal do espaço
coluna de AT :

Exemplo 5.18 Seja W o subespaço do R5 gerado pelos vetores

w1 = (2; 2; 1; 0; 1) w2 = ( 1; 1; 2; 3; 1)
w3 = (1; 1; 2; 0; 1) w4 = (0; 0; 1; 1; 1)

Vamos obter uma base para o complemento ortogonal de W: Dispomos os


vetores como linhas de uma matriz
2 3
2 2 1 0 1
6 1 1 2 3 1 7
6 7:
4 1 1 2 0 1 5
0 0 1 1 1
T
O espaço nulo desta matriz é gerado pelo vetor 1 1 0 0 0 : Conclui-
se que o complemento ortogonal de W é gerado pelo vetor (1; 1; 0; 0; 0):

Notas de aula do Professor Faleiros


118 Produto interno

5.8 Projeção ortogonal


Seja fv1 ; : : : ; vn g uma base ortogonal de um subespaço W de um espaço
vetorial real V com produto interno e v um vetor de V: O vetor
hv; v1 i hv; vn i
w= v1 + + vn
hv1 ; v1 i hvn ; vn i
pertence a W e é denominado projeção ortogonal de v em W: O vetor u = v
w pertence ao complemento ortogonal de W e é chamado de componente
de v ortogonal a W: Estes vetores são tais que que v = u + w: Quando a
base fv1 ; : : : ; vn g de W for ortonormal, então a projeção ortogonal de v em
W é
w1 = hv; v1 iv1 + + hv; vn ivn :
Exemplo 5.19 Considere no R3 o produto interno euclidiano. A projeção
ortogonal de x = (x1 ; x2 ; x3 ) no espaço gerado por v1 = (1; 0; 2) e v2 = (0;
1; 1) é
hx; v1 i hx; v2 i x1 + 2x3 x2 + x3
v1 + v2 = (1; 0; 2) + (0; 1; 1)
hv1 ; v1 i hv2 ; v2 i 5 2
1
= (2x1 + 4x3 ; 5x2 + 5x3 ; 4x1 + 5x2 + 13x3 ):
10
Exemplo 5.20 Seja W o subespaço do R3 gerado pelos vetores v1 = (0; 1;
0) e v2 = ( 4=5; 0; 3=5): Se considerarmos o produto interno euclidiano do
R3 ; o conjunto fv1 ; v2 g é uma base ortonormal de W: A projeção ortogonal
de v = (1; 1; 1) em W é
w = 1(0; 1; 0) 1=5( 4=5; 0; 3=5) = 1=25(4; 25; 3)
e o componente de v ortogonal a W é
u=v w = (1; 1; 1) (4=25; 1; 3=25) = 1=25(21; 0; 28):
Seja fv1 ; : : : ; vn g uma base ortogonal de um subespaço W de um espaço
vetorial V com produto interno. O operador T de…nido sobre V por
hv; v1 i hv; vn i
T (v) = v1 + + vn
hv1 ; v1 i hvn ; vn i
é linear e recebe o nome de projeção ortogonal sobre W: As projeções or-
togonais são tais que
T 2 = T:
Transformações com esta propriedade são denominadas idempotentes ou
projeções (não necessariamente ortogonais).

Notas de aula do Professor Faleiros


5.9 Obtendo bases ortogonais 119

Exemplo 5.21 Consideremos o R2 com o produto interno euclidiano. O eixo


1 é gerado por e1 = (1; 0) e o eixo 2 é gerado por e2 = (0; 1): Os operadores
lineares T1 (x1 ; x2 ) = (x1 ; 0) e T2 (x1 ; x2 ) = (0; x2 ) são as projeções ortogonais
nos eixos 1 e 2; respectivamente. A reta x2 = x1 é gerada pelo vetor v = e1
+ e2 = (1; 1): O operador linear de…nido no R2 por
hx; vi hx; (1; 1)i
T (x) = v= (1; 1)
hv; vi 2
é a projeção ortogonal na reta x2 = x1 : Sendo x = (x1 ; x2 ); obtemos
1
T (x1 ; x2 ) = (x1 + x2 ; x1 + x2 )
2
Exemplo 5.22 Consideremos o R3 com o produto interno euclidiano. O
plano 12 é gerado pelos vetores e1 = (1; 0; 0) e e2 = (0; 1; 0): O operador
linear T12 de…nido em x = (x1 ; x2 ; x3 ) do R3 por

T12 (x) = hx; e1 ie1 + hx; e2 ie2 = (x1 ; x2 ; 0)

é a projeção ortogonal sobre o plano 12: As projeções sobre os planos 13


e 23 são, respectivamente, T13 (x1 ; x2 ; x3 ) = (x1 ; 0; x3 ) e T23 (x1 ; x2 ; x3 ) =
(0; x2 ; x3 ) :

5.9 Obtendo bases ortogonais


Vamos descrever o processo de Gram-Schmidt, que permite obter bases
ortogonais de espaços vetoriais de dimensão …nita. O nome é uma homenagem
aos matemáticos que o desenvolveram: Jürgen Pederson Gram (dinamarquês,
1850 - 1916) e Erhardt Schmidt (alemão, 1876 - 1959).
Este processo mostra como obter um conjunto ortogonal fw1 ; : : : ; wn g
a partir de um conjunto linearmente independente qualquer fv1 ; : : : ; vn g:
Comece de…nindo
w1 = v1 :
Em seguida tome
w2 = v2 12 w1

e escolha 12 de modo que w2 se torne ortogonal a w1 : Se hw2 ; w1 i = 0; segue


hw1 ; v2 i
12 =
hw1 ; w1 i
Em seguida, faça
w3 = v3 13 w1 23 w2

Notas de aula do Professor Faleiros


120 Produto interno

e escolha 13 e 23 de modo a tornar w3 ortogonal a w1 e w2 : Aplicando estas


duas condições, obtém-se
hw1 ; v3 i hw2 ; v3 i
13 = e 23 = :
hw1 ; w1 i hw2 ; w2 i
Continuando com este processo, de…na

wj = vj 1j w1 2j w2 j 1;j wj 1

e determine os escalares ij de modo a tornar wj ortogonal a wi ; para i = 1;


2; : : : ; j 1: Das condições de ortogonalidade obtemos
hwi ; vj i
ij =
hwi ; wi i
para i = 1; 2; : : : ; j 1:
Usando este processo, chega-se a um vetor w1 que pertence ao espaço ger-
ado por v1 ; chega-se a um vetor w2 que pertence ao espaço gerado por v1 e
v2 : Continuando com o processo até a etapa j; chega-se a um wj que pertence
ao espaço gerado por v1 ; v2 ; : : : ; vj :
Para obter uma base ortonormal usando o processo de Gram - Schmidt,
basta dividir cada vetor por sua norma
w1 w2 w3
q1 = ; q2 = ; q3 = :
kw1 k kw2 k kw3 k
O processo de Gram-Schmidt leva uma base fv1 ; : : : ; vn g em outra fq1 ;
: : : ; qn g ortonormal de modo que, para todo k 1; fq1 ; : : : ; qk g é base do
espaço gerado por fv1 ; : : : ; vk g e qk+1 é ortogonal ao espaço gerado por fv1 ;
: : : ; vk g:

Exemplo 5.23 Obtenha uma base ortogonal fw1 ; w2 ; w3 g do R3 a partir da


base formada pelos vetores v1 = (1; 1; 1); v2 = (0; 1; 1); v3 = (0; 0; 1):

Solução. Começamos por de…nir w1 = v1 = (1; 1; 1): Em seguida, toma-se


w2 = v2 12 w1 ; onde
hw1 ; v2 i 2
12 = = ;
hw1 ; w1 i 3
resultando que
2 1
w2 = (0; 1; 1) (1; 1; 1) = ( 2; 1; 1):
3 3
Finalmente,
w3 = v3 13 w1 23 w2

Notas de aula do Professor Faleiros


5.10 Decomposição QR 121

onde
hw1 ; v3 i 1
13 = =
hw1 ; w1 i 3
hw2 ; v3 i 1=3 1
23 = = =
hw2 ; w2 i 2=3 2

resultando em
1 11 1
w3 = (0; 0; 1) (1; 1; 1) ( 2; 1; 1) = (0; 1; 1):
3 23 2

5.10 Decomposição QR
Sejam c1 ; : : : ; cn vetores coluna m 1 linearmente independentes. Consider-
emos no espaço das matrizes reais m n o produto interno hx; yi = xT y:
Podemos, mediante a utilização do processo de ortogonalização de Gram-
Schmidt, obter um conjunto ortonormal fq1 ; : : : ; qn g de vetores coluna m 1:
Calcule inicialmente
1
11 = jjc1 jj e q1 = c1
11

e depois faça o índice j percorrer os inteiros de 2 a n e calcule

ij = hqi ; cj i para i = 1; : : : ; j 1
j j = jjcj 1; j q1 j 1 ; j qj 1 jj
1
qj = (cj 1; j q1 j 1;j qj 1 )
jj

A divisão é possível pois jj é diferente de zero para j = 1; : : : ; n: O jj seria


zero para algum j; apenas se a coluna cj for uma combinação linear das colunas
c1 ; : : : ; cj 1 ; o que não é o caso, por hipótese. Explicitando cj ; obtemos

c1 = 11 q1
c2 = 12 q1 + 22 q2
c3 = 13 q1 + 23 q2 + 33 q3
..
.

Notas de aula do Professor Faleiros


122 Produto interno

Seja A = [c1 ; : : : ; cn ] uma matriz m n cujas colunas c1 ; : : : ; cn são linearmente


independentes. Seja Q = [q1 ; : : : ; qn ] a matriz m n; cujas colunas são as
matrizes q1 ; : : : ; qn obtidas no processo de ortonormalização dos vetores coluna
de A: Desta forma,
A = QR
onde2n 2 3
11 12 1n
6 0 7
6 22 2n 7
6 0 0 7
R=6 3n 7:
6 .. .. ... .. 7
4 . . . 5
0 0 nn

é uma matriz triangular superior invertível, uma vez que ii 6= 0 para i =


1; 2; : : : ; n: Podemos então enunciar o teorema conhecido como teorema da
decomposição QR.
Teorema 5.24 Seja A uma matriz m n cujas colunas formam um conjunto
linearmente independentes de matrizes. Podemos realizar a fatoração A =
QR; onde Q é uma matriz m n cujos vetores coluna formam um conjunto
ortonormal e R é uma matriz n n triangular superior e invertível.
Quando A for quadrada, Q é quadrada e seus vetores coluna formam um
conjunto ortonormal no produto interno hx; yi = xT y: Uma matriz quadrada
cujos vetores coluna formam um conjunto ortonormal são denominadas de
matrizes ortogonais, que são invertíveis e sua inversa é a sua transposta. A
inversa de uma matriz ortogonal é ortogonal e o determinante de uma matriz
ortogonal é igual a 1 ou 1:
Exemplo 5.25 Para obter a decomposição QR de
2 3
1 0 0
A=4 1 1 0 5
1 1 1
ortogonalize seus vetores coluna c1 ; c2 e c3 usando o processo de Gram-Schmidt
obtendo os vetores coluna ortonormais
2 3 2 3 2 3
1 2 0
1 1 1
q1 = p 4 1 5 ; q2 = p 4 1 5 ; q3 = p 4 1 5 :
3 1 6 1 2 1
formando a matriz
2 p p 3
1=p3 2=p 6 0p
Q = 4 1=p3 1=p6 1=p 2 5
1= 3 1= 6 1= 2

Notas de aula do Professor Faleiros


5.11 Matriz ortogonal 123

e a matriz dos coe…cientes obtidos do procedimento de Gram-Schmidt


2 3
hq1 ; c1 i hq1 ; c2 i hq1 ; c3 i
R=4 0 hq2 ; c2 i hq2 ; c3 i 5
0 0 hq3 ; c3 i
2 p p p 3
6 3 4p3 2p3
14
= 0 2 6 1p6 5 :
6
0 0 3 2

5.11 Matriz ortogonal


Uma matriz quadrada A é ortogonal quando
1
A = AT :

As matrizes
2 3
3 2 6
14 cos sen
A= 6 3 2 5 e B=
7 sen cos
2 6 3

são ortogonais.
A inversa de uma matriz ortogonal é ortogonal. O produto de duas matrizes
ortogonais é uma matriz ortogonal. O determinante de uma matriz ortogonal
é igual a +1 ou igual a 1:

Exemplo 5.26 A matriz

1 1 1
A= p
2 1 1

é ortogonal e det(A) = 1:

Teorema 5.27 Seja A uma matriz real n n e hx; yi = xT y o produto interno


euclidiano em Mn 1 (R): São equivalentes as seguintes a…rmações:

1. A é ortogonal.

2. hAx; Ayi = hx; yi para qualquer x e y em Mn 1 (R):

3. kAxk = kxk para qualquer x em Mn 1 (R):

Notas de aula do Professor Faleiros


124 Produto interno

4. Os vetores linha de A formam um conjunto ortonormal de M1 n em


relação ao produto interno hr1 ; r2 i = r1 rT2 :
5. Os vetores coluna de A formam um conjunto ortonormal de Mn 1 em
relação ao produto interno hc1 ; c2 i = cT1 c2 :
Prova. Vamos provar que 2 implica em 1: Se hAx; Ayi = hx; yi para
qualquer x e y em Mn 1 (R); então x; (AT A I)y = 0: Fazendo x = (AT A
I)y; segue (AT A I)y; (AT A I)y = 0 ou (AT A I)y = 0: Como este
sistema homogêneo de equações lineares deve ser satisfeito para todo y; AT A =
I; mostrando que A é ortogonal.
Para provar que 1 e 4 são equivalentes, considere as linhas r1 ; : : : ; rn as
linhas de A; que serão as colunas de AT : A matriz A é ortogonal se, e só se,
AAT = I: Esta igualdade se veri…ca se, e só se,
2 3
r1 rT1 r1 rT2 r1 rTn
6 r2 rT r2 rT r2 rTn 7
6 1 2 7
6 .. .. .. 7 = I
4 . . . 5
T T
rn r1 rn r2 rn rTn
Esta igualdade matricial se veri…ca se, e só se, as linhas fr1 ; r2 ; : : : ; rn g de A
formarem um conjunto ortonormal de M1 n :
Para provar que 1 e 5 são equivalentes, considere a igualdade AT A = I:

Teorema 5.28 Sejam B1 e B2 duas bases ortonormais de um espaço vetorial


real V com dimensão …nita. A matriz de transição da base B1 para a base B2
é ortogonal.
Prova. Sendo B1 = fv1 ; : : : ; vn g e B2 = fw1 ; : : : ; wn g as duas bases
ortonormais de V; podemos escrever os vetores de B2 como combinação linear
dos vetores de B1 e os vetores de B1 como combinação linear dos vetores de
B2
Xn Xn
wj = aij vi e vj = bij wi :
i=1 i=1
Neste caso, M12 = [aij ] é a matriz de transição da base B1 para a base B2 e
M21 = [bij ] é a matriz de transição da base B2 para a base B1 : Já se sabe que
1
Pn M21 = M12 : Multiplicando escalarmente
uma é a inversa da outra, P os dois lados
da igualdade wj = i=1 aij vi por vk chega-se a hwj ; vk i = ni=1 aij hvi ; vk i =
T
akj : Do mesmo modo se obtém bij = hwi ; vj i = aji ; provando que M21 = M12 ;
1 T
de onde se conclui que M12 = M12 : A inversa de M12 é sua transposta e,
portanto, ela é uma matriz ortogonal.

Notas de aula do Professor Faleiros


5.11 Matriz ortogonal 125

Exemplo 5.29 Sendo v1 = (1; 0); v2 = (0; 1); w1 = (3=5; 4=5); w2 = (4=5;
3=5) os conjuntos B1 = fv1 ; v2 g e B2 = fw1 ; w2 g são bases ortonormais do
R2 em relação ao produto interno euclidiano. Como
3 4
w1 = v1 + v2
5 5
4 3
w2 = v1 v2 ;
5 5
a matriz de transição da base B1 para a base B2 é

1 3 4
M12 =
5 4 3

que é uma matriz ortogonal.

Exemplo 5.30 Rotação em duas dimensões.. Seja B1 = fv1 ; v2 g uma base


ortonormal de um espaço vetorial V de dimensão dois com produto interno. A
base B2 = fw1 ; w2 g de…nida por

w1 = v1 cos + v2 sen
w2 = v1 sen + v2 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal
cos sen
M12 = :
sen cos

Exemplo 5.31 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1 cos + v2 sen
w2 = v1 sen + v2 cos
w3 = v3

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal 2 3
cos sen 0
M12 = 4 sen cos 0 5
0 0 1
cujo determinante é igual a 1:

Notas de aula do Professor Faleiros


126 Produto interno

Exemplo 5.32 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1 cos v3 sen
w2 = v2
w3 = v1 sen + v3 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal 2 3
cos 0 sen
M12 = 4 0 1 0 5
sen 0 cos
cujo determinante é igual a 1:

Exemplo 5.33 Rotação em três dimensões. Seja B1 = fv1 ; v2 ; v3 g uma base


ortonormal de um espaço vetorial V de dimensão três com produto interno. A
base B2 = fw1 ; w2 ; w3 g de…nida por

w1 = v1
w2 = v2 cos + v3 sen
w3 = v2 sen + v3 cos

é ortonormal e a matriz de mudança da base B1 para a base B2 é a matriz


ortogonal 2 3
1 0 0
M12 = 4 0 cos sen 5
0 sen cos
cujo determinante é igual a 1:

5.12 Mínimos quadrados


Sejam u; v; w três vetores de um espaço vetorial real V com produto interno.
Vamos dizer que o vetor v está mais perto de u do que o vetor w se d(u; v) <
d(u; w): Esta desigualdade é equivalente a ku vk < ku wk :
Seja V um espaço vetorial real V com produto interno e W um subespaço
de V com dimensão …nita. Vamos investigar qual é o vetor de W que está mais
perto de um vetor x de V: Quando x está em W então ele é o vetor de W que
está mais perto de x:
Quando x não pertence a W; tomamos uma base ortonormal B = fv1 ; : : : ;
vn g do subespaço W e um vetor genérico w = a1 v1 + + an vn em W: Que

Notas de aula do Professor Faleiros


5.12 Mínimos quadrados 127

valores devemos atribuir aos reais a1 ; : : : ; an para w ser o vetor de W mais


próximo de x? Ora,
kx wk2 = hx w; x wi
= kxk2 2hx; wi + kwk2
= kxk2 2a1 hx; v1 i 2an hx; vn i + a21 + + a2n
Esta é uma função quadrática em a1 ; : : : ; an que possui um único valor mínimo
que ocorre no ponto onde as derivadas parciais em relação às variáveis a1 ; : : : ;
an forem iguais a zero. Calculando estas derivadas parciais e igualando a zero,
obtemos
ai = hx; vi i:
O vetor de W mais próximo de x é
w = hx; v1 iv1 + + hx; vn ivn :
Esta é a projeção ortogonal de x sobre W:
Existe uma outra maneira de resolver esta questão usando métodos pu-
ramente algébricos. Ao aproximar um vetor x de V por um vetor y de W;
cometemos um êrro igual a x y: Quando x não está em W este erro é
sempre diferente de zero. Sendo w a projeção ortogonal de x sobre W;
kx yk2 = k(x w) (y w)k2 :
Como x w é ortogonal a todo vetor de W e y w pertence a W; vale o
teorema de Pitágoras
kx yk2 = k(x w) (y w)k2 = ku wk2 + ky wk2
e obtemos
ku yk2 = ku wk2 + ky wk2 ku wk2
pois ky wk2 0: Quando y é diferente de w; então ky wk2 > 0 e ku yk2
> ku wk2 : Portanto, o vetor de W que está mais perto de x é a sua pro-
jeção ortogonal sobre W: Usando apenas procedimentos algébricos, provamos
o resultado que já havíamos provado usando o Cálculo Diferencial.
Podemos dizer que a projeção ortogonal de x sobre W é a "melhor aprox-
imação"de x por vetores de W e vale o teorema da melhor aproximação
que é enunciado em seguida.
Teorema 5.34 Seja W um subspaço de dimensão …nita de um espaço vetorial
V com produto interno. Seja x um vetor de V: A projeção ortogonal de x sobre
W; que denotamos por projW x; é a melhor aproximação de x em W; no
seguinte sentido
kx projW xk < kx yk
para todo vetor y em W distinto da projeção ortogonal de x sobre W:

Notas de aula do Professor Faleiros


128 Produto interno

5.13 Soluções de mínimos quadrados


É muito comum que alguns problemas físicos leve a um sistema Ax = b que
deveria se consistente em teoria, mas que não o é porque "erros de medida"nas
entradas de A e de b perturbem o sistema su…cientemente a ponto de criar
inconsistência. Em tais situações procuramos um valor de x que chegue "tão
perto quanto possível"de ser uma solução, no sentido que minimiza o valor
de kAx bk em relação ao produto interno euclidiano de…nido no espaço das
matrizes coluna reais por hx; yi = xT y: A quantidade kAx bk pode ser
vista como uma medida do "erro"que resulta por considerar x uma solução
aproximada do sistema Ax = b: Se o sistema é consistente e x é uma solução
exata, o erro é zero, pois kAx bk = 0: Em geral, quanto maior o valor de
kAx bk ; mais pobre é a aproximação x de uma solução do sistema.
A matriz coluna x que minimiza kAx bk em relação ao produto interno
euclidiano é chamado de solução de mínimos quadrados de Ax = b: O
nome tem origem no seguinte fato: Seja e = Ax b o erro proveniente da
aproximação x: Uma solução que minimiza kek = (e21 + + e2m )1=2 ; minimiza
2 2 2
kek = e1 + + em e daí segue o nome mínimos quadrados.
Sendo A uma matriz m n e x uma matriz coluna n 1; sabemos que Ax
é uma combinação linear das coluna de A e Ax = b possui solução quando
b pertence ao espaço coluna de A: Vamos denotar este espaço coluna por W:
Quando b não pertence a W; Ax = b não possui solução mas o sistema Ax =
projW b possui.
Quando x for uma solução do sistema Ax = projW b então b Ax =
b projW b e, pelo teorema da melhor aproximação,
kb Axk = kb projW bk < kb A yk
para toda matriz coluna y para a qual Ay é diferente da projeção ortogonal
de b sobre W: Como W é o espaço coluna de A; o seu complemento ortogonal
W T é o espaço nulo de AT : Estando b Ax no espaço nulo de AT ; uma solução
por mínimos quadrados de Ax = b é solução do sistema
AT (b Ax) = 0
ou
AT Ax = AT b
que é chamado de sistema normal associado a Ax = b: Assim, o problema
de encontrar uma solução de mínimos quardados foi reduzido a um outro que
consiste em encontrar uma solução exata do sistema normal associado.
Observe que o sistema normal envolve n equações em n variáveis, é con-
sistente e pode ter in…nitas soluções. Quando este for o caso, todas as suas
soluções são soluções de mínimos quadrados de Ax = b:

Notas de aula do Professor Faleiros


5.13 Soluções de mínimos quadrados 129

Podemos então enunciar

Teorema 5.35 6.4.2 Para qualquer sistema linear Ax = b; o sistema normal


associado
AT Ax = AT b
é consistente e todas as soluções do sistema normal são soluções de mínimos
quadrados de Ax = b: Além disso, se W é o espaço coluna de A e x é qualquer
solução de mínimos quadrados de Ax = b; então a projeção ortogonal de b
em W é
projW b = Ax:

Teorema 5.36 Seja A uma matriz m n: Os vetores coluna de A são linear-


mente independentes se e só se AT A for invertível.

Prova. Se os vetores coluna de A forem linearmente independentes e x for


solução do sistema AT Ax = 0; então Ax está no espaço nulo de AT e no espaço
coluna de A: Como um é o complemento ortogonal do outro, Ax só pode ser
o vetor nulo, isto é, Ax = 0: Como os vetores coluna de A são linearmente
independentes, x = 0: Mostramos que o sistema AT Ax = 0 possui apenas a
solução trivial x = 0: Portanto, a matriz quadrada AT A é invertível.
Se os vetores coluna de A forem linearmente dependentes, existe x não nulo
tal que Ax = 0 e, consequentemente, AT Ax = 0: Portanto, AT A é singular.

Teorema 5.37 Se A é uma matriz m n com vetores coluna linearmente


independentes, então para cada matriz b de tamanho n 1; o sistema linear
Ax = b tem uma única solução de mínimos quadrados. Esta solução é dada
por
1 T
x = AT A A b:
Além disso, se W é o espaço coluna de A; então a projeção ortogonal de b em
W é
1 T
projW b = Ax = A AT A A b:

As duas fórmulas acima possuem várias aplicações teóricas, mas não são
e…cientes para cálculos numéricos. As soluções de mínimos quadrados de Ax =
b são melhor computadas por eliminação gaussiana ou eliminação de Gauss-
Jordan para resolver as equações normais e a projeção ortogonal de b no espaço
coluna de A é melhor obtida calculando Ax onde x é a solução do sistema
normal AT Ax = AT b: Em seguida, calcula-se Ax que é a projeção ortogonal
de b sobre o espaço coluna de A:

Notas de aula do Professor Faleiros


130 Produto interno

Exemplo 5.38 Encontre a solução de mínimos quadrados do sistema linear


Ax = b dado por
x1 + x2 = 4
3x1 + 2x2 = 1
2x1 + 4x2 = 3
e obtenha a projeção ortogonal de b no espaço coluna de A:
Resolução. Aqui,
2 3 2 3
1 1 4
A= 4 3 2 5 e b = 4 1 5:
2 4 3
Os vetores coluna de A são linearmente independentes e, portanto, a solução
de mínimos quadrados é única. Temos
14 3 1
AT A = e AT b =
3 21 10
e a solução de AT Ax = AT b é
x1 = 17=95 e x2 = 143=285:
A projeção ortogonal de b no espaço coluna de A é
2 3
92
1 4
Ax = 439 5 :
285
470

Exemplo 5.39 Encontrre a projeção ortogonal do vetor u = ( 3; 3; 8; 9)


no subespaço do R4 gerado pelos vetores
u1 = (3; 1; 0; 1); u2 = (1; 2; 1; 1); u3 = ( 1; 0; 2; 1):
Resolução. Poderíamos resolver este problema ortonormalizando fu1 ; u2 ;
u3 g e depois usar a fórmula da projeção ortogonal. Entretanto, o método a
seguir é mais e…ciente. Forme a matriz A cujas colunas são formadas pelas
entradas de u1 ; u2 e u3 e a matriz coluna b formada pelas entradas de u
2 3 2 3
3 1 1 3
6 1 2 0 7 6 3 7
A=6 4 0 1
7 e b = 6 7
4 8 5:
2 5
1 1 1 9

Notas de aula do Professor Faleiros


5.13 Soluções de mínimos quadrados 131

O sistema Ax = b não possui solução pois b não está no espaço coluna de A:


Se Ax for a projeção ortogonal de b no espaço coluna de A; que denotaremos
por W; então b Ax é ortogonal ao espaço coluna de A e está no espaço nulo
de AT : Isto signi…ca que AT (Ax b) = 0: Sendo
2 3 2 3
11 6 4 3
AT A = 4 6 7 0 5 e AT b = 4 8 5
4 0 6 10

construímos o sistema normal AT Ax = AT b cuja solução é


2 3
1
x = 4 2 5:
1

A projeção ortogonal de b no espaço coluna de A é


2 3 2 3
3 1 1 2 3 2
6 1 2 1
6 0 7
7 4
6
5=6 3 7
7
projW b = Ax = 4 2
0 1 2 5 4 4 5
1
1 1 1 0

e assim a projeção de u no espaço gerado por fu1 ; u2 ; u3 g é

projW u = ( 2; 3; 4; 0):

De…nição 5.40 Se W é um subespaço de Rn ; a transformação P : Rn ! Rn


que leva cada vetor x em Rm em sua projeção ortogonal projW x em W é
chamada projeção ortogonal de Rm sobre W:

A matriz canônica para a projeção ortogonal de Rn sobre W é

[P ] = A(AT A) 1 AT

onde A é construída usando qualquer base de W para vetores coluna.

Exemplo 5.41 A matriz da projeção ortogonal de R3 sobre o plano xy é


2 3
1 0 0
[P ] = 4 0 1 0 5 :
0 0 0

Notas de aula do Professor Faleiros


132 Produto interno

Vamos mostrar que esta matriz é compatível com a fórmula [P ] = A (AT A) 1


AT :
Os vetores (1; 0; 0) e (0; 1; 0) geram o plano xy: Com eles formamos a
matriz A; cujas colunas são as entradas destes dois vetores
2 3
1 0
A=4 0 1 5
0 0

onde observamos que AT A = I: Vamos calcular [P ] = A (AT A) 1


AT = AAT
2 3 2 3
1 0 1 0 0
1 0 0
[P ] = 4 0 1 5 =4 0 1 0 5
0 1 0
0 0 0 0 0

que confere com o valor de [P ] posto no início.

Exemplo 5.42 Obtenha a matriz canônica da projeção ortogonal P de R2


sobre a reta r que passa pela origem e faz um ângulo com o eixo x positivo.
O vetor direcional da reta é v = (cos ; sen ) e fvg é base do subespaço sobre
o qual desejamos efetuar a projeção. Formamos a matriz

cos
A=
sen

e, considerando que AT A é a matriz identidade de tamanho 1 1; calculamos

cos cos2 cos sen


[P ] = AAT = cos sen =
sen cos sen sin2

5.14 Teorema sobre matriz inversível


Vamos resumir neste teorema as condições sob as quais uma matriz A de
tamanho n n é invertível. Este é o teorema 6.4.5 do livro de Anton e Rorres
de onde foram retiradas algumas redundâncias.

Teorema 5.43 A…rmações equivalentes sobre a inversibilidade de uma matriz


quadrada A:
Seja A uma matriz real n n: As a…rmações abaixo são equivalentes:

1. A é inversível.

2. Ax = 0 admite apenas a solução trivial.

Notas de aula do Professor Faleiros


5.14 Teorema sobre matriz inversível 133

3. A forma escalonada reduzida por linhas de A é a matriz identidade.

4. A é igual a um produto de matrizes elementares.

5. Ax = b é consistente para cada matriz b de tamanho n 1:

6. Ax = b tem exatamente uma solução para cada matriz b de tamanho


n 1:

7. det(A) 6= 0:

8. Os vetores coluna de A são linearmente independentes.

9. Os vetores linha de A são linearmente independentes.

10. Os vetores coluna de A geram Mn 1 (R):

11. Os vetores linha de A geram M1 n (R):

12. Os vetores coluna de A formam uma base do Mn 1 (R):

13. Os vetores linha de A formam uma base do M1 n (R):

14. O complemento ortogonal do espaço nulo de A é o Rn :

15. O complemento ortogonal do espaço linha de A é o f0g:

16. AT A é inversível.

Notas de aula do Professor Faleiros


134 Produto interno

Notas de aula do Professor Faleiros


Capítulo 6

Autovalores e autovetores

Neste capítulo vamos considerar que as entradas das matrizes podem ser
números complexos. Desejando destacar que as entradas de uma matriz são
números complexos, chame-a de matriz complexa. O conjunto das matrizes
complexas m n será denotado por Mm n (C): As de…nições de igualdade de
matrizes e as operações de adição e multiplicação de matrizes permanecem
inalteradas. A de…nição de multiplicação de um escalar por uma matriz será
mantida com a ressalva de que o escalar pode ser um número complexo. As pro-
priedades de todas essas operações permanecem válidas. O conjunto Mm n (C)
com as operações de adição de matrizes e multiplicação de um escalar por uma
matriz é um espaço vetorial complexo. Aqui cabe comentar que um número
real é um número complexo com a parte imaginária igual a zero. Consequente-
mente, muitos exemplos apresentados neste capítulo envolverão matrizes reais.

6.1 Autovalor e autovetor de uma matriz


Seja A uma matriz complexa n n: Um número complexo é um autovalor
de A se houver uma matriz coluna complexa não nula x; de tamanho n 1;
para a qual
Ax = x:
Tais matrizes não nulas x para as quais Ax = x são denominadas de autove-
tores de A associados ao autovalor : Sendo x um autovetor de A associado
ao autovalor ;
(A I)x = 0
onde I é a matriz identidade de tamanho n n: O sistema linear acima possui
solução não trivial se, e só se,

det( I A) = 0:

Notas de aula do Professor Faleiros


136 Autovalores e autovetores

Esta é uma equação polinomial em chamada de equação característica de


A: O polinômio det( I A) possui grau n em e recebe o nome de polinômio
característico de A:
Observe que, obtido um autovalor ; qualquer solução não trivial de (A
I)x = 0 é autovetor de A correspondente a : Deste modo, o autovetor x
não é único. Como ele pertence ao núcleo do operador A I que é singular,
sendo x um autovetor correspondente a ; então x também é um autovetor
correspondente a ; para todo não nulo.
Para determinar os autovalores de uma matriz A; primeiro determine as
raízes do seu polinômio característico, que são os autovalores de A: Para cada
autovalor encontrado, resolva a equação homogênena (A I)x = 0 que terá
soluções não triviais. Os autovetores associados ao autovalor são os vetores
não nulos do núcleo de A I: O núcleo da matriz A I é chamado de
autoespaço de A correspondente ao autovalor : O autoespaço de uma matriz
A de tamanho n n; correspondente ao autovalor ; é

f x 2 Mn 1 : (A I)x = 0 g:
Ele é formado pelos autovetores de A correspondente ao autovalor e pelo
vetor nulo. O autoespaço é um subespaço vetorial de Mn 1 :

Exemplo 6.1 O polinômio característico det( I A) da matriz


2 3
0 0 2
A=4 1 2 1 5
1 0 3

é 3 5 2+8 4 e suas raízes são 1 = 1 e 2 = 2: Para determinar os


autovetores correspondentes a 1 = 1; montamos o sistema homogêneo (A
1 I)x = 0; que neste caso é
2 32 3 2 3
1 0 2 x1 0
4 1 1 1 5 4 x2 = 0 5 :
5 4
1 0 2 x3 0

e calculamos sua solução geral, que é gerada por


T
v3 = 2 1 1 :
T
Todo autovetor de A correspondente ao autovalor 1 = 1 é da forma 2 1 1 ;
onde é um escalar não nulo. O autoespaço de A correspondente ao autovalor
T
1 = 1 é formado pelos vetores da forma 2 1 1 ; onde é um escalar

Notas de aula do Professor Faleiros


6.1 Autovalor e autovetor de uma matriz 137

qualquer. Observe que 1 = 1 é uma raiz simples do polinômio característico


e o autoespaço correspondente a este autovalor tem dimensão 1:
Para o autovalor 2 = 2; o sistema homogêneo (A 1 I)x = 0 é
2 32 3 2 3
2 0 2 x1 0
4 1 0 1 5 4 x2 5 = 4 0 5
1 0 1 x3 0
e sua solução geral é gerada por
2 3 2
3
1 0
v1 = 4 0 5 e v2 = 4 1 5 :
1 0
Toda matriz da forma c1 v1 + c2 v2 está no autoespaço de A correspondente
ao autovalor 2 = 2: Os vetores não nulos deste autoespaço são autovetores
de A correspondente ao autovalor 2: Observe que 2 = 2 é uma raiz dupla do
polinômio característico e seu autoespaço tem dimensão 2:
Conhecendo a relação 1 ; 2 ; : : : ; k de todos os autovalores distintos de
A; pode-se fatorar o seu polinômio característico, escrevendo-o na forma
e1 e2 ek
det( I A) = ( 1) ( 2) ( k)

Os expoentes e1 ; e2 ; : : : ; en são as multiplicidades algébricas dos autoval-


ores 1 ; 2 ; : : : ; k : A dimensão do autoespaço de A correspondente a um
determinado autovalor é chamada de multiplicidade geométrica do au-
tovalor :
No exemplo anterior, a multiplicidade algébrica de 1 = 1 é igual a 1 e sua
multiplicidade geométrica também é igual a 1: Para o autovalor 2 = 2; sua
multiplicidade algébrica e geométrica são ambas iguais a 2:
Teorema 6.2 A multiplicidade geométrica de um autovalor é sempre menor
ou igual à sua multiplicidade algébrica.
Se A e B forem matrizes semelhantes, então existe P invertível tal que A
= P 1 BP; de modo que
det( I A) = det( P 1 IP P 1 BP ) = det(P 1 ( I B)P )
= det(P 1 ) det( I B) det(P ) = det( I B);
mostrando que matrizes semelhantes possuem o mesmo polinômio caracterís-
tico e, consequentemente, os mesmos autovalores. Se x é autovetor de A
correspondente ao autovalor ; então P x é autovetor de B correspondente ao
autovalor : Se y é autovalor de B correspondente ao autovalor ; então P 1 y
é autovetor de A correspondente ao autovalor :

Notas de aula do Professor Faleiros


138 Autovalores e autovetores

2 3
0 1 0
Exemplo 6.3 O polinômio característico de A = 4 0 0 1 5é 3 8 2
4 17 8
p p
17 4 = 0 e suas raízes 1 = 4; 2 = 2+ 3; 3 = 2 3 são os autovalores de
A: Os autovetores correspondentes a 1 ; 2 e 3 são, respectivamente, múltiplos
de 2 3 2 p 3 2 p 3
1 7 4p 3 7 + 4p 3
v1 = 4 4 5 ; v2 = 4 2 3 5 ; v3 = 4 2 + 3 5 :
16 1 1

Exemplo 6.4 Se uma matriz A = [aij ] de tamanho n n for triangular su-


perior ou inferior então seu polinômio característico é

( a11 )( a22 ) ( ann )


2 3
1=2 0 0
Exemplo 6.5 Os autovalores de A = 4 1 2=3 0 5 são 1=2; 2=3 e
5 8 1=4
1=4:

Uma matriz, mesmo real, pode ter um autovalor complexo. Isto ocorre
quando o polinômio característico possuir raiz complexa. neste caso, os au-
tovetores também serão complexos.

2 1
Exemplo 6.6 Os autovalores de A = são i e i:
5 2

3 0
Exemplo 6.7 Determine os autovalores e autovetores da matriz A = :
8 1

6.2 Autovalor e autovetor de um operador lin-


ear
Seja V um espaço vetorial complexo e T : V ! V uma transformação linear.
Um número complexo é um autovalor de T se houver um vetor v não nulo,
tal que
T v = v:
Os vetores não nulos v para os quais T v = v são denominados de autove-
tores de T associados ao autovalor :
Seja B = fv1 ; : : : ; vn g uma base de um espaço vetorial complexo V com
dimensão …nita e T : V ! V um operador linear. Se [T ] = [aij ] for a matriz

Notas de aula do Professor Faleiros


6.2 Autovalor e autovetor de um operador linear 139

P
de T na base B; então T (vj ) = ni=1 aij vi : Sendo v = x1 v1 + + xn vn um
autovetor de T associado a ; então T (v) = v e
! ! !
X n Xn X
n Xn Xn Xn Xn
xi vi = T xj vj = xj T (vj ) = xj aij vi = aij xj vi
i=1 j=1 j=1 j=1 i=1 i=1 j=1

ou
X
n X
n
aij xj = xi
j=1 i=1

para j = 1; : : : ; n: Estas n igualdades escalares corresponde à igualdade ma-


tricial 2 32 3 2 3
a11 a1n x1 x1
6 .. .. .. 7 6 .. 7 = 6 .. 7
4 . . . 54 . 5 4 . 5
am1 amn xn xn
que se resume a
[T ]x = x
onde x é a matriz de coordenadas de v na base B: Logo, é autovalor de uma
transformação linear T se e só se for autovalor da matriz de T numa base B
de V e v é um autovetor de T se e só se sua matriz x na base B for autovetor
de A:
Ao inclui o vetor nulo no conjunto de todos os autovetores de um operador
T correspondentes ao seu autovalor ; obtemos o autoespaço de T correspon-
dente ao autovalor :

Exemplo 6.8 Encontre os autovalores e os autoespaços do operador linear T :


R3 ! R3 de…nido por

T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ):

A matriz de T em relação à base canônica do R3 é


2 3
0 0 2
[T ] = 4 1 2 1 5
1 0 3

cujos autovalores são 1 =1e 2 = 2: Uma base do autoespaço de [T ] associado


a 1=1é
T
v3 = 2 1 1 :
e uma base do autoespaço de [T ] associado a 2 =2é
T T
v1 = 1 0 1 e v2 = 0 1 0

Notas de aula do Professor Faleiros


140 Autovalores e autovetores

A base do autoespaço de T associado a 1 = 1 é formada pelo vetor ( 2; 1;


1) e uma base do autoespaço de T associado a 2 = 2 é formada pelos vetores
( 1; 0; 1) e (0; 1; 0):

Exemplo 6.9 Considere o operador linear T : R3 ! R3 de…nido por

T (x1 ; x2 ; x3 ) = ( 2x3 ; x1 + 2x2 + x3 ; x1 + 3x3 ):

Encontre uma base de R3 em relação à qual a matriz de T é diagonal.

Exemplo 6.10 Determine os autovalores e autovetores da transformação lin-


ear
T (x1 ; x2 ; x3 ) = (x1 ; x2 ; 0):

6.3 Potências de matrizes


***
Seja A uma matriz quadrada e k um número inteiro positivo. De…nimos
A0 = I e Ak = (Ak 1 )A: Se
Ax = x
então
A2 x = 2
x:
Logo, se x for autovetor de A correspondente a ; então x é autovetor de A2
correspondente a 2 : Podemos ir além, se x for autovetor de A correspondente
a e p(t) for um polinômio, então

p(A)x = p( )x

e podemos a…rmar que, se for autovalor de A; então p( ) é autovalor de p(A):


Se x for autovetor de A correspondente ao autovalor ; então x é autovetor de
p(A) correspondente ao autovalor p( ):
2 3 2 3
1 0
Exemplo 6.11 Os vetores coluna 4 0 e 1 5 são autovetores de A =
5 4
2 3 1 0
0 0 2
4 1 2 1 5 correspondentes ao autovalor 2: Logo, estes mesmos vetores são
1 0 3
autovetores de A7 correspondentes ao autovalor 27 :

Notas de aula do Professor Faleiros


6.4 Diagonalização 141

6.4 Diagonalização
De…nição 6.12 Uma matriz A é diagonalizável se existir uma matriz in-
vertível P tal que P 1 AP é uma matriz diagonal. Dizemos que a matriz P
diagonaliza A:

Teorema 6.13 Seja A uma matriz n n; são equivalentes as a…rmações que


seguem:

1. A é diagonalizável;
2. A possui n autovetores linearmente independente;

Para uma matriz n n possuir n autovetores linearmente independentes,


a multiplicidade geométrica de cada autovalor de A deve ser igual à sua mul-
tiplicidade algébrica.
O teorema anterior sugere um procedimento para diagonalizar uma matriz

1. Encontre n autovetores linearmente independente p1 ; : : : ; pn ;


2. Forme a matriz P = p 1 : : : pn cujas colunas são formadas pelos
autovetores.
3. A matriz P 1 AP será diagonal e os elementos da diagonal 1; : : : ; n
serão exatamente os autovalores de A:

Exemplo 6.14 Para diagonalizar a matriz


2 3
0 0 2
A=4 1 2 1 5;
1 0 3

determinamos as raízes da sua equação característica ( 1)( 2)2 = 0 para


obter os autovalores 1 = 1 e 2 = 2: Resolvendo a equação (A i I)x = 0;
para 1 e 2 ; obtemos os autovetores
2 3 2 3 2 3
2 1 0
v1 = 4 1 5 ; v2 = 4 0 5 e v3 = 4 1 5 :
1 1 0
O primeiro autovetor corresponde ao autovalor 1 = 1 e os outros dois a 2 =
2: Formamos com eles a matriz
2 3
1 0 2
P =4 0 1 1 5
1 0 1

Notas de aula do Professor Faleiros


142 Autovalores e autovetores

cujas colunas são v1 ; v2 e v3 e calculamos sua inversa


2 3
1 0 2
P 1=4 1 1 1 5:
1 0 1

A matriz 2 3
2 0 0
P 1 AP = 4 0 2 0 5
0 0 1
é diagonal e os elementos da diagonal principal são os autovalores de A:

Exemplo 6.15 A matriz


2 3
1 0 0
A=4 1 2 0 5
3 5 2

não é diagonalizável pois ela possui dois autovalores 1 = 1 e 2 = 2 e, as-


sociados a cada um deles, um único autovetor linearmente independente, que
são 2 3 2 3
1 0
v1 = 4 1 5 e v2 = 0 5 :
4
1 1
Como A possui apenas dois autovetores linearmente independente, ela não
é diagonalizável.
Pode-se veri…car que A não é diagonalizável analisando os postos das ma-
trizes A 1I e A 2 I: Como o posto da matriz (A 1 I) é igual a 2; sua
nulidade é igual a 1; mostrando que as bases do autoespaço de A associado a
1 possui um único autovetor. Como o posto da matriz (A 2 I) é igual a
2; sua nulidade é igual a 1; mostrando que as bases do autoespaço de A cor-
respondente a 2 possui um único autovetor. Logo, A possui no máximo dois
autovetores linearmente independentes.

Teorema 6.16 Um conjunto formado por autovetores correspondentes a au-


tovalores distintos é linearmente independente.

Prova. Um conjunto fvg com um único autovetor é linearmente indepen-


dente pois v 6= 0: Vamos supor, como hipótese de indução, que todo conjunto
de autovetores fv1 ; : : : ; vr g; com 1 6 r < k; formado por autovetores de A
correspondentes a autovalores distintos é linearmente independente. Provemos
então que todo conjunto fv1 ; : : : ; vk g formado por autovetores correspondentes
a autovalores distintos é linearmente independente.

Notas de aula do Professor Faleiros


6.4 Diagonalização 143

Sejam c1 ; : : : ; ck escalares tais que c1 v1 + + ck vk = 0: Multiplique esta


equação inicialmente por A e, em seguida, por k : Subtraindo um resultado
do outro, segue
c1 ( 1 k )v1 + + ck 1 ( k 1 k )vk 1 + ck ( k k )vr+1 = 0:
Sendo nula a última parcela, chega-se a
c1 ( 1 k )v1 + + ck 1 ( k 1 k )vk 1 = 0:
Da independência linear de fv1 ; : : : ; vk 1 g e sendo os autovalores distintos,
concluímos que c1 = = cr = 0: Daí, como vk 6= 0; segue que ck = 0; o que
prova a independência linear de fv1 ; : : : ; vk g:

Nota 6.17 Sejam 1 ; 2 ; : : : ; k os autovalores distintos de uma matriz A


de ordem n: Para cada inteiro i entre 1 e k; a dimensão do auto-espaço cor-
respondente ao autovalor i pode ser maior do que 1: Seja Bi uma base do
auto-espaço correspondente ao autovalor i : A união de todas as bases Bi é
um conjunto linearmente independente.
Teorema 6.18 Se uma matriz A de tamanho n n tem n autovalores distin-
tos, então A é diagonalizável.
Prova. Se A tem n autovalores distintos, então possui n autovetores lin-
earmente independentes e, portanto, A é diagonalizável.
23
0 1 0
Exemplo 6.19 A matriz A = 4 0 0 1 5 possui três autovalores distin-
4 17 8
p p
tos, 1 = 4; 2 = 2 + 3 e 3 = 2 3: Portanto, A é diagonalizável e existe
uma matriz P; cujas colunas são autovetores de A tal que
2 3
4 0p 0
P 1 AP = 4 0 2 + 3 0p 5
0 0 2 3
Matrizes triangulares superiores ou inferiores com entradas distintas na
diagonal principal são diagonalizáveis.
2 3
1 2 4 0
6 0 3 1 7 7
Exemplo 6.20 A matriz A = 6 4 0 0 5
7 é diagonalizável pois pos-
8 5
0 0 0 2
sui quatro autovalores distintos e, consequentemente, quatro autovetores lin-
earmente independentes.

Notas de aula do Professor Faleiros


144 Autovalores e autovetores

6.5 Potência de uma matriz


Se A é uma matriz quadrada n n; de…nimos A0 como sendo a matriz identi-
dade e
Ak = A k 1 A
para todo número inteiro k > 0:
Se P for invertível e B = P 1 AP; então

Bk = P 1
Ak P

e, sendo g(t) um polinômio,


1
g(B) = P g(A)P

Sendo A diagonalizável, existe P invertível e D diagonal tais que A =


P DP e Ak = P 1 Dk P:
1
2 3
1 0 ::: 0
6 0 2 ::: 0 7
6 7
Quando D é diagonal, ela é uma matriz da forma 6 .. . . . .. 7
. :
4 . 0 5
0 0 0 n
2 3
k
1 0 ::: 0
6 0 k
::: 0 7
6 2 7
Neste caso, Dk = 6 .. .. .. 7e
4 . 0 . . 5
k
0 0 0 n

2 3
k
1 0 ::: 0
6 0 k
::: 0 7
k 1 k 1 6 2 7
A =P D P =P 6 .. .. .. 7 P:
4 . 0 . . 5
k
0 0 0 n

Sendo g(t) um polinômio, então


2 3
g( 1 ) 0 ::: 0
6 0 g( 2 ) : : : 0 7
1 1 6 7
g(A) = P g(D)P = P 6 .. .. .. 7 P:
4 . 0 . . 5
0 0 0 g( n )
32
0 0 2
Exemplo 6.21 Calcule A13 onde A = 4 1 2 1 5 :
1 0 3

Notas de aula do Professor Faleiros


6.6 Diagonalização ortogonal 145

6.6 Diagonalização ortogonal


No espaço vetorial das matrizes coluna reais com n linhas, vamos considerar o
produto interno euclidiano
h x; y i = xT y
onde x e y são matrizes coluna em Mn 1 (R): Se A é uma matriz quadrada de
tamanho n; então
h Ax; y i = x; AT y :
e, quando A for simétrica,

h Ax; y i = h x; Ay i :

Uma matriz quadrada A é ortogonalmente diagonalizável se existir


uma matriz ortogonal P tal que
1
D=P AP = P T AP

é uma matriz diagonal. Se diz neste caso que P diagonaliza A ortogonalmente.


Se A for ortogonalmente diagonalizável, então A é simétrica. A recíproca
também é verdadeira, como se enuncia no próximo teorema.

Teorema 6.22 Seja A uma matriz simétrica n n:

1. Os autovalores de A são reais.

2. Autovetores da A correspondentes a autovalores distintos são ortogonais.

3. A possui um conjunto ortonormal de n autovetores.

4. A é ortogonalmente diagonalizável

Para diagonalizar uma matriz simétrica, siga os seguintes passos:


Passo 1. Encontre uma base de cada auto-espaço de A:
Passo 2. Use o processo de ortogonalização de Gram-Schmidt para obter
uma base ortogonal de cada auto-espaço.
Passo 3. Divida cada vetor dessas bases pelas suas normas para obter
bases ortonormais dos auto-espaços.
Passo 4. Forme a matriz P cujas colunas são os autovetores ortonormais
obtidos. Esta matriz diagonaliza a matriz A: A matriz P T AP é diagonal.

Notas de aula do Professor Faleiros


146 Autovalores e autovetores

Exemplo 6.23 Os autovalores de


2 3
4 2 2
A=4 2 4 2 5
2 2 4

são 1 = 2 e 2 = 8: O autovalor 1 = 2 possui multiplicidade algébrica 2 e


seu autoespaço é gerado pelos autovetores
2 3 2 3
2 1
1 1
v1 = p 4 1 5 e v2 = p 4 1 5 :
2 0 6 2

Eles já foram ortonormalizados pelo processo de Gram-Schmidt. O autovalor


2 = 8; possui multiplicidade algébrica 1 e seu autoespaço é gerado por
2 3
1
1 4 5
v3 = p 1 :
3 1

A matriz P que diagonaliza A é


2 p p p 3
1=p2 1=p6 1=p3
P = 4 1= 2 1=p6 1=p3 5 :
0 2= 6 1= 3

Notas de aula do Professor Faleiros


Referências Bibliográ…cas

[BoCoFi] J. L. Boldrini, S. I. R. Costa, V. L. Figueiredo e H. G. Wetzler,


Álgebra Linear, Terceira Edição. Editora HARBRA Ltda, 1980

[CaDoCo] C. A. Callioli, H. H. Domingues e R. C. F. Costa, Álgebra Linear


e Aplicações, sexta edição. Editora Atual, 1990.

[Franklin] Joel N. Franklin, Matrix Theory, Dover publications, Inc., 1993.

[Ho¤man] Ho¤mann & Kunze, Álgebra Linear. Editora da USP com Editora
Polígono.

[Kolman] Bernard Kolman, Introdução à Álgebra Linear com Aplicações,


sexta edição. Editora LTC, 1998.

[Lang] Serge Lang, Álgebra Linear. Editora Edgard Blücher.

[Lawson] Terry Lawson, Álgebra Linear. Editora Edgard Blücher, 1997.


Acompanham este livro: Matlab Labs for Linear Algebra, Math-
ematica Labs for Linear Algebra, Maple Labs for Linear Algebra.

[Lipschutz] Seymour Lipschutz, Álgebra Linear. Coleção Schaum. Makron


Books.

[Nering] Evar D. Nering, Linear Algebra and Matrix Theory. John Wiley
& Sons, 1970.

[Nicholson] W. Keith Nicholson, Álgebra Linear, segunda ed. McGraw-Hill,


2004.

[NobDan] Ben Noble & James W. Daniel, Álgebra Linear Aplicada, segunda
edição. Guanabara Koogan, 1986.

[Poole] David Poole (Foi traduzido), Linear Algebra: A Modern Intro-


duction (with CD-ROM) 2ed. Brooks Cole 2005.

Notas de aula do Professor Faleiros


148 REFERÊNCIAS BIBLIOGRÁFICAS

[RoAn] Chris Rorres e Howard Anton, Álgebra Linear com Aplicações,


oitava edição. Editora Bookman, 2001.

[TrefBau] Lloyd N. Trefethen and David Bau III, Numerical Linear Algebra.
SIAM, Society for Industrial and Applied Mathematics, 1997.

Notas de aula do Professor Faleiros

Você também pode gostar