Você está na página 1de 81

Captulo 1

Sistemas de Equa
co
es Lineares
e Matrizes
Os sistemas de equacoes lineares tem uma grande aplicacao a diferentes
areas, tais como `a Economia, `as Engenharias, `a Fsica, . . .. De facto, muitos
problemas nestas areas levam `a necessidade de resolver sistemas de equacoes
lineares com um determinado n
umero de equacoes e incognitas. Salienta-se
que existem programas como o Mathematica e o MatLab que permitem resolver eficazmente estes sistemas quando o n
umero de equacoes e incognitas
e bastante elevado. Por esta razao apresentaremos apenas exemplos de dimensao pequena.

1.1

Generalidades

Definic
ao 1.1.1 Uma equacao linear nas incognitas x1 , x2 , . . . , xn e uma
equacao do tipo
a1 x1 + a2 x2 + . . . + an xn = b,
(1.1)
habitual designar-se b segundo
onde a1 , a2 , . . . , an , b sao n
umeros reais. E
membro ou termo independente da equacao (1.1) e a1 , a2 , . . . , an coeficientes
das incognitas. Diz-se que o n-
uplo (1 , 2 , . . . , n ) e solucao de (1.1) se
a1 1 + a2 2 + . . . + an n = b.
A conjuncao de equacoes lineares do tipo (1.1) designa-se sistema de equacoes
lineares.
1


2 CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
Definic
ao 1.1.2 Um sistema constitudo por m equacoes lineares nas n
incognitas x1 , x2 , . . . , xn , pode representar-se da seguinte forma:

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


(1.2)
..
..

.
.

a x + a x + ... + a x = b .
m1 1
m2 2
mn n
m
A resolucao de um sistema de equacoes lineares consiste em determinar
todas as suas solucoes (caso existam). Deste modo, um sistema de equacoes
lineares diz-se:
1. Possvel quando tem solucao;
1.i Determinado quando a solucao e u
nica;
1.ii Indeterminado quando tem mais do que uma solucao;
Designa-se grau de indeterminacao do sistema ao n
umero de incognitas
livres, isto e, incognitas que podem tomar valores arbitrarios.
2. Impossvel quando nao tem solucao.
No caso do sistema de equacoes lineares (1.2) ser possvel, o n-
uplo
(1 , 2 , . . . , n ) e solucao do sistema se as substituicoes xi = i ; i = 1, 2, . . . , n,
transformam todas as equacoes do sistema em identidades verdadeiras.
Definic
ao 1.1.3 Dois sistemas de equacoes lineares com o mesmo n
umero
de equacoes e de incognitas dizem-se equivalentes se o conjunto solucao for
igual.
Definic
ao 1.1.4 Um sistema de equacoes lineares cujos termos independentes sao todos nulos designa-se de sistema homogeneo. Este tipo de sistema
sera sempre possvel, pois possui sempre, pelo menos, a solucao nula.
De modo a ilustrar a aplicacao do metodo de eliminacao de Gauss-Jordan
na resolucao de sistemas de equacoes lineares, introduzir-se-`a alguma terminologia, nomeadamente, tabelas de dupla entrada designadas de matrizes.

1.1. GENERALIDADES

As matrizes denotam-se habitualmente por letras mai


usculas. Alguns
exemplos de matrizes sao:

A=

2 3 5
1 3 6

1 4
B = 0 3 ,
2 7


,

1 3 5
C = 1 3 6
5 8 3

As matrizes consistem de linhas e colunas. Por exemplo, considerando a


matriz


2 3 5
A=
,
1 3 6
As linhas sao



2 3 5
,
linha 1


1 3 6
,
linha 2

e as colunas sao



2
1
,
coluna 1


3
3 ,
coluna 2


5
6
.
coluna 3

Definic
ao 1.1.5 As matrizes consistem em tabelas de dupla entrada, em
que a localizacao de um elemento na matriz e descrita indicando a linha e a
coluna na qual o elemento se encontra. Assim, o elemento que se encontra
na linha i, coluna j da matriz A denota-se por aij . Deste modo podemos
visualizar uma matriz arbitraria m n do seguinte modo:

A=

a11
a21
..
.

a12
a22
..
.

. . . a1n
. . . a2n
.
. . . ..

am1 am2 . . . amn


Cada uma das m filas horizontais de A designa-se por linha de A enquanto
cada uma das n filas verticais se designa por coluna de A. Uma matriz com
m linhas e n colunas de n
umeros reais diz-se uma matriz de ordem ou tipo
m n sobre R.


4 CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
O conjunto de todas as matrizes do tipo m n sobre R representa-se
por Mmn . A ordem de uma matriz e descrita especificando o n
umero de
linhas e de colunas da matriz. Por exemplo, uma matriz com duas linhas e
tres colunas diz-se uma matriz de ordem 2 3, o primeiro n
umero indica o
n
umero de linhas e o segundo o n
umero de colunas. Quando o n
umero de
linhas e igual ao n
umero de colunas (m = n), diz-se que a matriz e quadrada e
escreve-se A Mn , caso contrario diz-se que a matriz e rectangular. No caso
`
da matriz ser quadrada, os elementos diagonais de A sao a11 , a22 , . . . , ann . A
sequencia ordenada constituda por estes elementos (a11 , a22 , . . . , ann ) chamase diagonal principal de A. A sequencia ordenada constituda pelos elementos
(a1n , a2,n1 , . . .,an1 ) designa-se diagonal secundaria.
Uma matriz composta por uma linha diz-se matriz linha e uma matriz
composta por uma coluna diz-se matriz coluna. Por exemplo,

2 1 3
1 1 0
matriz 23
,
matriz rectangular

3 1 2
3 0 1
2 1 8
matriz 33 ,
matriz quadrada

5 3 1
matriz 13
matriz linha

5
3
1
matriz 31
matriz coluna

Continuar-se-a, agora, o tema inicial desta seccao. Existem duas matrizes associadas a um sistema de equacoes lineares: a matriz dos coeficientes
constituda pelos coeficientes das variaveis do sistema e a matriz ampliada
constituda pela matriz dos coeficientes, juntamente com os termos independentes. A matriz dos coeficientes denota-se habitualmente por A e a matriz
ampliada por [A|B]. Por exemplo, a matriz dos coeficientes e a matriz ampliada associada ao sistema de equacoes lineares seguinte e:

1 1 2
1 1 2 1

2 0 2
2 0 2 1
x y + 2z = 1
1 3 5
1 3 5 3 ,
2x + 2z
=1

x 3y + 5z = 3.
matriz dos coeficientes
matriz ampliada
respectivamente.
As transformacoes designadas transformacoes elementares, aplicam-se ao
sistema inicial de modo a obter um sistema mais simples e equivalente ao
primeiro. Assim, dado um sistema de equacoes lineares, S, obtem-se um
sistema equivalente a S, quando:

1.1. GENERALIDADES

1. Se troca a ordem das equacoes;


2. Se multiplicam ambos os membros de uma dada equacao por uma constante diferente de zero;
3. A uma equacao se soma uma outra, eventualmente multiplicada por
uma constante arbitraria.
As transformacoes anteriores podem representar-se simbolicamente do seguinte modo:
1. Ei Ej ;
2. Ei Ei ,

6= 0;

3. Ei Ei + Ej .
A troca da ordem das incognitas permite tambem obter sistemas equivalentes entre si.
Utilizam-se transformacoes analogas, designadas operacoes elementares,
na resolucao de sistemas de equacoes lineares recorrendo ao metodo matricial,
nomedadamente
1. Troca entre si de duas linhas da matriz;
2. Multiplicacao de uma linha da matriz por um n
umero diferente de zero;
3. Substituicao de uma linha da matriz pela sua soma com um m
ultiplo
de outra,
e podem representar-se simbolicamente da forma seguinte:
1. Li Lj ;
2. Li Li , 6= 0;
3. Li Li + Lj .
Para cada uma das tres operacoes elementares anteriores existem operacoes
analogas correspondente a`s colunas, que se podem escrever simbolicamente
do seguinte modo:


6 CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
1. Ci Cj ;
2. Ci Ci , 6= 0;
3. Ci Ci + Cj .
No metodo de eliminacao de Gauss-Jordan as transformacoes elementares
sao utilizadas para eliminar de um modo sistematico variaveis. O objectivo
final deste metodo e o de se obter um sistema cujas solucoes sao dadas de
modo imediato. Ilustrar-se-`a, no exemplo seguinte, o modo de funcionamento
deste metodo quer atraves das equacoes quer recorrendo `as matrizes. O leitor
devera observar no modo como as variaveis sao eliminadas nas equacoes e
como isto se processa em termos matriciais onde sao colocados zeros em
determinadas posicoes.
Exemplo. Resolva o sistema de equacoes

x y + 2z
2x + 2z

x 3y + 5z

lineares
=1
=1
= 3.

Soluc
ao. Pretende-se eliminar os coeficientes de x na 2a e 3a equacoes,
para tal substituem-se estas equacoes pela sua soma com o produto de 2 e
1 vezes a 1a equacao, respectivamente. No segundo passo para eliminar o
coeficiente de y na 3a equacao basta adicionar a esta equacao a 2a equacao.
Isto e,

x y +2z = 1
x y +2z = 1

2x
+2z = 1
2y
2z = 1
E2 E2 2E1

E
E
E
3
3
1
x 3y +5z = 3
2y +3z = 2

x y +2z = 1
2y 2z = 1
E3 E3 +E2

z = 1.
Para obter a solucao do sistema prossegue-se utilizando a substituicao
inversa. Assim, o conjunto solucao deste sistema e {( 21 , 12 , 1)}, ou seja, e
possvel e determinado.
No metodo matricial, `a matriz ampliada associada ao sistema, [A|B],
efectuam-se as mesmas sequencias de operacoes elementares sobre linhas que


DE GAUSS
1.2. METODO
DE ELIMINAC
AO

se executaram anteriormente. Neste caso,

1 1 2 | 1
1 1 2 | 1

[A|B] = 2 0 2 | 1 L2 L2 2L1 0 2 2 | 1
L3 L3 L1
1 3 5 | 3
0 2 3 | 2

1 1 2 | 1

L3 L3 + L2 0 2 2 | 1 .
0 0
1 | 1
Au
ltima matriz representa o sistema

x y +2z = 1
2y 2z = 1

z = 1,
que pode ser resolvido por substituicao inversa dando origem ao mesmo conjunto solucao ja anteriormente obtido.

1.2

M
etodo de elimina
c
ao de Gauss

Na secao anterior, ilustrou-se o metodo de eliminacao de Gauss num


sistema de equacoes lineares em que o n
umero de equacoes e incognitas era
igual. De seguida, explica-se o funcionamento deste metodo no caso geral.
Primeiro, introduz-se o conceito de matriz em escada de linha.
Definic
ao 1.2.1 Dizse que uma matriz A de ordem Mmn esta em forma
de escada de linhas se satisfizer as condicoes seguintes:
1. Se r < m e a linha r e nula, entao a linha r + 1 tambem e nula;
2. Se s < m, a linha s e nao nula e ast e a sua primeira entrada nao nula
(designada pivot), entao para todo o j {1, . . . , t}, as+1j = 0.
Assim, uma matriz esta em forma de escada de linhas se as entradas
debaixo do pivot sao iguais a zero.
Exemplo. A matriz A de ordem

0
0

A=
0
0
0

56
1
0
0
0
0

2
0
0
0
0

0 2 4
3 1 0

0 1 5

0 0 0
0 0 0


8 CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
esta em forma de escada de linhas. No entanto, a matriz B de ordem 4 6

0 1 2 0 0 4
0 0 1 1 0 0

B=
0 0 1 0 1 5
0 0 0 0 0 0
nao esta em forma de escada de linhas.
O metodo de eliminacao de Gauss aplica-se `a matriz ampliada de um
dado sistema de equacoes lineares com o objectivo de a colocar na forma em
escada de linhas. Assim, em cada passo do metodo identifica-se o pivot e
eliminam-se os coeficientes dos termos correspondentes que se situam abaixo
dele. Na pratica usa-se uma variante do metodo de eliminacao de Gauss que
se pode sintetizar no algoritmo seguinte:
Para i = 1, . . . , m
1. Seja t o menor elemento de {1, . . . , n}, tal que ait 6= 0 (ait e candidato
a pivot no passo corrente).
2. Seja r o menor elemento de {1, . . . , t 1} tal que akr 6= 0, k {i +
1, . . . , m}.
i. Caso nao exista este elemento ait e o pivot;
ii. Caso exista este elemento troca-se a k-esima pela i-esima equacao
e air e o pivot.
3. Seja l a coluna onde se situa o pivot. Para cada s {i + 1, . . . , m},
substitui-se a s-esima equacao pela sua soma com o produto de aaslil
pela i-esima equacao.
Apos terminar o processo de eliminacao de Gauss, a resolucao do sistema
prossegue atraves da substituicao inversa, isto e, substituindo da u
ltima para
a primeira equacao os valores entretanto determinados.
Observe-se, no entanto, que na resolucao de sistemas de equacoes lineares
nao e possvel utilizar operacoes elementares sobre colunas, com excepcao da
troca de colunas aplicada `a matriz dos coeficientes.
No caso de uma matriz nao estar na forma de escada de linhas, a eliminacao de Gauss permite obter a partir desta matriz, e efectuando um n
umero


DE GAUSS
1.2. METODO
DE ELIMINAC
AO

finito de operacoes elementares sobre linhas e/ou colunas, uma nova matriz
na forma de escada de linhas.
Exemplo.Utilize o metodo de eliminacao de Gauss para encontrar uma matriz em escada de linha a partir da matriz A.

0 0 0 0
0
0 9 6 6 3

A=
0 4 5 3 4
0 2 2 2 2
Soluc
ao.

L1 1

L3 L3 4L1

L3 L3 +3L2

0
0

0
0

0
0

0
0

0
0

0
0

0
0

0
0

0
9
4
2
1
9
4
0
1
0
0
0
1
0
0
0

0 0
0
0 2 2 2 2

6 6 3
L1 L5 0 9 6 6 3
0 4 5 3 4
5 3 4
2 2 2
0 0 0 0
0

1 1 1
0 1 1 1 1

6 6 3
L2 L2 9L1 0 0 3 3 12
0 4 5 3 4
5 3 4
0 0
0
0 0 0
0
0

1 1 1
0 1 1 1 1

3 3 12
1
0
L2 L3 0 0 1

0 0 3 3 12
1
1
0
0
0
0
0 0 0
0
0

1 1 1
1 1
0
.
0 6 12
0 0
0

Aplicando o metodo de eliminacao de Gauss transformou-se a matriz A


numa matriz em escada de linhas.

Exemplo. Resolva o sistema de equacoes lineares untilizando o metodo de


eliminacao de Gauss:

=4
x + 2y z + 3w
2x + 4y 2z + 7w = 10

x 2y + z 4w = 6.


10CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
Soluc
ao. Aplicando o metodo

1
2 1 3 |

2
4 2 7 |
[A|B] =
1 2 1 4 |

1 2 1

0 0 0
L1 L1 3L2
L3 L3 +L2
0 0 0

de eliminacao de Gauss-Jordan, obtem-se

4
1 2 1 3 | 4

10 L2 L2 2L1 0 0 0
1 | 2
L3 L3 +L1
6
0 0 0 1 | 2

3 | 4
1 | 2 .
0 | 0

Au
ltima matriz representa o sistema

x + 2y z = 2
w
= 2
A primeira equacao pode-se escrever da forma x = 2y + z 2 e, portanto,
a solucao geral e x = 2y + z 2 e w = 2. Este sistema e possvel e indeterminado, por isso para se obterem solucoes particulares para este sistema
podem obter-se atribuindo a y e z diversos valores.

1.3

Caracterstica de uma matriz

Nesta secao, apresenta-se a nocao de caracterstica de uma matriz pois


permite classificar um sistema de equacoes lineares sem o resolver previamente.
Definic
ao 1.3.1 A caracterstica de uma matriz A, car(A), de ordem m n
e igual ao n
umero de pivots de uma matriz em forma de escada de linhas
obtida a partir de A.
Sejam A, B, C matrizes de ordem m n tais que B e C sao matrizes em
forma de escada de linhas que se obtem de A efectuando um n
umero finito
de operacoes elementares. Entao B e C tem a mesma caracterstica..
Teorema 1 (Teorema de Rouche) Considere-se um sistema de equacoes lineares com coeficientes e termos independentes reais, representado pela matriz ampliada [A|B]. Este sistema e possvel se e so se a caracterstica da
matriz simples do sistema, A, for igual `a caracterstica da matriz ampliada
do sistema [A|B]

1.3. CARACTERISTICA DE UMA MATRIZ

11

Deste modo, um sistema diz-se


1. Possvel Determinado quando car(A) = car(A|B) = n
umero de incognitas;
2. Possvel Indeterminado quando car(A) = car(A|B) < n
umero de incognitas.
O grau de indeterminacao = n
umero de incognitas car(A);
3. Impossvel quando car(A) < car(A|B).
Exemplo. Classifique o sistema seguinte para os diferentes valores reais de
k.

3x + 4y + 2z = k
2x + 3y z = 1

x + y + kz
= 2.
Soluc
ao: A matriz ampliada deste sistema e

3 4 2 | k
1 1

2 3
[A|B] = 2 3 1 | 1
L1 L3
1 1 k | 2
3 4

1 1
k
|
2

0 1 1 2k | 3
L3 L3 L2
0 1 2 3k | k 6

k | 2
1 | 1
2 | k

L2 L2 2L1
L3 L3 3L1

1 1
k
|
2
0 1 1 2k | 3 .
0 0 3k
| k3

Se k = 3 obtem-se

1 1 3 | 2
0 1 7 | 3 .
0 0 0 | 0
Entao, car(A) = car(A|B) = 2 < 3 =n
umero de incognitas e o grau de
indeterminacao e igual ao n
umero de incognitas menos car(A) = 3 2 = 1.
Logo, o sistema e possvel e indeterminado com grau de indeterminacao 1.
No caso de k R\{3}, car(A) = car(A|B) = 3 = n
umero de incognitas.
Como tal, o sistema e possvel e determinado.


12CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES

1.4

Propriedades alg
ebricas das matrizes

Definic
ao 1.4.1 Duas matrizes C = [cij ] e D = [dij ] dizem-se iguais quando
C e D sao matrizes com a mesma ordem satisfazendo cij = dij , para cada
i = 1, . . . , m e j = 1, . . . , n.
A definicao anterior aplica-se em particular a matrizes do tipo

1

u = [1 2 3] e v = 2 .
3
Apesar de u e v representarem o mesmo ponto em R3 , nao se pode considerar
que estas matrizes sao iguais, uma vez que tem ordens diferentes.
Definic
ao 1.4.2 Sejam A, B Mmn . A soma de A e B e a matriz A +
B Mmn que se obtem adicionando as entradas homologas de A e B, i.e.,
A + B = [aij + bij ] Mmn .
Exemplo.

1 1 x
0 2 1
1 3 x + 1
2 0 1 + 3 1 1 = 5 1
2 .
3 5 y
3 4 1
6 9 y+1

Definic
ao 1.4.3 Sejam um escalar e A = [aij ] Mmn . Chama-se produto do escalar pela matriz A, e denota-se por A, `a matriz que se obtem
multiplicando todas as entradas de A por , i.e, A = [aij ].
A matriz A e a matriz que se obtem de A multiplicando cada um dos
elementos de A por 1. Assim, se A = [aij ], entao A = [aij ]. Como tal,
pode-se definir subtraccao de matrizes em termos da adicaoe da multiplicacao
escalar. Dadas duas matrizes A = [aij ] e B = [bij ] com a mesma ordem, a
diferenca entre A e B e definida como sendo a matriz A B = A + (B).
Deste modo,
A B = [aij bij ].


1.4. PROPRIEDADES ALGEBRICAS
DAS MATRIZES

13

Definic
ao 1.4.4 Seja A = [aij ] Mmn e B = [bij ] Mnp . O produto
entre A e B, AB, e a matriz do tipo m p cujo elemento (i, j) e ai1 b1j +
ai2 b2j + + ain bnj . Assim,
" n
#
X
AB =
aik bkj Mmp .
k=1

Como se pode constatar pela definicao, o produto da matriz A pela matriz


B, AB, apenas esta definido se o n
umero de colunas de A for igual ao n
umero
de linhas de B. Neste caso, o n
umero de linhas da matriz AB e igual ao
n
umero de linhas de A e o n
umero de colunas e igual ao n
umero de colunas
de B.
Exemplo. Sejam

3 0 1
A = 1 1 2
2 4 3

1
0
B = 1 3 .
2 2

Entao

3 1 + 0 (1) + 1 2
3 0 + 0 3 + 1 (2)
AB = 1 1 + (1) (1) + 2 2 1 0 + (1) 3 + 2 (2)
2 1 + 4 (1) + 3 2
2 0 + 4 3 + 3 (2)

5 2

6 7 .
=
4 6

Considerem-se as matrizes A e B do exemplo anterior. A matriz AB tem


ordem 3 2, enquanto a matriz BA tem ordem 2 3. Assim, pode concluirse que o produto de matrizes n
ao goza da propriedade comutativa. No
entanto, embora o produto de matrizes nao seja comutativo, ha matrizes
A, B Mn tais que AB = BA. Neste caso diz-se que A e B comutam.
Definic
ao 1.4.5 A matriz nula e uma matriz em que todas as entradas sao
iguais a zero. Uma matriz diz-se triangular superior se todas as entradas
abaixo da diagonal principal sao nulas. Uma matriz diz-se triangular inferior se todas as entradas abaixo da diagonal principal sao nulas. Uma matriz


14CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
diagonal e uma matriz quadrada nos quais todos os elementos excepto a diagonal principal sao iguais a zero. A matriz identidade e uma matriz diagonal,
em que as entradas diagonais sao todas iguais a zero.
Assim,

a11 a12 . . . a1n


0 a22 . . . a2n

A = ..
.. . .
..
.
. .
.
0
0 . . . ann
matriz triangular superior

0mn

0
0
..
.

0 ...

0 ...

=
.. . .

.
.
0 0 ...
matriz nula

a11 0 . . . 0
a21 a22 . . . 0

B = ..
.. . .
.. .
.
. .
.
an1 an2 . . . ann
matriz triangular inferior
0
0
..
.

a11 0 . . . 0
0 a22 . . . 0

C = ..
.. . .
.
.
. ..
.
0
0 . . . ann
matriz diagonal

0 ... 0

1 ... 0

In =
.. . . ..

. .
.
0 0 ... 1
matriz identidade
1
0
..
.

As matrizes nulas tem um papel na teoria das matrizes semelhante ao


zero dos n
umeros reais, enquanto que as matrizes identidades tem um pape
analogo ao n
umero 1. Estes papeis encontram-se descritos no teorema seguinte.
Teorema 2 Seja A Mmn e 0mn a matriz nula de ordem m n. Seja
B Mn uma matriz quadrada nn e sejam On e In a matriz nula e a matriz
identidade de ordem n n. Entao
1. A + 0mn = 0mn = 0mn + A;
2. B0n = 0n B = 0n
3. BIn = In B = B.
Teorema 3 Sejam A, B e C matrizes e e escalares. Suponhamos que
a ordem das matrizes e tal que as operacoes seguintes podem ser realizadas.
De seguida, apresentam-se algumas propriedades para a adicao de matrizes e para o produto escalar
1. A + B = B + A, (propriedade comutativa);


1.4. PROPRIEDADES ALGEBRICAS
DAS MATRIZES

15

2. (A + B) + C = A + (B + C), (propriedade associativa);


3. A + 0mn = 0mn + A = A, (existencia de elemento neutro para a
adicao);
4. A + (A) = (A) + A = 0mn , (existencia de elemento simetrico).
5. ()A = (A), (propriedade associativa);
6. (A + B) = A + B, (propriedade distributiva);
7. ( + )A = A + A, (propriedade distributiva);
8. 1A = A, (elemento neutro).
9. A0 = 0 e 0A = 0, AIn = Im A = A, (elemento absorvente e elemento
neutro, respectivamente);
10. (AB)C = A(BC), (propriedade associativa);
11. A(B+C) = AB+AC, (A+B)C = AC+BC, (propriedade distributiva);
12. (AB) = (A)B = A(B).
Considerem-se as matrizes




1 0
0 0
A=
, B=
,
1 0
1 0


C=

1 0
2 2


e

C =

1 0
1 2


.

Entao,

AB =

0 0
0 0


e

AC =

1 0
1 0

= AC 0 .

Assim, pode concluir-se que


13. AB = 0 nao implica que A = 0 ou B = 0;
14. (AC = AC 0 e A 6= 0) nao implica que C = C 0 .
Definic
ao 1.4.6 Sejam A Mn e k N0 . Define-se potencia de expoente
k de A da forma:
(
In
se k = 0
Ak =
se k N.
AA
. . . A}
| {z
k vezes


16CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
Note-se que Ai+j = Ai Aj e Aij = (Ai )j , para i, j N0 . No entanto, como
o produto de matrizes nao e comutativo, nao se verifica (AB)i = Ai B i , i N.
Com efeito, para as matrizes




1 2
1 0
A=
e B=
1 1
1 0
obtem-se
2

AB =

3 4
2 3



1 2
1 1



1 0
1 0

1 0
1 0

2

e
2



(AB) =


=

7 0
5 0


9 0
6 0


.

e, para este exemplo, (AB)2 6= A2 B 2 .

1.5

Matrizes sim
etricas

Definic
ao 1.5.1 Seja A = [aij ] do tipo m n. A matriz transposta de A e
a matriz AT = [aji ] Mnm .
Recorrendo a` definicao anterior, verifica-se que as colunas de AT sao as
linhas de A e as linhas sao as colunas de A.
Teorema 4 Sejam A e B matrizes de tal forma que as somas e os produtos
estejam bem definidos. Entao,
1. (AT )T = A;
2. (A + B)T = AT + B T ;
3. (A)T = AT , para R;
4. (AB)T = B T AT ;
5. (Ak )T = (AT )k .
Definic
ao 1.5.2 Seja A uma matriz quadrada, tal que AT = A, entao A
diz-se simetrica. No caso de AT = A a matriz A diz-se anti-simetrica. Se
A e uma matriz quadrada que satisfaz a condicao AAT = In , entao diz-se
que A e ortogonal.


1.5. MATRIZES SIMETRICAS

17

Se A e uma matriz simetrica, entao os elementos situados em posicoes


simetricas relativamente `a diagonal principal sao iguais. Se A e uma matriz
anti-simetrica, entao os elementos diagonais da matriz sao iguais a zero e os
elementos situados em posicoes simetricas relativamente a` diagonal principal
sao simetricos.
Exemplo. A transposta de


1 2 1
A=
0 3 4
e

1 0
AT = 2 3 .
1 4
A matriz

3 2 5
B= 2 1 7
5 7 9

e simetrica, isto e, B = B T e a matriz

0
2 5
C = 2 0 7
5 7 0
e anti-simetrica, ou seja, C = C T .
Introduz-se, de seguida, um n
umero que se associa a toda a matriz quadrada designado de traco da matriz .
Definic
ao 1.5.3 Seja A Mn . O traco de A, denotado de Tr (A), e a soma
dos elementos da diagonal principal de A, isto e,
Tr (A) = a11 + a22 + . . . + ann
Exemplo: Determine o traco da matriz

4 1 2
A = 2 5 6 .
7 3
0


18CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
Solucao. Obtem-se Tr (A) = 4 + (5) + 0 = 1.
O traco de matriz desempenha um papel muito importante na teoria das
matrizes por causa das suas propriedades muito simples. Este conceito e
utilizado em areas tais como a mecanica estatstica, na relatividade geral
na mecanica quantica, uma vez que tem um significado fsico. No teorema
seguinte apresentam-se alguns resultados sobre o traco.
Teorema 5 Sejam A, C matrizes e c um escalar. Suponhamos que as matrizes tem ordem que permitem as operacoes seguintes:
(a) Tr (A + B) = Tr (A) + Tr (B)
(b) Tr (AB) = Tr (BA)
(c) Tr (cA) = cTr (A)
(d) Tr (AT ) = Tr (A)
Demonstrac
ao. Prova-se apenas a alnea (a), as demonstracao das restantes alneas sao deixadas a cargo do leitor. Como os elementos da diagonal
principal de A + B sao (a11 + b11 ), (a22 + b22 ), . . . , (a22 + b22 ), obtem-se
Tr (A + B) = (a11 + b11 ) + (a22 + b22 ) + . . . + (ann + bnn )
= (a11 + a22 + . . . + ann ) + (b11 + b22 + . . . + bnn )
= Tr (A) + Tr (B).


Para finalizar esta secao, abordar-se-a o tema sobre matrizes com entradas
complexas. Um n
umero complexo
e um n
umero da forma z = a + b i. onde

a, b sao n
umeros reais e i = 1. a designa-se parte real e b designa-se parte
imaginaria de z. O conjunto constitudo pelos n
umeros complexos denota-se
por C
Descrevem-se de seguida, a regras da aritmetica para n
umeros complexos.
Sejam z1 = a + b i e z2 = c + d i n
umeros complexos. Entao
1. z1 = z2 se e so se a = c e b = d;
2. z1 + z2 = (a + c) + (b + d) i


1.5. MATRIZES SIMETRICAS

19

3. z1 z2 = (a c) + (b d) i
4.
z1 z2 = (a + b i)(c + d i) = a(c + d i) + b i(c + d i)
= ac + ad i + bc i + bdi2
= ac + bdi2 + (ad + bc) i = (ac bd) + (ad + bc) i
O conjugado de um n
umero complexo z = a + b i define-se e denota-se por
z = a b i.
Exemplo. Considere os n
umeros complexos z1 = 2 + 3 i e z2 = 1 2 i.
Calcule z1 + z2 , z1 z2 e z1 .
Solucao. Usando as definicoes anteriores, obtem-se
z1 + z2 = (2 + 3 i) + (1 2 i) = (2 + 1) + (3 2) i = 3 + i
z1 z2 = (2 + 3 i)(1 2 i) = 2(1 2 i) + 3 i(1 2 i) = 2 4 i + 3 i 6 i2 = 8 i
z1 = 2 3 i

As operacoes matriciais em matrizes com entradas complexas sao exactamente iguais ao caso de matrizes com entradas reais,
Exemplo. Sejam




2 + i 3 2i
3
2i
A=
eB=
.
4
5i
1 + i 2 + 3i
Calcule A + B, 2A e AB.
Solucao. Obtem-se

 

2 + i 3 2i
3
2i
A+B =
+
4
5i
1 + i 2 + 3i

 

2 + i + 3 3 2i + 2i
5+ i
3
=
=
4 + 1 + i 5i + 2 + 3i
5+ i 2+8


2A = 2

2 + i 3 2i
4
5i


=

4 + 2i 6 4i
8
10 i


20CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES


AB =

2 + i 3 2i
4
5i



3
2i
1 + i 2 + 3i

3(2 + i) + (3 2 i)(1 + i) (2 + i)(2 i) + (3 2 i)(2 + 3 i)


=
4 3 + (5 i)(1 + i)
4(2 i) + (5 i)(2 + 3 i)


11 + 4 i 10 + 9 i
=
.
7 + 5 i 15 + 8 i

A conjugada da matriz A denota-se por A e obtem-se de A fazendo a


conjugada de cada uma das entradas de A. A matriz transconjugada
de A

T
2
+
3
i
1

4
i
escreve-se e define-se por A = A . Por exemplo, se A =
,
6
7i
entao




T
2 3i 1 + 4i
2 3i 6

A=
e A =A =
.
6
7 i
1 + 4 i 7 i

Uma matriz quadrada diz-se hermtica se A =


A.
2
3 4i
Por exemplo, a matriz C =
e hermtica. De facto,
3 + 4 i 7 i


C=

2
3 + 4i
3 4i
6


e

C =C =

2
3 4i
3 + 4 i 7 i


= C.

As propriedades da transconjugada sao semelhantes a`s propriedades da


transposta, como se pode constatar no teorema que se segue.
Teorema 6 Sejam A, B matrizes com entradas complexas e seja z um n
umero
complexo. Entao
(a) (A + B) = A + B ;
(b) (z A) = z A ;
(c) (AB) = B A
(d) (A ) = A

1.6. INVERSA DE UMA MATRIZ

1.6

21

Inversa de uma matriz

Dado um escalar nao nulo , entao para cada escalar a equacao x =


tem uma u
nica solucao dada por x = 1 . Sera possvel efectuar um
raciocnio semelhante no caso dos sistemas de equacoes lineares da forma
AX = B, isto e, sera possvel encontrar uma matriz A1 de modo que
X = A1 B? A resposta a esta questao e afirmativa no caso da matriz A ser
quadrada.
Definic
ao 1.6.1 Seja A uma matriz quadrada de ordem n. Diz-se que A e
invertvel (ou regular ou nao singular) se existir uma matriz quadrada B de
ordem n, tal que AB = BA = In .
Note-se que existe apenas uma matriz quadrada B satisfazendo as igualdades anteriores. A matriz B denomina-se inversa da matriz A e denota-se
por A1 .
Teorema 7 Sejam A, B Mn invertveis. Entao
1. AB e invertvel e (AB)1 = B 1 A1 ;
1 1
1
2. Ak e invertvel e (Ak )1 = A
| A {z. . . A }, k N;
k vezes

3. AT e invertvel e (AT )1 = (A1 )T ;


4. A1 e invertvel e (A1 )1 = A;
5. (A)1 = 1 A1 , 6= 0;
6. In1 = In .
Demonstrac
ao:
1. Note-se que B 1 A1 e inversa de AB se e so se (AB)(B 1 A1 ) =
(B 1 A1 )(AB) = In . Dado que as matrizes A e B sao invertveis e que
o produto de matrizes e associativo, vem
(AB)(B 1 A1 ) = A(BB 1 )A1 = AIn A1 = AA1 = In
e
(B 1 A1 )(AB) = B 1 (A1 A)B = B 1 In B = B 1 B = In .


22CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
2. Uma vez que (A1 )m e inversa de Am se e so se Am (A1 )m = (A1 )m Am =
In e que A e invertvel e o produto de matrizes e associativo, tem-se
Am (A1 )m = (A . . . AAA) (A1 A1 A1 . . . A1 )
|
{z
}|
{z
}
m vezes
m vezes
= (A . . . AA)(AA1 ) (A1 A1 . . . A1 )
{z
}
|
| {z }
m1 vezes
m1 vezes
= (A . . . AA) In (A1 A1 . . . A1 )
| {z } |
{z
}
m1 vezes
m1 vezes
= (A . . . AA) (A1 A1 . . . A1 )
{z
}
| {z } |
m1 vezes
m1 vezes
=
= In .
3. Dado que (A1 )T e inversa de AT se e so se (A1 )T AT = (AT A1 )T = In
e que A e invertvel e o produto de matrizes e associativo, tem-se
(A1 )T AT = (A A1 )T = In
e
(AT A1 )T = (A1 A)T = In .
As demonstracoes de 4. e 5. sao analogas `as anteriores e deixam-se a
cargo do leitor. A demonstracao de 6. e imediata.

Definic
ao 1.6.2 Uma matriz A e ortogonal se e so se a sua inversa coincidir
com a sua transposta, i.e., A1 = AT .
Seja A Mn uma matriz invertvel. A matriz inversa de A pode ser
determinada usando o algoritmo de Gauss-Jordan, que consiste nos seguintes
passos:
1. Aplicar a` matriz [A|In ], de ordem n 2n, o metodo de eliminacao de
Gauss descendente.
2. Quando a matriz estiver na forma de escada, se o n
umero de linhas
nao nulas for menor que n, entao a matriz A nao e invertvel. Caso
contrario,

1.6. INVERSA DE UMA MATRIZ

23

2.i comecando pela u


ltima linha e utilizando operacoes elementares,
anulam-se os elementos que se encontram acima da diagonal principal da matriz a` esquerda.
2.ii Depois de transformada a matriz a` esquerda na forma diagonal
dividem-se todas as linhas pelos respectivos elementos diagonais
da matriz a` esquerda.
No final deste processo obtem-se a matriz [I|A1 ].
A partir do metodo anterior, pode-se concluir que A Mn e invertvel se
e so se a sua caracterstica e igual a n.
Exemplo. Averig
ue se a seguinte matriz e invertvel e em caso afirmativo
determine a sua inversa.

1 1 4
A = 2 5 4 .
1 4 2
Soluc
ao. Comeca-se por aplicar
dente `a matriz

[A|I] = 2
1

o metodo de eliminacao de Gauss descen


1 4 | 1 0 0
5 4 | 0 1 0 .
4 2 | 0 0 1

O primeiro passo consiste em adicionar `a segunda e `a terceira linhas de [A|I] a


primeira linha multiplicada por 2 e 1, respectivamente. Na matriz obtida
adiciona-se `a terceira linha a segunda multiplicada por 1:

1 1 4 | 1 0 0
1 1 4 | 1 0 0

[A|I] = 2 5 4 | 0 1 0 L2 L2 2L1 0 3 4 | 2 1 0
L3 L3 L1
1 4 2 | 0 0 1
0 3 6 | 1 0 1

1 1 4 | 1
0 0

0 3 4 | 2 1 0 .
L3 L3 L2
0 0 2 | 1 1 1
Como se pode observar a matriz A e invertvel, dado que o n
umero de linhas
nao nulas da matriz em escada a` esquerda e 3. Inicia-se, agora, a eliminacao
de Gauss ascendente. Usa-se o elemento 2 que se encontra na posicao (3, 3)
para anular os restantes elementos da terceira coluna (adiciona-se `a segunda
e primeira linhas a terceira multiplicada por 2 e 2, respectivamente). Na


24CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES
nova
13 :

1
0
0

matriz obtida, adiciona-se a` primeira linha a segunda multiplicada por

1 0 | 3 2 2
1 0 0 | 13
3 38
3

0 3 0 | 4 3 2 .
3 0 | 4 3 2
L1 L1 13 L2
0 2 | 1 1 1
0 0 2 | 1 1 1

Do lado esquerdo obteve-se uma matriz diagonal. Resta dividir a segunda


linha por 3 e a terceira por 2:

3 83
1 0 0 | 13
3
[I|A1 ] = 0 1 0 | 34 1 23 .
0 0 1 | 21 12 21
Conclu-se que A e invertvel e a sua inversa e
13

8
3
3
3
A1 = 43 1 23 .
12 21 12
Considere o seguinte sistema de equacoes lineares

a11 x1 + a12 x2 + . . . + a1n xn = b1

a21 x1 + a22 x2 + . . . + a2n xn = b2


.
..

a x + a x + ... + a x = b .
m1 1
m2 2
mn n
m
possvel escrever este sistema usando notacao matricial.
E


a11 x1 + a12 x2 + . . . + a1n xn
b1
a21 x1 + a22 x2 + . . . + a2n xn b2

= ..
..

.
.
am1 x1 + am2 x2 + . . . + amn xn .
bm

De facto,

A matriz da esquerda pode ser escrita como o produto da matriz dos coeficientes A e a matriz coluna das variaveis. Seja AB a matriz coluna dos termos
independentes, isto e,
A

X
B
a11 a12 . . . a1n
x1
b1
a21 a22 . . . a2n x2 = b2

..
..
..
.. ..
.

. ...
.
.
.
am1 am2 . . . amn
xn
bm

1.6. INVERSA DE UMA MATRIZ

25

Teorema 8 Se A Mn e invertvel, entao verifica-se facilmente que a


solucao do sistema AX = B e dada por X = A1 B.
Demonstracao: A invertibilidade de A implica que AX = B seja equivalente
a A1 (AX) = A1 B o que, conjuntamente com a associatividade do produto
matricial, permite escrever a equacao anterior da forma In X = A1 B, ou
seja, X = A1 B.

Exemplo. Seja

=1
x + y + 4z
2x + 5y + 4z = 1

x + 4y 2z = 0.
Este sistema pode representar-se matricialmente como AX = B, onde



1 1 4
x
1
A = 2 5 4 , X = y e B = 1 .
1 4 2
z
0
Pelo exerccio anterior tem-se

3 83
1 23 .
A1 =
1
12
2
13
4
3 38
1
3
3
4
2
1

1 = 13 . Assim, o conjunto
Logo, X = A B = 3 1 3
12 12 12
0
0
solucao do sistema e {( 34 , 13 , 0)}.

13
3
43
12


26CAPITULO 1. SISTEMAS DE EQUAC
OES
LINEARES E MATRIZES

7236(&5(7
%\(YHUXVDW

Captulo 2
Determinantes e
Valores/Vectores Pr
oprios
Como se constatou no Captulo 1, nem sempre uma matriz quadrada e
invertvel. Recorde-se que
A Mn e invertvel se e so se car(A) = n.

(2.1)

Neste captulo, mostra-se que e possvel associar a cada matriz A Mn


um n
umero, dependendo exclusivamente das entradas da matriz, que permite
decidir acerca da invertibilidade de A. Este n
umero designa-se determinante
de A e denota-se por det (A) ou |A|.

2.1

Determinantes - Defini
c
oes e Propriedades

O caso 1 1 e trivial. De facto, uma matriz A = [a11 ] M1 e invertvel


se e so se a11 6= 0, isto e, car(A) = 1.
Analise-se, agora, o caso 2 2. Considere-se a matriz


a11 a12
A=
a21 a22
e comece-se por supor que a11 6= 0. Assim,
#

 " a


a
11
12

a
a
a11 a12
11
12
a22 a11 a21 a12 ,
=
A=
0 a22 aa21
a12
0
a21 a22 L2 L2 aa21 L1
11
11
a11
27


28CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
o que, juntamente com (2.1), permite concluir que A e invertvel se e so se
a22 a11 a21 a12 6= 0.
Se a11 = 0, entao





0 a12
a21 a22
A=
a21 a22 L2 L1
0 a12
e A e invertvel quando a21 6= 0 e a12 6= 0, isto e quando a21 a12 6= 0. Deste
modo, construiu-se, a partir das entradas da matriz, o n
umero a22 a11 a21 a12 ,
que indica se a matriz A e ou nao invertvel.
Em termos praticos, o determinante de uma matriz de ordem 2, A = [aij ] ,
pode calcular-se utilizando uma regra, habitualmente designada Regra dos
Produtos Cruzados, que consiste em subtrair o produto dos elementos da
diagonal secundaria ao produto dos elementos da diagonal principal, isto e,
Definic
ao 2.1.1 O determinante de uma matriz 2 2 denota-se por |A| ou
det (A) e e dado por


a11 a12


a21 a22 = a22 a11 a21 a12
Exemplo. Considere-se a matriz


1 2
A=
M2 ,
3 4
entao det (A) = 1 4 3 2 = 2.
No caso de A M3 mostra-se, de

a11
A = a21
a31

forma semelhante, que

a12 a13
a22 a23
a32 a33

e invertvel se e so se
a11 a22 a33 + a21 a32 a13 + a31 a12 a23 a31 a22 a13 a11 a32 a23 a21 a12 a33 6= 0.
Tal como no caso 2 2, o determinante de uma matriz de ordem 3 pode
obter-se usando uma regra pratica designada Regra de Sarrus. A utilizacao
desta regra pode resumir-se do seguinte modo:


2.1. DETERMINANTES - DEFINIC
OES
E PROPRIEDADES

29

1. Reproduzem-se as duas primeiras linhas, apos a terceira linha de A.


2. Considera-se a diagonal principal de A, (a11 , a22 , a33 ), e as sequencias
(a21 , a32 , a13 ) e (a31 , a12 , a23 ), bem como a diagonal secundaria, (a31 , a22 , a13 ),
e as sequencias (a11 , a32 , a23 ) e (a21 , a12 , a33 ).
O determinante de A obtem-se multiplicando os elementos que constituem
cada uma das sequencias, somando, depois, as parcelas correspondentes `a
diagonal principal e a`s duas sequencias que lhe estao associadas e subtraindo
as parcelas relativas a` diagonal secundaria e `as outras duas sequencias que
lhe correspondem.
Definic
ao

a11

|A| = a21
a31

2.1.2 O determinante de uma matriz A M3 e dado por



a12 a13
a22 a23 = a11 a22 a33 +a21 a32 a13 +a31 a12 a23 a31 a22 a13 a11 a32 a23 a21 a12 a33 .
a32 a33

Exemplo. Seja

1 2 3
A = 4 5 6 M3 ,
1 1 1
entao det (A) = 1 5 (1) + 4 1 3 + 1 2 6 1 5 3 1 1
6 4 2 (1) = 6.
Apresentam-se de seguida algumas propriedades imediatas associadas ao
determinante de uma matriz 2 2:
1. Seja A = [aij ] M2 , entao

det

a11 + a011 a12 + a012


a21
a22


= det

a11 a12
a21 a22


+ det

a011 a012
a21 a22


.

Esta propriedade admite uma versao analoga no caso da soma ocorrer


na segunda linha da matriz.


30CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
2. Seja A = [aij ] M2 e R, entao




a11 a12
a11 a12
det
= det
.
a21
a22
a21 a22
Esta propriedade ainda e valida no caso de estar multiplicado pela
segunda linha.
3. Seja A = [aij ] M2 , entao




a11 a12
a21 a22
det
= det
.
a21 a22
a11 a12
4. det (I2 ) = 1.
As propriedades anteriores continuam a ser validas para o caso de matrizes
de ordem 3 e as demonstracoes deixam-se a cargo do leitor.
Definic
ao 2.1.3 O determinante de uma matriz A Mn como sendo a
funcao
det : Mn
R
A
, det (A),
que a cada matriz quadrada A de ordem n faz corresponder um n
umero real,
det (A), de tal modo que as seguintes condicoes sejam satisfeitas:
P1. det (L1 , . . . , Li + L0i , . . . , Ln ) = det (L1 , . . . , Li , . . . , Ln )+det (L1 , . . . , L0i , . . . , Ln ) ;
P2. det (L1 , . . . , Li , . . . , Ln ) = det (L1 , . . . , Li , . . . , Ln ) ;
P3. det (L1 , . . . , Li , . . . , Lj , . . . , Ln ) = det (L1 , . . . , Lj , . . . , Li , . . . , Ln ) ;
P4. det (In ) = 1,
onde Li representa a iesima linha da matriz A.
Da Propriedade 1 conclui-se que, em geral, dadas A, B Mn ,
det (A + B) 6= det (A) + det (B).


2.1. DETERMINANTES - DEFINIC
OES
E PROPRIEDADES

31

Exemplo. Considerem-se as matrizes de ordem 2






0 0
1 0
A=
e B=
.
0 0
0 1
Entao,

A+B =

1 0
0 1


e det (A + B) = 1.

Como det (A) = det (B) = 0, vem que det (A) + det (B) 6= det (A + B).
Teorema 9 O determinante de uma matriz com, pelo menos, duas linhas
iguais e nulo.
O teorema anterior prova-se facilmente recorrendo `a Propriedade 3. De
facto, P3. permite concluir que trocando duas linhas iguais o sinal do determinante altera-se, mas, por outro lado, a matriz mantem-se igual e, como
tal, o seu determinante tambem se mantem. Assim, det (A) = det (A) e,
por isso, o determinante e nulo.
O proximo teorema generaliza o Teorema 9.
Teorema 10 Seja A Mn . Entao, tem-se:
(a) Se existirem na matriz A Mn duas linhas m
ultiplas uma da outra,
entao det (A) = 0. Em particular, det (A) = 0 se A tiver uma linha
nula.
(b) Se a j-esima linha de A Mn se escrever da forma Lj = nk=1,k6=j k Lk ,
sendo k escalares, entao det (A) = 0.
Demonstrac
ao: Considere-se que Lk , k = 1, . . . , n, representam as linhas
de A e seja Lj = Li , com escalar. Aplicando a Propriedade 2 e o Teorema
9, vem
det (L1 , . . . , Li , . . . , Li , . . . , Ln ) = det (L1 , . . . , Li , . . . , Li , . . . , Ln )
= 0 = 0.
O caso particular de uma linha nula resulta de se considerar Lj = 0Li . Deste
modo, provou-se a alnea (a).


32CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Considere-se agora Lj = nk=1,k6=j k Lk . Entao, aplicando a Propriedade
1 e a alnea (a), obtem-se:
!
n
n
X
X
det L1 , . . . , Lk , . . . ,
k L k , . . . , L n
=
det (L1 , . . . , Lk , . . . , k Lk , . . . , Ln )
k=1,k6=j

k=1,k6=j
n
X

0 = 0,

k=1,k6=j

obtendo-se assim a alnea (b).

A demonstracao do teorema seguinte e trivial, uma vez que as propriedades decorrem imediatamente da definicao de funcao determinante.
Teorema 11 Seja A Mn . Entao, tem-se:
(a) O determinante nao se altera se a uma linha de A for adicionado um
m
ultiplo de outra linha de A.
(b) Multiplicando os elementos de n linhas de uma matriz A, pelos escalares
nao nulos 1 , . . . , n , obtem-se uma matriz B, satisfazendo
det (B) = 1 n det (A).
(c) O determinante de uma matriz e igual ao determinante da sua transposta, isto e, det (A) = det (AT ).
(d) O determinante de uma matriz triangular A e o produto dos elementos
da diagonal principal.
(e) Se B Mn , entao det (AB) = det (A)det (B).
Como consequencia do Teorema 11 (c), as propriedades apresentadas em
termos de linhas de uma matriz, tambem, sao validas em termos de colunas.
Exemplo.
1. Seja A Mn . Mostre que det (2A) = 2n det (A).


2.1. DETERMINANTES - DEFINIC
OES
E PROPRIEDADES

33

2. Considere-se A = (L1 , L2 , L3 ), onde Li , i = 1, 2, 3, representam as


linhas de A. Sabendo que det (A) = 2, calcule det (B), com B =
(2L1 + 4L2 , 5L3 , 3L2 + L3 ).
Soluc
ao: 1. Considere-se A = (L1 , . . . , Ln ), onde Li , i = 1, . . . , n, representam as linhas de A. Entao,
det (2A) = det (2L1 , 2L2 , . . . , 2Ln ) = 2det (L1 , 2L2 , . . . , 2Ln )
= 22 det (L1 , L2 , . . . , 2Ln ) = . . . = 2n det (L1 , L2 , , Ln )
= 2n det (A).
2. Utilizando a Propriedade 1, tem-se
det (B) = det (2L1 + 4L2 , 5L3 , 3L2 + L3 )
= det (2L1 + 4L2 , 5L3 , 3L2 ) + det (2L1 + 4L2 , 5L3 , L3 ) .
O segundo determinante e nulo, visto que a segunda linha e m
ultipla da
terceira. Utilizando novamente a Propriedade 1, obtem-se
det (B) = det (2L1 + 4L2 , 5L3 , 3L2 )
= det (2L1 , 5L3 , 3L2 ) + det (4L2 , 5L3 , 3L2 ) .
Mais uma vez, o segundo determinante e nulo, dado que a primeira linha e
m
ultipla da terceira. Logo, utilizando as Propriedades 2 e 3, tem-se
det (B) = 2 5 3 det (L1 , L3 , L2 ) = 30 (det (L1 , L2 , L3 )) .
Dado que det (A) = 2, conclui-se que det (B) = 30 det (A) = 60.
sempre possvel utilizar o algoritmo de eliminacao de Gauss para calE
cular o determinante de uma matriz A Mn , transformando-a numa matriz
triangular. No entanto, e necessario nao esquecer que:
1. A troca de linhas (colunas), entre si, altera o sinal do determinante.
2. Multiplicando os elementos de uma linha (coluna) da matriz A por um
escalar, nao nulo, obtem-se uma matriz B tal que det (B) = det (A).
3. A soma de uma linha (coluna) com outra multiplicada por um escalar
nao altera o valor do determinante.


34CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Exemplo.

1
2

1 1

0 1

1 2

1 2 1

0 1 0

0 1 2
0 0 0




1 1


=
2 1

L2 L2 +L1

0
1 L L +L
4
4
1

2 1


1
1


0
1

=

1 L3 L3 L2 0
0
1

1
0
0
0
2
1
0
0


2 1 1
1 1 0
=
1 1 2 C3 C4
0 1 0

1 1
0 1
= (1 1 2 1) = 2.
2 2
0 1

Utilizando o procedimento descrito anteriormente, conclui-se, facilmente,


que det (A) = 0 se e so se a caracterstica da matriz A Mn e inferior a n.
Logo, det (A) 6= 0 se e so se a caracterstica da matriz A e igual a n. Assim,
pode dizer-se que:
Teorema 12 Seja A Mn . Entao A Mn e invertvel se e so se det (A) 6=
0.
Se uma matriz A Mn e invertvel entao A A1 = In . Deste modo,
det (A A1 ) = det (In )
que, pelo Teorema 11 (e), ainda se pode escrever, de forma equivalente, como
det (A)det (A1 ) = 1. Obtem-se, assim, a propriedade seguinte
Teorema 13 Seja A Mn invertvel . Entao
det (A1 ) =

1
.
det (A)

Considere-se A Mn . Para cada n N existe uma u


nica funcao determinante. De seguida apresenta-se uma formula, definida por recorrencia, que
permite escrever o determinante de uma matriz de ordem n como combinacao
linear de determinantes de ordem n 1. Primeiro introduzem-se os conceitos
de menor e complemento algebrico de uma matriz.


2.1. DETERMINANTES - DEFINIC
OES
E PROPRIEDADES

35

Definic
ao 2.1.4 Seja Aij a submatriz de A = [aij ] Mn obtida por supressao da linha i e da coluna j. Chama-se menor e complemento algebrico
(co-factor) de ndices i e j de A a det(Aij ) e (1)i+j det(Aij ), respectivamente.

Exemplo.Considere-se

1 2 3
A = 4 5 6 M3 .
7 8 9

1 2
O menor de ndices 2 e 3 de A e det (A23 ) =
7 8
2+3
ndices 2 e 3 de A e (1) det (A23 ) = 6.



= 6 e o co-factor de

Comece-se, agora, por analisar a formula que permite calcular o determinante no caso de A = [aij ] M3 . Pela regra de Sarrus, obtem-se
det (A) = a11 a22 a33 +a13 a21 a32 +a31 a12 a23 (a13 a22 a31 +a11 a23 a32 +a12 a21 a33 ).
Agrupando as parcelas que contem a11 , as que contem a12 e as que contem
a13 pode escrever-se a expressao anterior na forma
det (A) = a11 (a22 a33 a23 a32 ) a12 (a21 a33 a23 a31 ) + a13 (a21 a32 a22 a31 )
ou seja,

a
a
det (A) = a11 22 23
a32 a33





a12 a21 a23

a31 a33





+ a13 a21 a22

a31 a32

Provou-se, assim, que para o caso 33 o determinante de A se obtem multiplicando os elementos da primeira linha de A pelos respectivos complementos
algebricos. Mostra-se, facilmente, que se em vez da primeira linha tivesse
sido utilizada qualquer uma das outras linhas/colunas de A o resultado seria analogo. Esta formula pode ser generalizada para matrizes de ordem n
obtendo-se o seguinte resultado, conhecido como Teorema de Laplace:


36CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Teorema 14 Seja A = [aij ] Mn . Entao, o determinante de A e igual `
a
soma dos produtos dos elementos de uma linha/coluna arbitraria de A pelos
respectivos complementos algebricos, isto e, fixando uma linha,
n
X
det(A) =
aij (1)i+j det(Aij ), i = 1, . . . , n;
j=1

ou, fixando uma coluna,


det(A) =

n
X

aij (1)i+j det(Aij ), j = 1, . . . , n.

i=1

Esta formula e particularmente u


til se uma das linhas ou das colunas da
matriz tiver muitos zeros.
Exemplo. Efectuando o
da matriz A, obtem-se

1 1 1 1

1 0 2 1
det (A) =
3 0 1 1
1 1 2 1

desenvolvimento de Laplace ao longo da 2a coluna






= 1 (1)1+2 det (A12 ) + 0 (1)2+2 det (A22 ) +


+ 0 (1)3+2 det (A32 ) + 1 (1)4+2 det (A42 ) =





1 2 1 1 1 1



= 3 1 1 + 1 2 1 = 2.
1 2 1 3 1 1
Na pratica e habitual utilizar-se um metodo hbrido para o calculo de
determinantes, que consiste em aplicar o algoritmo de eliminacao de Gauss
a uma linha (coluna) que contiver mais zeros, efectuando depois o desenvolvimento de Laplace ao longo dessa linha (coluna).
Exemplo. Considerando a operacao elementar que se segue
desenvolvimento de Laplace ao longo da 2a coluna, obtem-se




1 1 1 1
1 1 1 1





1 2
1 0 2 1




=L4 L4 L1 1 0 2 1 = 1 (1)1+2 3 1
3 0 1 1
3 0 1 1





0 1
1 1 2 1
0 0 1 0

e efectuando o

1
1
0




= 2.


2.2. ALGUMAS APLICAC
OES
DOS DETERMINANTES

2.2

37

Algumas aplica
co
es dos determinantes

Nesta seccao, apresenta-se algumas aplicacoes da teoria dos determinantes, nomeadamente ao calculo da matriz inversa de uma matriz e `a resolucao
de sistemas de equacoes lineares.
Seja A = [aij ] Mn uma matriz invertvel. A matriz inversa de A pode
ser obtida utilizando a teoria dos determinantes. Para tal:
1. Constroi-se a matriz dos complementos algebricos ou a matriz dos cofactores de A,


Cof(A) = (1)i+j det (Aij ) Mn ,
que se obtem substituindo cada componente aij da matriz A pelo seu
complemento algebrico;
2. Transpoe-se a matriz dos complementos algebricos, obtendo-se a matriz
adjunta de A, Adj (A), isto e, Adj (A) = (Cof (A))T ;
3. A matriz inversa de A obtem-se multiplicando a matriz adjunta de A
por det1(A) , isto e,
1
Adj (A).
(2.2)
A1 =
det (A)
Exemplo.
1. Determine a inversa da matriz

1 1 0
A = 1 0 1 M3 .
2
1 1
2. Seja A Mn invertvel. Mostre que A.Adj (A) = Adj (A).A = det (A).In .


38CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Soluc
ao: 1. Como det (A) = 4 6= 0, A e invertvel e a matriz adjunta de
A e dada por

T
(1)2 det (A11 ) (1)3 det (A12 ) (1)4 det (A13 )
Adj(A) = (Cof(A))T = (1)3 det (A21 ) (1)4 det (A22 ) (1)5 det (A23 )
(1)4 det (A31 ) (1)5 det (A32 ) (1)6 det (A33 )





T







2 0 1
3 1 1
4 1 0
(1)
(1)
(1)


2 1

1 1


2 1

3 1 0
4 1 0
5 1 1
=
(1)
(1)
(1)

1 1
2 1
2 1




1 0
0
1
5 1
6 1
(1)
(1)
(1)4
1 1
1 0
0 1

1 3 1
1 1 1
1 3 = 3
1 1 .
= 1
1 1 1
1 3 1
Assim,

A1 =

1
4

1
Adj(A) = 34
det (A)
1
4

14
14
3
4

1
4
1
4
1
4

2. Dado que A e invertvel, verifica-se (2.2) e, como tal, Adj(A) =


det (A).A1 . Assim, usando a igualdade anterior e a associatividade do produto matricial, pode escrever-se


A.Adj (A) = A. det (A).A1 = det (A). A.A1 = det (A).I.
Analogamente,


Adj (A).A = det (A).A1 .A = det (A). A1 .A = det (A).I.

A utilizacao de (2.2) para o calculo da inversa e por vezes u


til para alguns
tipos especiais de matrizes. No entanto, em geral, nao e a melhor escolha
como processo de calculo da inversa de uma matriz, porque requer, por exemplo, mais calculos do que o metodo de Gauss-Jordan.
Tal como ja foi referido anteriormente, o determinante de uma matriz A
permite decidir se essa matriz e ou nao invertvel e, consequentemente, se o


2.2. ALGUMAS APLICAC
OES
DOS DETERMINANTES

39

sistema linear AX = B tem solucao u


nica. De seguida, apresenta-se uma
formula para obter a solucao de um sistema AX = B, no caso de A Mn ser
invertvel. A um sistema nestas condicoes da-se o nome de sistema de Cramer
e a formula utilizada para obter a sua solucao, habitualmente designada por
Regra de Cramer, e apresentada de seguida.

Teorema 15 Sejam A Mn e X, B Mn1 . Se det (A) 6= 0, entao o


sistema AX = B tem uma u
nica solucao
xi =

|A0i |
, i = 1, . . . , n;
|A|

sendo A0i a matriz que se obtem de A substituindo a i-esima coluna de A pelo


vector dos termos independentes B.
Demonstrac
ao: Como det (A) 6= 0 a solucao do sistema AX = B e u
nica e
e dada por
X = A1 B
1
=
Adj(A)B
|A|
o elemento xi de X e dado por
1
[ linha i de Adj(A)] B
|A|

b1
b2
1

=
[C1i C2i . . . Cni ] ..
|A|
.
bn
1
=
(b1 C1i + b2 C2i + . . . + bn Cni ).
|A|

xi =

A expressao em parentesis e a expansao do co-factor de |A0i | em funcao da


coluna i. Assim,
|A0 |
xi = i .
|A|



40CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Exemplo. Considere-se

1 1
A= 1 2
1 2

o sistema definido por



1
x
2
1 , X = y e B = 1 .
3
z
3

Uma vez que det (A) = 2 6= 0, o sistema e de Cramer, sendo por isso possvel
e determinado, isto e, tendo apenas uma solucao. Assim, usando a regra de
Cramer, obtem-se






1 2 1
1 1 2
2 1 1






1 1 1
1 2 1
1 2 1






1 3 3
1 2 3
3 2 3
= 2, y =
= 1 e z =
= 1.
x=
det (A)
det (A)
det (A)
Logo, o conjunto solucao do sistema e {(2, 1, 1)}.
Note-se que, como o calculo de determinantes de matrizes de grandes
dimensoes e moroso, nao se aconselha a utilizacao da Regra de Cramer para
resolver sistemas de Cramer com um grande n
umero de incognitas.
Definic
ao 2.2.1 Considere-se a matriz A Mn . Um vector proprio de A e
um vector X Rn \{0}, tal que
AX = X, para algum escalar .
O escalar designa-se valor proprio de A e o vector X diz-se vector proprio
associado ao valor proprio .

Note-se que, embora seja possvel que um valor proprio seja nulo, o vector nulo nunca podera ser vector proprio. Na verdade, A ter um valor
proprio nulo significa que A nao e invertvel. Para mostrar a veracidade
desta afirmacao basta notar que se 0 e valor proprio de A, entao o sistema
AX = 0 tem mais do que uma solucao (nao e um sistema de Cramer). Logo,
det (A) = 0 e, como tal, A nao e invertvel. Deste modo, os valores proprios
de A Mn sao todos os escalares que sao solucao da equacao
det (A I) = 0.


2.2. ALGUMAS APLICAC
OES
DOS DETERMINANTES

41

A esta equacao da-se o nome de equacao caracterstica de A e a det (A I)


da-se o nome de polinomio caracterstico de A e representa-se por pA ().
Dado uma raiz da equacao caracterstica de A, designa-se de multiplicidade algebrica do valor proprio a multiplicidade de como raiz da equacao
caracterstica de A.
Note-se que, o coeficiente do termo de grau n do polinomio caracterstico
de A e (1)n e o termo independente e det (A). Assim,
pA () = (1)n n + an1 n1 + . . . + a1 + det (A).
Para um dado valor proprio de A, , os vectores proprios de A associados
a sao os vectores que pertencem ao seguinte conjunto
VA () = {X Rn \{0} : (A I)X = 0} .
Exemplo. Considere-se a matriz


1 2
A=
M2 .
0 1
O escalar e valor proprio de A se e so se det (A I) = 0. Assim,


1 2

= 0 (1 )2 = 0 = 1.
0
1
Como tal, 1 e valor poprio de A com multiplicidade algebrica 2.
O conjunto dos vectores proprios de A associados ao valor proprio 1 e


VA (1) = X = (x, y) R2 \{(0, 0)} : (A I)X = 0 .
Como

(A I)X = 0

0 2
0 0



x
y


=

0
0


(y = 0 x R),

vem que


VA (1) = (x, y) R2 \{(0, 0)} : y = 0 = {(x, 0) : x R\{0}} .

Observe-se que a cada valor proprio esta associado mais do que um vector
proprio, mas a cada vector proprio esta associado um e um so valor proprio.


42CAPITULO 2. DETERMINANTES E VALORES/VECTORES PROPRIOS
Teorema 16 Seja A Mn . Entao:
1. Se X e um vector proprio de A associado ao valor proprio , entao
X, 6= 0, tambem e vector proprio de A associado a .
2. As matrizes A e AT tem os mesmos valores proprios.
3. Se A e triangular, entao os seus valores proprios sao os elementos da
diagonal principal de A.
Demonstrac
ao: 1. Supondo que X e um vector proprio de A associado a
, vem que
A(X) = (AX) = (X) = (X), X 6= 0.
Logo, X tambem e vector proprio de A associado ao valor proprio .
2. Aplicando o Teorema 11 (c), obtem-se
det (A I) = 0 det ((A I)T ) = 0,
que ainda se pode escrever como
det (AT I) = 0.
Assim, as matrizes A e AT tem os mesmos valores proprios.

3. Seja A = [aij ] Mn triangular superior. O escalar e valor proprio de A


se e so se det (A I) = 0. Assim,


a11

a
.
.
.
a
12
1n



0
a22 . . .
a2n

det (A I) = 0
= 0.
..
..
..
..


.
.
.
.



0
0
. . . ann
Aplicando o Teorema 11 (d), obtem-se
det (A I) = 0 (a11 )(a22 ) . . . (ann ) = 0,
que ainda e equivalente a
= a11 = a22 . . . = ann .
Como tal, os valores proprios de A sao os elementos da sua diagonal principal.
No caso de A triangular inferior a demonstracao e analoga.


Captulo 3
Espa
cos e Subespa
cos
Vectoriais
Denote-se por R3 o espaco tridimensional. Neste espaco e possvel construir uma correspondencia entre pontos e vectores, desde que se considere
um determinado ponto, O, como sendo a origem. Com efeito, a qualquer

ponto P de R3 pode fazer-se corresponder o vector OP , com origem em O e


extremidade em P . Neste conjunto, e possvel considerar as operacoes usuais
de adicao entre vectores e multiplicacao de um escalar real por um vector.
Estas operacoes satisfazem as propriedades usuais de associatividade, comutatividade, distributividade, existencia de oposto, etc. A nocao de espaco
vectorial que se introduz neste captulo generaliza este conceito e engloba,
por exemplo, espacos vectoriais n-dimensionais, entre outros.

3.1

Definic
ao e propriedades

Toda a funcao f : A A A, onde A e um conjunto, nao vazio, designase operacao binaria em A. Alguns exemplos de operacoes binarias sao: a
adicao usual de dois n
umeros reais, visto que e uma operacao que transforma
o par de n
umero reais (a, b) no n
umero real a + b, a multiplicacao usual de
dois n
umeros naturais, porque transforma o par de n
umeros naturais (a, b)
no n
umero natural ab, . . ..
Definic
ao 3.1.1 Seja K um conjunto no qual estejam definidas duas operacoes:
uma operacao binaria, designada por adicao e uma operacao multiplicacao
43

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

44

escalar, representadas pela simbologia usual. Diz-se que K, com essas operac
oes,
constitui um corpo se se verificam as condicoes seguintes:
(a) Propriedades da adicao:
(i) K e fechado para a adicao 1 ;
(ii) Propriedade Comutativa: + = + , , K;
(iii) Propriedade Associativa: ( + ) + = + ( + ), , , K;
(iv) Existencia de Elemento neutro: 0K K, tal que 0K + = ,
K;
(v) Existencia de oposto: K, K, tal que + () = 0K ;
(b) Propriedades da multiplicacao:
(i) K e fechado para a multiplicacao escalar 2 ;
(ii) Propriedade Comutativa: = , , K;
(iii) Propriedade Associativa: ( ) = ( ), , , K;
(iv) Existencia de Elemento neutro: 1K K, tal que 1K = ,
K;
(v) Existencia de oposto: K\{0K }, 1/ K, tal que (1/) =
1K ;
(vi) Propriedade distributiva da multiplicacao sobre a adicao
( + ) = +
Entre os exemplos mais habituais de corpos contam-se o conjunto dos
n
umeros reais, R, com as operacoes habituais; o conjunto dos n
umeros racionais, Q, com as operacoes habituais; o conjunto dos n
umeros complexos, C,
com as operacoes habituais 3 .
1

Este conceito ser


a definido a seguir
Este conceito ser
a definido a seguir
3
Os n
umeros complexos apareceram como uma extensao dos n
umeros reais, o seu conjunto representa-se por C e define-se como sendo C = {z = a + i b : a, b R e i2 = 1}.
Dados os n
umeros complexos z = a + b i e z 0 = a0 + i b0 define-se a adic
ao como sendo o
complexo z + z 0 = (a + a0 ) + i (b + b0 ) e a multiplicac
ao de um n
umero complexo z = a + i b
por outro n
umero complexo = 1 + i 2 , como z = (1 a 2 b) + (1 b + 2 a)i.
2

E PROPRIEDADES
3.1. DEFINIC
AO

45

Definic
ao 3.1.2 Seja K o corpo dos n
umeros reais ou dos n
umeros complexos. Um espaco vectorial e um conjunto V, nao vazio, satisfazendo certas propriedades (descritas abaixo), e onde estao definidas duas operacoes: adicao
e multiplicacao escalar, representadas pela simbologia usual e definidas do
modo seguinte:
+ : V V

V
(3.1)
(u, v) , u + v
e
: KV

V
.
(3.2)
(, v) , v
Diz-se que V e fechado para a adicao e fechado para a multiplicacao escalar
se satisfizer (3.1) e (3.2), respectivamente. Assim, (V, +, ) e um espaco
vectorial sobre o corpo K se forem validas as seguintes propriedades:
(a) Propriedades da adicao:
(i) V e fechado para a adicao;
(ii) Propriedade comutativa: u + v = v + u, u, v V ;
(iii) Propriedade associativa: (u + v) + w = u + (v + w), u, v, w V ;
(iv) Existencia de elemento neutro, 0V V , tal que u + 0V = u,
uV.
(v) Existencia de oposto: u V , u V , tal que u + (u) = 0V ;
(b) Propriedades da multiplicacao:
(i) V e fechado para a multiplicacao escalar;
(ii) (u + v) = u + v, K e u, v V ;
(iii) ( + ) u = u + u; , K e u V ;
(iv) ( ) u = ( u), , K e u V ;
(v) 1K u = u, u V , onde 1K e o elemento neutro para a multiplicacao em K.
Os elementos de K sao designados escalares e os elementos de V vectores. Se K = R ou K = C, entao V diz-se um espaco vectorial real ou um
espaco vectorial complexo, respectivamente. Quando as operacoes adicao

46

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

e multiplicacao escalar estiverem subentendidas, para simplificar a linguagem, dir-se-a seja V um espaco vectorial sobre K em vez de seja V um
espaco vectorial definido por (V, +, ).
Doravante, representa-se por 0V e 0 o elemento neutro para a adicao no
espaco vectorial V e o elemento neutro para a adicao em K, respectivamente.
As demonstracoes dos proximos exemplos deixam-se a cargo do leitor.
Exemplo. 1. Seja n N. Mostra-se que (Kn , +, ) e um espaco vectorial
sobre K, onde Kn representa o conjunto dos n-
uplos com elementos em K,
i.e.,
Kn = {(x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn K}.
As operacoes usuais sao definidas por
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )
e
(x1 , x2 , . . . , xn ) = (x1 , x2 . . . , xn ).
2. Seja n N. Mostra-se que (Rn [x], +, ) e um espaco vectorial sobre
K, onde Rn [x] representa o conjunto dos polinomios, na variavel x, com
coeficientes em K e que tem grau menor ou igual a n, i.e.,
Rn [x] = {an xn + . . . + a1 x + a0 : a0 , a1 , . . . , an K}.
Neste caso, as operacoes usuais sao definidas por:
(an xn +. . .+a1 x+a0 )+(bn xn +. . .+b1 x+b0 ) = (an +bn )xn +. . .+(a1 +b1 )x+(a0 +b0 )
e
(an xn + . . . + a1 x + a0 ) = (an )xn + . . . + (a1 )x + (a0 ).
3. Mostra-se que (R[x], +, ) e um espaco vectorial sobre K, onde R[x]
representa o conjunto dos polinomios de qualquer grau, na variavel x, com coeficientes em K. As operacoes usuais neste conjunto sao identicas `as definidas
no conjunto Rn [x].
4. Sejam m, n N. Prova-se que (Mmn (K), +, ) e um espaco vectorial
sobre K, onde Mmn (K) representa o conjunto constitudo pelas matrizes
com m linhas e n colunas e coeficientes definidos em K.

E PROPRIEDADES
3.1. DEFINIC
AO

47

Dadas A = [aij ], B = [bij ] Mmn e K, a adicao e a multiplicacao


escalar sao definidas por
A + B = [aij ] + [bij ] = [aij + bij ]
e
A = [aij ] = [aij ],
respectivamente.
4.1 Se m = 2 e n = 1, o conjunto M21 (K) e definido do seguinte
modo:
 

a
M21 (K) =
: a, b K .
b
Neste caso, a adicao e a multiplicacao escalar sao definidas por:
    

a
c
a+c
A+B =
+
=
b
d
b+d
e


A=

a
b


=

a
b


,

respectivamente.
4.2 Se m = 1 e n = 2, o conjunto M12 (K) e definido do seguinte
modo:



a b : a, b K ,
M12 (K) =
sendo a adicao e a multiplicacao escalar definidas da seguinte forma:

 
 

A+B = a b + c d = a+c b+d
e
A=

a b

a b

respectivamente.
Teorema 17 Seja V um espaco vectorial sobre um corpo K. Entao,
(a) 0 u = 0V , u V ;
(b) 0V = 0V , K;
(c) Se u = 0V , entao = 0 ou u = 0V ;

48

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

(d) ( ) u = u u, , K e u V ;
Demonstrac
ao. A ttulo exemplificativo, prova-se a alnea (a). Note-se que
0 u + 0 u + ((0 u)) = 0 u + ((0 u)),
onde (0 u) e o oposto de 0 u relativamente a` operacao adicao de vectores.
Visto que 0 u + ((0 u)) = 0V , obtem-se 0 u + 0V = 0V , donde resulta o
pretendido.

Seja V um espaco vectorial sobre um corpo K. Doravante, para simplificar
a notacao, escrever-se-a u, em vez de u, para K e u V .
Definic
ao 3.1.3 Seja V um espaco vectorial sobre um corpo K. Diz-se que
V 0 V e um subespaco vectorial de V se e so se verifica as seguintes
condicoes:
S1 . V 0 6= ;
S2 . u + v V 0 , u, v V 0 ;
S3 . u V 0 , K e u V 0 .
Da definicao anterior, conclui-se facilmente que V 0 V e um subespaco
vectorial de V se e so se verifica as seguintes condicoes:
S4 . V 0 6= ;
S5 . u + v V 0 , , K e u, v V 0 .
De facto, se V 0 satisfaz S2 e S3 , entao tambem satisfaz S5 . Considere-se,
entao, u, v V 0 . Sabendo que V 0 e fechado para o produto escalar (S2 ), vem
que u, v V 0 , para , K. Por outro lado, uma vez que V 0 e fechado
para a adicao (S1 ), tem-se que u + v V 0 , como se queria demonstrar.
curioso referir que se V e um espaco vectorial sobre um corpo K e V 0 um
E
subconjunto de V que e ainda espaco vectorial, considerando as operacoes de
adicao e multiplicacao escalar que definem V como espaco vectorial, entao V 0
e um subespaco vectorial de V . (Demonstracao deixada a cargo do leitor). Os

E PROPRIEDADES
3.1. DEFINIC
AO

49

subconjuntos de V , {0V } e V designam-se subespacos triviais de V , enquanto


que todos os outros subespacos designam-se subespacos proprios.
Exemplo. 1. Mostra-se que A = {(x, y, z) R3 : x + y + z = 0} e um
subespaco vectorial real de R3 . De facto:
1. A 6= , uma vez que (0, 0, 0) A, (0 + 0 + 0 = 0).
2. sejam u = (x, y, z) e v = (x0 , y 0 , z 0 ) elementos arbitrarios de A e
, R. Entao, u + v A, visto que
u + v = (x, y, z) + (x0 , y 0 , z 0 )
= ( x + x0 , y + y 0 , z + z 0 ) A.
Como u, v A, vem que
x + y + z = 0 e x0 + y 0 + z 0 = 0.
Logo,
(x + y + z) = 0 e (x0 + y 0 + z 0 ) = 0,
para quaisquer , K. Assim,
( x + x0 ) + ( y + y 0 ) + ( z + z 0 ) = (x + y + z) + (x0 + y 0 + z 0 ) = 0.
2. Prova-se, agora, que



a b
S=
: a + d = 0, a, b, c, d R
c d
e um subespaco vectorial real de M3 . De facto:
1. S =
6 , uma vez que


0 0
S, (a + d = 0 + 0 = 0).
0 0
2. sejam

A=

a b
c d


e B=

a0 b 0
c0 d 0

elementos arbitrarios de S e , R. Entao, A + B S, visto que




 0 0  

a b
a b
a + a 0 b + b0
A+B =
+
=
.
c d
c0 d 0
c + c 0 d + d0

50

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Como A, B S, vem que


a + d = 0 e a0 + d0 = 0.
Logo,
(a + d) = 0 e (a0 + b0 ) = 0,
para quaisquer , K. Assim,
( a + a0 ) + ( d + d0 ) = (a + d) + (a0 + d0 ) = 0.

Por vezes torna-se facil verificar que um dado conjunto, nao vazio, nao e
um subespaco vectorial. Na verdade, se V 0 e um subespaco vectorial de um
espaco vectorial V sobre um corpo K, entao 0V V 0 . Efectivamente, seja
u V 0 . Pela definicao de subespaco vectorial (S2 e S3 ), tem-se
0V = u u V 0 ,

u V 0.

Deste modo, se 0V
/ V 0 , entao V 0 nao e um subespaco vectorial de V . Notese, no entanto, que o recproco nao e verdadeiro, isto e, 0V V 0 nao e
garantia de que V 0 seja um subespaco vectorial de V .
Exemplo. 1. Seja A = {(x, y, z) R3 : x + y + z = 1}. Note-se que
(0, 0, 0)
/ A. Deste modo, pode-se concluir que A nao e um subespaco
vectorial de R3 . De facto, (1, 0, 0) e (0, 1, 0) sao dois elementos de A, mas
(1, 0, 0) + (0, 1, 0) = (1, 1, 0)
/ A,
uma vez que 1 + 1 + 0 = 2 6= 1.
2. Seja B = {(x, y) R2 : x 0 y 0}. Note-se que, apesar
de (0, 0) B, B nao e um subespaco vectorial real de R2 . Por exemplo,
considere-se u = (1, 2) B e = 2 R. Entao u
/ B, dado que
u = 2(1, 2) = (2, 4) e 2  0 e 4  0.
Relembram-se, agora, os conceitos de interseccao e reuniao de conjuntos e
introduz-se o conceito de soma de conjuntos, visto que serao usados ao longo
deste captulo.

3.2. DEPENDENCIA/
INDEPENDENCIA
LINEAR

51

Definic
ao 3.1.4 Seja V um espaco vectorial sobre um corpo K e sejam F e
G dois subespacos vectoriais de V , entao
F G = {u V : u F u G}
F G = {u V : u F u G}
F + G = {u V : a F, b G : u = a + b}.
Alem disso, deixa-se a cargo do leitor a demonstracao do resultado seguinte:
Teorema 18 Seja V um espaco vectorial sobre um corpo K e sejam F e G
dois subespacos vectoriais de V , entao
1. F G e um subespaco vectorial de V , designado subespaco interseccao.
2. F + G e um subespaco vectorial de V , designado subespaco soma.
3. F G e um subespaco vectorial se e so se F G ou G F .
Exemplo.Considere-se
F = {(x, y, z) R3 : x = 0} e G = {(x, y, z) R3 : z = 0}.
Prova-se que F e G sao subespacos vectoriais de R3 . No entanto, F G nao
e um subespaco vectorial de R3 . Efectivamente, F * G e G * F , porque,
por exemplo, (0, 1, 2) F , mas (0, 1, 2)
/ G e (1, 2, 0) G, no entanto
(1, 2, 0)
/ F.
O conjunto
F G = {(x, y, z) R3 : x = 0 z = 0},
nao e subespaco vectorial de R3 , porque, por exemplo (0, 1, 2), (1, 2, 0)
F G, contudo, (0, 1, 2) + (1, 2, 0) = (1, 3, 2)
/ F G.

3.2

Depend
encia/ independ
encia linear

Definic
ao 3.2.1 Seja V um espaco vectorial sobre um corpo K e considerese os elementos u1 , u2 , . . . , un V . Um elemento v V diz-se uma combinacao linear de u1 , u2 . . . , un se existirem escalares 1 , 2 , . . . , n K, tal
que
v = 1 u1 + 2 u2 + . . . + n un .

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

52

Exemplo.O vector (1, 2) de R2 e combinacao linear dos vectores (1, 1) e


(0, 1), dado que
(1, 2) = 1(1, 1) + 3(0, 1).

Definic
ao 3.2.2 Os elementos u1 , u2 , . . . , un V dizem-se linearmente independentes se a u
nica combinacao linear nula de u1 , u2 . . . , un e a trivialmente nula, ou seja,
1 u1 + 2 u2 + . . . + n un = 0V 1 = 2 = = n = 0.
Caso contrario, u1 , u2 . . . , un dizem-se linearmente dependentes, isto e, se
existem escalares i , i = 1, 2, . . . , n, nao todos nulos, tais que
1 u1 + 2 u2 + . . . + n un = 0V .
Exemplo. 1. Os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 sao linearmente
independentes. Note-se que
1 (1, 1, 1) + 2 (1, 1, 0) + 3 (1, 0, 0) = (0, 0, 0)
se e so se
(1 + 2 + 3 , 1 + 2 , 1 ) = (0, 0, 0).
Obtem-se, assim, o seguinte sistema

1 + 2 + 3 = 0
1 + 2
= 0

1
= 0
cuja solucao e 1 = 2 = 3 = 0. Deste modo, conclui-se que os vectores sao
linearmente independentes.
2. Os vectores (1, 1, 1), (1, 0, 2), (0, 1, 1) de R3 sao linearmente dependentes, uma vez que
1 (1, 1, 1) + 2 (1, 0, 2) + 3 (0, 1, 1) = (0, 0, 0)
se e so se
(1 + 2 , 1 3 , 1 + 22 + 3 ) = (0, 0, 0),

3.2. DEPENDENCIA/
INDEPENDENCIA
LINEAR

53

de onde se obtem o seguinte sistema

= 0
1 + 2
1
3 = 0 .

1 + 22 + 3 = 0
A matriz ampliada deste sistema e

1 1 0 | 0
1 1
0 | 0
[A|B] = 1 0 1 | 0 L2 L2 L1 0 1 1 | 0
L3 L3 L1
1 2 1 | 0
0 1
1 | 0

1 1
0 | 0

L3 L3 + L2 0 1 1 | 0 .
0 0
0 | 0
Como car(A) = car(A|B) = 2 < 3 = n
umero de incognitas, o sistema e
possvel e indeterminado. Deste modo, conclui-se que os vectores sao linearmente dependentes, dado que o vector nulo nao e o u
nico vector que se pode
escrever como uma combinacao linear de (1, 1, 1), (1, 0, 2), (0, 1, 1).
Teorema 19 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V
sobre um corpo K. Entao os n elementos sao linearmente dependentes se
e so se for possvel escrever um dos elementos como combinacao linear dos
restantes.
Demonstrac
ao. () Se u1 , . . . , un sao linearmente dependentes, existem
escalares i , i = 1, . . . , n, nao todos nulos, tais que
1 u1 + . . . + i ui + . . . + n un = 0V .
Sem perda de generalidade, suponha-se que i 6= 0. Assim,
i ui = 1 u1 . . . i1 ui1 i+1 ui+1 . . . n un
i1
i+1
n
1
ui1
ui+1 . . .
un
ui = u1 . . .
i
i
i
i
e, como tal, ui escreve-se como combinacao linear dos restantes elementos.
() Suponha-se, sem perda de generalidade, que o elemento ui se escreve
como combinacao linear dos restantes, entao, existem escalares, nao todos
nulos 1 , . . . , i1 , i+1 , . . . , n , tais que
ui = 1 u1 . . . i1 ui1 i+1 ui+1 . . . n un ,

54

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

isto e,
1 u1 + . . . + i1 ui1 + ui + i+1 ui+1 . . . + n un = 0V ,
e, por conseguinte, os elementos u1 , . . . , un sao linearmente dependentes. 
Exemplo. () Considerem-se os vectores (1, 1, 1), (1, 0, 2), (0, 1, 1) de R3 .
Como (0, 1, 1) se escreve como combinacao linear de (1, 1, 1) e (1, 0, 2), dado
que
(0, 1, 1) = (1, 0, 2) (1, 1, 1),
conclui-se, pelo Teorema 19, que os tres vectores sao linearmente dependentes
(como tambem se pode comprovar pelo exemplo anterior).
() Considerem-se, agora, os vectores (1, 1, 1), (1, 1, 1) e (0, 0, 1).
Apesar dos vectores serem linearmente dependentes (demonstracao a cargo
do leitor), o vector (0, 0, 1) nao se pode escrever como combinacao linear de
(1, 1, 1) e de (1, 1, 1). Na verdade, se
(0, 0, 1) = 1 (1, 1, 1) + 2 (1, 1, 1),
entao o sistema

1 , 2 R,

1 2 = 0
1 2 = 0

1 2 = 1

seria impossvel, dado que a primeira e a terceira condicao nao se podem


verificar simultaneamente. Note-se, no entanto, que os vectores (1, 1, 1) e
(1, 1, 1) podem-se escrever como combinacao linear dos restantes, dado
que
(1, 1, 1) = 1(1, 1, 1) + 0(0, 0, 1)
e
(1, 1, 1) = 1(1, 1, 1) + 0(0, 0, 1).

Teorema 20 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V


sobre um corpo K. Entao se uj = k ui , i 6= j, i, j {1, . . . , n} e k K, entao
os elementos u1 , . . . , un sao linearmente dependentes.
Demonstrac
ao. Considere-se, em primeiro lugar, k = 0. Neste caso, uj =
0V , e, portanto, existe j 6= 0, tal que
0 u1 + . . . + j 0V + . . . + 0 un = 0V ,

3.2. DEPENDENCIA/
INDEPENDENCIA
LINEAR

55

concluindo-se, assim, que os elementos u1 , . . . , un sao linearmente dependentes.


Suponha-se, agora, que k 6= 0. Entao existe um escalar j K, nao nulo,
tal que
0u1 + . . . k j ui + k j ui + . . . + 0un = 0V ,
e, por conseguinte, os elementos sao u1 , . . . , un sao linearmente dependentes.
Exemplo. 1. Os vectores (1, 1, 1), (1, 0, 2), (0, 0, 0) de R3 sao linearmente
dependentes, uma vez que
0(1, 1, 1) + 0(1, 0, 2) + 5(0, 0, 0) = (0, 0, 0),
e, por isso, existe uma combinacao linear nula de (1, 1, 1), (1, 0, 2), (0, 0, 0)
que nao e a trivialmente nula.
2. Os vectores (1, 1, 1), (2, 2, 2), (0, 2, 1) de R3 sao linearmente dependentes, uma vez que
2(1, 1, 1) + (2, 2, 2) + 0(0, 2, 1) = (0, 0, 0).

Teorema 21 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial


V sobre um corpo K. Se u1 , . . . , un sao linearmente independentes e se
u1 , . . . , un , v sao linearmente dependentes, para um dado v V , entao v
escreve-se como combinacao linear de u1 , . . . , un .
Demonstrac
ao. Considere-se, entao, que u1 , . . . , un sao linearmente independentes e que u1 , . . . , un , v sao linearmente dependentes. Suponha-se,
agora, por reducao ao absurdo, que v nao se escreve como combinacao linear
de u1 , . . . , un . Deste modo, pelo Teorema 19, existe i = 1, . . . , n tal que
ui = 1 u1 + . . . + i1 ui1 + i+1 ui+1 + . . . + n un + n+1 v,
isto e,
1 u1 + . . . + i1 ui1 ui + i+1 ui+1 + . . . + n un + n+1 v = 0V .
Se n+1 = 0, entao
1 u1 + . . . + i1 ui1 ui + i+1 ui+1 + . . . + n un = 0V

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

56

e o i-esimo escalar e i = 1. Como tal, e possvel escrever 0V como uma


combinacao linear nao trivialmente nula de u1 , . . . , un , o que contraria a
hipotese destes elementos serem linearmente independentes.
No caso de n+1 6= 0, vem
v=

i1
1
i+1
n
1
u1 . . .
ui1 +
ui
ui+1 . . .
un
n+1
n+1
n+1
n+1
n+1

o que e um absurdo, pois esta-se a supor que v nao se escreve como combinacao linear de u1 , . . . , un . Por conseguinte, v tera de ser combinacao linear
de u1 , . . . , un .

Exemplo.Considerem-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 , que se
sabe serem linearmente independentes e o vector (1, 3, 4) de R3 . Verificase, facilmente, que o vector (1, 3, 4) e combinacao linear dos tres vectores
restantes. De facto, existem escalares 1 , 2 , 3 R, nao todos nulos, tais
que
(1, 3, 4) = 1 (1, 1, 1) + 2 (1, 1, 0) + 3 (1, 0, 0).
Da igualdade anterior, obtem-se o seguinte sistema

1 + 2 + 3 = 1
1 + 2
= 3 .

1
= 4
A solucao deste sistema e 1 = 4, 2 = 1 e 3 = 2. Deste modo,
(1, 3, 4) = 4(1, 1, 1) 1(1, 1, 0) 2(1, 0, 0),
isto e, (1, 3, 4) e combinacao linear de (1, 1, 1), (1, 1, 0) e (1, 0, 0).
Teorema 22 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V
sobre um corpo K. Sejam u1 , . . . , up elementos linearmente dependentes de
V . Entao, os elementos que pertencam a qualquer subconjunto finito de V
que contenha u1 , . . . , up tambem sao linearmente dependentes.
Demonstrac
ao. Sem perda de generalidade, considere-se o conjunto constitudo por u1 , . . . , up , up+1 , . . . , un . Como por hipotese u1 , . . . , up sao linearmente dependentes, existem escalares nao todos nulos i , i = 1, . . . , p, tais
que
1 u1 + . . . + p up = 0V .

3.2. DEPENDENCIA/
INDEPENDENCIA
LINEAR

57

A igualdade anterior pode escrever-se de forma equivalente do seguinte modo


1 u1 + . . . + p up + 0up+1 + . . . + 0un = 0V .
Assim, existe uma combinacao linear nula de u1 , . . . , un que nao e a trivialmente nula e, portanto, os elementos u1 , . . . , up sao linearmente dependentes.
Exemplo. Considere-se os vectores (1, 1, 1), (1, 0, 2), (0, 1, 1) de R3 , que se
sabe serem linearmente dependentes. Mostra-se que os vectores
(1, 1, 1), (1, 0, 2), (0, 1, 1), (1, 2, 3)
ainda sao linearmente dependentes. De facto,
(0, 1, 1) = (1, 0, 2) (1, 1, 1) + 0(1, 2, 3),
e, por isso, o vector (0, 1, 1) e combinacao linear dos restantes vectores.
Entao, pelo Teorema 19, conclui-se que os vectores (1, 1, 1), (1, 0, 2), (0, 1, 1),
(1, 2, 3) sao linearmente dependentes.
Teorema 23 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V
sobre um corpo K linearmente independentes. Entao quaisquer 1 < p < n elementos distintos escolhidos arbitrariamente entre eles ainda sao linearmente
independentes.
Demonstrac
ao. Considere-se, sem perda de generalidade, que u1 , u2 , . . . , up
sao elementos distintos escolhidos aleatoriamente de u1 , u2 , . . . , un e suponhase que sao linearmente dependentes. Entao, pelo Teorema 19, existe um
elemento que se escreve como combinacao linear dos restantes. Pode supor-se,
sem perda de generalidade, que esse elemento e u1 . Entao, existem escalares
2 , . . . , p K, nao todos nulos, tais que
u1 = 2 u2 + . . . + p up .
Deste modo, tem-se que
u1 2 u2 . . . p up + 0up+1 + . . . + 0un = 0V .
O que e um absurdo pois, por hipotese, u1 , u2 , . . . , un sao linearmente independentes. Assim, conclui-se que os elementos u1 , u2 , . . . , up sao linearmente
independentes.


58

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Exemplo. Considere-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0) de R3 , que se


sabe serem linearmente independentes. Os vectores (1, 1, 1), (1, 1, 0) ainda
sao linearmente independentes. De facto, da igualdade
1 (1, 1, 1) + 2 (1, 1, 0) = (0, 0, 0),
obtem-se o sistema

1 + 2 = 0
1 + 2 = 0 ,

1
= 0

cuja solucao e 1 = 2 = 0.

Teorema 24 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V


sobre um corpo K. Os elementos u1 , . . . , un sao linearmente independentes
se e so se qualquer combinacao linear de u1 , . . . , un tem coeficientes u
nicos,
isto e,
1 u1 + . . . + n un = 1 u1 + . . . + n un i = i ,

i = 1, . . . , n

Demonstrac
ao. () Suponha-se que u1 , . . . , un sao linearmente independentes e que existe uma combinacao linear de u1 , . . . , un que nao tem coeficientes u
nicos. Seja u V , tal que existem escalares i 6= i , i = 1, . . . , n,
tais que
1 u1 + . . . + n un = u
e
1 u1 . . . + n un = u.
Das igualdades anteriores, vem
1 u1 + . . . + n un = 1 u1 + . . . + n un ,
o que e equivalente,
(1 1 )u1 + . . . + (n n )un = 0V .
Uma vez que u1 , . . . , un sao linearmente independentes, conclui-se que i =
i , i = 1, . . . , n, o que e um absurdo, pois partiu-se do pressuposto que estes
coeficientes nao eram u
nicos.

3.2. DEPENDENCIA/
INDEPENDENCIA
LINEAR

59

() Demonstra-se, agora, o contra-recproco. Suponha-se que u1 , . . . , un


sao linearmente dependentes. Entao existem escalares i , i = 1, . . . , n, nao
todos nulos, tais que
1 u1 + . . . + n un = 0V .
No entanto, e imediato que
0u1 + . . . + 0un = 0V ,
logo existem duas formas distintas de escrever 0V como combinacao linear
de u1 , . . . , un .

De seguida, mostra-se que o estudo da independencia/dependencia de vectores em Rn se pode efectuar com base na resolucao de sistemas de equacoes
lineares. Na verdade,

Teorema 25 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V


sobre um corpo K. Os vectores u1 , . . . , up Rn sao linearmente independentes se e so se o sistema de equacoes lineares Au = 0, onde A Mnp e a
matriz cujas colunas sao os vectores u1 , . . . , up , e possvel e determinado.
Note-se que Au = 0 e equivalente a 1 u1 + . . . + p up = 0, com u =
(1 , . . . , p ), i R, i = 1, . . . , p. Logo, os vectores u1 , . . . , up Rn sao
linearmente independentes se e so se a u
nica solucao de Au = 0 e a solucao
nula. Assim, o sistema e possvel e determinado.
Teorema 26 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V
sobre um corpo K. Entao qualquer conjunto de p vectores em Rn , com p > n,
e linearmente dependente.
Considere-se a matriz A Mnp cujas colunas sao os p vectores referidos
no Teorema 25. Esta propriedade garante que estes vectores sao linearmente
independentes se e so se o sistema de equacoes lineares Au = 0 e possvel e
determinado. Assim, ter-se-ia car(A) = car(A|B) = n
umero de incognitas.
Por outro lado, como o n
umero de incognitas e p, car(A) tambem teria de
ser p, o que significa que a matriz em escada de linhas teria p pivots, o que
e um absurdo uma vez que o n
umero de linhas e n < p.

60

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Exemplo. 1. Considere-se os vectores de R3 (1, 1, 1), (1, 1, 0). Entao, a


matriz A M32 definida no Teorema 25 e dada por

1 1
A = 1 1 .
1 0
Do sistema Au = 0, obtem-se

1 1 | 0
1 1 | 0
[A|B] = 1 1 | 0 L2 L2 L1 0 0 | 0 .
L3 L3 L1
1 0 | 0
0 1 | 0
Como car(A) = car(A|B) = 2 = n
umero de incognitas, o sistema e possvel
e determinado. Logo, os vectores sao linearmente independentes.
2. Considere-se, agora, os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de
3
R . Entao, como o n
umero de vectores e 4,o Teorema 26 permite concluir
que os vectores anteriores sao linearmente dependentes.
Com base nos Teoremas 25 e 26, prova-se que (ver [4]) para matrizes
m n em escada de linhas se tem:
Teorema 27 Sejam u1 , . . . , un , n 2, elementos de um espaco vectorial V
sobre um corpo K. Entao
(a) As colunas que contem pivots sao linearmente independentes em Rn .
(b) As linhas nao nulas sao linearmente independentes em Rn .
(c) O n
umero de linhas independentes e o n
umero de colunas independentes
sao ambos iguais `a caracterstica da matriz.
Exemplo. Considere-se os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de R3 .
Colocando os vectores anteriores por coluna numa matriz A e efectuando
a eliminacao de Gauss, verifica-se que (1, 1, 1), (1, 1, 0), (1, 0, 0) sao vectores
linearmente independentes. Na verdade,

1 1 1 1
A = 1 1 0 3 .
1 0 0 4

3.3. SISTEMAS DE GERADORES E BASES

61

Entao,

A=

1 1 1 1
1 1
1 1
1 1
1 1
1 1 0 3 L2 L2 L1 0 0 1 2 L2 L3 0 1 1 3 .
L3 L3 L1
1 0 0 4
0 1 1 3
0 0 1 2

Deste modo, car(A) = 3. Logo, existem 3 linhas/colunas independentes


(Teorema 27 (c)). Assim, existem 3 vectores linearmente independentes que
correspondem `as colunas que contem pivots (Teorema 27 (a)).

3.3

Sistemas de Geradores e Bases

Teorema 28 Seja G um subconjunto, nao vazio, de um espaco vectorial V


sobre um corpo K. Diz-se que G e um conjunto constitudo por geradores de
V ou que G gera V , e denota-se por V = hGi, se qualquer elemento de V se
escreve como combinacao linear dos elementos de G.
No caso de G ser um conjunto finito, G = {u1 , . . . , uk }, entao escreve-se
V = hGi = hu1 , . . . , uk i
e diz-se que V e um espaco vectorial finitamente gerado.
Exemplo. Mostra-se, de seguida, que
h(1, 0, 2), (1, 0, 0)i = {(x, y, z) R3 : y = 0}.
Efectivamente, seja (x, y, z) um elemento generico de R3 . Entao, existem
escalares 1 , 2 R, tais que
(x, y, z) = 1 (1, 0, 2) + 2 (1, 0, 0),
o que e equivalente a

1 + 2 = x
0 = y ,

21
= z
cuja solucao e 1 = z/2, 2 = x z/2, quando y = 0. Provou-se, assim, que
so existem escalares 1 , 2 R, tais que (x, y, z) = 1 (1, 0, 2) + 2 (1, 0, 0),
se y = 0.

62

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Teorema 29 Seja V um espaco vectorial sobre um corpo K, tal que V =


hu1 , . . . , un i. Se ui e linearmente dependente dos restantes, entao
u1 , . . . , ui1 , ui+1 , . . . , un
e ainda um sistema de geradores de V .
Demonstrac
ao. Seja v V . Como u1 , . . . , un geram V , existem escalares
1 , . . . , n K, tais que
v = 1 u1 + . . . + i ui + . . . + n un .

(3.3)

Por outro lado, por hipotese, ui escreve-se como combinacao linear dos restantes elementos. Logo, existem escalares 1 , . . . , i1 , i+1 , . . . , n , tais que
ui = 1 u1 + . . . + i1 ui1 + i+1 ui+1 + . . . + n un .

(3.4)

Substituindo (3.4) em (3.3), tem-se


v = 1 u1 + . . . + i (1 u1 + . . . + i1 ui1 + i+1 ui+1 + . . . + n un ) + . . . + n un
= (1 + i 1 )u1 + . . . + (i1 + i i1 )ui1 + (i+1 + i i+1 )ui+1 + . . .
+ (n + i n )un .
Deste modo, v V e combinacao linear de u1 , . . . , ui1 , ui+1 , . . . , un , e, por
conseguinte, u1 , . . . , ui1 , ui+1 , . . . , un e ainda um sistema de geradores de
V.

Exemplo. Os vectores (1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4) de R3 constituem
um conjunto de geradores de R3 , uma vez que qualquer elemento de R3 se
escreve como combinacao linear deste vectores. Seja (x, y, z) R3 , mostra-se
que existem escalares 1 , 2 , 3 , 4 R, tais que
(x, y, z) = 1 (1, 1, 1) + 2 (1, 1, 0) + 3 (1, 0, 0) + 4 (1, 3, 4).
Obtem-se, assim, o seguinte sistema

1 + 2 + 3 + 4 = x
1 + 2 + 34
= y .

1 + 44
= z

3.3. SISTEMAS DE GERADORES E BASES

63

A matriz ampliada deste sistema e

1 1 1 1 | x
1 1
1 1 |
x
[A|B] = 1 1 0 3 | y L2 L2 L1 0 0 1 2 | y x
L3 L3 L1
1 0 0 4 | z
0 1 1 3 | z x

1 1
1 1 |
x

L3 L2 0 1 1 3 | z x .
0 0 1 2 | y x
Entao, car(A) = car(A|B) = 3 < 4 = n
umero de incognitas, logo o sistema e
possvel e indeterminado. Por isso, existem escalares 1 , 2 , 3 , 4 R que
satisfazem
(x, y, z) = 1 (1, 1, 1) + 2 (1, 1, 0) + 3 (1, 0, 0) + 4 (1, 3, 4).
Logo, R3 = h(1, 1, 1), (1, 1, 0), (1, 0, 0), (1, 3, 4)i.
Sabe-se que o vector (1, 3, 4) e combinacao linear de (1, 1, 1), (1, 1, 0), (1, 0, 0).
Entao, prova-se de seguida que estes vectores ainda formam um conjunto
de geradores de R3 . Seja (x, y, z) R3 , mostra-se que existem escalares
1 , 2 , 3 R, tais que
(x, y, z) = 1 (1, 1, 1) + 2 (1, 1, 0) + 3 (1, 0, 0).
De modo analogo ao anterior, obtem-se o

1 + 2 + 3
1 + 2

seguinte sistema
= x
= y ,
= z

cuja solucao e (z, y z, x y). Logo, existem escalares 1 = z, 2 = y z e


3 = x y que satisfazem
(x, y, z) = z(1, 1, 1) + (y z)(1, 1, 0) + (x y)(1, 0, 0)
e, por isso, R3 = h(1, 1, 1), (1, 1, 0), (1, 0, 0)i.
Definic
ao 3.3.1 Considere-se V um espaco vectorial finitamente gerado sobre um corpo K. Chama-se base de V a qualquer sequencia de elementos
de V linearmente independentes e que geram V . O n
umero de elementos de
uma base de V designa-se dimensao de V e denota-se por dim V .

64

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Note-se que qualquer espaco vectorial V sobre um corpo K pode ter um


n
umero infinito de bases, no entanto todas as bases tem o mesmo n
umero
de elementos. Alem disso, como na definicao de base e referida a nocao de
sequencia de elementos de V , a ordem pela qual os elementos aparecem na
base e importante.
As sequencias ((1, 0), (0, 1)) e ((1, 0, 0), (0, 1, 0), (0, 0, 1)) designam-se base
canonica de R2 e R3 , respectivamente. Mais geralmente, no caso de Rn a base
canonica e ((1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)). Assim, as dimensoes
de R2 , R3 e Rn sao 2, 3 e n, respectivamente. A dimensao do espaco vectorial
dos polinomios de grau menor ou igual a n, Rn [x], e n + 1, uma vez que
(1, x, x2 , . . . , xn1 , xn ) e a sua base canonica.
Exemplo. A sequencia de vectores ((1, 1, 1), (1, 1, 0), (1, 0, 0)) constitui uma
base de R3 , visto que ja se mostrou anteriormente que os vectores sao linearmente independentes e constituem um sistema de geradores de R3 . Alterando
a ordem dos vectores anteriores obtem-se, por exemplo, ((1, 0, 0), (1, 1, 0), (1, 1, 1))
que constitui uma nova base de R3 .
Definic
ao 3.3.2 Seja V um espaco vectorial de dimensao finita, n, sobre
um corpo K. Entao a sequencia (u1 , . . . , un ) e uma base de V se e so se
qualquer elemento de V se escreve de forma u
nica como combinacao linear
de u1 , . . . , un . Assim sendo, existem escalares u
nicos 1 , . . . , n K, tais
que
v = 1 u1 + . . . + n un , v V.
Os escalares 1 , . . . , n designam-se coordenadas do vector v relativamente `
a
base (u1 , . . . , un ).

Exemplo.Considere-se a sequencia ((1, 1, 1), (1, 1, 0), (1, 0, 0)) que se sabe ser
uma base de R3 . Seja (1, 2, 3) R3 . Entao, as coordenadas de (1, 3, 4), relativamente `a base ((1, 1, 1), (1, 1, 0), (1, 0, 0)) sao 4,1 e 2. Efectivamente,
provou-se anteriormente que
(1, 3, 4) = 4(1, 1, 1) 1(1, 1, 0) 2(1, 0, 0).

3.3. SISTEMAS DE GERADORES E BASES

65

No caso particular de V nao ser um espaco vectorial finitamente gerado,


diz-se que a dimensao de V e infinita. Se V coincide com o seu elemento
neutro (V = {0V }), diz-se que V tem dimensao nula e, neste caso, V nao
tem base.
Introduz-se, de seguida, o conceito de subespaco proprio associado a um
valor proprio. Comece-se por recordar que no Captulo 2 se introduziu o
conceito de valor proprio de uma matriz A Mn e foi referido que para
um dado valor proprio de A, , os vectores proprios de A associados a
constituem o conjunto
VA () = {X Rn \{0} : (A I)X = 0} .
A cada valor proprio de A, , esta ainda associado um subespaco vectorial,
designado subespaco proprio de A associado a e definido por
SA () = {X Rn : (A I)X = 0} .
A dimensao deste subespaco e designada multiplicidade geometrica do valor
proprio e esta multiplicidade e menor ou igual do que a multiplicidade
algebrica do valor proprio .
Exemplo. Considere-se a matriz


1 2
A=
M2 .
0 1
Mostrou-se no Captulo 2 que 1 e valor proprio de A com multiplicidade
algebrica 2 e que o conjunto dos vectores proprios de A associados ao valor
proprio 1 e


VA (1) = (x, y) R2 \{(0, 0)} : y = 0 = {(x, 0) : x R\{0}} .
Deste modo, o subespaco proprio de A associado a 1 e


SA (1) = (x, y) R2 : y = 0 = {x(1, 0) : x R} = h(1, 0)i.
e a multiplicidade geometrica do valor proprio 1 e 1 (menor que a multiplicidade algebrica que e 2).

66

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Apresentam-se, de seguida, duas propriedades associadas aos subespacos


soma e interseccao que permitem determinar, de forma simples, a dimensao
destes subespacos. Com efeito, sejam F e G dois subespacos vectoriais de V
(espaco vectorial sobre um corpo K). Mostra-se que
Teorema 30

(a) hF i + hGi = hF Gi.

(b) dim(F + G) = dimF + dimG dim(F G).

Para finalizar, apresentam-se alguns resultados sobre sistemas de geradores de um espaco vectorial. Considere-se V um espaco vectorial de dimensao
finita, n, sobre um corpo K e (u1 , . . . , un ) uma base de V . Entao, sao validas
os teoremas seguintes:
Teorema 31 Quaisquer m elementos de V com m > n sao linearmente
dependentes.
Exemplo.1. Sejam (2, 1), (1, 0) e (0, 1) vectores de R2 . Pelo Teorema 31,
conclui-se que os vectores sao linearmente dependentes, dado que a dimensao
de R2 e 2 < 3 =n
umero de vectores.
2. Os polinomios 2 + 3x + 3x2 4x3 , 2x3 , 2, 3x2 + 3x e 2x + 1 de
R3 [x] sao linearmente dependentes. De facto, a dimensao de R3 [x] = 4 < 5 =
n
umero de polinomios.
Teorema 32 Qualquer subconjunto de V constitudo por n elementos linearmente independentes gera V .
Exemplo.1. Aplicando o teorema anterior, conclui-se facilmente que R3 6=
h(1, 1, 0), (0, 1, 1)i, porque apesar dos vectores (1, 1, 0) e (0, 1, 1) serem linearmente independentes, o n
umero de vectores e 2 < 3 = dim(R3 ). Analogamente, apesar dos polinomios 1 + x, x2 , x3 de R3 [x] serem linearmente
independentes, R3 [x] 6= h1 + x, x2 , x3 i, porque 3 < 4 = dim(R3 [x]).
2. Dado que os vectores u1 = (1, 1, 0), u2 = (0, 1, 1), u3 = (1, 1, 1) sao
linearmente independentes e sao 3 = dim(R3 ), conclui-se pelo Teorema 326
que R3 = h(1, 1, 0), (0, 1, 1), (1, 1, 1)i.
Teorema 33 Qualquer conjunto de geradores de V e linearmente independente se e so se tem n elementos;

3.3. SISTEMAS DE GERADORES E BASES

67

Exemplo. 1. Os vectores (0, 1, 2), (1, 0, 2), (1, 1, 4), (1, 0, 0) de R3


constituem um sistema de geradores de R3 , no entanto como sao 4 vectores,
pelo Teorema 33 conclui-se que os vectores sao linearmente dependentes.
2. Sabe-se pelo exemplo anterior que R3 = h(1, 1, 0), (0, 1, 1), (1, 1, 1)i.
Deste modo, pode-se concluir que os vectores sao linearmente independentes.
Teorema 34 Um sistema de geradores de V tem no mnimo n elementos.
Exemplo.Considere-se o espaco vectorial R3 . Dado um elemento arbitrario
de R3 , (x, y, z), verifica-se que
(x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1).
Assim, para gerar R3 sao necessarios no mnimo tres vectores, (1, 0, 0), (0, 1, 0)
e (0, 0, 1).
Teorema 35 Qualquer conjunto finito de geradores de V , contem uma base
de V .
Exemplo.Recorrendo ao exemplo respeitante ao Teorema 32, pode-se inferir
que (u1 , u2 , u3 ) e (u1 , u2 , u3 , u4 ), onde u4 e um vector arbitrario de R3 , sao
sistemas de geradores de R3 . No entanto, aplicando o Teorema 33, conclui-se
que no segundo caso os vectores sao linearmente dependentes, uma vez que
4 > 3 = dimR3 . Deste modo, {u1 , u2 , u3 , u4 }, contem uma base de R3 que e,
por exemplo, (u1 , u2 , u3 ).
Teorema 36 Qualquer subconjunto de V , que contenha um conjunto de geradores de V e ainda um conjunto de geradores de V .
Exemplo.1. Os vectores u1 = (1, 1, 1), u2 = (1, 1, 0), e u3 = (1, 0, 0) de R3
sao linearmente independentes, e portanto pelo Teorema 32, constituem um
sistema de geradores de R3 . Assim sendo, qualquer elemento w de R3 pode-se
escrever como combinacao linear de u1 , u2 , u3 , isto e, existem 1 , 2 , 3 R,
tais que,
w = 1 u1 + 2 u2 + 3 u3 .
Se considerar o sistema (u1 , u2 , u3 , u4 ), onde u4 e um vector arbitrario de R3 ,
obviamente que este novo sistema tambem gera R3 . De facto, dado w R3 ,
tem-se
w = 1 u1 + 2 u2 + 3 u3 + 0u4 .

68

CAPITULO 3. ESPAC
OS E SUBESPAC
OS VECTORIAIS

Teorema 37 Qualquer conjunto com m < n elementos linearmente independentes de V pode ser ampliado de modo a formar uma base de V .
Exemplo. Mostra-se facilmente que os polinomios 1 + x, x2 de R2 [x] sao
linearmente independentes. Por outro lado, a sequencia de polinomios (1 +
x, x2 , 2) de R2 [x], e ainda linearmente independente e, por isso, aplicando
o Teorema 32, constitui um sistema de geradores linearmente independente.
Deste modo, ampliou-se o sistema independente (1 + x, x2 ) de modo a formar
uma base de R2 [x].

Captulo 4
Aplica
c
oes Lineares
No Captulo 3, apresentaram-se alguns exemplos que deram a ideia de que
existem espacos vectoriais que sao iguais, na medida em que possuem as
mesmas propriedades, embora os seus elementos apresentem formas distintas.
o caso dos espacos vectoriais M21 e M12 , constitudos pelos vectores
E
coluna e pelos vectores linha com 2 componentes, respectivamente. Neste
captulo tornar-se-a esta ideia mais precisa, introduzindo, para isso, algumas
nocoes.

4.1

Definic
ao e propriedades

Sejam U e V espacos vectoriais sobre um corpo K. Uma aplicacao (transformacao) linear de U em V e uma aplicacao f : U V que satisfaz as
seguintes propriedades:
f (u + v) = f (u) + f (v)

f (u) = f (u),

ou, de forma equivalente,


f (u + v) = f (u) + f (v),
para quaisquer u, v U e , K.
Os espacos vectoriais U e V designam-se espaco de partida e espaco de
chegada, respectivamente.
Exemplo. A aplicacao f : R3 R2 , definida por f (x, y, z) = (y + z, x) e
linear. De facto, sejam u = (x, y, z) e v = (x0 , y 0 , z 0 ) elementos arbitrarios de
69


CAPITULO 4. APLICAC
OES
LINEARES

70
R3 e , R. Entao,
f (u + v) =
=
=
=
=
=

f ((x, y, z) + (x0 , y 0 , z 0 ))
f (x + x0 , y + y 0 , z + z 0 )
(y + y 0 + z + z 0 , x + x0 )
(y + z, x) + (y 0 + z 0 , x0 )
f (x, y, z) + f (x0 , y 0 , z 0 )
f (u) + f (v).

Verifica-se facilmente que a aplicacao f : U V que associa a cada


elemento do espaco vectorial U o elemento neutro do espaco vectorial V , e
uma aplicacao linear, mais propriamente a aplicacao nula doravante denotada
por 0f . De forma analoga, a aplicacao f : U U que associa cada elemento
de um espaco vectorial U em si proprio tambem e uma aplicacao linear,
habitualmente designada aplicacao identidade e denotada por 1f .
Como consequencia da definicao de aplicacao linear obtem-se os resultados seguintes:
Teorema 38 Sejam U e V espacos vectoriais sobre um corpo K. Uma
aplicacao f : U V e linear se e so se
!
n
n
X
X
f
i xi =
i f (xi ) ,
(4.1)
i=1

i=1

para quaisquer xi U , i K, i = 1, . . . , n, n > 1.


Demonstrac
ao. () Considere-se xi U , i K, i = 1, . . . , n. Aplicando
a definicao de aplicacao linear, obtem-se
!
!
!
n
n
n
X
X
X
f
i xi
= f 1 x1 +
i xi = 1 f (x1 ) + f
i xi
i=1

i=2

= 1 f (x1 ) + f

i=2

2 x2 +

n
X
i=3

!
i xi

E PROPRIEDADES
4.1. DEFINIC
AO

= 1 f (x1 ) + 2 f (x2 ) + f

71
n
X

!
i xi

i=3

=
= 1 f (x1 ) + 2 f (x2 ) + . . . + n f (xn )
n
X
=
i f (xi ) .
i=1

() Se f satisfaz (4.1) para n > 1 entao, no caso particular de n = 2,


obtem-se
f (1 x1 + 2 x2 ) = 1 f (x1 ) + 2 f (x2 ),
para quaisquer x1 , x2 U e 1 , 2 R. Deste modo, conclui-se que f e
linear.

Teorema 39 Sejam U e V espacos vectoriais sobre um corpo K. Se a
aplicacao f : U V e linear, entao f (0U ) = 0V .
Demonstrac
ao. Seja x um elemento arbitrario de U e x o seu simetrico.
Entao, x + (x) = 0U . Assim, dado que f e linear,
f (0U ) = f (x + (x)) = f (x) f (x) = 0V .


Note-se que a partir do Teorema 39 obtem-se uma condicao necessaria


para que uma dada aplicacao seja linear.
Exemplo. A aplicacao f : R R2 tal que f (x) = (1, x) nao e linear. De
facto, como f (0R ) = f (0) = (1, 0) 6= (0, 0) = 0R2 , pela Propriedade 2, f nao
e linear.
Relembre-se, agora, a definicao de soma, multiplicacao escalar e composta
de aplicacoes. Dados os conjuntos U , V e W e as aplicacoes f, g : U V e
h : V W define-se
1. f + g : U V , por (f + g)(u) = f (u) + g(u), u U .
2. f : U V por (f )(u) = (f (u)), u U , escalar.

72

CAPITULO 4. APLICAC
OES
LINEARES
3. h g : U W por (h g)(u) = (h(g(u)), u U .

No caso particular de U , V e W serem espacos vectoriais sobre um corpo


K e de f , g e h serem aplicacoes lineares, as aplicacoes 1, 2 e 3 tambem
sao lineares. Na verdade, considerando u, v U e , K arbitrarios e
utilizando a definicao de soma de aplicacoes, obtem-se
(f + g)(u + v) = f (u + v) + g(u + v).
Como f e g sao lineares pode escrever-se
(f + g)(u + v) = f (u) + f (v) + g(u) + g(v)
= (f (u) + g(u)) + (f (v) + g(v)).
Utilizando novamente a definicao de soma de aplicacoes, obtem-se que f + g
e linear, dado que
(f + g)(u + v) = (f + g)(u) + (f + g)(v).
A linearidade das aplicacoes f e de h g mostra-se de forma analoga.
simples mosSejam U e V dois espacos vectoriais sobre um corpo K. E
trar que o conjunto de todas as aplicacoes lineares de U em V , munido das
operacoes adicao e multiplicacao escalar definidas em 1 e 2 ainda e um espaco
vectorial sobre K (ver [3]).
Para caracterizar uma aplicacao de forma u
nica, em geral, e necessario
uma grande quantidade de informacao. O caso das aplicacoes lineares e
especial, visto que quando o espaco de partida tem dimensao finita, qualquer
aplicacao linear fica determinada desde que sejam conhecidas as imagens de
uma base desse espaco.
Assim, sejam U e V espacos vectoriais sobre um corpo K, f : U V
uma aplicacao linear e B1 = (u1 , u2 , . . . , un ) uma base de U . Considerese, ainda, um vector arbitrario u U . Entao, existem escalares u
nicos
1 , 2 , . . . , n K, tais que
u = 1 u1 + 2 u2 + . . . + n un .
A linearidade de f permite escrever
f (u) = f (1 u1 + 2 u2 + . . . + n un )
= 1 f (u1 ) + 2 f (u2 ) + . . . + n f (un ) .

(4.2)

E PROPRIEDADES
4.1. DEFINIC
AO

73

Assim, a imagem de cada vector u U fica determinada desde que se conhecam as imagens dos vectores da base B, isto e, f (u1 ), f (u2 ), . . . , f (un ).
Exemplo.Pretende-se caracterizar a aplicacao f : R2 R3 , tal que f (1, 2) =
(3, 1, 5) e f (0, 1) = (2, 1, 1).
Dado que dim R2 = 2, quaisquer dois elementos de R2 linearmente independentes constituem uma sua base. Como


1 2
car
= 2,
0 1
os vectores (1, 2) e (0, 1) sao linearmente independentes e, assim sendo, B1 =
((1, 2), (0, 1)) e base de R2 . Deste modo, para todo o (x, y) R2 , existem
escalares u
nicos 1 , 2 R, tais que
(x, y) = 1 (1, 2) + 2 (0, 1).
Da igualdade anterior obtem-se

1
=x
21 + 2 = y,
cuja solucao e (x, y 2x). Logo,
(x, y) = x(1, 2) + (y 2x)(0, 1).

(4.3)

Como f e linear, f (1, 2) = (3, 1, 5) e f (0, 1) = (2, 1, 1), de (4.3) vem


f (x, y) = f (x(1, 2) + (y 2x)(0, 1)) = xf (1, 2) + (y 2x)f (0, 1)
= x(3, 1, 5) + (y 2x)(2, 1, 1)
= (x + 2y, 3x + y, 7x y).

Sejam U e V dois espacos vectoriais sobre um corpo K e sejam B1 =


(u1 , u2 , . . . , un ) e B2 = (v1 , v2 , . . . , vm ) bases de U e V , respectivamente.
Note-se que dada uma matriz A = [aij ] Mmn arbitraria, esta define uma
u
nica aplicacao linear f : U V relativamente ao par de bases B1 e B2 . Para
tal, basta considerar que a j-esima coluna de A, [a1j a2j . . . amj ]T , representa


CAPITULO 4. APLICAC
OES
LINEARES

74

o vector das coordenadas de f (uj ) na base B2 , j = 1, . . . , n. Como cada um


dos n vectores de coordenadas e u
nico, cada f (uj ) pode ser escrito de forma
u
nica como combinacao linear dos elementos da base B2 do seguinte modo:
f (uj ) = a1j v1 + a2j v2 + . . . + amj vm , j = 1, . . . , n.

(4.4)

Assim, conhecidas as imagens de uma base do espaco de partida, qualquer


aplicacao linear f fica definida, basta para tal utilizar (4.2) juntamente com
(4.4). A matriz A designa-se matriz da aplicacao linear f relativamente a`s
bases B1 e B2 e denota-se por A = M(f ; B1 , B2 ).
Exemplo. Seja f : R3 R2 uma aplicacao linear cuja matriz que representa f relativamente a`s bases B1 = ((1, 0, 0), (0, 0, 1), (0, 1, 0)) e B2 =
((0, 1), (1, 0)) e


1 2 3
M(f ; B1 , B2 ) =
.
5 0 1
Note-se que as colunas de M(f ; B1 , B2 ) sao os vectores das coordenadas
das imagens dos vectores de B1 na base B2 . Deste modo,
f (1, 0, 0) = 1 (0, 1) + 5 (1, 0) = (5, 1)
f (0, 0, 1) = 2 (0, 1) + 0 (1, 0) = (0, 2)
f (0, 1, 0) = 3 (0, 1) + 1 (1, 0) = (1, 3).
facil verificar que
E
(x, y, z) = x(1, 0, 0) + z(0, 0, 1) + y(0, 1, 0).

(4.5)

Utilizando (4.5) e a linearidade de f , vem


f (x, y, z) =
=
=
=

f (x(1, 0, 0) + z(0, 0, 1) + y(0, 1, 0))


xf (1, 0, 0) + zf (0, 0, 1) + yf (0, 1, 0)
x(5, 1) + z(0, 2) + y(1, 3)
(5x + y, x + 2z + 3y).

Note-se ainda que, dada uma aplicacao linear f : U V e dadas B1 =


(u1 , u2 , . . . , un ) e B2 = (v1 , v2 , . . . , vm ) bases de U e V , respectivamente, e
sempre possvel construir uma u
nica matriz A que define f em relacao a B1
e B2 . Para obter A basta, para cada j = 1, . . . , n,

E PROPRIEDADES
4.1. DEFINIC
AO

75

1. Calcular f (uj );
2. Determinar o vector das coordenadas de f (uj ) na base B2 ,
(a1j , a2j , . . . , amj ) ;

(4.6)

3. Introduzir o vector (4.6) na j-esima coluna de A.


Exemplo.Considere-se a aplicacao linear f : R3 R2 , definida por f (x, y, z) =
(5x + y, x + 3y + 2z) e as bases B1 = ((1, 0, 0), (0, 0, 1), (0, 1, 0)) e
B2 = ((0, 1), (1, 0)).
Para obter a matriz de f relativamente `as bases B1 e B2 comeca-se por
calcular as imagens dos elementos de B1 . Assim,
f (1, 0, 0) = (5, 1), f (0, 0, 1) = (0, 2) e f (0, 1, 0) = (1, 3).
De seguida, determinam-se os vectores das coordenadas de cada uma das
imagens na base B2 , (a1j , a2j ), j = 1, 2, 3. Para tal, resolvem-se as equacoes
seguintes
(5, 1) = a11 (0, 1) + a21 (1, 0)
(0, 2) = a12 (0, 1) + a22 (1, 0)
(1, 3) = a13 (0, 1) + a23 (1, 0),
cujas solucoes sao (a11 , a21 ) = (1, 5), (a12 , a22 ) = (2, 0) e (a13 , a23 ) = (3, 1),
respectivamente. A matriz M(f ; B1 , B2 ) obtem-se introduzindo, ordenadamente por coluna, os vectores das coordenadas. Assim,


1 2 3
M(f ; B1 , B2 ) =
.
5 0 1

Considere-se, novamente, a combinacao linear (4.2). A igualdade (4.4)


permite escrever (4.2) da seguinte forma:
f (u) = 1 (a11 v1 + . . . + am1 vm ) + 2 (a12 v1 + . . . + am2 vm )
+ . . . + n (a1n v1 + . . . + amn vm )
= (1 a11 + . . . + n a1n ) v1 + (1 a21 + . . . + n a2n ) v2
+ . . . + (1 am1 + . . . + n amn ) vm .

(4.7)

76

CAPITULO 4. APLICAC
OES
LINEARES

Note-se que os coeficientes dos vectores vi , i = 1, . . . , m, sao as coordenadas de uma matriz produto, nomeadamente o produto da matriz
M(f ; B1 , B2 ) pelo vector coluna constitudo pelas coordenadas de u na base
B1 . Este produto matricial origina um vector coluna cujas componentes sao
as coordenadas de f (u) na base B2 . Assim, o calculo da imagem de um vector por uma aplicacao linear corresponde a multiplicar a matriz da aplicacao
linear por um vector de coordenadas. Entao, f (u), em (4.7), pode escrever-se
sucintamente em termos matriciais como
(f (u))B2 = M(f ; B1 , B2 )uB1 ,

(4.8)

onde uB denota o vector das coordenadas de um vector u numa base B.


simExemplo. Considere-se a aplicacao linear do exemplo anterior. E
ples verificar que o vector das coordenadas do vector (1, 2, 3) na base B1 e

T
1 3 2
. Assim, utilizando (4.8), obtem-se

(f (1, 2, 3))B2 = M(f ; B1 , B2 )(1, 2, 3)B1 =

1 2 3
5 0 1



1
11
3 =
.
3
2

Sejam U e V espacos vectoriais sobre um corpo K e f : U V uma


aplicacao linear. A Propriedade 2 garante a existencia de, pelo menos, um
elemento em U , 0U , cuja imagem e o elemento neutro de V , 0V . O conjunto
formado por todos os elementos de U cuja imagem por f e o elemento neutro
de V , isto e,
N ucf = {u U : f (u) = 0V } ,
designa-se n
ucleo de f e e um subespaco vectorial de U . Em contrapartida,
o conjunto
Imf = {v : v = f (u), para algum u U }
designa-se conjunto imagem de f ou contradomnio de f e e um subespaco
vectorial de V .
Comece-se por mostrar que N ucf e subespaco vectorial de U . Pela
Propriedade 2, f (0U ) = 0V , logo 0U N ucf 6= . Considere-se, agora,
u, v N ucf e , R arbitrarios. Entao, dado f ser linear, vem
f (u + v) = f (u) + f (v) .

E PROPRIEDADES
4.1. DEFINIC
AO

77

Como u, v N ucf , obtem-se


f (u + v) = 0V + 0V = 0V
e, por conseguinte, u + v N ucf . Logo, N ucf e um subespaco vectorial
de U .
De seguida mostra-se que Imf e um subespaco vectorial de V . Pela
Propriedade 2, f (0U ) = 0V , logo 0V Imf 6= . Considere-se, agora,
v1 , v2 Imf e , R arbitrarios. Por definicao de Imf , existem u1 , u2
U , tais que f (u1 ) = v1 e f (u2 ) = v2 . Assim, dado que f e linear, vem
v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ) .
Como U e espaco vectorial, u1 + u2 U e, deste modo,
v1 + v2 = f (u1 + u2 ) Imf,
sendo, por isso, Imf um subespaco vectorial de V .
` dimensoes de Imf e N ucf chamam-se caracterstica de f e nulidade
As
de f , respectivamente. Pode ainda mostrar-se (ver [2]) que e valida a seguinte
igualdade
dim N ucf + dim Imf = dim U.
Note-se, ainda, que (4.2) permite concluir que
Imf = hf (u1 ), f (u2 ), . . . , f (un )i .
Exemplo. Considere-se a aplicacao linear f : R3 R2 , tal que f (x, y, z) =
(5x + y, x + 3y + 2z).
O n
ucleo de f e o subespaco vectorial de R3


N ucf = (x, y, z) R3 : f (x, y, z) = (0, 0)


= (x, y, z) R3 : (5x + y, x + 3y + 2z) = (0, 0) .
Da igualdade anterior obtem-se

5x + y
=0
x + 3y + 2z = 0,
cuja solucao e (x, 5x, 7x). Assim,
N ucf = {(x, 5x, 7x) : x R} = h(1, 5, 7)i.


CAPITULO 4. APLICAC
OES
LINEARES

78

A nulidade de f e 1, visto que um elemento nao nulo e linearmente independente.


A imagem de f e o subespaco vectorial de R2
Imf = {(5x + y, x + 3y + 2z) : x, y, z R} .
Dado que
(5x + y, x + 3y + 2z) = x(5, 1) + y(1, 3) + z(0, 2),
vem
Imf = h(5, 1), (1, 3), (0, 2)i = h(1, 3), (0, 2)i.
Note-se que

car

1 3
0 1


= 2,

por isso, estes dois vectores sao linearmente independentes e, assim sendo, a
caracterstica de f e igual a 2.
Observe-se que, efectivamente, dim N ucf + dim Imf = dim R3 , visto
que 1 + 2 = 3.
Tal como se referiu, no incio deste captulo, alguns espacos vectoriais aparentam ser iguais. Neste momento e possvel clarificar esta ideia, comecase, por isso, por recordar algumas nocoes.
Dados dois conjuntos A e B e uma aplicacao f : A B, diz-se que
- a aplicacao f e injectiva se e so se quaisquer dois elementos distintos
de A nao tem a mesma imagem, isto e,
u1 6= u2 = f (u1 ) 6= f (u2 ),

u1 , u2 A.

- a aplicacao f e sobrejectiva se e so se todo o elemento de B e imagem,


por f , de algum elemento de A, isto e,
u A, tal que v = f (u),

v B.

- a aplicacao f e bijectiva se for simultaneamente injectiva e sobrejectiva.


No caso particular de f : U V ser uma aplicacao linear,

E PROPRIEDADES
4.1. DEFINIC
AO

79

- f e injectiva se e so se N ucf = {0U }.


- f e sobrejectiva se e so se dim V = dim Imf .
Comece-se por mostrar que f e injectiva se e so se N ucf = {0U }.
() Do Teorema 39, obtem-se f (0U ) = 0V , o que, conjuntamente com o
facto de f ser injectiva, permite concluir que N ucf = {0U }.
() Utilizando a lei da conversao, pretende mostrar-se que se N ucf 6=
{0U } entao f nao e injectiva. Efectivamente, pela Propriedade 2, vem que
f (0U ) = 0V . Mas, como, por hipotese, N ucf 6= {0U } entao existe x U ,
x 6= 0U , tal que f (x) = 0V . Logo, f nao e injectiva.
De seguida mostra-se que f e sobrejectiva se e so se dim V = dim Imf .
Efectivamente, f e sobrejectiva se e so se
u U, tal que v = f (u),

vV

ou, de modo equivalente, se e so se V Imf . Como Imf V , obtem-se


V Imf se e so se dim V = dim Imf .
Exemplo. A aplicacao linear f : R3 R2 , tal que f (x, y, z) = (5x +
y, x + 3y + 2z) nao e bijectiva. De facto, f e bijectiva se e so se f e
sobrejectiva e injectiva. A aplicacao f e sobrejectiva, dado que dim R2 =
2 = dim Imf . No entanto, como N ucf 6= {(0, 0, 0)}, f nao e injectiva e,
como tal, tambem nao e bijectiva.
Existem aplicacoes que transformam um espaco vectorial noutro preservando a sua estrutura. Estas aplicacoes designam-se isomorfismos. Assim,
dada uma aplicacao linear f : U V , se
- f e bijectiva, f diz-se um isomorfismo;
- f e injectiva, f diz-se um monomorfismo;
- f e sobrejectiva, f diz-se um epimorfismo.
No caso particular de U = V , a aplicacao linear f designa-se endomorfismo. A um isomorfismo em que U = V da-se o nome de automorfismo.
O exemplo seguinte mostra que, de facto, existem aplicacoes que transformam um espaco vectorial noutro preservando a sua estrutura.


CAPITULO 4. APLICAC
OES
LINEARES

80

Exemplo. Considerem-se os espacos vectoriais M12 e M21 . A adicao em


M12

 
 

1 2 + 3 4 = 2 2
corresponde em M21 a


1
2


+

3
4


=

2
2


.

Em contrapartida, a multiplicacao escalar em M12



 

9 3 4 = 27 36
corresponde em M21 a

9

3
4


=

27
36


.

Mais geralmente, sob a correspondencia






u1
u1 u2
u2
ambas as operacoes que se seguem preservam a estrutura dos elementos, isto
e, elementos correspondentes adicionam-se ou multiplicam-se por um escalar
de forma correspondente,

 
 


 
 

u1
v1
u1 + v1
u1 u2 + v1 v2 = u1 + v1 u2 + v2
+
=
u2
v2
u2 + v2

u1 u2

u1 u2

u1
u2


=

u1
u2


.

Assim, estes espacos podem considerar-se iguais neste sentido.

Bibliografia

[1] Isabel Cabral, Ceclia Perdigao e Carlos Saiago, Algebra


Linear, Teoria, Exerccios Resolvidos e Exerccios propostos com solucoes, Escolar Editora, 2008

[2] Emlia Giraldes, Victor H. Fernandes e Maria Paula M. Smith,Algebra


Linear e Geometria Analtica, McGraw-Hill de Portugal, 1995.
[3] Jim Hefferon, Linear Algebra, ftp://joshua.smcvt.edu/pub/hefferon/book/book.pdf.

[4] Luis T. Magalhaes, Algebra


Linear como introducao a matematica
aplicada, Texto Editora, Lisboa, 1993.

[5] Joao F. Queiro e Ana Paula Santana, Introducao a` Algebra


Linear,
Trajectos da Ciencia, Gradiva, 2010
[6] Gareth Williams, Linear Algebra with applications, Jones and Bartlett publishers, 2011

81

Você também pode gostar