Você está na página 1de 102

Notas de Aula - Álgebra Linear(Conteúdo Parcial)

Adriano Vitor
Adaptada por Luiz Arthur Dornelles Jr.

Florianópolis, SC
Revisado - 25 de março de 2020
Sumário

1 Espaços Vetoriais 4
1.1 Espaço Vetorial: Conceitos Iniciais . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Exemplos de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Alguns teoremas importantes sobre Espaços Vetoriais . . . . . . . . . 12
1.2 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Soma e Intersecção de Subespaços . . . . . . . . . . . . . . . . . . . . 17
1.3 Combinação Linear e o Espaço Gerado . . . . . . . . . . . . . . . . . . . . . 19
1.3.1 Combinações Lineares e a Solução de um Sistema Linear . . . . . . . 23
1.4 Dependência e Independência Linear . . . . . . . . . . . . . . . . . . . . . . 24
1.5 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.1 Aplicação para determinar uma base . . . . . . . . . . . . . . . . . . 35
1.6 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.7 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.8 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2 Transformações Lineares 46
2.1 Transformações no Plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Transformações no Espaço(em construção) . . . . . . . . . . . . . . . . . . . 54
2.3 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.4 Posto e Nulidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.5 Transformações Injetoras e Sobrejetoras . . . . . . . . . . . . . . . . . . . . . 59
2.6 Espaços Vetoriais Isomorfos . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.7 Operações com Transformações . . . . . . . . . . . . . . . . . . . . . . . . . 66
2.8 Transformação Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

2
2.9 Aplicações (em construção) . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

3 Produto Interno 75
3.1 Matriz do Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.2 Desigualdade de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . 78
3.3 Norma de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.4 Ângulo entre Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.5 Bases Ortogonais - Processo de Gram-Schmidt . . . . . . . . . . . . . . . . . 81
3.6 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.7 Operadores Auto-Adjuntos e Ortogonais . . . . . . . . . . . . . . . . . . . . 84

4 Autovalores e Autovetores 86
4.1 Descrição Inicial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.2 Alguns Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Outros Resultados e Definições . . . . . . . . . . . . . . . . . . . . . . . . . 88

5 Diagonalização de Operadores 93
5.1 Definições e Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Aplicação em Produtos Matriciais . . . . . . . . . . . . . . . . . . . . . . . . 101

3
Capı́tulo 1

Espaços Vetoriais

Na Matemática e em áreas afins, é comum nos depararmos com situações que envolem con-
juntos nos quais é interessante trabalhar com combinações lineares de seus elementos. Nesse
contexto, uma combinação linear está relacionada ao fato de poder somar múltiplos dos ele-
mentos que pertencem ao conjunto com a garantia de que o resultado ainda pertença ao
conjunto, preservando assim a estrutura. Além disso, essas operações entre elementos podem
satisfazer propriedades muito úteis em situações práticas. vejamos alguns exemplos.

Exemplo 1.1 Considere o seguinte sistema de equações:



 2x + y = 2
 5x − 3y = −5

Uma maneira de resolver esse sistema é somar uma equação com um múltiplo da outra a fim
de isolar encontrar o valor da primeira incógnita.

Exemplo 1.2 Na fı́sica é comum o cálculo de uma força vetorial originária da soma de duas
ou mais forças, também vetoriais. O gráfico da figura 1.11 ilustra uma situação como essa:

4
Figura 1.1: Representação de Forças Vetoriais

A Álgebra Linear é o ramo da matemática que trata das propriedades comuns a algébricos
constituı́dos por um conjunto no qual a noção de combinação linear de seus elementos possa
ser definida. por isso vamos definir o objeto matemático que é uma abstração útil deste tipo
de sistema algébrico.

1.1 Espaço Vetorial: Conceitos Iniciais


Definição 1.1 (Corpo Comutativo) Um corpo comutativo é um conjunto não vazio K mu-
nido de duas operações, denominadas adição e multiplicação, que vamos denotar por + e •,
respectivamente, que satisfazem os seguintes axiomas:
Axiomas de Fechamento:

F1 ) K é fechado com relação a operação de adição. Para todos os x, y ∈ K temos que


x + y ∈ K.

F2 ) K é fechado com relação a operação de multiplicação. Para todos os x, y ∈ K temos


que x • y ∈ K.

5
Axiomas da Operação de Adição:

a1 ) Comutatividade: para todos os x, y ∈ K temos que x + y = y + x

a2 ) Associatividade: para todos os x, y, z ∈ K temos que (x + y) + z = x + (y + z).

a3 ) Elemento Neutro: existe um único elemento em K, denotado por 0K , de forma que


x + 0K = x; ∀x ∈ K.

a4 ) Elemento Simétrico: todo elemento x ∈ K possui um único elemento simétrico (−x) ∈


K tal que x + (−x) = 0K .

Axiomas da Operação de Multiplicação:

m1 ) Associatividade: para todos os x, y, z ∈ K temos que (x • y) • z = x • (y • z).

m2 ) Comutatividade: para todos os x, y ∈ K temos que x • y = y • x

m3 ) Elemento Neutro: existe um único elemento em K, denotado por 1K , tal que x • 1K = x


para todo x ∈ K.

m4 ) Inverso Multiplicativo: todo elemento x ∈ K, com x 6= 0K possui um único elemento


x−1 ∈ K tal que x • x−1 = 1K .

D1 ) ∀x, y, z ∈ K temos que x • (y + z) = (x • y) + (x • z).

Definição 1.2 (Espaço Vetorial) Um Espaço Vetorial consiste em:

(1) Um conjunto não vazio V de objetos, denominados vetores.

(2) Um corpo K de escalares.

(3) Uma operação de adição de vetores, que associa a cada par de elementos u, v ∈ V um
elemento u + v ∈ V , ou seja, V é fechado com relação a operação de adição. Esta
operação possui as seguintes propriedades:

A1 ) Comutatividade: u + v = v + u para todos u, v ∈ V .

A2 ) Associatividade: u + (v + w) = (u + v) + w para todos u, v, w ∈ V .

A3 ) Elemento Neutro: existe um elemento 0V ∈ V tal que u + 0V = u.

6
A4 ) Elemento Simétrico: para todo elemento u ∈ V existe o elemento −u ∈ V tal que
u + (−u) = 0V para todo u ∈ V .

(4) Uma operação de multiplicação por escalar, que associa a cada elemento u ∈ V e a
cada escalar α ∈ K, um elemento αu ∈ V , o que torna V um conjunto fechado para a
multiplicação por escalar. Esta operação possui as seguintes propriedades:

M1 ) Associatividade: (αβ)u = α(βu) para todos u ∈ V e α, β ∈ K.

M2 ) Distributividade para Adição de Elementos: α(u+v) = αu+αv para todos u, v ∈ V


e α ∈ K.

M3 ) Distributividade para Multiplicação por Escalar: (α + β)u = αu + βu para todos


u ∈ V e α, β ∈ K.

M4 ) Elemento Identidade: 1K · u = u para todo u ∈ V .

Observações:

- A palavra vetor será usada para designar um elemento do espaço vetorial. Esta palavra
difere-se em relação ao seu uso na geometria analı́tica ou mesmo na fı́sica (onde termo
vetor quase sempre é usado para caracterizar uma grandeza que possui módulo, direção
e sentido). Aqui nos interessa somente o fato de ser um elemento do conjunto para o
qual são válidos os axiomas da Definição 1.2.

- Como consequência dos axiomas dados, qualquer combinação linear

a1 v1 + a2 v2 + · · · + an vn

não exige parenteses e não depende da ordem das parcelas.

- Em geral, este texto considerará o corpo dos reais para as discussões, no entanto, em
outros estudos poderia-se adotar o conjunto dos complexos como corpo.

1.1.1 Exemplos de Espaços Vetoriais

Com o intuito de promover um entendimento mais amplo dos conceitos de espaço vetorial e de
vetores em relação ao que foi discutido na disciplina de geometria analı́tica, serão apresentados
nesta seção, alguns exemplos mais gerais de espaços vetoriais que extrapolam os domı́nios do

7
espaço tridimensional. Porém, começaremos vendo um exemplo bidimensional verificar em
detalhes as propriedades de Espaço Vetorial para que a definição fique bem fixada.

Exemplo 1.3 (Vetores do Espaço R2 ) o conjunto V = R2 = {(x, y)|x, y ∈ R} é um espaço


vetorial com as operações de adição e multiplicação por um número real definidas por:

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ), ∀ u = (x1 , y1 ), v = (x2 , y2 ) ∈ V,

α(x, y) = (αx, αy), ∀u = (x, y) ∈ V e α ∈ K.

Essas são as operações usuais de adição e multiplicação por escalar. Para verificarmos
os oito axiomas de espaço vetorial, consideremos u = (x1 , y1 ), v = (x2 , y2 ) e w = (x3 , y3 ) em
V . Basicamente serão utilizadas as propriedades do corpo dos reais para as demonstrações
que seguem:

[A1 ] Comutatividade:

u + v = (x1 , y1 ) + (x2 , y2 )

= (x1 + x2 , y1 + y2 )
a
=1 (x2 + x1 , y2 + y1 )

= (x2 , y2 ) + (x1 , y1 )

= v + u.

[A2 ] Associatividade:

(u + v) + w = ((x1 , y2 ) + (x2 , y2 )) + (x3 , y3 )

= (x1 + x2 , y1 + y2 ) + (x3 , y3 )

= ((x1 + x2 ) + x3 , (y1 + y2 ) + y3 )
a
=2 (x1 + (x2 + x3 ), y1 + (y2 + y3 ))

= (x1 , y1 ) + (x2 + x3 , y2 + y3 )

= (x1 , y1 ) + ((x2 , y2 ) + (x3 , y3 ))

= u + (v + w).

8
[A3 ] Elemento Neutro: Existe um elemento neutro dado por 0V = (0, 0) ∈ R2 . Com efeito

u + 0 = (x1 , y1 ) + (0, 0)

= (x1 + 0, y1 + 0)
a
=3 (x1 , y1 ) = u.

[A4 ] Elemento Simétrico: Para todo u ∈ R2 existe um elemento oposto dado por −u =
(−x1 , −y1 ) ∈ R2 . Com efeito

u + (−u) = (x1 , y1 ) + (−x1 , −y1 )

= (x1 + (−x1 ), y1 + (−y1 ))


a
=4 (0, 0) = 0V .

[M1 ] Associatividade:

(αβ)u = (αβ)(x1 , y1 ) = ((αβ)x1 , (αβ)y1 ) = (α(β)x1 , α(β)y1 )

= α(βx1 , βy1 ) = α(β(x1 , y1 )) = α(βu).

[M2 ] Distributividade para Adição de Elementos:

α(u + v) = = α((x1 , y1 ) + (x2 , y2 )) = α(x1 + x2 , y1 + y2 ) = (α(x1 + x2 ), α(y1 + y2 ))

= (αx1 + αx2 , αy1 + αy2 ) = (αx1 , αy1 ) + (αx2 , αy2 ))

= α(x1 , y1 ) + α(x2 , y2 ) = αu + αv

[M3 ] Distributividade para Multiplicação por Escalar:

(α + β)u = (α + β)(x1 , y1 ) = ((α + β)x1 , (α + β)y1 ) = (αx1 + βx1 , αy1 + βy1 )

= (αx1 , αy1 ) + (βx1 , βy1 ) = α(x1 , y1 ) + β(x1 , y1 ) = αu + βu.

[M4 ] Elemento Identidade: Existe um elemento identidade 1 em K. Com efeito:

1 · u = 1 · (x1 , y1 ) = (1 · x1 , 1 · y1 ) = (x1 , y1 ) = u.

Exemplo 1.4 (Vetores do Espaço R3 ) Seja o conjunto R3 = {(x1 , x2 , x3 ) | x1 , x2 , x3 ∈ R},


o conjunto de todas as ternas reais, com a operação de adição definida por:

u + v = (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 )

9
e a operação de multiplicação por escalar definida por:

λu = (λx1 , λx2 , λx3 )

é um espaço vetorial real.

Exemplo 1.5 (Vetores do Espaço Rn ) Seja o conjunto Rn = {(x1 , x2 , · · · , xn ) | xi ∈ R}, o


conjunto de todas as n-uplas reais, com a operação de adição definida por:

u + v = (x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn )

e a operação de multiplicação por escalar definida por:

λu = (λx1 , λx2 , · · · , λxn )

é um espaço vetorial real.


É importante notar que as coordenadas de cada vetor em Rn são números reais. Como
a soma entre dois elementos é definida coordenada a coordenada e a multiplicação por esca-
lar consiste em multiplicar cada uma das coordenadas pelo mesmo escalar, pode-se utilizar
as propriedades do corpo dos reais para verificar que Rn é um espaço vetorial munido das
operações dadas.

Exemplo 1.6 (Espaço das Matrizes Mm×n ) O conjunto de todas as matrizes Mm×n é um
espaço vetorial sobre o corpo dos reais em relação às operações usuais de adição de matrizes
e multiplicação por escalar.
Como as matrizes são constituı́das de números reais e as operações são definidas entrada
a entrada, pode-se verificar que o conjunto Mm×n é um espaço vetorial utilizando as propri-
edades do Corpo dos Reais, de maneira muito semelhante com o que foi feito no exemplo
1.3.

Exemplo 1.7 (Espaço de Polinômios Pn (R) de grau menor ou igual a n) Seja Pn (R) o
conjunto de todos os polinômios

p(x) = a0 + a1 x + a2 x2 + · · · + an−1 xn−1 + an xn

com ai ∈ R para i = 0, 1, ..., n. Pn (R) constitui um espaço vetorial se considerarmos as


operações usuais de adição de polinômios e multiplicação de polinômio por escalar.

10
Exemplo 1.8 (O Conjunto F (R)). Seja o conjunto F (R) = {f : R → R | f é uma função },
com a operação de adição de elementos definida por:

(f + g)(x) = f (x) + g(x) para todos f, g ∈ F (R)

e a operação de multiplicação por escalar definida por:

(λf )(x) = λf (x) para toda f ∈ F (R) e λ ∈ R

é um espaço vetorial.

Exemplos de Espaços Vetoriais com operação de adição dos elementos e multiplicação por
escalar não usuais. Para situações como as descritas abaixo, usaremos  e para representar
as operações não usuais citadas acima, respectivamente.

Exemplo 1.9 (Vetores no Espaço R2 ). Seja o conjunto V = {(x, y) | x, y > 0}, com a
operação de adição de elementos definida por:

u  v = (x1 , y1 )  (x2 , y2 ) = (x1 .x2 , y1 .y2 )

e a operação de multiplicação por escalar definida por:

α (x, y) = (xα , y α )

é um espaço vetorial (será demonstrado em sala). Note que nem a adição e nem a multi-
plicação são operações usuais, portanto devemos usar todos os axiomas.

Exemplo 1.10 (Vetores no Espaço R2 ). Seja o conjunto V = {(x, y) | x, y ∈ R}, com a


operação de adição de elementos definida por:

u  v = (x1 , y1 )  (x2 , y2 ) = (x1 + x2 , y1 + y2 )

e a operação de multiplicação por escalar definida por:

α (x, y) = (α.x, y)

Não é um espaço vetorial (será demonstrado em sala). Note que a adição é uma operação
usual, mas a multiplicação não é uma operação usual, portanto devemos usar os axiomas
para a operação multiplicação por escalar.

11
1.1.2 Alguns teoremas importantes sobre Espaços Vetoriais

Teorema 1.1 (Unicidade do Elemento Neutro) Seja V um espaço vetorial sobre o


corpo K. Então, existe um único elemento neutro da operação de adição 0V ∈ V .
Demonstração:
Pelo axioma (A3 ) existe ao menos um elemento neutro 0V em V . Supondo que existem
dois elementos neutros 0V e 01 , isto é,
A A A
0V =3 0V + 01 =1 01 + 0V =3 01

o que prova a unicidade do elemento neutro. Nessa demonstração utilizamos apenas a de-
finição de elemento neutro, tanto em K como em V . 

Teorema 1.2 (Unicidade do Elemento Simétrico) Seja V um espaço vetorial sobre o


corpo K. Então, todo elemento u ∈ V possui um único elemento simétrico.
Demonstração:
Pelo axioma (A4 ) todo elemento u ∈ V possui pelo menos um elemento simétrico −u ∈ V .
Vamos supor que o elemento u ∈ V possui dois elementos simétricos −u e u1 , isto é,

u + (−u) = 0V e u + u1 = 0V

Desse modo temos que

(−u) = 0V + (−u) = (u + u1 ) + (−u) = 0V + u1 = u1

o que prova a unicidade do elemento simétrico. Nesta demonstração utilizamos a definição


de elemento neutro e a associatividade da soma em V . 

Teorema 1.3 (Lei do Cancelamento) Sejam V um espaço vetorial sobre o corpo K e


u, v, w ∈ V além do que
u+v =u+w

então v = w.
Demonstração:
Somando (−u) em ambos os lados da igualdade temos:

v = −u + (u + v) = −u + (u + w) = (−u + u) + w = 0V + w = w

Portanto, v = w. Nesta demonstração foi utilizada a associatividade da soma e a definição


de elemento neutro em V , além da definição de elemento oposto em V .

12
Teorema 1.4 Sejam V , um espaço vetorial sobre o corpo K, u, v ∈ V e α, β ∈ K. Temos
as seguintes propriedades:

(a) 0K · u = 0V

(b) α · 0V = 0V

(c) (−α · u) = −(α · u) = α · (−u)

(d) Se α · u = 0V então α = 0K ou u = 0V

(e) Se α · u = α · v e α 6= 0K então u = v

(f ) Se α · u = β · u e u 6= 0V então α = β

(g) −(u + v) = (−u) + (−v) = −u − v


n
X
(h) u + u = 2 · u assim como u + u + u = 3 · u e generalizando temos u = n·u
i=1
Demonstração:

(a) Seja v = 0K · u. Queremos mostrar que v = 0V . Fazendo

v + v = 0K · u + 0K · u = 0K · (u + u) = 2 · 0K · u = 0K · u = v.

na segunda igualdade foi utilizada a associatividade da soma em V e na terceira


igualdade foi utilizada a definição de elemento nulo do Corpo K.

(b) A prova deste item é análoga ao item anterior e pode ficar a cargo do leitor.

(c) Temos que


(−α · u) + αu = ((−α) + α)u = 0K u = 0V .

Na primeira igualdade utilizamos a distributividade do produto por escalar e depois


a definição de elemento oposto em K, seguida da definição de elemento oposto em
V . Sendo assim, somando-se −(αu) em ambos os lados da igualdade conclui-se
que (−α · u) = −(αu). Vamos provar agora que (−α · u) = α · (−u). Fazendo

α · (−u) + αu = α((−u) + u) = α0V = 0V .

Na primeira igualdade utilizamos a distributividade do produto por escalar, depois


usamos a definição de elemento oposto em V , seguida da propriedade (b) deste
mesmo Teorema.

13
(d) Se α = 0K recaı́mos ao caso do item (a). Vamos supor então que αu = 0V com
α 6= 0K . Sabemos que existe um único α−1 ∈ K tal que α−1 α = 1K . Desse modo,
utilizando o item (b), tem-se que

u = 1K = (α−1 α)u = α−1 (αu) = α−1 0V = 0V .

Portanto u = 0V .

(e) Como α 6= 0K , sabemos que existe um único α−1 ∈ K tal que α−1 α = 1K . Desse
modo, temos que

u = (α−1 α)u = α−1 (αu) = α−1 (αv) = (α−1 α)v = v.

(f ) Somando −(βu) em ambos os lados da igualdade αu = βu, obtemos

αu + (−(βu)) = αu + (−β)u = (α + (−β))u = (α − β)u =)V .

como u 6=)V , temosque(α − β) = 0K . Logo, α = β.

(g) A prova deste item utiliza a propriedade do item (a), além da distributividade do
produto por escalar com relação a soma em V.

(h) A prova é feita a partir dos axiomas (A2 ) e (M3 ) da definição de espaço vetorial.
Primeiro mostra-se que essa relação é válida para n = 2. Em seguida, supões-se
que a relação é válida para n qualquer e mostra-se que continua valendo para n+1.
Esse tipo de demostração é conhecido como “prova por indução”. 

1.2 Subespaços Vetoriais


Definição 1.3 Seja V um espaço vetorial sobre um corpo K. Um subespaço vetorial de V
é um subconjunto S ⊂ V que é, ele mesmo, um espaço vetorial sobre o corpo K com as
operações de adição de elementos e multiplicação por escalar definidas em V.

Teorema 1.5 (Subespaço Vetorial) Um subconjunto não vazio S, de um espaço vetorial


V sobre o corpo dos reais, é um subespaço vetorial de V se e somente se:

i) Para quaisquer elementos u, v ∈ S, tem-se que u + v ∈ S.

ii) Para qualquer elemento u ∈ S e qualquer escalar α ∈ R tem-se que αu ∈ S.

14
Demonstração:
⇒ Se S é um subespaço vetorial de V, então S satisfaz todos os axiomas de espaço vetorial,
em particular os axiomas de fechamento propostos nos itens i e ii.
⇐ Agora vamos mostrar que se S satisfaz os axiomas de fechamento, então S satisfaz os
axiomas de adição de elementos e de multiplicação por escalar. Como S ⊂ V , os axiomas
de A1 até A2 são automaticamente satisfeitos pois são válidos para todos os elementos de V .
Por um argumento análogo, os axiomas M1 , M2 , M3 e M4 são satisfeitos automaticamente.
Resta mostrar somente os axiomas A3 e A4 .

(A3 ) Elemento neutro. Para quaisquer u ∈ S e λ ∈ K, temos que λ · u ∈ S. Se fizermos


então λ = 0K , teremos 0K · u = 0V ∈ S. Logo, S possui elemento neutro.

(A4 ) Elemento simétrico. Para quaisquer u ∈ S e λ ∈ K, deveremos ter λ · u ∈ S. Desta


forma, se escolhermos λ = −1K obteremos −1K · u = 1K · (−u) = −u ∈ S. Logo, todo
elemento u ∈ S possui um elemento simétrico −u. O que completa a demonstração. 

Podemos propor três importantes observações à respeito de subespaços:

(i) As condições impostas na definição de espaço vetorial garantem que ao operarmos em


S, obteremos um vetor também em S. Isto é suficiente para afirmar que S é ele próprio
um espaço vetorial, mesmo sem verificar todos os axiomas da Definição 1.2, pois eles
são válidos em V que contém S.

(ii) Qualquer subespaço de V precisa, necessariamente, conter o vetor nulo para que a
condição ii) do Teorema 1.5 seja satisfeita para α = 0.

(iii) Todo espaço vetorial admite ao menos dois subespaços (que são chamados subespaços
triviais), o conjunto formado somente pelo vetor nulo e o próprio espaço vetorial, pois,
ambos satisfazem o Teorema 1.5.

Exemplo 1.11 Seja V = R2 e S = {(x, y) ∈ R2 | y = 2x} ou S = {(x, 2x) | x ∈ R}. Evi-


dentemente, S 6= ∅, pois (0, 0) ∈ S. Verifiquemos as condições i) e ii). Para u = (x1 , 2x1 ) ∈ S
e v = (x2 , 2x2 ) ∈ S, tem-se:

i) u + v = (x1 + x2 , 2x1 + 2x2 ) = (x1 + x2 , 2(x1 + x2 )) ∈ S, pois a segunda componente de


u + v é igual ao dobro da primeira.

15
ii) αu = α(x1 , 2x1 ) = (αx1 , 2αx1 ) ∈ S, pois a segunda componente de αu é igual ao dobro
da primeira.

Figura 1.2: Exemplo de um subespaço vetorial de R2

Exemplo 1.12 Seja V = R2 e S = {(x, y) ∈ R2 | y − 2x = 1} ou S = {(x, 2x + 1) | x ∈ R}.


Note que S não é um subespaço vetorial de R, pois o elemento neutro da operação adição,
0R2 = (0, 0), não pertence a S. Além disso, o subconjunto S não é fechado com relação às
operações de adição de elementos e de multiplicação por escalar.

Exemplo 1.13 Seja V = R2 e S = {(x, y) ∈ R2 | y − ax = 0}. Note que S é um subespaço


vetorial de R2 , pois o elemento neutro da operação adição, 0R2 = (0, 0), pertence a S. Além
disso, o subconjunto S é fechado com relação às operações de adição de elementos e de
multiplicação por escalar.

Exemplo 1.14 O subconjunto S do R3 definido da forma:


S = {w ∈ R3 | w = a(1, −1, 1) + b(2, 1, −1); a, b ∈ R},

16
é um subespaço vetoriar de R3 . Verifique!
Qual interpretação geométrica podemos fazer para S?

Exemplo 1.15 Mostrar que dada uma matriz A ∈ Mn×n (R), o conjunto S ∈ Rn definido
por:
N (A) = {X = (x1 , x2 , · · · , xn ) | A.X = 0Rn }

onde X é o conjunto solução do sistema linear homogêneo A.X = 0 é um subespaço do espaço


vetorial Rn . (Observação: N (A) é chamado de Núcleo de A)

1.2.1 Soma e Intersecção de Subespaços

Teorema 1.6 (Intersecção de Subespaços) Sejam V um espaço vetorial sobre um corpo


K, U e W subespaços vetoriais de V . Então, o subconjunto de V definido por:

U ∩ W = {v ∈ V | v ∈ U e v ∈ W }

é um subespaço vetorial de V.
Demonstração:

- Vetor Nulo: Temos que U ∩ W 6= ∅, pois 0V ∈ U e 0V ∈ W , uma vez que U e W são


subespaços de V, logo 0V ∈ U ∩ W .

Agora resta mostrar que U ∩ W satisfaz as condições do Teorema 1.5, ou seja,

- Adição de Elementos: U ∩ W é fechado para a adição. Sejam u, v ∈ U ∩ W , então


u ∈ U e u ∈ W , assim como v ∈ U e v ∈ W . Sabe-se também que U e W são subespaços
e por este motivo, u + v ∈ U bem como u + v ∈ W , o que nos permite concluir que
u + v ∈ U ∩ W . Sendo assim, podemos dizer que U ∩ W é fechado para adição.

- Multiplicação por escalar: U ∩ W é fechado para a multiplicação por escalar. De


forma semelhante, se u ∈ U ∩ W então u ∈ U e u ∈ W . Pelo fato de U e W serem
subespaços de V tem-se α.u ∈ U e α.u ∈ W para qualquer α ∈ R, logo α.u ∈ U ∩ W e
concluı́mos que U ∩ W é fechado para a multiplicação por escalar. 

Corolário 1.1 Seja V um espaço vetorial sobre o corpo K. A intersecção de uma coleção
arbitrária de subespaços de V é um subespaço vetorial de V.

17
Exemplo 1.16 Seja o espaço vetorial R3 e os subespaços vetoriais S1 = {(a, b, 0) ∈ R3 |a, b ∈
R} e S2 = {(0, b, c) ∈ R3 |b, c ∈ R}. A interseção S1 ∩ S2 é o subespaço {(0, b, 0) ∈ R3 |b ∈ R}.

Teorema 1.7 (Soma de Subespaços) Sejam V um espaço vetorial sobre um corpo K, U


e W subespaços vetoriais de V, então, o subconjunto de V definido por:

U + W = {v ∈ V | v = u + w com u ∈ U e w ∈ W }

é um subespaço vetorial de V.
Demonstração:

- Vetor Nulo: Temos que U + W 6= ∅. Vejamos: 0V ∈ U e 0V ∈ W pois U e W são


subespaços de V, além de que 0V = 0V + 0V assim 0V ∈ U + W .

Agora resta mostrar que U + W satisfaz as condições do Teorema 1.5, ou seja,

- Adição de Elementos: U + W é fechado para a adição. Consideremos v1 ∈ U +


W e v2 ∈ U + W tais que v1 = u1 + w1 e v2 = u2 + w2 onde u1 , u2 ∈ U e w1 , w2 ∈ W ,
assim v1 + v2 = (u1 + w1 ) + (u2 + w2 ), por propriedades válidas em V , pode ser reescrito
como v1 + v2 = (u1 + u2 ) + (w1 + w2 ) e pelo fato de U e W serem subespaços de V então
(u1 + u2 ) ∈ U e (w1 + w2 ) ∈ W , assim v1 + v2 ∈ U + W e podemos concluir que U + W
é fechado para adição.

- Multiplicação por escalar: U + W é fechado para a multiplicação por escalar.


Consideremos agora v = u + w ∈ U + W de forma que u ∈ U e w ∈ W e α ∈ R,
novamente pelo fato de U e W serem subespaços de V temos que αu ∈ U e αw ∈ W
assim αv = αu + αw ∈ U + W e concluı́mos que U + W é fechado para a multiplicação
por escalar. 

Exemplo 1.17 Seja o espaço vetorial R3 e os subespaços vetoriais U = {(a, b, 0) ∈ R3 |a, b ∈


R} e W = {(0, b, c) ∈ R3 |b, c ∈ R}. A soma U + W é o próprio espaço R3 .

Definição 1.4 (Soma Direta) Sejam V um espaço vetorial sobre o corpo K, U e W su-
bespaços vetoriais de V tais que U ∩ W = {0V }. Dizemos que o subespaço U + W é a soma
direta dos subespaços U e W , e denotamos por U ⊕ W .

18
A soma gerada no exemplo 1.17 não é uma soma direta, pois a intersecção entre U e W
não é constituı́da somente do vetor nulo. A seguir temos um exemplo de soma direta:

Exemplo 1.18 Seja o espaço vetorial R3 e os subespaços vetoriais U = {(a, b, 0) ∈ R3 |a, b ∈


R} e W = {(0, 0, c) ∈ R3 |c ∈ R}. A soma U + W é o próprio espaço R3 . Note ainda que
U ∩ W = 0R3 , portanto a soma é direta e podemos escrever R3 = U ⊕ W. Perceba que qualquer
vetor (a, b, c) ∈ R3 pode ser escrito como soma de um vetor de U com um vetor de W de
modo único:
(a, b, c) = (a, b, 0) + (0, 0, c)

Exemplo 1.19 Considere os subespaços de V :


   
a b 0 0
W1 =   e W2 =  
0 0 c d

Determine W1 ∩ W2 e W1 + W2 . É uma soma direta? Justifique.

Exemplo 1.20 Considere os seguintes subespaços de R2 :

U = {(x, y) ∈ R2 |y = 0} e W = {(x, y) ∈ R2 |x = 0}

Verifique se U + W e U ∪ W são subespaços vetoriais e se algum deles é soma direta.

1.3 Combinação Linear e o Espaço Gerado


Nesta subseção aprofundaremos um pouco mais no estudo das utilidades da soma de vetores
e multiplicação por escalar a fim de construir outros conjuntos de vetores.

Definição 1.5 Seja V um espaço vetorial sobre o corpo K. Um vetor v ∈ V é uma com-
binação linear dos vetores v1 , v2 , · · · , vk ∈ V se existirem escalares α1 , α2 , · · · , αk ∈ K tais
que:
k
X
v = α1 .v1 + α2 .v2 + · · · + αk .vk = (αi .vi )
i=1

19
Definição 1.6 (Subespaço Gerado) Sejam V um espaço vetorial sobre o corpo K e S um
conjunto finito de elementos de V , isto é, S = {v1 , · · · , vn }. O subconjunto U construı́do à
partir dos elementos de S da seguinte forma:
( n
)
X
U = u∈V |u= αi · v i ; αi ∈ K
i=1

é um subespaço vetorial de V , que vamos denotar por

U = [v1 , · · · , vn ] ou por U = [S]

denominado subespaço gerado pelos elementos de S. Dizemos que o conjunto S é um


sistema de geradores para o subespaço U .

Alguns autores usam as representações U = ger(v1 , · · · , vn ) ou U = ger(S), que tem o


mesmo significado descrito acima.
Observações:

- Convenciona-se que [∅] = 0

- Uma outra caracterização do subespaço gerado é a seguinte: U = [v1 , v2 , · · · , vn ] é o


menor subespaço de V que contém o conjunto de vetores {v1 , v2 , · · · , vn } no sentido de
0 0
que qualquer outro subconjunto U de V que contenha {v1 , v2 , · · · , vn } satisfará U ⊃ U .

- A obtenção de novos elementos à partir de elementos conhecidos é uma das carac-


terı́sticas mais importantes de um espaço vetorial.

Exemplo 1.21 Considere os seguintes subespaços de R3

U = (x, y, z) ∈ R3 | x = z


W = (x, y, z) ∈ R3 | x + y + z = 0


determine um sistema de geradores para o subespaço U ∩ W



Exemplo 1.22 Considere o subespaço W = A ∈ M2×2 (R) | A = AT de M2×2 (R). Mostre
que W é gerado pelas matrizes
     
1 0 0 1 0 0
A1 =   A2 =   A3 =  
0 0 1 0 0 1

20
Exemplo 1.23 Mostre que o espaço vetorial M2×2 (R) é gerado pelas matrizes
       
1 1 1 1 1 0 0 1
A1 =   A2 =   A3 =   A4 =  
1 0 0 1 1 1 1 1

Definição 1.7 Dizemos que um espaço vetorial V é finitamente gerado se existe um


subconjunto finito S ⊂ V de maneira que V = [S].

Exemplo 1.24 Considere o espaço vetorial real P3 (R). Dados os elementos

p1 (x) = x3 − 1
p2 (x) = x2 + x −1
p3 (x) = x + 2

Verifique se p1 (x) pode ser escrito como uma combinação linear de p2 (x) e p3 (x).

Exemplo 1.25 Considere o espaço vetorial real U = {(x, y, z) ∈ R3 | x + y − z = 0}.


Determine um sistema de geradores para U .
Sabemos que os vetores de U podem ser escritos na forma u ∈ U , tal que u = (x, y, x + y),
sendo assim os vetores de U são uma combinação linear de:

(x, y, x + y) = (x, 0, x) + (0, y, y) = x(1, 0, 1) + y(0, 1, 1)

Logo U = [(1, 0, 1), (0, 1, 1)], ou seja, o conjunto de vetores que geram U é {(1, 0, 1), ((0, 1, 1)}.

Exemplo 1.26 Determine o subespaço U do R3 gerado pelo conjunto {(1, 0, 1), (0, 1, 1), (−1, 1, 0)}.
Sabemos que os vetores de U podem ser escritos como uma combinação linear dos vetores
dados. Sendo assim, temos:

(x, y, z) = a(1, 0, 1) + b(0, 1, 1) + c(−1, 1, 0)

o que podemos calcular:

(x, y, z) = (a, 0, a) + (0, b, b) + (−c, c, 0)

(x, y, z) = (a − c, b + c, a + b)

logo:

21



 a − c = x

b + c = y



 a + b = z
Deste sistema de equações podemos determinar a expressão x + y − z = 0, então, o
subespaço pode ser escrito U = {(x, y, z) ∈ R3 | x + y − z = 0}.

Exemplo 1.27 Mostrar que os vetores u = (2, 1) e v = (1, 1) geram o R2 .


Os vetores do R2 escritos como uma combinação linear dos vetores dados, temos:

(x, y) = a(2, 1) + b(1, 1)

(x, y) = (2a, a) + (b, b)

(x, y) = (2a + b, a + b)

logo:

 2a + b = x
 a + b = y

Deste sistema de equações podemos determinar a = x − y e b = 2y − x, ou seja,

(x, y) = (x − y)(2, 1) + (2y − x)(1, 1)

O vetores u e v geram o R2 .

Exemplo 1.28 Considere os seguintes subespaços de R3

U = (x, y, z) ∈ R3 | x − 2y + 3z = 0


W = (x, y, z) ∈ R3 | x + y + z = 0


determine um sistema de geradores para o subespaço U + W .


Determinando um sistema de geradores para U , considerando x = 2y − 3z:

(2y − 3z, y, z) = (2y, y, 0) + (−3z, 0, z)

(2y − 3z, y, z) = y(2, 1, 0) + z(−3, 0, 1)

22
logo, U = [(2, 1, 0), (−3, 0, 1)].
Determinando um sistema de geradores para W , considerando x = −y − z:

(−y − z, y, z) = (−y, y, 0) + (−z, 0, z)

(−y − z, y, z) = y(−1, 1, 0) + (−1, 0, 1)

logo, W = [(−1, 1, 0), (−1, 0, 1)].


Concluimos, então, que U + W = [(2, 1, 0), (−3, 0, 1), (−1, 1, 0), (−1, 0, 1)].

Exemplo 1.29 Dada a matriz A ∈ M3×2 (R)


 
1 1
 
A= 2 1 
 
 
3 1

mostre que o elemento v = (−1, 0, 1) ∈ R3 pretence ao espaço coluna de A.


Para isto precisamos mostrar que v pode ser representado pela combinação linear dos
vetores coluna da matriz A, ou seja:

(−1, 0, 1) = a(1, 2, 3) + b(1, 1, 1); a, b ∈ R.

Exemplo 1.30 Considere os subespaços vetoriais do R3 .

U = {(x, y, z) ∈ R3 | x − 2y + 3z = 0}

W = {(x, y, z) ∈ R3 | x + y + z = 0}

Determine um sistema de geradores para U + W .

1.3.1 Combinações Lineares e a Solução de um Sistema Linear

É possı́vel relacionar a ideia de combinação linear, presente no estudo dos espaços vetoriais,
com a obtenção da solução de um sistema linear. Consideremos o sistema dado abaixo:

 a .x + a12 .x2 + · · · + a1n .xn = b1
 11 1


.. .. .. ..
. + . +···+ . = .


 a .x + a .x + · · · + a .x =

bm
m1 1 m2 2 mn n

23
Um olhar mais atento sobre o sistema anterior nos permite extrair a seguinte relação:
       
b1 a11 a12 a1n
 ..   .   .   . 
       
 .  = x1 .  ..  + x2 .  ..  + · · · + xn .  .. 
       
bm am1 am2 amn

o que pela Definição 1.5 é equivalente a dizer que o vetor B do sistema A.X = B pode ser
escrito como combinação linear das colunas da matriz A se, e somente se, o sistema A.X = B
possuir solução. As componentes xis da solução são, na verdade, os escalares da combinação
linear.

1.4 Dependência e Independência Linear


Dado um conjunto de vetores que gera um determinado espaço, é possı́vel saber se há algum
elemento “sobrando”nesse conjunto? Ou seja, como saber se num dado conjunto existe um
elemento que pode ser suprido por outros elementos desse mesmo conjunto numa possı́vel
combinação linear? As definições a seguir ajudarão a responder tais perguntas.

Definição 1.8 Seja V um espaço vetorial sobre um corpo K e v1 , v2 , · · · , vn ∈ V . Dizemos


que o conjunto U = {v1 , v2 , · · · , vn } é Linearmente Independente (LI) se, e somente se, toda
combinação linear nula:
α1 .v1 + α2 .v2 + · · · + αn .vn = 0

implicar que α1 = α2 = · · · = αn = 0

Definição 1.9 Seja V um espaço vetorial sobre um corpo K e v1 , v2 , · · · , vn ∈ V . Dizemos


que o conjunto U = {v1 , v2 , · · · , vn } é Linearmente Dependente (LD) se, e somente se, é
possı́vel uma combinação linear nula:

α1 .v1 + α2 .v2 + · · · + αn .vn = 0

de forma que nem todos os αis sejam nulos.

Pode-se dizer também que um conjunto é linearmente independente se nenhum elemento


do conjunto pode ser escrito como combinação linear dos outros. O teorema a seguir mostra
isso.

24
Teorema 1.8 Seja V um espaço vetorial sobre um corpo K e v1 , v2 , · · · , vn ∈ V . O conjunto
U = {v1 , v2 , · · · , vn } ⊂ V é Linearmente Dependente (LD) se, e somente se, um de seus
elementos for uma combinação linear dos outros elementos.
Demonstração:
⇒ Sejam {v1 , v2 , · · · , vn } um conjunto LD e a combinação linear nula

α1 · v1 + α2 · v2 + · · · + αj · vj + · · · + αn · vn = 0

de acordo com a Definição 1.9, ao menos um dos coeficientes deve ser diferente de zero.
Suponhamos que αj 6= 0, então:
1
vj = − (α1 · v1 + α2 · v2 + · · · + αj−1 · vj−1 + αj+1 · vj+1 + · · · + αn · vn )
αj
e portanto
α1 αn
vj = − · v1 − · · · − · vn
αj αj
logo vj é uma combinação linear dos outros vetores.
⇐ Por outro lado, se tivermos {v1 , v2 , · · · , vn } tal que para algum j

vj = β1 · v1 + β2 · v2 + · · · + βj−1 · vj−1 + βj+1 · vj+1 + · · · + βn · vn

podemos reescrever como

β1 · v1 + β2 · v2 + · · · + βj−1 · vj−1 − 1 · vj + βj+1 · vj+1 + · · · + βn · vn = 0

o que implica em βj = −1 o que caracteriza o conjunto {v1 , v2 , · · · , vn } como LD. 

Exemplo 1.31 O conjunto S = {v1 , v2 , v3 } onde v1 = (2, 3, 1), v2 = (1, 5, 4) e v3 = (4, 13, 9)
é linearmente dependente no R3 , verifique.

Exemplo 1.32 Verificar que o conjunto S = {v1 , v2 , v3 } onde v1 = (1, 2, 3), v2 = (−2, 1, 4)
e v3 = (4, 2, 3), é linearmente independente no R3 .

Definição 1.10 Considere o espaço vetorial real C([a, b]). Dizemos que o conjunto de funções
U = {f1 (x), f2 (x), · · · , fn (x)} ⊂ C([a, b]) é Linearmente Dependente se existirem escalares
α1 , α2 , · · · , αn não todos nulos tais que:

α1 .f1 (x) + α2 .f2 (x) + · · · + αn .fn (x) = 0 ∀x ∈ [a, b]

O conjunto U é Linearmente Independente se não for Linearmente Dependente.

25
Exemplo 1.33 Mostrar que o conjunto U = {1, cos(x), cos(2x)} é Linearmente Indepen-
dente no espaço vetorial C([−π, π])

Teorema 1.9 Considere o espaço vetorial C (n−1) ([a, b]), as funções f1 , f2 , · · · , fn ∈ C (n−1) ([a, b]).
O conjunto U = {f1 (x), f2 (x), · · · , fn (x)} é linearmente dependente se, e somente se, o de-
terminante det(A(x)) = 0 para todo x ∈ [a, b], onde a matriz A(x) é dada por:
 
f1 (x) f2 (x) ··· fn (x)
 
0 0 0
 f1 (x) f2 (x) ··· fn (x)
 

 
A(x) =  f100 (x) 00
···
00
 
f2 (x) fn (x) 
.. .. ..
 
..
.
 
 . . . 
 
(n−1) (n−1) (n−1)
f1 (x) f2 (x) · · · fn (x)

o determinante da matriz A(x) é denominado Wronskiano das funções f1 (x), f2 (x), · · · , fn (x)
que vamos denotar por W (f1 , f2 , · · · , fn )(x).
Demonstração:
Vamos considerar a combinação linear nula

c1 · f1 (x) + c2 · f2 (x) + · · · + cn · fn (x) = 0 ∀x ∈ [a, b]

derivando a equação acima n − 1 vezes com relação a x, obtemos o sistema:





 c1 · f1 (x) + c2 · f2 (x) + ··· + cn · fn (x) = 0

 0 0 0
c1 · f1 (x) + c2 · f2 (x) + ··· + cn · fn (x) = 0





00 00 00
(a) c1 · f1 (x) + c2 · f2 (x) + ··· + cn · fn (x) = 0
. . ..


.. .. ..
.



 . = 0


 c · f (n−1) (x) + c · f (n−1) (x) +

··· + cn · f n
(n−1)
(x) = 0
1 1 2 2

para que o sistema dado em (a) admita solução não trivial é necessário e suficiente que o
determinante da matriz de coeficientes seja nulo, ou seja,

f1 (x) f2 (x) ··· fn (x)


0 0 0
f1 (x) f2 (x) ··· fn (x)
00 00 00
det(A(x)) = f1 (x) f2 (x) ··· fn (x) =0
.. .. ... ..
. . .
(n−1) (n−1) (n−1)
f1 (x) f2 (x) · · · fn (x)

26


Exemplo 1.34 Mostrar que o conjunto U = {1, x, x2 , 2 − 3x + 2x2 } é Linearmente Depen-


dente no espaço vetorial P3 (R)

Exemplo 1.35 Utilize o Teorema 1.9 para mostrar que as funções f (x) = ex e g(x) = xex
são linearmente independentes para x ∈ R.

Exemplo 1.36 Mostre que as funções f (x) = sen(x) e g(x) = x sen(x) são linearmente
independentes para x ∈ R.

Exemplo 1.37 Mostre que as funções f (x) = 1, g(x) = sen(x) e h(x) = cos(x) são linear-
mente independentes para x ∈ R.

1.5 Base e Dimensão


Nesta seção vamos apresentar os conceitos de base e dimensão para um espaço vetorial. Em
estudos anteriores, fomos remetidos a associar o conceito de dimensão a uma representação
geométrica, mais precisamente ao estudar os espaços numéricos bidimensional e tridimen-
sional, contudo este conceito será melhor exposto e a associação correta à partir de agora
será feita ao relacionar a dimensão à quantidade de elementos na base de um espaço vetorial
qualquer.

Definição 1.11 Seja V um espaço vetorial sobre um corpo K e B um subconjunto de V .


Dizemos que B é uma base para V se:

i) B for um conjunto gerador de V .

ii) B for um conjunto Linearmente Independente.

Exemplo 1.38 Considere o espaço vetorial real R2 . O conjunto

B2 = {(1, 1), (−1, 0)}

é L.I. no R2 e gera o espaço R2 . Sendo assim, B2 é uma base para o R2 , além da base
canônica {(1, 0), (0, 1)}.

27
De fato, para mostrar que B2 é uma base do R2 , vamos mostrar que é LI e que gera R2 :
I) B2 é LI, logo a(1, 1) + b(−1, 0) = (0, 0), o que implica em:

 a − b = 0
 a = 0
Resultando em a = b = 0.
II) B2 gera R2 , então, para todo (x, y) ∈ R2 , temos (x, y) = a(1, 1) + b(−1, 0), o que
implica em:

 a − b = x
 a = y
Resultando em a = y e b = y − x.
Mostramos, assim, que B2 é uma base do R2 .

Exemplo 1.39 Considere o espaço vetorial real R3 . O conjunto

B1 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}

é L.I. no R3 e gera o espaço R3 . Sendo assim, B1 é uma base para o R3 (base canônica).

Exemplo 1.40 Considere o espaço vetorial real R3 . O conjunto {(1, 0, 0), (0, 1, 0)} não é
uma base do R3 . Apesar de ser L.I. ele não gera o R3 .

Exemplo 1.41 Seja V o espaço vetorial das matrizes M(2×2) o conjunto


         
 1 0 0 1 0 0 0 0 
 ,  ,  ,  
 0 0 0 0 1 0 0 1 

é uma base de V .

Teorema 1.10 Sejam {v1 , v2 , · · · , vn } um conjunto gerador para um espaço vetorial V .


Então dentre estes vetores podemos extrair uma base para V .
Demonstração:
Se o conjunto {v1 , v2 , · · · , vn } é LI então eles cumprem a condição para base e finaliza-se
a demonstração. Caso o conjunto seja LD, então existe uma combinação linear nula dos
elementos com algum coeficiente não nulo.

α1 · v1 + α2 · v2 + · · · + αn · vn = 0

28
digamos que αi 6= 0, Então podemos escrever

α1 α2 αn
vi = − v1 − v2 − · · · − vn
αi αi αi

ou seja, vi é uma combinação linear dos outros vetores, sendo possı́vel retirá-lo do conjunto e
ainda gerar V . Seguindo este procedimento interativamente, em alguma iteração será obtido
um conjunto LI, contendo r (r ≤ n) vetores que ainda geram V e, portanto, formando uma
base. 

Teorema 1.11 Seja B = {v1 , v2 , · · · , vn } um conjunto gerador do espaço vetorial V , então


todo conjunto LI de V possui no máximo n vetores
Demonstração:
Para provar o teorema, basta mostrar que todo subconjunto W de V que contém mais de
n vetores é LD. Sendo W um desses conjuntos, ele contém elementos distintos w1 , · · · , wm
com m > n. Como os elementos v1 , · · · , vn geram V , existem cij tais que
n
X
wj = cij · vi ; j = 1, · · · , m
i=1

considerando agora a combinação linear de elementos de W , isto é


m n n m
!
X X X X
α1 · w1 + · · · + αm · wm = αj cij · vi = cij · αj · vi
j=1 i=1 i=1 j=1

Como m > n, podemos encontrar escalares α1 , · · · , αm não todos nulos, solução do sistema
linear homogêneo
m
X
cij · αj = 0 ; i = 1, · · · , n
j=1

Logo α1 · w1 + · · · + αm · wm = 0V com algum αi 6= 0. Portanto, mostramos que W é um


conjunto LD em V . 

Exemplo 1.42 O conjunto B = {(1, 2, 1), (−1, −3, 0)} ⊂ R3 é LI e gera o espaço S =
{(x, y, z) ∈ R3 | 3x − y − z = 0}. Então B é base de S, pois B é LI e gera S.

Teorema 1.12 Se V é um espaço vetorial não nulo finitamente gerado, então toda base de
V possui o mesmo número de elementos.
Demonstração:

29
Vamos supor que β1 = {v1 , · · · , vn } e β2 = {w1 , · · · , wm } sejam duas bases finitas para
V . Como β1 gera V e β2 forma um conjunto LI em V , de acordo com o Teorema 1.11 temos
que m ≤ n. Por outro lado, se β2 gera V e β1 é LI, novamente o Teorema 1.11 nos permite
afirmar que n ≤ m. Mostrando, portanto, que m = n. 

Exemplo 1.43 Considere o espaço vetorial real R2 . Os conjuntos β1 = {(1, 1), (−1, 0)} e
β2 {(1, 0), (0, 1)} são bases para o R2 .

Definição 1.12 (Dimensão) Seja V um espaço vetorial de dimensão finita, que possui
uma base com n elementos. A dimensão de V é definida como sendo o número de elementos
de um base de V . Indicaremos a dimensão do espaço vetorial V por dim(V ) = n.

Corolário 1.2 Seja V um espaço vetorial de dimensão n ≥ 1 , então

i) Todo conjunto de vetores com mais de n elementos é LD.

ii) Nenhum conjunto com menos de n elementos pode gerar V.

Exemplo 1.44 Veja os exemplos 1.38.e1.39. A base do exemplo 1.38, R2 , tem dois vetores,
então sua dimensão dim(R2 ) = 2 e a base do exemplo 1.39, R3 , tem três vetores, então sua
dimensão dim(R3 ) = 3.

Alguns espaços vetoriais infinitos não tem base finita, este fato ocorre principalmente entre
espaços de funções. Nestes casos, precisamos de um conjunto infinito de vetores para gerar
o espaço. Isto não quer dizer que estamos trabalhando com combinações lineares infinitas,
mas sim, que cada vetor do espaço é uma combinação linear finita da base ”infinita”. Ou
seja, para cada vetor, podemos escolher uma quantidade finita de vetores da base para, com
eles, escrever o vetor dado.

Teorema 1.13 (Completamento) Seja S um subconjunto LI de um espaço vetorial V , de


dimensão finita. Então S pode ser completado de modo a formar uma base para V .
Demonstração:
Seja dim(V ) = n e v1 , v2 , . . . , vr vetores LI de um espaço vetorial V (observe teorema
1.11 que r ≤ n).
Se [v1 , v2 , . . . , vr ] = V , então {v1 , v2 , . . . , vr } forma uma base, e não temos mais nada a
fazer (note que n = r).

30
Se existe vr+1 ∈ V tal que vr+1 ∈
/ [v1 , v2 , . . . , vr ], ou seja, não é uma combinação linear
de v1 , v2 , . . . , vr , então {v1 , v2 , . . . , vr , vr+1 } é LI.
Se [v1 , v2 , . . . , vr , vr+1 ] = V , então {v1 , v2 , . . . , vr , vr+1 } é a base procurada. Caso contrário,
existe vr+2 ∈
/ [v1 , v2 , . . . , vr , vr+1 ], e, então {v1 , v2 , . . . , vr , vr+1 , vr+2 } é LI.
Se [v1 , v2 , . . . , vr , vr+1 , vr+2 ] = V a prova está concluı́da. Caso contrário, prosseguimos
usando este argumento, até obtermos, após um número finito de passos, uma base de V . 

Corolário 1.3 Se dim(V ) = n, qualquer conjunto de n vetores LI formará uma base de V .


Demonstração: Se não formasse uma base, poderı́amos completar (veja teorema 1.13) o
conjunto até obtermos esta base e desta forma, esta base, teria mais de n vetores em V , o
que é um absurdo. 

Teorema 1.14 Se U e W são subespaços de um espaço vetorial V que tem dimensão finita,
então dim(U ) ≤ dim(V ) e dim(W ) ≤ dim(V ). Além disso,

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W )

Demonstração:(A demonstração desse teorema não será apresentada em vir-


tude de ser bastante extensa. Porém, ela pode ser vista nas principais biblio-
grafias da disciplina)

Exemplo 1.45 Seja o espaço vetorial V = M2×2 . E os subespaços abaixo:


   
a b a 0
U =  e W =  .
0 0 c 0
Os subespaços U + W e U ∩ W , são dados por:
   
a b a 0
U +W =  e U ∩W =  .
c 0 0 0
Observe que dim(U ) = 2, dim(W ) = 2 e dim(U ∩ W ) = 1, logo:

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) = 2 + 2 − 1 = 3.

Teorema 1.15 Sejam V espaço vetorial de dimensão finita e W um subespaço de V . Então


existe um subespaço U de V tal que V = U ⊕ W

31
Demonstração Seja {w1 , . . . , wm } uma base para o subespaço W . Pelo teorema do Comple-
tamento, podemos completar a base de W para obter uma base de V , isto é, {w1 , . . . , wm , wm+1 , . . . , wn }
é uma base de V .
Considerando U o subespaco gerado pelo conjunto linearmente independente {wm+1 , . . . , wn },
que satisfaz as propriedades desejadas.
De fato, podemos afirmar que V = U + W , pois o conjunto {w1 , . . . , wm , wm+1 , . . . , wn } é
linearmente independente e gera V ,
Por outro lado, como W = [w1 , . . . , wm ], U = [wm+1 , . . . , wn ] e o conjunto {w1 , . . . , wm , wm+1 , . . . , wn }
é linearmente independente, temos que W ∩ U = {0V }, o que completa a demonstração. 

Teorema 1.16 Sejam V espaço vetorial de dimensão finita e W um subespaço de V . Se


dim(W ) = dim(V ), então W = V .
Demonstração:
Sabemos que W possui uma base. Toda base de W também é uma base de V devido
ao fato que dim(W ) = dim(V ). Logo, todo elemento de V também pertence a W . Assim,
V ⊂ W e, como W ⊂ V , segue-se que V = W . 

Exemplo 1.46 Determine a dimensão e uma base do espaço vetorial

S = {(x, y, z) ∈ R3 | 2x + y + z = 0}.

Os vetores de S tem a forma (x, y, −2x − y), o que nos permite escrever:

(x, y, z) = (x, y, −2x − y)


= (x, 0, −2x) + (0, y, −y) .
= x(1, 0, −2) + y(0, 1, −1)
ou seja, os vetores (1, 0, −2) e (0, 1, −1) geram o espaço S e, como estes vetores são LI,
o conjunto {(1, 0, −2), (0, 1, −1)} é uma base de S, logo dim(S) = 2.

Observação: Podemos obter uma nova base atribuindo valores para x e y. Note que cada
variável livre (x e y) corresponde a um vetor da base.

Exemplo 1.47 Sejam os vetores v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (0, 0, 1). Mostre que o
conjunto B = {v1 , v2 , v3 } é uma base do R3 .

32
Vamos mostrar que B é LI, ou seja, a.v1 + b.v2 + c.v3 = 0:

a.(1, 2, 3) + b.(0, 1, 2) + c.(0, 0, 1) = (0, 0, 0)

logo:



 a = 0

2a + b = 0



 3a + 2b + c = 0

O sistema homogêneo admite somente a solução trivial, ou seja, a = b = c = 0, logo B é


LI.
Para mostrar que B gera R3 , devemos mostrar que qualquer vetor v = (x, y, z) ∈ R3 pode
ser expresso por:

v = a.v1 + b.v2 + c.v3 ,

ou seja,
(x, y, z) = a.(1, 2, 3) + b.(0, 1, 2) + c.(0, 0, 1)

logo:



 a = x

2a + b = y



 3a + 2b + c = z

Resolvendo o sistema, temos a = x, b = −2x + y e c = x − 2y + z, isto é:

(x, y, z) = x.(1, 2, 3) + (−2x + y).(0, 1, 2) + (x − 2y + z).(0, 0, 1),

Sendo assim, o sistema admite solução para quaisquer valores para x, y e z.


Como B satifaz as duas condições de base, mostramos que B é base do R3 .

Exemplo 1.48 Seja S o subespaço de P2 = {at2 + bt + c | a, b, c ∈ R}, gerado pelos vetores


v1 = t2 − 2t + 1, v2 = t + 2 e v3 = t2 − 3t − 1. Determine:

- Uma base de S e dim(S);

- Uma base de P2 com a presença de v1 e v2 .

33
Solução:
a) Vamos verificar se os vetores v1 , v2 e v3 são LI ou LD. Podemos usar a base canônica
de P2 , ou seja, A = {t2 , t, 1}. Logo podemos escrever:

v1 = (1, −2, 1), v2 = (0, 1, 2) e v3 = (1, −3, −1).

Para verificar se são LI ou LD:

a1 (1, −2, 1) + a2 (0, 1, 2) + a3 (1, −3, −1) = (0, 0, 0).

Temos, assim, o sistema:





 a1 + a3 = 0

−2a1 + a2 − 3a3 = 0


+ 2a2 −

 a1 a3 = 0
O sistemas admite soluções ai 6= 0, logo são LD, ou seja, o cinjunto {v1 , v2 , v3 } não é uma
base de S, indicando que a dim(S) 6= 3.
Podemos observar que o conjunto {v1 , v2 } é LI, pois nenhum vetor é múltiplo escalar do
outro (verifique isto ;-)). Concluı́mos que este conjunto constitui uma base de S, nos dando
que dim(S) = 2.
b) Sabemos que dim(P2 ) = 3, então precisamos acrescentar um vetor v ao conjunto
{v1 , v2 } de modo que v 6= a1 v1 + a2 v2 .
Uma possibilidade é o vetor v = t2 ou v = (1, 0, 0) (você pode verificar!).
Logo, obtemos uma base de P2 dada pelo conjunto {t2 − 2t + 1, t + 2, t2 }.

Exemplo 1.49 Considere os seguintes subespaços do R4 :

S1 = {(a, b, c, d) ∈ R4 | a + b + c = 0}

S1 = {(a, b, c, d) ∈ R4 | a − 2b = 0 e c = 3d}

Determine:

a) Uma base de S1 e dim(S1 );

b) Uma base de S2 e dim(S2 );

34
Algumas observações importantes sobre dimensão de um Espaço Vetorial:

(i) Se V não tem uma base, dim(V ) = 0;

(ii) dim(R2 ) = 2, pois toda base do R2 tem dois vetores;

(iii) dim(Rn ) = n;

(iv) dim(M(2×2) ) = 4;

(v) dim(M(m×n) ) = m × n;

(vi) dim(Pn (x)) = n + 1;

(vii) dim(0) = 0.

Geometricamente, podemos interpretar, qualquer subespaço S do R3 como


segue:

(i) dim(S) = 0, então S = {0} é a origem;

(ii) dim(S) = 1, então S é uma reta que passa pela origem;

(iii) dim(S) = 2, então S é um plano que passa pela origem;

(iv) dim(S) = 3, então S é o próprio R3 .

1.5.1 Aplicação para determinar uma base

para determinar uma base de um subespaço vetorial dentre um conjunto de geradores deste
subespaço, podemos usar duas aplicações.
Dado o conjunto gerador do subespaço W = ger{u1 , u2 , . . . , un } podemos usar os seguintes
algoritmos:
Algoritmo do espaço linha:

(i) Contrua a matriz M cujas linhas sejam os vetores dados;

(ii) Reduza a matriz M à forma escalonada;

35
(iii) O vetores da base serão as linhas não nulas de M , portanto teremos, também, a di-
mensão de W .

Quando queremos encontrar uma base dentre os vetores originais, usamos o seguinte
algoritmo.
Algoritmo do espaço coluna:

(i) Contrua a matriz M cujas colunas sejam os vetores dados;

(ii) Reduza a matriz M à forma escalonada;

(iii) Para cada coluna Ck da matriz escalonada que não tenha pivô, elimine o vetor uk
correspondente do conjunto gerador ger{u1 , u2 , . . . , un };

(iv) A base será formada pelos vetores não eliminados (sobram - correspondem às colunas
com pivôs).

Exemplo 1.50 Seja W o subespaço de R5 gerado pelos seguintes vetores: u1 = (1, 2, 1, 3, 2),
u2 = (1, 2, 2, 5, 3), u3 = (3, 8, 7, 13, 8), u4 = (1, 4, 6, 9, 7) e u5 = (5, 13, 13, 25, 19).
Encontre uma base de W dentre os vetores dados e encontre dim(W ).
Construimos a matriz M cujas linhas são os vetores dados e encontrado sua forma esca-
lonada:
   
1 2 1 3 2 1 2 1 3 2
   
 1 3 3 5 3  0 1 2 2 1 
   

   
M =  3 8 7 13 8  ∼  0
   
0 0 0 0 
   
   
 1 4 6 9 7   0 0 1 2 3 
   
5 13 13 25 19 0 0 0 0 0
Veja que temos três pivôs, refetentes às linhas 1, 2 e 4. Portanto, uma base de W será
composta pelos vetores v1 = (1, 2, 1, 3, 2), v2 = (0, 1, 2, 2, 1) e v3 = (0, 0, 1, 2, 3).
Note que o conjunto inicial é LD. Podemos concluir, também, que dim(W ) = 3.
Podemos determinar, entre os vetores originais, os que compõe a base de W . Construimos
a matriz M cujas colunas são os vetores dados e encontrando sua forma escalonada:

36
   
1 1 3 1 5 1 1 3 1 5
   
 2 3 8 4 13   0 1 2 2 3 
   
   
M = 1 3 7 ∼
   
6 13   0 0 0 1 2 
   
   
 3 5 13 9 25   0 0 0 0 0 
   
2 3 8 7 19 0 0 0 0 0
Note que os pivôs da matriz escalonada aparacem nas colunas C1 , C2 e C4 . Sendo assim,
eliminamos os vetores u3 e u5 , dentre os originais.
Resta para a base de W os vetores u1 , u2 e u4
A razão pela qual o vetor u3 não fazer parte da base de W se deve ao fato de que este
vetor pode ser escrito como uma combinação alinear do vetores u1 e u2 .

1.6 Coordenadas
Definição 1.13 Seja S um conjunto de n elementos, uma ordenação do conjunto S, é
uma função do conjunto dos inteiros 1, · · · , n sobre o conjunto S.

Seguindo a definição precedente, considerar uma base ordenada para um espaço vetorial
implica em propor uma regra para tomar seus elementos de forma ordenada sempre que se
for manipular a base.

Definição 1.14 Sejam β = {v1 , · · · , vn } um base ordenada de V e v ∈ V onde v = α1 · v1 +


· · · + αn · vn Chamamos estes números α1 , · · · , αn de coordenadas de v em relação à base β
e denotamos por  
α
 1 
 .. 
[v]β =  . 
 
αn
chamada de matriz coordenada ou vetor coordenada.

Teorema 1.17 Dada uma base ordenada β = {v1 , v2 , · · · , vn } de V , cada vetor de V é


escrito de maneira única como combinação linear dos elementos de β.
Demonstração:
Se v ∈ V então v = α1 · v1 + α2 · v2 + · · · + αn · vn uma vez que [v1 , v2 , · · · , vn ] = V e como
β forma um conjunto LI, os α1 , · · · , αn são univocamente determinados. 

37
Teorema 1.18 Considere a matriz A ∈ Mn×n (R). Os vetores colunas de A formam um
conjunto LI em Rn se, e somente se, A é uma matriz invertı́vel.
Demonstração:
(=⇒) Sejam v1 , v2 , · · · , vn ∈ Rn os vetores coluna de A e W o subespaço de Rn , gerado
pelos vetores colunas de A.Como os vetores v1 , v2 , · · · , vn são linearmente independentes,
temos que dim(W ) = n. Pelo Teorema 1.16, temos que W = Rn .
Então existem escalares bij ∈ R, com i = 1, . . . , n, de modo que cada elemento ej pode
ser escrito de forma única:

n
X
ej = bij vi  = 1, . . . , n,
i=1

onde {e1 , . . . , ej , . . . , en } é a base canônica do Rn .


Portanto, a matriz B = [bij ] satifaz AB = I.
(⇐=) A demostração segue do fato que uma matriz A de ordem n é invertı́vel se, e
somente se, o sistema linear homogêneo AX = 0 possui somente a solução trivial, associando
ao conceito de independência linear. 

Teorema 1.19 Considere um espaço vetorial V de dimensão finita sobre um corpo K e


β = {v1 , · · · , vn } um conjunto finito de elementos de V . Se todo elemento de V é escrito de
modo único como combinação linear dos elementos de β, então β é uma base para V .
Demonstração: Como todo elemento de V é escrito como uma combinação linear dos
elementos de β, temos que V é gerado pelos elementos do conjunto β. Agora basta mostrar
que β é linearmente independente em V .
Considere os escalares c1 , . . . , cn ∈ K tais que
n
X
ci vi = 0V .
i=1

Temos, também, que

n
X
0F vi = 0V .
i=1

Deste modo, pela hipótese de unicidade, obtemos ci = 0F , para i = 1, . . . , n.


Logo, β é uma base para o espaço vetorial V . 

38
Exemplo 1.51 Sejam V = R2 e β = {(1, 0), (0, 1)} uma base ordenada do R2 . Portanto, o
vetor v = (4, 3) pode ser escrito da forma:

(4, 3) = 4(1, 0) + 3(0, 1),


 
4
ou seja, [(4, 3)]β =  
3
Se considerarmos outra base β 0 = {(1, 1), (0, 1)}, então o vetor v = (4, 3) pode ser escrito
da forma:
(4, 3) = x(1, 1) + y(0, 1),

o que resulta em (4, 3) = (x, x) + (0, y). Para o sistema abaixo,



 x = 4
 x + y = 3

resultando em x = 4 e y = −1,ou seja,


 (4, 3) = 4(1, 1) − (0, 1).
4
Podemos escrever: [(4, 3)]β 0 =  
−1

Exemplo 1.52 Seja o conjunto B = {(1, 2, 3), (0, 1, 2), (0, 0, 1)} uma base do R3 .

a) Determine as coordenadas do vetor v = (5, 4, 2) em relação a base B;

b) Determine o vetor v ∈ R3 cujo vetor com relação a base B é


 
2
 
[v]B =  −3
 

 
4

a) Vamos determinar escalares a, b e c, tais que:

(5, 4, 2) = a(1, 2, 3) + b(0, 1, 2) + c(0, 0, 1)

O que proporciona: 


 a = 5

2a + b = 4 (1)



 3a + 2b + c = 2

No qual obtemos a = 5, b = −6 e c = −1.

39
 
5
 
Então v na base B é dado por: [v]B =  −6 
 
 
−1
b) O vetor
 v na base B é representado por:
2
 
[v]B =  −3  , então, podemos escrever:
 
 
4

v = 2(1, 2, 3) − 3(0, 1, 2) + 4(0, 0, 1) = (2, 1, 4)

Exemplo 1.53 Considere o espaço vetorial P2 (t) dos polinômios de grau ≤ 2. Os polinômios

p1 = t + 1 p2 = t − 1 p3 = t2 − 2t + 1,

formam uma base S de P2 (t). Determine as coordenadas do vetor v = 2t2 − 5t + 9 em relação


a base S.
Para tanto podemos usar a base canônica de P2 , ou seja, A = {t2 , t, 1}. Logo, podemos
usar:

v1 = (0, 1, 1) v2 = (0, 1, −1) v3 = (1, −2, 1) e v = (2, −5, 9).

Para determinar as coordenadas do vetor v:

v = x.v1 + y.v2 + zv3

(2, −5, 9) = x(0, 1, 1) + y(0, 1, −1) + z(1, −2, 1)

Obtemos o sistema abaixo:





 z = 2

x + y − 2z = −5 (2)


 x − y + z = 9

Resultando em x = 3, y = −4 e z = 2.
Logo as coordenadas de v na base S será:

[v]S = (3, −4, 2)

Então [v]S = 3t2 − 4t + 2.

40
Note que usando p1 , p2 e p3 , podemos fazer:

2t2 − 5t + 9 = x(t + 1) + y(t − 1) + z(t2 − 2t + 1)


= xt + x + yt − y + zt2 + −2zt + z
= zt2 + (x + y − 2z)t + (x − y + z)
O que resulta em x = 3, y = −4 e z = 2. Assim, v = 3p1 − 4p2 + 2p3 .

UM FATO IMPORTANTE!
Execute os passos descritos abaixo:

i) Determine a matriz A dos coeficientes do sistema 1 do exemplo 1.52;

ii) Determine a inversa de A, ou seja, A−1 ;

iii) Multiplique a matriz A−1 pelo vetor v do item a do exemplo 1.52, representado em
5
 
coluna, ou seja, v =  4 , ou ainda, A−1 .v T .
 
 
2

O que você observou quanto ao resultado?


Isto tem relação com o próximo assunto.

1.7 Mudança de Base

Vários problemas aplicados podem ser simplificados usando um sistema de coordenadas


mais adequado à situação. Por exemplo, a elipse da figura abaixo 2.1(a) fica mais simples de
trabalharmos se adotarmos outro sistema que se apoia nos principais eixos da elipse.

41
(a) (b)

Figura 1.3: Mudança de base para a Elipse girada

Para começar este assunto, Mudança de Base, vamos ver o exemplo que segue.

Exemplo 1.54 Sejam β = {u1 , u2 } e E = {e1 , e2 }, bases do R2 . Sendo u1 = (3, 2), u2 =


(1, 1) e o conjnuto E a base canônica do R2 , ou seja, e1 = (1, 0), e2 = (0, 1). Encontre a
matriz mudança de base de E para β e de β para E.
Solução: Vamos escrever os vetores da base canônica em termos dos vetores de β:

e1 = a11 u1 + a21 u2
e2 = a12 u1 + a22 u2
Assim, obtemos os seguintes sistemas de equações:

3a11 + a21 = 1 3a12 + a22 = 0


e (3)
2a11 + a21 = 0 2a12 + a22 = 1
 
1
Obtemos a11 = 1, a21 = −2, a12 = −1 e a22 = 3, ou seja, os vetores [e1 ]β =   e
−2
 
−1
[e2 ]β =  . Então a matriz de mudança de base de E para β será:
3
 
1 −1
[P ]E
β =
  (4)
−2 3

42
Como temos uma das bases a base canônica do R2 (E), a matriz de nudança de base de
β para E será:
 
3 1
[P ]βE =   (5)
2 1
 −1
β
Note que [P ]E
β = [P ] E , pois veja que:
     
β 1 −1 3 1 1 0
[P ]E
β .[P ]E =
 . = 
−2 3 2 1 0 1
Observe que como trabalhamos com a base canônica, a matriz 5 é a matriz dos coeficientes
dos sistemas de equações 3, mas isto ocorre somente quando uma das bases envolvidas é a
canônica, caso contrário, deve realizar todo o procedimento de conversão de coordenadas para
cada vetor da base.

O próximo teorema formaliza a matriz de mudança de base.

Teorema 1.20 Sejam V um espaço vetorial de dimensão finita sobre o corpo K, e duas bases
ordenadas para V , β1 = {v1 , · · · , vn } e β2 = {w1 , · · · , wn }. Então, existe uma única matriz
[P ]ββ21 ∈ Mn×n (R) invertı́vel tal que para todo u ∈ V tem-se:

(a) [u]β1 = [P ]ββ21 · [u]β2


 −1
(b) [u]β2 = [P ]ββ21 · [u]β1

Salientando que [P ]ββ12 representa a matriz de mudança da base β1 para a base β2 o que
 −1
é equivalente a notação [P ]ββ21 onde a mesma mudança é obtida usando o conceito de
 −1
inversão de matriz, ou seja, [P ]ββ12 = [P ]ββ21
Demonstração:(A demonstração desse teorema não será apresentada em vir-
tude de ser bastante extensa. Porém, ela pode ser vista nas principais biblio-
grafias da disciplina)

Exemplo 1.55 Sejam β1 = {(5, 2), (7, 3)} e β2 = {(3, 2), (1, 1)} bases de R2 , determine:

a) [P ]ββ12 ;

b) [P ]ββ21 ;

43
 
−3
c) Seja [w]β2 =  , determine [w]β1 .
7
Solução: a) Vamos escrever os vetores da base β1 = {v1 , v2 } em termos dos vetores de
β2 = {u1 , u2 }:

v1 = a11 u1 + a21 u2
v2 = a12 u1 + a22 u2
Assim, obtemos os seguintes sistemas de equações:

3a11 + a21 = 5 3a12 + a22 = 7


e (6)
2a11 + a21 = 2 2a12 + a22 = 3
 
3
Obtemos a11 = 3, a21 = −4, a12 = 4 e a22 = −5, ou seja, os vetores [v1 ]β2 =   e
−4
 
4
[v2 ]β2 =  . Então a matriz de mudança de base de β1 para β2 será:
−5
 
3 4
[P ]ββ12 =   (7)
−4 −5
b) Conforme o teorema 1.20, a matriz de mudança de base de β2 para β1 pode ser obtida
 −1
β2 β1
invertendo a matriz 7, ou seja, [P ]β1 = [P ]β2 :

 −1  
3 4 −5 −4
[P ]ββ21 =   = 
−4 −5 4 3
 
−3
c) Para determinar [w]β2 =   na base β1 faremos [w]β1 = [P ]ββ2 .[w]β2 :
1
7
     
−5 −4 −3 −13
[w]β1 = [P ]ββ21 .[w]β2 =  . = ,
4 3 7 9
 
−13
ou seja, [w]β1 =  
9

Podemos usar uma forma alternativa para determiminar a matriz mudança de base de
β1 para β2 que consiste em mudar, primeiro, de β1 para a base canônica E e depois para β2 .
Vejamos como.

44
Vamos considerar a matriz de mudança de base [V ]βE1 de β1 para a base canônica, e a
matriz [U −1 ]E
β2 de mudança da base canônica para a base β2 (veja matriz 4 do exemplo 1.54).

O vetor [x]E é o vetor na base canônica, [x]β1 o mesmo vetor na base β1 e [x]β2 o mesmo
vetor na base β2 . Então:

[V ]βE1 .[x]β1 = [x]E e [U −1 ]E


β2 .[x]E = [x]β2

Logo, multiplicando por [U −1 ]E


β2 :

β1
[U −1 ]E
β2 [V ]E .[x]β1 = [U
−1 E
]β2 [x]E = [x]β2

ou seja, para o exemplo 1.55, podemos determinar a matriz de mudança de base de β1


para β2 :  
−1 E
1 −1
No exemplo 1.54, temos que: [P ]E
β = [U ]β2 =  , logo:
−2 3
    
β1 1 −1 5 7 3 4
[U −1 ]E
β2 [V ]E = . =  = [P ]ββ1
2
−2 3 2 3 −4 −5

1.8 Aplicações
(em construção)

45
Capı́tulo 2

Transformações Lineares

Definição 2.1 Sejam V e W espaços vetoriais sobre o corpo K e T uma aplicação de V em


W . Dizemos que T é uma transformação Linear se possui as seguintes propriedades:

a) T (u + v) = T (u) + T (v) para todo u, v ∈ V

b) T (αu) = αT (u) para todo u ∈ V e α ∈ K

Das duas propriedades de transformação linear, obtemos que:

T (αu + βv) = αT (u) + βT (v)

para todo u, v ∈ V e todos escalares α, β ∈ K.


Por indução obtemos uma relação mais geral
n
! n
X X
T αj uj = αj T (uj )
j=1 j=1

para quaisquer elementos u1 , u2 , · · · , un ∈ V e quaisquer escalares α1 , α2 , · · · , αn ∈ K

Exemplo 2.1 Seja T : R → R, dada por u 7→ T (u) = αu. Mostre que é uma transformação
linear.
Sejam u, v ∈ R, então temos: T (u + v) = α(u + v) = αu + αv = T (u) + T (v).
Para a ∈ R, temos T (au) = α(au) = a(αu) = aT (u). Sendo assim, T é uma trans-
formação linear.

Exemplo 2.2 Seja T : R → R, dada por u 7→ T (u) = u2 . Verifique se T é uma trans-


formação linear.

46
Sejam u, v ∈ R, então temos: T (u + v) = (u + v)2 = u2 + 2uv + v 2 .
Como T (u) + T (v) = u2 + v 2 , temos que T (u + v) 6= T (u) + T (v), sendo assim T não é
uma transformação linear.

Exemplo 2.3 Seja T : R2 → R3 , dada por (x, y) 7→ T (x, y) = (2x, 0, x + y). Verifique se T
é uma transformação linear.
Sejam u, v ∈ R2 , tal que u = (x1 , y1 ) e v = (x2 , y2 ), então temos:

T (u + v) = T ((x1 , y1 ) + (x2 , y2 ))
= T ((x1 + x2 , y1 + y2 ))
= (2(x1 + x2 ), 0, (x1 + x2 ) + (y1 + y2 ))
= (2x1 + 2x2 , 0, (x1 + y1 ) + (x2 + y2 ))
= (2x1 , 0, x1 + y1 ) + (2x2 , 0, x2 + y2 )
= T (u) + T (v)
Seja α ∈ R, logo:
T (αu) = T (α(x, y))
= T ((α.x, α.y))
= (2αx, 0, αx + αy)
= α(2x, 0, x + y)
= αT (u)
sendo assim T é uma transformação linear.

Teorema 2.1 Sejam V e W espaços vetoriais sobre o corpo K e B = {v1 , v2 , · · · , vn } uma


base ordenada para V e {w1 , w2 , · · · , wn } elementos arbitrários de W. Então existe uma única
transformação linear T : V → W tal que:

T (vj ) = wj para j = 1, 2, · · · , n

Exemplo 2.4 Determinar a transformação linear T : R2 → R3 tal que T (−1, 1) = (3, 2, 1)


e T (0, 1) = (1, 1, 0).

Exemplo 2.5 Para a transformação linear T : R2 → P2 (R) tal que:

T (0, 1) = 1 − x e T (1, 0) = 1 − x2

obter explicitamente a transformação.

47
2.1 Transformações no Plano
Exemplo 2.6 (Expansão ou Contração) Seja o R2 um espaço vetorial sobre um corpo
R. Vamos definir a seguinte transformação linear

T : R2 7→ R2
(x, y) 7→ T (x, y) = α.(x, y) α∈R

esta transformação leva cada vetor do R2 em um outro vetor também do R2 de mesma


direção e mesmo sentido se α > 0, caso contrário, de sentidos opostos. Se |α| < 1 temos
uma contração, ao passo que se |α| > 1 dizemos que T é uma expansão.
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:

         
T (1, 0) = (α, 0) x 1 0 x α 0 x
⇒   7→ α ·  ·  = · 
T (0, 1) = (0, α) y 0 1 y 0 α y

Exemplo 2.7 (Reflexão em torno do eixo x) Dado o espaço vetorial R2 sobre o corpo
R. Consideremos a transformação definida abaixo:

T : R2 7→ R2
(x, y) 7→ T (x, y) = (x, −y)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0) = (1, 0) x 1 0 x
⇒   7→  . 
T (0, 1) = (0, −1) y 0 −1 y

Exemplo 2.8 (Reflexão em torno do eixo y) Dado o espaço vetorial R2 sobre o corpo
R. Consideremos a transformação definida abaixo:

T : R2 7→ R2
(x, y) 7→ T (x, y) = (−x, y)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0) = (−1, 0) x −1 0 x
⇒   7→  . 
T (0, 1) = (0, 1) y 0 1 y

48
Exemplo 2.9 (Reflexão em torno da reta y = x) Dado o espaço vetorial R2 sobre o
corpo R. Consideremos a transformação definida abaixo:

T : R2 7→ R2
(x, y) 7→ T (x, y) = (y, x)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0) = (0, 1) x 0 1 x
⇒   7→  . 
T (0, 1) = (1, 0) y 1 0 y

Exemplo 2.10 (Reflexão em torno da origem) Consideremos o espaço vetorial R2


sobre o corpo R, para o qual definimos a transformação:

T : R2 7→ R2
(x, y) 7→ T (v) = −v

ou, usando a notação matricial, podemos escrever de forma equivalente:


     
T (1, 0) = (−1, 0) x −1 0 x
⇒   7→  . 
T (0, 1) = (0, −1) y 0 −1 y

Exemplo 2.11 (Translação) Considere o espaço vetorial real R2 . Dado um elemento fixo
(a, b) ∈ R2 , a transformação

T : R2 7→ R2
(x, y) 7→ T (x, y) = (x, y) + (a, b)

é uma translação sobre o R2 .


Vale salientar que entre os exemplos apresentados nesta seção, a translação é o único que
não representa uma transformação linear. Esta afirmação pode ser comprovada por meio da
Definição 2.1.

Exemplo 2.12 (Cisalhamento horizontal) Considere o espaço vetorial real R2 e a trans-


formação
T : R2 7→ R2
(x, y) 7→ T (x, y) = (x + α · y, y) α ∈ R

49
ou, usando a notação matricial, podemos escrever de forma equivalente:
     
T (1, 0) = (1, 0) x 1 α x
⇒   7→  . 
T (0, 1) = (α, 1) y 0 1 y

Exemplo 2.13 (Cisalhamento vertical) Considere o espaço vetorial real R2 e a trans-


formação
T : R2 7→ R2
(x, y) 7→ T (x, y) = (x, y + α · x) α ∈ R

ou, usando a notação matricial, podemos escrever de forma equivalente:


     
T (1, 0) = (1, α) x 1 0 x
⇒   7→  . 
T (0, 1) = (0, 1) y α 1 y

Exemplo 2.14 (Projeção ortogonal sobre o eixo x) Considere o espaço vetorial real
R2 e a transformação
T : R2 7→ R2
(x, y) 7→ T (x, y) = (x, 0)
ou, usando a notação matricial, podemos escrever de forma equivalente:
     
T (1, 0) = (1, 0) x 1 0 x
⇒   7→  . 
T (0, 1) = (0, 0) y 0 0 y

Exemplo 2.15 (Projeção ortogonal sobre o eixo y) Considere o espaço vetorial real
R2 e a transformação
T : R2 7→ R2
(x, y) 7→ T (x, y) = (0, y)
ou, usando a notação matricial, podemos escrever de forma equivalente:
     
T (1, 0) = (0, 0) x 0 0 x
⇒   7→  . 
T (0, 1) = (0, 1) y 0 1 y

Exemplo 2.16 (Rotação anti-horária de um ângulo θ) Dado o espaço vetorial R2 e


o corpo dos R. Consideremos a seguinte transformação:

T : R2 7→ R2
(x, y) 7→ T (v) = Av

50
tal que:      
x cos(θ) −sen(θ) x
  7→  . 
y sen(θ) cos(θ) y
esta transformação rotaciona todo o conjunto de vetores v em θ no sentido anti-horário.

(a) (b)

Figura 2.1: Rotação de um ângulo θ anti-horária

Note que as coordenadas do vetor v podem ser escritas v = (r.cos(α), r.sen(α)).


As coordenadas do vetor v 0 podem ser escritas v 0 = (r.cos(α + θ), r.sen(α + θ)).
Como x0 = r.cos(α + θ) = r.cos(α).cos(θ) − r.sen(α).sen(θ) e sabemos que x = r.cos(α)
e y = r.sen(α), logo:
x0 = x.cos(θ) − y.sen(θ).

De forma análoga, y 0 = r.sen(α + θ) = r.sen(α).cos(θ) + r.cos(α).sen(θ) e sabemos que


x = r.cos(α) e y = r.sen(α), logo:

y 0 = y.cos(θ) + x.sen(θ).

Assim, temos:
v 0 = (x.cos(θ) − y.sen(θ), y.cos(θ) + x.sen(θ)),

usando a forma matricial, temos:

51
       
x x.cos(θ) − y.sen(θ) cos(θ) −sen(θ) x
  7→  = . 
y y.cos(θ) + x.sen(θ) sen(θ) cos(θ) y

Definição 2.2 Considere os espaços vetoriais Rm e Rn . Dada uma matriz A = [aij ] ∈


Mm×n (R), definimos a transformação linear associada a matriz A da seguinte forma:

TA : Rn 7→ Rm
y = TA (x)

onde
n
X
yi = αij xj para i = 1, 2, · · · , m
j=1

é a i-ésima componente do elemento y = (y1 , y2 , · · · , ym )

Definição 2.3 Considere os espaços vetoriais Rm e Rn . Dada uma matriz A = [aij ] ∈


Mm×n (R), definimos a transformação linear associada a matriz A da seguinte forma:

T : Rn 7→ Rm
T (v) = A.v

desta forma fica bem definida a possibilidade de associar elementos de um espaço vetorial
Rn a elementos de outro espaço Rm , relacionando esta operação a uma matriz, denominada
matriz de transformação.

Definição 2.4 Dado um elemento c = (c1 , c2 , · · · , cn ) ∈ Rn fixo, porém arbitrário, vamos


definir a seguinte transformação linear:

T : Rn 7→ R
n
X
T (x) = cj x j
j=1

A transformação linear T é o produto escalar entre os elementos x e c.

Exemplo 2.17 Determine a matriz da transformação do exemplo 2.4. Para tanto use as
bases canônicas do R2 e R3 .
Em primeiro lugar, devemos aplicar a tranformação T (x, y) = (−2x + y, −x + y, −x)
(determinada no exemplo 2.4) aos vetores da base de R2 , ou seja:

52
T (1, 0) = (−2, −1, −1) = a11 (1, 0, 0) + a21 (0, 1, 0) + a31 (0, 0, 1),

o que resulta em a11 = −2, a21 = −1 e a31 = −1.

T (0, 1) = (1, 1, 0) = a12 (1, 0, 0) + a22 (0, 1, 0) + a32 (0, 0, 1),

o que resulta em a12 = 1, a22 = 1 e a32 = 0.


2
Sendo assim a matriz da transformação [T ]RR3 é:
 
−2 1
 
R2
[T ] =  −1 1  ,
 
R3
 
−1 0
2
logo [T (v)]R3 = [T ]RR3 .[v]R2 .
Como usamos as bases canônicas, esta matriz é chamada de matriz canônica de T .

Exemplo 2.18 Seja T : R3 7→ R2 , T (x, y, z) = (2x − y + z, 3x + y − 2z), linear.


Considere as bases A = {v1 , v2 , v3 }, com v1 = (1, 1, 1), v2 = (0, 1, 1) e v3 = (0, 0, 1), e
B = {w1 , w2 }, sendo w1 = (2, 1) e w2 = (5, 3). Determine a matriz da transformação T e,
usando esta matriz, represente o vetor [v]R3 = (3, −4, 2)
Note que as base não são canônicas.
Em primeiro lugar, devemos aplicar a tranformação T (x, y, z) = (2x − y + z, 3x + y − 2z)
aos vetores da base A, ou seja:

T (1, 1, 1) = (2, 2) = a11 (2, 1) + a21 (5, 3),

o que resulta em a11 = −4 e a21 = 2.

T (0, 1, 1) = (0, −1) = a12 (2, 1) + a22 (5, 3),

o que resulta em a12 = 5 e a22 = −2.

T (0, 0, 1) = (1, −2) = a13 (2, 1) + a23 (5, 3),

o que resulta em a13 = 13 e a23 = −5.

53
Sendo assim a matriz da transformação [T ]A
B é:

 
−4 5 13
[T ]A
B =
 ,
2 −2 −5
logo [T (v)]B = [T ]A
B .[v]A .

Como o vetor dado, [v]R3 = (3, −4, 2), está na base do R3 , precisamos mudar para a base
A, ou seja,

(3, −4, 2) = a(1, 1, 1) + b(0, 1, 1) + c(0, 0, 1),

o que nos fornece a = 3, b = −7 e c = 6, ou ainda, [v]A = (3, −7, 6). Portanto aplicando a
transformação em v, temos:
 
 3   
−4 5 13   31
[T (3, −7, 6)]B = [T ]A
B .[v]A =  −7  = 
.
  
2 −2 −5   −10
13

2.2 Transformações no Espaço(em construção)


Assim como vimos as transformações no plano, vamos conhecer algumas no R3 .

Exemplo 2.19 (Reflexão no plano xy) Dado o espaço vetorial R3 sobre o corpo R.
Consideremos a transformação definida abaixo:

T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (x, y, −z)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0, 0) = (1, 0, 0) x 1 0 0 x
     
⇒  y  7→  0 0 . y 
     
T (0, 1, 0) = (0, 1, 0) 1
     
T (0, 0, −1) = (0, 0, −1) z 0 0 −1 z

Exemplo 2.20 (Reflexão no plano xz) Dado o espaço vetorial R3 sobre o corpo R.
Consideremos a transformação definida abaixo:

54
T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (x, −y, z)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0, 0) = (1, 0, 0) x 1 0 0 x
     
T (0, −1, 0) = (0, −1, 0) ⇒  y  7→  0 −1 0  .  y 
     
     
T (0, 0, 1) = (0, 0, 1) z 0 0 1 z

Exemplo 2.21 (Reflexão no plano yz) Dado o espaço vetorial R3 sobre o corpo R.
Consideremos a transformação definida abaixo:

T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (−x, y, z)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (−1, 0, 0) = (−1, 0, 0) x −1 0 0 x
     
⇒  y  7→  0 1 0 . y 
     
T (0, 1, 0) = (0, 1, 0)
     
T (0, 0, 1) = (0, 0, 1) z 0 0 1 z

Exemplo 2.22 (Projeção ortogonal sobre o plano xy) Dado o espaço vetorial R3 sobre
o corpo R. Consideremos a transformação definida abaixo:

T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (x, y, 0)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0, 0) = (1, 0, 0) x 1 0 0 x
     
T (0, 1, 0) = (0, 1, 0) ⇒  y  7→  0 1 0 . y 
     
     
T (0, 0, 1) = (0, 0, 0) z 0 0 0 z

Exemplo 2.23 (Projeção ortogonal sobre o plano xz) Dado o espaço vetorial R3 sobre
o corpo R. Consideremos a transformação definida abaixo:

T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (x, 0, z)

55
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0, 0) = (1, 0, 0) x 1 0 0 x
     
T (0, 1, 0) = (0, 0, 0) ⇒  y  7→  0 0 0 . y 
     
     
T (0, 0, 1) = (0, 0, 1) z 0 0 1 z

Exemplo 2.24 (Projeção ortogonal sobre o plano yz) Dado o espaço vetorial R3 sobre
o corpo R. Consideremos a transformação definida abaixo:

T : R3 7→ R3
(x, y, z) 7→ T (x, y, z) = (0, y, z)
Esta mesma transformação pode ser apresentada usando uma notação matricial, ou seja:
     
T (1, 0, 0) = (0, 0, 0) x 0 0 0 x
     
T (0, 1, 0) = (0, 1, 0) ⇒  y  7→  0 1 0 . y 
     
     
T (0, 0, 1) = (0, 0, 1) z 0 0 1 z

Exemplo 2.25 (Rotação anti-horária em torno dos eixos (positivo) de um ângulo


θ) Dado o espaço vetorial R3 sobre o corpo dos R. Consideremos a seguinte transformação:

T : R3 7→ R3
(x, y, z) 7→ T (v) = Av
Observe como fica para cada eixo:

(i) Rotação anti-horária em torno do eixo x (positivo) de um ângulo θ

     
x 1 0 0 x
     
 y  7→  0 cos(θ) −sen(θ)  .  y 
     
     
z 0 sen(θ) cos(θ) z

(ii) Rotação anti-horária em torno do eixo y (positivo) de um ângulo θ

     
x cos(θ) 0 sen(θ) x
     
 y  7→ 0 . y 
     
 0 1
     
z −sen(θ) 0 cos(θ) z

56
(iii) Rotação anti-horária em torno do eixo z (positivo) de um ângulo θ

     
x cos(θ) −sen(θ) 0 x
     
 y  7→ cos(θ) 0  .  y 
     
 sen(θ)
     
z 0 0 1 z

Agora, vamos estudar mais profundamente as transformações lineares, obtendo resultados


úteis e ao mesmo tempo interessantes. De inı́cio, vejamos os conceitos de núcleo e imagem,
que são dois subconjuntos especiais dos espaços vetoriais envolvidos numa transformação
linear.

2.3 Núcleo e Imagem


Definição 2.5 (Núcleo de T) Seja T : V → W uma transformação linear. O conjunto de
todos os vetores v ∈ V tais que T (v) = 0 é chamado de núcleo de T , sendo denominado por
Ker(T ). Em outras palavras, temos:

Ker(T ) = {v ∈ V | T (v) = 0}

Teorema 2.2 O conjunto Ker(T ) ⊂ V é um subespaço vetorial de V.


Demonstração: Sabemos que T (0V ) = 0W , logo 0V ∈ Ker(T ).
Agora, sejam u, v ∈ Ker(T ), temos:

T (u) + T (v) = T (u + v) = 0W ,

logo, u + v ∈ Ker(T ).
Tomando α ∈ K e u ∈ Ker(T ), temos:

T (αu) = αT (u) = 0W ,

logo αu ∈ Ker(T ). 

Exemplo 2.26 Calcular o núcleo, ou seja, Ker(T ) para a transformação linear dada por

T : R2 → R
T (x, y) = x + y

57
na sequência represente graficamente Ker(T ).

Definição 2.6 (Imagem de T) Seja T : V → W uma aplicação linear. A imagem de T


é o conjunto dos vetores w ∈ W tais que existe um vetor v ∈ V , que satisfaz T (v) = w, ou
seja
Im(T ) = {w ∈ W | T (v) = w para algum v ∈ V }

Teorema 2.3 O conjunto Im(T ) ⊂ W é um subespaço vetorial de W .


Demonstração: Sabemos que T (0V ) = 0W , logo 0W ∈ Im(T ).
Agora, sejam T (u), T (v) ∈ Im(T ), temos:

T (u) + T (v) = T (u + v),

como, u + v ∈ V e T (u + v) ∈ W , temos que:

T (u) + T (v) ∈ Im(T ).

Finalmente, sejam T (u) ∈ Im(T ) e α ∈ K, temos:

αT (u) = T (αu),

como αu ∈ V e T (αu) ∈ W , concluı́mos que αT (u) ∈ Im(T ). 

Exemplo 2.27 Seja T : V → W uma transformação linear dada por:

T : R3 → R3
T (x, y, z) = (x, 2y, 0)

Determine:

a) A imagem de T, ou seja, Im(T ) e a dimensão de Im(T ).

b) O núcleo, ou seja, Ker(T ) e a dimensão de Ker(T ).

Exemplo 2.28 Considere a transformação linear

T : R3 → R2
T (x, y, z) = (x − 3y + 5z, −x + 4y − z)

Determine:

58
a) O subespaço Im(T ) e dim(Im(T ))

b) O subespaço Ker(T ) e dim(Ker(T ))

Exemplo 2.29 Considere a transformação linear T : R3 → P3 (R) definida por:

T (1, 0, 1) = 2 + x2 + x3 , T (0, 1, 0) = 1 + x2 e T (0, 0, 1) = x2 − x3

a) Calcule T(a,b,c) para a transformação linear dada

b) Determine uma base para o subespaço Im(T )

2.4 Posto e Nulidade


Definição 2.7 Sejam V e W espaços vetoriais sobre o corpo K e T uma transformação
linear de V em W . Definimos:

(i) O Posto de T , que denotamos por posto(T ) como sendo a dimensão da imagem de T .
isto é, posto(T ) = dim(Im(T )).

(ii) A nulidade de T , que denotamos por null(T ) como sendo a dimensão do núcleo de
T , isto é, null(T ) = dim(Ker(T )).

2.5 Transformações Injetoras e Sobrejetoras


Definição 2.8 Dada uma transformação linear T : V → W , diremos que T é injetora se
dados u ∈ V , v ∈ V tais que T (u) = T (v) tivermos u = v. Ou equivalentemente, T é injetora
se dados u ∈ V , v ∈ V tais que u 6= v então T (u) 6= T (v).

Em palavras, T será injetora sempre que elementos distintos no domı́nio de T, ou seja em


V, possuı́rem imagens em W também distintas.

Teorema 2.4 Sejam V e W espaços vetoriais sobre um corpo K e T uma transformação


linear de V em W . Então, T é injetora se, e somente se, Ker(T ) = {0V }.
Demonstração: (⇒) Por hipótese temos que T é injetora, isto é, T (u) = T (v) implica
que u=v.

59
Vamos mostrar que ker(T ) = {0V }.
Se u ∈ Ker(T ), isto é, T (u) = 0W . Como T (0V ) = 0W , temos que T (u) = T (0V ). Pelo
fato de T ser injetora, devemos ter que u = 0V , logo Ker(T ) = {0V }.
(⇐) Por hipótese, temos que Ker(T ) = {0V }. Vamos provar que T é injetora. Para
tanto, tomamos u, v ∈ V tal que T (u) = T (v), assim, temos:

T (u) − T (v) = T (u − v) = 0W .

Como Ker(T ) = {0V }, obtemos (u − v) ∈ Ker(T ) ⇒ u − v = 0V ⇒ u = v. 

Definição 2.9 A transformação linear T : V → W , é dita sobrejetora se para qualquer


que seja w ∈ W existir v ∈ V tal que w = T (v).

Definição 2.10 Sejam V e W espaços vetoriais sobre o corpo K e T uma aplicação de V


em W . Dizemos que T é uma aplicação bijetora se, e somente se, T é simultaneamente
injetora e sobrejetora.

Teorema 2.5 (Teorema do Núcleo e da Imagem) Sejam V e W espaços vetoriais


sobre um corpo K, com dim(V ) = n e ainda T : V → W é uma transformação linear, então:

dim(Ker(T )) + dim(Im(T )) = dim(V )

Teorema 2.6 Sejam V e W espaços vetoriais sobre um corpo K, com dim(V ) = n e T :


V → W uma transformação linear. As seguintes afirmações são equivalentes.

a) T é injetora

b) Seja {v1 , v2 , · · · , vn } linearmente independente em V. Então {T (v1 ), T (v2 ), · · · , T (vn )}


é linearmente independente em Im(T ).

c) dim(Im(T )) = n

d) Seja {v1 , v2 , · · · , vn } uma base para V . Então {T (v1 ), T (v2 ), · · · , T (vn )} é uma base
para Im(T ).

Demonstração:
Vamos mostrar que a) ⇒ b).

60
Tomando uma combinação linear nula:

n n
!
X X
0W = ai T (vi ) = T ai vi ,
i=1 i=1

e como T é injetora, pelo teorema 2.4, temos que


n
X
ai vi = 0V .
i=1

Como {v1 , v2 , · · · , vn } é linearmente independente em V , o que implica que

a1 , a2 , · · · , = an = 0,

portanto, {T (v1 ), T (v2 ), · · · , T (vn )} é linearmente independente em IM (T ).


Vamos mostrar que b) ⇒ c).
Seja {v1 , v2 , · · · , vn } uma base de V . Assim temos que {T (v1 ), T (v2 ), · · · , T (vn )} é line-
armente independente em Im(T ). Sendo assi, dim(Im(T )) > n.
Pelo teorema 2.5 temos que dim(Im(T )) 6 n, logo obtemos dim(Im(T )) = n.
Vamos mostrar que c) ⇒ d).
Seja {v1 , v2 , · · · , vn } uma base de V . Considerando um elemento de w ∈ Im(T ), isto é,
w = t(u) para algum u ∈ V . Como u ∈ V , tems que;

n n
! n
X X X
u= ai vi ⇒ w = T ai v i = ai T (vi ),
i=1 i=1 i=1

Como dim(Im(T )) = n, temos que {T (v1 ), T (v2 ), · · · , T (vn )} é uma base de Im(T ).
Para mostrar d) ⇒ a).
Tomando u ∈ V , temos
n
X n
X
u= ai vi ⇒ T (u) = ai T (vi ),
i=1 i=1

pois, {T (v1 ), T (v2 ), · · · , T (vn )} é linearmente independente, logo Ker(T ) = {0V }. Pelo teo-
rema 2.4 temos que T é injetora. O que conclui nossa demonstração. 

Corolário 2.1 Sejam V e W espaços vetoriais de dimensão finita sobre um corpo K de


forma que T : V → W seja uma transformação linear. Se dim(V ) = dim(W ), então T é
injetora se, e somente se, T é sobrejetora.

61
Demonstração: Pelo teorema 2.5 temos que

dim(Ker(T )) + dim(Im(T )) = dim(V )

Se dim(V ) = dim(W ), podemos escrever:

dim(Ker(T )) + dim(Im(T )) = dim(W ) (1)

Supondo que T seja injetora, pelo teorema 2.4, Ker(T ) = {0V } e, consequentemente,
dim(Ker(T )) = 0. Segue, de (1), que

dim(V ) = dim(W ),

mostrando que T é sobrejetora, pois Im(T ) = W .


Por outro lado, vamos supor que T seja sobrejetora, ou seja, Im(T ) = W , logo,
dim(Im(T )) = dim(W ), portanto, de (1), temos que dim(Ker(T )) = 0, o que garante
que Ker(T ) = {0V }. Pelo teorema 2.4 podemos afirmar que T é injetora. 

Corolário 2.2 Sejam V e W espaços vetoriais de dimensão finita sobre um corpo K de


forma que T : V → W seja uma transformação linear. Se dim(V ) = dim(W ), então T leva
base em base.
Demonstração: Seja {v1 , v2 , · · · , vn } uma base de V . Pelo teorema 2.6, temos que
{T (v1 ), T (v2 ), · · · , T (vn )} é inearmente independente em W . Como dim(V ) = dim(W ),
obtemos que {T (v1 ), T (v2 ), · · · , T (vn )} é uma base para W . 

Exemplo 2.30 Considere a seguinte transformação linear

T : R3 → R
T (x, y, z) = −x + y + 2z

Determine Ker(T ), N ull(T ) = dim(Ker(T )), Im(T ) e posto(T ) = dim(Im(T )).

Exemplo 2.31 Considere a seguinte transformação linear

T : R2 → R2
T (x, y, z) = (2x − y, x + y)

Verifique se T é injetora.

62
Exemplo 2.32 Considere a seguinte transformação linear T : R4 → R3 , definda por:

T (x, y, z, t) = (x − 2y + t, 2x + y − z, 5y − z − 2t)

a) Determine uma base para o subespaço Ker(T );

b) Determine uma base para o subespaço Im(T );

c) Determine uma base para o R4 contendo uma base de Ker(T ).

Exemplo 2.33 Seja a transformação linear T : R3 → R3 , tal que:

T (1, 0, 0) = (1, 1, 1), T (0, 1, 0) = (1, −2, 1) e T (0, 0, 1) = (1, 0, −1)

Mostre que T é bijetora.

Exemplo 2.34 Seja T uma transformação linear

T : R2 → R3
T (x, y) = (x − y, x, x + y)
Mostre que T não é bijetora.

Exemplo 2.35 Para transformações lineares da forma T : Rm → Rn , com m < n, mostre


que não são bijetoras.
Solução: Considerando dim(Ker(T )) = 0, ou seja, Ker(T ) = {0Rm }, temos, pelo
Teorema do núcleo e imagem, que dim(Im(T )) = m < n, nos levando a concluir que
Im(T ) 6= Rn . O que indica que T não é sobrejetora, ou seja, não existem transformações
lineares bijetoras quando m < n.

Exemplo 2.36 Determine uma transformação linear

T : R3 → R4

tal que Im(T ) = [(1, 1, 2, 1), (2, 1, 0, 1)].

Exemplo 2.37 Determine uma transformação linear T : R3 → P2 (R),


tal que dim(Ker(T )) = 1

Exemplo 2.38 Determine uma transformação linear T : R4 → R4 ,


tal que Ker(T ) = [(1, 0, 1, 0), (0, 1, 0, 1)].

63
2.6 Espaços Vetoriais Isomorfos
Definição 2.11 Sejam V e W espaços vetoriais de dimensão finita sobre um corpo K. Uma
transformação linear T : V → W bijetora, isto é, injetora e sobrejetora ao mesmo tempo, é
denominada isomorfismo de V em W . Quando existe um isomorfismo de V em W , dizemos
que estes espaços são isomorfos, ou que V é isomorfo a W . Um isomorfismo T : V → V é
denominado um automorfismo de V .

Pelo resultado do Teorema 2.5, observamos que espaços isomorfos devem ter a mesma
dimensão. Desse modo, pelo Corolário 2.2, um isomorfismo leva base em base . Do ponto de
vista da Álgebra Linear, espaços isomorfos são considerados idênticos mesmo que os elementos
e as operações definidas nestes espaços sejam bem diferentes.

Exemplo 2.39 Seja a transformação linear

T : R3 → R3

T (x, y, z) = (x − 2y, z, x + y).

Mostre que T é um isomorfismo.


Solução: Precisamos mostrar que T é injetora mostrando que Ker(T ) = {0R3 } (teorema
2.4).
Note que T (x, y, z) = (x − 2y, z, x + y) = (0, 0, 0) o que nos leva ao sistema homogêneo:

x − 2y =0
z =0
x + y =0
que admite somente a solução trivial, ou seja, x = y = z = 0, logo Ker(T ) = {0R3 }, logo
T é injetora. Isto associado ao corolário 2.1, temos que T é sobrejetora, então T é bijetora,
sendo assim, T é um isomorfismo.

Exemplo 2.40 Considere o subespaço de M2 (R) dado por:


   
 a a+b 
V = A ∈ M2 (R) | A =   , a, b, c ∈ R
 0 c 

Construa um isomorfismo de V em R3 .

64
Solução: Podemos escrever A, um elemento de V , da seguinte forma:
     
1 1 0 1 0 0
A = a  + b  + c 
0 0
0 0 0 1
     
 1 1 0 1 0 0 
logo, temos como base de V o conjunto: β =  , ,  . Sendo
 0 0 0 0 0 1 
assim, dim(V ) = 3.
A aplicação T : V → R3 dada por T (A) = (a, a + b, c) é o isomorfismo procurado. Note
que T leva a base β na base {(1, 1, 0), (0, 1, 0), (0, 0, 1)}, uma base do R3 .

Exemplo 2.41 Em muitas situações identificamos o espaço vetorial Rn com o espaço ve-
torial de matrizes reais de ordem n × 1. Esta identificação é feita, muitas vezes, sem que
façamos alguma referência ao fato de que esses espaços vetoriais sejam isomorfos. Uma ilus-
tração muito simples dessa ideia, ocorre quando estamos trabalhando com o espaço solução
de um sistema linear homogêneo e considerando a representação matricial para sistemas li-
neares . Desse modo, existe um isomorfismo evidente entre o espaço vetorial Rn e o espaço
vetorial real Mn×1 (R), definido da seguinte forma:
 
x1
.. 
 
. 


 
(x1 , · · · , xi , · · · , xn ) ∈ Rn →  xi  ∈ Mn×1 (R)
 
.. 
 

 . 
 
xn

Assim, sempre que conveniente, podemos fazer a identificação do espaço vetorial Rn com o
espaço vetorial real Mn×1 (R).

Teorema 2.7 Sejam V e W espaços vetoriais de dimensão finita sobre o corpo K. Então,
V e W são isomorfos se, e somente se, dim(V ) = dim(W ).

Teorema 2.8 Seja V um espaço vetorial sobre o corpo K, com dim(V ) = n. Então, V é
isomorfo ao espaço vetorial Kn .

Teorema 2.9 Sejam V e W espaços vetoriais de dimensão finitas sobre o corpo K e T um


isomorfismo de V em W . Então T −1 : W → V é também um isomorfismo.

65
2.7 Operações com Transformações
Definição 2.12 Sejam V e W espaços vetoriais sobre o corpo K. Denotamos por L(V, W )
o conjunto de todas as transformações lineares de V em W , isto é,

L(V, W ) = {T : V → W | T é uma transformação linear}

Definição 2.13 Dadas duas transformações P, T ∈ L(V, W ). A Soma destas duas trans-
formações, denotada por T + P : V → W é dada por:

(T + P )(v) = T (v) + P (v) ∀v ∈ V

a aplicação aqui definida, é também uma transformação linear.

Definição 2.14 Dada a transformação linear T ∈ L(V, W ) e o escalar λ ∈ K. Definimos


a multiplicação de uma transformação por um escalar λT : V → W da seguinte
forma:
(λT )(v) = λ · T (v) ∀v ∈ V

sendo que λ · T também é uma transformação linear.

Definição 2.15 Sejam U , V e W espaços vetoriais sobre o corpo K. Considere as trans-


formações lineares T : U → V e P : V → W . A operação de composição entre as
transformações P e T , denotada por P ◦ T : U → W , é da seguinte forma:

(P ◦ T )(u) = P (T (u)) ∈ W ∀u ∈ U

Teorema 2.10 A aplicaçao P ◦ T é uma transformação linear de U em W .

Exemplo 2.42 Sejam T1 : R2 → R3 e T2 : R2 → R3 , transformações lineares definidas por


T1 (x, y) = (x + 2y, 2x − y, x) e T2 (x, y) = (−x, y, x + y). Determinar:
a) T1 + T2 ;
b) 3T1 − 2T2 ;
c) A matriz canônica de 3T1 − 2T2 e mostre que [3T1 − 2T2 ] = 3[T1 ] − 2[T2 ].
Solução:
a)

66
(T1 + T2 )(x, y) = T1 (x, y) + T2 (x, y)
= (x + 2y, 2x − y, x) + (−x, y, x + y)
= (2y, 2x, 2x + y)
b)
(3T1 − 2T2 )(x, y) = (3T1 )(x, y) − (2T2 )(x, y)
(3T1 − 2T2 )(x, y) = 3T1 (x, y) − 2T2 (x, y)
= 3(x + 2y, 2x − y, x) − 2(−x, y, x + y)
= (5x + 6y, 6x − 5y, x − 2y)
c)      
5 6 1 2 −1 0
     
[3T1 − 2T2 ] =  6 −5  = 3  2 −1  − 2  0
     
1 
     
1 −2 1 0 1 1

Exemplo 2.43 Sejam S e T operadores lineares no R2 definidos por S(x, y) = (2x, y) e


T (x, y) = (x, x − y). Determinar:
a) S ◦ T ;
b) T ◦ S;
c) S ◦ S;
d) T ◦ T ;
Solução:
a) (S ◦ T )(x, y) = S(T (x, y)) = S(x, x − y) = (2x, x − y);
     
2 0 2 0 1 0
Note que [S ◦ T ] =  = .  = [S][T ]
1 −1 0 1 1 −1

b) (T ◦ S)(x, y) = T (S(x, y)) = T (2x, y) = (2x, 2x − y)


Observe que S ◦ T 6= T ◦ S;
c) (S ◦ S)(x, y) = S(S(x, y)) = S(2x, y) = (4x, y);
d) (T ◦ T )(x, y) = T (T (x, y)) = T (x, x − y) = (x, y).

Exemplo 2.44 Considere as transformações lineares T : R2 → R e P : R → R, definidas


por T (x, y) = x − 3y e P (x) = 4x. Determine, se possı́vel, as seguintes aplicações T + P ,
T ◦ P e P ◦ T.
Solução: Note que as operações T + P e T ◦ P não estão definidas.

67
Para P ◦ T , temos:
(P ◦ T )(x, y) = P (T (x, y)) = P (x − 3y) = 4x − 12y.

Exemplo 2.45 Sejam P e T operadores lineares sobre R2 definidos por T (x, y) = (2x, x − y)
e P (x, y) = (x + y, 4x). Determine, se possı́vel, as seguintes aplicações:
a) P + T ;
b) T ◦ P ;
c) P ◦ T .
Solução: Note que estas operações estão definidas.
a) (P + T )(x, y) = P (x, y) + T (x, y) = (3x + y, 5x − y);
b) (P ◦ T )(x, y) = P (T (x, y)) = P (2x, x − y) = (3x − y, 8x);
c) (T ◦ P )(x, y) = T (P (x, y)) = T (x + y, 4x) = (2x + 2y, −3x + y).

Definição 2.16 Seja V um espaço vetorial sobre o corpo K. Um operador linear sobre V
é uma transformação linear de V em V .

Definição 2.17 Seja V um espaço vetorial sobre o corpo K. Denotamos por L(V ) ao con-
junto de todos os operadores lineares sobre V , isto é,

L(V ) = {T : V → V | T é um operador linear}

Definição 2.18 No espaço vetorial L(V ) podemos definir a operação de potenciação, para
expoentes naturais, de um operador T ∈ L(V ) da seguinte forma:
T0 = I T1 = T T2 = T ◦ T T n = T ◦T n−1 para n ∈ N

Definição 2.19 Sejam V um espaço vetorial sobre um corpo K e T um operador linear sobre
V . Dizemos que T é um Operador Idempotente se T 2 = T , isto é,

(T ◦ T )(v) = T (T (v)) = T (v) para todo v∈V

Definição 2.20 Sejam V um espaço vetorial sobre um corpo K e T um operador linear sobre
V . Dizemos que T é um Operador Auto-Reflexivo se T 2 = I, isto é,

(T ◦ T )(v) = T (T (v)) = v para todo v∈V

68
Definição 2.21 Sejam V um espaço vetorial sobre um corpo K e T um operador linear sobre
V . Dizemos que T é um Operador Nilpotente se T n = 0 para um certo n ∈ N, isto é,

(T ◦ T n−1 )(v) = T (T n−1 (v)) = 0V para todo v∈V

Exemplo 2.46 Considere o espaço vetorial real R3 . O operador de projeção sobre o plano
xy:
T : R3 → R3

T (x, y, z) = (x, y, 0)

é um operador idempotente.

Exemplo 2.47 Considere o espaço vetorial real R2 . O operador de reflexão sobre o eixo x:

T : R2 → R2

T (x, y) = (x, −y)

é um operador auto-reflexivo.

Exemplo 2.48 Considere o espaço vetorial real P3 (R). O operador de derivação sobre P3 (R)
é um operador nilpontente, ou seja, este operador é definido por D(p(x)) = p0 (x), sendo
p(x) ∈ P3 (R).

Teorema 2.11 Sejam T1 : V → W e T2 : W → U transfomações lineares e α, β e γ bases


de V , W e U , respectivamente. Então a composta de T1 com T2 , T2 ◦ T1 : V → W , é linear e

[T2 ◦ T1 ]αγ = [T2 ]βγ · [T1 ]αβ

69
Figura 2.2: Composta de T1 com T2 .

Exemplo 2.49 Considere as transformações T : R2 → R2 , dadas por T1 (x, y) = (2x, 2y)


T2 (x, y) = (x + 2y, y), determine T2 ◦ T1 .
Solução: Veja que as matrizes destas transformações (em relação à base canônica do
R2 ) são:    
2 2 0 2 1 2
[T1 ]RR2 =   e [T2 ]RR2 =  
0 2 0 1
Logo, T2 ◦ T1 será:
       
2 0 1 2 x 2x + 4y
[(T2 ◦ T1 )(x, y)]R2 =  · · = 
0 2 0 1 y 2y

ou seja, (T2 ◦ T1 )(x, y) = (2x + 4y, 2y).

2.8 Transformação Inversa


Vimos que se uma transformação linear T : V → W for injetora e sobrejetora, ao mesmo
tempo, temos um isomorfismo, ou seja, estes espaços vetoriais são isomorfos.
Além disto, vimos, também, que espaços isomorfos devem ter mesma dimensão e que
(teorema 2.9) um isomorfismo T : V → W tem uma aplicação inversa T −1 : W → V , que é
linear e, também, é um isomorfismo.

70
Exemplo 2.50 Verifique se o operador linear T : R3 → R3 definido por:

T (1, 1, 1) = (1, 0, 0), T (−2, 1, 0) = (0, −1, 0) e T (−1, −3, −2) = (0, 1, −1)

é invetı́vel e, em caso afirmativo, determinar T −1 (x, y, z).


Solução: Note que o conjunto {(1, 1, 1), (−2, 1, 0), (−1, −3, −2)} (verifique!) é uma base
do R3 e que T está bem definido, pois são conhecidas as imagens de cada vetor desta base.
Pelo corolário 2.2, sabemos que o conjunto {(1, 0, 0), (0, −1, 0), (0, 1, −1)} também é uma base
do R3 . Logo o operador T −1 também está definido, o que permite concluir que T é invetı́vel.
Por definição, podemos escrever:

T −1 (1, 0, 0) = (1, 1, 1), T −1 (0, −1, 0) = (−2, 1, 0) e T −1 (0, 1, −1) = (−1, −3, −2)

Expressando o vetor (x, y, z) nesta base:


(x, y, z) = a(1, 0, 0) + b(0, −1, 0) + c(0, 1, −1)
obtemos a = x, b = −y − z e c = −z. Aplicando T −1 :
T −1 (x, y, z) = xT −1 (1, 0, 0) + (−y − z)T −1 (0, −1, 0) + (−z)T −1 (0, 1, −1)
T −1 (x, y, z) = x(1, 1, 1) + (−y − z)(−2, 1, 0) + (−z)(−1, −3, −2)
T −1 (x, y, z) = (x, x, x) + (2y + 2z, −y − z, 0) + (z, 3z, 2z)
T −1 (x, y, z) = (x + 2y + 3z, x − y + 2z, x + 2z)

Exemplo 2.51 Considere T ∈ L(R2 ), definido por:

T (x, y) = (x + y, x − y)

Mostre que T é um isomorfismo e determine T −1 .


Solução: Para deteminar se T é um isomorfismo, precisamos mostrar que T é um
operador injetor, ou seja, Ker(T ) = {0R2 }.
O nucleo deste operador é dado como segue:

T (x, y) = (x + y, x − y) = (0, 0),

sendo assim, obtemos o sistema homogêneo:

71

 x + y = 0
 x − y = 0

que admite somente a solução trivial, ou seja, x = y = 0, logo Ker(T ) = {0R2 }. T é injetor
(teorema 2.4), logo, pelo corolário 2.1, T é sobrejetor. Indicando que T é um isomorfismo.
Para o elemento (x, y) ∈ R2 supomos que T −1 (x, y) = (a, b), logo (x, y) = T (a, b), logo:

(x, y) = (a + b, a − b)

o que no fornece o sistema: 


 a + b = x
 a − b = y

x+y x−y
fornecendo a solução a = eb= .
2 2
 
−1 x+y x−y
Logo, T (x, y) = , .
2 2
Exemplo 2.52 Considere T : R2 → P1 (R), definido por:

T (1, −1) = 2 + x e T (0, 1) = x − 1

Mostre que T é um isomorfismo de R2 em P1 (R) e determine T −1 de P1 (R) em R2 .


Solução: Veja que α = {(1, −1), (0, 1)} é uma base do R2 , pois, para um elemento
(a, b) ∈ R2 , temos a combinação linear:

a(1, −1) + b(0, 1) = (0, 0)

e obtemos o sistema homogêneo:



 a = 0
 −a + b = 0

que admite somente a solução trivial, ou seja, a = b = 0, logo α é linearmente independente.


Como dim(R2 ) = dim(P1 (R)), pelos corolários 2.1 e 2.2 temos que {2 + x, x − 1} é uma
base de P1 (R) (verifique!) nos permitindo afirmar que T está bem definido (note que é um
isomorfismo), logo T −1 , também, está bem definido, indicando que T é invertı́vel. Isto nos
permite determinar:

72
T −1 (2 + x) = (1, −1) eT −1 (x − 1) = (0, 1)

Agora, precisamos determinar T −1 , então para elementos (a + bx) ∈ P1 (R) podemos


escrever

(a + bx) = c(2 + x) + d(x − 1)

o que nos fornece o sistema:



 2c − d = a
 c + d = b

a+b 2b − a
fornecendo a solução c = ed= . Sendo assim, podemos escrever (a, b):
3 3
   
a+b 2b − a
(a + bx) = (2 + x) + (x − 1),
3 3
aplicando T −1 :    
a + b 2b − a
T −1 (a + bx) = T −1 (2 + x) + T −1 (x − 1)
 3   3

a+b 2b − a
= (1, −1) + T −1 (0, 1)
 3   3 
a+b a+b 2b − a
= ,− + 0,
 3 3  3
a + b b − 2a
= ,
3 3
 
−1 a + b b − 2a
Logo, T (a + bx) = , .
3 3

Corolário 2.3 Se T : V → W é uma transformação invertı́vel (T é um isomorfismo) e α e


β são as bases de V e W , respectivamente, então T −1 : W → V é uma operação linear e

−1
[T −1 ]βα = [T ]αβ

Demostração: A matriz identidade [I]αα = [T −1 ◦ T ]αα = [T −1 ]βα [T ]αβ . 

Corolário 2.4 Seja T : V → W uma transformação invertı́vel e α e β são as bases de V e



W , respectivamente, então T é invertı́vel se e somente se det [T ]αβ 6= 0.

73
Exemplo 2.53 Seja T : V → W uma transformação linear dada por:
 
3 4
[T ]αα =  .
2 3
Verifique se T é invertı́vel e, se for, determine T −1 .
Solução: Note que det[T ]αα = 1, logo, pelo corolário 2.4, T é invertı́vel.
Pelo corolário 2.3, temos que:
−1  
3 4 3 −4
[T −1 ]αα = ([T ]αα )−1 =   = .
2 3 −2 3
      
x 3 −4 x 3x − 4y
Então [T −1 (x, y)]α = [T −1 ]αα   =    =   , ou seja
y −2 3 y −2x + 3y
−1
T = (3x − 4y, −2x + 3y).

Exemplo 2.54 Seja o operador linear em R2 definido por T (x, y) = (4x − 3y, −2x + 2y)
a) Mostrar que T é invertı́vel;
b) Determinar T −1 .
Solução:
a) Podemos escrever a matriz canônica da transformação T :
 
4 −3
[T ] =  .
−2 2
Note que det[T ] = 2, logo, pelo corolário 2.4, T é invertı́vel.
b) Pelo corolário 2.3, temos que:
 −1  3 
4 −3 1
[T −1 ] = [T ]−1 =   = 2 .
−2 2 1 2
   3    3y 
x 1 x x+
Então [T −1 (x, y)] = [T ]−1   =  2   =  2  , ou seja
y 1 2 y x + 2y
 
3y
T −1 (x, y) = x + , x + 2y .
2

2.9 Aplicações (em construção)

74
Capı́tulo 3

Produto Interno

Na geometria analı́tica, as propriedades métricas nos permitem determinar o ângulo ou


mesmo o comprimento de um vetor. Estes conceitos são determinados com base no pro-
duto escalar para o espaço Rn . O objetivo neste capı́tulo é estender estes conceitos, bem
como generalizar as noções de módulo e norma de um vetor do Rn para um espaço vetorial
qualquer.

Definição 3.1 Seja V um espaço vetorial sobre o corpo R. Uma aplicação

h·, ·i : V × V → R

que satisfaz as seguintes propriedades:

a) Simetria: hu, vi = hv, ui ∀u, v ∈ V

b) Positividade: hu, ui ≥ 0 ∀u ∈ V com hu, ui = 0 ⇔ u = 0V

c) Distributividade: hu + w, vi = hu, vi + hw, vi ∀u, v, w ∈ V

d) Homogeneidade: hαu, vi = α hu, vi ∀u, v ∈ V, α ∈ R

define um produto interno no espaço vetorial V .

Definição 3.2 Um espaço vetorial com produto interno, que denotamos por (V, h·, ·i) é um
espaço vetorial V sobre o corpo K com produto interno h·, ·i. Todo espaço munido de produto
interno é denominado Espaço Euclidiano.

75
Exemplo 3.1 Seja B = {e1 , · · · , en } a base canônica do espaço vetorial Rn . Todo elemento
v = (x1 , · · · , xn ) ∈ Rn é escrito de modo único da seguinte forma:
n
X
v= xi e i
i=1

Em muitas situações, associamos o elemento v ∈ Rn a uma matriz coluna X ∈ Mn×1 (R)


devido ao isomorfismo entre Rn e Mn×1 (R), ou seja,
 
x1
 .. 
 
X= . 
 
xn

Desse modo o produto interno usual do Rn que vamos denotar por h·, ·i, denominado produto
interno Euclidiano, pode ser escrito como:
n
X
hx, yi = xi yi = Y T X = Y T In X para todo x, y ∈ Rn
i=1

Exemplo 3.2 No espaço vetorial real Mn×n (R) o produto interno usual é definido da seguinte
forma:
n X
X n
T
hA, Bi = tr(B A) = aij bij ∀ A, B ∈ Mn×n (R)
i=1 j=1

Exemplo 3.3 Seja V o espaço vetorial das matrizes quadradas de ordem 2 com entradas
reais e o produto
 interno
 usual
 definido
 sobre este espaço, calcular o produto interno entre
1 −1 2 1
as matrizes:  e .
0 1 −1 1

Exemplo 3.4 Considere o espaço vetorial real C 1 ([a, b]). O produto interno usual é definido
da seguinte forma: Z b
hf, gi = f (x)g(x)dx ∀f, g ∈ C 1 ([a, b])
a

3.1 Matriz do Produto Interno


Definição 3.3 Sejam V um espaço vetorial de dimensão finita sobre os reais, munido do
produto interno h·, ·i e β = {v1 , v2 , · · · , vn } uma base ordenada de V . O produto interno pode
ser completamente descrito em termos da base β por meio do produto matricial a seguir:

hu, vi = [u]Tβ · A · [v]β

76
onde [u]β , [v]β ∈ Mn×1 (R) são matrizes de coordenadas dos elementos u e v em relação a
base ordenada β, respectivamente. A matriz A = [aij ] ∈ Mn×n (R) tem seus elementos dados
por:
aij = hvi , vj i ∀i, j = 1, · · · , n

a matriz A = [aij ] ∈ Mn×n (R) é denominada Matriz do Produto Interno relativa à


base ordenada β, definido sobre o espaço vetorial V . Com esta matriz é possı́vel obter o
produto interno entre quaisquer vetores do espaço V realizando apenas operações de produtos
matriciais, seja V um espaço qualquer (espaço de matrizes, espaço de polinômios, espaço de
funções ou mesmo o próprio espaço n-dimensional).

Exemplo 3.5 Os vetores u1 = (1, 1, 0), u2 = (1, 2, 3) e u3 = (1, 3, 5) formam uma base S
do espaço euclidiano R3 . Encontre a matriz A que representa o produto interno de R3 em
relação à base S.
Solução: Conforme definição 3.3, devemos calcular hui , uj i.
hu1 , u1 i = 1 + 1 + 0 = 2 hu1 , u2 i = 1 + 2 + 0 = 3 hu1 , u3 i = 1 + 3 + 0 = 4
hu2 , u1 i = hu1 , u2 i = 3 hu2 , u2 i = 1 + 4 + 9 = 14 hu2 , u3 i = 1 + 6 + 15 = 22
hu3 , u1 i = hu1 , u3 i = 4 hu3 , u2 i = hu2 , u3 i = 22 hu3 , u3 i = 1 + 9 + 25 = 35
 
2 3 4
 
Então A =  3 14 22 .
 
 
4 22 35
Exemplo 3.6 Considere o espaço vetorial real P2 (R) com o produto interno
Z1
hp, qi = p(x) · q(x)dx ∀p, q ∈ P2 (R)
0

Determinar a matriz A ∈ M3×3 (R) do produto interno relativa a base canônica do P2 (R).
Solução: Conforme definição 3.3, devemos calcular hui , uj i para os elementos da base
canônica ordenada de P2 (R), ou seja, {1, x, x2 }. Sejam u1 = 1, u2 = x e u3 = x2 . Então:
1 1
x2 1 x3 1
hu1 , u1 i = x|10 = 1 hu1 , u2 i = = hu1 , u3 i = =
2 0 2 3 0 3

1 1 1
x2 1 x3 1 x4 1
hu2 , u1 i = hu1 , u2 i = = hu2 , u2 i = = hu2 , u3 i = =
2 0 2 3 0 3 4 0 4

1 1 1
x3 1 x4 1 x5 1
hu3 , u1 i = hu1 , u3 i = = hu3 , u2 i = hu2 , u3 i = = hu3 , u3 i = =
3 0 3 4 0 4 5 0 5

77
 
1 1
1 2 3
 
Então A = 
 1 1 1 
2 3 4

 
1 1 1
3 4 5

Exemplo 3.7 Considerando o espaço vetorial real R2 munido com o produto interno usual
h·, ·i e com a base ordenada β = {(1, −1), (1, 1)}, calcular a matriz do produto interno rela-
tivamente à base ordenada β.
Solução: Conforme definição 3.3, devemos calcular hui , uj i.
hu1 , u1 i = 1 + 1 = 2 hu1 , u2 i = 1 − 1 = 0
hu2 , u1 i = hu1 , u2 i = 0 hu2 , u2 i = 1 + 1 = 2
 
2 0
Então A =  .
0 2

3.2 Desigualdade de Cauchy-Schwarz


Teorema 3.1 Seja V um espaço vetorial real munido do produto interno h·, ·i. Para todo
u, v ∈ V é válida a desigualdade

hu, vi2 ≤ hu, ui · hv, vi

além disso a igualdade é válida se, e somente se, os elementos u, v são linearmente depen-
dentes.

Exemplo 3.8 Considere o espaço vetorial real C 1 ([−1, 1]) com o produto interno usual de-
finido por Z b
hf, gi = f (x)g(x)dx ∀f, g ∈ C 1 ([−1, 1])
a

verifique que a desigualdade de Cauchy-Schwarz vale para os elementos f (x) = x2 e g(x) = x3 .

3.3 Norma de Vetores


Definição 3.4 (Norma) Seja V um espaço vetorial sobre um corpo K. Uma norma, ou
equivalentemente, o comprimento de um vetor v ∈ V é uma aplicação || · || que para cada
elemento v ∈ V associa um número real ||v||, que possui as seguintes propriedades:

(a) Positividade: ||u|| ≥ 0 para u 6= 0V , com ||u|| = 0 somente quando u = 0V .

78
(b) Homogeneidade: ||λv|| = |λ| · ||v|| para todo v ∈ V , λ ∈ K.

(c) Desigualdade Triangular: ||u + v|| ≤ ||u|| + ||v|| para todo par u, v ∈ V

Um espaço vetorial V munido de uma norma || · || é denominado espaço normado que


denotamos por (V, || · ||). Se ||v|| = 1, isto é, hv, vi = 1, v é chamado de vetor unitário.
Dizemos também, neste caso, que v está normalizado. É fácil mostrar ainda que todo vetor
v ∈ V pode ser normalizado, basta dividir v por sua norma.

Exemplo 3.9 No espaço vetorial real Rn , para um elemento x = (x1 , x2 , · · · , xn ), temos as


seguintes normas:

a) Norma do máximo: ||x||∞ = máx {|xi | ∀ 1 ≤ i ≤ n}, ou seja,

||x||∞ = máx {|x1 |, |x2 |, · · · , |xn |}.


n
X
b) Norma 1 ou norma do táxi: ||x||1 = |xi |, ou seja, ||x||1 = |x1 | + |x2 | + · · · + |xn |.
i=1
s n
X p
c) Norma 2 ou euclidiana: ||x||2 = x2i , ou seja, ||x||2 = x21 + x22 + · · · + x2n .
i=1

Verifica-se facilmente que as aplicações || · ||∞ , || · ||1 e || · ||2 satisfazem a Definição 3.4.
Para o vetor v = (−3, 4), temos:
||v||1 = | − 3| + |4| = 7
p
||v||2 = (−3)2 + 42 = 5
||v||∞ = máx{| − 3|, |4|} = 4

Exemplo 3.10 Considere o espaço vetorial Mn×n (R). A aplicação


( n )
X
||A||∞ = máx |aij | ∀ 1 ≤ i ≤ n
j=1

define uma norma no espaço Mn×n (R).

Exemplo 3.11 Considere o espaço vetorial Mn×n (R). A aplicação


( n )
X
||A||1 = máx |aij | ∀ 1 ≤ j ≤ n
i=1

define uma norma no espaço Mn×n (R).

79
Teorema 3.2 Seja V um espaço vetorial sobre o corpo K munido do produto interno h·, ·i.
A aplicação q(·) : V → R definida por
p
q(u) = hu, ui,

satisfaz as propriedades de norma e é denominada norma dois ou norma euclidiana. Repre-


sentamos por || · ||2 .

Exemplo 3.12 Considere o espaço vetorial real C 1 ([0, 1]) com o produto interno usual defi-
nido por Z 1
hf, gi = f (x)g(x)dx ∀f, g ∈ C 1 ([0, 1])
0

Sabendo que ||f ||2 define uma norma em C 1 ([0, 1]). Dada a função f (x) = cos(π · x), calcular
||f ||2 .

3.4 Ângulo entre Vetores


Definição 3.5 (Ângulo) Seja V um espaço vetorial real munido do produto interno h·, ·i.
O ângulo entre dois vetores não-nulos u, v ∈ V é definido como sendo o valor θ ∈ [0, π] que
satisfaz a equação:
hu, vi
cos(θ) =
||u||.||v||

Exemplo 3.13 Considere o espaço vetorial real P2 (R), de classe C 1 ([0, 1]), munido do pro-
duto interno usual. Determine o ângulo entre os os polinômios p(x) = x e q(x) = x2 .

Exemplo 3.14 Seja M2×2 (R) o espaço das matrizes quadradas de ordem 2 com entradas
reais e o produto interno dado pela expressão:
*     +
a b e f
  ,   = ae + 2bf + 3cg + dh
c d g h

a) Comprove que realmente é um produto interno, testando as propriedades.


   
1 −1 2 1
b) Calcular o ângulo entre as matrizes: e .
0 1 −1 1

80
3.5 Bases Ortogonais - Processo de Gram-Schmidt
Definição 3.6 (Ortogonalidade) Seja V um espaço vetorial com produto interno h·, ·i. Diz-
se que dois vetores u, v ∈ V são ortogonais em relação a este produto interno se hu, vi = 0.
Para o caso em que u e v são ortogonais escrevemos: u⊥v.

No caso particular em que V = R2 ou V = R3 , podemos visualizar a ortogonalidade entre


dois vetores geometricamente, ou seja, dois vetores ortogonais possuem um ângulo reto entre
si. Mas esta possibilidade nem sempre é visualizável geometricamente, por exemplo, não é
possı́vel dar uma representação da condição de ortogonalidade entre duas matrizes.

Teorema 3.3 Num espaço vetorial V munido do produto interno h·, ·i, temos as seguintes
propriedades:

a) 0V ⊥ v para todo v ∈ V .

b) u ⊥ v implica em v ⊥ u.

c) Se v ⊥ u para todo u ∈ V , então v = 0V .

d) Se v ⊥ w e u ⊥ w então (v + u) ⊥ w.

e) Se v ⊥ u e λ é um escalar, então λv ⊥ u.

Teorema 3.4 Seja {v1 , · · · , vn } um conjunto de vetores não nulos e ortogonais dois a dois
num espaço vetorial V munido do produto interno h·, ·i, isto é, hvi , vj i = 0 ∀i 6= j então
{v1 , · · · , vn } é LI.

Definição 3.7 Diz-se que uma base {v1 , · · · , vn } para um espaço vetorial V munido de pro-
duto interno h·, ·i é uma base ortogonal se hvi , vj i = 0 sempre que i 6= j, isto é, os vetores da
base são ortogonais dois a dois.

Seguindo as Definições 3.6 e 3.7 e o Teorema 3.4, se obtivermos um conjunto de n vetores


dois a dois ortogonais num espaço de dimensão n, este conjunto será uma base ortogonal.
É fácil concluir que ao manipular o espaço R3 , em geral é mais simples adotar a base
canônica. Isso se deve em grande parte à caracterı́stica de que estes vetores são dois a dois
ortogonais. A conveniência de bases desse tipo se mantém para espaços vetoriais quaisquer.

81
Teorema 3.5 (Teorema de Pitágoras) Sejam V um espaço vetorial real munido do pro-
duto interno h·, ·i e || · ||2 a norma proveniente deste produto interno. Então, os elementos
u, v ∈ V são ortogonais somente quando é valida a igualdade:

||u + v||22 = ||u||22 + ||v||22

Teorema 3.6 (Lei dos Cossenos) Sejam V um espaço vetorial real munido do produto
interno h·, ·i e || · ||2 a norma proveniente deste produto interno e os elementos u, v ∈ V não
nulos. Se θ é o ângulo entre u e v, então:

||u ± v||22 = ||u||22 + ||v||22 ± 2||u||2 · ||v||2 · cos(θ)

Teorema 3.7 Sendo dada uma base β = {v1 , v2 , · · · , vn } para o espaço vetorial V , é possı́vel
0  0 0 0 0 0
obter uma base β = v1 , v2 , · · · , vn de forma que vi , vj = 0 para todo i 6= j, ou seja, de
0
forma que a base β seja ortogonal. O processo de construção desta base ortogonal recebe o
nome de Processo de Ortogonalização de Gram-Schmidt e é obtido seguindo os passos abaixo:

0
1) Faça v1 = v1
0
0 v2 , v 0
2) Faça v2 = v2 − 0 10 · v1
v1 , v1
0 0
0 v3 , v 0 v3 , v 0
3) Faça v3 = v3 − 0 20 · v2 − 0 10 · v1
v2 , v2 v1 , v1
.. ..
. .
0 0 0
0 vn , vn−1 0 vn , v 0 vn , v 0
n) Faça vn = vn − 0 0 · vn−1 − · · · − 0 02 · v2 − 0 01 · v1
vn−1 , vn−1 v2 , v2 v1 , v1

Sendo dada uma base β = {v1 , v2 , · · · , vn } para o espaço vetorial V , é possı́vel obter uma
base ortonormal para V, ou seja, uma base ortogonal e normal ao mesmo tempo.
0  0 0 0
Para isto basta tomar a base β = v1 , v2 , · · · , vn obtida pelo Processo de Ortogonalização
0 0
de Gram-Schmidt e normalizar cada vetor vi ∈ β .

Exemplo 3.15 Seja β = {(1, 1, 1), (0, 2, 1), (0, 0, 1)} uma base para R3 . Utilizando o Pro-
0
cesso de Gram-Schmidt, à partir de β, determine uma base β que seja ortogonal, na sequência
0
transforme β numa base ortonormal para R3 .

82
Exemplo 3.16 Considere o espaço vetorial P3 (R) munido do produto interno
Z 1
hp, qi = p(x)q(x)dx.
−1

Obter a partir da base β = {1, x, x2 , x3 } uma base ortogonal utilizando o Processo de


Gram-Schmidt.

Teorema 3.8 Todo espaço espaço vetorial de dimensão finita munido de um produto interno
possui uma base ortonormal.

3.6 Complemento Ortogonal


Definição 3.8 Seja V um espaço vetorial munido do produto interno h·, ·i e S um conjunto
não vazio de elementos de V . O conjunto S ⊥ definido por:

S ⊥ = {u ∈ V | hu, vi = 0 para todo v ∈ S}

é denominado ”S perpendicular”. No caso em que S é um subespaço vetorial de V , o conjunto


S ⊥ é denominado complemento ortogonal de S em V .

Teorema 3.9 O conjunto S ⊥ é um subespaço de V , mesmo que S não o seja. Além disso,
tem-se que S ∩ S ⊥ = {0V } para o caso em que S é um subespaço de V.

Teorema 3.10 Sejam V um espaço vetorial de dimensão finita munido de produto interno
h·, ·i, U e W subespaços vetoriais de V . Então:

(U + W )⊥ = U ⊥ ∩ W ⊥

Teorema 3.11 Sejam V um espaço vetorial munido do produto interno h·, ·i, W um su-
bespaço de V e β = {w1 , w2 , · · · , wn } uma base para W . Então, v ∈ W ⊥ se, e somente se,
hwi , vi = 0 para todo i = 1, 2, · · · , n.

Exemplo 3.17 Considere o espaço vetorial real R4 munido do produto interno usual. Seja
W o subespaço de R4 dado por: W = [(1, 0, 1, 1), (1, 1, 0, 1)]. Determine uma base para o
espaço W ⊥ .

83
Exemplo 3.18 Considere o espaço vetorial

U = {p(x) ∈ P3 (R) | p(−1) = p(1) = 0}

com o produto interno


Z1
0 0
hp, qi = p (x)q (x)dx ∀p, q ∈ U
−1

determine uma base para o complemento ortogonal do subespaço S = [1 − x2 ] em U com


relação ao produto interno h·, ·i definido acima.

3.7 Operadores Auto-Adjuntos e Ortogonais


Nesta seção vamos estudar dois tipos especiais de operadores. Estes operadores são impor-
tantes, não apenas devido as propriedades interessantes que possuem, mas também por serem
os que mais aparecem em aplicações práticas e, sendo assim, merecem um estudo um pouco
mais apurado.

Definição 3.9 Seja A ∈ Mn×n (R) e AT sua transposta.

a) Se A = AT , dizemos que A é uma matriz simétrica.

b) Se A · AT = AT · A = I, ou seja, a inversa de A é a matriz AT , dizemos que A é uma


matriz ortogonal.

Teorema 3.12 Uma matriz A ∈ Mn×n é ortogonal se, e somente se, tanto suas colunas
quanto suas linhas formam conjuntos ortogonais de vetores do espaço Rn .

Teorema 3.13 Se V é um espaço vetorial com produto interno e α e β são bases ortonormais
de V , então a matriz de mudança de base [P ]αβ é uma matriz ortogonal.

Teorema 3.14 (Operador Auto-Adjunto e Operador Ortogonal) Seja V um espaço


vetorial com produto interno h·, ·i e α uma base ortonormal para V , além do que T : V → V
é um operador linear. Então:

i) T é um operador auto-adjunto, ou seja, simétrico se [T ]αα é uma matriz simétrica.

ii) T é um operador ortogonal se [T ]αα é uma matriz ortogonal.

84
Vale ressaltar que para o caso de um operador ser auto-adjunto ou ortogonal para uma
dada base α o torna bem definido como auto-adjunto ou ortogonal, o que quer dizer que para
qualquer outra base ortonormal, o operador T será ortogonal ou auto-adjunto, conforme o
caso.

Exemplo 3.19 Considere o espaço vetorial real R3 com o produto interno usual e o operador
linear T sobre o R3 definido por T (x, y, z) = (x + 2y, 2x + 3y − z, −y + 2z). Mostre que T é
um operador auto-adjunto.

Teorema 3.15 Seja V um espaço vetorial real com o produto interno h·, ·i e α = {v1 , v2 , · · · , vn }
uma base ortonormal para V e T um operador linear sobre V . A matriz [T ]αα do operador
linear T com relação a base ortonormal α é dada por aij = hT (vj ), vi i

85
Capı́tulo 4

Autovalores e Autovetores

4.1 Descrição Inicial


Neste capı́tulo vamos estudar a teoria necessária para elucidar o seguinte problema: Dada
uma transformação linear T : V → V , ou equivalentemente, um operador linear sobre V ,
quais vetores não nulos são levados em um múltiplo de si mesmo? Isto é, procuramos um
vetor v ∈ V e um escalar λ ∈ R tais que T (v) = λv.
Não só a resposta a esta pergunta, como também a própria pergunta, nos parecem sem
propósito e de rara utilidade quando respondida. Esta leitura do problema em questão é
demasiadamente equivocada e, conforme veremos em discussões futuras, existe uma gama de
aplicações reais e mesmo teóricas que são associadas ao problema apresentado.

Definição 4.1 Seja T : V → V um operador linear. Se existirem v ∈ V , com v 6= 0V e


λ ∈ R tais que T (v) = λv, diremos que λ é um autovalor de T e v um autovetor
associado ao autovalor λ.

Vale salientar que, pela Definição 4.1, λ = 0 é um possı́vel autovalor, contudo v = 0V


não nos interessa. Para melhor entendimento da definição apresentada vamos discutir alguns
exemplos.

86
4.2 Alguns Exemplos
Exemplo 4.1 Para a transformação T : R2 → R2 dada por
   
2 0 x
T (x, y) =  · 
0 2 y

é fácil notar que um possı́vel autovalor de T é λ = 2 e que todo vetor v = (x, y) ∈ R2 é um


autovetor associado ao autovalor λ = 2. É evidente que a conclusão está precisa, afinal, T é
uma expansão de duas unidades sobre cada elemento do R2 , conforme vimos em discussões
anteriores.


Exemplo 4.2 Uma transformação que representa uma rotação de 90 em torno da origem
é dada por    
0 −1 x
T (x, y) =  · 
1 0 y
Notemos que nenhum vetor diferente do vetor nulo é levado em um múltiplo de si mesmo, já
que se trata de uma rotação. Assim, T não deve possuir autovalores nem autovetores

Exemplo 4.3 Dado o operador linear


   
2 2 x
T (x, y) =  · 
0 1 y

determinar os autovetores e autovalores de T .


Solução: Temos T (x, y) = (2x + 2y, y). Para procurarmos os autovalores e autovetores
devemos analisar o que segue:
T (v) = λv, ou seja, T (x, y) = (2x + 2y, y) = λ(x, y). Disto obtemos o sistema:

 2x + 2y = λx
 y = λy
Obtemos y(1 − λ) = 0. Sendo assim, temos os seguintes caso:

(i) Se y 6= 0 e λ = 1, obetemos que x = −2y, ou seja, y = − x2 . Temos autovetores do tipo


x, − x2 , associado ao autovalor λ = 1, ou ainda, T x, − x2 = 1 · x, − x2 .
  

87
(ii) Se y = 0 e x 6= 0 (pois v 6= 0V - definição 4.1), obetemos que 2x = λx, ou seja, λ = 2,
outro autovalor. Qualquer autovetor não, nulo do tipo (x, 0) (sobre o eixo X) é levado
em vetores de mesma direção, ou seja T (x, 0) = (2x, 0) ou T (x, 0) = 2 (x, 0).

Em resumo, para T , os vetores do tipo x, − x2 , x 6= 0 associados ao autovalor λ = 1 e




autovetores do tipo (x, 0), x 6= 0, associados ao autovalor λ = 2.

4.3 Outros Resultados e Definições


Teorema 4.1 Dada uma transformação T : V → V e um autovetor v associado a um
autovalor λ, qualquer vetor w = αv(α 6= 0) também é autovetor de T associado a λ.

Definição 4.2 Sejam V um espaço vetorial sobre o corpo K e T : V → V um operador


linear. Fixando um autovalor λ do operador T , o subconjunto

Vλ = {v ∈ V | T (v) = λv}

é denominado subespaço associado ao autovalor λ, também chamado de autoespaço.

Teorema 4.2 Seja A uma matriz associada ao operador linear T . Os autovetores e autova-
lores satisfazem a equação
(A − λI)v = 0V

Corolário 4.1 Seja A uma matriz de ordem n associada ao operador linear T , o escalar λ
é um autovalor de A se, e somente se,

det(A − λIn ) = 0

Exemplo 4.4 Seja T (x, y, z) = (2x + y + z, 2x + 3y + 4z, −x − y − 2z) um operador linear


sobre o R3 , determine seus autovalores. Na sequência determine os autovetores associados a
cada autovalor de T .
Solução: Seja β a base canônica do R3 . A matriz A = [T ]ββ , matriz de T na base β, tal
que, pelo corolário 4.1, temos:

p(λ) = det(A − λI) = 0

88
 
2 1 1
 
Como A =  2 , então
 
3 4
 
−1 −1 −2
2−λ 1 1
p(λ) = det(A − λI) = 2 3−λ 4 =0
−1 −1 −2 − λ

(2−λ)(3−λ)(−2−λ)−4−2+(3−λ)+4(2−λ)−2(−2−λ)−λ3 +3λ2 +4λ−12−6+3−λ+8−4λ+4+2λ = 0

λ3 − 3λ2 + λ − 3 = 0 (1)

O que nos fornece λ1 = 1, λ2 = −1 e λ3 = 3, os autovalores de T (e da matriz A).


Agora vamos determinar os autovetores v = (x, y, z):
Para λ1 = 1 temos:
     
2 1 1 x x
     
· y =1· y 
     
 2 3 4
     
−1 −1 −2 z z
o que é equivalente ao sistema homogêneo



 x + y + z = 0

2x + 2y + 4z = 0 que adimite soluções próprias da forma y = −x e z = 0


 −x − y − 3z = 0

Então temos o autovetor v1 = (x, −x, 0) = x(1, −1, 0) associado ao autovalor λ = 1.


Para λ2 = −1 temos (note que podemos usar a matriz (A − λI)):
   
2+1 1 1 3 1 1
   
(A − λI) =  = 2
   
2 3+1 4 4 4 
   
−1 −1 −2 + 1 −1 −1 −1
Podemos obter o autovetor:
     
3 1 1 x 0
     
· y = 0 
     
 2 4 4
     
−1 −1 −1 z 0

89
o que é equivalente ao sistema homogêneo



 3x + y + z = 0

2x + 4y + 4z = 0 que adimite soluções próprias da forma z = −y e x = 0


 −x − y − z = 0

Então temos o autovetor v2 = (0, y, −y) = y(0, 1, −1) associado ao autovalor λ = −1.
Para λ3 = 3 temos:
   
2−3 1 1 −1 1 1
   
(A − λI) =  3−3 = 2
   
2 4 0 4 
   
−1 −1 −2 − 3 −1 −1 −5
Podemos obter o autovetor:
     
−1 1 1 x 0
     
· y = 0 
     
 2 0 4
     
−1 −1 −5 z 0

o que é equivalente ao sistema homogêneo





 −1x + y + z = 0

2x + 4z = 0 que adimite soluções próprias da forma y = −3z e x = −2z


 −x − y − 5z = 0

Então temos o autovetor v3 = (−2z, −3z, z) = z(−2, −3, 1) associado ao autovalor λ = 3.


Para compor a matriz A, podemos escrever os autovetores em coluna, ou seja,
     
1 0 −2
     
v1 =  −1  , v2 =  1  e v3 =  −3 
     
     
0 −1 1

Definição 4.3 Seja V um espaço vetorial de dimensão finita sobre um corpo K e T um ope-
rador linear sobre V . Definimos o polinômio caracterı́stico de T como sendo o polinômio
caracterı́stico da matriz [T ]ββ em relação a qualquer base ordenada β de V (veja o polinômio
1 do exemplo 4.4).

90
Teorema 4.3 Sejam V um espaço vetorial de dimensão finita sobre o corpo R, sendo dim(V ) =
n e T um operador linear sobre V . Então os autovalores do operador T são os mesmos esca-
lares λ ∈ R que são raı́zes do polinômio caracterı́stico da matriz [T ]ββ em relação a qualquer
base ordenada β de V .

Definição 4.4 Sejam A, D ∈ Mn×n (R). Dizemos que a matriz D é similar ou semelhante
a matriz A, se existe uma matriz invertı́vel P ∈ Mn×n (R) de maneira que

A = P · D · P −1 ou D = P −1 · A · P.

Teorema 4.4 Matrizes similares possuem o mesmo polinômio caracterı́stico.

O Teorema 4.4 nos permite usar qualquer base β para construir a matriz que representa o
operador linear T e, à partir desta matriz, determinar o polinômio caracterı́stico que auxilia
na obtenção dos autovalores de T . Para isso vamos usar o seguinte resultado.

Teorema 4.5 Sejam V um espaço vetorial de dimensão finita sobre o corpo K, T um ope-
rador linear sobre V , β e α bases ordenadas de V . Então,

[T ]ββ = [P ]αβ · [T ]αα · [P ]βα

Corolário 4.2 Sejam V um espaço vetorial de dimensão finita sobre o corpo K, T um ope-
rador linear sobre V , β e α bases ordenadas de V . Então,
 
det [T ]ββ = det ([T ]αα )

Teorema 4.6 Seja V um espaço vetorial de dimensão finita sobre o corpo K e T um operador
linear sobre V . Então, T é invertı́vel se, e somente se, det(T ) 6= 0

Exemplo 4.5 Verifique se as matrizes


   
5 2 1 2
A=  e D= 
−8 −3 0 1

são semelhantes.
Solução: Devemos encontrar uma matriz P invetı́vel, tal que D = P −1 · A · P , ou seja,
multiplicando à esquerda por P , temos P · D = P · P −1 · A · P , o que resulta em:

P ·D =A·P

91
 
x y
tomando P =  , assim
z t
       
x y 1 2 5 2 x y
 · = · 
z t 0 1 −8 −3 z t
o que é equivalente ao sistema homogêneo

 −4x

 − 2z = 0


 2x − 4y

− 2t = 0


 8x 4z = 0



 8y + 2z + 4t = 0

Este sistema admite, além da solução trivial, soluções próprias, da forma z = −2x e
t = x − 2y.
Podemos  solução (1, 1, −2, −1), logo:
 obter uma
1 1
P = , que satisfaz D = P −1 · A · P .
−2 −1

Exemplo 4.6 Dado o espaço vetorial P2 (R) e o operador linear T sobre P2 (R) definido por:
T (p(x)) = p(x) + x · p0 (x). Considerando a base canônica para o P2 (R), verifique se T é
invertı́vel.
Solução: Seja p(x) = a+bx+cx2 ∈ P2 (R) e considerando a base canônica β = {1, x, x2 }
de P2 (R), temos:
T (p(x)) = p(x) + x · p0 (x)
,
= a + 2bx + 3cx2
de β temos p1 (x) = 1, p2 (x) = x e p3 (x) = x2 (x). Aplicando T :

T (p1 (x)) = 1 + 0x + 0x2


T (p2 (x)) = 0 + 2x + 0x2
T (p3 (x)) = 0 + 0x + 3x2
obtemos:  
1 0 0
 
[T ]ββ =  0 2 0
 

 
0 0 3
 
Como det[T ] = det [T ]ββ = 1 · 2 · 3 = 6 6= 0, pelo teorema 4.6, T é invertı́vel.

92
Capı́tulo 5

Diagonalização de Operadores

Em capı́tulos anteriores discutimos o fato de que uma transformação linear pode ser repre-
sentada por um produto matricial, ou seja, para qualquer T é sempre possı́vel obter uma
matriz A, tal que T (v) = A · v, ∀v ∈ V . A matriz A não é única e está vinculada às
bases que escolhemos pare representar v e T (v). Neste capı́tulo, discutiremos as condições
necessárias para que, dado um operador linear T : V → V e escolhidas bases apropriadas
para V e Im(T ), a matriz A que representa T seja diagonal, o que facilita na manipulação
dos vetores do espaço e suas respetivas imagens.
Salientamos que a forma mais simples de representar o operador T por uma matriz é
escolher bases de forma que a matriz seja diagonal. A solução para este problema de diago-
nalização de operadores lineares também nos remete naturalmente ao conceito de autovalores
e autovetores apresentados anteriormente.

5.1 Definições e Teoremas


Dado um operador linear T : V → V , nosso objetivo é obter, se possı́vel, uma base β de V
na qual a matriz [T ]αα seja uma matriz diagonal. O resultado a seguir caracterizará tais bases
associadas ao operador linear que se quer diagonalizar.

Proposição 5.1 Seja T : V → V um operador linear e sejam λ1 , λ2 , · · · , λn autovalores


distintos de T . Se v1 , v2 , · · · , vn são autovetores associados a λ1 , λ2 , · · · , λn , então respecti-
vamente, então {v1 , v2 , · · · , vn } é linearmente independente.

93
Corolário 5.1 Seja T : V → V um operador linear. Se dim(V ) = n e T possui n autovalores
distintos, então V possui uma base formada por autovetores de T .

Teorema 5.1 Um operador linear T : V → V admite uma base β em relacão a qual a matriz
[T ]ββ é diagonal se,e somente se, essa base β for formada por autovetores de T .

Corolário 5.2 Sejam V um espaço vetorial de dimensão finita sobre o corpo K, digamos
que dim(V ) = n e T um operador linear sobre V que possui n autovalores distintos. Então,
T é um operador diagonalizável.

Em resumo:

i) Se T tem uma representação por uma matriz diagonal [T ]ββ , então as entradas da diagonal
principal de [T ]ββ são dadas pelos autovalores de T ;

ii) A ordem em que os autovalores aparecem na diagonal principal da matriz é a mesma em


que seus respectivos autovetores são dados na base β;

iii) T é diagonalizável se, e somente se, T tem n autovetores linearmente independentes, em


particular, se T tem n autovalores distintos.

Teorema 5.2 Uma matriz A ∈ Mn (R) é diagonalizável se, e somente se, existe uma matriz
P , invertı́vel de ordem n, tal que D = P −1 AP é uma matriz diagonal.
Demostração: Tomemos β : {v1 , v2 , · · · , vn }, base formada de autovetores onde vj é o
vetor da j-ésima coluna de P . Seja α a base canônica de Rn . Pelo teorema 4.5, temos

[TA ]ββ = [P ]αβ · [TA ]αα [P ]βα ,

ou seja,
[T ]ββ = P −1 · A · P

Como β é formada pelos autovetores de T e P −1 · A · P é uma matriz diagonal, seque que


[TA ]ββ é uma matriz diagonal, portanto TA é diagonalizável, logo A também o é. 

Exemplo 5.1 Considere o espaço vetorial real R2 . Dado o operador linear T sobre R2
definido por T (x, y) = (4x − y, 2x + y). Responda:

a) Calcule os autovalores de T e uma base para cada subespaço de autovetores associados.

94
b) Mostre que o conjunto formado pela união das bases do item a) forma uma base para o
espaço vetorial R2 .

c) Mostre que a matriz diagonal contendo os autovalores de T o representa se escolhermos


a base do item b), ou seja, [T ]ββ é semelhante a matriz [T ]αα sendo α a base canônica e β
a base de autovetores do item b).

Solução:

a) Seja B a base canônica do R2 . A matriz A = [T ]B


B , matriz de T na base B, tal que, pelo

corolário 4.1, temos:

p(λ) = det(A − λI) = 0


 
4 −1
Como A =  , então
2 1

4−λ −1
p(λ) = det(A − λI) = =0
2 1−λ
(4 − λ)(1 − λ) − 2 · (−1) = 0

λ2 − 5λ + 6 = 0 (1)

O que nos fornece λ1 = 2 e λ2 = 3, os autovalores de T (e da matriz A).

Agora vamos determinar os autovetores v = (x, y):

Para λ1 = 2 temos:

     
2 −1 x 0
 · = 
2 −1 y 0

o que é equivalente ao sistema homogêneo



 2x − y = 0
que adimite soluções próprias da forma y = 2x
 2x − y = 0

Então temos o autovetor v1 = (x, 2x) = x(1, 2) associado ao autovalor λ1 = 2.

95
Para λ2 = 3 temos:

     
1 −1 x 0
 · = 
2 −2 y 0
o que é equivalente ao sistema homogêneo

 x − y = 0
que adimite soluções próprias da forma x = y
 2x − 2y = 0

Então temos o autovetor v2 = (x, x) = x(1, 1) associado ao autovalor λ2 = 3.

Associado a λ1 = 2, temos a base {(1, 2)} e associado a λ2 = 3, temos a base {(1, 1)}.

b) Veja que o conjunto formado pela união das duas bases acima, ou seja, β = {(1, 2), (1, 1)},
gera o R2 e, também, é linearmente independente (verifique!;-), sendo assim, é uma base
do R2 (de autovetores associados a autovalores distintos).

c) Como o conjunto β = {(1, 2), (1, 1)} é uma base do R2 , podemos obter a matriz de T
nesta base, de modo que seja diagonal, dada pelos autovalores determinados
 em a), ou
2 0 1 1
seja, [T ]ββ = D =  . A matriz P , dada pelos autovetores será P =  , cuja
0 3 2 1
 
−1 1
inversa é P −1 =  , logo, pelo teorema 5.2, temos:
2 −1
       
1 1 2 0 −1 1 4 −1
A = P DP −1 =  · · = ,
2 1 0 3 2 −1 2 1
ou, ainda,

       
−1 1 4 −1 1 1 2 0
D = P −1 AP =  · · = .
2 −1 2 1 2 1 0 3

Nos levando a concluir que [T ]ββ = D é semelhante a matriz [T ]αα = A.

Exemplo 5.2 Considere o espaço vetorial real R3 . Dado o operador linear T sobre R3 defi-
nido por T (x, y, z) = (3x−4z, 3y +5z, −z). Mostre que T é um operador linear diagonalizável
e determine uma base ordenada β para R3 , tal que [T ]ββ seja uma matriz diagonal.

96
Solução: Seja a matriz canônica de T , A = [T ], dada por:
 
3 0 −4
 
A= 0 3 5 , então, pelo corolário 4.1, temos:
 
 
0 0 −1

p(λ) = det(A − λI) = 0

Como

3−λ 0 −4
p(λ) = det(A − λI) = 0 3−λ 5 =0
0 0 −1 − λ

−(1 + λ)(3 − λ)(3 − λ) = −(1 + λ)(3 − λ)2 = 0

O que nos fornece λ1 = −1 e λ2 = λ3 = 3, os autovalores de T (e da matriz A).


Agora vamos determinar os autovetores v = (x, y, z):
Para λ1 = −1 temos:
     
4 0 −4 x 0
     
 0 4 5 · y = 0 
     
     
0 0 0 z 0
o que é equivalente ao sistema homogêneo

 4x − 4z = 0 5z
que adimite soluções próprias da forma x = z e y = −
 4y + 5z = 0 4

Então temos o autovetor v1 = z, − 5z


 z
4
, z = 4 (4, −5, 4) associado ao autovalor λ1 = −1.
Para λ2 = λ3 = 3 temos:
     
0 0 −4 x 0
     
· y = 0 
     
 0 0 5
     
0 0 −4 z 0
o que nos fornece z = 0.
Então temos os autovetores da forma v = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0) associados aos
autovalores λ2 = λ3 = 3. Assim, obtemos os vetores v2 = (1, 0, 0) e v3 = (0, 1, 0).

97
A matriz
 P , dadapelos autovetores será:  
4 1 0 0 0 41
   
P =  −5 0 1 , cuja inversa é P −1 =  1 0 −1 
   
   
5
4 0 0 0 1 4
Portanto, a matriz A = [T ] é diagonalizável, pois
     
1
4 1 0 −1 0 0 0 0 4
     
A =  −5 0 1  ·  0 3 0  ·  1 0 −1  .
     
     
5
4 0 0 0 0 3 0 1 4
Nos levando a concluir que T é diagonalizável.
Sendo assim, podemos obter uma base β para o R3 dada pelos autovetores de T , dada
por β = {(4, −5, 4), (1, 0, 0), (0, 1, 0)}, de modo que [T ]ββ seja uma matriz diagonal dada pelos
autovalores de T .

Exemplo 5.3 Considere o operador linear T sobre P2 (R) definido por:

T (p(x)) = (1 + x)p0 (x) + p00 (x)

Determine uma base ordenada β para P2 (R) tal que [T ]ββ seja uma matriz diagonal.
Solução: para p(x) = a + bx + cx2 ∈ P2 (R), temos que:

T (p(x)) = (1 + x)(b + 2cx) + 2c

T (p(x)) = b(1 + x) + c(2 + 2x + 2x2 ),

então, a matriz canônica de T , A = [T ]B 2


B , sendo B = {1, x, x }, é dada por:

 
0 1 2
 
A= 0 1 2 , então, pelo corolário 4.1, temos:
 
 
0 0 2

p(λ) = det(A − λI) = 0

Como

−λ 1 2
p(λ) = det(A − λI) = 0 1−λ 2 =0
0 0 2−λ

98
−λ(1 − λ)(2 − λ) = 0

O que nos fornece λ1 = 0, λ2 = 1 e λ3 = 2, os autovalores de T (e da matriz A).


Agora vamos determinar os autovetores v = (x, y, z):
Para λ1 = 0 temos:
     
0 1 2 x 0
     
· y = 0 
     
 0 1 2
     
0 0 2 z 0
o que nos fornce y = 0 e z = 0.
Então temos o autovetor v1 = (x, 0, 0) = x(1, 0, 0) associado ao autovalor λ1 = 0. Assim,
obtemos o vetor v1 = (1, 0, 0).
Para λ2 = 1 temos:
     
−1 1 2 x 0
     
0 2 · y = 0 
     
 0
     
0 0 1 z 0
o que nos fornece x − y = 0 e z = 0, ou seja, x = y e z = 0.
Então temos o autovetor da forma v = (x, x, 0) = x(1, 1, 0) associado aos autovalor
λ2 = 1. Assim, obtemos o vetor v2 = (1, 1, 0).
Para λ3 = 2 temos:
     
−2 1 2 x 0
     
−1 2  ·  y  =  0 
     
 0
     
0 0 0 z 0


 2x − y − 2z = 0
que adimite soluções próprias da forma x = 2z e y = 2z
 y − 2z = 0

Então temos o autovetor da forma v = (2z, 2z, z) = z(2, 2, 1) associado aos autovalor
λ3 = 2. Assim, obtemos o vetor v3 = (2, 2, 1).
A matriz P , dada pelos autovetores será:

99
   
1 1 2 1 −1 2
   
−1
P =  0 1 2 , cuja inversa é P =  0 1 −2 
   
   
0 0 1 0 0 1
Portanto, a matriz A = [T ] é diagonalizável, pois
     
1 1 2 0 0 0 1 −1 2
     
A= 0 1 2 · 0 1 0  ·  0 1 −2  .
     
     
0 0 1 0 0 2 0 0 1
Nos levando a concluir que T é diagonalizável.
Sendo assim, podemos obter uma base β para o P2 (R) dada pelos autovetores de T , dada
por β = {p1 (x), p2 (x), p3 (x)} obtidos de v1 , v2 e v3 , ou seja, p1 (x) = 1, p2 (x) = 1 + x e
p3 (x) = 2 + 2x + x2 .

Teorema 5.3 Se A ∈ Mn (R) é simétrica, então existe uma matriz ortogonal Q ∈ Mn (R),
tal que D = QT AQ é diagonal (QQT = QT Q = I, ou seja, QT = Q−1 ).

Teorema 5.4 Se A ∈ Mn (R) é simétrica, então autovetores de autoespaços diferentes são


ortogonais.

Quando existe uma matriz ortogonal Q ∈ Mn (R), tal que D = QT AQ é di-


agonal, dizemos que A é ortogonalmente diagonalizável e que Q diagonaliza A
ortogonalmente.
 
2 −2
Exemplo 5.4 Para a matriz A =   determine uma matriz Q que diagonaliza A
−2 5
ortonornalmente.
Solução: Para A, temos os autovalores λ1 = 1 e λ2 = 6 e os autovetores v1 = (2, 1) e
v2 = (1, −2), associados aos autovalores λ1 e λ2 , respectivamente.
Note que hv1 , v2 i = 0, logo v1 ⊥ v2 (confirma teorema 5.4).

Calculando
 suas normas,
  ||v1 || = ||v
temos  2 || = 5. Obtemos, assim, os vetores norma-
2 1 1 2
lizados u01 = √ , √ e u02 = √ , − √ .
5 5 5 5  
√2 √1
5 5
Sendo assim, a matriz Q é dada por Q =  .
√1 − 25

5

100
       
√2 √1 1 0 √2 √1 2 −2
5 5 5 5
Note que QDQT =  · · = =A
√1 − 25
√ 0 6 √1 − 25
√ −2 5
5 5

 
4 2 2
 
Exemplo 5.5 Para a matriz A =  2 4 2  determine uma matriz Q que diagonaliza A
 
 
2 2 4
ortonornalmente.
Solução: Para A, temos os autovalores λ1 = 8 e λ2 = λ3 = 2 e os autovetores
v1 = (1, 1, 1), v2 = (−1, 1, 0) e v3 = (−1, 0, 1), associados aos autovalores λ1 , λ2 e λ3 ,
respectivamente.
Note que v1 ⊥ v2 , pois < v1 , v2 >= 0, mas v2 e v3 não são ortogonais, pois são associados à
um mesmo autovalor, portanto, devemos usar o processo de Gram-Schmidt de ortogonalização
para v3 :
hv3 , v 0 i hv3 , v 0 i
 
1 1 1
v30 = v3 − 0 20 · v20 − 0 10 · v10 = (−1, 0, 1) − (−1, 1, 0) − 0 = − ,− ,1
hv2 , v2 i hv1 , v1 i 2 2 2

v30 = − 12 (−1, −1, 2), ou v30 = (−1, −1, 2)


√ √ √
Calculando suas normas, temos ||v1 || = 3, ||v2 || = 2 e ||v3 ||= 6.  
0 1 1 1 0 1 1
Obtemos, assim, os vetores normalizados u1 = √ , √ , √ , u2 = − √ , √ , 0 e
  3 3 3 2 2
1 1 2
u03 = − √ , − √ , √ .
6 6 6  
√1 1
− 2 − 6
√ √ 1
 3 
 1 1 1
Sendo assim, a matriz Q é dada por Q =  √ − √ − √ .

 3 2 6 
√1 0 √2
3 6

Note que
       
√1 − √12 − √16 8 0 0 √1 √1 √1 4 2 2
 3     3 3 3   
T
QDQ =  √1 − √12 − √16 · 0 2 0 · − 12 − 12 0 = 2 4 2 =A
       
√ √
 3       
1 √2

3
0 6
0 0 2 − √16 − √16 √2
6
2 2 4

5.2 Aplicação em Produtos Matriciais


Considere o problema de obter a potência Ak de uma dada matriz A ∈ Mn×n (R). Ao
utilizar uma abordagem mı́ope deve-se resolver exatamente k − 1 produtos, enquanto que

101
uma estratégia mais acertiva pode reduzir o número de produtos requeridos, por exemplo,
abaixo estão representadas as duas estratégias com k − 1 produtos no primeiro caso e log2 k
produtos para o segundo caso:

A8 = (((A · A)2 )2 ) estratégio que requer 3 produtos

A8 = A · A · A · A · A · A · A · A estratégio que requer 7 produtos

Para matrizes diagonalizáveis, é possı́vel otimizar este processo combinando a Definição


4.4 e o Teorema 5.5, conforme segue.

Teorema 5.5 Sejam A, B ∈ Mn×n (R) matrizes semelhantes, existe uma matriz P invertı́vel
tal que é válida a relação A = P · B · P −1 com B uma matriz diagonal. Desta forma,
Ak = P · B k · P −1 .

Exemplo
 5.6 Determine
 A5 para a matriz
3 0 −4
 
A= 0 3 5 
 
 
0 0 −1

102

Você também pode gostar