Você está na página 1de 73

FUNDAMENTOS DE ÁLGEBRA

INTRODUÇÃO

Prezado aluno,

O Grupo Educacional FAVENI, esclarece que o material virtual é semelhante ao


da sala de aula presencial. Em uma sala de aula, é raro – quase improvável - um aluno
se levantar, interromper a exposição, dirigir-se ao professor e fazer uma pergunta,
para que seja esclarecida uma dúvida sobre o tema tratado. O comum é que esse
aluno faça a pergunta em voz alta para todos ouvirem e todos ouvirão a resposta. No
espaço virtual, é a mesma coisa. Não hesite em perguntar, as perguntas poderão ser
direcionadas ao protocolo de atendimento que serão respondidas em tempo hábil.
Os cursos à distância exigem do aluno tempo e organização. No caso da nossa
disciplina é preciso ter um horário destinado à leitura do texto base e à execução das
avaliações propostas. A vantagem é que poderá reservar o dia da semana e a hora
que lhe convier para isso.
A organização é o quesito indispensável, porque há uma sequência a ser seguida
e prazos definidos para as atividades.

Bons estudos!
SUMÁRIO

1 CONCEITO ........................................................................................................ 4

2 SISTEMA LINEAR ............................................................................................. 5

2.1 Equação linear....................................................................................................5

2.2 Sistema linear.....................................................................................................5

3 ESPAÇOS VETORIAIS .................................................................................... 7

3.1 Propriedades.....................................................................................................13

4 SUBESPAÇOS VETORIAIS ............................................................................ 14

4.1 Interseção e Soma de Subespaços..................................................................16

5 BASE DE UM ESPAÇO VETORIAL ................................................................ 21

5.1 Teorema 1.........................................................................................................22

5.2 Teorema 2.........................................................................................................23

5.3 Teorema 3.........................................................................................................23

5.4 Teorema 4.........................................................................................................24

5.5 Teorema 5.........................................................................................................25

5.6 Teorema de Baire 1..........................................................................................25

6 TRANSFORMAÇÕES LINEARES ................................................................... 26

6.1 Introdução.........................................................................................................26

6.2 O Espaço Vetorial.............................................................................................29

6.3 Teorema 1.........................................................................................................30

7 MATRIZES ...................................................................................................... 36

7.1 Tipos de matrizes..............................................................................................38

7.2 Operações com matrizes...................................................................................41

8. MATRIZ DE UMA TRANSFORMAÇÃO LINEAR ............................................ 45

9 ESPAÇOS COM PRODUTO INTERNO ......................................................... 48

9.1 Produto Interno.................................................................................................48


9.2 Operadores em Espaços com Produto Interno..............................................50

10 AUTOVALORES E AUTOVETORES............................................................60

10.1 Interpretação geométrica..............................................................................62

11 DIAGONALIZAÇÃO.............................................................................................67

12 REFERÊNCIAS BIBLIOGRÁFICAS..............................................................72
1 CONCEITO

A Álgebra Linear é o estudo dos espaços vetoriais e das transformações


lineares definidas entre eles. Quando os espaços têm dimensões finitas, as
transformações lineares podem ser representadas por matrizes. Também com
matrizes podem ser representadas as formas bilineares e, mais particularmente, as
formas quadráticas.
Assim, a Álgebra Linear, além de vetores e transformações lineares, lida
também com matrizes e formas quadráticas. São numerosas e bastante variadas as
situações, em Matemática e em suas aplicações, onde esses objetos se apresentam.
Daí a importância central da Álgebra Linear no ensino da Matemática1.

Fonte:www.static.wixstatic.com
2 SISTEMA LINEAR

Sistemas lineares é um conjunto de equações lineares, com m equações e n


incógnitas. A solução de um sistema linear é a solução de todas as equações lineares.
Existem muitas maneiras de resolver um sistema de equações lineares ou sistemas
lineares, como quiser chama-los.

2.1 Equação linear

Antes disso, porém, vamos entender o que é uma equação linear para depois
estudarmos e entendermos sistemas lineares.
Uma equação linear é qualquer equação da forma:

a1x1 + a2x2 + a3x3 + … + anxn = b

onde a1, a2, a3, …, an são números reais e b é um termo independente. Caso b =
0, a equação é chamada de linear homogênea.

2.2 Sistema linear

Um sistema linear tem a seguinte forma:

Cuja solução pertence aos números reais e o conjunto solução do sistema é


solução de todas as equações lineares do sistema.
2.2.1 Classificação de Sistemas Lineares

Os sistemas lineares são classificados de acordo com o número de soluções


apresentados pelos mesmos. Assim, os sistemas lineares podem ser classificados
como:

SPD – Sistema Possível e Determinado – possui uma única solução.

SPI – Sistema Possível e Indeterminado – possui infinitas soluções.

SI – Sistema Impossível – não possui solução.

2.3 MATRIZ ASSOCIADA A UM SISTEMA LINEAR

Podemos associar a um sistema linear algumas matrizes, onde os seus


coeficientes ocuparão linhas e colunas da matriz.
Seja o sistema:

Matriz incompleta: formada apenas pelos coeficientes do sistema.

Matriz completa: formada pelos coeficientes do sistema, mas os temos


independentes.

Equação matricial dos sistemas lineares:


A partir dessa equação matricial pode se resolver o sistema2.

3 ESPAÇOS VETORIAIS

Neste capítulo introduziremos o conceito de espaço vetorial que será usado em


todo o decorrer do curso.
Porém, antes de apresentarmos a definição de espaço vetorial, passemos a
analisar em paralelo dois objetos: o conjunto formado pelas funções f: ℝ → ℝ ,
denotado por Ϝ(ℝ; ℝ) e o conjunto das matrizes quadradas de ordem 𝓃 com
coeficientes reais que denotaremos porℳ n(ℝ), ou simplesmente, por ℳ n.
A soma de duas funções 𝑓 𝑒 𝑔 de Ϝ(ℝ; ℝ) é definida como sendo a função

𝒇 + 𝒈 ∈ Ϝ(ℝ; ℝ) dada por (𝒇 + 𝒈) (𝒙) + 𝒈(𝒙).

Note também que se λ ∈ ℝ podemos multiplicar a função 𝑓 pelo escalar λ, da


seguinte forma (𝜆𝑓)(𝑥) = 𝜆(𝑓(𝑥)), resultando num elemento de Ϝ(ℝ).
Com relação a ℳ n podemos somar duas matrizes quadradas de ordem 𝓃,
𝐴 =(𝑎 ij)n×n e 𝐵 =(𝑏 ij)n×n, colocando 𝐴 + 𝐵 =(𝑎 ij + 𝑏 ij)n×n, que é um elemento de
ℳ n.
Com a relação à multiplicação de 𝐴 =(𝑎 ij)n×n por um escalar 𝜆 ∈ ℝ, é natural

e definimos 𝜆𝐴 = (𝜆𝑎ij)n×n , o qual também pertence a ℳ n.


O que estes dois conjuntos acima, com estas estruturas de adição de seus
elementos e multiplicação de seus elementos por escalares, têm comum?

Vejamos:

2
Texto extraído de: www.matematicabasica.net.com
Podemos ver que tanto os conjuntos das funções definidas na reta a valores
reais como o das matrizes quadradas quando munidos de somas e multiplicação por
escalares adequadas apresentam propriedades algébricas comuns. Na verdade,
muitos outros conjuntos munidos de operações apropriadas apresentam propriedades
semelhantes às acima.
É por isso que ao invés de estudarmos cada um separadamente estudaremos
um conjunto arbitrário e não vazio, 𝑽 ; sobre o qual supomos estar definidas uma

operação de adição, isto é, para cada 𝒖; 𝒗 ∈ 𝑽 existe um único elemento de 𝑽


associado, chamado a soma entre 𝑢 e 𝑣 e denotado por 𝑢 + 𝑣; e uma multiplicação
por escalar, isto é, para cada 𝒖 ∈ 𝑽 e 𝝀 ∈ ℝ existe um único elemento de 𝑽

associado, chamado de produto de 𝒖 pelo escalar 𝝀 e denotado por 𝝀𝒖:

Um conjunto 𝑽 como acima munido de uma adição e de uma multiplicação por

escalar é e um espaço vetorial se para quaisquer 𝒖, 𝒗 𝑒 𝒘 𝑒𝑚 𝑽 e para todo 𝝀, 𝒖 ∈

ℝ são validas as seguintes propriedades:

É comum chamarmos os elementos de um espaço vetorial de vetores,


independentemente da natureza dos mesmos. Também chamamos de escalares os
números reais quando estes desempenham o seu papel na ação de multiplicar um
vetor. O elemento 0 na propriedade ev3 é único, pois qualquer outro 𝟎′ ∈ 𝑽
satisfazendo a mesma propriedade ev3 então, pelas propriedades ev3 e ev1 teríamos
𝟎′ = 𝟎 + 𝟎′ = 𝟎′ + 𝟎 = 𝟎, isto é, 𝟎 = 𝟎′ .
Em um espaço vetorial, pela propriedade ev4, para cada 𝒖 ∈ 𝑽 existe 𝒗 ∈ 𝑽

tal que 𝒖 + 𝒗 = 𝟎. Na verdade, para cada 𝒖 ∈ 𝑽 existe somente um elemento 𝒗 ∈

𝑽 com essa propriedade. De fato, dado 𝒖 ∈ 𝑽 se 𝒗 𝒆 𝒗′ em 𝑽 são tais que 𝒖 +


𝒗 = 𝟎 e 𝑢 + 𝑣 ′ = 0 então, combinando estas equações com as propriedades
ev1,ev2 e ev3, obtemos 𝒗 = 𝒗 + 𝟎 = 𝒗 + (𝒖 + 𝒗′ ) = (𝒗 + 𝒖) + 𝒗′ = (𝒖 + 𝒗) +

𝒗′ = 𝒗′, isto é 𝒗 = 𝒗′ . Denotaremos 𝒗 por −𝒖 e 𝒖 − 𝒗 por 𝒖 + (−𝒗).


As quatro primeiras propriedades referem-se apenas à operação de adição e
são conhecidas, respectivamente, por propriedade comutativa, propriedade
associatividade, existência do elemento neutro e existência do elemento inverso. A
quinta e a oitava propriedades são exclusivas da multiplicação por escalar e também
podem ser chamadas de associatividade e elemento neutro da multiplicação,
respectivamente. A sexta e a sétima propriedades relacionam as duas operações e
são ambas conhecidas por distributividade.
A rigor, a definição de espaço vetorial que demos acima se refere a espaços
vetoriais reais visto que estamos permitindo que os escalares sejam apenas números
reais. A noção de espaço vetorial complexo pode ser feita naturalmente a partir da
definição acima com as devidas mudanças. Mais precisamente, pedimos que seja
satisfeita as propriedades ev1 a ev4 e ev8 enquanto que as propriedades ev5 a ev7
devem valer para todo λ, µ ∈ ℂ. No entanto, embora importante, não usaremos o
conceito de espaço vetorial complexo.
Talvez o exemplo mais simples de espaço vetorial seja o conjunto dos números
reais com a adição e multiplicação usuais. Mais geralmente, para cada 𝒏 ∈ ℕ,

podemos transformar o conjunto das 𝑛-uplas ordenadas de números reais, ℝn , em

um espaço vetorial definindo a adição de duas 𝑛 -uplas ordenadas, 𝒙 =

(𝒙1,...,𝒙n) e 𝒚 = (𝒚1, … , 𝒚n), adicionando-se coordenada a coordenada, isto é,

𝒙 + 𝒚 = (𝒙1 +𝒚1, ...,𝒙n + 𝒚n)

e produto de uma 𝒏-upla 𝒙 = (𝒙1, ..., 𝒙n) por um escalar 𝝀 ∈ ℝ por

𝝀𝒙 = (𝝀𝒙1, ..., 𝝀𝒙n ).


E uma rotina bem simples verificar que desse modo ℝn é um espaço vetorial.
Deixamos como exercício esta tarefa.
Verifique também que os seguintes exemplos são espaços vetoriais.
1° Exemplo: Sejam 𝒏 ∈ ℕ 𝐞 𝐕 = 𝓟n(ℝ) o conjunto formado pelo polinômio

nulo e por todos os polinômios de grau menor ou igual a 𝒏 com coeficientes reais.
Definimos a adição e a multiplicação por escalar da seguinte maneira:

2° Exemplo: Sejam 𝑨⊂ ℝ e 𝔉(𝑨; ℝ) o conjunto de todas as funções 𝒇: 𝑨 →

ℝ . Se 𝒇, 𝒈 ∈ 𝕱(𝑨; ℝ) e 𝝀 ∈ ℝ defina 𝒇 + 𝒈: 𝑨 → ℝ por (𝒇 + 𝒈)(𝒙) =

𝒇(𝒙) + 𝒈(𝒙) e (𝝀𝒇)(𝒙) = 𝝀𝒇(𝒙), 𝒙 ∈ 𝑨. Então, 𝕱(𝑨; ℝ) com esta adição e


produto por escalar é um espaço vetorial.

3° Exemplo: O conjunto das funções contínuas definidas num intervalo 𝐈 ⊂ ℝ


munido das operações de adição e multiplicação usuais (como aquelas definidas em

𝕱(𝑰; ℝ)). Notação: 𝐂(𝑰; ℝ).

4° Exemplo: O conjunto das funções com derivadas contínuas até ordem 𝐊 ∈

ℕ, ( 𝐊 é fixo) definidas num intervalo aberto 𝐈 ⊂ℝ munido das operações de

adição e multiplicação usuais (como aquelas definidas em 𝕱(𝑰; ℝ)) . Notação:

CK(𝑰; ℝ).
5° Exemplo: O conjunto das funções com todas as derivadas contínuas

definidas num intervalo aberto 𝐈 ⊂ℝ munido das operações de adição e

multiplicação usuais (como aquelas definidas em 𝕱(𝑰; ℝ)). Notação: C ∞ (𝑰; ℝ).
6° Exemplo: O conjunto das matrizes 𝑚 por 𝑛 com coeficientes reais:

𝑴m×n(ℝ) munido de operações análogas àquelas definidas em 𝑴n(ℝ).


Os espaços vetoriais acima envolvem operações com as quais você já deve
estar familiarizado. O próximo exemplo é um pouco mais sofisticado do que os
anteriores e por isso mostraremos as oito propriedades. Como conjunto tomaremos
𝑽 = 𝟎 ∞ , o semieixo positivo da reta real. Este conjunto quando munido às
operações usuais de soma e multiplicação não é um espaço vetorial, visto que não
possui elemento neutro para a adição. No entanto, se para 𝒙, 𝒚 ∈ 𝑽 𝐞 𝝀 ∈ ℝ,

definirmos a soma entre 𝒙 e 𝒚 por 𝒙 ⊞ 𝒚 = 𝒙𝒚, (o produto usual entre 𝒙 e 𝒚) e o

produto de 𝒙 pelo escalar λ como λ𝒙 = 𝒙𝛌, então 𝑽 se torna um espaço vetorial. De


fato, verifiquemos uma a uma as oito propriedades.
3.1 Propriedades

Das oito propriedades que definem um espaço vetorial podemos concluir várias
outras. Listaremos algumas destas propriedades na seguinte

✓ Proposição 1:
Seja 𝑽 um espaço vetorial. Temos

Prova:
4 SUBESPAÇOS VETORIAIS

Muitas vezes nos depararemos com certos subconjuntos de um espaço vetorial


que possuem a propriedade de que a soma de dois de seus elementos é um elemento
do próprio subconjunto bem como quando multiplicamos um elemento do subconjunto
por um escalar, o resultado continua pertencendo ao subconjunto.
Seja 𝑉 um espaço vetorial. Dizemos que 𝑊 ⊂ 𝑉 é um subespaço vetorial de 𝑉
se forem satisfeitas as seguintes condições:
Observação 1: Note que todo subespaço vetorial 𝑊 de um espaço vetorial 𝑉
é ele próprio um espaço vetorial. As propriedades comutativa, associativa,
distributivas e ev8 são herdadas do próprio espaço vetorial 𝑉 . O elemento neutro da
adição é um elemento de 𝑊 por sv1. Finalmente, se 𝑢 ∈ 𝑊 então −𝑢 = (−1)𝑢 ∈ 𝑊
pelo item 4 da proposição 1 e por sv3.

Observação 2: Obviamente {0} e 𝑉 são subespaços vetoriais do espaço


vetorial V. São chamados de subespaços vetoriais triviais.

Observação 3: Note que 𝑊 é subespaço vetorial de 𝑉 se e somente se são


válidas as seguintes condições:

Vejamos um exemplo:

Exemplo 1:
Exemplo 2:

4.1 Interseção e Soma de Subespaços

✓ Proposição 2:
(Interseção de subespaços) Sejam 𝑈 e 𝑊 subespa- cos vetoriais de 𝑉. Então
𝑈 ∩ 𝑊 é subespaço vetorial de 𝑉.
Prova:

Questão: Com a notação da proposição acima, podemos armar que 𝑈 ∪ 𝑊 é

subespaço vetorial de 𝑉 ?

Resposta: Não. Basta considerar 𝑉 = ℝ2, 𝑈 = {(𝑥, 𝑦) ∈ ℝ2 ;𝑥 + 𝑦 = 0} e

𝑊 = {(𝑥, 𝑦) ∈ ℝ 2 ; 𝑥 − 𝑦 = 0} . Note que (1, −1) ∈ 𝑈 ⊂ 𝑈 ∪ 𝑊 e


(1, 1) ∈ 𝑊 ⊂ 𝑈 ∪ 𝑊 mas (1, −1) + (1, 1) = (2, 0) ∉ 𝑈 ∪ 𝑊 .
Se 𝑈 e 𝑊 são subespaços vetoriais de um espaço vetorial 𝑉 e 𝑉′ é um

subespaço de 𝑉 que contenha 𝑈 e 𝑊 , isto é, 𝑈 ∪ 𝑊 ⊂ 𝑉′ então 𝑉′ terá

que conter todos os vetores da forma 𝑢 + 𝑤, 𝑢 ∈ 𝑈 e 𝑤 ∈ 𝑊 . Isto motiva a


seguinte
Definição: Sejam 𝑈 e 𝑊 subespaços vetoriais de um espaço vetorial 𝑉 .

Definimos a soma de 𝑈 e 𝑊 como 𝑈 + 𝑊 = {𝑢 + 𝑤; ∈ ⋃, 𝑤 ∈ 𝑊}.

✓ Proposição 3:
(Soma de subespaços) sejam 𝑈 , 𝑊 e 𝑉 como na definição acima. Então 𝑈 +
𝑊 é um subespaço vetorial de 𝑉. Além do mais, 𝑈 ∪ 𝑊 ⊂ 𝑈 + 𝑊.
Prova:
Verifiquemos que 𝑈 + 𝑊 é subespaço vetorial de 𝑉.

Ainda usando a notação acima, suponha que 𝑉 ′ seja um subespaço de 𝑉 que


contenha 𝑈 e 𝑊 . Neste caso, para todo 𝑢 ∈ 𝑈 ⊂ 𝑉 ′ e todo 𝑤 ∈ 𝑊 ⊂ 𝑊 𝑉 ′
temos 𝑢 + 𝑤 ∈ 𝑉 , ou seja, 𝑈 + 𝑊 ⊂ 𝑉′ . Esta observação nos permite registrar
a seguinte

✓ Proposição 4:
Sejam 𝑉 um espaço vetorial e 𝑈 e 𝑊 subespaços vetoriais de 𝑉. Então 𝑈 + 𝑊
é o menor subespaço vetorial de 𝑉 V que contém 𝑈 ∪ 𝑊. Em outras palavras,
se 𝑉′ é um subespaço vetorial de 𝑉 que contém 𝑈 ∪ 𝑊 então 𝑈 ∪ 𝑊 ⊂ 𝑈 + 𝑊
⊂ 𝑉′.
Definição: Sejam 𝑈 e 𝑊 subespaços vetoriais de um espaço vetorial 𝑉 .

Dizemos que 𝑈 + 𝑊 é a soma direta de 𝑈 e 𝑊 se 𝑈 ∩ 𝑊 = {0}. Neste caso

usaremos a notação 𝑈 ⊕ 𝑊 para representar 𝑈 + 𝑊 .

Observação 4: Note que trivialmente {0} ⊂ 𝑈 ⋂ 𝑊 se 𝑈 e 𝑊 são


subespaços vetoriais.

✓ PROPOSIÇÃO 5
(Soma direta de subespaços vetoriais) Sejam 𝑈 e 𝑊 subespaços vetoriais de

um espaço vetorial 𝑉 . Temos 𝑉 = 𝑈 ⨁ 𝑊 se e somente se para cada 𝑣 ∈ 𝑉

existirem um único 𝑢 ∈ 𝑈 e um único 𝑤 ∈ 𝑊 satisfazendo 𝑣 = 𝑢 + 𝑤.

Exemplo 1: Verifique que ℝ3 é a soma direta de 𝑈 = {𝑥, 𝑦, 𝑧) ∈ ℝ3;𝑥 + 𝑦 +

𝑧 = 0} e 𝑊 = {(𝑥, 𝑦, 𝑧) ∈ ℝ3; 𝑥 = 𝑦 = 0}.


Resta agora mostra que 𝑈 ∩ 𝑊 = {0}. Seja (𝑥, 𝑦, 𝑧) ∈ 𝑈 ∩ 𝑊. Temos

𝑥+ 𝑦+𝑧 =0
{𝑥 = 0 ≼===≫ (𝑥, 𝑦, 𝑧) = (0,0,0).
𝑦= 0

Definição: Sejam 𝑼1, . . .,𝑼n subespaços vetoriais de um espaço vetorial 𝑽. 𝑨

soma de 𝑼1 a 𝑼n é definida por


Definição: Sejam 𝑼1, . . ., 𝑼n subespaços vetoriais de um espaço vetorial 𝑽.

Dizemos que a soma de 𝑼1 a 𝑼n é uma soma direta se

em que o termo deve ser omitido da soma. Neste caso usaremos a notação
𝑈1 ⨁ … ⨁ 𝑈n para denotar a soma de 𝑈1 a 𝑈n.
Observação 5: É obvio que

se 𝑈1, . . ., 𝑈n são subespaços vetoriais.

✓ Proposição 6: Sejam 𝑈1, . . ., 𝑈n subespaços vetoriais de um espaço vetorial

𝑉 . Então 𝑉 = 𝑈1 ⊕ · · · ⊕ 𝑈n se e somente se para cada 𝑣 ∈ 𝑉 existe, para

cada 𝑗 = 1, … , 𝑛 , um único 𝑢j ∈ 𝑈j tal que 𝑣 = 𝑢1+· · ·+𝑢 n.

Prova: A prova é análoga à da proposição 5.


Exemplo 2: Mostre que 𝒫 2 é soma direta dos seguintes subespaços vetoriais

𝑈1 = { 𝑎0; 𝑎0 ∈ ℝ}, 𝑈2 = { 𝑎1𝑥 ; 𝑎1 ∈ ℝ } e 𝑈3 = { 𝑎2𝑥 2; 𝑎2 ∈ ℝ }.


5 BASE DE UM ESPAÇO VETORIAL

Estamos interessados em encontrar, dentro de um espaço vetorial 𝑽 , um

subconjunto 𝐁 ⊂𝑽 , tal que qualquer vetor de 𝑽 seja uma combinação linear de

elementos de 𝐁. Em outras palavras, queremos determinar um conjunto de vetores

que gere 𝑽 e tal que todos elementos sejam realmente necessários para gerar 𝐕. Se

pudermos encontrar tais vetores, teremos os alicerces de nosso espaço, com estes
vetores fazendo o papel de 𝒊, 𝒋, 𝒌 na Geometria Analítica no Espaço. Denominares um
conjunto de vetores desse tipo de base, mais precisamente:

✓ Definição 1:

Seja 𝐕 um espaço vetorial sobre um corpo 𝕂. Dizemos que um subconjunto 𝐁

de 𝐕 é uma base de 𝐕 se (𝑖)ℬ for um conjunto gerador de 𝑉 ; e (𝑖𝑖)ℬ for

linearmente independente.
Fonte: www.istockphoto.com

5.1 Teorema 1

Seja {0} 6= 𝑉 um espaço vetorial sobre 𝕂. Então 𝑉 possui pelo menos uma
base.

então β = 0, caso contrário teríamos


contradizendo o fato de 𝑤 ∉ [𝐵] . Portanto igualdade a torna-se

Consequentemente pois 𝐵 é I. 𝑖 . E como consequência

temos que , mas isto é um absurdo, visto que este fato contradiz a
maximalidade 𝐵 . Assim [𝐵 ] = 𝑉.
O teorema abaixo apresenta duas caracterizações de base.

5.2 Teorema 2

Sejam 𝑉 um espaço vetorial sobre 𝕂 e ℬ um subconjunto de 𝑉 . As seguintes


afirmações são equivalentes:

5.3 Teorema 3

Seja 𝑉 um espaço vetorial sobre 𝕂.


Demonstração. Para provar (𝑖) , aplicamos o Lema de Zorn a família de
conjuntos

munida da ordem parcial de inclusão. Concluímos que 𝐹 tem um elemento maximal

𝐵 . Se existir algum elemento 𝑢 ∈ 𝑇[𝐵] , então 𝐵 ∪ {𝑢} é l.i. contradizendo a


maximalidade de 𝐵 . Logo, 𝑇 ⊂ [𝐵] e, consequentemente, [𝑇] ⊂ [𝐵]. Segue que

𝑉 = [𝐵], e, portanto, [𝐵] é base de 𝑉 . Partes (𝑖𝑖) e (𝑖𝑖𝑖) seguem de (𝑖).

5.4 Teorema 4

Sejam 𝑉 um espaço vetorial sobre 𝕂 e 𝐵 e 𝐶 bases de 𝑉 . Então, cada

elemento de 𝐵 pode ser substituído por algum elemento de 𝐶 de modo que o conjunto

resultante ainda é uma base de 𝑉.

completando a prova.
No teorema a seguir, utilizamos a noção de cardinalidade. Lembremos que dois
conjuntos 𝐴 e 𝐵 tem a mesma cardinalidade quando existe uma função 𝑓: 𝐴 → 𝐵
bijetora.
5.5 Teorema 5

Sejam 𝑉 um espaço vetorial sobre 𝕂 e 𝐵 , 𝐶 bases de 𝑉 . Então 𝐵 e 𝐶 tem a


mesma cardinalidade. O teorema 5 consolida a seguinte definição

✓ Definição 2:
Seja 𝑉 um espaço vetorial sobre 𝕂. A dimensão de 𝑉 sobre 𝕂, denotada por

dim 𝕂 𝑉 ou simplesmente por dim 𝑉, é a cardinalidade de qualquer base de 𝑉

sobre 𝕂.
Começamos nossa discussão sobre espaços vetoriais indagando sobre a
existência de um certo tipo de subconjunto 𝐵 de 𝑉 , que tivesse as seguintes

propriedades; 𝐵 linearmente independente e [ 𝐵 ] = 𝑉 . Para este tipo de

subconjunto de 𝑉 demos o nome de base algébrica.


Agora estamos interessados em saber algo sobre a cardinalidade do conjunto
𝐵, mas particularmente quando 𝑑𝑖𝑚𝕂𝑉 = ∞ , gostaríamos de saber se 𝐵 é
enumerável. O próximo resultado nos fornece um método que nos permite
decidir se alguns espaços vetoriais têm base enumerável. Mais precisamente:
Proposição 1

A proposição 1 é consequência do:

5.6 Teorema de Baire 1

Seja ( 𝑀, 𝑑 ) um espaço métrico completo e (Fn)n∈N uma sequência de


subconjuntos fechados de
3

6 TRANSFORMAÇÕES LINEARES

6.1 Introdução

Até agora foi estudado os espaços vetoriais e seus subespaços, introduzimos


os conceitos como dependência e independência linear e, a partir disto, pudemos
descrevê-los de maneira mais simples usando para isto geradores e, mais
especificamente, bases. De certa forma já temos em mãos tudo o que precisamos
para trabalhar com espaços vetoriais.

Fonte: www.ifs.edu.br

É necessário estar familiarizado com o conceito de funções, principalmente


com aquelas que estão definidas em um subconjunto da reta e tomam seus valores
também no conjunto dos números reais. Nosso próximo passo é estudar funções que
têm como domínio um espaço vetorial e que tomam seus valores em um outro espaço

3
Texto extraído de: www.ime.unicamp.br
vetorial. Note que os valores tomados são, na verdade, vetores. No entanto, deve-se
restringir a apenas alguns tipos especiais dentre estas funções.
Pois o maior interesse é em funções que preservem as operações existentes
no espaço vetorial que atua como o seu domínio e aquelas do espaço vetorial que age
como contradomínio. Por exemplo, por preservar a adição de vetores entendemos que
ao tomar dois vetores no domínio da função o valor que esta deve ter para a soma
destes dois vetores é a soma dos valores que ela possui para cada um dos vetores.
De maneira semelhante a função deve preservar o produto por escalar. Funções com
estas propriedades são chamadas de transformações lineares. Mais precisamente,
temos.

✓ Definição 1:
Sejam 𝑈 e 𝑉 espaços vetoriais. Dizemos que uma função 𝑇 ∶ 𝑈 → 𝑉 é uma
transformação linear se forem verificadas as seguintes condições:

Observação 1 : Note que 𝑇 ∶ 𝑈 → 𝑉 é uma transformação linear se e somente

se 𝑇(𝜆𝑢 + 𝜇𝑣 ) = 𝜆𝑇(𝑢 ) + 𝜇𝑇(𝑣), para todo 𝑢, 𝑣 ∈ 𝑈, 𝜆, 𝜇 ∈ ℝ.

Observação 2: Note que pela propriedade 2 temos

Ou seja, toda transformação linear de 𝑈 em 𝑉 leva o elemento neutro de 𝑈 no

elemento neutro de 𝑉 . A seguir listamos alguns exemplos de transformações


lineares definidas em vários espaços vetoriais que já tratamos no decorrer do
curso.
Os exemplos abaixo são de funções entre espaços vetoriais que não são
transformações lineares.

para toda função 𝑓 ∈ 𝐶 ([0, 1]; ℝ).

Se 𝑇 fosse linear deveria ter por 2, 𝑇(−𝑓 ) = −𝑇(𝑓) para toda função 𝑓 ∈

𝐶 ([0, 1]; ℝ). Para ver que isto não ocorre, basta tomar f como sendo a função
constante igual a 1. Temos neste caso que 𝑇(−1) = 1 = 𝑇(1).

✓ Proposição 1:
Seja 𝑈 um espaço vetorial com base 𝑢 1, . . . , 𝑢 n. Toda transformação linear

𝑇 ∶ 𝑈 → 𝑉 fica determinada por 𝑇(𝑢1), . . . , 𝑇(𝑢n), ou seja, conhecidos estes


vetores, conhece-se 𝑇(𝑢) para qualquer 𝑢 ∈ 𝑈.

Prova: Já que 𝑢 1, . . ., 𝑢 n formam uma base de 𝑈, dado 𝑢 ∈ 𝑈 existem α1, . .

., 𝛼 1 ∈ ℝ tais que 𝑢 = 𝛼 1𝑢 1 + · · · + 𝛼 n𝑢 n. Deste modo,

Verifica-se facilmente que a transformação 𝑇 definida como acima é linear e


satisfaz as condições pedidas.

6.2 O Espaço Vetorial

Sejam 𝑈 e 𝑉 espaços vetoriais. O conjunto de todas as transformações

lineares 𝑇 ∶ 𝑈 → 𝑉 é denotado por (𝑈, 𝑉). Quando 𝑈 = 𝑉 usamos a notação


(𝑈 ) ≐ (𝑈, 𝑈).
É um simples exercício de verificação o fato de (𝑈, 𝑉) com as operações
definidas acima ser um espaço vetorial. Note que o elemento neutro da adição é a
transformação nula, isto é, 𝑇 ∈ (𝑈, 𝑉) definida por 𝑇(𝑢) = 0, 𝑢 ∈ 𝑈.
Registraremos isto na seguinte

✓ Proposição 2:

(𝑈, 𝑉) com as operações acima é um espaço vetorial.

Definição 1
Se 𝑈 é um espaço vetorial, definimos o espaço dual de 𝑈 como sendo 𝑈 ′ ≐

(𝑈, ℝ), isto é, 𝑈 ′ é formado pelas transformações lineares 𝑇 ∶ 𝑈 → ℝ .


Estas transformações lineares também são chamadas de funcionais lineares
definidos em 𝑈.

6.3 Teorema 1

Se 𝑈 é um espaço vetorial de dimensão 𝑛 e 𝑉 é um espaço vetorial de

dimensão 𝑚 então (𝑈, 𝑉) tem dimensão 𝑚𝑛.


Prova: Fixemos duas bases, uma formada por vetores 𝑢 1, . . ., 𝑢 n de 𝑈 e outra

formada por 𝑣 1, . . ., 𝑣 m, vetores de 𝑉 .


e como 𝑣 1, . . ., 𝑣 m são linearmente independentes, segue-se que 𝛼 k1 = · · · = 𝛼 km =

0. Portanto 𝑇11, . . ., 𝑇nm são linearmente independentes.

Seja 𝑇 ∈ (𝑈, 𝑉) . Se 𝑢 ∈ 𝑈 então 𝑢 = 𝑥 1 𝑥 1 + · · · + 𝑥 n 𝑢n, para certos


números reais 𝑥 1, . . ., 𝑥 n. Como 𝑇 é linear

Corolário:
Se 𝑉 é um espaço de dimensão 𝑛 então o seu dual também tem dimensão 𝑛.

Pelo corolário, se 𝑈 tem dimensão 𝑛 então o seu dual, 𝑈′ , tem a mesma dimensão.

Seguindo os passos da demonstração do teorema 1, se 𝑢 1, . . . , 𝑢 n formam uma base

𝐵 de 𝑈 então os funcionais lineares 𝑓1, . . . , 𝑓n : 𝑈 → ℝ dados por 𝑓j(𝑢) = 𝑓j(𝑥 1 𝑢1 +


· · · + 𝑥 n 𝑥 n) = 𝑥 j , 𝑗 = 1, . . . , 𝑛, formam uma base de 𝑈′ . Esta base é chamada de

base dual da base 𝐵 .

✓ Definição 2:
Sejam 𝑈 , 𝑉 e 𝑊 espaços vetoriais. Se 𝑇 ∈ ( 𝑈, 𝑉 ) e 𝑆 ∈ ( 𝑉, 𝑊 )

definimos a composta 𝑆 ∘ 𝑇: 𝑈 → 𝑊 por 𝑆 ∘ 𝑇(𝑢 ) = 𝑆(𝑇(𝑢 )), 𝑢 ∈ 𝑈.

Exemplo: Considere 𝑇, 𝑆 ∈ ( ℝ 2) dadas por 𝑇(𝑥, 𝑦) = (𝑥 + 𝑦, 0) e

𝑆(𝑥, 𝑦) = (𝑥, 2𝑦). Encontre 𝑇 ∘ 𝑆 e 𝑆 ∘ 𝑇.

✓ Definição 3:
Se 𝑇 ∈ (𝑈), definimos 𝑇1 = 𝑇 e 𝑇n = 𝑇 ∘ 𝑇n−1 para 𝑛 ≥ 2.
✓ Definição 4:
𝑇∈ (𝑈) é chamada de nilpotente se existir algum inteiro positivo 𝑛 tal que

𝑇n = 0, a transformação nula. Obviamente a transformação nula é um exemplo


de uma transformação nilpotente.
Exemplo:
Mostre que 𝑇 : ℝ2 → ℝ2 dada por 𝑇(𝑥, 𝑦) = (0, 𝑥)é um operador nilpotente.

✓ Proposição 3:
Sejam 𝑇 ∈ (𝑈, 𝑉 ) e 𝑆 ∈ (𝑉, 𝑊 ). Então 𝑆 ∘ 𝑇 ∈ (𝑈, 𝑊 ).

Prova: Dados 𝑢 , 𝑣 ∈ 𝑈 e λ, µ ∈ ℝ temos

✓ Proposição 4:
Sejam 𝑇 ∈ (𝑈, 𝑉 ) e 𝑆 ∈ (𝑉, 𝑊 ) e ℝ ∈ (𝑊, 𝑋 ), onde 𝑈, 𝑉, 𝑊 e 𝑋
são espaços vetoriais. Então (𝑅 ∘ 𝑆) ∘ 𝑇 = 𝑅 ∘ (𝑆 ∘ 𝑇).

✓ Proposição 5:
Se 𝑆, 𝑇 ∈ (𝑈, 𝑉 ), 𝑅 ∈ (𝑉, 𝑊 ) então 𝑅 ∘ (𝑆 + 𝑇) = 𝑅 ∘ 𝑆 + 𝑅 ∘ 𝑇 .

✓ Proposição 6:
Se 𝑇 ∈ (𝑈, 𝑉 ) e 𝐼 V ∈ (𝑉) é a identidade em 𝑉 , isto é, 𝐼 (𝑣 ) = 𝑣, 𝑣 ∈ 𝑉 , e

𝐼U ∈ (𝑈) é a identidade em 𝑈, então 𝐼 V ◦ 𝑇 = 𝑇 e 𝑇 ◦ 𝐼 U = 𝑇.

Definição 5:
Diremos que 𝑇 ∈ ( 𝑈, 𝑉 ) possui inversa se existir 𝑆 ∶ 𝑉 → 𝑈 tal que 𝑆 ∘

𝑇(𝑢) = 𝑢 para todo 𝑢 ∈ 𝑈 e 𝑇 ∘ 𝑆(𝑣 ) = 𝑣 para todo 𝑣 ∈ 𝑉 . Em outras


palavras, 𝑇 ∘ 𝑆 = 𝐼 V e 𝑆 ∘ 𝑇 = 𝐼 U, onde 𝐼 U : 𝑈 → 𝑈 é a identidade em 𝑈 e 𝐼 V

: 𝑉 → 𝑉 é a identidade em 𝑉 .

✓ Proposição 7:
Se 𝑇 ∈ (𝑈, 𝑉 ) possui uma inversa então está inversa é única.

DEFINIÇÃO 6
Uma transformação linear 𝑇: 𝑈 → 𝑉 é

✓ Proposição 8:
Uma transformação linear 𝑇 : 𝑈 → 𝑉 é injetora se e somente se 𝑇(𝑢 ) = 0:

implicar em 𝑢 = 0.

✓ Proposição 9:
A fim de que 𝑇 ∈ (𝑈, 𝑉 ) possua inversa é necessário e suficiente que 𝑇
seja bijetora.

✓ Proposição 10:
Se 𝑇 ∈ (𝑈, 𝑉 ) possui inversa 𝑇−1 : 𝑉 → 𝑈 então 𝑇−1 ∈ (𝑉, 𝑈).
7 MATRIZES

O estudo das matrizes possibilita o tratamento de dados de forma simplificada,


permitindo, dentre outras coisas, a fácil visualização da informação. A manipulação
de matrizes está presente em todas as áreas de conhecimento, seja nas áreas que
lidam com a Matemática diretamente como também em áreas de Humanas e Saúde,
por exemplo.
Uma matriz é um conjunto de dados dispostos em uma tabela onde cada dado
é referenciado por linhas e colunas. A arrumação dos dados dessa forma permite não
apenas sua organização, mas também possibilita novas maneiras de manipular esses
dados. As matrizes podem ser compostas de qualquer tipo de números (reais ou
complexos), de funções e até de submatrizes. Para identificar uma matriz, nós
precisamos conhecer algumas informações: representação, ordem e termo geral.

Representação: A forma para representarmos uma matriz será utilizando


parênteses ou colchetes:

Ordem: A ordem da matriz informa sobre o seu tamanho e faz menção à


quantidade de linhas e colunas que ela contém.

𝑚 𝑥 𝑛 → 𝑚 linhas e n colunas

Quando uma matriz apresenta o mesmo número de linhas e colunas diz que a
matriz tem ordem 𝑛 (𝑛 = número de linhas = número de colunas).

Termo Geral: Algumas matrizes possuem certa relação entre seus elementos.
Quando for possível escrever todos os elementos de uma matriz através de uma regra,
então a matriz possui um termo geral ( 𝑎 ij), onde i indica a linha e 𝑗, a coluna.
Exemplo: Sabendo que a matriz 𝐵 tem ordem 2x3 e que seu termo geral é

dado por 𝑏ij=𝑖+2𝑗, encontre 𝐵 . Como o número de linhas é igual a 2, e o número de

colunas igual a 3, então sabemos que o índice 𝑖 varia de 1 até 2 e o índice 𝑗 de 1 até
3. Logo, a matriz terá a forma:
7.1 Tipos de matrizes

Existem algumas matrizes que possuem características especiais e estas


podem facilitar alguns cálculos ou análises em determinadas situações. Vamos
conhecê-las.

✓ Matriz Coluna:
Matriz formada por apenas uma coluna.

✓ Matriz Linha:
Matriz formada por apenas uma linha.

✓ Matriz Nula – 0:
Matriz onde todos os seus elementos são zero, ou seja, seu termo geral é
sempre zero qualquer que seja 𝑖 𝑒 𝑗.
✓ Matriz Quadrada:
Matriz onde a quantidade de linhas é igual à quantidade de colunas.

Considerando as matrizes quadradas, denominam-se como elementos da


diagonal principal os elementos que apresentam 𝑖 = 𝑗(𝑎 11, 𝑎 22, 𝑎 33, ... 𝑎 nn).

✓ Matriz Diagonal:
Matriz onde os elementos da diagonal principal são não nulos e os fora da
diagonal principal são nulos.

✓ Matriz Identidade – 𝐼:
Matriz onde os elementos da diagonal principal são iguais a 1 e os fora da
diagonal principal são nulos.
✓ Matriz Transposta - 𝐴t, 𝐴′:
A matriz transposta é obtida a partir de qualquer matriz se trocando as linhas
pelas colunas.

✓ Matriz Simétrica:
Uma matriz é simétrica se ela for igual a sua transposta.

✓ Matriz Antissimétrica:
Uma matriz é antissimétrica se ela for igual a menos sua transposta.

✓ Matriz Triangular:
Superior: Uma matriz é triangular superior quando todos os elementos abaixo
da diagonal principal são nulos.

Inferior: Uma matriz é triangular inferior quando todos os elementos acima da


diagonal principal são nulos.
✓ Submatrizes:
Uma matriz também pode ser composta por matrizes, quando isso ocorre
chamamos de submatrizes. Como exemplo, mostro uma matriz A composta
por submatrizes B, C, D e E.

Note que as submatrizes não podem ter qualquer dimensão, pois isso implicaria
em uma desordem. Se A tem dimensão 𝑚𝑥𝑛, então o número de linhas de B
mais o número de linhas de D deve ser igual a m e o número de colunas de B
mais o número de colunas de C deve ser igual a n. Além disso, o número de
linhas de B deve ser igual ao número de linhas de C, assim como as linhas de
D e E, o mesmo para as colunas de B, C, D e E. Um exemplo para as matrizes
B, C, D e E poderia ser:
B3×3 , C3×2 , D2×3 e E2×2 , resultando em A5×5 .

7.2 Operações com matrizes

✓ Soma: Para que seja possível somar duas ou mais matrizes, é necessário que
todas as matrizes envolvidas tenham a mesma ordem, ordem esta que também
será compartilhada com a matriz resultante.

Supondo a soma de matrizes: Cm×n = Am×n + Bm×n

O termo geral da matriz resultante C é:

cij= aij+ bij Onde aij e bij são os termos das matrizes A e B.
Exemplo:

Propriedades da soma:
Considerando as matrizes A, B C e 0:

A + B = B + A (Comutativa) A + ( B + C) = ( A + B ) + C (Associativa)

A + 0 = A (Elemento nulo)

Observação: essa propriedade também é válida para a subtração.

✓ Multiplicação por Escalar: Para multiplicar um escalar 𝑘 por uma matriz,


basta multiplicar cada elemento da matriz por esse escalar.
Propriedades da multiplicação por escalar:
Considerando as matrizes 𝐴mxn, 𝐵 mxn matrizes e 𝑘 1 e 𝑘 2 escalares:

𝑘1 ( 𝐴 + 𝐵 ) = 𝑘1 𝐴 + 𝑘1 𝐵

( 𝑘1 + 𝑘2 ) 𝐴 = 𝑘1 𝐴 + 𝑘2 𝐴

0.𝐴 = 0 (0 – escalar e 0 – matriz nula)

𝑘1 ( 𝑘2 𝐴 ) = ( 𝑘1 𝑘2 ) 𝐴

✓ Multiplicação entre matrizes


Para que seja possível multiplicar duas matrizes, é necessário observar a
ordem das matrizes envolvidas. Sejam 𝐴 mxn e 𝐵 pxq, a multiplicação 𝐴. 𝐵

apenas será possível se 𝑛 = 𝑝, já a multiplicação 𝐵. 𝐴 apenas será possível

se 𝑞 = 𝑚.

Sendo 𝐶 = 𝐴: 𝐵 e os termos gerais de 𝐴 e 𝐵 , respectivamente, 𝑎 ij e 𝑏 ij, o

termo geral de 𝐶 é dado por:


Onde 𝑝 é o número de colunas de 𝐴 que deve ser o mesmo número de linhas

de 𝐵 .
Exemplo:
Conhecendo as matrizes 𝐻 e 𝐺 , é possível a multiplicação 𝐻 .𝐺 ? E 𝐺 :𝐻 ?

Para multiplicarmos 𝐻 .𝐺 é necessário que o número de colunas da primeira

matriz (𝐻 ) seja igual ao número de linhas da segunda matriz (𝐺 ). Nesse caso,

𝐻 2x2 e 𝐺 3x2, a multiplicação não pode ser feita, já que 𝐻 tem 2 colunas e 𝐺 tem
3 linhas. Para analisar a multiplicação 𝐺. 𝐻 procederemos da mesma forma, o

número de colunas da primeira matriz (𝐺 ) é igual a 2 e o número de linhas da

segunda matriz (𝐻 ) é igual a 2, portanto a multiplicação 𝐺. 𝐻 pode ser feita:

Propriedades gerais
Considerando as matrizes 𝐴, 𝐵, 𝐶 , a matriz nula 0, o escalar 𝐾 , a matriz

identidade 𝐼 e que as operações sejam possíveis.

𝐴𝐼= 𝐼𝐴=𝐴

𝐴 ( 𝐵 + 𝐶 ) = 𝐴𝐵 + 𝐴𝐶

( 𝐴 + 𝐵 ) . 𝐶 = 𝐴𝐶 + 𝐴𝐵
𝐴 ( 𝐴𝐶 ) = ( 𝐴𝐵 ) 𝐶

𝐴0=0𝐴=0
𝐴 é simétrica se 𝐴 = 𝐴t
( 𝐴 + 𝐵 )t = 𝐴 t + 𝐵 t

( 𝐴 t )t = 𝐴

( 𝐾 𝐴)t = 𝐾 𝐴t

( 𝐴 𝐵 )t = 𝐵 t 𝐴4

8 MATRIZ DE UMA TRANSFORMAÇÃO LINEAR

Nesta seção, veremos que se 𝑉 e 𝑊 são espaços vetoriais de dimensão finita,

com bases fixadas, então uma transformação linear 𝑇 ∶ 𝑉 → 𝑊 pode ser


representada por uma matriz. A vantagem de uma tal representação é que muitos
problemas associados às transformações lineares entre espaços de dimensão finita
podem ser resolvidos com a teoria das matrizes, como veremos na próxima seção e
nos capítulos a seguir.
Seja 𝑇 ∶ 𝑉 → 𝑊 uma transformação linear, em que dim 𝑉 = 𝑛 e dim 𝑊 = 𝑛.

Sejam 𝛼 = {𝑣 1, 𝑣 2, . . ., 𝑣 n} e 𝛽 = {𝑤 1, 𝑤 2, . . ., 𝑤 m} bases de 𝑉 e 𝑊 ,

respectivamente. Como 𝛽 é uma base de 𝑊 , podemos determinar de modo único

números reais 𝑎 ij , com 1 ≤ 𝑖 ≤ 𝑛, 1 ≤ 𝑗 ≤ 𝑚, tais que

4
Texto extraído de: www.sedis.ufrn.br
Exemplo: Sejam 𝛼 = {(1, 1),(0, 2)} e 𝛽 = {(1, 0, 1),(0, 1, 0),(1, 2, 0)}, bases de

ℝ2 e ℝ3 , respectivamente. Calculemos [𝑇 ] 𝛼 𝛽 , onde 𝑇 : ℝ2 → ℝ3 é dada por 𝑇


(𝑥, 𝑦) = (2𝑥 , 𝑥 − 𝑦, 2𝑦).
5

5
Texto extraído de: www.moodle.profmat-sbm.org.br
9 ESPAÇOS COM PRODUTO INTERNO

9.1 Produto Interno

Seja 𝑉 um espaço vetorial. Um produto interno em 𝑉 é uma função que a cada

par de vetores 𝑢 e 𝑣 em 𝑉 associa um número real, denotado por (𝑢, 𝑣, ) que satisfaz
as seguintes condições:
Para quaisquer vetores 𝑢, 𝑣 , e 𝑤 de 𝑉 e qualquer número real 𝑘 ,

Um espaço vetorial com um produto interno é chamado, abreviadamente, de


espaço com produto interno.
Proposição:
Seja 𝑉 um espaço com produto interno. Se 𝑢, 𝑣, 𝑤 ∈ 𝑉 e se 𝑘 ∈ ℝ, então

Demonstração:
Provaremos apenas (𝑖𝑖) e deixaremos os demais itens como exercício. De fato,
pelas condições PI 3 e PI 4 da definição de produto interno temos que
9.2 Operadores em Espaços com Produto Interno

Vamos definir importantes operadores em espaços com produto interno. Mais


precisamente, mostraremos a existência do operador adjunto de um operador linear
e, a partir deste introduzir as noções de operadores simétricos e operadores
ortogonais. Estes operadores estão relacionados com o Teorema Espectral, um dos
teoremas mais importantes da Álgebra Linear,
Supondo que 𝑉 é um espaço com produto interno de dimensão finita 𝑛 > 0.

✓ O Operador Adjunto: Dado um vetor 𝑣 ∈ 𝑉 , a ele associamos de modo

natural um funcional linear em 𝑉 , como segue:


De fato, ∅𝑣 é um funcional linear, pois, para todos 𝑢 1, 𝑢 2 ∈ 𝑉 e todo a ∈ ℝ,
temos

Assim, cada 𝑣 em 𝑉 define um funcional linear ∅𝑣 em 𝑉 , ou seja, um elemento

de (𝑉, 𝑅 ). A recíproca deste fato é também verdadeira, como mostra o seguinte


resultado.
Teorema 1: Dado um funcional linear ∅ em 𝑉 , existe um único vetor

𝑣 ∈ 𝑉 tal que ∅ = ∅𝑣.


Demonstração: Seja ∅ ∈ (𝑉 , ℝ) e fixe uma base ortonormal { 𝑣 1, 𝑣 2, . . ., 𝑣 n}

de 𝑉 . Todo elemento 𝑢 ∈ 𝑉 se escreve como

Existência: Tomemos 𝑣 = ∅( 𝑣 1) 𝑣1 + ∅( 𝑣 2) 𝑣 2 + · · · + ∅(𝑣 n) 𝑣 n. Por um lado,


temos

(1)

Por outro lado,

(2)

Juntando (1) e (2) obtemos que ∅(𝑢) = (𝑢, 𝑣) = ∅𝑣(𝑢), para todo 𝑢 ∈ 𝑉 .
Unicidade: Suponhamos que 𝑣′ tenha a propriedade (𝑢, 𝑣′) = (𝑢, 𝑣), para todo

𝑢 ∈ 𝑉 . Logo hu, ( 𝑢, 𝑣 − 𝑣′) = 0, para todo 𝑢 ∈ 𝑉 . Portanto, 𝑣 − 𝑣 é


ortogonal a todos os vetores de 𝑉 .

Observe que o Teorema 1 garante que a função 𝑣 → ∅ v, onde ∅v(𝑢 ) = (𝑢, 𝑣)

(𝑢 ∈ 𝑉 ), é um isomorfismo entre 𝑉 e (𝑉 , ℝ).

Teorema 2: Dado um operador linear 𝑇 em 𝑉 , existe um único operador linear

𝑇* em 𝑉 tal que

Demonstração: Tome 𝑤 ∈ 𝑉 . Como a função definida por 𝑣 → (𝑇 (𝑣 ), 𝑤 ) é

um funcional linear em 𝑉 (verifique), segue, do Teorema 1, que existe um único

vetor 𝑤′ ∈ 𝑉 tal que

Basta definir 𝑇* (𝑤 ) = 𝑤′ . A demonstração do Teorema 1 também nos mostra

que se { 𝑣 1, . . ., 𝑣 n} é uma base ortonormal de 𝑉 , então

Daí, vê-se claramente que 𝑇* é linear.

O operador 𝑇 * é chamado de operador adjunto de 𝑇 . Assim, o Teorema 2

afirma que todo operador linear 𝑇 , em um espaço com produto interno de

dimensão finita, possui um operador adjunto 𝑇*. O próximo resultado mostra

como podemos obter 𝑇* a partir de uma representação matricial de 𝑇.

Proposição:
Para toda base ortonormal α de 𝑉 e para todo operador linear 𝑇 em 𝑉 , temos
que

Lema: Seja α = { 𝑣 1, . . ., 𝑣 n} uma base ortonormal de 𝑉 . Se 𝐴 = [𝑎 ij ]n×n é a

matriz que representa um operador 𝑇 em 𝑉 , com relação à base α (ou seja,

), então

✓ Operadores Ortogonais: Um operador linear 𝑇 : 𝑉 → 𝑉 é dito ser um


operador ortogonal quando

Em outras palavras, 𝑇 é um operador ortogonal quando 𝑇 é invertível e 𝑇* =

𝑇−1.
Diremos que um operador 𝑇 em 𝑉 preserva norma, preserva distância, ou

preserva produto interno, quando, para todos 𝑢, 𝑣 ∈ 𝑉 , se tenha || 𝑇(𝑣)|| =

|| 𝑣 ||, 𝑑 ( 𝑇 ( 𝑢 ), 𝑇 ( 𝑣 )) = 𝑑 ( 𝑇 = (𝑢, 𝑣 ), ou ( 𝑇 ( 𝑢 ), 𝑇 ( 𝑣 )) = (𝑢, 𝑣 )


respectivamente. O resultado a seguir caracteriza os operadores ortogonais.
Teorema 3: Seja 𝑇 : 𝑉 → 𝑉 um operador linear. As seguintes afirmações são
equivalentes:
i. 𝑇 é ortogonal;
ii. 𝑇 preserva a norma;
iii. 𝑇 preserva a distância;
iv. 𝑇 preserva o produto interno;
v. 𝑇 transforma toda base ortonormal de 𝑉 numa base ortonormal de 𝑉 ;
vi. 𝑇 transforma alguma base ortonormal de 𝑉 numa base ortonormal de 𝑉.
Fonte:www2.ugb.edu.br
10 AUTOVALORES E AUTOVETORES

É uma transformação especial T : V → W.

T(v) = v

Onde,  é o autovalor (escalar) e v é autovetor (se v  0).


Como toda transformação linear pode ser escrita pela multiplicação de uma
matriz por um vetor então:

(II) T(v) = Av

Igualando (I) e (II), tem-se:

Av = v ou Av – v = 0 que resulta no sistema homogêneo:

(III) (A – I) v = 0

Onde A é n x n, v = 0 é sempre solução (trivial).

Os vetores v  0 para os quais existe um  que resolve a equação (III) são


chamados de autovetores da matriz A e os valores de , que conjuntamente com v
resolvem a equação são chamados de autovalores da matriz A associados aos
respectivos autovetores.
Para que a equação (III) tenha solução além da trivial é necessário que o
determinante da matriz dos coeficientes seja zero, ou seja,

det(A – I) = 0

o que resulta em um polinômio de grau n em , conhecido como polinômio


característico. As raízes do polinômio característico são os autovalores da matriz A.
Para se encontrar os autovetores basta substituir o valor do autovalor na
equação original e encontrar o autovetor. O autovalor será, então, associado ao
autovetor encontrado.

Fonte:www.canaldoensino.com.br

Na verdade, o autovetor encontrado forma uma base para o espaço de solução


da equação (III), dado o respectivo autovalor. Logo, qualquer múltiplo do autovetor
também é um autovetor.
Portanto:

Sendo A a matriz canônica que representa um operador linear T, temos:


autovalores  de T ou de A: são as raízes da equação
det(A – I) = 0,
autovetores v de T ou de A: para cada , são as soluções da equação
Av = v ou (A – I)v = 0.
10.1 Interpretação geométrica

➢ u é autovetor de T
pois   R / T(u) = u.

➢ v não é autovetor de
T pois não   R / T(v)

= v.

Exemplo 1: Considere o
operador linear definido no exemplo anterior:

T: R2 → R2

(x, y)  (4x + 5y, 2x + y)

✓ autovalores de  4 5  , matriz canônica de T.


A= 
2 1

Resolvemos a equação característica det (A – I) = 0:

 4 5 1 0   4 −  5 
A − I =   −  =
0 1   2
2 1    1 −  

det (A – I) = 0  (4 – ) (1 – ) – 10 = 0  2 – 5 – 6 = 0

 1 = – 1 e 2 = 6.
✓ Autovetores de A ou de T:
Para cada autovalor  encontrado, resolvemos o sistema linear (A – I)v = 0:

x
1 = − 1; v= 
 y
 4 − ( − 1) 5   x  0 
( A − 1I ) v = 0    y  = 0 
 2 1 − ( − 1)     
5 x + 5 y = 0

2 x + 2 y = 0
 x = -y

Então, v 1 = (– y, y) sendo um de seus representantes o vetor v1 = (– 1, 1).

x
 2 = 6; v= 
 y
4 − 6 5   x  0 
( A − I ) = 0     y  = 0 
 2 1 − 6     
− 2 x + 5 y = 0
 
 2x − 5 y = 0
5
 x= y.
2

Então v  2 = ( 52 y, y) sendo um de seus representantes o vetor v2 = ( 52 , 1).

Exemplo 2: Determinar os autovalores e autovetores do operador linear:

T : 3 → 3, T(x,y,z) = (3x – y + z, -x + 5y + z, x – y + 3z)


Em forma matricial:

 x   3 − 1 1  x 
    
T y = − 1 5 1 . y = Av
    
 z   1 − 1 3  z 
3- -1 1
det[A -  I] = - 1 5- 1 = − 3 + 112 − 36  + 36 = 0
1 -1 3-

Cálculo numérico:

 = 0  -36 = 0  logo 1 > 0

 = 1  -10 = 0  logo 1 > 1

 = 2  0 = 0  logo 1 = 2

Dividindo por ( – 2):

( – 2) (2 - 9 + 18) = 0  2 = 6 e 3 = 3

Os autovalores são 1 = 2, 2 = 6 e 3 = 3
Para achar os autovetores basta substituir cada um dos autovalores na
equação (A– I) v = 0:

Para 1 = 2:

 1 − 1 1   x  0 
    
−1 3 −1 . y = 0
     Escalonando:
 1 − 1 1   z   0 
1 − 1 1 1 0 1
   
0 2 0  0 1 0  ou seja, y = 0 e z = − x
   
 0 0 0   0 0 0 

Logo, v1 = (x,0,-x) = x (1,0,-1)

Assim, qualquer múltiplo do vetor (1,0,-1) é um autovetor que tem como


autovalor associado 1 = 2, v1 = (1,0,-1)

Para 2 = 3:

 0 − 1 1   x  0 
    
−1 2 −1 . y = 0
    
 1 − 1 0   z   0 
0 −1 1 0 0 0
   
1 −2 1  1 0 − 1 ou seja, z = x e z = y, x = y = z
   
 0 1 − 1  0 1 − 1

Assim, v2 = (x, x, x) = x (1,1,1).

v2 = (1,1,1) ou seus múltiplos.

Para 3 = 6:
− 3 −1 1   x  0 
    
−1 −1 −1 . y = 0
    
 1 − 1 − 3  z   0 
0 −4 − 8 0 0 0
   
0 −2 −4  0 1 2 ou seja, z = x e − 2z = y
   
1 −1 − 3  1 0 − 1

v3 = (z, -2z, z) = z (1,-2,1)

v3 = (1,-2,1) ou seus múltiplos.

Observações:
✓ Se  é um autovalor de A, o conjunto S de todos os vetores v  V, inclusive v
nulo, associados a , é um subespaço vetorial (próprio) de V.
✓ A matriz dos autovetores é chamada MATRIZ MODAL.

 3 − 1
Exemplo 3:
A= 
1 3

✓ equação característica: det(A – I) = 0.

3− −1
=0  ( 3 −  )2 + 1 = 0  2 − 2 3 + 4 = 0
1 3−

2 3  2i
 = = 3i
2

✓ autovalores de A: os valores 1 = 3 + i e 2 = 3 − i não são reais  A

possui autovalores complexos, igualmente válidos para nós!


✓ O procedimento para se determinar os autovetores é o mesmo. Assim, é
possível encontrar os autovetores associados a estes autovalores.

11 DIAGONALIZAÇÃO

Matrizes diagonais são matrizes da forma

Já que são triangulares, seus autovalores são os elementos da diagonal


principal. Observamos também que os autovetores associados são os elementos da
base canônica de ℝn.

Fonte: www.i2.wp.com
Na realidade, o fato de se conseguir formar uma base com autovetores de uma
matriz está intimamente relacionado com se obter uma matriz diagonal semelhante a
𝑨 . De fato, vamos justificar que, sempre que for possível formar uma base do
espaço ℝn apenas com autovetores de uma matriz quadrada 𝑨, então é possível fazer
uma mudança de base de modo que a obter uma matriz diagonal, com os autovalores
na diagonal principal. Este procedimento é chamado de diagonalização da matriz 𝑨,
por motivos óbvios. O método, que é surpreendentemente simples (mas, na prática,
trabalhoso), consiste em montar uma matriz 𝑷 com os autovetores de 𝑨 e efetuar
multiplicações de matrizes:

Exemplo: Para a matriz

temos autovalores λ1=1 e λ2=−3 e auto espaços associados:

Montamos a matriz
Por escalonamento, podemos calcular a matriz inversa

e temos

Embora o método de diagonalização seja bastante transparente, pois basta


seguir uma sequência de passos, ele é muito trabalhoso! Não se deve iludir com a
aparente simplicidade das contas no Exemplo acima, pois as contas já haviam sido
feitas anteriormente (além de que “escondemos” o cálculo da inversa P−1). Na
totalidade, os passos envolvem:
✓ Calcular o polinômio característico p(λ)=det(A−λI). Aqui já entra uma
quantidade significativa de cálculos, cuja quantidade aumenta de acordo com
a dimensão do problema;
✓ Encontrar as raízes do polinômio característico. Este passo pode ser muito
complicado, já que muitas vezes não é possível encontrar raízes
explicitamente;
✓ Depois de conhecidos os autovalores, calcular cada um dos autoespaços
associados, o que demanda a resolução de tantos sistemas lineares quantos
forem os autovalores distintos da matriz;
✓ Observe que, se estivermos apenas interessados em encontrar uma base de
autovetores e uma matriz diagonal equivalente a 𝐴, então não há necessidade

de se calcular 𝑃 − 1 , pois já sabemos que o método funciona e que 𝑃 −

1𝐴𝑃 = 𝐷. No entanto, uma descrição mais completa pode ser necessária nas
principais aplicações, de modo que ainda seria preciso uma quantidade grande
de cálculos para determinar a matriz 𝑃 − 1.

Fonte: www.educacaoadventista.org.br

Nem todas as matrizes são diagonalizáveis, como acima. Já vimos que isto é
possível quando uma base de autovetores existe. No exemplo

não há dois autovetores linearmente independentes e, portanto, não é possível


diagonalizar a matriz 𝐴.
Em geral, valem as seguintes propriedades: seja 𝐴 uma matriz de ordem

𝑛 × 𝑛. Então:

✓ Se 𝐴 possui 𝑛 autovalores reais distintos, então 𝐴 possui uma base de


autovetores e é diagonalizável, pois possui um autovetor associado a cada um
dos seus autovalores distintos.

✓ No caso de 𝐴 possuir autovalores reais com multiplicidade maior do que 1,

apenas será diagonalizável se cada autovalor de multiplicidade 𝑘 tiver 𝑘


autovetores linearmente independentes. Em outras palavras, só será possível
formar uma base de autovetores de 𝐴 quando

Na notação introduzida não seção anterior, isto é, o mesmo que dizer que, se
𝐴 for diagonalizável, então as multiplicidades algébrica e geométrica são iguais.

✓ Caso 𝑑𝑖𝑚𝑁𝑢𝑙(𝐴 − 𝜆𝐼) seja menor do que a multiplicidade do autovalor 𝜆 ou 𝐴

possua autovalores complexos, então 𝐴 não é diagonalizável.


Exemplo: A matriz
12 REFERÊNCIAS BIBLIOGRÁFICAS

Bibliografia Básica

ANTON, H; BUSBY, R. Álgebra Linear Contemporânea. Bookman,


2006.

ANTON, H; RORRES. Álgebra Linear com Aplicações. Bookman,


2001.

BOLDRINI, J. L; COSTA, S. R. C; FIGUEIREDO, V. L; WETZLER, H.


G. Álgebra Linear. Editora Harbra Ltda. São Paulo, 1986.

Bibliografia Complementar

CALLIOLI, C. A; DOMINGUES, H. H; COSTA, R. C. F. Álgebra Linear e


Aplicações. Atual Editora. 1987.

NOBLE, B; DANIEL, J. W. Álgebra Linear Aplicada. Prentice/Hall do Brasil. 1977.

POOLE, D. Álgebra Linear. Thomson, 2004.

Você também pode gostar