Escolar Documentos
Profissional Documentos
Cultura Documentos
PARTE 3:
AU T OVA L O R E AU T OV E T O R .
ESPAÇ OS C OM PRODUTO INTERN O
106
AU T OVA L O R E S E AU T OV E T O R E S
Nesta parte da matéria, vamos estudar dois objetos muito interessantes associados à
matrizes, conhecidos como autovalores e autovetores. Vamos ver adiante que a ideia surgiu
no estudo do movimento rotacional e, mais tarde, foi usada para classificar superfícies e para
descrever soluções de certas equações diferenciais. No início do século XX, foi aplicada a
matrizes e transformações matriciais e hoje tem aplicações a áreas tão diversas como
computação gráfica, vibrações mecânicas, fluxo do calor, dinâmica populacional, mecânica
quântica e até economia18.
U M P O U C O D E H I S T Ó R I A 19
No início do século XIX, Augustin-Louis Cauchy viu como seu trabalho poderia ser usado
para classificar as superfícies quádricas, e generalizou-o para dimensões arbitrárias. Cauchy
também cunhou o termo racine caractéristique (raiz característica), para o que agora é
chamado de autovalor; seu termo sobrevive na equação característica.
Mais tarde, Joseph Fourier usou o trabalho de Lagrange e Pierre-Simon Laplace para resolver
a equação do calor por separação de variáveis em seu famoso livro de 1822, Théorie
analytique de la chaleur. Charles-François Sturm desenvolveu ainda mais as ideias de Fourier
e chamou a atenção de Cauchy, que as combinou com suas próprias ideias e chegou ao fato
de que matrizes simétricas reais têm autovalores reais. Isso foi estendido por Charles
Hermite em 1855 para o que hoje é chamado de matrizes hermitianas.
18 18 Álgebra Linear com Aplicações - H. Anton, C. Rorres, 10a ed., ed. Bookman, pg. 295
19 https://pt.wikipedia.org/wiki/Autovalores_e_autovetores
107
Nesse ínterim, Joseph Liouville estudou problemas de autovalor semelhantes aos de Sturm;
a disciplina que surgiu de seu trabalho agora é chamada de teoria de Sturm-Liouville.
Schwarz estudou o primeiro autovalor da equação de Laplace em domínios gerais no final do
século XIX, enquanto Poincaré estudou a equação de Poisson alguns anos depois.
No início do século XX, David Hilbert estudou os autovalores dos operadores integrais,
visualizando os operadores como matrizes infinitas. Ele foi o primeiro a usar a palavra alemã
eigen, que significa "próprio", para denotar autovalores e autovetores em 1904, embora possa
ter seguido um uso relacionado por Hermann von Helmholtz. Por algum tempo, o termo
padrão em inglês era "valor adequado", mas o termo mais distinto "valor próprio" é o padrão
hoje.
A U L A 15 : A U T OVA L O R E S E A U T OV E T O R E S
Nesta aula, vamos definir autovalores e autovetores e estudar algumas propriedades básicas.
Definição 1: Seja A uma matriz n × n. Dizemos que o vetor não nulo v ∈ ℝn é um autovetor de A (ou
do operador matricial TA) se Av é múltiplo escalar de v, ou seja,
Av = λv
para algum escalar λ ∈ ℝ. O escalar λ é chamado de autovalor de A (ou de TA), e dizemos que v é um
autovetor associado a λ.
Observação: Em geral, quando multiplicamos um vetor x por uma matriz A , o novo vetor Ax pode ser
bem diferente de x , conforme vimos nas Transformações Matriciais de aulas anteriores. Entretanto,
quando, em particular, x é um autovetor, então a imagem Ax será um vetor que vai estar na mesma
direção de x , onde o sentido será dado pelo valor de λ , ou seja, dependendo do sinal de λ , a operação
Ax = λx pode comprimir ou expandir x pelo fator λ.
[2] [8 −1]
1 3 0
Observe que o vetor x = é um autovetor da matriz A = , associado
ao autovalor λ = 3, pois
Encontrando autovalores
Em primeiro lugar, observe que, por definição, temos que Ax = λx , o que pode ser reescrito
como Ax = λIx , onde I é a matriz identidade. Logo,
(A − λI )x = 0.
Com isso, observamos que λ será um autovalor da matriz A se a equação acima tiver uma
solução não nula, x.
Pelo teorema que vimos, uma equação da forma Bx = 0 tem somente a solução trivial se, e
só se, det(B) ≠ 0. Logo, como queremos uma solução não trivial, vamos procurar soluções λ
tais que det(A − λI ) = 0.
Teorema 1: Considere uma matriz A, de tamanho n × n. Então λ será um autovalor de A se, e somente
se, λ satisfaz a equação
det(A − λI ) = 0.
Esta equação é chamada de equação característica de A.
−λ 1 0
det(A − λI ) = det 0 −λ 1 = (−λ)(−λ)(8 − λ) − (−λ)(−17) + 4
4 −17 8 − λ
= − λ 3 + 8λ 2 − 17λ + 4 = 0.
Para resolver a equação acima, vamos iniciar procurando por soluções inteiras.
Esta tarefa pode ser simplificada se lembrarmos de que todas as soluções inteiras (se houver) de uma
equação polinomial da forma
λ n + c1λ n−1 + … + cn = 0
com coeficientes inteiros são divisores do termo independente cn.
Com isso, na equação acima, as únicas soluções inteiras possíveis são ± 1, ± 2, ± 4. Após substituir os
possíveis valores na equação de grau 3 acima, encontramos que λ = 4 é uma solução inteira. Desta forma,
(λ − 4) é um fator do polinômio, ou seja, conseguimos dividir −λ 3 + 8λ 2 − 17λ + 4 por λ − 4 . Com
isso, podemos reescrever a equação acima como
−λ 3 + 8λ 2 − 17λ + 4 = (λ − 4)(−λ 2 + 4λ − 1) = 0.
Assim, as demais soluções serão aquelas que resolvem a equação de grau 2 acima, ou seja,
−λ 2 + 4λ − 1 = (−1)(λ 2 − 4λ + 1) = 0,
Fornecendo λ = 2 + 3, λ = 2 − 3 .
Portanto, os autovalores se A são dados por
λ1 = 4, λ2 = 2 + 3, λ3 = 2 − 3 .
Observação: Em casos onde a matriz possui dimensão alta, calcular o autovalor por este método não é
uma tarefa simples. Logo, a ideia será utilizar outros métodos para encontrar autovalores. Estes métodos
serão vistos no final deste curso.
Teorema 2: Se A é uma matriz triangular n × n, então os autovalores de A são dados pelos elementos da
diagonal principal de A.
Encontrando autovetores
Em outras palavras, os autovetores são aqueles vetores não nulos que pertencem ao espaço
nulo da matriz A − λI . Dizemos que este espaço nulo é o autoespaço de A associado a λ .
Podemos dizer então que o autoespaço de A associado ao autovalor λ é o espaço solução do
sistema homogêneo (A − λI )v = 0.
[8 −1]
3 0
Encontre bases dos autoespaços da matriz A = .
[ 2]
x1
Considere v1 = x o autovetor associado ao autovalor λ1 . Com isso, v1 é uma solução não trivial de
11 2
[ 1 ]
Os autovetores associados a λ1 = 3 são os vetores não nulos da forma v1 = [ ] = t
t/2 1/2
, onde o
t
[ 1 ]
1/2
vetor é uma base do autoespaço associado a λ1 = 3.
−1 0
[ 1 ] [0]
Como os vetores 0 e 1 são LI (Exercício!), temos estes vetores formam a base do autoespaço
associado a λ = 2.
No caso λ = 1, temos que a equação torna-se:
−1 0 −2 x1 0
[1 0 2] x [0]
1 1 1 x2 = 0 .
3
−2
[1]
Onde o vetor 1 forma a base para o autoespaço associado a λ = 1.
autovetores de A associados ao autovalor λ = 2 , de modo que, pelo teorema acima, estes também são
autovetores da matriz A 7 associados ao autovetor λ = 27 = 128.
−2
[1]
De forma análoga, o vetor 1 é um autovetor de A associado ao autovalor λ = 1, onde este também
Para encerrar esta aula, vamos relacionar a invertibilidade de uma matriz aos seus
autovalores pelo seguinte resultado.
Teorema 4: Uma matriz quadrada A é invertível se, e somente se, λ = 0 não é um autovalor de A.
Demonstração:
Seja A uma matriz n × n. Note que a equação característica de A é dada por:
λ n + c1λ n−1 + … + cn = 0.
Assim, λ = 0 é uma solução desta equação se, e somente se, cn = 0. Logo, A é invertível se, e somente se,
cn ≠ 0.
Com isso, como det(A − λI ) = λ n + c1λ n−1 + … + cn , onde fazendo λ = 0 , temos det(A) = cn ,
então det(A) = 0 se, e somente se, cn = 0, ou seja, A é invertível se, e somente se, cn ≠ 0.
AU L A 16 : D I AG O N A L I Z AÇ Ã O
Nesta aula, vamos estudar o problema de encontrar uma base de ℝn que seja formada por
autovetores de uma dada matriz A, de tamanho n × n.
Estas bases podem ser usadas para estudarmos algumas propriedades geométricas de A e
também para simplificar muitas contas envolvendo a matriz A . Essas bases também têm
significado físico em diversas aplicações, onde veremos algumas posteriormente.
Para iniciarmos vamos definir os seguintes dois problemas a seguir. Apesar de parecerem
diferentes, vamos ver que na verdade são problemas equivalentes.
Problema 1: Dada uma matriz A de tamanho n × n, existe alguma matriz invertível P tal que P −1 AP é
uma matriz diagonal?
Problema 2: Dada uma matriz Ade tamanho n × n, existem n autovetores de A LI?
Com isso, observamos que o problema 1 acima se resumo a saber se uma matriz A é
semelhante a alguma matriz diagonal. Se este for o caso, esta matriz diagonal terá as
mesmas propriedades da matriz A , conforme tabela 1 abaixo, porém em um formato mais
simples de se trabalhar.
11 6
Definição 2: Uma matriz quadrada A é dita diagonalizável se for semelhante a alguma matriz
diagonal, ou seja, se existir uma matriz invertível P tal que P −1 AP seja diagonal. Neste caso, dizemos
que a matriz P diagonaliza A.
Com isso, o próximo resultado vai garantir que os dois problemas definidos inicialmente são
equivalentes.
Observe que o resultado acima garante quando uma matriz A , n × n , é diagonalizável, mas
não nos diz como podemos encontrar a matriz diagonal associada, ou seja, não nos diz como
podemos diagonalizar uma matriz A . Vamos ver abaixo um procedimento que podemos
aditar para isto.
Passo 3) A matriz P −1 AP será diagonal com os autovalores λ1, λ2, …, λn , correspondentes aos
autovetores p1, p2, …, pn, como entradas diagonais.
Note que já vimos esta matriz na aula passada, onde vimos que a equação característica de A é dada por
(λ − 1)(λ − 2)2 = 0,
onde também encontramos as seguintes bases dos autoespaços
−1 0
[1] [0]
λ = 2 : p1 = 0 , p2 = 1 ;
−2
[1]
λ = 1 : p3 = 1 .
Observação: Em geral não existe uma ordem preferencial para as colunas de P . Note que a i -ésima
entrada diagonal de P −1 AP é um autovalor do i-ésimo vetor coluna de P. Logo, se mudarmos a ordem das
colunas de P, isso só muda a ordem dos autovalores na diagonal de P −1 AP.
1−λ 0 0
det(A − λI ) = det 1 2−λ 0 = (1 − λ)(2 − λ)2.
−3 5 2−λ
Logo, a equação característica é (1 − λ)(2 − λ)2 = 0, onde os autovalores distintos são dados por λ = 1
e λ = 2. Fica como exercício verificar que as bases dos respectivos autoespaços são dados por
1/8
[ ]
λ = 1 : p1 = −1/8 ;
1
0
[ ]
λ = 2 : p2 = 0 .
1
Porém como A é 3 × 3 e só tem 2 vetores de base dos autoespaços, então A não é diagonalizável.
Os próximos resultados vão nos mostrar como determinar se uma matriz é diagonalizável
apenas olhando para os autovalores da matriz.
Teorema 2: Se v1, v2, …, vk forem autovetores de uma matriz A associados a autovalores distintos, então
o conjunto {v1, v2, …, vk} é LI.
Demonstração:
Se v1, v2, …, vn são autovetores associados aos n autovalores distintos λ1, λ2, …, λn, então pelo Teorema
2 acima, temos n autovetores LI. Assim, pelo Teorema 1, A é diagonalizável.
4 1 0
P −1 AP = 0 2 + 3 0 ,
0 0 2− 3
para alguma matriz invertível P . Caso queiramos calcular a matriz P , podemos fazê-lo utilizando o
procedimento do exemplo 1 acima.
−1 2 4 0
0 3 1 7
Exercício 1: A matriz triangular A = é diagonalizável? Escreva um resultado que
0 0 5 8
0 0 0 −2
generalize o raciocínio para matrizes triangulares quaisquer.
Considere uma matriz diagonalizável A, de tamanho n × n, e uma matriz invertível P tal que
λ1 0 … 0
0 λ2 … 0
P −1 AP = = D.
⋮ ⋮ ⋮
0 0 … λn
Elevando ambos os lados ao quadrado, obtemos
λ12 0 … 0
−1 2 0 λ22 … 0
(P AP) = = D 2.
⋮ ⋮ ⋮
0 0 … λn2
Por outro lado, observe que
(P −1 AP)2 = (P −1 AP)(P −1 AP) = P −1 AIAP = P −1 A 2 P.
Logo, temos que
12 0
λ12 0 … 0
−1 2 2 0 λ22 … 0
P A P=D = ,
⋮ ⋮ ⋮
0 0 … λn2
onde para uma potência k, inteiro positivo,
λ1k 0 … 0
−1 k k 0 λ2k … 0
P A P=D = ,
⋮ ⋮ ⋮
0 0 … λnk
ou ainda,
λ1k 0 … 0
k k −1 0 λ2k … 0
A = PD P =P P −1.
⋮ ⋮ ⋮
0 0 … λnk
0 0 −2
[1 0 3 ]
13
Exemplo 4: Calcule A , sabendo que A = 1 2 1 .
Observe que a matriz A foi dada no exemplo 1 acima. Além disso, foi mostrado que A é diagonalizada
−1 0 −2 2 0 0
[1 0 1] [0 0 1]
pela matriz P = 0 1 1 e que D = P −1 AP = 0 2 0 .
Assim,
−1 0 −2 2 0 0 1 0 2
[ 1 0 1 ] [0 0 1] [−1 0 −1]
A = PDP −1 = 0 1 1 0 2 0 1 1 1 ,
onde
A U L A 17 : A P L I C A Ç Ã O À S E Q U A Ç Õ E S D I F E R E N C I A I S
Sabemos que muitos fenômenos da física, química, biologia, engenharia e economia podem
ser descritos em termos de equações diferenciais, ou seja, equações que envolvem funções e
suas derivadas.
Nesta aula, vamos estudar uma forma onde podemos relacionar o que estudamos no
conteúdo de autovalores e autovetores à resolução de sistemas de equações diferenciais.
Uma equação diferencial é uma equação que envolve funções desconhecidas e suas
derivadas.
A ordem de uma equação diferencial é dada pela ordem da maior derivada que aparece na
equação.
y′ = ay
dy
onde y = f (x) é uma função desconhecida a ser determinada, y′ = é sua derivada e a é
dx
uma constante real.
y = ce ax,
onde c ∈ ℝ é uma constante arbitrária. Observe que estas funções de fato resolvem a
equação diferencial acima, pois
d
[ce ] = cae = a(ce ) = ay.
ax ax ax
y′ =
dx
É possível mostrar que as soluções desta equação diferencial só podem ser deste tipo. Por
conta desta propriedade, dizemos que y = ce ax é a solução geral da equação diferencial
acima.
12 3
Nesta aula vamos estudar como resolver um sistema de equações diferenciais de primeira
ordem da forma:
ou ainda
12 4
y′ = Ay,
y1
y2
onde y′ denota o vetor obtido derivando cada componente de y = .
⋮
yn
Solução:
y′1 3 0 0 y1
a) y′2 = 0 −2 0 y2 ;
y′3 0 0 5 y3
b) Como cada equação no sistema só envolve a função incógnita correspondente, então podemos resolver de
forma separada cada equação e obter
y1 = c1e 3x y1 c1e 3x
y2 = c2e −2x , ou em notação matricial y2 = c2e −2x ;
y3
y3 = c3e 5x c3e 5x
c) Pelas condições iniciais dadas, temos que
y1(0) = c1e 0 = c1 = 1
y2(0) = c2e 0 = c2 = 4 .
y3(0) = c3e 0 = c3 = − 2
Logo, a solução será
y1 = 1e 3x y1 1e 3x
y2 = 4e −2x , ou em notação matricial y2 = 4e −2x .
y3
y3 = − 2e 5x −2e 5x
12 5
Devemos observar que a simplicidade da resolução do sistema acima se deu por conta de
cada equação envolver somente uma função incógnita, de modo que na forma matricial do
sistema y′ = Ay, a matriz A era diagonal.
Vamos estudar agora o caso geral para a matriz A , ou seja, o caso onde a matriz A não é
diagonal. Observe que, neste caso, cada equação do sistema vai envolver mais de uma
função incógnita.
Isso vai nos facilitar na resolução pois se y = Pu, então y′ = Pu′ e, então,
Pu′ = A(Pu)
ou seja,
u′ = (P −1 AP)u.
Como supomos que P diagonaliza A , então P −1 AP = D , onde D é uma matriz diagonal.
Assim,
u′ = Du,
com D diagonal. Esta equação é muito simples de se resolver, bastando proceder como no
exemplo acima.
Solução:
[4 −2]
1 1
a) Note que a matriz de coeficientes é dada por A = . Logo, como vimos, a matriz A será
[ 4 −2 − λ]
1−λ 1
det(A − λI ) = det = (1 − λ)(−2 − λ) − 4
= λ 2 + λ − 6 = (λ + 3)(λ − 2),
Os autovalores são λ = − 3 e λ = 2.
[ 2]
v1
Sabemos que v = v é um autovetor associado a A se este é uma solução não trivial (não nula) da
equação
[ 4 −2 − λ] [v2] [0]
1−λ 1 v1 0
= .
Se λ = 2, temos o sistema
[ 2] [1]
v1
v= v =[]=t
t 1
,
t
[1]
1
Ou seja, p1 = é uma base do autoespaço associado a λ = 2.
[ 1 ]
−1/4
De forma análoga, podemos verificar (exercício) que p1 = é uma base do autoespaço associado a
λ = − 3.
[1 1 ]
1 −1/4
Logo, P = é uma matriz que diagonaliza A e, além disso,
[0 −3]
2 0
P −1 AP = , o que finaliza o Passo 1 do procedimento acima.
Que é um novo sistema u′ = Du , com matriz dos coeficientes D , matriz diagonal formada pelos
autovalores de A, ou seja,
[0 −3]
2 0 u′1 = 2u1
u′ = u ⇒ .
u′2 = − 3u2
O Passo 3 consiste em resolver o sistema acima, o que já sabemos que a solução geral é dada por
u1 = c1e 2x c1e 2x
[c2e −3x]
−3x
⇒ u= .
u2 = c2e
O Passo 4 consiste em encontrar a solução y = Pu, a partir da solução acima.
Logo,
c2 −3x
[ 2] [1 1 ] [c2e −3x] [c e 2x +
2x c1e 2x − e
−3x ]
y1 1 −1/4 c1e 4
y= y = = ,
1 c2e
Ou ainda,
c2 −3x
y1 = c1e 2x − 4
e
.
2x
y2 = c1e + c2e −3x
b) Como y1(0) = 1, y2(0) = 6, temos que
c2
y1(0) = c1 − 4
=1
.
y2(0) = c1 + c2 = 6
Resolvendo este sistema linear (exercício), obtemos c1 = 2, c2 = 4 , onde a solução do PVI associado é
dada por
y1 = 2e 2x − e −3x
.
y2 = 2e 2x + 4e −3x
Exercício 1:
y′1 = y1 + 4y2
a) Resolva o sistema ;
y′2 = 2y1 + 3y2
b) Encontre a solução que satisfaz as condições iniciais y1(0) = 0, y2(0) = 0.
Exercício 2:
y′1 = 4y1 + y3
a) Resolva o sistema y′2 = − 2y1 + y2 ;
y′3 = − 2y1 + y3
b) Encontre a solução que satisfaz as condições iniciais y1(0) = − 1, y2(0) = 1, y3(0) = 0.
12 8
INTRODUÇÃO
AU L A 18 : E S PAÇ O S C O M P R O D U T O I N T E R N O
Nesta aula, vamos estender alguns conceitos mais importantes relacionados a produto
escalar, como comprimento, distância, ângulo e perpendicularidade a espaços vetoriais
arbitrários.
Produto Interno
Em algumas aulas atrás, definimos o conceito de produto escalar entre dois vetores de ℝn ,
além de outras propriedades. Vamos definir abaixo o que seria um “produto escalar para
espaços vetoriais arbitrários”.
Definição 1: Um Produto Interno em um espaço vetorial V é uma função que associa a um par de
vetores (u, v) em V, a imagem real ⟨u, v⟩ ∈ ℝ, satisfazendo:
1. ⟨u, v⟩ = ⟨v, u⟩ (Simetria)
2. ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩ (Aditividade)
3. ⟨au, v⟩ = a⟨u, v⟩ (Homogeneidade)
4. ⟨v, v⟩ ≥ 0 e ⟨v, v⟩ = 0 se, e somente se, v = 0 (Positividade)
Um espaço vetorial com esta função é chamado de espaço com produto interno.
Note que todos os axiomas acima são satisfeitos em ℝn se definirmos o seguinte produto
interno:
Baseado na definição acima podemos relacionar o produto interno com a norma de um vetor
e a distância entre dois vetores da seguinte forma:
Definição 2: Se V é um espaço com produto interno, então a norma (ou comprimento) de um vetor
v ∈ V é definido por
13 0
∥v∥ = ⟨v, v⟩ .
Quando um vetor possui norma 1, ou seja, se ∥v∥ = 1, dizemos que v é um vetor unitário.
A distância entre dois vetores u, v ∈ V é denotada por d(u, v) e definida por
d(u, v) = ∥u − v∥ = ⟨u − v, u − v⟩ .
Observação 1: Existem aplicações onde podemos ponderar cada parcela do produto interno euclidiano
usual da seguinte forma:
Se w1, w2, …, wn forem números reais positivos, chamados de pesos, u = (u1, u2, …, un) e
v = (v1, v2, …, vn) forem vetores de ℝn, então é possível mostrar que
⟨u, v⟩ = w1(u1v1) + w2(u2v2) + … + wn(unvn)
define um produto interno em ℝn, que denominamos produto interno euclidiano ponderado, com pesos
w1, w2, …, wn.
Solução:
1. Observe que ⟨u, v⟩ = ⟨v, u⟩;
2. ⟨u + v, w⟩ = 3(u1 + v1)w1 + 2(u2 + v2)w2 = 3(u1w1 + v1w1) + 2(u2w2 + v2w2)
= (3u1w1 + 2u2w2) + (3v1w1 + 2v2w2) = ⟨u, w⟩ + ⟨v, w⟩
3. ⟨au, v⟩ = 3(au1)v1 + 2(au2)v2 = a(3u1v1 + 2u2v2) = a⟨u, v⟩;
4. ⟨v, v⟩ = 3v12 + 2v22 ≥ 0, onde 3v12 + 2v22 = 0 se, e somente se, v1 = v2 = 0, ou seja, v = 0.
131
É importante ressaltar que a norma e a distância dependem do produto interno que está
sendo adotado. Em outras palavras, se o produto interno mudar, as normas e as distâncias
também mudarão.
Por exemplo, observe que os vetores u = (1,0) e v = (0,1) em ℝ2 , com o produto interno
euclidiano, satisfazem:
∥u∥ = 1
e
d(u, v) = ∥u − v∥ = ∥(1, − 1)∥ = 12 + (−1)2 = 2.
Porém, se considerarmos o produto interno ponderado do exemplo 1, obtemos que
∥u∥ = ⟨u, u⟩1/2 = (3.(1) . (1) + 2.(0) . (0))
1/2
= 3
e
d(u, v) = ∥u − v∥ = ⟨u − v, u − v⟩1/2
Os produtos internos euclidiano e ponderado podem ser vistos como casos particulares de
um produto interno mais geral, chamado de produto interno matricial. Para definir este
produto interno, considere dois vetores em forma de matriz coluna u, v ∈ ℝn e seja a matriz
A, uma matriz n × n invertível. Pode ser mostrado que a fórmula
⟨u, v⟩ = Au ⋅ Av
Também define um produto interno em ℝn , chamado de produto interno gerado por A .
Agora, observe que se u, v estiverem em forma de coluna, então u ⋅ v = v T u (Verifique
isso!). Logo, a expressão acima poderá ser escrita como
⟨u, v⟩ = (Av)T Au
Ou ainda,
⟨u, v⟩ = v T A T Au.
[0 2]
3 0 3 0
A= ⇒ AT A = .
0 2
[0 2] [u2]
3 0 u1
⟨u, v⟩ = v T A T Au = [v1 v2] = 3u1v1 + 2u2v2.
Ângulo e Ortogonalidade
Vimos na parte 2 do nosso curso que o ângulo entre dois vetores u, v em ℝn pode ser
calculado a partir de
13 3
u⋅v
cos(θ) = .
∥u∥∥v∥
Esta definição pode ser estendida a espaços vetoriais que possuem produto interno da
seguinte forma:
Definição 3: Dados dois vetores u, v em um espaço com produto interno, o ângulo θ entre u e v
⟨u, v⟩
cos(θ) = .
∥u∥∥v∥
Observação: Conseguimos definir o cosseno do ângulo entre os vetores por conta de um resultado
importante abaixo:
Desigualdade de Cauchy-Schwarz:
Dados u, v ∈ V, com V espaço com produto interno, então
| ⟨u, v⟩ | ≤ ∥u∥∥v∥.
⟨u, v⟩
Com esta desigualdade, temos que −1 ≤ ≤ 1 e, então, podemos garantir que existe um único
∥u∥∥v∥
⟨u, v⟩
ângulo θ ∈ [0,π] tal que cos(θ) = .
∥u∥∥v∥
Definição 4: Dizemos que dois vetores u, v de um espaço com produto interno são ortogonais se
⟨u, v⟩ = 0.
∫−1
⟨p, q⟩ = p(x) . q(x)d x.
[ ∫−1 ] [ ∫−1 ]
2
∥p∥ = ⟨p, p⟩1/2 = x . xd x = x 2d x = .
3
1/2 1/2
1 1
[ ∫−1 ] [ ∫−1 ]
2
∥q∥ = ⟨q, q⟩1/2 = x 2 . x 2d x = x 4d x = .
5
1/2 1/2
1 1
[ ∫−1 ] [ ∫−1 ]
⟨p, q⟩1/2 = x . x 2d x = x 3d x = 0.
Complemento Ortogonal
AU L A 19 : P RO C E S S O D E G R A M - S C H M I D T
Nesta aula, vamos estender o conceito de ortogonalidade entre dois vetores a conjuntos de
vetores em um espaço com produto interno. Esta noção vai nos auxiliar em problemas onde
precisamos escolher bases apropriadas para resolver certos problemas envolvendo espaços
vetoriais.
Definição 1: Dizemos que um conjunto de dois ou mais vetores em um espaço com produto interno real é
ortogonal se quaisquer dois vetores distintos do conjunto forem ortogonais. Um conjunto ortogonal no
qual cada vetor possui norma 1 é dito ortonormal.
∥u2∥ ( 2 2)
u 1 1
v2 = 2 = ,0, ,
∥u3∥ ( 2 2)
u3 1 1
v3 = = ,0, − ,
São ortogonais entre si, além de serem unitários, ou seja, o conjunto S = {v1, v2, v3} é ortonormal.
Propriedade 1: Se S = {v1, v2, …, vn} é um conjunto ortogonal de vetores não nulos em um espaço com
produto interno, então S é linearmente independente (LI).
13 6
Se este conjunto de vetores ortogonais for uma base, dizemos que esta é uma base
ortogonal. Além disso, se este conjunto de vetores é ortonormal, então dizemos que esta é
uma base ortonormal.
Porém, se esta base for ortogonal ou ortonormal, estes coeficientes podem ser obtidos de
forma mais simples através do cálculo de produto interno entre os vetores.
Propriedade 2:
1. Se S = {v1, v2, …, vn} é uma base ortogonal de um espaço com produto interno V e u é um
vetor qualquer de V, então:
⟨u, v1⟩ ⟨u, v2⟩ ⟨u, vn⟩
u= v 1 + v2 + … + vn ;
∥v1∥ 2 ∥v2∥ 2 ∥vn∥ 2
2. Se S = {v1, v2, …, vn} é uma base ortonormal de um espaço com produto interno V e u é um
vetor qualquer de V, então:
u = ⟨u, v1⟩v1 + ⟨u, v2⟩v2 + … + ⟨u, vn⟩vn .
Observação: Pela propriedade acima, o vetor de coordenadas de um vetor u em relação a uma base
ortogonal S = {v1, v2, …, vn} é dado por
Exercício 1:
a) Mostre que os vetores
w1 = (0,2,0), w2 = (3,0,3), w3 = (−4,0,4)
formam uma base ortogonal de ℝ3 , e use esta base para encontrar uma base ortonormal normalizando
137
cada vetor.
b) Expresse o vetor u = (1,2,4) como uma combinação linear dos vetores da base ortonormal obtida
no item acima.
Projeção Ortogonal
Quando estamos resolvendo algum problema aplicado, a solução é obtida de forma mais
rápida e simples quando trabalhamos com vetores de base ortogonais ou ortonormais.
Geralmente essas bases são encontradas através de um processo que transforma uma base
simples em uma base ortogonal ou ortonormal. Para estudarmos este processo, vamos
precisar refletir primeiramente sobre projeções ortogonais.
Além disso, como projW⊥u = u − projW u, também podemos escrever a equação acima como
u = projW u + (u − projW u).
A próxima propriedade vai nos fornecer uma fórmula para calcularmos estas projeções
ortogonais.
13 8
O Processo de Gram-Schmidt
Vimos que as bases ortonormais possuem uma variedade de propriedades úteis. A seguir,
vamos ver a principal propriedade que mostra que cada espaço vetorial de dimensão finita
possui uma base ortonormal. O processo de construção desta base é chamado de processo
de Gram-Schmidt, que vamos detalhar abaixo.
Propriedade 5: Todo espaço vetorial não nulo de dimensão finita possui alguma base ortonormal.
Considere W um subespaço não nulo de dimensão finita de algum espaço com produto
interno e suponha que {u1, u2, …, ur} seja uma base qualquer de W . Observe que basta
mostrar que W tem uma base ortogonal, pois esses vetores podem ser normalizados para se
tornarem uma base ortonormal. A seguir vamos ver como produzir uma base ortogonal
{v1, v2, …, vr} de W:
13 9
Passo 4. Vamos determinar agora um vetor v4 que seja ortogonal a v1, v2, v3 . Para isso,
vamos calcular a componente de u4 ortogonal a W3, gerado por v1, v2, v3:
⟨u4, v1⟩ ⟨u4, v2⟩ ⟨u4, v3⟩
v4 = u4 − projW u4 = u4 − v1 − v2 − v3.
3 ∥v1∥2 ∥v2∥2 ∥v3∥2
Processo de Gram-Schmidt:
Transformação de uma base {u1, u2, …, ur} em uma base ortogonal {v1, v2, …, vr}:
Passo 1) v1 = u1
⟨u2, v1⟩
Passo 2) v2 = u2 − v1
∥v1∥ 2
14 0
( 3 3 3)
2 2 1 1
= (0,1,1) − (1,1,1) = − , , .
3
⟨u3, v1⟩ ⟨u3, v2⟩
Passo 3) v3 = u3 − projW u3 = u3 − v − v
2 ∥v1∥2 1 ∥v2∥2 2
2/3 ( 3 3 3 ) ( 2 2)
1 1/3 2 1 1 1 1
= (0,0,1) − (1,1,1) − − , , = 0, − , .
3
Assim, os vetores
( 3 3 3) ( 2 2)
2 1 1 1 1
v1 = (1,1,1), v2 = − , , , v3 = 0, − ,
Formam uma base ortogonal de ℝ3. Como as normas destes vetores são:
6 1
∥v1∥ = 3, ∥v2∥ = , ∥v3∥ = ,
3 2
Temos que uma base ortonormal de ℝ3 é dada por
∥v1∥ ( 3 ) ( ) ∥v3∥ ( )
v1 1 1 1 v 2 1 1 v3 1 1
q1 = = , , , q2 = 2 = − , , , q3 = = 0, − , ,
3 3 ∥v2 ∥ 6 6 6 2 2
141
Nesta aula, vamos usar os resultados anteriores sobre projeções ortogonais em espaços com
produto interno para obter uma técnica de como ajustar uma reta ou uma outra curva a um
conjunto de pontos no plano determinados experimentalmente.
Logo, um problema comum é obter uma relação matemática do tipo y = f (x) entre as
variáveis x e y através do “ajuste” de uma curva aos pontos determinados
experimentalmente acima.
Existem algumas possibilidades para a forma geral da curva y = f (x) a ser ajustada. Dentre
elas, podemos destacar:
1. Reta: y = a + bx
2. Polinômio Quadrático: y = a + bx + cx 2
3. Polinômio Cúbico: y = a + bx + cx 2 + d x 3.
Devemos ressaltar que uma vez que os pontos (ou dados) são obtidos experimentalmente,
sempre há algum “erro” de medição nos dados, de forma que encontrar uma curva que passe
por todos os pontos ao mesmo tempo é impossível. Logo, a ideia é escolher uma curva (ou
seja, determinando seus coeficientes) que “melhor” ajusta os dados.
14 2
Vamos nos restringir agora ao caso em que queiramos ajustar uma reta da forma y = a + bx
aos pontos (x1, y1), (x2, y2), … , (xn, yn).
Primeiramente devemos observar que, se estes dados fossem colineares, então a reta
passaria por todos os n pontos e os coeficientes a serem determinados a, b satisfariam as
equações:
y1 = a + bx1
y2 = a + bx2
⋮
yn = a + bxn
1 x1 y1
y2
⋮ [b]
1 x2 a
=
⋮ ⋮
1 xn yn
Por outro lado, se os pontos não forem colineares, é impossível encontrar coeficientes a, b
que satisfaçam o sistema acima de forma exata, ou seja, o sistema é inconsistente. Nesse
caso, vamos procurar uma solução “aproximada” do sistema linear.
Voltando ao problema de ajuste linear aos dados, observamos que a solução aproximada que
procuramos é a solução de mínimos quadrados, onde vamos denotá-la por
[b*]
a*
v = v* = .
Logo, denotando
d1 = | y1 − a − bx1 | , d2 = | y2 − a − bx2 | , … , dn = | yn − a − bxn | ,
temos que
∥y − Mv∥2 = d12 + d22 + … + dn2 ,
onde os números di podem ser vistos como a distância vertical entre a reta y = a + bx e o
ponto (xi, yi) . Essa distância é uma forma de medir o erro no ajuste da curva y = a + bx ao
dado (xi, yi).
[b*]
a*
v* =
[6 14] 20 [−6 4 ]
T 4 6 T −1 1 14 −6
M M= , (M M ) =
e
1
20 [−6 4 ] [0 1 2 3] 4 [1]
1 14 −6 1 1 1 1 3 1,5
v* = (M T M )−1M T y = = .
4
Logo, a reta de regressão procurada é dada por y = 1,5 + x .
[b*] [ 1,4 ]
a* −8,6
v* = = (M T M )−1M T y ≈ .
No caso anterior estivemos interessados em aproximar os dados por uma reta de regressão.
Entretanto, a técnica pode ser estendida para ajustar os dados por um polinômio de
qualquer grau.
y1 = a0 + a1x1 + … + am x1m
y2 = a0 + a1x2 + … + am x2m
⋮
yn = a0 + a1xn + … + am xnm
onde, em formato matricial, obtemos
y = Mv
onde
y1 1 x1 x12 … x1m a0
y2 1 x2 x22 … x2m a1
y= ,M= , v= .
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
yn am
1 xn xn2 … xnm
De forma análoga ao caso de uma reta, devemos também obter as soluções do sistema
normal:
M T Mv = M T y,
onde a solução corresponde aos coeficientes do polinômio e o vetor v minimiza
∥y − Mv∥.
Assim, se a matriz M T M for invertível, então o sistema normal acima possui uma única
solução, dada por
v* = (M T M )−1M T y.
147