Você está na página 1de 58

“And we discovered subspace.

“And we discovered subspace.


It gave us our galaxy and it gave us the universe.
“And we discovered subspace.
It gave us our galaxy and it gave us the universe.
And we saw other advanced life.
“And we discovered subspace.
It gave us our galaxy and it gave us the universe.
And we saw other advanced life.
And we subdued it or we crushed it. . .
“And we discovered subspace.
It gave us our galaxy and it gave us the universe.
And we saw other advanced life.
And we subdued it or we crushed it. . .
With subspace, our empire would surely know no
boundaries.”
“And we discovered subspace.
It gave us our galaxy and it gave us the universe.
And we saw other advanced life.
And we subdued it or we crushed it. . .
With subspace, our empire would surely know no
boundaries.”
(Great War computer games)
Geometria Analı́tica e Álgebra Linear - 2020/1
Francisco Dutenhefner
chico@mat.ufmg.br
www.mat.ufmg.br/˜chico
adaptadas por israel vainsencher

Produto escalar em Rn .
Bases ortogonais e ortonormais.
Método de Gram-Schmidt.

7 de junho de 2022
Produto escalar em Rn

Se V = (v1 , v2 , . . ., vn ) e W = (w1 , w2 , . . . , wn ) são vetores em Rn ,


o produto escalar entre V e W é o número real

V · W = v1 w1 + v2 w2 + · · · + vn wn .
Produto escalar em Rn

Se V = (v1 , v2 , . . ., vn ) e W = (w1 , w2 , . . . , wn ) são vetores em Rn ,


o produto escalar entre V e W é o número real

V · W = v1 w1 + v2 w2 + · · · + vn wn .

q √
A norma do vetor V é k V k= v12 + v22 + · · · + vn2 = V · V .

Observe que isto é uma generalização das definições que já foram
dadas e interpretadas para R2 e R3 .
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
(b) (U + V ) · W = U · W + V · W .
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
(b) (U + V ) · W = U · W + V · W .
(c) (αV ) · W = V · (αW ) = α(V · W ).
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
(b) (U + V ) · W = U · W + V · W .
(c) (αV ) · W = V · (αW ) = α(V · W ).
(d) V · V =k V k2 ≥ 0. Mais ainda, k V k= 0 ⇔ V = ~0.
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
(b) (U + V ) · W = U · W + V · W .
(c) (αV ) · W = V · (αW ) = α(V · W ).
(d) V · V =k V k2 ≥ 0. Mais ainda, k V k= 0 ⇔ V = ~0.
(e) |V · W | ≤ k V kk W k. (desigualdade de Cauchy-Schwarz).
Produto escalar em Rn

Propriedades: (são as mesmas que já foram demonstradas para o


R2 e R3 )

(a) V · W = W · V .
(b) (U + V ) · W = U · W + V · W .
(c) (αV ) · W = V · (αW ) = α(V · W ).
(d) V · V =k V k2 ≥ 0. Mais ainda, k V k= 0 ⇔ V = ~0.
(e) |V · W | ≤ k V kk W k. (desigualdade de Cauchy-Schwarz).
(f) k V + W k ≤ k V k + k W k. (desigualdade triangular)
Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.
Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.

|V · W |
Desta desigualdade segue que ≤ 1.
k V kk W k
Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.

|V · W |
Desta desigualdade segue que ≤ 1.
k V kk W k
V ·W
Daı́ −1 ≤ ≤ 1.
k V kk W k
Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.

|V · W |
Desta desigualdade segue que ≤ 1.
k V kk W k
V ·W
Daı́ −1 ≤ ≤ 1.
k V kk W k
Isto implica que existe um único número real θ no intervalo [0, π]
tal que
V ·W
cos(θ) = .
k V kk W k
Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.

|V · W |
Desta desigualdade segue que ≤ 1.
k V kk W k
V ·W
Daı́ −1 ≤ ≤ 1.
k V kk W k
Isto implica que existe um único número real θ no intervalo [0, π]
tal que
V ·W
cos(θ) = .
k V kk W k

Este número θ é, por definição, o ângulo entre os vetores V e W .


Produto escalar em Rn
Desigualdade de Cauchy-Schwarz: |V · W | ≤ k V kk W k.

|V · W |
Desta desigualdade segue que ≤ 1.
k V kk W k
V ·W
Daı́ −1 ≤ ≤ 1.
k V kk W k
Isto implica que existe um único número real θ no intervalo [0, π]
tal que
V ·W
cos(θ) = .
k V kk W k

Este número θ é, por definição, o ângulo entre os vetores V e W .

Como em R2 e em R3 , novamente temos que

V · W =k V kk W k cos(θ).
Produto escalar em Rn

Se V e W são vetores não nulos em Rn , vimos que

V · W =k V kk W k cos(θ)

onde θ é o ângulo entre V e W .


Produto escalar em Rn

Se V e W são vetores não nulos em Rn , vimos que

V · W =k V kk W k cos(θ)

onde θ é o ângulo entre V e W .

Isto implica que V · W = 0 se, e somente se, θ = 90o . Portanto


V · W = 0 caracteriza vetores ortogonais.
Produto escalar em Rn

Se V e W são vetores não nulos em Rn , vimos que

V · W =k V kk W k cos(θ)

onde θ é o ângulo entre V e W .

Isto implica que V · W = 0 se, e somente se, θ = 90o . Portanto


V · W = 0 caracteriza vetores ortogonais.

De modo análogo ao que já foi feito no plano e no espaço,


podemos definir o conceito de projeção ortogonal.
Projeção Ortogonal
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒

W ·V
α=
V ·V
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒
 
W ·V W ·V
α= ⇒ projV (W ) = V
V ·V V ·V
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒
 
W ·V W ·V
α= ⇒ projV (W ) = V
V ·V V ·V
Veja o exemplo: V = (1, 2, 3, 4), W = (4, 3, 2, 1) ∈ R4 ⇒
projV (W ) =
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒
 
W ·V W ·V
α= ⇒ projV (W ) = V
V ·V V ·V
Veja o exemplo: V = (1, 2, 3, 4), W = (4, 3, 2, 1) ∈ R4 ⇒
4+6+6+4
projV (W ) = 1+4+9+16 (1, 2, 3, 4);
Projeção Ortogonal

O vetor projeção ortogonal é caracterizado por:


I projV (W ) = αV é um múltiplo escalar de V .
I A diferença W − projV (W ) é um vetor ortogonal a V .

(W − projV (W )) · V = 0 ⇒ (W − αV ) · V = 0 ⇒
W · V − αV · V = 0 ⇒ αV · V = W · V ⇒
 
W ·V W ·V
α= ⇒ projV (W ) = V
V ·V V ·V
Veja o exemplo: V = (1, 2, 3, 4), W = (4, 3, 2, 1) ∈ R4 ⇒
4+6+6+4 20
projV (W ) = 1+4+9+16 (1, 2, 3, 4); projW (V ) = 30 (4, 3, 2, 1).
Bases Ortogonais e Ortonormais
Bases Ortogonais e Ortonormais

Seja {V1 , . . . , Vk } uma base para um subespaço de Rn :


(a) Esta base é ortogonal se quaisquer dois vetores da base são
ortogonais: Vi · Vj = 0 ∀i 6= j.
Bases Ortogonais e Ortonormais

Seja {V1 , . . . , Vk } uma base para um subespaço de Rn :


(a) Esta base é ortogonal se quaisquer dois vetores da base são
ortogonais: Vi · Vj = 0 ∀i 6= j.

(b) Esta base é ortonormal se todos os vetores são unitários e


2 a 2 perpendiculares. i 6= j ⇒ Vi · Vj = 0 e Vi · Vi = 1.
Bases Ortogonais e Ortonormais

Seja {V1 , . . . , Vk } uma base para um subespaço de Rn :


(a) Esta base é ortogonal se quaisquer dois vetores da base são
ortogonais: Vi · Vj = 0 ∀i 6= j.

(b) Esta base é ortonormal se todos os vetores são unitários e


2 a 2 perpendiculares. i 6= j ⇒ Vi · Vj = 0 e Vi · Vi = 1.

Exemplo 1: {~i, ~j, ~k} é uma base ortonormal de R3 .


Bases Ortogonais e Ortonormais

Seja {V1 , . . . , Vk } uma base para um subespaço de Rn :


(a) Esta base é ortogonal se quaisquer dois vetores da base são
ortogonais: Vi · Vj = 0 ∀i 6= j.

(b) Esta base é ortonormal se todos os vetores são unitários e


2 a 2 perpendiculares. i 6= j ⇒ Vi · Vj = 0 e Vi · Vi = 1.

Exemplo 1: {~i, ~j, ~k} é uma base ortonormal de R3 .

Exemplo 2: V1 = (1, 3) e V2 = (−3, 1) formam uma base


ortogonal de R2 , não ortonormal.
Bases Ortogonais e Ortonormais

Seja {V1 , . . . , Vk } uma base para um subespaço de Rn :


(a) Esta base é ortogonal se quaisquer dois vetores da base são
ortogonais: Vi · Vj = 0 ∀i 6= j.

(b) Esta base é ortonormal se todos os vetores são unitários e


2 a 2 perpendiculares. i 6= j ⇒ Vi · Vj = 0 e Vi · Vi = 1.

Exemplo 1: {~i, ~j, ~k} é uma base ortonormal de R3 .

Exemplo 2: V1 = (1, 3) e V2 = (−3, 1) formam uma base


ortogonal de R2 , não ortonormal.

Exemplo 3: V1 = (cos(θ), sen(θ)) e V2 = (−sen(θ), cos(θ))


formam uma base ortonormal de R2 .
Bases Ortogonais e Ortonormais

Exemplo 4: Considere o plano 2x + y − 3z = 0 de R3 . Observe


que ele é um subespaço de R3 .
(a) Determine uma base de W .
(b) Determine uma base ortogonal de W .
(c) Determine uma base ortonormal de W .
Bases Ortogonais e Ortonormais

Exemplo 4: Considere o plano 2x + y − 3z = 0 de R3 . Observe


que ele é um subespaço de R3 .
(a) Determine uma base de W .
(b) Determine uma base ortogonal de W .
(c) Determine uma base ortonormal de W .

Exemplo 5: Sejam V1 = (1, 3, −2, 5) e V2 = (1, 2, 1, 3) vetores de


R4 . Seja W o conjunto dos vetores de R4 que são ortogonais a V1
e a V2 .
(a) Determine uma base de W .
(b) Determine uma base ortogonal de W .
(c) Determine uma base ortonormal de W .
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 −2 5 ; 1 3 −2 5
; 1 0 7 −1
  
Escalonamos 12 1 3 0 −1 3 −2 0 1 −3 2 ⇒
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
”corrigimos” w2 subtraindo a projeção sobre o(s) já construı́do(s):
v2 = w2 − projv1 (w2 ) =
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
”corrigimos” w2 subtraindo a projeção
 sobre o(s) já construı́do(s):
w2 ·v1
v2 = w2 − projv1 (w2 ) = w2 − v1 ·v1 v1
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
”corrigimos” w2 subtraindo a projeção
 sobre o(s) já construı́do(s):
w2 ·v1
v2 = w2 − projv1 (w2 ) = w2 − v1 ·v1 v1 =
13
(1, −2, 0, 1) + 59 (−7, 3, 1, 0) = (−32, −79, 13, 59)/59.
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
”corrigimos” w2 subtraindo a projeção
 sobre o(s) já construı́do(s):
w2 ·v1
v2 = w2 − projv1 (w2 ) = w2 − v1 ·v1 v1 =
(1, −2, 0, 1) + 13
59 (−7, 3, 1, 0) = (−32, −79, 13, 59)/59. Note que
efetivamente v1 · v2 = 0.
Para o último exemplo, temos W = espaço das soluções de

x1 + 3x2 − 2x3 + 5x4 = 0
x1 + 2x2 + x3 + 3x4 = 0

1 3 ; 0 −1 3 −2 ; 0 1 −3 2
1 3 −2 5 1 0 7 −1
Escalonamos 11 32 −2 5
  

x1 = −7x3 + x4 , x2 = 3x3 − 2x4 ⇒ w1 := (−7, 3, 1, 0),
w2 := (1, −2, 0, 1) formam base de W.

Para ortogonalizar, seguimos o método de Gram-Schmidt:


iniciamos com v1 = w1 = (−7, 3, 1, 0);
”corrigimos” w2 subtraindo a projeção
 sobre o(s) já construı́do(s):
w2 ·v1
v2 = w2 − projv1 (w2 ) = w2 − v1 ·v1 v1 =
(1, −2, 0, 1) + 13
59 (−7, 3, 1, 0) = (−32, −79, 13, 59)/59. Note que
efetivamente v1 · v2 = 0.

Se existisse um 3o vetor, w3 , na base, (não é o caso no exemplo


em discussão), deverı́amos subtrair a soma das projeções sobre os
já adquiridos...
cenas dos próximos capı́tulos
cenas dos próximos capı́tulos

Autovalores e autovetores.
cenas dos próximos capı́tulos

Autovalores e autovetores.
Diagonalização de matrizes reais simétricas.
cenas dos próximos capı́tulos

Autovalores e autovetores.
Diagonalização de matrizes reais simétricas.
Redução de cônicas a seus eixos principais.
cenas dos próximos capı́tulos

Autovalores e autovetores.
Diagonalização de matrizes reais simétricas.
Redução de cônicas a seus eixos principais.
?PCA?

Você também pode gostar