Você está na página 1de 15

Álgebra Linear

1o Semestre 2017

Resumos

Baltasar Dinis
Baltasar Dinis AL CONTEÚDO

Conteúdo
1 Matrizes 3
1.1 Operações sobre Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Método Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Fatorização Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Espaços Lineares 8
2.1 Independência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Transformações Lineares 9
3.1 Mudanças de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Projeções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

4 Valores e Vetores Próprios 10


4.1 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5 Produtos Internos 11
5.1 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Ortogonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

6 Aplicações 14
6.1 Diagonalização Unitária. Diagonalização Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Raı́z Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.4 Mı́nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

Referências 15

2 Resumos
Baltasar Dinis AL 1 MATRIZES

1 Matrizes
Uma matriz é um objeto matemático que se define como uma tabela de escalares, que pertencem a um dado
corpo K. Assim, uma matriz tem dimensão m × n, ou seja, tem m linhas e n colunas.
 
1 2 3 e
Exemplo. A = π 1.2 5 6 é uma matriz 3 × 4, podendo-se ainda denotar por A = (aij )m×n
4 8 1 2

O conjunto das matrizes sobre um corpo K, cuja dimensão é m × n é denotado por Mm×n (K).

• Dizemos que uma matriz é quadrada quando m = n

• Uma matriz é uma matriz coluna (linha) quando n (m) é igual a 1.

• A diagonal principal de uma matriz quadrada corresponde às entradas em que i = j

• Uma matriz quadrada é diagonal quando todas as entradas fora da diagonal principal são nulas.

• A matriz identidade, In×n é a matriz diagonal em que todas as entradas não-nulas são 1.

• A matriz nula, 0, é a matriz em que todas as entradas são 0.

• Uma matriz diz-se diagonal superior (inferior) quando todas as entradas tal que i > j (i < j) são nulas.
Note-se que uma matriz diagonal é simultaneamente superior e inferior.

• A caracterı́stica de uma matriz é o inteiro que indica quantas linhas/colunas são linearmente indepen-
dentes. Corresponde ao número de linhas não nulas na forma de matriz de escada em linha1 pivots
da matriz (entradas de uma matriz que só têm zeros por baixo).

• A nulidade de uma matriz corresponde ao inteiro que indica a dimensão do núcleo. Corresponde ainda
à diferença entre o número de colunas e a caracterı́stica da matriz: n = car(A) + nul(A).

1.1 Operações sobre Matrizes


Definição (Soma de Matrizes). Definimos a soma de matrizes apenas entre matrizes com as mesmas di-
mensões, e definimo-la termo a termo.

A = (aij )m×n ; B = (bij )m×n ; A + B = (aij + bij )m×n

Definição (Multiplicação de Matrizes). Definimos a multiplicação de matrizes apenas entre matrizes em


que a matriz da esquerda tem o mesmo número de colunas que o número de linhas da matriz da direita. Ou
seja, se A ∈ Mm×k então B ∈ Mk×n e AB ∈ Mm×n .

k
X 
AB = ail × blj
m×n
l=1

Esta operação goza da linearidade e da associatividade:

A(αB + C) = αAB + AC

Note-se, no entanto, que não é comutativa.


1 Uma matriz está na forma de escada em linha quando todas as linhas ou são nulas ou têm um pivot, e estão ordenados por

ordem descendente.

Resumos 3
Baltasar Dinis AL 1 MATRIZES

Definição (Inversa). Uma matriz quadrada A é invertı́vel se existir uma matriz B tal que:

AB = BA = I

A essa matriz B chamamos de inversa de A, A−1 , e é única.


Tem-se ainda que:
(AB)−1 = B −1 A−1

E que:
1 −1
(αA)−1 = A
α
Definição (Transposta). Definimos a transposta de uma matriz Am × n como a matriz AT n × m, tal que:

AT = (aji )

Relativamente aos números complexos, definimos que:

AH = (aji )

Tem-se que:

(AB)T = B T AT (AB)H = B H AH

Definição (Matriz Simétrica). Uma matriz A é simétrica quando A = AT

Definição (Matriz Hermitiana). Uma matriz A é hermitiana quando A = AH

Definição (Traço). O traço de uma matriz quadrada é a soma das entradas da sua diagonal principal.
n
X
tr(A) = aii
i=1

Esta operação goza das seguintes propriedades:

tr(αA + βB) = α · tr(A) + β · tr(B)


tr(AT ) = tr(A)
tr(AB) = tr(BA)

Definição (Semelhança de Matrizes). Duas matrizes A e B são semelhantes sse existir uma matriz invertı́vel
S −1 tal que B = S −1 AS. Neste caso, verifica-se que têm o mesmo:

• Determinante

• Traço

• Polinómio Caracterı́stico

• Valores Próprios

• Caracterı́stica

• Nulidade

4 Resumos
Baltasar Dinis AL 1 MATRIZES

1.2 Método Gauss-Jordan


Dado um sistema de equações lineares, podemos construir uma matriz que lhe está associada. A matriz
dos coeficientes, A, é a matriz em que em cada coluna estão os coeficientes de uma variável, e a cada linha
está representada uma equação do sistema. A matriz dos termos independentes, B, tem os termos
independentes em coluna. Se X for a matriz das variáveis, em que elas estão por ordem, tem-se que o
sistema pode ser representado pela equação linear:

AX = B
Para resolver o sistema, concentramo-nos unicamente na matriz aumentada do sistema, [A|B].
Podemos aplicar as chamadas operações elementares sobre as linhas do sistema, que não têm impacto
nas soluções do sistema:
• Somar duas linhas e substituir o resultado numa delas.
• Multiplicar uma linha por um escalar
• Trocar duas linhas
Para aplicar o Método de eliminação de Gauss-Jordan, aplicamos sucessivamente estas operações, com
vista a transformar a matriz numa matriz em escada de linhas. Depois, eliminamos as entradas nas colunas
que têm pivots que não sejam os próprios pivots, multiplicando-as linhas pelo escalar correspondente, de
forma a que os pivots sejam 1. Assim, voltando para a forma de sistema, é trivial perceber quais as suas
soluções.
Tem-se que a solução do sistema pode ser dada por:
SAX=B = SPAX=B + SAX=0
O sistema pode ser caracterizado como:
• Possı́vel Determinado: Tem uma solução única. É equivalente a dizer que nul(A) = 0 e car(A) =
car[A|B]
• Possı́vel Indeterminado: Tem infinitas soluções. É equivalente a dizer que nul(A) > 0 e que
car(A) = car[A|B]
• Impossı́vel: Não tem solução. É equivalente a dizer que car(A) < car[A|B]
Este método permite ainda inverter matrizes. Dada a matriz [A|I], ao aplicarmos as operações elementares
e transformarmos a matriz aumentada em [I|B], se isso for possı́vel então A−1 = B.

1.3 Fatorização Triangular


As operações elementares sobre matrizes correspondem a multiplicar à esquerda matrizes elementares,
que são dos seguintes tipos:
• Matriz Permutação, Pij : corresponde à troca das linhas i e j.
 
1 0 ... ... ... ... 0
0 . . . . . . . . . . . . .
. . . .. 

 
. . .. 
 .. .. 0 . . . 1 . . . .
 
. .. .. .. 
 ..
Pij =  . . 1 ... . . . .

. .. .
.
. . . .. 

. . 1 ... 0
 .. .. .. .. .. .
 
..
. . . . . . .. 
0 ... ... ... ... ... 1

Resumos 5
Baltasar Dinis AL 1 MATRIZES

• Matriz Produto de Escalar por uma Linha, Ei (α): corresponde a multiplicar a linha i pelo
escalar α.  
1 0 ... ... 0
0 . . . . . . . . . ... 
 
 
. . . 
Ei (α) =  ..
 . . α . . . ..  
. .. .. .. 
. ..
. .

. . .
0 ... ... ... 1

• Matriz Soma de duas linhas, Eij (α): corresponde a somar à linha j a linha i multiplicada pelo
escalar α.  
1 0 ... ... ... 0
0 1 . . . .
. . . . . . .. 

 
. . .. 
.
. .. ... . . . . . . .

Eij (α) =  . .. .
.
. α . 1 . . . .. 

 .. .. .. .. . . .
 
. . . . . .. 
0 ... ... ... ... 1

Ao transformarmos, através do método de eliminação de Gauss, uma matriz A numa matriz U , triangular
superior, temos que, multiplicando à esquerda de A uma sucessão de matrizes elementares obtemos uma
matriz triangular superior. Se nenhuma dessas matrizes elementares for uma P (que não é invertı́vel)
podemos multiplicar à esquerda de ambos os membros da equação obtendo, no membro direito, um produto
de matrizes trangulares inferiores, que é, em si, uma matriz triangular inferior L, por uma matriz triangular
superior. Assim, factorizamos a matriz A em duas matrizes, uma triangular superior e outra inferior.
Poderı́amos ainda garantir que as diagonais de ambas tem apenas 1’s como entradas, e aı́ terı́amos que
A = LDU .

1.4 Determinantes
Definição (Permutação). Uma permutação de um conjunto {a1 , a2 , . . . , an } é uma lista ordenada arbitrari-
amente desse mesmo conjunto.

Definição (Inversão). Dada uma permutação (i1 i2 . . . in ) dizemos que (ij ik ) é uma inversão se ij > ik , para
j < k.

Definição (Paridade de uma Permutação). Dada uma permutação (i1 i2 . . . in ), dizemos que ela tem a mesma
paridade que o número de inversões que ocorrem na permutação.

Definição (Determinante). O determinante de uma matriz é uma transformação Mm×n (K) → K, que é
representado por |A| ou por det(A) e é calculado da seguinte maneira:

1. Formam-se todos os produtos de n fatores em que todos os elementos estão em linhas e colunas
diferentes.

2. A cada produto estão associadas duas permutações de ı́ndices: uma das colunas e outra das linhas. Se
a paridade delas for a mesma, afeta-se o produto com o sinal +, caso contrário faz-se o mesmo com o
sinal −.

3. Somam-se todos os produtos.

6 Resumos
Baltasar Dinis AL 1 MATRIZES

Uma maneira mais comum de calcular o determinante é fixar a permutação (12. . . n) para as linhas (ou para
as colunas) e somar os produtos correspondentes às n! permutações dos ı́ndices das colunas (ou das linhas)
tendo em conta a paridade de cada uma dessas permutações.
Para além disso, podemos aplicar a Fórmula de Laplace:

Teorema (Fórmula de Laplace). Seja Aij o menor −ij de A, ou seja, a matriz n − 1 × n − 1 correspondente
a remover a linha i e a coluna j de A.
Para j fixo:
n
X
|A| = (−1)i+j |Aij |
i=1

Para i fixo:
n
X
|A| = (−1)i+j |Aij |
j=1

Note-se que:

• O determinante de A é igual ao da sua transposta

• O determinante de uma matriz triangular (ou diagonal) é o produto dos elementos da diagonal.

• Se a nulidade da matriz não for nula, ou seja, a matriz não for invertı́vel, o determinante é zero.

• Se B for obtida trocando duas linhas (colunas) de A então |B| = |A|.

• Se B for obtida somando a uma linha (coluna) A o produto de um escalar por outra então |B| = |A|.

• Se B for obtida multiplicando uma linha (coluna) de A por um escalar α então B = α|A|

• |AB| = |BA| = |A||B|

• |AB| = 0 ⇒ |A| = |0| ∨ |B| = 0

• |αA| = αn |A|

• |A−1 | = 1
det A

Definição (Matriz dos cofatores). Dizemos que a matriz cof(A) = ((−1)i+j |Aij |)n×n é a matriz dos cofatores
de A. Note-se que o determinante de A é a soma de uma linha ou uma coluna da matriz dos cofatores.

Podemos calcular a inversa da seguinte forma:

1
A−1 = cof(A)T
det A

Teorema (Regra de Crammer). Tenha-se um sistema de equações lineares, cuja matriz aumentada é [A|B].
Caso a matriz A seja n × n, a solução X pode ser obtida, componente a componente, através desta fórmula.

det Ci
xi =
det A
Onde Ci é a matriz que se obtém substituindo a i-gésima coluna de A por B.

Resumos 7
Baltasar Dinis AL 2 ESPAÇOS LINEARES

2 Espaços Lineares
Definição (Espaço Linear). Dizemos que um conjunto não vazio é um espaço linear, V sobre um corpo de
escalares K se tiver duas operações (a soma e o produto por um escalar) e se cumprir os seguintes axiomas:

1. Fecho da Soma ∀u, v ∈ V : u + v ∈ V

2. Fecho do Produto por um escalar ∀u ∈ V, ∀cinK : c · u ∈ V

3. Comutatividade da Soma

4. Associatividade da Soma

5. Elemento neutro da Soma ∀u ∈ V ∃0 ∈ V : u + 0 = u

6. Simétrico ∀u ∈ V ∃v ∈ V : u + v = 0(−u = v)

7. Associatividade do Produto de Escalares

8. Distributividades

• ∀α, β ∈ K, ∀u ∈ V : (α + β)u = αu + βu
• ∀α ∈ K, ∀u, v ∈ V : α(u + v) = αu + αv

9. Elemento neutro da Soma ∀u ∈ V : 1 · u = u

Definição (Subespaço Linear). Seja V um espaço linear, se um subconjunto de V , U , for um espaço linear,
então diz-se que U é um subespaço linear de V .

Definição (Vetor). Um vetor é um elemento de um espaço linear (vetorial).

2.1 Independência Linear


Definição (Independência Linear). Um conjunto de vetores {u1 , u2 , . . . , un } é linearmente independente se
a única solução da equação abaixo for a trivial2 :

α1 u1 + α2 u2 + . . . + αn un = 0

Caso um conjunto não for linearmente independente, diz-se que é linearmente dependente.

Note-se que quando uma matriz não tem caracterı́stica máxima significa que as suas linhas e/ou as suas
colunas não são linearmente independentes, e o seu determinante é zero.

2.2 Bases
Definição (Expansão Linear). Uma expansão linear de um conjunto S = {u1 , . . . , un }, L(S) é definida da
seguinte maneira:
L(S) = {v : v = α1 u1 + . . . + αn un , ∀αi ∈ K}

Definição (Conjunto Gerador). Dizemos que S é um conjunto gerador do espaço linear V (ou que S gera
V ) quando V = L(S).

Definição (Base Ordenada). Um conjunto ordenado B diz-se uma base ordenada do espaço ordenado V
quando gera V e quando é linearmente independente.

Definição (Dimensão de um Espaço Linear). A dimensão de um espaço linear corresponde ao número de


elementos de qualquer uma das suas bases.
2 Uma solução a uma equação linear homogénea é trivial se for o vetor-solução for o zero

8 Resumos
Baltasar Dinis AL 3 TRANSFORMAÇÕES LINEARES

2.3 Espaços Associados a uma Matriz


Definição (Espaço das Linhas). O espaço das linhas L(A) é o espaço gerado pelas linhas da matriz A.

Definição (Espaço das Colunas). O espaço das colunas C(A)é o espaço gerado pelas colunas da matriz, A.

C(A) = {b : Au = b, ∀u ∈ Mn×1 }

Definição (Núcleo). O núcleo de uma matriz N (A) é o espaço correspondente à solução geral da equação
homogénea Au = 0
N (A) = {u : Au = 0}

Tem-se que:

• car(A) = dim L(A) = dim C(A)

• nul(A) = dim N (A)

Note-se que o espaço das linhas e o núcleo de uma matriz A são iguais ao espaço das linhas da matriz e ao
núcleo de A0 , a matriz resultante de aplicar o Método de Eliminação de Gauss a A, mas o mesmo não é
verdade para o espaço das colunas.
Sejam U e V dois espaços lineares, tal que:

• U = L(S1 ) = N (A1 )

• V = L(S2 ) = N (A2 )

Tem-se que:

• U + V = L(S1 ∪ S2 )
dim U + V ≤ dim U + dim V

• U ∩V =N A 1

A2
dim U ∩ V ≤ min(dim U, dim V )

Definição (Soma Direta). Definimos ⊕ como a soma direta de dois espaços lineares como um caso especial
da soma de espaços, em que a sua intersecção é o vetor nulo.

3 Transformações Lineares
Definição (Transformação). Uma transformação T : U → V é uma correspondência unı́voca entre dois
espaços lineares.

Definição (Transformação Linear). Uma transformação T : U → V diz-se linear se se verificar a seguinte


relação:
T (αu + βv) = αT (u) + βT (v)

Definição (Núcleo). O núcleo de uma transformação linearé o conjunto de objetos, u, tal que T (u) = 0.

Definição (Imagem). A imagem de uma transformação linearé o conjunto das suas imagens.

Teorema.
dim U = dim N (T ) + dim I(T )

Definição (Injetividade). Dizemos que uma transformação linearé injetiva quando T (u) = T (v) ⇔ u = v.
É equivalente dizer que o núcleo é {0}.

Resumos 9
Baltasar Dinis AL 4 VALORES E VETORES PRÓPRIOS

Definição (Sobrejetividade). Dizemos que uma transformação linearé sobrejetiva quando I(T ) = V
Definição (Bijetividade). Dizemos que uma transformação linearé bijetiva quando é injetiva e sobrejetiva.
Neste caso dim U = dim V . Dizemos ainda que T é um isomorfismo e que U e V são isomórficos.
Teorema. Se dim U = dim V e T é injetiva ou sobrejetiva então é bijetiva.
Podemos representar uma transformação linearde várias formas:
• Expressão algébrica: Em função das componentes do objeto definir as componentes da imagem.

• Combinação linear: Dada uma base de U , B = {u1 , . . . , un }, T (B) = {T (u1 ), . . . , T (un )} gera I(T ).
Assim, podemos definir a transformação como:

T (u) = T (α1 u1 + . . . + αn un ) = α1 T (u1 ) + . . . + αn (Tn )

• Matriz: Dada uma base de U , B1 , a matriz M(T ;B1 ;B2 ) = [T (u1 ) · · · T (un )] transforma as coordenadas
de um objeto nas coordenadas de uma imagem numa base B2 .

[T (u)]B2 = M(T ;B1 ;B2 ) [u]B1

Definição (Homotetia). Uma homotetia é uma transformação linearcuja matriz associada, relativamente às
bases canónicas, é λI.

• λ = 0: Transformação Nula

• λ ∈]0, 1[: Contração

• λ = 1: Transformação Identidade

• λ > 1: Expansão

3.1 Mudanças de Base


Podemos definir uma transformação que transforme as coordenadas de qualquer u ∈ U numa base B1 =
{u1 , . . . , un } nas suas coordenadas em B2 = {v1 , . . . , vn }, colocando as coordenadas de ui na base B2 em
coluna. Assim, pela multiplicação de matrizes, construı́mos a matriz SB1 →B2 , a matriz de mudança de base
de B1 para B2 .
Note-se que ao invertermos esta matriz (que é sempre invertı́vel) obtemos a matriz SB2 →B1 .

3.2 Projeções
Uma projeção é uma transformação linearque é idempotente, ou seja, quando a sua aplicação sucessiva tem
o mesmo efeito de uma única aplicação:

T é projeção ⇔ T ◦ T = T ⇒ U = N (T ) ⊕ I(T )

4 Valores e Vetores Próprios


Definição (Valores e Vetores Próprios). Seja A uma matriz n × n. Se se verificar Av = λv, v 6= 0, então
diz-se que v é um vetor próprio de A e que λ é o valor próprio que lhe está associado.
Definição (Espaço Próprio). Um espaço próprio associado a um valor próprio λ, Eλ é o espaço dos vetores
próprios associados a esse mesmo valor próprio.

Eλ = N (A − λI)

10 Resumos
Baltasar Dinis AL 5 PRODUTOS INTERNOS

Para descobrir os valores próprios de uma matriz, tenha-se o seguinte:

Av = λv ⇔ (A − λI)v = 0 ⇔ |A − λI| = 0

Definição (Polinómio caracterı́stico). O polinómio caracterı́stico de uma matriz A é dado por |A − λI|, e
os seus zeros são os valores próprios de A.

Definição (Multiplicidade algébrica). A multiplicidade algébrica de um valor próprio λ, ma (λ) corresponde


à sua multiplicidade enquanto raiz do polinómio caracterı́stico.

Definição (Multiplicidade geométrica). A multiplicidade geométrica de um valor próprio λ, mg (λ) corre-


sponde à dimensão do espaço próprio associado.

Teorema. A multiplicidade geométrica de um valor próprio é sempre menor ou igual à multiplicidade


algébrica e sempre não nula.

4.1 Diagonalização
Definição (Diagonalização). Dizemos que A é diagonalizável quando é semelhante a uma matriz diagonal
D, por meio de uma matriz P −1 . Isto não acontece quando:

• A não é invertı́vel

• 0 é um valor próprio de A

• As multiplicidades de cada valor próprio são diferentes

No entanto, garantimos que A é diagonalizável quando:

• A tem todos os vetores próprios distintos.

• As multiplicidades dos seus vetores próprios são iguais.

• Tem n vetores próprios linearmente independentes

Dada A, uma matriz diagonalizável. Para a diagonalizar, calculamos os seus vetores próprios e os respectivos
valores próprios. Seja {v1 , . . . , vn } um conjunto de vetores próprios linearmente independentes. Construı́mos
P −1 = [v1 · · · vn ]. Invertemos a matriz (que é invertı́vel, pois as colunas são linearmente independentes) para
obter P . Calculamos D como a matriz diagonal que, em cada entrada, tem o valor próprio correspondente
a um dado vetor próprio e temos que:
A = P −1 DP
Como A e D são semelhantes, temos que:

• tr(A) = λ1 + . . . + λn

• det A = λ1 · · · λn

5 Produtos Internos
Definição (Produto Interno). Dado um espaço vetorial V sobre um corpo K, o produto interno é uma
aplicação h, i : V × V → K que verifica as seguintes condições, em R

1. Simetria: hu, vi = hv, u, , i∀u, v ∈ V

2. Linearidade: hαu + βv, wi = αhu, wi + βhv, wi

Resumos 11
Baltasar Dinis AL 5 PRODUTOS INTERNOS

3. Positividade: hu, ui > 0, ∀u 6= 0; hu, ui = 0 ⇔ u = 0


Em C as condições são ligeiramente diferentes:
1. Simetria Conjugada: hu, vi = hv, ui

2. Linearidade Conjugada: hαu + βv, wi = αhu, wi + βhv, wi

3. Positividade: hu, ui > 0, ∀u 6= 0; hu, ui = 0 ⇔ u = 0


Definição (Espaço Euclideano). Um espaço vetorial sobre R de dimensão finita munido de um produto
interno é um espaço euclideano.
Definição (Espaço Unitário). Um espaço vetorial sobre C de dimensão finita munido de um produto interno
é um espaço unitário.
Definição (Ortogonalidade). Dizemos que u e v são ortogonais quando hu, vi = 0
Definição (Norma). A norma de um vetor de um espaço munido de um produto interno é dada por:
p
kuk = hu, ui

Definição (Projeção ortogonal). Definimos a projeção de v sobre u como:


hu, vi
proju v = 2 u
kuk
Podemos ainda definir a projeção de um vetor sobre um espaço vetorial PU : V → U . Seja U um espaço
vetorial e B = {u1 , . . . , un }:
X n
PU (v) = projui v
i=1

Definição (Ângulo). Definimos o ângulo entre dois vetores não nulos como:
hu, vi
θ = arccos
kuk kvk
Teorema (Desigualdade de Cauchy-Schwarz). Seja V um espaço linear com um produto interno. Então,
tem-se que:
|hu, vi| < kuk kvk
Teorema (de Pitágoras). Seja V um espaço linear com um produto interno. Então, u e v ∈ V são ortogonais
sse:
2 2 2
ku − vk = kuk + kvk
Podemos, no entanto, definir a norma de um vetor sem ela estar associada a um produto interno.
Definição (Norma). Seja V um espaço linear. A norma é uma aplicação kk : V → R que satizfaz as
seguintes propriedades:
1. Positividade: kuk > 0, ∀u 6= 0; kuk = 0 ⇔ u = 0

2. Homogeneidade: kλuk = |λ| kuk

3. Desigualdade Triangular: ku + vk ≤ kuk + kvk


Teorema (Lei do Paralelogramo). Dada uma norma num espaço vetorial V . Essa norma pode dar origem
a um produto interno sse seguir a lei do paralelogramo:
2 2 2 2
ku − vk + ku + vk = 2 kuk + 2 kvk

12 Resumos
Baltasar Dinis AL 5 PRODUTOS INTERNOS

5.1 Matriz de Gram


Definição (Matriz de Gram). O produto interno pode ser definido através da multiplicação de matrizes,
relativamente a uma base B do espaço linear V . A todo o par (produto interno, base) está associada uma
matriz, a matriz da métrica, ou de Gram.

hu, v, =i[u]TB GB [v]B


Esta matriz tem de ser:

1. Simétrica: para garantir a simetria do produto interno.

2. Positiva Definida3 : Para garantir a positividade do produto interno.

Definição (Produto Interno Usual). O produto interno usual, ou o produto escalar, é o produto interno em
que a matriz da métrica em relação à base canónica é a matriz identidade.

Para calcularmos a matriz da métrica em relação a uma base B2 conhecendo GB1 , temos que:

hu, vi = hu, vi
⇔ [u]TB2 GB2 [v]B2 = [u]TB1 GB1 [v]B1 = (SB2 →B1 [u]B2 )T GB1 SB2 →B1 [v]B2 = [u]TB2 (SB
T
2 →B1
GB1 SB2 →B1 )[v]B2
T
⇔ GB2 = SB 2 →B1
GB1 SB2 →B1

5.2 Ortogonalização
Definição (Base Ortogonal). A base de um espaço linear é ortogonal se todos os seus vetores forem ortog-
onais entre si.

Definição (Base Ortonormada). Uma base é ortonormada se for ortogonal e se a norma de todos os seus
vetores for 1

Note-se que a matriz da métrica associada a uma base ortonormada é sempre a matriz ortonormada, o que
quer dizer que a base canónica é ortonormada em relação ao produto interno usual.
O método de ortogonalização de Gram-Schmidt, que serve para ortogonalizar uma base consiste em escolher
Pi−1
um vetor inicial, u1 = v1 e construir os vetores ui como vi − j=1 projuj vi . Assim, a base {u1 , . . . , un }, é
garantidamente ortogonal (podendo ainda ser tornada ortonormada trivialmente).

Definição (Complemento Ortogonal). Dado um conjunto S ⊂ V , o seu complemento ortogonal é um espaço


vetorial, dado por:
S ⊥ = {u ∈ V :< u, w >= 0, ∀w ∈ S}

Note-se que S pode ser um espaço vetorial.

Teorema. Seja U um subespaço de V e v ∈ V :

v = PU (v) + PU ⊥ (v)

Teorema.

U = (U ⊥ )⊥
(U1 + U2 )⊥ = U1⊥ ∩ U2⊥
(U1 ∩ U2 )⊥ = U1⊥ + U2⊥
(L(A))⊥ = N (AGB )
3 Os seus valores próprios têm de ser todos positivos

Resumos 13
Baltasar Dinis AL 6 APLICAÇÕES

Definição (Elemento mais próximo). O elemento de um subespaço de V , U mais próximo de v ∈ V é a


projeção de v em U , PU (v).

Definição (Distância). A distância de um vetor v a um subespaço de V , U é dada por:

kv − PU (v)k = kPU ⊥ (v)k

6 Aplicações
6.1 Diagonalização Unitária. Diagonalização Ortogonal
Definição (Matriz Unitária). Uma matriz diz-se unitária quando U H U = I Neste caso, as colunas de U
formam uma base ortonormada de mathbbC n

Definição (Matriz Ortogonal). Uma matriz diz-se unitária quando P T P = I Neste caso, as colunas de P
formam uma base ortonormada de mathbbRn

Definição (Unitariamente Diagonalizável). Uma matriz diz-se unitariamente diagonalizável quando pode
ser diagonalizada por meio de uma matriz unitária.

Definição (Ortogonalmente Diagonalizável). Uma matriz diz-se ortogonalmente diagonalizável quando pode
ser diagonalizada por meio de uma matriz ortogonal.

Teorema (de Schur). Seja A uma matriz n × n. Então existe uma matriz unitária U H tal que U AU H é
triangular.

Teorema. Todas as matrizes hermitianas são unitariamente diagonalizáveis.

Teorema. Todas as matrizes simétricas são ortogonalmente diagonalizáveis e todas as matrizes ortogonal-
mente diagonalizáveis são simétricas.

Definição (Matriz normal). Uma matriz A diz-se normal quando AAH = AH A.

Teorema. Todas as matrizes unitariamente diagonalizáveis são normais.

6.2 Raı́z Quadrada


Definição (Raı́z Quadrada). Sejam A e B duas matrizes tal que A = B 2 . Dizemos que B é raı́z quadrada
de A e que: √
B= A

Calculamos a raı́z quadrada simétrica e definida positiva de A como:


√ √
A = P −1 DP ⇒ A = P −1 DP

Onde D é uma matriz diagonal onde se encontram na diagonal as raı́zes quadradas principais dos valores
próprios de A.

6.3 Formas Quadráticas


Definição (Equação Quadrática). Uma equação quadrática em duas variáveis, x1 e x2 é uma equaçã da
forma:
    
2 2
 a c x1  x1
+ f = 0 ⇔ xT Ax + Bx + α = 0
 
ax1 + bx2 + 2cx1 + dx1 + ex2 + f = 0 ⇔ x1 x2 + d e
c d x2 x2

14 Resumos
Baltasar Dinis AL Referências

Definição (Forma Quadrática). Uma forma quadrática real a n variáveis associada a uma equação quadrática
xT Ax + Bx + α = 0 é a função Q : R n → R tal que Q(x) = xT Ax
T
Se A não for simétrica substitui-se por B = A+A
2 , e Q(x) = xT Ax = xT Bx.

As formas quadráticas de grau 2 definem as cónicas, onde se tem, dependendo de A que:

• Definidas: Elipse

• Semi-definidas: Parábola

• Indefinidas: Hipérbole

6.4 Mı́nimos Quadrados


Definição (Solução de mı́nimos quadrados). Para qualquer sistema impossı́vel Au = b existe uma solução
aproximada, a que chamamos a solução de mı́nimos quadrados, que é a solução do sistema Au = PC(A) (b) =
b − PN (AT ) (b).
Assim, temos que:
AT (b − Au) = 0 ⇒ AT Au = AT b ⇒ u = (AT A)−1 AT b
Sendo esta a solução de mı́nimos quadrados de Au = b

Definição (Erro de mı́nimos quadrados). O erro de mı́nimos quadrados é a norma da diferença entre Au,
sendo u a solução de mı́nimos quadrados e b.

kb − Auk

Referências
Martins, N. (2016, Novembro). Apontamentos para as aulas teóricas de álgebra linear para leic-a. Departa-
mento de Matemática, Instituto Superior Técnico.

Resumos 15

Você também pode gostar