Escolar Documentos
Profissional Documentos
Cultura Documentos
1o Semestre 2017
Resumos
Baltasar Dinis
Baltasar Dinis AL CONTEÚDO
Conteúdo
1 Matrizes 3
1.1 Operações sobre Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Método Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Fatorização Triangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Espaços Lineares 8
2.1 Independência Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Espaços Associados a uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Transformações Lineares 9
3.1 Mudanças de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Projeções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
5 Produtos Internos 11
5.1 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2 Ortogonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6 Aplicações 14
6.1 Diagonalização Unitária. Diagonalização Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Raı́z Quadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.4 Mı́nimos Quadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Referências 15
2 Resumos
Baltasar Dinis AL 1 MATRIZES
1 Matrizes
Uma matriz é um objeto matemático que se define como uma tabela de escalares, que pertencem a um dado
corpo K. Assim, uma matriz tem dimensão m × n, ou seja, tem m linhas e n colunas.
1 2 3 e
Exemplo. A = π 1.2 5 6 é uma matriz 3 × 4, podendo-se ainda denotar por A = (aij )m×n
4 8 1 2
O conjunto das matrizes sobre um corpo K, cuja dimensão é m × n é denotado por Mm×n (K).
• Uma matriz quadrada é diagonal quando todas as entradas fora da diagonal principal são nulas.
• A matriz identidade, In×n é a matriz diagonal em que todas as entradas não-nulas são 1.
• Uma matriz diz-se diagonal superior (inferior) quando todas as entradas tal que i > j (i < j) são nulas.
Note-se que uma matriz diagonal é simultaneamente superior e inferior.
• A caracterı́stica de uma matriz é o inteiro que indica quantas linhas/colunas são linearmente indepen-
dentes. Corresponde ao número de linhas não nulas na forma de matriz de escada em linha1 pivots
da matriz (entradas de uma matriz que só têm zeros por baixo).
• A nulidade de uma matriz corresponde ao inteiro que indica a dimensão do núcleo. Corresponde ainda
à diferença entre o número de colunas e a caracterı́stica da matriz: n = car(A) + nul(A).
k
X
AB = ail × blj
m×n
l=1
A(αB + C) = αAB + AC
ordem descendente.
Resumos 3
Baltasar Dinis AL 1 MATRIZES
Definição (Inversa). Uma matriz quadrada A é invertı́vel se existir uma matriz B tal que:
AB = BA = I
E que:
1 −1
(αA)−1 = A
α
Definição (Transposta). Definimos a transposta de uma matriz Am × n como a matriz AT n × m, tal que:
AT = (aji )
AH = (aji )
Tem-se que:
(AB)T = B T AT (AB)H = B H AH
Definição (Traço). O traço de uma matriz quadrada é a soma das entradas da sua diagonal principal.
n
X
tr(A) = aii
i=1
Definição (Semelhança de Matrizes). Duas matrizes A e B são semelhantes sse existir uma matriz invertı́vel
S −1 tal que B = S −1 AS. Neste caso, verifica-se que têm o mesmo:
• Determinante
• Traço
• Polinómio Caracterı́stico
• Valores Próprios
• Caracterı́stica
• Nulidade
4 Resumos
Baltasar Dinis AL 1 MATRIZES
AX = B
Para resolver o sistema, concentramo-nos unicamente na matriz aumentada do sistema, [A|B].
Podemos aplicar as chamadas operações elementares sobre as linhas do sistema, que não têm impacto
nas soluções do sistema:
• Somar duas linhas e substituir o resultado numa delas.
• Multiplicar uma linha por um escalar
• Trocar duas linhas
Para aplicar o Método de eliminação de Gauss-Jordan, aplicamos sucessivamente estas operações, com
vista a transformar a matriz numa matriz em escada de linhas. Depois, eliminamos as entradas nas colunas
que têm pivots que não sejam os próprios pivots, multiplicando-as linhas pelo escalar correspondente, de
forma a que os pivots sejam 1. Assim, voltando para a forma de sistema, é trivial perceber quais as suas
soluções.
Tem-se que a solução do sistema pode ser dada por:
SAX=B = SPAX=B + SAX=0
O sistema pode ser caracterizado como:
• Possı́vel Determinado: Tem uma solução única. É equivalente a dizer que nul(A) = 0 e car(A) =
car[A|B]
• Possı́vel Indeterminado: Tem infinitas soluções. É equivalente a dizer que nul(A) > 0 e que
car(A) = car[A|B]
• Impossı́vel: Não tem solução. É equivalente a dizer que car(A) < car[A|B]
Este método permite ainda inverter matrizes. Dada a matriz [A|I], ao aplicarmos as operações elementares
e transformarmos a matriz aumentada em [I|B], se isso for possı́vel então A−1 = B.
Resumos 5
Baltasar Dinis AL 1 MATRIZES
• Matriz Produto de Escalar por uma Linha, Ei (α): corresponde a multiplicar a linha i pelo
escalar α.
1 0 ... ... 0
0 . . . . . . . . . ...
. . .
Ei (α) = ..
. . α . . . ..
. .. .. ..
. ..
. .
. . .
0 ... ... ... 1
• Matriz Soma de duas linhas, Eij (α): corresponde a somar à linha j a linha i multiplicada pelo
escalar α.
1 0 ... ... ... 0
0 1 . . . .
. . . . . . ..
. . ..
.
. .. ... . . . . . . .
Eij (α) = . .. .
.
. α . 1 . . . ..
.. .. .. .. . . .
. . . . . ..
0 ... ... ... ... 1
Ao transformarmos, através do método de eliminação de Gauss, uma matriz A numa matriz U , triangular
superior, temos que, multiplicando à esquerda de A uma sucessão de matrizes elementares obtemos uma
matriz triangular superior. Se nenhuma dessas matrizes elementares for uma P (que não é invertı́vel)
podemos multiplicar à esquerda de ambos os membros da equação obtendo, no membro direito, um produto
de matrizes trangulares inferiores, que é, em si, uma matriz triangular inferior L, por uma matriz triangular
superior. Assim, factorizamos a matriz A em duas matrizes, uma triangular superior e outra inferior.
Poderı́amos ainda garantir que as diagonais de ambas tem apenas 1’s como entradas, e aı́ terı́amos que
A = LDU .
1.4 Determinantes
Definição (Permutação). Uma permutação de um conjunto {a1 , a2 , . . . , an } é uma lista ordenada arbitrari-
amente desse mesmo conjunto.
Definição (Inversão). Dada uma permutação (i1 i2 . . . in ) dizemos que (ij ik ) é uma inversão se ij > ik , para
j < k.
Definição (Paridade de uma Permutação). Dada uma permutação (i1 i2 . . . in ), dizemos que ela tem a mesma
paridade que o número de inversões que ocorrem na permutação.
Definição (Determinante). O determinante de uma matriz é uma transformação Mm×n (K) → K, que é
representado por |A| ou por det(A) e é calculado da seguinte maneira:
1. Formam-se todos os produtos de n fatores em que todos os elementos estão em linhas e colunas
diferentes.
2. A cada produto estão associadas duas permutações de ı́ndices: uma das colunas e outra das linhas. Se
a paridade delas for a mesma, afeta-se o produto com o sinal +, caso contrário faz-se o mesmo com o
sinal −.
6 Resumos
Baltasar Dinis AL 1 MATRIZES
Uma maneira mais comum de calcular o determinante é fixar a permutação (12. . . n) para as linhas (ou para
as colunas) e somar os produtos correspondentes às n! permutações dos ı́ndices das colunas (ou das linhas)
tendo em conta a paridade de cada uma dessas permutações.
Para além disso, podemos aplicar a Fórmula de Laplace:
Teorema (Fórmula de Laplace). Seja Aij o menor −ij de A, ou seja, a matriz n − 1 × n − 1 correspondente
a remover a linha i e a coluna j de A.
Para j fixo:
n
X
|A| = (−1)i+j |Aij |
i=1
Para i fixo:
n
X
|A| = (−1)i+j |Aij |
j=1
Note-se que:
• O determinante de uma matriz triangular (ou diagonal) é o produto dos elementos da diagonal.
• Se a nulidade da matriz não for nula, ou seja, a matriz não for invertı́vel, o determinante é zero.
• Se B for obtida somando a uma linha (coluna) A o produto de um escalar por outra então |B| = |A|.
• Se B for obtida multiplicando uma linha (coluna) de A por um escalar α então B = α|A|
• |αA| = αn |A|
• |A−1 | = 1
det A
Definição (Matriz dos cofatores). Dizemos que a matriz cof(A) = ((−1)i+j |Aij |)n×n é a matriz dos cofatores
de A. Note-se que o determinante de A é a soma de uma linha ou uma coluna da matriz dos cofatores.
1
A−1 = cof(A)T
det A
Teorema (Regra de Crammer). Tenha-se um sistema de equações lineares, cuja matriz aumentada é [A|B].
Caso a matriz A seja n × n, a solução X pode ser obtida, componente a componente, através desta fórmula.
det Ci
xi =
det A
Onde Ci é a matriz que se obtém substituindo a i-gésima coluna de A por B.
Resumos 7
Baltasar Dinis AL 2 ESPAÇOS LINEARES
2 Espaços Lineares
Definição (Espaço Linear). Dizemos que um conjunto não vazio é um espaço linear, V sobre um corpo de
escalares K se tiver duas operações (a soma e o produto por um escalar) e se cumprir os seguintes axiomas:
3. Comutatividade da Soma
4. Associatividade da Soma
6. Simétrico ∀u ∈ V ∃v ∈ V : u + v = 0(−u = v)
8. Distributividades
• ∀α, β ∈ K, ∀u ∈ V : (α + β)u = αu + βu
• ∀α ∈ K, ∀u, v ∈ V : α(u + v) = αu + αv
Definição (Subespaço Linear). Seja V um espaço linear, se um subconjunto de V , U , for um espaço linear,
então diz-se que U é um subespaço linear de V .
α1 u1 + α2 u2 + . . . + αn un = 0
Caso um conjunto não for linearmente independente, diz-se que é linearmente dependente.
Note-se que quando uma matriz não tem caracterı́stica máxima significa que as suas linhas e/ou as suas
colunas não são linearmente independentes, e o seu determinante é zero.
2.2 Bases
Definição (Expansão Linear). Uma expansão linear de um conjunto S = {u1 , . . . , un }, L(S) é definida da
seguinte maneira:
L(S) = {v : v = α1 u1 + . . . + αn un , ∀αi ∈ K}
Definição (Conjunto Gerador). Dizemos que S é um conjunto gerador do espaço linear V (ou que S gera
V ) quando V = L(S).
Definição (Base Ordenada). Um conjunto ordenado B diz-se uma base ordenada do espaço ordenado V
quando gera V e quando é linearmente independente.
8 Resumos
Baltasar Dinis AL 3 TRANSFORMAÇÕES LINEARES
Definição (Espaço das Colunas). O espaço das colunas C(A)é o espaço gerado pelas colunas da matriz, A.
C(A) = {b : Au = b, ∀u ∈ Mn×1 }
Definição (Núcleo). O núcleo de uma matriz N (A) é o espaço correspondente à solução geral da equação
homogénea Au = 0
N (A) = {u : Au = 0}
Tem-se que:
Note-se que o espaço das linhas e o núcleo de uma matriz A são iguais ao espaço das linhas da matriz e ao
núcleo de A0 , a matriz resultante de aplicar o Método de Eliminação de Gauss a A, mas o mesmo não é
verdade para o espaço das colunas.
Sejam U e V dois espaços lineares, tal que:
• U = L(S1 ) = N (A1 )
• V = L(S2 ) = N (A2 )
Tem-se que:
• U + V = L(S1 ∪ S2 )
dim U + V ≤ dim U + dim V
• U ∩V =N A 1
A2
dim U ∩ V ≤ min(dim U, dim V )
Definição (Soma Direta). Definimos ⊕ como a soma direta de dois espaços lineares como um caso especial
da soma de espaços, em que a sua intersecção é o vetor nulo.
3 Transformações Lineares
Definição (Transformação). Uma transformação T : U → V é uma correspondência unı́voca entre dois
espaços lineares.
Definição (Núcleo). O núcleo de uma transformação linearé o conjunto de objetos, u, tal que T (u) = 0.
Definição (Imagem). A imagem de uma transformação linearé o conjunto das suas imagens.
Teorema.
dim U = dim N (T ) + dim I(T )
Definição (Injetividade). Dizemos que uma transformação linearé injetiva quando T (u) = T (v) ⇔ u = v.
É equivalente dizer que o núcleo é {0}.
Resumos 9
Baltasar Dinis AL 4 VALORES E VETORES PRÓPRIOS
Definição (Sobrejetividade). Dizemos que uma transformação linearé sobrejetiva quando I(T ) = V
Definição (Bijetividade). Dizemos que uma transformação linearé bijetiva quando é injetiva e sobrejetiva.
Neste caso dim U = dim V . Dizemos ainda que T é um isomorfismo e que U e V são isomórficos.
Teorema. Se dim U = dim V e T é injetiva ou sobrejetiva então é bijetiva.
Podemos representar uma transformação linearde várias formas:
• Expressão algébrica: Em função das componentes do objeto definir as componentes da imagem.
• Combinação linear: Dada uma base de U , B = {u1 , . . . , un }, T (B) = {T (u1 ), . . . , T (un )} gera I(T ).
Assim, podemos definir a transformação como:
• Matriz: Dada uma base de U , B1 , a matriz M(T ;B1 ;B2 ) = [T (u1 ) · · · T (un )] transforma as coordenadas
de um objeto nas coordenadas de uma imagem numa base B2 .
Definição (Homotetia). Uma homotetia é uma transformação linearcuja matriz associada, relativamente às
bases canónicas, é λI.
• λ = 0: Transformação Nula
• λ = 1: Transformação Identidade
• λ > 1: Expansão
3.2 Projeções
Uma projeção é uma transformação linearque é idempotente, ou seja, quando a sua aplicação sucessiva tem
o mesmo efeito de uma única aplicação:
T é projeção ⇔ T ◦ T = T ⇒ U = N (T ) ⊕ I(T )
Eλ = N (A − λI)
10 Resumos
Baltasar Dinis AL 5 PRODUTOS INTERNOS
Av = λv ⇔ (A − λI)v = 0 ⇔ |A − λI| = 0
Definição (Polinómio caracterı́stico). O polinómio caracterı́stico de uma matriz A é dado por |A − λI|, e
os seus zeros são os valores próprios de A.
4.1 Diagonalização
Definição (Diagonalização). Dizemos que A é diagonalizável quando é semelhante a uma matriz diagonal
D, por meio de uma matriz P −1 . Isto não acontece quando:
• A não é invertı́vel
• 0 é um valor próprio de A
Dada A, uma matriz diagonalizável. Para a diagonalizar, calculamos os seus vetores próprios e os respectivos
valores próprios. Seja {v1 , . . . , vn } um conjunto de vetores próprios linearmente independentes. Construı́mos
P −1 = [v1 · · · vn ]. Invertemos a matriz (que é invertı́vel, pois as colunas são linearmente independentes) para
obter P . Calculamos D como a matriz diagonal que, em cada entrada, tem o valor próprio correspondente
a um dado vetor próprio e temos que:
A = P −1 DP
Como A e D são semelhantes, temos que:
• tr(A) = λ1 + . . . + λn
• det A = λ1 · · · λn
5 Produtos Internos
Definição (Produto Interno). Dado um espaço vetorial V sobre um corpo K, o produto interno é uma
aplicação h, i : V × V → K que verifica as seguintes condições, em R
Resumos 11
Baltasar Dinis AL 5 PRODUTOS INTERNOS
Definição (Ângulo). Definimos o ângulo entre dois vetores não nulos como:
hu, vi
θ = arccos
kuk kvk
Teorema (Desigualdade de Cauchy-Schwarz). Seja V um espaço linear com um produto interno. Então,
tem-se que:
|hu, vi| < kuk kvk
Teorema (de Pitágoras). Seja V um espaço linear com um produto interno. Então, u e v ∈ V são ortogonais
sse:
2 2 2
ku − vk = kuk + kvk
Podemos, no entanto, definir a norma de um vetor sem ela estar associada a um produto interno.
Definição (Norma). Seja V um espaço linear. A norma é uma aplicação kk : V → R que satizfaz as
seguintes propriedades:
1. Positividade: kuk > 0, ∀u 6= 0; kuk = 0 ⇔ u = 0
12 Resumos
Baltasar Dinis AL 5 PRODUTOS INTERNOS
Definição (Produto Interno Usual). O produto interno usual, ou o produto escalar, é o produto interno em
que a matriz da métrica em relação à base canónica é a matriz identidade.
Para calcularmos a matriz da métrica em relação a uma base B2 conhecendo GB1 , temos que:
hu, vi = hu, vi
⇔ [u]TB2 GB2 [v]B2 = [u]TB1 GB1 [v]B1 = (SB2 →B1 [u]B2 )T GB1 SB2 →B1 [v]B2 = [u]TB2 (SB
T
2 →B1
GB1 SB2 →B1 )[v]B2
T
⇔ GB2 = SB 2 →B1
GB1 SB2 →B1
5.2 Ortogonalização
Definição (Base Ortogonal). A base de um espaço linear é ortogonal se todos os seus vetores forem ortog-
onais entre si.
Definição (Base Ortonormada). Uma base é ortonormada se for ortogonal e se a norma de todos os seus
vetores for 1
Note-se que a matriz da métrica associada a uma base ortonormada é sempre a matriz ortonormada, o que
quer dizer que a base canónica é ortonormada em relação ao produto interno usual.
O método de ortogonalização de Gram-Schmidt, que serve para ortogonalizar uma base consiste em escolher
Pi−1
um vetor inicial, u1 = v1 e construir os vetores ui como vi − j=1 projuj vi . Assim, a base {u1 , . . . , un }, é
garantidamente ortogonal (podendo ainda ser tornada ortonormada trivialmente).
v = PU (v) + PU ⊥ (v)
Teorema.
U = (U ⊥ )⊥
(U1 + U2 )⊥ = U1⊥ ∩ U2⊥
(U1 ∩ U2 )⊥ = U1⊥ + U2⊥
(L(A))⊥ = N (AGB )
3 Os seus valores próprios têm de ser todos positivos
Resumos 13
Baltasar Dinis AL 6 APLICAÇÕES
6 Aplicações
6.1 Diagonalização Unitária. Diagonalização Ortogonal
Definição (Matriz Unitária). Uma matriz diz-se unitária quando U H U = I Neste caso, as colunas de U
formam uma base ortonormada de mathbbC n
Definição (Matriz Ortogonal). Uma matriz diz-se unitária quando P T P = I Neste caso, as colunas de P
formam uma base ortonormada de mathbbRn
Definição (Unitariamente Diagonalizável). Uma matriz diz-se unitariamente diagonalizável quando pode
ser diagonalizada por meio de uma matriz unitária.
Definição (Ortogonalmente Diagonalizável). Uma matriz diz-se ortogonalmente diagonalizável quando pode
ser diagonalizada por meio de uma matriz ortogonal.
Teorema (de Schur). Seja A uma matriz n × n. Então existe uma matriz unitária U H tal que U AU H é
triangular.
Teorema. Todas as matrizes simétricas são ortogonalmente diagonalizáveis e todas as matrizes ortogonal-
mente diagonalizáveis são simétricas.
14 Resumos
Baltasar Dinis AL Referências
Definição (Forma Quadrática). Uma forma quadrática real a n variáveis associada a uma equação quadrática
xT Ax + Bx + α = 0 é a função Q : R n → R tal que Q(x) = xT Ax
T
Se A não for simétrica substitui-se por B = A+A
2 , e Q(x) = xT Ax = xT Bx.
• Definidas: Elipse
• Semi-definidas: Parábola
• Indefinidas: Hipérbole
Definição (Erro de mı́nimos quadrados). O erro de mı́nimos quadrados é a norma da diferença entre Au,
sendo u a solução de mı́nimos quadrados e b.
kb − Auk
Referências
Martins, N. (2016, Novembro). Apontamentos para as aulas teóricas de álgebra linear para leic-a. Departa-
mento de Matemática, Instituto Superior Técnico.
Resumos 15