Escolar Documentos
Profissional Documentos
Cultura Documentos
Uma lei interna T associa dois elementos x e y de um conjunto A à um terceiro elemento z A . Por
exemplo: x y z onde a lei interna é a adição , ou x y z , onde a lei interna é a multiplicação . Na
nossa notação se afirma que xT y z x y z ou xT y z xyz.
Teorema: se uma lei T possui elemento unitário, é associativa e x A possui inversa, então a inversa é única
e x é regular.
Álgebra com duas Leis. Vamos chamar a lei T de lei 1 e uma outra lei 2 de . A lei será distributiva frente
à lei T se
xT y z x z T y z ou
z xT y z x T z y
para x, y , z A . Exemplo:
mostrar que a multiplicação é distributiva frente à adição mas o inverso não é verdade.
x y z x z y z
x y z x z y z
logo a mulitplicação é distributiva. Entretanto .
1. T é associativa
2. T admite elemento unitário e
3. x G admite inversa x G
Primeira lei :
x y z x y z associativa
x y y x comutativa
x e e x x então e 0 é o elemento unitário da adição.
x x e x x
Inversa e é a inversa de . Note que se o conjunto fosse o dos naturais não haveria inversa
G x / x 0
*
pois ele não inclui números negativos. Então G e .
*
Agora vamos analisar o comportamento da multiplicação frente ao G .
x y z x y z associativa
x y y x comutativa
x y z x z y z distributiva frente à adição
x e e x x então e 1 é o elemento unitário da multiplicação. Logo a inversa será dada por x x 1 , ou
1
x
seja, x . Note que sem a exclusão do zero teríamos problema com a inversa do elemento unitário da
1
0
adição pois 0.
Então é um CAMPO frente à adição e multiplicação. Note a necessidade de ampliar os conjuntos para a
obtenção de grupos e campos. Partindo dos naturais e da operação foi necessário incluir os números
negativos para a existência da inversa, chegando ao conjunto .
Já para a operação multiplicação foi-se obrigado a inlcuir o conjunto dos racionais para admitir inversas
1
x
x . Além disso, para admitir operações como x x y com x G e y G percebe-se a necessidade de
inclusão dos irracionais e dos imaginários, caso y 0 .
Matrizes
Uma matriz é uma tabela com m linhas e n colunas em que cada elemento é identificado pelos índices da
a i j , ou seja, o
linha e da coluna. Assim o elemento ij é encontrado no cruzamento da linha com a coluna
primeiro índice se refere à linha e o segundo à coluna.
coluna 1 2 3 n
linha
1 a11 a12 a13 a1n
2 a21 a22 a23 a2 n
3 a31 a32 a33 a3n
m am1 am 2 am 3 amn
A
Note que quando denotamos uma matriz mn temos um bloco com n m números. Uma analogia é com
um circuito integrado, composto de milhões de elementos individuais. Outra analogia seriam as rotinas dos
softwares que podem ser utilizadas como blocos individuais. Se existe uma álgebra para lidar com os blocos
sem muita necessidade de descer ao nível dos elementos individuais, isso representa uma enorme economia
de esforço intelectual. Assim, se for possível simplificar todo um conjunto de operação com matrizes apenas no
nível mais alto, mais abstrato, o trabalho se torna muito mais produtivo. Por isso a álgebra de matrizes é uma
ferramenta matemática das mais poderosas.
Aij
Dimensão: uma matriz de dimensão m n [m por n] possui m linhas e n colunas. O elemento está no
encontro da iésima linha com a jésima coluna.
Omn / Oij 0 i, j
Matriz NULA: , ou seja, todos os elementos são nulos.
Matriz COLUNA:
Cm1 tem apenas uma coluna e m linhas
L
Matriz LINHA: 1n tem apenas uma linha e n colunas.
Matriz QUADRADA: se n m , A é uma matriz quadrada Amm de ordem m.
1 se i j
ij
Função Delta de Kronecker: 0 se i j
Note que matrizes representam um conjunto de números, logo é preciso definir as operações sobre esse
conjunto.
A B Aij Bij ij
Operação IGUALDADE: se, e somente se, .
Operação ADIÇÃO: essa operação sobre ser efetuada sobre matrizes de mesma dimensões,
Amn e
Bmn , e
A B ij Aij Bij
é definida como .
A B ij Aij Bij
Operação SUBTRAÇÃO: é a inversa da ADIÇÃO.
b.
A B C A B C pois
Aij Bij Cij Aij Bij Cij , ou seja, é distributiva.
aA ij aAij
Operação multiplicação por um escalar: , ou seja, todos os elementos da matriz são
multiplicados pelo escalar (número) a .
1.
k A B kA kB distributiva
2.
k1 k2 A k1 A k2 A
3. 0A O é uma matriz nula
4.
k1 k2 A k1k2 A
Aij A ji
Operação TRANSPOSTA é denotada por A A , e é definida por . Ou seja, essa operação troca
linhas por colunas. Gosto da notação A porque podemos usá-la facilmente em equações como
A B que
teria que usar parênteses na notação A , ou seja, A B . Além disso a aplicação da operação transposta
duas vezes pode ser escrita como A e na outra como A . Matriz simétrica tem a propriedade: S S . Note
que nesse caso a matriz S é obrigatoriamente quadrada.
1. A A , pois Aij A ji
A ij A ji Aij .
logo
2. A B A B , pois
A B ij A B ji A ji B ji A ij B ij A B ij .
3.
kA k A
4. Se S é simétrica então
S ij S ji Sij
S S , pois
7. BB A é antisimétrica.
B B B B B B B B , logo
B B B B é antisimétrica.
8. Toda matriz quadrada pode ser decomposta em uma matriz simétrica e uma antisimétrica. Prova:
Prova:
1 1
2
1
2
1
2
1
2
1
2
1
2
1
M M M M M M M M M M M
2 2
logo
M S A onde
1
S M M
2 e
1
A M M
2
Motivação. Suponha uma matriz que fornece as quantidades de vitaminas A, B e C nos alimentos I e II, do tipo:
vitamina A B C
alimento I 4 3 0
alimento II 5 0 1
Quanto existe de cada vitamina em um prato com 5 unidades do alimento I e 2 do alimento II?
4 3 0
5 2 5 4 2 5 5 3 2 0 5 0 2 1 30 15 2
5 0 1 . Note que
multiplicamos linha por coluna para obter a quantidade de cada uma das vitaminas em um prato combinando
diferentes alimentos.
Só podemos, então, multiplicar duas matrizes A e B se o número de colunas de A for igual ao número de
linhas de B . A operação MULTIPLICAÇÃO entre uma matriz de ordem m n e outra de ordem
n p é
n
( AB)ij Aik Bkj
definida por k 1 , resultando em uma matriz de ordem
m p
. Note que o índice repetido
da primeira matriz é o segundo, da coluna, e da segunda é o primeiro, o da linha. A regra para saber a
Amn Bn p Cm p n
dimensão da matriz multiplicação é cancelar a dimensão repetida, ou seja: , ou seja, o
repetido desapareceu.
a. Em geral AB BA , ou seja, a operação multiplicação não comuta. Existem que casos em que a
AB BA Amn Bn p
operação está definida mas a operação não. Exemplo: está definida pois o
1 2 1 2 4 1 3 6 3 0 0 0
AB 3 4 1 6 8 2 9 12 3 0 0 0
2 2 4 4 6 6 0 0 0 .
2. Multiplicação pela matriz identidade: AI IA A , ou seja, a matriz identidade é o elemento
unitário frente à operação multiplicação de matrizes. Prova:
AI ij Aik I kj Aik kj Aij A ij
k k , logo AI A . Por outro lado
IA ij Iik Akj ik Akj Aij A ij
k k , logo IA A .
3.
A B C AB AC é distributiva à esquerda.
4.
A B C AC BC é distributiva à direita.
Prova:
A B C ij Aik B C kj Aik Bkj Ckj
k k
Aik Bkj Aik Ckj AB ij AC ij
k k
A B C ij A B ik Ckj Aik Bkj Ckj
k k
Aik Ckj Bik Ckj AC ij BC ij
k k
5.
A BC AB C , é associativa.
Aik Bkl Clj Aik Bkl Clj AB il Clj AB C ij
k l l k l
6. OA O e AO O
7.
AB B A , na transposta do produto é preciso comutar a multiplicação.
AB AB A jk Bki B
ij ji
k k
ik A kj B Aij
Prova:
8. Se
Q é uma matriz quadrada então
QQ S é simétrica. Prova:
QQ QQ QQ logo
QQ QQ , logo QQ S é simétrica.
9. A multiplicação de duas matrizes triangulares superiores é triangular superior.
T
j n j n
ik Tkj ik Tkj ik Tkj 0Tkj ik 0
ij k k 1 k j 1 k 1 k j 1
Já se
i j então:
T
i j j
ik Tkj ik Tkj ik Tkj ik Tkj
ij k k 1 k i 1 k i 1
j
ik Tkj 0
k i 1
ij 0 se i j i j
Matriz triangular inferior é tal que , nesse caso se então:
T
i n i n
ik Tkj ik Tkj ik Tkj ik 0 0Tkj 0
ij k k 1 k i 1 k 1 k i 1
Já se
i j então
j i n i
T ik Tkj ik Tkj ik Tkj ik Tkj ik Tkj 0
ij k k 1 k j 1 k i 1 k j 1
VETORES.
B1
B2
B
A A1 A2 An Bn .
Vetores são matrizes linha ou coluna que denotamos por ou
A A1 A2 An
Produto escalar ou produto interno. Vamos multiplicar a matriz linha pela matriz
B1 B1
B2 B
B AB A1 A2 An 2 Ai Bi
i
coluna Bn . O resultado Bn se chama PRODUTO ESCALAR e é
denotado por A B . Note que se B A então
A A A1 A2 An2 e chamamos a norma de A
2 2
A A A A12 A22 An2
. A interpretação geométrica do produto escalar pode ser obtida, sem
perda de generalidade, tomando o eixo x na direção de A e colocando o vetor B no plano fazendo um
xy
ângulo x
com o eixo . Nesse caso podemos usar apenas duas dimensões e os vetores são dados por
A A, 0 B B cos , B sin
e . O produto escalar será B AB cos . Dois vetores não nulos para os
A
A B
cos
quais A B 0 são perpendiculares entre si. Note que A A B B é um número que varia entre
1 e 1 .
Desigualdade de Schwartz no produto escalar:
A B A B 0 pois é o produto escalar de um vetor por ele mesmo. Mas
A B A B A A 2 A B B B 0 . Aqui usamos as propriedades distibutiva
2
A B C A B AC
e comutativa A B B A do produto escalar. Mas a equação
A A 2 A B B B 0 é uma parábola em do tipo a b c com o coeficiente a
2
2
a A A 0
e a desigualdade a b c 0 só será válida se b 4ac 0 , ou sjea não
2 2
positivo, pois
A B
2
1
4 A B 4 A A B B 0 A B B e
2
A
existem raízes reais. Nesse caso, que implica em
A B
1 1
A A B B .
Se A é um vetor complexo então precisamos não apenas transpor o vetor coluna mas conjugá-lo para garantir
A1
A
A 2
um número real positivo após a operação. Chamamos de adjunto do vetor An o vetor linha
A† A* A1* *
A
2 A *
n , ou seja, é necessário transpor e conjugar. Agora sim, o produto
A1
A
A† A A1* An
* 2
Ai* Ai Ai
2
A2*
i i
An será um número real positivo e pode ser usado na
definição da norma, ou módulo, de um vetor complexo.
Funções de Matrizes quadradas:
A nossa álgebra de matrizes nos permiet apenas realizar as operações adição, multiplicação por um escalar e
multiplicação de matrizes. A adição só pode ser realizada com matrizes de mesma dimensão e a multiplicação
exige condições sobre as dimensão das duas matrizes. Se trabalharmos apenas com matrizes quadradas tanto
as condições da adição quanto as da multiplicação serão automaticamente satisfeitas. Sabendo a operação
multiplicação podemos definir a operação potenciação de matrizes: An A A A , sem problemas
com matrizes quadradas.
Note que n! são apenas escalares (números). Assim definimos a função de matrizes através da série:
f 0 n
n
f A A
n 0 n !
Sabemos realizar essa operação? Sim, sabemos, pois sabemos calcular An , sabemos multiplicá-la por um
n
f 0
escalar n! , e sabemos somar as matrizes:
f 0 2 f 0 3 f 0 n
3 n
f A f 0 I f 0 A A A A
2! 3! n! .
1 0 0
0 0
D 2
0 0 n
f 1 0 0
0 f 2 0
f D
0 0 f n
Então .
1n 0 0
n
0 2 0
Dn
0 0 nn
Para tanto basta notar que , portanto
f n 0
1n 0 0
n 0 n !
f 0 n
n
f n
0 D n 0 2 0
n 0 n!
n0 n!
f n 0
0 0 n
n
n!
n 0 logo
1n 0 0
f 1 0 0
2n 0
0 f 2 0 0
Dn
f D
0
0 0 f n 0 nn
. Uma forma de mostrar que
Dij i ij
é usando indução com a seguinte notação: . Daí mostramos que
D 2
ij
Dik Dkj i k ik kj i2 ij
k k
D
3
ij
Dik Dkj2 i k2 ik kj i3 ij
k k
, e que .
b. Se A é idempotente então An A , n 1 .
Determinantes são uma função que associa um número real à matrizes quadradas de números reais na forma
det A : m m . A melhor forma de definir determinante é através dos tensores de Levi-Civita e por
isso vamos começar com definições e estabelecer as propriedades desses tensores.
Definições.
1 se x 0
sgn( x) 0 se x 0
1 se x 0
A função sinal (sgn) é definida por .
n
j 1 2 3 n
j1
O produtório é representado por
1 , 2 , , n sgn k j
1 j k n
(1 ) 1
O Tensor de Levi-Civita é definido por: , e
sgn z só pode assumnir os valores 1, 0 e 1 .
quando houver apenas uma variável. Como então
( k j ) n n 1
1 j k n 2
O número de termos no produtório é . Para ver isso começamos de:
k n jk n n1 n n2 n 1 n 1 termos
k n 1 j k n 1 n 2 n 1 n 3 n 1 1 n 2 termos
k 2 jk 2 1 1 termo
S 1 2 n 1
n 1 n 1 1
n n 1
Então devemos somar a PA 2 2 .
1.
2,3,1,2 sgn 2 1 2 3 2 2 1 3 1 2 3 2 0
2. 0
1,2,3, 4 sgn 4 3 4 2 4 1 3 2 3 1 2 1 1
3.
4,3,2,1 sgn 1 2 1 3 1 4 2 3 2 4 3 4 1 1
6
4.
3,2,1 sgn 1 2 1 3 2 3 1 1
3
5.
Note no caso 2 que se dois valores quaisquer são iguais o tensor se anula porque dois valores, o primeiro e o
último, foram iguais (2).
j k j k . Cada inversão traz um sinal negativo. Se o
Inversões: existe uma inversão sempre que e
conjunto
1 , 2 , , n com i j i j possui p inversões então
1 , 2 , , n 1
p
. Logo será 1 se
p for par e será 1 se p for ímpar. Foi a contando o
número de inversões que calculamos
4,5,1,2 sgn 2 1 2 5 2 4 1 5 1 4 5 4 1 1
4
Tem 4 inversões. Não é necessário escrever todo o produtório para contar o número de inversões. Tome o
exemplo da seqüência:
2 5 4 1 3
1 3 2
Tem um total de 1 3 2 6 inversões. As inversões do 2 foram o 1, o único número à direita menor do que
Arranjos de
1 , 2 , , n :
Percebemos então que só não é nulo se todos os s forem diferentes. Escolhido um conjunto qualquer
1 , 2 , , n de s diferentes entre si de quantas formas podemos ordenar esse conjunto? Trata-se do
problema de colocar n objetos distintos em n caixas em que a ordem dos objetos importa. Assim existem:
n n 1 n 2 1
n n 1 n 2 1 n!
1 2 3 n
formas de reordenar esse conjunto.
Exemplos:
1.
n 2 1,2 e 2,1 2 formas , e 2! 2 .
2. n3 existem
3! 6 formas mostradas abaixo:
1 2 3 ; 1 3 2 ; 2 1 3 ; 2 3 1 ; 3 1 2 ; 3 2 1
Total 6 arranjos
2 1 , 2 , , n 1 2
termos, então .
1 p , 2 p , , n p 1 , 2 , , n
6. . Basta notar que
sgn k p j p sgn k j .
7.
1 , 2 , , i , , j , , n 1 , 2 , , j , , i , , n . Aqui estamos supondo
i j . Ou seja, a transposição de dois índices troca o sinal de .
k j i k j k i j l i j l l i
j m i m j i
j i m
Agora
k j k i k i k j portanto trocar i por j nada muda nesse termo. Da
mesma forma para o termo
j m i m i m j m . Já no termo:
j l l i 1 l j 1 i l 1 2 l j i l
O sinal foi trocado duas vezes. Portanto, trocar trocar i por
j leva a
i l l j j l l i .
8. Se
1 2 n é obtido
1 2 n através de
p transposições então
1 2 n 1 1 2 n , pois cada transposição troca o sinal uma
p
vez. Corolário: Se
1 2 n é obtido através de
p transposições de
1 2 n
1 2 n 1
p
então .
k1
k2 kn 1 1 2 n
p
k
k2 kn 1 1 2 n
p
1
Pois
k1
k2 kn é um reordenamento de
1 2 n e
k1
k2 kn
é o mesmo reordenamento de
1 2 n logo as permutações são idênticas em ambos os casos.
2p
1 2 p 1
1 1
p
Como a igualdade está provada.
1, 2 , 3 , , n 2 , 3 , , n 2 , 3 , , n
10. onde é um reordenamento de
2, 3, ,n . Todos os termos com sgn i 1 1 1 e desaparecem do produtório.
Para provar as propriedades do determinante vamos precisar ainda dos teoremas de preenchimento.
Teoremas de preenchimento:
1. Sejam
1 2 n todos os reordenamentos possíveis de
1 2 n , portanto
i j i j
é sempre verdade, e
k1 k2 k n um reordenamento fixo de
1 2 n , então
k
1
k2 kn varre todos os reordenamentos possíveis de
1 2 n .
1 2 3 2 3 1
1 3 2 3 2 1
2 1 3 1 3 2
1 2 3 2 3 1
2 3 1 3 1 2
3 1 2 1 2 3
3 2 1 2 1 3
Para
1 2 n exaurir todas as possibilidades de reordenamento ele precisa de n! conjuntos de
1 2 n corresponde um
k1
k2 kn , logo o número de conjuntos de
k1
k2 kn é igual ao de
1 2 n . Na realidade k1 k2 kn é um
reordenamento de
1 2 n . Como o número de conjuntos são iguais entre si e igual a n! então
dois conjuntos
k1
k2 kn repetidos, i.e.:
k 1
k2 kn k1 k k
2 n
ki ki i j j j j ki , e, portanto que
Mas isso implica que o que significa que , fazendo
1 2 n 1 2 n em contradição com a hipótese de que
1 2 n 1 2 n . Logo não há repetição nos conjuntos
k1
k2 kn e eles varrem todos os possíveis reordenamentos de 1 2 n .
2. Sejam
1 2 n todos os reordenamentos possíveis de
1 2 n e
1 2 n um reordenamento fixo de
1 2 n , então o reordenamento
1 2 n tal que
1 1, 2 2 , , n n
também varre todos os
reordenamentos possíveis de
1 2 n .
Antes de demonstrar o teorema vamos aplicá-lo para entender a regra de associação entre os diversos índices.
Vamos escolher
1 2 3 3 1 2 e a regra para encontrar o é dada por
1 3, 2 1, 3 2
. Então se
1 2 3 2 1 3 , 1 3 porque 3 3 , 2 2
porque
1 2 e
3 1 porque
2 1 . Trata-se, portanto, de encontrar a função inversa
i i i 1
i .
3 2 1 3 2
No exemplo dado, 1 , e , teremos:
1 2 3 3 1 2
1 3 2 2 1 3
2 1 3 3 2 1
1 2 3 1 2 3
2 3 1 2 3 1
3 1 2 1 2 3
3 2 1 1 3 2
Note que
1 2 3 varreu todas as possibilidades de reordenamento de 1 2 3 também.
com
2 3 1 obtivemos de volta os 6 arranjos apenas em uma ordem diferente. Ou seja
2 3 1 é tão bom quanto
1 2 3 para varrer todas as possibilidades de arranjos.
Para
1 2 n exaurir todas as possibilidades de reordenamento ele precisa de n! conjuntos de
1 2 n corresponde um
k 1
k2 kn , logo o número de conjuntos de
k1
k2 kn é igual ao de
1 2 n . Na realidade k1 k2 kn é um
reordenamento de
1 2 n . Como o número de conjuntos são iguais entre si e igual a n! então
k1
k2 kn e eles varrem todos os possíveis reordenamentos de 1 2 n .
DEFINIÇÃO DE DETERMINANTE:
O determinante é uma função que associa um número à matrizes quadradas, ou seja, é uma função de
matrizes, o domínio é o conjunto de matrizes quadradas, e o contradomínio são os reais, definida pela regra:
n n n
det( A) 1 , 2 , , n A1 A2 An
1 2 n
1 1 2 1 n 1
.
Note que a somatória é feita sobre o segundo índice dos elementos da matriz, que correspondem às colunas.
Também se percebe que a propriedade (1) das s nos garante que podemos trabalhar apenas com
reordenamentos de
1 2 n , evitando assim índices repetidos.
3 3 3
det A33 1, 2 , 3 A11 A2 2 A33
3. 1 1 2 1 3 1
det A33 1,2,3 A11 A22 A33 2,3,1 A12 A23 A31 3,1,2 A13 A21 A32
3,2,1 A13 A22 A31 1,3,2 A11 A23 A32 2,1,3 A12 A21 A33
det( A) 1 , 2 , , n 1 , 2 , , n A A A
1 1 2 2 n n
1 , 2 ,, n
1.
Onde
1 , 2 , , n é um reordenamento de
1 2 n . Note que a diferença com a definição
det( A) 1 , 2 , , n A1 A2 An
1 2 n
1 , 2 ,, n
inicial do determinante foi o reordenamento
de
1 2 n .
reordenamentos possíveis de
1 2 n como faziam os s iniciais. Isso garante que a somatória
incluirá todos os termos.
det( A) 1 , 2 , , n 1 , 2 , , n A A A
1 1 2 2 n n
1 , 2 ,,n
2. . Note que
agora a somatória é feita sobre o primeiro índice, ou seja, sobre as linhas.
mesmo
1 , 2 , , n fixo, o que requer que j . Se aplicamos o mesmo reordenamento para
j
det A det A
3. .
det( A) 1 , 2 , , n 1 , 2 , , n A A A
1 1 2 2 n n
1 , 2 ,,n
1 , 2 , , n 1 , 2 , , n A A A det A
1 1 2 2 n n
1 , 2 ,,n
4.a.
det A det A
n
1 , 2 , , i , , j , , n 1 , 2 , , j , , i , , n
D
1 , 2 ,, n
1 , 2 , , i , , j , , n A1 A2 A j Ai An
1 2 i j n
1 , 2 ,, n
1 , 2 , , j , , i , , n A1 A2 A j Ai An
1 2 i j n
j i i j
Chamando e
D
1 , 2 ,, n
1 , 2 , , i , , j , , n A1 A2 A j Ai An det A
1 2 j i n
7. Se uma matriz tem uma linha (ou uma coluna) nula então det A 0 . Multiplica a linha por zero e usa
propriedade (4).
A são iguais então det A 0 . Se duas linhas i e j são iguais, trocá-las
8. Se dua linhas (ou colunas) de
não muda a matriz, i.e., A A . Por outro lado, pela propriedade (6) então
det A det A det A det A 2det A 0 det A 0 .
A det A 0 Aij kAij
9. E duas linhas (ou duas colunas) de são proporcionais então . Nesse caso
onde a matriz A possui duas linhas iguais, logo det A k det A k 0 0 .
10. Considere duas matrizes
A1 e
A2 que só diferem na iésima linha, i.e.,
A11 A1n
A12 A11 A12 A1n
A A2 n
A22 A A22 A2 n
21 21
A1 A1
Ai1 Ai 2
Ain Ai1 Ai2 Ain
An1 Ann
An 2 An1 An 2 Ann
e , então
A11 A12 A1n
A A22 A2 n
21
det A det det A det A
Ai1 Ai1 Ai 2 Ai2 Ain Ain
An1 An 2 Ann
.
11. Somar à uma linha um múltiplo de outra linha não altera o determinante. Basta usar as propriedades
acima:
det A det A det A2
1 mas
A2 possui duas linhas proporcionais logo
det A2 0 . O
mesmo vale para colunas.
Cij Aik Bkj
12.
det AB det A det B . Seja C AB então k e nnn
1 , 2 , , n C1 C 2 C n
det C
1 2 n
,
1 2 , ,
n A B
11 11 A B
2 2 2 2 Ann n n
B
1
2 n
A1 A2 An
1 2 1 , 2 , , n B B B
n 1 1 2 2 n n
n
Agora
2 1 , 2 , , n 1 , 2 , , n 1 , 2 , , n 1
desde que
1 , 2 , , n
seja um reordenamento de
1, 2, ,n . Logo podemos incluí-lo na somatória acima obtendo:
det C 1 , 2 , , n A1 A2 An
1 2 n
1 , 2 , , n 1 , 2 , , n B B
1 1 2 2
B
n n
1 , 2 , , n A1 A2 An det B det A det B
1 2 n
n
det( A) Aii A11 A22 Ann
14. Se a matriz A é diagonal então i 1 .
Mas os deltas de Kronecker dentro da somatória garantem que que apenas os termos com
1 1, 2 2, , n n sobrevivem, logo a somatória será
det( A) A1A2 An , ou seja, a
multiplicação dos elementos da diagonal.
n
det( A) Aii A11 A22 Ann
15. Se a matriz A é triangular superior, ou inferior, então i 1 .
Trata-se de uma propriedade intuitiva porque exceto pela diagonal todos os outros termos serão multiplicados
por algum elemento nulo do triângulo inferior. Basta mostrar para a triangular superior, pois a inferior sai com
det A det A . Se A é matriz trinagular superiro então Aij 0 se i j , o que impõe restrições nos
s .
det( A) 1 , 2 , , n A1 A2 An 1 2 n
1 , 2 ,, n
A11 0 0 1 2 1 1 1 1 então i 1 i 1 . O próximo termo é o
Note que para . Se
2 , que pela propriedade da matriz deve ser menor do que 3, mas acima de 1, logo 2 2 . Continuando o
argumento percebemos que a única solução não nula é para
1 1, 2 2, , n n e
det( A) A11 A22 Ann .
Essa propriedade (15) é a base do método numérico de triangularização da matriz, usando o fato de que
operações elementares não alteram o determinante, mais eficiente para cálculo de determinantes.
Definição do COFATOR.
1 0 2
A 3 1 1
2 1 2
Exemplo, seja .
1 1
11 det 11 1 cofA11 1
1 2
3 1
12 det 12 4 cofA12 4
2 2
3 1
13 det 13 1 cofA13 1
2 1
0 2
21 det 21 2 cofA21 2
1 2
1 2
22 det 22 2 cofA22 2
2 2
1 0
23 det 23 1 cofA23 1
2 1
0 2
31 det 31 2 cofA31 2
1 1
1 2
32 det 32 5 cofA32 5
3 1
1 0
33 det 33 1 cofA33 1
3 1
1 4 1
cof A 2 2 1
2 5 1
Propriedades do cofator:
1 0 0 A22 A23 A2 n
A A22 A2 n A A33 A3n
det A det 21 det 11 det 32
1. An1 An 2 Ann An 2 An3 Ann , ou seja,
iniciamos com uma matriz nn e caímos em uma matriz
n 1 n 1 . Note que os elementos
A11 11 1.
da primeira linha podem ser escritos como , anulando todos os elementos com 1
1, 2 , , n A2 An
2 ,,n 1 2 n
Agora vamos trocando as colunas da mesma forma até levar a coluna k para a primeira coluna, então:
Nesse caso temos dois métodos de decomposição no cofatores para calcular um determinante – escolhe uma
linha e usa a primeira somatória, ou escolhe uma coluna e usa a segunda. A idéia é procurar linhas ou colunas
com muitos zeros para facilitar os cálculos. Para fazer determinantes 4 4 ou 5 5 na mão, dependendo da
quantidade de zeros na matriz, esse método pode ser até rápido. Se precisar de uma resposta analítica em
lugar de numérica também deve-se usar esse método. Para calcular valores numéricos de qualquer
determinante não é o mais adequado. Entretanto, o método é valioso demais para provar o teorema a seguir:
Teoremas:
Prova: vamos criar uma matriz A à partir da A trocando a linha j pela i , i.e.,
Apq se p j
Apq
Aiq se p j
Note que se
i j ficamos com duas linhas iguais. Agora
det A Ajk cof A jk Aik cof A jk 0 i j
k k por conta das duas linhas iguais. Se
escolhemos a linha
j para a expansão dos cofatores então cof A cof A . Se, por outro lado, i j , a
Aik cof A ik det A
troca não muda nada e k . Nesse caso podemos então escrever que
Assim podemos encontrar facilmente a matriz inversa de uma matriz 2 2 não singular:
A A12 A22 A21 A22 A12
A 11 cof A A
†
A21 A22 A12 A11 A21 A11
Ou seja, para obter a matriz adjunta simplesmente trocamos os dois elementos da diagonal e os sinais dos dois
elementos fora da diagonal. A matriz inversa é dada por:
A22 A12
A A11
1
A 21
( A11A22 A12 A21 )
2. Definição de matriz inversa. Se existir uma matriz X tal que AX I e que XA I então X éa
1
matriz inversa de A , denotada por X A .
2.1. Se a inversa existe ela é única. Supor que existem duas diferentes, ou seja, Y X / AY I . Mas
X XI X AY XA Y IY Y ou seja X Y em contradição com X Y . Logo a
inversa, se existir, é única.
2.2. Se A admite inversa então A é não singular.
AA1 I
det AA1 det I 1 det A det A1 1 , logo det A 0 e
1
det A1
det A1 0 . Mais ainda det A .
1
A†
2.3. Vale também o converso, se A é não singular então A admite inversa. Nesse caso det A existe
1
A 1 A†
e det A .
Então podemos afirmar A admite inversa A é não singular.
0 det A1 1 0 1
gera uma contradição.
1 1
2.5. A é a inversa de A1 . Pois AA I e A A I .
2.6. Se A é não singular, A também é não singular, pois det A det A 0 .
B 1 1
A AB B A A B B
1 1 1
IB B 1B I
A
1
A1
2.8. Se A é não singular então .
1
1 AA1 I I A 1 A I A 1 A
Partindo de AA I e aplicando a transposta logo .
OPERAÇÕES ELEMENTARES:
1. Multiplicar uma linha, ou uma coluna, por um escalar 0 . O determinante é multiplicado por .
2. Permutar duas linhas, ou duas colunas. O determinante é multiplicado por 1 .
3. Adicionar à uma linha, ou uma coluna, um múltiplo de outra linha, ou coluna. Nesse caso o
determinante é preservado.
Teorema:
Oˆ L AB Oˆ L A B OˆC AB A OˆC B
e
.
Oˆ L
AB ij Aik Bkj
O operador só atua nas linhas, ou seja, apenas no primeiro índice do produto k ,
Oˆ L AB ij Oˆ L Aik Bkj
k
Oˆ L AB Oˆ L A B Oˆ
C só atua
portanto que significa . Já o operador
je
OˆC AB ij Aik
k
Oˆ B
C kj
no índice .
Matrizes elementares.
Uma matriz elementar é obtida aplicando operadores linha e/ou coluna sobre a matriz identidade. Denotamos
essas matrizes por E e
EL ou
EC se a operação for apenas sobre linhas ou colunas.
0 1 0
E1 1 0 0
0 0 1
Exemplo: A matriz troca as linhas 1 e 2. Veja
0 1 0 A11 A12 A13 A21 A22 A23 0 0
E1 A 1 0 0 A21 A22 A23 A11 A12 A13 E2 0 1 0
0 0 1 A 0 0 1 multiplica
31 A32 A33 A31 A32 A33 . A matriz
1 0
E3 0 1 0
0 0 1
a linha 1 por . A matriz soma à linha 1, linha 2. Note:
1 0 0
E4 1 0
0 0 1
Já a matriz soma á coluna 1, coluna 2, ou seja, opera nas colunas, em lugar das
linhas.
Teorema.
1. det E 0 , pois selecionamos as operações elementares com essa propriedade. Note que det I 1
e que det E k 0 para a operação multiplicar uma linha por uma constante não nula,
det E 1 para a operação trocar duas linhas e det E 1 para a operação adicionar á uma linha
um múltiplo de outra linha.
2. Realizar uma operação sobre as linhas é equivalente à pré-multiplicar a matriz pela matriz elementar
da operação desejada. Já realizar a operação sobre colunas é equivalente a pós-multiplicar pela matriz
elementar.
3. Como o determinante das matrizes elementares não é nulo elas admitem inversa. A inversa de E
também é uma matriz elementar. Se
ˆ
E OI I Oˆ 1E IE 1 Oˆ 1EE 1 E 1 Oˆ 1I , ou seja E 1 também é
obtida pela operação elementar reversa aplicada na matriz identidade.
Matrizes equivalentes A B
Teoremas:
Se A é não singular então A admite inversa. Isso significa que um conjunto de operações elementares leva
A até I, ou seja,
E1E2 En A I , logo A En1 E21E11I En1 E21E11 . Isso também
significa que
A1 E1E2 En .
Coloque as duas matrizes, A e I lado a lado. Agora, usando operações elementares de linhas vá
transformando A na matriz identidade. Toda operação realizada sobre A também deve ser realizada sobre
1
I . Quando A se tornar a identidade a identidade se tornou A .
2 3
A
4 5
Exemplo 1: achar inversa de . Usando a matriz adjunta sabemos que
1 1 5 3 5 2 3 2
A
10 12 4 2 2 1 . Agora vamos usar apenas as operações elementares.
Colocar as duas lado à lado:
2 3 1 0 2 1 3 1 0 4 1 3 1 0 linha 2
2 2 2 2
4 0 3
4 5 0 1 5 0 1 linha1
1 2 1 2
1 0 5 3 1 0 5 3
2 2 2 2
0 1 2
1 1 0 1 2 1
1
1 2 3 5 3
A 2 2
4 5 2 1 .
Então
2 4 5
A 1 3 2
2 2 3
Exemplo 2: achar inversa de . Faremos mais de uma operação elementar por vez.
5 1 0 0
2 4 5 1 0 0 2 1 2 2 2
1 3 2 0 1 0 1 3 2 0 1 0 linha1
2 2 3 0 0 1 2
1 1 3 0 0 1 linha1
2 2
1 2 5 1 0 0 1 0 7 3 2 0
2 2 2 linha 2 2 2
0 1 1 1 1 0 0 1 1 1 1 0
2 2 2 2
0 1 1 1 linha 2 2
0 1 0 0 3 1 1 1 3
2 2 2 2
1 0 7 3 2 0 7 linha3 5 2 7
2 2 2 1 0 0 6 6 6
0 1 1 1 1 0 1 linha3 0 1 0 1 4 1
2 2 2 6 6 6
0 0 1 2 2 1 0 0 1 4 4 2
3 3 3 6 6 6
1
2 4 5 5 2 7
1
A1 1 3 2 1 4 1
2 2 3 6
Ou seja 4 4 2 .
A demonstração do teorema é a descrição do procedimento para atingir o objetivo – colocar a matriz na forma
escada reduzida por linhas. O procedimento é o seguinte:
1. Suponha que já se colocou as i 1 linhas com primeiro elemento não nulo iguais à 1 e todo o resto da
coluna desse elemento nula. Tome agora a linha i :
2. Se ela é nula nada precisa ser feito.
Aij Aij
3. Se o primeiro elemento não nulo é o divida a linha por . Assim tornamos o primeiro elemento
não nulo igual a 1. Falta anular todos os elementos da coluna
j.
0 2 1 4
M 3 0 5 2
0 0 0 3
Exemplo: colocar a matriz na forma escada reduzida por linhas.
1 0 1 1 2 2 linha3 0 1 1 0 1 0 5 0
0 2 1 4 2 2 2 trocar linha1 3
3 0 5 2 1
3 1 0
5 2 2 linha3 1 0 5
0 com linha 2 0 1 1 0
3 3 3 3 2
0 0 0 3
1
0 0 0 1 0 0 0 1 0 0 0 1
3
Qualquer operação elementar de linhas em uma matriz na forma escada reduzida por linhas ou a tira da
condição de escada ou nada modifica, deixando a matriz invariante.
1. Multiplicar uma linha por 1 . Se a linha for nula nada muda. Se a linha não for nula contém o
primeiro elemento não nulo igual a 1, que se torna igual a após a operação e a matriz não está mais
na forma escada.
k k kp
2. Trocar duas linhas não nula altera a ordem escada 1 2 .
3. Somar duas linhas não nulas colocaria 1 onde deveria ser zero
1 0 0 5 1 0 5 0
3 3
0 1 0 1 0 1 1 0
2 2
0 0 1 0 0 0 0 1
Nesse caso trocamos as colunas 3 e 4 e as duas matrizes, embora diferentes, estão na forma escada.
POSTO e NULIDADE de uma Matriz: ao terminar de colocar a matriz na forma escada reduzida por linhas o
número r de linhas não nulas será o posto [rank em inglês] da matriz M. Ou seja, posto de A , p A , é o
A A . A nulidade de Amn é N A n p , o número de colunas
número de linhas não nulas de esc
subtraído do posto. Note que no caso de um sistema de equações lineares o número de colunas é igual ao
número de incógnitas.
Antes de utilizar o conceito poderoso de posto de uma matriz na resolução de sistema de equações lineares
vamos estabelecer alguns teoremas.
1. Se
p A 0 então A O . Claro, pois todas as linhas são nulas.
2.
p A m . Trivial pois Aesc também é mn e o número de linhas não nulas não pode ser maior
do que o número de linhas.
3.
p A n . Aqui complica um pouco por estamos usando colunas em lugar de linhas. Isso implica que
N A n p 0 . Na forma escada k1 k2 k p onde
p posto = número de linhas
não nulas. Por outro lado
ki é a coluna do iésimo elemento diferente de zero da linha i . Logo ki n
kp n k 1 , k2 k1 2 e, continuando,
e . As condições da forma escada requerem que 1
kp p p kp n p n.
. Então concluímos que , ou seja,
Exemplos:
0 2 1 4
A34 3 0 5 2
p A 0 0 0 3 A34
Achar onde . Como o posto será no máximo 3. Fica fácil de ver que a
0 2 1 4
3 0 5 2
0 0 0 3
sub-matriz marcada é triangular superior com determinante diferente de zero, logo
p A 3 .
1 2 0 3 0
0 0 1 2 0
A45
0 0 0 0 1
p A 0 0 0 0 0
Achar onde . Como a última linha é nula sabemos que o posto será no
1 2 0 3 0
1 0 0
0 0 1 2 0
0 1 0
0 0 0 0 1 0 0 1
máximo 3. Esolhendo a sub-matriz 0 0 0 0 0 obtemos uma sub-matriz
1.
0 p Amn min m, n pois uma sub-matriz quadrada só pode ser, no máximo, de ordem
min m, n .
2.
p A p A
. Sabemos que det A det A . Portanto se extraímos uma sub-matriz Ap p de A
Ap p A A
com determinante não nulo também podemos extrair a da matriz . Se tiver uma linha
nula a A terá uma correspondente coluna nula.
3. Se A é sub-matriz de A então p A p A .
4.
p EA p AE p A , pois det EA det E det A . Operações elementares, tanto nas
linhas quanto nas colunas, não alteram o posto de uma matriz.
5.
p A p A , constante.
p AB min p A , p B
6. .
7. O posto de uma matriz não muda se ele é pré/pós-multiplicada por uma matriz quadrada não singular.
Pré-multiplicação:
Cmn X mm Amn . Como X é não singular então
p X m e
p A m , logo
Dois sistemas de equações lineares são equivalentes se eles possuem as mesmas soluções e as mesmas
nulidades, ou variáveis livres.
8.
p AA p A
AA é uma matriz simétrica quadrada.
. Note que
Considere o sistema
A X
mn n1 0 m1 e o sistema A n m A X
mn n1 0 n1 . Nesse caso
X1n Anm Amn X n1 011 0 . Isso pode ser re-escrito como AX AX 0
.
Mas
v1
v2
AX
vm e
AX v1 v2 vm
e
AX AX v12 v22 vm2 0
só será
verdadeiro se
vi 0 i . Logo AX 0 é a única solução para AAX 0 , ou seja, AAX 0 e
AX 0 são equivalentes. Igualando as nulidades
n p A n p AA concluímos que
p AA p A
.
1. x y 5
2. 2 x y 3
3. Equações redundantes. Suponha as seguintes equações:
3. 3 x 2 y 8 .
A terceira equação foi
obtida simplesmente somando as duas primeiras. Não contém qualquer informação extra. É uma
equação redundante. Correta, mas desnecessária.
1. x1 x2 1
Exemplo:
2. x1 x2 0 nos leva a 1 0 , uma inconsistência. Não existe solução para esse sistema.
1. x1 x2 1
Por exemplo, a equação dois do sistema
2. x1 x2 0 implica que
x2 x1 que substituída na equação
x1 1
2
1,2 1 2 , 1 2
um implica que e o conjunto é a única solução do sistema. Por outro lado a
equação
x1 x2 1 admite infinitas soluções. Escolhe um valor qualquer para x1 x
e 2
1 x1 .
p A p A b n
2. Se o sistema é consistente e admite apenas uma solução. Note que a
1 0 0 0 1 0 0 0 c1
0
1 0 0 0 1 0 0 c2
0 0 0 0 1 0
Aesc
0 1
Ab
0 0 0 1 0 0 0 1 c4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
e o que levaria a algumas equações redundantes e
x
a solução única i
ci i 1, n .
p A p A b n
3. Se o sistema é consistente e admite infinitas soluções. Neste caso a nulidade
n pé o número de variáveis livres que podem passar para o lado direito da equação. Sejam
k1 , k2 , , k p
as colunas dos primeiros termos não nulos de cada linha. Nesse caso sabemos que
Aesc 1k1 1 Aesc 2k2 1 Aesc pk p 1
, , ..., e que esses termos são os únicos não nulos nas colunas
k1 , k2 , , k p n p
. Passamos para o lado direito as incógnitas restantes para obter um sistema de
equações do tipo:
xk1 c1 1 j x j
j
j k1 , k2 , , k p
xk2 c2 2 j x j
j
xk p c p pj x j
j
xk1 1 j1 1 j2 1 jn p x j c1
1
xk2 2 j1 2 j2 2 jn p x j2 c2
xk pj pj2 pjn p x jn p c p
p 1
X dep CX ind d
Dados
x j j k1 , k2 , , k p
os valores de
xi i k1 , k2 , , k p são únicos, mas como os x j s
podem assumir quaisquer valores existem infinitas soluções.
Exemplo: suponha que após a redução à forma escada o sistema ficou na forma:
x
1 2 0 3 0 1 1
0 x 1 2 0 3 0 1
0 1 2 0 2 2
x3 0 0 1 2 0 2
0 0 0 0 1 3
x4 0 0 0 0 1 3
0 0 0 0 0 0
x5 0 0 0 0 0 0
no qual a matriz ampliada é dada por . Vemos
p A p A b 3 5 n p 5 3 2 . Logo existem
que estamos no caso em que e a nulidade é
duas variáveis livres. Nesse problema, seguindo a nossa notação,
k1 1, k2 3 e
k3 5 , assim
x ,x
escolhemos 1 3
e x5 para ficarem do lado esquerdo das equações:
x1 2 x2 3 x4 1 x1 1 2 x2 3 x4
x3 2 x2 2 x3 2 2 x2
x5 3 x5 3
4. O sitema homogêneo Ax 0 com n incógnitas admite uma solução NÃO TRIVIAL se, e somente se,
p A n . Prova: se p A n então
p A0 n
pois o acréscimo de uma coluna de zeros não
altera o posto da matriz, então o sistema admite apenas uma solução. Sabemos que a solução trivial
p A n
x0 é uma solução, logo é a única solução. Se então o sistema admite infinitas
soluções. No caso do sistema acima teríamos:
x1 2 x2 3 x4 0 x1 2 x2 3x4
x3 2 x2 0 x3 2 x2
x5 0 x5 0
Ann
5. Se o sistema homgêneo Ax 0 com possui solução NÃO TRIVIAL, então A é singular. Se o
6. Se
p A p então A contém uma sub-matriz quadrada
p p
com determinante não nulo.
Novamente podemos usar o fato de que as operações elementares, via linhas ou colunas, jamais
anulam o determinante. Então podemos transformar a matriz original, via operações elementares de
linhas e ou colunas na forma:
1 0 0
0 1 0
0 0 1
1
0 0 0 0 0 0 0
0 0 0 0 0 0
I p p O p n p
O m p p O m p n p
Ou seja, a matriz identidade no canto superior esquerdo e matriz nulas nos outros 3 quadrantes. É fácil
perceber como proceder para isso. Primeiro coloca-se a matriz na forma escada com operações elementares
de linhas, depois com operações de colunas leva-se a matriz para a forma:
1 0 0 0 c11 c1 n p
0 1 0 0 c21 c2 n p
0 0 1
0 0 1 c p1 c p n p
0 0 0 0 0
0 0 0 0 0
cij 0
Agora utilzamos os 1´s da diagonal para anular via subtração de colunas todos os termos da matriz
C p n p
que sobrou.
Sistemas de equações lineares com n incógnitas e n equações. São sistemas que podem ser escritos na forma:
Ax b com A sendo uma matriz n n . Se A é não singular, i.e., det A 0 então A admite inversa e
1
podemos calcular o vetor x da única solução imediatamente através de x A b . Em particular se a
equação é homogênea então só existe a solução trivial x A1 0 0 . Se A é singular significa que posto de
A é menor do que n e teremos soluções diferentes da trivial.
Regra de Cramer:
Note que para matrizes dos coeficientes não singular obtivemos x A1b . Por outro lado
11 12 1n v1 11 12 1n b1
2 n v 2 n
1 A† 1 21 22 2 21 22 b
2
A
det A det A
n1 n2 nn
e o vetor vn n1 n2 nn bn
A11 A12 b1 A1n
A A22 b2 A2 n
vi bk ki det 21
k
np é tal que cada componente é dada por An1 An 2 bn Ann
de
onde extraímos a regra de Cramer:
Exemplo:
2 3
det
1 2 4 3 1
x
2x 3 y 2 2 3 2 2 3 4 9 5
A b det
3x 2 y 1 então 3 2 e 1 então 3 2 e
2 2
det
3 1 2 6 4 1
y
3 4 9 5
x 5
2 y 4
det
3 2 então
5 é a solução. Recalculando através da inversa:
2 3 2 3 2
1 1 2 3 5 5 x 5 5 2 5
A y 3
4 9 3 2 3 2 2 1 45
5 5 então 5 5 .
Combinações lineares:
Equações paramétricas.
Suponha que exista uma curva no plano x-y, ou no espaço 2 . A equação do LUGAR GEOMÉTRICO
da curva é uma relação do tipo,
R x, y 0 entre as variáveis x e y. Exemplo: círculo centrado na origem
2 2 2
possui a relação
x y R , ou
x y R 2 0 , onde R é o raio do círculo. Vamos tentar extrair
2 2
A idéia da equação paramétrica [de parâmetro] é usar um parâmetro t em termos do qual as funções
x t : e
y t : existem sendo bem definidas. Podemos agora fazer um gráfico de
y vs
x da seguinte forma: construímos uma coluna com os valores de t , com ele calculamos x t e
y t e no
y x t , y t : 2
final fazemos o gráfico vs x esquecendo o t . Criamos uma função . Para obter
a relação do lugar geométrico é necessário eliminar o parâmetro. Vejamos o exemplo do círculo:
x t R cos t e
y t R sin t . Agora elevando as duas ao quadrado e somando obtemos
x 2 y 2 R 2 cos 2 t sin 2 t R 2
, eliminando o parâmetro t e ficando com a equação do lugar
2 2 2
gemétrico dos pontos
x y R .
Com um parâmetro podemos descrever uma curva, com dois uma superfície, com três um volume e assim por
A21 t1 + A22 t2 + ... + A2n tn = 0
A11 B1 A1n
A B2 A2n
21
A Bn Ann
xi n1
A11 A1i A1n
A A2i A2n
21
A Ani Ann
2. Prove a regra de Cramer n1
para as soluções do sistema de n equações
e n incógnitas:
A21 t1 + A22 t2 + ... + A2n tn = Bn
Espaços Vetoriais
Seja ℑ o conjunto de todos os números reais positivos. Defina a operação adição ⊕ pelo produto usual
de dois números, i.e., ⃗u ⊕⃗v =u v . Seja α ∈ ℜ um escalar e defina a operação multiplicação por um
α
escalar através da regra α ⊗ ⃗ u =u . Mostre que ℑ é um espaço vetorial. Qual a necessidade da
restrição para valores positivos?
Se ℑ e ℵ são espaços vetoriais mostre que ℑ∩ℵ também é um espaço vetorial.
Considere o conjunto das matrizes m×n com as operações adição e multiplicação por escalar matriciais
usuais. Mostre que esse conjunto é um espaço vetorial. Quem é o elemento nulo?
Considere o conjunto das matrizes 2×2 e as operações matriciais usuais. Encontre uma base para esse
espaço. Qual a dimensão desse espaço? O conjunto de matrizes 2×2 simétricas é um subespaço vetorial?
Encontre uma base para esse espaço. Qual a dimensão desse sub-espaço?
Sitemas superdeterminados.
n
aij x j bi i 1, , m m n
Tome o caso em que j 1 m
. Nesse caso temos mais equações do que
A x b1m . Mesmo que o sistema seja inconsistente, de
incógnitas. Em termos matriciais temos que mn 1n
A x b1m não admite solução, queremos achar os valores x1*n para os quais de a soma
modo que mn 1n
* * 2
A x b1m então 1m 1m min . A norma de um vetor é dada por
* b b
dos desvios, i.e., se mn 1n
V Vi 2 V V * * * * * *
i . Então b b Ax b logo
b b Ax b Ax b x A b
* *
b b b b x * A b Ax * b x * AA x * x * Ab b Ax * bb
logo .
Agora note que
b 1 m Amn n1 11 é um número,
x um escalar, logo, então
bAx b Ax x Ab x Ab , logo a nossa equação é dada por:
Min x * AA x * 2 x * Ab bb
ij
Min xi* AA x*j 2 xi* Aij b j b 2
b 2
2
b
i j i j onde .
A solução é dada quando o gradiente da função de x é nulo, ou seja:
2
xk* i j
x*
i AA
ij
x *
j 2 xi
*
Aij b j b 0 k 1, , n
i j .
2
*
xk i j
x*
i AA ij
x *
j 2 xi
*
Aij b j b
i j
xi* AA ij x* x*j i j x* xi* AA ij x*j 2i j x* xi* Aij bi
i j k k k
j
ij i j
ij
xi* AA jk ik AA x*j 2 ik Aij bi
i i j
xi* AA
i
ik j AA kj x*j 2i Akj b j
Agora
A A é simétrica, logo:
j kj x*j j AA kj x*j 2i Akj b j 2j AA kj x*j 2i Akjb j
AA
1
A A x* Ab x * A A Ab
ser escrita na forma matricial como . Então a embora não seja uma
2
1
Ax * b x* A A Ab
solução de
A x b minimiza o desvio . Se 0 então é uma
solução de
A x b.
Regressão linear:
Problema de autovalores e autovetores:
Entretanto se M for real e simétrica podemos afirmar com certeza que os autovalores serão reais. Poderíamos
relaxar afirmando que se M for Hermitiana os autovalores são reais.
Matrizes Hermitianas
simplesmente simétrica, M M . Ou seja, matrizes reais simétricas são Hermitianas – um sub-conjunto das
matrizes Hermitianas. Qual a propriedade interessante das matrizes Hermitianas?
que i
j u j ui 0 . Se i j então ui ui 0 e a igualdade só é satisfeita se i i* , o que significa que i
* † †
j u u u †j ui 0
é real. Por outro lado se i j , i [caso não degenerado] é preciso que j i , o que significa
que os autovetores são ortogonais entre si. Se M é real e simétrica os autovalores e autovetores serão reais.
Agora, se além de real e simétrica M for definida positiva então os autovalores, além de reais, são
ui
M ui i ui ui 0 u u 0 sempre, então i 0 .
obrigatoriamente positivos, pois e como i i
i i iM u u
Existe uma arbitrariedade na escolha do autovetor uma vez que é possível multiplicar a equação
por uma constante de ambos os lados sem perda de validade. Já que se pode multiplicar por uma constante
ui ui 1 ui u j ij
qualquer pode-se multiplicar pela constante que garanta que e . Neste caso geramos uma
base ortonormal – ortogonal normalizada à 1. Todos os autovetores são unitários, i.e., possuem norma igual a
1.
Diagonalização de Matrizes:
Vamos considerar que encontramos todos os autovalores da base ortonormal de autovetores de modo que
M ui i ui e ui u j ij . O que acontece se realizamos a seguinte operação:
u1
u
2 M u u u
1 2 n
un . Note que nossa notação para o símbolo de vetor é de uma matriz coluna logo
u j1 u1
u j2 u2
uj
u jn e que un e u1 u2 un são matrizes n n . Na primeira os vetores estão alinhados na
u1
u
2 u u u
1 2 n
u
forma de linhas e na segunda na forma de colunas. Além disso note que n . Aplicando
M a cada um dos autovetores normalizados teremos:
u1 u1
u u
M u u u 2 u
2
2u2 nu n
1 2 n
1 1
un un e, finalmente, que
u1 1u1 u1 2u1 u2 nu1 un
u u u u u nu2 un
M u u u 1 2 1
2 2 2 2
1 2 n
un 1un u1 2un u2 n un un
. Agora usamos o fato de que os vetores
u1 1 0 0
u
2 M u u u 0 2 0
1 2 n
un 0 0 n
são ortonormais para chegar ao resultado . Ou seja a matriz
u11 u21 un1
u
u22 un 2
S u1 u2 un 12
M foi diagonalizada. A matriz que a diagonaliza é u1n u2 n unn onde o
u1
u
S 2
primeiro índice se refere ao autovetor e o segundo às suas componentes. Note que un e que S S I ,
det S S det I
ou seja, S S . São chamadas matrizes ortogonais. Aplicando o determinante
1
, e usando
det AB det A det B det A det A det I 1 det 2 S 1
o fato de que , e vemos que que nos
det S 1 det S 1
leva a . Na realidade , sendo 1 em rotações e -1 em operações que envolvem
reflexões, que não é o caso aqui.
Então a operação S M S D transforma a matriz M em uma matriz diagonal. Para voltar da diagonal à M
basta inverter S´com S: S M S D SS M SS S D S M S D S .
Transformação de similaridade:
1
Quando transformamos uma matriz segundo a forma: M S M S dizemos que fizemos uma transformação
de similaridade. A transformação de similaridade preserva o determinante e o traço da matriz. A preservação
det M det S 1M S det S 1S det M det M
do determinantes é demonstrada facilmente pois .
tr M M ii
Já o traço é dado pela soma dos elementos da diagonal i e tem as seguinte propriedades:
tr A B tr A tr B tr cA c tr A tr AB tr BA
, e . As duas primeiras são triviais. A última é
AB ij Aik Bkj tr AB Aik Bki Bki Aik tr BA
demonstrada da seguinte forma: k e i k k i . Com
tr S M S tr M SS
1 1
tr M .
isso a preservação do traço pode ser facilmente demonstrada Se a
D det M 12 n
matriz M foi diagonalizada para e o determinante e o traço são preservados então e
t r M 1 2 n
o .
x 0 0 ao x 0 0 a1
1 x 0 a1
1 x 0 a2
det 0 1 x a2 x det 0 1 x a2
0 0 1 an1 x 0 0 1 an1 x