Você está na página 1de 24

Engenharia Eléctrica

Trabalho de Cálculo Numérico

2oAno – 3oSemestre

Valores e Vectores Próprios

Discentes: Docentes:

Daniel Rafael Dzucule Dr. Luís Domingos Franque

Felipe Patrício Pawandiua Dr. Pedro Joaquim Cantiole

Jeremias Milagre Simbo

Ramel Alfino Waeti

Songo, Maio de 2015


Engenharia Eléctrica

Trabalho de Cálculo Numérico

2oAno – 3oSemestre

Valores e Vectores Próprios

Discentes: Docentes:

Daniel Rafael Dzucule Dr. Luís Domingos Franque

Felipe Patrício Pawandiwa Dr. Pedro Joaquim Cantiole

Jeremias Milagre Simbo

Ramel Alfino Waeti

Trabalho elaborado pelos estudantes da


Engenharia Eléctrica do Instituto Superior
Politécnico de Songo no âmbito da
disciplina de Cálculo Numérico

Songo, Maio de 2015


VALORES E VECTORES PRÓPRIOS

Índice
1.Introdução .................................................................................................................................................. 2
2. Objectivos ................................................................................................................................................. 3
2.1. Objectivos Gerais ............................................................................................................................... 3
2.2. Objectivos Específicos ....................................................................................................................... 3
3. Valores e Vectores Próprios...................................................................................................................... 4
3.1 Interpretação Geométrica ........................................................................................................................ 4
4. Determinação dos valores e vectores próprios de uma matriz .................................................................. 5
4.1 Algorítmo de cálculo............................................................................................................................... 5
5. Propriedades dos valores e vectores próprios ........................................................................................... 7
6. Diagonalização de matrizes ...................................................................................................................... 8
6.1 Propriedades de diagonalização. ............................................................................................................. 9
7. Decomposição espectral de matrizes ...................................................................................................... 10
8. Similaridade de matrizes ......................................................................................................................... 11
9. Teorema de Cayley-Hamilton ................................................................................................................. 11
10. Polinómio minimal................................................................................................................................ 13
11. Localização de valores próprios ............................................................................................................ 14
11.1 Método das Potencias ......................................................................................................................... 15
11.1.1Método das potências directas .......................................................................................................... 15
11.1.2 Método das potências inversas ......................................................................................................... 16
12. Translações espectrais ........................................................................................................................... 16
13. Iterações em subespaços ....................................................................................................................... 17
14. Método de Jacobi clássico .................................................................................................................... 17
15 Conclusão............................................................................................................................................... 20
16. Bibliografia ........................................................................................................................................... 21

ISPSONGO 2015
VALORES E VECTORES PRÓPRIOS

1.Introdução
O presente trabalho aborda dois principais temas que são valores próprios e vectores próprios,
com estimativas iteradas para vectores próprios nas quais existem Métodos das Potencias,
Método das Potencias inversas, Método das Potencias directas, translações espectrais. O trabalho
é composto por Introdução, Desenvolvimento, Conclusão e Bibliografia. No entanto os conceito
básicos de vectores próprios e valores próprios são uteis em toda a matemática pura e aplicada,
tanto como no estudo de equações diferenciais e em sistemas dinâmicos contínuos que fornece
informação critica em projecto da engenharia e surgem de modo natural em áreas como a física e
química.

ISPSONGO 2015 2
VALORES E VECTORES PRÓPRIOS

2. Objectivos

2.1. Objectivos Gerais


Apresentar e descrever a acção de uma transformada linear em elementos que sejam facilmente
visualizáveis e os conceitos básicos sobre vectores próprios e valores próprios.

2.2. Objectivos Específicos


 Apresentar os conceitos básicos sobre vectores próprios e valores próprios;
 Descrever o Método das Potencias Directas;
 Descrever o Método das potencias Inversas;
 Apresentar e descrever o conceito das Translações espectrais;
 Apresentar as iterações em subespaços;
 Descrever o Método de Jacobo clássico

ISPSONGO 2015 3
VALORES E VECTORES PRÓPRIOS

3. Valores e Vectores Próprios


Seja 𝐴 uma matriz quadrada e λ um número real. Diz-se que 𝜆 é um valor próprio de uma matriz
𝐴 se existir uma matriz coluna não nula 𝑋𝑛×𝑎 tal que 𝐴𝑋 = 𝜆𝑋 (ou 𝐴𝑥⃗ = 𝜆𝑥⃗). À Matriz coluna 𝑋
chama-se vector próprio (ou autovector) da matriz 𝐴 associado ao valor próprio ( ou
autovalor) 𝜆, diz se também que 𝜆 é o valor próprio da matriz 𝐴 associado ao vector próprio 𝑋
ou 𝑥⃗.

Exemplo:

1 3 4 16 4 4 1 3
[ ] ∙ [ ] = [ ] = 4 ∙ [ ], então, [ ] é o vector próprio de [ ] associado ao valor próprio
3 1 4 16 4 4 3 1
3.

3.1 Interpretação Geométrica

Se 𝐴𝑋 = 𝜆𝑋, 𝐴𝑋 tem a mesma direção de 𝑋, mas o seu comprimento e sentido depende do valor
próprio 𝜆.

Se 𝐴𝑌 ≠ 𝜆𝑌, então 𝑌 não é vector próprio de 𝐴. 𝐴𝑌 não tem a mesma direcção de 𝑌.

ISPSONGO 2015 4
VALORES E VECTORES PRÓPRIOS

4. Determinação dos valores e vectores próprios de uma matriz


Um vector próprio de 𝐴 é um vector 𝑥⃗ não nulo tal que 𝐴𝑥⃗ = 𝜆𝑥⃗. Sendo 𝑋 a representação
matricial de 𝑥⃗ temos:

𝐴𝑥⃗ = 𝜆𝑥⃗ ⟺ 𝐴𝑋 = 𝜆𝑋 ⟺ 𝐴𝑋 − 𝜆𝑋 = 0𝑛×1 ⟺ (𝐴 − 𝜆𝐼)𝑋 = 0𝑛×1 ,

Onde 𝐼 é a matriz identidade e 0𝑛×1 uma matriz coluna nula, concluímos que 𝑥⃗ é o vector
próprio da matriz 𝐴 associado ao valor próprio 𝜆 se e só se 𝑋 é uma solução não nula do sistema
homogéneo (𝐴 − 𝜆𝐼)𝑋 = 0. O sistema homogéneo só possui solução não nula se e só se
det(𝐴 − 𝜆𝐼) = 0.

Proposição. Um escalar 𝜆 é o valor próprio de 𝐴 se e só se é uma solução da equação det(𝐴 −


𝜆𝐼) = 0.

Proposição. Se 𝐴 = [𝑎𝑖𝑗 ] é uma matriz de ordem 𝑛 e 𝐼 a matriz identidade de ordem 𝑛, a função


𝑝 definida por

𝑎11 − 𝜆 𝑎12 ⋯ 𝑎1𝑛


𝑎 𝑎22 − 𝜆 ⋯ 𝑎2𝑛
𝑝(𝜆) = det(𝐴 − 𝜆𝐼) = | 21 |
⋮ ⋮ ⋮ ⋮
𝑎𝑛1 𝑎𝑛2 ⋯ 𝑎𝑛𝑛 − 𝜆

É um polinómio em 𝜆 de grau 𝑛, designado por polinómio característico de 𝑨. O coeficiente do


termo de grau 𝑛 do polinónimo é (−1)𝑛 e o termo contante é 𝑝(0) = det(𝐴).

Se 𝐴 é uma matriz quadrada, os valores propris de 𝐴 são as raízes da equação

𝑝(𝜆) = det(𝐴 − 𝜆𝐼) = 0. Então a equação anterior é designada por equação característica de
𝐴. Os vectores próprios de 𝐴 associados ao valor próprio 𝜆 são as soluções do sistema

𝐴𝑋 + 𝜆𝑋 ⟺ (𝐴 − 𝜆𝐼)𝑋 = 0.

4.1 Algorítmo de cálculo

1. Calcular o polinómio característico de 𝐴, isto é, 𝑝(𝜆) = det(𝐴 − 𝜆𝐼).

ISPSONGO 2015 5
VALORES E VECTORES PRÓPRIOS

2. Resolver a equação 𝑝(𝜆) = det(𝐴 − 𝜆𝐼) = 0 para obter as raízes da equação


característica (estas raízes são os valores próprios de 𝐴).
3. Depois de determinados os valores próprios de 𝐴, para determinar os vectores próprios
associados a um determinado valor próprio 𝜆, basta resolver o sistema homogéneo
(𝐴 − 𝜆𝐼)𝑋 = 0 para cada valor próprio 𝜆 obtido no ponto anterior. As soluções não nulas
deste sistema são os vectores próprios associados ao valor próprio 𝜆.

Exemplo.

0 1
Considere a seguinte matriz 𝐴 = [ ].
1 0

Determine os valores e vectores próprios de 𝐴.

Resolução:

0 1 −𝜆 0 −𝜆 1
det(𝐴 − 𝜆𝐼) = 0 ⇔ det ([ ]+[ ]) = | | = 0 ⇔ 𝜆2 − 1 = 0 ⇔
1 0 0 −𝜆 1 −𝜆

𝜆 = ±1.

Assim 𝐴 tem dois valores próprios, +1 e −1.

Calculemos agora os vectores próprios. Para isso, vamos resolver para cada valor de 𝜆 o sistema
homogéneo

𝑥 𝑥1
(𝐴 − 𝜆𝐼) [𝑥1 ] = [0] ⇔ [−𝜆 1 0
] ∙ [𝑥 ] = [ ].
2 0 1 −𝜆 2 0

Se 𝜆 = 1 tem –se

−1 1 𝑥1 0 −𝑥 + 𝑥2 = 0
[ ] ∙ [𝑥 ] = [ ] ⇔ { 1 ⇔ 𝑥1 = 𝑥2
1 −1 2 0 𝑥1 − 𝑥2 = 0

𝑥1 𝑥1 1
Assim, 𝑋 = [𝑥 ] = [𝑥 ] = 𝑥1 [ ] onde 𝑥1 ∈ ℝ\{0}.
2 1 1

Se 𝜆 = −1 tem –se

ISPSONGO 2015 6
VALORES E VECTORES PRÓPRIOS

1 1 𝑥1 0 𝑥 + 𝑥2 = 0
[ ] ∙ [𝑥 ] = [ ] ⇔ { 1 ⇔ 𝑥1 = −𝑥2
1 1 2 0 𝑥1 + 𝑥2 = 0

𝑥1 𝑥1 1
Assim, 𝑋 = [𝑥 ] = [−𝑥 ] = 𝑥1 [ ] onde 𝑥1 ∈ ℝ\{0}.
2 1 −1

Multiplicidade algébrica de um valor próprio – é o numero de factores 𝑡 − 𝜆 do polinómio


característico de 𝐴.

Se 𝜆 tem multiplicidade igual a 1 diz-se simples, se tem multiplicidade 2 diz-se duplo, etc.

No exemplo anterior, 𝜆 = 1 e 𝜆 = −1têm multiplicidade 1 ou simples pois

𝜆2 − 1 = (𝜆 − 1)(𝜆 + 1).

5. Propriedades dos valores e vectores próprios


P1. Os valores próprios de uma matriz triangular são os elementos da diagonal principal.

P2. Seja 𝐴 = [𝑎𝑖𝑗 ] uma matriz de ordem 𝑛 e 𝜆1 , 𝜆2 , ⋯ , 𝜆𝑛 os seus valores próprios. Então:

a) det 𝐴 = 𝜆1 ∙ 𝜆2 ∙ ⋯ ∙ 𝜆𝑛 .
b) tr 𝐴 = 𝜆1 + 𝜆2 + ⋯ + 𝜆𝑛 , onde tr 𝐴 representa o traço da matriz A, isto é, é a soma dos
elementos da diagonal principal de 𝐴.

P3. Duas matrizes semelhantes te, o mesmo polinómio característico.

P4. Se uma matriz 𝐴 tem 𝑘 valores próprios distintos, 𝜆1 , 𝜆2 , ⋯ , 𝜆𝑘 , então os vectores próprios
correspondentes, ⃗⃗⃗⃗,
𝑥1 ⃗⃗⃗⃗⃗,
𝑥2 ⋯ , ⃗⃗⃗⃗⃗
𝑥𝑘 são linearmente independentes.

P5. Se 𝐴 é uma matriz de ordem 𝑛 e tem 𝑛 valores próprios distintos, então 𝐴 é diagonalizável.

P6. Seja 𝐴 uma matriz de ordem 𝑛. Entao 𝐴 é diagonalizavel se e só se é possível encontrar 𝑛


vectores linearmente independentes. Nesta condições, tem-se que

𝑃−1 ∙ 𝐴 ∙ 𝑃 = 𝐷 ⇔ 𝐴 = 𝑃 ∙ 𝐷 ∙ 𝑃−1 ,

ISPSONGO 2015 7
VALORES E VECTORES PRÓPRIOS

Onde 𝐷 é a matriz diagonal cujos elementos da diagonal principal são os valores próprios de A e
𝑃 é invertível formada pela disposição em colunas dos correspondentes vectores próprios
linearmente independentes.

P7. Seja 𝐴 uma matriz de ordem 𝑛. A multiplicidade geométrica de um valor próprio de 𝐴 é


inferior ou igual á sua multiplicidade algébrica.

P8. Uma matriz é diagonalizável se e só se a multiplicidade algébrica de cada valor próprio for
igual ou inferior á sua multiplicidade geométrica.

6. Diagonalização de matrizes
Uma matriz 𝐴 diz-se diagonalizavel se é semelhante a uma matriz diagonal. Por outras palavras,
se existe uma matriz invertível 𝑃, tal que 𝐷 = 𝑃−1 𝐴𝑃.
A matriz P chama-se matriz de diagonalização e a matriz 𝐷 matriz diagonal. No caso de 𝐴 ser
uma matriz diagonal, a matriz diagonalizante é a matriz identidade.
Uma matriz 𝐴 diagonalizavel se e só se admite 𝑛 vectores próprios que constituem um conjunto
linearmente independente. Isto é:
Seja 𝑃 uma matriz invertivel tal que 𝑃−1 𝐴𝑃 é diagonal. Seja;
𝑃 = [𝐶1 𝐶2 … 𝐶𝑛 ]
e
𝜆1 0 ⋯ 0
⋯ 0]
𝑃 −1 𝐴𝑃 = [ 0 𝜆2
⋮ ⋮ ⋱ ⋮
0 0 ⋯ 𝜆𝑛
Então
𝜆1 0 ⋯ 0
0 𝜆2 ⋯ 0
𝐴𝑃 = 𝑃 [ ]
⋮ ⋮ ⋱ ⋮
0 0 ⋯ 𝜆𝑛
ou
𝜆1 0 ⋯ 0
⋯ 0 ],
𝐴[𝐶1 𝐶2 … 𝐶𝑛 ] = [𝐶1 𝐶2 … 𝐶𝑛 ] [ 0 𝜆2 𝑖 = 1,2,3, ,,
⋮ ⋮ ⋱ ⋮
0 0 ⋯ 𝜆𝑛
𝐴𝐶𝑖 = 𝜆𝑖 𝐶𝑖

ISPSONGO 2015 8
VALORES E VECTORES PRÓPRIOS

𝐶𝑖 é vector próprio de 𝐴 associado a 𝜆𝑖 . Por outro lado, como 𝑃 invertıvel, temos o conjunto
[𝐶1 𝐶2 … 𝐶𝑛 ] é linearmente independente.
Analogamente, sejam [𝑥1 𝑥2 … 𝑥𝑛 ] um conjunto linearmente independente de vectores próprios
da matriz 𝐴, associados aos valores próprios 𝜆1 , 𝜆2 , … , 𝜆𝑛 . Entao, para cada 𝑖 = 1,2, 3, … , 𝑛,
temos que:
𝐴𝑥𝑖 = 𝜆𝑖 𝐶𝑖
Seja, P=[𝑥1 , 𝑥2 , 𝑥𝑖 , … 𝑥𝑛 ]. Então, 𝐴𝑃 = [𝜆1 𝑥1 , 𝜆2 𝑥2 , … , 𝜆𝑖 𝑥𝑖 , … , 𝜆𝑛 𝑥𝑛 ]
Seja:
𝑦1
𝑦2

𝑃−1 = 𝑦 a matriz inversa de 𝑃. Entao,
𝑗

[𝑦𝑛 ]
0, 𝑠𝑒 𝑖 ≠ 𝑗
[𝑦𝑗 ][𝑥𝑖 ] = {
1, 𝑠𝑒 𝑖 = 𝑗
𝑦1
𝑦2
𝜆1
−1

Logo: 𝑃 𝐴𝑃 = 𝑦 [𝜆1 𝑥1 , 𝜆2 𝑥2 , … , 𝜆𝑖 𝑥𝑖 , … , 𝜆𝑛 𝑥𝑛 ] [ 𝜆2 ]
𝑗
⋮ 𝜆𝑛
[𝑦𝑛 ]
Nota: Uma matriz 𝐴 é diagonalizável se admite 𝑛 valores proprios distintos.
Uma matriz 𝐴 é diagonalizável se as multiplicidades algébricas e multiplicidades geométricas de
cada valor próprio são iguais e a sua soma é igual a 𝑛.
Chama-se multiplicidade geométrica do valor próprio de 𝐴 a dimensão do subespaço próprio.

6.1 Propriedades de diagonalização.


Seja 𝐴𝑛𝑥𝑛 uma matriz. Então as afirmações seguintes são equivalentes:
(𝑖) A matriz 𝐴 é diagonalizável.
(𝑖𝑖) A matriz 𝐴 tem 𝑛 vectores próprios linearmente independentes.
(𝑖𝑖𝑖) A soma das multiplicidades geométricas dos valores próprios de 𝐴 é 𝑛.
(𝑖𝑣) A multiplicidade geométrica de cada valor próprio de 𝐴 é igual à multiplicidade
algébrica desse valor próprio.

ISPSONGO 2015 9
VALORES E VECTORES PRÓPRIOS

1 2 −2
Exemplo: considere a matriz 𝐴 = [ 2 1 0 ] tem três- se que
−2 0 1
1−𝜆 2 −2
)
𝑑𝑒 𝑡(𝐴 − 𝜆𝐼𝑛 = 0 ⟺ | 2 1−𝜆 0 |=0
−2 0 1−𝜆
2 −2 1 − 𝜆 −2 1−𝜆 −2
⟺ −2 | | − 0| | + (1 − 𝜆) | |=0
1−𝜆 0 2 0 2 0

⟺ (1 − 𝜆)[(1 − 𝜆)2 − 8] = 0
⟺ 𝜆 = 1, 𝜆 = 1,2√2, 𝜆 = 1 − 2√2
Como 𝐴 tem tres valores proprios distintos, então, a matriz é diagonalizavel.
3 1 0
Exemplo: seja C= [0 3 1], Atendendo que,
0 0 3
𝑑𝑒𝑡(𝐶 − 𝜆𝐼𝑛 ) = 0 ⟺ (3 − 𝜆)3 = 0 ⟺ 𝜆 = 3 (multipliciddade algebrica 3), verificamos que a
1
matriz 𝐶 tem um unico valor proprio 3. Neste 𝜆 = 3, sao vectores nulos dados por 𝜃 [0], sendo 𝜃
0
∈ ℝ ou multiplicidade geometrica de valor proprio 3 é 1. Entao, 𝐶 nao é diagonalizavel.

7. Decomposição espectral de matrizes


Seja uma 𝐴𝑛𝑥𝑛 matriz uma matriz simétrica, 𝑣1 , 𝑣2 , … , 𝑣𝑛 Vectores próprios ortogonais e
𝜆1 , 𝜆2 , … , 𝜆𝑛 os correspondentes valores próprios. A matriz 𝐴 pode ser decomposta na forma:

𝐴 = 𝜆1 𝑣1 𝑣1 𝑇 + 𝜆2 𝑣2 𝑣2 𝑇 + 𝜆𝑛 𝑣𝑛 𝑣𝑛 𝑇

Uma matriz simétrica é uma combinação linear das matrizes de projecção sobre cada um dos
vectores próprios ortogonais. Os coeficientes são os correspondentes valores próprios.

3 0 1
Exemplo: suponhamos que a matriz 𝐴 = [0 2 0] admite os vectores próprios (−𝑏, 𝑎, 𝑏)
1 0 3
correspondentes ao valor próprio 2 e (𝑐, 0, 𝑐), associados ao valor próprio 4. Fazendo cada uma
das variáveis livres igual a 1 e asa restantes iguais a 0, obtém-se o
conjunto {(0, 1, 0), (−1, 0, 1), (1, 0, 1)} de três vectores linearmente independente. Como o

ISPSONGO 2015 10
VALORES E VECTORES PRÓPRIOS

conjunto é ortogonal, para 3 vectores próprios ortonormais basta tomar o versor de cada um
deles.

8. Similaridade de matrizes
Duas matrizes 𝐴 𝑒 𝐵 dizem-se similares ou semelhantes se tiverem o mesmo polinómio
característico, isto é:

∃𝑃 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑣𝑒𝑙, 𝑡𝑎𝑙 𝑞𝑢𝑒, 𝐵 = 𝑃 −1 𝐴𝑃.

A matriz 𝑃 dá-se o nome de transformação de similaridade ou de semelhança.

As transformações de similaridade não só os valores próprios, mas também o polinómio


característico, e as respectivas multiplicidades (algébricas e geométricas). Todavia, pelas
propriedades do determinante, é valido escrever que:

𝑑𝑒𝑡(𝐵 − 𝜆𝐼) = 𝑑𝑒𝑡(𝑝−1 𝐴𝑃 − 𝜆𝐼) = 𝑑𝑒𝑡(𝑝−1 𝐴𝑃 − 𝑝−1 𝐴) = 𝑑𝑒𝑡[𝑝−1 (𝐴𝑃 − 𝜆𝑃)]


= 𝑑𝑒𝑡[𝑝−1 (𝐴 − 𝜆𝐼)𝑃] = 𝑑𝑒𝑡 𝑃−1 𝑑𝑒𝑡(𝐴 − 𝜆𝐼) 𝑑𝑒𝑡𝑃 = 𝑑𝑒𝑡(𝐴 − 𝜆𝐼)

9. Teorema de Cayley-Hamilton
Destaca-se das restantes propriedades um teorema muito importante em diversas aplicações, que
estabelece que toda a matriz quadrada satisfaz a sua equação característica.
Seja 𝐴 uma matriz de ordem 𝑛 e,

𝑝(𝜆) = 𝑑𝑒𝑡(𝐴 − 𝜆𝐼) = (−1)𝑛 𝜆𝑛 + 𝑐𝑛−1 𝐴𝑛−1 + ⋯ + 𝑐1 𝜆 + 𝑐0 , o seu polinómio caracteristico.


Então 𝐴 satisfaz a sua característica, isto é,

𝑝(𝐴) = 𝑂 ⟺ (−1)𝑛 𝐴𝑛 + 𝑐𝑛−1 𝐴𝑛−1 + ⋯ + 𝑐1 𝐼 = 𝑂

Onde, 𝑂 designa a matriz nula.

Demonstração. A demonstração baseia-se na propriedade dos determinantes: 𝐴𝑎𝑑𝑗𝐴 =


(𝑑𝑒𝑡𝐴) 𝐼. Aplicando esta fórmula à matriz 𝐴 − 𝜆𝐼 vem:

(𝐴 − 𝜆𝐼) 𝑎𝑑𝑗 (𝐴 − 𝜆𝐼) = 𝑝(𝜆)𝐼.

ISPSONGO 2015 11
VALORES E VECTORES PRÓPRIOS

Os elementos da matriz 𝑎𝑑𝑗 (𝐴 − 𝜆𝐼) são, a menos do sinal, determinantes de menores de


ordem
𝑛 − 1 da matriz A. Logo, cada elemento daquela matriz não é mais do que um polinómio em
𝜆 de 𝑔𝑟𝑎𝑢 ≤ 𝑛 − 1. Podemos então escrever:
𝑛−1

𝑎𝑑𝑗 (𝐴 − 𝜆𝐼) = ∑ 𝜆𝑘 𝐵𝐾
𝑘=0

Onde cada coeficiente 𝐵𝑘 é uma matriz de ordem 𝑛 com elementos escalares. Substituindo na
equação 𝐴 − 𝜆𝐼) 𝑎𝑑𝑗 (𝐴 − 𝜆𝐼) = 𝑝(𝜆)𝐼 obtém-se,
𝑛−1

(𝐴 – 𝜆𝐼) ∑ 𝜆𝑘 𝐵𝑘 = 𝑃(𝜆)𝐼
𝑘=0

Ou
𝑛−1

−𝜆 𝐵𝑛−1 + ∑ 𝜆𝑘 (𝐴𝐵𝐾 − 𝐵𝑘−1 ) + 𝐴𝐵0 = (−1)𝑛 𝜆𝑛 𝐼 + 𝑐𝑛−1 𝜆𝑛−1 𝐼 + ⋯ + 𝑐1 𝜆𝐼 + 𝑐0 𝐼.


𝑛

𝑘=0

Igualando os coeficientes homólogos das potências de 𝜆 obtêm-se as equações

−𝐵𝑛−1 = (−1)𝑛 𝐼
𝐴𝐵𝑛−1 − 𝐵𝑛−2 = 𝑐𝑛−1 𝐼
...
𝐴𝐵1 – 𝐵0 = 𝑐1 𝐼
𝐴𝐵0 = 𝑐0 𝐼.

Multiplicando estas equações sucessivamente por 𝐴𝑛 , 𝐴𝑛−1 , … , 𝐴, 𝐼 e somando em seguida os


resultados, o primeiro membro da igualdade resultante é a matriz nula O de ordem 𝑛. Obtém-se
então
𝑂 = (−1)𝑛 𝐴𝑛 + 𝑐𝑛−1 𝐴𝑛−1 + ⋯ + 𝑐1 𝐼 + 𝑐1 𝐼

Ou seja, 𝑝(𝐴) = 0.

3 1
Considere uma matriz 𝐴 = [ ], cujo polinómio característico é 𝑝(𝜆) = 𝜆2 + 5𝜆 + 5. Então
1 2

1 1
𝐴−1 = − [(−1)2 𝐴 − 5𝐼] = − (𝐴 − 5𝐼)
5 5

ISPSONGO 2015 12
VALORES E VECTORES PRÓPRIOS

1 −2 1 2/5 −1/5
=− [ ] =[ ].
5 1 −3 −1/5 3/5

10. Polinómio minimal


Depois da oportunidade de ter visto polinómios de matrizes a propósito do polinómio
característico e do teorema de Cayley-Hamilton, vamos agora abordar sobre polinómio minimal,
começando por notar que um polinómio 𝑝(𝑥) = ∑𝑘𝑖=1 𝑎𝑖 𝑥𝑖 induz o polinómio matricial

𝑝(𝐴) = ∑ 𝑎𝑖 𝐴𝑖
𝑖=1

Um polinómio 𝑝 tal que

𝑝(𝐴)𝑥 = 0

Diz-se que é um polinómio aniquilador de 𝑥. E um polinómio 𝑝 tal que

𝑝(𝐴) = 0, ∀𝑥

Diz-se polinómio aniquilador de 𝐴

Pelo teorema de Cayley-Hamilton 𝑝𝐴 (𝐴) = 0, oque revela obviamente ser o polinómio


característico um polinómio aniquilador. Como este teorema permite reduzir qualquer polinómio
de grau ≥ 𝑛 a um polinómio de grau < 𝑛, interessa saber se existirão polinómios aniquiladores
de grau inferior ao do polinómio característico. Segue a resposta.

Seja 𝐴 ∈ ℂ𝑛𝑥𝑛 . Então, existe um único polinómio aniquilador mónico 𝑞𝐴 de grau mínimo. O
grau deste polinómio satisfaz 𝑚 ≤ 𝑛. Se 𝑝 for um polinomio aniquilador de 𝐴, então 𝑞𝐴 divide 𝑝.

O polinómio característico 𝑝𝐴 é monico, é de grau 𝑛 e é aniquilador de 𝐴. Portanto, na pior das


hipóteses, este sera o polinómio aniquilador de grau mínimo.

Assim, justifica-se que o polinómio de grau mínimo aniquilador da matriz 𝐴, 𝑞𝐴 , seja designado
por polinómio minimal de 𝐴.

ISPSONGO 2015 13
VALORES E VECTORES PRÓPRIOS

Observações:

 Matrizes similares têm o mesmo polinómio minimal;


 O polinómio minimal de 𝑞𝐴 divide o polinómio característico 𝑝𝐴 . Além disso, os zeros de
𝑞𝐴 são os valores próprios de 𝐴, embora eventualmente com multiplicidades diferentes
 Se todos os valores próprios de uma matriz forem distintos, então o seu polinómio
característico e o seu polinómio mnimal coincidem.

11. Localização de valores próprios


Alguns métodos do cálculo de valores próprios requerem o conhecimento da localização destes
valores.

Vejamos alguns resultados úteis neste sentido.

Uma relação importante entre raio espectral e normas é apresentada no teorema seguinte, onde
se prova que A é um majorante do raio espectral, qualquer que seja a norma utilizada.

Seja A  A nxm
, então o raio espectral desta matriz verifica a seguinte

desigualdade.

 (𝐴) ≤ A . Se a for hermitiana, então  (𝐴) ≤ A . Aplicando norma ambos membros de


2

 =  ,temos que  = A   A   A  A , como esta igualdade é verdadeira para

qualquer    A ,é também verdadeira para o valor próprio com maior valor absoluto. A
segunda parte deste teorema deduz-se directamente da expressão e da definição de norma
matricial.

É claro que para a localização de valores próprios, interessa utilizar normas fáceis de calcular.

Teorema. (Gershgorin) Seja A  A nxm


,𝜎𝑖 o circulo (no plano complexo) centrado

em 𝑎𝑖𝑖 e raio .𝑟𝑖 = ∑𝑛𝑗=1 𝑎𝑖𝑗 .

ISPSONGO 2015 14
VALORES E VECTORES PRÓPRIOS

É por vezes designado por circulo de Gershgorin

11.1 Método das Potencias


Sabe se que se 𝑥 for um vector próprio de 𝐴,então a sua direcção permanece invariante sub a
acção de 𝐴. Se 𝑥 não for um vector próprio, o que acontece a sua direcção. Por outras palavras,
haverá alguma relação simples entre as direcções dos vectores 𝑥 e 𝐴𝑥. Vamos ver que em certas
circunstancias assim sucede e que é possível tirar partido deste facto do ponto de vista
algorítmico.

Nesta secção consideraremos os valores próprios de 𝐴 ∈ 𝑐 𝑛𝑥𝑛 ordenados de seguinte modo


 1   2  ...   n

11.1.1Método das potências directas


Suponhamos que  possui direcções próprias linearmente independentes 𝑥1; 𝑥2 ….𝑥𝑛 as quais
constituem, portanto, uma base. Designemos por 𝑥 0 um vector arbitrário, e seja.

𝑛
0
𝑥 = ∑ 𝑎𝑖 𝑥𝑖
𝑗=1

a sua representação na base formada por aquelas direcções próprias de 𝐴. Construamos um


vector 𝑥 (1) premultiplicando𝑥 (0) .

Se   0 λ≠ , então esta expressão pode escrever-se ainda da seguinte maneira.

𝑛

𝑥 (1) = 1 ∑(𝑎𝑖 ) 𝑖
× 𝑥𝑖
𝑖−1
1

Se  for um valor próprio dominante,  >  2 e se 𝑎1 ≠ 0 a operação efectuada reforça


1 1

a componente segundo a direcção 𝑥1 relativamente às restantes. Por outras palavras, a


premultiplicação de um vector por 𝐴produz um vector ‘mais alinhado’ com a direcção própria
associada ao valor próprio dominante. Tirando vantagem desta circunstância, podemos construir
uma sucessão de vectores por meio da fórmula.

ISPSONGO 2015 15
VALORES E VECTORES PRÓPRIOS

11.1.2 Método das potências inversas


O método das potências obtém o maior valor próprio (em módulo). Caso desejemos obter o auto
valor de menor valor absoluto, usamos o método da potência inversa

A rapidez do método das potências depende do afastamento do valor próprio dominante 1


relativamente ao valor próprio mais próximo. Neste sub capítulo vamos mostrar que uma
combinação judiciosa deste método conduzido com a matriz 𝐴−1 em vez de 𝐴 e translações
espectrais pode oferecer uma alternativa mais atraente. Assim, seja 𝑥 (0) com um vector inicial do
processo iterativo seguinte 𝑥 (𝑚) = 𝐴−1 𝑥 (𝑚−1) . 𝑚 = 1,2 …

A sucessão 𝑥 (𝑚) converge para o valor próprio dominante de 𝐴−1 O que quer dizer que essas

iterações permitem calcular o par próprio (  n , 𝑥𝑛 ) .Na realização prática deste método não se

deve calcular 𝐴−1 , mas assim resolver o sistema 𝑥 (𝑚) = 𝐴−1 𝑥 (𝑚−1) , por um método
apropriado. Neste caso, a factorização triangular, na medida em que a fase de factorização
necessita de ser efectuada uma única vez e pode ser utilizada em todas as iterações.
Concretizando, a factorização triangular produz as matrizes triangulares inferior 𝐿 é superior 𝑈
tais que 𝑃𝐴 = 𝐿𝑈 em que 𝑃 é a matriz que incorpora as eventuais trocas de linha.

𝑋 (𝑚) = 𝐴𝑥 (𝑚−1) ; onde 𝑚=1,2,3,….n

12. Translações espectrais


Passamos da terminação dos valores próprios de  para determinarmos os valores próprios de

𝐴 − 𝑝𝐼 em que 𝑝 é o escalar que esta a nossa disposição. Operação esta que é conhecida como
translação espectral, ou mudança de origem.

Exemplo Aceleração do método das potências directas por translações espectrais. Suponhamos
4𝑥4 2
que uma matriz 𝐴 ∈ 𝑐 possui um espectro 𝜎(𝐴) = {14,13,12,11}. 1
13
= 14 =0.93 faz com

que o método convirja lentamente. No entanto, se fizermos uma translação espectral com. 𝑝 =

12 temos que 𝜎(𝐴) − 𝑝𝐼 = {2,1,0, −1} e a taxa de convergência passa agora a depender de 0.5,

ISPSONGO 2015 16
VALORES E VECTORES PRÓPRIOS

bastante mais favorável. No final há que desfazer a translação. A técnica acabada de exemplificar
é conhecida por Método de Wilkinson das translações espectrais.

Uma vez obtido  , nada impede que tomemos 𝑝 = 1 . Neste caso   p n , será o valor próprio

dominante de A  pI . Se este valor próprio for simples, então é possível utilizar método das
potências para determinar   p n e, por esta via,  n e também o vector próprio 𝑥𝑛 .

13. Iterações em subespaços


O método das potências produz um par próprio em cada iteração. Pode haver a necessidade de
determinar vários valores próprios em simultâneo. Tal só acontece quando não se tem a certeza
de haver um valor próprio dominante ou a separação entre os valores próprios ser pequena e
conduzir a uma convergência demasiado lenta. A ideia que ocorre é de tomar varias
alternativas inicias
𝑞 (𝑘) , 𝑘 = 1, … , 𝑝 ≤ 𝑛.

14. Método de Jacobi clássico


Teorema 1. Seja 𝐴 ∈ ℝ𝑛×𝑛 e simétrica. Então, existe uma matriz ortogonal 𝑅 que reduz 𝐴 por
similaride á forma

𝑅𝐴𝑅 𝑇 = 𝐷

Em que 𝐷 e uma matriz diagonal.

Demostração, Nota: toda matriz real simétrica a uma matriz diagonal real, o que significa que
𝐷 = 𝑑𝑖𝑎𝑔(𝜆1 , 𝜆2 , … , 𝜆𝑛 ). A diferença reside, assim, na construção da matriz ortogonal 𝑅, e
efectua a redução de a forma diagonal.

Exemplo : Rotações planas

∝ 𝛾
Consideremos uma matriz 𝐴 ∈ ℝ2×2 e simétrica, escrita na forma 𝐴 = ( 𝛾 𝛽 )

ISPSONGO 2015 17
VALORES E VECTORES PRÓPRIOS

𝒸 −𝑠 𝑐 = cos 𝜃
A matriz 𝑅 = ( ) com { efectua ̵ se uma rotação de um angulo 𝜃 de todos os
𝑠 𝒸 𝑠 = sin 𝜃
vectores de ℝ2 . Por outro lado, levando a cabo as necessárias operações, chegamos a conclusão
de que

𝑐 −𝑠 𝛼 𝛾 𝑐 𝑠 𝑎𝑐 2 + 𝛽𝑠 2 − 2𝛾𝑠𝑐 (𝑐 2 − 𝑠 2 )𝛾 + (𝛼 − 𝛽)𝑠𝑐
𝑅𝐴𝑅 𝑇 = ( ) (𝛾 𝛽 ) (−𝑠 )=( 2 )
𝑠 𝑐 𝑐 (𝑐 − 𝑠 2 )𝛾 + (𝛼 − 𝛽)𝑠𝑐 𝑎𝑠 2 + 𝛽𝑐 2 + 2𝛾𝑠𝑐

Para tomar esta matriz diagonal basta que (𝑐 2 − 𝑠 2 )𝛾 + (𝛼 − 𝛽)𝑠𝑐 = 0 e possível concluir que o
2 tan 𝜃 2𝑐𝑠 2𝛾
angulo de rotação 𝜃 deve satisfazer a condição tan 2𝜃 = 1−𝑡𝑎𝑛2 𝜃 = 𝑐 2 −𝑠2 = 𝛽−𝛼

Rutishause propôs que, pusesse 𝑡 = tan 𝜃 𝑒 𝑎 = (𝛽 − 𝛼)⁄2𝛾 na expressão acima, obtendo


assim,

𝑡 2 + 2𝑎𝑡 − 1 = 0 e dai tem ̵ se as seguintes soluções para 𝑡, 𝑡 = −𝑎 ± (1 + 𝑎2 )1⁄2

𝑡 = 𝑠𝑖𝑔𝑛𝑎 ⁄(|𝑎| + (1 + 𝑎2 )1⁄2 )

Uma vez obtido o valor de 𝑡, os valores de 𝑐 𝑒 𝑠 podem calcular ̵ se pelas expressões 𝑐 =


1⁄(1 + 𝑎2 )1⁄2 , 𝑠 = 𝑐𝑡

Em que 𝑐 deve ser tomado como positivo. Nestas condições, conforme se pode verificar, o
angulo de rotação |𝜃| ≤ 𝜋⁄4.

𝛼 − 𝛾𝑡 0
Apos algumas simplificações a matriz toma a forma 𝐷 = 𝑅𝐴𝑅 𝑇 = ( ) os valores
0 𝛽 + 𝛾𝑡
próprio podem ser lidos na diagonal de 𝐷; logo 𝜎(𝐴) = {𝛼 − 𝛾𝑡, 𝛽 + 𝛾𝑡}.

O método de Jacobi consiste em tirar partido das rotações planas para, em operações sucessivas,
ir anulando os elementos não diagonais de 𝐴.

Uma matriz 𝑅(𝑝, 𝑞, 𝜃) diz ̵ se que e uma rotação plana de uma angulo 𝜃 no plano (𝑝, 𝑞) 𝑠𝑒

𝑟𝑝𝑝 = 𝑐 = cos 𝜃 , 𝑟𝑝𝑞 = −𝑠 = − sin 𝜃

𝑟𝑞𝑝 = 𝑠 = sin 𝜃 , 𝑟𝑞𝑞 = 𝑐 = cos 𝜃

ISPSONGO 2015 18
VALORES E VECTORES PRÓPRIOS

𝑟𝑖𝑖 = 1, 𝑠𝑒 𝑖 ≠ 𝑝, 𝑞

E os restantes elementos forem nulos.

O produto 𝑅(𝑝, 𝑞, 𝜃) por 𝐴 altera as linhas 𝑝 𝑒 𝑞, e o produto de 𝐴 por 𝑅 𝑇 (𝑝, 𝑞, 𝜃) altera as


colunas 𝑝 𝑒 𝑞, pelo que 𝑅(𝑝, 𝑞, 𝜃) diferente de 𝐴 apenas nas linhas e colunas 𝑝 𝑒 𝑞.

ISPSONGO 2015 19
VALORES E VECTORES PRÓPRIOS

15 Conclusão
Após a elaboração do trabalho concluiu-se que os conceitos básicos sobre auto vectores e auto
valores nos quais a operação com os métodos de resolução de equações lineares requer
conhecimentos da álgebra matricial, pois muitos métodos consistem em transformar os sistemas
de equações em matrizes e as soluções das equações são obtidas através de operações matriciais.

E ainda concluiu-se igualmente que a escolha do método requer um conhecimento aprofundado e


uma ponderação cuidadosa das respectivas vantagens e desvantagens face ao problema concreto
que se pretende resolver.

ISPSONGO 2015 20
VALORES E VECTORES PRÓPRIOS

16. Bibliografia
[1]. PINA, Heitor. Métodos Numéricos. Lisboa: Escolar Editora, 2010.

[2]. POOLE, David. Algebra Linear. Trent University

[3]. CABRAL, Isabel, Et al. Álgebra Linear: Teoria, exercícios resolvidos e propostos com
soluções. Lisboa: Escolar Editora. 2009.

[4]. LAY, David. Álgebra linear e suas aplicações. Segunda Ed.

[5]. F.R., Dias Agudo.Introdução à Álgebra Linear e Geometria Analítica. Lisboa. Escolar
Editora. 1988.

[6]. MARQUES, Paula, Et al. Álgebra Linear e Geometria Analítica. Lisboa. Mc Graw Hill
LTDA. 1995

[7]. SEYMOUR. Ph D Álgebra Linear Teoria e problemas.3ª Edição. São Paulo. MC Graw Hill.
1994

[8]. LUZ. Carlos. Valores e vectores próprios. 2004. Disponivel em


http://ltodi.est.ips.pt/alga/diversos/Teoria/valvec0506.pdf.

ISPSONGO 2015 21
VALORES E VECTORES PRÓPRIOS

ISPSONGO 2015 22