Escolar Documentos
Profissional Documentos
Cultura Documentos
Banca Examinadora:
Primeiramente ao universo por ter me dado perseverança para não desistir e en-
frentar os obstáculos do caminho.
Aos professores que tive a honra de conviver, pelas lições de vida ensinadas.
4
Dedicatória
6
Abstract
7
Sumário
Introdução 9
1 Conceitos Preliminares 13
1.1 Anel dos Polinômio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.1 Anel e Corpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Anel dos Polinômios de Uma Variável . . . . . . . . . . . . . . . . 15
1.1.3 Algoritmo para Divisão de Polinômios . . . . . . . . . . . . . . . 16
1.1.4 Interpolação Lagrange-Hermite . . . . . . . . . . . . . . . . . . . . 16
1.2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Operações e Relações entre Matrizes . . . . . . . . . . . . . . . . . 18
1.2.2 Matrizes Especiais e Determinantes . . . . . . . . . . . . . . . . . 20
1.2.3 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4 Decomposição de Jordan . . . . . . . . . . . . . . . . . . . . . . . 24
2 Polinômios e Matrizes 27
2.1 Funções Polinomiais em Uma Matriz . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Funções Polinomiais em uma Matriz Diagonal . . . . . . . . . . . 27
2.1.2 Funções Polinomiais em uma Matriz Não Diagonalizável . . . . . 32
2.2 Funções Escalares de Uma Matriz . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Funções não Polinomiais em Matrizes . . . . . . . . . . . . . . . . 35
3 Soluções da equação X m = A 40
3.1 Existência de Soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Encontrando Soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Soluções de X 2 = A . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Soluções de X 3 = A . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Cconsiderações finais 47
Referências Bibliográficas 48
Introdução
9
matrizes como variáveis independentes e esclarecemos as funções avaliadas em matri-
zes. Posto isto, estudamos funções com uma matriz como argumento, nomeadas de
”funções matriciais”.
Uma alusão ao que iremos estudar se dá na análise numérica, onde muitas vezes
tem interesse no comportamento de várias quantidades de derivadas de uma matriz,
como valores próprios, valores singulares, vetores próprios, subespaços invariantes,
etc, se a matriz está sujeita a pequenas perturbações; em outras palavras, a matriz é
considerada uma quantidade variável.
Em várias áreas da matemática nos deparamos com alguns problemas que tratam
sobre potência de matrizes, além disso, é possı́vel encontrar questões com a intenção
de buscar um determinado padrão à medida que eleva as potências. Tendo em vista
isto, e indo mais adiante, pensemos no seguinte problema como motivação deste tra-
balho:
Seja A uma matriz, tal que A ∈ Mn×n (K), e p ∈ K[t] um polinômio, o que poderı́amos
compreender por p( A) e como podemos utiliza-lo na resolução da equação matricial X m = A?
Especı́ficos:
10
Os aspectos metodológicos para desenvolver este estudo enfatiza a revisão bibli-
ográfica que tem como baluarte as soluções da equação matricial X m = A.
• Quanto a natureza: Básica, visto que gera conhecimento, podendo ou não inten-
cionar aplicação prática.
11
quando m é ı́mpar e seguidamente quando m é par, sendo necessário observar atenta-
mente a natureza dos autovalores, se são apenas diferentes de zero ou maior igual que
um, além disto são apresentados dois exemplos para m = 2 e m = 3, desfrutando do
conhecimento em (HORN; JOHNSON, 1994) nesta sessão. Subsequente a isto, serão
abordados as considerações finais e as referências.
12
Capı́tulo 1
Conceitos Preliminares
Definição 1.1.1. Um anel, denotado por (A, +, ·), é um conjunto A munido com as
operações de adição (+) e de multiplicação (·), tendo as seguintes propriedades:
13
Exemplo 1.1.1. Inteiros Z, racionais Q, reais R e complexos C são anéis.
Exemplo 1.1.2. O conjunto dos naturais N não é um anel. As propriedades (A1), (A2), (A3),
(M1) e (AM) são válidas, porém, não vale (A4).
Definição 1.1.2. Dizemos que um anel A é comutativo (ou abeliano) se, e somente se,
tem a propriedade:
Exemplo 1.1.3. Nos conjuntos Z, Q, R e C valem a propriedade (M2), ou seja, são anéis
comutativos.
Definição 1.1.3. Dizemos que o anel A tem unidade se, e somente se, A tem a propri-
edade:
Exemplo 1.1.4. Vale a propriedade (M3) nos anéis Z, Q, R, C e Mn (R). Portanto são anéis
com unidade.
Podemos ter anéis comutativos com unidade, em que o anel possui ambas proprie-
dades.
Inicialmente para classificar uma estrutura algébrica como corpo devemos definir
um elemento invertı́vel.
Definição 1.1.4. Seja A um anel com unidade. Um elemento a ∈ A é dito invertı́vel se,
e somente se, existe um elemento a00 ∈ A, tal que a · a00 = a00 · a = 1 A .
Nesse caso, dizemos que a00 é inverso de a e a é inverso de a00 .
Exemplo 1.1.5. O conjunto R é um anel abeliano com unidade, deste modo qualquer elemento
x ∈ R tem seu elemento inverso em R, ou seja, um elemento y ∈ R que x · y = y · x = 1R ,
onde 1R é o elemento identidade multiplicativo.
Definição 1.1.5. Um anel comutativo com unidade é chamado de corpo se, e somente
se, todo elemento não-nulo é invertı́vel.
14
Definição 1.1.6. Seja A um anel comutativo com unidade. A é um domı́nio se, e so-
mente se, tem a propriedade:
(M4) (Não existem divisores de zero) Se a · b = 0, então a = 0 ou b = 0.
(M4’) Se a 6= 0 e b 6= 0, então a · b 6= 0.
A[ x ] = { a0 + a1 x + a2 x2 + · · · + an x n ; n ∈ N, ai ∈ A, ∀i ∈ {1, 2, · · · , n}}
Definição 1.1.8. Seja (A, +, ·) anel comutativo com unidade 1, A[ x ] definido acima têm
como elementos os polinômios com apenas uma indeterminada x, do tipo
n
2 n
p ( x ) = a0 + a1 x + a2 x + · · · + a n x = ∑ aj xj,
j =0
em que n ∈ N, a j ∈ A e 0 ≤ j ≤ n.
∂( p) = max {i : ai 6= 0}, p( x ) 6= 0
Proposição 1.1.1. Seja A um anel comutativo com unidade. Então, A[ x ] é um anel comutativo
com unidade. Mais ainda, se A é um domı́nio, então A[ x ] é um domı́nio.
15
Demonstração. Pela definição do conjunto A[ x ], anel de polinômios com coeficientes
em (A, +, ·), é de fácil verificação que tal conjunto é um anel comutativo com unidade.
Só falta a última afirmação. Suponhamos que A é um domı́nio e sejam p( x ), q( x ) ∈
A[ x ] não-nulos. Consideremos os graus de p( x ) e q( x ), respectivamente, ∂( p) = m e
∂(q) = n. Então, temos pela propriedade de grau que ∂( p · q) = ∂( p) + ∂(q) = m + n e
logo, p( x ) · q( x ) 6= 0.
Algoritmo 1.1.1 (Algoritmo da Divisão de Euclides). Dados dois polinômios com coefici-
entes em um corpo, p( x ) = ∑im=0 ai xi e g( x ) = ∑in=0 bi xi , onde bn 6= 0 e m ≥ n ≥ 0, este
algoritmo encontra os polinômios q( x ) = ∑im=−0n qi xi e r ( x ) = ∑in=−01 ri xi tais que
Definição 1.1.9. Um corpo (A, +, ·), ou seja, anel comutativo com unidade, diz-se al-
gebricamente fechado se qualquer polinômio p( x ) ∈ A[ x ], de grau ≥ 1, possui uma
raiz em A.
16
das suas derivadas (interpolação de Hermite), assim concentraremos nosso foco na
interpolação polinomial.
Teorema 1.1.3. Sejam λi números reais distintos e si ∈ Z+ para i ∈ {1, · · · , µ}, e consi-
µ
deremos g(t) = ∏i=1 (t − λi )ri . Seja f uma dada função de valor real que é definida e possui
derivadas até a ordem si − 1 em λi para todo i = 1, · · · , µ. Então existe um polinômio r (t) de
grau < k − 1 tal que r (u) (λi ) = f (u) (λi ) para u = 0, 1, · · · , si − 1 e i = 1, · · · , µ. Diz-se
que tal polinômio r (t) interpola f (t) e suas derivadas nas raı́zes de g(t) = 0.
1.2 Matrizes
Didaticamente exibem matrizes, determinantes e sistemas lineares nesta devida or-
dem, porém historicamente esses fundamentos não surgiram dessa forma. O estudo
das matrizes é significativo por sua incumbência com sistemas de equações lineares.
A aparição dos determinantes foi em consequência do sacrifı́cio em resolver sistemas
lineares.
É importante ressaltar que as matrizes, e as técnicas de decomposição de Jordan
em algumas situações, expande, simplifica e ordena as possibilidades de resolução de
diversos problemas em vários campos do conhecimento.
A Decomposição de Jordan é uma forma de representar uma matriz por uma outra
matriz semelhante à original, de modo que a matriz encontrada é quase diagonal, onde
os elementos da diagonal principal ou logo abaixo (ou acima) são os únicos não nulos.
Deste modo, apresentamos os conceitos básicos sobre matrizes, determinantes e
noções sobre decomposição de Jordan, que usaremos mais adiante, mostrando sua
utilidade no estudo visando o objetivo desse trabalho, usando como base em (ELBONI,
2006).
17
Definição 1.2.1. O conjunto das matrizes é definida formalmente como uma função
dada por
A : {1, 2, · · · , m} × {1, 2, · · · , n} −→ K
(i, j) 7−→ A(i, j) = aij
Definição 1.2.3. A adição de matrizes A = [ aij ]m×n e B = [bij ]m×n , de mesma ordem,
denotado por A + B, é uma matriz C = [cij ]m×n de modo que cij = aij + bij , ∀i ∈
{1, 2, · · · , m}, j ∈ {1, 2, · · · , n}.
Definição 1.2.4. Denotamos como − A = [− aij ]m×n a matriz oposta de A = [ aij ]m×n ,
tal que A + (− A) = 0.
Definição 1.2.5. Dadas duas matrizes A = [ aij ]m×n e B = [bij ]m×n definimos a sub-
tração sendo A − B = A + (− B).
Observação 1.2.1. Note que as operações acima estão definidas apenas para matrizes
de mesma ordem.
1. A + B = B + A comutatividade;
18
2. A + ( B + C ) = ( A + B) + C associatividade;
Podemos definir o produto de uma matriz por um escalar sendo o produto de uma
matriz A = [ aij ]m×n por um número real k, originando a matriz B = [bij ]m×n , sendo
que bij = kaij , ∀i ∈ {1, 2, · · · , m}, j ∈ {1, 2, · · · , n}.
iv) 1.A = A.
Observação 1.2.2. Note que para o produto entre matrizes estar bem definido o número
de colunas da primeira matriz deve ser igual ao número de linhas da segunda matriz.
E assim, a matriz resultante tem ordem igual ao número de linhas da primeira matriz
e número de colunas da segunda matriz.
Proposição 1.2.3. Desde que as operações sejam possı́veis, visando a ordem das matrizes, e
considerando α constante real qualquer, temos realizáveis as seguintes operações:
3. ( AB)C = A( BC ), associatividade;
19
4. (αA) B = A(αB) = α( AB), associatividade e comutatividade entre matrizes e escalar;
Exemplo 1.2.1. As matrizes reais Mn (R) é um anel, com as operações usuais de adição e
multiplicação de matrizes.
Exemplo 1.2.2. O anel das matrizes reais Mn (R) quando ∀n ≥ 2 não vale (M2), ou seja, o
produto de matrizes não é comutativo. Logo Mn (R) é anel não comutativo.
iii) Matriz Inversa: Dada uma matriz A quadrada, de ordem n, se existir um matriz
B, de mesma ordem, tal que A · B = B · A = In . Então B é a matriz inversa de A,
denotamos B = A−1 .
A.A.A.
A0 = In ; A1 = A; Ak = | {z· · · .A} = Ak−1 · A
k f atores
1 2
Exemplo 1.2.3. Considere A = ∈ M2 (R), note que
2 3
0
0 1 2 1 0
A = = = I2 ;
2 3 0 1
4
5 1 2
4 1 2 89 114 1 2 377 610
⇒ A = A ·A= · = · =
2 3 2 3 114 233 2 3 610 987
Definição 1.2.8. Se A = [ a11 ]1×1 , então o determinante de A é dado por det A = a11 .
20
Pensando agora em definir o determinante de matrizes quadradas n × n com n ≥ 2
inserimos o conceito de menor e co f ator.
Definição 1.2.9. Seja A = [ aij ]n×n o menor do elemento aij , denotado por Āij , é a sub-
matriz (n − 1) × (n − 1) obtida de A eliminando-se a i-ésima linha e a j-ésima coluna
de A.
Definição 1.2.10. Dada a matriz A = [ aij ]n×n o cofator do elemento aij , denotado por
Aij , é o número Aij = (−1)i+ j · det Āij .
Definição 1.2.13. Uma matriz An é dita diagonalizável se for semelhante a uma matriz
diagonal.
21
como,
A = PDP−1
AP = PDP−1 P
como,
P −1 P = I
AP = PD
λ1 0 · · · 0
0 λ2 · · ·
0
A · v1 v2 · · · v n = v1 v2 · · · vn · ..
.. . . ..
. . . .
0 0 ··· λn
Av1 Av2 · · · Avn = λ1 v1 λ2 v2 · · · λn vn
que é equivalente a,
Av = λIv
ou ainda,
Av − λIv = 0 ⇒ detA − λIv = 0
22
pode-se mostrar que det( A − λI ) = 0 é um polinômio de grau n em λ, onde n é a ordem
da matriz A. Deste modo temos que os autovalores de A são exatamente as raı́zes deste
polinômio, denotado polinômio caracterı́stico de A, ou seja, pcA (λ) = det( A − λI ).
Teorema 1.2.2. Uma matriz A ∈ Mn (K) é diagonalizável se, e somente se, A tem n autova-
lores linearmente independentes, ou seja, distintos.
Demonstração. ⇒) Supondo que A seja uma matriz diagonalizável, então existe uma
matriz invertı́vel P = v1 v2 · · · vn , onde vi são vetores coluna n × 1, tal que A =
PDP−1 , com D uma matriz diagonal:
λ1 0 · · · 0
0 λ2 · · · 0
.
.. .. . . ..
. . . .
0 0 ··· λn
Como P é invertı́vel, não pode ter colunas nulas, isto é, vi 6= eV tal que eV = α1 v1 +
· · · + αk vk + αk+1 vk+1 . Portanto, λ1 , · · · , λn são autovalores de A com v1 , · · · , vn os
23
autovetores associados, respectivamente. E sendo P invertı́vel, suas colunas são line-
armente independentes, e assim, A possui n autovetores linearmente independentes.
⇐) Reciprocamente, suponha que A tem n autovetores linearmente independentes
v1 , · · · , vn , associados aos autovalores λ1 , · · · , λn , não necessariamente distintos. Seja
P a matriz cujas colunas são os autovetores de A, ou seja, P = v1 v2 · · · vn . Como
P é uma matriz quadrada n × n e suas colunas são L.I., temos que P é invertı́vel. Assim,
temos:
Av1 = λ1 v1
..
⇔ Av1 Av2 · · ·
Avn = λ1 v1 λ2 v2 · · ·
λn vn ⇔
.
Av = λ v
n n n
λ1 0 · · · 0
0 λ2 · · ·
0
⇔ A v1 v2 · · · v n = v1 v2 · · · vn .. ⇔
.. . . ..
. . . .
0 0 ··· λn
AP = PD ⇔ A = PDP−1 .
Definição 1.2.14. Seja Ani ∈ Mni (K) onde i ∈ {1, · · · , k} tal que ∑ik=1 ni = n, a soma
direta das matrizes Ani é a matriz
A n1 0 0 0
0 An 0 0
2
A n1 ⊕ · · · ⊕ A n n = .. .. ∈ Mn
.. . .
. . . .
0 0 0 A nk
Observação 1.2.5. Toda matriz pode ser colocado na forma canônica de Jordan se seus
polinômios mı́nimo e caracterı́stico forem fatorados em polinômios lineares.
24
As definições e os teoremas acerca do bloco de Jordan e bloco de Jordan nilpotente,
que serão apresentados em seguida, é especialmente para dar suporte na aplicação do
teorema que irá auxiliar-nos na resolução do objetivo geral deste trabalho.
1 0
λ
... ...
Jk (λ) = .
. . . 1
0 λ
1 0 0
... ...
1, se j = i + 1
Nij = =
0, se j 6= i + 1 . . . 1
0 0
Definição 1.2.17. Uma matriz quadrada J é dita estar na forma canônica de Jordan se
Jn1 (λ1 ) 0
Jn2 (λ2 )
J = Jn1 (λ1 ) ⊕ · · · ⊕ Jnm (λm ) =
...
0 Jnm (λm )
onde
1, se j = i + 1
Nij =
0, se j 6= i + 1
tal que i, j ∈ {1, · · · , k}. Se λ = 0 então Jk (0) = Nk .
como querı́amos.
25
Exemplo 1.2.4. Seja
J3 (0) = 0I3 + N3 = N3
temos que
1, se j = i + 1
( J3 (0))ij =
0, se j 6= i + 1
Então
0 1 0
J3 (0) = 0 0 1 .
0 0 0
Lema 1.2.1. Seja ( Jk (0))ij ∈ Mk (K) o bloco de Jordan associados a λ = 0, então para todo
s ∈ {1, · · · , k − 1}
1, se j = i + s
( Jks (0))ij = ,
0, se j 6= i + s
para todo i, j ∈ {1, · · · , k }.
Até então, foi apresentadas as definições e resultados que servirão como base para
o tratamento e personalização da matriz envolvida na equação matricial X m = A, de
modo que esteja de adequado para introduzi-lo nos futuros teoremas para solucionar
o problema.
26
Capı́tulo 2
Polinômios e Matrizes
27
1 2
seja a matriz A = , iremos calcular p( A), deste modo
3 4
2
p( A) = ∑ a i A i = a0 A0 + a1 A1 + a2 A2
i =0
1 0 1 2 7 10 a0 0 a1 2a1 7a2 10a2
= a0 + a1 + a2 = + +
0 1 3 4 15 22 0 a0 3a1 4a1 15a2 22a2
a + a1 + 7a2 2a1 + 10a2
⇒ p( A) = 0
3a1 + 15a2 a0 + 4a1 + 22a2
Lema 2.1.1. Sejam A, B ∈ Mn (R). Se B é invertı́vel, então ( BAB−1 )m = BAm B−1 para
todo m ∈ N.
28
Quer-se provar que para m = k + 1 a igualdade também é verdadeira.
Note que utilizando as propriedades de potência de uma matriz,
pela Proposição (1.2.3) sabemos que matrizes são associativas e comutativas com esca-
lares, assim
= B ( a 0 A 0 ) B −1 + · · · + B ( a m A m ) B −1
deste modo
m
B( a0 A0 ) B−1 + · · · + B( am Am ) B−1 = B( ∑ ai Ai ) B−1 = Bp( A) B−1
i =0
como querı́amos.
29
f ( A) é sempre um polinômio na matriz A (com coeficientes dependendo da função
f ), que pode ser facilmente obtido se são conhecidos os autovalores de A. Essa técnica
habitual na Álgebra Linear Numérica, tem sido esquecida nos textos de Álgebra Linear.
Nosso objetivo aqui é mostrar que toda função pode ser interpolado em um polinômio,
deste modo associando a matriz nesta função.
Demonstração. Vamos provar por indução sobre n. É claro que é verdadeira para n = 1,
pois A = diag(λ1 ) então
1
p( A) = ∑ ai λ1i = a1 λ1 + a0 λ01
i =0
⇒ p(diag(λ1 )) = a1 λ1 + a0
e
1
diag( p(λ1 )) = diag( ∑ ai λ1i )
i =0
⇒ diag( p(λ1 )) = a1 λ1 + a0
ou seja,
p( A) = p(diag(λ1 )) = diag( p(λ1 )) = p(λ1 ) .
p( Ak )
k
k +1 0 k +1 A 0
p( A )= eA =
0 p ( λ n +1 ) 0 λ n +1
30
Agora, observe abaixo
λ1 0 0
.. .. Ak 0
.
A k +1 =
.
=
0 λn 0 0 λ n +1
0 ··· 0 λ n +1
então temos,
p( Ak )
k +1 0
p( A )=
0 p ( λ n +1 )
e pela hipótese de indução, podemos concluir
Corolário 2.1.2. Seja A ∈ Mn (R) uma matriz diagonalizável da forma A = SΛS−1 com
Λ = diag(λ1 , λ2 , · · · , λn ) e p(t) ∈ R[t]. Então
p ( λ1 ) 0
p( A) = S
... −1
S
0 p(λn )
p( A) = p(SΛS−1 )
31
⇒ p(SΛS−1 ) = Sp(Λ)S−1
Ao derivar esta fórmula, usamos uma propriedade importante das funções polino-
miais escalares p(t) que p(SΛS−1 ) compartilhada por funções analı́ticas escalares, mas
não por outras funções, como polinômios com valor de matriz.
r
r
⇒ ( Jk (λ)) = ∑
r
λr −s I r −s N s
s =0
s
r
r
⇒ ( Jk (λ)) = ∑
r
λr −s I N s
s =0
s
32
r
r
⇒ ( Jk (λ)) = ∑ r
λr −s N s
s =0
s
m
j!
p (i ) ( λ ) = ∑ ( j − i ) ! a j λ j −i .
j =i
j!
Demonstração. Seja p(λ) = ∑m k (i ) m
k=0 ak λ então provaremos agora que p ( λ ) = ∑ j=i a λ j −i .
( j −i ) ! j
Faremos isso através de indução. Seja i = 1, então
m
j!
p (1)
(λ) = mam λ m −1
+ ( m − 1 ) a m −1 λ m −2
+ · · · + a1 = ∑ ( j − 1 ) ! a j λ j −1 .
j =1
33
agrupado os termos N i em que i ∈ {0, · · · , m} temos
0 1 m
= a0 + a0 λ + · · · + a0 λm N 0 +
0 0 0
1 2 m m −1 m
+ a1 + a1 λ + · · · + a1 λ 1
N + · · · + am Nm
1 1 1 m
!
m m
j
=∑ ∑ a j λ j−i Nki
i =0 j = i
i
j
sabemos que = i!( jj!−i)! , assim obtemos
i
! !
m m m m µ
j! 1 j! 1 (i )
=∑ ∑ a j λ j −i N i = ∑ ∑ a j λ j −i
N i
= ∑ P (λ) N i
i =0 j = i
i! ( j − i ) ! i =0
i! j =i
( j − i ) ! i =0
i!
ou seja,
p ( λ ) p (1) ( λ ) 1 (2)
2 p (λ) ··· 1
( k −1) !
p ( k −1) ( λ )
.. ..
0
p(λ) p (1) ( λ ) . .
p( Jk (λ)) = 0
.. 1 (2)
(2.1)
0 p(λ) . 2 p (λ)
..
p (1) ( λ )
.
0 0 0 ··· p(λ)
Teorema 2.1.4. Sejam A uma matriz Mn (R) não diagonalizável, q A (t) = ∏is=1 (t − λi )ni
seu polinômio minimal com ∑is=1 ni = n e p ∈ R[t]. Se a forma canônica de Jordan de A é
SJS−1 com
Jn1 (λ1 ) 0
J=
...
0 Jns (λs )
então,
p( Jn1 (λ1 )) 0
p( A) = S
... −1
S
0 p( Jns (λs ))
onde p( Jk (λ)) esta definida pela Equação (2.1), com k ∈ {n1 , · · · , ns } e λ ∈ {λ1 , · · · λs }.
34
Demonstração. Dado A = SJS−1 note que
p( A) = p(SJS−1 )
pelas propriedades matriciais, polinomiais e como λk Ink onde k ∈ {1, · · · , s} são dia-
gonais obtemos
Sdiag( p(λ1 In1 + Nn1 ), · · · , p(λs Ins + Nns ))S−1 = Sp( J )S−1
como querı́amos.
35
Definição 2.2.1. Seja A ∈ Mn como na Observação 2.2.1 acima. Consideremos a f :
R → R, D = dominio ( f ) que verifica: i ) cada λi ∈ D; ii ) se ri > 1 então λi ∈ int( D );
iii ) f é (ri − 1)-vezes diferenciável em λi , se ri > 1.
A matriz primária de A associada a f está definida como
f ( Jn1 (λ1 )) 0
−1
f ( A) = S f ( J )S = S
. .. −1
S
0 f ( Jns (λs ))
onde
f ( λ ) f (1) ( λ ) 1 (2)
2f (λ) ··· 1
( k −1) !
f ( k −1) ( λ )
.. ..
0
f (λ) f (1) ( λ ) . .
f ( Jk (λ)) = 0
... 1 (2) ; k ∈ { n1 , · · · , n s }.
0 f (λ) 2f (λ)
...
f (1) ( λ )
0 0 0 ··· f (λ)
(a) Existe um polinômio r de grau menor ou igual que n − 1 tal que f ( A) = r ( A), onde r
pode ser considerado como qualquer polinômio que interpola f e suas derivadas nas raı́zes
da equação q A (t) = 0.
(b) A matriz primária de A associada a f , f ( A), esta bem definida, ou seja, o valor de f ( A)
é independente da forma canônica de Jordan particular usada para representar A.
g (u) ( λi ) = f (u) ( λi )
(e) Se A tem a forma canônica de Jordan ⊕is=1 Jn1 (λµi ), onde 1 < µi ≤ µ para todo i ∈
{1, · · · , s} e n1 + · · · + ns = n, então a forma canônica de Jordan da f ( A) é
36
Demonstração. (a) Considere o polinômio r (t) de Lagrange-Hermite dado pelo Te-
orema 1.1.3. Então r (u) (λi ) = f (u) (λi ) para u ∈ {0, 1, · · · , ri − 1} com i ∈
{1, · · · , s}, portanto, uma comparação do Lema 2.1.3 com a Definição 2.2.1 mos-
tra que f ( A) = r ( A);
(b) Para esta prova suponha A = SJS−1 = T J 0 T −1 , onde J e J 0 são matrizes Jordan.
Então J 0 = PJP T para alguma matriz de permutação (bloco) P, e portanto pela
Definição 2.2.1 temos f ( J 0 ) = P f ( J ) P T . Seja r ( T ) um polinômio tal que r ( J ) =
f ( J ), como garantido em (a). Então
(c) Para esta demonstração a observação principal é que a forma canônica de Jordan
de A não é alterada pela similaridade de A. Se A = SJS−1 , então TAT −1 =
( TS) J ( TS)−1 e
(e) Segue imediatamente da Definição 2.2.1 se a similaridade que reduz a soma di-
reta à forma canônica de Jordan for escolhida para ser a soma direta das semelhanças
que reduzem cada soma direta à forma canônica de Jordan.
Demonstração. Seja A a forma canônica de Jordan dada por (6.2.5), então g( A) é dado
por (6.2.6). Pelo Teorema (6.2.9 (g)), a forma canônica de Jordan de g( A) é a soma direta
das formas canônicas de Jordan de g( Jni (αµi )), i = 1, · · · , s. Mas cada bloco Jordan na
forma canônica Jordan de g( Jni (αµi )) tem um tamanho no máximo ni , que não é maior
do que o expoente correspondente a λµi no polinômio mı́nimo de A, i = 1, · · · , s. As-
sim, as suposições de domı́nio e diferenciabilidade em g(t) e f (t) são adequadas para
garantir que as funções de matriz primária g( A) e f ( g( A)) sejam ambas definidas por
(6.2.4). Similarmente, a aplicação repetida da regra da cadeia mostra que a função h(t)
37
atende às condições de domı́nio e diferenciabilidade necessárias para definir a função
de matriz primária h( A) por (6.2.4). Use a fórmula de Lagrange-Hermite (6.1.16) para
(u) (u)
construir polinômios r1 (t) e r2 (t) de forma que r1 ( g(λi )) = f (u) ( g(λi )) e r2 (ti ) =
g(u) (ti ) para u ∈ {0, 1, · · · , ri − 1} e i ∈ {1, cdots, µ}. Então, r1 ( g( A)) = f ( g( A)),
r2 ( A) = g( A) e r1 (r2 ( A)) = r1 ( g( A)) = f ( g( A)) pelo Teorema (6.2.9 (e)). Agora con-
sidere o polinômio r3 (t) ≡ r1 (r2 (t)). Agora considere o polinômio r3 (t) = r1 (r2 ( A)),
que, por ser uma composição de polinômios, satisfaz r3 ( A) = r1 (r2 ( A)). O uso re-
(u)
petido da regra da cadeia mostra que r3 (λi ) = h(u) (λi ) para u ∈ {0, 1, · · · , ri − 1} e
i ∈ {1, · · · , s}, então h( A) = r3 ( A) pelo Teorema (6.2.9 (e)) novamente. Concluı́mos
que h( A) = r3 ( A) = r1 (r2 ( A)) = f ( g( A)).
Teorema 2.2.2. Seja A ∈ Mn (R) uma matriz diagonalizável da forma A = SΛS−1 com
Λ = diag(λ1 , λ2 , · · · , λn ) e f : R → R. Então
f ( λ1 ) 0
f ( A) = S .. −1
S .
.
0 f (λn )
Exemplo 2.2.1. Suponha que a função de valor escalar f esta definida em uma vizinhança
de
λ 1
um dado ponto λ ∈ R, e considere as matrizes diagonalizáveis Ae = observe que
0 λ+e
Ae = Se Λe Se−1 com
λ 0 1 1 −1 1 e −1
Λ= , Se = e Se = , e 6= 0.
0 λ+e 0 e e 0 1
Então, usando Corolário 2.1.2, f ( Ae ) esta definida para todo e diferente de zero suficientemente
pequeno. " #
[ f (λ+e)− f (λ)]
f (λ) 0
f ( A e ) = Se S −1 = f ( λ ) e .
0 f (λ + e) e 0 f (λ + e)
Como Ae tende a J2 (λ) quando e → 0, se f é contı́nua e diferenciável em t = λ podemos dizer
que o valor de f ( J2 (λ)) deve ser
f (λ) f 0 (λ)
f ( J2 (λ)) = .
0 f (λ)
38
Demonstração. Se todo ri = 1 não há nada a provar. Suponha que existe i tal que ri > 1.
Aplicando o teorema da função inversa a f temos que existe uma vizinhança aberta
Ni de λi onde existe uma função gi (s) para a qual f ( gi (s)) = s, e gi (s) é (ri − 1)−
vezes diferenciável em s = λi . Seja Ni = {λi } para aqueles i taes que ri = 1. Sem
perda de generalidade podemos assumir que os conjuntos N1 , · · · , Nµ são disjuntos.
Seja D 0 = i = 1 Ni . para s ∈ D 0 , definimos g(s) = gi (s) se s ∈ Ni , i = 1, · · · , µ. Então
Sµ
Observe que X0 = PJ4 (0) P T para uma matriz de permutação adequada P, e que
( X0 )2 = A. A função f (t) = t2 não satisfaz o básico da condição do teorema da função
inversa: f (0) 6= 0. No entanto, f ( X0 ) = A. Além disso, X0 não é uma função de
matriz primária de A uma vez que nenhum bloco de Jordan de uma função de matriz
primária de A pode ser maior que o maior bloco Jordan de A.
39
Capı́tulo 3
Soluções da equação X m = A
Esta seção estamos interessados em resolver o seguinte problema: Dada uma matriz
A ∈ Mn (R) e um m ∈ N encontrar todas as matrizes X ∈ Mn (R) tais que
Xm = A
ii) Se λi ≥ 0 e m = 2k para i ∈ {1, · · · , n}, então existe X0 ∈ Mn (R) tal que X0m = A.
Demonstração. Para provar que existe X0 ∈ Mn (R) tal que X0m = A, usaremos o Teo-
rema 2.2.1 e Corolário 2.2.2. Então, consideremos f : R → R defina como f (t) = tm .
Como dom( f ) = R então λi ∈ dom( f ) para todo i ∈ {1, · · · , n}, e como f é C ∞
então para ri > 1, f é (ri − 1)-vezes diferenciável. Consideremos g : R → R de-
1
fina como g(t) = t m . No caso em que m é ı́mpar então dom( g) = R e portanto para
todo i ∈ {1, · · · , n} λi ∈ dom( g), já em que m é par como λi ≥ 0, então λi ∈ dom( g).
∏ik=−11 (1−im) 1 −k
Deste modo, como g ∈ C ∞ , onde g(k) (t) = mk
tm para k ∈ N, então para todo
i ∈ {1, · · · , n} tal que ri > 1, g é (ri − 1)-vezes diferenciável. Além disso, como λi 6= 0
então f (λi ) 6= 0 para todo i ∈ {1, · · · , n}. Então a função f verifica as hipóteses dos
40
Teorema 2.2.1 e do Corolário 2.2.2, por tanto podemos concluir que existe X0 ∈ Mn (R):
1
f ( X0 ) = A e g( A) = X0 e portanto X0m = A e X0 = A m .
Demonstração. Temos A = SΛS−1 e g(t) = t1/m então pelo Corolário 2.1.2 obtemos
1
g ( λ1 ) 0 λ1m 0
g( A) = S
... −1
S = S ... −1
S
1
0 g(λs ) 0 λ m
s
1
λ1m 0
⇒ g ( A ) = X0 = S .. −1
S
.
1
0 λsm
como querı́amos.
Observação 3.2.1. No caso em que m é ı́mpar, basta considerar que λi 6= 0 já que
1
λim ∈ R para todo i ∈ {1, · · · , s}
Demonstração. Seja A = SJS−1 , J = ⊕is=1 Jni (λi ) com ∑is=1 ni = n e g(t) = t1/m então
pelo Teorema 2.2.1
g( A) = g(SJS−1 ) = Sg( J )S−1
como J = diag( Jn1 (λ1 ), · · · , Jns (λs )) e pela Definição 2.2.1 temos que
g( J ) = g(diag( Jn1 (λ1 ), · · · , Jns (λs ))) = diag( g( Jn1 (λ1 )), · · · , g( Jns (λs )),
41
assim concluı́mos que
g( Jn1 (λ1 )) 0
g ( A ) = X0 = S
... −1
S
0 g( Jns (λs ))
onde
∏ij− 1
=0 (1 − jm ) 1
(i )
g (λ) = λ m −i
mi
i ∈ {0, · · · , k − 1}
3.3 Exemplos
Como tudo que vimos até aqui são casos de abstração e generalização, temos como
objetivo aqui, para melhor compreensão dos conceitos vistos e maior absorção do que
foi abordado, exemplificar soluções para a equação matricial X m = A, tal que ini-
cialmente consideramos m = 2 e em seguida m = 3. Dispondo do nosso objetivo
principal neste momento, , omitimos os cálculos referente à verificação da existência de
diagonalização da matriz dada, e também suprimimos o desenvolvimento da diagonalização
e da decomposição de Jordan das matrizes. Deste modo, tivemos um enfoque maior
no nosso objetivo dominante.
3.3.1 Soluções de X 2 = A
Preliminarmente, iremos especificar m = 2 na expressão matricial X m = A. Para so-
lucionar essa equação, consideremos g : R → R definidas por g(t) = t1/2 , além disso,
tomemos uma matriz A diagonalizável, tal que A = SΛS−1 onde Λ = diag(λ1 , · · · , λs )
e como a paridade do m é par temos λi ≥ 0 tal que i ∈ {1, · · · , s}, então
1
λ12 0
g ( A ) = X0 = S ... −1
S .
1
2
0 λs
42
16 0
Exemplo 3.3.1. Considere a matriz diagonal A = com λi ≥ 0 onde i ∈ {1, 2}. Além
0 9
disso, consideremos g(t) = t1/2 . Assim, para resolver X 2 = A temos
1 1
g( A) = g(diag(16, 9)) = diag( g(16), g(9)) = diag(16 2 , 9 2 ) = diag(4, 3)
Como pretendido.
5 4 2
Exemplo 3.3.3. Seja A = 0 1 −1 uma matriz não diagonalizável com decomposição
−1 −1 3
−1 −6 −10
de Jordan dada através da matriz diagonalizante S = 1 −3 1 e pela matriz quase
0 9 0
diagonal
1 0 0
4 1
J = J1 (1) ⊕ J2 (4) = 0 4 1 ; J1 (1) = 1 , J2 (4) =
0 4
0 0 4
43
1
onde A = SJS−1 . Para calcularmos X 2 = A consideremos g(t) = t 2 . Assim
−1 −1 g( J1 (1)) 0
g( A) = g(SJS ) = Sg( J )S = S S −1
0 g( J2 (4))
Para calcular g( J1 (1)) e g( J2 (4)) utilizaremos a fórmula apresentada no Lema 2.1.3, deste
modo temos que 1
2 4
g( J1 (1)) = 1 e g( J2 (4)) =
0 2
Desta maneira
1 0 0
g( J ) = g( J1 (1)) ⊕ g( J2 (4)) = 0 2 14
0 0 2
Podemos concluir assim
1 10 4 41 23 11
−1 −6 −10 1 0 0 9 9 9 18 18 18
g ( A ) = 1 −3 1 0 2 14 0 0 1 = −1 35 −13
9 36 36 36
0 9 0 0 0 2 −1 −1 −1 −1 −1 7
9 9 9 4 4 4
3.3.2 Soluções de X 3 = A
Prontamente, caminharemos caracterizando a equação matricial X m = A conside-
rando m = 3, ou seja, com a paridade ı́mpar, assim devemos levar em consideração que
podemos solucionar problemas onde os autovalores das matrizes diagonais e quase
diagonais são λi 6= 0. Para isto, consideremos g : R → R definidas por g(t) = t1/3 ,
além disso, tomemos uma matriz A diagonalizável, tal que A = SΛS−1 onde Λ =
diag(λ1 , · · · , λs ), então
1
3
λ1 0
g ( A ) = X0 = S .. −1
S .
.
1
0 λs3
44
tal que
g ( λ ) g (1) ( λ ) 1 (2)
2 g (λ) ··· 1
( k −1) !
g ( k −1) ( λ )
.. ..
0
g(λ) g (1) ( λ ) . .
g( Jk (λ)) = 0
.. 1 (2) ; k ∈ { n1 , · · · , n s }
0 g(λ) . 2 g (λ)
...
g (1) ( λ )
0 0 0 ··· g(λ)
onde
∏ij− 1
=0 (1 − jm ) 1
(i )
g (λ) = λ m −i em que i ∈ {0, · · · , k − 1}.
mi
1 2
Exemplo 3.3.4. Agora, tomemos a matriz A = , de tal modo que A é diagonalizável.
0 −2
De fato, basta tomar a matriz diagonalizante S e a matriz diagonal Λ dadas por:
1 1 1 0
S= eΛ=
0 − 32 0 −2
Observe que as colunas de S são os autovetores de A e a matriz diagonal Λ foi construı́da com
os autovalores de A. Temos que A é semelhante a matriz Λ, ou seja, A = SΛS−1 .
1
Deste modo, para solucionar X 3 = A tomamos g : R → R onde g(t) = t 3 , assim
" 1 #
2·2 3 +2
⇒ X0 = 1 3
1
0 −2 3
Concluı́mos assim que
" 1 #3
2·2 3 +2 1 2
3
X0 = A ⇔ 1 3 =
0 −2 3
1 0 −2
5 4 2 1
0 1 −1 −1
Exemplo 3.3.5. Tomemos a matriz não diagonalizável A = −1 −1 3
com de-
0
1 1 −1 2
−1 1 1 1
1 0 0 −1
composição de Jordan dada por A = SJS−1 onde S = 0 −1 0 0 é a matriz diagona-
0 1 0 1
1 0 0 0
0 4 1 0
lizante e J = 0 0 4 0 a matriz quase diagonal. Note que J = Jn1 (1) ⊕ Jn2 (4) ⊕ Jn3 (2)
0 0 0 2
45
de modo que n1 , n2 e n3 são as dimensões dos blocos
damatriz de Jordan e são, respectivamente,
4 1
1, 2 e 1, além disso, Jn1 (1) = 1 , Jn2 (4) = e Jn3 (2) = 2 . Desta maneira, para
0 4
1
solucionar a equação matricial X 3 = A devemos considerar uma função dada por g(t) = t 3 ,
assim
g( A) = g(SJS−1 ) = Sg( J )S−1 = Sg(diag( Jn1 (1), Jn2 (4), Jn3 (2)))S−1
Observe que
J = ⊕3i=1 Jni (λi )
onde λ1 = 1, λ2 = 4 e λ3 = 2. Portanto,
" #
4 31 1 h i
1 −1
g( A) = X0 = Sdiag( 1 , 3 ,
1 2 3 )S
0 43
1 0 0 0
−1 1 1 1 1 1
0 1 1 1
1 0 0 −1 0 4 3 2 0 0 0 −1 0
=
0 −1
3.4 3
1
0 0 0 0 4 3 0 1
1 1 0
0 1 0 1 1 0 0 1 1
0 0 0 23
1 1 1 1
13.4 3 13.4 3 −12 12.2 3 +4 3 −12 1
12 12 12 23 − 1
1 1
0 1 −2 3 + 1 −2 3 + 1
= 13
1 1
−4 −4 3 11.4 3
0
121 12
1 1
12
1
43 43 12.2 3 −11.4 3 1
12 12 12 23
Concluindo assim que
1 1 1 1 3
13.4 3 13.4 3 −12 12.2 3 +4 3 −12 1
12 12 12 23 − 1
5 4 2 1
1 1
0 1 −2 3 + 1 −2 3 + 1 0 1 −1 −1
X03 = A ⇔ 13 = .
1 1
−4 −4 3 11.4 3
0 − 1 − 1 3 0
121 12 12
1 1 −1 2
1 1 1
43 43 12.2 3 −11.4 3 1
12 12 12 23
46
Conclusão
47
Referências Bibliográficas
[6] RODRIGUES, Virgı́nia Maria. Algoritmo para o Máximo Divisor Comum de Po-
linômios a uma Variável / Virgı́nia Maria Rodrigues, - Porto Alegra: CPGMA da
UFRGS, 1995.
[7] HOFFMAN, Kenneth; KUNZE, Ray Alden.Álgebra linear .2nd ed. New Jersey:
Prentice Hall, 1971. 354 p.
[8] MENDONÇA JUNIOR, R. C.. Raiz Quadrada de Matrizes de Ordem nxn. 2014.
42 f. Dissertação (Mestrado) - Curso de Matemática, Instituto de Matemática e
Estatı́stica, Universidade Federal de Goiás, Goiânia, 2014.
[9] HORN, Roger A.; JOHNSON, Charles R.. Topics in Matrix Analysis. Cambridge,
England: Cambridge University Press, 1994. 616 p.
[10] KOERICH, Aline Casagrande et al. Um estudo sobre polinômios e sua abordagem
no ensino. 2000.
[12] WHITTAKER, E.T. (1952). Analytical Dynamics, Cambridge Univ. Press, Cam-
bridge.
48