Você está na página 1de 49

U NIVERSIDADE F EDERAL DO R EC ÔNCAVO DA B AHIA

C ENTRO DE C I ÊNCIAS E XATAS E T ECNOL ÓGICAS


B ACHARELADO EM M ATEM ÁTICA

SOLUÇÕES DA EQUAÇÃO MATRICIAL


Xm = A

Gabriel Dias Paes

Cruz das Almas


2020
SOLUÇÕES DA EQUAÇÃO QUADRÁTICA
Xm = A

Gabriel Dias Paes

Trabalho de Conclusão de Curso apresentado ao


curso de Bacharelado em Matemática do Cen-
tro de Ciências Exatas e Tecnológicas da Uni-
versidade Federal do Recôncavo da Bahia, como
parte dos requisitos para a obtenção do tı́tulo de
graduado.

Orientador: Prof. Dr. Eleazar Madriz Lozada

Cruz das Almas


2020
SOLUÇÕES DA EQUAÇÃO MATRICIAL
Xm = A

Gabriel Dias Paes

Trabalho de Conclusão de Curso apresentado ao


curso de Bacharelado em Matemática do Cen-
tro de Ciências Exatas e Tecnológicas da Uni-
versidade Federal do Recôncavo da Bahia, como
parte dos requisitos para a obtenção do tı́tulo de
graduado.

Banca Examinadora:

Orientador: Dr. Eleazar Madriz Lozada

Convidado: Dr. Pedro José Di Novella Cordero

Convidado: Dr. Alex Santana dos Santos

Cruz das Almas, Dezembro de 2020.


”Ninguém consegue perceber, com facilidade, a força que tem.
Ser forte não é como estudar para uma prova e estar preparado
para responder todas as questões que surgirem. Ser forte é algo
silencioso. E aquele ”resistir”diário. É continuar caminhando
mesmo carregando muito peso. É seguir mesmo dando
pequenos passos.”
MATHEUS ROCHA.
Agradecimentos

Primeiramente ao universo por ter me dado perseverança para não desistir e en-
frentar os obstáculos do caminho.

Aos meus pais que me apoiaram e incentivaram desde o começo.

Aqueles que conviveram comigo, tanto em momento difı́ceis, quanto em momentos


de felicidades e que de forma direta ou indireta contribuı́ram para o meu desenvolvi-
mento. Principalmente, Raiana Brito, quem desfruta comigo a vida com muito amor e
cumplicidade.

Aos professores que tive a honra de conviver, pelas lições de vida ensinadas.

Em especial ao professor orientador Eleazar Madriz Lozada, pelo apoio na construção


deste trabalho.

4
Dedicatória

Aos meus pais e irmãos!


Resumo

Esta dissertação apresenta a matriz sendo uma variável independente avaliado em


uma função e o processo de potência de matrizes solucionando a equação matricial
X m = A. Desta forma tem como principal objetivo caracterizar as soluções da equação
matricial X m = A. Em diversas áreas da matemática nos deparamos com alguns pro-
blemas que tratam sobre potência de matrizes, sendo possı́vel encontrar questões com
a intenção de buscar um determinado padrão à medida que eleva as potencias. Neste
cenário, encontra-se como problema: Seja A uma matriz, tal que A ∈ Mn (K), e p ∈
K[t] um polinômio, o que poderı́amos compreender por p(A) e como este pode ser uti-
lizado na resolução da equação matricial X m = A? Assim, foi demonstrado de forma
acessı́vel e didática como compreender p( A), como efetuar cálculos de potência em
matrizes diagonalizáveis e não-diagonalizáveis com decomposição de Jordan, e ainda
como p( A) pode ser utilizado na resolução da equação matricial X m = A. Para isto,
foram apresentados noções de anel, corpo, anel de polinômio, interpolação polinomial,
matrizes, determinantes, autovalores, autovetores, diagonalização e decomposição de
Jordan de matrizes. Após a construção dessas bases, definimos teoremas, lemas e co-
rolários que no primeiro momento nos trouxe a possibilidade de demonstrar a existência
de uma solução para a equação matricial X m = A e posteriormente nos possibilitou a
caracterização da solução desta equação matricial, e um caso particular que é mere-
cedora de ser citado é o entendimento do cálculo da raiz n-ésima
√ de uma matriz, ou
n
seja possibilita a caracterização a solução da equação X = A. E por fim, foram apre-
sentados exemplos de X m = A considerando m = 2 e m = 3. A opção metodológica
contempla a pesquisa de natureza básica, qualitativa, exploratória, descritiva e expli-
cativa. Concluı́-se com o reconhecimento de outros aspectos da teoria das matrizes e
funções.

Palavras Chaves: Anel; Corpo; Matrizes; Determinantes; Polinômios de matri-


zes; Polinômio caracterı́stico; Diagonalização de matrizes; Decomposição de Jordan;
Potências de matrizes.

6
Abstract

This dissertation presents the matrix as an independent variable evaluated in a


function and the matrix power process solving the matrix equation X m = A. Thus,
its main objective is to characterize the solutions of the matrix equation X m = A. In
several areas of mathematics we are faced with some problems that deal with matrix
power, and it is possible to find questions with the intention of seeking a certain pat-
tern as the potential increases. In this scenario, the problem is: Let A be a matrix, such
that A ∈ Mn (K), and p ∈ K[t] a polynomial, which we could understand by p (A) and
how can it be used to solve the matrix equation X m = A? Thus, it was demonstrated in
an accessible and didactic way how to understand p( A), how to perform power calcu-
lations in diagonalizable and non-diagonalizable matrices with Jordan decomposition,
and how p( A) can be used in solving the matrix equation X m = A. For this, notions
of ring, body, polynomial ring, polynomial interpolation, matrices, determinants, ei-
genvalues, eigenvectors, diagonalization and Jordan decomposition of matrices were
presented. After the construction of these bases, we defined theorems, slogans and
corollaries that at the first moment brought us the possibility to demonstrate the exis-
tence of a solution to the matrix equation X m = A and later allowed us to characterize
the solution of this matrix equation, and a particular case that is worth mentioning is
the understanding of the calculation of the nth root√of a matrix, that is, it allows the
characterization and solution of the equation X = n A. Finally, examples of X m = A
were presented considering m = 2 and m = 3. The methodological option includes
basic, qualitative, exploratory, descriptive and explanatory research. It concludes with
the recognition of other aspects of the theory of matrices and functions.

Keywords: Ring; Fields; Matrices; Determinants; Matrix polynomials; Characteris-


tic polynomial; Diagonalization of matrices; Jordan’s decomposition; Matrix powers.

7
Sumário

Introdução 9

1 Conceitos Preliminares 13
1.1 Anel dos Polinômio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.1 Anel e Corpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Anel dos Polinômios de Uma Variável . . . . . . . . . . . . . . . . 15
1.1.3 Algoritmo para Divisão de Polinômios . . . . . . . . . . . . . . . 16
1.1.4 Interpolação Lagrange-Hermite . . . . . . . . . . . . . . . . . . . . 16
1.2 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.1 Operações e Relações entre Matrizes . . . . . . . . . . . . . . . . . 18
1.2.2 Matrizes Especiais e Determinantes . . . . . . . . . . . . . . . . . 20
1.2.3 Diagonalização de Matrizes . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4 Decomposição de Jordan . . . . . . . . . . . . . . . . . . . . . . . 24

2 Polinômios e Matrizes 27
2.1 Funções Polinomiais em Uma Matriz . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Funções Polinomiais em uma Matriz Diagonal . . . . . . . . . . . 27
2.1.2 Funções Polinomiais em uma Matriz Não Diagonalizável . . . . . 32
2.2 Funções Escalares de Uma Matriz . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Funções não Polinomiais em Matrizes . . . . . . . . . . . . . . . . 35

3 Soluções da equação X m = A 40
3.1 Existência de Soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Encontrando Soluções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.1 Soluções de X 2 = A . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.3.2 Soluções de X 3 = A . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Cconsiderações finais 47

Referências Bibliográficas 48
Introdução

A diversa aplicabilidade da Álgebra Linear mostra cada vez mais a importância do


seu estudo na matemática. Segundo Hoffman (1971), a álgebra linear é, em poucas
palavras, conhecer as semelhantes propriedades de um sistemas algébricos que um
determinado conjunto contém.
No estudo da álgebra linear desfrutamos das matrizes. As matrizes são de tre-
menda importância para o mundo da matemática e muitos outros setores do conheci-
mento, devido a sua estrutura, pois facilita resolução de sistemas lineares ou apenas
pela forma que organiza dados facilitando consulta e organização. Atualmente, esta
ferramenta é extremamente indispensável em formulações e resoluções de problemas
em determinadas áreas de estudo, no entanto nem sempre foi assim.
Um fato interessante na história das ciências exatas é que o conceito de determinan-
tes surgiu antes mesmo do conceito de matrizes, por inexistência de compreensão so-
bre esta poderosa ferramenta da matemática. Na metade do século XIX, o matemático
inglês Arthur Cayley (1821 – 1895) foi o primeiro a estudar matrizes, dando o nome
tableau (em português, ”tabela”). Foi em torno de 180 anos que as matrizes receberam
a importância merecida, com James Joseph Sylvester (1814-1897), em 1850. Em 1855,
Cayley escreveu um artigo usando o termo matriz. Consolidou-se pelos estudos de
Cayley a caracterização mais aprofundadas sobre matrizes e chegou a resultados que
conhecemos ate os dias atuais.
Para uma adequada compreensão desse trabalho é importante que o leitor tenha o
pleno domı́nio das operações de soma e de multiplicação de matrizes, principalmente,
a percepção do fato de que, geralmente, o produto de matrizes não é comutativo, não
são todas as matrizes que podem ser multiplicadas entre si e nem são todas as matrizes
que admitem uma matriz inversa. Tão importante quanto o descrito anteriormente é
possuir um conhecimento geral do cálculo de determinantes. Isso pode ser obtido em
(IEZZI; HAZZAN, 1977).
A necessidade de estudar funções avaliadas em matrizes é fundamental nas diver-
sas aplicações da matemática, ciências e engenharia. O tratamento em geral das matri-
zes são como objetos estáticos, que armazenam informações ou dados, ou formalmente
como funções sobre um corpo. Neste trabalho consideramos a possibilidade de que ter

9
matrizes como variáveis independentes e esclarecemos as funções avaliadas em matri-
zes. Posto isto, estudamos funções com uma matriz como argumento, nomeadas de
”funções matriciais”.
Uma alusão ao que iremos estudar se dá na análise numérica, onde muitas vezes
tem interesse no comportamento de várias quantidades de derivadas de uma matriz,
como valores próprios, valores singulares, vetores próprios, subespaços invariantes,
etc, se a matriz está sujeita a pequenas perturbações; em outras palavras, a matriz é
considerada uma quantidade variável.
Em várias áreas da matemática nos deparamos com alguns problemas que tratam
sobre potência de matrizes, além disso, é possı́vel encontrar questões com a intenção
de buscar um determinado padrão à medida que eleva as potências. Tendo em vista
isto, e indo mais adiante, pensemos no seguinte problema como motivação deste tra-
balho:

Seja A uma matriz, tal que A ∈ Mn×n (K), e p ∈ K[t] um polinômio, o que poderı́amos
compreender por p( A) e como podemos utiliza-lo na resolução da equação matricial X m = A?

Em vista da equação matricial X m = A, elaboramos uma sequência das operações


e condições necessárias, que permite o seu cálculo e, além disso, capacita-nos para

solucionar o caso particular de X m = A, sendo ele X = m A, ou seja, decifrar a equação
principal qualifica-nos para descobrir a raiz quadrada de matrizes quadradas.
Os objetivos eleitos para dar resposta as questões antes mencionadas foram enun-
ciados como segue:
Objetivo Geral:

• Caracterizar as soluções da equação matricial X m = A.

Especı́ficos:

• Estabelecer o uso dos conceitos de anel, corpo, matriz e determinantes;

• Entender a potência de uma matriz;

• Delimitar o uso de matrizes diagonalizáveis e não-diagonalizáveis com decomposição


de Jordan;

• Interpretar p( A), de modo que p ∈ K[t] é um polinômio e A ∈ Mn (K);

• Compreender f ( A), tal que A ∈ Mn (K) e f uma função a valores reais;

• Identificar as soluções do problema de equação matricial X m = A.

10
Os aspectos metodológicos para desenvolver este estudo enfatiza a revisão bibli-
ográfica que tem como baluarte as soluções da equação matricial X m = A.

• Quanto a natureza: Básica, visto que gera conhecimento, podendo ou não inten-
cionar aplicação prática.

• Quanto a abordagem: Qualitativa, utilizada no desenvolvimento e aperfeiçoamento


do problema em questão.

• Quanto aos objetivos:

– Exploratória, proporciona maior familiaridade com o tema, visando a resolução


do problema X m = A.
– Descritiva, descreve as caracterı́sticas do fenômeno estudado.

– Explicativa, identifica as propriedades caracterı́sticas para a ocorrência do


problema X m = A.

• Quanto aos procedimentos técnicos: Bibliográfica, utiliza materiais já publica-


dos.

Esta dissertação tem como público-alvo os docentes e discentes do curso de graduação


em matemática, e tem como proposito esclarecer o campo de estudo para solucionar a
resolução do problema X m = A de forma mais adequada e simples. O contexto desta
exposição é sobretudo teórico e transdisciplinar, permeando a Álgebra, Álgebra Linear,
Análise Numérica e Álgebra Linear Numérica.
Esse presente trabalho se organiza em: Introdução que enfatiza a delimitação do
tema, os objetivos e os aspectos metodológicos da pesquisa. Capı́tulo 1 concentra-se
preliminarmente em apresentar as definições, as notações e os teoremas acerca do anel
de polinômios e matrizes que serão utilizados nos capı́tulos seguintes. Alguns teo-
remas e proposições que seguem são enunciados sem demonstração, por serem resul-
tados auxiliar deste trabalho e/ou vastamente apreciado na literatura. Foi usado, como
referência para esta parte, as obras (ATIYAH, 1969), (COUTINHO, 2012), (GONÇALVES,
1979), (ELBONI, 2006), (HOFFMAN; KUNZE, 1979) e (RODRIGUES, 1995). Capı́tulo
2 consiste em definir polinômios avaliados em matrizes e ”funções matriciais”, mas
não estão presentes nas apresentações tradicionais do assunto. tendo como suporte
(MENDONÇA JUNIOR, 2014) e (HORN; JOHNSON, 1994). Capitulo 3 manuseia de
todo conhecimento visto nos capı́tulos anteriores para identificar as soluções do pro-
blema de equação matricial X m = A, em que é separado em dois casos, primeiramente

11
quando m é ı́mpar e seguidamente quando m é par, sendo necessário observar atenta-
mente a natureza dos autovalores, se são apenas diferentes de zero ou maior igual que
um, além disto são apresentados dois exemplos para m = 2 e m = 3, desfrutando do
conhecimento em (HORN; JOHNSON, 1994) nesta sessão. Subsequente a isto, serão
abordados as considerações finais e as referências.

12
Capı́tulo 1

Conceitos Preliminares

Neste capı́tulo introduziremos algumas noções de álgebra básica como as estrutu-


ras de anel, corpo e além disso incluiremos noções de matrizes, determinantes, dia-
gonalização de matrizes e decomposição de Jordan que serão necessários posterior-
mente neste trabalho.

1.1 Anel dos Polinômio


1.1.1 Anel e Corpo
Inicialmente, iremos definir conceitos indispensáveis, como as estruturas algébricas,
hoje conhecidas como anel e corpo algébrico usando como suporte as referências (ATIYAH,
1969), (COUTINHO, 2012) e (GONÇALVES, 1979).

Definição 1.1.1. Um anel, denotado por (A, +, ·), é um conjunto A munido com as
operações de adição (+) e de multiplicação (·), tendo as seguintes propriedades:

(A1) (Associatividade da adição) Para quaisquer a, b, c ∈ A, temos ( a + b) + c = a +


( b + c );

(A2) (Comutatividade da adição) Para quaisquer a, b ∈ A, temos a + b = b + a;

(A3) (Existência do elemento neutro para a adição) Existe θ ∈ A, tal que a + θ =


θ + a = a, para todo a ∈ A;

(A4) (Existência do elemento simétrico) Para cada a ∈ A, existe a0 ∈ A, tal que a + a0 =


a0 + a = θ;

(M1) (Associatividade da multiplicação) Para quaisquer a, b, c ∈ A, temos ( a · b) · c =


a · ( b · c );

(AM) (Distributividade) Para quaisquer a, b, c ∈ A, temos a · (b + c) = a · b + a · c e


( a + b) · c = a · c + b · c.

13
Exemplo 1.1.1. Inteiros Z, racionais Q, reais R e complexos C são anéis.

Exemplo 1.1.2. O conjunto dos naturais N não é um anel. As propriedades (A1), (A2), (A3),
(M1) e (AM) são válidas, porém, não vale (A4).

Definição 1.1.2. Dizemos que um anel A é comutativo (ou abeliano) se, e somente se,
tem a propriedade:

(M2) (Comutatividade da multiplicação) Para quaisquer a, b ∈ A, temos a · b = b · a.

Exemplo 1.1.3. Nos conjuntos Z, Q, R e C valem a propriedade (M2), ou seja, são anéis
comutativos.

Definição 1.1.3. Dizemos que o anel A tem unidade se, e somente se, A tem a propri-
edade:

(M3) (Existência de elemento neutro multiplicativo) Existe um elemento e ∈ A, tal que


a · e = e · a = a, para todo a ∈ A.

Exemplo 1.1.4. Vale a propriedade (M3) nos anéis Z, Q, R, C e Mn (R). Portanto são anéis
com unidade.

Podemos ter anéis comutativos com unidade, em que o anel possui ambas proprie-
dades.
Inicialmente para classificar uma estrutura algébrica como corpo devemos definir
um elemento invertı́vel.

Definição 1.1.4. Seja A um anel com unidade. Um elemento a ∈ A é dito invertı́vel se,
e somente se, existe um elemento a00 ∈ A, tal que a · a00 = a00 · a = 1 A .
Nesse caso, dizemos que a00 é inverso de a e a é inverso de a00 .

Exemplo 1.1.5. O conjunto R é um anel abeliano com unidade, deste modo qualquer elemento
x ∈ R tem seu elemento inverso em R, ou seja, um elemento y ∈ R que x · y = y · x = 1R ,
onde 1R é o elemento identidade multiplicativo.

Definição 1.1.5. Um anel comutativo com unidade é chamado de corpo se, e somente
se, todo elemento não-nulo é invertı́vel.

Exemplo 1.1.6. Os números racionais Q, os reais R e os complexos C são corpos.

Exemplo 1.1.7. Os quatérnios, H, definida como u + xi + yj + zk onde u, x, y, z ∈ R e i, j e


k são unidades imaginárias tal que (i2 = j2 = k2 = −1), além disso ij = k, jk = i, ki = j,
ji = −k, kj = −i, ik = − j, deste modo, H não forma um corpo, porque a multiplicação não é
comutativa.

14
Definição 1.1.6. Seja A um anel comutativo com unidade. A é um domı́nio se, e so-
mente se, tem a propriedade:
(M4) (Não existem divisores de zero) Se a · b = 0, então a = 0 ou b = 0.
(M4’) Se a 6= 0 e b 6= 0, então a · b 6= 0.

Note que ( M4) e ( M40 ) são equivalentes.


Adiante introduziremos alguns conceitos e resultados da álgebra básica que serão
necessários neste trabalho, tendo como recurso didático (KOERICH, 2000).

1.1.2 Anel dos Polinômios de Uma Variável


Definição 1.1.7. O conjunto A[ x ] é um anel de polinômios com coeficientes no anel
(A, +, ·) definida por:

A[ x ] = { a0 + a1 x + a2 x2 + · · · + an x n ; n ∈ N, ai ∈ A, ∀i ∈ {1, 2, · · · , n}}

Repare que podemos identificar um polinômio constante como p( x ) = a0 , sendo


assim é fácil notar que A ⊆ A[ x ].

Definição 1.1.8. Seja (A, +, ·) anel comutativo com unidade 1, A[ x ] definido acima têm
como elementos os polinômios com apenas uma indeterminada x, do tipo
n
2 n
p ( x ) = a0 + a1 x + a2 x + · · · + a n x = ∑ aj xj,
j =0

em que n ∈ N, a j ∈ A e 0 ≤ j ≤ n.

(i) a j ∈ A, 0 ≤ j ≤ n são os coeficientes do polinômio;

(ii) a0 é o coeficiente nulo;

(iii) Cada a j x j , 0 ≤ j ≤ n é chamado de monômio de p( x ) com a j 6= 0.

(iv) Seja um polinômio não nulo p( x ) = a0 + a1 x + a2 x2 + ... + an x n ∈ A[ x ]. Sendo


assim, existe n ≥ 0 de modo que an 6= 0 e ai = 0, ∀i > n. Definimos grau de p( x )
o natural n, e denotamos como ∂( p) = n. Ou seja,

∂( p) = max {i : ai 6= 0}, p( x ) 6= 0

Proposição 1.1.1. Seja A um anel comutativo com unidade. Então, A[ x ] é um anel comutativo
com unidade. Mais ainda, se A é um domı́nio, então A[ x ] é um domı́nio.

15
Demonstração. Pela definição do conjunto A[ x ], anel de polinômios com coeficientes
em (A, +, ·), é de fácil verificação que tal conjunto é um anel comutativo com unidade.
Só falta a última afirmação. Suponhamos que A é um domı́nio e sejam p( x ), q( x ) ∈
A[ x ] não-nulos. Consideremos os graus de p( x ) e q( x ), respectivamente, ∂( p) = m e
∂(q) = n. Então, temos pela propriedade de grau que ∂( p · q) = ∂( p) + ∂(q) = m + n e
logo, p( x ) · q( x ) 6= 0.

1.1.3 Algoritmo para Divisão de Polinômios


Teorema 1.1.1. Seja K um corpo e seja K[ x ] o domı́nio dos polinômios numa variável sobre
K. Seja ∂ : K[ x ] \ {0} → N a função grau. Então,

∀ p( x ), g( x ) ∈ K[ x ], g( x ) 6= 0, existem únicos q( x ), r ( x ) ∈ K[ x ] tais que


p( x ) = q( x ) · g( x ) + r ( x ), com r ( x ) = 0 ou ∂r ( x ) < ∂g( x )

Demonstração. Demonstração disponı́vel em [6] nas paginas 13 a 15.

Algoritmo 1.1.1 (Algoritmo da Divisão de Euclides). Dados dois polinômios com coefici-
entes em um corpo, p( x ) = ∑im=0 ai xi e g( x ) = ∑in=0 bi xi , onde bn 6= 0 e m ≥ n ≥ 0, este
algoritmo encontra os polinômios q( x ) = ∑im=−0n qi xi e r ( x ) = ∑in=−01 ri xi tais que

p( x ) = q( x ) · g( x ) + r ( x ), onde r ( x ) = 0 ou ∂r ( x ) < ∂g( x ).

Demonstração. É possı́vel encontrar a demonstração em (RODRIGUES, 1995), na pa-


gina 15.

Definição 1.1.9. Um corpo (A, +, ·), ou seja, anel comutativo com unidade, diz-se al-
gebricamente fechado se qualquer polinômio p( x ) ∈ A[ x ], de grau ≥ 1, possui uma
raiz em A.

1.1.4 Interpolação Lagrange-Hermite


Aproximar funções por polinômios é uma técnica muito vantajosa visto que os po-
linômios têm suas derivadas e integrais ainda polinômios e suas raı́zes são encon-
tradas com uma certa facilidade. A interpolação polinomial aproxima uma função
f (·), sobretudo quando a função não é conhecida. Esta situação acontece neste tra-
balho visto que necessita-se manipular f (·) de forma precisa para cada determinada
situação. Subsequentemente iremos evidenciar a interpolação dos valores de uma
função (interpolação de Lagrange), e além disto, consideraremos eventuais valores

16
das suas derivadas (interpolação de Hermite), assim concentraremos nosso foco na
interpolação polinomial.

Teorema 1.1.2 (Teorema Fundamental da Álgebra). Qualquer polinômio p( x ) com coefi-


cientes complexos de uma variável e de grau n ≥ 1 tem alguma raiz complexa. Por outras
palavras, o corpo dos números complexos, C, é algebricamente fechado. Portanto, a equação
p( x ) = 0 tem n soluções não necessariamente distintas.

Demonstração. Podemos encontrar a demonstração desse teorema em (ELBONI, 2006),


páginas 15 até 17.

Teorema 1.1.3. Sejam λi números reais distintos e si ∈ Z+ para i ∈ {1, · · · , µ}, e consi-
µ
deremos g(t) = ∏i=1 (t − λi )ri . Seja f uma dada função de valor real que é definida e possui
derivadas até a ordem si − 1 em λi para todo i = 1, · · · , µ. Então existe um polinômio r (t) de
grau < k − 1 tal que r (u) (λi ) = f (u) (λi ) para u = 0, 1, · · · , si − 1 e i = 1, · · · , µ. Diz-se
que tal polinômio r (t) interpola f (t) e suas derivadas nas raı́zes de g(t) = 0.

Demonstração. O polinômio r do Teorema 1.1.3 é conhecido como o polinômio de interpolação


de Langrage -Hermite a prova da existência está disposto em (HORN; JOHNSON,
1994), nas páginas 390 e 391.

1.2 Matrizes
Didaticamente exibem matrizes, determinantes e sistemas lineares nesta devida or-
dem, porém historicamente esses fundamentos não surgiram dessa forma. O estudo
das matrizes é significativo por sua incumbência com sistemas de equações lineares.
A aparição dos determinantes foi em consequência do sacrifı́cio em resolver sistemas
lineares.
É importante ressaltar que as matrizes, e as técnicas de decomposição de Jordan
em algumas situações, expande, simplifica e ordena as possibilidades de resolução de
diversos problemas em vários campos do conhecimento.
A Decomposição de Jordan é uma forma de representar uma matriz por uma outra
matriz semelhante à original, de modo que a matriz encontrada é quase diagonal, onde
os elementos da diagonal principal ou logo abaixo (ou acima) são os únicos não nulos.
Deste modo, apresentamos os conceitos básicos sobre matrizes, determinantes e
noções sobre decomposição de Jordan, que usaremos mais adiante, mostrando sua
utilidade no estudo visando o objetivo desse trabalho, usando como base em (ELBONI,
2006).

17
Definição 1.2.1. O conjunto das matrizes é definida formalmente como uma função
dada por

A : {1, 2, · · · , m} × {1, 2, · · · , n} −→ K
(i, j) 7−→ A(i, j) = aij

tal que K é um corpo.


Usualmente denominamos uma matriz do tipo m × n uma tabela de m · n elemen-
tos, apresentados em m linhas e n colunas, de modo que aij é um elemento genérico de
A e temos 1 ≤ i ≤ m e 1 ≤ j ≤ n; i, j ∈ N∗ , ou seja:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  ..
 
.. . .. .
.. 
 . . 
am1 am2 · · · amn

Outras formas de denotar a matriz A de elementos aij de ordem m × n é A =


( aij )m×n , A = [ aij ]m×n e também A = || aij ||m×n .

1.2.1 Operações e Relações entre Matrizes


Definição 1.2.2. Na igualdade entre duas matrizes, de mesma ordem, A = [ aij ]m×n
e B = [bij ]m×n , denotamos por A = B, quando aij = bij , ∀i ∈ {1, 2, · · · , m}, j ∈
{1, 2, · · · , n}. Ou seja, a igualdade entre matrizes corresponde um único elemento de
A em não mais que um componente de B.

Definição 1.2.3. A adição de matrizes A = [ aij ]m×n e B = [bij ]m×n , de mesma ordem,
denotado por A + B, é uma matriz C = [cij ]m×n de modo que cij = aij + bij , ∀i ∈
{1, 2, · · · , m}, j ∈ {1, 2, · · · , n}.

Definição 1.2.4. Denotamos como − A = [− aij ]m×n a matriz oposta de A = [ aij ]m×n ,
tal que A + (− A) = 0.

Definição 1.2.5. Dadas duas matrizes A = [ aij ]m×n e B = [bij ]m×n definimos a sub-
tração sendo A − B = A + (− B).

Observação 1.2.1. Note que as operações acima estão definidas apenas para matrizes
de mesma ordem.

Proposição 1.2.1. Considerando as matrizes reais A, B e C de mesma ordem m × n, são


válidos:

1. A + B = B + A comutatividade;

18
2. A + ( B + C ) = ( A + B) + C associatividade;

3. A + 0 = A existência da identidade aditiva, onde 0 é a matriz nula de ordem m × n com


elementos nulos.

4. A + (− A) = 0 existência do simétrico aditivo.

Podemos definir o produto de uma matriz por um escalar sendo o produto de uma
matriz A = [ aij ]m×n por um número real k, originando a matriz B = [bij ]m×n , sendo
que bij = kaij , ∀i ∈ {1, 2, · · · , m}, j ∈ {1, 2, · · · , n}.

Proposição 1.2.2. Sendo A e B matrizes de mesma ordem m × n e α e β constantes reais


quaisquer, valem:

i) α.( β.A) = (α.β).A;

ii) α.( A + B) = α.A + α.B;

iii) (α + β).A = α.A + β.B;

iv) 1.A = A.

Definição 1.2.6. Sejam A = [ aij ] e B = [bij ] matrizes de ordem, respectivamente, m × r


e r × n. O produto de matrizes é definido como C = AB = [cij ] de ordem m × n, em
que
n
cij = ∑ aik bkj = ai1 b1j + · · · + ain bnj
k =1

∀i ∈ {1, 2, · · · , m}, j ∈ {1, 2, · · · , n}.

Observação 1.2.2. Note que para o produto entre matrizes estar bem definido o número
de colunas da primeira matriz deve ser igual ao número de linhas da segunda matriz.
E assim, a matriz resultante tem ordem igual ao número de linhas da primeira matriz
e número de colunas da segunda matriz.

Proposição 1.2.3. Desde que as operações sejam possı́veis, visando a ordem das matrizes, e
considerando α constante real qualquer, temos realizáveis as seguintes operações:

1. A( B + C ) = AB + AC, distributividade à esquerda;

2. ( A + B)C = AC + BC, distributividade à direita;

3. ( AB)C = A( BC ), associatividade;

19
4. (αA) B = A(αB) = α( AB), associatividade e comutatividade entre matrizes e escalar;

5. AI = I A = A, existência de elemento identidade.

Observação 1.2.3. O conjunto Mn (K) denota todas as matrizes quadradas n × n com


entradas em K corpo.

Retomando as definições de matrizes e considerando conhecimento prévio da teo-


ria de anéis, temos:

Exemplo 1.2.1. As matrizes reais Mn (R) é um anel, com as operações usuais de adição e
multiplicação de matrizes.

Exemplo 1.2.2. O anel das matrizes reais Mn (R) quando ∀n ≥ 2 não vale (M2), ou seja, o
produto de matrizes não é comutativo. Logo Mn (R) é anel não comutativo.

1.2.2 Matrizes Especiais e Determinantes


i) Matriz Diagonal: São todas as matrizes quadradas A = [ aij ]n×n tal que aij = 0
para todo i 6= j.

ii) Matriz Unidade ou Identidade: São todas as matrizes quadradas, de ordem n,


denotada por In = [ aij ]n×n , tal que

1, se i = j
In = [ aij ]n×n =
0, se i 6= j

iii) Matriz Inversa: Dada uma matriz A quadrada, de ordem n, se existir um matriz
B, de mesma ordem, tal que A · B = B · A = In . Então B é a matriz inversa de A,
denotamos B = A−1 .

Definição 1.2.7. Seja A ∈ Mn (K) defini-se,

A.A.A.
A0 = In ; A1 = A; Ak = | {z· · · .A} = Ak−1 · A
k f atores
 
1 2
Exemplo 1.2.3. Considere A = ∈ M2 (R), note que
2 3
 0  
0 1 2 1 0
A = = = I2 ;
2 3 0 1
 4        
5 1 2
4 1 2 89 114 1 2 377 610
⇒ A = A ·A= · = · =
2 3 2 3 114 233 2 3 610 987

Definição 1.2.8. Se A = [ a11 ]1×1 , então o determinante de A é dado por det A = a11 .

20
Pensando agora em definir o determinante de matrizes quadradas n × n com n ≥ 2
inserimos o conceito de menor e co f ator.

Definição 1.2.9. Seja A = [ aij ]n×n o menor do elemento aij , denotado por Āij , é a sub-
matriz (n − 1) × (n − 1) obtida de A eliminando-se a i-ésima linha e a j-ésima coluna
de A.

Definição 1.2.10. Dada a matriz A = [ aij ]n×n o cofator do elemento aij , denotado por
Aij , é o número Aij = (−1)i+ j · det Āij .

Definição 1.2.11. Seja A = [ aij ]n×n o determinante de A, denotado por det A, é o


número definido por
n n
det A = ∑ aij Aij = ∑ (−1)i+ j aij det Āij
j =1 j =1

tal que i é qualquer natural fixado entre 1 e n.

Observação 1.2.4. Só existe inversa de uma matriz An quando o determinante de A é


diferente de zero.

1.2.3 Diagonalização de Matrizes


Richard Edler von Mises (1883 - 1953), cientista, nascido na Áustria-Hungria, atual
Ucrânia, foi o responsável em introduzir o método da potência de matriz, em 1929,
tendo como foco maximizar ou minimizar os autovalores e os autovetores. O método
das potências é utilizado em matrizes quadradas, visto isto, daqui em diante utiliza-
remos matrizes quadradas. Além disso, é essencial saber os autovalores das matri-
zes, para esta finalidade iremos apresentar a diagonalização de matrizes. Os conceitos
apresentados abaixo teve como suporte (HOFFMAN; KUNZE, 1979).

Definição 1.2.12. Sejam A, B ∈ Mn (K) com K corpo. Dizemos que B é semelhante a


A, se existe uma matriz invertı́vel P tal que B = PAP−1 .

Definição 1.2.13. Uma matriz An é dita diagonalizável se for semelhante a uma matriz
diagonal.

Segue da Definição (1.2.13), uma matriz An ∈ Mn (K) é dita diagonalizável se exis-


tem matrizes Pn (invertı́vel) e Dn (diagonal) tais que A = PDP−1 .
 
λ1 0 · · · 0
 0 λ2 · · · 0
   
P = v1 v2 · · · vn e D =  ..

.. . . .. 
 . . . . 
0 0 ··· λn

21
como,
A = PDP−1

multiplicando P em ambos os lados, teremos

AP = PDP−1 P

como,
P −1 P = I

e I é o elemento neutro da multiplicação de matrizes, temos

AP = PD

 
λ1 0 · · · 0
     0 λ2 · · ·
 0 
A · v1 v2 · · · v n = v1 v2 · · · vn ·  ..

.. . . .. 
 . . . . 
0 0 ··· λn
   
Av1 Av2 · · · Avn = λ1 v1 λ2 v2 · · · λn vn

da igualdade das matrizes acima, temos

Av1 = λ1 v1 , Av2 = λ2 v2 , · · · , Avn = λn vn

Dada uma matriz An , um escalar λ é chamado autovalor e um vetor não nulo v ∈


Rn é chamado autovetor de A se Av = λv.
Assim, mostramos que se uma matriz An é diagonalizável, ou seja, se existem ma-
trizes P e D tal que A = P−1 DP então as colunas de P são autovetores linearmente
independentes (LI), pois P é invertı́vel, associados aos autovalores λn , que são os ele-
mentos da diagonal de D.
Portanto, para determinar se uma matriz A é diagonalizável, precisamos determi-
nar primeiramente seus autovalores e isso pode ser feito da seguinte maneira:
Resolver a equação fixando λ:
Av = λv

que é equivalente a,
Av = λIv

ou ainda,
Av − λIv = 0 ⇒ detA − λIv = 0

Assim, λ será um autovalor de A se, e somente se, o sistema homogêneo ( A −


λI )v = 0 possuir soluções não triviais, ou seja, deve ter determinante nulo. Além disso,

22
pode-se mostrar que det( A − λI ) = 0 é um polinômio de grau n em λ, onde n é a ordem
da matriz A. Deste modo temos que os autovalores de A são exatamente as raı́zes deste
polinômio, denotado polinômio caracterı́stico de A, ou seja, pcA (λ) = det( A − λI ).

Teorema 1.2.1. Sejam A e B matrizes semelhantes. Então A e B têm o mesmo polinômio


caracterı́stico e, consequentemente, os mesmos autovalores.

Demonstração. Sendo A e B matrizes semelhantes, isto é existe uma matriz invertı́vel P


tal que B = PAP−1 .
Assim,

PB ( x ) = det( xI − B) = det( xI − PAP−1 ) = det( P( xI − A)( P−1 ))

= det( P)det( xI − A)det( P−1 ) = det( xI − A) = PA ( x )

Sendo os polinômios caracterı́sticos iguais e como os autovalores são as raı́zes desse


polinômio, segue que A e B têm os mesmo autovalores. O conceito de diagonalização
de matrizes, será usado mais a frente para cálculo de potências de matrizes.

Teorema 1.2.2. Uma matriz A ∈ Mn (K) é diagonalizável se, e somente se, A tem n autova-
lores linearmente independentes, ou seja, distintos.

Demonstração. ⇒) Supondo que A seja uma matriz diagonalizável, então existe uma
 
matriz invertı́vel P = v1 v2 · · · vn , onde vi são vetores coluna n × 1, tal que A =
PDP−1 , com D uma matriz diagonal:
 
λ1 0 · · · 0
 0 λ2 · · · 0 
.
 
 .. .. . . ..
 . . . . 
0 0 ··· λn

Como A = PDP−1 ⇒ P−1 AP = D ⇒ AP = PD, temos:


 
λ1 0 · · · 0
 0 λ2 · · · 0 

   
AP = PD ⇔ A v1 v2 · · · v n = v1 v2 · · · vn  .. .. . . . ⇔
 . . . .. 
0 0 · · · λn

 Av1 = λ1 v1


⇔ Av1 Av2 · · ·
 
Avn = λ1 v1 λ2 v2

· · · λn vn ⇔ ..
 .
 Av = λ v
n n n

Como P é invertı́vel, não pode ter colunas nulas, isto é, vi 6= eV tal que eV = α1 v1 +
· · · + αk vk + αk+1 vk+1 . Portanto, λ1 , · · · , λn são autovalores de A com v1 , · · · , vn os

23
autovetores associados, respectivamente. E sendo P invertı́vel, suas colunas são line-
armente independentes, e assim, A possui n autovetores linearmente independentes.
⇐) Reciprocamente, suponha que A tem n autovetores linearmente independentes
v1 , · · · , vn , associados aos autovalores λ1 , · · · , λn , não necessariamente distintos. Seja
 
P a matriz cujas colunas são os autovetores de A, ou seja, P = v1 v2 · · · vn . Como
P é uma matriz quadrada n × n e suas colunas são L.I., temos que P é invertı́vel. Assim,
temos:

 Av1 = λ1 v1

.. 
⇔ Av1 Av2 · · ·
 
Avn = λ1 v1 λ2 v2 · · ·

λn vn ⇔
 .
 Av = λ v
n n n
 
λ1 0 · · · 0
 0 λ2 · · ·
 0
   
⇔ A v1 v2 · · · v n = v1 v2 · · · vn  .. ⇔

.. . . ..
 . . . . 
0 0 ··· λn
AP = PD ⇔ A = PDP−1 .

Logo, A é semelhante a D, uma matriz diagonal, o que mostra que A é diagonalizável.

1.2.4 Decomposição de Jordan


Nosso próximo objetivo é decompor matrizes não diagonalizáveis na forma de Jor-
dan, ou seja, em uma matriz ”quase”diagonal. Sabendo da sua real importância este
resultado têm múltiplos métodos e maneiras de ser tratado. A forma e técnica ex-
posto neste trabalho é de forma que facilite a compreensão do conteúdo, e além disso,
é fundamental representar matrizes não diagonalizáveis de forma diagonal ou quase
diagonal para a aplicação dos teoremas, lemas e corolários futuros para solucionar a
equação matricial X m = A.
Inicialmente, para simplificar futuras notações iremos introduzir a definição abaixo
de soma direta de matrizes quadradas.

Definição 1.2.14. Seja Ani ∈ Mni (K) onde i ∈ {1, · · · , k} tal que ∑ik=1 ni = n, a soma
direta das matrizes Ani é a matriz
 
A n1 0 0 0
 0 An 0 0 
2
A n1 ⊕ · · · ⊕ A n n =  .. ..  ∈ Mn
 
.. . .
 . . . . 
0 0 0 A nk

Observação 1.2.5. Toda matriz pode ser colocado na forma canônica de Jordan se seus
polinômios mı́nimo e caracterı́stico forem fatorados em polinômios lineares.

24
As definições e os teoremas acerca do bloco de Jordan e bloco de Jordan nilpotente,
que serão apresentados em seguida, é especialmente para dar suporte na aplicação do
teorema que irá auxiliar-nos na resolução do objetivo geral deste trabalho.

Definição 1.2.15. Seja λ ∈ K e k ∈ N∗ . Um bloco de Jordan de ordem k associado a λ


é uma matriz Jk (λ) definida como

1 0
 
λ
 ... ... 
Jk (λ) =  .
 
 . . . 1
0 λ

Definição 1.2.16. Um bloco de Jordan nilpotente é formado por elementos 1 na dia-


gonal acima da diagonal principal, ou seja

1 0 0
 
  ... ... 
1, se j = i + 1
Nij = =
 
0, se j 6= i + 1  . . . 1

0 0

tal que i, j ∈ {1, · · · , k }.

Observação 1.2.6. Observe que Jk (λ) = λIk + Nk .

Definição 1.2.17. Uma matriz quadrada J é dita estar na forma canônica de Jordan se
 
Jn1 (λ1 ) 0
 Jn2 (λ2 ) 
J = Jn1 (λ1 ) ⊕ · · · ⊕ Jnm (λm ) = 
 
 ... 

0 Jnm (λm )

onde cada Jni representa um bloco de Jordan.

Teorema 1.2.3. Note que,


Jk (λ) = λIk + Nk

onde 
1, se j = i + 1
Nij =
0, se j 6= i + 1
tal que i, j ∈ {1, · · · , k}. Se λ = 0 então Jk (0) = Nk .

Demonstração. A demonstração decorre direto da Definição 1.2.15, veja que

Jk (λ) = λIk + Nk ⇒ seja λ = 0 então Jk (0) = 0Ik + Nk ⇒ Jk (0) = Nk

como querı́amos.

25
Exemplo 1.2.4. Seja
J3 (0) = 0I3 + N3 = N3

temos que 
1, se j = i + 1
( J3 (0))ij =
0, se j 6= i + 1
Então  
0 1 0
J3 (0) = 0 0 1 .
0 0 0

Lema 1.2.1. Seja ( Jk (0))ij ∈ Mk (K) o bloco de Jordan associados a λ = 0, então para todo
s ∈ {1, · · · , k − 1} 
1, se j = i + s
( Jks (0))ij = ,
0, se j 6= i + s
para todo i, j ∈ {1, · · · , k }.

Demonstração. Faremos a demonstração através do principio da indução finita. Lem-


brando que pela Observação (1.2.3) temos que Jk (0) = Nk Sabemos que Nks = Nks−1 Nk .
Por hipótese temos ( Nk )ij .

1, se j = i + (s − 1)
E suponhamos que ( Nks−1 )ij = como verdadeira, ou seja, a
0, se j 6= i + (s − 1)
hipótese de indução.
Assim, note que
k
( Nks−1 Nk )ij = ∑ ( Nks−1 )ir (nk )rj
r =1

1, se r = i + (s − 1) ∧ j = r + 1
⇒ ( Nks )ij =
0, caso contrário

1, se j = (i + (s − 1)) + 1
⇒ ( Nks )ij =
0, caso contrário

1, se j = i + s
⇒ ( Nks )ij =
0, caso contrário
Concluı́mos assim o que desejávamos.

Até então, foi apresentadas as definições e resultados que servirão como base para
o tratamento e personalização da matriz envolvida na equação matricial X m = A, de
modo que esteja de adequado para introduzi-lo nos futuros teoremas para solucionar
o problema.

26
Capı́tulo 2

Polinômios e Matrizes

Inúmeros conceitos interessantes em particular a teoria de matrizes avaliados em


polinômios foi motivado por aplicações em sistemas elétricos com número finito de
grau de liberdade, encontrado em (LANCASTER, 1966). Outros empregos dos funda-
mentos das matrizes associados em polinômios estão explicito na teoria nos sistemas
mecânicos acha-se em (WHITTAKER, 1952).
Todo este capitulo foi dedicado ao estudo de matrizes quadradas, pois neste con-
texto é possı́vel diminuir os casos em que as operações matriciais não são válidas. Uti-
lizamos as obras de (MENDONÇA JUNIOR, 2014) e (HORN; JOHNSON, 1994) como
suporte.

2.1 Funções Polinomiais em Uma Matriz


A motivação desta etapa é entender o que ocorre, caso dado um polinômio, o que
representaria avaliar uma matriz neste polinômio. Assim, nesta seção, utilizando os
conhecimentos apresentados acima, será apresentado os princı́pios sobre matrizes as-
sociadas à polinômios.

2.1.1 Funções Polinomiais em uma Matriz Diagonal


Definição 2.1.1. Seja K corpo, p( x ) = ∑in=0 ai xi ∈ K[ x ], tal que p( x ) é um polinômio
com coeficientes ai ∈ K; i ∈ {0, 1, · · · , n}, tal que n ≥ 1 e n 6= 0. Dada A ∈ Mn (K)
definimos p em A como
n
p( A) := ∑ ai Ai .
i =0

Exemplo 2.1.1. Sejam a0 , a1 , a2 elementos de R, p(t) = a2 t2 + a1 t + a0 ∈ Mn (R). Assim,

27


1 2
seja a matriz A = , iremos calcular p( A), deste modo
3 4

2
p( A) = ∑ a i A i = a0 A0 + a1 A1 + a2 A2
i =0
          
1 0 1 2 7 10 a0 0 a1 2a1 7a2 10a2
= a0 + a1 + a2 = + +
0 1 3 4 15 22 0 a0 3a1 4a1 15a2 22a2
 
a + a1 + 7a2 2a1 + 10a2
⇒ p( A) = 0
3a1 + 15a2 a0 + 4a1 + 22a2

Definição 2.1.2. Seja p( A) obtida através do polinômio p( x ) substituindo a variável x


pela matriz A. Se p( A) for a matriz nula, ou seja p( A) = 0, dizemos que A é zero ou
raiz de p( x ).
 
1 2
Exemplo 2.1.2. Se A = então,
3 −4
    
2 1 2 1 2 7 −6
A = = .
3 −4 3 −4 −9 22

Seja p( x ) = x2 + 3x − 10. Então


       
7 −6 1 2 1 0 0 0
g( A) = −3 − 10 = .
−9 22 3 −4 0 1 0 0

Assim, A é um zero do polinômio p( x ).

Observação 2.1.1. Os polinômios mı́nimos e caraterı́sticos de uma matriz são exemplos


de funções polinomiais em uma matriz.

Em seguinte será apresentado e demonstrado um lema de forma que conseguire-


mos a igualdade ( BAB−1 )m = BAm B−1 auxiliando, desta forma, na demonstração do
teorema posterior.

Lema 2.1.1. Sejam A, B ∈ Mn (R). Se B é invertı́vel, então ( BAB−1 )m = BAm B−1 para
todo m ∈ N.

Demonstração. A demonstração deste lema será feita através de indução. Inicialmente,


tomemos m = 1, logo a igualdade é imediato, pois

( BAB−1 )1 = BAB−1 = BA1 B−1

Seja m = k, têm-se como verdade a hipótese de indução

( BAB−1 )k = BAk B−1

28
Quer-se provar que para m = k + 1 a igualdade também é verdadeira.
Note que utilizando as propriedades de potência de uma matriz,

( BAB−1 )k+1 = ( BAB−1 )k ( BAB−1 )1

então pela hipótese de indução e por m = 1 temos,

( BAB−1 )k+1 = ( BAk B−1 )( BA1 B−1 )

e como o produto de matrizes é associativo,

( BAB−1 )k+1 = ( BAB−1 )k ( BAB−1 )1 = ( BAk B−1 )( BAB−1 )

= BAk ( B−1 B) AB−1 = BAk ( In ) AB−1 = B( Ak In ) AB−1


= B( Ak A) B−1 = BAk+1 B−1
ou seja,
( BAB−1 )k+1 = BAk+1 B−1
assim concluı́mos a demonstração.

Teorema 2.1.1. Sejam A, B ∈ Mn (R) e p ∈ R[t]. Se B é invertı́vel, então

p( BAB−1 ) = Bp( A) B−1 .

Demonstração. Queremos provar que a igualdade acima, para isto desenvolvendo o


lado esquerdo desta igualdade temos
m
p( BAB−1 ) = ∑ ai ( BAB−1 )i = a0 ( BAB−1 )0 + · · · + am ( BAB−1 )m
i =0

usando o Lema (2.1.1) temos

= a0 ( BA0 B−1 ) + · · · + am ( BAm B−1 )

pela Proposição (1.2.3) sabemos que matrizes são associativas e comutativas com esca-
lares, assim
= B ( a 0 A 0 ) B −1 + · · · + B ( a m A m ) B −1
deste modo
m
B( a0 A0 ) B−1 + · · · + B( am Am ) B−1 = B( ∑ ai Ai ) B−1 = Bp( A) B−1
i =0

Deste modo, concluı́mos que,

p( BAB−1 ) = Bp( A) B−1

como querı́amos.

29
f ( A) é sempre um polinômio na matriz A (com coeficientes dependendo da função
f ), que pode ser facilmente obtido se são conhecidos os autovalores de A. Essa técnica
habitual na Álgebra Linear Numérica, tem sido esquecida nos textos de Álgebra Linear.
Nosso objetivo aqui é mostrar que toda função pode ser interpolado em um polinômio,
deste modo associando a matriz nesta função.

Teorema 2.1.2. Se A = diag(λ1 , λ2 , · · · , λn ) e p ∈ R[t], então


 
p ( λ1 ) 0
p( A) = diag( p(λ1 ), p(λ2 ), · · · , p(λn )) =  .. .
.
 
0 p(λn )

Demonstração. Vamos provar por indução sobre n. É claro que é verdadeira para n = 1,
pois A = diag(λ1 ) então
1
p( A) = ∑ ai λ1i = a1 λ1 + a0 λ01
i =0

⇒ p(diag(λ1 )) = a1 λ1 + a0

e
1
diag( p(λ1 )) = diag( ∑ ai λ1i )
i =0

⇒ diag( p(λ1 )) = a1 λ1 + a0

ou seja,
 
p( A) = p(diag(λ1 )) = diag( p(λ1 )) = p(λ1 ) .

Suponha verdadeira para algum i = n, assim, seja A = diag(λ1 , · · · , λn ) então


 
p ( λ1 ) 0
p( A) = p(diag(λ1 , · · · , λn )) = diag( p(λ1 ), · · · , p(λn )) = 
 ... .

0 p(λn )

Iremos provar que o resultado, neste caso, vale para i = n + 1.


Considere, inicialmente, as seguintes notações para melhor visualização da demonstração
   
p ( λ1 ) 0 λ1 0
p( Ak ) = 
 .. k
e A =
  .. 
. . 
0 p(λn ) 0 λn
e consequentemente,

p( Ak )
   k 
k +1 0 k +1 A 0
p( A )= eA =
0 p ( λ n +1 ) 0 λ n +1

30
Agora, observe abaixo
 
λ1 0 0
.. ..   Ak 0

.

A k +1 = 
 . 
=
0 λn 0  0 λ n +1
0 ··· 0 λ n +1

então temos,
p( Ak )
 
k +1 0
p( A )=
0 p ( λ n +1 )
e pela hipótese de indução, podemos concluir

p( Ak+1 ) = p(diag(λ1 , · · · , λn , λn+1 )) =


 
p ( λ1 ) 0 0
.. ..
.
 
= diag( p(λ1 , · · · , λn , λn+1 )) = 
 . 

 0 p(λn ) 0 
0 ··· 0 p ( λ n +1 )
ou seja,  
p ( λ1 ) 0 0
.. ..
.
 
p ( A k +1 ) = 
 . 

 0 p(λn ) 0 
0 ··· 0 p ( λ n +1 )
como querı́amos demostrar.

Corolário 2.1.1. Sejam B uma matriz invertı́vel e p ∈ R[t]. Se A = diag(λ1 , λ2 , · · · , λn ).


Então,
p( BAB−1 ) = Bp( A) B−1 = B diag( p(λ1 ), p(λ2 ), · · · , p(λn )) B−1 .

Demonstração. A demonstração se deduz a partir do Teorema (2.1.1) e (2.1.2), pois é um


caso particular.

Corolário 2.1.2. Seja A ∈ Mn (R) uma matriz diagonalizável da forma A = SΛS−1 com
Λ = diag(λ1 , λ2 , · · · , λn ) e p(t) ∈ R[t]. Então
 
p ( λ1 ) 0
p( A) = S 
 ...  −1
S
0 p(λn )

Demonstração. Visto que A = SΛS−1 , temos

p( A) = p(SΛS−1 )

pelo Corolário (2.1.1)

31
⇒ p(SΛS−1 ) = Sp(Λ)S−1

pelo Teorema (2.1.2)


 
p ( λ1 ) 0
⇒ Sp(Λ)S−1 = S 
 ...  −1
S
0 p(λn )
Concluı́mos assim o que desejávamos,
 
p ( λ1 ) 0
p( A) = S 
 ... 

0 p(λn )

Ao derivar esta fórmula, usamos uma propriedade importante das funções polino-
miais escalares p(t) que p(SΛS−1 ) compartilhada por funções analı́ticas escalares, mas
não por outras funções, como polinômios com valor de matriz.

2.1.2 Funções Polinomiais em uma Matriz Não Diagonalizável


De forma semelhante à seção anterior, o objetivo desta sessão é mostrar como se
avalia uma matriz em um polinômio dado, porém iremos tratar de matrizes não dia-
gonalizáveis. Assim, utilizaremos a decomposição de Jordan para tornar essas matri-
zes ”quase diagonal”encontrando uma matriz com autovalores na diagonal principal,
e uns ou zeros no diagonal imediatamente acima da diagonal principal.

Lema 2.1.2. Seja Jk (λ) = λIk + Nk um bloco de Jordan, então


r  
r
( Jk (λ)) = ∑
r
λr −s N s .
s =0
s

Demonstração. Note que,


( Jk (λ))r = (λI + N )r

pelo Binômio de Newton temos,


 r
r
⇒ ( Jk (λ)) = ∑
r
(λI )r−s N s
s =0
s

r
 
r
⇒ ( Jk (λ)) = ∑
r
λr −s I r −s N s
s =0
s
r  
r
⇒ ( Jk (λ)) = ∑
r
λr −s I N s
s =0
s

32
  r
r
⇒ ( Jk (λ)) = ∑ r
λr −s N s
s =0
s

Teorema 2.1.3. Seja p(λ) = ∑m


j=1 ai λ ∈ K[ λ ], então a i-ésima derivada de p ( λ ) é dada por
i

m
j!
p (i ) ( λ ) = ∑ ( j − i ) ! a j λ j −i .
j =i

j!
Demonstração. Seja p(λ) = ∑m k (i ) m
k=0 ak λ então provaremos agora que p ( λ ) = ∑ j=i a λ j −i .
( j −i ) ! j
Faremos isso através de indução. Seja i = 1, então
m
j!
p (1)
(λ) = mam λ m −1
+ ( m − 1 ) a m −1 λ m −2
+ · · · + a1 = ∑ ( j − 1 ) ! a j λ j −1 .
j =1

Consideremos agora, como hipótese de indução, que satisfaz para i = k, assim

p(k) (λ) = mam λm−1 + (m − 1) am−1 λm−2 + · · · + k (k − 1) · · · (m − (k + 1)) am λm−k


m
j!
= ∑ ( j − k )! a j λ j−k
j=k

Deste modo, concluı́mos a demonstração.

Lema 2.1.3. Seja Jk (λ) ∈ Mn (R) um bloco de Jordan e p ∈ R[t], então


 
p(λ) p(1) (λ) 12 p(2) (λ) · · · (k−11)! p(k−1) (λ)

( 1 ) ... .. 
 0
 p(λ) p (λ) . 

p( Jk (λ)) =  0
 .. 1 ( 2 ) .

 0 p(λ) . 2 p ( λ ) 
 . . . ( 1 )

 p (λ) 
0 0 0 ··· p(λ)

Demonstração. Observe que


m m
p( Jk (λ)) = ∑ a j ( Jk (λ)) j = ∑ a j (λIk + Nk ) j
j =0 j =0

pelo Lema 2.1.2 temos


 m j
j
= ∑ aj ∑ λ j−i Nki
j =0 i =0
i
       
0 1 1 m
= a0 0
N + a1 0
λN + a1 1
N + · · · + am λm N 0 +
0 0 0 0
   
m m −1 m
+ am λ N + am Nm
1 m

33
agrupado os termos N i em que i ∈ {0, · · · , m} temos
       
0 1 m
= a0 + a0 λ + · · · + a0 λm N 0 +
0 0 0
         
1 2 m m −1 m
+ a1 + a1 λ + · · · + a1 λ 1
N + · · · + am Nm
1 1 1 m
!
m m  
j
=∑ ∑ a j λ j−i Nki
i =0 j = i
i

j
sabemos que = i!( jj!−i)! , assim obtemos
i
! !
m m m m µ
j! 1 j! 1 (i )
=∑ ∑ a j λ j −i N i = ∑ ∑ a j λ j −i
N i
= ∑ P (λ) N i
i =0 j = i
i! ( j − i ) ! i =0
i! j =i
( j − i ) ! i =0
i!

de modo que µ = min{m, k − 1}.


Desta maneira concluı́mos que
µ
1
p( Jk (λ)) = ∑ i! p(i) (λ) N i
i =0

ou seja,  
p ( λ ) p (1) ( λ ) 1 (2)
2 p (λ) ··· 1
( k −1) !
p ( k −1) ( λ )
 .. .. 
 0
 p(λ) p (1) ( λ ) . . 

p( Jk (λ)) =  0
 .. 1 (2)

(2.1)
 0 p(λ) . 2 p (λ)


..
p (1) ( λ )
 
 . 
0 0 0 ··· p(λ)

Teorema 2.1.4. Sejam A uma matriz Mn (R) não diagonalizável, q A (t) = ∏is=1 (t − λi )ni
seu polinômio minimal com ∑is=1 ni = n e p ∈ R[t]. Se a forma canônica de Jordan de A é
SJS−1 com  
Jn1 (λ1 ) 0
J=
 ... 

0 Jns (λs )
então,  
p( Jn1 (λ1 )) 0
p( A) = S 
 ...  −1
S
0 p( Jns (λs ))
onde p( Jk (λ)) esta definida pela Equação (2.1), com k ∈ {n1 , · · · , ns } e λ ∈ {λ1 , · · · λs }.

34
Demonstração. Dado A = SJS−1 note que

p( A) = p(SJS−1 )

pelo Corolário 2.1.1 e Observação 1.2.6 temos

p(SJS−1 ) = Sp(diag(λ1 In1 + Nn1 ), · · · , (λs Ins + Nns ))S−1

pelas propriedades matriciais, polinomiais e como λk Ink onde k ∈ {1, · · · , s} são dia-
gonais obtemos

= S[diag( p(λ1 In1 ), · · · , p(λs Ins )) + diag( p( Nn1 ) + p( Nns ))]S−1

utilizando as propriedades matriciais e polinomiais e Observação 1.2.6 novamente con-


seguimos

Sdiag( p(λ1 In1 + Nn1 ), · · · , p(λs Ins + Nns ))S−1 = Sp( J )S−1

Então, provamos a igualdade


 
p( Jn1 (λ1 )) 0
p( A) = Sp( J )S−1 = S 
 ...  −1
S
0 p( Jns (λs ))

como querı́amos.

2.2 Funções Escalares de Uma Matriz


O ponto a ser estudado nesta seção é a definição de f ( A) de modo a tornar natural
a noção ampla de função associada a uma matriz.

2.2.1 Funções não Polinomiais em Matrizes


À princı́pio iremos falar das funções não polinomiais em matrizes tendo em vista
inicialmente as matrizes diagonalizáveis e posteriormente as matrizes não diagona-
lizáveis com decomposição de Jordan.

Observação 2.2.1. Para a seguinte definição consideraremos A ∈ Mn com polinômio


minimal
q A ( t ) = ( t − λ 1 ) r1 . · · · . ( t − λ s ) r s

onde λ1 , · · · , λs são distintos e todos ri ≥ 1 para todo i, j ∈ {1, · · · , s}, e A = SJS−1 ,


onde J é uma matriz na Forma Canônica de Jordan.

35
Definição 2.2.1. Seja A ∈ Mn como na Observação 2.2.1 acima. Consideremos a f :
R → R, D = dominio ( f ) que verifica: i ) cada λi ∈ D; ii ) se ri > 1 então λi ∈ int( D );
iii ) f é (ri − 1)-vezes diferenciável em λi , se ri > 1.
A matriz primária de A associada a f está definida como
 
f ( Jn1 (λ1 )) 0
−1
f ( A) = S f ( J )S = S 
 . ..  −1
S
0 f ( Jns (λs ))

onde
 
f ( λ ) f (1) ( λ ) 1 (2)
2f (λ) ··· 1
( k −1) !
f ( k −1) ( λ )
 .. .. 
 0
 f (λ) f (1) ( λ ) . . 

f ( Jk (λ)) =  0
 ... 1 (2)  ; k ∈ { n1 , · · · , n s }.

 0 f (λ) 2f (λ) 
...
f (1) ( λ )
 
 
0 0 0 ··· f (λ)

Teorema 2.2.1. Seja A ∈ Mn (R) e q A (t) = (t − λ1 )r1 · · · (t − λµ )rµ o polinômio minimal de


A, onde com λi 6= λ j e ri ≥ 1 para todo i, j ∈ {1, · · · , µ}. E sejam f e g duas funções escalares
cujos domı́nios incluem os pontos λ1 , · · · , λµ . Para cada λi com ri > 1, suponha que λi está no
interior dos domı́nios de f (t) e g(t) e que cada função são (ri − 1)-vezes diferenciáveis em λi .
Sejam f ( A) e g( A) as matrizes primárias associadas às funções f e g respectivamente. Então:

(a) Existe um polinômio r de grau menor ou igual que n − 1 tal que f ( A) = r ( A), onde r
pode ser considerado como qualquer polinômio que interpola f e suas derivadas nas raı́zes
da equação q A (t) = 0.

(b) A matriz primária de A associada a f , f ( A), esta bem definida, ou seja, o valor de f ( A)
é independente da forma canônica de Jordan particular usada para representar A.

(c) f ( TAT −1 ) = T f ( A) T −1 para qualquer T ∈ Mn não singular.

(d) g( A) = f ( A) se, e somente se,

g (u) ( λi ) = f (u) ( λi )

para todo u ∈ {0, · · · , ri − 1} e i ∈ {1, · · · , µ}.

(e) Se A tem a forma canônica de Jordan ⊕is=1 Jn1 (λµi ), onde 1 < µi ≤ µ para todo i ∈
{1, · · · , s} e n1 + · · · + ns = n, então a forma canônica de Jordan da f ( A) é

⊕is=1 Jni (λµi ).

36
Demonstração. (a) Considere o polinômio r (t) de Lagrange-Hermite dado pelo Te-
orema 1.1.3. Então r (u) (λi ) = f (u) (λi ) para u ∈ {0, 1, · · · , ri − 1} com i ∈
{1, · · · , s}, portanto, uma comparação do Lema 2.1.3 com a Definição 2.2.1 mos-
tra que f ( A) = r ( A);

(b) Para esta prova suponha A = SJS−1 = T J 0 T −1 , onde J e J 0 são matrizes Jordan.
Então J 0 = PJP T para alguma matriz de permutação (bloco) P, e portanto pela
Definição 2.2.1 temos f ( J 0 ) = P f ( J ) P T . Seja r ( T ) um polinômio tal que r ( J ) =
f ( J ), como garantido em (a). Então

T f ( J 0 ) T −1 = TP f ( J ) P T T −1 = ( TP)r ( J )( TP)−1 = r (( TP) J ( TP)−1 ) =

= r ( TPT JP T T −1 ) = r ( T J 0 T −1 ) = r ( A) = r (SJS−1 ) = Sr ( J )S−1 = S f ( J )S−1

então o valor da matriz primária de A associada a f , f ( A), é independente da


forma canônica de Jordan usada para apresentar A;

(c) Para esta demonstração a observação principal é que a forma canônica de Jordan
de A não é alterada pela similaridade de A. Se A = SJS−1 , então TAT −1 =
( TS) J ( TS)−1 e

f ( TAT −1 ) = ( TS) f ( J )( TS)−1 = T [S f ( J )S−1 ] T −1 = T f ( A) T −1 ;

(d) Segue imediatamente da Definição 2.2.1;

(e) Segue imediatamente da Definição 2.2.1 se a similaridade que reduz a soma di-
reta à forma canônica de Jordan for escolhida para ser a soma direta das semelhanças
que reduzem cada soma direta à forma canônica de Jordan.

Corolário 2.2.1. Sejam A ∈ Mn , e f e g funções de variável real que verificam as hipóteses


do Teorema 2.2.1 acima, e h(t) = f ( g(t)). Então, a matriz primaria h( A) está definida e
h( A) = f ( g( A)).

Demonstração. Seja A a forma canônica de Jordan dada por (6.2.5), então g( A) é dado
por (6.2.6). Pelo Teorema (6.2.9 (g)), a forma canônica de Jordan de g( A) é a soma direta
das formas canônicas de Jordan de g( Jni (αµi )), i = 1, · · · , s. Mas cada bloco Jordan na
forma canônica Jordan de g( Jni (αµi )) tem um tamanho no máximo ni , que não é maior
do que o expoente correspondente a λµi no polinômio mı́nimo de A, i = 1, · · · , s. As-
sim, as suposições de domı́nio e diferenciabilidade em g(t) e f (t) são adequadas para
garantir que as funções de matriz primária g( A) e f ( g( A)) sejam ambas definidas por
(6.2.4). Similarmente, a aplicação repetida da regra da cadeia mostra que a função h(t)

37
atende às condições de domı́nio e diferenciabilidade necessárias para definir a função
de matriz primária h( A) por (6.2.4). Use a fórmula de Lagrange-Hermite (6.1.16) para
(u) (u)
construir polinômios r1 (t) e r2 (t) de forma que r1 ( g(λi )) = f (u) ( g(λi )) e r2 (ti ) =
g(u) (ti ) para u ∈ {0, 1, · · · , ri − 1} e i ∈ {1, cdots, µ}. Então, r1 ( g( A)) = f ( g( A)),
r2 ( A) = g( A) e r1 (r2 ( A)) = r1 ( g( A)) = f ( g( A)) pelo Teorema (6.2.9 (e)). Agora con-
sidere o polinômio r3 (t) ≡ r1 (r2 (t)). Agora considere o polinômio r3 (t) = r1 (r2 ( A)),
que, por ser uma composição de polinômios, satisfaz r3 ( A) = r1 (r2 ( A)). O uso re-
(u)
petido da regra da cadeia mostra que r3 (λi ) = h(u) (λi ) para u ∈ {0, 1, · · · , ri − 1} e
i ∈ {1, · · · , s}, então h( A) = r3 ( A) pelo Teorema (6.2.9 (e)) novamente. Concluı́mos
que h( A) = r3 ( A) = r1 (r2 ( A)) = f ( g( A)).

Teorema 2.2.2. Seja A ∈ Mn (R) uma matriz diagonalizável da forma A = SΛS−1 com
Λ = diag(λ1 , λ2 , · · · , λn ) e f : R → R. Então
 
f ( λ1 ) 0
f ( A) = S  ..  −1
S .
.

0 f (λn )

Demonstração. A demonstração decorre direto do Teorema 2.2.1 item (c).

Exemplo 2.2.1. Suponha que a função de valor escalar f esta definida em uma vizinhança
 de
λ 1
um dado ponto λ ∈ R, e considere as matrizes diagonalizáveis Ae = observe que
0 λ+e
Ae = Se Λe Se−1 com
     
λ 0 1 1 −1 1 e −1
Λ= , Se = e Se = , e 6= 0.
0 λ+e 0 e e 0 1

Então, usando Corolário 2.1.2, f ( Ae ) esta definida para todo e diferente de zero suficientemente
pequeno. " #
[ f (λ+e)− f (λ)]
 
f (λ) 0
f ( A e ) = Se S −1 = f ( λ ) e .
0 f (λ + e) e 0 f (λ + e)
Como Ae tende a J2 (λ) quando e → 0, se f é contı́nua e diferenciável em t = λ podemos dizer
que o valor de f ( J2 (λ)) deve ser

f (λ) f 0 (λ)
 
f ( J2 (λ)) = .
0 f (λ)

Corolário 2.2.2. Sejam A ∈ Mn e f que verifiquem as hipóteses do Teorema 2.2.1 acima. Se


f (ti ) 6= 0 para cada i tal que ri > 1, então existe X0 ∈ Mn , tal que f ( X0 ) = A. Além disso,
existe uma função g tal que X0 é a matriz primaria de A associada a g, isto é g( A) = X0 .

38
Demonstração. Se todo ri = 1 não há nada a provar. Suponha que existe i tal que ri > 1.
Aplicando o teorema da função inversa a f temos que existe uma vizinhança aberta
Ni de λi onde existe uma função gi (s) para a qual f ( gi (s)) = s, e gi (s) é (ri − 1)−
vezes diferenciável em s = λi . Seja Ni = {λi } para aqueles i taes que ri = 1. Sem
perda de generalidade podemos assumir que os conjuntos N1 , · · · , Nµ são disjuntos.
Seja D 0 = i = 1 Ni . para s ∈ D 0 , definimos g(s) = gi (s) se s ∈ Ni , i = 1, · · · , µ. Então

f ( g(s)) = s para todo s ∈ D 0 , assim, a matriz primária g( A) esta definida, e o Corolário


2.2.2 temos que f ( g( A)) = A.
As condições suficientes no corolário anterior não são necessárias para a existência
de uma solução para f ( X ) = A. Por exemplo, considere. Observe que
   
0 0 1 0 0 1 0 0
0 0 0 1
 e A = 0 0 0 0 = J2 (0) ⊕ J2 (0)
 
X0 = 
0 1 0 0 0 0 0 1
0 0 0 0 0 0 0 0

Observe que X0 = PJ4 (0) P T para uma matriz de permutação adequada P, e que
( X0 )2 = A. A função f (t) = t2 não satisfaz o básico da condição do teorema da função
inversa: f (0) 6= 0. No entanto, f ( X0 ) = A. Além disso, X0 não é uma função de
matriz primária de A uma vez que nenhum bloco de Jordan de uma função de matriz
primária de A pode ser maior que o maior bloco Jordan de A.

Apresentamos até aqui definições, teoremas, lemas e corolários fundamentais para


auxiliar na identificação das soluções do problema de equação matricial X m = A no
capı́tulo seguinte, além disto, são apresentados dois exemplos para m = 2 e m = 3,
em que é separado em dois casos, primeiramente quando m é ı́mpar e seguidamente
quando m é par desfrutamos do conhecimento existente em (HORN; JOHNSON, 1994).

39
Capı́tulo 3

Soluções da equação X m = A

Esta seção estamos interessados em resolver o seguinte problema: Dada uma matriz
A ∈ Mn (R) e um m ∈ N encontrar todas as matrizes X ∈ Mn (R) tais que

Xm = A

Para resolver essa equação matricial é de extrema importância observar a paridade


do expoente m, e além disso observar se a matriz A é diagonal/diagonalizável ou se
pode ser decomposta na Forma de Jordan. Dividiremos esse capı́tulo em duas seções.
Inicialmente para provar a existência das soluções e em seguida mostraremos como
encontrar a solução.

3.1 Existência de Soluções


Teorema 3.1.1. Seja A ∈ Mn (R), com polinômio minimal q A (t) = ∏is=1 (t − λi )ri .

i) Se λi 6= 0 para todo i ∈ {1, · · · , s} com m = 2k + 1, então ∃ X0 ∈ Mn (R) de modo que


X0m = A;

ii) Se λi ≥ 0 e m = 2k para i ∈ {1, · · · , n}, então existe X0 ∈ Mn (R) tal que X0m = A.

Demonstração. Para provar que existe X0 ∈ Mn (R) tal que X0m = A, usaremos o Teo-
rema 2.2.1 e Corolário 2.2.2. Então, consideremos f : R → R defina como f (t) = tm .
Como dom( f ) = R então λi ∈ dom( f ) para todo i ∈ {1, · · · , n}, e como f é C ∞
então para ri > 1, f é (ri − 1)-vezes diferenciável. Consideremos g : R → R de-
1
fina como g(t) = t m . No caso em que m é ı́mpar então dom( g) = R e portanto para
todo i ∈ {1, · · · , n} λi ∈ dom( g), já em que m é par como λi ≥ 0, então λi ∈ dom( g).
∏ik=−11 (1−im) 1 −k
Deste modo, como g ∈ C ∞ , onde g(k) (t) = mk
tm para k ∈ N, então para todo
i ∈ {1, · · · , n} tal que ri > 1, g é (ri − 1)-vezes diferenciável. Além disso, como λi 6= 0
então f (λi ) 6= 0 para todo i ∈ {1, · · · , n}. Então a função f verifica as hipóteses dos

40
Teorema 2.2.1 e do Corolário 2.2.2, por tanto podemos concluir que existe X0 ∈ Mn (R):
1
f ( X0 ) = A e g( A) = X0 e portanto X0m = A e X0 = A m .

3.2 Encontrando Soluções


Teorema 3.2.1. Se A ∈ Mn (R) diagonalizável, tal que A = SΛS−1 , onde S, Λ ∈ Mn (K),
Λ = diag(λ1 , · · · , λs ), g definida como na demonstração do Teorema 3.1.1 anterior e λi ≥ 0
então  1 
λ1m 0

g ( A ) = X0 = S  ...  −1
S .
 
1
0 λsm

Demonstração. Temos A = SΛS−1 e g(t) = t1/m então pelo Corolário 2.1.2 obtemos
   1 
g ( λ1 ) 0 λ1m 0
g( A) = S 
 ...  −1 
S = S ...  −1
S
 
1
0 g(λs ) 0 λ m
s
 1 
λ1m 0

⇒ g ( A ) = X0 = S  ..  −1
S
 . 
1
0 λsm
como querı́amos.

Observação 3.2.1. No caso em que m é ı́mpar, basta considerar que λi 6= 0 já que
1
λim ∈ R para todo i ∈ {1, · · · , s}

Teorema 3.2.2. Se A ∈ Mn (R) é diagonalizável pela Forma de Jordan, isto é A = SJS−1 ,


onde J = ⊕is=1 Jni (λi ) com ∑is=1 ni = n, então existe
 
g( Jn1 (λ1 )) 0
X0 = g ( A ) = S 
 ...  −1
S .
0 g( Jns (λs ))

Demonstração. Seja A = SJS−1 , J = ⊕is=1 Jni (λi ) com ∑is=1 ni = n e g(t) = t1/m então
pelo Teorema 2.2.1
g( A) = g(SJS−1 ) = Sg( J )S−1

como J = diag( Jn1 (λ1 ), · · · , Jns (λs )) e pela Definição 2.2.1 temos que

g( J ) = g(diag( Jn1 (λ1 ), · · · , Jns (λs ))) = diag( g( Jn1 (λ1 )), · · · , g( Jns (λs )),

41
assim concluı́mos que
 
g( Jn1 (λ1 )) 0
g ( A ) = X0 = S 
 ...  −1
S
0 g( Jns (λs ))

Onde, por pela Definição 2.2.1 temos que


 
g(λ) g(1) (λ) 21 g(2) (λ) ··· 1
( k −1) !
g ( k −1) ( λ )
 .. .. 
 0
 g(λ) g (1) ( λ ) . . 

g( Jk (λ)) =  0
 .. 1 (2)  ; k ∈ { n1 , · · · , n s }

 0 g(λ) . 2 g (λ) 
..
g (1) ( λ )
 
 . 
0 0 0 ··· g(λ)

onde
∏ij− 1
=0 (1 − jm ) 1
(i )
g (λ) = λ m −i
mi
i ∈ {0, · · · , k − 1}

3.3 Exemplos
Como tudo que vimos até aqui são casos de abstração e generalização, temos como
objetivo aqui, para melhor compreensão dos conceitos vistos e maior absorção do que
foi abordado, exemplificar soluções para a equação matricial X m = A, tal que ini-
cialmente consideramos m = 2 e em seguida m = 3. Dispondo do nosso objetivo
principal neste momento, , omitimos os cálculos referente à verificação da existência de
diagonalização da matriz dada, e também suprimimos o desenvolvimento da diagonalização
e da decomposição de Jordan das matrizes. Deste modo, tivemos um enfoque maior
no nosso objetivo dominante.

3.3.1 Soluções de X 2 = A
Preliminarmente, iremos especificar m = 2 na expressão matricial X m = A. Para so-
lucionar essa equação, consideremos g : R → R definidas por g(t) = t1/2 , além disso,
tomemos uma matriz A diagonalizável, tal que A = SΛS−1 onde Λ = diag(λ1 , · · · , λs )
e como a paridade do m é par temos λi ≥ 0 tal que i ∈ {1, · · · , s}, então
 1 
λ12 0

g ( A ) = X0 = S  ...  −1
S .
 
1
2
0 λs

42


16 0
Exemplo 3.3.1. Considere a matriz diagonal A = com λi ≥ 0 onde i ∈ {1, 2}. Além
0 9
disso, consideremos g(t) = t1/2 . Assim, para resolver X 2 = A temos
1 1
g( A) = g(diag(16, 9)) = diag( g(16), g(9)) = diag(16 2 , 9 2 ) = diag(4, 3)

Deste modo, concluı́mos que  


4 0
g ( A ) = X0 =
0 3
Ou seja,
2 
 
4 0 16 0
=A⇔ X02 = .
0 3 0 9
 
−1 3 −1
Exemplo 3.3.2. Seja a matriz A = −3 5 −1 diagonalizável onde a matriz diagona-
  −3 3 1  
1 1 −1 1 0 0
lizante é dada por S = 1 1 0  e a matriz diagonal por Λ = 0 2 0 deste modo
1 0 3 0 0 2
− 1 2
temos que A = SΛS então para solucionar a equação matricial X = A devemos considerar
1
g(t) = t 2 assim

g( A) = g(SΛS−1 ) = Sg(Λ)S−1 = Sg(diag(1, 2, 2))S−1


1 1 1 1 1
= Sdiag( g(1), g(2), g(2))S−1 = Sdiag(1 2 , 2 2 , 2 2 )S−1 = Sdiag(1, 2 2 , 2 2 )S−1
Deste modo concluı́mos que
 1 1 1
   
1 0 0 −2.2 2 + 3 3.2 2 − 3 −2 2 + 1

1 1 −1 3 −3 1
1 1 1 1
g( A) = X0 = 1 1 0  0 2 2 0  −3 4 −1 = −3.2 2 + 3 4.2 2 − 3 −2 2 + 1
   
1
1 0 3 0 0 22 −1 1 0 1 1
−3.2 2 + 3 3.2 2 − 3 1
Isto significa que
 1 1 1
2 
−2.2 2 + 3 3.2 2 − 3 −2 2 + 1

−1 3 −1
1 1 1
X02 = A ⇔ −3.2 2 + 3 4.2 2 − 3 −2 2 + 1 = −3 5 −1
 
1 1
−3.2 2 + 3 3.2 2 − 3 1 −3 3 1

Como pretendido.
 
5 4 2
Exemplo 3.3.3. Seja A =  0 1 −1 uma matriz não diagonalizável com decomposição
−1 −1 3  
−1 −6 −10
de Jordan dada através da matriz diagonalizante S =  1 −3 1  e pela matriz quase
0 9 0
diagonal  
1 0 0  
  4 1
J = J1 (1) ⊕ J2 (4) = 0 4 1 ; J1 (1) = 1 , J2 (4) =
0 4
0 0 4

43
1
onde A = SJS−1 . Para calcularmos X 2 = A consideremos g(t) = t 2 . Assim
 
−1 −1 g( J1 (1)) 0
g( A) = g(SJS ) = Sg( J )S = S S −1
0 g( J2 (4))

Para calcular g( J1 (1)) e g( J2 (4)) utilizaremos a fórmula apresentada no Lema 2.1.3, deste
modo temos que  1
  2 4
g( J1 (1)) = 1 e g( J2 (4)) =
0 2
Desta maneira 
1 0 0
g( J ) = g( J1 (1)) ⊕ g( J2 (4)) = 0 2 14 
0 0 2
Podemos concluir assim
   1 10 4   41 23 11 
−1 −6 −10 1 0 0 9 9 9 18 18 18
g ( A ) =  1 −3 1  0 2 14   0 0 1  =  −1 35 −13 
9 36 36 36
0 9 0 0 0 2 −1 −1 −1 −1 −1 7
9 9 9 4 4 4

Isto significa que


 41 23 11 2  
18 18 18 5 4 2
X02 = A ⇔  −1 35 −13  = 0 1 −1
36 36 36
−1 −1 7 −1 −1 3
4 4 4

3.3.2 Soluções de X 3 = A
Prontamente, caminharemos caracterizando a equação matricial X m = A conside-
rando m = 3, ou seja, com a paridade ı́mpar, assim devemos levar em consideração que
podemos solucionar problemas onde os autovalores das matrizes diagonais e quase
diagonais são λi 6= 0. Para isto, consideremos g : R → R definidas por g(t) = t1/3 ,
além disso, tomemos uma matriz A diagonalizável, tal que A = SΛS−1 onde Λ =
diag(λ1 , · · · , λs ), então
 1 
3
λ1 0

g ( A ) = X0 = S  ..  −1
S .
 . 
1
0 λs3

Nos casos em que a matriz A for não-diagonalizável com decomposição de Jordan


A = SJS−1 onde J = diag( Jn1 (λ1 ), · · · , Jns (λs )), tal que Jni (λi ) = diag(λi , · · · , λi ) em
n
que i ∈ {1, · · · , s} e ∑i=i 1 = n tomamos
 
g( Jn1 (λ1 )) 0
g ( A ) = X0 = S 
 ..  −1
S
.
0 g( Jns (λs ))

44
tal que
 
g ( λ ) g (1) ( λ ) 1 (2)
2 g (λ) ··· 1
( k −1) !
g ( k −1) ( λ )
 .. .. 
 0
 g(λ) g (1) ( λ ) . . 

g( Jk (λ)) =  0
 .. 1 (2)  ; k ∈ { n1 , · · · , n s }

 0 g(λ) . 2 g (λ) 
...
g (1) ( λ )
 
 
0 0 0 ··· g(λ)
onde
∏ij− 1
=0 (1 − jm ) 1
(i )
g (λ) = λ m −i em que i ∈ {0, · · · , k − 1}.
mi
 
1 2
Exemplo 3.3.4. Agora, tomemos a matriz A = , de tal modo que A é diagonalizável.
0 −2
De fato, basta tomar a matriz diagonalizante S e a matriz diagonal Λ dadas por:
   
1 1 1 0
S= eΛ=
0 − 32 0 −2
Observe que as colunas de S são os autovetores de A e a matriz diagonal Λ foi construı́da com
os autovalores de A. Temos que A é semelhante a matriz Λ, ou seja, A = SΛS−1 .
1
Deste modo, para solucionar X 3 = A tomamos g : R → R onde g(t) = t 3 , assim

g( A) = g(SΛS−1 ) = Sg(diag(1, −2))S−1 = Sdiag( g(1), g(−2))S−1


1 1
= Sdiag(1 3 , (−2) 3 )S−1
Assim temos que
" 1 #
1 32
 
−1 1 1 1 3 0
g( A) = X0 = Sg(Λ)S =
0 − 32 1
0 (−2) 3 0 − 3
2

" 1 #
2·2 3 +2
⇒ X0 = 1 3
1
0 −2 3
Concluı́mos assim que
" 1 #3  
2·2 3 +2 1 2
3
X0 = A ⇔ 1 3 =
0 −2 3
1 0 −2
 
5 4 2 1
 0 1 −1 −1
Exemplo 3.3.5. Tomemos a matriz não diagonalizável A =   −1 −1 3
 com de-
0 
1 1 −1 2
 
−1 1 1 1
 1 0 0 −1
composição de Jordan dada por A = SJS−1 onde S =   0 −1 0 0  é a matriz diagona-

0 1 0 1
 
1 0 0 0
0 4 1 0
lizante e J = 0 0 4 0 a matriz quase diagonal. Note que J = Jn1 (1) ⊕ Jn2 (4) ⊕ Jn3 (2)

0 0 0 2

45
de modo que n1 , n2 e n3 são as dimensões dos blocos
 damatriz de Jordan e são, respectivamente,
  4 1  
1, 2 e 1, além disso, Jn1 (1) = 1 , Jn2 (4) = e Jn3 (2) = 2 . Desta maneira, para
0 4
1
solucionar a equação matricial X 3 = A devemos considerar uma função dada por g(t) = t 3 ,
assim
g( A) = g(SJS−1 ) = Sg( J )S−1 = Sg(diag( Jn1 (1), Jn2 (4), Jn3 (2)))S−1

= Sdiag( g( Jn1 (1)), g( Jn2 (4)), g( Jn3 (2)))S−1

Utilizando o Lema 2.1.3 temos


" 1 #
  4 3 13 h i
1
g( Jn1 (1)) = 1 , g( Jn2 (4)) = 1 e g ( Jn3 ( 2 )) = 23
0 4 3

Observe que
J = ⊕3i=1 Jni (λi )

onde λ1 = 1, λ2 = 4 e λ3 = 2. Portanto,
" #
  4 31 1 h i
1 −1
g( A) = X0 = Sdiag( 1 , 3 ,
1 2 3 )S
0 43
 
  1 0 0 0  
−1 1 1 1  1 1
0 1 1 1
 1 0 0 −1 0 4 3 2 0  0 0 −1 0
=
 0 −1
 3.4 3
1
 
0 0 0 0 4 3 0 1
 1 1 0
0 1 0 1 1 0 0 1 1
0 0 0 23
 1 1 1 1 
13.4 3 13.4 3 −12 12.2 3 +4 3 −12 1
 12 12 12 23 − 1 
1 1
 0 1 −2 3 + 1 −2 3 + 1
=  13
 
1 1 
 −4 −4 3 11.4 3
0 
 121 12
1 1
12
1

43 43 12.2 3 −11.4 3 1
12 12 12 23
Concluindo assim que
 1 1 1 1 3
13.4 3 13.4 3 −12 12.2 3 +4 3 −12 1
 12 12 12 23 − 1  
5 4 2 1

1 1
 0 1 −2 3 + 1 −2 3 + 1  0 1 −1 −1
X03 = A ⇔  13  = .
 
1 1
 −4 −4 3 11.4 3
0   − 1 − 1 3 0 
 121 12 12
1 1 −1 2
1 1 1

43 43 12.2 3 −11.4 3 1
12 12 12 23

46
Conclusão

A exploração dos conceitos da diagonalização e decomposição de Jordan das matri-


zes e no entendimento da matriz associada a uma função buscaram resolver a solução
da equação matricial X m = A. Os resultados obtidos demonstram que é necessário
um estudo como a matriz pode ser representado, sendo as matrizes diagonalizáveis as
mais simples do ponto de vista das operações, caso não seja é primordial encontrar a
decomposição de Jordan da matriz dada.
Além disso, há limitação dos conteúdos abordados, visto que as soluções dos pro-
blemas envolvendo as potências são solucionáveis apenas quando as matrizes apre-
sentadas são quadradas. Contudo, os problemas mais interessantes são resolvidos
com conhecimentos de Álgebra Linear como por exemplo autovalores, autovetores e
diagonalizações de matrizes, no qual foram conteúdos secundários deste trabalho, as
soluções se tais problemas se fazem necessário a compreensão de se avaliar a matriz A
na função g(·).
Respondendo aos objetivos propostos, concluı́mos que todos foram alcançados e
que após a construção dessas bases, definimos o polinômio associado a uma função,
primeiro passo na construção da caracterização das soluções da equação matricial.
Apresentamos o Teorema central do trabalho que nos dá a possibilidade de obter ex-
pressões polinomiais que envolvem potência, e consequentemente raiz n-ésima, de
matrizes. Alicerçados nesses antecedentes propusemos algumas aplicações dos conteúdos
estudados.
Portanto, a solução do problema X m = A foi demonstrado de forma clara e sim-
ples aspirando entusiasmo do público de docentes e discentes da graduação em ma-
temática, sendo o contexto dessa exposição sobretudo teórico e transdisciplinar, perme-
ando a Álgebra, Álgebra linear, Análise Numérica e Álgebra linear Numérica. Sendo
as matrizes variáveis independente e as funções de uma matriz argumentada e nome-
ada de ”funções matriciais”.

47
Referências Bibliográficas

[1] ATIYAH, M. F., Macdonald, I. G., Introduction to commutative algebra., Addison-


Wesley Publishing Co., 1969

[2] COUTINHO, S. C. , Polinômios e Computação Algébrica. IMPA, 2012.

[3] GONÇALVES, Adilson - Introdução à Álgebra, 1ª Edição. Rio de Janeiro, SBM,


1979.

[4] ELBONI, Roberta R. Teorema Fundamental da Álgebra, 2006. Monografia -


IMECC, UNICAMP, Campinas - SP.

[5] HOFFMAN K. e, KUNZE R - Álgebra linear, 2ª Edição. Rio de Janeiro, Universi-


dade De São Paulo, 1979.

[6] RODRIGUES, Virgı́nia Maria. Algoritmo para o Máximo Divisor Comum de Po-
linômios a uma Variável / Virgı́nia Maria Rodrigues, - Porto Alegra: CPGMA da
UFRGS, 1995.

[7] HOFFMAN, Kenneth; KUNZE, Ray Alden.Álgebra linear .2nd ed. New Jersey:
Prentice Hall, 1971. 354 p.

[8] MENDONÇA JUNIOR, R. C.. Raiz Quadrada de Matrizes de Ordem nxn. 2014.
42 f. Dissertação (Mestrado) - Curso de Matemática, Instituto de Matemática e
Estatı́stica, Universidade Federal de Goiás, Goiânia, 2014.

[9] HORN, Roger A.; JOHNSON, Charles R.. Topics in Matrix Analysis. Cambridge,
England: Cambridge University Press, 1994. 616 p.

[10] KOERICH, Aline Casagrande et al. Um estudo sobre polinômios e sua abordagem
no ensino. 2000.

[11] LANCASTER, P. (1966). Lambda Matrices and Vibrating Systems, Pergamon


Press, Oxford,

[12] WHITTAKER, E.T. (1952). Analytical Dynamics, Cambridge Univ. Press, Cam-
bridge.

48

Você também pode gostar