Você está na página 1de 162

Universidade Federal de Sergipe

Centro de Ciências Exatas e Tecnologia


Departamento de Matemática
Pós-Graduação em Matemática

Premissas Iniciais à Teoria Qualitativa de


Equações Diferenciais Ordinárias

São Cristóvão  SE
Outubro de 2018
Universidade Federal de Sergipe
Centro de Ciências Exatas e Tecnologia
Departamento de Matemática
Pós-Graduação em Matemática

Premissas Iniciais à Teoria Qualitativa de


Equações Diferenciais Ordinárias

por

Alisson de Oliveira Silva

sob a orientação do

Prof. Dr. Gerson Cruz Araujo

São Cristóvão  SE
Outubro de 2018
Premissas Iniciais à Teoria Qualitativa de Equações Diferenciais
Ordinárias

por
ALISSON DE OLIVEIRA SILVA

Dissertação apresentada ao Corpo Docente da Pós-Graduação em Matemática da Universidade


Federal de Sergipe como requisito parcial para a obtenção do título de Mestrado prossional em
Matemática.

Área de Concentração: Equaçoes Diferenciais Ordinárias

Aprovada em 31 de Outubro de 2018.

Banca Examinadora:

Prof. Dr. Gerson Cruz Araujo  UFS


(Orientador)

Prof. Dr. Giovana Siracusa Gouveia - UFS


(Examinador Interno)

Prof. Dr. Lucas Rezende Valeriano - UFS


(Examinador Externo)
Agradecimentos

• A primeiramente a Deus, por conceder-me a resiliência necessária para lutar contra os percalços
que a vida, por vezes, impõe.
• Ao meu padrasto Sérgio Ricardo da Silva e minha mãe Kátia Maria de Oliveira Silva pela
innita compreensão e apoio em momentos cruciais.
• Ao meu pai, José Bastos Filho (In Memoriam ) pela herança que deixou implicitamente plan-
tada.
• Aos meus irmãos, Aélisson, Bastos e Hosana pela honra de dividirmos nossa jornada.

• Aos meus lhos, Victor, Caio e Breno que sempre me inspiraram com suas virtudes de criati-
vidade e pureza.
• Ao orientador, Prof. Dr Gerson Cruz Araujo, pelo acompanhamento, críticas, sugestões e,
sobretudo, pelo imenso incetivo, que foi primordial nessa etapa nal.
• Aos professores do Programa do Mestrado Prossional em Matemática que contribuiram para
nossa formação com ensinamentos pertinentes.
• Aos colegas de mestrado, PROFMAT - turma 2016, cuja união e cooperação geraram resultados
ótimos em cada etapa do mestrado que foi vencida.
• A Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES), cujo
presente trabalho foi realizado com apoio nanceiro por meio de Bolsas - Código de Financiamento
001.

i
Resumo

A presente dissertação tem por objetivo expor de forma introdutória conteúdos pertinentes a
teoria qualitativa das equações diferenciais ordinárias. Nos capítulos iniciais, revisamos resultados
gerais para equações diferenciais ordinárias de primeira ordem, sobretudo teoremas de existência e
unicidade e, por seguinte, recapitulamos conteúdos teóricos relativos à sistemas de equações dife-
renciais ordinárias lineares e não lineares. Ademais, foram apresentados conceitos básicos acerca de
sistemas hamiltonianos e a teoria da estabilidade, versando a estabilidade no sentido de Liapounov.

Palavras-chave: Teoria Qualitativa das Equações Diferenciais Ordinárias, Existência e Unicidade


de Soluções, Sistemas Hamiltonianos, Estabilidade.

ii
Abstract

The present dissertation aims to expose of introductory form contents pertinent to the qualita-
tive theory of ordinary Dierential Equations. In the rst chapters, we review general results for
rst order ordinary dierential equations, mainly theorems of existence and uniqueness, and then
recapitulate theoretical contents concerning the systems of linear and nonlinear ordinary dierential
equations. In addition, basic concepts about hamiltonian systems and of the stability theory were
presented, referring with stability in the sense of Liapounov.

Keywords: Qualitative Theory of Ordinary Dierential Equations, Existence and Uniqueness of


Solutions, Hamiltonian Systems, Stability.

iii
Introdução

A pesquisa sobre equações diferenciais iniciou-se no século XVII com o estudo do cálculo por
Newton e Leibniz. É sabido que as primeiras aplicações foram motivadas por problemas de natu-
reza física (ver [7]) e, posteriormente, essas aplicações foram estendidas a outras áreas da ciência.
Todavia, devemos ressaltar que mesmo no transcorrer dos séculos, a área de equações diferenciais
continua a compor problemas signicativos e atrativos. À vista disso, tal área do conhecimento está
profundamente ligada ao avanço geral da matemática e, por essa razão a presente dissertação tem
por objetivo rever as equações diferenciais ordinárias de primeira ordem incluindo também teoremas
de existência e unicidade, sistema de equações diferencias ordinárias lineares do tipo homogêneo e
não homogêneo, conjuntamente com teorema de existência e unicidade para esses sistemas, sistemas
de equações diferenciais ordinárias não lineares, técnica de linearização de sistemas não lineares,
conceitos iniciais a sistemas hamiltonianos e teoria da estabilidade a Liapounov. Por conseguinte,
o presente trabalho apresenta-se da seguinte forma: 1. Introdução, 2. Formalismo geral da teoria
das equações diferenciais ordinárias, 3. Retrato de fase bidimensional, 4. Sistemas não lineares, 5.
Sistemas hamiltonianos, 6. Teoria da estabilidade das EDO's.
A pesquisa caracterizou-se por um levantamento bibliográco, em fontes impressas como livros
disponíveis na biblioteca, e-books disponíveis na base de dados da editora Springer disponível em
http://ufs.dotlib.com.br/springer/index.html, como também artigos e dissertações encontradas no
periódico Capes.

1
Sumário

Agradecimentos i

Resumo ii

Abstract iii

Introdução 1

1 Formalismo geral da teoria das equações diferenciais ordinárias 7

1.1 Prelúdio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2 Denições e generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3 O Problema de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.4 Teoremas de Picard e Peano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Sistema de equações lineares de primeira ordem 29

2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.2 Conceitos e denições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.3 Sistema de equações lineares de primeira ordem homogêneo com coecientes constantes 47

2.3.1 Autovalores reais distintos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2
2.3.2 Autovalores reais repetidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.3.3 Autovalores complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

2.4 Soluções de sistemas de equações diferenciais através de exponencial de matrizes. . . 63

2.4.1 Conceitos fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

2.4.2 Método de obtenção da exponencial de uma matriz . . . . . . . . . . . . . . . 68

2.4.3 Sistemas de equações diferenciais ordinárias e exponencial de matrizes . . . . 71

2.4.4 Matrizes fundamentais de soluções de sistemas de equações diferenciais line-


ares homogêneas via exponencial de matrizes . . . . . . . . . . . . . . . . . . 78

3 Retrato de fase bidimensional 83

4 Sistemas não lineares 93

4.1 Mudança de variáveis e técnica de linearização . . . . . . . . . . . . . . . . . . . . . . 94

4.2 O Teorema de Hartman-Grobman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

5 Sistemas hamiltonianos 101

5.1 Sistemas hamiltonianos lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

6 Teoria da estabilidade das EDO's 116

6.1 Estudo de estabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

6.2 Método de Lyapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

A Apêndice 128

A.1 Espaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

A.2 Espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

A.3 Bolas em espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

3
A.4 Conjuntos abertos e fechados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

A.5 Conjuntos compactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

A.6 Sequências em espaços métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

A.7 Funções contínuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

A.8 Conceitos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

A.8.1 Sequências de Cauchy e espaços métricos completos. . . . . . . . . . . . . . . 142

A.8.2 Sequências de funções e convergência uniforme . . . . . . . . . . . . . . . . . 143

A.8.3 O Espaço C[a, b] de funções contínuas . . . . . . . . . . . . . . . . . . . . . . . 146

Referências Bibliográcas 155

4
Lista de Figuras

1.1 Lei de Hooke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.2 Pêndulo Harmônico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3 Esboço do comportamento da equação logística 1.6 . . . . . . . . . . . . . . . . . . . 12

2.1 massas acopladas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.1 Séries Temporais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

3.2 Plano de Fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3.3 Caso λ1 < λ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3.4 Caso λ1 = λ2 < 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3.5 Caso 0 < λ2 < λ1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3.6 Caso λ1 = −λ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

3.7 Caso λ1 < 0 e λ2 = 0 com y(0) = (k1 , k2 ) . . . . . . . . . . . . . . . . . . . . . . . . . 89

3.8 Caso λ = 0, k1 > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

3.9 Caso λ = 0, k2 > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

3.10 Caso λ < 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

3.11 Caso λ > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

3.12 Caso a = 0 e b > 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

5
3.13 Caso a 6= 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

4.1 Retrado de Fase do Sistema Associado a 4.2 . . . . . . . . . . . . . . . . . . . . . . . 98

4.2 Retrado de Fase do Sistema Associado a 4.4 . . . . . . . . . . . . . . . . . . . . . . . 99

6.1 Pêndulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

6.2 Semidouro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6.3 Fontes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6.4 Ponto de Sela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

6
Capítulo 1

Formalismo geral da teoria das equações


diferenciais ordinárias

1.1 Prelúdio

Em geral, investigações cientícas de qualquer fenômeno conduzem a formulação de modelos


matemáticos que, por sua vez, podem ser postos em função de uma ou mais equações diferenciais.
Historicamente, os rudimentos da modelagem matemática usando equações diferenciais ocorreram
no século XVII, por consequência dos avanços do cálculo diferencial e integral, creditado princi-
palmente a Newton (1642 - 1727) e Leibniz (1646 - 1716). Aguçados por questões de natureza
geométrica e física, Newton e Leibniz desenvolveram notações, técnicas e métodos que fazem parte
do alicerce do cálculo moderno. Tais ideias orientaram paulatinamente a consolidação das equações
diferenciais como um novo ramo da Matemática, que em meados do século XVIII se transformou
numa área independente. Além disso, contribuições ilustres de Euler (1707 - 1783), Lagrange (1736
- 1813) e Laplace (1749 - 1827) expandiram notavelmente o conhecimento das equações diferenciais
no íntimo do Cálculo das Variações, Mecânica Celeste e Dinâmica dos Fluidos. (Ver [7], [20]) Em
virtude do desenvolvimento consagrado das equações diferencias ordinárias, escolhemos iniciar nos-
sos estudos a partir de dois modelos matemáticos presentes na Mecânica Clássica: A lei de Hooke
e o Pêndulo Simples.

A lei de Hooke descreve a força restauradora que sistemas de mola e massa estão sujeitos quando
comprimidos ou distendidos. Para tal lei, a força elástica de uma mola é proporcional à distensão,
na direção oposta. Dessa forma, se tivermos uma massa presa a uma das extremidades de uma mola
de comprimento de equilíbrio l e esticarmos ou encolhermos a mola teremos uma força de tensão

7
que é proporcional ao deslocamento.

Figura 1.1: Lei de Hooke

Assim, a força de tensão será dada por Ftensao = −kx(t) onde x(t) é posição da massa no
instante t e k é a constante elástica da mola. Contudo, de acordo com 2a Lei de Newton, tem-se
que, F = m · a = m · x00 . Donde obtemos

k
x00 = − x, (1.1)
m

cujos métodos quantitativos (ver [2]) de resolução nos conduzem a

r ! r !
k k
γ(t) = λ1 sen t + λ2 cos t , λ1 , λ2 ∈ R. (1.2)
m m

Para a lei de Hooke, saber a forma explícita das soluções de (1.1) possibilita prever que a mola
cará oscilando de maneira periódica uma vez que (1.2) representa uma função periódica.

Por sua vez, o pêndulo simples é um sistema constituído de um objeto preso a uma haste
inextensível oscilando sob ação da força gravitacional. O movimento desse pêndulo oscila com
amplitude relativamente pequena e sendo assim, pode ser descrito como um movimento harmônico
simples. Diz-se que o movimento é harmônico simples quando é periódico e ocorrem deslocamentos
simétricos em torno de um ponto.

Figura 1.2: Pêndulo Harmônico

8
É sabido que a equação que descreve o movimento do Pêndulo Simples é dada por:

g
x00 = − sen x, (1.3)
l
onde g é a aceleração da gravidade e l o comprimento da haste.

Uma forma para se obter uma resolução de (1.3) é restringir o movimento do pêndulo a pequenos
ângulos e assim fazer uso da aproximação sen x ≈ x para x sucientemente pequeno. Por seguinte,
usa-se métodos quantitativos para obter uma solução explicita em termos de funções elementares,
o que não necessariamente nos ajuda a compreender o comportamento da solução de (1.3). Para
contornar essas limitações, Henri Poincaré1 (1854 - 1912) propôs uma maneira de analisar equações
diferenciais de forma não usual, isto é, descrever o comportamento das soluções sem precisar exibi-
las explicitamente. Essa análise realizada por Poincaré para equações diferenciais originou a teoria
qualitativa das equações diferenciais.

1.2 Denições e generalidades

Nesta seção, vamos exibir algumas denições, resultados e exemplos que darão base a teoria.

Denição 1.1. Considere f : Ω ⊂ R × Rn −→ Rn uma aplicação contínua e I um intervalo não


degenerado. Uma função diferenciável ϕ : I −→ Rn chama-se solução da equação
dx
= f (t, x) (1.4)
dt
no intervalo I se

i) {(t, ϕ(t)); t ∈ I} está contido em Ω.


dϕ(t)
ii) = f (t, ϕ(t)) para todo t ∈ I .
dt
Exemplo 1.1. Considere Ω = R2 e dena f (t, x) = 3x 3 . Para todo c ∈ R a função ϕc : R −→ R
2

dada por (
(t − c)3 , t ≥ c,
ϕc (t) =
0, t ≤ c,

é uma solução da equação x0 = 3x 3 em I = R.


2

1
Em Mémoire sur les Courbes Dénies par une Équation Dierentielle(1881), Poincaré descreveu a conguração
global das soluções, o efeito de pequenas pertubações das condições iniciais(estabilidade), o comportamento assintótico
das soluções e a estrutura de seus conjuntos limites (ver [20]).

9
De fato, {(t, ϕc (t))} ⊆ Ω e além disso para t ≥ c, temos:

d (ϕc (t)) 2 2
− 3ϕc (t) 3 ⇒ 3(t − c)2 − 3[(t − c)3 ] 3 = 0.
dt
Para t ≤ c temos também que ϕc (t) é solução, pois
d (ϕc (t)) 2
− 3ϕc (t) 3 = 0 − 3 · 0 = 0.
dt

A equação (1.4) chama-se equação diferencial ordinária de primeira ordem e será denotada
sucintamente por
x0 = f (t, x).

Considerando fi : Ω −→ R, i = 1, ..., n, as componentes de f . ϕ = (ϕ1 , ..., ϕn ), com ϕi : I −→ R,


é uma solução de (1.4) se, e somente se, cada ϕi é diferenciável em I , (t, ϕ1 (t), ..., ϕn (t)) ∈ Ω para
todo t ∈ I e
dϕ1


 dt (t) = f1 (t, ϕ1 (t), ..., ϕn (t))
 dϕ2 (t) = f2 (t, ϕ1 (t), ..., ϕn (t))


dt
..


 .
 dϕn

dt (t) = fn (t, ϕ1 (t), ..., ϕn (t)),
∀ t ∈ I.

Deste modo, a equação (1.4) é equivalente ao sistema de equações diferenciais escalares


dxi
= fi (t, x1 , ..., xn ), ∀i = 1, . . . , n.
dt

Denição 1.2. Uma equação da forma

x0 = F (x), (1.5)

onde a função F depende somente de x e não da variável independente t, é chamada de equação


autônoma.

Lema 1.1. Se γ é uma solução de uma equação diferencial autônoma, então para qualquer constante
C , a função β denida por β = γ(t + C) também é solução da mesma equação diferencial autônoma.

Demonstração. Suponhamos que γ seja solução de uma equação diferencial autônoma, isto é

γ 0 (t) = F (γ(t)).

10
Substituindo t por t + C nesta última equação, obtemos

γ 0 (t + C) = F (γ(t + C)).

Pela regra da cadeia da obtemos


d
(γ(t + C)) = F (γ(t + C)).
dt
Consequentemente, sendo β(t) = γ(t + C), então β é diferenciável e segue

β 0 (t) = F (β(t)),

como queríamos demonstrar.

Exemplo 1.2. Considere a equação logística

x0 = x(x − 1), (1.6)

para maiores informações veja [2].

Note que esta equação é classicada na teoria quantitativa das equações diferenciais ordinárias
como uma equação de variáveis separáveis (ver [2], [3], [8]). Resolvendo-a temos que:

dx 1
= x(x − 1) ⇒ dx = dt, x 6= 0 e x 6= 1.
dt x(x − 1)
Integrando em ambos os lados da equação acima, obtemos

Z Z Z  
1 1 1
dx = dt ⇒ − + dx = t + C.
x(x − 1) x x−1

Assim,
x − 1
− ln |x| + ln |x − 1| = t + C ⇒ ln
= t + C.
x

Em sequência, faremos um simples esboço de uma análise qualitativa da equação logística.


Considere F (t, x) = x(x − 1). Observe que, para x = 0 e x = 1 tem-se que F (t, 0) = F (t, 1) = 0.
Dessa forma, as funções γ1 (t) = 0 e γ2 (t) = 1, para todo t são soluções para (1.6). Percebamos
ainda que dado um ponto (t0 , x0 ) tal que x(t0 ) = x0 , podemos vericar que:

i Se 0 < x0 < 1, tem-se que F (t, x0 ) < 0, ou seja, as soluções nesse intervalo são funções
decrescentes.

11
ii Se x0 < 0 ou x0 > 1, tem-se que F (t, x0 ) > 0, ou seja, as soluções nesse intervalo são funções
crescentes.

Observe também que de acordo com lema anterior, podemos perceber que é possível obter inúmeras
soluções apenas transladando o gráco de uma solução particular que passa pelo ponto (t0 , x0 ).
Dessa maneira, o comportamento das soluções da equação logística é descrito no gráco seguinte:

Figura 1.3: Esboço do comportamento da equação logística 1.6

Observação 1.1. Ao encontrarmos as soluções de forma explícita para (1.6) percebe-se que há
diculdades em vericar o comportamento das soluções, em contrapartida, quando analisamos qua-
litativamente, vericamos em quais intervalos as soluções são crescentes ou decrescentes. Tal análise
qualitativa é extremamente rica do ponto de vista cientíco, pois generaliza o comportamento das
soluções que satisfazem um tipo de equação diferencial.

1.3 O Problema de Cauchy

A primeira questão com o qual nos deparamos é o da existência de soluções de equações dife-
renciais ordinárias quando especicamos uma condição inicial x(t0 ) = x0 . Tal questão é o chamado
Problema de Cauchy, ou Problema de Valor Inicial (PVI), o qual é descrito comumente por

x0 = f (t, x)

. (1.7)
x(t0 ) = x0

Proposição 1.1. O Problema de Valor Inicial (1.7) é equivalente à equação integral


Z t
x(t) = x0 + f (s, x(s))ds. (1.8)
t0

Ou seja, se t0 ∈ I , uma função contínua ϕ : I −→ Rn cujo gráco está contido em Ω é solução de


(1.7) se, e somente se, é solução de (1.8).

12
Demonstração. Note que é suciente considerar o problema no qual o ponto inicial (t0 , x0 ) é a
origem, isto é, considerar o problema

x0 = f (t, x), x(0) = 0. (1.9)

Uma vez que, se for dado outro ponto inicial, sempre podemos fazer uma mudança de variável
preliminar correspondendo a translação de eixos que leva o ponto (t0 , x0 ) até a origem.

(⇒) Primeiramente, é necessário colocar o problema de valor inicial (1.9) em uma forma mais
conveniente. Se supusermos, temporariamente, que existe uma função x = ϕ(t) que satisfaz o
problema de valor inicial então f (t, ϕ(t)) é uma função contínua que só depende de t.

Logo, podemos integrar x0 = f (t, x) do ponto inicial t = 0, para um valor arbitrário de t, obtendo
Z t
ϕ(t) = f (s, ϕ(s))ds, (1.10)
0
onde usamos a condição inicial ϕ(0) = 0 e s para denotar a variável de integração.

Como a equação (1.10) contém uma integral da função desconhecida, ela é chamada de equação
integral. Essa equação integral não é uma fórmula para solução do problema de valor inicial, mas
fornece outra relação que é satisfeita por qualquer solução da equação (1.9).

(⇐) Reciprocamente, suponha que uma função contínua ϕ(t) satisfaz a equação (1.8). Então
precisamos mostrar que essa função satisfaz (1.7). Para mostrar isto, substituímos t = 0 em (1.8).
Com isso, encontramos Z 0
ϕ(0) = f (s, ϕ(s))ds = 0.
0
Mostrando que a condição inicial é satisfeita.

Além disso, como o integrando é contínuo segue do teorema fundamental do cálculo, que

ϕ0 (t) = f (t, ϕ(t)).

Portanto, o problema de valor inicial (1.7) e a equação integral (1.8) são equivalentes.

Exemplo 1.3. Seja g : I −→ Rn uma função contínua no intervalo I . Considere a equação


diferencial
x0 = g(t). (1.11)
Z t
ϕ é uma solução de (1.11) em I se, e somente se, ϕ(t) = c + g(s)ds, onde t0 ∈ I e c é uma
t0
constante.

13
Z t
Com efeito, suponha que ϕ(t) = c + g(s)ds onde t0 ∈ I e c é uma constante. Como x0 = g(t)
t0
em I segue que:

 Rt 
dϕ(t) d c + t0 g(s)ds
= = g(t),
dt dt
pelo teorema fundamental do cálculo. Assim, ϕ é solução em I . Por outro lado, suponha que ϕ é
solução de x0 = g(t) em I , logo encontramos

dϕ(t)
= g(t). (1.12)
dt

Integrando (1.12) com relação a t, obtemos

Z t
ϕ(t) = c + g(s)ds.
t0

Exemplo 1.4. Sejam Ω = R × (a1 , a2 ) e f (t, x) = f (x), com a1 , a2 ∈ R e a1 < a2 . Supomos que
f é contínua e não se anula em (a1 , a2 ). Dados x0 ∈ (a1 , a2 ) e t0 ∈ R calculemos a solução para o
problema de Cauchy
x0 = f (x),


x(t0 ) = x0 .

Se ϕ é solução, então
ϕ0 (t) = f (ϕ(t)) e ϕ(t0 ) = x0 . (1.13)

Dividindo por f (ϕ(t)) a primeira equação acima, obtemos


ϕ0 (t)
= 1.
f (ϕ(t))

Seja F : (a1 , a2 ) −→ R denida por


Z x
1
F (x) = dθ.
x0 f (θ)

1
Assim, de acordo com o teorema fundamental do cálculo F 0 (x) = e esta função não se anula
f (x)
em (a1 , a2 ). Logo, pelo teorema da função inversa, F é inversível e aplica (a1 , a2 ) num intervalo
(b1 , b2 ) onde F −1 está denida.

14
Utilizando (1.13), obtemos
ϕ0 (t) 1
1= = ϕ0 (t) = F 0 (ϕ(t))ϕ0 (t),
f (ϕ(t)) f (ϕ(t))
ou seja, (F ◦ ϕ)0 (t) = 1.

Integrando ambos os lados com relação a t, no intervalo (t0 , t), obtemos, para t xo,
Z t Z t
0
(F ◦ ϕ) (u)du = du ⇒ F (ϕ(t)) − F (ϕ(t0 )) = t − t0 .
t0 t0

Como F (ϕ(t0 )) = 0, então F (ϕ(t)) = t − t0 . Logo, a solução é dada por

ϕ(t) = F −1 (t − t0 ), t ∈ (t0 + b1 , t0 + b2 ).

E assim garantimos a existência da solução.

Agora vejamos a unicidade. Suponha γ e β sejam duas soluções de (1.13). Então:

γ 0 (t) = f (γ(t)); γ(t0 ) = x0 ,

β 0 (t) = f (β(t)); β(t0 ) = x0 .

De acordo com o raciocínio anterior, sabemos que

F (γ(t)) = t − t0 = F (β(t)),

onde F é uma função inversível. Portanto,

β(t) = γ(t), ∀t ∈ (a1 , a2 ).

Exemplo 1.5. (Equações de Variáveis Separáveis) Consideremos o Problema de Cauchy


x0 = g(t)f (x),


x(t0 ) = x0 ,
onde f e g são contínuas em intervalos abertos não degenerados (t1 , t2 ) e (a1 , a2 ), respectivamente,
e f não se anula em (a1 , a2 ).

Se ϕ é solução, então
ϕ0 (t) = g(t)f (ϕ(t)) e ϕ(t0 ) = x0 .

ϕ0 (t)
Logo, g(t) = . Dena então F : (a1 , a2 ) −→ R por
f (ϕ(t))
Z x
1
F (x) = dθ.
x0 f (θ)

15
1
Assim, de acordo com o teorema fundamental do cálculo F 0 (x) = e esta função não se anula
f (x)
em (a1 , a2 ). Logo, pelo teorema da função inversa, F é inversível e aplica (a1 , a2 ) num intervalo
(b1 , b2 ) onde F −1 está denida.
1
Mas, F 0 (ϕ(t)) = , então g(t) = F 0 (ϕ(t))ϕ0 (t) = (F ◦ ϕ)0 (t).
f (ϕ(t))
Integrando de t0 a t ambos os lados dessa última igualdade, temos
Z t
g(τ )dτ = F (ϕ(t)) − F (ϕ(t0 )) = F (ϕ(t)) − F (x0 ) = F (ϕ(t)).
t0

R 
Então, a solução é ϕ(t) = F −1 tt0 g(τ )dτ . Isto nos garante a existência da solução. Agora
para garantir a unicidade, suponha que γ e β sejam duas soluções do Problema de Cauchy especíco
deste exemplo. Então,

γ 0 (t) = g(t)f (γ(t)); γ(t0 ) = x0 ,

β 0 (t) = g(t)f (β(t)); β(t0 ) = x0 .

Sabemos que Z t
F (γ(t)) = g(τ )dτ.
t0

Então Z t 
−1
γ(t) = F g(τ )dτ .
t0

Z t Z t 
Similarmente, temos que (F (β(t))) = g(τ )dτ e, consequentemente, β(t) = F −1
g(τ )dτ .
t0 t0
Portanto,
β(t) = γ(t), ∀t ∈ (a1 , a2 ).

Exemplo 1.6. (Equações Lineares) Sejam a(t) e b(t) funções contínuas no intervalo aberto não
degenerado (t1 , t2 ) e consideremos o problema de Cauchy

x0 = a(t)x + b(t) x(t0 ) = x0

Se b ≡ 0 esta equação chama-se homogênea e é do tipo de variáveis separáveis.

Para motivar a escolha do candidato a ser solução desse exemplo, usaremos a técnica de fator
− tt a(τ )dτ
R
integrante (ver [2]). Nesse sentido, multiplicaremos a equação x − a(t)x = b(t) por e 0
0 . Daí,

16
Rt Rt Rt
− a(τ )dτ − a(τ )dτ − a(τ )dτ
e t0 · x0 − a(t)e t0 ·x=e t0 · b(t)

d  − Rtt a(τ )dτ  − t a(τ )dτ


R
⇒ e 0 · x = e t0 · b(t).
dt

Integrando ambos lados com relação a t, no intervalo (t0 , t), obtemos

Rt R t0 Z t Rs
− a(τ )dτ − a(τ )dτ
e t0 · x(t) − e− t0 a(τ )dτ
· x(t0 ) = e t0 · b(s)ds
t0

Rt Rt Z t Rs
a(τ )dτ a(τ )dτ − a(τ )dτ
⇒ x(t) = x0 e t0 +e t0 e t0 · b(s)ds.
t0

Assim, armamos que


Rt Rt Z t Rs
x(t) = x0 e t0 a(τ )dτ
+e t0 a(τ )dτ
e
− t0 a(τ )dτ
b(s)ds, (1.14)
t0

é a única solução para esse este exemplo, com t0 ∈ (t1 , t2 ).

Com efeito, vericaremos inicialmente a unicidade: sejam γ(t) e β(t) soluções da equação dife-
rencial ordinária linear acima. Dena ϕ(t) = γ(t) − β(t).

Daí, ϕ(t0 ) = γ(t0 ) − β(t0 ) = x0 − x0 = 0 e além disso, temos que


ϕ 0 (t) = γ 0 (t) − β 0 (t)
= a(t)γ(t) + b(t) − (a(t)β(t) + b(t))
= a(t) (γ(t) − β(t))
= a(y)ϕ(t).

Assim, temos o seguinte Problema de Cauchy


ϕ0 = a(t)ϕ,


ϕ(t0 ) = 0,
e esse problema admite solução única de acordo com os exemplos anteriores. Também é sabido que
ϕ(t) = 0, ∀t ∈ (t1 , t2 ) é uma solução desse Problema de Cauchy. Logo,

ϕ(t) = 0
⇒ γ(t) − β(t) = 0
⇒ γ(t) = β(t), ∀t ∈ (t1 , t2 )

17
Por seguinte, note que x(t0 ) = x0 em (1.14) como esperado e ainda que,

Rt Rt Z t Rs Rt Rt
0 a(τ )dτ a(τ )dτ − a(τ )dτ a(τ )dτ − a(τ )dτ
x (t) = x0 a(t)e t0+ a(t)e t0 e b(s)ds + e t0 t0 e t0 b(t)
t0
 R
t Rt Z t Rs 
a(τ )dτ a(τ )dτ − a(τ )dτ
= a(t) x0 e t0 + e t0 e t0 b(s)ds + b(t)
t0
= a(t)x + b(t)

1.4 Teoremas de Picard e Peano

Nesta seção iremos rever as demostrações de alguns resultados que fornecem condições neces-
sárias para estabelecer a existência e unicidade de soluções de um Problema de Valor Inicial. Os
principais resultados desta seção foram desenvolvidos por Charles Émile Picard (1856 - 1941) e pelo
matemático italiano Giuseppe Peano (1858 - 1932).

Denição 1.3. Uma aplicação f : Ω ⊂ R × Rn → Rn chama-se Lipschitziana em Ω relativamente


à segunda variável se existe uma constante k tal que

|f (t, x) − f (t, y)| ≤ k|x − y|

para todos (t, x), (t, y) ∈ Ω; k chama-se constante de Lipschitz de f .

Proposição 1.2. Se f : Ω ⊂ R × Rn −→ Rn admite derivada parcial em relação à segunda variável,


∂f
x), com k ∂x
∂xi (~
∂f
i
(~x)k ≤ k em Ω para todo i = 1, . . . , n e Ωt = {x|(t, x) ∈ Ω} é um conjunto convexo
para todo t, então f é Lipschitziana em Ω e k é sua constante de Lipschitz.


Demonstração. Suponha por hipótese que, para (t, ~x) ∈ Ω, ∂f∂x(~xi ) ≤ k.

Em seguida, como Ωt (para t arbitrário) é convexo, então para todo x0 , x00 ∈ Ω e α ∈ (0, 1),
temos que,
αx0 + (1 − α)x00 ∈ Ωt .

Considere
f : Ωt ⊂ R × Rn −→ Rn
(t, x) 7−→ f (t, x),
onde f (t, ~x) = (f1 (t, ~x), f2 (t, ~x), ..., fn (t, ~x)).

18
Em geral, temos que a função f : Ωt ⊂ R × Rn −→ Rn é contínua, derivável, se e somente se,
cada

fj : Ωt −→ R
(t, x) 7−→ fj (t, x)
fj é contínua e derivável, j = 1, . . . , n.

Perante isto, como ∂x


∂fj
j
existe, ∀ (t, ~x) ∈ Ω, então, fj é contínua em Ω e derivável em Ωt ⊂ Ω.
Lembrando que, todo conjunto convexo é conexo por caminhos e que todo conjunto conexo por
caminhos é conexo, temos então que Ωt é conexo. Então, pelo teorema do valor médio, temos
|fj (t, x00 ) − fj (t, x0 )| ∂fj (t, x̄)
 
∂fj (t, x̄)
= ≤ sup
; (t, x̄) ∈ Ωt
|x00 − x0 | ∂xj ∂xj

 
00 0
∂fj (t, x̄)
⇒ |fj (t, x ) − fj (t, x )| ≤ sup k(t, x00 ) − (t, x0 )k ≤ kk(t, x00 ) − (t, x0 )k.
∂xj

Observação 1.2. A aplicação é dita localmente Lipschitziana em Ω se cada (t0 , x0 ) tem uma
vizinhança V = V (t0 , x0 ) na qual f é Lipschitziana com respeito a segunda variável, (ver [8]).
Lema 1.2. (Lema da Contração) Sejam (X, d) um espaço métrico completo ( Apêndice A) e
F : X −→ X uma contração, isto é, d(F (x), F (y)) ≤ k · d(x, y), 0 ≤ k < 1. Existe um único
ponto xo p por F , isto é, F (p) = p. Além disso, p é um atrator de F , isto é, F n (x) −→ p quando
n −→ ∞, para todo x ∈ X.

Demonstração. Existência.

Sejam x ∈ X e xn = F n (x). Provaremos que xn é uma sequência de Cauchy (Apêndice A). Para
isto, mostraremos que existe 0 ≤ k < 1 tal que

d(xn+1 , xn ) ≤ k n d(x1 , x0 ), ∀n ≥ 0. (1.15)

De fato. Inicialmente, como F é contração, temos que ∃ k < 1 tal que

d(xn+1 , xn ) = d(F n+1 (x), F n (x))


= d(F (F n (x)), F (F n−1 (x))
≤ kd(F n (x), F n−1 (x))
= kd(xn , xn−1 ).

19
Para mostrarmos (1.15) utilizaremos o princípio da indução nita. Para n = 1 o resultado segue

d(x2 , x1 ) = d(F (F (x), F (x))


≤ kd(F (x), x)
≤ kd(F (x), F 0 (x))
= d(x1 , x0 ),

uma vez que a distancia entre eles vai diminuindo.

Suponha que (1.15) seja válida para um n ∈ N. Precisamos mostrar que será válida para n + 1,
isto é,

d(xn+2 , xn+1 ) ≤ k n+1 d(x1 , x0 )

Mas, temos que,

d(xn+2 , xn+1 ) ≤ kd(xn+1 , xn ) ≤ k · k n d(x1 , x0 ) = k n+1 d(x1 , x0 ).

Sendo assim, dados m ≥ n tal que m = n + r temos, para algum r ∈ N, que

d(xm , xn ) = d(xn+r , xn )
≤ d(xn+1 , xn ) + d(xn+2 , xn+1 ) + ... + d(xn+r , xn+(r−1) )
≤ k n d(x1 , x0 ) + k(k n d(x1 , x0 )) + ... + (k · k · · · k) ·k n d(x1 , x0 )
| {z }
r−1 vezes
n n+1 n+r−1
≤ (k + k + ... + k )d(x1 , x0 )
< (k n+0 + k n+1 + ... + k n+(r−1) + ...)d(x1 , x0 )
X∞
≤ k n k i d(x1 , x0 )
i=0
kn
= d(F (x), x) −→ 0, quando n −→ ∞.
1−k

Isto prova que xn é uma sequência de Cauchy, e como X é completo, tal sequência converge. Digamos
para um p ∈ X .

20
Armação: p é ponto xo de F . Com efeito,

F (p) = F (lim xn )
= lim F (xn ) (Toda contração é contínua (ver [11], [13]))
= lim F (F n (x))
= lim F n+1 (x)
= lim xn+1
=p

Unicidade.

Sejam p e q dois pontos xos de F , então F (p) = p e F (q) = q . Admita p 6= q . Assim,

d(p, q) = d(F (p), F (q))


≤ kd(p, q) (F é contração)
< d(p, q),

o que é um absurdo. Logo, p é o único ponto xo de F .

Corolário 1.1. Seja F : X → X uma aplicação sobre o espaço métrico X . Suponhamos que F m
seja uma contração para algum inteiro positivo m. Então:

i. F tem um único ponto xo;

ii. Para todo p̄ ∈ X , a sequência {F n (p̄)}n∈N converge ao ponto xo.

Demonstração.

i. Mostremos inicialmente que existe o ponto xo de F . Por hipótese F m é uma contração e
pelo Lema 1.2 existe um e só um p ∈ X tal que F m (p) = p. Mas F (F m (p)) = F m (F (p)),
para todo p ∈ X e sendo p ponto xo de F m , temos:

F (p) = F (F m (p)) = F m (F (p)).

E isto nos diz que F (p) também é ponto xo de F m . Pela unicidade do lema anterior, temos
que F (p) = p e isto implica que p é ponto xo de F . Dessa forma, esse é o único ponto xo,
pois todo ponto xo de F é também ponto xo de F m o qual é único.

21
ii. Dena p̄ = F (x0 ). Pelo lema anterior, a sequência {F n (x0 )}n∈N converge em X para o único
ponto xo de F . Portanto, para todo p̄ ∈ X , a sequência {F n (p̄)}n∈N converge para o ponto
xo.

Corolário 1.2. Sejam X um espaço métrico e f : X → X uma aplicação. Suponhamos que existem
m, n ∈ N e 0 < c < 1 tal que

d (F m (x), F n (y)) ≤ c · d(x, y), ∀x, y ∈ X.

Então F tem um único ponto xo.

Demonstração. Dados x, y ∈ X temos


d (F m+n (x), F m+n (y)) = d (F m (F n (x)) , F n (F m (y)))
≤ c · d (F n (x), F m (y))
= c · d (F m (y), F n (x))
≤ c2 · d(y, x)
= c2 · d(x, y).

Como 0 < c2 < 1, então F m+n é uma contração. Pelo Corolário 1.1 item i., F tem um único ponto
xo.

Teorema 1.1. (Teorema de Picard) Considere o Problema de Valor Inicial


x0 = f (t, x),

(1.16)
x(t0 ) = x0 ,

onde f contínua e lipschitziana em Ω = Ia (t0 )×Bb (x0 ), Ia = {t; |t − t0 | ≤ a} e Bb = {x; |x − x0 | ≤ b}.


Se kf k ≤ M em Ω, existe uma única solução para (1.16) em Iα com α = min a, Mb e M =


sup{|f (t, x)|; (t, x) ∈ Ia × Bb }, conforme ([20]).

Demonstração. Seja X = C(Ia (t0 ), Bb (x0 )) o espaço métrico completo das funções contínuas ϕ :
Ia −→ Bb com a métrica uniforme

d(ϕ1 , ϕ2 ) = sup |ϕ1 (t) − ϕ2 (t)|.


t∈Ia

Para ϕ ∈ X , dena F (ϕ) : X −→ X por


Z t
F (ϕ)(t) = x0 + f (s, ϕ(s))ds, ∀t ∈ Iα .
t0

22
Note que,

1) F está bem denida.

De fato, F (ϕ) é uma aplicação contínua se ϕ o é. Além disso, se ϕ ∈ X e t ∈ Iα

Z t Z t Z t

|F (ϕ(t)) − x0 | = f (s, ϕ(s))ds ≤
|f (s, ϕ(s))|ds ≤ M ds ≤ M |t − t0 | ≤ M α ≤ b,
t0 t0 t0

o que signica dizer que a imagem da aplicação F (ϕ) está contida em X se ϕ ∈ X . Logo, F leva
aplicações em X nele mesmo. O que implica que F (X) ⊆ X .

2) F n é uma contração para n sucientemente grande.

Com efeito, provemos que existe um n0 ∈ N tal que F n é contração para todo n ≥ n0 . De fato,
seja c a constante de Lipschitz de f em relação a segunda variável.

Por indução provaremos que para todo n ∈ N, tem-se que


cn
|F n (ϕ1 )(t) − F n (ϕ2 )(t)| ≤ |t − t0 |n d(ϕ1 , ϕ2 ), ∀ t ∈ Ia .
n!

Daí, para n = 1, temos que

Z t Z t

|F (ϕ1 )(t) − F (ϕ2 )(t)| = f (s, ϕ1 (s))ds − f (s, ϕ2 (s))ds
t t0
Z 0t

= (f (s, ϕ1 (s))ds − f (s, ϕ2 (s)))ds
t0
Z t
≤ |f (s, ϕ1 (s)) − f (s, ϕ2 (s))|ds.
t0

Pela condição de Lipschitz


|f (s, ϕ1 (s)) − f (s, ϕ2 (s))| ≤ c|ϕ1 − ϕ2 | ≤ c d(ϕ1 , ϕ2 ),

temos que
Z t
|F (ϕ1 )(t) − F (ϕ2 )(t)| ≤ c d(ϕ1 , ϕ2 )ds
t0
Z t
≤ c d(ϕ1 , ϕ2 ) ds
t0
≤ c d(ϕ1 , ϕ2 )|t − t0 |.

23
Assumindo a hipótese de indução válida para um certo n ∈ N, temos que mostrar
cn+1
|F n+1 (ϕ1 )(t) − F n+1 (ϕ2 )(t)| ≤ |t − t0 |n+1 d(ϕ1 , ϕ2 ).
n + 1!

De fato,

|F n+1 (ϕ1 )(t) − F n+1 (ϕ2 )(t) | = |F (F n (ϕ1 )(t) ) − F (F n (ϕ2 )(t) )|
Z t
≤ |f (s, F n (ϕ1 (s))) − f (s, F n (ϕ2 (s)))|ds
t0
Z t
≤ c|F n (ϕ1 (s)) − F n (ϕ2 (s))|ds (f é Lipschitz)
t0
t
cn
Z
≤c |s − t0 |n d(ϕ1 , ϕ2 )ds (Hipótese)
t0 n!
Z t
cn+1
≤ d(ϕ1 , ϕ2 ) |s − t0 |n ds
n! t0
cn+1 |t − t0 |n+1
≤ d(ϕ1 , ϕ2 )
n! n+1
cn+1
≤ |t − t0 |n+1 d(ϕ1 , ϕ2 ),
(n + 1)!
o que ca demonstrado pelo princípio de indução.

Como |t − t0 | ≤ α, temos que


cn an
|F n (ϕ1 )(t) − F n (ϕ2 )(t)| ≤ d(ϕ1 , ϕ2 ), t ∈ Ia
n!

Como o fatorial domina qualquer exponencial, temos que xado 0 < µ < 1, existe n0 tal que
n! < µ, ∀n ≥ n0 . Portanto, ∀ n ≥ n0 , F é uma contração, como queríamos demonstrar. Pelo
cn an n

lema da contração, existe uma única ϕ tal que F (ϕ) = ϕ. Mas como todo ponto xo de F também
é de F n , segue que F só possui este ponto xo, e isto prova o Teorema de Picard.

Note que a demonstração acima é construtiva, então podemos utilizá-la para encontrar uma
solução a partir de uma sequência de aproximações.
Exemplo 1.7. Considere o problema de valor inicial
x0 = 2tx,


x(0) = 1.

Dena, Z t
F (ϕ) = 1 + 2s ϕ(t) ds.
0

24
Tomando ϕ0 (t) ≡ 1, então pelo método de aproximações sucessivas, obtemos
Z t
ϕ1 (t) = F (ϕ0 )(t) = 1 + 2s ds = 1 + t2 ,
0
t
t4
Z
ϕ2 (t) = F (ϕ1 )(t) = 1 + 2s(1 + s2 ) ds = 1 + t2 + ,
0 2!

E, indutivamente encontramos
t4 t6 t2n
ϕn (t) = 1 + t2 + + + ... + .
2! 6 n!

Uma solução será o limite dessa função, em outras palavras,


2
ϕ(t) = et .

De fato,
2 2
ϕ0 (t) = 2tet = 2tϕ(t) e ϕ(0) = e0 = 1.

Corolário 1.3. Seja Ω aberto em R × Rn e seja f : Ω −→ Rn contínua com D2 f também contínua.


Para todo ponto (t0 , x0 ) em Ω existe uma vizinhança V = I(t0 ) × B(x0 ) tal que x0 = f (t, x),
x(t0 ) = x0 tem uma única solução em I(t0 ). Além disso, o gráco desta solução está contido em V .

Demonstração. Seja U uma vizinhança de (t0 , x0 ) tal que f |U é Lipschitziana e |f | < M em U . Seja
α > 0 sucientemente pequeno para que V = Iα (t0 ) × Bb (x0 ) ⊆ U onde b = α · M .

Pelo Teorema de Picard, sabe-se que F n é uma contração e ainda que,


k n |t − t0 |n
|F n (ϕ1 (t)) − F n (ϕ2 (t))| ≤ d(ϕ1 , ϕ2 )
n!

Como o fatorial domina qualquer exponencial segue que, ∀ n ≥ n0 , F n é contração, e portanto


o corolário resulta da mesma maneira que o Teorema de Picard.

Proposição 1.3. Seja f contínua e Lipschitziana em Ω = [a, b] × Rn . Então, para todo (t0 , x0 ) ∈ Ω
existe uma única solução de dx
dt = f (t, x) em I = [a, b].

Demonstração. Considere X = C(I, Rn ) e F : X −→ X denida como na demonstração do Teorema


de Picard, a qual é dada por:
Z t
F (ϕ)(t) = x0 + f (s, ϕ(s))ds.
t0

25
Pelo Teorema 1.1, mostramos que F n é uma contração para n sucientemente grande, isto é,
d(F n (x), F n (y)) ≤ k · d(x, y), 0 ≤ k < 1 e esse fato é observado na desigualdade:

k n |t − t0 |n
|F n (ϕ1 (t)) − F n (ϕ2 (t))| ≤ d(ϕ1 , ϕ2 ).
n!

Além disso, F tem um único ponto xo, de acordo com Corolário 1.1. Logo, existe uma única
solução.

Exemplo 1.8. f (x) = 3x 3 é Lipschitz?


2

Seja 0 < x < y . De acordo com o teorema do valor médio existe z , com x < z < y , tal que
f (y) − f (x)
f 0 (z) = ⇒ |f (y) − f (x)| = |f 0 (z)||y − x|.
y−x

Mas se y −→ 0 , f 0 (z) −→ ∞, logo não é Lipschitz.

Considere o PVI, c ∈ R, ϕc : R −→ R dada por


(
(t − c)3 , t ≥ c,
ϕc (t) =
0, t ≤ c.

Daí, ϕ é uma solução da equação x0 = 3x 3 . Com efeito,


2

(
3(t − c)2 , t ≥ c,
ϕ0c (t) =
0, t ≤ c.

(
ϕ (0) = (0 − 0)3 = 0, c = 0,
Logo ϕ0c (t) = 3xc (t) e xc (0) = c
2
3
ϕc (0) = 0 c ≥ 0.

E isso nos diz que se f não for de Lipschitz, então PVI deste exemplo não tem solução única.

Teorema 1.2. (Teorema de Arzela) Seja (X, d) um espaço métrico compacto. Seja F uma
família equicontínua de funções ϕ : X −→ R. Isto é, para todo  > 0, ∃ δ > 0 tal que se d(x, y) < δ
então |ϕ(x) − ϕ(y)| <  para toda ϕ ∈ F . Se F é uniformemente limitada (isto é, existe M > 0 tal
que kϕk < M para todo ϕ ∈ F ), então toda sequência {ϕn } de elementos de F tem uma subsequência
{ϕnk } uniformemente convergente em X .

Demonstração. ver ([13, p.244]).

26
Teorema 1.3. (Teorema de Peano) Seja f contínua em Ω = Ia × Bb onde Ia = {t; |t − t0 | ≤ a},
dt = f (x, t) tem pelo menos uma solução em Iα ,
Bb = {x; |x − x0 | ≤ b}. Se |f | < M em Ω então dx
onde α = min a, M
 b

Demonstração. Pelo Teorema da Aproximação de Weiertrass (ver [13, p.250]), existe uma sequência
fn de funções, cujas componentes são polinômios, que converge para f , uniformemente em Ω. Para
n suciente grande fn satisfaz as hipóteses do Teorema de Picard.

Seja ϕn solução de x0 = fn (t, x), x(t0 ) = x0 em Ia , cuja existência e unicidade são garantidas
pelo Teorema de Picard.

A família {ϕn } é equicontínua e uniformemente limitada, pois


Z t
0
|ϕn (t) − ϕn (t )| = fn (s, ϕ(s))ds ≤ M |t − t0 |

0 t

e |ϕn − x0 | ≤ b, para todo n sucientemente grande(ver [8]). Pelo Teorema de Arzela existe uma
subsequência que denotaremos também por ϕn , tal que ϕn converge uniformemente em Iα para uma
função ϕ. Mostraremos que ϕ é solução para o problema

(
dx
= f (t, x),
dt
x(t0 ) = x0 .

De fato, dado  > 0, ∃ n0 ∈ N; n ≥ n0 , tem -se


Z t

0 ≤ x0 + f (s, ϕ(s))ds − ϕn (t)
t0
Z t Z t

= x0 + f (s, ϕ(s))ds − x0 − fn (s, ϕn (s))ds
t0 t0
Z t Z t

= f (s, ϕ(s))ds −
fn (s, ϕn (s))ds
t0 t0
Z t
≤ |f (s, ϕ(s)) − f (s, ϕn (s)) + f (s, ϕn (s)) − fn (s, ϕn (s))|ds
t0
Z t Z t
≤ |f (s, ϕn (s)) − f (s, ϕ(s))|ds + |fn (s, ϕn (s)) − f (s, ϕn (s))|ds
t0 t0

Tomando o limite quando n −→ ∞, temos

27
Z t

lim x0 + f (s, ϕ(s))ds − ϕn (t) ≤
n−→∞ t0
Z t Z t
lim |f (s, ϕn (s)) − f (s, ϕ(s))|ds + lim |fn (s, ϕn (s)) − f (s, ϕn (s))|ds
t0 n−→∞ t0 n−→∞

Pela desigualdade anterior, obtemos


Z t
lim ϕn (t) = x0 + f (s, ϕ(s))ds.
t0

Por outro lado, pelo Teorema de Arzela Ascoli, lim ϕn (t) = ϕ(t).
n−→∞

Pela unicidade de limites, chegamos a


Z t
ϕ(t) = x0 + f (s, ϕ(s))ds.
t0

Como demonstrado anteriormente, sabemos que a equação (1.7) é equivalente à equação integral,
então segue que em ϕ( x) = x0 + tt0 f (s, ϕ(s))ds é solução para o problema de Cauchy.
R

28
Capítulo 2

Sistema de equações lineares de primeira


ordem

2.1 Introdução

A proposta central deste capítulo será estudar sistemas de equações diferenciais ordinárias line-
ares homogêneas de primeira ordem, com coecientes constantes. Assim sendo, versaremos sobre o
estudo dos campos lineares
f (x) = TA (x),

onde o operador linear f := TA : Rn −→ Rn é dado por TA (x) = Ax, sendo A = (aij )n×n uma
matriz real e x um vetor coluna, isto é, o produto da matriz A com o vetor n × 1 formado pelas
coordenadas canônicas de x ∈ Rn .

Preliminarmente, cogitaremos sistemas de equações diferenciais ordinárias que possam estar sob
a forma de um Problema de Cauchy
x0 = f (t, x),


x(t0 ) = x0 ,
onde a função f (t, x) está sob a forma A(t)x + B(t), A(t) = [aij (t)]n×n e B(t) = [bij (t)]n×1 são
matrizes cujas entradas são funções contínuas na variável t num intervalo I . Tais equações são
chamadas de Lineares.

2.2 Conceitos e denições

Denição 2.1. Uma EDO da forma x0 = A(t)x + B(t), onde x = (x1 , ..., xn ) e t é a variável real

29
independente é classicada como sistema de equações diferenciais ordinárias lineares de
primeira ordem.

Quando B(t) ≡ 0 o sistema acima se reduz a x0 = A(t)x. Este sistema reduzido é denominado
sistema de equações diferenciais ordinárias lineares de primeira ordem homogêneo.
Caso contrário, o sistema é dito não homogêneo.

Considere o sistema de equações diferenciais ordinárias lineares não homogêneo na sua forma
vetorial,
x0 = A(t)x + B(t). (2.1)

Além da forma vetorial, podemos escrever o sistema na forma matricial


x01
      
a11 (t) a12 (t) . . . a1n (t) x1 b1 (t)
 x0   a21 (t) a22 (t) . . . a2n (t)   x2   b2 (t) 
 2 
 ..  =  .. .. ... ..   ..  +  ..  ,
   
 .   . . .   .   . 
xn 0 an1 (t) an2 (t) . . . ann (t) xn bn (t)

ou na forma,  0

 x1 = a11 (t)x1 + a12 (t)x2 + . . . + a1n (t)xn + b1 (t),
 x0 = a21 (t)x1 + a22 (t)x2 + . . . + a2n (t)xn + b2 (t),

2
..

 .
x0n = an1 (t)x1 + an2 (t)x2 + . . . + ann (t)xn + bn (t).

Armar que x(t) ∈ Rn , com t ∈ R, é uma solução da equação diferencial autônoma

x0 = Ax

signica que, para todo t ∈ R,


x0 (t) = Ax(t).

Equivalentemente, as funções coordenadas xi : R −→ R de x(t) são soluções do sistema associado à


matriz A, quer dizer, do sistema de equações diferenciais lineares homogêneas:
 0

 x1 = a11 (t)x1 + a12 (t)x2 + . . . + a1n (t)xn ,
 x0 = a21 (t)x1 + a22 (t)x2 + . . . + a2n (t)xn ,

2
..

 .
x0n = an1 (t)x1 + an2 (t)x2 + . . . + ann (t)xn .

Denição 2.2. Um vetor solução do sistema (2.1) num intervalo I é qualquer matriz coluna y =
y1 (t) y2 (t) . . . yn (t) cujos elementos são funções diferenciáveis que satisfazem o sistema (2.1),
 T

onde [ ]T signica matriz transposta.

30
Am de buscar uma melhor compreensão das denições iniciais desse capítulo, ilustraremos
alguns exemplos.
Exemplo 2.1. Considere o sistema
 0
 x1 = x1 + x2 + x3 ,
x0 = 2x1 + x2 − x3 ,
 20
x3 = −8x1 − 5x2 − 3x3 ,
o qual pode ser também escrito como
 
1 1 1
x0 =  2 1 −1  · x.
−8 −5 −3
Tal sistema admite as seguintes soluções:
     
−3 −4 0
x1 (t) =  4  · e−t , x2 (t) =  5  · e−2t , e x3 (t) =  1  · e2t .
2 7 −1
Exemplo 2.2. A equação

an (t)y (n) + . . . + a1 (t)y 0 + a0 (t)y = g(t)

é um exemplo de EDO que pode ser visto como um sistema de equações de 1a ordem.

De fato,
1
y (n) = (−an−1 (t)y (n−1) − . . . − a1 (t)y 0 − a0 (t)y + g(t)).
an (t)
Chamando y1 = y, y2 = y 0 , y3 = y 00 , . . . , yn = y (n−1) , obtemos

y10 = y 0 = y2
y20 = y 00 = y3
..
.
0
y(n−1) = y (n−1) = yn
yn0 = y (n) = 1
an (t) (−an−1 (t)y
(n−1) − . . . − a1 (t)y 0 − a0 (t)y + g(t))

Na forma matricial obtemos


     
y10 0 1 0 ... 0 0

y1
0
 y   0 0 1 ... 0  0 
  y2 
 
 ..   .. .. .. ..   ..   .
 2  
...
  
 . = . . . . 

. + ..  
 0    
  
yn−1   0 0 0 ... 1  yn−1   0 


−a0 (t) −a1 (t) −a2 (t) −an−1 (t) g(t)
yn0 an (t) an (t) an (t) ... an (t) yn an (t)

31
E vetorialmente,
y 0 = A(t)y + B(t)

 
0 1 0 ... 0
 0 0 1 ... 0 
 . .. .. ... ..
 
.
 T
onde y = (y1 . . . yn ) , A(t) = 
 . . . .  e B(t) = 0 . . . 0 g(t)
T

 an (t)
 0 0 0 ... 1 
 
−a0 (t) −a1 (t) −a2 (t) −an−1 (t)
an (t) an (t) an (t) ... an (t)

Exemplo 2.3. (Vibrações acopladas) Considere o sistema de duas massas m1 e m2 na Figura 2.1
conectados entre si por uma mola com constante elástica k2 e às paredes por molas com constantes
elásticas k1 e k3 respectivamente (ver [1] e [9]). Sejam u(t) o deslocamento de m1 da sua posição
de equilíbrio no tempo t e v(t) o deslocamento de m2 do seu equilíbrio no instante t. (estamos
tomando a direção positiva para a direita.) Seja c o coeciente de atrito para a superfície em que
as massas deslizam. Uma aplicação da segunda Lei de Newton nos diz que:

m1 u00 (t) = cu0 (t) − (k1 + k2 )u(t) + k2 v(t),


m2 v 00 (t) = cv 0 (t) − (k2 + k3 )v(t) + k2 u(t).

Temos aqui um sistema de duas equações diferenciais ordinárias de segunda ordem. Denindo
x1 = u, x2 = u0 , x3 = v e x4 = v 0 , obtemos o sistema de primeira ordem

 0 
0 1 0 0
  
x1 x1
x02  − k1m+k2 − mc1 k2
m1 0  x2 
 = 1 · 
x03   0 0 0 1  x3 
x04 k2
m2 0 − k2m+k
2
3
− mc2 x4

Figura 2.1: massas acopladas


Observação 2.1. Uma das utilidades em se trabalhar com um sistema está na redução de ordem.
De fato, nos Exemplos 2.2 e 2.3 vimos que uma EDO de ordem n ou um sistema de EDO de

32
segunda ordem podem ser estudadas como um sistema de equações de ordem 1, os quais podem ser
analisados analiticamente.

Teorema 2.1. O conjunto de todas as soluções do sistema não-homogêneo é obtido adicionando-se


a uma solução particular todas as soluções do sistema homogêneo.

Demonstração. Seja ϕ0 = ϕ0 (t) uma solução particular do sistema não homogêneo (2.1) e ϕh =
ϕh (t) uma função diferenciável de t. E façamos ϕ(t) = ϕ0 (t) + ϕh (t).

• Suponhamos que ϕh é solução do sistema homogêneo. Daí,

ϕ0 = ϕ00 + ϕ0h
= Aϕ0 + B + Aϕh
= A(ϕ0 + ϕh ) + B
= Aϕ + B.

Portanto, ϕ é solução do sistema não homogêneo.

• Se ϕ é solução do sistema não homogêneo, então

ϕ0 = ϕ00 + ϕ0h ⇐⇒ Aϕ + B = Aϕ0 + B + ϕ0h


⇐⇒ A(ϕ − ϕ0 ) = ϕ0h
⇐⇒ ϕ0h = Aϕh .

Desse modo, ϕh é solução do sistema homogêneo.

Em razão deste teorema, estudaremos as propriedades dos sistemas homogêneos e no nal ve-
remos um método para encontrar uma solução particular do sistema não homogêneo, uma vez
conhecidas as soluções do homogêneo.

Considere o sistema linear homogêneo

x0 = A(t)x, x ∈ Rn . (2.2)

Teorema 2.2. . São válidas as seguintes armações:

1. Se ϕ(t) é uma solução do sistema (2.2) e ϕ(t0 ) = 0, então ϕ(t) ≡ 0.

33
2. Uma combinação linear c1 ϕ1 + ... + ck ϕk de soluções do sistema homogêneo é também uma
solução do mesmo sistema.

3. As soluções ϕ1 , ..., ϕk de (2.2) são linearmente independentes se, e somente se, os vetores
ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.

Demonstração. 1. A solução nula também satisfaz (2.2) com a condição inicial x(t0 ) = 0. Pelo
teorema de Picard, segue que ϕ(t) ≡ 0.

2. Seja ϕ(t) = c1 ϕ1 (t) + ... + ck ϕk (t). Derivando com respeito a variável t, obtemos
ϕ0 = c1 ϕ01 + ... + ck ϕ0k
= c1 Aϕ1 + ... + ck Aϕk
= A(c1 ϕ1 + ... + ck ϕk )
= A(ϕ).

E isto implica que ϕ é solução de (2.2).

3. (=⇒) Se ϕ1 , ..., ϕk são linearmente independentes, para todo t, em particular são linearmente
independentes em t = t0 .
De fato, sejam c1 , ..., ck tais que
c1 ϕ1 (t0 ) + ... + ck ϕk (t0 ) = 0.

Denindo ϕ(t) = c1 ϕ1 (t) + ... + ck ϕk (t), temos que ϕ é solução de (2.2), com ϕ(t0 ) = 0. Daí,
pelo item 1., ϕ(t) = 0, para todo t. Como ϕ1 , ..., ϕk são linearmente independentes para todo
t, por hipótese, temos c1 = ... = ck = 0.
Logo, ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.
(⇐=) Digamos que
c1 ϕ1 (t) + ... + ck ϕk (t) = 0, ∀ t.

Em particular, para t = t0 , temos que

c1 ϕ1 (t0 ) + ... + ck ϕk (t0 ) = 0.

Isto implica que c1 = ... = ck = 0, pois ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.

Portanto, ϕ1 , ..., ϕk são linearmente independentes.

34
Corolário 2.1. O conjunto S das soluções do sistema (2.2) forma um espaço vetorial real de
dimensão n.

Demonstração. Vamos vericar as seguintes armações:

• S é um espaço vetorial. Com efeito,

1. 0 ∈ S , a solução nula satisfaz (2.2).

2. Uma combinação linear de soluções é solução, segue do item 2. do Teorema (2.2).

• Por m, dim S = n.

Seja β = {v1 , ..., vn } uma base de Rn . Considere o conjunto β 0 = {ϕ1 , ..., ϕn }, onde ϕi são
soluções de (2.2), com ϕi (t0 ) = vi , ∀ i = 1, ..., n, e t0 xo.

1. β 0 é linearmente independente.
De fato, pelo item 3 do Teorema 2.2, como ϕ1 (t0 ) = v1 , ..., ϕn (t0 ) = vn , são LI, segue que
ϕ1 (t), ..., ϕn (t) são LI, ∀ t ∈ I .

2. β 0 gera S .
Seja ϕ uma solução em S . Daí,

ϕ(t0 ) = c1 v1 + ... + cn vn = c1 ϕ1 (t0 ) + ... + cn ϕn (t0 ).

Assim, a solução ψ(t) = c1 ϕ1 (t) + ... + cn ϕn (t) , tem a mesma condição inicial que ϕ. Pelo
Teorema de Picard ϕ(t) = ψ(t) , ou seja, ϕ(t) = c1 ϕ1 (t) + ... + cn ϕn (t).

Logo, β 0 é base de S , ou seja, dim S = n.

Denição 2.3. (Conjunto Fundamental): Qualquer base de S , conforme o corolário (2.1), será
chamada de um sistema fundamental de soluções da equação (2.2) e qualquer matriz cujas colunas
são vetores de uma base de S é chamada uma matriz fundamental da equação. Dessa forma, um
conjunto fundamental para o sistema homogêneo de ordem n é um conjunto de n vetores soluções
LI para (2.2).

Observação 2.2. Se ϕ1 , ..., ϕn são n soluções de (2.2) com A = A(t) uma matriz n × n, denotamos
por φ(t) a matriz cujas colunas são vetores colunas ϕ1 (t), ..., ϕn (t) de Rn .

35
Notemos que a matriz satisfaz à equação diferencial matricial

φ0 (t) = A(t)φ(t), (2.3)

onde φ(t) = [ϕ1 (t), ..., ϕn (t)]. De fato,

φ0 (t) = [ϕ01 (t), ..., ϕ0n (t)]


= [A(t)ϕ1 (t), ..., A(t)ϕn (t)]
= A(t)[ϕ1 (t), ..., ϕn (t)]
= A(t)φ(t).

Vejamos algumas propriedades importantes da matriz fundamental.

Proposição 2.1. São verdadeiros os itens abaixo:

1. Seja φ(t) uma solução da equação (2.3) e C ∈ Mn×n , então φ(t)C também é solução de (2.3).

2. Sejam φ(t) e ψ(t) soluções de (2.3), sendo φ(t) matriz fundamental de (2.2). Então existe
uma única matriz constante C ∈ Mn×n tal que, para todo t ∈ I , ψ(t) = φ(t)C . C é não
singular (ver [4]) se, e somente se, ψ é matriz fundamental.

3. Suponhamos que A(t + T ) = A(t) para todo t ∈ R. Seja φ(t) matriz fundamental de (2.2)então
existe matriz constante C ∈ Mn×n inversível tal que φ(t + T ) = φ(t)C . Note que se φ(t) é
matriz fundamental C = φ(0)−1 φ(T ).

4. Suponha A = A(t) constante. Então, a matriz fundamental está denida para todo t ∈ R.
Além disso, se φ(0) = Id , então φ(t + s) = φ(t)φ(s) e φ−1 (t) = φ(−t), onde φ(t) está em
conformidade a observação (2.2).

Demonstração. Com efeito,

1. (φ(t)C)0 = φ0 (t)C = A(t)φ(t)C .

2. φ(t) é inversível, pois é a matriz fundamental. Daí, derivando φ−1 (t)φ(t) = Id , temos

(φ−1 (t))0 φ(t) + φ−1 (t)φ0 (t) = 0.

Como φ(t) é solução de 2.3, temos (φ−1 (t))0 φ(t) + φ−1 A(t)φ(t) = 0. Daí

(φ−1 (t))0 = −φ−1 A(t).

36
Assim,
[φ−1 (t)ψ(t)]0 = (φ−1 )0 (t)ψ(t) + φ−1 (t)ψ 0 (t)
= −φ−1 (t)A(t)ψ(t) + φ−1 (t)A(t)ψ(t)
= 0.

Logo, φ−1 (t)ψ(t) = C . E, desse forma, ψ(t) = φ(t)C .


Como φ(t) é não singular, segue que C é não singular se, e somente se, ψ(t) é matriz funda-
mental.

3. Basta observar que ψ(t) = φ(t + T ) é matriz fundamental de (2.2).


De fato,
• ψ(t) = φ(t + T ) é solução de x0 = A(x)x, pois

ψ 0 (t) = φ0 (t + T )
= A(t + T )φ(t + T )
= A(t)ψ(t).

• ψ(t) é não singular.


det(ψ(t)) = det(φ(t + T )) 6= 0

Pelo ítem 2, segue o resultado. Com efeito,

φ(t + T ) = φ(t)C.

Assim,
C = φ−1 (t)φ(t + T ),
= φ−1 (0)φ(T ).

4. Como A não depende de t, segue que as soluções estão denidas para todo t ∈ R. Logo, a
matriz fundamental está denida para todo t ∈ R.
Fixado s ∈ R, denamos ψ1 (t) = φ(t + s) e ψ2 (t) = φ(t)φ(s). Assim, ψ1 e ψ2 são soluções
satisfazendo ψ1 (0) = φ(s) e ψ2 (0) = φ(0)φ(s) = φ(s). Pela unicidade das soluções, que
ψ1 (t) = ψ2 (t), ou seja, φ(t + s) = φ(t)φ(s).

Tomando s = −t, chegamos a

φ(0) = φ(t)φ(−t) =⇒ I = φ(t)φ(−t)


=⇒ φ−1 (t) = φ(−t).

37
Teorema 2.3. (Solução Geral): Sejam {x1 , x2 , ..., xn } um conjunto fundamental do sistema ho-
mogêneo (2.2) em I . Então, a solução geral do sistema homogêneo no intervalo I é

xc = c1 x1 + · · · + cn xn

onde c1 , . . . , cn , são constantes quaisquer; e uma solução geral para o sistema não homogêneo (2.1)
em I é dada por
x(t) = xc (t) + xp (t) = c1 x1 + · · · + cn xn + xp (t),

onde xp (t) é uma solução particular do sistema não homogêneo em I .

Demonstração. Basta notar que,

x0 (t) = x0c (t) + x0p (t)


= c1 x01 (t) + · · · + cn x0n (t) + x0p (t)
= c1 A(t)x1 (t) + · · · + cn A(t)xn (t) + A(t)xp (t) + B(t)
= A(t)(c1 x1 (t) + · · · + cn xn (t) + xp (t)) + B(t)
= A(t)x(t) + B(t).

Observação 2.3. Pelo item 2. do Teorema (2.2), φ(t) é uma matriz fundamental da equação se,
somente se, o determinante de φ(t) é diferente de zero para algum t0 ∈ I.

Denição 2.4. Seja  


a11 (t) a12 (t) . . . a1n (t)
 a21 (t) a22 (t) . . . a2n (t) 
A(t) =  . .. ... ..  .
 
 .. . . 
an1 (t) an2 (t) . . . ann (t)
Então, dene-se o traço da matriz A(t) por

tr [A(t)] = a11 (t) + a22 (t) + · · · + ann (t).

Teorema 2.4. (Fórmula de Liouville) Suponha que ϕ1 (t), ..., ϕn (t) são n soluções da equação
matricial (2.3) sobre um intervalo I e φ(t) é a matriz de funções com as colunas ϕ1 (t), ..., ϕn (t).
Então se t0 ∈ I , R t
tr [A(s)] ds
det φ(t) = det φ(t0 )e t0 ,

para t ∈ I .

38
Demonstração. Suponha que ϕ1 , ..., ϕn são LI. Como, para todo t ∈ I , os vetores ϕ1 (t), ..., ϕn (t)
formam uma base β para Rn , existem funções cij (t) tais que Aϕj = c1j ϕ1 + ... + cnj ϕn e de
det φ(t) = det[ϕ1 , ..., ϕn ], ϕ0j = Aϕj , obtemos

det φ0 (t) = det[ϕ01 (t), ..., ϕn (t)] + det[ϕ1 (t), ϕ02 (t)..., ϕn (t)] + ... + det[ϕ1 (t), ..., ϕ0n (t)]
= det[Aϕ1 , ..., ϕn ] + det[ϕ1 , Aϕ2 ..., ϕn ] + ... + det[ϕ1 , ..., Aϕn ]
= det[c11 ϕ1 + ... + cn1 ϕn , ..., ϕn ] + det[ϕ1 , c12 ϕ1 + ... + cn2 ϕn , ..., ϕn ]
+ ... + det[ϕ1 , ..., c1n ϕ1 + ... + cnn ϕn ]
= c11 det[ϕ1 , ϕ2 , ..., ϕn ] + c21 det[ϕ2 , ϕ2 , ..., ϕn ] + ... + cn1 det[ϕn , ϕ2 , ..., ϕn ]
+ ... + c12 det[ϕ1 , ϕ1 , ..., ϕn ] + c22 det[ϕ1 , ϕ2 , ..., ϕn ] + ... + cn2 det[ϕ1 , ϕn , ..., ϕn ]
+ ... + c1n det[ϕ1 , ϕ2 , ..., ϕ1 ] + c2n det[ϕ1 , ϕ2 , ..., ϕ2 ] + ... + cnn det[ϕ1 , ϕn , ..., ϕn ]
= c11 det[ϕ1 , ϕ2 , ..., ϕn ] + ... + cnn det[ϕ1 , ϕ2 , ..., ϕn ]
= (c11 + c22 + ... + cnn ) det φ(t)
= tr[A(t)]β det φ(t),

pois [A(t)]β = (cij (t)).

Como tr([A(t)]β ) = tr [A(t)], segue que


det φ0 (t)
det φ(t)0 (t) = tr [A(t)] det φ(t) =⇒ = tr [A(t)].
det φ(t)
Integrando a equação acima, obtemos,
Rt det φ0 (s) Rt
t0 det φ(s) ds = t0 tr [A(s)] ds

  Rt
det φ(t)
=⇒ ln (det φ(t0 )) = t0 tr [A(s)] ds

Rt
tr [A(s)] ds
=⇒ det φ(t) = det φ(t0 )e t0 .

Observação 2.4. O det φ(t) é chamado de Wronskiano e será denotado por W (t). Se φ(t) é uma
matriz fundamental da equação (2.2), as soluções desta são dadas por φ(t)v onde v é um vetor
constante.

De fato, se v = (v1 , ..., vn ), então

φ(t)v = v1 ϕ1 + ... + vn ϕn ,

39
onde ϕ1 , ..., ϕn são as soluções que formam as colunas de φ(t), donde
d
[φ(t)v] = v1 ϕ01 + ... + vn ϕ0n
dt
= v1 Aϕ1 + ... + vn Aϕn
= A(v1 ϕ1 + ... + vn ϕn )
= Aφ(t)v.

O que mostra que φ(t)v é solução de (2.2). Qualquer solução de (2.2) é dessa forma. Assim, a
solução de
x0 = A(t)x,


x(t0 ) = x0 ,
é dada por
ϕ(t) = φ(t)v
onde, ϕ(t0 ) = φ(t0 )v = x0 implica que v = φ−1 (t0 )x0 .

Dessa forma,
ϕ(t, t0 , x0 ) = φ(t)φ−1 (t0 )x0 .

Veremos agora como encontrar uma solução da equação não homogênea, conhecidas todas as
soluções da equação homogênea.
   
x11 x1n
 x21   x2n 
Sejam X1 = 
 ..  , . . . , Xn =  .. . Se {X1 , . . . , Xn } for um conjunto fundamental do sistema
  
 .   . 
xn1 xnn
homogêneo x0 = Ax num intervalo I , então a solução geral desse sistema homogêneo é dada por
xc (t) = c1 x1 (t) + · · · + cn xn (t), ou
 
c1 x11 + c2 x12 + · · · + cn x1n
 c1 x21 + c2 x22 + · · · + cn x2n 
xc (t) =  .
.  ⇔ xc = φ(t)v,
 
 . 
c1 xn1 + c2 xn2 + · · · + cn xnn
 
c1
 c2 
onde v =   ..  e φ(t) é uma matriz cujas colunas são preenchidas pelos elementos do conjunto

.
cn
fundamental do sistema homogêneo, ou seja,
 
x11 x12 . . . x1n
 x21 x22 . . . x2n 
φ(t) =  . .
.
 
 . 
xn1 xn2 . . . xnn

40
Temos as seguintes propriedades básicas:

1. det φ(t) 6= 0, pois note que det φ(t) = W (X1 , . . . , Xn ) onde {X1 , . . . , Xn } é conjunto funda-
mental.

2. φ0 (t) = A(t)φ(t), pois cada coluna de φ(t) é solução de (2.2)

Teorema 2.5. (Método de Variação de Parâmetros) Considere o Problema de Valor Inicial


para sistemas de equações diferenciais lineares de primeira ordem não homôgeneo.

x0 = A(t)x + B(t),

(2.4)
x(t0 ) = x0 ,
onde t0 ∈ I . Seja φ(t) uma matriz fundamental do sistema homogêneo associado. Então, x(t) =
φ(t)u(t) é uma solução de (2.4) se, e somente se, u0 (t) = φ−1 (t)B(t), e x(t) é dada por
Z t
x(t) = φ(t)v + φ(t) φ−1 (s)B(s)ds,
t0

onde φ(t)v = φ(t)φ−1 (t0 )x0 é a solução do sistema homogêneo (2.2).

Demonstração. (=⇒) Suponhamos que xp (t) = φ(t)u(t) é uma solução de (2.4). Consideremos a
matriz  
u1 (t)
 u2 (t) 
u(t) =  .  .
 .. 
 

un (t)
Derivando xp (t) = φ(t)u(t) em relação a t, temos

x0p (t) = φ(t)u0 (t) + φ0 (t)u(t).

Substituindo em (2.4), obtemos

φ(t)u0 (t) + φ0 (t)u(t) = Aφ(t)u(t) + B(t).

Como φ0 (t) = Aφ(t) (pois φ(t) é solução do sistema homogêneo associado a (2.4)), segue que

φ(t)u0 (t) + φ0 (t)u(t) = φ0 (t)u(t) + B(t).

Assim,
φ(t)u0 (t) = B(t).

41
Multiplicando a matriz inversa φ−1 (t) em amos os lados, obtemos
φ−1 (t)φ(t)u0 (t) = φ−1 (t)B(t).

Daí,
u0 (t) = φ−1 (t)B(t).

Integrando de t0 a t, tem-se Z t
u(t) = φ−1 (s)B(s)ds.
t0

Portanto xp (t) = φ(t)u(t) é dada por


Z t
xp (t) = φ(t) φ−1 (s)B(s)ds.
t0

Consequentemente, a solução geral para o sistema não homogêneo é


Z t
x(t) = xc (t) + xp (t) = φ(t)v + φ(t) φ−1 (s)B(s)ds.
t0

Fazendo t = t0 , temos Z t0
x(t0 ) = φ(t0 )v + φ(t0 ) φ−1 (s)B(s)ds.
t0
Donde obtemos,
x0 = φ(t0 )v,

e isto nos diz que,


v = φ−1 (t0 )x0 .

Por m, a solução geral de 2.4 é


Z t
−1
x(t) = φ(t)φ (t0 )x0 + φ(t) φ−1 (s)B(s)ds.
t0

(⇐=) Reciprocamente, se
Z t
x(t) = xc (t) + xp (t) = φ(t)v + φ(t) φ−1 (s)B(s)ds
t0

é a solução geral de (2.4), então por derivação obtemos,


Z t
x0 (t) = φ0 (t)v + φ0 φ−1 B(s)ds + φ(t)φ−1 (t)B(t)
t0
Z t
= A(t)φ(t)v + A(t)φ φ−1 (s)B(s)ds + B(t)
t0
 Z t 
−1
= A(t) φ(t)v + φ(t) φ (s)B(s)ds + B(t)
t0
= A(t)x(t) + B(t)

42
Observe que φ(t) tt0 φ−1 (s)B(s)ds é uma solução particular do sistema (2.4), e a solução que em t0
R

vale 0. De fato, para xp (t) = φ(t) tt0 φ−1 (s)B(s)ds temos,


R

Z t
x0p (t) 0
= φ (t) φ−1 (s)B(s)ds + φ(t)φ−1 (t)B(t)
t0
Z t
= Aφ(t) φ−1 (s)B(s)ds + B(t)
t0
= Axp (t) + B(t).

Além disso, xp (t0 ) = 0.

Teorema 2.6. (Teorema da Existência e Unicidade para sistemas de equações) Supo-


nhamos que os elementos das matrizes A(t) e B(t) sejam funções contínuas num intervalo comum
I = [a, b] que contenha t0 . Então, existe uma única solução para o PVI

x0 = A(t)x + B(t), x(t0 ) = x0 , (2.5)

no intervalo I .

Demonstração. Existência. Sejam aij (t) e bi (t) os respectivos elementos das matrizes A(t) e B(t).
Denamos a sequência x(k) (t) por
Z t 
(0) (0) (k) (0)
x (t) = x , x (t) = x + A(s)x(k−1) + B(s) ds, para k = 1, 2, . . .
t0

Assim, cada componente de x(k) (t) é dada por


 
Z t n
(k) (0)
X
xi = xi +  aij xk−1 (s) + bi (s) ds.
j
t0 j=1

Como aij (t) é contínua no intervalo I , então existe uma constante real positiva Mij tal que
|aij (t)| ≤ Mij , com t ∈ I . De forma semelhante, |xi − xi | é contínua e portanto limitada em I .
(1) (0)

Sejam M = max Mij e N > 0 tais que

|aij | ≤ M, para i, j = 1, . . . , n e t ∈ I, (2.6)



(1) (0)
xi (t) − xi (t) ≤ N, para i = 1, . . . e t ∈ I.

(2.7)

43
Então
n
Z tX
(2) (1) (1) (0)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds

t0 j=1
n
Z tX
(1) (0)
≤ M xj (s) − xj (s) ds

t0 j=1

≤ nM N (t − t0 ).
n
Z tX
(3) (2) (2) (1)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds

t0 j=1
n
Z tX
(2) (1)
≤ M xj (s) − xj (s) ds

t0 j=1

Xn Z t
2
≤ nM N |s − t0 | ds
j=1 t0

|t − t0 |2
≤ n2 M 2 N .
2
Por indução
n
Z tX
(k+1) (k) (k) (k−1)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds

t0 j=1
n
Z tX
(k) (k−1)
≤ M xj (s) − xj (s) ds

t0 j=1
n
XZ t |s − t0 |k−1
≤ M nk−1 M k−1 N ds
t0 (k − 1)!
j=1

|t − t0 |k
≤ nk M k N .
k!

Lembrando que t, t0 ∈ I , então |t − t0 | < b − a, segue que



(k+1) (k)
(b − a)k
xi (t) − xi (t) ≤ nk M k N .

k!
Daí,
k−1  
(k) (0) (j+1) (j)
X
xi = xi + xi − xi
j=0
k−1
(0) (j+1) (j)
X
≤ xi + xi − xi
j=0
k−1
(0)
X (b − a)k
≤ xi + nk M k N .
k!
j=0

44

(b − a)k
Como converge, tem-se que x(k)
i (t) converge uniformemente pelo teste de Wei-
X
nk M k N
k!
j=0
erstrass. Seja então
(k)
xi (t) = lim xi (t).
k→∞

xi (t) é derivável, e portanto contínua. Daí vale


   
Z t X n Z t Xn
lim  aij (s)xk−1
j (s) + bi (s) ds =  aij (s)xj (s) + bi (s) ds.
k→∞ t0 t0
j=1 j=1

Assim
(k)
xi (t) = lim xi (t)
k→∞
 
Z t n
(0) (k−1)
X
= xi + lim  aij (s) lim xj (s) + bi (s) ds
k→∞ t0 k→∞
j=1
 
Z t n
(0) (k−1)
X
= xi +  aij (s) lim xj (s) + bi (s) ds
t0 k→∞
j=1
 
Z t Xn
(0)
= xi +  aij (s)xj (s) + bi (s) ds.
t0 j=1

Dai, percebe-se que xi (t0 ) = x(0)


i . Derivando xi (t) com relação a t, obtemos
n
X n
X
x0i (t) = aij (t)xj (t) + bi (t) − aij (t0 )xj (t0 ) + bi (t0 ).
j=1 j=1

Substituindo na expressão acima t por t0 , vericamos que x0i (t0 ) = 0. Portanto,


n
X
x0i (t) = aij (t)xj (t) + bi (t)
j=1
0
x (t) = A(t)x(t) + B(t)

Unicidade. Sejam y1 (t) e y2 (t) duas soluções do Problema de Valor Inicial (2.5). Então

z(t) = y1 (t) − y2 (t)

é solução do PVI (2.5), desde que sejam considerados x(t0 ) = 0 e B(t) = 0. Seja
Z t
u(t) = (|z1 (s)| + · · · + |zn (s)|)ds.
t0

Como

45
Z t Z t
z1 (t) = z10 (s)ds, . . . , zn (t) = zn0 (s)ds,
t0 t0

utilizando (2.6), temos


Z t
|z1 (t)| + · · · + |zn (t)| ≤ (|z10 (s)| + · · · + |zn0 (s)|)ds
t0
Z tX n X n
≤ |aij (s)| · |zj (s)|ds
0 i=1 j=1
Z t
≤ nM (|z1 (s)| + · · · + |zn (s)|)ds
0
= nM u(t),

para t ∈ I , ou seja
u0 (t) ≤ nM u(t).

Multiplicando a inequação acima por e−nM t obtemos

d e−nM t u(t)

≤ 0,
dt

com u(t0 ) = 0.

Isto implica que u(t) = 0 para todo t, pois do contrário existiria uma vizinhança de t0 tal que
e−nM t u(t)< 0 e isto contraria o fato de que e−nM t u(t) ≥ 0. Portanto z(t) = 0, para t ∈ I .

Observação 2.5. Os próximos resultados serão fundamentais no embasamento teórico sobre a


resolução de sistema lineares de 1a ordem.

Exemplo 2.4. Am de motivar o próximo teorema, decida se o conjunto de vetores y1 (t) =
cos(t) e2t e y2 (t) = cos(t) sen (2t) é L.I. ou não.
 T  T

Basta calcular o Wronskiano,



cos(t) cos(t)
W (y1 , y2 ) = 2t

e sen(2t)
= cos(t)sen(2t) − cos(t)e2t
= cos(t)(sen(2t) − e2t ),

que nos diz que y1 e y2 não são LI se o intervalo I contiver x = π


2 + kπ , k ∈ Z.

46
T T
Teorema 2.7. Sejam y1 (t) = y11 (t) y21 (t) ... yn1 (t) , y2 (t) = y12 (t) y22 (t) ... yn2 (t) ,
 
T
. . . , yn (t) = y1n (t) y2n (t) ... ynn (t) n vetores soluções do sistema homogêneo no intervalo I .


Então, o conjunto solução será LI em I se, e somente se, o Wronskiano



y11 y12 ...
y1n

y21 y22 ...
y2n
W (y1 , y2 , ..., yn ) = . .. . . . .. 6= 0, ∀ x ∈ I.

.. . .

yn1 yn2 ... ynn

Demonstração. Sejam c1 , c2 , ..., cn ∈ R, então


            
y11 y12 y1n 0 y11 y12 ... y1n c1 0
 y21   y22   y2n  0  y21 y22 ... y2n   c2  0
c1  .  + c2  .  + · · · + cn  .  =  .  ⇔  . .. . . . ..   .  = .
 ..   ..   ..   ..   .. .   ..   .. 
            
.
yn1 yn2 ynn 0 yn1 yn2 ... ynn cn 0

Como y1 , y2 , ..., yn são LI, c1 = c2 = · · · = cn = 0 e o produto de matrizes acima admite apenas


a solução trivial. Mas isso acontece se, e somente se,
 
y11 y12 ... y1n
 y21 y22 ... y2n 
= W (y1 , y2 , ..., yn ) = det  . .. . . . ..  6= 0
 ..
 
. . 
yn1 yn2 ... ynn

2.3 Sistema de equações lineares de primeira ordem homogêneo


com coecientes constantes

Nesta seção, averiguaremos primeiramente como resolver a equação diferencial vetorial


x0 = Ax,

onde A é uma matriz quadrada de ordem n cujas entradas são constantes. Para este m, será
necessário recordar as denições de autovalores e autovetores para uma matriz quadrada A.
Denição 2.5. Seja A uma dada matriz constante de ordem n e seja x um vetor coluna conveniente.
Para qualquer número λ a equação
Ax = λx, (2.8)
tem a solução x = 0 chamada de solução trivial da equação vetorial. E se λ0 é um número tal que
a equação vetorial (2.8) tem uma solução não trivial x0 , então λ0 é chamado de autovalor de A e
x0 é chamado de autovetor correspondente. Diremos então que (λ0 , x0 ) é um autopar de A.

47
Preliminarmente, suponha que y(t) = Keλt seja solução do sistema homogêneo y 0 = Ay , onde
K é uma matriz n × 1 com coecientes constantes. Assim,

y 0 = Ay ⇔ Kλeλt = AKeλt ⇔ (AK − λK)eλt = 0,

com 0 representando a matriz nula. Como eλt 6= 0, para todo x, podemos dividir a última igualdade
acima por eλt . Então,
(AK − λK) = 0 ⇔ (AK − λIK) = 0 ⇔ (A − λI)K = 0,

onde I denota a matriz identidade.

Dessa maneira, para acharmos uma solução não trivial do sistema y 0 = Ay da forma y = Keλt
onde K não é uma matriz nula, temos que resolver o sistema
(A − λI)K = 0 (2.9)
Da álgebra linear, sabemos que para o sistema homogêneo (2.9) ter solução não trivial é necessário
que
det(A − λI) = 0 (2.10)
uma vez que se det(A − λI) 6= 0 segue que A − λI possui matriz inversa, B , por exemplo, e assim,
B(A − λI)K = IK = 0, portanto K seria a matriz nula. A equação (2.10) é chamada equação
característica da matriz A.
Teorema 2.8. Se (λ0 , x0 ) é um autopar para a matriz constante n × n A, então

x(t) = eλ0 t x0 , t ∈ R,

dene uma solução x de


x0 = Ax, (2.11)
sobre R

Demonstração. Seja x(t) = eλ0 t x0 . Então,

x0 (t) = λ0 eλ0 t x0
= e λ0 t λ 0 x 0
= eλ0 t Ax0
= Aeλ0 t x0
= Ax(t),

para t ∈ R.

48
Observação 2.6. A matriz A pode ser vista como um operador linear no espaço Rn , x 7→ Ax, o
qual pode ser estendido a um operador linear AC , no espaço complexo Cn , denido por AC (x+iy) =
Ax + iAy .

Usaremos os dois resultados a seguir para continuar a teoria.

Proposição 2.2. Se P ∈ Mn×n (R) conjuga as matrizes A, B ∈ Mn×n , então P transforma soluções
de y 0 = By nas soluções de x0 = Ax. Mais precisamente, se A = P BP −1 , então são equivalentes
as armações:

1. y(t) é solução de y 0 = By;

2. P y(t) é solução de x0 = Ax.

Demonstração. (1) =⇒ (2). Seja x(t) = P y(t) então,

x0 (t) = P y 0 (t) = P (By(t)) = (P B)y(t) = (AP )y(t) = A(P y(t)) = Ax(t).

(2) =⇒ (1).

A(P y(t)) = P y 0 (t) então, y 0 (t) = P −1 AP y(t) = P −1 P By(t) = By(t).

Observação 2.7. De acordo com a Proposição 2.2, concluímos que encontrar solução de x0 = Ax
é equivalente a encontrar soluções de y 0 = By , a menos de uma mudança de coordenadas.

Teorema 2.9. (Forma Canômica de Jordan) Se A ∈ Mn×n (R), então A é conjugada a uma
matriz real
J = diag(J1 , J2 , ..., Jr ) ∈ R

onde cada Ji é um bloco de Jordan real ou complexo. A matriz J é única, a menos da ordem dos
blocos na diagonal (ver[4]).

Observação 2.8. A matriz J é conhecida como a forma canônica de Jordan de A. Tal forma
canônica admite as seguintes formas para os blocos de Jordan Ji :

• Se a matriz possui n autovalores, então os blocos tem dimensão 1 e neles estão os autovalores
λ1 , ..., λn .

• Cada autovalor λ gera um bloco com o autovalor na diagonal principal, o número 1 na subdi-
agonal e zero nas demais entradas.

49
 
λ 0 ... 0 0
 1 λ ... 0 0 
Jλ =  . . . . .
. . . .
 
. . . .
0 0 ... 1 λ

• Se λ = a + ib, b 6= 0, então Jλ tem a forma

 
Ja,b 0 ... 00
 I Ja,b ... 00 
Jλ =  . .. ... ..  ,
.
 
 . . . 
0 0 ... I Ja,b
onde      
a b 1 0 0 0
Ja,b = ,I = ,0 = .
−b a 0 1 0 0
Para encontrar a forma de Jordan de A, olhamos para os autovalores e autovalores de A.

Se A ∈ Mn×n (R) possui n autovalores distintos então cada λi tem dimensão 1 e é gerado pelo
autovetor zi associado ao autovalor λi . Assim, teremos uma base β = {z1 , ..., zn } formada por
autovetores. Logo, se Az1 = λ1 z1 , ..., Azn = λn zn , temos AP = P J onde

 
λ1 0 ... 00
 0 λ2 ... 00
P = [z1 z2 ... zn ] e J =  . .. ... ..  .
 ..
 
. .
0 0 ... 0 λn

Agora, se dim λi ≥ 2, então cada autovalor gera uma sequência de vetores (que formam a base βi
de λi ) z1 , ..., zk , os quais também são chamadas "uma cadeia de Jordan para A com autovalor λi ".
Os vetores z1 , .., zk , dessa cadeia são tais que Az1 = λi z1 , Az2 = z2 + λi z2 , ..., Azk = zk−1 + λi zk ,
ou seja, z1 é autovetor associado a λi e os outros são vetores LI associados a λi . Observe que o
conjunto das cadeias de Jordan para A forma uma base para Cn .

A matriz A escrita nessa base tem a forma

J = diag(J1 , J2 , ..., Jn ),

ou seja, P −1 AP = J , onde as colunas de P são os vetores da base e os blocos Ji têm a forma


descrita anteriormente.

50
A partir do Teorema 2.9 e da Proposição 2.2 podemos reduzir o problema de encontrar soluções
de x0 = Ax ao problema y 0 = Jy onde J é a forma canônima de Jordan de A.

Para isso, estudaremos os dois seguintes casos:

Caso 1: Matriz na forma de Jordan diagonal.

Sejam λ1 , ..., λn autovalores distintos de A com autovalores z1 , ..., zn associados. Logo,

 
λ1 0 ... 00
 0 λ2 ... 0
0
J = P −1 AP =  . .. ... ..  ,
 ..
 
. .
0 0 ... 0 λn
onde P = [z1 z2 ... zn ], ou seja, P ei = zi .
y 0 = Jy

Considerando o problema . Temos
y(0) = y0 = (α1 , ..., αn )

 0
y = λ1 y1 , y1 (0) = α1
 10


y2 = λ2 y2 , y2 (0) = α2
.

 ·
 0
yn = λn yn , yn (0) = αn
Logo,

y(t) = (α1 eλ1 t , ..., αn eλn t )


= α1 eλ1 t e1 + ... + αn eλ1 t en

é solução de y 0 = Jy .
n
Pela Proposição 2.2 x(t) = P y(t) é solução de = Ax, com x(0) = P y0 , ou seja, x(0) = α i zi .
X
x0
i=1
Daí,

x(t) = y1 (t)z1 + ... + yn (t)zn


= α1 eλ1 t z1 + ... + αn eλn t zn .

Caso 2: Cadeias de Jordan com mais de um vetor, ou seja, a forma de Jordan de A é dada por
blocos do tipo  
λ 0 ... 0 0
 1 λ ... 0 0 
Jλ =  . . . .
. . . .
 
. . . .

0 0 ... 1 λ

51
y 0 = Jλ y

Olhando para o problema , temos
y(0) = y0 = (α1 , ..., αk )
 0

 y1 = λy1 , y1 (0) = α1 ,
 y 0 = y1 + λy2 , y2 (0) = α2 ,

2
..

 .
 0

yk = yk−1 + λyk , yk (0) = αk .

Dessa forma,

y1 (t) = α1 eλt ,

y2 (t) = α1 eλt t + α2 eλt = (α1 t + α2 ),


 2 
y3 (t) = α1 t2 + α2 t + α3 eλt ,
 3 2

y4 (t) = α1 t3! + α2 t2 + α3 t + α4 eλt

..
.
 
tk−1
yk (t) = α1 (k−1)! + ... + αk−1 t + αk eλt .

y 0 = Jλ y,

Assim, y(t) = (y1 (t), ..., yk (t)) é solução de . E, y(t) = (y1 (t), ..., yk (t), 0, ..., 0) é
y(0) = y0
solução de y 0 = Jy , com y0 = (α1 , ..., αk , 0, ..., 0).

Pela proposição (2.2) x(t) = P (t)y é solução de x0 = Ax, onde as colunas de P são os vetores
z1 , . . . , zn , é solução de
0

x = Aλ x,
,
x(0) = P y0 = α1 z1 + ... + αk zk
onde Aλ é a restrição de A ao subespaço gerado por z1 , ..., zk . Daí,

x(t) = y1 (t)z1 + ... + yk (t)zk


t2
  
λt
= e α1 z1 + (α1 t + α2 )z2 + α1 + α2 t + α3 z3
2!
tk−1
  
+ · · · + α1 + · · · + αk−1 t + αk zk
(k − 1)!

As soluções para o sistema geral x0 = Ax são combinações de expressões do tipo x(t). x(t) é
solução de x0 = A(x), basta tomar os coecientes de zk+1 , , ..., zn nulos.
Observação 2.9. No caso onde J é diagonal se o autovalor λj , é real, o autovetor associado zj será
real, daí a solução de zj0 = λj zj será real. Se λj = aj + ibj é complexo, então zj = xj + iyj será

52
complexo. Daí, as partes real e imaginária da solução γj (t) = αj eλj j t formarão um par de soluções
L.I. contidas no subespaço gerado por xj , yj .

De fato, se γj (t) = ζj (t) + iηj (t) essas soluções são dadas por

γj (t) = αj eλj t zj
= αj e(aj +ibj )t (xj + iyj )
= αj eaj t (cos bj t + isen bj t)(xj + iyj )
= αj eaj t [(xj cos bj t − yj sen bj t) + i(yj cos bj t + xj sen bj t)] .

Então, ζj (t) = αj eaj t (xj cos bj t − yj sen bj t) e ηj (t) = αj eaj t (yj cos bj t + xj sen bj t).

• ζj , ηj são L.I.

Suponha que ∃ k ∈ R tal que η = kζ

γj − γ̄j = 2iη = 2ikζj

γj + γ̄j = 2ζj . Com isso ik(γj + γ̄j ) = 2ikζj = γj − γ̄j .

=⇒ γj (1 − ik) = γ̄j (1 + ik)

Como 1 + ik 6= 0

γ̄j = 1−ik
1+ik γj =⇒ γj e γ̄j são L.D., o que é um absurdo.

• ζj , ηj são soluções de x0 = Ax.

Observe que Azj = λj zj implica que

Axj + iAyj = A(xj + iyj ) = (aj + ibj )(xj + iyj ).

Assim,

Axj + iAyj = (aj xj − bj yj ) + i(aj yj + bj xj ).

Com isso, obtemos


Axj = aj xj − bj yj ,
Ayj = aj yj + bj xj .

53
Portanto,

ζj0 (t) = αj aj eaj t (cos(bj t)xj − sen (bj t)yj ) + αj eaj t (−bj xj sen (bj t) − yj bj cos(bj t))
= aj (αj eaj t (xj cos(bj t) + yj sen (bj t)) − bj (αj eaj t (xj sen (bj t) + yj cos(bj t))
= aj ζj (t) − bj ηj (t).

Consequentemente, ζj0 (t) = Aζj (t).

No segundo caso, se λ é real, a cadeia z1 , ..., zk são reais, logo a solução é real. Se λ = a + bi é
complexo com cadeia de Jordan z1 , ..., zk então os vetores conjugados z¯1 , ..., z¯k , formam uma cadeia
de Jordan para A com autovalor λ̄.

Assim, a cada solução


tk−1
   
λt
z(t) = e α1 z1 + (α1 t + α2 )z2 + ... + α1 + ... + αk zk
(k − 1)!
corresponde outra solução
tk−1
   
¯
z̄(t) = eλ1 t α¯1 z¯1 + (α¯1 t + α¯2 )z¯2 + ... + α¯1 + ... + α¯k z¯k .
(k − 1)!

Além disso, a parte real x(t) = 12 (z(t) + z̄(t)) e a parte imaginária y(t) = 2i1 (z(t) − z̄(t)) são
soluções reais de x0 = Ax contidas no espaço gerado por x1 , ..., xk , y1 , ..., yk , onde zk = xk + iyk .

Com essas considerações o seguinte teorema ca demonstrado.

Teorema 2.10. As soluções da equação x0 = Ax onde A é uma matriz real n × n com entradas
constantes, são combinações lineares de funções do tipo j m eαt cos βt e tm eαt sen βt. Mais especica-
mente, uma solução geral do sistema linear é da forma
k mj−1
X X
x(t) = (Alj tl eαj t cos(βj t) + Blj tl eαj t sen (βj t)
j=1 l=0

Para os proximos resultados, utilizaremos o seguinte teorema.

Teorema 2.11. Seja E um espaço vetorial real e T : E −→ E um operador linear. Sejam a e b


dois números tais que a < Reλ < b, para todo autovalor λ de T . Então, existe um produto interno
h·, ·i em E tal que para todo x ∈ E ,

akxk2 ≤ hT x, xi ≤ bkxk2 ,

onde k · k é a norma associada a este produto.

54
Denição 2.6. Considere o sistema de equações diferenciais ordinárias x0 = f (x). Um ponto de
equilíbrio do campo vetorial f é um ponto x0 onde todos os componentes do campo se cancelam
simultaneamente, isto é
fi (x0 ) = 0, i = 1, ..., n.

Também é dito que x0 é um campo vetorial zero ou possivelmente um ponto singular. Um ponto
que não é singular é dito ser regular.

Denição 2.7. Dizemos que a origem de E = Rn , x∗ , é um poço ou atrator para a equação x0 = Ax


se todos os autovalores de A tem parte real negativa.

Teorema 2.12. Seja φ(t, x) a solução da equação x0 = Ax com condição inicial φ(0, x) = x. Então
as seguintes condições são equivalentes:

1. O equilíbrio x∗ = 0 é um poço.

2. Para todo x ∈ Rn , lim φ(t, x) = 0.


t−→∞

3. Para toda norma k.k em Rn , existem constantes positivas k e a tais que

kφ(t, x)k ≤ ke−at kxk,

para todo x ∈ Rn e para todo t ≥ 0.

Demonstração. Provaremos que 1 =⇒ 3 =⇒ 2 =⇒ 1.

(1 =⇒ 3) Considere um número a > 0 tal que Re λ < −a, para todo autovalor λ de A.

Pelo Teorema 2.11, existe um produto interno h·, ·i em Rn tal que

hAx, xi ≤ −a|x|2 , ∀x ∈ Rn .

Assim para x(t) = φ(t, x), temos


hx0 (t), xi
kx(t)k0 =
kx(t)k
hAx, xi
=
kx(t)k
kx(t)k2
≤ −a
kx(t)k
= −akx(t)k

55
Isto implica que,
kx(t)k0
 
kx(t)k
≤ −a, donde obtemos ln ≤ −at,
kx(t)k kx(0)k
e assim, kx(t)k ≤ |x0 |e−at . Disto decorre 3, por equivalência das normas em Rn .

(3 =⇒ 2) Por 3, temos
kφ(t, x)k ≤ ke−at kxk.

Fazendo t −→ ∞, obtemos
kφ(t, x)k −→ 0.

Assim,
lim φ(t, x) = 0, ∀x ∈ Rn .
t−→∞

(2 =⇒ 1) Vimos no Teorema 2.10 que cada autovalor de A contribui para uma solução geral de
x0 = Ax com parcelas da forma

• γeλt z , onde z é autovetor associado ao autovalor λ, γ é constante.


h   i
tk−1
• z(t) = eλt γ1 z1 + (γ1 t + γ2 )z2 + ... + γ1 (k−1)! + ... + γk zk onde z1 é autovetor de λ e,
z2 , ..., zk são vetores associados.

Em qualquer caso podemos tomar coecientes γi nulas, exceto em um que tomaremos igual a 1,
de uma solução com a forma onde eλt z onde z é autovetor associado a λ. Se λ é real temos

lim eλt z = 0 =⇒ λ < 0.


t−→∞

Se λ = a + ib é complexo e nas condições da Observação 2.9, temos z = x + iy , daí

eλt z = eat [(x cos(bt) − ysen (bt)) + i(xsen (bt) + y cos(bt))] .

Assim, lim eλt z = 0 =⇒ lim ζ(t) = 0 =⇒ a < 0.


t−→∞ t−→∞

Denição 2.8. Dizemos que o equilíbrio é uma fonte para x0 = Ax se todos os autovalores de A
tem parte real positiva.

Teorema 2.13. Seja φ(t, x) a solução de x0 = Ax com condição inicial φ(0, x) = x. Então, as
seguintes condições são equivalentes:

1. O equilíbrio x∗ = 0 é uma fonte;

56
2. Para toda x ∈ R\{0}, limt−→∞ |φ(t, x)| = ∞;

3. Para todo norma k.k em Rn , existem constantes positivas k e λ tais que

kφ(t, x)k ≥ keλt kxk,

para todo x ∈ Rn e para todo t ≥ 0.

Demonstração. Análoga ao teorema anterior.

Observação 2.10. Estes dois últimos teoremas justicam o termo contração para a aplicação
φt (x) = φ(t, x) no caso em que x∗ = 0 é um poço e o termo expansão quando o equilíbrio é uma
fonte.

Denição 2.9. Dizemos que o equilíbrio x∗ = 0 de x0 = Ax é hiperbólico se todos os autovalores


de A tem parte real diferente de zero.

Observação 2.11. Poços e Fontes são casos especiais de equilíbrios hiperbólicos.

2.3.1 Autovalores reais distintos

Suponha que a matriz A, de ordem n × n, tenha n autovalores reais distintos λ1 , ..., λn , então
um conjunto L.I. de autovetores K1 , ..., Kn poderá sempre ser obtido e assim

y1 = K1 eλ1 t , ..., yn = Kn eλn t

será um conjunto fundamental para o sistema y 0 = Ay para t ∈ (−∞, ∞). Dessa maneira a solução
geral de y 0 = Ay é dado por

yc (t) = c1 K1 eλ1 t + ... + cn Kn eλn t , t ∈ (−∞, ∞).


 
0 0 1
Exemplo 2.5. Resolva o sistema homogêneo y 0 = Ay , onde A = 0 −3 0.
2 2 1

Primeiramente precisamos encontrar os autovalores de A. Assim, fazemos



−λ 0 1

det(A − λI) = 0 ⇒ 0 −3 − λ 0 = 0 ⇒ (λ + 3)(λ + 1)(λ − 2) = 0.
2 2 1 − λ

Logo os autovalores de A são reais e distintos, λ1 = −3, λ2 = −1, λ3 = 2.

57
Então, por álgebra linear, existem três autovetores correspondentes L.I.

Para λ = −3, temos     


3 0 1 k1 0
0 0 0 k2  = 0
2 2 4 k3 0


3k1 + k3 = 0

2k1 + 2k2 + 4k3 = 0


k2 = 5k1 ,

k3 = −3k1 , k1 ∈ R.

Seja K1 = k1 k2 k3 . Escolhendo k1 = 1 teremos o autovetor K1 correspondente ao auto-


 T 

valor λ1 = −3,
 T
K1 = 1 5 −3 .

Para λ = −1, temos

    
1 0 1 k1 0
0 −4 0 k2  = 0
2 2 2 k3 0

 k1 + k3 = 0
⇒ −4k2 = 0
2k1 + 2k2 + 2k3 = 0


k3 = −k1 ,

k2 = 0, k1 ∈ R.

Tomando k1 = 0 teremos K2 = 1 0 −1
 T
.

Para λ = 2, temos

    
−2 0 1 k1 0
 0 −1 0  k2  = 0
2 2 −1 k3 0

 −2k1 + k3 = 0
⇒ −k2 = 0
2k1 + 2k2 − k3 = 0

58

k3 = 2k1 ,

k2 = 0, k1 ∈ R.

Com k1 = 1 teremos K3 = 1 0 2 . Logo, a solução geral é dada por


 T

     
1 1 1
yc (t) = c1  5  e−3t + c2  0  e−t + c3 0 e2t ,
−3 −1 2

onde c1 , c2 , c3 são constantes arbitrárias.

2.3.2 Autovalores reais repetidos

Suponha agora que a matriz A, de ordem n × n, possui um autovalor, digamos λ1 , com multi-
plicidade m, m ≤ n. Neste caso, podemos ter duas situações:

1. m autovetores L.I.'s , K1 , ..., Km , correspondentes ao autovalor λ1 . Assim, uma parte da


solução geral do sistema é a combinação

yc = c1 K1 eλ1 t + c2 K2 eλ1 t + · · · + cm Km eλ1 t .

2. Apenas um autovetor K1 correspondente ao autovalor λ1 de multiplicidade m. Assim, parte


das m soluções L.I.'s são da forma:

y1 = K11 eλ1 t
y2 = K21 teλ1 t + K22 eλ1 t
.. (2.12)
.
t m−1 t m−2
ym = Km1 (m−1)! eλ1 t + Km2 (m−1)! eλ1 t + · · · + Kmm eλ1 t ,
onde Kij são vetores de ordem n × 1.
 
1 0 0
Exemplo 2.6. Resolva o sistema y 0 = Ay , onde A = 2 2 −1.
0 1 0


1 − λ 0 0
2 − λ −1 = 0 ⇒ (λ − 1)3 = 0 ⇒ λ1 = 1 com multiplicidade 3.

2

0 1 −λ

Agora precisamos encontrar o autovetor associado. Para isso, resolveremos a equação (A −


1I)K1 = 0, onde K1 = x1 x2 x3 .
 T

59
    
0 0 0 x1 0 
2 1 −1 x2  = 0 ⇒ 2x1 + x2 − x3 = 0 ⇒ x1 = 0, x2 = x3 .
x2 − x3 = 0
0 1 −1 x3 0
 
0
Assim, K1 = 1 x3 . Encontramos apenas um autovetor associado a λ1 . Note que quaisquer
1
dois vetores dessa forma são L.D.

Escolhendo x3 = 1, temos K1 = 0 1 1 . Assim, uma solução para o sistema dado é


T
 

T
y1 = K1 eλ1 t = K1 et = 0 1 1 et .


Por (2.12) uma solução L.I. com y1 tem a forma

y2 = K1 teλ1 t + K2 eλ1 t .

Precisamos encontrar K2 . Substituindo y2 no sistema y 0 = Ay , obtemos


(K1 teλ1 t + K2 eλ1 t )0 = A(K1 teλ1 t + K2 eλ1 t )
⇒ K1 eλ1 t + K1 λ1 teλ1 t + K2 λ1 eλ1 t − AK1 teλ1 t − AK2 eλ1 t = 0
⇒ (K1 λ1 − AK1 )teλ1 t + (K1 + K2 λ1 − AK2 )eλ1 t = 0
⇒ (AK1 − K1 λ1 )teλ1 t + (AK2 − K1 − K2 λ1 )eλ1 t = 0.

Como teλ1 t e eλ1 t são L.I., essa igualdade é válida quando



AK1 − K1 λ1 = 0,
AK2 − K1 − K2 λ1 = 0.

Daí, 
(A − λ1 )K1 = 0,
(A − λ1 )K2 = K1 .

Seja K2 = x1 x2 x3 , então
 T 

    
0 0 0 x1 0 
2 1 −1 x2  = 1 ⇒ 2x1 + x2 + x3 = 1 ⇒ x1 = 0 e x3 = x2 − 1
x2 − x3 = 1
0 1 −1 x3 1
 T
⇒ K2 = 0 x2 x2 − 1 .

Se x2 = 2, temos K2 = 0 2 1 . Daí,
 T 

y2 = K1 teλ1 t + K2 et
T T
= 0 1 1 tet + 0 2 1 et .
 

60
Agora vamos encontrar a terceira solução y3 . Sabemos que
t2 λ1 t
y3 = K1 e + K2 teλ1 t + K3 eλ1 t .
2!

Derivando, obtemos
t2
y30 = K1 teλ1 t + K1 λ1 eλ1 t + K2 eλ1 t + K2 λ1 teλ1 t + K3 λ1 eλ1 t .
2

Substituindo em y 0 = Ay , temos
t2 λ1 t
(K1 λ1 − AK1 ) e + (K1 + K2 λ1 − AK2 )teλ1 t + (K2 + K3 λ1 − AK3 )eλ1 t = 0.
2

Como t2 λ1 t
2e , teλ1 t e eλ1 t são L.I., a igualdade acima é válida quando

 K1 λ1 − AK1 = 0,
K1 + K2 λ1 − AK2 = 0,
K2 + K3 λ1 − AK3 = 0.

Assim sendo, chegamos a 


 (A − λ1 I)K1 = 0,
(A − λ1 I)K2 = K1 ,
(A − λ1 I)K3 = K2 .

Precisamos resolver apenas a terceira equação, (A − λ1 I)K3 = K2 , para encontrar K3 . Seja


K3 = z1 z2 z3 , logo
 T

    
0 0 0 z1 0 
2 1 −1 z2  = 2 ⇒ 2z1 + z2 − z3 = 2 ⇒ z1 = 1 , z2 = z3 + 1.
z2 − z3 = 1 2
0 1 −1 z3 1

Se z3 = 0 temos K3 = .Portanto,
1 T
2 1 0

T t2 t  T T
e + 0 2 1 tet + 21 et .
 
y3 = 0 1 1 1 0
2

Logo, a solução geral do sistema é dada por

yc (t) = c1 y1 + c2 y2 + c3 y3 .

Observação 2.12.

61
1. Suponha que λ1 seja um autovalor com multiplicidade 2 e que seja válido a seguinte relação
k1 − k2 + k3 = 0, isto é k1 = k2 − k3 , assim teríamos
     
k2 − k3 1 −1
K =  k2  = 1 k2 +  0  k3 .
k3 0 1

Com isso o espaço de autovetores associados a λ1 é bidimensional e podemos encontrar dois


autovetores L.I. associados ao autovalor λ1 .
Se k2 = 1 e k3 = 0, temos K1 = 1 1 0 .
 T 

Se k2 = 0 e k3 = 1, temos K2 = −1 0 1 .
 T 

Observe que K1 e K2 são L.I.

2. Note que quando λ1 tem multiplicidade m > 3, seguimos a mesma linha de construção, ou
seja, teremos sempre
(A − λ1 I)K1 = 0,

(A − λ1 I)K2 = K1 ,

(A − λ1 I)K3 = K2 ,
..
.,

(A − λ1 I)Km = Km−1 .

2.3.3 Autovalores complexos

Seja A uma matriz quadrada que possui algum autovalor complexo λ1 . Sabe-se então que
λ2 = λ¯1 também é autovalor de A. (ver [4]).

Teorema 2.14. Considere sistema de equações diferenciais lineares escritas na forma vetorial ve-
torial

x0 = Ax. (2.13)

Se x(t) = u(t) + iv(t) é uma solução complexa de (2.13), então u(t) e v(t) também são soluções
desse mesmo sistema, onde u e v são funções vetoriais de valores reais.

62
Demonstração. Suponhamos que x(t) = u(t) + iv(t) é uma solução complexa de (2.13). Então,

x0 (t) = u0 (t) + iv 0 (t) = A(t)[u(t) + iv(t)], para t ∈ I,

ou ainda,
u0 (t) + iv 0 (t) = A(t)u(t) + iA(t)v(t), para t ∈ I.

Igualando partes reais e imaginárias, obtemos os resultados desejados u0 (t) = A(t)u(t), v 0 (t) =
A(t)v(t), para t ∈ I.

Teorema 2.15. Seja A a matriz de coecientes constantes reais de y 0 = Ay e seja K1 o autovetor


correspondente ao autovalor complexo, λ1 = a + bi, da matriz A. Então K1 eλ1 t e K̄1 eλ̄1 t , onde K̄1
é uma matriz conjugada de K1 , são soluções.

Demonstração. Sejam λ1 = a + bi e K1 nas condições deste teorema. Dena y = K1 eλ1 t . daí


y 0 = (K1 eλ1 t )0
= (K1 e(a+bi)t )0
= (K1 eat eibt )0
= (K1 eat (cos bt + isen bt))0
= K1 (aeat (cos bt + isen bt) + eat (−bsen bt + ib cos bt))
= K1 eat (a(cos bt + sen bt) + bi(cos bt + isen bt))
= K1 eat (a + bi)eibt
= λ1 K1 eλ1 t
= λ1 y
= Ay.

De forma análoga, mostra-se que K̄1 eλ̄1 t , onde K̄1 é uma matriz conjugada de K1 também é
solução de y 0 = Ay .

2.4 Soluções de sistemas de equações diferenciais através de expo-


nencial de matrizes.

A equação diferencial linear de primeira ordem


y 0 = ay

63
admite a solução geral x = Ceat . Tal solução serve de motivação para denir a exponencial de uma
matriz eAt de forma que y(t) = eAt C seja solução do sistema homogêneo y 0 = Ay . Para isso, note
que eat admite expansão em série de potências

t2 tk
eat = 1 + at + a2 + ... + ak + ...
2! k!

Para estender essa denição a uma matriz precisamos de séries convergentes de matrizes e por
seguinte, precisaremos também de normas nos espaços de matrizes.

2.4.1 Conceitos fundamentais

Nessa seção, será considerado que Mn (K) o espaço das matrizes n × n sobre um corpo K é um
espaço vetorial normado. (ver [4])

Denição 2.10. Uma sequência de matrizes Mn (K) é uma função

X : N −→ Mn (K)

k 7→ X(k) = Xk ,

onde N = {1, 2, 3, ..} é o conjunto dos números naturais.

Denição 2.11. Considere uma sequência (Xk ) em Mn (K). Dizemos que (Xk ) converge para uma
matriz L ∈ Mn (K) se sempre que xarmos um número  > 0, conseguimos encontrar um número
N ∈ N de forma que
kXk − Lk <  sempre que k > N.

Denotamos
lim Xk = L,
k−→∞

para dizer que a sequência (Xk ) converge para L.

Denição 2.12. Uma sequência (Xk ) é chamada sequência de Cauchy se sempre que xarmos um
número  > 0, conseguimos encontar um número N ∈ N de forma que

kXm − Xk k < , ∀ m, k > N.

Teorema 2.16. Uma sequência converge se, e somente se, é uma sequência de Cauchy.

64
Demonstração. (⇒) Como (Xk ) converge, então ∃ k0 ∈ N tal que ∀ k > k0 tem-se

kXk − Lk < .
2

Como Xm − Xk = xm − L + L − Xk , resulta pela desigualdade triangular que


 
kXm − Xk k ≤ kXm − Lk + kL − Xk k = kXm − Lk + kXk − Lk < + = ,
2 2

para todo k > k0 .

(⇐) Reciprocamente, se (Xk ) é de Cauchy então dado  > 0 tem-se



kXm − Xk k < , ∀ m, k > N
2

Tal sequência é limitada e de acordo com o teorema de Bolzano-Weierstrass (Xk ) possui uma
subsequência (Xk0 ) convergente. Seja 0lim Xk0 = L.
k −→∞

Assim, ∃ N 0 ∈ N tal que



kXk0 − Lk < , ∀ k 0 > N 0 .
2

Se M = max {N, N 0 }. Dessa forma, temos para todo k > M e k0 > M xo, tem-se
 
kXk − Lk = kXk − Xk0 + Xk0 − Lk ≤ kXk − Xk0 k + kXk0 − Lk ≤ + = .
2 2

Ou seja, lim Xk = L. Portanto, (Xk ) converge.


k−→∞

Denição 2.13. Uma série em Mn (K) é uma sequência Sk obtida a partir de uma sequência (Ak ),
da seguinte forma:
Sk = A1 + A2 + ... + Ak , com , k = 1, 2, 3, ...

ou seja,
k
X
Sk = Ai .
i=1

Se a sequência Sk converge dizemos que a série converge, caso contrário, dizemos que a série
diverge.

Em geral, denotamos a série Sk por



X
Ak .
k=1

65
Teorema 2.17. A série em Mn (K) dada por

X 1 k 1
I+ A = I + A + A2 + ...
k! 2!
k=1

é absolutamente convergente para qualquer que seja a matriz A ∈ Mn (K).

Demonstração. Mn (K) é uma espaço vetorial normado. Considere a norma de operador denida
por
kAk = sup |Ax|
kxk≤1

para A ∈ Mn (K), onde | · | é a norma euclidiana em Rn . Denamos


1 2 1
SN = 1 + kAk + kA k + · · · + kAN k,
2! N!
e note que {SN }∞
N =1 é uma sequência monótona crescente de números reais. Uma vez que

kAk k ≤ kAkk

(ver [6]) para todo k ≥ 0, seque que {SN }∞


N =1 é limitada superiormente. De fato,

SN ≤ ekAk ,

para todo N ≥ 1.

Representamos o limite desta sequência por eA e o chamaremos exponencial de A.

Denição 2.14. Denimos a exponencial de uma matriz A ∈ Mn (K) por



A2 Ak X Ak
eA = I + A + + ... + + ... = (2.14)
2! k! k!
k=0

onde I é a matriz identidade.



Ak
Note que, pelo Teorema 2.17 temos que a série converge. Assim, a denição de eA faz
X
k!
k=0
sentido para qualquer A ∈ Mn (K).

Observação 2.13. Se t é uma variável escalar, então a substituição de A por At na equação (2.14)
implica

A2 t2 Ak tk X Ak tk
eAt = I + At + + ... + + ... = , (2.15)
2! k! k!
k=0

66
Temos as seguintes propriedades sobre a exponencial.
Proposição 2.3. Sejam A e B matrizes n × n.

1. Se a matriz A é equivalente a matriz B , isto é, se existe uma matriz inversível P com B =


P · A · P −1 , então eA é equivalente a eB , com eB = P · eA · P −1 .

2. Se a matriz A comuta com a matriz B (A · B = B · A), então B · eA = eA · B ; em particular,


toda matriz A comuta com sua exponencial eA .

Demonstração. Denamos A0 = I para toda matriz quadrada A de ordem n.

1. Se B = P · A · P −1, então para qualquer k ∈ N ∪ {0} tem-se que B k = P · Ak · P −1 . Daí



X Bk
eB =
k!
k=0
∞ k
X P · A · P −1
=
k!
k=0

X P · Ak · P −1
=
k!
k=0

!
X Ak
= P· · P −1
k!
k=0
= P · eA · P −1 .

2. Se A · B = B · A, então para todo k ∈ N ∪ {0} tem-se que Ak · B = B · Ak . Portanto,



A
X Ak
B·e = B·
k!
k=0

X B · Ak
=
k!
k=0

X Ak · B
=
k!
k=0

X Ak
= ·B
k!
k=0
= eA · B.

67
2.4.2 Método de obtenção da exponencial de uma matriz

Vamos exibir algumas formas de adquirir a exponencial de uma matriz por meio da teoria de
Álgebra Linear.

Autovalores e Autovetores

Se A é uma matriz diagonalizável, então existem uma matriz P invertível e uma matriz diagonal
D tal que
A = P DP −1 ,

onde as entradas na matriz diagonal são compostas pelos autovalores de A. Além disso, a matriz P
é constituída por autovetores do tipo coluna, e cada autovetor está associado a um autovalor de A.
Sabemos ainda que pelo item 1. da Proposição 2.3 que

eA = P · eD · P −1

. Usaremos tais informações descritas aqui nesse parágrafo para determinar a exponencial das
matrizes dos exemplos seguintes.

Exemplo 2.7. Se D é uma matriz diagonal 2 × 2 dada por


 
λ1 0
D=
0 λ2

onde λ1 , λ2 ∈ K. Então,
(λ1 )k
 
k 0
D = , ∀k ≥ 1.
0 (λ2 )k

Consequentemente,

D2
eD = I + D + + ...
2!
    " (λ1 )2 #
1 0 λ1 0 2! 0
= + + (λ2 )2 + ...
0 1 0 λ2 0 2!
2
" #
1 + λ1 + (λ2!1 ) + ... 0
= 2
0 1 + λ2 + (λ2!2 ) + ...
 λ 
e 1 0
= .
0 eλ2

68
Exemplo 2.8. Se D é uma matriz diagonal n × n dada por
 
λ1 0 0 ... 0
0 λ2 0 ... 0
. . .
 
D=
 .. . .
. . 
,
..
 
0 0 0 . λn

então, analogamente ao caso 2 × 2, e pelo fato de que


(λ1 )k
 
0 0 ... 0
 0 (λ2 )k 0 ... 0 
Dk =  . ... ..  , ∀k ≥ 1,
 ..
 
. 
0 0 0 ... (λn )k

temos,
e λ1
 
0 0 ... 0
D2  0 e λ2 0 ... 0 
eD = I + D + + ... =  . ... ..  .
 ..
 
2! . 
0 0 0 ... eλn

Exemplo 2.9. Calcular a exponencial da matriz


 
1 1
A= .
−2 4

Primeiramente precisamos encontrar os autovalores da matriz A, então

 
1−λ 1
det(A − λI) = det = 0.
−2 4 − λ
Daí, (λ − 3)(λ
 −  2) = 0 e, consequentemente,
 2 e 3 são autovalores da matriz A. Os autovetores L.I.
1 1
são K1 = , K2 = .
1 2

Logo A = P DP −1 , onde
     
2 0 1 1 −2 −1
D= ,P = e P −1 = .
0 3 1 2 −1 1

Assim,

   
A D −1 1 1 D 2 −1
e = Pe P = e
1 2 −1 1

69
e2 0
 
Mas, eD = . Então,
0 e3

e2 0 2e2 − e3 −e2 + e3
     
A 1 1 2 −1
e = = .
1 2 0 e3 −1 1 2e2 − 2e3 −e2 + 2e3

Se a matriz A não for diagonalizável podemos utilizar a Forma de Jordan, ou seja, escreveremos
A da forma
A = M JM −1 ,

onde J é a matriz de Jordan (Bloco diagonal) associada a matriz A. Então,

∞ ∞ ∞ ∞
!
X Ak X (M JM −1 )k X M J k M −1 X Jk
eA = = = =M M −1 = M eJ M −1 .
k! k! k! k!
k=0 k=0 k=0 k=0

Teorema de Cayley-Hamilton

Teorema 2.18. Toda matriz quadrada de ordem n é raiz de seu polinômio característico.

Demonstração. ver([4])

Note que, se pA (λ) = λn + cn−1 λn−1 + ... + c0 é o polinômio característico da matriz A, então

n−1
X
An = − ci Ai ,
i=0

e isto nos diz que An , An+1 , ... podem ser obtidos através de combinações lineares de I, A, A2 , ..., An−1 .

Assim,
n−1
X αi ti Ai
eAt = ,
i!
i=0

e determinaremos os coecientes αi através de


k−1
X αi ti λi
etλk = k
.
i!
i=0
 
1 1
Exemplo 2.10. Determinar eAt para A = .
9 1

70
Pela denição, temos que
     
1 1 1 0 α1 t α1 t
eAt = α1 At + α0 I = α1 t + α0 =
9 1 0 1 9α1 t α1 t + α0

Precisamos encontrar os autovalores de A.


 
1−λ 1
det(A − λI) = det =0
9 1−λ

⇒ (λ − 4)(λ + 2) = 0. Sendo assim, os autovalores são λ1 = 4 e λ2 = −2. Mas,

eλ1 t = α1 λ1 t + α0 ,


eλ2 t = α1 λ2 t + α0 .
Então, (
e4t = 4α1 t + α0 ,
e−2t = −2α1 t + α0 .

Isto implica que,


e4t − e−2t = 4α1 t + 2α1 t.

Assim,
e4t − e−2t
α1 = .
6t

E,

α0 = e4t − 4α1 t
2
= e4t − (e4t − e−2t )
3
3e4t − 2e4t + 2e−2t
=
3
e4t + 2e−2t
= .
3

Portanto,
" #
e4t −e−2t 4t −2t e4t −e−2t
+ e +2e 3e4t + 3e−2t e4t − e−2t
 
1
eAt = 6
3(e4t −e−2t )
3 6 = .
e4t −e−2t
+ e4t +2e−2t 6 9e4t − 9e−2t 3e4t + 3e−2t
2 6 3

2.4.3 Sistemas de equações diferenciais ordinárias e exponencial de matrizes

Vamos exibir os principais resultados desta teoria.

71
Teorema 2.19. Sejam A e B matrizes constantes n × n e s, t ∈ R. Então,

i) eA0 = e0 = I ;

ii) d At
dt e = AeAt ;

iii) e(A+B)t = eAt eBt se, e somente se, AB = BA;

iv) (eAt )−1 = e−At ;

v) eA(t+s) = eAt eAs .

Demonstração. i) Note que,

∞ ∞
X 0k tk X 0k tk
e0 = e0I = =I+ = I + 0 = I.
k! k!
k=0 k=1

ii)

A2 t2 Ak tk
 
d At d
e = I + At + + ... + + ...
dt dt 2! k!
2A2 t kAk tk−1
=0+A+ + ... + + ...
2! k!
A2 t A3 t2 Ak tk−1
=A+ + + ... + + ...
1! 2! k!
A2 t 2 Ak tk
 
= A I + At + + ... + + ...
2! k!
= AeAt .

iii) (⇒) Suponhamos que e(A+B)t = eAt eBt . Derivando em ambos os lados e de acordo com o item
ii), obtemos

(A + B)e(A+B)t = AeAt eBt + eAt BeBt .

Daí,
(A + B)eAt eBt = AeAt eBt + eAt BeBt

⇔ AeAt eBt + BeAt eBt = AeAt eBt + eAt BeBt

⇔ BeAt eBt = eAt BeBt .

72
Multiplicando essa última igualdade por e−Bt , obtemos

BeAt = eAt B.

Derivando novamente, encontramos


BAeAt = AeAt B.

Fazendo t = 0, temos
BA = AB.

(⇐) Consideremos agora que BA = AB . Pelo item iii), temos que x(t) = e(A+B)t satisfaz a equação
diferencial x0 = (A + B)x(t) onde temos x(0) = I como condição inicial. Notemos ainda que,
∞ ∞ ∞ ∞
! !
X (At)k X BAk tk X Ak Btk X Ak t k
BeAt = B = = = B = eAt B.
k! k! k! k!
k=0 k=0 k=0 k=0

Daí,
d At Bt 
e e = AeAt eBt + eAt BeBt
dt
= AeAt eBt + BeAt eBt
= (A + B)eAt eBt .

Consequentemente, y(t) = eAt eBt do Problema de Valor Inicial x(t) = (A + B)x, com x(0) = I .
Pela unicidade da solução do Problema do Valor Inicial, as duas soluções são idênticas.

iv) Pelo item anterior temos que se AB = BA então e(A+B)t = eAt eBt . Se considerarmos
B = −A, então
I = e(A+B)t = eAt eBt = eAt e−At .

Portanto, e−At = (eAT )−1 .

v) Observe que A e A comutam. Consequentemente pelo item iii) eAt eAs = e (At + As) =
eA(t+s)

Observação 2.14. No item iv) se t = 1, obtemos

(eA )−1 = e−A .

Teorema 2.20. A solução φ(t, x) da equação x0 = Ax, com A ∈ Mn×n (R) constante e com condição
inicial φ(0, x) = x é dada por
φ(t, x) = xetA .

73
Demonstração. Como ψ(t) = etA x é solução de x0 = Ax e ψ(0) = e0 x = x, então pelo Teorema 2.19
e pelo Teorema de Picard, segue que φ(t, x) = etA x.

Exemplo 2.11. Seja A uma matriz 3 × 3 dada por



0 3 4
A =  0 0 6 .
0 0 0
   
0 0 18 0 0 0
Note que A2 =  0 0 0  e A3 =  0 0 0  .
0 0 0 0 0 0

Então, podemos notar que a matriz A é uma Matriz Nilpotente com Índice de Nilpotência igual
a 3 (ver[4] ), ou seja, Ak = 0 para k ≥ 3.

Portanto de (2.15), temos que


1 3t 4t + 9t2
       
1 0 0 0 3 4 0 0 18
2 2
eAt = I +At+ A2!t =  0 1 0  +  0 0 6  t+ 21  0 0 0  t2 =  0 1 6t .
0 0 1 0 0 0 0 0 0 0 0 1
Observação 2.15. A partir do exemplo anterior, podemos observar que se tivermos A uma Matriz
Nilpotente então a série exponencial possui apenas um número nito de termos, mais especicamente
se o Índice de Nilpotencia for igual a k então a expansão da série vai até k − 1.
Exemplo 2.12. Seja A uma matriz 3 × 3 tal que
 
2 3 4
A =  0 2 6 .
0 0 2
Observe que podemos escrever a matriz A da seguinte maneira

   
0 3 4 2 0 0
A= 0 0 6 + 0 2 0  = N + D,
0 0 0 0 0 2
onde D = 2I é uma matriz diagonal e N é a matriz Nilpotente vista no exemplo anterior.

Sendo assim,
eAt = 
e(D+N )t = eDt eNt 
e2t 0 1 3t 4t + 9t2

0
=  0 e2t 0   0 1 6t 
0 0 e 2t 0 0 1
 2t
3te2t (4t + 9t2 )e2t

e
=  0 e2t 6te2t 
0 0 e 2t

74
 
α β
Exemplo 2.13. Se I(α, β) = , então
−β α
 
I(α,β)t αt cos βt sen βt
e =e .
−sen βt cos βt

 
0 1
De fato, note que A = I(α, β) = αI + βJ onde J = como αI e βJ comutam, temos
−1 0

eAt = eαIt eβJt

e basta calcular eβJt . Ora, J 2 = −I, J 3 = −J, ... de modo que


βJt β 2 It β 3 Jt β 4 It β2t β4t β3t β5t
   
βJt
e =I+ − − + + ... = 1− + − ... I + βt − + − ... J,
1! 2! 3! 4! 2! 4! 3! 5!
ou seja,  
βJt cos βt sen βt
e =
−sen βt cos βt
e então  
cos βt sen βt
eAt = eαt .
−sen βt cos βt
 
0 1 0 ...
0
 0 0 1 ...
0 
Exemplo 2.14. Seja J(λ) = λI + I1 , onde I1 = 
 .. .. .. . . .. 

é uma matriz nilpotente.
 . . . . . 
0 0 0 0 0

Temos que λI · I1 = I1 (λI). Portanto, pelo teorema (2.19), temos

eJ(λ)t = e(λI+I1 )t
= eλt eI1 t
2 n−1
 
λt 2t n−1 t
= e I + I1 t + I1 + ... + I1
2! (n − 1)!
tn−1
 
1 t ... (n−1)!
.. 
. 

λt  0 1 ...

=e  .
 . .
. 
t 
0 0 0 1

Observação 2.16. Introduzimos a notação diag[A1 , A2 , ..., An ] para designar a matriz


 
A1 0 ...0
 0 A2 ...0 
 .. .. . . . .. 
 
 . . . 
0 0 ... An

75
que tem blocos quadrados, Ai , de diversas ordens na diagonal principal, sendo nulos seus elementos
restantes. Temos então, com esta notação que
eAt = diag(eA1 t , ..., eAn t ).
 
α β
Exemplo 2.15. Se J(α, β) = diag[I(α, β), ..., I(α, β)] + I2 onde I(α, β) = e I2 = I12 .
−β α
Temos
diag[I(α, β), ..., I(α, β)]I2 = I2 diag[I(α, β), ..., I(α, β)].
Portanto
eJ(α,β)t = diag[eI(α,β)t , ..., eI(α,β)t ] = eαt diag[R(t, β), ..., R(t, β)]eI2 t ,
onde  
cos βt sen βt
R(t, β) = .
−sen βt cos βt
Observação 2.17. No Exemplo 2.14 o valor de λ de J(λ) tem multiplicidade n, se J(λ) é n × n.
No Exemplo 2.15, com α e β reais, J(α, β) tem os autovalores λ = α + iβ e λ̄ = α − iβ cada um
com multiplicidade n2 , se J(α, β) é n × n.

As matrizes J(λ) e J(α, β) são os blocos que aparecem na diagonal da forma de Jordan real de uma
matriz.
Lema 2.1. (Lema de Cálculo) Seja  > 0. Então, para todo k ∈ N, lim e−t tk = 0. Daí, para
t−→∞
qualquer polinômio p(t), e−t p(t) é limitado para t ≥ 0.

Demonstração. Basta aplicar a regra de L'Hospital k vezes para mostrar que lim e−t p(t) = 0,
t→∞
onde p(t) é um polinômio de grau k. Em consequência, uma vez que esse último limite existe, há
uma vizinhança de zero na qual e−t p(t) é limitada para todo t. Particularmente, tem-se ainda
lim e−t tk = 0.
t→∞

Proposição 2.4.
keJ(λ)t k ≤ ke−µt , t ≥ 0,
ketJ(α,β) k ≤ ke−tµ , t ≥ 0.

Demonstração. Para  = −µ − Re(λ) > 0 temos, pelo Exemplo 2.14, que


t2 I n−1 n−1
keJ(λ)t k ≤ |eλt |kI + I1 t + I12 + ... + 1 t k
2! (n − 1)!
kI1n−1 k n−1
 
λt
≤ |e | kIk + kI1 k + ... + t
(n − 1)!
≤ e−µt [e−t (a0 + a1 t + ... + an−1 tn−1 )],

76
kI1i k
onde a0 = kIk e ai = = 1, ..., n − 1.
i! , i
"n−1 #
Pelo Lema de Cálculo 2.1, e−t ai ti ≤ k , então
X

i=0

keJ(λ)t k ≤ ke−µt , ∀t ≥ 0.

Para mostrarmos a segunda parte observe as seguintes matrizes do caso n = 4


 
cos βt sen βt 0 0
 −sen βt cos βt 0 0 
ketJ(α,β) k = eαt  
 0 0 cos βt sen βt 
0 0 −sen βt cos βt
    
0 1 0 0 1 0 0 0
 −1 0 0 0  0 1 0 0 
   
= eαt 
sen βt  0
 + cos βt  
0 0 1   0 0 1 0 

0 0 −1 0 0 0 0 1

= eαt [sen βtJs + cos βtI].

Agora, note que


I2 t2 I2n−2 tn−2
 
tJ(α,β)
αt
ke k = e [cos βtI + sen βtJs ] I + I2 t +
+ ... +
2! (n − 2)!
I2 t2 I2n−2 tn−2

αt

≤ ke kk cos βtI + sen βtJs k I + I2 t +
+ ... +
2! (n − 2)!
kI2 k2 t2 kI2 kn−2 tn−2
 
αt
≤ e (1 + sup kJs xk) 1 + kI2 k + + ... +
kxk=1 2! (n − 2)!
≤ Ceαt p(t)
≤ Ke−µt ,

pois,
ketJ(α,β) k ≤ Ceαt p(t) = C[e−µt e−t p(t)],

e pelo Lema de Cálculo, temos

ketJ(α,β) k ≤ C[e−µt e−t p(t)] ≤ CM e−µt = ke−µt .

 
0 1 0 0 ...
0
 −1 0 0 0 ...
0 
= kI2 kn−2 , Js =  ...
 
Onde sup kJs xk = C , a0 = 1, an−2 
.

kxk=1  
 0 ... 0 0 0 1 
0 ... 0 0 −1 0

77
2.4.4 Matrizes fundamentais de soluções de sistemas de equações diferenciais
lineares homogêneas via exponencial de matrizes

Nesta seção, apresentaremos uma teoria essencial na obtenção de soluções de sistemas homogê-
neos, primordial para as inúmeras subáreas das Equações Diferenciais, como por exemplo, Sistemas
Dinâmicos, Sistemas Hamiltonianos, Mecânica Celeste, entre outras.

Recapitulando, uma Matriz Y (t) é dita uma matriz fundamental do sistema y 0 = Ay se suas
colunas formam um conjunto de n soluções linearmente independentes.
Teorema 2.21. Se A é uma matriz constante n × n e as colunas da matriz exponencial eAt for-
mam um conjunto de n soluções fundamentais para o sistema y 0 = Ay , então eAt é uma matriz
fundamental para o mesmo sistema.

Demonstração. Sabendo que eAt = I + At + A2!t + ..., temos


2 2

(eAt )0 = AeAt .

Com isso, podemos concluir que eAt é uma matriz solução de y 0 = Ay . Desde que, det eA·0 =
det I = 1, pelo Teorema 2.4 com t0 = 0, tem-se que
Pn
det(eAt ) = e( k=0 akk )
t 6= 0,

para −∞ < t < ∞.

Então, y(t) = eAt é uma matriz fundamental de y 0 = Ay .

Note que, se λ é um escalar e eAt = eλIt e(A−λI)t = eλt e(A−λI)t podemos obter uma representação
nita para eAt se N = A − λI é nilpotente para algum λ.

Quando o polinômio característico de A tem a forma P (λ) = (λi − λ)n , isto é, quando A tem
um autovalor λi de multiplicidade n, é uma consequência do Teorema de Cayley-Hamilton que
(A − λi I)n = 0. Assim, A − λi I é nilpotente e
tn−1
 
At λi t n−1
e =e I + (A − λi I)t + ... + (A − λi I) .
(n − 1)!

Exemplo 2.16. Encontrar a matriz fundamental de eAt para o sistema y 0 = Ay , onde


 
2 1 1
A= 1 2 1 .
−2 −2 −1

78
Primeiramente, precisamos encontrar o polinômio característico para A. Sendo assim,

PA (λ) = det(A − λI)


 
2−λ 1 1
= det  1 2−λ 1 
−2 −2 −1 − λ
= (2 − λ)2 (−1 − λ) − 2 − 2 + 2(2 − λ) + 2(2 − λ) + (1 + λ)
= (4 − 4λ + λ2 )(−1 − λ) − 4 + 4(2 − λ) + 1 + λ
= −4 + 4λ − λ2 − 4λ + 4λ2 − λ3 − 4 + 8 − 4λ + 1 + λ
= −λ3 + 3λ2 − 3λ + 1
= −(λ − 1)3 .

Dessa forma,
PA (λ) = −(λ − 1)3 .

Com isso, podemos perceber que λ = 1 é o autovalor de A com multiplicidade igual a 3. Pelo
teorema de Cayley-Hamilton, temos que

(A − I)3 = 0.

Assim

eAt = et e(A−I)t
(A − I)2 t2
 
t
= e I + (A − I)t +
2
     
 1 0 0 1 1 1
t 2 0 0 0 
= et  0 1 0  + t  1 1 1 +  0 0 0 
2
0 0 1 −2 −2 −2 0 0 0
 
 t
e + tet et t et t

=  et t et + et t et t .
t
−2e t t t
−2e t e − 2e t t

Lema 2.2. Seja A uma matriz complexa (respectivamente real). Se λ é um autovalor complexo
(respectivamente real), de A e v um autovetor correspondente, então ϕ(t) = eλt v é uma solução da
equação complexa (respectivamente real) x0 = Ax.

Demonstração. Temos que Av = λv . Sendo assim, ϕ0 (t) = λeλt v = eλt (Av) = Aeλt v = Aϕ(t).

Portanto,
ϕ(t) = eλt v

é solução da equação complexa.

79
Proposição 2.5. Se a matriz complexa (respectivamente, real) A de ordem n × n tem autovalores
complexos associados a autovetores linearmente independentes, com Avi = λi vi , então a matriz
V (t), cuja i-ésima coluna é
ϕi (t) = vi eλi t ,

é uma matriz fundamental de x0 = Ax. Em particular,

eAt = V (t)V −1 (0).

Demonstração. Pelo Lema (2.2), temos que se

Av = λv,

então ϕ(t) = eλt v é uma solução para x0 = Ax.

Mas sabemos que cada um dos vi0 s são linearmente independentes, com Avi = λi vi , sendo assim,
cada um dos ϕ0i s são soluções. Consequentemente, V (t), formado pelos ϕ0i s, forma uma matriz
fundamental de x0 = Ax.

Uma vez que eAt é a matriz fundamental para o sistema x0 = Ax, a Proposição 2.1 assegura que
eAt = V (t)C para a mesma matriz constante C. Escolhendo t = 0 resulta I = V (0)C e determinando
C, obtemos
C = V −1 (0).

Portanto, eAt = V (t)V −1 (0).

Pela Proposição 2.5, ϕ(t) = eλt v e ϕ̄(t) = eλt¯ v̄ são soluções linearmente independentes da
equação x0 = Ax, com A considerada complexa. Logo,
1 1
ϕ1 (t) = [ϕ(t) + ϕ̄(t)] e ϕ2 (t) = [ϕ(t) − ϕ̄(t)]
2 2i
são soluções reais de x0 = Ax, com ϕ1 (0) = v1 , ϕ2 (0) = v2 como equação real.

Por serem v1 e v2 vetores de Rn linearmente independentes segue-se que ϕ1 (t) e ϕ2 (t) soluções são
linearmente independentes. Os vetores v1 e v2 são linearmente independentes, pois caso contrário
teríamos v2 = cv1 , donde v = (1 + ic)v1 e v̄ = (1 − ic)v1 resultariam linearmente dependentes em
Cn .

Exemplo 2.17. Se A é uma matriz 2 × 2, temos que

ϕ1 (t) = eαt (v1 cos βt − v2 sen βt) = Reϕ(t);

80
ϕ2 (t) = eαt (v1 sen βt + v2 cos βt),

é uma base de soluções, onde v1 + iv2 é autovetor associado a λ = α + iβ .

De fato, pois temos que

ϕ(t) = eλt v = e(α+iβ)t (v1 + iv2 )

= eαt (cos βt + isen βt)(v1 + iv2 )

= eαt (v1 cos βt + v1 isen βt + iv2 cos βt − v2 sen βt)

= eαt [(v1 cos βt − v2 sen βt) + i(v1 sen βt + v2 cos βt)]

No caso geral, onde A é n × n, temos que toda solução cuja condição inicial pertence ao plano
gerado por v1 , v2 de Rn é combinação linear de ϕ1 e ϕ2 e consequentemente está contido neste plano.

Denição 2.15. Uma aplicação ϕ : R × Rn −→ Rn de classe C ∞ (todas as derivadas parciais de ϕ


existem e são contínuas) é dita um uxo se

i) ϕ(0, x) = x;

ii) ϕ(t + s, x) = ϕ(t, ϕ(s, x)), ∀t, s ∈ R.

Um uxo chama-se linear se para cada t ∈ R, ϕt (x) = ϕ(t, x) é uma aplicação linear em Rn .
Neste caso, existe uma única matriz A tal que

ϕt (x) = eAt x.

De fato, se f é dada por


∂ϕ
f (x) = (t, x) ,
∂t t=0

então f é linear pois



∂ϕ(t, ax + by) ∂[aϕ(t, x) + bϕ(t, y)]
f (ax + by) = = = af (x) + af (y).
∂t
t=0 ∂t
t=0

Logo, f é denida por uma única matriz A, ou seja f (x) = Ax. Daí, ϕ(t, x) = eAt x pois para x
xo ambos são soluções de
y 0 = Ay, y(0) = x.

81
De fato,

Aϕ(t, x) = f (ϕ(t, x))


ϕ(h, ϕ(t, x)) − ϕ(h, ϕ(t, x))
= lim
h→0 h
ϕ(t + h, x) − ϕ(t, x)
= lim
h→0 h
∂ϕ(t, x)
=
∂t

82
Capítulo 3

Retrato de fase bidimensional

Dado um sistema de equações diferenciais ordinários do tipo linear e homogêno


x01 = a11 x1 + a12 x2 ,

(3.1)
x02 = a21 x1 + a22 x2 ,

onde a11 , a12 , a21 e a22 são constantes. Uma solução consiste de um par de funções

x1 = x1 (t), x2 = x2 (t),

que satisfazem o sistema (3.1). Para tais sistemas, podemos visualizar uma solução geometricamente
de duas maneiras: A primeira forma é traçar os grácos de x1 = x1 (t) e x2 = x2 (t) no mesmo
conjunto de eixos. Este tipo de gráco é chamado de grácos de séries temporais e nos dizem como
os as variáveis x1 e x2 variam com t.

Figura 3.1: Séries Temporais

Outra maneira é pensar em x1 = x1 (t), x2 = x2 (t) como equações paramétricas de um curva em


um plano xy , com t como parâmetro. Dessa forma, podemos considerar o vetor posição

x(t) = [x1 (t), x2 (t)]

no instante t, por seguinte, pode-se determinar o vetor tangente x0 (t) ao longo da curva instante t.

83
Figura 3.2: Plano de Fase

Esboçando os vetores tangentes x0 (t) num plano xy temos também uma representação gráca
das soluções de (3.1). Neste último contexto, a representação da solução paramétrica é chamada
de órbita, e o plano xy é chamado de plano de fase. Órbitas são traçadas ao longo do tempo t, e
geralmente denotamos a direção deles no tempo crescente colocando setas sobre curvas. Nesse plano
de fase também são descritos os caminhos e trajetórias.

Para sistemas bidimensionais, adotamos a representação do plano de fase de um solução gráca


em vez dos grácos de séries temporais. Em uma conguração de plano de fase, podemos usar
métodos geométricos para obter vantagem e descobrir a estrutura básica de todas as órbitas. Dessa
forma, pode-se obter informações qualitativas das soluções de um sistema com duas equações e duas
incógnitas x1 e x2 usando o plano de fase.

No plano de fase, esboçamos uma solução no plano cujos eixos são as variáveis dependentes x1
e x2 . Um gráco contendo uma amostra signicativa de trajetórias é chamado retrato de fase.
O retrato de fase é uma ferramenta valiosa no estudo dos sistemas dinâmicos autônomos de
segunda ordem. A conguração das curvas no espaço de fase revela informações sobre a existência
de atratores, repulsores e ciclos limites.

Consideremos agora sistemas reais da forma (3.1) ou equivalentemente, equações lineares homo-
gêneas do tipo
 
a11 a12
x = Ax, com A =
0
e det A 6= 0.
a21 a22

A condição det A 6= 0 é equivalente a que a origem 0 ∈ R2 seja o único ponto onde A se anula,
ou seja, o único ponto xo do uxo linear

ϕ(t, x) = etA x.

84
O polinômio característico de A é:

pA = λ2 − (a11 + a22 )λ + (a11 a22 − a21 a12 )


= λ2 − trAλ + det A.

Sendo assim, os autovalores são


trA ± δ
λ1 , λ2 = ,
2
onde δ 2 = ∆ e ∆ = (trA)2 − 4 det A.

Podemos distinguir os autovalores nos seguintes casos:

a. Os autovalores são reais e distintos. Necessariamente λ1 , λ2 6= 0;

b. Os autovalores são complexos conjugados. λ1 = α + iβ, λ2 = λ¯1 = α − iβ com β 6= 0;.

c. Os autovalores são iguais. λ1 = λ2 = λ 6= 0.

Denição 3.1. O espaço de fase da equação diferencial autônoma x0 = f (x) é o domínio Ω de


denição da aplicação f (x). Uma órbita da equação é o conjunto de pontos descritos por uma
solução x(t) quando t percorre o intervalo de denição da solução. O retrato de fase da equação é
o conjunto das órbitas no espaço de fase.

Vamos descrever, nos vários casos possíveis, o retrato de fase da equação linear x0 = Ax, onde
A ∈ M2×2 (R). Por uma mudança linear de coordenadas conveniente, x = P y , onde P é uma matriz
inversível, podemos
 supor  que a matriz
 B=  P AP assume
−1
 uma das formas canônicas A1 , A2 , A3
λ1 0 λ 0 a b
dadas por A1 = , A2 = , ou A3 = . A exponencial etB é dada por
0 λ2 1 λ −b a

e λ1 t eλt
       
0 0 1 0 cos(bt) sen (bt)
e tA1
= tA2
,e = =e λt
ou e tA3
=e at
.
0 e 2t
λ te λt eλt t 1 − sin(bt) cos(bt)

A equação diferencial x0 = Ax é transformada na equação y 0 = By e a solução ψ(t, σ, η) com


condição inicial y = (σ, η) em t = 0 é dada, em cada caso, por

((eλi t σ), eλt (σ, σt + η)) ou eat (σ cos(bt) + η sin(bt), −σ sin(bt) + η cos(bt))

Em cada caso, esboçando umas poucas órbitas no plano (y1 , y2 ) teremos uma ideia clara do retrato
de fase da equação y 0 = By . O retrato de fase da equação original x0 = Ax, será uma deformação
linear, via a transformação linear x = P y , de cada uma das guras descritas.

85
 
λ1 0
Caso 1. Retrato de fase de y0 = By , onde B = . A solução com condição inicial y(0) =
0 λ2
(k1 , k2 ) é dada por
y(t) = (k1 eλ1 t , k2 eλ2 t ).

Vejamos as possibilidades para λ1 e λ2 e os retratos de fase correspondentes.

1.(a) λ1 6= λ2 e ambos negativos. Observe que, independente da condição(não nula), temos

lim y(t) = (0, 0) e lim ky(t)k = ∞.


t−→∞ t−→−∞

Nesse caso, o equilíbrio x∗ = 0 é um poço, mais precisamente, x∗ = 0 é um equilíbrio


estável para y 0 = By .
Para visualizar a forma como as soluções tendem ao equilíbrio, calculamos o vetor ve-
locidade de y(t) e analisamos sua inclinação em relação ao eixo y1 . Se k1 = 0, temos
y(t) = (0, y1 (t)). Daí a solução permanece no eixo y2 . Suponha k1 6= 0, então

y 0 (t) = (k1 λ1 eλ1 t , k2 λ2 eλ2 t ).

A inclinação de y 0 em relação a y1 é dada por


k2 λ2 eλ2 t k2 λ2 (λ2 −λ1 )t
µ(t) = = e .
k1 λ1 eλ1 t k1 λ1

Olhando a órbita com condição inicial no primeiro quadrante, ou seja, k1 , k2 > 0, temos

lim µ(t) = ∞, se λ2 − λ1 > 0,


t−→∞
lim µ(t) = 0, se λ2 − λ1 < 0 e
t−→∞
k2
lim µ(t) = , se λ1 = λ2 .
t−→∞ k1
• Se λ1 < λ2 , então o vetor velocidade tende a posição vertical, assim a solução é
assintoticamente tangente ao eixo y2 .
• Se λ2 < λ1 , então o vetor velocidade tende a posição horizontal, assim a solução
assintoticamente tangente ao eixo y1 .
• Se λ1 = λ2 < 0, então o vetor velocidade tem inclinação constante, assim as soluções
denem semi-retas na origem.
Nesses casos, a origem é chamada "nó estável".

86
Figura 3.3: Caso λ1 < λ2

Figura 3.4: Caso λ1 = λ2 < 0

1.(b) λ1 6= λ2 , com ambos positivos. lim ky(t)k = ∞ e lim y(t) = 0, trocamos t por −t.
t−→∞ t−→−∞
As possibilidades são as mesmas do caso anterior, com a diferença no sentido das echas
que representam o uxo. Neste caso, elas tem o sentido contrário.

Figura 3.5: Caso 0 < λ2 < λ1

1.(c) λ1 < 0 e λ2 > 0

87
• Se y(0) = (k1 , 0) então

lim y(t) = 0 e lim ky(t)k = ∞


t−→∞ t−→−∞

• Se y(0) = (0, k2 ) então

lim ky(t)k∞ e lim y(t) = 0.


t−→∞ t−→−∞

• Se y(0) = (k1 , k2 ), com k1 , k2 6= 0, então fazendo y1 (t) = k1 eλ1 t e y2 (t) = k2 eλ2 t ,


obtemos
(i) Se λ1 = −λ2 , então
y1 (t)y2 (t) = k1 k2 (constante).

Desse modo, a solução descreve um ramo de uma hipérbole.

Figura 3.6: Caso λ1 = −λ2

(ii) Se λ1 6= −λ2 , as curvas descritas são parecidas com ramos de hipérboles. Neste caso,
a origem é chamada "ponto de sela". Para λ1 > 0 e λ2 < 0 o resultado é análogo,
porém com as setas do uxo no sentido contrário.
1.(d) Se λ1 < 0 e λ2 = 0, então
y(t) = (k1 eλ1 t , k2 ).

• Se y(0) = (0, k2 ), então as soluções são constantes (são soluções de equilíbrio).


• Se y(0) = (k1 , k2 ) (com k1 6= 0), então as soluções são retas horizontais uma vez
que µ(t) = 0.
Observação 3.1.

y(t) = (k1 eλ1 t , k2 eλ2 t )


 λt  
e 1 0 k1
=
0 eλ2 t k2
= etB y(0).

88
Figura 3.7: Caso λ1 < 0 e λ2 = 0 com y(0) = (k1 , k2 )

Se y(0) = (k1 , 0) ∈ Oy1 então y(t) = (k1 eλ1 t , 0) ∈ Oy1 . Pois o eixo Oy1 é gerado pelo
autovetor e1 associado ao autovalor λ1 . Como Oy1 é invariante por B , segue que Oy1 é
invariante por eB .
 
λ 0
Caso 2. Retrato de fase y 0 = By , onde B = .
1 λ
A solução com condição inicial y(0) = (k1 , k2 ) é dada por

y(t) = (k1 eλt , (k1 t + k2 )eλt ).


 
0 0
2.(a) Se λ = 0 é um caso degenerado onde B = .
1 0
As soluções são da forma y(t) = (k1 , k1 t + k2 ), ou seja,
• soluções constantes, quando k1 = 0, pois

y(t) = (0, k2 ).

• soluções que descrevem retas verticais, quando k1 6= 0.

y(t) = (k1 , k1 t + k2 ).

Figura 3.8: Caso λ = 0, k1 > 0

89
Figura 3.9: Caso λ = 0, k2 > 0

2.(b) Se λ < 0, então


y(t) = (k1 eλt , (k1 t + k2 )eλt ).

• lim y(t) = 0 e lim ky(t)k = ∞.


t−→∞ t−→−∞
• Observe que em algum instante t, mais precisamente em t = −k2
k1 (supondo k1 6= 0), o
fator (k1 t + k2 ) se anula, daí toda solução corta o eixo y1 .
• Se y(0) = (0, k2 ) então a solução coincide com a solução que corta o eixo y1 em (0, k2 ),
em algum instante t. Calculando o vetor velocidade de y(t), temos

y 0 (t) = (k1 λ, k1 + λ(k1 t + k2 ))eλt


 
λt 1 k2
= k1 λe 1, t + +
λ k1
 
λt k1 + λk2
= k1 λe 1, t + .
λk1
Assim,
lim y 0 (t) = 0.
t−→∞

O retrato de fase tem a forma:

Figura 3.10: Caso λ < 0

2.(c) Se λ > 0. A análise é a mesma, porém as echas tem o sentido invertido.

90
Figura 3.11: Caso λ > 0
 
a b
Caso 3. Retrato de fase de = By , onde B =
y0 .
−b a
 
cos(bt) sen (bt)
Note que, e = e
tB at . Assim, a solução com condição inicial y = (k1 , k2 )
−sen (bt) cos(bt)
é dada por
  
at cos(bt) sen (bt) k1
z(t) = e
−sen (bt) cos(bt) k2
= eat (k1 cos(bt) + k2 sen (bt), −k1 sen (bt) + k2 cos(bt)).

Denotando,
(
x(t) = eat (k1 cos(bt) + k2 sen (bt)),
y(t) = eat (−k1 sen (bt) + k2 cos(bt)),

temos,
 2  2
x(t) y(t)
+ = k12 + k22 .
eat eat

• Se a = 0 então x(t)2 + y(t)2 = k12 + k22 , assim, a solução z(t) descreve um círculo de raio
r = k12 + k22 , se k1 6= 0 ou k2 6= 0. Neste caso, quem determina o sentido das setas é o sinal de b.
p

Se b < 0, as echas tem sentido anti-horário.

Se b > 0, as echas tem sentido horário.

Com a mudança de coordenadas x = P y o retrato de fase são elipses.

• Se a 6= 0, com a < 0, então


lim z(t) = 0,
t−→∞

91
Figura 3.12: Caso a = 0 e b > 0

uma vez que

|z(t)| = (x(t))2 + (y(t))2


= e2at (k12 + k22 ).

Figura 3.13: Caso a 6= 0

Observação 3.2. As imagens desse capítulo foram retiradas de [10].

92
Capítulo 4

Sistemas não lineares

Neste capítulo, revisamos uma das técnicas que são utilizadas para analisar sistemas não line-
ares. Essa técnica consiste em linearizar sobre pontos de equilíbrio para obter localmente, esboços
qualitativos do retrato de fase via do sistemas lineares correspondentes. A validade desta técnica
está contida no Teorema de Hartman-Grobman, que apresentamos mais adiante.

Consideremos o sistema autônomo


x0 = F (x),

onde, F é um campo vetorial e x uma variável vetorial. Por meio de métodos algébricos ou numéricos
podemos olhar para os pontos xos do sistema: pontos x̄ onde o campo vetorial F se anula, isto é,
F (x̄) = 0. Tais pontos nos fornecem soluções constantes: α(t) = x̄, para todo t ∈ R. Daí, perto
de cada ponto xo, o retrato de fase do sistema não linear se assemelha ao retrato de fase de um
sistema linear correspondente:
y 0 = Ay,

onde A = F 0 (x̄).

Exemplo 4.1. O sistema


x0 = y − 2xy,


y 0 = x2 − 1,
possui dois pontos de equilíbrio. De fato,

y − 2xy = 0
F (x, y) = 0 ⇔ =⇒ x2 − 1 = 0 =⇒ x2 = 1 =⇒ x = ±1.
x2 − 1 = 0

Além disso,
y − 2(1)y = 0 =⇒ y = 0

93
e
y − 2(−1)y = 0 =⇒ y = 0.

Logo, P1 = (1, 0) e P2 = (−1, 0) são pontos de equilíbrio para o sistema acima.

Exemplo 4.2. O sistema


x0 = x2 − y 2 ,


y 0 = x − y,
possui innitos pontos de equilíbrio. De fato,

x2 − y 2 = 0

F (x, y) = 0 ⇔ ⇔ x = y.
x−y =0
Logo, temos innitos pontos de equilíbrio.

Exemplo 4.3. O sistema


x0 = y1 ,


y 0 = x2 ,
não possui ponto de equilíbrio. Com efeito,
 1
y = 0,
F (x) = 0 ⇔ 2
x = 0,
o que nunca acontece. Portanto, o sistema não possui ponto de equilíbrio.

4.1 Mudança de variáveis e técnica de linearização

Vericaremos o comportamento das soluções próximas ao ponto de equilíbrio do sistema e por


seguinte, faremos uma mudança de variáveis seguido da linearizaremos o sistema.

Etapa 1:

Seja x0 um ponto de equilíbrio, dena

u = x − x0 .

Observação 4.1. Note que x0 é o ponto de origem para o sistema de coordenadas ~u.

Assim, nas coordenadas u, o sistema toma a forma:

u0 = G(u),

onde G(u) = F (u + x0 ). Ou seja,

94
u01
   
G1 (u)
 u0   G2 (u) 
 2  
 ..  =  ..  ,

 .   . 
u0n Gn (u)
onde G é a nova forma do campo vetorial e a origem é um ponto de equilíbrio, u~0 = ~0.

Etapa 2:

Podemos calcular as derivadas de G, no ponto de equilíbrio e formar a matriz de derivadas


parciais A, e escrever o sistema linearizado em torno de ~0. Podemos escrever,
∂G1 (~0) ∂G1 (~0)
u01 = u1 + ... + un ,
∂u1 ∂un

∂G2 (~0) ∂G2 (~0)


u02 = u1 + ... + un ,
∂u1 ∂un
..
.
∂Gn (~0) ∂Gn (~0)
u0n = u1 + ... + un .
∂u1 ∂un
Fazendo,  
∂G1 (~0) ∂G1 (~0)
∂u1 ... ∂un
∂G2 (~0) ∂G2 (~0)
 

∂u1 ... ∂un

A= .. ,
 

 . 

∂Gn (~0) ∂Gn (~0)
∂u1 ... ∂un

obtemos u0 = Au.

Exemplo 4.4. O sistema


x01 = (x1 − 3)(x2 − 1),

(4.1)
x02 = (x1 + 2)(x2 + 5)
possui como pontos de equilíbrio (−2, 1) e (3, −5).

Podemos fazer a linearização a partir de qualquer ponto de equilíbrio do sistema. Neste caso
faremos em torno do ponto (−2, 1). Então, primeiramente precisamos fazer a mudança de variáveis
que desloca a origem do plano para o ponto de equilíbrio. Assim,

u1 = x1 − (−2) = x1 + 2 e u2 = x2 − 1.

Portanto,
x1 = u1 − 2 e x2 = u2 + 1.

95
E também,
x01 = u01 e x02 = u02 .

Substituindo em 4.1, obtemos

u01 = (u1 − 2 − 3)(u2 + 1 − 1),




u02 = (u1 − 2 + 2)(u2 + 1 + 5).

u01 = (u1 − 5)u2 = G1 (u1 , u2 ),



=⇒
u02 = u1 (u2 + 6) = G2 (u1 , u2 ).
Então,
u01 = u1 u2 − 5u2 = G1 (u1 , u2 ),


u02 = u1 u2 + 6u1 = G2 (u1 , u2 ).

Note que, G1 (0, 0) = G2 (0, 0) = 0. Então nas coordenadas u1 , u2 , (0, 0) é o ponto de equilíbrio
correspondente a (−2, 1) nas coordenadas x1 , x2 . Sabemos que,
     
u˙1 G1 (u1 , u2 ) u1 u2 − 5u2
~u = = = ⇔ ~u = G(~u).
u˙2 G2 (u1 , u2 ) u1 u2 + 6u1

Assim, observe que


∂G1 (~0) ∂G1 (~0)
u01 = u01 = −5u2

∂u1 u1 + ∂u2 u2 ⇔ ⇔
u02 = ∂G2 (~0) ∂G2 (~0) u02 = 6u1
∂u1 u1 + ∂u2 u2

∂G1 (~0) ∂G1 (~0)


" #  
∂u1 ∂u2 0 −5
u̇ = Au ⇔ u̇ = ∂G2 (~0) ∂G2 (~0)
u= u.
6 0
∂u1 ∂u2

Logo, o sistema linearizado em torno de (u1 , u2 ) = (0, 0) é


u01 = −5u2 ,


u02 = 6u1 .

4.2 O Teorema de Hartman-Grobman

Denição 4.1. Um ponto de equilíbrio de

x0 = F (x)

é chamado hiperbólico (fonte, semidouro, ponto de sela) ou não hiperbólico, respectivamente , se o


correspondente ponto de equilíbrio do sistema linearizado é hiperbólico ou não hiperbólico.

96
Teorema 4.1. Seja x0 um ponto de equilíbrio isolado do sistema não linear x0 = F (x), que corres-
ponde ao ponto de equilíbrio ~0 do sistema linearizado u0 = Au. Então,

1. Se ~0 é um equilíbrio hiperbólico do sistema linear, as soluções do sistema não linear próximas


a x0 parecem se comportar como as soluções do sistema linear próximas a ~0.

2. Se ~0 é um equilíbrio não hiperbólico do sistema linear, nenhuma conclusão pode ser tirada
acerca do comportamento do uxo do sistema não linear próximo a x0 .

Demonstração. Ver [5] e [20].

Em outras palavras, se ~0 é uma fonte (ou repulsor), semidouro (ou atrator) ou ponto de sela
do sistema linearizado, então as soluções do sistema linear numa pequena vizinhança de x0 se
comportam semelhantemente às do sistema linear próximas a ~0.

Ou seja, se ~0 é um atrator, então numa vizinhança de x0 as soluções tendem a x0 .

Observação 4.2. Se ~0 for um centro, uma ligeira pertubação pode transformar num semidouro
espiral ou numa fonte espiral, ou mantê-la como ela é. No caso (1), o equilíbrio é hiperbólico, então
uma ligeira pertubação não irá afetar suas propriedades qualitativas.

Observação 4.3. No caso bidimensional, equilíbrios não hiperbólicos são aqueles para os quais no
mínimo um autovalor é zero.

Exemplo 4.5. O sistema


x0 = 2sen y,

(4.2)
y 0 = 3sen x − sen y
apresenta
x0 = 2y

(4.3)
y0 = 3x − y
como sistema linearizado.

Os autovalores de (4.2) são:


λ1 = −3 e λ2 = 2.

Portanto a origem é um Ponto de Sela. Assim, pelo Teorema de Hartman-Grobman, o uxo


próximo a (4.3) se comportam como as soluções do sistema não linear.

97
Figura 4.1: Retrado de Fase do Sistema Associado a 4.2

Exemplo 4.6. O sistema


x01 = (x1 − 3)(x2 − 1),

(4.4)
x02 = (x1 + 2)(x2 + 5)
apresenta como sistema linearizado
u01 = −5u2 ,

(4.5)
u02 = 6u1 ,
em relação ao ponto de equilíbrio (−2, 1). Os autovalores de (4.4) são:
√ √
λ1 = i 30 e λ2 = −i 30.

Logo a origem de (4.5) é um centro. Portanto, pelo Teorema de Hartman-Grobman não podemos
concluir nada acerca do comportamento do uxo do sistema não linear (4.4).
Exemplo 4.7. Um sistema bidimensional da forma
x0 = f (x, y)

(4.6)
y 0 = g(x, y)
é chamado de gradiente se existe uma função real G de variáveis x, y , que possui derivadas parciais
contínuas e satisfaz as relações

∂G(x, y) ∂G(x, y)
f (x, y) = , g(x, y) = . (4.7)
∂x ∂y

Estas condições implicam que


∂f ∂ 2 G ∂g ∂2G
= , = .
∂y ∂y∂x ∂x ∂x∂y

98
Figura 4.2: Retrado de Fase do Sistema Associado a 4.4

Como G possui derivadas parciais contínuas, por hipótese, então


∂f ∂g
= .
∂y ∂x

Partindo deste pressuposto, considere as equações não lineares


x0 = 9x2 − 10xy 2 ,


y 0 = 2y − 10x2 y.
Armamos que, o sistema acima é um sistema gradiente. De fato, note que
f (x, y) = 9x2 − 10xy 2 ,


g(x, y) = 2y − 10x2 y.
E assim,
∂f ∂g
= −20xy =
∂y ∂x
Mas, também podemos encontrar uma função G que satisfaz (4.7). Sabendo que
∂G(x, y)
f (x, y) = e f (x, y) = 9x2 − 10xy 2 .
∂x
Podemos integrar em relação a x. Logo,
∂G
9x2 − 10xy 2 = =⇒ 3x3 − 5x2 y 2 + a(y) = G(x, y), (4.8)
∂x
onde a(y) é uma função que depende de y . Então, podemos encontrar a(y). Para isso, derivaremos
(4.8) em relação a y . Assim, temos
da(y) ∂G(x, y)
−10x2 y + = .
dy ∂y

99
Mas,
∂G(x, y)
= g(x, y) = 2y − 10x2 y.
∂y
Assim,
da(y)
= 2y.
dy
Logo,
a(y) = y 2 + c.

Por convenção tomemos c = 0. Desse modo,

G(x, y) = 3x3 − 5x2 y 2 + y 2 .

100
Capítulo 5

Sistemas hamiltonianos

Neste penúltimo capítulo, estudaremos os sistemas de Equações Diferenciais Ordinárias que


admitem uma forma particular. Tais sistemas tem grande importância na formulação de muitos
problemas físicos na Mecânica Clássica, Mecânica Geométrica, Mecânica Celeste entre outras áreas.
Esses sistemas são denominadas de Sistemas Hamiltonianos.

Um sistema bidimensional da forma


x0 = f (x, y),


y 0 = g(x, y)

é chamado Hamiltoniano, se existe uma função real H de variáveis x e y , chamada função Hamil-
toniana, que possui derivadas parciais contínuas e satisfaz as relações

∂H ∂H
f (x, y) = (x, y) e g(x, y) = − (x, y). (5.1)
∂y ∂x

Estas condições implicam que

∂f ∂2H ∂g ∂2H
= e =− .
∂x ∂x∂y ∂y ∂y∂x

O que signica que


∂f ∂g
=− . (5.2)
∂x ∂y
Então, para vericar se um dado sistema é Hamiltoniano, podemos encontrar uma função H que
satisfaça (5.1) ou vericar se (5.2) é satisfeita.

101
Generalizando, temos que um sistema Hamiltoniano é um sistema com 2n equações diferenciais
ordinárias, da forma:

~q˙ = Hp ,

(5.3)
p~˙ = −Hq ,
onde:

• H(q, p, t) é uma função diferenciável num aberto U , tal que U ⊂ Rn × Rn × R, chamada de


Hamiltoniano;

• q = (q1 , q2 , ..., qn ) vetor posição;

• p = (p1 , p2 , ..., pn ) vetor momento;

• t tempo.

As variáveis p e q são conjugadas e o número inteiro n é o número de graus de liberdade do


sistema.
Observação 5.1. O conjunto onde as variáveis posição estão denidas é chamado de espaço das
congurações e o espaço que descreve as posições versus momentos é chamado de espaço de fase.

Matricialmente, temos que


   
q̇1 Hp1
 q̇2   Hp2 
 ..  ..
   
 .  .
 
 
   
 q̇n   Hpn 
 
 ṗ1  =
 −Hq


   1 
 ṗ2   −Hq 
2
 ..  ..
   
 .  .
 
 
ṗn 2n×1 −Hqn 2n×1

tal que

H : O ⊆ Rn × Rn × R → R

(~q, p~, t) 7→ H(~q, p~, t)

onde O é um conjunto aberto, e H é uma função de várias variáveis, denominada de função Hamil-
toniana.

102
Além disso, podemos descrever o sistema acima da seguinte forma:

   
q̇1   Hq1
 q̇2  0n×n In×n  Hq2 
 ..    .. 
     
 .    . 


     
 q̇n     Hqn 
 ṗ1  =   Hp  .
     

     1 
 ṗ2     Hp 
2 
 ..    .. 
    
 .   . 

−In×n 0n×n
ṗn 2n×2n Hpn

Em linhas gerais,

Ż2n×1 = J2n×2n ∇H(~q, p~, t), (5.4)


onde  
∂H ∂H ∂H ∂H ∂H
∇H(~q, p~, t) = , , ..., , , ...,
∂q1 ∂q2 ∂qn ∂p1 ∂pn

é o gradiente de H e J é a matriz simplética 2

Proposição 5.1. A matriz J é ortogonal e antisimétrica, isto é,

J −1 = J T = −J.

Demonstração. Dada  
0n×n In×n
 
J =

,

−In×n 0n×n
temos que

   
0n×n −In×n 0n×n In×n
JT = 
   
 = −  = −J
   
In×n 0n×n −In×n 0n×n
2
Uma matriz T ∈ M2n×2n (R) é chamada simplética com multiplicador µ, ou seja, µ-simplética se

T
T JT = µJ,

onde µ ∈ R\{0} é uma constante. Se µ = 1, T é dita simplética.

103
Logo, J é antissimétrica. E mais,
 
0n×n −In×n
J −1 = −J = 
 
.
 
In×n 0n×n

e
  
0n×n In×n 0n×n In×n
J2 = 
  
 
  
−In×n 0n×n −In×n 0n×n
   
−In×n 0n×n In×n 0n×n
   
=   = −  = −I2n×2n .
   
0n×n −In×n 0n×n In×n

Observação 5.2. Quando a função Hamiltoniana H não depende de t o sistema é dito autônomo
e, em caso contrário, não autônomo.

Muitas das propriedades especiais dos sistemas Hamiltonianos são formuladas em termos do
operador Colchete de Poisson, então esse operador desempenha um papel importante na teoria
desenvolvida aqui.

Sejam F, G e H funções reais diferenciáveis no aberto U × Rn × Rn × R.

Denição 5.1. O Colchete de Poisson de F e G é denido por

∂F T ∂G ∂F T ∂G
{F, G} = ∇F T J∇G = − .
∂q ∂p ∂p ∂q

Note que {·, ·} é uma aplicação bilinear, antissimérica e satisfaz a identidade de Jacobi, conforme
veremos a seguir.

Proposição 5.2. O Colchete de Poisson é uma aplicação bilinear e antissimétrica.

104
Demonstração. Note que a bilinearidade segue dos seguintes cálculo

∂(αF + βG)T ∂H ∂(αF + βG)T ∂H


{αF + βG, H} = −
∂q ∂p ∂p ∂q
T T
∂(αF + βG ) ∂H T
∂(αF + βG ) ∂HT
= −
∂q ∂p ∂p ∂q
T T T ∂GT ∂F T
   
∂F ∂G ∂H ∂F
= α +β − α +β
∂q ∂q ∂p ∂p ∂p ∂q
 T T
 T
∂GT ∂H
 
∂F ∂H ∂F ∂H ∂G ∂H
=α − +β −
∂q ∂p ∂p ∂q ∂q ∂p ∂p ∂q
= α{F, H} + β{G, H}.

Analogamente, mostra-se que

{F, βG + γH} = β{F, G} + γ{F, H}.

Por m, note que a propriedade de antissimetria, ocorre naturalmente. Com efeito,

∂GT ∂F ∂GT ∂F
{G, F } = −
∂q ∂p ∂p ∂q
T
∂F T
  
∂F ∂G ∂G
= −
∂p ∂q ∂q ∂p
" T #
∂F ∂G ∂F T ∂G
=− −
∂q ∂p ∂p ∂q
= −{F, G}.

Proposição 5.3. O Colchete de Poisson satisfaz a Identidade de Jacobi, ou seja,

{F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0.

Demonstração. Sabemos que

n
∂F T ∂G ∂F T ∂G X ∂F ∂G ∂F ∂G
{F, G} = ∇F T J∇G = − = − .
∂q ∂p ∂p ∂q ∂qi ∂pi ∂pi ∂qi
i=1

105
Por convenção, iremos omitir o somatório. Assim,
∂G ∂H ∂G ∂H
{F, {G, H}} = {F, − }
∂qi ∂pi ∂pi ∂qi
∂G ∂H ∂G ∂H
= {F, } − {F, }
∂qi ∂pi ∂pi ∂qi
       
∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H
= − − +
∂qi ∂pi ∂qi ∂pi ∂pi ∂qi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi
2
∂F ∂ G ∂H ∂F ∂G ∂ H2 2
∂F ∂ G ∂H ∂F ∂G ∂ H 2
= + 2 − 2 − −
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂pi ∂qi ∂qi ∂pi
∂F ∂ 2 G ∂H ∂F ∂G ∂ 2 H ∂F ∂ 2 G ∂H ∂F ∂G ∂ 2 H
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2

Analogamente, encontra-se,
∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F ∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F
{G, {H, F }} = + − − .
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂p2i ∂pi ∂qi2 ∂pi ∂pi ∂qi ∂qi ∂pi

∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F ∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2

e
∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G ∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G
{H, {F, G}} = + − − .
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂p2i ∂pi ∂qi2 ∂pi ∂pi ∂qi ∂qi ∂pi

∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G ∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2

Pelo fato de que há a simetria da soma e as derivadas parciais mistas de segunda ordem serem
iguais temos que os termos se anulam. Provando a Identidade de Jacobi.
x0 = y

Exemplo 5.1. O sistema não linear é um sistema hamiltoniano.
y 0 = x − x2

Encontraremos a função Hamiltoniana do sistema. De fato, sabemos que


∂H
f (x, y) = (x, y) e f (x, y) = y.
∂y

Então, integrando em relação a y , obtemos,


y2
+ a(x) = H(x, y), (5.5)
2
onde a(x) é uma função que depende somente de x.

106
Precisamos encontrar a(x). Então, derivando (5.5) em relação a x, obtemos
∂H
0 + a0 (x) = (x, y).
∂x

Mas,
∂H
(x, y) = −g(x, y) = −x + x2 .
∂x

Então,
a0 (x) = −x + x2 .

Assim, integrando com relação a x, encontramos


x2 x3
a(x) = − + + C.
2 3

Por convenção, tome C = 0 para encontrar


y 2 x2 x3
H(x, y) = − +
2 2 3

Exemplo 5.2 (Oscilador Harmônico Simples). Consideraremos uma massa m amarrada a uma
mola. Pela Lei de Hooke, a força, F , que a mola exerce sobre a massa é proporcional a quantidade
x que a mola é esticada e ela é dirigida em sentido contrário ao esticamento, isto é, F = −kx. A
constante k > 0 é a constante de elasticidade da mola. Pela segunda lei de Newton temos
−k
x00 = x. (5.6)
m

A função Hamiltoniana associada a este sistema é dada por:

 
1 2 k 2
H(x, y) = y + x .
2 m

De fato, se representarmos y = x0 , (5.6) pode ser escrita como:


x0 = y,
(
F (x) = k
y0 = − x.
m
∂H ∂H k
E vericamos que f (x, y) = (x, y) = y e g(x, y) = − (x, y) = − . Portanto, o sistema
∂y ∂x m
acima é Hamiltnoniano.

107
Exemplo 5.3 (Oscilador linear). Este problema consiste em estudar um sistema mola-massa, sem
amortecimento e no qual uma força externa g(t) é aplicada. Assim, a equação do movimento é:

x00 + f1 (x) = g1 (t), (5.7)

onde x ∈ R e f1 , g1 são funções reais diferenciáveis. O sistema é dito não linear se a função f1 é
não linear. Neste caso, a função Hamiltoniana é dada por
1
H(t, x, y) = y 2 + F (x) − g1 (t)x,
2

onde y = x0 e F (x) = f1 (s)ds.


Rx
0

Denição 5.2. Uma integral primeira para o sistema (5.4) é uma função não constante F : W −→ R
de classe C ∞ que é constante ao longo das soluções de (5.4), ou seja,
d
F (t, ϕ(t, z)) = 0, ∀ t ≥ 0,
dt

onde ϕ(t, z) é a solução de (5.4) tal que ϕ(0, z) = z .

Teorema 5.1. Se H é a função Hamiltoniana e (x, y) é uma solução de um autônomo, então

H(x(t), y(t)) = h,

para todo t para o qual a solução é denida, onde h é uma constante chamada constante de energia.
Em outras palavras, a função Hamiltoniana é uma integral primeira.

Demonstração. Seja (x, y) uma solução do sistema hamiltoniano com função hamiltoniana H . En-
tão, pela regra da cadeia e pelas relações
∂H ∂H
f (x, y) = (x, y) e g(x, y) = − (x, y),
∂y ∂x

temos que
d ∂H ∂H
H(x(t), y(t)) = (x(t), y(t))x0 (t) + (x(t), y(t))y 0 (t)
dt ∂x ∂y
∂H ∂H ∂H ∂H
= (x(t), y(t)) (x(t), y(t)) − (x(t), y(t)) (x(t), y(t))
∂x ∂y ∂x ∂y
= 0.

d
Dessa forma, H(x(t), y(t)) = 0. Integrando, obtemos H(x(t), y(t)) = h.
dt

108
Assim, H é uma quantidade conservada ou uma constante do movimento. Neste caso, dizemos
que o sistema Hamiltoniano é conservativo. E dizemos que H representa a energia do sistema.
Dessa forma, o conjunto denido por

Σh = {(q, p) ∈ W/H(q, p) = h}

para um valor arbitrário de h, denota a superfície (ou variedade) de energia.


Observação 5.3. Em geral a constante h é diferente para soluções distintas, mas é possível que
soluções diferentes correspondam a uma mesma constante.
Observação 5.4. O fato de H ser uma integral primeira implica que as soluções do sistema es-
tão contidas em alguma superfície de energia. Ou seja, se uma solução começa numa superfície,
permanece nela.

De fato, seja ϕ(t, z0 ) solução de (5.3) tal que ϕ(0, z0 ) = z0 .

Como H é constante ao longo das soluções, temos que

H(ϕ(t, z0 )) = H(ϕ(0, z0 )) = H(z0 ).

Logo, ϕ(t, z0 ) ∈ ΣH(z0 ) .

Assim, o conjunto Σh é invariante pelo uxo do sistema.


Teorema 5.2. Sejam F, G e H funções de classe C ∞ denidas no aberto W ⊂ Rn × Rn (indepen-
dentes de t). Então,

(i) F é uma integral primeira para (5.4) se, e somente se, {F, H} = 0;

(ii) Se F e G são integrais primeira para (5.4), então {F, G} também o é;

(iii) {F, H} é a taxa de variação do tempo de F das soluções de (5.4).

Demonstração. (i) Denimos F ao longo das soluções por F (t) = F (ϕ(t, z)) = F (q(t), p(t)). Daí,
d(F (t)) ∂F ∂F
= q̇(t) + ṗ(t)
dt ∂q ∂p
∂F ∂H ∂F ∂H
= −
∂q ∂p ∂p ∂q
= {F, H}

109
Logo, F é uma integral primeira se, e somente se, {F, H} = 0.

(ii) Devemos mostrar que {{F, G}, H} = 0. Pela identidade de Jacobi, temos

{F, {G, H}} + {G, {H, F }} + {H, {F, G}} = 0.

Como F e G são integrais primeiras, segue que {G, H} = {F, H} = 0. Daí,

{F, {G, H}} = {G, {H, F }} = 0

=⇒ {H, {F, G}} = 0 =⇒ {{F, G}, H} = 0

=⇒ {F, G} é integral primeira.

(iii) Advém da demonstração de (i).

Teorema 5.3. Se um sistema Hamiltomiano possui pontos de equilíbrio, eles não são fontes nem
semidouros.

Demonstração. Suponha que (0, 0) é um ponto de equilíbrio isolado de um sistema Hamiltoniano.


Então, a linearização conduz ao sistema

x0 = ax + by,


y 0 = cx − ay,
onde
∂2H ∂2H ∂2H
a= (0, 0), b = (0, 0), c = − (0, 0).
∂x∂y ∂y 2 ∂x2

• Autovalores:

 
a−λ b
det = (a − λ)(−a − λ) − bc = −a2 − bc + λ2
c −a − λ
=⇒
p
λ = ± a2 + bc.

Existem três casos a analisar:

1. Se a2 + bc > 0, os dois autovalores são reais e possuem sinais opostos;

2. Se a2 + bc = 0, zero é o único autovalor;

110
3. Se a2 + bc < 0, ambos os autovalores são imaginários e possuem a parte real nula.

Consequentemente, os pontos de equilíbrios não são fontes ou semidouros.

5.1 Sistemas hamiltonianos lineares

Denição 5.3. Um sistema Hamiltoniano Linear é um sistema de 2n equações diferenciais ordiná-


rias da forma
ż = J∇z H(t, z) = JS(t)z = A(t)z, (5.8)
onde H = H(t, z) = 12 z T S(t)z, S = S(t) ∈ M2n×2n (R) e A(t) = JS(t).

Assim, o Hamiltoniano H é uma forma quadrática em z ∈ R2n com coecientes que são contínuos
em t ∈ I .

Quando S , logo H , é independente de t, verica-se que H é uma integral primeira para (5.8).

Precisamos ter presente a seguinte denição:

Denição 5.4. Uma matriz A ∈ M2n×2n (R) é dita Hamiltoniana se AT J + JA = 0.

O seguinte teorema nos dá uma caracterização das matrizes Hamiltonianas.

Teorema 5.4. As seguintes armações são equivalentes:

(i) A é Hamiltoniana;

(ii) A = JAT J ;

(iii) A = JR, onde R é simétrica;

(iv) JA é simétrica.

Demonstração. (i) =⇒ (ii) Como A é Hamiltoniana, temos

AT J + JA = 0.

Assim,
JA = −AT J =⇒ A = JAT J;

111
pois J −1 = −J.

(ii) =⇒ (iii) Sejam A = JAT J e R = AT J . Com isso, temos

RT = J T A
= J T JAT J
= AT J
= R,

pois J −1 = −J. Logo, R é simétrica.

(iii) =⇒ (iv) Como A = JR, temos JA = J 2 R = −R, pois J 2 = −I.

Como −R é simétrica segue que JA é simétrica.

(iv) =⇒ (i) Note que

JA = (JA)T
= AT J T
= −AT J.

Assim, AT J + JA = 0.

Como consequência desse teorema e da denição de Sistemas Hamiltonianos lineares, a matriz


dos coecientes de um Sistema Hamiltoniano linear deve ser uma matriz Hamiltoniana.

Um resultado muito importante para o estudo de sistemas Hamiltonianos lineares é o seguinte:

Proposição 5.4. O polinômio característico de uma matriz Hamiltoniana é uma função par.

Demonstração. Seja P (λ) o polinômio característico da matriz Hamiltoniana A. Como A = JS ,


com S simétrica, temos

P (λ) = det(A − λI), I = Id2n . (5.9)

112
Dessa forma,

P (λ) = det(JS − λI)


= det(JS − λI)T
= det(S T J T − λI)
= det(−SJ − λI)
= det(J 2 SJ + λJ 2 )
= det(J(JS + λI)J)
= det J · det(JS + λI) · det J
= det(JS + λI)
= P (−λ).

Assim P (λ) em (5.9) só contém potências pares de λ. Portanto, se esta tem uma raiz do tipo
λ1 = µ + iβ ela terá necessariamente, a raiz λ2 = −µ − iβ . E se λ = 0 for um autovalor ele
terá multiplicidade par. Por outro lado, desde que A é uma matriz com coecientes reais então λ̄
também será um autovalor de A então também serão: λ, λ̄, −λ̄.

Teorema 5.5. Sejam A e B matrizes Hamiltonianas de mesma ordem. Então AT , αA(α ∈ F ),


A ± B e [A, B] = AB − BA também são Hamiltonianas.

Demonstração. Note que

(i)

(AT )T J + JAT = AJ + JAT


= JAT JJ + JAT
= −JAT + JAT
= 0.

(ii)

(αA)T J + J(αA) = α(AT J + JA)


= α0
= 0.

113
(iii)

(A + B)T J + J(A + B) = AT J + B T J + JA + JB
= (AT J + JA) + (B T J + JB)
=0+0
= 0.

(iv) Se A = JR e B = JS com R e S simétricas.

[A, B] = AB − BA
= JRJS − JSJR
= J(RJS − SJR).

Seja P = RJS − SJR. Observe que,

P T = (RJS − SJR)T
= S T J T RT − RT J T S T
= −SJR + RJS
= P.

Logo, P é simétrica, portanto [A, B] = JP é Hamiltoniana.

Este teorema nos garante que sp(n, R) = {A ∈ Mn×n (R)/A é Hamiltoniana} é uma Álgebra de
Lie.3 Veremos agora condições para que uma matriz seja Hamiltoniana.
 
a b
Proposição 5.5. A matriz A = ∈ M2n×2n (R) é Hamiltoniana se, e somente se, aT + d =
c d
0, b e c são simétricas.

aT bT
   
a b
Demonstração. Se A = ∈ M2n×2n (R) então AT = ∈ M2n×2n (R).
c d cT dT

Dessa forma,
    
0 I a b c d
JA = =
−I 0 c d −a −b
3
Uma álgebra de Lie é uma estrutura algébrica cujo principal uso está no estudo dos grupos de Lie e das variedades
diferenciáveis. As álgebras de Lie foram introduzidas como ferramenta para o estudo das rotação innitesimais. O
termo "Álgebra de Lie"é uma referência a Sophus Lie, e foi cunhado pelo matemático Hermann Weyl na década de
1930.

114
e
aT bT −cT aT
    
T 0 I
A J= = .
cT dT −I 0 −dT bT

E, com isso, obtemos


−cT + c aT + d
 
T
A J + JA =
−a − dT bT − b
Logo, AT J + JA = 0 se, e somente se aT + d = 0, −a − dT = 0, −cT + c = 0 e bT − b = 0. Note
que estas duas igualdades nos dizem que cT = c, bT = b, ou seja b e c são simétricas.
 
a b
Note que no caso n = 1, temos que A = é Hamiltoniana se, e somente se, trA = 0.
c d

115
Capítulo 6

Teoria da estabilidade das EDO's

A Teoria de Lyapunov, iniciada com os métodos desenvolvidos pelo matemático russo Aleksandr
Mikhailovich Lyapunov (1857-1918), nos permite comprovar a estabilidade global de um ponto de
equilíbrio de um sistema de equações diferenciais autônomo. Para tal precisamos construir uma
função de Lyapunov. Entretanto, encontrar uma função de Lyapunov pode ser exaustivo visto que
não existe um método geral para encontrá-la.

6.1 Estudo de estabilidade

Considere o problema de valor inicial


x0 = f (x),

(6.1)
x(t0 ) = x0 ,

onde f : U −→ Rn é uma aplicação Lipschitz e U ⊂ Rn é aberto.

Lembremos que x0 , onde x0 ∈ U , é um ponto de equilíbrio de (6.1) se f (x0 ) = 0.

Denição 6.1. Dizemos que um ponto de equilíbrio x0 é estável se, para todo  > 0, existe um
δ > 0 (δ depende de ) tal que

para todo x0 ∈ U com ||x − x0 || < δ =⇒ ||ψ(t, x) − x0 || < , ∀t ≥ t0 .

Em outras palavras, se para qualquer vizinhança W = B(x0 , ) de x0 existe uma vizinhança


V = B(x0 , δ) de x0 contido em U tal que para toda solução ψ de (6.1) com ψ(0) em V , ψ(t, x) ∈
U, ∀ t ≥ 0.

116
Analisando a denição concluímos que se o ponto de equilíbrio for estável implica que a trajetória
não se fastará do ponto de equilíbrio mas não precisa retornar ao mesmo.

Denição 6.2. Dizemos que um ponto de equilíbrio x0 é assintoticamente estável se for estável e
existir um δ > 0 tal que

para todo x ∈ U com ||x − x0 || < δ =⇒ lim ψ(t, x) = x0 .


t→∞

Observação 6.1. Dizemos que um ponto de equilíbrio é instável se o ponto não é estável.

Exemplo 6.1. Encontramos no Pêndulo dois pontos de equilíbrio onde um deles é instável e o
outro, a depender da situação, é estável ou assintoticamente estável.

Figura 6.1: Pêndulo

Consideremos um pêndulo simples mas sujeito a uma força de atrito. Seja θ o ângulo entre a
barra l do pêndulo e o eixo vertical, conforme a imagem (6.1).

Se o pêndulo for ligeiramente afastado do seu estado inicial θ = 0 e se existir uma força de atrito
no sistema, observa-se que a amplitude de seu movimento diminui até retornar ao seu estado inicial
(θ = 0) com isso vemos que θ = 0 é um ponto de equilíbrio assintoticamente estável, pois a partir
de qualquer condição inicial sucientemente próxima de θ = 0 a solução tende ao ponto (θ = 0)
com o passar do tempo.

Existe outro ponto de equilíbrio, θ = π , que representa o pêndulo parado de "ponta-cabeça".


Esse ponto é classicado como ponto de equilíbrio instável pois uma pequena pertubação leva o
pêndulo a se afastar e não voltar mais a ele.

Podemos observar que o ponto de equilíbrio θ = 0 é localmente assintoticamente estável, pois


nem todas as trajetórias no espaço de fase convergem para ele basta tomar θ = π como condição
inicial do pêndulo, que permanecerá aí para sempre, se não houver pertubação.

117
Agora consideremos um pêndulo simples sem atrito. Nesse obtemos ponto de equilíbrio estável.
Se não há atrito, a energia fornecida é preservada e portanto quando o pêndulo é ligeiramente afas-
tado do ponto de equilíbrio θ = 0, ele permanecerá oscilando em torno desse ponto indenidamente.
Assim, para t → ∞, o pêndulo, em média, nem se afasta nem se aproxima do ponto de equilíbrio.

Denição 6.3. Um ponto de equilíbrio x0 é globalmente assintoticamente estável se for estável e


ainda
para todo x0 ∈ Rn temos lim ψ(t) = x0 .
t→∞

Em outras palavras, além da estabilidade, toda solução tende para o ponto de equilíbrio x0 .

Exemplo 6.2. Pra sistemas bidimensionais, cada centro é estável. Em qualquer dimensão, semi-
douros são assintoticamente estáveis, enquanto fontes e pontos de sela são instáveis.

Figura 6.2: Semidouro

Figura 6.3: Fontes

Figura 6.4: Ponto de Sela

118
6.2 Método de Lyapunov

Um método que nos ajuda a determinar se um equilíbrio é estável, assintoticamente estável


ou instável foi dado por Lyapunov em 1892. A ideia é encontar uma função cujas propriedades
determinam a natureza do equilíbrio. Infelizmente, não existe um algoritmo para encontar a função
desejada. O método de Lyapunov somente assegura que, se uma tal função existe, podemos tirar
uma conclusão acerca dela. Mas em muitos casos a função pode ser estimulada. A vantagem desse
método é que ele pode ter sucesso quando a linearização falha.

Seja (x01 , x02 , ..., x0n ) uma solução de equilíbrio do sistema

 0

 x1 = f1 (x1 , x2 , ..., xn ),
 x0 = f2 (x1 , x2 , ..., xn ),

2
..

 .
x0n = fn (x1 , x2 , ..., xn ).

Considere a função real V (x1 , x2 , ..., xn ) denida numa vizinhança U de (x01 , x02 , ..., x0n ) dife-
renciável com relação a x1 , x2 , ..., xn e dena a função
∂V ∂V
V̇ (x1 , x2 , ..., xn ) = (x1 , x2 , ..., xn )x01 + ... + (x1 , x2 , ..., xn )x0n .
∂x1 ∂xn

Observe que
d
V̇ (x1 (t), ..., xn (t)) = V (x1 (t), ..., xn (t)).
dt

Isto signica que

• Se V̇ (x(t), y(t)) < 0 então V diminui ao longo das trajetórias-solução que cruzarão as curvas
V (x, y) = c (constante) em direção ao ponto de equilíbrio.

• Se V̇ (x(t), y(t)) = 0 então V é constante ao longo das trajetórias-solução e assim esperamos


que estas trajetórias seguirão as curvas V (x, y) = c.

• Se V̇ (x(t), y(t)) > 0 então V aumenta ao longo das trajetórias-solução que cruzarão as curvas
V (x, y) = c (constante) para longe do ponto de equilíbrio.

Denição 6.4. Seja x0 um ponto de equilíbrio para (6.1). Uma Função de Lyapunov para x0 é uma
função V : U → R diferenciável denida num aberto U 3 x0 , satisfazendo às seguintes condições:

1. V (x0 ) = 0 e V (x) > 0 ∀x 6= x0 ;

119
2. V̇ ≤ 0 em U ;

3. A função de Lyapunov diz-se estrita quando vale V̇ < 0 em U \ {x0 }.

Exemplo 6.3. Considere o sistema


x0 = −y 3 ,


y 0 = x3 ,

cuja origem é uma solução de equilíbrio isolado.

Linearizando o sistema encontramos que os autovalores do sistema linearizado são iguais a 0,


logo o método de Linearização falha ao determinar a natureza desse equilíbrio. Vamos encontrar o
Hamiltoniano
H : A ⊂ R2 → R
−1 4
(x, y) 7→ H(x, y) = (x + y 4 )
4

Já que,
∂H −1 4
= −y 3 =⇒ H = y + C1 (x)
∂y 4
e
∂H
= C10 (x) =⇒ C10 (x) = −x3
∂x
1 1
C1 (x) = − x4 + C2 =⇒ H(x, y) = − (x4 + y 4 ) + C2
4 4

Sem perda de generalidade, podemos considerar C2 = 0.

Note que,

V (x, y) = x4 + y 4

é uma função de Lyapunov.

De fato, V é contínua com derivadas parciais contínuas, V (0, 0) = 0 e V (x, y) > 0 para todo
(x, y) no plano exceto o (0, 0).

Assim,

V̇ (x, y) = ∂V 0 ∂V
(x, y)y 0
∂x (x, y)x + ∂y

120
Implica que,

V̇ (x, y) = 4x3 x0 + 4y 3 y 0
= −4x3 y 3 + 4y 3 x3
= 0, ∀(x, y) ∈ R2 .

Portanto, V é uma função de Lyapunov.

Denição 6.5. Seja (6.1) um sistema denido em U ∈ Rn . Seja Ω ⊂ U um subconjunto. Dizemos


que Ω é (positivamente) invariante se para toda condição inicial x0 ∈ Ω e t ≥ t0 tal que a solução
estiver bem denida, temos φ(t, x0 ) ∈ Ω.

Proposição 6.1. Seja Ω ⊂ U um conjunto compacto. Diremos que Ω é invariante no sentido da


Denição 6.5 se toda solução φ(t) é global, isto é, denida para todo t ≥ t0 .

Demonstração.

Denição 6.6. Sejam X : Ω → Rn um campo e x ∈ Ω, denimos o conjunto ω -limite de x como

ω(x, X) = {y ∈ Ω : ∃{nk } com nk → +∞ e φnk (t, x) → y, quando k → ∞}

Teorema 6.1. (Critério de Lyapunov) Seja x0 um ponto de equilíbrio de (6.1). Se existe uma
Função de Lyapunov V : U → R para x0 , então x0 é estável. Se existe uma função de Lyapunov
estrita então é assintoticamente estável.

Demonstração. Dado  > 0 vamos mostrar que existe δ() > 0 tal que

||x − x0 || < δ =⇒ ||ψ(t) − x0 || < .

Como U é aberto, tome r ≤  sucientemente pequeno, tal que

Br (x0 ) ⊂ U.

Sem perda de generalidade, (já que podemos diminuir um pouco o valor de r) vamos supor que,
a bola fechada B̄r (x0 ) está totalmente contida em U . Dena a hiper-esfera Er por

Er = {x ∈ U ; ||x − x0 || = r}

121
e note que
B̄r (x0 ) = Er ∪ Br (x0 ).

Além disso, observe que Er é um conjunto compacto. Lembre que toda função contínua quando
restrita a um compacto possui máximo e mínimo (ver [12]). Seja

α = min V (x). (6.2)


x∈Er

Podemos notar que α ≥ 0 já que V (x) ≥ 0. Mostremos agora que α > 0.

• Se α fosse nulo, então V (xi ) seria nulo, para algum xi ∈ Er . Como V (x) se anula somente na
origem e Er não intercepta a origem, então apenas podemos ter α > 0.

Agora, tome β > 0 com β < α. Dena,

Ωβ = {x ∈ B̄r (x0 ); V (x) ≤ β}. (6.3)

Mostraremos agora que Ωβ ⊂ Br (x0 ).

Para mostrar isso, precisamos mostrar que Ωβ não pode conter nenhum ponto de Er . Assuma,
por absurdo, que x1 ∈ Ωβ com x1 ∈ Er . Então, por (6.2), segue que

V (x1 ) ≥ α > β,

Logo, x1 ∈/ Ωβ , então, concluímos que

Ωβ = {x ∈ Br (x0 ); V (x) ≤ β}.

Mostraremos agora que Ωβ é um conjunto invariante.

A solução ψ(t) está denida em [t0 , ∞). De certo,

• Como V̇ (x) ≤ 0, então V (x(t)) é não crescente e portanto ca sempre inferior ou igual a β .

• Se ψ(t) saísse de Br (x0 ) seria necessário, por continuidade, que ||ψ(t) − x0 || = r para algum
t ≥ t0 . Neste caso, como já mostramos que ψ(t) ∈ Er implica que V (x) ≥ α > β , contrariando o
fato de que V (ψ(t)) é não crescente. Ou, equivalentemente, temos
V (x) − V (x0 ) ψ(t) − ψ(t0 )
V̇ (t) = lim . > 0.
x→x0 ψ(t) − x0 t − t0

122
• Pela Proposição 6.1, vemos que a solução ca denida para todo t, já que Ωβ é compacto e
invariante.

Vamos construir agora o δ() procurado e, concluir a prova.

Com efeito, como V (x) é contínua em x0 , existe δ1 > 0 (que depende de β ) tal que

||x − x0 || < δ1 =⇒ |V (x) − V (x0 )| < β. (6.4)

Como V (x0 ) = 0 o lado direito da última implicação pode ser reescrito como

|V (x)| < β.

Seja δ = min{δ1 , r}, note que, x0 ∈ Bδ (x0 ). Por (6.3) e (6.4) temos que x0 ∈ Ωβ . Pela invariância
obtemos ψ(t) ∈ Ωβ , e por (6.4) concluímos que ψ(t) ∈ Br (x0 ) ⊂ B (x0 ). Assim,

kψ(t) − x0 k < .

Isso, mostra a estabilidade de x0 , concluindo a primeira parte da demonstração.

Agora, precisamos mostrar o caso do ponto de equilíbrio assintoticamente estável. Pelo que foi
demonstrado acima, temos que x0 é um ponto de equilíbrio estável. Logo, dado  > 0 existe δ > 0,
tal que, se ||x − x0 || < δ então ||ψt (x) − x0 || < . Provemos que se ||x − x0 || < δ então ψt (x) → x0
quando t → ∞. Sabemos que V (x) > 0 e que V (ψt (x)) é estritamente decrescente, por hipótese.
Logo, existe lim V (ψt (x)) = a ≥ 0., V (ψt (x)) pois é uma sequencia monótona e limitada.
t→∞

Seja y ∈ w(x) ⊂ B̄ (x) (isso pela estabilidade de x0 ). Logo,

V (ψt (y)) = lim V (ψt (ψtk (x))) = lim V (ψt+tk (x)) = a ≥ 0.


tk →∞ t→∞

e, portanto V é constante ao longo da trajetória de y e a única possibilidade (pela estabilidade de


x0 ) é que a = x0 e assim, y = x0 .

Exemplo 6.4. (competição entre espécies) Considere x, y , z a quantidade de raposas, gatos e um


tipo especíco de ave de rapina que competem entre si por um tipo de alimentação. Considere ainda
que tal competição é modelada matematicamente por:
 0
 x = G1 (x, y, z),
y 0 = G2 (x, y, z), (6.5)
 0
z = G3 (x, y, z),

onde G1 (x, y, z) = −2y + yz − x3 , G2 (x, y, x) = x − xz − y 3 e G3 (x, y, z) = xy − z 3 .

123
Note que o sistema (6.5) possui P0 = (0, 0, 0) como ponto de equilíbrio. Inicialmente, vamos
linearizar o sistema no ponto de equilíbrio P0 . Daí,

 ∂G1 (P0 ) ∂G1 (P0 ) ∂G1 (P0 )   


∂x ∂y ∂z 0 −2 0
 ∂G2 (P0 ) ∂G2 (P0 ) ∂G2 (P0 ) 
A=  ∂x ∂y ∂z  = 1 0 0 .
∂G3 (P0 ) ∂G3 (P0 ) ∂G3 (P0 ) 0 0 0
∂x ∂y ∂z

Assim, segue o polinômio característico da matriz A,

−λ −2 0
p(λ) = 1 −λ 0 = −λ · (λ2 + 2).
0 0 −λ

√ √
Donde obtemos os autovalores da matriz A λ1 = 0, λ2 = i 2 e λ3 = −i 2. Consequentemente,
P0 não é um ponto de equilíbrio hiperbólico, haja vista que os autovalores obtidos são imaginários
puros ou o autovalor nulo.

Dena
V : Ω ⊂ R3 → R
,
(x, y, z) 7→ V (x, y, x) = ax2 + by 2 + cz 2

onde a, b, c > 0. Daí, observe que:

1. V é contínua para todo (x, y, z) ∈ R3 e em particular próximo a P0 . Com efeito, dado ε > 0,
existe δ = |a|+|b|+|c| > 0, tal que
q
ε

k(x, y, z)k < δ =⇒ |V (x, y, z) − 0| = |ax2 + by 2 + cz 2 |


≤ |a|x2 + |b|y 2 + |c|z 2
≤ |a|(x2 + y 2 + z 2 ) + |b|(x2 + y 2 + z 2 ) + |c|(x2 + y 2 + z 2 )
= (|a| + |b| + |c|) · k(x, y, z)k2
< (|a| + |b| + |c|) · δ 2
= ε

∂V
2. são contínuas, i = 1, 2, 3.
∂xi

3. V (P0 ) = 0 e V (x, y, z) > 0 para todo (x, y, z) 6= P0 .

4. Se k > 0, então V (x, y, z) = k representa uma superfície fechada, ou seja, um elipsoide de

124
centro na origem. De fato,
V (x, y, z) = k
⇐⇒ ax2
+ by 2 + cz 2 = k
x 2 y 2 z2
⇐⇒ r !2 + r !2 + r !2 = 1.
k k k
a b c

5. Supondo que x, y e z são funções na variável t, temos


dV (x, y, z)
V0 =
dt
= 2ax · x0 + 2by · y 0 + 2cz · z 0
= 2ax · (−2y + yz − x3 ) + 2by · (x − xz − y 3 ) + 2cz · (xy − z 3 )
= 2xyx · (a − b + c) + 2xy · (b − 2a) − 2 · (ax4 + by 4 + cz 3 ).

Para que V 0 < 0, é necessário que


 
b − 2a = 0 b = 2a
=⇒ .
a−b+c=0 c=a

Daí V 0 = −2a(x4 + 2y 4 + z 4 ) é uma função de Liapounov. Pelo teorema de Liapounov, P0 é


assintoticamente estável.

Exemplo 6.5. Sabemos que a equação que descreve o movimento do pêndulo harmônico é dada
por:

−g
ψ 00 = sin ψ, (6.6)
L
onde L é o comprimento da haste, ψ é o ângulo com a vertical e g é a aceleração da gravidade.

Se representarmos θ = ψ 0 , a equação (6.6), pode ser escrita como

ψ 0 = θ,
(
−g
θ0 = sin ψ,
L
tal sistema possui innitas soluções de equilíbrio, representadas por todos os pontos da forma

(ψ, θ) = (kπ, 0), k ∈ Z.

125
Para facilitar, comecemos analisando o ponto (0, 0).

1o - Linearização " #
0 1
A= −g (6.7)
0
L

Sendo assim, o sistema linearizado pode ser escrito na forma


ψ 0 = θ,
(
−g
θ0 = ψ.
L

Assim, determinamos os autovalores associados a matriz 6.7


g g −g
λ2 + = 0 =⇒ λ1 = i, λ2 = i.
L L L

2o - Hamiltoniano
Considere, (
f (x, y) = θ,
−g
g(x, y) = sin ψ,
L
onde,
 " g #
0 1 sin ψ
Ż = L .
−1 0 θ

A função Hamiltoniana será da forma:

H : A ⊂ R2 → R

θ2 g
(ψ, θ) 7→ H(ψ, θ) = − cos ψ + C1 + C2 .
4 L

−g
Vamos encontrar a constante C = C1 + C2 . Se 0 = H(0, 0) = + C (já que o Hamiltoniano é
L
g
uma integral primeira), então, C = C1 + C2 = ,
L
Com isso, temos que
θ2 g g
H(ψ, θ) = − cos ψ + .
4 L L
Precisamos, neste caso, vericar esta constante para que a função Hamiltoniana seja uma função de
−g
Lyapunov. Caso contrário, teríamos H(0, 0) = V (0, 0) = .
L

126
Consequentemente, uma candidata possível para a função de Lyapunov é
1 g g
V (ψ, θ) = θ2 − cos ψ + .
4 L L
Com efeito, V é contínua, possui derivadas parciais contínuas, V (0, 0) = 0 e V (ψ, θ) > 0 para
qualquer valor de θ e para qualquer valor de ψ no intervalo (−π, π), exceto o 0.

Além disso,
1 g g 1 g g 1
V (ψ, θ) = θ2 − cos ψ + > θ2 − (1) + = θ2 > 0,
4 L L 4 L L 4
pois nesse momento estamos tomando (ψ, θ) 6= (0, 0). Como o Hamiltoniano é uma integral primeira
e V = H então,
V̇ (ψ, θ) = 0,

e segue pelo Teorema de Lyapunov, que o ponto (0, 0) é estável.

O mesmo argumento se aplica a quaisquer pontos de equilíbrio da forma (ψ, θ) = (2nπ, 0) onde
n é um inteiro. Para (2π, 0), por exemplo, V (2π, 0) = 0, V (ψ, θ) > 0 para qualquer valor de θ e
para qualquer valor de ψ no intervalo (π, 3π) exceto 2π e V (ψ, θ) = 0. Assim todos os pontos de
equilíbrio da forma (2nπ, 0), com n ∈ Z são centros.

127
Apêndice A

Apêndice

Este capítulo preliminar tem com objetivo rever conceitos e resultados relevantes ao desenvol-
vimento teórico dos capítulos anteriores. Revisaremos itens teóricos presentes em Álgebra Linear,
Análise Matemática e Espaços Métricos. Mais detalhes sobre estes temas se encontram nas referên-
cias(Ver [3], [7], [8], [9]).

A.1 Espaços vetoriais

Denição A.1. Um espaço Vetorial E sobre um corpo F é um conjunto cujos elementos podem ser
somados e multiplicados por elementos de F. Tais operações gozam das seguintes propriedadades:

A1. x + y ∈ E (fechamento)

A2. x + (y + z) = (x + y) + z (associatividade)

A3. x + y = y + x (comutatividade)

A4. existe 0 ∈ E tal que x + 0 = x (elemento neutro)

A5. existe (−x) ∈ E tal que x + (−x) = 0 (inverso aditivo)

M1. λx ∈ E (fechamento)

M2. α(βx) = (αβ)x (associatividade)

M3. α(x + y) = αx + βx (distributividade)

M4. (α + β)x = αx + βx (distributividade)

128
M5. 1 · x = x (regra da unidade)

Exemplo A.1. Rn sobre R é um espaço vetorial munido com as seguintes operações:

+: Rn × Rn → Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) 7→ (x1 + y1 , . . . , xn + yn )

·: R × Rn → Rn
(λ, (x1 , . . . , xn )) 7→ (λ · x1 , . . . , λ · xn )

Exemplo A.2. Seja S 6= ∅. O conjunto de todas das funções F = {f : S → R} munido com as


operações:

+: F ×F → F
(f, g) 7→ f (x) + g(x)

·: R×F → F
(λ, f ) 7→ λ · f (x)

é um espaço vetorial.

Denição A.2. Um subconjunto D de um espaço vetorial E é um subespaço, se seus elementos


satisfazem as propriedades que denem o espaço vetorial E .

Denição A.3. Seja S 6= ∅. Uma função f : S → R é dita limitada quando existe c > 0 tal que
|f (x)| ≤ c para todo x ∈ R.

Exemplo A.3. Seja S 6= ∅. Indicaremos B(S; R) = {f ∈ F; f é limitada}. B(S, R) é um


subespaço de F .

Denição A.4. Seja E um espaço vetorial sobre um corpo F. Uma norma em E é uma aplicação
k · k : E → [0, ∞) satisfazendo as seguintes propriedades:

N1. kxk > 0 se x 6= 0;

N2. kλXk = |λ|kxk, para λ ∈ F;

N3. kx + yk ≤ kxk + kyk.

Considerando E com uma norma k · k, diz-se que E é um espaço vetorial normado.

129
Exemplo A.4. O espaço vetorial R sobre o corpo R. A aplicação | · | : R → [0, ∞) denida por
|x| = max{x, −x} é uma norma em R.

Exemplo A.5. Dado f ∈ B(S; R) denamos kf k = sup |f (x)|. Dessa forma, B(S; R) é um espaço
x∈S
vetorial normado. Vejamos, sejam f, g ∈ B(S, R) e λ ∈ R:

i. Seja f 6= 0. Assim f (x) 6= 0 para algum x ∈ R. Portanto, kf k = sup |f (x)| > 0;


x∈S

ii. k(λ · f )k = sup |(λ · f )(x)| = sup |λ · f (x)| = |λ| · sup |f (x)| = |λ| · kf k;
x∈S x∈S x∈S

iii. Para a demonstração desse item, usaremos a desigualdade triangular para números reais e as
propriedades do supremo de um conjunto.

kf + gk = sup |(f + g)(x)|


x∈S
= sup |f (x) + g(x)|
x∈S
≤ sup (|f (x)| + |g(x)|)
x∈S
= sup |f (x)| + sup |g(x)|
x∈S x∈S
= kf k + kgk.

Exemplo A.6. O espaço vetorial Rn sobre o corpo R. Dado x ∈ Rn , as expressões abaixo são
chamadas de norma da soma e do máximo:
n
X
kxkS = |xi |
i=1

kxkM = max |xi |.


1≤i≤n

De fato, dados x, y ∈ Rn e λ ∈ R temos:

Para a norma da soma:

n
i. Se x 6= 0, então xi 6= 0 para algum 1 ≤ i ≤ n. Daí, kxkS = |xi | > 0.
X

i=1

n n
ii. kλ · xkS =
X X
|λ · xi | = |λ| |xi | = |λ|kxkS
i=1 i=1

130
iii. Para demonstração desse item, usaremos a desigualdade triangular, isto é, para quaisquer
n
x, y ∈ R tem-se |x + y| ≤ |x| + |y|. Por denição, temos kx + ykS = |xi + yi |. Daí,
X

i=1

kx + ykS = |x1 + y1 | + · · · + |xn + yn |


≤ |x1 | + |y1 | + · · · + |xn | + |yn |
Xn X n
= |xi + |yi |
i=1 i=1
= kxkS + kykS

Para a norma do máximo:

i. Se x 6= 0, então xi 6= 0 para algum 1 ≤ i ≤ n. Daí, kxkM = max |xi | > 0.


1≤i≤n

ii. kλ · xkM = max |λ · xi | = max |λ||xi | = |λ| max |xi | = |λ|kxkM


1≤i≤n 1≤i≤n 1≤i≤n

iii. Para demonstração desse item, usaremos propriedaes do máximo:

kx + ykM = max |xi + yi |


1≤i≤n
≤ max (|xi | + |yi |)
1≤i≤n
= max |xi | + max |yi |
1≤i≤n 1≤i≤n
= kxkM + kykM

Denição A.5. Seja E um espaço vetorial sobre um corpo F. Um produto interno em E é uma
aplicação h·, ·i : E × E → F satisfazendo as seguintes propriedades:

P1. hx, yi = hy, xi

P2. hx + λy, zi = hx, zi + λhy, zi

P3. hx, xi ≥ 0 e hx, xi = 0 se , e somente se, x = 0.

Lema A.1. (Desigualdade de Cauchy-Schwarz). Seja E um espaço vetorial real com produto in-
terno. Então
|hx, yi| ≤ kxk · kyk,

para quaisquer x, y ∈ E .

131
Demonstração. Consideremos x, y ∈ E . Se x = 0 ou y = 0 o lema é válido. Notemos ainda que
para quaisquer x, y ∈ E , com x 6= 0, tem-se:
hx, yi2
 
hx, yi hx, yi hx, yi
y− x, y − x ≥ 0 ⇒ hy, yi − 2 hx, yi + hx, xi ≥ 0 ⇒
kxk2 kxk2 kxk2 kxk4
hx, yi2
kyk2 − ≥ 0 ⇒ hx, yi2 ≤ kxk2 · kyk2 ⇒ |hx, yi| ≤ kxk · kyk,
kxk2
e isto conclui a demonstração do lema.

Exemplo A.7. Seja Rn um espaço vetorial sobre R. Dados x, y ∈ Rn a aplicação


h·, ·i : Rn × Rn → R
(x, y) 7→ hx, yi = x1 y1 + . . . xn yn
é um produto interno. Se E é um espaço vetorial com produto interno, pode-se denir uma norma
1
a partir do produto interno. A saber: kxk := hx, xi 2 . Daí, também é uma norma no espaço vetorial
Rn : !1 n
X 2

kxkE = x2i
i=1

De fato, sejam x, y ∈ Rn e λ ∈ R.

n
!1
2

i. Se x 6= 0 então xi 6= 0 para algum 1 ≤ i ≤ n. Daí, kxkE =


X
x2i >0
i=1

n
!1 n
!1 n
!1
2 2 2

ii. kλxkE =
X X X
(λ · xi )2 = (λ · xi )2 = |λ| (xi )2 = |λ|kxkE
i=1 i=1 i=1

iii. Para demonstração desse item, usaremos o lema 1.1. Usando a denição da norma k · kE ,
temos:
n
X
kx + yk2E = (xi + yi )2
i=1
n
X n
X n
X
= x2i +2 xi yi + yi2
i=1 i=1 i=1
= kxk2E + 2hx, yi + 2
kykE
≤ kxk2E + 2kxkE · kykE + kyk2E
= (kxkE + kykE )2

Portanto, kx + ykE ≤ kxkE + kykE . A norma k · kE é chamada de norma euclidiana e quando


não houver perigo de confusão apenas denotaremos por k · k.

132
Denição A.6. Duas normas arbitrárias k·k1 e k·k2 são ditas equivalentes em Rn quando existirem
constantes c1 , c2 > 0 tais que:

kxk1 ≤ c1 kxk2 e kxk2 ≤ c2 kxk1 , ∀ ∈ Rn .

Proposição A.1. Seja Rn um espaço vetorial sobre R. As normas do máximo, da soma e euclidiana
são equivalentes, isto é, kxkM ≤ kxk ≤ kxkS ≤ n · kxkM , ∀x ∈ Rn .

Demonstração. Seja x ∈ Rn . Inicialmente, mostraremos que kxkM ≤ kxk.

n
X n
X  2
2
kxk = x2i = 2
|xi | ≥ max |xi | = kxk2M ⇒ kxk ≥ kxkM
1≤i≤n
i=1 i=1

Mostremos agora que kxk ≤ kxkS


n
!2 n n n n
X X X X X
kxk2S = |xi | = 2
|xi | + 2 |xi · xj | ≥ 2
|xi | = x2i = kxk
i=1 i=1 i 6= j i=1 i=1
i, j = 1

Por m, mostraremos que kxkS ≤ n · kxkM


n
X n
X
kxkS = |xi | ≤ max |xi | = n · max |xi | = n · kxkM ,
1≤i≤n 1≤i≤n
i=1 i=1

Demonstrando assim a proporsição.

A.2 Espaços métricos

Denição A.7. (Métrica). Seja X um conjunto não vazio. Uma métrica do conjunto X é uma
função d : X × X → [0, ∞), que associa a cada par ordenado de elementos x, y ∈ X um número real
d(x, y), chamado a distância de x a y, de modo que sejam satisfeitas as seguintes condições para
quaisquer x, y, z ∈ X :

i) d(x, y) ≥ 0 e d(x, y) = 0 ⇔ x = y ;

ii) d(x, y) = d(y, x);

iii) d(x, z) ≤ d(x, y) + d(y, z) (Desigualdade triangular) .

Denição A.8. (Espaço Métrico) O par (X, d), onde X é um conjunto e d uma métrica em X ,
será chamado de espaço métrico

133
Exemplo A.8. Seja X um conjunto qualquer. Tal conjunto pode torna-se um espaço métrico se
considerarmos a métrica zero-um, isto é, a função d : X × X → R denida por

0 se x = y
d(x, y) =
1 se x 6= y

Nota-se que as propriedades (i) e (ii) são claramente satisfeitas. Com efeito:

i) Temos que d é não negativo, uma vez que se x 6= y temos d(x, y) = 1 e se x = y e temos
também que d(x, y) = 0. E ainda se d(x, y) = 0 ⇔ x = y ;

ii ) d é simétrica, pois d(x, y) = d(y, x).

iii ) Para mostrar que d satisfaz também a propriedade (iii), observamos que se x = y , então
evidentimente d(x, z) = 0 6 d(x, y) + d(y, z). Se x 6= y , caso em que d(x, y) = 1, então não pode
ocorrer x = y e y = z simultaneamente, isto é, devemos ter x 6= y ou y 6= z e assim

d(x, y) + d(y, z) > 1 = d(x, z)

A soma de d(x, y) + d(y, z) é igual a 1 ou 2.

Num espaço vetorial normado, obtemos imediatamente uma métrica em E denindo d : E ×E →


R por d(x, y) = kx − yk. Dessa forma, um espaço vetorial normado é um espaço métrico.

Exemplo A.9. O espaço vetorial normando Rn é um espaço métrico com relação as métricas:

i. d(x, y) = kx − yk

ii. d(x, y) = kx − ykS

iii. d(x, y) = kx − ykM

Uma maneira simples e muito importante de obter espaços métricos é considerar um subconjunto
de um espaço métrico e tomar como distância entre seus pontos a mesma do espaço original. Noutras
palavras, se X é um espaço métrico com a métrica d : X × X → R e Y ⊂ X então a restrição
d|Y ×Y : Y × Y → R é uma métrica em Y e d será chamada de métrica induzida.

Denição A.9. Se (X, d) é um espaço métrico e Y ⊂ X , então (Y, d) é chamado de subespaço de


(X, d).

134
A.3 Bolas em espaços métricos

Denição A.10. Sejam M um espaço métrico, a ∈ M e r ∈ R∗+ .

B1. Chamaremos de bola aberta de centro a e raio r ao conjunto B(a; r) = {x ∈ M ; d(a, x) < r}.

B2. Chamaremos de bola fechada de centro a e raio r ao conjunto B[a; r] = {x ∈ M ; d(a, x) ≤ r}

B3. A esfera de centro a e raio r será o conjunto S(a; r) = {x ∈ M ; d(a, x) = r}

Se N ⊂ M é um subespaço de M e a ∈ N , as bolas aberta e fechada de centro a e raio r em


N serão indicadas respectivamente por BN (a; x) e BN [a; x], enquanto a esfera de centro a e raio r
será indicada por SN (a; x). Observemos que

i. BN (a; x) = {x ∈ N ; d(a, x) < r} = B(a; r) ∩ N


ii. BN [a; x] = {x ∈ N ; d(a, x) ≤ r} = B[a; r] ∩ N
iii. SN (a; r) = {x ∈ N ; d(a, x) = r} = S(a; r) ∩ N

A.4 Conjuntos abertos e fechados

Denição A.11. Seja A um subconjunto de um espaço métrico M . Um ponto a ∈ A é chamado


de ponto interior de A se existir r > 0, tal que
B(a; r) ⊂ A.

Diremos que A é um conjunto aberto em M quando todo ponto de A for ponto interior de A. O
conjunto de todos os pontos interiores de A será chamado interior de A, o qual denotaremos de
int A. Um conjunto A é aberto se A = int A.

Denição A.12. Um subconjunto F de um espaço métrico M é dito fechado em M quando seu


complementar F c é aberto

A.5 Conjuntos compactos

Denição A.13. Sejam M um espaço métrico, A ⊂ M e L um conjunto de indices. Uma cobertura


de A é uma família C = {Cλ }λ∈L de subconjuntos de M tal que A ⊂ Cλ . Se cada Cλ for um
[

λ∈L

135
conjunto aberto em M diremos que C é uma cobertura aberta de A. Se existir L0 ⊂ L tal que
Cλ diremos que C 0 = {Cλ }λ∈L0 é uma subcobertura de C para A.
[
A⊂
λ∈L0
Denição A.14. Um subconjunto K de um espaço métrico M será dito compacto quando toda
cobertura aberta de K possuir uma subcobertura nita.

A.6 Sequências em espaços métricos

Denição A.15. (Sequência de Cauchy, Espaço Completo). Uma sequência {xn }n∈N em um espaço
métrico (M ; d) é dita de Cauchy se para todo ε > 0 existir N = N (ε) ∈ N tal que

d(xm ; xn ) < ε; ∀m, n > N.

O espaço M é dito completo se toda sequência de Cauchy em M converge para um elemento de M .Um
espaço vetorial normado cuja métrica induzida o torna um espaço métrico completo é chamado de
espaço de Banach, como também se um espaço vetorial munido de um produto interno cuja norma
obtida o classica como espaço de Banach,é chamado de espaço de Hilbert.
Proposição A.2. Um subespaço fechado de um espaço métrico completo é completo.
Proposição A.3. O produto cartesiano M × N é completo se, e somente se, M e N são completos.

A.7 Funções contínuas

Denição A.16. Sejam M, N espaços métricos. Diz que a aplicação f : M → N é contínua no


ponto a ∈ M quando, para todo ε > 0, existir δ > 0 tal que

d(x, a) < δ ⇒ d(f (x), f (a)) < ε para todo x ∈ M.

Diz-se que f : M → N é contínua quando ela é contínua em todos os pontos a ∈ M .


Exemplo A.10. Se k · k : V → R+ é uma norma no espaço vetorial V , então a norma é uma
função contínua. De fato, sejam x, a ∈ V . Dado ε > 0, tomando δ = ε tem-se:

d(kxk, kak) = kxk − kak ≤ kx − ak = d(x, a) < δ = ε

Denição A.17. (Aplicação Lipschitiziana). Seja f : M → N . Dizemos que f é uma aplicação


Lipschitziana quando existe uma constante c > 0 (chamada de constante de Lipschitz) tal que
d(f (x), f (y)) ≤ c · d(x, y), para quaisquer x, y ∈ M .

136
Proposição A.4. Sejam M, N espaços vetoriais normados. Se f : M → N é uma aplicação
lipschitziana então f é contínua.

Com efeito, sendo f uma aplicação lipschitziana, existe uma constante c > 0 tal que

dN (f (x), f (y)) ≤ c · dM (x, y).

ε
Daí, dado ε > 0, existe δ = > 0 tal que
c
dM (x, y) < δ ⇒ dN (f (x), f (y)) ≤ c · dM (x, y) < c · δ = ε.

Portanto, f é contínua em M .

A.8 Conceitos básicos

Denição A.18. Uma aplicação f : X −→ Rn , denida no conjunto X ⊂ Rn , associa cada ponto


x ∈ X a sua imagem f (x) = (f1 (x), ..., fn (x)). As funções reais f1 , ..., fn : X −→ R, assim denidas,
chamam-se funções coordenadas de f. Escreve-se então f = (f1 , ..., fn ).

Temos que, f é contínua no ponto a ∈ X quando, para todo  > 0 dado arbitrariamente,
pode-se obter δ = δ() > 0 tal que x ∈ X e kx − ak < δ impliquem kf (x) − f (a)k < . Em outras
palavras, f é contínua no ponto a signica que:

∀  > 0, ∃ δ = δ() > 0; x ∈ X, kx − ak < δ ⇒ kf (x) − f (a)k < .

Exemplo A.11. Seja

ϕ : [0, 2π] −→ S 1
t 7→ ϕ(t) = (cos t, sin t)

Temos que ϕ é contínua para todo t ∈ I = [0, 2π).

De fato, para qualquer t2 , t1 ∈ I , dado  > 0, existe um δ = 


2 > 0 tal que

|t2 − t1 | < δ =⇒ kϕ(t2 ) − ϕ(t1 )k = k(cos t2 − cos t1 , sin t2 − sin t1 k


= | cos t2 − cos t1 | + | sin t2 − sin t1 |

137
Como as funções seno e cosseno são contínuas em todo R, em particular nos intervalos [t1 , t2 ], (t1 , t2 ),
respectivamente (sem perda de generalidade t1 < t2 ). Assim, pelo Teorema do Valor Médio,
∃ t̄ e t̄¯ ∈ (t1 , t2 );
| cos t2 − cos t1 | = | − sin(t̄)| · |(t2 − t1 )|;

| sin t2 − sin t1 | = | cos t̄¯| · |(t2 − t1 )|

Assim,

kϕ(t2 ) − ϕ(t1 )k = | sin(t̄) · |t2 − t1 | + | cos(t̄¯)| · |t2 − t1 |


≤ 2|t2 − t1 |
< 2δ
=

Denição A.19. (Função Limitada) Seja X ⊂ Rn . Uma função f : X −→ Rn chama-se limitada


se f (X) ⊆ Rn é um conjunto limitado.

Denição A.20. (Cota superior) Seja K um corpo ordenado e X um subconjunto de K . Dizemos


que um elemento x ∈ K é uma cota superior de X , se x ≥ y para todo y ∈ X . Neste caso dizemos
que X é limitado superiormente.

Denição A.21. (Cota inferior) Seja K um corpo ordenado e X um subconjunto de K . Dizemos


que um elemento x ∈ K é uma cota inferior de K , se x ≤ y para todo y ∈ X . Neste caso dizemos
que X é limitado inferiormente.

Denição A.22. (Supremo de um conjunto) Seja K um corpo ordenado e X um subconjunto


de K limitado superiormente. O supremo de X , denotado por sup X , é a menor das cotas superiores
de X . Em outras palavras, x ∈ K é o supremo de X , se

i) x for uma cota superior de X ;

ii) Dado  > 0, existe um x0 ∈ X tal que x −  < x0 .

Denição A.23. (Ínmo de um conjunto) Seja K um corpo ordenado e X um subconjunto de


K limitado inferiormente. O ínmo de X , denotado por inf X , é a maior das cotas inferiores de X .
Em outras palavras, x ∈ X é o ínmo de X , se

138
i) x for uma cota inferior de X ;

ii) Dado  > 0, existe um x0 ∈ X tal que x0 < x +  .

Denição A.24. (Ponto Aderente) Seja X ⊂ Rn dizemos que x ∈ Rn é ponto aderente à X se


existe uma sequência (xn ) ⊂ X tal que lim xn = x.
n→∞

1
Exemplo A.12. O número 0 é um ponto aderente à X = ∈ N , pois ⊂ X e lim
1 1

n; n n n→∞ n
=0

Exemplo A.13. O número a é ponto aderente no intervalo aberto (a, b).


1
Com efeito, a sequência a + n1 ⊂ (a, b) para n sucientemente grande e mais, lim a +

=a
n→∞ n
Exemplo A.14. Todo ponto x ∈ X é aderente a X, pois basta considerar a sequência constante
xn = x ∈ X, ∀ n ∈ N

Denição A.25. (Fecho) Seja X ⊆ Rn . O conjunto X = {x ∈ Rn ; x é ponto aderente a X} é


denominado de fecho do conjunto X .

Exemplo A.15. Note que 0 ∈ X =


1
n; n ∈N

Denição A.26. (Cisão) Dizemos que (X|Y ) é uma cisão do conjunto A ⊆ Rn se

A=X ∪Y e X ∩Y =Y ∩X =∅

Dizemos que a cisão é trivial quando X = A e Y = ∅ ou Y = A e X = ∅. Isto é, (A|∅) é cisão


trivial de A ⊆ Rn

Exemplo A.16. Seja X = R\{0}, ((−∞, 0)|(0, ∞)) é uma cisão para X, não trivial.

De fato, X = (−∞, 0) ∪ (0, ∞) e também,

(−∞, 0) ∩ (0, ∞) = (−∞, 0] ∩ (0, ∞) = ∅

Além disso,
(−∞, 0) ∩ (0, ∞) = (−∞, 0) ∩ [0, ∞) = ∅

Exemplo A.17. Seja X = [1, 3], ([1, 2]|(2, 3]) não é uma cisão para X.

Com efeito, 2 ∈ [1, 2] ∩ (2, 3], ou seja, [1, 2] ∩ (2, 3] 6= ∅

Denição A.27. (Conjunto Conexo) Dizemos que X ⊆ R é um conjunto conexo se X só admite


a cisão trivial.

139
Exemplo A.18. R\{0} é desconexo.

Diz-se que f : X −→ Rn é uma aplicação contínua quando f é contínua em todos os pontos


a ∈ X.

Denição A.28. (Função Lipschitziana) Uma função f : X −→ R chama-se lipschitziana


quando existe uma constante k > 0 (chamada constante de Lipschitz da função f) tal que

kf (x) − f (y)k ≤ kkx − yk, ∀ x, y ∈ X

A m de que f : X −→ R seja lipschitiziana é necessário e suciente que o quociente


[f (y) − f (x)]
(y − x)

seja limitado, isto é, que exista uma constante k > 0 tal que x, y ∈ X, x 6= y ⇒
| f (y) − f (x) |
≤ k.
|y−x|

Exemplo A.19. Se f : R −→ R é um polinômio de grau 1, isto é, f (x) = ax + b, com a 6= 0, então


f é lipschitiziana.

Veja que |f (x) − f (y)| = |ax + b − (ay + b)| = |a(x − y)| = |a||x − y|, ∀ x, y ∈ R. Temos que f é
Lipschitizina com constante k =| a |.

Além disso, dizemos que f é localmente Lipschitziana em X se cada ponto p de X existe


uma vizinhança aberta V de p cuja a restrição V é Lipschitziana, isto é, se f |V é Lipschitziana.

Exemplo A.20. Toda transformação linear

T : Rm −→ Rn
x 7→ T (x)

é Lipschitziana.

De fato, seja β = {e1 , ..., em } base canônica de Rm .

Então, para x, y ∈ Rm e k = max{||T (e1 )||, ..., ||T (em )||} temos

140
||T (x) − T (y)|| = ||(x1 − y1 )T (e1 ) + ... + (xm − ym )T (em )||
≤ k(x1 − y1 )T (e1 )k + ... + k(xm − ym )T (em )k
= |(x1 − y1 )|kT (e1 )k + ... + |(xm − ym )|kT (em )k
= |(x1 − y1 )|k + ... + |(xm − ym )|k
= k(|x1 − y1 | + ... + |xm − ym |)
≤ kkx − ykM

Portanto, T é Lipschitziana.

Denição A.29. (Função Convexa) Seja X ⊂ Rn . A função f : I −→ R é dita convexa em R


quando
f (αx + (1 − α)x1 ) ≤ αf (x) + (1 − α)f (x1 )

para todos x, x1 ∈ X em I e todo α ∈ (0, 1)

Exemplo A.21. f (x)) = |x| é uma função convexa.

Tomemos α ∈ (0, 1) e x00 := αx + (1 − α)x0 .

Precisamos mostrar que


f (x00 ) ≤ αf (x) + (1 − α)f (x0 )

Denote ϕ := f (x00 ) − αf (x) − (1 − α)f (x0 ).

Assim, temos que

ϕ = |x00 | − α|x| − (1 − α)|x0 |


= |αx + (1 − α)x0 | − α|x| − (1 − α)|x0 |
≤ |αx| + |(1 − α)x0 | − α|x| − (1 − α)|x0 | (Desig. Triangular)
= |α||x| + |(1 − α)||x0 | − α|x| − (1 − α)|x|
= α|x| + (1 − α)|x0 | − α|x| − (1 − α)|x|
= 0.

Deste modo, ϕ ≤ 0. Com isso, provamos que

f (αx + (1 − α)x0 ) ≤ αf (x) + (1 − α)f (x0 )

141
E, portanto, f é convexa.
Denição A.30. (Contração) Sejam (X, d) e (Y, d) espaços métricos. Uma função f : X → Y é
uma contração, se existir uma constante positiva 0 < k < 1 tal que
d(f (x), f (y)) 6 k · d(x, y)

para quaisquer x, y ∈ X .
Observação A.1. Temos que uma contração é uma função de Lipschitz com constante 0 < k < 1.
Denição A.31. (Ponto Fixo) Se f é uma função f : S −→ S , um ponto xo de f é todo ponto
x∗ ∈ S; f (x∗ ) = x∗ . Em outras palavras, ponto que não é alterado por uma aplicação.

Exemplo A.22. Toda aplicação linear possui um ponto xo trivial, o vetor nulo.

Com efeito, T (0) = 0


Exemplo A.23. Toda função contínua f : [0, 1] → [0, 1] possui um ponto xo. De fato, considere
a função contínua φ : [0, 1] → R, dada por:
φ(x) = f (x) − x :

Como 0 ≤ f (x) ≤ 1 para todo x ∈ [0, 1], segue-se que


φ(0) = f (0) ≥ 0

e
φ(1) = f (1) − 1 ≤ 0;

e pelo Teorema do Valor Intermediário, existe x ∈ [0, 1] tal que φ(x) = 0, isto é, f (x) = x.
Observação A.2. Temos que, nem toda função f : X → X possui ponto xo. Por outro lado,
temos a função identidade i : X → X , onde todo ponto de X é um ponto xo. Temos também a
função f : R → R dada por f (x) = x2 , que possui dois pontos xos: 0 e 1.

A.8.1 Sequências de Cauchy e espaços métricos completos.

Uma sequência de Cauchy em um espaço métrico (X, d) é denida de maneira análoga à denição
no contexto da reta. Dizemos que uma sequência (xn ) de números reais é de Cauchy se, dado  > 0,
existe um inteiro positivo n0 = n() tal que
m, n > n0 ⇒ |xm − xn | < 

Em um contexto mais geral, temos a denição abaixo.

142
Denição A.32. (Sequência de Cauchy) Uma sequência (xn ) em um espaço métrico (X, d) é
dita uma sequência de Cauchy se, para cada  > 0, existe n0 = n() tal que

d(xm ; xn ) < ; ∀ m, n > n0 .

Pela denição, notamos que em uma sequência de Cauchy os termos com índices sucientemente
grandes estão arbitrariamente próximos. Deste modo, é natural intuir que toda sequência conver-
gente é de Cauchy, o que de fato ocorre e é garantido pelo teorema a seguir.
Denição A.33. (Espaço métrico completo) Um espaço métrico (X; d) é dito completo se
toda sequência de Cauchy em X converge.
Exemplo A.24. O espaço Q dos números racionais não é completo, pois se considerarmos a sequên-
√ √
cia (xn ) de racionais (1; 1, 4; 1, 41; 1, 414; ...) que é de Cauchy com lim xn = 2, 2 ∈/ Q e portanto,
Q não é completo.

Teorema A.1. Toda sequência convergente é uma sequência de Cauchy.

Demonstração. Seja (xn ) uma sequência convergente, com xn → x. Isto signica que, dado  > 0,
podemos encontrar n0 ∈ N tal que:

n > n0 ⇒ d(xn , x) <
2

Pela desigualdade triangular, para m, n > n0 , obtemos


 
d(xm ; xn ) ≤ d(xm , x) + d(x, xn ) < +
2 2

Portanto, (xn ) é uma sequência de Cauchy.

A.8.2 Sequências de funções e convergência uniforme

Considere X ⊂ R e F como sendo o conjunto de todas as funções reais denidas em X, ou seja,

F = {f ; f : X → R}

Denição A.34. (Sequência de Funções) Uma sequência de funções num intervalo I ⊆ R é


uma função
f : N × I −→ R
(n, x) 7→ f (n, x) = fn (x)

Notação: (fn )

143
Exemplo A.25.

i) fn (x) = xn

ii) gn (x) = 1 + x + x2 + ... + xn

iii) hn (x) = sen (nx)

Considerando uma sequência (fn ) = (f1 , f2 , ...) em F , podemos denir dois tipos de convergên-
cia.

Denição A.35. (Convergência Pontual) Uma sequência de funções (fn ) ⊂ F converge pon-
tualmente, ou simplesmente, para a função f : X → R se dados  > 0; x ∈ X, existe n0 = n(x; )
tal que
n > n0 ⇒ |fn (x) − f (x)| < .

Denição A.36. (Convergência Uniforme) Uma sequência de funções (fn ) ⊂ F converge


uniformemente, para a função f : X → R se dados  > 0; x ∈ X, existe n0 = n() tal que

n > n0 ⇒ |fn (x) − f (x)| < .

Na denição de convergência pontual, dados  > 0 e x ∈ X, podemos encontrar um n0 ∈ N.


Caso seja possível achar um n0 que sirva para todo x ∈ X, a convergência é uniforme.

Exemplo A.26. Seja


fn : [0, 1] −→ R
x
x 7→ fn (x) = n

Fixando x0 ∈ [0, 1] temos que


x0
lim fn (x0 ) = lim =0
n−→∞ n−→∞ n

Além disso, (fn ) converge uniformemente para a função nula pois ∀  > 0, ∃ N tal que N > 1 .

Então se n > N ⇒ n > 1


 ⇒  > n1 , ∀ x ∈ [0, 1]

|fn (x) − 0| = nx = x 1

n ≤ n <

Exemplo A.27.
fn (x) = xn , I = [0, 1]

144
Temos que fn converge para f pontualmente onde
(
0, 0 ≤ x < 1
f (x) =
1, x = 1
Mas fn não converge uniformemente.

Já que estamos falando de sequências de funções, podemos falar de sequências de Cauchy.


Teorema A.2. Uma sequência de funções fn : X → R é uniformemente convergente se, e somente
se, é uma sequência de Cauchy.

Demonstração. Supondo inicialmente que fn → f uniformemente, por denição, seja qual for  > 0,
existe n0 tal que n > n0 ⇒ |fn (x)−f (x)| < 2 , para todo x ∈ X. Daí, tomando m, n > n0 e utilizando
a desigualdade triangular, obtemos:
|fm (x) − fn (x)| =|fm (x) + f (x) − f (x) − fn (x)|
≤|fm (x) − f (x)| + |fn (x) − f (x)| (A.1)
 
< + = .
2 2

Teorema A.3. Se fn : X → R é uma sequência de funções contínuas em X convergindo unifor-


memente para f : X → R, então f é contínua em X. Em outras palavras, convergência uniforme
preserva continuidade.

Demonstração. Como fn → f uniformemente, dado  > 0, existe n0 ∈ N tal que



n > n0 ⇒ |fn (x) − f (x)| < , (A.2)
3
para todo x ∈ X. Ademais, dado a ∈ X arbitrário e xando m > n0 , a continuidade de fm nos
garante a existência de um δm > 0 tal que

x ∈ X; |x − a| < δm ⇒ |fm (x) − fm (a)| < (A.3)
3

Assim, fazendo uso das desigualdades (A.2), (A.3) e da desigualdade triangular, obtemos, para
x ∈ X; |x − a| < δm :

|f (x) − f (a)| =|f (x) − fm (x) + fm (x) − fm (a) + fm (a) − f (a)|


≤|fm (x) − f (x)| + |fm (x) − fm (a)| + |fm (a) − f (a)| (A.4)
  
< + + = .
3 3 3

145
A.8.3 O Espaço C[a, b] de funções contínuas

Na presente seção, discutiremos algumas propriedades do espaço métrico C[a, b], que consiste no
conjunto de todas as funções reais contínuas denidas no intervalo I = [a, b] ⊂ R. Dados f, g ∈ C[I],
considere
kf − gk∞ := supx∈I |f (x) − g(x)|.

Como [a, b] é um conjunto fechado e limitado, todas as funções de C[a, b] assumem o máximo e
o mínimo. Agora, provaremos que C[a, b] é um espaço métrico completo.

Teorema A.4. O espaço de funções contínuas (C[a, b], kk∞ ) é um espaço métrico completo.

Demonstração. A priori, vamos vericar que kk∞ é uma métrica em C[a, b].

Sejam f, g ∈ C[a, b] :

(i) Sabemos que |f (x) − g(x)| ≥ 0; ∀ x ∈ I, maxx∈I |f (x) − g(x)| ≥ 0.


(ii) Se kf − gk∞ = 0, devemos mostrar que f = g.

De fato, supondo que f 6= g, existiria x0 ∈ [a; b] tal que f (x0 ) 6= g(x0 ). Ora,

f (x0 ) 6= g(x0 ) ⇒ f (x0 ) − g(x0 ) 6= 0 ⇒ |f (x0 ) − g(x0 )| > 0.

e, consequentemente, teríamos kf (x) − g(x)k∞ = supx∈I |f (x) − g(x)| ≥ 0


A recíproca é natural.
(iii) Como |f (x) − g(x)| = |g(x) − f (x)|; ∀ x ∈ I; devemos ter, kf − gk∞ = kg − f k∞ ;
(iv) Sendo f ; g; h ∈ C[a, b], temos, para todo x ∈ I :

|f (x) − g(x)| = | f (x) − h(x) + h(x) − g(x) |


≤ | f (x) − h(x) | + | h(x) − g(x) |
(A.5)
≤ max |f (x) − h(x)| + max |h(x) − g(x)|
x∈I x∈I
≤ kf (x) − h(x)k∞ + kh(x) − g(x)k∞ .

Aplicando o máximo, obtemos:

kf (x) − g(x)k∞ ≤ kf (x) − h(x)k∞ + kh(x) − g(x)k∞ ,

o que prova a desigualdade triangular.

146
Logo (C[a, b], kk) é um espaço métrico.

Agora provemos que, C[a, b] o espaço de funções, é um conjunto completo.

Seja (fn ) uma sequência de Cauchy em C[a, b]. Para todo  > 0 existe n0 tal que

m, n > n0 ⇒ kfm − fn k∞ = supx∈I |f (x) − g(x)|

Mas, qualquer que seja x ∈ I,

|f (x) − g(x)| ≤ kfm − fn k∞ < . (A.6)

Isso mostra que a sequência de funções (fn ) é uma sequência de Cauchy. Pelo Teorema (A.2),
fn → f (f : I → R) uniformemente e, desde que cada fn : I → R é contínua, o Teorema (A.3)
garante que f também é contínua, ou seja, f ∈ C[a, b]. Devemos mostrar que fn → f na métrica
kk∞ . De fato, como todas as funções envolvidas na desigualdade (A.6) são contínuas e ela é válida
para todo x ∈ I e m, n > n0 , podemos tomar o limite quando n → ∞, aplicar o máximo e assim
obter:
lim |fn (x) − f (x)| ≤  ⇒|fn (x) − f (x)| ≤ 
n→∞
⇒supx∈I |fn (x) − f (x)| ≤  (A.7)
⇒kfn − f k∞ ≤ .

Logo, fn → f também na métrica kk∞ , mostrando que C[a, b] é completo.

Um espaço vetorial E munido de uma norma é chamado Espaço Vetorial Normado.

Exemplo A.28. Todo espaço vetorial normado (E, k · k) torna-se um espaço métrico por meio da
denição d(x, y) = kx − yk. Esta métrica diz-se proveniente da norma k · k.

Denição A.37. (Espaço Eucliano) Um espaço munido com produto interno sobre R é chamado
Espaço Euclidiano.

Seja E ⊂ Rn um subconjunto não vazio. O produto cartesiano R × E munido com as operações:

+ : (R × E) × (R × E) −→ (R × E)
0
((t, ~x), (t , ~y )) 7→ (t, ~x) + (t , ~y ) = (t + t0 , ~x + ~y )
0

· : (R × (R × E)) −→ (R × E)
((λ, (t, ~x)) 7→ λ(t, ~x) = (λt, (λx1 ..., λxn ))

147
é um espaço vetorial.1 Em geral, denotamos tal espaço, na forma (R × E, +, ·).

Denição A.38. (Normas equivalentes) Duas normas k · k1 e k · k2 em um espaço vetorial V,


são ditas equivalentes e denotamos k · k1 ' k · k2 , se existirem duas constantes positivas C1 , C2 com
0 < C1 ≤ C2 , tais que,

C1 kvk1 ≤ kvk2 ≤ C2 kvk1

Proposição A.5. Dado um vetor v ∈ Rn com v = (x1 , ..., xn ). Considere as seguintes normas:

i) Norma Euclidiana: kvkE =


p
x21 + ... + x2n

ii) Norma do máximo: kvkM = max {|x1 |, ..., |xn |}

iii) Norma da Soma: kvkS = |x1 | + ... + |xn |

Tem-se que tais normas são equivalentes.

Demonstração. De fato, provemos a relação:

i) iii) ii)
kxkM ≤ kxkE ≤ kxkS ≤ nkxkM

i) Note que kxkM ≤ kxkE .

Com efeito, como kxkE = x21 + ... + x2n ≥ |xi | para cada i com i = 1, ..., n, temos que,
p

kxkE ≥ |xi | ⇐⇒ kxkE ≥ max {|xi |} = kxkM ∀i


i=1,...,n

ii)kxkS ≤ nkxkM

De fato, se kxkM = |xi |, para algum i, temos

kxkS = |x1 | + ... + |xn | ≤ |xi | + ... + |xi | ≤ n|xi | = nkxkM ⇒ kxkS ≤ nkxkM

iii) Finalmente, kxkE ≤ kxkS


1
No contexto, x ) ∈ R × E; t
(t, ~ representará o tempo e ~
x o vetor posição.

148
kxk2S = (|x1 | + ... + |xn |)2
n
X
2 2
= |x1 | + ... + |xn | + 2 |xi ||xj |
i,j=1;i<j

≥ |x1 |2 + ... + |xn |2


= kxk2E

Segue que, kxkE ≤ kxkS

Portanto,
kxkM ≤ kxkE ≤ kxkS ≤ nkxkM

E, consequentemente, as normas são equivalentes.

Observação A.3. Como provamos a proposição (A.5), vamos usar naturalmente a notação k · k
para norma de um vetor, quando não houver ambiguidade.

Proposição A.6. A aplicação


k · k : (R × E) −→ R
(t, ~x) 7→ k(t, ~x)k = max {|t|, k~xk}

é uma norma do Espaço Vetorial Euclidiano R × E com E ⊂ Rn .

Demonstração. Seja u = (t, ~x) ∀ t ∈ R e ~x ∈ Rn . Naturalmente,

kuk = k(t, ~x)k = max {|t|, |x1 | + ... + |xn |} ≥ 0

i) Seja u = (t, ~x) ∀t ∈ R e ~x ∈ Rn .

k~uk = 0 ⇔ k(t, ~x)k = 0


⇔ max {|t|, |x1 | + ... + |xn |} = 0
⇔ max {|t|, |x1 | + ... + |xn |} = |t| = 0 ou max {|t|, |x1 | + ... + |xn |} = |x1 | + ... + |xn | = 0
⇔ t = 0 ou xi = 0 com i = 1, ...n

Logo (t, ~x) = (0, ~0) ∈ R × E

ii) Seja u = (t, ~x) ∀t ∈ R; ~x ∈ Rn e λ ∈ R

149
n p o n p o
kλ~uk = max | λt |, (λx1 )2 + ... + (λxn )2 = max |λ||t|, |λ| (x1 )2 + ... + (xn )2

Então kλ~uk = |λ||t| ou kλ~uk = |λ|k~xk


n o
Por outro lado, tomando λ ≥ 0 e supondo que k~uk = max |t|, x21 + ... + x2n = |t|. temos
p

que |λ|k~uk = |λ||t| = kλ~uk.


n o
Caso contrário, se k~uk = max |t|, x21 + ... + x2n = k~xk temos
p

|λ|k~uk = |λ|k~xk = kλ~uk

iv) Seja u = (t, ~x), v = (t0 , ~y) ∀t, t0 ∈ R e ~x, ~y ∈ Rn . Então:

ku + vk = max {|t + t0 |, max {|x1 + y1 |, ..., |xn + yn |}} onde u = (x1 , ..., xn ) e v = (y1 , ..., yn ).

Se kuk = |t|, kvk = |t0 | onde kuk = max {|t|, kxkM } temos duas possibilidades:

kuk + kvk = |t| + |t0 | ≥ |t + t0 |

Ou então, ku + vk = |xi + yi | ≤ |xi | + |yi | ≤ kxkM + kyk ≤ kuk + kvk

Proposição A.7. Quaisquer normas no espaço euclidiano Rn são equivalentes

Demonstração. Dena a seguinte norma

k · kq : Rn −→ R
~x 7→ k~xkq

Provemos que
k · kq ' (k · kS ' k · kE ' k · kM )

Em suma, desejamos encontrar constantes C1 , C2 > 0 tais que

k · k q ≥ C1 k · k S

k · k S ≥ C2 k · k q

Considere β = {u1 , u2 , ..., un } uma base qualquer do Rn . Então existem α1 , α2 , ..., αn ∈ R tais
que dado x ∈ Rn tem-se x = α1 u1 + ... + αn un .

150
Suponha que K = max{ku1 kq , ku2 kq , ..., kun kq } > 0. Note que,
kxkq = kα1 u1 + ... + αn un k
≤ |α1 |ku1 k + ... + |αn |kun k
≤ K|α1 | + ... + K|αn |
≤ K(|α1 | + ... + |αn |)

Como β é qualquer, suponha β = {u1 = e1 , ..., un = en }. Então teremos x = α1 e1 + ... + αn en .

Assim, kxkq ≤ K(|x1 | + ... + |xn |) ≤ KkxkS

Deste modo, provamos que kxkq ≤ Kkxks .

Por outro lado, dena o conjunto

F = {kxkq ∈ R / kxkS = 1; x ∈ Rn }

Note que,

i) F 6= ∅, pois
kei kS = 1; ei ∈ Rn

ii) F é limitada, pois se x ∈ Rn ; kxkq ∈ F , temos:

kxkq ≤ M kxkE = M · 1 = M

Sendo assim, como F 6= ∅ e limitada podemos armar que F é completo, de forma que admite
um ínmo e um supremo.

Considere L = inf F e veja que, L ≥ 0.

Suponha a priori que L = 0. Então para cada k ∈ N, ∃ xk ∈ Rn tal que


1
0 < kxk k < , ∀k ∈ N
k

Como F é limitado, (xk )k∈N é limitado com relação a norma da soma. Pelo teorema de Bolzano
Weierstrass, (xk )k∈N admite uma subsequencia convergente, isto é, ∃ N1 ⊂ N e c ∈ R;

lim xk = c ⇐⇒ lim kxk − ck = 0 ⇐⇒ lim kxk kS = kckS


k∈N1 k∈N1 k∈N1

151
pois 0 ≤ |kxk kS − kckS | ≤ kxk − ck

Daí concluímos que,


kckS = 1 =⇒ kckS 6= 0

Porém,
0 ≤ kxk − ckq ≤ M kxk − ckS

Tomando o limite, quando k −→ ∞, temos

lim kxk − ckq = 0 ⇐⇒ lim kxk kq = kckq


k∈N1 k∈N1

Agora, observando que 0 < kxk k < k1 , ∀k ∈ N e tomando o limite, quando k −→ ∞,

lim kxk kq = 0
k−→∞

Pela unicidade do limite, temos que kckq = 0 ⇐⇒ c = 0Rn =⇒ kckS = 0, o que é um absurdo
pois kckS = 1. O absurdo advém do fato de admitirmos que L = inf F = 0. Portanto, L>0. Deste
modo, 0 < L ≤ kxkq para qualquer x 6= ~0 e x ∈ Rn .

Assim, para ~v = kxkS ,


~
x
temos que

x
k~v kq =
∈F
kxkS q

pois kvkS = 1.

Logo, segue que


x 1
0 < L ≤ kvkq =⇒ L ≤
kxkS =⇒ LkxkS ≤ kxkq =⇒ kxkS ≤ L kxkq

Conclui-se que
k · k q ' k · kS

Denição A.39. (Norma do supremo) Seja f : S ⊂ R −→ R uma função limitada. Denimos


a norma do supremo e denotamos por k.k∞ da seguinte forma

kf k∞ = sup|f (x)| = sup{|f (x)|; x ∈ S}

152
Denição A.40. (Conjunto compacto) Seja M um espaço métrico. Um conjunto K ⊂ M é
dito compacto se para toda união de conjuntos abertos λ Bλ contendo K (também chamada de
S

cobertura aberta de K ) podemos extrair uma subcoleção nita Bλ1 , ..., Bλn tal que nj=1 Bλj ⊃ K.
S

Suscintamente, dizemos que um conjunto K é compacto se, e somente se, toda cobertura de abertos
de K admite uma subcobertura nita.

Exemplo A.29. R não é compacto.

Note que A = {(n, n+2); n ∈ Z} é uma cobertura aberta da reta R, mas A não contém nenhuma
subcoleção nita que seja cobertura de R.

Denição A.41. (Família de funções uniformemente limitada) Dizemos que a família de


funções F , é uniformemente limitada sobre conjuntos compactos se, dado um compacto K , existe
um M > 0; M ∈ R tal que |f (z)| ≤ M, ∀z ∈ K e ∀f ∈ F .

Exemplo A.30. fn (x) = x


n em [0, 1] é uniformemente limitada.

De fato, pois se M = 1, temos que |fn (x)| = nx = x 1



n ≤ n ≤1=M

Caso I for todo R, segue que (fn ) não é uniformemente limitado, pois do contrário, fn fosse
uniformemente limitada, teríamos que existiria M ≥ 0 tal que

|fn (x)| < M, ∀x ∈ R, ∀n ∈ N

Em particular, para n = 1, teríamos|f1 (x)| = |x| ≤ M, ∀x ∈ R, o que é um absurdo, haja vista


que R não é limitada.

Teorema A.5. (Teorema do Valor Médio) Seja F : Ω −→ R um campo escalar diferenciável,


com Ω um aberto em Rn . Sejam a e b dois pontos em Ω tais que o segmento ab
¯ está contido em Ω.
Então, existe um ponto p em ab
¯ tal que

F (b) − F (a) = ∇F (p) · (b − a)

Demonstração. Demonstração em [12].

Teorema A.6. (Teorema de Weierstrass) Seja K ⊂ Rm um espaço métrico compacto. Então,


dada aplicação contínua f : K −→ R existe uma sequência de polinômios pn : K −→ R convergindo
uniformemente para f .

153
Demonstração. Demonstração em [13].

Exemplo A.31. Seja f (x) = ex denida em K = [0, 1], então


x x2 xk
fk (x) = 1 + + + ... +
1! 2! k!

154
Referências Bibliográcas

[1] Betounes, D.Dietential Equations - Theory and Applications, Second Edition,


Springer, 2010.

[2] BOYCE, W. E.; DIPRIMA, R. C., Equações Diferenciais Elementares e Problemas


de Valor de Contorno, 8a edição, LTC, 2006.

[3] BRAUER, F.; NOHEL, J.A Ordinary Dierential Equations: A First Course, W. A.
Benjamin, INC, New York, 1967.

[4] BUENO, Hamilton Prado Alebra Linear - Um segundo Curso. Coleção textos Univer-
sitários. Rio de Janeiro: Editora da Sociedade Brasileira de Matemática, (2006).

[5] DIACU, F., Introdução a Equações Diferenciais, Teoria e Aplicações. Rio de Janeiro:
LTC, 2004.

[6] DOERING, CLAUS IVO; LOPES, ARTUR OSCAR,Equações Diferenciais Ordinárias.


Rio de Janeiro: IMPA, 2005.

[7] EVES, HOWARD, Introdução da História da Matemática, 5a edição, Unicamp, 2011.

[8] FIGUEIREDO, D; NEVES, A. Equações diferenciais aplicadas. IMPA, Rio de Janeiro


2002.

[9] GOODWINE, BILL.,Engineering Dierential Equations, Theory and Applications,


Springer, 2011.

[10] HANSER, E. de T. Equações diferenciais autônomas e aplicações. Dissertação (mes-


trado) - Universidade Estadual Paulista, Instituto de Geociências e Ciências Exatas. São
Paulo, 2016.

[11] KÜHLKAMP, Nilo.Introdução a topologia geral. 2a edição. Editora da Universidade


Federal de Santa Catarina, (2002).

155
[12] LIMA, E. L.; Curso de Análise, vol. 1. Coleção Projeto Euclides, IMPA, 1976.

[13] LIMA, E.L. Espaços Métricos, Projeto Euclides, IMPA, Rio de Janeiro, 1997.

[14] LOGAN, J. D. A First Course in Dierential Equations, Undergraduate Texts in


Mathematics, Springer, 2006.

[15] LYNCH, STEPHEN. Dynamical Systens wiht Applications using Mathematica,


Springer, 2007.

[16] POINCARÉ, H. Mémoire sur les Courbes Dénies par une Équation Dierentielle.
Journal de Mathématiques pures et appliquées, 1881.

[17] PRADO, E. F. Sobre a Existência de Função de Lyapunov. Universidade Estadual


Paulista, São Paulo 2010.

[18] SANTOS, F.; VIDAL, C. Stability of equilibrium solutions of Hamiltonian systems


with n-degrees of freedom and single resonance in the critical case, submetido
para publicação.

[19] SILVA, A. S. Fundamentos de Controle Introdução ao Controle Não-Linear, Uni-


versidade Federal de Santa Catarina, Santa Catarina.

[20] SOTOMAYOR, J. Lições de Equações Diferenciais Ordinárias, IMPA, Rio de Janeiro


1979.

156

Você também pode gostar