Escolar Documentos
Profissional Documentos
Cultura Documentos
Dissertação Equações Diferenciais Ordinárias
Dissertação Equações Diferenciais Ordinárias
São Cristóvão SE
Outubro de 2018
Universidade Federal de Sergipe
Centro de Ciências Exatas e Tecnologia
Departamento de Matemática
Pós-Graduação em Matemática
por
sob a orientação do
São Cristóvão SE
Outubro de 2018
Premissas Iniciais à Teoria Qualitativa de Equações Diferenciais
Ordinárias
por
ALISSON DE OLIVEIRA SILVA
Banca Examinadora:
• A primeiramente a Deus, por conceder-me a resiliência necessária para lutar contra os percalços
que a vida, por vezes, impõe.
• Ao meu padrasto Sérgio Ricardo da Silva e minha mãe Kátia Maria de Oliveira Silva pela
innita compreensão e apoio em momentos cruciais.
• Ao meu pai, José Bastos Filho (In Memoriam ) pela herança que deixou implicitamente plan-
tada.
• Aos meus irmãos, Aélisson, Bastos e Hosana pela honra de dividirmos nossa jornada.
• Aos meus lhos, Victor, Caio e Breno que sempre me inspiraram com suas virtudes de criati-
vidade e pureza.
• Ao orientador, Prof. Dr Gerson Cruz Araujo, pelo acompanhamento, críticas, sugestões e,
sobretudo, pelo imenso incetivo, que foi primordial nessa etapa nal.
• Aos professores do Programa do Mestrado Prossional em Matemática que contribuiram para
nossa formação com ensinamentos pertinentes.
• Aos colegas de mestrado, PROFMAT - turma 2016, cuja união e cooperação geraram resultados
ótimos em cada etapa do mestrado que foi vencida.
• A Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - Brasil (CAPES), cujo
presente trabalho foi realizado com apoio nanceiro por meio de Bolsas - Código de Financiamento
001.
i
Resumo
A presente dissertação tem por objetivo expor de forma introdutória conteúdos pertinentes a
teoria qualitativa das equações diferenciais ordinárias. Nos capítulos iniciais, revisamos resultados
gerais para equações diferenciais ordinárias de primeira ordem, sobretudo teoremas de existência e
unicidade e, por seguinte, recapitulamos conteúdos teóricos relativos à sistemas de equações dife-
renciais ordinárias lineares e não lineares. Ademais, foram apresentados conceitos básicos acerca de
sistemas hamiltonianos e a teoria da estabilidade, versando a estabilidade no sentido de Liapounov.
ii
Abstract
The present dissertation aims to expose of introductory form contents pertinent to the qualita-
tive theory of ordinary Dierential Equations. In the rst chapters, we review general results for
rst order ordinary dierential equations, mainly theorems of existence and uniqueness, and then
recapitulate theoretical contents concerning the systems of linear and nonlinear ordinary dierential
equations. In addition, basic concepts about hamiltonian systems and of the stability theory were
presented, referring with stability in the sense of Liapounov.
iii
Introdução
A pesquisa sobre equações diferenciais iniciou-se no século XVII com o estudo do cálculo por
Newton e Leibniz. É sabido que as primeiras aplicações foram motivadas por problemas de natu-
reza física (ver [7]) e, posteriormente, essas aplicações foram estendidas a outras áreas da ciência.
Todavia, devemos ressaltar que mesmo no transcorrer dos séculos, a área de equações diferenciais
continua a compor problemas signicativos e atrativos. À vista disso, tal área do conhecimento está
profundamente ligada ao avanço geral da matemática e, por essa razão a presente dissertação tem
por objetivo rever as equações diferenciais ordinárias de primeira ordem incluindo também teoremas
de existência e unicidade, sistema de equações diferencias ordinárias lineares do tipo homogêneo e
não homogêneo, conjuntamente com teorema de existência e unicidade para esses sistemas, sistemas
de equações diferenciais ordinárias não lineares, técnica de linearização de sistemas não lineares,
conceitos iniciais a sistemas hamiltonianos e teoria da estabilidade a Liapounov. Por conseguinte,
o presente trabalho apresenta-se da seguinte forma: 1. Introdução, 2. Formalismo geral da teoria
das equações diferenciais ordinárias, 3. Retrato de fase bidimensional, 4. Sistemas não lineares, 5.
Sistemas hamiltonianos, 6. Teoria da estabilidade das EDO's.
A pesquisa caracterizou-se por um levantamento bibliográco, em fontes impressas como livros
disponíveis na biblioteca, e-books disponíveis na base de dados da editora Springer disponível em
http://ufs.dotlib.com.br/springer/index.html, como também artigos e dissertações encontradas no
periódico Capes.
1
Sumário
Agradecimentos i
Resumo ii
Abstract iii
Introdução 1
1.1 Prelúdio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Sistema de equações lineares de primeira ordem homogêneo com coecientes constantes 47
2
2.3.2 Autovalores reais repetidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
A Apêndice 128
3
A.4 Conjuntos abertos e fechados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4
Lista de Figuras
5
3.13 Caso a 6= 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6
Capítulo 1
1.1 Prelúdio
A lei de Hooke descreve a força restauradora que sistemas de mola e massa estão sujeitos quando
comprimidos ou distendidos. Para tal lei, a força elástica de uma mola é proporcional à distensão,
na direção oposta. Dessa forma, se tivermos uma massa presa a uma das extremidades de uma mola
de comprimento de equilíbrio l e esticarmos ou encolhermos a mola teremos uma força de tensão
7
que é proporcional ao deslocamento.
Assim, a força de tensão será dada por Ftensao = −kx(t) onde x(t) é posição da massa no
instante t e k é a constante elástica da mola. Contudo, de acordo com 2a Lei de Newton, tem-se
que, F = m · a = m · x00 . Donde obtemos
k
x00 = − x, (1.1)
m
r ! r !
k k
γ(t) = λ1 sen t + λ2 cos t , λ1 , λ2 ∈ R. (1.2)
m m
Para a lei de Hooke, saber a forma explícita das soluções de (1.1) possibilita prever que a mola
cará oscilando de maneira periódica uma vez que (1.2) representa uma função periódica.
Por sua vez, o pêndulo simples é um sistema constituído de um objeto preso a uma haste
inextensível oscilando sob ação da força gravitacional. O movimento desse pêndulo oscila com
amplitude relativamente pequena e sendo assim, pode ser descrito como um movimento harmônico
simples. Diz-se que o movimento é harmônico simples quando é periódico e ocorrem deslocamentos
simétricos em torno de um ponto.
8
É sabido que a equação que descreve o movimento do Pêndulo Simples é dada por:
g
x00 = − sen x, (1.3)
l
onde g é a aceleração da gravidade e l o comprimento da haste.
Uma forma para se obter uma resolução de (1.3) é restringir o movimento do pêndulo a pequenos
ângulos e assim fazer uso da aproximação sen x ≈ x para x sucientemente pequeno. Por seguinte,
usa-se métodos quantitativos para obter uma solução explicita em termos de funções elementares,
o que não necessariamente nos ajuda a compreender o comportamento da solução de (1.3). Para
contornar essas limitações, Henri Poincaré1 (1854 - 1912) propôs uma maneira de analisar equações
diferenciais de forma não usual, isto é, descrever o comportamento das soluções sem precisar exibi-
las explicitamente. Essa análise realizada por Poincaré para equações diferenciais originou a teoria
qualitativa das equações diferenciais.
Nesta seção, vamos exibir algumas denições, resultados e exemplos que darão base a teoria.
dada por (
(t − c)3 , t ≥ c,
ϕc (t) =
0, t ≤ c,
1
Em Mémoire sur les Courbes Dénies par une Équation Dierentielle(1881), Poincaré descreveu a conguração
global das soluções, o efeito de pequenas pertubações das condições iniciais(estabilidade), o comportamento assintótico
das soluções e a estrutura de seus conjuntos limites (ver [20]).
9
De fato, {(t, ϕc (t))} ⊆ Ω e além disso para t ≥ c, temos:
d (ϕc (t)) 2 2
− 3ϕc (t) 3 ⇒ 3(t − c)2 − 3[(t − c)3 ] 3 = 0.
dt
Para t ≤ c temos também que ϕc (t) é solução, pois
d (ϕc (t)) 2
− 3ϕc (t) 3 = 0 − 3 · 0 = 0.
dt
A equação (1.4) chama-se equação diferencial ordinária de primeira ordem e será denotada
sucintamente por
x0 = f (t, x).
x0 = F (x), (1.5)
Lema 1.1. Se γ é uma solução de uma equação diferencial autônoma, então para qualquer constante
C , a função β denida por β = γ(t + C) também é solução da mesma equação diferencial autônoma.
Demonstração. Suponhamos que γ seja solução de uma equação diferencial autônoma, isto é
γ 0 (t) = F (γ(t)).
10
Substituindo t por t + C nesta última equação, obtemos
γ 0 (t + C) = F (γ(t + C)).
β 0 (t) = F (β(t)),
Note que esta equação é classicada na teoria quantitativa das equações diferenciais ordinárias
como uma equação de variáveis separáveis (ver [2], [3], [8]). Resolvendo-a temos que:
dx 1
= x(x − 1) ⇒ dx = dt, x 6= 0 e x 6= 1.
dt x(x − 1)
Integrando em ambos os lados da equação acima, obtemos
Z Z Z
1 1 1
dx = dt ⇒ − + dx = t + C.
x(x − 1) x x−1
Assim,
x − 1
− ln |x| + ln |x − 1| = t + C ⇒ ln
= t + C.
x
i Se 0 < x0 < 1, tem-se que F (t, x0 ) < 0, ou seja, as soluções nesse intervalo são funções
decrescentes.
11
ii Se x0 < 0 ou x0 > 1, tem-se que F (t, x0 ) > 0, ou seja, as soluções nesse intervalo são funções
crescentes.
Observe também que de acordo com lema anterior, podemos perceber que é possível obter inúmeras
soluções apenas transladando o gráco de uma solução particular que passa pelo ponto (t0 , x0 ).
Dessa maneira, o comportamento das soluções da equação logística é descrito no gráco seguinte:
Observação 1.1. Ao encontrarmos as soluções de forma explícita para (1.6) percebe-se que há
diculdades em vericar o comportamento das soluções, em contrapartida, quando analisamos qua-
litativamente, vericamos em quais intervalos as soluções são crescentes ou decrescentes. Tal análise
qualitativa é extremamente rica do ponto de vista cientíco, pois generaliza o comportamento das
soluções que satisfazem um tipo de equação diferencial.
A primeira questão com o qual nos deparamos é o da existência de soluções de equações dife-
renciais ordinárias quando especicamos uma condição inicial x(t0 ) = x0 . Tal questão é o chamado
Problema de Cauchy, ou Problema de Valor Inicial (PVI), o qual é descrito comumente por
x0 = f (t, x)
. (1.7)
x(t0 ) = x0
12
Demonstração. Note que é suciente considerar o problema no qual o ponto inicial (t0 , x0 ) é a
origem, isto é, considerar o problema
Uma vez que, se for dado outro ponto inicial, sempre podemos fazer uma mudança de variável
preliminar correspondendo a translação de eixos que leva o ponto (t0 , x0 ) até a origem.
(⇒) Primeiramente, é necessário colocar o problema de valor inicial (1.9) em uma forma mais
conveniente. Se supusermos, temporariamente, que existe uma função x = ϕ(t) que satisfaz o
problema de valor inicial então f (t, ϕ(t)) é uma função contínua que só depende de t.
Logo, podemos integrar x0 = f (t, x) do ponto inicial t = 0, para um valor arbitrário de t, obtendo
Z t
ϕ(t) = f (s, ϕ(s))ds, (1.10)
0
onde usamos a condição inicial ϕ(0) = 0 e s para denotar a variável de integração.
Como a equação (1.10) contém uma integral da função desconhecida, ela é chamada de equação
integral. Essa equação integral não é uma fórmula para solução do problema de valor inicial, mas
fornece outra relação que é satisfeita por qualquer solução da equação (1.9).
(⇐) Reciprocamente, suponha que uma função contínua ϕ(t) satisfaz a equação (1.8). Então
precisamos mostrar que essa função satisfaz (1.7). Para mostrar isto, substituímos t = 0 em (1.8).
Com isso, encontramos Z 0
ϕ(0) = f (s, ϕ(s))ds = 0.
0
Mostrando que a condição inicial é satisfeita.
Além disso, como o integrando é contínuo segue do teorema fundamental do cálculo, que
Portanto, o problema de valor inicial (1.7) e a equação integral (1.8) são equivalentes.
13
Z t
Com efeito, suponha que ϕ(t) = c + g(s)ds onde t0 ∈ I e c é uma constante. Como x0 = g(t)
t0
em I segue que:
Rt
dϕ(t) d c + t0 g(s)ds
= = g(t),
dt dt
pelo teorema fundamental do cálculo. Assim, ϕ é solução em I . Por outro lado, suponha que ϕ é
solução de x0 = g(t) em I , logo encontramos
dϕ(t)
= g(t). (1.12)
dt
Z t
ϕ(t) = c + g(s)ds.
t0
Exemplo 1.4. Sejam Ω = R × (a1 , a2 ) e f (t, x) = f (x), com a1 , a2 ∈ R e a1 < a2 . Supomos que
f é contínua e não se anula em (a1 , a2 ). Dados x0 ∈ (a1 , a2 ) e t0 ∈ R calculemos a solução para o
problema de Cauchy
x0 = f (x),
x(t0 ) = x0 .
Se ϕ é solução, então
ϕ0 (t) = f (ϕ(t)) e ϕ(t0 ) = x0 . (1.13)
1
Assim, de acordo com o teorema fundamental do cálculo F 0 (x) = e esta função não se anula
f (x)
em (a1 , a2 ). Logo, pelo teorema da função inversa, F é inversível e aplica (a1 , a2 ) num intervalo
(b1 , b2 ) onde F −1 está denida.
14
Utilizando (1.13), obtemos
ϕ0 (t) 1
1= = ϕ0 (t) = F 0 (ϕ(t))ϕ0 (t),
f (ϕ(t)) f (ϕ(t))
ou seja, (F ◦ ϕ)0 (t) = 1.
Integrando ambos os lados com relação a t, no intervalo (t0 , t), obtemos, para t xo,
Z t Z t
0
(F ◦ ϕ) (u)du = du ⇒ F (ϕ(t)) − F (ϕ(t0 )) = t − t0 .
t0 t0
ϕ(t) = F −1 (t − t0 ), t ∈ (t0 + b1 , t0 + b2 ).
F (γ(t)) = t − t0 = F (β(t)),
x(t0 ) = x0 ,
onde f e g são contínuas em intervalos abertos não degenerados (t1 , t2 ) e (a1 , a2 ), respectivamente,
e f não se anula em (a1 , a2 ).
Se ϕ é solução, então
ϕ0 (t) = g(t)f (ϕ(t)) e ϕ(t0 ) = x0 .
ϕ0 (t)
Logo, g(t) = . Dena então F : (a1 , a2 ) −→ R por
f (ϕ(t))
Z x
1
F (x) = dθ.
x0 f (θ)
15
1
Assim, de acordo com o teorema fundamental do cálculo F 0 (x) = e esta função não se anula
f (x)
em (a1 , a2 ). Logo, pelo teorema da função inversa, F é inversível e aplica (a1 , a2 ) num intervalo
(b1 , b2 ) onde F −1 está denida.
1
Mas, F 0 (ϕ(t)) = , então g(t) = F 0 (ϕ(t))ϕ0 (t) = (F ◦ ϕ)0 (t).
f (ϕ(t))
Integrando de t0 a t ambos os lados dessa última igualdade, temos
Z t
g(τ )dτ = F (ϕ(t)) − F (ϕ(t0 )) = F (ϕ(t)) − F (x0 ) = F (ϕ(t)).
t0
R
Então, a solução é ϕ(t) = F −1 tt0 g(τ )dτ . Isto nos garante a existência da solução. Agora
para garantir a unicidade, suponha que γ e β sejam duas soluções do Problema de Cauchy especíco
deste exemplo. Então,
Sabemos que Z t
F (γ(t)) = g(τ )dτ.
t0
Então Z t
−1
γ(t) = F g(τ )dτ .
t0
Z t Z t
Similarmente, temos que (F (β(t))) = g(τ )dτ e, consequentemente, β(t) = F −1
g(τ )dτ .
t0 t0
Portanto,
β(t) = γ(t), ∀t ∈ (a1 , a2 ).
Exemplo 1.6. (Equações Lineares) Sejam a(t) e b(t) funções contínuas no intervalo aberto não
degenerado (t1 , t2 ) e consideremos o problema de Cauchy
Para motivar a escolha do candidato a ser solução desse exemplo, usaremos a técnica de fator
− tt a(τ )dτ
R
integrante (ver [2]). Nesse sentido, multiplicaremos a equação x − a(t)x = b(t) por e 0
0 . Daí,
16
Rt Rt Rt
− a(τ )dτ − a(τ )dτ − a(τ )dτ
e t0 · x0 − a(t)e t0 ·x=e t0 · b(t)
Rt R t0 Z t Rs
− a(τ )dτ − a(τ )dτ
e t0 · x(t) − e− t0 a(τ )dτ
· x(t0 ) = e t0 · b(s)ds
t0
Rt Rt Z t Rs
a(τ )dτ a(τ )dτ − a(τ )dτ
⇒ x(t) = x0 e t0 +e t0 e t0 · b(s)ds.
t0
Com efeito, vericaremos inicialmente a unicidade: sejam γ(t) e β(t) soluções da equação dife-
rencial ordinária linear acima. Dena ϕ(t) = γ(t) − β(t).
ϕ(t0 ) = 0,
e esse problema admite solução única de acordo com os exemplos anteriores. Também é sabido que
ϕ(t) = 0, ∀t ∈ (t1 , t2 ) é uma solução desse Problema de Cauchy. Logo,
ϕ(t) = 0
⇒ γ(t) − β(t) = 0
⇒ γ(t) = β(t), ∀t ∈ (t1 , t2 )
17
Por seguinte, note que x(t0 ) = x0 em (1.14) como esperado e ainda que,
Rt Rt Z t Rs Rt Rt
0 a(τ )dτ a(τ )dτ − a(τ )dτ a(τ )dτ − a(τ )dτ
x (t) = x0 a(t)e t0+ a(t)e t0 e b(s)ds + e t0 t0 e t0 b(t)
t0
R
t Rt Z t Rs
a(τ )dτ a(τ )dτ − a(τ )dτ
= a(t) x0 e t0 + e t0 e t0 b(s)ds + b(t)
t0
= a(t)x + b(t)
Nesta seção iremos rever as demostrações de alguns resultados que fornecem condições neces-
sárias para estabelecer a existência e unicidade de soluções de um Problema de Valor Inicial. Os
principais resultados desta seção foram desenvolvidos por Charles Émile Picard (1856 - 1941) e pelo
matemático italiano Giuseppe Peano (1858 - 1932).
Demonstração. Suponha por hipótese que, para (t, ~x) ∈ Ω,
∂f∂x(~xi )
≤ k.
Em seguida, como Ωt (para t arbitrário) é convexo, então para todo x0 , x00 ∈ Ω e α ∈ (0, 1),
temos que,
αx0 + (1 − α)x00 ∈ Ωt .
Considere
f : Ωt ⊂ R × Rn −→ Rn
(t, x) 7−→ f (t, x),
onde f (t, ~x) = (f1 (t, ~x), f2 (t, ~x), ..., fn (t, ~x)).
18
Em geral, temos que a função f : Ωt ⊂ R × Rn −→ Rn é contínua, derivável, se e somente se,
cada
fj : Ωt −→ R
(t, x) 7−→ fj (t, x)
fj é contínua e derivável, j = 1, . . . , n.
00 0
∂fj (t, x̄)
⇒ |fj (t, x ) − fj (t, x )| ≤ sup k(t, x00 ) − (t, x0 )k ≤ kk(t, x00 ) − (t, x0 )k.
∂xj
Observação 1.2. A aplicação é dita localmente Lipschitziana em Ω se cada (t0 , x0 ) tem uma
vizinhança V = V (t0 , x0 ) na qual f é Lipschitziana com respeito a segunda variável, (ver [8]).
Lema 1.2. (Lema da Contração) Sejam (X, d) um espaço métrico completo ( Apêndice A) e
F : X −→ X uma contração, isto é, d(F (x), F (y)) ≤ k · d(x, y), 0 ≤ k < 1. Existe um único
ponto xo p por F , isto é, F (p) = p. Além disso, p é um atrator de F , isto é, F n (x) −→ p quando
n −→ ∞, para todo x ∈ X.
Demonstração. Existência.
Sejam x ∈ X e xn = F n (x). Provaremos que xn é uma sequência de Cauchy (Apêndice A). Para
isto, mostraremos que existe 0 ≤ k < 1 tal que
19
Para mostrarmos (1.15) utilizaremos o princípio da indução nita. Para n = 1 o resultado segue
Suponha que (1.15) seja válida para um n ∈ N. Precisamos mostrar que será válida para n + 1,
isto é,
d(xm , xn ) = d(xn+r , xn )
≤ d(xn+1 , xn ) + d(xn+2 , xn+1 ) + ... + d(xn+r , xn+(r−1) )
≤ k n d(x1 , x0 ) + k(k n d(x1 , x0 )) + ... + (k · k · · · k) ·k n d(x1 , x0 )
| {z }
r−1 vezes
n n+1 n+r−1
≤ (k + k + ... + k )d(x1 , x0 )
< (k n+0 + k n+1 + ... + k n+(r−1) + ...)d(x1 , x0 )
X∞
≤ k n k i d(x1 , x0 )
i=0
kn
= d(F (x), x) −→ 0, quando n −→ ∞.
1−k
Isto prova que xn é uma sequência de Cauchy, e como X é completo, tal sequência converge. Digamos
para um p ∈ X .
20
Armação: p é ponto xo de F . Com efeito,
F (p) = F (lim xn )
= lim F (xn ) (Toda contração é contínua (ver [11], [13]))
= lim F (F n (x))
= lim F n+1 (x)
= lim xn+1
=p
Unicidade.
Corolário 1.1. Seja F : X → X uma aplicação sobre o espaço métrico X . Suponhamos que F m
seja uma contração para algum inteiro positivo m. Então:
Demonstração.
i. Mostremos inicialmente que existe o ponto xo de F . Por hipótese F m é uma contração e
pelo Lema 1.2 existe um e só um p ∈ X tal que F m (p) = p. Mas F (F m (p)) = F m (F (p)),
para todo p ∈ X e sendo p ponto xo de F m , temos:
E isto nos diz que F (p) também é ponto xo de F m . Pela unicidade do lema anterior, temos
que F (p) = p e isto implica que p é ponto xo de F . Dessa forma, esse é o único ponto xo,
pois todo ponto xo de F é também ponto xo de F m o qual é único.
21
ii. Dena p̄ = F (x0 ). Pelo lema anterior, a sequência {F n (x0 )}n∈N converge em X para o único
ponto xo de F . Portanto, para todo p̄ ∈ X , a sequência {F n (p̄)}n∈N converge para o ponto
xo.
Corolário 1.2. Sejam X um espaço métrico e f : X → X uma aplicação. Suponhamos que existem
m, n ∈ N e 0 < c < 1 tal que
Como 0 < c2 < 1, então F m+n é uma contração. Pelo Corolário 1.1 item i., F tem um único ponto
xo.
Demonstração. Seja X = C(Ia (t0 ), Bb (x0 )) o espaço métrico completo das funções contínuas ϕ :
Ia −→ Bb com a métrica uniforme
22
Note que,
Z t Z t Z t
|F (ϕ(t)) − x0 | = f (s, ϕ(s))ds ≤
|f (s, ϕ(s))|ds ≤ M ds ≤ M |t − t0 | ≤ M α ≤ b,
t0 t0 t0
o que signica dizer que a imagem da aplicação F (ϕ) está contida em X se ϕ ∈ X . Logo, F leva
aplicações em X nele mesmo. O que implica que F (X) ⊆ X .
Com efeito, provemos que existe um n0 ∈ N tal que F n é contração para todo n ≥ n0 . De fato,
seja c a constante de Lipschitz de f em relação a segunda variável.
Z t Z t
|F (ϕ1 )(t) − F (ϕ2 )(t)| = f (s, ϕ1 (s))ds − f (s, ϕ2 (s))ds
t t0
Z 0t
= (f (s, ϕ1 (s))ds − f (s, ϕ2 (s)))ds
t0
Z t
≤ |f (s, ϕ1 (s)) − f (s, ϕ2 (s))|ds.
t0
temos que
Z t
|F (ϕ1 )(t) − F (ϕ2 )(t)| ≤ c d(ϕ1 , ϕ2 )ds
t0
Z t
≤ c d(ϕ1 , ϕ2 ) ds
t0
≤ c d(ϕ1 , ϕ2 )|t − t0 |.
23
Assumindo a hipótese de indução válida para um certo n ∈ N, temos que mostrar
cn+1
|F n+1 (ϕ1 )(t) − F n+1 (ϕ2 )(t)| ≤ |t − t0 |n+1 d(ϕ1 , ϕ2 ).
n + 1!
De fato,
|F n+1 (ϕ1 )(t) − F n+1 (ϕ2 )(t) | = |F (F n (ϕ1 )(t) ) − F (F n (ϕ2 )(t) )|
Z t
≤ |f (s, F n (ϕ1 (s))) − f (s, F n (ϕ2 (s)))|ds
t0
Z t
≤ c|F n (ϕ1 (s)) − F n (ϕ2 (s))|ds (f é Lipschitz)
t0
t
cn
Z
≤c |s − t0 |n d(ϕ1 , ϕ2 )ds (Hipótese)
t0 n!
Z t
cn+1
≤ d(ϕ1 , ϕ2 ) |s − t0 |n ds
n! t0
cn+1 |t − t0 |n+1
≤ d(ϕ1 , ϕ2 )
n! n+1
cn+1
≤ |t − t0 |n+1 d(ϕ1 , ϕ2 ),
(n + 1)!
o que ca demonstrado pelo princípio de indução.
Como o fatorial domina qualquer exponencial, temos que xado 0 < µ < 1, existe n0 tal que
n! < µ, ∀n ≥ n0 . Portanto, ∀ n ≥ n0 , F é uma contração, como queríamos demonstrar. Pelo
cn an n
lema da contração, existe uma única ϕ tal que F (ϕ) = ϕ. Mas como todo ponto xo de F também
é de F n , segue que F só possui este ponto xo, e isto prova o Teorema de Picard.
Note que a demonstração acima é construtiva, então podemos utilizá-la para encontrar uma
solução a partir de uma sequência de aproximações.
Exemplo 1.7. Considere o problema de valor inicial
x0 = 2tx,
x(0) = 1.
Dena, Z t
F (ϕ) = 1 + 2s ϕ(t) ds.
0
24
Tomando ϕ0 (t) ≡ 1, então pelo método de aproximações sucessivas, obtemos
Z t
ϕ1 (t) = F (ϕ0 )(t) = 1 + 2s ds = 1 + t2 ,
0
t
t4
Z
ϕ2 (t) = F (ϕ1 )(t) = 1 + 2s(1 + s2 ) ds = 1 + t2 + ,
0 2!
E, indutivamente encontramos
t4 t6 t2n
ϕn (t) = 1 + t2 + + + ... + .
2! 6 n!
De fato,
2 2
ϕ0 (t) = 2tet = 2tϕ(t) e ϕ(0) = e0 = 1.
Demonstração. Seja U uma vizinhança de (t0 , x0 ) tal que f |U é Lipschitziana e |f | < M em U . Seja
α > 0 sucientemente pequeno para que V = Iα (t0 ) × Bb (x0 ) ⊆ U onde b = α · M .
Proposição 1.3. Seja f contínua e Lipschitziana em Ω = [a, b] × Rn . Então, para todo (t0 , x0 ) ∈ Ω
existe uma única solução de dx
dt = f (t, x) em I = [a, b].
25
Pelo Teorema 1.1, mostramos que F n é uma contração para n sucientemente grande, isto é,
d(F n (x), F n (y)) ≤ k · d(x, y), 0 ≤ k < 1 e esse fato é observado na desigualdade:
k n |t − t0 |n
|F n (ϕ1 (t)) − F n (ϕ2 (t))| ≤ d(ϕ1 , ϕ2 ).
n!
Além disso, F tem um único ponto xo, de acordo com Corolário 1.1. Logo, existe uma única
solução.
Seja 0 < x < y . De acordo com o teorema do valor médio existe z , com x < z < y , tal que
f (y) − f (x)
f 0 (z) = ⇒ |f (y) − f (x)| = |f 0 (z)||y − x|.
y−x
(
3(t − c)2 , t ≥ c,
ϕ0c (t) =
0, t ≤ c.
(
ϕ (0) = (0 − 0)3 = 0, c = 0,
Logo ϕ0c (t) = 3xc (t) e xc (0) = c
2
3
ϕc (0) = 0 c ≥ 0.
E isso nos diz que se f não for de Lipschitz, então PVI deste exemplo não tem solução única.
Teorema 1.2. (Teorema de Arzela) Seja (X, d) um espaço métrico compacto. Seja F uma
família equicontínua de funções ϕ : X −→ R. Isto é, para todo > 0, ∃ δ > 0 tal que se d(x, y) < δ
então |ϕ(x) − ϕ(y)| < para toda ϕ ∈ F . Se F é uniformemente limitada (isto é, existe M > 0 tal
que kϕk < M para todo ϕ ∈ F ), então toda sequência {ϕn } de elementos de F tem uma subsequência
{ϕnk } uniformemente convergente em X .
26
Teorema 1.3. (Teorema de Peano) Seja f contínua em Ω = Ia × Bb onde Ia = {t; |t − t0 | ≤ a},
dt = f (x, t) tem pelo menos uma solução em Iα ,
Bb = {x; |x − x0 | ≤ b}. Se |f | < M em Ω então dx
onde α = min a, M
b
Demonstração. Pelo Teorema da Aproximação de Weiertrass (ver [13, p.250]), existe uma sequência
fn de funções, cujas componentes são polinômios, que converge para f , uniformemente em Ω. Para
n suciente grande fn satisfaz as hipóteses do Teorema de Picard.
Seja ϕn solução de x0 = fn (t, x), x(t0 ) = x0 em Ia , cuja existência e unicidade são garantidas
pelo Teorema de Picard.
e |ϕn − x0 | ≤ b, para todo n sucientemente grande(ver [8]). Pelo Teorema de Arzela existe uma
subsequência que denotaremos também por ϕn , tal que ϕn converge uniformemente em Iα para uma
função ϕ. Mostraremos que ϕ é solução para o problema
(
dx
= f (t, x),
dt
x(t0 ) = x0 .
27
Z t
lim x0 + f (s, ϕ(s))ds − ϕn (t) ≤
n−→∞ t0
Z t Z t
lim |f (s, ϕn (s)) − f (s, ϕ(s))|ds + lim |fn (s, ϕn (s)) − f (s, ϕn (s))|ds
t0 n−→∞ t0 n−→∞
Por outro lado, pelo Teorema de Arzela Ascoli, lim ϕn (t) = ϕ(t).
n−→∞
Como demonstrado anteriormente, sabemos que a equação (1.7) é equivalente à equação integral,
então segue que em ϕ( x) = x0 + tt0 f (s, ϕ(s))ds é solução para o problema de Cauchy.
R
28
Capítulo 2
2.1 Introdução
A proposta central deste capítulo será estudar sistemas de equações diferenciais ordinárias line-
ares homogêneas de primeira ordem, com coecientes constantes. Assim sendo, versaremos sobre o
estudo dos campos lineares
f (x) = TA (x),
onde o operador linear f := TA : Rn −→ Rn é dado por TA (x) = Ax, sendo A = (aij )n×n uma
matriz real e x um vetor coluna, isto é, o produto da matriz A com o vetor n × 1 formado pelas
coordenadas canônicas de x ∈ Rn .
Preliminarmente, cogitaremos sistemas de equações diferenciais ordinárias que possam estar sob
a forma de um Problema de Cauchy
x0 = f (t, x),
x(t0 ) = x0 ,
onde a função f (t, x) está sob a forma A(t)x + B(t), A(t) = [aij (t)]n×n e B(t) = [bij (t)]n×1 são
matrizes cujas entradas são funções contínuas na variável t num intervalo I . Tais equações são
chamadas de Lineares.
Denição 2.1. Uma EDO da forma x0 = A(t)x + B(t), onde x = (x1 , ..., xn ) e t é a variável real
29
independente é classicada como sistema de equações diferenciais ordinárias lineares de
primeira ordem.
Quando B(t) ≡ 0 o sistema acima se reduz a x0 = A(t)x. Este sistema reduzido é denominado
sistema de equações diferenciais ordinárias lineares de primeira ordem homogêneo.
Caso contrário, o sistema é dito não homogêneo.
Considere o sistema de equações diferenciais ordinárias lineares não homogêneo na sua forma
vetorial,
x0 = A(t)x + B(t). (2.1)
ou na forma, 0
x1 = a11 (t)x1 + a12 (t)x2 + . . . + a1n (t)xn + b1 (t),
x0 = a21 (t)x1 + a22 (t)x2 + . . . + a2n (t)xn + b2 (t),
2
..
.
x0n = an1 (t)x1 + an2 (t)x2 + . . . + ann (t)xn + bn (t).
x0 = Ax
Denição 2.2. Um vetor solução do sistema (2.1) num intervalo I é qualquer matriz coluna y =
y1 (t) y2 (t) . . . yn (t) cujos elementos são funções diferenciáveis que satisfazem o sistema (2.1),
T
30
Am de buscar uma melhor compreensão das denições iniciais desse capítulo, ilustraremos
alguns exemplos.
Exemplo 2.1. Considere o sistema
0
x1 = x1 + x2 + x3 ,
x0 = 2x1 + x2 − x3 ,
20
x3 = −8x1 − 5x2 − 3x3 ,
o qual pode ser também escrito como
1 1 1
x0 = 2 1 −1 · x.
−8 −5 −3
Tal sistema admite as seguintes soluções:
−3 −4 0
x1 (t) = 4 · e−t , x2 (t) = 5 · e−2t , e x3 (t) = 1 · e2t .
2 7 −1
Exemplo 2.2. A equação
é um exemplo de EDO que pode ser visto como um sistema de equações de 1a ordem.
De fato,
1
y (n) = (−an−1 (t)y (n−1) − . . . − a1 (t)y 0 − a0 (t)y + g(t)).
an (t)
Chamando y1 = y, y2 = y 0 , y3 = y 00 , . . . , yn = y (n−1) , obtemos
y10 = y 0 = y2
y20 = y 00 = y3
..
.
0
y(n−1) = y (n−1) = yn
yn0 = y (n) = 1
an (t) (−an−1 (t)y
(n−1) − . . . − a1 (t)y 0 − a0 (t)y + g(t))
31
E vetorialmente,
y 0 = A(t)y + B(t)
0 1 0 ... 0
0 0 1 ... 0
. .. .. ... ..
.
T
onde y = (y1 . . . yn ) , A(t) =
. . . . e B(t) = 0 . . . 0 g(t)
T
an (t)
0 0 0 ... 1
−a0 (t) −a1 (t) −a2 (t) −an−1 (t)
an (t) an (t) an (t) ... an (t)
Exemplo 2.3. (Vibrações acopladas) Considere o sistema de duas massas m1 e m2 na Figura 2.1
conectados entre si por uma mola com constante elástica k2 e às paredes por molas com constantes
elásticas k1 e k3 respectivamente (ver [1] e [9]). Sejam u(t) o deslocamento de m1 da sua posição
de equilíbrio no tempo t e v(t) o deslocamento de m2 do seu equilíbrio no instante t. (estamos
tomando a direção positiva para a direita.) Seja c o coeciente de atrito para a superfície em que
as massas deslizam. Uma aplicação da segunda Lei de Newton nos diz que:
Temos aqui um sistema de duas equações diferenciais ordinárias de segunda ordem. Denindo
x1 = u, x2 = u0 , x3 = v e x4 = v 0 , obtemos o sistema de primeira ordem
0
0 1 0 0
x1 x1
x02 − k1m+k2 − mc1 k2
m1 0 x2
= 1 ·
x03 0 0 0 1 x3
x04 k2
m2 0 − k2m+k
2
3
− mc2 x4
32
segunda ordem podem ser estudadas como um sistema de equações de ordem 1, os quais podem ser
analisados analiticamente.
Demonstração. Seja ϕ0 = ϕ0 (t) uma solução particular do sistema não homogêneo (2.1) e ϕh =
ϕh (t) uma função diferenciável de t. E façamos ϕ(t) = ϕ0 (t) + ϕh (t).
ϕ0 = ϕ00 + ϕ0h
= Aϕ0 + B + Aϕh
= A(ϕ0 + ϕh ) + B
= Aϕ + B.
Em razão deste teorema, estudaremos as propriedades dos sistemas homogêneos e no nal ve-
remos um método para encontrar uma solução particular do sistema não homogêneo, uma vez
conhecidas as soluções do homogêneo.
x0 = A(t)x, x ∈ Rn . (2.2)
33
2. Uma combinação linear c1 ϕ1 + ... + ck ϕk de soluções do sistema homogêneo é também uma
solução do mesmo sistema.
3. As soluções ϕ1 , ..., ϕk de (2.2) são linearmente independentes se, e somente se, os vetores
ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.
Demonstração. 1. A solução nula também satisfaz (2.2) com a condição inicial x(t0 ) = 0. Pelo
teorema de Picard, segue que ϕ(t) ≡ 0.
2. Seja ϕ(t) = c1 ϕ1 (t) + ... + ck ϕk (t). Derivando com respeito a variável t, obtemos
ϕ0 = c1 ϕ01 + ... + ck ϕ0k
= c1 Aϕ1 + ... + ck Aϕk
= A(c1 ϕ1 + ... + ck ϕk )
= A(ϕ).
3. (=⇒) Se ϕ1 , ..., ϕk são linearmente independentes, para todo t, em particular são linearmente
independentes em t = t0 .
De fato, sejam c1 , ..., ck tais que
c1 ϕ1 (t0 ) + ... + ck ϕk (t0 ) = 0.
Denindo ϕ(t) = c1 ϕ1 (t) + ... + ck ϕk (t), temos que ϕ é solução de (2.2), com ϕ(t0 ) = 0. Daí,
pelo item 1., ϕ(t) = 0, para todo t. Como ϕ1 , ..., ϕk são linearmente independentes para todo
t, por hipótese, temos c1 = ... = ck = 0.
Logo, ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.
(⇐=) Digamos que
c1 ϕ1 (t) + ... + ck ϕk (t) = 0, ∀ t.
Isto implica que c1 = ... = ck = 0, pois ϕ1 (t0 ), ..., ϕk (t0 ) são linearmente independentes.
34
Corolário 2.1. O conjunto S das soluções do sistema (2.2) forma um espaço vetorial real de
dimensão n.
Seja β = {v1 , ..., vn } uma base de Rn . Considere o conjunto β 0 = {ϕ1 , ..., ϕn }, onde ϕi são
soluções de (2.2), com ϕi (t0 ) = vi , ∀ i = 1, ..., n, e t0 xo.
1. β 0 é linearmente independente.
De fato, pelo item 3 do Teorema 2.2, como ϕ1 (t0 ) = v1 , ..., ϕn (t0 ) = vn , são LI, segue que
ϕ1 (t), ..., ϕn (t) são LI, ∀ t ∈ I .
2. β 0 gera S .
Seja ϕ uma solução em S . Daí,
Assim, a solução ψ(t) = c1 ϕ1 (t) + ... + cn ϕn (t) , tem a mesma condição inicial que ϕ. Pelo
Teorema de Picard ϕ(t) = ψ(t) , ou seja, ϕ(t) = c1 ϕ1 (t) + ... + cn ϕn (t).
Denição 2.3. (Conjunto Fundamental): Qualquer base de S , conforme o corolário (2.1), será
chamada de um sistema fundamental de soluções da equação (2.2) e qualquer matriz cujas colunas
são vetores de uma base de S é chamada uma matriz fundamental da equação. Dessa forma, um
conjunto fundamental para o sistema homogêneo de ordem n é um conjunto de n vetores soluções
LI para (2.2).
Observação 2.2. Se ϕ1 , ..., ϕn são n soluções de (2.2) com A = A(t) uma matriz n × n, denotamos
por φ(t) a matriz cujas colunas são vetores colunas ϕ1 (t), ..., ϕn (t) de Rn .
35
Notemos que a matriz satisfaz à equação diferencial matricial
1. Seja φ(t) uma solução da equação (2.3) e C ∈ Mn×n , então φ(t)C também é solução de (2.3).
2. Sejam φ(t) e ψ(t) soluções de (2.3), sendo φ(t) matriz fundamental de (2.2). Então existe
uma única matriz constante C ∈ Mn×n tal que, para todo t ∈ I , ψ(t) = φ(t)C . C é não
singular (ver [4]) se, e somente se, ψ é matriz fundamental.
3. Suponhamos que A(t + T ) = A(t) para todo t ∈ R. Seja φ(t) matriz fundamental de (2.2)então
existe matriz constante C ∈ Mn×n inversível tal que φ(t + T ) = φ(t)C . Note que se φ(t) é
matriz fundamental C = φ(0)−1 φ(T ).
4. Suponha A = A(t) constante. Então, a matriz fundamental está denida para todo t ∈ R.
Além disso, se φ(0) = Id , então φ(t + s) = φ(t)φ(s) e φ−1 (t) = φ(−t), onde φ(t) está em
conformidade a observação (2.2).
2. φ(t) é inversível, pois é a matriz fundamental. Daí, derivando φ−1 (t)φ(t) = Id , temos
Como φ(t) é solução de 2.3, temos (φ−1 (t))0 φ(t) + φ−1 A(t)φ(t) = 0. Daí
36
Assim,
[φ−1 (t)ψ(t)]0 = (φ−1 )0 (t)ψ(t) + φ−1 (t)ψ 0 (t)
= −φ−1 (t)A(t)ψ(t) + φ−1 (t)A(t)ψ(t)
= 0.
ψ 0 (t) = φ0 (t + T )
= A(t + T )φ(t + T )
= A(t)ψ(t).
φ(t + T ) = φ(t)C.
Assim,
C = φ−1 (t)φ(t + T ),
= φ−1 (0)φ(T ).
4. Como A não depende de t, segue que as soluções estão denidas para todo t ∈ R. Logo, a
matriz fundamental está denida para todo t ∈ R.
Fixado s ∈ R, denamos ψ1 (t) = φ(t + s) e ψ2 (t) = φ(t)φ(s). Assim, ψ1 e ψ2 são soluções
satisfazendo ψ1 (0) = φ(s) e ψ2 (0) = φ(0)φ(s) = φ(s). Pela unicidade das soluções, que
ψ1 (t) = ψ2 (t), ou seja, φ(t + s) = φ(t)φ(s).
37
Teorema 2.3. (Solução Geral): Sejam {x1 , x2 , ..., xn } um conjunto fundamental do sistema ho-
mogêneo (2.2) em I . Então, a solução geral do sistema homogêneo no intervalo I é
xc = c1 x1 + · · · + cn xn
onde c1 , . . . , cn , são constantes quaisquer; e uma solução geral para o sistema não homogêneo (2.1)
em I é dada por
x(t) = xc (t) + xp (t) = c1 x1 + · · · + cn xn + xp (t),
Observação 2.3. Pelo item 2. do Teorema (2.2), φ(t) é uma matriz fundamental da equação se,
somente se, o determinante de φ(t) é diferente de zero para algum t0 ∈ I.
Teorema 2.4. (Fórmula de Liouville) Suponha que ϕ1 (t), ..., ϕn (t) são n soluções da equação
matricial (2.3) sobre um intervalo I e φ(t) é a matriz de funções com as colunas ϕ1 (t), ..., ϕn (t).
Então se t0 ∈ I , R t
tr [A(s)] ds
det φ(t) = det φ(t0 )e t0 ,
para t ∈ I .
38
Demonstração. Suponha que ϕ1 , ..., ϕn são LI. Como, para todo t ∈ I , os vetores ϕ1 (t), ..., ϕn (t)
formam uma base β para Rn , existem funções cij (t) tais que Aϕj = c1j ϕ1 + ... + cnj ϕn e de
det φ(t) = det[ϕ1 , ..., ϕn ], ϕ0j = Aϕj , obtemos
det φ0 (t) = det[ϕ01 (t), ..., ϕn (t)] + det[ϕ1 (t), ϕ02 (t)..., ϕn (t)] + ... + det[ϕ1 (t), ..., ϕ0n (t)]
= det[Aϕ1 , ..., ϕn ] + det[ϕ1 , Aϕ2 ..., ϕn ] + ... + det[ϕ1 , ..., Aϕn ]
= det[c11 ϕ1 + ... + cn1 ϕn , ..., ϕn ] + det[ϕ1 , c12 ϕ1 + ... + cn2 ϕn , ..., ϕn ]
+ ... + det[ϕ1 , ..., c1n ϕ1 + ... + cnn ϕn ]
= c11 det[ϕ1 , ϕ2 , ..., ϕn ] + c21 det[ϕ2 , ϕ2 , ..., ϕn ] + ... + cn1 det[ϕn , ϕ2 , ..., ϕn ]
+ ... + c12 det[ϕ1 , ϕ1 , ..., ϕn ] + c22 det[ϕ1 , ϕ2 , ..., ϕn ] + ... + cn2 det[ϕ1 , ϕn , ..., ϕn ]
+ ... + c1n det[ϕ1 , ϕ2 , ..., ϕ1 ] + c2n det[ϕ1 , ϕ2 , ..., ϕ2 ] + ... + cnn det[ϕ1 , ϕn , ..., ϕn ]
= c11 det[ϕ1 , ϕ2 , ..., ϕn ] + ... + cnn det[ϕ1 , ϕ2 , ..., ϕn ]
= (c11 + c22 + ... + cnn ) det φ(t)
= tr[A(t)]β det φ(t),
Rt
det φ(t)
=⇒ ln (det φ(t0 )) = t0 tr [A(s)] ds
Rt
tr [A(s)] ds
=⇒ det φ(t) = det φ(t0 )e t0 .
Observação 2.4. O det φ(t) é chamado de Wronskiano e será denotado por W (t). Se φ(t) é uma
matriz fundamental da equação (2.2), as soluções desta são dadas por φ(t)v onde v é um vetor
constante.
φ(t)v = v1 ϕ1 + ... + vn ϕn ,
39
onde ϕ1 , ..., ϕn são as soluções que formam as colunas de φ(t), donde
d
[φ(t)v] = v1 ϕ01 + ... + vn ϕ0n
dt
= v1 Aϕ1 + ... + vn Aϕn
= A(v1 ϕ1 + ... + vn ϕn )
= Aφ(t)v.
O que mostra que φ(t)v é solução de (2.2). Qualquer solução de (2.2) é dessa forma. Assim, a
solução de
x0 = A(t)x,
x(t0 ) = x0 ,
é dada por
ϕ(t) = φ(t)v
onde, ϕ(t0 ) = φ(t0 )v = x0 implica que v = φ−1 (t0 )x0 .
Dessa forma,
ϕ(t, t0 , x0 ) = φ(t)φ−1 (t0 )x0 .
Veremos agora como encontrar uma solução da equação não homogênea, conhecidas todas as
soluções da equação homogênea.
x11 x1n
x21 x2n
Sejam X1 =
.. , . . . , Xn = .. . Se {X1 , . . . , Xn } for um conjunto fundamental do sistema
. .
xn1 xnn
homogêneo x0 = Ax num intervalo I , então a solução geral desse sistema homogêneo é dada por
xc (t) = c1 x1 (t) + · · · + cn xn (t), ou
c1 x11 + c2 x12 + · · · + cn x1n
c1 x21 + c2 x22 + · · · + cn x2n
xc (t) = .
. ⇔ xc = φ(t)v,
.
c1 xn1 + c2 xn2 + · · · + cn xnn
c1
c2
onde v = .. e φ(t) é uma matriz cujas colunas são preenchidas pelos elementos do conjunto
.
cn
fundamental do sistema homogêneo, ou seja,
x11 x12 . . . x1n
x21 x22 . . . x2n
φ(t) = . .
.
.
xn1 xn2 . . . xnn
40
Temos as seguintes propriedades básicas:
1. det φ(t) 6= 0, pois note que det φ(t) = W (X1 , . . . , Xn ) onde {X1 , . . . , Xn } é conjunto funda-
mental.
x0 = A(t)x + B(t),
(2.4)
x(t0 ) = x0 ,
onde t0 ∈ I . Seja φ(t) uma matriz fundamental do sistema homogêneo associado. Então, x(t) =
φ(t)u(t) é uma solução de (2.4) se, e somente se, u0 (t) = φ−1 (t)B(t), e x(t) é dada por
Z t
x(t) = φ(t)v + φ(t) φ−1 (s)B(s)ds,
t0
Demonstração. (=⇒) Suponhamos que xp (t) = φ(t)u(t) é uma solução de (2.4). Consideremos a
matriz
u1 (t)
u2 (t)
u(t) = . .
..
un (t)
Derivando xp (t) = φ(t)u(t) em relação a t, temos
Como φ0 (t) = Aφ(t) (pois φ(t) é solução do sistema homogêneo associado a (2.4)), segue que
Assim,
φ(t)u0 (t) = B(t).
41
Multiplicando a matriz inversa φ−1 (t) em amos os lados, obtemos
φ−1 (t)φ(t)u0 (t) = φ−1 (t)B(t).
Daí,
u0 (t) = φ−1 (t)B(t).
Integrando de t0 a t, tem-se Z t
u(t) = φ−1 (s)B(s)ds.
t0
Fazendo t = t0 , temos Z t0
x(t0 ) = φ(t0 )v + φ(t0 ) φ−1 (s)B(s)ds.
t0
Donde obtemos,
x0 = φ(t0 )v,
(⇐=) Reciprocamente, se
Z t
x(t) = xc (t) + xp (t) = φ(t)v + φ(t) φ−1 (s)B(s)ds
t0
42
Observe que φ(t) tt0 φ−1 (s)B(s)ds é uma solução particular do sistema (2.4), e a solução que em t0
R
Z t
x0p (t) 0
= φ (t) φ−1 (s)B(s)ds + φ(t)φ−1 (t)B(t)
t0
Z t
= Aφ(t) φ−1 (s)B(s)ds + B(t)
t0
= Axp (t) + B(t).
no intervalo I .
Demonstração. Existência. Sejam aij (t) e bi (t) os respectivos elementos das matrizes A(t) e B(t).
Denamos a sequência x(k) (t) por
Z t
(0) (0) (k) (0)
x (t) = x , x (t) = x + A(s)x(k−1) + B(s) ds, para k = 1, 2, . . .
t0
Como aij (t) é contínua no intervalo I , então existe uma constante real positiva Mij tal que
|aij (t)| ≤ Mij , com t ∈ I . De forma semelhante, |xi − xi | é contínua e portanto limitada em I .
(1) (0)
43
Então
n
Z tX
(2) (1) (1) (0)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds
t0 j=1
n
Z tX
(1) (0)
≤ M xj (s) − xj (s) ds
t0 j=1
≤ nM N (t − t0 ).
n
Z tX
(3) (2) (2) (1)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds
t0 j=1
n
Z tX
(2) (1)
≤ M xj (s) − xj (s) ds
t0 j=1
Xn Z t
2
≤ nM N |s − t0 | ds
j=1 t0
|t − t0 |2
≤ n2 M 2 N .
2
Por indução
n
Z tX
(k+1) (k) (k) (k−1)
xi (t) − xi (t) ≤ |aij (s)| xj (s) − xj (s) ds
t0 j=1
n
Z tX
(k) (k−1)
≤ M xj (s) − xj (s) ds
t0 j=1
n
XZ t |s − t0 |k−1
≤ M nk−1 M k−1 N ds
t0 (k − 1)!
j=1
|t − t0 |k
≤ nk M k N .
k!
44
∞
(b − a)k
Como converge, tem-se que x(k)
i (t) converge uniformemente pelo teste de Wei-
X
nk M k N
k!
j=0
erstrass. Seja então
(k)
xi (t) = lim xi (t).
k→∞
Assim
(k)
xi (t) = lim xi (t)
k→∞
Z t n
(0) (k−1)
X
= xi + lim aij (s) lim xj (s) + bi (s) ds
k→∞ t0 k→∞
j=1
Z t n
(0) (k−1)
X
= xi + aij (s) lim xj (s) + bi (s) ds
t0 k→∞
j=1
Z t Xn
(0)
= xi + aij (s)xj (s) + bi (s) ds.
t0 j=1
Unicidade. Sejam y1 (t) e y2 (t) duas soluções do Problema de Valor Inicial (2.5). Então
é solução do PVI (2.5), desde que sejam considerados x(t0 ) = 0 e B(t) = 0. Seja
Z t
u(t) = (|z1 (s)| + · · · + |zn (s)|)ds.
t0
Como
45
Z t Z t
z1 (t) = z10 (s)ds, . . . , zn (t) = zn0 (s)ds,
t0 t0
para t ∈ I , ou seja
u0 (t) ≤ nM u(t).
d e−nM t u(t)
≤ 0,
dt
com u(t0 ) = 0.
Isto implica que u(t) = 0 para todo t, pois do contrário existiria uma vizinhança de t0 tal que
e−nM t u(t)< 0 e isto contraria o fato de que e−nM t u(t) ≥ 0. Portanto z(t) = 0, para t ∈ I .
Exemplo 2.4. Am de motivar o próximo teorema, decida se o conjunto de vetores y1 (t) =
cos(t) e2t e y2 (t) = cos(t) sen (2t) é L.I. ou não.
T T
46
T T
Teorema 2.7. Sejam y1 (t) = y11 (t) y21 (t) ... yn1 (t) , y2 (t) = y12 (t) y22 (t) ... yn2 (t) ,
T
. . . , yn (t) = y1n (t) y2n (t) ... ynn (t) n vetores soluções do sistema homogêneo no intervalo I .
onde A é uma matriz quadrada de ordem n cujas entradas são constantes. Para este m, será
necessário recordar as denições de autovalores e autovetores para uma matriz quadrada A.
Denição 2.5. Seja A uma dada matriz constante de ordem n e seja x um vetor coluna conveniente.
Para qualquer número λ a equação
Ax = λx, (2.8)
tem a solução x = 0 chamada de solução trivial da equação vetorial. E se λ0 é um número tal que
a equação vetorial (2.8) tem uma solução não trivial x0 , então λ0 é chamado de autovalor de A e
x0 é chamado de autovetor correspondente. Diremos então que (λ0 , x0 ) é um autopar de A.
47
Preliminarmente, suponha que y(t) = Keλt seja solução do sistema homogêneo y 0 = Ay , onde
K é uma matriz n × 1 com coecientes constantes. Assim,
com 0 representando a matriz nula. Como eλt 6= 0, para todo x, podemos dividir a última igualdade
acima por eλt . Então,
(AK − λK) = 0 ⇔ (AK − λIK) = 0 ⇔ (A − λI)K = 0,
Dessa maneira, para acharmos uma solução não trivial do sistema y 0 = Ay da forma y = Keλt
onde K não é uma matriz nula, temos que resolver o sistema
(A − λI)K = 0 (2.9)
Da álgebra linear, sabemos que para o sistema homogêneo (2.9) ter solução não trivial é necessário
que
det(A − λI) = 0 (2.10)
uma vez que se det(A − λI) 6= 0 segue que A − λI possui matriz inversa, B , por exemplo, e assim,
B(A − λI)K = IK = 0, portanto K seria a matriz nula. A equação (2.10) é chamada equação
característica da matriz A.
Teorema 2.8. Se (λ0 , x0 ) é um autopar para a matriz constante n × n A, então
x(t) = eλ0 t x0 , t ∈ R,
x0 (t) = λ0 eλ0 t x0
= e λ0 t λ 0 x 0
= eλ0 t Ax0
= Aeλ0 t x0
= Ax(t),
para t ∈ R.
48
Observação 2.6. A matriz A pode ser vista como um operador linear no espaço Rn , x 7→ Ax, o
qual pode ser estendido a um operador linear AC , no espaço complexo Cn , denido por AC (x+iy) =
Ax + iAy .
Proposição 2.2. Se P ∈ Mn×n (R) conjuga as matrizes A, B ∈ Mn×n , então P transforma soluções
de y 0 = By nas soluções de x0 = Ax. Mais precisamente, se A = P BP −1 , então são equivalentes
as armações:
(2) =⇒ (1).
Observação 2.7. De acordo com a Proposição 2.2, concluímos que encontrar solução de x0 = Ax
é equivalente a encontrar soluções de y 0 = By , a menos de uma mudança de coordenadas.
Teorema 2.9. (Forma Canômica de Jordan) Se A ∈ Mn×n (R), então A é conjugada a uma
matriz real
J = diag(J1 , J2 , ..., Jr ) ∈ R
onde cada Ji é um bloco de Jordan real ou complexo. A matriz J é única, a menos da ordem dos
blocos na diagonal (ver[4]).
Observação 2.8. A matriz J é conhecida como a forma canônica de Jordan de A. Tal forma
canônica admite as seguintes formas para os blocos de Jordan Ji :
• Se a matriz possui n autovalores, então os blocos tem dimensão 1 e neles estão os autovalores
λ1 , ..., λn .
• Cada autovalor λ gera um bloco com o autovalor na diagonal principal, o número 1 na subdi-
agonal e zero nas demais entradas.
49
λ 0 ... 0 0
1 λ ... 0 0
Jλ = . . . . .
. . . .
. . . .
0 0 ... 1 λ
Ja,b 0 ... 00
I Ja,b ... 00
Jλ = . .. ... .. ,
.
. . .
0 0 ... I Ja,b
onde
a b 1 0 0 0
Ja,b = ,I = ,0 = .
−b a 0 1 0 0
Para encontrar a forma de Jordan de A, olhamos para os autovalores e autovalores de A.
Se A ∈ Mn×n (R) possui n autovalores distintos então cada λi tem dimensão 1 e é gerado pelo
autovetor zi associado ao autovalor λi . Assim, teremos uma base β = {z1 , ..., zn } formada por
autovetores. Logo, se Az1 = λ1 z1 , ..., Azn = λn zn , temos AP = P J onde
λ1 0 ... 00
0 λ2 ... 00
P = [z1 z2 ... zn ] e J = . .. ... .. .
..
. .
0 0 ... 0 λn
Agora, se dim λi ≥ 2, então cada autovalor gera uma sequência de vetores (que formam a base βi
de λi ) z1 , ..., zk , os quais também são chamadas "uma cadeia de Jordan para A com autovalor λi ".
Os vetores z1 , .., zk , dessa cadeia são tais que Az1 = λi z1 , Az2 = z2 + λi z2 , ..., Azk = zk−1 + λi zk ,
ou seja, z1 é autovetor associado a λi e os outros são vetores LI associados a λi . Observe que o
conjunto das cadeias de Jordan para A forma uma base para Cn .
J = diag(J1 , J2 , ..., Jn ),
50
A partir do Teorema 2.9 e da Proposição 2.2 podemos reduzir o problema de encontrar soluções
de x0 = Ax ao problema y 0 = Jy onde J é a forma canônima de Jordan de A.
λ1 0 ... 00
0 λ2 ... 0
0
J = P −1 AP = . .. ... .. ,
..
. .
0 0 ... 0 λn
onde P = [z1 z2 ... zn ], ou seja, P ei = zi .
y 0 = Jy
Considerando o problema . Temos
y(0) = y0 = (α1 , ..., αn )
0
y = λ1 y1 , y1 (0) = α1
10
y2 = λ2 y2 , y2 (0) = α2
.
·
0
yn = λn yn , yn (0) = αn
Logo,
é solução de y 0 = Jy .
n
Pela Proposição 2.2 x(t) = P y(t) é solução de = Ax, com x(0) = P y0 , ou seja, x(0) = α i zi .
X
x0
i=1
Daí,
Caso 2: Cadeias de Jordan com mais de um vetor, ou seja, a forma de Jordan de A é dada por
blocos do tipo
λ 0 ... 0 0
1 λ ... 0 0
Jλ = . . . .
. . . .
. . . .
0 0 ... 1 λ
51
y 0 = Jλ y
Olhando para o problema , temos
y(0) = y0 = (α1 , ..., αk )
0
y1 = λy1 , y1 (0) = α1 ,
y 0 = y1 + λy2 , y2 (0) = α2 ,
2
..
.
0
yk = yk−1 + λyk , yk (0) = αk .
Dessa forma,
y1 (t) = α1 eλt ,
..
.
tk−1
yk (t) = α1 (k−1)! + ... + αk−1 t + αk eλt .
y 0 = Jλ y,
Assim, y(t) = (y1 (t), ..., yk (t)) é solução de . E, y(t) = (y1 (t), ..., yk (t), 0, ..., 0) é
y(0) = y0
solução de y 0 = Jy , com y0 = (α1 , ..., αk , 0, ..., 0).
Pela proposição (2.2) x(t) = P (t)y é solução de x0 = Ax, onde as colunas de P são os vetores
z1 , . . . , zn , é solução de
0
x = Aλ x,
,
x(0) = P y0 = α1 z1 + ... + αk zk
onde Aλ é a restrição de A ao subespaço gerado por z1 , ..., zk . Daí,
As soluções para o sistema geral x0 = Ax são combinações de expressões do tipo x(t). x(t) é
solução de x0 = A(x), basta tomar os coecientes de zk+1 , , ..., zn nulos.
Observação 2.9. No caso onde J é diagonal se o autovalor λj , é real, o autovetor associado zj será
real, daí a solução de zj0 = λj zj será real. Se λj = aj + ibj é complexo, então zj = xj + iyj será
52
complexo. Daí, as partes real e imaginária da solução γj (t) = αj eλj j t formarão um par de soluções
L.I. contidas no subespaço gerado por xj , yj .
De fato, se γj (t) = ζj (t) + iηj (t) essas soluções são dadas por
γj (t) = αj eλj t zj
= αj e(aj +ibj )t (xj + iyj )
= αj eaj t (cos bj t + isen bj t)(xj + iyj )
= αj eaj t [(xj cos bj t − yj sen bj t) + i(yj cos bj t + xj sen bj t)] .
Então, ζj (t) = αj eaj t (xj cos bj t − yj sen bj t) e ηj (t) = αj eaj t (yj cos bj t + xj sen bj t).
• ζj , ηj são L.I.
Como 1 + ik 6= 0
γ̄j = 1−ik
1+ik γj =⇒ γj e γ̄j são L.D., o que é um absurdo.
Assim,
Axj = aj xj − bj yj ,
Ayj = aj yj + bj xj .
53
Portanto,
ζj0 (t) = αj aj eaj t (cos(bj t)xj − sen (bj t)yj ) + αj eaj t (−bj xj sen (bj t) − yj bj cos(bj t))
= aj (αj eaj t (xj cos(bj t) + yj sen (bj t)) − bj (αj eaj t (xj sen (bj t) + yj cos(bj t))
= aj ζj (t) − bj ηj (t).
No segundo caso, se λ é real, a cadeia z1 , ..., zk são reais, logo a solução é real. Se λ = a + bi é
complexo com cadeia de Jordan z1 , ..., zk então os vetores conjugados z¯1 , ..., z¯k , formam uma cadeia
de Jordan para A com autovalor λ̄.
Além disso, a parte real x(t) = 12 (z(t) + z̄(t)) e a parte imaginária y(t) = 2i1 (z(t) − z̄(t)) são
soluções reais de x0 = Ax contidas no espaço gerado por x1 , ..., xk , y1 , ..., yk , onde zk = xk + iyk .
Teorema 2.10. As soluções da equação x0 = Ax onde A é uma matriz real n × n com entradas
constantes, são combinações lineares de funções do tipo j m eαt cos βt e tm eαt sen βt. Mais especica-
mente, uma solução geral do sistema linear é da forma
k mj−1
X X
x(t) = (Alj tl eαj t cos(βj t) + Blj tl eαj t sen (βj t)
j=1 l=0
akxk2 ≤ hT x, xi ≤ bkxk2 ,
54
Denição 2.6. Considere o sistema de equações diferenciais ordinárias x0 = f (x). Um ponto de
equilíbrio do campo vetorial f é um ponto x0 onde todos os componentes do campo se cancelam
simultaneamente, isto é
fi (x0 ) = 0, i = 1, ..., n.
Também é dito que x0 é um campo vetorial zero ou possivelmente um ponto singular. Um ponto
que não é singular é dito ser regular.
Teorema 2.12. Seja φ(t, x) a solução da equação x0 = Ax com condição inicial φ(0, x) = x. Então
as seguintes condições são equivalentes:
1. O equilíbrio x∗ = 0 é um poço.
(1 =⇒ 3) Considere um número a > 0 tal que Re λ < −a, para todo autovalor λ de A.
hAx, xi ≤ −a|x|2 , ∀x ∈ Rn .
55
Isto implica que,
kx(t)k0
kx(t)k
≤ −a, donde obtemos ln ≤ −at,
kx(t)k kx(0)k
e assim, kx(t)k ≤ |x0 |e−at . Disto decorre 3, por equivalência das normas em Rn .
(3 =⇒ 2) Por 3, temos
kφ(t, x)k ≤ ke−at kxk.
Fazendo t −→ ∞, obtemos
kφ(t, x)k −→ 0.
Assim,
lim φ(t, x) = 0, ∀x ∈ Rn .
t−→∞
(2 =⇒ 1) Vimos no Teorema 2.10 que cada autovalor de A contribui para uma solução geral de
x0 = Ax com parcelas da forma
Em qualquer caso podemos tomar coecientes γi nulas, exceto em um que tomaremos igual a 1,
de uma solução com a forma onde eλt z onde z é autovetor associado a λ. Se λ é real temos
Denição 2.8. Dizemos que o equilíbrio é uma fonte para x0 = Ax se todos os autovalores de A
tem parte real positiva.
Teorema 2.13. Seja φ(t, x) a solução de x0 = Ax com condição inicial φ(0, x) = x. Então, as
seguintes condições são equivalentes:
56
2. Para toda x ∈ R\{0}, limt−→∞ |φ(t, x)| = ∞;
Observação 2.10. Estes dois últimos teoremas justicam o termo contração para a aplicação
φt (x) = φ(t, x) no caso em que x∗ = 0 é um poço e o termo expansão quando o equilíbrio é uma
fonte.
Suponha que a matriz A, de ordem n × n, tenha n autovalores reais distintos λ1 , ..., λn , então
um conjunto L.I. de autovetores K1 , ..., Kn poderá sempre ser obtido e assim
será um conjunto fundamental para o sistema y 0 = Ay para t ∈ (−∞, ∞). Dessa maneira a solução
geral de y 0 = Ay é dado por
57
Então, por álgebra linear, existem três autovetores correspondentes L.I.
3k1 + k3 = 0
⇒
2k1 + 2k2 + 4k3 = 0
k2 = 5k1 ,
⇒
k3 = −3k1 , k1 ∈ R.
valor λ1 = −3,
T
K1 = 1 5 −3 .
1 0 1 k1 0
0 −4 0 k2 = 0
2 2 2 k3 0
k1 + k3 = 0
⇒ −4k2 = 0
2k1 + 2k2 + 2k3 = 0
k3 = −k1 ,
⇒
k2 = 0, k1 ∈ R.
Tomando k1 = 0 teremos K2 = 1 0 −1
T
.
Para λ = 2, temos
−2 0 1 k1 0
0 −1 0 k2 = 0
2 2 −1 k3 0
−2k1 + k3 = 0
⇒ −k2 = 0
2k1 + 2k2 − k3 = 0
58
k3 = 2k1 ,
⇒
k2 = 0, k1 ∈ R.
1 1 1
yc (t) = c1 5 e−3t + c2 0 e−t + c3 0 e2t ,
−3 −1 2
Suponha agora que a matriz A, de ordem n × n, possui um autovalor, digamos λ1 , com multi-
plicidade m, m ≤ n. Neste caso, podemos ter duas situações:
y1 = K11 eλ1 t
y2 = K21 teλ1 t + K22 eλ1 t
.. (2.12)
.
t m−1 t m−2
ym = Km1 (m−1)! eλ1 t + Km2 (m−1)! eλ1 t + · · · + Kmm eλ1 t ,
onde Kij são vetores de ordem n × 1.
1 0 0
Exemplo 2.6. Resolva o sistema y 0 = Ay , onde A = 2 2 −1.
0 1 0
1 − λ 0 0
2 − λ −1 = 0 ⇒ (λ − 1)3 = 0 ⇒ λ1 = 1 com multiplicidade 3.
2
0 1 −λ
59
0 0 0 x1 0
2 1 −1 x2 = 0 ⇒ 2x1 + x2 − x3 = 0 ⇒ x1 = 0, x2 = x3 .
x2 − x3 = 0
0 1 −1 x3 0
0
Assim, K1 = 1 x3 . Encontramos apenas um autovetor associado a λ1 . Note que quaisquer
1
dois vetores dessa forma são L.D.
T
y1 = K1 eλ1 t = K1 et = 0 1 1 et .
y2 = K1 teλ1 t + K2 eλ1 t .
Daí,
(A − λ1 )K1 = 0,
(A − λ1 )K2 = K1 .
Seja K2 = x1 x2 x3 , então
T
0 0 0 x1 0
2 1 −1 x2 = 1 ⇒ 2x1 + x2 + x3 = 1 ⇒ x1 = 0 e x3 = x2 − 1
x2 − x3 = 1
0 1 −1 x3 1
T
⇒ K2 = 0 x2 x2 − 1 .
Se x2 = 2, temos K2 = 0 2 1 . Daí,
T
y2 = K1 teλ1 t + K2 et
T T
= 0 1 1 tet + 0 2 1 et .
60
Agora vamos encontrar a terceira solução y3 . Sabemos que
t2 λ1 t
y3 = K1 e + K2 teλ1 t + K3 eλ1 t .
2!
Derivando, obtemos
t2
y30 = K1 teλ1 t + K1 λ1 eλ1 t + K2 eλ1 t + K2 λ1 teλ1 t + K3 λ1 eλ1 t .
2
Substituindo em y 0 = Ay , temos
t2 λ1 t
(K1 λ1 − AK1 ) e + (K1 + K2 λ1 − AK2 )teλ1 t + (K2 + K3 λ1 − AK3 )eλ1 t = 0.
2
Como t2 λ1 t
2e , teλ1 t e eλ1 t são L.I., a igualdade acima é válida quando
K1 λ1 − AK1 = 0,
K1 + K2 λ1 − AK2 = 0,
K2 + K3 λ1 − AK3 = 0.
0 0 0 z1 0
2 1 −1 z2 = 2 ⇒ 2z1 + z2 − z3 = 2 ⇒ z1 = 1 , z2 = z3 + 1.
z2 − z3 = 1 2
0 1 −1 z3 1
Se z3 = 0 temos K3 = .Portanto,
1 T
2 1 0
T t2 t T T
e + 0 2 1 tet + 21 et .
y3 = 0 1 1 1 0
2
yc (t) = c1 y1 + c2 y2 + c3 y3 .
Observação 2.12.
61
1. Suponha que λ1 seja um autovalor com multiplicidade 2 e que seja válido a seguinte relação
k1 − k2 + k3 = 0, isto é k1 = k2 − k3 , assim teríamos
k2 − k3 1 −1
K = k2 = 1 k2 + 0 k3 .
k3 0 1
Se k2 = 0 e k3 = 1, temos K2 = −1 0 1 .
T
2. Note que quando λ1 tem multiplicidade m > 3, seguimos a mesma linha de construção, ou
seja, teremos sempre
(A − λ1 I)K1 = 0,
(A − λ1 I)K2 = K1 ,
(A − λ1 I)K3 = K2 ,
..
.,
(A − λ1 I)Km = Km−1 .
Seja A uma matriz quadrada que possui algum autovalor complexo λ1 . Sabe-se então que
λ2 = λ¯1 também é autovalor de A. (ver [4]).
Teorema 2.14. Considere sistema de equações diferenciais lineares escritas na forma vetorial ve-
torial
x0 = Ax. (2.13)
Se x(t) = u(t) + iv(t) é uma solução complexa de (2.13), então u(t) e v(t) também são soluções
desse mesmo sistema, onde u e v são funções vetoriais de valores reais.
62
Demonstração. Suponhamos que x(t) = u(t) + iv(t) é uma solução complexa de (2.13). Então,
ou ainda,
u0 (t) + iv 0 (t) = A(t)u(t) + iA(t)v(t), para t ∈ I.
Igualando partes reais e imaginárias, obtemos os resultados desejados u0 (t) = A(t)u(t), v 0 (t) =
A(t)v(t), para t ∈ I.
De forma análoga, mostra-se que K̄1 eλ̄1 t , onde K̄1 é uma matriz conjugada de K1 também é
solução de y 0 = Ay .
63
admite a solução geral x = Ceat . Tal solução serve de motivação para denir a exponencial de uma
matriz eAt de forma que y(t) = eAt C seja solução do sistema homogêneo y 0 = Ay . Para isso, note
que eat admite expansão em série de potências
t2 tk
eat = 1 + at + a2 + ... + ak + ...
2! k!
Para estender essa denição a uma matriz precisamos de séries convergentes de matrizes e por
seguinte, precisaremos também de normas nos espaços de matrizes.
Nessa seção, será considerado que Mn (K) o espaço das matrizes n × n sobre um corpo K é um
espaço vetorial normado. (ver [4])
X : N −→ Mn (K)
k 7→ X(k) = Xk ,
Denição 2.11. Considere uma sequência (Xk ) em Mn (K). Dizemos que (Xk ) converge para uma
matriz L ∈ Mn (K) se sempre que xarmos um número > 0, conseguimos encontrar um número
N ∈ N de forma que
kXk − Lk < sempre que k > N.
Denotamos
lim Xk = L,
k−→∞
Denição 2.12. Uma sequência (Xk ) é chamada sequência de Cauchy se sempre que xarmos um
número > 0, conseguimos encontar um número N ∈ N de forma que
Teorema 2.16. Uma sequência converge se, e somente se, é uma sequência de Cauchy.
64
Demonstração. (⇒) Como (Xk ) converge, então ∃ k0 ∈ N tal que ∀ k > k0 tem-se
kXk − Lk < .
2
Tal sequência é limitada e de acordo com o teorema de Bolzano-Weierstrass (Xk ) possui uma
subsequência (Xk0 ) convergente. Seja 0lim Xk0 = L.
k −→∞
Se M = max {N, N 0 }. Dessa forma, temos para todo k > M e k0 > M xo, tem-se
kXk − Lk = kXk − Xk0 + Xk0 − Lk ≤ kXk − Xk0 k + kXk0 − Lk ≤ + = .
2 2
Denição 2.13. Uma série em Mn (K) é uma sequência Sk obtida a partir de uma sequência (Ak ),
da seguinte forma:
Sk = A1 + A2 + ... + Ak , com , k = 1, 2, 3, ...
ou seja,
k
X
Sk = Ai .
i=1
Se a sequência Sk converge dizemos que a série converge, caso contrário, dizemos que a série
diverge.
65
Teorema 2.17. A série em Mn (K) dada por
∞
X 1 k 1
I+ A = I + A + A2 + ...
k! 2!
k=1
Demonstração. Mn (K) é uma espaço vetorial normado. Considere a norma de operador denida
por
kAk = sup |Ax|
kxk≤1
kAk k ≤ kAkk
SN ≤ ekAk ,
para todo N ≥ 1.
Observação 2.13. Se t é uma variável escalar, então a substituição de A por At na equação (2.14)
implica
∞
A2 t2 Ak tk X Ak tk
eAt = I + At + + ... + + ... = , (2.15)
2! k! k!
k=0
66
Temos as seguintes propriedades sobre a exponencial.
Proposição 2.3. Sejam A e B matrizes n × n.
67
2.4.2 Método de obtenção da exponencial de uma matriz
Vamos exibir algumas formas de adquirir a exponencial de uma matriz por meio da teoria de
Álgebra Linear.
Autovalores e Autovetores
Se A é uma matriz diagonalizável, então existem uma matriz P invertível e uma matriz diagonal
D tal que
A = P DP −1 ,
onde as entradas na matriz diagonal são compostas pelos autovalores de A. Além disso, a matriz P
é constituída por autovetores do tipo coluna, e cada autovetor está associado a um autovalor de A.
Sabemos ainda que pelo item 1. da Proposição 2.3 que
eA = P · eD · P −1
. Usaremos tais informações descritas aqui nesse parágrafo para determinar a exponencial das
matrizes dos exemplos seguintes.
onde λ1 , λ2 ∈ K. Então,
(λ1 )k
k 0
D = , ∀k ≥ 1.
0 (λ2 )k
Consequentemente,
D2
eD = I + D + + ...
2!
" (λ1 )2 #
1 0 λ1 0 2! 0
= + + (λ2 )2 + ...
0 1 0 λ2 0 2!
2
" #
1 + λ1 + (λ2!1 ) + ... 0
= 2
0 1 + λ2 + (λ2!2 ) + ...
λ
e 1 0
= .
0 eλ2
68
Exemplo 2.8. Se D é uma matriz diagonal n × n dada por
λ1 0 0 ... 0
0 λ2 0 ... 0
. . .
D=
.. . .
. .
,
..
0 0 0 . λn
temos,
e λ1
0 0 ... 0
D2 0 e λ2 0 ... 0
eD = I + D + + ... = . ... .. .
..
2! .
0 0 0 ... eλn
1−λ 1
det(A − λI) = det = 0.
−2 4 − λ
Daí, (λ − 3)(λ
− 2) = 0 e, consequentemente,
2 e 3 são autovalores da matriz A. Os autovetores L.I.
1 1
são K1 = , K2 = .
1 2
Logo A = P DP −1 , onde
2 0 1 1 −2 −1
D= ,P = e P −1 = .
0 3 1 2 −1 1
Assim,
A D −1 1 1 D 2 −1
e = Pe P = e
1 2 −1 1
69
e2 0
Mas, eD = . Então,
0 e3
e2 0 2e2 − e3 −e2 + e3
A 1 1 2 −1
e = = .
1 2 0 e3 −1 1 2e2 − 2e3 −e2 + 2e3
Se a matriz A não for diagonalizável podemos utilizar a Forma de Jordan, ou seja, escreveremos
A da forma
A = M JM −1 ,
∞ ∞ ∞ ∞
!
X Ak X (M JM −1 )k X M J k M −1 X Jk
eA = = = =M M −1 = M eJ M −1 .
k! k! k! k!
k=0 k=0 k=0 k=0
Teorema de Cayley-Hamilton
Teorema 2.18. Toda matriz quadrada de ordem n é raiz de seu polinômio característico.
Demonstração. ver([4])
Note que, se pA (λ) = λn + cn−1 λn−1 + ... + c0 é o polinômio característico da matriz A, então
n−1
X
An = − ci Ai ,
i=0
e isto nos diz que An , An+1 , ... podem ser obtidos através de combinações lineares de I, A, A2 , ..., An−1 .
Assim,
n−1
X αi ti Ai
eAt = ,
i!
i=0
70
Pela denição, temos que
1 1 1 0 α1 t α1 t
eAt = α1 At + α0 I = α1 t + α0 =
9 1 0 1 9α1 t α1 t + α0
eλ1 t = α1 λ1 t + α0 ,
eλ2 t = α1 λ2 t + α0 .
Então, (
e4t = 4α1 t + α0 ,
e−2t = −2α1 t + α0 .
Assim,
e4t − e−2t
α1 = .
6t
E,
α0 = e4t − 4α1 t
2
= e4t − (e4t − e−2t )
3
3e4t − 2e4t + 2e−2t
=
3
e4t + 2e−2t
= .
3
Portanto,
" #
e4t −e−2t 4t −2t e4t −e−2t
+ e +2e 3e4t + 3e−2t e4t − e−2t
1
eAt = 6
3(e4t −e−2t )
3 6 = .
e4t −e−2t
+ e4t +2e−2t 6 9e4t − 9e−2t 3e4t + 3e−2t
2 6 3
71
Teorema 2.19. Sejam A e B matrizes constantes n × n e s, t ∈ R. Então,
i) eA0 = e0 = I ;
ii) d At
dt e = AeAt ;
∞ ∞
X 0k tk X 0k tk
e0 = e0I = =I+ = I + 0 = I.
k! k!
k=0 k=1
ii)
A2 t2 Ak tk
d At d
e = I + At + + ... + + ...
dt dt 2! k!
2A2 t kAk tk−1
=0+A+ + ... + + ...
2! k!
A2 t A3 t2 Ak tk−1
=A+ + + ... + + ...
1! 2! k!
A2 t 2 Ak tk
= A I + At + + ... + + ...
2! k!
= AeAt .
iii) (⇒) Suponhamos que e(A+B)t = eAt eBt . Derivando em ambos os lados e de acordo com o item
ii), obtemos
Daí,
(A + B)eAt eBt = AeAt eBt + eAt BeBt
72
Multiplicando essa última igualdade por e−Bt , obtemos
BeAt = eAt B.
Fazendo t = 0, temos
BA = AB.
(⇐) Consideremos agora que BA = AB . Pelo item iii), temos que x(t) = e(A+B)t satisfaz a equação
diferencial x0 = (A + B)x(t) onde temos x(0) = I como condição inicial. Notemos ainda que,
∞ ∞ ∞ ∞
! !
X (At)k X BAk tk X Ak Btk X Ak t k
BeAt = B = = = B = eAt B.
k! k! k! k!
k=0 k=0 k=0 k=0
Daí,
d At Bt
e e = AeAt eBt + eAt BeBt
dt
= AeAt eBt + BeAt eBt
= (A + B)eAt eBt .
Consequentemente, y(t) = eAt eBt do Problema de Valor Inicial x(t) = (A + B)x, com x(0) = I .
Pela unicidade da solução do Problema do Valor Inicial, as duas soluções são idênticas.
iv) Pelo item anterior temos que se AB = BA então e(A+B)t = eAt eBt . Se considerarmos
B = −A, então
I = e(A+B)t = eAt eBt = eAt e−At .
v) Observe que A e A comutam. Consequentemente pelo item iii) eAt eAs = e (At + As) =
eA(t+s)
Teorema 2.20. A solução φ(t, x) da equação x0 = Ax, com A ∈ Mn×n (R) constante e com condição
inicial φ(0, x) = x é dada por
φ(t, x) = xetA .
73
Demonstração. Como ψ(t) = etA x é solução de x0 = Ax e ψ(0) = e0 x = x, então pelo Teorema 2.19
e pelo Teorema de Picard, segue que φ(t, x) = etA x.
Então, podemos notar que a matriz A é uma Matriz Nilpotente com Índice de Nilpotência igual
a 3 (ver[4] ), ou seja, Ak = 0 para k ≥ 3.
0 3 4 2 0 0
A= 0 0 6 + 0 2 0 = N + D,
0 0 0 0 0 2
onde D = 2I é uma matriz diagonal e N é a matriz Nilpotente vista no exemplo anterior.
Sendo assim,
eAt =
e(D+N )t = eDt eNt
e2t 0 1 3t 4t + 9t2
0
= 0 e2t 0 0 1 6t
0 0 e 2t 0 0 1
2t
3te2t (4t + 9t2 )e2t
e
= 0 e2t 6te2t
0 0 e 2t
74
α β
Exemplo 2.13. Se I(α, β) = , então
−β α
I(α,β)t αt cos βt sen βt
e =e .
−sen βt cos βt
0 1
De fato, note que A = I(α, β) = αI + βJ onde J = como αI e βJ comutam, temos
−1 0
eJ(λ)t = e(λI+I1 )t
= eλt eI1 t
2 n−1
λt 2t n−1 t
= e I + I1 t + I1 + ... + I1
2! (n − 1)!
tn−1
1 t ... (n−1)!
..
.
λt 0 1 ...
=e .
. .
.
t
0 0 0 1
75
que tem blocos quadrados, Ai , de diversas ordens na diagonal principal, sendo nulos seus elementos
restantes. Temos então, com esta notação que
eAt = diag(eA1 t , ..., eAn t ).
α β
Exemplo 2.15. Se J(α, β) = diag[I(α, β), ..., I(α, β)] + I2 onde I(α, β) = e I2 = I12 .
−β α
Temos
diag[I(α, β), ..., I(α, β)]I2 = I2 diag[I(α, β), ..., I(α, β)].
Portanto
eJ(α,β)t = diag[eI(α,β)t , ..., eI(α,β)t ] = eαt diag[R(t, β), ..., R(t, β)]eI2 t ,
onde
cos βt sen βt
R(t, β) = .
−sen βt cos βt
Observação 2.17. No Exemplo 2.14 o valor de λ de J(λ) tem multiplicidade n, se J(λ) é n × n.
No Exemplo 2.15, com α e β reais, J(α, β) tem os autovalores λ = α + iβ e λ̄ = α − iβ cada um
com multiplicidade n2 , se J(α, β) é n × n.
As matrizes J(λ) e J(α, β) são os blocos que aparecem na diagonal da forma de Jordan real de uma
matriz.
Lema 2.1. (Lema de Cálculo) Seja > 0. Então, para todo k ∈ N, lim e−t tk = 0. Daí, para
t−→∞
qualquer polinômio p(t), e−t p(t) é limitado para t ≥ 0.
Demonstração. Basta aplicar a regra de L'Hospital k vezes para mostrar que lim e−t p(t) = 0,
t→∞
onde p(t) é um polinômio de grau k. Em consequência, uma vez que esse último limite existe, há
uma vizinhança de zero na qual e−t p(t) é limitada para todo t. Particularmente, tem-se ainda
lim e−t tk = 0.
t→∞
Proposição 2.4.
keJ(λ)t k ≤ ke−µt , t ≥ 0,
ketJ(α,β) k ≤ ke−tµ , t ≥ 0.
76
kI1i k
onde a0 = kIk e ai = = 1, ..., n − 1.
i! , i
"n−1 #
Pelo Lema de Cálculo 2.1, e−t ai ti ≤ k , então
X
i=0
keJ(λ)t k ≤ ke−µt , ∀t ≥ 0.
pois,
ketJ(α,β) k ≤ Ceαt p(t) = C[e−µt e−t p(t)],
0 1 0 0 ...
0
−1 0 0 0 ...
0
= kI2 kn−2 , Js = ...
Onde sup kJs xk = C , a0 = 1, an−2
.
kxk=1
0 ... 0 0 0 1
0 ... 0 0 −1 0
77
2.4.4 Matrizes fundamentais de soluções de sistemas de equações diferenciais
lineares homogêneas via exponencial de matrizes
Nesta seção, apresentaremos uma teoria essencial na obtenção de soluções de sistemas homogê-
neos, primordial para as inúmeras subáreas das Equações Diferenciais, como por exemplo, Sistemas
Dinâmicos, Sistemas Hamiltonianos, Mecânica Celeste, entre outras.
Recapitulando, uma Matriz Y (t) é dita uma matriz fundamental do sistema y 0 = Ay se suas
colunas formam um conjunto de n soluções linearmente independentes.
Teorema 2.21. Se A é uma matriz constante n × n e as colunas da matriz exponencial eAt for-
mam um conjunto de n soluções fundamentais para o sistema y 0 = Ay , então eAt é uma matriz
fundamental para o mesmo sistema.
(eAt )0 = AeAt .
Com isso, podemos concluir que eAt é uma matriz solução de y 0 = Ay . Desde que, det eA·0 =
det I = 1, pelo Teorema 2.4 com t0 = 0, tem-se que
Pn
det(eAt ) = e( k=0 akk )
t 6= 0,
Note que, se λ é um escalar e eAt = eλIt e(A−λI)t = eλt e(A−λI)t podemos obter uma representação
nita para eAt se N = A − λI é nilpotente para algum λ.
Quando o polinômio característico de A tem a forma P (λ) = (λi − λ)n , isto é, quando A tem
um autovalor λi de multiplicidade n, é uma consequência do Teorema de Cayley-Hamilton que
(A − λi I)n = 0. Assim, A − λi I é nilpotente e
tn−1
At λi t n−1
e =e I + (A − λi I)t + ... + (A − λi I) .
(n − 1)!
78
Primeiramente, precisamos encontrar o polinômio característico para A. Sendo assim,
Dessa forma,
PA (λ) = −(λ − 1)3 .
Com isso, podemos perceber que λ = 1 é o autovalor de A com multiplicidade igual a 3. Pelo
teorema de Cayley-Hamilton, temos que
(A − I)3 = 0.
Assim
eAt = et e(A−I)t
(A − I)2 t2
t
= e I + (A − I)t +
2
1 0 0 1 1 1
t 2 0 0 0
= et 0 1 0 + t 1 1 1 + 0 0 0
2
0 0 1 −2 −2 −2 0 0 0
t
e + tet et t et t
= et t et + et t et t .
t
−2e t t t
−2e t e − 2e t t
Lema 2.2. Seja A uma matriz complexa (respectivamente real). Se λ é um autovalor complexo
(respectivamente real), de A e v um autovetor correspondente, então ϕ(t) = eλt v é uma solução da
equação complexa (respectivamente real) x0 = Ax.
Demonstração. Temos que Av = λv . Sendo assim, ϕ0 (t) = λeλt v = eλt (Av) = Aeλt v = Aϕ(t).
Portanto,
ϕ(t) = eλt v
79
Proposição 2.5. Se a matriz complexa (respectivamente, real) A de ordem n × n tem autovalores
complexos associados a autovetores linearmente independentes, com Avi = λi vi , então a matriz
V (t), cuja i-ésima coluna é
ϕi (t) = vi eλi t ,
Av = λv,
Mas sabemos que cada um dos vi0 s são linearmente independentes, com Avi = λi vi , sendo assim,
cada um dos ϕ0i s são soluções. Consequentemente, V (t), formado pelos ϕ0i s, forma uma matriz
fundamental de x0 = Ax.
Uma vez que eAt é a matriz fundamental para o sistema x0 = Ax, a Proposição 2.1 assegura que
eAt = V (t)C para a mesma matriz constante C. Escolhendo t = 0 resulta I = V (0)C e determinando
C, obtemos
C = V −1 (0).
Pela Proposição 2.5, ϕ(t) = eλt v e ϕ̄(t) = eλt¯ v̄ são soluções linearmente independentes da
equação x0 = Ax, com A considerada complexa. Logo,
1 1
ϕ1 (t) = [ϕ(t) + ϕ̄(t)] e ϕ2 (t) = [ϕ(t) − ϕ̄(t)]
2 2i
são soluções reais de x0 = Ax, com ϕ1 (0) = v1 , ϕ2 (0) = v2 como equação real.
Por serem v1 e v2 vetores de Rn linearmente independentes segue-se que ϕ1 (t) e ϕ2 (t) soluções são
linearmente independentes. Os vetores v1 e v2 são linearmente independentes, pois caso contrário
teríamos v2 = cv1 , donde v = (1 + ic)v1 e v̄ = (1 − ic)v1 resultariam linearmente dependentes em
Cn .
80
ϕ2 (t) = eαt (v1 sen βt + v2 cos βt),
No caso geral, onde A é n × n, temos que toda solução cuja condição inicial pertence ao plano
gerado por v1 , v2 de Rn é combinação linear de ϕ1 e ϕ2 e consequentemente está contido neste plano.
i) ϕ(0, x) = x;
Um uxo chama-se linear se para cada t ∈ R, ϕt (x) = ϕ(t, x) é uma aplicação linear em Rn .
Neste caso, existe uma única matriz A tal que
ϕt (x) = eAt x.
Logo, f é denida por uma única matriz A, ou seja f (x) = Ax. Daí, ϕ(t, x) = eAt x pois para x
xo ambos são soluções de
y 0 = Ay, y(0) = x.
81
De fato,
82
Capítulo 3
onde a11 , a12 , a21 e a22 são constantes. Uma solução consiste de um par de funções
x1 = x1 (t), x2 = x2 (t),
que satisfazem o sistema (3.1). Para tais sistemas, podemos visualizar uma solução geometricamente
de duas maneiras: A primeira forma é traçar os grácos de x1 = x1 (t) e x2 = x2 (t) no mesmo
conjunto de eixos. Este tipo de gráco é chamado de grácos de séries temporais e nos dizem como
os as variáveis x1 e x2 variam com t.
no instante t, por seguinte, pode-se determinar o vetor tangente x0 (t) ao longo da curva instante t.
83
Figura 3.2: Plano de Fase
Esboçando os vetores tangentes x0 (t) num plano xy temos também uma representação gráca
das soluções de (3.1). Neste último contexto, a representação da solução paramétrica é chamada
de órbita, e o plano xy é chamado de plano de fase. Órbitas são traçadas ao longo do tempo t, e
geralmente denotamos a direção deles no tempo crescente colocando setas sobre curvas. Nesse plano
de fase também são descritos os caminhos e trajetórias.
No plano de fase, esboçamos uma solução no plano cujos eixos são as variáveis dependentes x1
e x2 . Um gráco contendo uma amostra signicativa de trajetórias é chamado retrato de fase.
O retrato de fase é uma ferramenta valiosa no estudo dos sistemas dinâmicos autônomos de
segunda ordem. A conguração das curvas no espaço de fase revela informações sobre a existência
de atratores, repulsores e ciclos limites.
Consideremos agora sistemas reais da forma (3.1) ou equivalentemente, equações lineares homo-
gêneas do tipo
a11 a12
x = Ax, com A =
0
e det A 6= 0.
a21 a22
A condição det A 6= 0 é equivalente a que a origem 0 ∈ R2 seja o único ponto onde A se anula,
ou seja, o único ponto xo do uxo linear
ϕ(t, x) = etA x.
84
O polinômio característico de A é:
Vamos descrever, nos vários casos possíveis, o retrato de fase da equação linear x0 = Ax, onde
A ∈ M2×2 (R). Por uma mudança linear de coordenadas conveniente, x = P y , onde P é uma matriz
inversível, podemos
supor que a matriz
B= P AP assume
−1
uma das formas canônicas A1 , A2 , A3
λ1 0 λ 0 a b
dadas por A1 = , A2 = , ou A3 = . A exponencial etB é dada por
0 λ2 1 λ −b a
e λ1 t eλt
0 0 1 0 cos(bt) sen (bt)
e tA1
= tA2
,e = =e λt
ou e tA3
=e at
.
0 e 2t
λ te λt eλt t 1 − sin(bt) cos(bt)
((eλi t σ), eλt (σ, σt + η)) ou eat (σ cos(bt) + η sin(bt), −σ sin(bt) + η cos(bt))
Em cada caso, esboçando umas poucas órbitas no plano (y1 , y2 ) teremos uma ideia clara do retrato
de fase da equação y 0 = By . O retrato de fase da equação original x0 = Ax, será uma deformação
linear, via a transformação linear x = P y , de cada uma das guras descritas.
85
λ1 0
Caso 1. Retrato de fase de y0 = By , onde B = . A solução com condição inicial y(0) =
0 λ2
(k1 , k2 ) é dada por
y(t) = (k1 eλ1 t , k2 eλ2 t ).
Olhando a órbita com condição inicial no primeiro quadrante, ou seja, k1 , k2 > 0, temos
86
Figura 3.3: Caso λ1 < λ2
1.(b) λ1 6= λ2 , com ambos positivos. lim ky(t)k = ∞ e lim y(t) = 0, trocamos t por −t.
t−→∞ t−→−∞
As possibilidades são as mesmas do caso anterior, com a diferença no sentido das echas
que representam o uxo. Neste caso, elas tem o sentido contrário.
87
• Se y(0) = (k1 , 0) então
(ii) Se λ1 6= −λ2 , as curvas descritas são parecidas com ramos de hipérboles. Neste caso,
a origem é chamada "ponto de sela". Para λ1 > 0 e λ2 < 0 o resultado é análogo,
porém com as setas do uxo no sentido contrário.
1.(d) Se λ1 < 0 e λ2 = 0, então
y(t) = (k1 eλ1 t , k2 ).
88
Figura 3.7: Caso λ1 < 0 e λ2 = 0 com y(0) = (k1 , k2 )
Se y(0) = (k1 , 0) ∈ Oy1 então y(t) = (k1 eλ1 t , 0) ∈ Oy1 . Pois o eixo Oy1 é gerado pelo
autovetor e1 associado ao autovalor λ1 . Como Oy1 é invariante por B , segue que Oy1 é
invariante por eB .
λ 0
Caso 2. Retrato de fase y 0 = By , onde B = .
1 λ
A solução com condição inicial y(0) = (k1 , k2 ) é dada por
y(t) = (0, k2 ).
y(t) = (k1 , k1 t + k2 ).
89
Figura 3.9: Caso λ = 0, k2 > 0
90
Figura 3.11: Caso λ > 0
a b
Caso 3. Retrato de fase de = By , onde B =
y0 .
−b a
cos(bt) sen (bt)
Note que, e = e
tB at . Assim, a solução com condição inicial y = (k1 , k2 )
−sen (bt) cos(bt)
é dada por
at cos(bt) sen (bt) k1
z(t) = e
−sen (bt) cos(bt) k2
= eat (k1 cos(bt) + k2 sen (bt), −k1 sen (bt) + k2 cos(bt)).
Denotando,
(
x(t) = eat (k1 cos(bt) + k2 sen (bt)),
y(t) = eat (−k1 sen (bt) + k2 cos(bt)),
temos,
2 2
x(t) y(t)
+ = k12 + k22 .
eat eat
• Se a = 0 então x(t)2 + y(t)2 = k12 + k22 , assim, a solução z(t) descreve um círculo de raio
r = k12 + k22 , se k1 6= 0 ou k2 6= 0. Neste caso, quem determina o sentido das setas é o sinal de b.
p
91
Figura 3.12: Caso a = 0 e b > 0
92
Capítulo 4
Neste capítulo, revisamos uma das técnicas que são utilizadas para analisar sistemas não line-
ares. Essa técnica consiste em linearizar sobre pontos de equilíbrio para obter localmente, esboços
qualitativos do retrato de fase via do sistemas lineares correspondentes. A validade desta técnica
está contida no Teorema de Hartman-Grobman, que apresentamos mais adiante.
onde, F é um campo vetorial e x uma variável vetorial. Por meio de métodos algébricos ou numéricos
podemos olhar para os pontos xos do sistema: pontos x̄ onde o campo vetorial F se anula, isto é,
F (x̄) = 0. Tais pontos nos fornecem soluções constantes: α(t) = x̄, para todo t ∈ R. Daí, perto
de cada ponto xo, o retrato de fase do sistema não linear se assemelha ao retrato de fase de um
sistema linear correspondente:
y 0 = Ay,
onde A = F 0 (x̄).
y 0 = x2 − 1,
possui dois pontos de equilíbrio. De fato,
y − 2xy = 0
F (x, y) = 0 ⇔ =⇒ x2 − 1 = 0 =⇒ x2 = 1 =⇒ x = ±1.
x2 − 1 = 0
Além disso,
y − 2(1)y = 0 =⇒ y = 0
93
e
y − 2(−1)y = 0 =⇒ y = 0.
y 0 = x − y,
possui innitos pontos de equilíbrio. De fato,
x2 − y 2 = 0
F (x, y) = 0 ⇔ ⇔ x = y.
x−y =0
Logo, temos innitos pontos de equilíbrio.
y 0 = x2 ,
não possui ponto de equilíbrio. Com efeito,
1
y = 0,
F (x) = 0 ⇔ 2
x = 0,
o que nunca acontece. Portanto, o sistema não possui ponto de equilíbrio.
Etapa 1:
u = x − x0 .
Observação 4.1. Note que x0 é o ponto de origem para o sistema de coordenadas ~u.
u0 = G(u),
94
u01
G1 (u)
u0 G2 (u)
2
.. = .. ,
. .
u0n Gn (u)
onde G é a nova forma do campo vetorial e a origem é um ponto de equilíbrio, u~0 = ~0.
Etapa 2:
obtemos u0 = Au.
Podemos fazer a linearização a partir de qualquer ponto de equilíbrio do sistema. Neste caso
faremos em torno do ponto (−2, 1). Então, primeiramente precisamos fazer a mudança de variáveis
que desloca a origem do plano para o ponto de equilíbrio. Assim,
u1 = x1 − (−2) = x1 + 2 e u2 = x2 − 1.
Portanto,
x1 = u1 − 2 e x2 = u2 + 1.
95
E também,
x01 = u01 e x02 = u02 .
Note que, G1 (0, 0) = G2 (0, 0) = 0. Então nas coordenadas u1 , u2 , (0, 0) é o ponto de equilíbrio
correspondente a (−2, 1) nas coordenadas x1 , x2 . Sabemos que,
u˙1 G1 (u1 , u2 ) u1 u2 − 5u2
~u = = = ⇔ ~u = G(~u).
u˙2 G2 (u1 , u2 ) u1 u2 + 6u1
u02 = 6u1 .
x0 = F (x)
96
Teorema 4.1. Seja x0 um ponto de equilíbrio isolado do sistema não linear x0 = F (x), que corres-
ponde ao ponto de equilíbrio ~0 do sistema linearizado u0 = Au. Então,
2. Se ~0 é um equilíbrio não hiperbólico do sistema linear, nenhuma conclusão pode ser tirada
acerca do comportamento do uxo do sistema não linear próximo a x0 .
Em outras palavras, se ~0 é uma fonte (ou repulsor), semidouro (ou atrator) ou ponto de sela
do sistema linearizado, então as soluções do sistema linear numa pequena vizinhança de x0 se
comportam semelhantemente às do sistema linear próximas a ~0.
Observação 4.2. Se ~0 for um centro, uma ligeira pertubação pode transformar num semidouro
espiral ou numa fonte espiral, ou mantê-la como ela é. No caso (1), o equilíbrio é hiperbólico, então
uma ligeira pertubação não irá afetar suas propriedades qualitativas.
Observação 4.3. No caso bidimensional, equilíbrios não hiperbólicos são aqueles para os quais no
mínimo um autovalor é zero.
97
Figura 4.1: Retrado de Fase do Sistema Associado a 4.2
Logo a origem de (4.5) é um centro. Portanto, pelo Teorema de Hartman-Grobman não podemos
concluir nada acerca do comportamento do uxo do sistema não linear (4.4).
Exemplo 4.7. Um sistema bidimensional da forma
x0 = f (x, y)
(4.6)
y 0 = g(x, y)
é chamado de gradiente se existe uma função real G de variáveis x, y , que possui derivadas parciais
contínuas e satisfaz as relações
∂G(x, y) ∂G(x, y)
f (x, y) = , g(x, y) = . (4.7)
∂x ∂y
98
Figura 4.2: Retrado de Fase do Sistema Associado a 4.4
y 0 = 2y − 10x2 y.
Armamos que, o sistema acima é um sistema gradiente. De fato, note que
f (x, y) = 9x2 − 10xy 2 ,
g(x, y) = 2y − 10x2 y.
E assim,
∂f ∂g
= −20xy =
∂y ∂x
Mas, também podemos encontrar uma função G que satisfaz (4.7). Sabendo que
∂G(x, y)
f (x, y) = e f (x, y) = 9x2 − 10xy 2 .
∂x
Podemos integrar em relação a x. Logo,
∂G
9x2 − 10xy 2 = =⇒ 3x3 − 5x2 y 2 + a(y) = G(x, y), (4.8)
∂x
onde a(y) é uma função que depende de y . Então, podemos encontrar a(y). Para isso, derivaremos
(4.8) em relação a y . Assim, temos
da(y) ∂G(x, y)
−10x2 y + = .
dy ∂y
99
Mas,
∂G(x, y)
= g(x, y) = 2y − 10x2 y.
∂y
Assim,
da(y)
= 2y.
dy
Logo,
a(y) = y 2 + c.
100
Capítulo 5
Sistemas hamiltonianos
y 0 = g(x, y)
é chamado Hamiltoniano, se existe uma função real H de variáveis x e y , chamada função Hamil-
toniana, que possui derivadas parciais contínuas e satisfaz as relações
∂H ∂H
f (x, y) = (x, y) e g(x, y) = − (x, y). (5.1)
∂y ∂x
∂f ∂2H ∂g ∂2H
= e =− .
∂x ∂x∂y ∂y ∂y∂x
101
Generalizando, temos que um sistema Hamiltoniano é um sistema com 2n equações diferenciais
ordinárias, da forma:
~q˙ = Hp ,
(5.3)
p~˙ = −Hq ,
onde:
• t tempo.
tal que
H : O ⊆ Rn × Rn × R → R
onde O é um conjunto aberto, e H é uma função de várias variáveis, denominada de função Hamil-
toniana.
102
Além disso, podemos descrever o sistema acima da seguinte forma:
q̇1 Hq1
q̇2 0n×n In×n Hq2
.. ..
. .
q̇n Hqn
ṗ1 = Hp .
1
ṗ2 Hp
2
.. ..
. .
−In×n 0n×n
ṗn 2n×2n Hpn
Em linhas gerais,
J −1 = J T = −J.
Demonstração. Dada
0n×n In×n
J =
,
−In×n 0n×n
temos que
0n×n −In×n 0n×n In×n
JT =
= − = −J
In×n 0n×n −In×n 0n×n
2
Uma matriz T ∈ M2n×2n (R) é chamada simplética com multiplicador µ, ou seja, µ-simplética se
T
T JT = µJ,
103
Logo, J é antissimétrica. E mais,
0n×n −In×n
J −1 = −J =
.
In×n 0n×n
e
0n×n In×n 0n×n In×n
J2 =
−In×n 0n×n −In×n 0n×n
−In×n 0n×n In×n 0n×n
= = − = −I2n×2n .
0n×n −In×n 0n×n In×n
Observação 5.2. Quando a função Hamiltoniana H não depende de t o sistema é dito autônomo
e, em caso contrário, não autônomo.
Muitas das propriedades especiais dos sistemas Hamiltonianos são formuladas em termos do
operador Colchete de Poisson, então esse operador desempenha um papel importante na teoria
desenvolvida aqui.
∂F T ∂G ∂F T ∂G
{F, G} = ∇F T J∇G = − .
∂q ∂p ∂p ∂q
Note que {·, ·} é uma aplicação bilinear, antissimérica e satisfaz a identidade de Jacobi, conforme
veremos a seguir.
104
Demonstração. Note que a bilinearidade segue dos seguintes cálculo
Por m, note que a propriedade de antissimetria, ocorre naturalmente. Com efeito,
∂GT ∂F ∂GT ∂F
{G, F } = −
∂q ∂p ∂p ∂q
T
∂F T
∂F ∂G ∂G
= −
∂p ∂q ∂q ∂p
" T #
∂F ∂G ∂F T ∂G
=− −
∂q ∂p ∂p ∂q
= −{F, G}.
n
∂F T ∂G ∂F T ∂G X ∂F ∂G ∂F ∂G
{F, G} = ∇F T J∇G = − = − .
∂q ∂p ∂p ∂q ∂qi ∂pi ∂pi ∂qi
i=1
105
Por convenção, iremos omitir o somatório. Assim,
∂G ∂H ∂G ∂H
{F, {G, H}} = {F, − }
∂qi ∂pi ∂pi ∂qi
∂G ∂H ∂G ∂H
= {F, } − {F, }
∂qi ∂pi ∂pi ∂qi
∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H ∂F ∂ ∂G ∂H
= − − +
∂qi ∂pi ∂qi ∂pi ∂pi ∂qi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi
2
∂F ∂ G ∂H ∂F ∂G ∂ H2 2
∂F ∂ G ∂H ∂F ∂G ∂ H 2
= + 2 − 2 − −
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂pi ∂qi ∂qi ∂pi
∂F ∂ 2 G ∂H ∂F ∂G ∂ 2 H ∂F ∂ 2 G ∂H ∂F ∂G ∂ 2 H
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2
Analogamente, encontra-se,
∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F ∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F
{G, {H, F }} = + − − .
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂p2i ∂pi ∂qi2 ∂pi ∂pi ∂qi ∂qi ∂pi
∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F ∂G ∂ 2 H ∂F ∂G ∂H ∂ 2 F
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2
e
∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G ∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G
{H, {F, G}} = + − − .
∂qi ∂pi ∂qi ∂pi ∂qi ∂qi ∂p2i ∂pi ∂qi2 ∂pi ∂pi ∂qi ∂qi ∂pi
∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G ∂H ∂ 2 F ∂G ∂H ∂F ∂ 2 G
− − + + .
∂qi ∂p2i ∂qi ∂qi ∂pi ∂pi ∂qi ∂pi ∂qi ∂pi ∂qi ∂pi ∂pi ∂qi2
Pelo fato de que há a simetria da soma e as derivadas parciais mistas de segunda ordem serem
iguais temos que os termos se anulam. Provando a Identidade de Jacobi.
x0 = y
Exemplo 5.1. O sistema não linear é um sistema hamiltoniano.
y 0 = x − x2
106
Precisamos encontrar a(x). Então, derivando (5.5) em relação a x, obtemos
∂H
0 + a0 (x) = (x, y).
∂x
Mas,
∂H
(x, y) = −g(x, y) = −x + x2 .
∂x
Então,
a0 (x) = −x + x2 .
Exemplo 5.2 (Oscilador Harmônico Simples). Consideraremos uma massa m amarrada a uma
mola. Pela Lei de Hooke, a força, F , que a mola exerce sobre a massa é proporcional a quantidade
x que a mola é esticada e ela é dirigida em sentido contrário ao esticamento, isto é, F = −kx. A
constante k > 0 é a constante de elasticidade da mola. Pela segunda lei de Newton temos
−k
x00 = x. (5.6)
m
1 2 k 2
H(x, y) = y + x .
2 m
107
Exemplo 5.3 (Oscilador linear). Este problema consiste em estudar um sistema mola-massa, sem
amortecimento e no qual uma força externa g(t) é aplicada. Assim, a equação do movimento é:
onde x ∈ R e f1 , g1 são funções reais diferenciáveis. O sistema é dito não linear se a função f1 é
não linear. Neste caso, a função Hamiltoniana é dada por
1
H(t, x, y) = y 2 + F (x) − g1 (t)x,
2
Denição 5.2. Uma integral primeira para o sistema (5.4) é uma função não constante F : W −→ R
de classe C ∞ que é constante ao longo das soluções de (5.4), ou seja,
d
F (t, ϕ(t, z)) = 0, ∀ t ≥ 0,
dt
H(x(t), y(t)) = h,
para todo t para o qual a solução é denida, onde h é uma constante chamada constante de energia.
Em outras palavras, a função Hamiltoniana é uma integral primeira.
Demonstração. Seja (x, y) uma solução do sistema hamiltoniano com função hamiltoniana H . En-
tão, pela regra da cadeia e pelas relações
∂H ∂H
f (x, y) = (x, y) e g(x, y) = − (x, y),
∂y ∂x
temos que
d ∂H ∂H
H(x(t), y(t)) = (x(t), y(t))x0 (t) + (x(t), y(t))y 0 (t)
dt ∂x ∂y
∂H ∂H ∂H ∂H
= (x(t), y(t)) (x(t), y(t)) − (x(t), y(t)) (x(t), y(t))
∂x ∂y ∂x ∂y
= 0.
d
Dessa forma, H(x(t), y(t)) = 0. Integrando, obtemos H(x(t), y(t)) = h.
dt
108
Assim, H é uma quantidade conservada ou uma constante do movimento. Neste caso, dizemos
que o sistema Hamiltoniano é conservativo. E dizemos que H representa a energia do sistema.
Dessa forma, o conjunto denido por
Σh = {(q, p) ∈ W/H(q, p) = h}
(i) F é uma integral primeira para (5.4) se, e somente se, {F, H} = 0;
Demonstração. (i) Denimos F ao longo das soluções por F (t) = F (ϕ(t, z)) = F (q(t), p(t)). Daí,
d(F (t)) ∂F ∂F
= q̇(t) + ṗ(t)
dt ∂q ∂p
∂F ∂H ∂F ∂H
= −
∂q ∂p ∂p ∂q
= {F, H}
109
Logo, F é uma integral primeira se, e somente se, {F, H} = 0.
(ii) Devemos mostrar que {{F, G}, H} = 0. Pela identidade de Jacobi, temos
Teorema 5.3. Se um sistema Hamiltomiano possui pontos de equilíbrio, eles não são fontes nem
semidouros.
x0 = ax + by,
y 0 = cx − ay,
onde
∂2H ∂2H ∂2H
a= (0, 0), b = (0, 0), c = − (0, 0).
∂x∂y ∂y 2 ∂x2
• Autovalores:
a−λ b
det = (a − λ)(−a − λ) − bc = −a2 − bc + λ2
c −a − λ
=⇒
p
λ = ± a2 + bc.
110
3. Se a2 + bc < 0, ambos os autovalores são imaginários e possuem a parte real nula.
Assim, o Hamiltoniano H é uma forma quadrática em z ∈ R2n com coecientes que são contínuos
em t ∈ I .
Quando S , logo H , é independente de t, verica-se que H é uma integral primeira para (5.8).
(i) A é Hamiltoniana;
(ii) A = JAT J ;
(iv) JA é simétrica.
AT J + JA = 0.
Assim,
JA = −AT J =⇒ A = JAT J;
111
pois J −1 = −J.
RT = J T A
= J T JAT J
= AT J
= R,
JA = (JA)T
= AT J T
= −AT J.
Assim, AT J + JA = 0.
Proposição 5.4. O polinômio característico de uma matriz Hamiltoniana é uma função par.
112
Dessa forma,
Assim P (λ) em (5.9) só contém potências pares de λ. Portanto, se esta tem uma raiz do tipo
λ1 = µ + iβ ela terá necessariamente, a raiz λ2 = −µ − iβ . E se λ = 0 for um autovalor ele
terá multiplicidade par. Por outro lado, desde que A é uma matriz com coecientes reais então λ̄
também será um autovalor de A então também serão: λ, λ̄, −λ̄.
(i)
(ii)
113
(iii)
(A + B)T J + J(A + B) = AT J + B T J + JA + JB
= (AT J + JA) + (B T J + JB)
=0+0
= 0.
[A, B] = AB − BA
= JRJS − JSJR
= J(RJS − SJR).
P T = (RJS − SJR)T
= S T J T RT − RT J T S T
= −SJR + RJS
= P.
Este teorema nos garante que sp(n, R) = {A ∈ Mn×n (R)/A é Hamiltoniana} é uma Álgebra de
Lie.3 Veremos agora condições para que uma matriz seja Hamiltoniana.
a b
Proposição 5.5. A matriz A = ∈ M2n×2n (R) é Hamiltoniana se, e somente se, aT + d =
c d
0, b e c são simétricas.
aT bT
a b
Demonstração. Se A = ∈ M2n×2n (R) então AT = ∈ M2n×2n (R).
c d cT dT
Dessa forma,
0 I a b c d
JA = =
−I 0 c d −a −b
3
Uma álgebra de Lie é uma estrutura algébrica cujo principal uso está no estudo dos grupos de Lie e das variedades
diferenciáveis. As álgebras de Lie foram introduzidas como ferramenta para o estudo das rotação innitesimais. O
termo "Álgebra de Lie"é uma referência a Sophus Lie, e foi cunhado pelo matemático Hermann Weyl na década de
1930.
114
e
aT bT −cT aT
T 0 I
A J= = .
cT dT −I 0 −dT bT
115
Capítulo 6
A Teoria de Lyapunov, iniciada com os métodos desenvolvidos pelo matemático russo Aleksandr
Mikhailovich Lyapunov (1857-1918), nos permite comprovar a estabilidade global de um ponto de
equilíbrio de um sistema de equações diferenciais autônomo. Para tal precisamos construir uma
função de Lyapunov. Entretanto, encontrar uma função de Lyapunov pode ser exaustivo visto que
não existe um método geral para encontrá-la.
Denição 6.1. Dizemos que um ponto de equilíbrio x0 é estável se, para todo > 0, existe um
δ > 0 (δ depende de ) tal que
116
Analisando a denição concluímos que se o ponto de equilíbrio for estável implica que a trajetória
não se fastará do ponto de equilíbrio mas não precisa retornar ao mesmo.
Denição 6.2. Dizemos que um ponto de equilíbrio x0 é assintoticamente estável se for estável e
existir um δ > 0 tal que
Observação 6.1. Dizemos que um ponto de equilíbrio é instável se o ponto não é estável.
Exemplo 6.1. Encontramos no Pêndulo dois pontos de equilíbrio onde um deles é instável e o
outro, a depender da situação, é estável ou assintoticamente estável.
Consideremos um pêndulo simples mas sujeito a uma força de atrito. Seja θ o ângulo entre a
barra l do pêndulo e o eixo vertical, conforme a imagem (6.1).
Se o pêndulo for ligeiramente afastado do seu estado inicial θ = 0 e se existir uma força de atrito
no sistema, observa-se que a amplitude de seu movimento diminui até retornar ao seu estado inicial
(θ = 0) com isso vemos que θ = 0 é um ponto de equilíbrio assintoticamente estável, pois a partir
de qualquer condição inicial sucientemente próxima de θ = 0 a solução tende ao ponto (θ = 0)
com o passar do tempo.
117
Agora consideremos um pêndulo simples sem atrito. Nesse obtemos ponto de equilíbrio estável.
Se não há atrito, a energia fornecida é preservada e portanto quando o pêndulo é ligeiramente afas-
tado do ponto de equilíbrio θ = 0, ele permanecerá oscilando em torno desse ponto indenidamente.
Assim, para t → ∞, o pêndulo, em média, nem se afasta nem se aproxima do ponto de equilíbrio.
Em outras palavras, além da estabilidade, toda solução tende para o ponto de equilíbrio x0 .
Exemplo 6.2. Pra sistemas bidimensionais, cada centro é estável. Em qualquer dimensão, semi-
douros são assintoticamente estáveis, enquanto fontes e pontos de sela são instáveis.
118
6.2 Método de Lyapunov
0
x1 = f1 (x1 , x2 , ..., xn ),
x0 = f2 (x1 , x2 , ..., xn ),
2
..
.
x0n = fn (x1 , x2 , ..., xn ).
Considere a função real V (x1 , x2 , ..., xn ) denida numa vizinhança U de (x01 , x02 , ..., x0n ) dife-
renciável com relação a x1 , x2 , ..., xn e dena a função
∂V ∂V
V̇ (x1 , x2 , ..., xn ) = (x1 , x2 , ..., xn )x01 + ... + (x1 , x2 , ..., xn )x0n .
∂x1 ∂xn
Observe que
d
V̇ (x1 (t), ..., xn (t)) = V (x1 (t), ..., xn (t)).
dt
• Se V̇ (x(t), y(t)) < 0 então V diminui ao longo das trajetórias-solução que cruzarão as curvas
V (x, y) = c (constante) em direção ao ponto de equilíbrio.
• Se V̇ (x(t), y(t)) > 0 então V aumenta ao longo das trajetórias-solução que cruzarão as curvas
V (x, y) = c (constante) para longe do ponto de equilíbrio.
Denição 6.4. Seja x0 um ponto de equilíbrio para (6.1). Uma Função de Lyapunov para x0 é uma
função V : U → R diferenciável denida num aberto U 3 x0 , satisfazendo às seguintes condições:
119
2. V̇ ≤ 0 em U ;
y 0 = x3 ,
Já que,
∂H −1 4
= −y 3 =⇒ H = y + C1 (x)
∂y 4
e
∂H
= C10 (x) =⇒ C10 (x) = −x3
∂x
1 1
C1 (x) = − x4 + C2 =⇒ H(x, y) = − (x4 + y 4 ) + C2
4 4
Note que,
V (x, y) = x4 + y 4
De fato, V é contínua com derivadas parciais contínuas, V (0, 0) = 0 e V (x, y) > 0 para todo
(x, y) no plano exceto o (0, 0).
Assim,
V̇ (x, y) = ∂V 0 ∂V
(x, y)y 0
∂x (x, y)x + ∂y
120
Implica que,
V̇ (x, y) = 4x3 x0 + 4y 3 y 0
= −4x3 y 3 + 4y 3 x3
= 0, ∀(x, y) ∈ R2 .
Demonstração.
Teorema 6.1. (Critério de Lyapunov) Seja x0 um ponto de equilíbrio de (6.1). Se existe uma
Função de Lyapunov V : U → R para x0 , então x0 é estável. Se existe uma função de Lyapunov
estrita então é assintoticamente estável.
Demonstração. Dado > 0 vamos mostrar que existe δ() > 0 tal que
Br (x0 ) ⊂ U.
Sem perda de generalidade, (já que podemos diminuir um pouco o valor de r) vamos supor que,
a bola fechada B̄r (x0 ) está totalmente contida em U . Dena a hiper-esfera Er por
Er = {x ∈ U ; ||x − x0 || = r}
121
e note que
B̄r (x0 ) = Er ∪ Br (x0 ).
Além disso, observe que Er é um conjunto compacto. Lembre que toda função contínua quando
restrita a um compacto possui máximo e mínimo (ver [12]). Seja
• Se α fosse nulo, então V (xi ) seria nulo, para algum xi ∈ Er . Como V (x) se anula somente na
origem e Er não intercepta a origem, então apenas podemos ter α > 0.
Para mostrar isso, precisamos mostrar que Ωβ não pode conter nenhum ponto de Er . Assuma,
por absurdo, que x1 ∈ Ωβ com x1 ∈ Er . Então, por (6.2), segue que
V (x1 ) ≥ α > β,
• Como V̇ (x) ≤ 0, então V (x(t)) é não crescente e portanto ca sempre inferior ou igual a β .
• Se ψ(t) saísse de Br (x0 ) seria necessário, por continuidade, que ||ψ(t) − x0 || = r para algum
t ≥ t0 . Neste caso, como já mostramos que ψ(t) ∈ Er implica que V (x) ≥ α > β , contrariando o
fato de que V (ψ(t)) é não crescente. Ou, equivalentemente, temos
V (x) − V (x0 ) ψ(t) − ψ(t0 )
V̇ (t) = lim . > 0.
x→x0 ψ(t) − x0 t − t0
122
• Pela Proposição 6.1, vemos que a solução ca denida para todo t, já que Ωβ é compacto e
invariante.
Com efeito, como V (x) é contínua em x0 , existe δ1 > 0 (que depende de β ) tal que
Como V (x0 ) = 0 o lado direito da última implicação pode ser reescrito como
|V (x)| < β.
Seja δ = min{δ1 , r}, note que, x0 ∈ Bδ (x0 ). Por (6.3) e (6.4) temos que x0 ∈ Ωβ . Pela invariância
obtemos ψ(t) ∈ Ωβ , e por (6.4) concluímos que ψ(t) ∈ Br (x0 ) ⊂ B (x0 ). Assim,
kψ(t) − x0 k < .
Agora, precisamos mostrar o caso do ponto de equilíbrio assintoticamente estável. Pelo que foi
demonstrado acima, temos que x0 é um ponto de equilíbrio estável. Logo, dado > 0 existe δ > 0,
tal que, se ||x − x0 || < δ então ||ψt (x) − x0 || < . Provemos que se ||x − x0 || < δ então ψt (x) → x0
quando t → ∞. Sabemos que V (x) > 0 e que V (ψt (x)) é estritamente decrescente, por hipótese.
Logo, existe lim V (ψt (x)) = a ≥ 0., V (ψt (x)) pois é uma sequencia monótona e limitada.
t→∞
123
Note que o sistema (6.5) possui P0 = (0, 0, 0) como ponto de equilíbrio. Inicialmente, vamos
linearizar o sistema no ponto de equilíbrio P0 . Daí,
−λ −2 0
p(λ) = 1 −λ 0 = −λ · (λ2 + 2).
0 0 −λ
√ √
Donde obtemos os autovalores da matriz A λ1 = 0, λ2 = i 2 e λ3 = −i 2. Consequentemente,
P0 não é um ponto de equilíbrio hiperbólico, haja vista que os autovalores obtidos são imaginários
puros ou o autovalor nulo.
Dena
V : Ω ⊂ R3 → R
,
(x, y, z) 7→ V (x, y, x) = ax2 + by 2 + cz 2
1. V é contínua para todo (x, y, z) ∈ R3 e em particular próximo a P0 . Com efeito, dado ε > 0,
existe δ = |a|+|b|+|c| > 0, tal que
q
ε
∂V
2. são contínuas, i = 1, 2, 3.
∂xi
124
centro na origem. De fato,
V (x, y, z) = k
⇐⇒ ax2
+ by 2 + cz 2 = k
x 2 y 2 z2
⇐⇒ r !2 + r !2 + r !2 = 1.
k k k
a b c
Exemplo 6.5. Sabemos que a equação que descreve o movimento do pêndulo harmônico é dada
por:
−g
ψ 00 = sin ψ, (6.6)
L
onde L é o comprimento da haste, ψ é o ângulo com a vertical e g é a aceleração da gravidade.
ψ 0 = θ,
(
−g
θ0 = sin ψ,
L
tal sistema possui innitas soluções de equilíbrio, representadas por todos os pontos da forma
125
Para facilitar, comecemos analisando o ponto (0, 0).
1o - Linearização " #
0 1
A= −g (6.7)
0
L
2o - Hamiltoniano
Considere, (
f (x, y) = θ,
−g
g(x, y) = sin ψ,
L
onde,
" g #
0 1 sin ψ
Ż = L .
−1 0 θ
H : A ⊂ R2 → R
θ2 g
(ψ, θ) 7→ H(ψ, θ) = − cos ψ + C1 + C2 .
4 L
−g
Vamos encontrar a constante C = C1 + C2 . Se 0 = H(0, 0) = + C (já que o Hamiltoniano é
L
g
uma integral primeira), então, C = C1 + C2 = ,
L
Com isso, temos que
θ2 g g
H(ψ, θ) = − cos ψ + .
4 L L
Precisamos, neste caso, vericar esta constante para que a função Hamiltoniana seja uma função de
−g
Lyapunov. Caso contrário, teríamos H(0, 0) = V (0, 0) = .
L
126
Consequentemente, uma candidata possível para a função de Lyapunov é
1 g g
V (ψ, θ) = θ2 − cos ψ + .
4 L L
Com efeito, V é contínua, possui derivadas parciais contínuas, V (0, 0) = 0 e V (ψ, θ) > 0 para
qualquer valor de θ e para qualquer valor de ψ no intervalo (−π, π), exceto o 0.
Além disso,
1 g g 1 g g 1
V (ψ, θ) = θ2 − cos ψ + > θ2 − (1) + = θ2 > 0,
4 L L 4 L L 4
pois nesse momento estamos tomando (ψ, θ) 6= (0, 0). Como o Hamiltoniano é uma integral primeira
e V = H então,
V̇ (ψ, θ) = 0,
O mesmo argumento se aplica a quaisquer pontos de equilíbrio da forma (ψ, θ) = (2nπ, 0) onde
n é um inteiro. Para (2π, 0), por exemplo, V (2π, 0) = 0, V (ψ, θ) > 0 para qualquer valor de θ e
para qualquer valor de ψ no intervalo (π, 3π) exceto 2π e V (ψ, θ) = 0. Assim todos os pontos de
equilíbrio da forma (2nπ, 0), com n ∈ Z são centros.
127
Apêndice A
Apêndice
Este capítulo preliminar tem com objetivo rever conceitos e resultados relevantes ao desenvol-
vimento teórico dos capítulos anteriores. Revisaremos itens teóricos presentes em Álgebra Linear,
Análise Matemática e Espaços Métricos. Mais detalhes sobre estes temas se encontram nas referên-
cias(Ver [3], [7], [8], [9]).
Denição A.1. Um espaço Vetorial E sobre um corpo F é um conjunto cujos elementos podem ser
somados e multiplicados por elementos de F. Tais operações gozam das seguintes propriedadades:
A1. x + y ∈ E (fechamento)
A2. x + (y + z) = (x + y) + z (associatividade)
A3. x + y = y + x (comutatividade)
M1. λx ∈ E (fechamento)
128
M5. 1 · x = x (regra da unidade)
+: Rn × Rn → Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) 7→ (x1 + y1 , . . . , xn + yn )
·: R × Rn → Rn
(λ, (x1 , . . . , xn )) 7→ (λ · x1 , . . . , λ · xn )
+: F ×F → F
(f, g) 7→ f (x) + g(x)
·: R×F → F
(λ, f ) 7→ λ · f (x)
é um espaço vetorial.
Denição A.3. Seja S 6= ∅. Uma função f : S → R é dita limitada quando existe c > 0 tal que
|f (x)| ≤ c para todo x ∈ R.
Denição A.4. Seja E um espaço vetorial sobre um corpo F. Uma norma em E é uma aplicação
k · k : E → [0, ∞) satisfazendo as seguintes propriedades:
129
Exemplo A.4. O espaço vetorial R sobre o corpo R. A aplicação | · | : R → [0, ∞) denida por
|x| = max{x, −x} é uma norma em R.
Exemplo A.5. Dado f ∈ B(S; R) denamos kf k = sup |f (x)|. Dessa forma, B(S; R) é um espaço
x∈S
vetorial normado. Vejamos, sejam f, g ∈ B(S, R) e λ ∈ R:
ii. k(λ · f )k = sup |(λ · f )(x)| = sup |λ · f (x)| = |λ| · sup |f (x)| = |λ| · kf k;
x∈S x∈S x∈S
iii. Para a demonstração desse item, usaremos a desigualdade triangular para números reais e as
propriedades do supremo de um conjunto.
Exemplo A.6. O espaço vetorial Rn sobre o corpo R. Dado x ∈ Rn , as expressões abaixo são
chamadas de norma da soma e do máximo:
n
X
kxkS = |xi |
i=1
n
i. Se x 6= 0, então xi 6= 0 para algum 1 ≤ i ≤ n. Daí, kxkS = |xi | > 0.
X
i=1
n n
ii. kλ · xkS =
X X
|λ · xi | = |λ| |xi | = |λ|kxkS
i=1 i=1
130
iii. Para demonstração desse item, usaremos a desigualdade triangular, isto é, para quaisquer
n
x, y ∈ R tem-se |x + y| ≤ |x| + |y|. Por denição, temos kx + ykS = |xi + yi |. Daí,
X
i=1
Denição A.5. Seja E um espaço vetorial sobre um corpo F. Um produto interno em E é uma
aplicação h·, ·i : E × E → F satisfazendo as seguintes propriedades:
Lema A.1. (Desigualdade de Cauchy-Schwarz). Seja E um espaço vetorial real com produto in-
terno. Então
|hx, yi| ≤ kxk · kyk,
para quaisquer x, y ∈ E .
131
Demonstração. Consideremos x, y ∈ E . Se x = 0 ou y = 0 o lema é válido. Notemos ainda que
para quaisquer x, y ∈ E , com x 6= 0, tem-se:
hx, yi2
hx, yi hx, yi hx, yi
y− x, y − x ≥ 0 ⇒ hy, yi − 2 hx, yi + hx, xi ≥ 0 ⇒
kxk2 kxk2 kxk2 kxk4
hx, yi2
kyk2 − ≥ 0 ⇒ hx, yi2 ≤ kxk2 · kyk2 ⇒ |hx, yi| ≤ kxk · kyk,
kxk2
e isto conclui a demonstração do lema.
kxkE = x2i
i=1
De fato, sejam x, y ∈ Rn e λ ∈ R.
n
!1
2
n
!1 n
!1 n
!1
2 2 2
ii. kλxkE =
X X X
(λ · xi )2 = (λ · xi )2 = |λ| (xi )2 = |λ|kxkE
i=1 i=1 i=1
iii. Para demonstração desse item, usaremos o lema 1.1. Usando a denição da norma k · kE ,
temos:
n
X
kx + yk2E = (xi + yi )2
i=1
n
X n
X n
X
= x2i +2 xi yi + yi2
i=1 i=1 i=1
= kxk2E + 2hx, yi + 2
kykE
≤ kxk2E + 2kxkE · kykE + kyk2E
= (kxkE + kykE )2
132
Denição A.6. Duas normas arbitrárias k·k1 e k·k2 são ditas equivalentes em Rn quando existirem
constantes c1 , c2 > 0 tais que:
Proposição A.1. Seja Rn um espaço vetorial sobre R. As normas do máximo, da soma e euclidiana
são equivalentes, isto é, kxkM ≤ kxk ≤ kxkS ≤ n · kxkM , ∀x ∈ Rn .
n
X n
X 2
2
kxk = x2i = 2
|xi | ≥ max |xi | = kxk2M ⇒ kxk ≥ kxkM
1≤i≤n
i=1 i=1
Denição A.7. (Métrica). Seja X um conjunto não vazio. Uma métrica do conjunto X é uma
função d : X × X → [0, ∞), que associa a cada par ordenado de elementos x, y ∈ X um número real
d(x, y), chamado a distância de x a y, de modo que sejam satisfeitas as seguintes condições para
quaisquer x, y, z ∈ X :
i) d(x, y) ≥ 0 e d(x, y) = 0 ⇔ x = y ;
Denição A.8. (Espaço Métrico) O par (X, d), onde X é um conjunto e d uma métrica em X ,
será chamado de espaço métrico
133
Exemplo A.8. Seja X um conjunto qualquer. Tal conjunto pode torna-se um espaço métrico se
considerarmos a métrica zero-um, isto é, a função d : X × X → R denida por
0 se x = y
d(x, y) =
1 se x 6= y
Nota-se que as propriedades (i) e (ii) são claramente satisfeitas. Com efeito:
i) Temos que d é não negativo, uma vez que se x 6= y temos d(x, y) = 1 e se x = y e temos
também que d(x, y) = 0. E ainda se d(x, y) = 0 ⇔ x = y ;
iii ) Para mostrar que d satisfaz também a propriedade (iii), observamos que se x = y , então
evidentimente d(x, z) = 0 6 d(x, y) + d(y, z). Se x 6= y , caso em que d(x, y) = 1, então não pode
ocorrer x = y e y = z simultaneamente, isto é, devemos ter x 6= y ou y 6= z e assim
Exemplo A.9. O espaço vetorial normando Rn é um espaço métrico com relação as métricas:
i. d(x, y) = kx − yk
Uma maneira simples e muito importante de obter espaços métricos é considerar um subconjunto
de um espaço métrico e tomar como distância entre seus pontos a mesma do espaço original. Noutras
palavras, se X é um espaço métrico com a métrica d : X × X → R e Y ⊂ X então a restrição
d|Y ×Y : Y × Y → R é uma métrica em Y e d será chamada de métrica induzida.
134
A.3 Bolas em espaços métricos
B1. Chamaremos de bola aberta de centro a e raio r ao conjunto B(a; r) = {x ∈ M ; d(a, x) < r}.
Diremos que A é um conjunto aberto em M quando todo ponto de A for ponto interior de A. O
conjunto de todos os pontos interiores de A será chamado interior de A, o qual denotaremos de
int A. Um conjunto A é aberto se A = int A.
λ∈L
135
conjunto aberto em M diremos que C é uma cobertura aberta de A. Se existir L0 ⊂ L tal que
Cλ diremos que C 0 = {Cλ }λ∈L0 é uma subcobertura de C para A.
[
A⊂
λ∈L0
Denição A.14. Um subconjunto K de um espaço métrico M será dito compacto quando toda
cobertura aberta de K possuir uma subcobertura nita.
Denição A.15. (Sequência de Cauchy, Espaço Completo). Uma sequência {xn }n∈N em um espaço
métrico (M ; d) é dita de Cauchy se para todo ε > 0 existir N = N (ε) ∈ N tal que
O espaço M é dito completo se toda sequência de Cauchy em M converge para um elemento de M .Um
espaço vetorial normado cuja métrica induzida o torna um espaço métrico completo é chamado de
espaço de Banach, como também se um espaço vetorial munido de um produto interno cuja norma
obtida o classica como espaço de Banach,é chamado de espaço de Hilbert.
Proposição A.2. Um subespaço fechado de um espaço métrico completo é completo.
Proposição A.3. O produto cartesiano M × N é completo se, e somente se, M e N são completos.
136
Proposição A.4. Sejam M, N espaços vetoriais normados. Se f : M → N é uma aplicação
lipschitziana então f é contínua.
Com efeito, sendo f uma aplicação lipschitziana, existe uma constante c > 0 tal que
ε
Daí, dado ε > 0, existe δ = > 0 tal que
c
dM (x, y) < δ ⇒ dN (f (x), f (y)) ≤ c · dM (x, y) < c · δ = ε.
Portanto, f é contínua em M .
Temos que, f é contínua no ponto a ∈ X quando, para todo > 0 dado arbitrariamente,
pode-se obter δ = δ() > 0 tal que x ∈ X e kx − ak < δ impliquem kf (x) − f (a)k < . Em outras
palavras, f é contínua no ponto a signica que:
ϕ : [0, 2π] −→ S 1
t 7→ ϕ(t) = (cos t, sin t)
137
Como as funções seno e cosseno são contínuas em todo R, em particular nos intervalos [t1 , t2 ], (t1 , t2 ),
respectivamente (sem perda de generalidade t1 < t2 ). Assim, pelo Teorema do Valor Médio,
∃ t̄ e t̄¯ ∈ (t1 , t2 );
| cos t2 − cos t1 | = | − sin(t̄)| · |(t2 − t1 )|;
Assim,
138
i) x for uma cota inferior de X ;
1
Exemplo A.12. O número 0 é um ponto aderente à X = ∈ N , pois ⊂ X e lim
1 1
n; n n n→∞ n
=0
A=X ∪Y e X ∩Y =Y ∩X =∅
Exemplo A.16. Seja X = R\{0}, ((−∞, 0)|(0, ∞)) é uma cisão para X, não trivial.
Além disso,
(−∞, 0) ∩ (0, ∞) = (−∞, 0) ∩ [0, ∞) = ∅
Exemplo A.17. Seja X = [1, 3], ([1, 2]|(2, 3]) não é uma cisão para X.
139
Exemplo A.18. R\{0} é desconexo.
seja limitado, isto é, que exista uma constante k > 0 tal que x, y ∈ X, x 6= y ⇒
| f (y) − f (x) |
≤ k.
|y−x|
Veja que |f (x) − f (y)| = |ax + b − (ay + b)| = |a(x − y)| = |a||x − y|, ∀ x, y ∈ R. Temos que f é
Lipschitizina com constante k =| a |.
T : Rm −→ Rn
x 7→ T (x)
é Lipschitziana.
Então, para x, y ∈ Rm e k = max{||T (e1 )||, ..., ||T (em )||} temos
140
||T (x) − T (y)|| = ||(x1 − y1 )T (e1 ) + ... + (xm − ym )T (em )||
≤ k(x1 − y1 )T (e1 )k + ... + k(xm − ym )T (em )k
= |(x1 − y1 )|kT (e1 )k + ... + |(xm − ym )|kT (em )k
= |(x1 − y1 )|k + ... + |(xm − ym )|k
= k(|x1 − y1 | + ... + |xm − ym |)
≤ kkx − ykM
Portanto, T é Lipschitziana.
141
E, portanto, f é convexa.
Denição A.30. (Contração) Sejam (X, d) e (Y, d) espaços métricos. Uma função f : X → Y é
uma contração, se existir uma constante positiva 0 < k < 1 tal que
d(f (x), f (y)) 6 k · d(x, y)
para quaisquer x, y ∈ X .
Observação A.1. Temos que uma contração é uma função de Lipschitz com constante 0 < k < 1.
Denição A.31. (Ponto Fixo) Se f é uma função f : S −→ S , um ponto xo de f é todo ponto
x∗ ∈ S; f (x∗ ) = x∗ . Em outras palavras, ponto que não é alterado por uma aplicação.
Exemplo A.22. Toda aplicação linear possui um ponto xo trivial, o vetor nulo.
e
φ(1) = f (1) − 1 ≤ 0;
e pelo Teorema do Valor Intermediário, existe x ∈ [0, 1] tal que φ(x) = 0, isto é, f (x) = x.
Observação A.2. Temos que, nem toda função f : X → X possui ponto xo. Por outro lado,
temos a função identidade i : X → X , onde todo ponto de X é um ponto xo. Temos também a
função f : R → R dada por f (x) = x2 , que possui dois pontos xos: 0 e 1.
Uma sequência de Cauchy em um espaço métrico (X, d) é denida de maneira análoga à denição
no contexto da reta. Dizemos que uma sequência (xn ) de números reais é de Cauchy se, dado > 0,
existe um inteiro positivo n0 = n() tal que
m, n > n0 ⇒ |xm − xn | <
142
Denição A.32. (Sequência de Cauchy) Uma sequência (xn ) em um espaço métrico (X, d) é
dita uma sequência de Cauchy se, para cada > 0, existe n0 = n() tal que
Pela denição, notamos que em uma sequência de Cauchy os termos com índices sucientemente
grandes estão arbitrariamente próximos. Deste modo, é natural intuir que toda sequência conver-
gente é de Cauchy, o que de fato ocorre e é garantido pelo teorema a seguir.
Denição A.33. (Espaço métrico completo) Um espaço métrico (X; d) é dito completo se
toda sequência de Cauchy em X converge.
Exemplo A.24. O espaço Q dos números racionais não é completo, pois se considerarmos a sequên-
√ √
cia (xn ) de racionais (1; 1, 4; 1, 41; 1, 414; ...) que é de Cauchy com lim xn = 2, 2 ∈/ Q e portanto,
Q não é completo.
Demonstração. Seja (xn ) uma sequência convergente, com xn → x. Isto signica que, dado > 0,
podemos encontrar n0 ∈ N tal que:
n > n0 ⇒ d(xn , x) <
2
F = {f ; f : X → R}
Notação: (fn )
143
Exemplo A.25.
i) fn (x) = xn
Considerando uma sequência (fn ) = (f1 , f2 , ...) em F , podemos denir dois tipos de convergên-
cia.
Denição A.35. (Convergência Pontual) Uma sequência de funções (fn ) ⊂ F converge pon-
tualmente, ou simplesmente, para a função f : X → R se dados > 0; x ∈ X, existe n0 = n(x; )
tal que
n > n0 ⇒ |fn (x) − f (x)| < .
Além disso, (fn ) converge uniformemente para a função nula pois ∀ > 0, ∃ N tal que N > 1 .
|fn (x) − 0| = nx = x 1
n ≤ n <
Exemplo A.27.
fn (x) = xn , I = [0, 1]
144
Temos que fn converge para f pontualmente onde
(
0, 0 ≤ x < 1
f (x) =
1, x = 1
Mas fn não converge uniformemente.
Demonstração. Supondo inicialmente que fn → f uniformemente, por denição, seja qual for > 0,
existe n0 tal que n > n0 ⇒ |fn (x)−f (x)| < 2 , para todo x ∈ X. Daí, tomando m, n > n0 e utilizando
a desigualdade triangular, obtemos:
|fm (x) − fn (x)| =|fm (x) + f (x) − f (x) − fn (x)|
≤|fm (x) − f (x)| + |fn (x) − f (x)| (A.1)
< + = .
2 2
Assim, fazendo uso das desigualdades (A.2), (A.3) e da desigualdade triangular, obtemos, para
x ∈ X; |x − a| < δm :
145
A.8.3 O Espaço C[a, b] de funções contínuas
Na presente seção, discutiremos algumas propriedades do espaço métrico C[a, b], que consiste no
conjunto de todas as funções reais contínuas denidas no intervalo I = [a, b] ⊂ R. Dados f, g ∈ C[I],
considere
kf − gk∞ := supx∈I |f (x) − g(x)|.
Como [a, b] é um conjunto fechado e limitado, todas as funções de C[a, b] assumem o máximo e
o mínimo. Agora, provaremos que C[a, b] é um espaço métrico completo.
Teorema A.4. O espaço de funções contínuas (C[a, b], kk∞ ) é um espaço métrico completo.
Demonstração. A priori, vamos vericar que kk∞ é uma métrica em C[a, b].
Sejam f, g ∈ C[a, b] :
De fato, supondo que f 6= g, existiria x0 ∈ [a; b] tal que f (x0 ) 6= g(x0 ). Ora,
146
Logo (C[a, b], kk) é um espaço métrico.
Seja (fn ) uma sequência de Cauchy em C[a, b]. Para todo > 0 existe n0 tal que
Isso mostra que a sequência de funções (fn ) é uma sequência de Cauchy. Pelo Teorema (A.2),
fn → f (f : I → R) uniformemente e, desde que cada fn : I → R é contínua, o Teorema (A.3)
garante que f também é contínua, ou seja, f ∈ C[a, b]. Devemos mostrar que fn → f na métrica
kk∞ . De fato, como todas as funções envolvidas na desigualdade (A.6) são contínuas e ela é válida
para todo x ∈ I e m, n > n0 , podemos tomar o limite quando n → ∞, aplicar o máximo e assim
obter:
lim |fn (x) − f (x)| ≤ ⇒|fn (x) − f (x)| ≤
n→∞
⇒supx∈I |fn (x) − f (x)| ≤ (A.7)
⇒kfn − f k∞ ≤ .
Exemplo A.28. Todo espaço vetorial normado (E, k · k) torna-se um espaço métrico por meio da
denição d(x, y) = kx − yk. Esta métrica diz-se proveniente da norma k · k.
Denição A.37. (Espaço Eucliano) Um espaço munido com produto interno sobre R é chamado
Espaço Euclidiano.
+ : (R × E) × (R × E) −→ (R × E)
0
((t, ~x), (t , ~y )) 7→ (t, ~x) + (t , ~y ) = (t + t0 , ~x + ~y )
0
· : (R × (R × E)) −→ (R × E)
((λ, (t, ~x)) 7→ λ(t, ~x) = (λt, (λx1 ..., λxn ))
147
é um espaço vetorial.1 Em geral, denotamos tal espaço, na forma (R × E, +, ·).
Proposição A.5. Dado um vetor v ∈ Rn com v = (x1 , ..., xn ). Considere as seguintes normas:
i) iii) ii)
kxkM ≤ kxkE ≤ kxkS ≤ nkxkM
Com efeito, como kxkE = x21 + ... + x2n ≥ |xi | para cada i com i = 1, ..., n, temos que,
p
ii)kxkS ≤ nkxkM
kxkS = |x1 | + ... + |xn | ≤ |xi | + ... + |xi | ≤ n|xi | = nkxkM ⇒ kxkS ≤ nkxkM
148
kxk2S = (|x1 | + ... + |xn |)2
n
X
2 2
= |x1 | + ... + |xn | + 2 |xi ||xj |
i,j=1;i<j
Portanto,
kxkM ≤ kxkE ≤ kxkS ≤ nkxkM
Observação A.3. Como provamos a proposição (A.5), vamos usar naturalmente a notação k · k
para norma de um vetor, quando não houver ambiguidade.
149
n p o n p o
kλ~uk = max | λt |, (λx1 )2 + ... + (λxn )2 = max |λ||t|, |λ| (x1 )2 + ... + (xn )2
ku + vk = max {|t + t0 |, max {|x1 + y1 |, ..., |xn + yn |}} onde u = (x1 , ..., xn ) e v = (y1 , ..., yn ).
Se kuk = |t|, kvk = |t0 | onde kuk = max {|t|, kxkM } temos duas possibilidades:
k · kq : Rn −→ R
~x 7→ k~xkq
Provemos que
k · kq ' (k · kS ' k · kE ' k · kM )
k · k q ≥ C1 k · k S
k · k S ≥ C2 k · k q
Considere β = {u1 , u2 , ..., un } uma base qualquer do Rn . Então existem α1 , α2 , ..., αn ∈ R tais
que dado x ∈ Rn tem-se x = α1 u1 + ... + αn un .
150
Suponha que K = max{ku1 kq , ku2 kq , ..., kun kq } > 0. Note que,
kxkq = kα1 u1 + ... + αn un k
≤ |α1 |ku1 k + ... + |αn |kun k
≤ K|α1 | + ... + K|αn |
≤ K(|α1 | + ... + |αn |)
F = {kxkq ∈ R / kxkS = 1; x ∈ Rn }
Note que,
i) F 6= ∅, pois
kei kS = 1; ei ∈ Rn
kxkq ≤ M kxkE = M · 1 = M
Sendo assim, como F 6= ∅ e limitada podemos armar que F é completo, de forma que admite
um ínmo e um supremo.
Como F é limitado, (xk )k∈N é limitado com relação a norma da soma. Pelo teorema de Bolzano
Weierstrass, (xk )k∈N admite uma subsequencia convergente, isto é, ∃ N1 ⊂ N e c ∈ R;
151
pois 0 ≤ |kxk kS − kckS | ≤ kxk − ck
Porém,
0 ≤ kxk − ckq ≤ M kxk − ckS
lim kxk kq = 0
k−→∞
Pela unicidade do limite, temos que kckq = 0 ⇐⇒ c = 0Rn =⇒ kckS = 0, o que é um absurdo
pois kckS = 1. O absurdo advém do fato de admitirmos que L = inf F = 0. Portanto, L>0. Deste
modo, 0 < L ≤ kxkq para qualquer x 6= ~0 e x ∈ Rn .
pois kvkS = 1.
x
1
0 < L ≤ kvkq =⇒ L ≤
kxkS
=⇒ LkxkS ≤ kxkq =⇒ kxkS ≤ L kxkq
Conclui-se que
k · k q ' k · kS
152
Denição A.40. (Conjunto compacto) Seja M um espaço métrico. Um conjunto K ⊂ M é
dito compacto se para toda união de conjuntos abertos λ Bλ contendo K (também chamada de
S
cobertura aberta de K ) podemos extrair uma subcoleção nita Bλ1 , ..., Bλn tal que nj=1 Bλj ⊃ K.
S
Suscintamente, dizemos que um conjunto K é compacto se, e somente se, toda cobertura de abertos
de K admite uma subcobertura nita.
Note que A = {(n, n+2); n ∈ Z} é uma cobertura aberta da reta R, mas A não contém nenhuma
subcoleção nita que seja cobertura de R.
Caso I for todo R, segue que (fn ) não é uniformemente limitado, pois do contrário, fn fosse
uniformemente limitada, teríamos que existiria M ≥ 0 tal que
153
Demonstração. Demonstração em [13].
154
Referências Bibliográcas
[3] BRAUER, F.; NOHEL, J.A Ordinary Dierential Equations: A First Course, W. A.
Benjamin, INC, New York, 1967.
[4] BUENO, Hamilton Prado Alebra Linear - Um segundo Curso. Coleção textos Univer-
sitários. Rio de Janeiro: Editora da Sociedade Brasileira de Matemática, (2006).
[5] DIACU, F., Introdução a Equações Diferenciais, Teoria e Aplicações. Rio de Janeiro:
LTC, 2004.
155
[12] LIMA, E. L.; Curso de Análise, vol. 1. Coleção Projeto Euclides, IMPA, 1976.
[13] LIMA, E.L. Espaços Métricos, Projeto Euclides, IMPA, Rio de Janeiro, 1997.
[16] POINCARÉ, H. Mémoire sur les Courbes Dénies par une Équation Dierentielle.
Journal de Mathématiques pures et appliquées, 1881.
156