Você está na página 1de 20

Análise Matemática IV - 2018/19

Hugo Tavares
hrtavares@fc.ul.pt
Faculdade de Ciências da Universidade de Lisboa

2 Sistemas de Equações Diferenciais


Pré-requisitos aconselhados: Conhecer (sem demonstração) o teorema de existência
e unicidade para o problema de valor inicial com uma equação de ordem um na forma
normal:
y 0 = f (t, y), y(t0 ) = y0 ,
e para o problema com uma equação linear de ordem n:
(
y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y = b(t),
y(t0 ) = y0 , y 0 (t0 ) = y1 , . . . , y (n−1) (t0 ) = yn−1 .

Para equações lineares de ordem n, conhecer o método de variação das constantes. No


caso dos coeficientes da equação serem constantes, saber o método de resolução da equação
homogénea via polinómio característico, e o método dos coeficientes indeterminados para
determinação de uma solução particular da equação completa. Conhecer a forma canónica
de Jordan para matrizes.

Neste capítulo lidaremos com sistemas de n equações diferenciais de primeira ordem,


nomeadamente com problemas do tipo

~y 0 (t) = f~(t, ~y (t)), (2.1)

onde f~ : I × D → Rn é uma função vetorial, f~(t, ~y ) = (f1 (t, ~y ), . . . , fn (t, ~y )), I é um


intervalo aberto de R, D é um aberto de Rn . Por simplicidade de escrita, omitiremos
quase sempre as setas nas funções vetoriais. Uma solução do sistema é uma função vetorial
y : I → D, y(t) = (y1 (t), . . . , yn (t)), que verifica (2.1) em todos os pontos de I.
Usando componentes, podemos reescrever (2.1) da seguinte forma:

0
y1 (t) = f1 (t, y1 (t), . . . , yn (t))


y 0 (t) = f2 (t, y1 (t), . . . , yn (t))

2
.. .


 .

 0
yn (t) = fn (t, y1 (t), . . . , yn (t))

No caso n = 1, obtemos uma equação diferencial escalar de primeira ordem.


Vários problemas podem ser reduzidos à forma (2.1), como agora veremos.

1
Exemplo 2.1. 1) Modelo de predador-presa de Lotka-Volterra. Se x(t) e y(t) representarem
respetivamente o número de presas e predadores no instante t, então um modelo usado para
estudar a sua dinâmica é
(
x0 (t) = ax(t) − bx(t)y(t)
,
y 0 (t) = −cy(t) + dx(t)y(t)

onde a, b, c, d são constantes positivas. Este sistema é não linear, devido à presença do
termo x(t)y(t). Neste modelo assume-se que, na ausência de predadores, a presa apresenta
um crescimento exponencial (seguindo a lei de Malthus: a taxa de crescimento é proporci-
onal ao número de indivíduos); na ausência de presas, a população de predadores decresce
exponencialmente (seguindo a lei de Malthus); por fim, supõe-se que o efeito da predação
é proporcional ao número de indivíduos de ambas as espécies, sendo naturalmente benéfica
para os predadores e prejudicial para as presas. Este modelo foi usado por Lokta para
estudar reações químicas e por Volterra para estudar a dinâmica de certos tipos de peixes
no mar Adriático.
2) Equação do oscilador harmónico (por exemplo um corpo de massa m agarrado a uma
mola, oscilando em torno da posição de equilíbrio):

mx00 (t) = −kx(t) − γx0 (t) + g(t),

onde x(t) representa a posição em relação ao equilíbrio, γx0 (t) modela o atrito, e g(t)
representa uma força externa. Introduzindo a nova variável dependente y(t) := x0 (t), a
equação anterior é equivalente ao sistema de duas equações de primeira ordem:
(
x0 = y
,
y0 = − m
k
x− mγ
y + g(t)
m

que é do tipo (2.1) para


 
k γ g(t)
f (t, x, y) = (f1 (t, x, y), f2 (t, x, y)) = y, − x − y + .
m m m

3) De uma forma mais geral, dada uma equação de ordem n escrita na forma normal

y (n) (t) = F (t, y(t), y 0 (t), . . . , y (n−1) (t)), F : Ω ⊆ Rn+1 → R,

se definirmos y1 := y, y2 := y 0 , . . . , yn−1 := y (n−2) , yn := y (n−1) , vem




 y10 = y2

 ..
.


 0
yn−1 = yn


 0
yn = F (t, y1 , . . . , yn ).

Assim, resultados demostrados para sistemas de n equações de primeira ordem implicam


resultados para equações escalares de ordem n.
Aplicando esta consideração a uma equação linear de ordem n

y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 (t) + a0 (t)y(t) = g(t),

2
se definirmos y1 := y, y2 = y 0 , . . . , yn := y (n−1) , vem


 y10 = y2

 ..
.

(2.2)

 0
yn−1 = yn


 0
yn = −a0 (t)y1 − a1 (t)y2 − . . . − an−1 (t)yn + g(t).

Note-se que o sistema anterior se pode escrever de forma mais compacta como

~y 0 (t) = A(t)~y + ~b(t),

com
   
0 1 0 ... 0 0

 0 0 1 
... 0 


 0
A(t) =  .. .. .. .. .. ~b(t) =  ..
e .
   
 . . . 
 . .   .
 0 0 0 ... 1   0 
−a0 (t) −a1 (t) −a3 (t) . . . −an−1 (t) g(t)

Por este motivo, o sistema (2.2) diz-se linear.


Enunciamos de seguida o Teorema de Existência e Unicidade para sistemas de equações
de primeira ordem, que demonstraremos no final do capítulo (recorrendo ao Teorema das
Contrações!).
Teorema 2.2 (Teorema de existência e unicidade de solução local para sistemas). Seja
I um intervalo aberto de R, D um aberto de Rn , e tome-se f : I × D → Rn uma função
contínua e de classe C 1 em relação à variável y 1 . Então, dados t0 ∈ I e y0 ∈ D, existe
ε > 0 tal que o problema de valor inicial (PVI)
(
y 0 = f (t, y),
y(t0 ) = y0 ,

tem uma solução única y definida em ]t0 − ε, t0 + ε[.

2.1 Sistemas lineares de n equações de primeira ordem


Trataremos sobretudo sistemas lineares de n equações de primeira ordem, isto é, siste-
mas do tipo
y 0 (t) = A(t)y(t) + b(t) (2.3)
para t ∈ I, intervalo aberto de R, e onde A(t) = [aij (t)]i,j=1,...,n é uma matrix n × n,
b(t) = (b1 (t), . . . , bn (t)) é uma função vetorial de I para Rn . Usando componentes, o
sistema escreve-se:  Pn
0
y1 (t) = j=1 a1j (t)yj (t) + b1 (t)


..
. .

y 0 (t) = n a (t)y (t) + b (t)
 P
n j=1 nj j n

Se b(t) = 0, o sistema diz-se homogéneo.


1 ∂fi
Isto é, as derivadas parciais ∂yj
existem e são contínuas, para todo o i, j = 1, . . . , n.

3
Daqui para a frente assumiremos sempre a seguinte hipótese:

as funções aij : I → R (i, j = 1, . . . , n) e bi : I → R (i = 1, . . . , n) são contínuas. (H)

Terminámos a secção anterior mostrando que toda a equação linear de ordem n se pode
transformar num sistema linear com n equações. Outro exemplo de um sistema linear é
dado por (
y10 = 2y1 + ty2 + cos t
y20 = −y1
que se reescreve como (2.3) com
   
2 t cos t
A(t) = e b(t) = .
−1 0 0

Uma vez que a função f (t, y) = A(t)y + b(t) é contínua e as derivadas parciais
∂fi
= aij (t)
∂yj
são contínuas, o Teorema 2.3 dá-nos existência e unicidade local para o PVI associado. Na
verdade, tratando-se de um sistema linear, conseguimos garantir existência e unicidade em
todo o intervalo I, como a seguir se enuncia.
Teorema 2.3 (Teorema de existência e unicidade para sistemas lineares de equações).
Seja I um intervalo aberto de R e suponha-se (H). Dados t0 ∈ I e y0 ∈ Rn , o problema de
valor inicial (PVI) (
y 0 = A(t)y + b(t)
y(t0 ) = y0
tem uma solução única y : I → R.
A demonstração do próximo resultado fica adiada para o final do capítulo; ser-nos-á no
entanto bastante útil na discussão que se segue.

Descrição do espaço de soluções A solução geral de y 0 = A(t)y + b(t) fica completa-


mente determinada desde que conheçamos:
- todas as soluções do sistema homogéneo associado (y 0 = A(t)y); e

- uma solução particular (qualquer) do sistema completo (y 0 = A(t)y + b(t)).


Com efeito, suponha-se conhecida uma função yp tal que yp0 = A(t)yp + b(t) e procuremos
todas as restantes soluções de y 0 = A(t)y + b(t). Utilizando a linearidade do problema,
isto equivale a resolver o sistema (y − yp )0 = A(t)(y − yp ). Assim, y − yp é uma solução do
sistema homogéneo, e o problema ficará portanto resolvido se conhecermos todas as suas
soluções. Demonstrámos o seguinte resultado:
Lema 2.4. Se yp resolve yp0 = A(t)yp + b(t), então as soluções y do sistema completo são
da forma
y = yp + yh ,
em que yh é a solução geral do sistema homogéneo associado.

4
Espaço de soluções do sistema homogéneo Concentremo-nos em primeiro lugar no
sistema homogéneo y 0 = A(t)y e consideremos o espaço de soluções

S = {y ∈ C 1 (I, Rn ) : y 0 = A(t)y}.

Uma vez que


αy + βz ∈ S sempre que y, z ∈ S, α, β ∈ R,
S é um espaço vetorial. Ora o teorema de existência e unicidade - Teorema 2.3 - mostra
que, fixado t0 ∈ I, a aplicação linear

T : S → Rn ; T (y) = y(t0 )

é bijetiva, sendo portanto um isomorfismo entre espaços vetoriais, pelo que a dimensão
de S é igual à dimensão do espaço real Rn , que é n.
Significa isto que resolver o sistema linear homogéneo consiste em determinar uma base
de soluções do sistema; qualquer solução do sistema será então uma combinação linear de
elementos dessa base. Assim sendo, tendo em vista a resolução do sistema homogéneo
y 0 = A(t)y, o objetivo passa a ser o de determinar

n soluções linearmente independentes ϕ1 , . . . , ϕn : I → Rn . 2 .

Estando estas determinadas, a solução geral do sistema homogéneo é dada por

y = c1 ϕ1 + . . . + ϕn , c1 , . . . , cn ∈ R.

De forma equivalente, se introduzirmos a matriz fundamental de soluções


 
ϕ1,1 (t) ϕ2,1 (t) . . . ϕn,1 (t)
   ϕ1,2 (t) ϕ2,2 (t)
 . . . ϕn,2 (t) 
Y (t) = ϕ1 (t) . . . ϕn (t) =  . ..  .

.. ..
 .. . . . 
ϕ1,n (t) ϕ2,n (t) . . . ϕn,n (t)

(ϕi (t) = (ϕi,1 (t), . . . , ϕi,n (t))), então a solução geral do sistema homogéneo escreve-se

y(t) = Y (t)c, c = (c1 , . . . , cn ) ∈ Rn .

A forma mais simples de provar que n soluções são linearmente independentes é usando a
matriz Y .

Proposição 2.5. Suponha-se que ϕ1 , . . . , ϕn são soluções do sistema linear homogéneo


y 0 = A(t)y. Então {ϕ1 , . . . , ϕn } é uma base de soluções do problema homogéneo se e só
se existe t0 ∈ I tal que det Y (t0 ) 6= 0. Além disso, nestas condições, tem-se det Y (t) 6= 0
para todo o t ∈ I.

Demonstração. Este resultado é imediato a partir do facto de a aplicação T ser um iso-


morfismo.
2
isto é, sempre que α1 ϕ1 (t) + . . . + αn (t)ϕn = 0 para todo o t ∈ I, então α1 = . . . = αn = 0.

5
O método de variação das constantes de Lagrange Suponhamos conhecida uma
matriz fundamental de soluções do sistema homogéneo, isto é, uma matriz Y (t) de dimensão
n × n em que as colunas são soluções linearmente independentes do sistema homogéneo.

Proposição 2.6. Seja c(t) uma função vetorial que verifica Y (t)c0 (t) = b(t). Então

ϕ(t) = Y (t)c(t)

é uma solução do sistema completo.

Demonstração. Comecemos por observar que a Proposição 2.5 implica que o sistema Y (t)d =
b(t) tem uma única solução d = d(t). Seja c(t) uma função vetorial tal que Y (t)c0 (t) = b(t)
e defina-se ϕ(t) = Y (t)c(t). Como Y 0 (t) = A(t)Y (t) [verifique!] então tem-se

ϕ 0 (t) = Y 0 (t)c(t) + Y (t)c0 (t) = A(t)Y (t)c(t) + b(t) = A(t)ϕ(t) + b(t),

como pretendido.

A proposição anterior dá um método para construir uma solução particular do sistema


completo a partir do conhecimento da solução geral do sistema homogéneo. Coloca-se então
mais uma vez a questão de saber como determinar uma matriz fundamental de soluções
do sistema homogéneo. Apresentamos de seguida um algoritmo para o caso de A ser uma
matriz de coeficientes constantes.

Solução geral do sistema homogéneo: o caso de coeficientes constantes Seja A


uma matriz constante n × n com entradas reais. Neste parágrafo lidaremos com o sistema
linear de coeficientes constantes
y 0 (t) = Ay(t). (2.4)
Observe-se que o Teorema 2.3 garante que todas as possíveis soluções têm domínio R.
Neste caso, descreveremos um algoritmo que nos permite em todas as situações construir
uma base de soluções para este problema homogéneo.
É razoável, tal como é feito para equações lineares (caso n = 1), procurar soluções de
(2.4) da forma
eλt v, para um certo λ ∈ C e v ∈ Cn \ {0}.
Substituindo no sistema, vem

λeλt v = Aeλt v ⇐⇒ Av = λv.

Acabámos de verificar o seguinte.

Lema 2.7. A função vetorial eλt v, com λ ∈ C e v ∈ Cn \ {0} é solução de (2.4) se, e só
se, λ é valor próprio de A e v um vetor próprio associado.

Exemplo 2.8 ([1]). Determinemos a solução geral do sistema


(
y10 = 6y1 + 2y2
 
0 6 2
isto é, y = y
y20 = 2y1 + 9y2 2 9
| {z }
=:A

6
A matriz A tem valores próprios λ1 = 5 e λ2 = 10, com vetores próprios associados
v1 = (−2, 1) e v2 = (1, 2), respetivamente [faça as contas para conferir o resultado]. Assim,
obtemos duas soluções do sistema:
−2e5t
       10t 
5t −2 10t 1 e
ϕ1 (t) = e = , e ϕ2 (t) = e =
1 e5t 2 2e10t
As soluções são linearmente independentes: recordando a Proposição 2.5, é suficiente ob-
servar que    
det ϕ1 (0) ϕ2 (0) = det v1 v2 = −5 6= 0.
Assim, a solução geral é dada por
−2e5t e10t −2c1 e5t + c2 e10t
    
c1
y(t) = c1 ϕ1 (t) + c2 ϕ2 (t) = = ,
e5t 2e10t c2 c1 e5t + 2c2 e10t
para c1 , c2 ∈ R. Uma matriz fundamental de soluções é
−2e5t e10t
 
 
Y (t) = ϕ1 (t) ϕ2 (t) = .
e5t 2e10t
Em geral, conseguimos até ao momento determinar a solução geral de um sistema
linear homogéneo de coeficientes constantes no caso em que a matriz A é diagonalizável.
Comecemos por abordar o caso em que a matriz admite n valores próprios distintos.

1. Suponhamos que A tem n valores próprios reais distintos, λ1 , λ2 , . . . , λn . Neste caso,


sendo v1 , . . . , vn vetores próprios associados, eles são necessariamente independentes.
Assim, obtemos n soluções linearmente independentes para o sistema:
e λ1 t v 1 , . . . , e λn t v n ,
que constituem portanto uma base do espaço de soluções. Resumindo, a solução
geral é dada por
y(t) = c1 eλ1 t v1 + . . . + cn eλn t vn ,
para c1 , . . . , cn ∈ R. É esta a situação do exemplo anterior.
2. Suponhamos que A tem n valores próprios distintos λ1 , . . . , λn , com λi ∈ C, alguns
não reais. Neste caso, se v1 , . . . , vn ∈ Cn forem vetores próprios correspondentes,
obtemos n soluções linearmente independentes com valores complexos:
e λ1 t v 1 , . . . , e λn t v n . (2.5)
Pretendemos, no entanto, obter uma base de soluções reais. Comecemos por observar
que, como a matriz A tem entradas reais, os valores próprios não reais surgem aos
pares conjugados, tendo a forma α ± βi, com β 6= 0. Além disso, se v = v1 + iv2
(v1 , v2 ∈ R2 ) é vetor próprio associado a α + βi, então v = v1 − iv2 é vetor próprio
associado a α − βi. Neste caso, note-se que
e(α+βi)t v = eαt (cos(βt) + i sin(βt))(v1 + iv2 )
= eαt cos(βt)v1 − eαt sin(βt)v2 + i(eαt sin(βt)v1 + eαt cos(βt)v2 )
=: v1 (t) + iv2 (t), (2.6)

e(α−βi)t v = e(α+βi)t v = v1 (t) − iv2 (t). (2.7)

7
Tem-se também que
1 1 (α+βi)t
v1 (t) = (e(α+βi)t v + e(α−βi)t v), v2 (t) = (e v − e(α−βi)t v)
2 2i
o que mostra que v1 (t), v2 (t) são soluções (reais) do problema e que, ao substituirmos
e(α+βi)t v, e(α−βi)t v por v1 (t), v2 (t) em (2.5) se obtêm de novo funções linearmente
independentes. Ao efetuarmos este procedimento com todos os pares conjugados de
valores próprios não reais, obteremos uma base do espaço de soluções reais.

Exemplo 2.9. Considere-se o sistema


(
y10 = y1 − 2y2
y20 = y1 + y2 .
√ √
Os valores próprios
√ são 1 ± i 2. Temos que (i 2, 1) é um vetor próprio associado ao valor
próprio λ = 1 + i 2. Esta informação é suficiente para construirmos uma base do espaço
de soluções (reais). Com efeito, uma vez que

√   √ t √  √ t √ 
(1+i 2)t i 2 − 2e sin(√ 2t) 2e cos(
√ 2t) ,
e = +i
1 et cos( 2t) sin( 2t)

temos que a solução geral do sistema é


   √ t √  √ t √ 
y1 (t) − 2e sin(
√ 2t) 2e cos(
√ 2t)
= c1 + c2 , c1 , c2 ∈ R.
y2 (t) et cos( 2t) sin( 2t)

O que acontece quando temos valores próprios com multiplicidade algébrica maior que
1? Neste caso temos duas hipóteses:

a. Para cada valor próprio, a multiplicidade algébrica coincide com a multiplicidade


geométrica. Neste caso a matriz é diagonalizável e Cn admite uma base formada por
vetores próprios e obteremos n soluções linearmente independentes se seguirmos o
procedimento 1 ou 2 descrito anteriormente.

b. Para pelo menos um dos valores próprios, a multiplicidade geométrica é estritamente


menor que a algébrica, pelo que as soluções da forma eλt v não são em número sufici-
ente para formar uma base. Ilustramos em dois exemplos um procedimento a seguir
nesta situação .

Exemplo 2.10. Considere-se o sistema


 
0 1 2
y = Ay, com A= .
0 1

Temos que λ = 1 é o único valor próprio, com multiplicidade algébrica 2 e multiplicidade


geométrica 1: o vetor (1, 0) gera o espaço N (A − I). Temos portanto que
 
t 1
ϕ1 (t) = e
0

8
é uma solução. Como poderemos determinar outra solução linearmente independente
desta? Procuremos uma segunda solução do tipo et p1 (t), onde p1 : R → R2 é um po-
linómio vetorial de grau 1, isto é, procuremos uma solução da forma
 
t 0
e (u + tv), com v 6= .
0

Substituindo no sistema, vem

et (u + tv) + et v = et Au + tet Av,

para todo o t ∈ R, ou seja

Av = v (isto é, v é um vetor próprio de A)

e
(A − I)u = v.
Assim, podemos tomar  
1
v=
0
 
0
e tomar para u uma solução de (A − I)u = v (por exemplo, u = ). Obtivémos uma
1/2
segunda solução  
t t
ϕ2 (t) = e .
1/2
Observe-se que ϕ1 e ϕ2 são linearmente independentes, o que pode ser demonstrado usando
a Proposição 2.5 e notando que os vetores ϕ1 (0) = v e ϕ2 (0) = u são linearmente indepen-
dentes.
Exemplo 2.11 ([1]). Considere-se o sistema
 
1 1 0
y 0 = Ay, com A = 0 1 1 .
0 0 1

A matriz A tem equação característica (λ − 1)3 = 0. Assim, λ = 1 é o único valor próprio,


com multiplicidade algébrica 3. Tem-se N (A − I) = h(1, 0, 0)i, portanto a multiplicidade
geométrica de λ = 1 é 1. Concluímos que
 
1
t 
ϕ1 (t) = e 0
0

é uma solução do problema. Teremos agora de determinar duas novas soluções para com-
pletar a base do espaço de soluções do sistema. Seguindo o exemplo anterior, uma segunda
solução será da forma

et (u + tv), com (A − I)v = 0, (A − I)u = v.

9
Assim, podemos tomar
     
1 0 t
v = 0 , u = 1 , o que conduz à solução ϕ2 (t) = et 1 .
0 0 0

Procuremos de seguida uma terceira solução linearmente independente, da forma et p2 (t),


com p2 (t) um polinómio vetorial de grau 2, ou seja, procuremos uma solução da forma

t2
et (u0 + tu1 + u2 ), com u2 6= 0.
2
Substituindo no sistema, vem

t2 t2
   
et u0 + tu1 + u2 + u1 + tu2 = et Au0 + tAu1 + Au2 ,
2 2

donde
(A − I)u2 = 0 (ou seja, um vetor próprio)
e
(A − I)u1 = u2 (A − I)u0 = u1 .
Pode-se então tomar      
1 0 0
u2 = 0 , u1 = 1 u0 = 0
    
0 0 1
o que conduz à solução 2 
t /2
ϕ3 (t) = et  t  .
1
Uma vez que os vetores ϕ1 (0) = (1, 0, 0), ϕ2 (0) = (0, 1, 0) e ϕ3 (0) = (0, 0, 1) são linearmente
independentes, as soluções ϕ1 , ϕ2 .ϕ3 são linearmente independentes, logo a solução geral
do problema é

y(t) = c1 ϕ1 (t) + c2 ϕ2 (t) + c3 ϕ3 (t), c1 , c2 , c3 ∈ R.

Numa situação mais geral, é útil perceber quando é que uma função da forma pk (t)eλt ,
onde pk (t) é um polinómio vetorial de grau k, é solução do sistema linear de coeficientes
constantes y 0 = Ay.

Lema 2.12. Seja A uma matrix n × n. Uma função vetorial da forma

t2 tk
 
λt
e v0 + v1 t + v2 + . . . + vk , com λ ∈ C, v1 , . . . , vk ∈ Cn , vk 6= 0,
2! k!

é solução do sistema y 0 = Ay se, e só se, λ é valor próprio de A e

(A − λI)vk = 0, (A − λI)vk−1 = vk , . . . , (A − λI)v0 = v1 (2.8)

Demonstração. Exercício.

10
Na situação do lema anterior, observe-se que v0 , . . . , vk ∈ N (A − λI)k+1 ; sempre que
forem não nulos, estes vetores designam-se vetores próprios generalizados. A razão pela
qual o método funciona e dá origem a bases de soluções é o teorema da forma canónica
de Jordan, que nos diz grosso modo que Cn admite sempre uma base de vetores próprios
generalizados da matriz A.
Mais concretamente, recorde-se uma das versões do Teorema de Jordan (veja-se [4]).

Teorema 2.13 (Forma Canónica de Jordan). Seja A uma matriz quadrada n × n e se-
jam λ1 , . . . , λr os seus valores próprios distintos com multiplicidades algébricas n1 , . . . , nr .
Então, definindo o espaço dos valores próprios generalizados

Xj := N (A − λj )nj = {x ∈ Cn : (A − λj )nj x = 0},

tem-se
dim Xj = nj , Cn = X1 ⊕ . . . ⊕ Xr .
Além disso, se T : Cn → Cn for a aplicação linear T x = Ax, existe uma base de Cn
formada por vetores próprios generalizados {v1 , . . . , vn } tal que a matriz que representa T
nesta base é uma matriz diagonal por blocos:
 
A1 0 . . . 0
 0 A2 . . . 0 
..  ,
 
 .. .. . .
 . . . . 
0 0 . . . Ak

(k, o número de blocos, é a soma das multiplicidades geométricas de λ1 , . . . , λr ) onde cada


bloco diagonal tem a forma  
λj 1 0 . . . 0
 0 λj 1 . . . 0 
 
 .. .. .. . . .. 
. . . . . (2.9)
 
 0 0 0 ... 1 
0 0 0 . . . λj
Dito de outra forma: A é semelhante a uma matriz diagonal por blocos, em que cada bloco
é da forma (2.9).

É agora simples compreender a ligação entre a cadeia de identidades (2.8) e a base


v1 , . . . , vn mencionada no teorema anterior. De facto, considerando por exemplo o caso em
que a matriz A é da forma (2.9) e λj = λ (para simplificar), tem-se

Av1 = λv1 , Av2 = v1 + λv2 , . . . , Avn = vn−1 + λvn

ou seja
(A − λI)v1 = 0, (A − λI)v2 = v1 , . . . , (A − λI)vn = vn−1 .

2.2 O Teorema de Existência e Unicidade


Nesta secção demonstraremos o Teorema de Existência e Unicidade (Teorema 2.2),
explorando algumas questões à sua volta. Seguiremos sobretudo a referência [5].

11
Teorema de Existência e Unicidade: o caso escalar Começaremos por explorar o
caso escalar (n = 1), nomeadamente o problema de valor inicial (PVI)
(
y 0 = f (t, y)
(2.10)
y(t0 ) = y0

onde Ω é um aberto de R2 , (t0 , y0 ) ∈ Ω, f : Ω → R é uma função contínua. Mais à frente


daremos indicações de como adaptar as demonstrações apresentadas no caso escalar ao
caso dos sistemas, n > 1.
A demonstração do teorema de existência e unicidade será uma aplicação do Teorema
das Contrações. Assim, teremos de escrever (2.10) como um problema de ponto fixo con-
veniente.
Seja y : I → R uma solução de (2.10), onde I é um intervalo aberto de R. Integrando
ambos os membros da equação diferencial em (2.10), vem
Z t
y(t) − y(t0 ) = f (s, y(s)) ds,
t0

o que implica, como y(t0 ) = y0 ,


Z t
y(t) = y0 + f (s, y(s)) ds. (2.11)
t0

Reciprocamente, se y : I → R contínua verifica (2.11), então


Z t0
y(t0 ) = y0 + f (s, y(s)) ds = y0 ,
t0

e 0
Z t
0 0
y (t) = (y0 ) + f (s, y(s)) ds = f (t, y(t)),
t0

ou seja, y é solução de (2.10). Acabámos de mostrar o seguinte.


Lema 2.14. Seja T : C(I) → C(R) a aplicação definida por
Z t
T (y)(t) = y0 + f (s, y(s)) ds.
t0

Então uma função y : I → R é solução de (2.10) se, e só se, T (y) = y (isto é, se e só se


y é um ponto fixo da aplicação T ).
Pretendemos mostrar que T admite um único ponto fixo. Para aplicarmos o Teorema
das Contrações, necessitamos de encontrar X ⊂ C(I) espaço completo tal que:
• T (X) ⊂ X, isto é, T (y) ∈ X para todo o y ∈ X;

• T é uma contração estrita em X, isto é, existe L < 1 tal que d∞ (y, z) 6 Ld∞ (y, z)
para todo o y, z ∈ X.
Demonstraremos na verdade um Teorema de Existência e Unicidade um pouco mais ge-
ral que aquele enunciado no Teorema 2.2. Para enunciarmos o resultado na sua maior
generalidade, necessitamos da seguinte noção.

12
Definição 2.15. Seja Ω um aberto de R2 e f : Ω → R. A função f diz-se localmente
lipschitziana em ordem à segunda variável se, para cada (t0 , x0 ) ∈ Ω e ε, δ > 0 tais que
R := [t0 − ε, t0 + ε] × [y0 − δ, y0 + δ] ⊆ Ω, existe K > 0 tal que

|f (t, y1 ) − f (t, y2 )| 6 K|y1 − y2 | ∀(t, y1 ), (t, y2 ) ∈ R.

Exemplo 2.16. 1) Se f (t, y) admite derivada parcial ∂f ∂y e esta é contínua em Ω, então f é


localmente lipschitziana em ordem à segunda variável. [porquê?]
2) A função f (t, y) = |y| é localmente lipschitziana em ordem à segunda variável, uma vez
que
||y1 | − |y2 || 6 |y1 − y2 | ∀y1 , y2 ∈ R.

3) A função f (t, y) = y não é localmente lispchitziana em ordem a y no conjunto Ω =
R × R+0 uma vez que
√ √
| y − 0| 1
= √ → +∞ quando y → 0+ .
|y − 0| y

É, no entanto, localmente lispchiziana no conjunto Ω = R × R+ , pelo ponto 1.


4) Mais geralmente, para α ∈]0, 1[, a função f (t, y) = y α , definida em Ω = R × R+
0 , não é
localmente lipschitziana em y. [exercício]
Enunciamos de seguida a versão mais geral do teorema de existência e unicidade, para
n = 1.
Teorema 2.17. Seja Ω ⊂ R2 um aberto e f : Ω → R uma função contínua, localmente
lipschitziana em ordem à segunda variável. Então, dado (t0 , y0 ) ∈ Ω, existe ε > 0 tal que
o PVI (
y 0 = f (t, y)
y(t0 ) = y0
tem uma única solução em ]t0 − ε, t0 + ε[.
Antes de passarmos à sua prova, façamos algumas considerações e exemplos.
Observação 2.18. O teorema afirma que, dado (t0 , y0 ), existe (em Ω) uma única solução
y cujo gráfico contém o ponto (t0 , y0 ). Em particular, gráficos de soluções distintas da
equação nunca se intersectam (em Ω).
Observação 2.19. Se f não for localmente lipschitziana, pode ou não haver existência e
unicidade:
(a) De facto, pode mostrar-se que o problema

y 0 = y 2/3

tem, para além da solução y0 (t) ≡ 0, soluções da forma


t+C 3
(  (
3 t 6 −C 0 t 6 −C
y1 (t) = y2 (t) = t+C 3
 (C ∈ R)
0 t > −C 3 t > −C
e também  t+C 3
 3
 1
t 6 −C1
y3 (t) = 0 t ∈ [−C1 , C2 ] (C1 , C2 ∈ R, C1 > C2 ).
 t+C2 3

3 t > −C2

13
Assim, se (t0 , y0 ) = (t0 , 0) não há unicidade local, mas se y0 6= 0 já há unicidade local. Isto
é consistente com o Teorema de Existência e Unicidade, uma vez que a função f (t, y) = y 2/3
é localmente lipschitziana em R × (R \ {0}), mas não o é em R2 .
(b) Por outro lado, o problema (
y 0 = −ty 1/3
y(0) = 0
tem unicidade de solução (y ≡ 0 necessariamente), mas f (t, y) = −ty 1/3 não é localmente
lipschitziana em ordem a y em nenhum aberto que contenha (0, 0). Assim, ser localmente
lipschitziana não é uma condição necessária, apenas suficiente.
Demonstração do Teorema 2.17. Seja (t0 , y0 ) ∈ Ω e tomem-se ε, δ > 0 tais que

R := [t0 − ε, t0 + ε] × [y0 − δ, y0 + δ] ⊂ Ω.

Seja M := maxR |f |, e K > 0 uma constante tal que

|f (t, y1 ) − f (t, y2 )| 6 K|y1 − y2 | ∀(t, y1 ), (t, y2 ) ∈ R.

Reduzindo eventualmente o valor de ε, podemos sempre supor que

M ε < δ, Kε < 1.

Consideremos o espaço C([t0 − ε, t0 + ε]) munido da distância d∞ e considere-se

X = {y : [t0 − ε, t0 + ε] → [y0 − δ, y0 + δ]; y é contínua} ,

que é um subconjunto fechado [porquê?], logo completo. Recorde-se que y ∈ X é solução


do PVI se e só se T (y) = y, onde
Z t
T (y)(t) := y0 + f (s, y(s)) ds.
t0

Vejamos que:
(a) T é uma contração estrita: existe L < 1 tal que

d∞ (T (y), T (z)) 6 Ld∞ (y, z) ∀y, z ∈ X;

(b) T (X) ⊆ X, isto é, dada y ∈ X, T (y) é uma aplicação contínua em [t0 − ε, t0 + ε] que
toma valores em [y0 − δ, y0 + δ].
Verificação de (a). Dados y, z ∈ X e t ∈ [t0 − ε, t0 + ε],
Z t

|T (y)(t) − T (z)(t)| = f (s, y(s)) − f (s, z(s)) ds
t
Z 0t

6 |f (s, y(s)) − f (s, z(s))| ds
t0
Z t

6 K |y(s) − z(s)| ds

t0
6 K|t − t0 |d∞ (y, z) 6 |{z}
Kε d∞ (y, z).
<1

14
Verificação de (b). Dada y : [t0 − ε, t0 + ε] → [y0 − δ, y0 + δ] contínua, temos que T (y) é
contínua e Z t

|T (y)(t) − y0 | 6 |f (s, y(s))| ds 6 M |t − t0 | 6 M ε 6 δ,

t0

como pretendido.

Recorde-se que o Teorema das Contrações dá uma sucessão definida por recorrência
que converge para a solução do problema: fixada uma função y0 ∈ X, a sucessão
Z t
yn (t) := y0 + f (s, yn−1 (s)) ds n∈N
t0

converge para a única solução do PVI.


Exemplo 2.20 ([5]). Considere-se o PVI
(
y0 = y2
y(0) = 1

1
que tem solução exata y(t) = 1−t definida para t ∈] − ∞, 1]. O processo iterativo
Z t
2
yn (t) = 1 + yn−1 (s) ds,
0

começando em y0 ≡ 1, dá
Z t
y1 (t) = 1 + 1 ds = 1 + t
0
Z t
t3
y2 (t) = 1 + (1 + s)2 ds = 1 + t + t2 + = 1 + t + t2 + o(t2 )
0 3
Z t
s3
y3 (t) = 1 + (1 + s + s2 + )2 ds = 1 + t + t2 + t3 + o(t3 )
0 3
..
.
yn (t) = 1 + t + . . . + tn + o(tn ).

Comprova-se de facto que



X 1
yn (t) → tj = .
1−t
j=0

O Teorema de Existência e Unicidade dá-nos uma informação local. Pretendemos saber


em que situações podemos passar de uma informação local a uma global.

Prolongamento de Soluções e Soluções Maximais: o caso escalar Daqui para a


frente assumimos que
Ω =]a, b[×R, a < b, a, b ∈ R.
Diz-se que uma solução y :]α, β[→ R é solução maximal do PVI (2.10) se não é possível
prolongar y para além do intervalo ]α, β[ a uma função que ainda é solução.

15
Questão: quando é que podemos garantir que ]α, β[=]a, b[?
(isto é, que a solução é global)
Exemplo 2.21. No PVI do Exemplo 2.20, Ω = R2 (ou seja, a = −∞, b = +∞) e a
1
solução maximal é dada por y(t) = 1−t , tendo intervalo maximal ] − ∞, 1[. Observe-se que
limt→1− y(t) = +∞. Diz-se nestas situações que a solução “explode em tempo finito”.
Proposição 2.22 (Comportamento nos extremos do intervalo maximal). Suponhamos que
f é contínua em Ω e que y :]α, β[→ R é solução maximal do PVI (2.10). Então:

β < b =⇒ lim y(t) = +∞ ou − ∞


t→β −

α > a =⇒ lim y(t) = +∞ ou − ∞


t→α+

Demonstração. Veja-se que

β < b =⇒ lim y(t) = +∞ ou − ∞


t→β −

(a conclusão em a é análoga). Suponhamos que a conclusão não é válida; existe portanto


tn → β − com y(tn ) limitada. Então para uma subsucessão (que continuaremos a designar
por tn ) tem-se
y(tn ) → ȳ ∈ R.
Queremos agora verificar que, na verdade,

lim y(t) = ȳ. (2.12)


t→β −

Seja n̄ tal que |y(tn ) − ȳ| < 1 para n > n̄ e seja S = [tn̄ , β] × [ȳ − 1, ȳ + 1] e M := maxS |f |.
Tem-se |y(t) − ȳ| 6 1 para todo o t ∈ [tn , β[ para n grande; se isso não acontecer, existe
sn ∈]tn , β[ tal que |y(sn ) − ȳ| = 1 e |y(t) − ȳ| < 1 para todo o t ∈]tn , sn [ e então
Z sn
1
|y(sn ) − y(tn )| 6
|f (s, y(s))| ds 6 M (β − tn ) 6
tn 2
para n grande e portanto
1 1
1 = |y(sn ) − ȳ| 6 |y(sn ) − y(tn )| + |y(tn ) − ȳ| < + =1
2 2
para n grande, um absurdo. Assim, existe t̄ ∈]tn̄ , β[ tal que |y(t) − ȳ| 6 1 para todo o
t ∈ [t̄, β[. Em particular,
|f (t, y(t))| 6 M ∀t ∈ [t̄, β[.
Estamos agora em condições de verificar (2.12): dada sn → β − , temos

|y(sn ) − ȳ| 6 |y(sn ) − y(tn )| + |y(tn ) − ȳ| 6 L|sn − tn | + |y(tn ) − ȳ| → 0,

como pretendido.
Pelo Teorema de Existência e Unicidade, existe ε > 0 tal que o PVI

z 0 = f (t, z), z(β) = ȳ

tem uma única solução em ]β − ε, β + ε[. Seria então possível prolongar y de ]α, β[ a
]α, β + ε[, o que contradiz a hipótese sobre a maximalidade do intervalo.

16
Proposição 2.23 (Existência de solução global). Suponhamos que f ∈ C(]a, b[×R) é
sublinear em ordem a y:

|f (t, y)| 6 g(t)|y| + h(t) ∀(t, y) ∈]a, b[×R,

onde g, h ∈ C(]a, b[). Então qualquer solução maximal de (2.10) está definida em ]a, b[.

Demonstração. Seja y solução maximal, definida em ]α, β[⊆]a, b[. Fixado c ∈]α, β[, tem-se
para todo o t em [c, β[:
Z t
y(t) = y(c) + f (s, y(s)) ds
c
o que implica que
Z t
|y(t)| 6 |y(c)| + |f (s, y(s))| ds
c
Z t
6 |y(c)| + g(s)|y(s)| + h(s) ds
c
Z t
6 |y(c)| + M (t − c) + A |y(s)| ds
c
Z t
6 |y(c)| + M (β − c) + A |y(s)| ds
c
Z t
=B+A |y(s)| ds
c

para certos A, B > 0. Esta desigualdade é equivalente a


  Z t 0
A|y(t)|
Rt 6 A ⇐⇒ log B + A |y(s)| ds 6A
B + A c |y(s)| ds c

donde Rt !
B+A c |y(s)| ds
log 6 A(t − c)
B
e Z t
|y(t)| 6 B + A |y(s)| ds 6 BeA(t−a) .
c
Então |y(t)| é limitada em [c, β[, e pela Proposição 2.22 tem-se necessariamente β = b.
Analogamente se demonstra que α = a.

O caso dos sistemas O que vimos anteriormente adapta-se a sistemas do tipo


(
~y 0 = f~(t, ~y (t))
(2.13)
~y (t0 ) = ~y0 ,

onde f~ : Ω ⊆ Rn+1 → Rn é contínua, f~ = (f1 , . . . , fn ), Ω é um aberto e (t0 , y~0 ) ∈ Ω. Para


aligeirar as notações omitiremos, como já referido, as setas nas funções vetoriais. Usaremos
também neste parágrafo a notação k · k para designar a norma euclideana de Rn .

17
Uma função y : I → Rn é solução se e só se T (y) = y, onde T : C(I; Rn ) → C(R; Rn )
está definida pela expressão
Z t
T (y)(t) = y0 + f (s, y(s)) ds
t0
Z t Z t 
= (y0,1 , . . . , y0,n ) + f1 (t, y1 (s), . . . , yn (s)) ds, . . . , fn (t, y1 (s), . . . , yn (s)) ds .
t0 t0

Definição 2.24. Uma função f : Ω ⊆ Rn+1 → Rn diz-se localmente lipschitziana em


ordem a y se, para cada (t0 , y0 ) ∈ Ω e ε, δ > 0 tais que

R := [t0 − ε, t0 + ε] × Bδ (y0 ) ⊆ Ω,

existe K > 0 tal que

kf (t, y1 ) − f (t, y2 )k 6 Kky1 − y2 k ∀(t, y1 ), (t, y2 ) ∈ R.

Lema 2.25. Se g : [a, b] ⊂ R → Rn é contínua, então


Z b Z b


g(s) ds
6 kg(s)k ds.
a a

Demonstração. Considere-se a partição de [a, b] formada pelos m intervalos


 
b−a b−a
a+i , a + (i + 1) , i = 0, . . . , m − 1
m m
e escolha-se em cada um dos intervalos um real arbitrário ξi,m . Uma vez que s 7→ g(s)
e s 7→ kg(s)k são funções contínuas (porque a norma euclideana é uma função contínua),
vem que g e kgk são integráveis em [a, b]. Assim,
Z b Z b Z b 
g(s) ds = g1 (s) ds, . . . , gn (s) ds
a a a
m−1 m−1
!
X b−a X b−a
= lim g1 (ξi,m ) , . . . , lim gn (ξi,m )
m n m n
i=0 i=0
m−1 m
X b−a X b−a
lim (g1 (ξi,m ), . . . , gn (ξi,m )) = lim g(ξi,m )
m n m m
i=0 i=0

donde, pela desigualdade triangular e continuidade da norma,


Z b m−1 Z b
X b − a
g(s) ds
6 lim kg(ξi,m )k = kg(s)k ds.

a m m a
i=0

Temos assim, com demonstração análoga à do Teorema 2.17 e Proposição 2.23:


Teorema 2.26 (Existência e Unicidade de solução local para sistemas). Suponhamos que
f é contínua e localmente lispschitziana em ordem a y num aberto Ω ⊆ Rn+1 . Então
dado (t0 , y0 ) ∈ Ω existe ε > 0 tal que o PVI (2.13) tem uma solução única y definida em
]t0 − ε, t0 + ε[.

18
Proposição 2.27 (Existência de solução global para sistemas). Suponhamos que f ∈
C(]a, b[×Rn ; Rn ) é sublinear em ordem a y ∈ Rn :

kf (t, y)k 6 g(t)kyk + h(t) ∀t ∈]a, b[, y ∈ Rn ,

onde g, h ∈ C(]a, b[). Então qualquer solução maximal do PVI (2.13) está definida em
]a, b[.
Corolário 2.28 (Sistemas lineares de 1a ordem). Seja I um intervalo aberto de R, A(t) =
[aij (t)]i,j=1,...,n com aij ∈ C(I), e b ∈ C(I). Então dados t0 ∈ I e y0 ∈ Rn , o PVI
(
y 0 = A(t)y + b(t)
y(t0 ) = y0

tem solução única y : I → Rn . Em particular, se A e b são constantes, a solução maximal


está definida em todo o R.
Demonstração. A aplicação f (t, y) := A(t)y + b(t) é contínua, e

kf (t, y)k 6 kA(t)k kyk + kb(t)k ,


| {z } | {z }
=:g contínua =:h contínua

o que mostra que f é sublinear em y. O resultado é, portanto, uma consequência imediata


do Teorema 2.26 e Proposição 2.27.

Corolário 2.29 (Equações lineares de ordem n). Seja I um intervalo aberto de R e


a0 , . . . , an−1 ∈ C(I), b ∈ C(I). Dados t0 ∈ I e c0 , . . . , cn−1 ∈ R, o PVI
(
y (n) + an−1 (t)y (n−1) + . . . + a0 (t)y = b(t)
y(t0 ) = c0 , . . . y (n−1) (t0 ) = cn−1

tem solução única, definida em I.


Demonstração. Definindo as funções y1 = y, . . . , yn = y (n−1) , vem que y(t) = (y1 (t), . . . , yn (t))
é solução do PVI 

y10 = y2
..


.

 0
yn−1 = yn


 0
yn = −a0 (t)y1 − . . . − an−1 (t)yn + b(t),
e a conclusão segue de aplicarmos o corolário anterior a este sistema.

Referências
[1] D. Agudo, Análise Real - Volume III, Escolar Editora, 1992.

[2] V. Barutello, M. Conti, D. L. Ferrario, S. Terracini e G. Verzini, Analisi


Matematica - Volume 2, Apogeo 2008.

[3] T. Faria, Notas da unidade curricular de Cálculo Diferencial e Integral III -


2018/2019.

19
[4] A. P. Santana e J. F. Queiró, Introdução à Álgebra Linear, Gradiva 2010.

[5] M. Ramos, Curso Elementar de Equações Diferenciais, coleção Textos de Matemática,


Departamento de Matemática da Faculdade de Ciências da Universidade de Lisboa,
2000.

20

Você também pode gostar