Você está na página 1de 137

Notas de

EQUAÇÕES DIFERENCIAIS
E
MODELAÇÃO
20 ano da Licenciatura em Matemática

Maria de Fátima da Silva Leite

José Carlos Soares Petronilho

Departamento de Matemática (FCTUC)


Coimbra, Setembro de 2004

i
ii

Nota prévia

O texto que se apresenta serviu de apoio às aulas da disciplina de Equações Diferenciais
e Modelação leccionada pelos autores nos dois últimos anos. Deve ter-se em mente que o
texto não abarca a totalidade dos tópicos estudados, assim como inclui outros que não foram
abordados, e que a ordem de apresentação não corresponde, em muitas situações, àquela em
que a matéria foi, efectivamente, leccionada. Trata-se, pois, apenas de umas notas ainda em
construção.
Índice

Capı́tulo 1. Noções básicas 1


1. Primeiras definições 1
2. Exercı́cios 5

Capı́tulo 2. Equações diferenciais de primeira ordem 7


1. Considerações geométricas 7
2. Equações exactas 11
3. Equações de variáveis separáveis 15
4. Equações lineares de primeira ordem 18
5. Algumas EDO’s clássicas 20
6. Possibilidade de “inversão” numa EDO de primeira ordem 24
7. Problema de Cauchy: y ′ = f (t, y) , y(t0 ) = y0 26

Capı́tulo 3. Aplicações das ED’s de 1a ordem à Modelação Matemática 39


1. O que é Modelação Matemática ? 39
2. Lei do arrefecimento de Newton 40
3. Verdadeiro ou Falso? 42
4. Um modelo em Medicina 44
5. Modelos de Crescimento Populacional 46

Capı́tulo 4. Equações diferenciais lineares de ordem n 49


1. Preliminares 49
2. Operador diferencial linear de ordem n 50
3. Equações lineares homogéneas 51
4. Equações lineares não homogéneas 57
5. Método de D’Alembert ou de abaixamento de ordem 58
6. Método de Lagrange ou da variação das constantes arbitrárias 62
7. Equações lineares de coeficientes constantes 65
8. Exercı́cios 76

Capı́tulo 5. Transformada de Laplace 79


1. Definição e primeiros exemplos 79
2. Existência da transformada de Laplace 80
3. Propriedades da transformada de Laplace 82
4. Inversão da transformada de Laplace 87
5. Aplicação à resolução de EDO’s 90
6. Teorema de Heaviside 94
7. “Pacotes” computacionais 98

Capı́tulo 6. Sistemas de Equações Diferenciais 101


1. Tópicos da Teoria das Matrizes 101
iii
iv ÍNDICE

2. Exponencial matricial 111


3. Sistemas de equações diferenciais. Noções básicas 114
4. Teorema de existência e unicidade 116
5. Sistemas diferenciais lineares 120
6. Sistemas diferenciais lineares homogéneos 123
7. Sistemas diferenciais lineares homogéneos de coeficientes constantes 125
8. Sistemas diferenciais lineares não homogéneos 130
Bibliografia 133
CAPı́TULO 1

Noções básicas

1. Primeiras definições
Uma equação envolvendo derivadas de uma função desconhecida dependente de uma
ou mais variáveis (independentes) diz-se equação diferencial. Neste curso vamos supor que
esta função desconhecida depende apenas de uma única variável real, e que na equação
figura apenas um número finito de derivadas. Uma tal equação diferencial diz-se ordinária1
(abreviadamente, escreveremos EDO) e pode sempre pôr-se na forma
³ ´
(1.1) F t, y, y ′ , y ′′ , · · · , y (n) = 0
onde y = y(t) é a função incógnita, t é a variável independente, e F é uma função de
várias variáveis definida de uma forma adequada. Naturalmente, na equação (1.1) a plica
representa a derivada relativamente à variável independente t. O número inteiro positivo
n, que indica a ordem da derivada de maior ordem de todas as derivadas que figuram na
equação diferencial, é designado por ordem da equação diferencial. No caso mais geral a
função desconhecida y pode ser interpretada como uma matriz de funções reais,
y = y(t) = [ yij (t) ] i=1,...,r ,
j=1,...,s

pelo que F pode ser considerada definida num subconjunto D ⊂ IRrs(n+1)+1 e a tomar valores
em IRrs . Assim, em geral, o zero no segundo membro da equação (1.1) pode identificar-se
com a matriz nula de ordem r × s.
Por exemplo, considerando r = s = 1 (caso escalar),
µ 3 ¶2
dy d2 y d y
= ty + sin y e − 3 = t2 et
dt dt2 dt3
são equações diferenciais ordinárias de ordens 1 e 3, respectivamente, tendo-se
F (t, y, y ′ ) := y ′ − ty − sin y e F (t, y, y ′ , y ′′ ) := (y ′ )2 − 3(y ′′ )2 − t2 et .
Pensando num exemplo mais elaborado, para r = 2 e s = 3,
 2
d y11 d2 y12 d2 y13
  5 
d y11 4 dy21
t sin y13
d2 y   dt
2 dt2 dt2   =  dt
 5 dt 
≡ 
dt2  d2 y
21
2
d y22 d y232  
2 dy13 2
d y23 
cos(t ) arccos
dt2 dt2 dt2 dt dt2
é uma equação diferencial (ordinária) de ordem 5, sendo neste caso a função desconhecida
do tipo " #
y11 (t) y12 (t) y13 (t)
y = y(t) = .
y21 (t) y22 (t) y23 (t)
1No caso de na equação diferencial aparecerem mais que uma variável independente, a equação diz-se
de derivadas parciais (e o seu estudo será realizado em disciplinas de anos posteriores).

1
2 1. NOÇÕES BÁSICAS

Seja I um intervalo de R e ϕ : I → Rr×s uma função que admite derivadas até à ordem
n (inclusivé) para todo o t ∈ I. A função ϕ diz-se uma solução explı́cita em I da equação
diferencial (1.1) se
F (t, ϕ(t), ϕ′ (t), . . . , ϕ(n) (t)) ≡ 0 em I .
Isto significa que ϕ é solução explı́cita em I da EDO (1.1) se substituindo nesta y e as
suas sucessivas derivadas por ϕ(t) e as suas sucessivas derivadas, respectivamente, a EDO é
transformada numa identidade em I.
Uma relação
ψ(t, y) = 0
diz-se solução implı́cita em I da EDO (1.1) se define pelo menos uma função ϕ da variável
real t, no intervalo I, tal que esta função é uma solução explı́cita em I de (1.1).
Soluções explı́citas e soluções implı́citas de uma dada EDO denominam-se, usualmente,
soluções. Por resolver ou integrar uma EDO entende-se determinar as suas soluções.
Note-se que uma solução implı́cita não é uma função (de acordo com a definição).
Sucede que por vezes não é possı́vel determinar uma solução explı́cita de uma EDO, pelo
que se considera como “resolução satisfatória” dessa EDO a determinação de uma relação
implı́cita (equação) envolvendo apenas as variáveis independente e dependente (já “livre”
de derivadas!).
Por exemplo, a função ϕ : R → R definida por ϕ(t) = et é solução explı́cita em R da
EDO de ordem 2
y ′′ = y .
√ √
Por outro lado, a relação t2 + y 2 = 2 é solução implı́cita em ] − 2, 2[ da EDO
(1.2) yy ′ = −t ,
√ √
já que cada√uma das funções y = ϕ+ (t) e y = ϕ− (t) definidas por ϕ± :]√ − √ 2, 2[→ R (t 7→
ϕ± (t) = ± 2 − t√ 2 ) satisfaz a relação t2 + y 2 = 2 para todo o t ∈] − 2, 2[, e é solução

explı́cita em ] − 2, 2[ da EDO (1.2). Isto pode confirmar-se facilmente determinando
as expressões designatórias que definem as funções derivadas ϕ′+ e ϕ′− , obtendo-se ϕ′± (t) =
√ √ ′

∓t/ 2 − t2 , e verificar (por substituição directa) que com y = ± 2 − t2 e y√ = ∓t/
√ 2 − t2
(respectivamente) a equação (1.2) se reduz a uma identidade para t ∈] − 2, 2[. Note-
se também que por derivação em ambos os membros da igualdade t2 + y 2 = 2 obtém-
se 2t + 2yy ′ = 0, donde yy ′ = −t, pelo que da mera comprovação de que uma função
y = ϕ(t), diferenciável nalgum intervalo I ⊂ R, satisfaça à relação t2 + y 2 = 2 em I, decorre
imediatamente que essa função é solução da EDO (1.2) em I.
Na prática, o problema que se coloca é o de saber se uma dada relação implı́cita define,
de facto, alguma função solução de uma dada EDO. Uma condição suficiente para que uma
relação implı́cita defina uma relação explı́cita é dada pelo denominado Teorema das Funções
Implı́citas, estabelecido na disciplina de Análise Infinitesimal. Recordemos aqui uma versão
simples deste importante resultado.

Teorema (existência de funções implı́citas) Sejam D um domı́nio de R2 , (t0 , y0 )


um ponto interior de D e G : D → R ((t, y) 7→ G(t, y)) uma função. Suponha-se que as
derivadas parciais Gt e Gy existem e são contı́nuas em D, e que
G(t0 , y0 ) = 0 , Gy (t0 , y0 ) 6= 0 .
Então existe um intervalo aberto, I, contendo t0 e uma única função ϕ definida e contı́nua
em I tal que
ϕ(t0 ) = y0 , Gy (t, ϕ(t)) 6= 0 , ∀t ∈ I , G(t, ϕ(t)) = 0 , ∀t ∈ I .
1. PRIMEIRAS DEFINIÇÕES 3

Além disso, ϕ é derivável (diferenciável) em I, sendo a derivada dada por


Gt (t, ϕ(t))
ϕ′ (t) = − , ∀t ∈ I .
Gy (t, ϕ(t))

Nas condições do teorema, diz-se que a equação G(t, y) = 0 define y como função implı́cita
de t numa vizinhança de t0 . Recordemos que este é um resultado de natureza local, o que
significa que se tem a garantia de existência de função (explı́cita) a partir da relação implı́cita
apenas numa vizinhança de certo ponto (sob as condições do teorema). Resultados gerais
de natureza global (i.e., que garantam a existência da função num intervalo fixado a priori)
não são conhecidos, embora esta “globalidade” possa ser testada nalguns casos particulares.
Concretizando, no caso do exemplo anterior envolvendo a equação diferencial (1.2), o teorema
precedente apenas garante que existe um intervalo aberto I ⊂ R, vizinhança do ponto 0
(toma-se t0 = 0 para fixar ideias), tal que a relação t2 + y 2 = 2 define √ implicitamente uma
única função (solução da EDO (1.2)) y = ϕ(t) satisfazendo ϕ(0) = 2 para todo o t ∈ I.
Mas o Teorema nada diz àcerca da maior ou menor “extensão” desse intervalo I, nem dá
um método para a determinação (explı́cita) da função ϕ. Contudo, no √ caso em discussão
verifica-se que ϕ seria a função ϕ+ introduzida
√ √ atrás (pois ϕ + (0) = 2) e o “maior” (ou
“mais global”) intervalo I possı́vel seria ] − 2, 2 [.
Observamos ainda, como se constata analisando este último exemplo, que para assegurar
a unicidade da função ϕ nas condições do teorema√ anterior é necessário requerer a sua
continuidade. De facto, considerando
√ √ (t0 , y0 ) = (0, √2) √ e G(t, y) = t2 + y 2 − 2, é fácil de
verificar que as funçõs ϕ1 :] − 2, 2[→ R e ϕ2 :] − 2, 2[→ R definidas por
( √ √
p ϕ+ (t) ≡ 2 − t2 , t ∈] − 2, 0]
2
ϕ1 (t) = ϕ+ (t) ≡ 2 − t e ϕ2 (t) = √ √
ϕ− (t) ≡ − 2 − t2 , t ∈]0, 2 [
ambas √ satisfazem
√ a relação F (t, y) ≡ t2 + y 2 − 2 = 0√em qualquer vizinhança de 0 contida
em ] − 2, 2 [ e ambas cumprem a condição √ y(0)√= 2. O que se passa é que ϕ1 é contı́nua
em qualquer vizinhança de 0 contida em ] − 2, 2 [, mas ϕ2 não (já que é descontı́nua no
ponto 0).
Naturalmente, nem sempre é possı́vel determinar uma solução (explı́cita ou implı́cita) de
uma dada EDO (e pode até suceder que uma EDO não tenha soluções, como, por exemplo,
|y ′ | + y 2 = −1), mas em muitos problemas isso não é importante, bastando apenas saber
justificar, por algum processo, que a solução (ou as soluções) existe e que se comporta
de determinada maneira (por exemplo, que à medida que t cresce a solução se mantém
limitada, ou que certas alterações na equação—tais como a substituição, na EDO dada, de
certos termos por outros—não conduzem a alterações significativas no comportamento das
suas soluções, etc.). Isto conduz ao estudo da chamada Teoria Qualitativa das EDO’s.
Um outro aspecto que também importa referir é que na maior parte das aplicações
não interessa conhecer todas as soluções de uma dada EDO (mesmo que fosse possı́vel
determiná-las), mas sim soluções satisfazendo certas condições previamente fixadas. Assim,
dá-se o nome de problema de valores iniciais ou problema de Cauchy a todo o problema que
consista em determinar a solução (ou as soluções) de uma EDO requerendo que essa solução
satisfaça certas condições dadas num dado ponto (pertencente ao intervalo onde a EDO é
dada). Estas condições dadas dizem-se condições iniciais. Por outro lado, dá-se o nome de
problema de valores na fronteira a todo o problema que consista em determinar a solução (ou
as soluções) de uma EDO requerendo que essa solução satisfaça certas condições dadas em
dois ou mais pontos dados.
4 1. NOÇÕES BÁSICAS

Chama-se solução geral (ou integral geral ou, ainda, integral completo) de uma EDO ao
conjunto de todas as suas soluções. Em particular, se n é a ordem da EDO, uma famı́lia de
funções
(1.3) Φ(t, y, c1 , . . . , cn ) = 0
(explı́citas ou implı́citas), dependente de n parâmetros reais c1 , c2 , ..., cn , define a solução
geral se (i) todo o elemento da famı́lia for solução dessa EDO nalgum intervalo; e (ii) toda
a solução da equação se puder obter dessa famı́lia por concretização de c1 , c2 , ..., cn .
Note-se que é natural (apesar de não ser evidente!) que se existir uma expressão que
seja o “mais geral possı́vel”, no sentido de englobar o maior número possı́vel de soluções da
EDO de ordem n (1.1), nessa expressão figurem n constantes arbitrárias, porque no processo
de integração (resolução) da EDO, intuitivamente tudo se passa como se efectuássemos n
integrações (primitivações), uma vez que na resolução de (1.1) procuramos y e em (1.1)
aparece a derivada de ordem n de y.
Para muitas equações diferenciais, de ordem n, a solução geral reduz-se a uma famı́lia
dependente de n parâmetros, do tipo (1.3). No entanto, existem casos em que isto não sucede.
Qualquer solução que se obtenha desta famı́lia (1.3) por concretização das n constantes c1 ,
c2 , ..., cn diz-se uma solução particular da EDO relativamente à famı́lia em questão. Dada
uma famı́lia de soluções com n parâmetros de uma EDO, chama-se solução singular da EDO
relativamente a esta famı́lia a qualquer solução da EDO que não pertença a essa famı́lia.
Por exemplo,
y = 1/(c + t)2
define uma famı́lia de soluções com um parâmetro da EDO
(1.4) y ′ = −2y 3/2 ,
no sentido de que para cada escolha de c existe um intervalo I onde y = 1/(c+t)2 define uma
solução (em I) desta EDO. No entanto, a solução y(t) ≡ 0 não está incluı́da nessa famı́lia e,
por isso, é uma solução singular da EDO em questão (relativamente à famı́lia definida por
y = 1/(c + t)2 ). Para ilustrar a dependência dos conceitos de solução particular e de solução
singular relativamente a uma famı́lia de soluções, considere-se a EDO de ordem 1
(1.5) y′ = 1
2 (y 2 − 1) .
Constata-se facilmente que a relação
(1.6) y − 1 = c et (y + 1)
define uma famı́lia de soluções com um parâmetro de (1.5) (já que, fazendo c percorrer R,
define implicitamente as funções ϕc (t) := (1 + cet )/(1 − cet ), e comprova-se por substituição
directa que todas estas funções são soluções da EDO em discussão, nalgum intervalo real).
Além disso, ϕ ≡ −1 é solução da EDO, mas não se pode obter da famı́lia (1.6) por nenhuma
escolha da constante c, pelo que constitui uma solução singular da EDO relativamente à
famı́lia (1.6). Por outro lado, também a relação
c (y − 1) = et (y + 1)
define uma famı́lia de soluções com um parâmetro de (1.5). Porém, relativamente a esta
famı́lia, ϕ ≡ −1 é solução particular (escolhendo c = 0) e ϕ ≡ 1 é solução singular.
Por vezes a equação (1.1) pode ser resolvida explicitamente em termos de y (n) , obtendo-
se
(1.7) y (n) = f (t, y, y ′ , y ′′ , . . . , y (n−1) ) ,
2. EXERCÍCIOS 5

onde f é uma função conhecida. Nesse caso, (1.7) diz-se forma normal da equação diferencial.
Observe-se que (1.1) pode corresponder a mais do que uma equação na forma normal. De

facto, por exemplo, (y ′ )2 − 4y = 0 representa as duas equações diferenciais y ′ = ±2 y.
No caso mais simples, n = 1, a equação (1.7) reduz-se a
y ′ = f (t, y) .
O capı́tulo 2 tem por objectivo, justamente, o estudo deste tipo de equações (ou das que
se podem reduzir a este tipo) na situação particular em que y é função escalar, o que
corresponde a tomar em (1.1) r = s = 1 (e, claro, n = 1).

2. Exercı́cios
(1) Considere a igualdade cosh α = 12 sin β .
(a) Justifique que não existem números reais α e β que verifiquem a igualdade anterior.
(b) Será a relação cosh y ′′ = 12 sin(πy) uma equação diferencial? Em caso afirmativo, o
que poderá dizer relativamente ao conjunto das suas soluções?
(2) Diga quais das relações indicadas a seguir são equações diferenciais
2
d √ √
a) y ′ = cos(π/y) b) ddt2y = dy ( t+y) c) y ′′′ = −1
y 2 t
d ∂z ∂z ∂x
d) y ′ = 0
e−t dt e) y ′′ = dt 0
log(sy ′ ) ds f) ∂x
+ ∂y
= ∂y
.
(3) Para cada uma das alı́neas seguintes, verifique que as expressões indicadas à direita
definem soluções das equações diferenciais indicadas à esquerda (nalgum intervalo de
números reais).
a) y ′′′ = 8y ; ϕ(t) := e2t−1
2 ′′ ′
b) t y + ty + y = 0 ; ϕ(t) := cos(log x)
ty ty
c) (1 + te )y + ye ′
+ 1 = 0; t + y + ety = 0 .
(4) Considere a relação implı́cita
(ty)2 + log(t2 + y 2 + ǫ) = 0 ,
onde ǫ é um parâmetro positivo (fixo).
(a) Justifique que para ǫ ≥ 1 a relação anterior não pode definir y como função de t em
nenhum intervalo (não degenerado) de números reais.
(b) Se 0 < ǫ < 1, use o Teorema da existência de funções implı́citas para mostrar que
aquela relação define implicitamente uma solução da equação diferencial
t 1 + ty(t2 + y 2 + ǫ)
y′ = −
y 1 + t2 (t2 + y 2 + ǫ)
nalgum intervalo de números reais que contenha√a origem.
(Sugestão: Procure uma solução tal que y(0) = 1 − ǫ )
CAPı́TULO 2

Equações diferenciais de primeira ordem

Neste capı́tulo vamos estudar equações diferencias ordinárias de primeira ordem cuja
função desconhecida é escalar. De acordo com o exposto anteriormente, uma tal equação
pode-se traduzir por uma relação do tipo
F (t, y, y ′ ) = 0 ,
onde F é uma função definida de modo adequado. Esta relação pode assumir uma forma
extremamente simples, como
y′ = 0 ,
ou uma forma bastante complicada, tal como

p
log |ty ′ | + sin[(t2 y − ey + 1)y ′ + t4 + 3 ] = 0 .

1. Considerações geométricas
Vamos supor que a equação geral de primeira ordem acima pode ser escrita na forma
normal,
(1.1) y ′ = f (t, y) ,
onde f é uma função real conhecida definida num certo conjunto Ω ⊂ R2 .

1.1. Campo de Direcções. Recordemos que se uma função real de variável real é
derivável num certo intervalo então o valor da derivada da função num ponto t0 desse
intervalo é o declive da recta tangente ao gráfico da função no ponto do gráfico cuja abcissa
é t0 . Por outro lado, fixada a função f , a cada ponto (t0 , y0 ) de Ω pode associar-se a recta
r ≡ rt0 ,y0 que passa por (t0 , y0 ) e tem declive f (t0 , y0 ), definida por
y − y0 = f (t0 , y0 )(t − t0 ) .
Por conseguinte, construindo um “pequeno” segmento de recta, ϕt0 ,y0 , passando por (t0 , y0 )
e paralelo a rt0 ,y0 , e fazendo o mesmo para cada ponto (t, y) do domı́nio Ω de f , obtém-
se o chamado campo de direcções definido pela equação (1.1). O gráfico de cada solução
y = ϕ(t) de (1.1) é, pois, tangente ao segmento ϕt,ϕ(t) em cada ponto (t, ϕ(t)) de Ω; e, como
“perto” dos pontos de tangência o gráfico da função tende a confundir-se com o conjunto
dos correspondentes segmentos do campo de direcções, conclui-se que o campo de direcções
permite ter uma ideia aproximada do comportamento geométrico das soluções da EDO (1.1).
O campo de direcções da equação diferencial
y′ = t
é dado pelas figuras seguintes (na figura 1 traçam-se apenas alguns segmentos do campo
de direcções, enquanto que na figura 2 já se indica uma curva representando um esboço do
gráfico de alguma solução).
7
8 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

2 2

1 1

-2 -1 1 2 -2 -1 1 2

-1 -1

-2 -2

Figura 1 Figura 2

Como segundo exemplo, damos o campo de direcções da equação diferencial

y′ = y .

-2 -1 1 2

-1

-2

Figura 3
Analisando este campo de direcções, podemos inferir algumas conclusões àcerca das
soluções da equação diferencial y ′ = y:
• A solução cresce com o tempo se a condição inicial for positiva; e decresce se a
condição inicial for negativa.
• As soluções não podem mudar de sinal com o crescimento do tempo.
• As soluções não constantes são ilimitadas.
• Se a condição inicial for nula, a solução é a função identicamente nula.
• Não há soluções constantes para além da solução nula.
1. CONSIDERAÇÕES GEOMÉTRICAS 9

Estas conclusões resultam da mera observação da figura 3. Porém, neste caso, podemos
mesmo confirmar a sua veracidade, já que as soluções da EDO y ′ = y são as funções da
forma ϕ(t) = cet , onde c é uma constante real qualquer.
A importância do conhecimento dos campos de direcções está ligada, por exemplo, ao
estudo de certas EDO’s cujas soluções não podem ser determinadas explicitamente, tais
como
2
p
y ′ = cos t2 , y ′ = e−t , y ′ = 1 − k sin2 t (0 < k < 1) , y ′ = t2 + y 2 , etc.
De facto, para cada uma das três primeiras destas equações, a resolução da EDO consiste,
simplesmente, em determinar as primitivas (relativamente à variável t) das funções que
figuram nos segundos membros das igualdades, e é bem conhecido da Análise Infinitesimal
que cada uma das funções envolvidas nos segundos membros dessas equações não admite
primitivas que se possam escrever como soma finita de funções elementares, i.e., funções
polinomiais, racionais, exponenciais, logarı́tmicas, circulares e hiperbólicas (e suas inversas).
Referimos, a tı́tulo de curiosidade, que as funções que figuram nos segundos membros destas
2
EDO’s têm interesse efectivo em problemas concretos: p cos t é uma função útil em Óptica;
2
e−t é fundamental na Teoria das Probabilidades; e 1 − k sin2 t está ligada aos chamados
integrais elı́pticos, úteis no cálculo do comprimento de uma elı́pse, por exemplo. Por outro
lado, o campo de direcções é construı́do directamente a partir da equação diferencial em
análise, procedimento que não envolve o conhecimento explı́cito das soluções da equação, e
em muitos casos permite traçar satisfatoriamente os gráficos dessas soluções.

1.2. Isoclı́nicas. Para determinar o campo de direcções correspondente a uma dada


EDO, é útil, por vezes, determinar primeiramente as chamadas curvas isoclı́nicas (o que
significa curvas de “igual inclinação”). Fixada uma constante c ∈ R, designa-se por curva
isoclı́nica (ou, simplesmente, isoclı́nica ou, ainda, isóclina) da EDO (1.1) correspondente a c
ao conjunto dos pontos (t, y) ∈ Ω tais que
f (t, y) = c .
Assim, cada isoclı́nica é uma curva (contida em Ω) ao longo da qual todas as tangentes
definidas pelo campo de direcções têm o mesmo declive.
No caso da EDO y ′ = t, cujo campo de direcções é o indicado na figura 1, as isoclı́nicas
são todas as rectas verticais (o que é bem visı́vel a partir da referida figura), enquanto que
para a EDO y ′ = y as isoclı́nicas são todas as rectas horizontais (cf. figura 3).
Como terceiro exemplo, considere-se a EDO
y ′ = t/y .
As isoclı́nicas são as rectas definidas por t = cy com c ∈ R\{0} (i.e., são todas as rectas que
passam pela origem, com excepção do eixo dos tt). Observe-se que da própria EDO y ′ = t/y
se pode extraı́r a seguinte informação:
• Se uma curva integral (solução) intersecta o eixo dos tt (respectivamente: o eixo
dos yy) então ela é tangente a uma recta vertical (respectivamente: horizontal) em
todos os pontos, excepto, possivelmente, o ponto (0, 0).
• Os campos de direcção cujas tangentes são definidas pelas isoclı́nicas correspon-
dentes a c = ±1 são as rectas y = ±t (respectivamente); e pode verificar-se que
estas duas isoclı́nicas definem duas soluções da EDO considerada (o que, geral-
mente, não é uma propriedade das isoclı́nicas).
Na figura 4 podem ver-se os traçados de algumas isoclı́nicas e dos correspondentes
campos de direcção para a EDO y ′ = t/y.
10 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

1.5

0.5

-2 -1 1 2
-0.5

-1

-1.5

-2
Figura 4
Como último exemplo, considere-se a EDO

y ′ = t2 + y 2 .

Neste caso, as isoclı́nicas ou são conjuntos vazios (correspondentes a constantes c < 0) ou


são circunferências centradas na origem, de equações t2 + y 2 = c, com c ≥ 0 (figura 5).

-2 -1 1 2

-1

-2

Figura 5

Do exposto, a resolução da EDO (1.1) tem uma interpretação geométrica natural: fixada
a função f e o domı́nio Ω, trata-se de determinar (se existirem) todas as curvas contidas em
Ω cujas rectas tangentes em cada ponto (t, y) da curva coincidam com as dadas pelo campo
de direcções neste ponto.
2. EQUAÇÕES EXACTAS 11

2. Equações exactas
2.1. Definição. Sejam M (t, y) e N (t, y) duas funções definidas num determinado aberto
Ω ⊂ R2 , e considere-se a EDO
(2.1) M (t, y) + N (t, y)y ′ = 0 .
Se N (t, y) 6= 0 para todos os pontos (t, y) ∈ Ω, (2.1) pode reduzir-se à forma normal (1.1)
com
M (t, y)
f (t, y) = − .
N (t, y)
A EDO (2.1) diz-se diferencial total exacta (ou, simplesmente, exacta) em Ω se existir uma
função u(t, y) definida em Ω tal que
∂u ∂u
(2.2) (t, y) = M (t, y) , (t, y) = N (t, y) , ∀(t, y) ∈ Ω .
∂t ∂y
A designação resulta do facto de, nas condições indicadas (e atendendo ao teorema da
derivação da função composta), ser
∂u ∂u dy d
M (t, y) + N (t, y)y ′ = (t, y) + (t, y) (t) = u(t, y(t))
∂t ∂y dt dt
(i.e., M + N y ′ é exactamente a derivada total (ordinária), du/dt, da função definida pela
correspondência t 7→ u(t, y(t))).
Observe-se que a relação M + N y ′ = du/dt permite determinar as soluções de (2.1), as
quais são, portanto, definidas implicitamente pela fórmula
u(t, y) = C ,
onde C é uma constante real arbitrária.

2.2. Teorema de caracterização.


Teorema 2.1. Sejam M (t, y) e N (t, y) duas funções definidas num rectângulo Ω, definido
pelas condições
|t − t0 | < a , |y − y0 | < b (0 < a, b < +∞) ,
e suponha-se que M e N são contı́nuas e têm derivadas parciais contı́nuas em Ω.
Então, a EDO (2.1) é exacta em Ω se e só se
∂M ∂N
(2.3) = em Ω .
∂y ∂t
Nestas condições, as soluções de (2.1) são dadas implicitamente pela relação
Z y Z t
(2.4) N (t, s)ds + M (s, y0 )ds = C ,
y0 t0

onde C é uma constante real arbitrária.


Prova. (⇒) Suponha-se que (2.1) é exacta. Então, por (2.2), tem-se uty = My e
uyt = Nt . Mas, por hipótese, My e Nt são contı́nuas em Ω, logo, pelo Teorema de Schwarz,
deve ter-se uty = uyt em Ω. Em consequência, M e N satisfazem necessariamente (2.3).
(⇐) Suponha-se agora que se verifica (2.3) e prove-se que (2.1) é exacta. Para isso,
vamos mostrar que existe uma função u = u(t, y) satisfazendo (2.2). Ora, se uma tal função
12 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

existir, deve verificar ut = M . Integrando ambos os membros desta igualdade a respeito de


t, entre t0 e t, obtém-se
Z t
(2.5) u(t, y) = M (s, y)ds + g(y)
t0

onde g(y) é, em princı́pio, uma função arbitrária de y (que desempenha o papel das con-
stantes de integração nos processos de primitivação usuais). Para determinar g, vamos usar
a segunda condição, uy = N , a que u (existindo) também deve satisfazer. Assim, derivando
ambos os membros de (2.5) relativamente a y, obtém-se
Z t

(2.6) g ′ (y) = N (t, y) − M (s, y)ds ,
∂y t0
e como µ Z t ¶
∂ ∂
N− M (s, y)ds = Nt − My = 0
∂t ∂y t0
(atenda-se ao Teorema de Schwarz para funções reais de duas variáveis reais e ao Teorema
Fundamental do Cálculo Integral para funções reais de uma variável real), conclui-se que
o segundo membro de (2.6) depende, de facto, apenas de y. Consequentemente, g pode
obter-se de (2.6) e decorre que a função u procurada é dada por (2.5). Portanto, mostrámos
que a condição (2.3) é suficiente para que a EDO (2.1) seja exacta.
Para concluir a demonstração resta mostrar que a fórmula (2.4) define uma solução
implı́cita de (2.1), para cada constante real C. Para isso, começamos por calcular g(y) a
partir de (2.6), obtendo-se (integrando ambos os membros de (2.6) entre y0 e y)
Z y Z t Z t
g(y) = g(y0 ) + N (t, s)ds − M (s, y)ds + M (s, y0 )ds ,
y0 t0 t0

donde, atendendo a (2.5),


Z y Z t
u(t, y) = N (t, s)ds + M (s, y0 )ds + g(y0 ) ,
y0 t0

o que mostra que (2.4) é uma solução implı́cita de (2.1) para cada C ∈ R.
Observação 2.1. Como decorre da demonstração, no enunciado do teorema precedente
pode substituir-se a condição de Ω ser um rectângulo pela condição de ser um conjunto aberto
e convexo de R2 (e, nesse caso, supor que (t0 , y0 ) ∈ Ω).
Observação 2.2. Em (2.5), a escolha de t0 e y0 é arbitrária, impondo-se apenas que
sejam escolhidos por forma a que os integrais envolvidos se mantenham próprios.
2.3. Factores integrantes. Por vezes, é possı́vel transformar uma EDO não exacta
numa exacta, multiplicando ambos os membros da EDO (não exacta) por um certo factor
µ ≡ µ(t, y), chamado factor integrante, tal que
(2.7) µ(t, y)M (t, y) + µ(t, y)N (t, y)y ′ = 0
seja uma EDO exacta. Observe-se, no entanto, que as EDO’s (2.1) e (2.7) podem não
ser equivalentes, pois podemos “perder” ou “ganhar” soluções com a introdução do factor
integrante. Por exemplo, a EDO
(2.8) y + 3ty ′ = 0
2. EQUAÇÕES EXACTAS 13

não é exacta, já que ∂M


∂y ≡ 1 6= 3 ≡
∂N
∂t . Porém, multiplicando ambos os membros desta
EDO por y 2 , obtém-se
(2.9) y 3 + 3ty 2 y ′ = 0 ,
∂ 3 ∂
que já é uma equação exacta, pois ∂y (y ) = 3y 2 = 2
∂t (3y t). Neste caso, o factor integrante
2
é, pois, µ(t, y) = y . É claro que (2.8) e (2.9) são EDO’s equivalentes (no sentido de terem as
mesmas soluções), considerando Ω um rectângulo qualquer de R2 . Por outro lado, observe-se
que multiplicando ambos os membros de (2.8) por µ(t, y) = t−2/3 obtém-se
(2.10) t−2/3 y + 3t1/3 y ′ = 0 ,
∂ ∂
que é também uma equação exacta, pois ∂y (t−2/3 y) = t−2/3 = ∂t (3t1/3 ) para t 6= 0. Porém,
(2.10) não é exacta em qualquer rectângulo de R2 , mas apenas em qualquer rectângulo Ω
que não intersecte o eixo das abcissas, pelo que apenas podemos afirmar que (2.8) e (2.10)
são equivalentes desde que Ω seja um rectângulo nestas condições.
De acordo com o exposto, a questão que se coloca é, pois, a da determinação de um
factor integrante para uma equação do tipo (2.1) que não seja exacta. Nestas condições, de
acordo com o Teorema 2.1, (2.7) será uma EDO exacta se e só se
∂ ∂
(µM ) = (µN ) em Ω ,
∂y ∂t
i.e., µ(t, y) deve satisfazer à condição
µ ¶
∂M ∂N ∂µ ∂µ
(2.11) µ − =N −M , (t, y) ∈ Ω .
∂y ∂t ∂t ∂y
Esta relação permite determinar o factor integrante µ(t, y), o qual pode não ser único, como
decorre do exposto atrás. Note-se, aliás, que (2.11) é uma equação diferencial de derivadas
parciais de primeira ordem (com variáveis independentes t e y e variável dependente µ) e
pode mostrar-se que tem sempre solução. Isto significa que (2.1) admite sempre (!) factor
integrante, que é solução de (2.11). Acontece que, na prática, esta solução não pode, em
geral, determinar-se analiticamente e, portanto, na maioria dos casos não tem qualquer
utilidade – para a resolução de (2.1), que é o nosso objectivo! – saber que existe factor
integrante de (2.1). Contudo, nalguns casos simples é possı́vel determinar analiticamente
um factor integrante. Isto sucede, e.g., se alguma das funções T ou Y definidas por
µ ¶ µ ¶
1 ∂M ∂N 1 ∂M ∂N
(2.12) T = − e Y =− − ,
N ∂y ∂t M ∂y ∂t
for função apenas de t ou y (respectivamente), i.e.,
(2.13) T ≡ T (t) e Y ≡ Y (y) .
Nesse caso, um factor integrante será dado por
T (t)dt Y (y)dy
µ(t) = e ou µ(y) = e
(respectivamente), como se comprova por substituição directa em (2.11).
Assim, por exemplo, considerando novamente a EDO (2.8), tem-se
µ ¶
1 ∂M ∂N 2
− = − ≡ T (t) ,
N ∂y ∂t 3t
logo
2
− 3t dt
µ(t) = e = t−2/3
14 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

é factor integrante de (2.8), como anteriormente se tinha visto. Por outro lado, tem-se
também µ ¶
1 ∂M ∂N 2
− − = ≡ Y (y) ,
M ∂y ∂t y
pelo que
2
µ(y) = e y dy = y 2
é também factor integrante de (2.8).
Agora, considerando a EDO exacta que resulta de (2.8) pela multiplicação do factor
integrante y 2 , i.e., a EDO (2.9), usando a fórmula (2.3) do Teorema 2.1 conclui-se que as
soluções de (2.8) são dadas por
Z y Z t
2
3ts ds + y03 ds = C , i.e. , ty 3 = C , C ∈ R .
y0 t0

Podemos também pensar em determinar factores integrantes (para a EDO (2.1)) da


forma
µ = µ(ξ) ,
onde ξ é uma função conhecida, de t e y. Se existir factor integrante desta forma, deverá
satisfazer a relação (2.11), logo deve verificar-se
µ ¶ µ ¶
∂M ∂N ∂µ ∂µ ∂ξ ∂ξ dµ
µ − =N −M = N −M ,
∂y ∂t ∂t ∂y ∂t ∂y dξ
donde
1 dµ M y − Nt
(2.14) = .
µ dξ N ξ t − M ξy
Consequentemente, se o segundo membro desta igualdade se puder escrever como função
apenas de ξ, digamos
My − Nt
= φ(ξ) ,
N ξ t − M ξy
então um factor integrante da EDO (2.1) é dado por
φ(ξ)dξ
µ(ξ) = e
(isto pode comprovar-se verificando directamente que µ(ξ) assim definido é solução de (2.11)
ou de (2.14)).
Como exemplo ilustrativo desta situação, considere-se a EDO
(2.15) (3ty + y 2 ) + (3ty + t2 )y ′ = 0 ,
e mostremos que admite um factor integrante do tipo µ = µ(ξ), com ξ = t + y. Ora, tem-se
My − Nt = t − y ,
e conclui-se que não existe factor integrante dependente apenas de t ou dependente apenas
de y (já que, neste caso, as funções T e Y definidas por (2.12) não satisfazem (2.13)). Porém,
tem-se
My − Nt t−y
= ;
N ξ t − M ξy t(3y + t)ξt − y(3t + y)ξy
logo, escolhendo ξ ≡ ξ(t, y) = t + y, esta relação reduz-se a
M y − Nt 1 1
= = ≡ φ(ξ) ,
N ξ t − M ξy t+y ξ
3. EQUAÇÕES DE VARIÁVEIS SEPARÁVEIS 15

e decorre que podemos calcular


1
µ(ξ) = e φ(ξ)dξ
=e ξ dξ = |ξ| .
Isto permite concluir que um factor integrante da EDO (2.15) é
µ(t, y) = t + y ,
pelo que a EDO
(2.16) (3ty + y 2 )(t + y) + (3ty + t2 )(t + y)y ′ = 0
é exacta e equivalente a (2.15)1. Finalmente, usando o Teorema 2.1 conclui-se que as soluções
de (2.15) são dadas por
t3 y + 2t2 y 2 + ty 3 = C , C ∈ R .

3. Equações de variáveis separáveis


As EDO’s mais simples que se podem considerar são as do tipo
(3.1) y ′ = g(t) ,
onde g é uma função (conhecida) apenas de t. Claramente, resolver esta EDO reduz-se a
determinar uma primitiva de g. Assim, supondo que esta função é primitivável num certo
intervalo I, as soluções de (3.1) neste intervalo são as funções ϕ : I → R dadas por
Z
ϕ(t) = g(t) dt + C (C ∈ R) ,
R
onde g(t) dt representa uma primitiva qualquer (concreta) de g.
A EDO (3.1) é caso particular da equação mais geral do tipo
(3.2) h(y)y ′ = g(t) ,
onde g e h são funções (conhecidas) de t e y, respectivamente. A EDO (3.2) diz-se uma EDO
de variáveis separadas (por nela as expressões envolvendo t e y figurarem separadamente nos
membros da equação). Uma EDO que se possa escrever na forma (3.2) diz-se uma EDO de
variáveis separáveis. Por exemplo,
yy ′ = t2
é uma EDO de variáveis separadas, enquanto que
(1 + y 2 )t − (1 + t2 )yy ′ = 0
é uma EDO de variáveis separáveis, já que se pode reescrever na forma equivalente
y t
y′ = .
1 + y2 1 + t2
Para resolver (3.2) suponha-se que g e h são primitiváveis (em intervalos adequados),
relativamente às variáveis t e y, respectivamente, e designem G(t) e H(y) primitivas (quais-
quer) de g e h (nos intervalos considerados), respectivamente. Então, considerando y como
função de t, y = y(t), de acordo com o teorema da derivação da função composta, tem-se
d d
H(y) = (H ◦ y)(t) = h(y(t)).y ′ (t) = h(y)y ′ ,
dt dt
1Observe-se que, aparentemente, introduzimos uma solução suplementar à equação (2.15), nomeada-
mente, ϕ(t) := −t, a qual resulta da possibilidade de ser y + t = 0—sendo, portanto, solução de (2.16)—;
mas comprova-se por verificação directa que ϕ assim definida é também solução de (2.15), pelo que (2.15) e
(2.16) são, efectivamente, equações equivalentes.
16 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

i.e., H(y) é uma primitiva, relativamente à variável t, de h(y)y ′ . Assim, de acordo com o que
se expôs para a resolução de (3.1), é agora claro como resolver (3.2): primitivam-se ambos
os membros de (3.2) relativamente a t, obtendo-se
H(y) = G(t) + C (C ∈ R) ,
ou, usando uma notação mais sugestiva,
Z Z
(3.3) h(y) dy = g(t) dt + C (C ∈ R) .

Observe-se que nesta expressão estão abarcadas todas as soluções de (3.2), por construção,
pelo que (3.3) constitui a solução geral de (3.2).
Como primeiro exemplo, considere-se a EDO
(3.4) y ′ = e−2y cos t .
Multiplicando ambos os membros da equação por e2y , obtém-se e2y y ′ = cos t, pelo que (3.4)
é uma EDO de variáveis separáveis, cuja solução geral é determinada por
Z Z
e2y dy = cos t dt + C , i.e. , e2y = 2 sin t + C (C ∈ R) ,

relação que define implicitamente as soluções de (3.4). Neste caso é claro que, considerando
intervalos adequados para a variação de t, as soluções podem mesmo explicitar-se, de modo
que (em intervalos adequados) as soluções de (3.4) são definidas por

ϕ(t) = log 2 sin t + C (C ∈ R) .
Como se constata imediatamente, e (3.4) sugere, uma EDO de variáveis separáveis
é, essencialmente, uma EDO de primeira ordem que se pode escrever na forma normal
y ′ = f (t, y) onde a função f (t, y) é factorizável como produto de duas funções, uma apenas
de t e outra apenas de y, digamos, f (t, y) = g(t)h1 (y), ou seja, é essencialmente uma EDO
da forma
(3.5) y ′ = g(t)h1 (y) .
Note-se que se h1 (y) 6= 0 nalgum intervalo então, nesse intervalo, (3.5) é equivalente a (3.2),
pondo h(y) = 1/h1 (y) e, de acordo com (3.3), a solução geral de (3.5) é dada por
1
Z Z
(3.6) dy = g(t) dt + C (C ∈ R) .
h1 (y)
Porém, se h1 (y0 ) = 0 para algum y0 , então é óbvio que a função constante definida por
ϕ(t) ≡ y0
é solução de (3.5) em qualquer intervalo onde g esteja bem definida (e, claro, seja aı́ primi-
tivável).
Como segundo exemplo, considere-se a EDO
(3.7) y ′ = (3 − y)y .
Referimos que EDO’s deste tipo dizem-se logı́sticas e aparecem frequentemente em problemas
de variação populacional. É óbvio, por um lado, que
ϕ1 (t) ≡ 0 e ϕ2 (t) ≡ 3
3. EQUAÇÕES DE VARIÁVEIS SEPARÁVEIS 17

são soluções de (3.7) em qualquer intervalo de R. Por outro lado, considerando Ω um


domı́nio de R2 que não intersecte as rectas y = 0 e y = 3, separando as variáveis na EDO
(3.7), tem-se
1
y′ = 1 .
(3 − y)y
Agora, de acordo com (3.6), deduz-se
Z µ ¶
1 1 1
Z
dy = t + C , i.e. , 13 + dy = t + C ,
(3 − y)y y 3−y
ou seja, ¯ ¯
¯ y ¯
log ¯
¯ ¯ = 3t + C (C ∈ R) .
3 − y¯
Esta relação define implicitamente uma famı́lia de soluções da EDO (3.7) nalgum intervalo
I. Observe-se que esta última pode reescrever-se na forma equivalente
¯ ¯
¯ y ¯ 3t
(3.8) ¯ 3 − y ¯ = Ce
¯ ¯ (C > 0) .

Daqui, para C > 0 (fixo) resulta que y/(3 − y) = ±Ce3t para todo o t ∈ I. Porém, como
procuramos y = y(t) como solução de uma EDO no intervalo I, logo, em particular, y deverá
ser uma função contı́nua de t em I, terá forçosamente de ser ou y/(3 − y) = Ce3t para todo o
t ∈ I, ou y/(3 − y) = −Ce3t para todo o t ∈ I. Estas duas situações podem ser descritas por
uma mesma expressão, atribuindo maior liberdade à constante C, e deduz-se que a relação
y
(3.9) = Ce3t (C ∈ R)
3−y
define implicitamente uma famı́lia de soluções da EDO (3.7) nalgum intervalo I. Note-se
que a solução ϕ1 ≡ 0 se obtém desta famı́lia de soluções como solução particular, escolhendo
C = 0. Foi por isso que se pôs C ∈ R e não C ∈ R\{0}, em (3.9). Observe-se também que
a solução ϕ2 ≡ 3 não se pode obter de (3.9) por concretização de C, pelo que constitui uma
solução singular da EDO (3.7) relativamente a esta famı́lia de soluções (3.9). Além disso,
resolvendo (3.9) [ou (3.8)] relativamente a y, conclui-se que as soluções de (3.7) são dadas
explicitamente por
3Ce3t /(Ce3t − 1) , y < 0








 0 , y=0

(3.10) ϕ(t) = 3Ce3t /(Ce3t + 1) , 0 < y < 3


3 , y=3






3Ce3t /(Ce3t − 1) , y > 3 ,

onde C é uma constante arbitrária e positiva (C > 0).


Observe-se que cada solução definida por (3.10) fica perfeitamente especificada se fixar-
mos uma condição inicial. Isto é, por cada ponto (t0 , y0 ) ∈ R2 fixado a priori passa uma e
uma só solução, que é explicitamente definida por algum dos ramos que compõem a expressão
(3.10). Note-se também que para cada escolha de C > 0 existem três possibilidades para a
solução, e que o intervalo de definição da solução depende da escolha de C, podendo existir
assı́mptotas horizontais (para as soluções que se situam na faixa definida por 0 < y < 3)
ou simultaneamente assı́mptotas verticais e horizontais (para as soluções que se situam nos
semi-planos definidos por y < 0 ou y > 3). Estas assı́mptotas verticais dependem da escolha
da constante C > 0, sendo definidas por t = − 31 log C.
18 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Observação 3.1. Sendo dt um acréscimo não nulo da variável independente, a EDO


(3.2) pode reescrever-se como
h(y)y ′ dt = g(t) dt .
Considerando y como função de t, digamos, y = y(t), o diferencial da variável dependente é
dado por dy = y ′ dt, o que permite reescrever novamente a EDO (3.2) na forma
(3.11) h(y) dy = g(t) dt .
Esta é uma forma usual de escrever uma EDO de variáveis separáveis, a qual tem algumas
vantagens práticas. Com efeito, comparando esta relação com a fórmula (3.3), anteriormente
estabelecida para as soluções de (3.2),
Z Z
h(y) dy = g(t) dt + C (C ∈ R) ,

somos conduzidos à seguinte regra prática para a determinação das soluções da EDO de
variáveis separadas na forma (3.2): basta “aplicar integrais” a ambos os membros da igual-
dade (3.11).
Assim, por exemplo, para resolver a EDO yy ′ = t2 , reescrevemo-la Rna forma Ry dy = t2 dt
e, “aplicando integrais”, segue-se que as suas soluções são dadas por y dy = t2 dt + C,
ou seja, são definidas implicitamente pela relação
y2 t3
= + C (C ∈ R) .
2 3
Observação 3.2. Do mesmo modo, em vez da EDO do tipo (2.1), anteriormente con-
siderada, também é corrente (e rigoroso) escrever
(3.12) M (t, y) dt + N (t, y) dy = 0 .
Contudo, neste caso as vantagens não são tão evidentes como no caso acima, pois as variáveis
t e y figuram nas funções que aparecem como factores de ambos os acréscimos dt e dy na
equação, pelo que não faz sentido “aplicar integrais” a (3.12).

4. Equações lineares de primeira ordem


Sejam a0 , a1 e b funções definidas num intervalo I ⊂ R. A equação diferencial
a0 (t)y ′ + a1 (t)y = b(t)
diz-se uma equação diferencial linear de primeira ordem, designação justificada pelo facto de
tal equação poder ser encarada como uma combinação linear das variáveis y e y ′ (sendo os
coeficientes da combinação linear as funções a0 e a1 , independentes de y e y ′ ).
Se o segundo membro da equação, b, for a função identicamente nula em I, a equação
diz-se homogénea; caso contrário, diz-se não homogénea ou completa.
Neste parágrafo vamos admitir que a função a0 nunca se anula no intervalos I e, além
disso, que a0 , a1 e b são funções contı́nuas em I, hipóteses que simplificam consideravelmente
o estudo destas equações diferenciais. Deste modo (dividindo ambos os membros por a0 (t))
a equação diferencial pode reescrever-se na forma equivalente
(4.1) y ′ + P (t)y = Q(t) ,
onde P e Q são funções contı́nuas no intervalo I. Para a resolução de (4.1) podem adoptar-
se vários métodos, nomeadamente o método do factor integrante e o método da variação das
constantes arbitrárias, que a seguir se expõem. Como, sob as hipóteses consideradas, qualquer
destes métodos de resolução é sempre aplicável, em particular conclui-se que a EDO (4.1)
admite sempre solução em I.
4. EQUAÇÕES LINEARES DE PRIMEIRA ORDEM 19

4.1. Método do factor integrante. Multiplicando ambos os membros de (4.1) por


P (t)dt
µ(t) := e
R
(dito factor integrante), onde P (t)dt é qualquer primitiva de P em I, obtém-se
P (t)dt
e y ′ + P (t) e P (t)dt
= Q(t) e P (t)dt
,
expressão que se pode reescrever na forma
d ³ P (t)dt ´
e y = Q(t) e P (t)dt .
dt
Integrando ambos os membros relativamente a t, vem
Z ³ ´
e P (t)dt y = Q(t) e P (t)dt dt + C ,

onde C é uma constante real arbitrária, logo o integral geral da EDO (4.1) é
µZ ³ ´ ¶
P (t)dt
(4.2) y= Q(t) e dt + C e− P (t)dt , C ∈ R .

Observação 4.1. A introdução do factor integrante µ, tal como definido acima, pode
justificar-se no contexto da teoria devenvolvida para as equações diferenciais totais exactas.
Com efeito, (4.1) é do tipo (2.1), com M (t, y) := P (t)y − Q(t) e N ³ (t, y) ≡ 1´ . Como
∂M/∂y = P (t) e ∂N/∂t = 0 , a equação não é total exacta. Porém, N1 ∂M ∂y − ∂t
∂N
= P (t) ,
que só depende de t, pelo que existe factor integrante como função apenas de t, que é
justamente o factor µ introduzido acima.
4.2. Método da variação das constantes arbitrárias. Este método consiste em re-
solver a EDO (4.1) em duas etapas, determinando primeiramente a solução geral da equação
homogénea associada,
(4.3) y ′ + P (t)y = 0 ,
que é uma equação de variáveis separáveis (e, portanto, sabemos já como resolver), e em
seguida fazendo variar a constante arbitrária, C, que figura na solução geral que já se
determinou (da equação homogénea), considerando momentaneamente que essa constante é
função de t, digamos, C = C(t), e determinando em seguida C(t) de modo que a expressão
da solução geral da equação homogénea, com C(t) em vez de C, seja uma solução particular
da equação completa (4.1). É óbvio que y(t) ≡ 0 é uma solução de (4.3). Supondo então
y 6= 0 nalgum intervalo, nesse intervalo deduz-se sucessivamente
1 1
Z Z
dy = −P (t) dt ⇒ dy = − P (t) dt + c
y y
Z
⇒ log |y| = − P (t) dt + c

⇒ |y| = ec e− P (t)dt
,
onde c é uma constante real arbitrária. Pela continuidade da solução de uma EDO, decorre
que a solução geral da equação homogénea (4.3) é dada por

y = C e− P (t)dt
, C ∈ R.
20 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Supondo agora que C é função de t, determine-se C(t) de modo que y(t) = C(t) e− P (t)dt
seja solução de (4.1). Como y ′ (t) = [C ′ (t) − P (t)C(t)] e− P (t)dt , substituindo estas ex-
pressões de y(t) e y ′ (t) em (4.1), obtém-se
Z ³ ´
C ′ (t) = Q(t) e− P (t)dt ⇒ C(t) = Q(t) e P (t)dt dt + C , C ∈ R ;

logo, substituindo esta expressão para C(t) em y(t) = C(t) e− P (t)dt


, somos novamente
conduzidos à expressão (4.2) para a solução geral de (4.1).

5. Algumas EDO’s clássicas


Nesta secção apresentaremos algumas EDO’s que estiveram na origem da Teoria das
Equações Diferenciais. Muitas destas EDO’s podem ser resolvidas utilizando uma mudança
de variável adequada, a qual permite, em cada caso, reduzir a EDO em análise a um dos
tipos já estudado.
5.1. Equação homogénea. Sendo k um número real, uma função h : Ω ⊂ R2 → R
diz-se homogénea de grau k no domı́nio Ω se
(5.1) h(λt, λy) = λk h(t, y)
para todos os pares (t, y) ∈ Ω e para todos os números reais λ tais que (λt, λy) ∈ Ω.
As funções abaixo fornecem alguns exemplos de funções homogéneas (k indica o grau
de homogeneidade, em cada caso):
• h(t, y) := 3t2 − ty − y 2 , k = 2 ;
• h(t, y) := sin(t2 /(t2 − y 2 )) , k = 0 ;
• h(t, y) := 6ey/t /(t2/3 y 1/3 ) , k = −1 ;
• h(t, y) := (t4 + 7y 4 )1/5 , k = 4/5 .
Chama-se equação diferencial homogénea a toda a EDO do tipo
(5.2) y ′ = f (t, y)
onde f é uma função homogénea de grau zero nalgum domı́nio Ω ⊂ R2 .
Observe-se que, fazendo em (5.1) λ = 1/t vem
³ y´
tk f 1, = f (t, y) ,
t
o que implica que uma função homogénea de grau k = 0 pode ser vista como uma função de
uma só variável, nomeadamente v = y/t. Assim, a EDO homogénea (5.2) é essencialmente
uma EDO da forma
³y ´
(5.3) y′ = g ,
t
onde g é uma função real de variável real. Para resolver esta equação, efectue-se a mudança
de variável dependente (y → v) definida por
y = tv , i.e., v = y/t .
Então, é y ′ = v + tv ′ , logo por substituição em (5.3) obtém-se
(5.4) tv ′ = g(v) − v ,
que é uma EDO de variáveis separáveis, pelo que pode aplicar-se a teoria desenvolvida para a
resolução deste tipo de equações. Assim, por um lado, se para algum v0 ∈ R for g(v0 ) = v0 ,
decorre que v(t) ≡ v0 é uma solução de (5.4), logo
y(t) := v0 t
5. ALGUMAS EDO’S CLÁSSICAS 21

é uma solução da equação homogénea (5.3). Por outro lado,


R sedvg(v) 6=R vdtnalgum intervalo J,
admitindo que g é contı́nua em J, de (5.4) deduz-se que g(v)−v = t + C = log |t| + C ,
onde C é uma constante real arbitrária, pelo que, pondo
dx
Z
G(x) := (escolhe-se uma qualquer primitiva em J) ,
g(x) − x
uma famı́lia de soluções (nalgum intervalo adequado que não contenha a origem) da EDO
(5.3) é dada por
³y´
(5.5) G = log |t| + C , C ∈ R .
t
Observação 5.1. É fácil constatar que uma EDO do tipo
M (t, y)dt + N (t, y)dy = 0 ,
onde M e N são funções homogéneas do mesmo grau nalgum domı́nio Ω onde N nunca se
anule, é uma EDO homogénea.
Como exemplo, considere-se a EDO
(t2 − ty + y 2 )dt + t2 dy = 0 .
Tem-se M (t, y) := t2 − ty + y 2 e N (t, y) := t2 , logo M e N são funções homogéneas
do mesmo grau k = 2. Por conseguinte, a EDO em questão é homogénea em intervalos
adequados, que não contenham a origem. Considerando domı́nios Ω que não contenham
pontos do eixo dos yy, esta EDO pode reescrever-se na forma equivalente
y ³ y ´2 ³y ´
y ′ = −1 + − ≡g ,
t t t
onde g(v) := −1 + v − v 2 . Observe-se que não existem pontos v0 tais que g(v0 ) = v0 . Assim,
efectuando a mudança de variável (y → v) definida por y = tv, e atendendo a que, neste
caso, é
dx
Z
G(x) := − = arctan x ,
1 + x2
deduz-se de (5.5) que, em intervalos adequados, uma famı́lia de soluções da EDO em análise

y = t tan (C − log |t|) , C ∈ R .

5.2. Equação homográfica. Chama-se equação homográfica a uma EDO do tipo


µ ¶
a1 t + b1 y + c1
(5.6) y′ = g ,
a2 t + b2 y + c2
onde g é uma função contı́nua nalgum intervalo e ai , bi , ci (i = 1, 2) são números reais fixos
tais que |a2 | + |b2 | + |c2 | > 0.
Note-se que se a1 = a2 = 0 ou b1 = b2 = 0 a equação reduz-se a uma EDO de variáveis
separáveis, e se c1 = c2 = 0 ela é redutı́vel a uma EDO homogénea. Em qualquer destes
casos sabemos já como resolver a equação, pelo que no que vai seguir-se podemos supor que
em (5.6) nenhum dos pares (a1 , a2 ), (b1 , b2 ) e (c1 , c2 ) coincide com o par (0, 0).
A determinação das soluções da EDO (5.6) será feita analisando separadamente dois
casos, de acordo com a posição relativa das rectas definidas pelas equações a1 t+b1 y +c1 = 0
e a2 t + b2 y + c2 = 0 .
22 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Caso 1: As rectas são concorrentes. Designando por (t0 , y0 ) o ponto de intersecção


destas rectas, (5.6) resolve-se efectuando a substituição definida por
½
t = u + t0
y = v + y0 .
Daqui vem y ′ = v ′ e, como a1 t0 + b1 y0 + c1 = 0 = a2 t0 + b2 y0 + c2 = 0 , também
a1 t + b1 y + c1 a1 u + b1 v a1 + b1 v/u
= = ,
a2 t + b2 y + c2 a2 u + b2 v a2 + b2 v/u
pelo que (5.6) se converte na EDO homogénea
³v´ µ ¶
a1 + b1 x
v′ = h , onde h(x) := g .
u a2 + b2 x
Caso 2: As rectas são paralelas (eventualmente coincidentes). Então, ou a1 e a2 são
simultaneamente nulos, ou são ambos não nulos, e analogamente para b1 e b2 , pelo que pode-
mos supor que nenhum dos números a1 , a2 , b1 , b2 é zero. Agora, a condição de paralelismo
implica
a1 b1
= ≡ λ,
a2 b2
logo
a1 t + b1 y + c1 λ(a2 t + b2 y) + c1
= ,
a2 t + b2 y + c2 a2 t + b2 y + c2
pelo que a substituição
a2 t + b2 y = u
permite reduzir (5.6) à forma
u′ − a2
µ ¶
λu + c1
=g ,
b2 u + c2
que é uma EDO de variáveis separáveis (na variável dependente u).
5.3. EDO’s redutı́veis a lineares de primeira ordem. Certas EDO’s não lineares
podem, por vezes, converter-se em EDO’s lineares, através de uma mudança de variável
(dependente) adequada. Nesta secção vamos estudar algumas EDO’s em que isso sucede.
5.3.1. Equação de Bernoulli. Chama-se equação de Bernoulli a uma EDO do tipo
(5.1) a0 (t)y ′ + a1 (t)y = b(t)y n ,
onde se supõe que a0 , a1 , b são funções contı́nuas nalgum intervalo I e n é um número real
(que pode ou não ser inteiro).
Claramente, se n = 0 a equação anterior é linear; e, se n = 1 trata-se de uma equação
de variáveis separáveis.
Se n 6= 0 e n 6= 1, multiplicando ambos os membros de (5.1) por y −n , obtém-se
(5.2) a0 (t)y −n y ′ + a1 (t)y 1−n = b(t) .
Isto sugere que se efectue a mudança de variável (y → v) definida por
v = y 1−n .
Ter-se-á então, derivando, y −n y ′ = v ′ /(1 − n); logo, substituindo em (5.2), conclui-se que a
equação (5.1) é transformada na equação
a0 (t) ′
v + a1 (t)v = b(t) ,
1−n
5. ALGUMAS EDO’S CLÁSSICAS 23

que é uma EDO linear na variável dependente v que, portanto, sabemos já como resolver.
5.3.2. Equação de Clairaut. Uma EDO da forma
(5.3) y = ty ′ + f (y ′ ) ,
onde f é uma função definida nalgum intervalo de R, diz-se uma equação de Clairaut. Efec-
tuando na equação anterior a mudança de variável (y → p) definida por
dy
p = y′ ≡ ,
dt
a equação pode reescrever-se na forma
(5.4) y = tp + f (p) .
Supondo agora que f é diferenciável e atendendo a que p é função de t, derivando ambos os
membros desta equação relativamente a t, obtém-se
dy dp dp ′ dp
=p+t + f (p) ⇔ [ t + f ′ (p) ] = 0.
dt dt dt dt
Assim, as soluções da equação satisfazem
dp
= 0 ou t + f ′ (p) = 0 .
dt
No primeiro caso, tendo derivada nula (num intervalo), p é necessariamente uma função
constante (nesse intervalo), digamos p ≡ c; logo, substituindo em (5.4), resulta
(5.5) y = ct + f (c) , c ∈ R.
No segundo caso, é t = −f (p) e, substituindo em (5.4), deduz-se y = −pf ′ (p) + f (p);

considerendo então que p é um parâmetro, as duas equações


t = −f ′ (p)
(
(5.6)
y = −pf ′ (p) + f (p)
definem (parametricamente) uma função (ou, como usualmente se diz, uma curva integral)
que é uma solução da equação (5.3).
Em conclusão: nas condições indicadas, (5.5) define uma famı́lia de soluções da equação
de Clairaut (5.3) – uma vez que depende de uma constante arbitrária – e (5.6) define para-
metricamene uma outra solução de (5.3), que em princı́pio será uma solução singular relati-
vamente à famı́lia de soluções (5.5)—sempre que não se possa obter desta por concretização
de c.
5.3.3. Equação de Riccati. Denomina-se equação de Riccati a uma EDO da forma
(5.7) y ′ = P (t) + Q(t)y + R(t)y 2 ,
onde, normalmente, se assume que P , Q e R são funções contı́nuas nalgum intervalo de R.
Não existe método geral para a resolução desta equação. Há, porém, uma situação (pelo
menos!) em que é possı́vel determinar uma famı́lia de soluções. Trata-se do caso em que
se conhece uma solução particular da equação em discussão, digamos y0 = y0 (t). De facto,
nestas condições, efectuando a mudança de variável (y → u) definida por
(5.8) y = y0 + u ,

tem-se y = y0′ ′
+ u e, substituindo em (5.7), obtém-se
y0′ + u′ = P (t) + Q(t)y0 + R(t)y02 + [Q(t) + 2R(t)y0 ]u + R(t)u2 ,
24 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

i.e., atendendo a que y0 é solução de (5.7)—logo y0′ = P (t) + Q(t)y0 + R(t)y02 —,


u′ − [Q(t) + 2R(t)y0 (t)]u = R(t)u2 ,
que é uma equação de Bernoulli na variável dependente u.
Por conseguinte, no caso de ser conhecida uma solução particular, y0 (t), da EDO de
Riccati (5.7), por meio da mudança de variável definida por (5.8) a equação converte-se
numa EDO de Bernoulli. No caso geral, o problema da determinação das soluções de (5.7)
é extremamente complicado. Com efeito, pode provar-se, por meio de uma mudança de
variável (dependente) adequada, que uma equação de Riccati pode sempre converter-se
numa EDO linear de segunda ordem de coeficientes variáveis (i.e., dependentes de t), e
reciprocamente; ora, como veremos no capı́tulo 3, para a maioria das EDO lineares deste
tipo não é possı́vel obter explicitamente as suas soluções.

6. Possibilidade de “inversão” numa EDO de primeira ordem


Seja f (t, y) uma função contı́nua e que nunca se anule num domı́nio Ω ⊂ R2 . Admita-se
que y = ϕ(t) é solução em I da EDO
y ′ = f (t, y) .
Nestas condições, tem-se
ϕ′ (t) = f (t, ϕ(t)) 6= 0 , ∀t ∈ I .
Em consequência, ou é ϕ′ > 0 em I, ou é ϕ′ < 0 em I. Em qualquer dos casos, ϕ é
estritamente monótona em I, logo injectiva em I. Decorre que ϕ é invertı́vel em I, sendo a
função inversa, ϕ−1 : ϕ(I) → I, caracterizada por
∀ y ∈ ϕ(I) , ϕ−1 (y) = t ,
onde t é o único número real de I tal que ϕ(t) = y (recorde-se que ϕ(I) := {ϕ(t) : t ∈ I} é
o contradomı́nio de ϕ). Do exposto, podemos afirmar que:
• ϕ é invertı́vel em I
• ϕ é derivável em I (por ser solução da EDO de partida)
• ϕ′ (t) 6= 0 , ∀t ∈ I .
Em consequência, pelo teorema da derivada da função inversa, ϕ−1 é derivável em ϕ(I) e
tem-se, para cada y ∈ ϕ(I),
dϕ−1 1
(ϕ−1 )′ (y) ≡ (y) = ′ ,
dy ϕ (t)
onde t é o único número real de I tal que ϕ(t) = y , ou seja,
dϕ−1 1 1
(y) = = −1
,
dy f (t, ϕ(t)) f (ϕ (y), y)
o que mostra que ϕ−1 é solução da EDO
1
t′ = ,
f (t, y)
onde, agora, a variável independente é y e a variável dependente é t, e a “plica” representa
d
derivada relativamente a y (i.e., ′ ≡ dy ). Portanto, nas condições indicadas, é legı́timo
afirmar que as soluções da EDO
dt 1
=
dy f (t, y)
6. POSSIBILIDADE DE “INVERSÃO” NUMA EDO DE PRIMEIRA ORDEM 25

são as funções inversas das soluções da EDO


dy
= f (t, y) ,
dt
e tudo se passa como se a primeira destas equações se obtivesse da segunda multiplicando
1 1
ambos os membros desta por dt × dy × f (t,y) .
Isto permite dar significado à “equivalência”
dy dt 1
= f (t, y) ⇔ =
dt dy f (t, y)
(que traduz uma “inversão” na equação diferencial de partida), muito útil na resolução
concreta de certas EDO’s de primeira ordem (e põe em evidência, uma vez mais, o interesse
prático da notação de Leibniz para a derivada).

Como exemplo de aplicação, considere-se a EDO


(6.1) y + (3t − ty + 2)y ′ = 0 .
Esta equação não parece enquadrar-se em nenhum dos tipos estudados nas secções anteriores.
Em particular, não é linear em y, pois nela figura o termo não linear yy ′ . Porém, em domı́nios
planos que não intersectem as curvas definidas por y = 0 e 3t − ty + 2 = 0, a equação (6.1)
pode pôr-se na forma normal
dy y
=−
dt 3t − ty + 2
e, portanto, podemos escrever
dy y dt 3t − ty + 2
=− ⇔ =− ,
dt 3t − ty + 2 dy y
no sentido da equivalência acima referida. Ora, a equação que figura no membro à direita
da expressão anterior é equivalente a
dt 3−y 2
(6.2) + t=− ,
dy y y
e constata-se de imediato que se trata de uma EDO linear em t (na variável independente
y). Esta equação pode, portanto, resolver-se aplicando os métodos de resolução de EDO’s
lineares de primeira ordem. Adoptando para a resolução o método do factor integrante,
sabemos que um factor integrante é dado por
3−y
dy
µ(y) = e y = e3 log |y|−y = |y|3 e−y .
Assim, multiplicando ambos os membros de (6.2) por y 3 e−y , deduz-se que
d 3 −y
Z
2 −y
(y e . t) = −2y e ⇔ y e t = − 2y 2 e−y dy + C ,
3 −y
dy
onde C é uma constante real arbitrária. Agora, usando o método de primitivação por partes,
facilmente se verifica que uma primitiva de 2y 2 e−y é
Z
2y 2 e−y dy = −2e−y (y 2 + 2y + 2) ,

e conlui-se que as soluções da EDO (6.1) são definidas implicitamente pela relação
y 3 t = 2(y 2 + 2y + 2) + Cey , C ∈ R.
26 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

7. Problema de Cauchy: y ′ = f (t, y) , y(t0 ) = y0


7.1. Formulação do problema. Fixemos uma função f : Ω ⊂ R2 → R (com Ω
convexo) e um ponto (t0 , y0 ) ∈ Ω. Chama-se problema de Cauchy, ou problema de condições
(ou valores) iniciais (t0 , y0 ), ao problema seguinte: encontrar um intervalo I e as funções
(soluções) y = y(t) definidas em I tais que
½ ′
y (t) = f (t, y(t)) , t ∈ I
(7.1)
y(t0 ) = y0 .
Se f é contı́nua este problema admite uma formulação equivalente, envolvendo no lugar
da equação diferencial uma equação integral, de acordo com a proposição seguinte.
Teorema 7.1. Sejam f : Ω ⊂ R2 → R contı́nua e (t0 , y0 ) ∈ Ω. Sejam I um intervalo de
números reais contendo t0 no seu interior e ϕ : I → R uma função contı́nua em I tais que
(t, ϕ(t)) ∈ Ω para todo o t ∈ I. Nestas condições, as seguintes afirmações são equivalentes:
(i) ϕ é solução em I da EDO com condição inicial
(7.2) y(t0 ) = y0 , y ′ (t) = f (t, y(t)) , t∈I.
(ii) ϕ é solução da equação integral
Z t
(7.3) y(t) = y0 + f (s, y(s)) ds , t∈I.
t0

Prova. Que (i) implica (ii) é imediato, já que, sendo ϕ solução de (7.2) então é ϕ(t0 ) = y0
e ϕ′ (s) = f (s, ϕ(s)) para todo o s ∈ I, logo, integrando ambos os membros desta igualdade
no intervalo [t0 , t], com t ∈ I, fixo, obtém-se
Z t
ϕ(t) − ϕ(t0 ) = f (s, ϕ(s)) ds ,
t0

donde resulta que ϕ é solução de (7.3). Para provar que (ii) implica (i), suponha-se que ϕ
satisfaz a equação integral (7.3) em I, i.e.,
Z t
(7.4) ϕ(t) = y0 + f (s, ϕ(s)) ds , t ∈ I .
t0

Então, é claro que ϕ(t0 ) = y0 e como, pelas hipóteses do teorema, a função s ∈ I 7→ f (s, ϕ(s))
é contı́nua, decorre do Teorema Fundamental do Cálculo Integral que a função
Z t
t ∈ I 7→ f (s, ϕ(s)) ds
t0

é diferenciável em I (tendo por derivada a função integranda calculada para s = t). Assim,
o segundo membro de (7.4) define uma função diferenciável em I, logo o mesmo sucede
ao primeiro membro, i.e., ϕ é diferenciável em I. Derivando então ambos os membros da
igualdade (7.4), obtém-se ϕ′ (t) = f (t, ϕ(t)) para todo o t ∈ I, o que prova que ϕ é solução
de (7.2) em I.
Observação 7.1. A condição inicial desempenha um papel determinante na definição
do intervalo de definição da solução. Com efeito, considerando a EDO
y′ = y2 ,
com a condição inicial y(0) = 1 o correspondente problema de Cauchy tem por solução
y(t) = 1/(1 − t) , t ∈] − ∞, 1[ ;
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 27

e com a condição inicial y(0) = 2 a solução é


y(t) = 2/(1 − 2t) , t ∈] − ∞, 1/2[ .
Isto motiva o problema da determinação do “maior” intervalo de definição da solução, as-
sunto de que não nos ocuparemos neste curso – limitar-nos-emos a comentar este facto em
exemplos concretos que venham a ser considerados.
Observação 7.2. O problema de Cauchy pode ou não ter solução; e, no caso de a
solução existir, pode ou não ser única. Com efeito, a equação linear
(
y ′ + P (t)y = Q(t) , t ∈ I
y(t0 ) = y0
(t0 ∈ I) tem sempre solução e é única, quando P e Q são funções contı́nuas em I, a qual é
dada explicitamente por
µ Z t ¶
s
P (u)du − t P (u)du
y(t) = y0 + Q(s) e t0 ds e t0 , t∈I.
t0

Por outro lado, o problema (não linear)


(
y ′ = −y 2 /t2
y(0) = 1 ,
não tem solução em qualquer intervalo I que contenha a origem. De facto, pode verificar-se
(pelo método de separação de variáveis, ignorando momentaneamente a condição inicial)
que a EDO y ′ = −y 2 /t2 tem por soluções (em intervalos adequados) funções y tais que
y(t) = −t/(1 + Ct) , C ∈ R;
assim, pela continuidade da solução, ter-se-ia y(0) = limt→0 y(t) = −0/(1 + 0) = 0, o que
contradiz y(0) = 1. Finalmente, o problema
(
y ′ = y 1/3
y(0) = 0 ,
tem mais que uma solução, uma vez que y(t) ≡ 0 é obviamente solução e constata-se facil-
mente que (
0 , t≤0
y(t) = 3/2
(2t/3) , t≥0
é também solução.
Estes exemplos colocam em evidência a necessidade de dispor de resultados que permi-
tam decidir a priori se um dado problema de condições iniciais tem solução. E, em caso
afirmativo, o de saber se esta é única. Nos parágrafos seguintes vamos ocupar-nos destas
questões.
7.2. Noção de solução δ-aproximada. O resultado local de existência que apre-
sentaremos no parágrafo seguinte será estabelecido em duas etapas. Primeiro, e é o objec-
tivo deste parágrafo, construiremos uma “solução aproximada”, num sentido a precisar. Em
seguida, no parágrafo seguinte, mostraremos que existe uma sucessão de soluções aproxi-
madas, no referido sentido, que converge para uma solução de (7.1).
Seja f uma função contı́nua em Ω ⊂ R2 . Chama-se solução δ−aproximada de (7.1) no
intervalo I, a qualquer função, ϕ, definida em I, tal que
28 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

(i) (t, ϕ(t)) ∈ Ω para todo o t ∈ I.


(ii) ϕ é contı́nua em I.
(iii) ϕ é de classe C 1 em I, excepto possivelmente nos pontos de um conjunto finito
S ⊂ I, onde ϕ′ poderá ter descontinuidades simples (i.e., em cada ponto de S
devem existir – finitos – e ser diferentes os limites laterais de ϕ′ ).
(iv) |ϕ′ (t) − f (t, ϕ(t))| ≤ δ para todo o t ∈ I\S.
Teorema 7.2. (existência de soluções δ-aproximadas) Seja f uma função contı́nua
definida num domı́nio
Ω := { (t, y) ∈ R2 : |t − t0 | ≤ a ∧ |y − y0 | ≤ b } (0 < a, b < ∞) ,
e designe
M := max |f (t, y)|
(t,y)∈Ω

(cuja existência é assegurada pelo teorema de Weierstrass). Nestas condições, dado δ > 0,
existe uma função ϕ que é uma solução δ−aproximada de (7.1) no intervalo
Iα := { t ∈ R : |t − t0 | ≤ α } , α := min{a, b/M } ,
e que satisfaz ϕ(t0 ) = y0 .
Prova. Mostraremos que existe uma função ϕ (nas condições indicadas) definida em
[t0 , t0 + α]. (De modo análogo se definiria a função em [t0 − α, t0 ].) Fixemos δ > 0. Como f
é contı́nua em Ω, que é um subconjunto compacto de R2 , então é aı́ uniformemente contı́nua
e, portanto, para o δ considerado pode assegurar-se a existência de ǫ = ǫ(δ) > 0, tal que
(7.5) |f (t, y) − f (s, w)| ≤ δ ,
sempre que se cumpram as condições
(t, y), (s, w) ∈ Ω , |t − s| ≤ ǫ e |y − w| ≤ ǫ .
Proceda-se a uma partição do intervalo [t0 , t0 + α] em m sub-intervalos, definidos pelos
pontos t0 < t1 < · · · < tm = t0 + α, escolhidos de tal modo que
(7.6) max |tk+1 − tk | ≤ min{ǫ, ǫ/M } .
Defina-se então a função ϕ por
(
ϕ(t0 ) := y0
(7.7)
ϕ(t) := ϕ(tk ) + f (tk , ϕ(tk ))(t − tk ) , tk < t ≤ tk+1 (k = 0, 1, . . . , m − 1) .
Note-se que ϕ está bem definida, já que (como se constata facilmente por indução sobre k)
(tk , ϕ(tk )) ∈ Ω , k = 0, 1, . . . , m .
Vamos provar que ϕ é uma solução δ− aproximada de (7.1). As condições (i)-(iii) da definição
de solução δ−aproximada verificam-se facilmente. Observe-se que, relativamente a (iii), o
conjunto S é S := {t1 , . . . , tm }. Quanto a (iv), temos que mostrar que
(7.8) |ϕ′ (t) − f (t, ϕ(t))| ≤ δ , t ∈ [t0 , t0 + α]\S .
Para isso, comecemos por verificar que
(7.9) |ϕ(t) − ϕ(s)| ≤ M |t − s| , t, s ∈ [t0 , t0 + α] .
De facto, se t e s pertencerem ao mesmo sub-intervalo [tk , tk+1 ], tem-se
|ϕ(t) − ϕ(s)| = |(t − s)f (tk , ϕ(tk ))| ≤ M |t − s| ,
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 29

o que prova (7.9) nesse caso. Se t e s não pertencerem ao mesmo sub-intervalo, digamos,
t ∈ [tk , tk+1 ] e s ∈ [tℓ , tℓ+1 ], com k, ℓ ∈ {0, 1, . . . , m − 1} e k > ℓ, tem-se
|ϕ(t) − ϕ(s)| ≤ |ϕ(t) − ϕ(tk−1 )| + |ϕ(tk−1 ) − ϕ(tk−2 )| + · · · + |ϕ(tℓ+1 ) − ϕ(s)| ,
e como para cada um dos pares (t, tk−1 ), (tk−1 , tk−2 ), . . . , (tℓ+1 , s) os pontos do par per-
tencem todos ao mesmo sub-intervalo (e, portanto, provámos já que vale (7.9) para os
pontos de cada um desses pares), obtém-se de imediato
|ϕ(t) − ϕ(s)| ≤ M |t − tk−1 | + M |tk−1 − tk−2 | + · · · + M |tℓ+1 − s|
= M (t − tk−1 + tk−1 − tk−2 + · · · + tℓ+1 − s)
= M |t − s| ,
o que completa a prova de (7.9).
Assim, se t é tal que tk < t ≤ tk+1 , então por (7.6) tem-se
(7.10) |t − tk | ≤ ǫ
e, por conseguinte, de (7.9) deduz-se que também
(7.11) |ϕ(t) − ϕ(tk )| ≤ ǫ ,
e, uma vez que (7.10) e (7.11) se verificam, de (7.5) conclui-se que
|f (t, ϕ(t)) − f (tk , ϕ(tk ))| ≤ δ ;
e, portanto, como por (7.7) é ϕ′ (t) = f (tk , ϕ(tk )) para tk < t < tk+1 , deduz-se
|ϕ′ (t) − f (t, ϕ(t))| = |f (tk , ϕ(tk )) − f (t, ϕ(t))| ≤ δ ,
o que prova (7.8) e conclui a demonstração do teorema.

Observação 7.3. A definição da solução δ−aproximada ϕ introduzida em (7.7) na


demonstração precedente é muito natural, se atendermos a algumas considerações de na-
tureza geométrica relacionadas com a interpretação da EDO (7.1). De facto, (7.7) mostra
que o gráfico de ϕ consiste numa linha poligonal com origem em (t0 , y0 ), formada por um
número finito de “pequenos” segmentos de recta unidos entre si pelas extremidades. Esta
poligonal pode construir-se naturalmente a partir da equação diferencial dada (ou, mais pre-
cisamente, a partir do problema de valores iniciais (7.1)) do modo que passamos a indicar.
Divida-se o intervalo [t0 , t0 + α] em n sub-intervalos determinados pelos pontos
t0 < t1 < · · · < tn = t0 + α .
A partir do ponto (t0 , y0 ) construa-se um “pequeno” segmento de recta com declive f (t0 , y0 ),
traçado para a direita de t0 até que intersecte a recta vertical t = t1 , nalgum ponto (t1 , y1 ).
Decorre imediatamente da definição de α e do facto de ser |f (t, y)| ≤ M que este segmento se
encontra na região triangular T limitada pelas semi-rectas com origem em (t0 , y0 ) e declives
M e −M , e pela recta t = t0 + α (ver a figura 6, onde se considerou α = b/M ). Em
particular, o “pequeno” segmento de recta acabado de construir intersecta a recta t = t1
num ponto (t1 , y1 ) de T . A partir deste ponto construa-se, para a direita de t1 , um outro
“pequeno” segmento de recta com declive f (t1 , y1 ) até que intersecte a recta t = t2 , no
ponto (t2 , y2 ), digamos. É claro que este segmento também está contido no triângulo T .
Enfim, continuando este procedimento sucessivamente, ao fim de um número finito de passos
teremos construı́da uma linha poligonal, totalmente contida no triângulo T , com origem em
(t0 , y0 ) e extremidade num ponto da recta t = t0 + α. Escolhendo n = m (onde m é
o número que figura na demonstração do teorema, que indica o número de intervalos a
30 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

considerar na partição, e cuja determinação depende do valor δ fixado), conclui-se que esta
linha poligonal é o gráfico da solução δ−aproximada requerida, e constata-se facilmente que,
analiticamente, pode ser expressa por (7.7). Fica assim justificada a forma como surgiu a
função ϕ na demonstração precedente.

y0 +b
★★

★ T
y2


y3 ★ ★★❜❜✧✧
★★
y1
★✥
✥ ✥
(t0 ,y0 ) ❝ t1 t2 t3 t0 +α t0 +a






❝❝

Figura 6

7.3. Existência de soluções: Teorema de Cauchy-Peano. A existência de solução


para o problema de Cauchy (7.1) pode assegurar-se, essencialmente, impondo a continuidade
em Ω à função f . O resultado que justifica esta afirmação é conhecido por teorema de
Cauchy-Peano. A demonstração deste importante teorema é baseada na noção de solução
δ−aproximada (levando à construção das chamadas poligonais de Euler que, em particular,
conduzem ao chamado método de Euler para a aproximação numérica das soluções de uma
dada EDO) e no seguinte resultado de Análise, que aqui enunciamos numa versão suficiente
para os nossos propósitos.
Lema 7.1. (Teorema de Ascoli-Arzelá) Seja I ⊂ R um compacto (i.e., um subcon-
junto limitado e fechado de R). Seja F uma famı́lia equicontı́nua de funções ϕ : I → R
(i.e., para todo o ǫ > 0 existe δ = δ(ǫ) > 0 tal que se |t − s| < δ então |ϕ(t) − ϕ(s)| < ǫ para
toda a função ϕ ∈ F). Admita-se ainda que F é uniformemente limitada (i.e., existe M > 0
tal que maxt∈I |ϕ(t)| ≤ M para toda a função ϕ ∈ F). Então toda a sucessão {ϕn }n∈N de
elementos de F tem uma subsucessão {ϕnj }j∈N uniformemente convergente em I.
A prova deste lema pode ver-se, e.g., no primeiro volume do Curso de Análise de Elon
Lages Lima.
Teorema 7.3. (Cauchy-Peano) Sejam t0 , y0 ∈ R, a, b > 0 e Ω o rectângulo
Ω = { (t, y) ∈ R2 : |t − t0 | ≤ a , |y − y0 | <≤ } .
Suponha-se que f é contı́nua em Ω, pelo que existe M > 0 tal que
|f (t, y)| ≤ M , ∀(t, y) ∈ Ω .
Então, existe pelo menos uma solução y = ϕ(t) do problema de Cauchy (7.1) definida no
intervalo
Iα := {t ∈ R : |t − t0 | ≤ α} , α := min{a, b/M } .
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 31

Prova. Seja {δn }n≥0 uma sucessão estritamente decrescente de números reais positivos
convergente para zero (arbitrariamente fixa):
(7.12) δn ց 0 (n → +∞) .
Pelo teorema 7.2, para cada n existe uma solução δn −aproximada, ϕn , do problema de
Cauchy (7.1) no intervalo Iα tal que ϕn (t0 ) = y0 . Naturalmente, podemos considerar que
estas funções ϕn são definidas como em (7.7) na demonstração do teorema 7.2, com δn em
vez de δ (observe-se que δ intervém, de facto, na construção da solução δ−aproximada, pois
é a partir de δ que se determina o número m com o qual se determina o número de pontos
tj (j = 0, 1, . . . , m) que intervêm na definição (7.7)). Assim, atendendo a (7.9), para cada n
tem-se
(7.13) |ϕn (t) − ϕn (s)| ≤ M |t − s| , t, s ∈ Iα .
Daqui, para s = t0 , como |t − t0 | ≤ α ≤ b/M e ϕn (t0 ) = y0 , sai
|ϕn (t)| ≤ |y0 | + b , ∀ t ∈ Iα ,
o que mostra que a famı́lia de funções F := {ϕn }n∈N é uniformemente limitada em Iα .
Além disso, (7.13) implica ainda que {ϕn }n∈N é uma famı́lia equicontı́nua em Iα , porque
dado δ > 0 existe ǫ := δ/M tal que a condição |t − s| ≤ ǫ implica |ϕn (t) − ϕn (s)| ≤ δ,
para todo o n. Assim, pelo teorema de Ascoli-Arzelá, existe uma subsucessão {ϕnj }j∈N que
converge uniformemente em Iα para uma função limite ϕ definida em Iα ,
ϕ(t) := lim ϕnj (t) , t ∈ Iα .
j→+∞

Esta função ϕ é contı́nua em Iα , por ser o limite uniforme de funções contı́nuas. Mostraremos
que ϕ é solução do problema de Cauchy (7.1) em Iα , o que concluirá a demonstração. Com
efeito, como cada ϕn é solução δn −aproximada de (7.1) em Iα , tem-se
|ϕ′n (t) − f (t, ϕn (t))| ≤ δn , t ∈ Iα \Sn
e, portanto, podemos escrever
Z t
(7.14) ϕn (t) = y0 + { f (s, ϕn (s)) + ∆n (s) } ds , t ∈ Iα
t0

onde (
ϕ′n (t) − f (t, ϕn (t)) , t ∈ Iα \Sn
∆n (t) :=
0 , t ∈ Sn
e Sn representa o conjunto dos possı́veis pontos onde ϕ′n
não existe. Como ϕn cumpre a
condição (iv) da definição de solução δn −aproximada, então é óbvio que
(7.15) |∆n (t)| ≤ δn , t ∈ Iα .
Como f é uniformemente contı́nua em Ω e ϕnj → ϕ uniformemente em Iα quando j → +∞,
segue-se que f (t, ϕnj (t)) → f (t, ϕ(t)) uniformemente em Iα quando j → +∞. Substituindo
então n por nj em (7.14) e tomando em seguida limites quando j → +∞, e observando que
∆nj → 0 (já que δnj ց 0), obtém-se
Z t
ϕ(t) = y0 + f (s, ϕ(s)) ds , t ∈ Iα .
t0

Conclui-se que ϕ é uma função contı́nua que satisfaz (7.3) e, portanto, pelo teorema 7.1, é
solução de (7.1), o que conclui a demonstração.
32 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Observação 7.4. O intervalo Iα dado pelo teorema de Cauchy-Peano pode não ser o
maior intervalo onde existe solução para o problema de Cauchy (7.1). Com efeito, considere-
se o problema
(
y′ = 1 + y2
y(0) = 0 .

Neste caso, é f (t, y) := 1 + y 2 , contı́nua no rectângulo Ω := {(t, y) ∈ R2 : |t| ≤ a , |y| ≤ b}


para quaisquer números reais positivos a e b. Tem-se então

M := max |f (t, y)| = 1 + b2 ,


(t,y)∈Ω

logo o teorema garante a existência de uma solução definida no intervalo

Iα := [−α, α] , α := min{a, b/(1 + b2 )} .

Ora, quando b percorre o conjunto dos números reais positivos, o maior valor que a expressão
b/(1 + b2 ) pode assumir é 12 , logo para qualquer escolha de a > 0 é sempre Iα ⊂ [− 21 , 12 ].
Assim, o maior £ intervalo de existência de solução que o teorema de Cauchy-Peano permite
assegurar é − 21 , 21¤ . Mas,
¤
£ constata-se facilmente que £ ϕ(t)¤ := tan t é solução do prob-
lema no intervalo − π2 , π2 , que contém estritamente − 12 , 12 . Isto põe em evidência algu-
mas limitações do teorema de Cauchy-Peano. Assinale-se, no entanto, que impondo certas
condições adicionais é possı́vel estabelecer resultados que assegurem a existência (e unici-
dade) de solução para o problema de Cauchy definida num intervalo I previamente fixado
(cf. corolário 7.1 adiante).

Observação 7.5. O teorema precedente estabelece que, fundamentalmente, a con-


tinuidade da função f no domı́nio Ω é condição suficiente para garantir a existência de
solução do problema de Cauchy (7.1). Porém, a continuidade de f por si só não permite
assegurar a unicidade da solução. Com efeito, considere-se, por exemplo, o problema de
Cauchy
y ′ = 3y 2/3 , y(1) = 0 .
Neste caso, pode considerar-se para Ω qualquer rectângulo (suficientemente grande) que
contenha o ponto (1, 0) no seu interior, e tem-se f (t, y) := 3y 2/3 , que é contı́nua para
(t, y) ∈ Ω. Constata-se facilmente que para cada θ ∈] − 1, 1] a função ϕθ : I := [−1, 1] → R
definida por
(
(t − θ)3 , θ ≤ t ≤ 1
ϕθ (t) :=
0 , −1 ≤ t ≤ θ ,

é uma solução do problema de Cauchy em análise (observe-se que, em particular, para


θ = 1 obtém-se a solução trivial em I), pelo que existe uma infinidade de soluções para este
problema.

Em face da observação precedente surge, naturalmente, a questão de saber que condições


deverão ser impostas a f para que a unicidade da solução do problema de Cauchy possa
ser assegurada. Nos parágrafos seguintes mostraremos que se, além de contı́nua, f for uma
função lipschitziana (a respeito da segunda variável) em Ω, então é possı́vel estabelecer
uma condição suficiente de unicidade para o problema de Cauchy (7.1). Daremos ainda um
exemplo que mostra que a condição de Lipschitz não é necessária para a unicidade.
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 33

7.4. Funções lipschitzianas. Seja f : Ω ⊂ R2 → R. Diz-se que f satisfaz a condição


de Lipschitz em Ω a respeito da segunda variável (ou que f é lipschitziana em Ω a respeito da
segunda variável) se existir uma constante L > 0 tal que
(7.16) |f (t, y1 ) − f (t, y2 )| ≤ L|y1 − y2 | , ∀(t, y1 ), (t, y2 ) ∈ Ω .
Uma constante L que verifique (7.16) chama-se, usualmente, constante de Lipschitz (des-
ignação que por vezes é reservada para a menor constante L que verifica (7.16)). Neste
curso consideraremos sempre a condição de Lipschitz relativamente à segunda variável, pelo
que muitas vezes diremos apenas “f é lipschitziana” (nalgum subconjunto Ω) em vez de “f
é lipschitziana a respeito da segunda variável”.
Por exemplo, sendo Ω := { (t, y) ∈ R2 : |t| ≤ a , |y| ≤ b } (onde a e b são números reais
positivos, fixos), a função
f (t, y) := t sin y + y cos t
é lipschitziana em Ω. De facto, para (t, y1 ), (t, y2 ) ∈ Ω, tem-se
|f (t, y1 ) − f (t, y2 )| = | t(sin y1 − sin y2 ) − cos t (y1 − y2 ) |
¯ 2t sin 1 (y1 − y2 ) cos 1 (y1 + y2 ) − cos t (y1 − y2 ) ¯
¯ ¯
= 2 2

2a ¯ sin 21 (y1 − y2 ) ¯ + |y1 − y2 |


¯ ¯

≤ (a + 1) |y1 − y2 | ,
sendo a última desigualdade justificada por ser | sin x| ≤ |x| para x ∈ R. Portanto, f é
lipschitziana em Ω, com constante de Lipschitz L := a + 1.
O critério seguinte é útil para verificar se uma dada função satisfaz ou não a condição
de Lipschitz.
Teorema 7.4. Sejam Ω ⊂ R2 um aberto convexo e f : Ω → R uma função diferenciável
a respeito de y. As seguintes propriedades são equivalentes:
(i) f satisfaz a condição de Lipschitz (7.16) em Ω.
(ii) Existe uma constante L > 0 tal que
¯ ¯
¯ ∂f (t, y) ¯
(7.17) sup ¯¯ ¯ ≤ L.
∂y ¯
(t,y)∈Ω

Prova. (i)⇒(ii). Se f satisfaz a condição de Lipschitz (7.16) em Ω, tem-se


¯ ¯ ¯ ¯
¯ ∂f (t, y) ¯
¯ = lim ¯ f (t, y1 ) − f (t, y2 ) ¯ ≤ L ,
¯ ¯
¯
¯ ∂y ¯ y2 →y1 ¯ y1 − y2 ¯
o que prova (7.17).
(ii)⇒(i). Suponha-se que f satisfaz (7.17). Para (t, y1 ), (t, y2 ) ∈ Ω, o teorema do valor
médio garante a existência de algum η ∈]y1 , y2 [ tal que
∂f
f (t, y1 ) − f (t, y2 ) = (t, η) (y1 − y2 ) ,
∂y
logo ¯ ¯
¯ ∂f ¯
|f (t, y1 ) − f (t, y2 )| = ¯¯ (t, η)¯¯ |y1 − y2 | ≤ L|y1 − y2 | .
∂y
sendo a última desigualdade justificada por (7.17).
Observação 7.6. Decorre da demonstração que a constante L que figura em (7.17) é
uma constante de Lipschitz.
34 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Observação 7.7. A condição (7.17) traduz, essencialmente, que para funções f difer-
enciáveis a condição de Lipschitz é equivalente à existência de derivada limitada a respeito da
segunda derivada. Contudo, uma função pode ser lipschitziana e não ter derivada limitada
a respeito de y, como sucede com
f (t, y) := |y| , Ω := R2 .
De facto, esta função f não tem derivada nos pontos (t, 0), logo, em particular, não tem
derivada limitada a respeito de y em R2 . Porém, para (t, y1 ), (t, y2 ) ∈ R2 , é
|f (t, y1 ) − f (t, y2 )| = | |y1 | − |y2 | | ≤ |y1 − y2 | ,
logo f é lipschitziana em R2 , com constante de Lipschitz L := 1.
Assinale-se, finalmente, que quando aplicável o critério expresso pelo teorema anterior
pode simplificar consideravelmente os cálculos na verificação do carácter lipschitziano de uma
função. Assim, por exemplo, retomando o exemplo atrás, com f (t, y) := t sin y + y cos t e
Ω := { (t, y) ∈ R2 : |t| ≤ a¯ , |y|
¯ ≤ b }, é óbvio que f é diferenciável a respeito de y, tendo-se
∂f ¯ ∂f ¯
∂y = t cos y + cos t , logo ¯ ∂y ¯ ≤ |t| + 1 , donde
¯ ¯
¯ ∂f (t, y) ¯
sup ¯ ¯ ¯ ≤ a + 1,
(t,y)∈Ω ∂y ¯
pelo que f é lipschitziana em Ω, com constante de Lipschitz L := a + 1.
7.5. Unicidade da solução: Teorema de Picard. Nos dois parágrafos precedentes
provámos que, essencialmente, a continuidade de f assegura a existência de solução para o
problema de Cauchy (7.1), e referimos que a continuidade de f juntamente com a condição
de Lipschitz permite estabelecer a unicidade da solução. Esta afirmação é justificada pelo
teorema de Picard que a seguir se estabelece.
Teorema 7.5. (Picard) Sejam t0 , y0 ∈ R, a, b > 0 e Ω o rectângulo
Ω = { (t, y) ∈ R2 : |t − t0 | ≤ a , |y − y0 | ≤ b } .
Suponha-se que f é contı́nua em Ω; seja M > 0 tal que
|f (t, y)| ≤ M , ∀(t, y) ∈ Ω .
Admita-se ainda que f é lipschitziana em Ω a respeito da segunda variável. Então, existe
uma e uma só solução y = ϕ(t) do problema de Cauchy (7.1) definida no intervalo
Iα = {t ∈ R : |t − t0 | ≤ α} , α := min{a, b/M } .

Prova. A existência de solução decorre do teorema de Cauchy-Peano, pelo que resta


provar a unicidade. Suponha-se então que existem duas soluções, ϕ1 e ϕ2 (definidas em Iα ),
do problema de Cauchy (7.1). Tem-se, pois,
ϕ′1 (t) = f (t, ϕ1 (t)) , ϕ1 (t0 ) = y0 ,
ϕ′2 (t) = f (t, ϕ2 (t)) , ϕ2 (t0 ) = y0 ,
para t ∈ Iα . Seja
φ(t) := ϕ1 (t) − ϕ2 (t) , t ∈ Iα .
Teremos de mostrar que φ ≡ 0 em Iα . Em primeiro lugar, notemos que
φ(t0 ) = ϕ1 (t0 ) − ϕ2 (t0 ) = y0 − y0 = 0 ;
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 35

e, em segundo lugar, que


φ′ (t) = ϕ′1 (t) − ϕ′2 (t) = f (t, ϕ1 (t)) − f (t, ϕ2 (t)) , t ∈ Iα .
Assim, e de acordo com o Teorema Fundamental do Cálculo Integral, podemos escrever
Z t Z t
φ(t) = φ(t0 ) + φ′ (s)ds = [ f (s, ϕ1 (s)) − f (s, ϕ2 (s)) ]ds .
t0 t0

Como, por hipótese, f satisfaz a condição de Lipschitz em Ω, podemos garantir a existência


de uma constante L > 0 tal que
|f (s, ϕ1 (s)) − f (s, ϕ2 (s))| ≤ L|ϕ1 (s) − ϕ2 (s)| , s ∈ Iα .
Em consequência, podemos escrever, supondo (sem perda de generalidade) t ≥ t0 ,
Z t Z t
|φ(t)| ≤ |f (s, ϕ1 (s)) − f (s, ϕ2 (s))|ds ≤ L |ϕ1 (s) − ϕ2 (s)|ds ,
t0 t0

i.e.,
Z t
(7.18) |φ(t)| ≤ L |φ(s)|ds , t ≥ t0
t0

(se fosse t < t0 , viria o segundo membro desta desigualdade afectado pelo sinal “-”, e deveria
proceder-se por analogia com o que a seguir se expõe). Ponha-se
Z t
Φ(t) := |φ(s)|ds , t ≥ t0 .
t0

Como |φ(s)| é uma função contı́nua para s ∈ [t0 , t], usando o facto de o integral indefinido
ter por derivada a função integranda nos pontos de continuidade desta, deduz-se
(7.19) Φ′ (t) = |φ(t)| ≤ LΦ(t) , t ≥ t0 ,
sendo a última desigualdade justificada por (7.18). Consequentemente, podemos escrever
d −L(t−t0 )
{e Φ(t)} = e−L(t−t0 ) [Φ′ (t) − LΦ(t)] ≤ 0 , t ≥ t0 ,
dt
pelo que a função e−L(t−t0 ) Φ(t) é decrescente para t ≥ t0 . Logo,
h i
e−L(t−t0 ) Φ(t) ≤ e−L(t−t0 ) Φ(t) = Φ(t0 ) = 0 , t ≥ t0 ,
t=t0

e como as funções envolvidas no primeiro membro desta expressão são não negativas, tem
de ser, forçosamente,
Φ(t) = 0 , t ≥ t0 .
Logo, por (7.19),
φ(s) = 0 , ∀s ∈ [t0 , t] .
Como t é arbitrário em Iα , sujeito apenas à condição t ≥ t0 , conclui-se que φ(t) = 0 para
todo o t ∈ [t0 , t0 + α]. Do mesmo modo se mostra que φ(t) = 0 para todo o t ∈ [t0 − α, t0 ].
Consequentemente,
φ(t) = 0 , ∀t ∈ Iα ,
o que demonstra o teorema.
36 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Observação 7.8. Considere-se o problema de Cauchy


(
y(0) = 0
p
y ′ = |y|
Este problema admite como soluções as funções
(
t2 /4 , t≥0
ϕ≡0 e ψ(t) := 2
− t /4 ,
t ≤ 0.
p
Isto não contradı́z o teorema de Picard, pois a função f (t, y) := |y| não é lipschitziana em
nenhum rectângulo de R2 que contenha a origem. De facto, para 0 < y < 1 tem-se

|f (t, y) − f (t, 0)| = y , ∀t ∈ R ,
donde
|f (t, y) − f (t, 0)| 1
= √ → +∞ para y → 0+ .
|y − 0| y
Consequentemente, não existe L > 0 tal que |f (t, y) − f (t, 0)| ≤ L|y − 0| , pelo que f não é
lipschitziana em rectângulos que contenham a origem.
Observação 7.9. Nas condições do teorema precedente, a condição de Lipschitz é
suficiente para garantir a unicidade da solução do problema de Cauchy (7.1). Porém, a
condição não é necessária. Com efeito, o problema de Cauchy
, y ≥ t2

 −2t
(
y(0) = 0

, onde f (t, y) := − 2y/t , |y| < t2 ,
y ′ = f (t, y) 
2t , y ≤ −t2

tem como única solução a função identicamente nula, ϕ ≡ 0, mas f não satisfaz a condição
de Lipschitz em nenhum rectângulo que contenha a origem.
O teorema de Picard apenas garante a existência de solução local do problema de Cauchy
(7.1) com condição incial, definida num “pequeno” intervalo Iα . A proposição seguinte
mostra que sob certas condições a solução local pode ser prolongada a uma solução global,
definida num intervalo I previamente fixado.
Corolário 7.1. (existência e unicidade de solução global) Sejam I um intervalo
de números reais, t0 ∈ I 0 e y0 ∈ R. Seja f : I × R → R uma função contı́nua, limitada e
lipschitziana a respeito da segunda variável. Então existe uma e uma só solução y = ϕ(t)
do problema de Cauchy (7.1), definida em todo o intervalo I.
Prova. Faremos apenas um esboço da demonstração, provando que fixado arbitraria-
mente um ponto τ ∈ I\{t0 } existe uma só solução do problema de Cauchy (7.1) definida
num subintervalo de I contendo t0 e τ . Observe-se primeiramente que, como f é limitada
em I × R, existe uma constante M > 0 tal que
|f (t, y)| ≤ M , ∀(t, y) ∈ I × R .
Fixemos então τ ∈ I\{t0 }, arbitrariamente. Sem perda de generalidade, admita-se τ > t0 .
Escolham-se a, b > 0 tais que [t0 − a, t0 + a] ⊂ I e b ≥ aM , e ponha-se Ω0 := { (t, y) ∈ R2 :
|t − t0 | ≤ a , |y − y0 | ≤ b }. Pelo teorema de Picard, e observando que (pela escolha de b) é
min{a, b/M } = a, o problema de Cauchy
y ′ = f (t, y) , y(t0 ) = y0 ,
7. PROBLEMA DE CAUCHY: y ′ = f (t, y) , y(t0 ) = y0 37

tem uma só solução (local) y = ϕ0 (t) em I0 := [t0 − a, t0 + a]. Se τ ∈ I0 , nada mais há
a provar. Se não, tome-se agora para condição inicial um ponto (t1 , y1 ) escolhido de modo
que t0 < t1 ∈ I0 , [t1 − a, t1 + a] ⊂ I e y1 = ϕ0 (t1 ), e ponha-se Ω1 := { (t, y) ∈ R2 : |t − t1 | ≤
a , |y − y1 | ≤ b}. Então, novamente pelo teorema de Picard, o problema de Cauchy
y ′ = f (t, y) , y(t1 ) = y1 ,
tem uma só solução y = ϕ1 (t) em I1 := [t1 − a, t1 + a]. Note-se que, pela unicidade
da solução, ϕ0 ≡ ϕ1 em I0 ∩ I1 . Agora, se τ ∈ I1 , nada mais há a provar, e a solução
ϕ procurada, passando por (t0 , y0 ) e definida em τ , é dada por ϕ(t) := ϕk (t) se t ∈ Ik
(k = 1, 2). Porém, se τ 6∈ I1 , procedendo como anteriormente, tome-se para condição inicial
um ponto (t2 , y2 ) escolhido de modo que t1 < t2 ∈ I1 , [t2 − a, t2 + a] ⊂ I e y2 = ϕ1 (t2 ), e
ponha-se Ω2 := { (t, y) ∈ R2 : |t − t2 | ≤ a , |y − y2 | ≤ b }. Então, uma vez mais pelo teorema
de Picard, o problema de Cauchy
y ′ = f (t, y) , y(t2 ) = y2 ,
tem uma só solução y = ϕ2 (t) em I2 := [t2 − a, t2 + a]. Se τ ∈ I2 o problema está resolvido.
Caso contrário continue-se o processo descrito, construindo intervalos I3 , I4 , . . ., até se chegar
a algum intervalo Ik ⊂ I tal que τ ∈ Ik , o que é certamente possı́vel pois todos os intervalos
I0 , I1 , I2 , . . . assim construı́dos têm o mesmo comprimento 2a.

7.6. Referência ao método das aproximações sucessivas de Picard. Recorde-


mos que a demonstração apresentada para o teorema de Picard se baseou no teorema de
Cauchy-Peano, e que a prova deste último tem por base o método das poligonais de Euler.
Uma demonstração alternativa para o teorema de Picard é baseada no chamado método das
aproximações sucessivas de Picard. Observamos, porém, que o método das poligonais de Euler
tem uma natureza mais intuitiva, já que se baseia na interpretação geométrica do problema
de Cauchy.
A origem do método das aproximações sucessivas de Picard acenta na equivalência, num
certo intervalo I, entre as soluções da equação diferencial (7.2) e a equação integral (7.3),
conforme estabelecido pelo teorema 7.1. Seja y0 (t) uma qualquer função contı́nua em I
tal que y0 (t0 ) = y0 (usualmente considera-se y0 (t) := y0 ), que tomamos para aproximação
inicial da solução da equação integral (7.3). Em seguida introduzimos a função y0 no lugar de
y na função integranda que figura no segundo membro da equação integral (7.3) e definimos
y1 por
Z t
y1 (t) = y0 + f (s, y0 (s)) ds ,
t0
e tomamos esta função y1 para segunda aproximação da solução de (7.3). Enfim, procedendo
sucessivamente do mesmo modo, construı́mos uma sucessão de aproximações {yn }n≥0 sendo
yn+1 definido recorrentemente à custa de yn por meio da fórmula
Z t
yn+1 (t) = y0 + f (s, yn (s)) ds , n = 0, 1, 2, . . .
t0

Se esta sucessão de funções {yn }n≥0 convergir num certo intervalo I para uma função ϕ,
contı́nua em I, e se for permitido passar o limite sob o sinal de integral no segundo membro
da igualdade anterior (impondo, naturalmente, certas condições à função f ), então esta
função ϕ é uma solução em I do problema de Cauchy (7.1).
Neste contexto, pode provar-se o teorema seguinte (cuja prova se pode fazer usando os
resultados do capı́tulo 4):
38 2. EQUAÇÕES DIFERENCIAIS DE PRIMEIRA ORDEM

Teorema 7.6 (método das aproximações sucessivas de Picard). Sejam t0 , y0 ∈ R,


a, b > 0 e Ω o rectângulo
Ω = { (t, y) ∈ R2 : |t − t0 | ≤ a , |y − y0 | ≤ b } .
Suponha-se que f é contı́nua em Ω e lipschitziana em Ω a respeito da segunda variável.
Designem M := max(t,y)∈Ω |f (t, y)| e
Iα := { t ∈ R : |t − t0 | ≤ α } , α := min{a, b/M } .
Seja y0 (t) uma qualquer função contı́nua em Iα e {yn (t)}n≥0 a sucessão de funções definidas
em Iα e geradas recorrentemente por
Z t
(7.20) yn+1 (t) = y0 + f (s, yn (s)) ds (n = 0, 1, 2, . . .) .
t0
Designe ϕ a única solução do problema de Cauchy (7.1) em Iα . Nestas condições,
lim yn (t) = ϕ(t) ,
n→∞
uniformemente em Iα , e é válida a seguinte estimativa para o erro:
(Lα)n
½ ¾
|ϕ(t) − yn (t)| ≤ KeLα min 1, , t ∈ Iα ,
n!
onde L é a constante de Lipschitz e K := maxt∈Iα |y1 (t) − y0 (t)| .
Como exemplo de aplicação, considere-se o problema de Cauchy
y ′ = 2ty + 1 − 2t2 , y(0) = 0 .
Neste caso, é f (t, y) := 2ty + 1 − 2t , contı́nua e diferenciável em qualquer domı́nio de R2 ,
2

tendo-se ∂f /∂y(t, y) = 2t logo |∂f /∂y(t, y)| = 2|t| ≤ L ≡ L(I) < ∞ , para todo o t ∈ I
e y ∈ R, onde I é qualquer intervalo limitado de números reais centrado na origem e L
representa o comprimento de I. Assim, f é lipschitziana em qualquer rectângulo limitado
Ω ⊂ {(t, y) ∈ R2 : t ∈ I , y ∈ R }, logo pelo teorema de Picard existe uma e uma só solução
do problema em análise, nalgum intervalo Iα do tipo descrito no teorema. As condições do
método das aproximações sucessivas de Picard são cumpridas. Assim, tomando y0 (t) := 0,
a correspondente fórmula (7.20) escreve-se
Z t Z t
2
yn+1 (t) = [ 2syn (s) + 1 − 2s2 ] ds = t − t3 + 2syn (s) ds (n = 0, 1, 2, . . .) ,
0 3 0
donde se deduz facilmente, por indução, que
2n
yn (t) = t − t2n+1 (n = 1, 2, . . .) .
3 × 5 × · · · × (2n + 1)
Agora, como
2n t2n+1
lim = 0 , ∀t ∈ R
n→∞ 3 × 5 × · · · × (2n + 1)
(facto que pode ser justificado observando que este limite é o limite de uma sucessão que é
termo geral de uma série convergente, como se verifica de imediato por aplicação do critério
da razão para séries), obtém-se
lim yn (t) = t , ∀t ∈ R .
n→∞
Por conseguinte, a solução do problema em questão é ϕ(t) := t, e é a única solução (não
apenas no intervalo Iα descrito, mas também) em toda a recta real R.
CAPı́TULO 4

Equações diferenciais lineares de ordem n

1. Preliminares
Sejam a0 , a1 , . . . , an e b funções definidas num intervalo I ⊂ R. A equação diferencial
(1.1) a0 (t)y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t)
diz-se uma equação diferencial linear de ordem n.
Esta designação justifica-se pelo facto de esta equação poder ser encarada como uma
combinação linear das variáveis dependente, y, e suas sucessivas derivadas até à ordem n
(sendo os coeficientes da combinação linear as funções a0 , a1 , . . . , an , independentes de y e
suas derivadas).
Tal como sucedia para as equações lineares de primeira ordem, tratadas no capı́tulo 2, se
o segundo membro da equação (1.1), b(t), for a função identicamente nula em I, a equação
diz-se homogénea; caso contrário, diz-se não homogénea ou completa.
Os pontos t0 ∈ I tais que a0 (t0 ) = 0 dizem-se pontos singulares da EDO (1.1). No caso
em que existem pontos singulares, a resolução de (1.1) é, em geral, mais complicada que no
caso em que tal não sucede, sendo as soluções, usualmente, descritas por recurso a séries
(de funções) de potências em torno dos pontos singulares. Neste estudo vamos “eliminar”
esta dificuldade, e considerar apenas EDO’s do tipo (1.1) definidas em intervalos onde não
existam pontos singulares, i.e., consideraremos que
a0 (t) 6= 0 , ∀t ∈ I .
Assim, sem perda de generalidade, podemos considerar a equação linear de ordem n escrita
sob a forma
(1.2) y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t) .
Ao longo deste capı́tulo suporemos que I ⊂ R é um intervalo onde a1 , a2 , . . . , an e b são
funções contı́nuas. Nestas condições, pode garantir-se a existência e unicidade de solução
de (1.2) em I, para condições iniciais arbitrariamente prefixadas. Enunciamos de seguida
o resultado que justifica esta afirmação, cuja prova é uma consequência dos resultados do
capı́tulo 6 (ver a observação 5.2 no capı́tulo 6).
Teorema 1.1. (existência e unicidade de solução) Sejam a1 , a2 , . . . , an e b funções
reais de variável real definidas e contı́nuas num intervalo I ⊂ R. Sejam t0 um ponto qualquer
de I e y0 , y1 , . . . , yn−1 quaisquer n números reais.
Então, existe uma e uma só solução y = ϕ(t) definida em todo o intervalo I que é
solução em I da EDO linear de ordem n (1.2) e satisfazendo as condições iniciais
y(t0 ) = y0 , y ′ (t0 ) = y1 , ... , y (n−1) (t0 ) = yn−1 .

Observação 1.1. De acordo com o teorema precedente, a EDO linear de ordem n (1.1)
tem solução definida em todo o intervalo I onde as funções a0 , a1 , . . . , an e b sejam contı́nuas,
49
50 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

desde que se cumpra a condição a0 (t) 6= 0 para todo o t ∈ I. Note-se que se esta condição
não se verificar, pode a solução ter de ser definida apenas num subconjunto de I. Com
efeito, considere-se a EDO linear de ordem 1
ty ′ + y = 0 , y(1) = 1 ,
que é da forma (1.1) com as funções a0 , a1 e b definidas por a0 (t) = t, a1 (t) = 1 e b(t) = 0,
as quais são funções contı́nuas em I = R. A solução desta equação pode determinar-se
usando a teoria exposta no capı́tulo 2 (para as equações lineares de primeira ordem, e.g.),
obtendo-se
1
y(t) = , t ∈]0, +∞[ ;
t
por conseguinte, o maior intervalo possı́vel onde a solução pode estar definida é ]0, +∞[, o
qual está estritamente contido em I = R. Note-se que este exemplo ilustra, de certo modo, o
que atrás se afirmou acerca da dificuldade de resolução das EDO’s do tipo (1.1) com pontos
singulares.
Observação 1.2. Um outro aspecto interessante a destacar é o da existência de solução
(única) para qualquer problema de valores iniciais do tipo em discussão.
Considerando, no teorema precedente, b(t) ≡ 0 e y0 = y1 = . . . = yn−1 = 0, obtém-se a
seguinte proposição:
Corolário 1.1. Sejam a1 , a2 , . . . , an e b funções reais de variável real contı́nuas num
intervalo I ⊂ R e t0 um ponto qualquer de I. Seja y = ϕ(t) uma solução da EDO linear
homogénea de ordem n
y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = 0 ,
satisfazendo as condições iniciais
y(t0 ) = y ′ (t0 ) = . . . = y (n−1) (t0 ) = 0 .
Nestas condições,
ϕ(t) ≡ 0 em I .

2. Operador diferencial linear de ordem n


No estudo de EDO’s lineares de ordem n é usual introduzir o chamado operador difer-
encial linear de ordem n. A utilização deste operador permite certas simplificações no
tratamento das equações diferenciais do tipo em discussão. Dada a EDO linear de ordem n
(1.2), o operador diferencial linear de ordem n associado a esta equação, designado por L, é
definido do seguinte modo:
L : C n (I) → C(I)
y 7→ L[y] : I → R
t 7→ L[y](t) := y (n) + a1 (t)y (n−1) + . . . + an (t)y ,
onde C n (I) designa o espaço vectorial constituı́do pela totalidade das funções com derivadas
contı́nuas em I até à ordem n (inclusivé), e C(I) ≡ C 0 (I), o espaço vectorial das funções
contı́nuas em I – que são espaços vectoriais de dimensão infinita.
Também se escreve
dn dn−1 d
L = n + a1 (t) n−1 + . . . + an−1 (t) + an (t) ,
dt dt dt
3. EQUAÇÕES LINEARES HOMOGÉNEAS 51

ou
L = Dn + a1 (t)Dn−1 + . . . + an−1 (t)D + an (t) ,
onde Dk designa o operador derivada de ordem k (k = 0, 1, . . . , n), i.e., o operador que associa
a cada função f ∈ C k (I) a função derivada de ordem k:

Dk [f ](t) = f (k) (t) .


Por exemplo, sendo n = 3 e a1 (t) = t2 , a2 (t) = sin t , a3 (t) = e2t , tem-se
L[y](t) = y ′′′ + t2 y ′′ + sin t y ′ + e2t y ;
em particular, escolhendo y(t) = t3 , vem y ′ (t) = 3t2 , y ′′ = 6t e y ′′′ = 6, logo
L[y](t) ≡ L[t3 ](t) = 6 + 6t3 + 3t2 sin t + e2t t3 .
Note-se que L é, de facto, um operador linear, i.e.,
L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] ,
para quaisquer funções y1 e y2 diferenciáveis até à ordem n e para quaisquer constantes reais
c1 e c2 , o que é uma consequência imediata da linearidade do operador derivada.
Assim, por exemplo, se L for definido por
L[y] = y ′ + 2 sin t y ,
tem-se
L[5 cos t + 2t2 ] = 5L[cos t] + 2L[t2 ] = 5(cos t)′ + 10 sin t cos t + 4t + 4t2 sin t
= 4t(1 + t sin t) − sin t + sin(2t) .
Usando o operador L, a equação (1.2) pode escrever-se, sinteticamente, na forma
L[y](t) = b(t) ,
ou, simplesmente,
L[y] = b(t) .

3. Equações lineares homogéneas


A determinação das soluções das EDO’s lineares homogéneas reveste-se de particular
importância, uma vez que, entre outros aspectos (e como veremos), em geral a determinação
das soluções de uma EDO linear não homogénea passa pela resolução da correspondente
equação homogénea associada (i.e., a EDO linear homogénea que se obtém da EDO linear
completa considerando que o segundo membro é a função identicamente nula, em vez de
b(t)). Assim, nesta secção, vamos ocupar-nos da resolução da EDO linear homogénea de
ordem n
(3.1) y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = 0 ,
a qual, como vimos, se pode escrever na forma
L[y](t) = 0 ,
sendo L o operador diferencial linear de ordem n associado à equação (3.1), introduzido na
secção anterior.
52 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

3.1. Espaço das soluções. Sistema fundamental de soluções (SFS). Um dos re-
sultados principais àcerca da EDO linear homogénea (3.1) é expresso pela seguinte proposição.
Teorema 3.1. O conjunto S0 (I) constituı́do pela totalidade das soluções em I da EDO
linear homogénea (3.1) é um espaço vectorial de dimensão n.
Prova. Para mostrar que S0 (I) é um espaço vectorial de dimensão n é suficiente mostrar
que é um subespaço vectorial do espaço vectorial C n (I), e que dim S0 (I) = n. Com efeito,
é claro que S0 (I) ⊂ C n (I). Além disso, sendo ϕ1 , ϕ2 ∈ S0 (I) e c1 , c2 ∈ R, tem-se
L[ϕ1 ] = 0 e L[ϕ2 ] = 0 ,
logo, como L é linear,
L[c1 ϕ1 + c2 ϕ2 ] = c1 L[ϕ1 ] + c2 L[ϕ2 ] = 0 ,
o que mostra que também c1 ϕ1 + c2 ϕ2 ∈ S0 (I). Portanto, S0 (I) é um espaço vectorial. Para
provar que tem dimensão n, considere-se a aplicação h definida por
h : S0 (I) → Rn
ϕ → h(ϕ) = (ϕ(t0 ), ϕ′ (t0 ), . . . , ϕ(n−1) (t0 )) ,
onde t0 é um ponto de I arbitrariamente escolhido. Esta aplicação h é claramente linear
(k) (k)
(pois (c1 ϕ1 + c2 ϕ2 )(k) (t0 ) = c1 ϕ1 (t0 ) + c2 ϕ2 (t0 ) para quaisquer funções ϕ1 e ϕ2 de S0 (I),
para quaisquer constantes reais c1 e c2 , e para qualquer k ∈ {0, 1, . . . , n − 1}). Além disso,
o Teorema 1.1, de existência e unicidade, assegura que h é bijectiva. Por conseguinte, h é
um isomorfismo entre os espaços vectoriais S0 (I) e Rn e, consequentemente, como sabemos
que dim Rn = n, concluimos que também dim S0 (I) = n.
Observação 3.1. O facto importante que resulta do teorema precedente é que se, por
algum processo, for possı́vel determinar n soluções linearmente independentes da equação
homogénea
L[y] = 0 ,
digamos, ϕ1 , ϕ2 , . . . , ϕn , então qualquer outra solução, ϕ, da mesma equação pode escrever-
se como uma combinação linear dessas n soluções, i.e., existem números reais c1 , c2 , . . . , cn
tais que
ϕ(t) = c1 ϕ1 (t) + c2 ϕ2 (t) + . . . + cn ϕn (t) .
Recorde-se que n funções f1 , f2 , . . . , fn definidas num mesmo intervalo I ⊂ R e per-
tencentes a um espaço vectorial (de funções) E(I) sobre um corpo K, dizem-se linearmente
independentes em I se a relação
c1 f1 (t) + c2 f2 (t) + . . . + cn fn (t) = 0 , ∀t ∈ I
onde c1 , c2 , . . . , cn ∈ K, for verificada apenas se
c1 = c2 = . . . = cn = 0 .
Por exemplo, as funções f1 (t) = t e f2 (t) = t2 são linearmente independentes em qualquer
intervalo I ⊂ R (podemos considerar E(I) o espaço vectorial dos polinómios de grau quando
muito 2) já que a expressão c1 t+c2 t2 é o polinómio identicamente nulo se e só se c1 = c2 = 0.
Note-se, porém, que mesmo sendo as n funções linearmente independentes, podem existir
pontos t0 ∈ I e escalares c1 , c2 , . . . , cn ∈ K, no todos nulos, tais que
c1 f1 (t0 ) + c2 f2 (t0 ) + . . . + cn fn (t0 ) = 0 ;
no caso do exemplo precedente, e.g., com t0 = 1 e c1 = −c2 = 1, obtém-se c1 t0 + c2 t20 = 0.
3. EQUAÇÕES LINEARES HOMOGÉNEAS 53

Do exposto decorre que é importante dispor de critérios que permitam analisar, de


forma mais eficiente do que por recurso à definição, em que condições é que um conjunto de
n soluções da equação L[y] = 0 constitui um conjunto linearmente independente. Na secção
seguinte vamos estabelecer um critério possı́vel, com base na noção de wronskiano.
Nesta altura, e por comodidade de exposição, é conveniente introduzir a seguinte definição:
um conjunto de n soluções linearmente independentes da equação (diferencial linear ho-
mogénea de ordem n) L[y] = 0 diz-se um sistema fundamental de soluções (abreviadamente,
SFS) dessa equação.
Assim, se {y1 , y2 , . . . , yn } constitui um SFS da EDO linear homogénea de ordem n
L[y] = 0, então toda a solução desta equação é da forma
(3.2) y(t) = c1 y1 (t) + c2 y2 (t) + . . . + cn yn (t) ,
onde c1 , c2 , . . . , cn são constantes reais. À expressão (3.2), considerando que c1 , c2 , . . . , cn
são constantes reais arbitrárias, chama-se solução geral ou integral geral da equação L[y] = 0
(o que está de acordo com a definição de solução geral introduzida no Capı́tulo I).
3.2. Wronskiano. Critério de independência linear das soluções. Consideremos
n funções f1 , f2 , . . . , fn definidas num intervalo I e que admitem derivadas até à ordem n − 1
em I. Chama-se wronskiano de f1 , f2 , . . . , fn , que se designa por W [f1 , f2 , . . . , fn ], à função
definida em I através do seguinte determinante de ordem n:
¯ ¯
¯ f1 (t) f2 (t) ... fn (t) ¯¯
¯
¯ f1′ (t) f2′ (t) ... fn′ (t) ¯¯
¯
W [f1 , f2 , . . . , fn ](t) = ¯ .. .. .. .. ¯.
¯ . . . . ¯
¯ (n−1) ¯
¯ f (t) f
(n−1) (n−1)
(t) . . . fn (t) ¯
1 2

Em geral, escreveremos apenas W (t) em vez de W [f1 , f2 , . . . , fn ](t).


Teorema 3.2. Sejam ϕ1 , ϕ2 , . . . , ϕn n soluções, em I, da EDO linear homogénea de
ordem n (3.1). Então, ϕ1 , ϕ2 , . . . , ϕn são linearmente independentes em I se e só se
W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 , ∀t ∈ I .

Prova. (⇐) Suponha-se que W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 para todo o t ∈ I. Sejam


c1 , c2 , . . . , cn números reais tais que
(3.3) c1 ϕ1 (t) + c2 ϕ2 (t) + . . . + cn ϕn (t) = 0 ,
para todo o t ∈ I. Derivando sucessivamente, n − 1 vezes, obtém-se
(3.4) c1 ϕ′1 (t) + c2 ϕ′2 (t) + . . . + cn ϕ′n (t) = 0
..
.
(n−1) (n−1)
(3.5) c1 ϕ1 (t) + c2 ϕ2 (t) + . . . + cn ϕn(n−1) (t) = 0 ,
para todo o t ∈ I. As n equações (3.3), (3.4), ..., (3.5) formam um sistema linear e homogéneo
nas n incógnitas c1 , c2 , . . . , cn , cujo determinante é precisamente W [ϕ1 , ϕ2 , . . . , ϕn ](t), para
cada t ∈ I. Como, por hipótese, W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 para todo o t ∈ I, então a única
solução do referido sistema é a dada por
c1 = c2 = . . . = cn = 0 .
Consequentemente, ϕ1 , ϕ2 , . . . , ϕn são linearmente independentes em I.
54 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

(⇒) Reciprocamente, suponha-se que ϕ1 , ϕ2 , . . . , ϕn são linearmente independentes em


I e prove-se que, então, W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 para todo o t ∈ I. Admita-se, por absurdo,
que existe t0 ∈ I tal que
W [ϕ1 , ϕ2 , . . . , ϕn ](t0 ) = 0 .
Isto implica que o sistema linear constituido pelas n equações


 c1 ϕ1 (t0 ) + c2 ϕ2 (t0 ) + . . . + cn ϕn (t0 ) = 0

 c1 ϕ′1 (t0 ) + c2 ϕ′2 (t0 ) + . . . + cn ϕ′n (t0 ) = 0
(3.6) ..

 .

 (n−1) (n−1) (n−1)
c1 ϕ1 (t0 ) + c2 ϕ2 (t0 ) + . . . + cn ϕn (t0 ) = 0 ,
tem pelo menos uma solução (c1 , c2 , . . . , cn ) tal que ck 6= 0 para algum ı́ndice k ∈ {1, 2, . . . , n}.
Designemos esta solução por (c01 , c02 , . . . , c0n ), e com estes números reais c01 , c02 , . . . , c0n , introduza-
se a função ϕ definida por
ϕ(t) = c01 ϕ1 (t) + c02 ϕ2 (t) + . . . + c0n ϕn (t) , t∈I.
Como ϕ1 , ϕ2 , . . . , ϕn são soluções da equação L[y] = 0, i.e., L[ϕk ] = 0 para k = 1, 2, . . . , n,
pela linearidade do operador L deduz-se que também L[ϕ] = 0, i.e., ϕ é também solução de
L[y] = 0. Além disso, como (c01 , c02 , . . . , c0n ) é solução de (3.6), podemos escrever
ϕ(t0 ) = 0 , ϕ′ (t0 ) = 0 , ... , ϕ(n−1) (t0 ) = 0 .
Logo, pelo Corolário 1.1 (do Teorema de existência e unicidade da solução), conclui-se que
ϕ ≡ 0 em I, i.e.,
c01 ϕ1 (t) + c02 ϕ2 (t) + . . . + c0n ϕn (t) = 0 , ∀t ∈ I .
Como c0k 6= 0 para algum ı́ndice k ∈ {1, 2, . . . n}, isto implica que as funções ϕ1 , ϕ2 , . . . , ϕn
não são linearmente independentes em I, em contradição com a hipótese. Logo, terá de ser,
necessariamente,
W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 , ∀t ∈ I ,
e o teorema fica demonstrado.
Observação 3.2. O teorema precedente pode enunciar-se do seguinte modo: n funções
ϕ1 , ϕ2 , . . . , ϕn , soluções em I da EDO linear homogénea de ordem n L[y] = 0, constituem
um SFS desta equação se e só se W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 para todo o t ∈ I.
Observação 3.3. Na primeira parte da demonstração do teorema anterior não foi usado
o facto de ϕ1 , ϕ2 , . . . , ϕn serem soluções de (3.1), o que permite concluir que quaisquer n
funções ϕ1 , ϕ2 , . . . , ϕn que satisfaçam a condição
W [ϕ1 , ϕ2 , . . . , ϕn ](t) 6= 0 , ∀t ∈ I ,
são necessariamente linearmente independentes em I.
Como exemplo de aplicação do resultado anterior, considere-se a EDO linear homogénea
de ordem 2
2t2 y ′′ + 3ty ′ − y = 0 , I =]0, +∞[ .
É fácil de verificar que as funções ϕ1 e ϕ2 definidas por

ϕ1 (t) = t , ϕ2 (t) = 1/t , t ∈]0, +∞[

são soluções em I =]0, +∞[ da EDO em discussão. Além disso, tem-se ϕ′1 (t) = 1/2 t e
ϕ2 (t) = −1/t2 , logo
¯ √ ¯
¯ t 1/t ¯¯ 3
¯
W [ϕ1 , ϕ2 ](t) = ¯ √ = − 3/2 6= 0 , ∀t ∈]0, +∞[ ,
1/2 t −1/t2 ¯ 2t
3. EQUAÇÕES LINEARES HOMOGÉNEAS 55


e conclui-se que ϕ1 (t) = t e ϕ2 (t) = 1/t são soluções da EDO anterior linearmente in-
dependentes em ]0, +∞[. Se agora procurarmos a solução da mesma EDO que verifica as
condições iniciais y(1) = 2 e y ′ (1) = 1, como toda a solução da EDO é da forma
√ c2
(3.7) y(t) = c1 ϕ1 (t) + c2 ϕ2 (t) = c1 t + ,
t
com c1 e c2 constantes reais, resolvendo o sistema formado por (3.7) e pelas equações y(1) = 2
e y ′ (1) = 1, obtém-se c1 = 2, c2 = 0 e a solução particular procurada é

ϕ(t) = 2 t , t ∈]0, +∞[ .
O teorema seguinte mostra que o wronskiano de n soluções ϕ1 , ϕ2 , . . . , ϕn (em I) da
equação L[y] = 0 ou é identicamente nulo em I ou nunca se anula em I. Note-se que,
nesta afirmação, estamos a impor à partida que as n funções ϕ1 , ϕ2 , . . . , ϕn sejam soluções
(nalgum intervalo I) da EDO L[y] = 0. Sem impor esta restrição, nada se poderia concluir
a priori. De facto, considerando n = 2, ϕ1 (t) = t e ϕ2 (t) = t2 , vimos já anteriormente que
ϕ1 e ϕ2 são linearmente independentes em qualquer intervalo I ⊂ R. Porém, tem-se
¯ ¯
¯ t t2 ¯
¯
W [ϕ1 , ϕ2 ](t) = ¯ ¯ = t2 ,
1 2t ¯
que se anula para t = 0. Claro que isto não conduz a nenhuma contradição com o teorema
precedente (nem com o Teorema 3.4 adiante), e a conclusão que se pode extraı́r é que as
funções ϕ1 e ϕ2 assim definidas não podem ser soluções de nenhuma EDO linear homogénea
de segunda ordem do tipo (3.1), se o intervalo I considerado for tal que 0 ∈ I. Note-se,
aliás, que se uma tal equação existisse, seria da forma
y ′′ + a1 (t)y ′ + a2 (t)y = 0 ;
obrigando então a que y = t e y = t2 fossem soluções, ter-se-ia a1 (t) + ta2 (t) = 0 e 2 +
2ta1 (t) + t2 a2 (t) = 0, donde
a1 (t) = −2/t , a2 (t) = 1/t2 ,
e é agora claro que o intervalo I a considerar não poderia conter a origem, pois estas funções
a1 e a2 não são contı́nuas em intervalos que contenham a origem.
Teorema 3.3. Sejam ϕ1 , ϕ2 , . . . , ϕn n soluções, em I, da EDO linear homogénea de
ordem n (3.1) e designe W (t) o seu wronskiano. Seja t0 ∈ I, qualquer. Então
t
− a1 (s)ds
W (t) = W (t0 ) e t0
, ∀t ∈ I .

Prova. Para provar o que se pretende, basta mostrar que W satisfaz


W ′ (t) + a1 (t)W (t) = 0 , t∈I,
pois isto significa que W é solução em I da equação diferencial de primeira ordem
y ′ + a1 (t)y = 0 ,
cuja solução geral se pode escrever na forma
t
− a1 (s)ds
y(t) = y(t0 )e t0
.
56 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Por definição, é
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t)¯
¯ ¯
¯ ϕ′1 (t) ϕ′
2 (t) . .. ϕ′n (t)
¯
¯ ¯
W (t) = ¯ .. .. .. .. ¯.
¯ . . . . ¯
¯ (n−1) ¯
¯ ϕ (n−1)
(t) ϕ2 (t) . . .
(n−1)
ϕn (t) ¯
1
Ora, a derivada de um determinante (i.e., de uma função definida à custa de um determinante
cujas entradas dependem da variável independente) é a soma de n determinantes (n designa
a ordem do determinante) V1 , V2 , . . . , Vn , onde Vk se obtém de W substituindo as entradas
da sua k-ésima linha pelas respectivas derivadas (de 1a ordem), para cada k = 1, 2, . . . , n.
Por conseguinte, podemos escrever
W ′ (t) = V1 (t) + V2 (t) + . . . + Vn (t) .
Ora, pela estrutura especı́fica do determinante W , a derivada da k-ésima linha de W é
justamente a (k + 1)-ésima linha de W , para k = 1, 2, . . . , n − 1, pelo que todos os n − 1
determinantes V1 , V2 , . . . , Vn−1 são zero (por terem, cada um, duas linhas iguais). Conse-
quentemente,
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ′ ′ ′ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ .. .. .. ¯
¯ .. ¯
W ′ (t) = Vn (t) = ¯ . . . . ¯.
¯ (n−2) (n−2) (n−2)
¯
¯ ϕ (t) ϕ2 (t) . . . ϕn (t) ¯¯
¯ 1
¯ ϕ(n) (t) (n)
ϕ2 (t) ... ϕn (t) ¯
(n)
1

Agora, usemos o facto de todas as funções ϕk (k = 1, 2, . . . , n) serem soluções de (3.1), para


escrever
n−1
X
(n) (n−1) (j)
ϕk (t) = −a1 (t)ϕk (t) − . . . − an (t)ϕk (t) = − an−j (t)ϕk ,
j=0

para cada k = 1, 2, . . . , n. Assim, substituindo na última linha do determinante precedente,


obtém-se
¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ¯
¯ ϕ′1 (t) ϕ′2 (t) ... ϕ′n (t) ¯
¯ ¯
¯ .. .. . . .. ¯

W (t) = ¯¯ . . . . ¯
(n−2) (n−2) (n−2)
¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ¯
¯ P P P ¯
¯ − n−1 a (j) n−1 (j) n−1 (j) ¯
j=0 n−j (t)ϕ1 (t) − j=0 an−j (t)ϕ2 (t) . . . − j=0 an−j (t)ϕn (t)

¯ ¯
¯ ϕ1 (t) ϕ2 (t) ... ϕn (t) ¯
¯ ¯
¯ ϕ′1 (t) ϕ′2 (t) ... ϕ′n (t) ¯
n−1
X ¯ .. .. .. ¯
¯ .. ¯
=− anj (t) ¯ . . . . ¯
¯ (n−2) (n−2) (n−2)
¯
j=0 ¯ ϕ (t) ϕ2 (t) . . . ϕn (t) ¯¯
¯ 1
¯ ϕ(j) (t) (j)
ϕ2 (t) ... ϕn (t) ¯
(j)
1

= −a1 (t)W (t) ,


o que prova o que se pretendia.
4. EQUAÇÕES LINEARES NÃO HOMOGÉNEAS 57

Como consequência imediata dos resultados precedentes, podemos enunciar:


Teorema 3.4. Sejam ϕ1 , ϕ2 , . . . , ϕn n soluções, em I, da EDO linear homogénea de
ordem n (3.1). Então, ϕ1 , ϕ2 , . . . , ϕn são linearmente independentes em I se e só se
∃t0 ∈ I : W (t0 ) 6= 0 .

4. Equações lineares não homogéneas


Como atrás se referiu, o estudo das EDO’s lineares homogéneas é importante para a
análise das EDO’s lineares não homogéneas (ou completas). Esta afirmação será justificada
nesta secção.
Sejam a1 , a2 , . . . , an e b funções reais de variável real definidas e contı́nuas num dado
intervalo I ⊂ R, e considere-se a EDO linear completa de ordem n
(4.1) L[y] = b(t) , t∈I,
onde, como habitualmente, L designa o operador diferencial linear de ordem n
L[y] = y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y .
No essencial, o estudo deste tipo de equações faz-se com base em três propriedades
elementares, muito simples de demonstrar, e que passamos a estabelecer de seguida.
Teorema 4.1. Se ϕ1 e ϕ2 são soluções da equação linear completa (4.1), então a função
ϕ definida por
ϕ = ϕ1 − ϕ2
é solução da equação linear homogénea associada, i.e., da equação L[y] = 0.
Prova. Sendo ϕ1 e ϕ2 soluções de (4.1), tem-se L[ϕ1 ] = b(t) e L[ϕ2 ] = b(t), logo
L[ϕ] = L[ϕ1 − ϕ2 ] = L[ϕ1 ] − L[ϕ2 ] = b(t) − b(t) = 0 .
Teorema 4.2. Sejam ϕP uma solução (particular) da equação linear completa (4.1)
e ϕH a solução geral da equação linear homogénea associada. Então, a solução geral da
equação completa (4.1) é
ϕ = ϕP + ϕH .

Prova. Seja y = ϕ(t) uma solução da equação completa (4.1). Pelo Teorema 2.1, ψ =
ϕ − ϕP é solução da equação homogénea L[y] = 0. Logo, existem números reais c1 , c2 , . . . , cn
tais que ψ = c1 y1 + c2 y2 + . . . + cn yn , sendo {y1 , y2 , . . . , yn } um SFS da equação homogénea
L[y] = 0 (cuja existência é garantida pelo Teorema 3.1). Assim, podemos escrever
(4.2) ϕ = ϕP + ψ = ϕP + c1 y1 + c2 y2 + . . . + cn yn .
Mostrámos, pois, que toda a solução ϕ da equação completa L[y] = b(t) é da forma (4.2),
para alguma escolha das constantes c1 , c2 , . . . , cn . Em consequência, como, fazendo variar
as constantes, ψ representa o integral geral, ϕH , da equação homogénea L[y] = 0, conclui-se
que toda a solução de L[y] = b(t) é da forma ϕP + ϕH .
Observação 4.1. O enunciado do teorema precedente pode reescrever-se do seguinte
modo: o conjunto S(I) constituı́do pela totalidade das soluções em I da equação linear com-
pleta (4.1) é um espaço afim associado ao espaço vectorial S0 (I) constituı́do pela totalidade
das soluções em I da equação linear homogénea associada.
58 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Observação 4.2. O teorema precedente mostra que toda a solução de uma EDO linear
completa se pode obter por particularização das constantes de uma expressão do tipo (4.2),
envolvendo n constantes arbitrárias c1 , c2 , . . . , cn . Assim, à semelhança do que sucede para
as EDO’s lineares homogéneas, faz sentido falar em solução geral ou integral geral de uma
EDO linear completa: trata-se de uma expressão envolvendo n constantes reais arbitrárias a
partir da qual toda a solução da EDO linear completa se pode obter por escolha particular
das constantes.
Como exemplo, considere-se a EDO
y ′′ − y = 2 − t2 .
Um SFS da EDO linear homogénea associada, y ′′ − y = 0, é {et , e−t } (pois cada uma das
funções deste conjunto é claramente solução de y ′′ −y = 0 e o seu wronskiano nunca se anula:
W [et , e−t ](t) = −2 6= 0 para todo o t ∈ R). Então, a solução geral da equação homogénea é
ϕH (t) = c1 et + c2 e−t , c1 , c2 ∈ R .
Constata-se facilmente (por substituição directa) que uma solução particular da equação
completa é
ϕP (t) = t2 .
Logo, a solução geral da EDO completa proposta é
ϕ(t) = t2 + c1 et + c2 e−t , c1 , c2 ∈ R .
Teorema 4.3. (Princı́pio da sobreposição) Sejam k ≥ 2 um inteiro e ϕ1 , ϕ2 , . . . , ϕk
soluções das k EDO’s lineares completas de ordem n
L[y] = bj (t) , j = 1, 2, . . . , k
(respectivamente). Então, a função ϕ definida por
k
X k
X
ϕ := ϕj é solução da EDO linear completa L[y] = bj (t) .
j=1 j=1

Prova. De facto, tem-se


k
X k
X k
X
L[ϕ] = L[ ϕj ] = L[ϕj ] = bj (t) .
j=1 j=1 j=1

5. Método de D’Alembert ou de abaixamento de ordem


O problema da determinação da solução geral de uma EDO linear de ordem n
(5.1) L[y] ≡ y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t)
(a1 , a2 , . . . , an e b funções contı́nuas num dado intervalo I) é, em geral, muito complicado
de resolver, sendo possı́vel determinar tal solução, explicitamente, apenas em alguns casos
em que a equação tem uma forma muito especı́fica. Um destes casos ocorre quando os
coeficientes a1 , a2 , . . . , an são constantes (independentes de t), como veremos adiante. No
caso geral, de coeficientes variáveis, é possı́vel, por vezes, usando uma mudança de variável
adequada, reduzir a ordem da equação linear (5.1) em uma unidade, obtendo-se uma EDO
linear de ordem n − 1. Para que esta possibilidade se concretize, é necessário que se conheça,
a priori, uma solução particular da equação homogénea associada a (5.1). Este método é
conhecido por método de D’Alembert, ou método de abaixamento de ordem.
5. MÉTODO DE D’ALEMBERT OU DE ABAIXAMENTO DE ORDEM 59

Teorema 5.1. Suponha-se que y1 , y2 , . . . , yn−1 são n − 1 soluções (particulares) lin-


earmente independentes em I da equação linear homogénea L[y] = 0 associada à equação
completa (5.1), e admita-se que
y1 (t) 6= 0 , ∀t ∈ I .
Nestas condições:
(i) A mudança de variável (y → z) definida por
y = y1 (t) z
reduz (5.1) a uma EDO linear completa de ordem n − 1 na variável dependente
u = z ′ ≡ dz/dt ,
da forma
(5.2) u(n−1) + e
a1 (t)u(n−2) + . . . + e
an−2 (t)u′ + e
an−1 (t)u = b(t)/y1 (t) ,
onde e
a1 , e
a2 , . . . , e
an−1 são funções contı́nuas no intervalo I.
(ii) Se n ≥ 3, as funções u2 , u3 , . . . , un−1 definidas por
µ ¶
d yk (t)
(5.3) uk (t) := , k = 2, 3, . . . , n − 1
dt y1 (t)
são n − 2 soluções linearmente independentes da equação homogénea associada a (5.2).
Prova. Sendo y(t) = y1 (t)z(t), aplicando a regra de Leibniz para a derivação de um
produto de funções, obtém-se
Xk µ ¶
k (j)
y (k) (t) = y1 (t)z (k−j) (t) ,
j=0
j

para cada k ∈ {0, 1, . . . , n}. Consequentemente, substituindo y e as suas sucessivas derivadas


dadas por estas expressões na equação (5.1), que se pode escrever sob a forma
n
X
L[y] ≡ an−k (t)y (k) = b(t) (a0 (t) ≡ 1) ,
k=0

deduz-se
n X
X k µ ¶
k (j)
an−k (t) y1 (t)z (k−j) = b(t) .
j
k=0 j=0
Usando agora a fórmula
n X
X k n X
X n
αk,j = αj,j−k ,
k=0 j=0 k=0 j=k

válida para somatórios duplos, obtém-se


n
X
(5.4) rn−k (t)z (k) = b(t) ,
k=0

onde
n
X µ ¶
j (j−k)
rn−k (t) = an−j (t) y1 (t) , k = 1, . . . , n .
j−k
j=k
60 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Mas, o coeficiente de z (0) ≡ z na equação (5.4) é


n
X (j)
rn (t) = an−j (t)y1 (t) = L[y1 ](t) = 0 ,
j=0

uma vez que, por hipótese, y1 é solução da equação linear homogénea L[y] = 0. Além disso,
o coeficiente de z (n) na equação (5.4) é
(0)
r0 (t) = y1 (t) ≡ y1 (t) .
Assim, introduzindo a mudança de variável u = z ′ (logo, z (k) = u(k−1) , para cada k =
1, . . . , n), decorre que (5.4) se pode reescrever na forma
y1 (t)u(n−1) + r1 (t)u(n−2) + . . . + rn−2 (t)u′ + rn−1 (t)u = b(t) ,
o que prova (i), pondo
ak (t) := rk (t)/y1 (t) ,
e t∈I (k = 1, 2, . . . , n − 1) .
Prove-se (ii). Como y2 , y3 , . . . , yn−1 são soluções da equação homogénea L[y] = 0,
associada a (5.1), e como (5.2) se obtém de (5.1) efectuando a mudança de variável u = z ′ =
³ ´′
y
y1 , então as funções uk (k = 2, . . . , n−1) definidas por (5.3) são, evidentemente, soluções
da EDO homogénea associada a (5.2). Resta mostrar que estas funções são linearmente
independentes (em I). Com efeito, considere-se a expressão
n−1
X
ck uk (t) = 0 , t∈I,
k=2

onde c2 , . . . , cn−1 são números reais. Substituindo uk (t) pela sua expressão dada por (5.3)
e integrando (ou primitivando) em seguida a respeito de t, obtém-se
n−1
X yk (t)
ck = −c1 , t∈I,
y1 (t)
k=2

onde c1 é uma constante real, em princı́pio arbitrária. A última equação pode reescrever-se
sob a forma
c1 y1 (t) + c2 y2 (t) + . . . + cn−1 yn−1 (t) = 0 , t ∈ I ,
e como y1 , y2 , . . . , yn−1 são linearmente independentes em I, segue-se que c2 = . . . = cn−1 =
0 (e também c1 = 0, claro!), o que permite concluir que as funções u2 , . . . , un−1 são linear-
mente independentes em I, o que completa a demonstração.
Observação 5.1. O teorema anterior (quando aplicável!) indica um processo de res-
olução da equação de ordem n (5.1), reduzindo-a a uma EDO linear de primeira ordem
por aplicações sucessivas do método de abaixamento de ordem, na circunstância de serem
conhecidas n−1 soluções linearmente independentes da equação linear homogénea associada
(tais que pelo menos uma delas nunca se anule em I).
Observação 5.2. No caso n = 2 a equação (5.2) é linear de primeira ordem (em u) e,
por conseguinte, pode ser resolvida utilizando os os métodos do Capı́tulo I.
Como exemplo de aplicação, considere-se a EDO linear de ordem 3
1 1
(5.5) y ′′′ − y ′′ + y ′ − y = 0 .
t t
5. MÉTODO DE D’ALEMBERT OU DE ABAIXAMENTO DE ORDEM 61

Constata-se facilmente que y1 e y2 , definidas por


y1 (t) = sin t , y2 (t) = cos t ,
são soluções, em ]0, +∞[ (ou em ] − ∞, 0[ ), da equação (5.5). O nosso objectivo é, a partir
do conhecimento de que estas funções y1 e y2 são soluções particulares de (5.5), determinar
a solução geral desta equação. Para aplicar o Teorema 5.1 temos de considerar um intervalo
I tal que y1 nunca se anule em I. Pode ser, por exemplo,
I =]0, π[ .
Efectuando a mudança de variável y = y1 (t)z, tem-se
y = sin t z
y = sin t z ′ + cos t z

y ′′ = sin t z ′′ + 2 cos t z ′ − sin t z


y ′′′ = sin t z ′′′ + 3 cos t z ′′ − 3 sin t z ′ − cos t z ;
substituindo na EDO (5.5), deduz-se que
3t cos t − sin t ′′ 2t cos t − sin t ′
sin t z ′′′ + z − z = 0.
t t
Efectuando nesta equação a mudança de variável u = z ′ , obtém-se
3t cos t − sin t ′ 2t cos t − sin t
(5.6) sin t u′′ + u − u = 0,
t t
que é uma EDO linear de ordem 2. De acordo com a parte (ii) do Teorema 5.1, um integral
particular desta equação é dado por
µ ¶ µ ¶
d y2 (t) d cos t 1
u1 (t) = = = − 2 , t ∈]0, π[ .
dt y1 (t) dt sin t sin t
Assim, para aplicar novamente o método de abaixamento de ordem, efectue-se a mudança
de variável (u → w) definida por u = u1 (t)w. Então, tem-se
1
u=−w
sin2 t
1 2 cos t
u′ = − 2 w ′ + w
sin t sin3 t
1 4 cos t ′ 2 sin2 t + 6 cos2 t
u′′ = − 2 w′′ + w − w;
sin t sin3 t sin4 t
logo, substituindo na EDO (5.6), obtém-se
t cotg t + 1 ′
w′′ − w = 0.
t
Efectuando então a mudança de variável (w → v) definida por w′ = v, a última equação
reduz-se a uma EDO linear de primeira ordem:
t cotg t + 1
(5.7) v′ − v = 0.
t
Usando a teoria das EDO’s lineares de primeira ordem, ou o método de separação de
variáveis, é fácil verificar que a solução geral de (5.7), em I =]0, π[, é dada por
v(t) = k1 t sin t ,
62 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

onde k1 é uma constante real arbitrária. Para determinar a solução geral da equação pro-
posta, basta agora “desfazer” as mudanças de variável efectuadas. Assim, como w′ = v,
integrando, tem-se
Z
w(t) = k1 t sin t dt + k2 = k1 (sin t − t cos t) + k2 ,

onde k2 é também uma constante real arbitrária. Portanto,


1 k1 k1 t cos t k2
u(t) = − 2 w(t) = − + 2 + .
sin t sin t sin t sin2 t
Como u = z ′ , integrando, obtém-se (após alguns cálculos)
Z
k1 t k1 cos t
z(t) = u(t)dt + k3 = − − + k3 ,
sin t sin t
sendo k3 outra constante real arbitrária. Finalmente, como y = sin t z, conclui-se que o
integral geral da equação (5.5) é dado por
y(t) = c1 t + c2 cos t + c3 sin t ,
onde c1 , c2 e c3 são constantes reais arbitrárias. Note-se que o processo de resolução apenas
nos permite afirmar que cada solução está definida num intervalo do tipo ]kπ, (k + 1)π[,
para algum número inteiro k (na verdade, considerámos o intervalo ]0, π[, mas é claro que
a mesma resolução se aplica considerando I um qualquer intervalo do tipo ]kπ, (k + 1)π[ –
o importante foi considerar um intervalo onde y1 nunca se anulasse). Contudo, constata-
se imediatamente que estas funções são soluções de (5.5) em qualquer intervalo I que seja
um subconjunto de ]0, +∞[ ou de ] − ∞, 0[ (i.e., em qualquer intervalo que não contenha a
origem).

6. Método de Lagrange ou da variação das constantes arbitrárias


Um método alternativo ao de abaixamento de ordem para a determinação do integral
geral da equação diferencial linear de ordem n
(6.1) L[y] ≡ y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t) ,
é conhecido na literatura por método de Lagrange, ou método da variação das constantes
arbitrárias. Observe-se que para se poder aplicar o método de abaixamento de ordem, por
forma a reduzir a equação linear (6.1) a uma equação linear de primeira ordem (que é
sempre resolúvel, pelo menos do ponto de vista teórico) é necessário conhecer n − 1 soluções
linearmente independentes da equação homogénea correspondente. O método de Lagrange
exige mais, e para se poder aplicar pressupõe o conhecimento de n soluções linearmente
independentes da equação homogénea, i.e., de um SFS desta equação.
Para apresentar o método de Lagrange é conveniente introduzir o chamado sistema de
Lagrange associado a um SFS {y1 , y2 , . . . , yn } da equação homogénea associada a (6.1). Este
sistema é definido por


 y1 (t)f1 + y2 (t)f2 + . . . + yn (t)fn = 0
 ′


 y (t)f1 + y2′ (t)f2 + . . . + yn′ (t)fn = 0

 1 ..
(6.2) .

 (n−2) (n−2) (n−2)

 y1 (t)f1 + y2 (t)f2 + . . . + yn (t)fn = 0



 (n−1) (n−1) (n−1)
y1 (t)f1 + y2 (t)f2 + . . . + yn (t)fn = b(t) ,
6. MÉTODO DE LAGRANGE OU DA VARIAÇÃO DAS CONSTANTES ARBITRÁRIAS 63

onde as incógnitas são as n funções f1 , f2 , . . . , fn definidas no intervalo I. Decorre do facto


de {y1 , y2 , . . . , yn } ser um SFS que o sistema de Lagrange é possı́vel e determinado para
cada t ∈ I.

Teorema 6.1. (método de Lagrange) Seja {y1 , y2 , . . . , yn } um SFS da EDO linear


homogénea associada à equação completa (6.1). Então, um integral particular desta equação
completa é

(6.3) yP (t) = c1 (t)y1 (t) + c2 (t)y2 (t) + . . . + cn (t)yn (t) ,

onde c1 , c2 , . . . , cn são n funções definidas em I cujas funções derivadas, c′1 , c′2 , . . . , c′n con-
stituem a solução do correspondente sistema de Lagrange.

Prova. Temos que mostrar que


n
X
(6.4) y(t) := ck (t)yk (t) ,
k=1

onde ck ≡ ck (t) (k = 1, . . . , n) são funções tais que




 y1 (t)c′1 + y2 (t)c′2 + . . . + yn (t)c′n = 0



 y ′ (t)c′1 + y2′ (t)c′2 + . . . + yn′ (t)c′n = 0

 1 ..
(6.5) .


 y (n−2) (t)c′ + y (n−2) (t)c′ + . . . + yn(n−2) (t)c′ = 0


 1 1 2 2 n
 (n−1)
 (n−1) (n−1)
′ ′ ′
y1 (t)c1 + y2 (t)c2 + . . . + yn (t)cn = b(t) ,

é solução da EDO linear completa (6.1). Comecemos por calcular as sucessivas derivadas de
y(t). Tem-se
n
X n
X n
X
y ′ (t) = c′k (t)yk (t) + ck (t)yk′ (t) = ck (t)yk′ (t) ,
k=1 k=1 k=1
Pn ′
uma vez que, da primeira equação de (6.5), é k=1 ck (t)yk (t)
= 0. Derivando segunda vez,
obtém-se
n
X n
X n
X
y ′′ (t) = c′k (t)yk′ (t) + ck (t)yk′′ (t) = ck (t)yk′′ (t) ,
k=1 k=1 k=1
Pn ′ ′
já que, da segunda equação de (6.5), é também k=1 ck (t)yk (t)
= 0. Enfim, prosseguindo
o processo de derivação, utilizando sucessivamente as n − 1 primeiras equações do sistema
(6.5), obter-se-ia
n
X (j)
(6.6) y (j) (t) = ck (t)yk (t) , j = 0, 1, . . . , n − 1 .
k=1

Para a derivada de ordem n, derivando y (n−1) dada por (6.6) e usando a última equação de
(6.5), deduz-se
n
X (n)
y (n) (t) = b(t) + ck (t)yk (t) .
k=1
64 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Consequentemente, podemos escrever


n−1
X
L[y](t) = y (n)
(t) + an−j (t)y (j) (t)
j=0
n n−1
à n
!
X (n)
X X (j)
= b(t) + ck (t)yk (t) + an−j (t) ck (t)yk (t)
k=1  j=0 k=1 
Xn n−1
X
(n) (j)
= b(t) + ck (t) yk (t) + an−j (t)yk (t)
k=1 j=0
n
X
= b(t) + ck (t)L[yk ](t)
k=1

= b(t) ,

sendo a última igualdade justificada pelo facto de cada uma das funções yk (k = 1, . . . , n) ser
solução de L[y] = 0, tendo-se, por isso, L[yk ](t) = 0 para k = 1, . . . , n. Provou-se, pois, que
y(t) definido por (6.4) verifica L[y](t) = b(t), para todo o t ∈ I, i.e., é solução da equação
completa (6.1). Isto conclui a demonstração do teorema.

Observação 6.1. Recorde-se que, de acordo com o Teorema 4.2, para determinar o
integral geral da equação completa (6.1) basta conhecer um integral particular desta equação
e um SFS da equação linear homogénea que lhe está associada. Assim, o método de Lagrange
permite determinar a solução geral da equação completa (6.1), supondo que, por algum
processo, foi já determinado um SFS da equação homogénea associada.

Corolário 6.1. Seja {y1 , y2 , . . . , yn } um SFS da EDO linear homogénea associada à


equação completa (6.1). Então, um integral particular desta equação é dado por
n
X Z
Wk (t)
(6.7) ϕP (t) = yk (t) (−1)n+k b(t)dt , t∈I,
W (t)
k=1

onde (como usualmente) W ≡ W [y1 , . . . , yn ] designa o wronskiano das n soluções y1 , . . . , yn


e Wk ≡ W [y1 , . . . , yk−1 , yk+1 , . . . , yn ] o wronskiano das n−1 funções y1 , . . . , yk−1 , yk+1 , . . . , yn
(exclui-se a função yk ).

Prova. Decorre do teorema precedente que um integral particular da equação completa


(6.1) é dado por
n
X Z
ϕ(t) := yk (t) c′k dt ,
k=1

onde c′1 , c′2 , . . . , c′n constituem a solução do sistema de Lagrange (6.5). Basta, pois, mostrar
que
Wk (t)
c′k (t) = (−1)n+k b(t) , k = 1, . . . , n .
W (t)
De facto, como c′k é solução do sistema linear (6.5), resolvendo este sistema pela regra
de Crammer, e recordando que o determinante do sistema é o wronskiano W [y1 , . . . , yn ],
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 65

obtém-se
¯ ¯
¯ y1 ... yk−1 0 yk+1 ... yn ¯
¯ ¯
¯ ¯
¯ y1′ ... ′
yk−1 0 ′
yk+1 ... yn′ ¯
1 ¯ .. .. .. .. .. .. .. ¯
¯ ¯
c′k = ¯ . . . . . . . ¯
W [y1 , . . . , yn ] ¯ (n−2) (n−2) (n−2) (n−2) ¯
¯ y1 ... yk−1 0 yk+1 ... yn ¯
¯ ¯
¯ (n−1) (n−1) (n−1) (n−1)
¯
¯ y ... yk−1 b(t) yk+1 ... yn ¯
1

(−1)n+k b(t)W [y1 , . . . , yk−1 , yk+1 , . . . , yn ]


=
W [y1 , . . . , yn ]

Wk (t)
= (−1)n+k b(t) ,
W (t)
para cada k = 1, . . . , n, o que conclui a demonstração do corolário.

7. Equações lineares de coeficientes constantes


Como anteriormente se referiu, o problema da determinação da solução geral de uma
EDO linear de ordem n de coeficientes variáveis (i.e., que dependem da variável indepen-
dente, t) é, em geral, muito complicado, e não são conhecidos métodos gerais que permitam
determinar essa solução, a não ser nalguns casos em que a equação tem uma forma cuja
especificidade permite obter a sua solução. Um destes casos ocorre quando os coeficientes
que figuram na equação são constantes (não dependem da variável independente). Neste
caso, a equação escreve-se na forma
(7.1) L[y] ≡ y (n) + a1 y (n−1) + . . . + an−1 y ′ + an y = b(t)
onde a1 , a2 , . . . , an são constantes reais e b é uma função contı́nua num dado intervalo I.
Nesta secção vamos mostrar que a resolução desta equação se pode fazer por um processo
puramente algébrico, envolvendo pouco mais que a mera determinação dos zeros de um certo
polinómio construı́do à custa dos coeficientes a1 , a2 , . . . , an .

7.1. Polinómio caracterı́stico e operador diferencial polinomial. Consideremos


o caso em que a função b em (7.1) é identicamente nula em I, i.e., considere-se a equação
homogénea
(7.2) y (n) + a1 y (n−1) + . . . + an−1 y ′ + an y = 0 .
No caso particular mais simples, n = 1, a equação anterior reduz-se a y ′ + a1 y = 0. Como
sabemos, a solução geral desta equação é dada por y(t) = c e−a1 t , onde c é uma constante
real arbitrária. Isto sugere que, no caso geral, se procurem soluções de (7.2) do tipo
(7.3) y(t) = ert ,
com r número real. Ora, uma tal função será solução de (7.2) se e só se
Dn (ert ) + a1 Dn−1 (ert ) + . . . + an−1 D(ert ) + an ert = 0 ,
ou seja, atendendo a que Dj (ert ) = rj ert para cada j ∈ {0, 1, . . . , n}, se e só se
(7.4) rn + a1 rn−1 + . . . + an−1 r + an = 0 .
66 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Conclui-se assim que (7.3) é solução de (7.2) se e só se r for raı́z da equação (7.4), i.e., se e
só se o número real r for zero do polinómio P definido por
(7.5) P (r) := rn + a1 rn−1 + . . . + an−1 r + an .
Note-se que, dada a equação (7.1), podemos sempre formar o polinómio P definido por
(7.5), uma vez que para tal basta o conhecimento dos coeficientes a1 , a2 , . . . , an que figuram
(explicitamente) na equação diferencial (e para isso não tem qualquer importância o facto
de se saber se os zeros do polinómio são todos reais ou não). Ao polinómio P definido por
(7.4) – com zeros reais ou complexos – chama-se polinómio caracterı́stico associado à EDO
linear de coeficientes constantes (7.1). E, à correspondente equação (7.4) chama-se equação
caracterı́stica.
Associado ao polinómio (7.4) – de coeficientes constantes – podemos introduzir o chamado
operador diferencial polinomial de ordem n, P (D), definido por
P (D) := Dn + a1 Dn−1 + . . . + an−1 D + an ,
que actua em funções, f , diferenciáveis até à ordem n, do seguinte modo:
P (D)[f (t)] = Dn [f (t)] + a1 Dn−1 [f (t)] + . . . + an−1 D[f (t)] + an
= f (n) (t) + a1 f (n−1) (t) + . . . + an−1 f ′ (t) + an .
No que vai seguir-se é importante reter algumas propriedades deste operador diferencial,
que decorrem essencialmente do facto de este ter coeficientes (constantes) reais. Designe-se
por r1 , r2 , . . . , rn as raı́zes (reais ou complexas) de P . Como se sabe, P admite a factorização
n
Y
P (r) = (r − rj )
j=1

(estamos a supor que o coeficiente do termo de maior grau é 1). Além disso, se r1 , . . . , rk
designam as raı́zes reais distintas e α1 ± iβ1 , . . . , αl ± iβl as raı́zes complexas distintas, com
parte imaginária diferente de zero (note-se que, por o polinómio ter coeficientes reais, então
se α + iβ é zero do polinómio, o mesmo sucede ao seu conjugado α − iβ), podemos também
escrever
k
Y l
Y
(7.6) P (r) = (r − rj )µj [(r − αj )2 + βj2 ]νj ,
j=1 j=1

onde µj designa a multiplicidade de rj (j = 1, . . . , k) e νj designa a multiplicidade de αj +iβj


(j = 1, . . . , l), tendo-se
µ1 + . . . + µk + 2ν1 + . . . + 2νl = n .
Se P e Q são dois polinómios de coeficientes reais, de graus n e m, respectivamente,
tem-se
(7.7) (P Q)(D) = P (D)Q(D) = Q(D)P (D) ,
onde se entende que P (D)Q(D) é o operador polinomial que é definido fazendo actuar
primeiro o operador Q(D) e em seguida o operador P (D), i.e.,
P (D)Q(D)f (t) := P (D)[Q(D)f (t)] ,
para toda a função f diferenciável até à ordem n + m. Além disso, tem-se
(P + Q)(D) = P (D) + Q(D) ,
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 67

onde a adição de dois operadores diferenciais polinomiais é definida da maneira esperada,


ou seja,
[ P (D) + Q(D) ]f (t) := P (D)f (t) + Q(D)f (t)
para toda a função f diferenciável até à ordem k := max{n, m}.
Por exemplo, se for P (t) = t − 1 e Q(t) = t3 + 2t, tem-se

P (D) = D − 1 , P (D)f (t) = (D − 1)[f (t)] = f ′ (t) − f (t) ,


Q(D) = D3 + 2D , Q(D)f (t) = (D3 + 2D)[f (t)] = f ′′′ (t) + 2f (t)
e, portanto,
P (D)Q(D)f (t) = (D − 1)(D3 + 2D)[f (t)] = (D − 1)[f ′′′ (t) + 2f (t)]
= f (iv) (t) + 2f ′ (t) − f ′′′ (t) − 2f (t)
= f (iv) (t) − f ′′′ (t) + 2f ′ (t) − 2f (t) .

Prove-se (7.7). Atendendo a que dados quaisquer polinómios P e Q estes admitem


sempre factorizações do tipo (7.6), basta mostrar que

(7.8) (D − r1 )(D − r2 )f = (D − r2 )(D − r1 )f


(7.9) (D − r)[(D − α)2 + β 2 ]f = [(D − α)2 + β 2 ](D − r)f
(7.10)[(D − α1 )2 + β12 ][(D − α2 )2 + β22 ]f = [(D − α2 )2 + β22 ][(D − α1 )2 + β12 ]f

para toda a função f suficientemente diferenciável, onde r, r1 , r2 , α, α1 , α2 , β, β1 , β2 ∈ R (com


β, β1 , β2 não nulos). Prove-se (7.8). Com efeito, tem-se

(D − r1 )(D − r2 )f (t) = (D − r1 )[(D − r2 )f (t)]


= (D − r1 )[f ′ (t) − r2 f (t)]
= f ′′ (t) − r2 f ′ (t) − r1 f ′ (t) + r1 r2 f (t)
= f ′′ (t) − (r1 + r2 )f ′ (t) + r1 r2 f (t) ,

e como a última expressão é invariante trocando os papéis de r1 e r2 , deduz-se (7.8). A


prova das restantes relações faz-se de modo semelhante.
Note-se que as propriedades (7.7) justificam que quando P (D) está factorizado na forma
(7.6), com D em vez de r, ao fazer actuar P (D) sobre uma função podemos fazer actuar
primeiro sobre essa função um qualquer dos factores que figuram nessa factorização de P (D).
Note-se que o operador diferencial P (D) permite reescrever a EDO (7.1) de forma mais
sintética:
P (D)y = b(t)
Portanto, o operador diferencial linear L tem, neste caso, a forma

L = P (D) .

Como se sabe das secções anteriores, a determinação da solução geral de uma EDO lin-
ear completa L[y] = b(t) passa, em geral, pela determinação de um SFS da EDO linear
homogénea associada L[y] = 0. Assim, no parágrafo seguinte vamos ocupar-nos da deter-
minação de um SFS da EDO linear homogénea de coeficientes constantes (7.11), i.e., da
equação
P (D)y = 0 .
68 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

7.2. Equação homogénea. Considere-se a EDO linear homogénea de coeficientes con-


stantes
(7.11) P (D)y ≡ y (n) + a1 y (n−1) + . . . + an−1 y ′ + an y = 0 ,
onde, como atrás, P é o polinómio caracterı́stico associado à equação diferencial. Com o
objectivo de determinar um SFS da equação (7.11) é conveniente introduzir alguns conceitos
e algumas operações da Análise Complexa. Em primeiro lugar, vamos atribuir significado
à exponencial de um número complexo. Uma forma usual de introduzir este conceito é
recorrendo à chamada fórmula de Euler: sendo θ ∈ R, definimos
eiθ := cos θ + i sin θ
(a motivação para esta definição pode fazer-se, formalmente, a partir dos desenvolvimentos
em série das funções exponencial, seno e cosseno:
+∞
X +∞
X X+∞
(iθ)k θ2k θ2k+1
eiθ = = (−1)k +i (−1)k = cos θ + i sin θ ) ;
k! (2k)! (2k + 1)!
k=0 k=0 k=0
e, à custa da fórmula de Euler, definimos a exponencial de um número complexo α + iβ de
acordo com as relações
eα+iβ := eα eiβ = eα ( cos β + i sin β ) .
Podemos, assim, atribuir significado à função exponencial ert , com r complexo (e t ∈ I ⊂ R).
Definimos em seguida a derivada de uma função complexa (de variável real, t), digamos,
f (t) := u(t) + iv(t) (onde u e v são funções reais de variável real), como sendo a função
complexa cujas partes real e imaginária são, justamente, as derivadas das partes real e
imaginária dessa função complexa, i.e.,
d
(7.12) [ u(t) + iv(t) ] := u′ (t) + iv ′ (t) .
dt
É fácil de verificar que permanecem válidas para estas funções complexas as regras de
derivação usuais para a soma e o produto de funções. Além disso, continua válida para
a função exponencial complexa a mesma regra de derivação que para a função exponencial
real, i.e.,
d rt
(7.13) D(ert ) ≡ [ e ] = rert , t ∈ R ( r ∈ C ) .
dt
Com efeito, pondo r = α + iβ, deduz-se sucessivamente
d rt d © αt ª
[e ] = e [cos(βt) + i sin(βt) ]
dt dt
= αeαt [cos(βt) + i sin(βt) ] + eαt [−β sin(βt) + iβ cos(βt) ]
= (α + iβ) eαt cos(βt) + (αi − β) eαt sin(βt)
= (α + iβ) eαt [ cos(βt) + i sin(βt) ]
= rert .
Por conseguinte, podemos agora afirmar que o raciocı́nio utilizado no inı́cio da secção
anterior é válido (formalmente, i.e., considerando que a derivação de funções complexas se
faz de acordo com a maneira acabada de definir) para justificar que, sendo r ≡ α + iβ um
zero complexo do polinómio caracterı́stico P , então
ert ≡ eαt+iβt = eαt (cos βt + i sin βt) e ert ≡ eαt−iβt = eαt (cos βt − i sin βt)
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 69

são soluções complexas de (7.11). Assim, a questão que se coloca de imediato é a de saber
se o conhecimento da existência destas soluções complexas permite obter soluções reais (que
é o que nos interessa!). A resposta é dada pela proposição seguinte.
Lema 7.1. Seja y(t) = u(t) + iv(t) uma solução complexa da EDO (7.11). Então, as
funções y1 (t) = u(t) e y2 (t) = v(t) são soluções reais da mesma equação (i.e., as partes real
e imaginária de uma solução complexa da EDO (7.11) são soluções reais desta equação).
Prova. Atendendo à definição (7.12) de derivada de uma função complexa, tem-se

y (k) (t) = u(k) (t) + iv (k) (t) , k = 0, 1, . . . , n .


Como y(t) é solução (complexa) de (7.11), vem

y (n) (t) + a1 y (n−1) (t) + . . . + an−1 y ′ (t) + an y(t) = 0 ,


ou seja,
h i
u(n) (t) + a1 u(n−1) (t) + . . . + an−1 u′ (t) + an u(t)
£ ¤
+ i v (n) (t) + a1 v (n−1) (t) + . . . + an−1 v ′ (t) + an v(t) = 0 ,
donde (
u(n) (t) + a1 u(n−1) (t) + . . . + an−1 u′ (t) + an u(t) = 0
v (n) (t) + a1 v (n−1) (t) + . . . + an−1 v ′ (t) + an v(t) = 0 ,
o que mostra que u e v são, de facto, soluções (reais) da EDO (7.11).

Decorre do exposto que, sendo r = α + iβ um zero complexo do polinómio caracterı́stico


associado à equação homogénea (7.11), então as funções reais
y1 (t) := eαt cos βt e y2 (t) := eαt sin βt
são soluções reais de (7.11). Além disso, são linearmente independentes, pois
¯ ¯
¯ eαt cos βt eαt sin βt ¯
W [y1 , y2 ](t) = ¯¯ αt αt
¯
¯
e (α cos βt − β sin βt) e (α sin βt + β cos βt)

= βe2αt 6= 0 , ∀t ∈ R .
Isto sugere a resposta para o problema colocado, da determinação de um SFS de (7.11),
a qual será dada no teorema 7.1 seguinte. Antes, porém, é conveniente estabelecer dois
resultados auxiliares.
Lema 7.2. Sejam r é um número complexo qualquer, k um número natural e f uma
função complexa com derivadas até à ordem k. Então
(7.14) (D − r)k [ert f (t)] = ert Dk [f (t)] .
Prova. Prove-se esta propriedade por indução sobre k. Para k = 1, tem-se
(D − r)[ert f (t)] = D[ert f (t)] − rert f (t) = rert f (t) + ert D[f (t)] − rert f (t) = ert D[f (t)] .
Suponha-se agora que (7.2) se verifica (hipótese de indução) e prove-se que, então, também
(D − r)k+1 [ert f (t)] = ert Dk+1 [f (t)] .
70 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

De facto, tem-se
(D − r)k+1 [ert f (t)] = (D − r)(D − r)k [ert f (t)]
= (D − r)(ert Dk [f (t)])
= D(ert Dk [f (t)]) − rert Dk [f (t)]
= ert Dk+1 [f (t)] + rert Dk [f (t)] − rert Dk [f (t)]
= ert Dk+1 [f (t)] .
Lema 7.3. Consideremos k números (reais ou) complexos distintos λ1 , λ2 , . . . , λk , e
sejam µ1 , µ2 , . . . , µk quaisquer k números inteiros positivos. Então, as µ1 + · · · + µk funções
(reais ou complexas)
t ∈ I ⊂ R 7→ tm eλj t (j = 1, . . . , k ; m = 0, 1, . . . , µj − 1)
são linearmente independentes em I, quer sobre o corpo R, quer sobre o corpo C.
Prova. Sejam cjm (j = 1, . . . , k; m = 0, 1, . . . , µj − 1) números reais ou complexos tais
que
k µX
X j −1

(7.15) cjm tm eλj t = 0 , ∀t ∈ I .


j=1 m=0

Temos que mostrar que cjm = 0 para j = 1, . . . , k e m = 0, 1, . . . , µj − 1. De facto, pondo


Pµj −1
Pj (t) := m=0 cjm tm (j = 1, . . . , k) , (7.15) reescreve-se
k
X
(7.16) Pj (t) eλj t = 0 , ∀t ∈ I ,
j=1

e como um polinómio (de coeficientes reais ou complexos) é identicamente nulo se e só se


todos os seus coeficientes forem nulos, provar que (7.15) implica que todos os cjm ’s sejam
nulos é equivalente a provar que (7.16) implica que
(7.17) Pj (t) ≡ 0 para todo o j = 1, . . . , k .
Suponha-se, por absurdo, que algum destes polinómios não é identicamente nulo. A menos
de permutação na ordem das parcelas no primeiro membro de (7.16), pode assumir-se, sem
perda de generalidade, que este polinómio não identicamente nulo é Pk . Multiplicando
ambos os membros de (7.16) por e−λ1 t resulta
k
X
P1 (t) + Pj (t) e(λj −λ1 )t = 0 , ∀t ∈ I .
j=2

Derivando ambos os membros desta expressão µ1 vezes (que é o grau de P1 acrescido de uma
unidade, logo a derivada de ordem µ1 de P1 é o polinómio identicamente nulo), e observando
que se λ ∈ C e µ ∈ N então para qualquer polinómio P é
¡ ¢(µ)
P (t) eλt = Q(t) eλt ,
onde, se λ 6= 0, Q é um polinómio do mesmo grau que P (de facto, constata-se facilmente
Pµ ³ ´
pela regra de Leibnitz para a derivada de um produto que Q(t) = j=0 µj λj P (µ−j) (t) ),
obtém-se
X k
(7.18) Qj (t) e(λj −λ1 )t = 0 , ∀t ∈ I ,
j=2
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 71

onde Q2 , . . . , Qk são polinómios tais que grau Qj = grau Pj para j = 2, . . . , k e Qk não é


identicamente nulo (pois λk − λ1 6= 0). Agora, multiplicando ambos os membros de (7.18)
por eλ1 t vem
k
X
(7.19) Qj (t) eλj t = 0 , ∀t ∈ I ,
j=2

que é uma expressão do tipo (7.16). Procedendo então como anteriormente, multipliquem-se
ambos os membros de (7.19) por e−λ2 t e em seguida derive-se µ2 vezes, de modo a obter
k
X
Rj (t) eλj t = 0 , ∀t ∈ I ,
j=3

onde R3 , . . . , Rk são polinómios tais que grau Rj = grau Qj = grau Pj para j = 3, . . . , k.


Enfim, procedendo sucessivamente do mesmo modo, chegar-se-á a uma expressão do tipo
Sk (t) eλk t = 0 , ∀t ∈ I ,
onde Sk é um polinómio não identicamente nulo, tal que grau Sk = grau Pk . Mas, isto é
absurdo, pois a igualdade anterior implica que Sk ≡ 0 , logo também Pk ≡ 0 .

Posto isto, no caso geral tem-se a seguinte proposição:


Teorema 7.1. Considere-se a EDO linear de ordem n homogénea de coeficientes con-
stantes (7.11) e suponha-se que o polinómio caracterı́stico associado tem exactamente k
raı́zes reais distintas r1 , . . . , rk , com multiplicidades µ1 , . . . , µk , respectivamente, e exacta-
mente l pares de raı́zes complexas conjugadas distintas α1 ± iβ1 , . . . , αl ± iβl (com as partes
imaginárias diferentes de zero), com multiplicidades ν1 , . . . , νl , respectivamente (tendo-se,
portanto, µ1 + . . . + µk + 2ν1 + . . . + 2νl = n).
Nestas condições, as n funções reais
(7.20) tm erj t , j = 1, 2, . . . , k , m = 0, 1, . . . , µj − 1 ,
m αj t
(7.21) t e cos βj t , j = 1, 2, . . . , l , m = 0, 1, . . . , νj − 1 ,
(7.22) tm eαj t sin βj t , j = 1, 2, . . . , l , m = 0, 1, . . . , νj − 1 ,
constituem um SFS da equação (7.11).
Prova. (i) Que as funções definidas por (7.20) são soluções de (7.11) decorre imedi-
atamente do Lema 7.2, escolhendo f (t) = tm , r = rj e k = µj . Do mesmo modo, com
f (t) = tm , r = αj + iβj e k = νj , deduz-se também do mesmo Lema que as funções
tm e(αj +iβj )t são soluções complexas de (7.11), logo as suas partes real e imaginária, que são
as funções definidas por (7.21) e (7.22), são soluções reais de (7.11).
(ii) Resta mostrar que a totalidade das n funções definidas por (7.20)–(7.22) constitui
um conjunto linearmente independente (sobre o corpo R), i.e., se Ajm , Bjm e Cjm são
números reais tais que
k µX
X j −1 l νX
X j −1
£ ¤
Ajm tm erj t + Bjm tm erj t cos(βj t) + Cjm tm erj t sin(βj t) = 0
j=1 m=0 j=1 m=0

para todo o t ∈ I, então, necessariamente, Ajm = Bjm = Cjm = 0 para todos os possı́veis
pares (j, m). Com efeito, observando que, para quaisquer números reais p, q, α, β é
peαt cos(βt) + qeαt sin(βt) = 12 (p − iq)e(α+iβ)t + 12 (p + iq)e(α−iβ)t ,
72 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

a igualdade anterior pode reescrever-se na forma


k µX
X j −1

Amj tm erj t
j=1 m=0
l νX
X j −1 n o
+ 1
2 [Bjm − iCjm ]tm e(αj +iβj )t + 21 [Bjm + iCjm ]tm e(αj −iβj )t =0
j=1 m=0

para todo o t ∈ I. Logo, atendendo ao Lema 7.3, obtém-se imediatamente



 Ajm = 0

Bjm − iCjm = 0


Bjm + iCjm = 0
para todos os possı́veis pares (j, m), donde Ajm = Bjm = Cjm = 0 para todos os possı́veis
pares (j, m).

Exemplos:
1. Considere-se a EDO
y (iv) + 2y ′′′ + y ′′ = 0 , i.e. , (D4 + 2D3 + D2 )y = 0 .
O polinómio caracterı́stico associado é
P (r) = r4 + 2r3 + r2 .
Resolvendo a equação caracterı́stica associada, tem-se
r4 + 2r3 + r2 = 0 ⇔ r2 (r2 + 2r + 1) = 0 ⇔ r = 0 (dupla) ∨ r = −1 (dupla) .
Assim, um SFS da EDO anterior é {e0t , te0t , e−t , te−t } ≡ {1, t, e−t , te−t }, pelo que o seu
integral geral é dado por
y(t) = c1 + c2 t + e−t (c3 + c4 t) , c1 , c2 , c3 , c4 ∈ R .

2. Como segundo exemplo, considere-se a EDO


y ′′′ − 4y ′′ + 5y ′ = 0 .
Neste caso, o polinómio caracterı́stico associado é P (r) = r3 − 4r2 + 5r e, resolvendo a
equação caracterı́stica associada, tem-se
r3 − 4r2 + 5r = 0 ⇔ r(r2 − 4r + 5) = 0 ⇔ r = 0 ou r = 2 ± i .
2t 2t
Assim, um SFS da EDO anterior é {1, e cos t, e sin t}, pelo que o seu integral geral é dado
por
y(t) = c1 + e2t (c2 cos t + c3 sin t) , c1 , c2 , c3 ∈ R .

3. Seja agora a EDO


y (iv) + 8y ′′ + 16y = 0 .
Resolvendo a equação caracterı́stica associada, tem-se
r4 + 8r2 + 16 = 0 ⇔ (r2 + 4)2 = 0 ⇔ r = ±2i (duplas) .
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 73

Assim, um SFS da EDO anterior é {cos 2t, t cos 2t, sin 2t, t sin 2t} e o integral geral é dado
por
y(t) = (c1 + c2 t) cos 2t + (c3 + c4 t) sin 2t , c1 , c2 , c3 , c4 ∈ R .

4. Como último exemplo, considere-se a EDO completa


y ′′′ − 3y ′′ + 2y ′ = log t , t > 0.
O polinómio caracterı́stico associado é
P (r) = r3 − 3r2 + 2r = r(r − 1)(r − 2)
donde se conclui imediatamente que um SFS da equação homogénea associada é
y1 (t) = 1 , y2 (t) = et , y3 (t) = e2t ,
pelo que o integral geral da equação homogénea é dado por
yH (t) = c1 + c2 et + c3 e2t , c1 , c2 , c3 ∈ R .
Fazendo variar as constantes, o método de Lagrange (Teorema 6.1) garante que o integral
geral da equação completa proposta é dado por
(7.23) y(t) = c1 (t) + c2 (t)et + c3 (t)e2t
onde c1 , c2 e c3 são funções definidas (cada uma) a menos de uma constante e que podem
ser determinadas resolvendo o sistema linear (lagrangeano)
  ′   
1 et e2t c1 (t) 0
 0 et 2e2t   c′2 (t)  =  0  .
0 et 4e2t c′3 (t) log t
O determinante deste sistema é o wronskiano das 3 funções 1, et , e2t , tendo-se
¯ ¯ ¯ ¯
¯ 1 et e2t ¯ ¯ 1 1 1 ¯
¯ ¯ ¯ ¯
W [1, e , e ] = ¯¯ 0 et 2e2t
t 2t ¯ = e3t ¯ 0 1 2 ¯ = 2e3t .
¯ ¯ ¯
¯ 0 et 4e2t ¯ ¯ 0 1 4 ¯
Por conseguinte, resolvendo o sistema anterior pela regra de Crammer, obtém-se
1 1
c′1 (t) = log t , c′2 (t) = −e−t log t , c′3 (t) = e−2t log t ,
2 2
donde, primitivando,
Z
t
c1 (t) = (log t − 1) + c1 , c2 (t) = − e−t log t dt + c2 ,
2
Z
1
c3 (t) = e−2t log t dt + c3 , c1 , c2 , c3 ∈ R .
2
(note-se que as funções e−t log t e e−2t log t não admitem primitiva exprimı́vel em termos das
funções elementares), onde c1 , c2 , c3 são constantes reais arbitrárias. Portanto, substituindo
estas expressões em (7.23), conclui-se que o integral geral da equação completa de partida é
dado por
µ Z ¶ µ Z ¶
t 1
y(t) = c1 + (log t − 1) + c2 − e−t log t dt et + c3 + e−2t log t dt e2t .
2 2
Observe-se que no segundo membro desta igualdade podemos “isolar” a expressão c1 +c2 et +
c3 e2t , que é o integral geral da equação homogénea associada à equação de partida.
74 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

7.3. Equação completa. Método do polinómio anulador. Considere-se agora o


caso em que b(t) 6≡ 0 em I, i.e., analisemos a EDO linear completa de coeficientes constantes
(7.24) P (D)y ≡ y (n) + a1 y (n−1) + . . . + an−1 y ′ + an y = b(t) ,
onde a1 , . . . , an são constantes reais e b é uma função contı́nua nalgum intervalo I ⊂ R.
De acordo com o exposto no parágrafo anterior (e como o exemplo 4 precedente ilustra),
sabemos já como determinar um SFS da equação homogénea associada, P (D)y = 0. Em
consequência, por aplicação do método da variação das constantes arbitrárias de Lagrange
(ou, eventualmente, do método de abaixamento de ordem de D’Alembert), podemos deter-
minar o integral geral da equação completa P (D)y = b(t).
No caso em que a função b tem uma certa estrutura, é possı́vel estabelecer um método
mais simples, alternativo ao de Lagrange, para a determinação da solução geral da equação
completa (7.24). Trata-se do chamado método do polinómio anulador ou método dos coefi-
cientes indeterminados, e pode aplicar-se quando b for solução de uma EDO linear homogénea
de coeficientes constantes, ou, equivalentemente, quando existir um operador polinomial de
coeficientes constantes, Q(D), que anule b, i.e., tal que
Q(D)b(t) = 0 , ∀t ∈ I .
Em geral, dada uma função f definida em I, chama-se polinómio anulador de f em I a todo
o polinómio, Q, cujo operador polinomial diferencial associado anule f em I, ou seja,
Q(D)f (t) = 0 , ∀t ∈ I .
Em consequência, pelo Teorema 7.1, se f admite polinómio anulador então deve ser, neces-
sariamente, uma função de algum dos tipos
(7.25) tm ert , tm eαt cos βt , tm eαt sin βt
(r, α, β ∈ R e m inteiro não negativo), ou uma combinação linear de funções destes tipos.
As propriedades seguintes, válidas para quaisquer polinómios Q1 , Q2 e Q, e funções f1 ,
f2 e f definidas num mesmo intervalo I, são úteis e de fácil verificação:
(i) Q1 (D)f1 (t) = 0 , Q2 (D)f2 (t) = 0 ⇒ Q1 (D)Q2 (D)[f1 (t) + f2 (t)] = 0 ,
(ii) Q(D)f (t) = 0 ⇒ Q(D)[cf (t)] = 0 , ∀c ∈ R .
Dada uma função, f , para determinar um polinómio anulador para f (se tal for possı́vel!),
um processo consiste em usar o Teorema 7.1, mas “pensando ao contrário”, i.e., partindo da
solução para a equação. Note-se que na determinação de polinómios a partir dos seus zeros,
é útil ter em mente que o polinómio que tem α ± iβ como zeros é (r − α)2 + β 2 . Vejamos
alguns exemplos:
1. Considere-se a função f (t) := et . Para determinar um polinómio anulador desta
função observamos que f deve ser solução de alguma EDO linear homogénea de coeficientes
constantes tal que a equação caracterı́stica associada tenha por raiz r = 1. Logo, um
polinómio anulador é Q(r) = r − 1. Obviamente, qualquer outro polinómio que tenha 1
como raiz também é um polinómio anulador de f .

(t) := sin 5 t. Esta função é do terceiro tipo indicado em
2. Considere-se a função f √
(7.25), com m = α = 0 e β = 5. Assim, f é solução de uma EDO linear homogénea √ de
coeficientes constantes cuja equação caracterı́stica associada tem por raı́zes ± 5 i. Logo,
Q(r) = r2 + 5 é um polinómio anulador de f .
3. Considere-se agora f (t) := 5e2t + t cos 3t. Trata-se de uma função que é soma de duas
funções, uma do primeiro tipo indicado em (7.25), com m = 0 e r = 2, e a outra do segundo
7. EQUAÇÕES LINEARES DE COEFICIENTES CONSTANTES 75

tipo, com m = 1, α = 0 e β = 3. Para a primeira destas funções um polinómio anulador


é Q1 (r) := r − 2, e para a sugunda um polinómio anulador é Q2 (r) := (r2 + 9)2 . Assim,
usando a propriedade (i) anterior, um polinómio anulador de f é Q(r) = (r − 2)(r2 + 9)2 .
4. Finalmente, seja f (t) := te−4t + 5t2 sin 2t + e3t/2 cos t. Neste caso, deduz-se que um
polinómio anulador é
Q(r) := [r − (−4)]2 (r2 + 22 )3 [(r − 32 )2 + 12 ] = (r + 4)2 (r2 + 4)3 (r2 − 3r + 13
4 ).

Posto isto, passamos à descrição do método acima referido. Considere-se então uma
EDO linear completa de coeficientes constantes:
(7.26) P (D)y = b(t) ,
onde b é uma função que admite polinómio anulador. O método do polinómio anulador (ou
dos coeficientes indeterminados), consiste no seguinte:

(i) Determina-se um polinómio anulador de b (de menor grau possı́vel e mónico, por
uma questão de simplicidade). Designando este polinómio por Q, tem-se
(7.27) Q(D)b(t) = 0 .
(ii) Aplica-se o operador polinomial Q(D) a ambos os membros de (7.26). De acordo
com (7.27), obtém-se
(7.28) Q(D)P (D)y = 0 ,
que é uma EDO linear homogénea de coeficientes constantes, cujo integral geral pode sempre
escrever-se na forma
(7.29) y = yH + yQ ,
onde yH representa o integral geral da equação homogénea associada à equação dada (7.26)
e yQ depende de algumas constantes arbitrárias – o integral geral de (7.28) é, de facto, da
forma (7.29), uma vez que P (D) é factor do operador polinomial que figura em (7.28).

(iii) Como o integral geral de (7.26) pode sempre escrever-se na forma


y = yH + integral particular de (7.26) ,
basta então determinar as constantes que figuram na expressão de yQ por forma a que yQ
seja solução particular de (7.26). Para a determinação destas constantes começa-se por
substituir em (7.26) a expressão geral de yQ e das suas derivadas até à ordem necessária e,
em seguida, usa-se o método dos coeficientes indeterminados (comparando coeficientes em
ambos os membros de uma equação envolvendo polinómios, exponenciais, senos, cossenos,
etc.) — procedimento que é validado pelo Lema 7.3, o qual garante ainda que estas constantes
são unicamente determinadas.

(iv) Uma vez determinadas as constantes, em (iii), designando por yP a função que se
obtém de yQ com os valores dessas constantes, como yP é um integral particular da equação
(7.26), conclui-se que o integral geral de (7.26) é dado por
y = yH + yP .
76 4. EQUAÇÕES DIFERENCIAIS LINEARES DE ORDEM n

Como exemplo de aplicação, considere-se a EDO


(7.30) y ′′ − 5y ′ + 6y = 2t2 − 1 .
O polinómio caracterı́stico associado é P (r) = r2 − 5r + 6 = (r − 2)(r − 3), cujos zeros são
2 e 3. Portanto, a equação pode escrever-se na forma equivalente
(7.31) P (D)y ≡ (D − 2)(D − 3)y = 2t2 − 1 ,
e o integral geral da equação homogénea associada é
yH (t) = c1 e2t + c2 e3t , c1 , c2 ∈ R .
2
Como o segundo membro desta EDO é b(t) ≡ 2t − 1, então um polinómio anulador de b é
Q(r) := r3 , a que corresponde o operador polinomial
Q(D) = D3 .
Aplicando Q(D) a ambos os membros da equação (7.31), obtém-se a EDO
D3 (D − 2)(D − 3)y = 0 ,
cujo integral geral é
y(t) = c1 e2t + c2 e3t + c3 + c4 t + c5 t2 , c1 , c2 , c3 , c4 , c5 ∈ R .
| {z } | {z }
yH (t) yQ (t)

Trata-se agora de determinar c3 , c4 , c5 de modo que yQ seja solução particular da equação


proposta (7.30). Tem-se
yQ (t) = c3 + c4 t + c5 t2 , ′
yQ (t) = c4 + 2c5 t , ′′
yQ (t) = 2c5 ;
logo, substituindo em (7.30), vem 2c5 − 5(c4 + 2c5 t) + 6(c3 + c4 t + c5 t2 ) = 2t2 − 1, ou,
equivalentemente,
(2c5 − 5c4 + 6c3 ) + (−10c5 + 6c4 )t + 6c5 t2 = −1 + 0.t + 2t2 ,
donde, por comparação de coeficientes,
 
 2c5 − 5c4 + 6c3 = −1  c5 = 1/3
−10c5 + 6c4 = 0 ⇔ c4 = 5/9
 
6c5 = 2 c3 = 5/27 .
Assim, um integral particular da equação (7.31) é
5 5 1
yP (t) = + t + t2 ,
27 9 3
pelo que o seu integral geral é dado por
5 5 1
y(t) = c1 e2t + c2 e3t + + t + t2 , c1 , c2 ∈ R .
27 9 3

8. Exercı́cios

(1) Considere a equação linear homogénea de segunda ordem


y ′′ + a1 (t)y ′ + a2 (t)y = 0 (1)
(com a1 e a2 funções contı́nuas num intervalo I), e suponha conhecido um integral par-
ticular, y1 , desta equação, tal que y1 (t) 6= 0 , ∀t ∈ I .
8. EXERCÍCIOS 77

(a) Use o método de D’Alembert para mostrar que a mudança de variável y = y1 (t)z
permite reduzir (1) à forma
!
y1′ (t)
u′ + 2 + a1 (t) u = 0 . (2)
y1 (t)
(b) Verifique que a solução geral de (2) é
C
u(t) = 2 e− a1 (t)dt ,
y1 (t)
onde C é uma constante real arbitrária.
(c) Use os resultados das alı́neas anteriores para justificar que
" e− a1 (t)dt
y2 (t) = y1 (t) dt . (3)
y12 (t)
é também uma solução particular de (1).
(d) Mostre que y1 e y2 são soluções linearmente independentes de (1), provando que
a1 (t)dt
W [y1 , y2 ] = e−
Conclui-se assim que dada a EDO linear homogénea de segunda ordem (1), e sendo y1 (t)
uma solução particular desta equação tal que y1 (t) 6= 0 para todo o t ∈ I, então uma
segunda solução de (1), linearmente independente com y1 (t) em I, é dada por (3). E,
consequentemente, qualquer outra solução de (1) é uma combinação linear de y1 e y2 .
(2)
CAPı́TULO 5

Transformada de Laplace

1. Definição e primeiros exemplos


O objecto de estudo neste capı́tulo é a transformada de Laplace (1), a qual pertence a
uma classe de transformadas, ditas transformadas integrais (por serem definidas à custa de
integrais), que têm muito interesse quer em áreas teóricas, quer em áreas de aplicação da
Matemática. Um dos aspectos de interesse do estudo da transformada de Laplace decorre do
facto de esta transformar certos tipos de equações diferenciais em equações algébricas. Na
prática isto fornece um método simples de resolver certas equações deiferenciais: aplica-se
a transformada de Laplace à equação diferencial, resolve-se a equação algébrica resultante
e, finalmente, aplicando um método de inversão adequado (a chamada transformada in-
versa de Laplace), obtém-se a solução da equação diferencial de partida. Este método de
resolução de equações diferenciais está perfeitamente implementado em “pacotes computa-
cionais” (simbólicos ou numéricos) tais como o Mathematica ou o Matlab. Além disso, é
muito utilizado pelos engenheiros, nomeadamente na resolução de certos tipos de equações
diferenciais nas quais intervêm funções descontı́nuas.
Definição 1.1. Seja I um intervalo de números reais que contém [0, +∞[ e seja f :
I → R. A transformada de Laplace de f , designada por L{f (t)} ou F (s), é definida por
Z +∞
L{f (t)} ≡ F (s) := f (t)e−st dt , s ∈ D ⊂ R ,
0
desde que o integral seja convergente (exista).
Observação 1.1. A função F (s) é definida para os valores reais de s para os quais
o integral converge. Este conjunto de valores onde s varia, D, é chamado o domı́nio de
frequência, enquanto que o conjunto dos valores t onde f (t) está definida é dito o domı́nio
temporal.
Observação 1.2. O integral que define a transformada de Laplace é impróprio, pelo
que o sentido que lhe deve ser atribuı́do é, naturalmente,
Z +∞ Z T
f (t)e−st dt = lim f (t)e−st dt ,
0 T →+∞ 0
e está definido quando este limite existir.
De acordo com a definição dada da transformada de Laplace, o comportamento da função
f (t) para valores de t < 0 não interessa, pelo que L{f (t)} contém informação relativa a f (t)
apenas para valores de t ≥ 0. Deste modo a transformada de Laplace não é um instrumento
matemático adequado para estudar fenómenos nos quais o comportamento de f (t) para
valores de t < 0 seja relevante, mas em muitos problemas concretos isto não constitui
dificuldade, já que a variável t representa o tempo.
1
Em homenagem ao matemático francês Pierre Simon de Laplace (1749-1827).

79
80 5. TRANSFORMADA DE LAPLACE

Exemplos.

1. Considere-se a função
f (t) := eat , t ≥ 0 (a ∈ R) .
Aplicando a definição, vem
Z +∞ Z T
L{f (t)} = L{eat } = e−st eat dt = lim e−(s−a)t dt .
0 T →+∞ 0
RT −(s−a)t
Agora, se s = a então 0 e dt = T → +∞ (quando T → +∞), logo o integral
impróprio é divergente e, por conseguinte, a transformada de Laplace não está definida.
Considerando então s 6= a, podemos escrever
Z T · ¸T
−(s−a)t 1 −(s−a)t 1 ³ ´
e dt = − e = 1 − e−(s−a)T ,
0 s−a t=0 s−a
e como (
−(s−a)T
0 se s > a
lim e =
T →+∞ + ∞ se s < a ,
decorre imediatamente que
1
(1.1) L{eat } = , s>a.
s−a
Em particular, para a = 0 obtém-se
1
L{1} = , s>0.
s
2. Considere-se agora a função
f (t) := sin(kt) , t ≥ 0 (k ∈ R) .
É fácil justificar, usando o método de primitivação por partes, que para quaisquer números
reais não simultaneamente nulos a e b é
Z
1
eat sin(bt) dt = 2 eat [ a sin(bt) − b cos(bt) ] + C (C ∈ R) ,
a + b2
e, consequentemente, para cada T > 0 obtém-se
Z T
1 ¡ ¢
(1.2) e−st sin(kt) dt = 2 2
k − e−sT [ s sin(kT ) + k cos(kT ) ] .
0 s + k
Assim, tomando o limite quando T → +∞, constata-se que o limite existe se e só se s > 0,
o que permite obter
k
(1.3) L{sin(kt)} = , s>0.
s2 + k 2

2. Existência da transformada de Laplace


Uma vez que a transformada de Laplace foi definida recorrendo a um integral impróprio,
tem interesse analisar condições gerais que permitam assegurar a convergência deste inte-
gral. O objectivo desta secção é, precisamente, estabelecer uma condição suficiente para a
existência da transformada de Laplace. Começamos por introduzir a seguinte
2. EXISTÊNCIA DA TRANSFORMADA DE LAPLACE 81

Definição 2.1. Uma função f , real de variável real, diz-se de ordem exponencial (quando
t → +∞) se existem números σ ∈ R e M, T > 0 tais que
(2.4) |f (t)| ≤ M eσt para todo o t>T .

Essencialmente, isto significa que f é de ordem exponencial se não cresce mais rapi-
damente que alguma função exponencial do tipo eσt para todos os instantes t posteriores
a um determinado instante fixo T > 0. Muitas funções de interesse prático são de ordem
exponencial—tais como as que aparecem como solução de uma EDO linear de coeficientes
constantes—, daı́ o interesse em introduzir este conceito.

Exemplos:
1. A função f (t) := e3t é de ordem exponencial. Basta observar que se cumpre a
definição anterior escolhendo quaisquer σ, M e T tais que σ ≥ 3, M ≥ 1 e T > 0.
2. A função f (t) := tn (n ∈ N0 , fixo) é de ordem exponencial. De facto, podemos
tomar σ > 0 (qualquer), M = n!/σ n e T > 0 (qualquer). Isto decorre directamente
do desenvolvimento em série de Taylor da função eσt :
(σt)2 (σt)n (σt)n σn n
eσt = 1 + σt + + ··· + + ··· > = t ,
2! n! n! n!
donde f (t) = tn < (n!/σ n ) eσt para todo o t > 0.
2
3. A função f (t) := et não é de ordem exponencial. De facto, quaiquer que sejam os
2
valores que se considerem para M > 0 e σ, et cresce mais rapidamente à medida
que t aumenta do que M eσt , pois
2
et 1 t2 −σt
= e → +∞ (quando t → +∞) .
M eσt M
Decorre dos exemplos precedentes que, para uma dada função de ordem exponencial, a
escolha do valor σ não é única (nas condições da definição). O ı́nfimo do conjunto de todos
os valores σ para os quais se cumpre (2.4) chama-se abcissa de convergência da função (de
ordem exponencial) f , e será designado por σf . Explicitamente,
© ª
σf := inf σ ∈ R : ∃M,T >0 : ∀t>T |f (t)| < M eσt .
No caso dos dois primeiros exemplos anteriores, constata-se facilmente que para a função
f (t) := e3t é σf = 3, enquanto que para f (t) := tn é σf = 0.

Estamos em condições de enunciar o resultado anteriormente anunciado. Para tal


recordemos ainda que uma função real de variável real, f , é dita seccionalmente contı́nua
num intervalo I de números reais (limitado ou não) se em cada subintervalo limitado de
I a função for contı́nua em todos os pontos desse subintervalo com possı́vel excepção de
um número finito deles, que devem ser descontinuidades de primeira espécie (i.e., os limites
laterais nos pontos de descontinuidade devem existir e ser finitos).
Teorema 2.1 (condição suficiente de existência da transformada de Laplace).
Se f é uma função seccionalmente contı́nua em [0, +∞[ e de ordem exponencial, com abcissa
de convergência σf , então a transformada de Laplace L{f (t)} ≡ F (s) existe para s > σf .
Prova. Como f é de ordem exponencial com abcissa de convergência σf , para cada
σ > σf podemos escrever
|f (t)| ≤ M eσt , t ≥ T
82 5. TRANSFORMADA DE LAPLACE

para algum instante T > 0 e alguma constante M > 0. Além disso, como f é seccionalmente
contı́nua em [0, +∞[, então é integrável em qualquer subintervalo limitado de [0, +∞[, e em
R +∞
particular em [0, T ]. Assim, para provar que 0 e−st f (t) dt é convergente (i.e., que L{f (t)}
R +∞
existe) basta mostrar que T e−st f (t) dt é convergente. Com efeito, como

|e−st f (t)| ≤ M e−(s−σ)t , t ∈ [T, +∞[ ,


R +∞
e T e−(s−σ)t dt é convergente (com valor e−(s−σ)T /(s − σ)) para todo o s > σ , conclui-se
R +∞
que T e−st f (t) dt é convergente para todo o s > σ (2). Como σ foi escolhido arbitraria-
mente de modo que σ > σf , segue-se que L{f (t)} existe para s > σf .

Observação 2.1. Constata-se facilmente que todas as funções do tipo c tm eαt sin(βt) e
m αt
c t e cos(βt) , com c, α, β ∈ R e m ∈ N0 , são de ordem exponencial quando t → +∞. Como
todas as soluções de EDO’s lineares homogéneas de coeficientes constantes são combinações
lineares de funções deste tipo, decorre do Teorema precedente que as transformadas de
Laplace de tais soluções existe.

Observação 2.2. O teorema anterior dá apenas uma condição suficiente que garante
a existência da transformada de Laplace. Porém, existem funções que têm transformada√de
Laplace mas que não são de ordem exponencial,
√ p como é o caso da função f (t) := 1/ t ,
para a qual se pode verificar que L{ 1/ t } = π/s para s > 0.

3. Propriedades da transformada de Laplace


Nesta secção vamos estabelecer algumas propriedades da transformada de Laplace que,
em muitas circunstâncias, nos vão permitir determinar transformadas de certas funções à
custa de transformadas de outras que, por algum processo, tenham já sido determinadas.
As demonstrações de algumas das propriedades são relativamente simples, pelo que serão
deixadas como exercı́cio.

Propriedade 3.1 (linearidade). Sejam f e g duas funções cujas transformadas de


Laplace existam num mesmo domı́nio de frequência D, e sejam a, b ∈ R. Então

(3.5) L{af (t) + bg(t)} = aL{f (t)} + bL{g(t)} em D.

Observação 3.1. Se f e g são de ordem exponencial, com abcissas de convergência σf


e σg (resp.), então também af + bg é de ordem exponencial e tem abcissa de convergência
menor ou igual que max{σf , σg } , pelo que, nestas condições, a igualdade (3.5) está bem
definida no conjunto D constituı́do pelos pontos s tais que s > max{σf , σg } .

Exemplos.

2Recorde-se o seguinte Critério de comparação para integrais impróprios: Sendo g e h funções reais de
variável real tais que 0 ≤ g(t) ≤ h(t) para todo o t ∈ [a, +∞[ (onde a ∈ , fixo), se a+∞ h é convergente
então também a+∞ g é converge. Recorde-se ainda que sendo f uma função real de variável real integrável
à Riemann em cada subintervalo limitado de [a, +∞[, se a+∞ |f | é convergente então também a+∞ f é
convergente.
3. PROPRIEDADES DA TRANSFORMADA DE LAPLACE 83

1. Seja f (t) := sinh(at), com a ∈ R (fixo). Como sinh(at) = 21 eat − 12 e−at , e atendendo
a que, por (1.1), é L{eat } = 1/(s − a) para s > a e L{e−at } = 1/(s + a) para
s > −a , usando a linearidade da transformada de Laplace deduz-se
1 1
L{sinh(at)} = L{eat } − L{e−at }
2 2
1 1 1 1 a
= − = 2 ,
2s−a 2s+a s − a2
igualdades que estão bem definidas para s > max{a, −a} = |a|. Por conseguinte,
a
L{sinh(at)} = , s > |a| .
s2 − a2
1
2. Analogamente, usando cosh(at) := 2 eat + 21 e−at , verifica-se que
s
L{cosh(at)} = , s > |a| .
s2 − a2
3. Considere-se agora f (t) := 3 + 2e5t . Então, é
L{3 + 2e5t } = 3 L{1} + 2 L{e5t } ,
e como, por (1.1), é L{1} = 1/s para s > 0 e L{e5t } = 1/(s − 5) para s > 5,
decorre que
3 2 5(s − 3)
L{3 + 2e5t } = + = , s > max{0, 5} = 5 .
s s−5 s(s − 5)
Propriedade 3.2 (translação no domı́nio de frequência). Se f é uma função cuja
transformada de Laplace, L{f (t)} ≡ F (s), existe para s > σ, então a função eat f , onde
a ∈ R, tem transformada de Laplace para s > σ + a, e tem-se
L{eat f (t)} = F (s − a) , s>σ+a.

Observação 3.2. Uma forma útil de expressar esta igualdade é escrever


L{eat f (t)} = [L{f (t)}]s→s−a = [F (s)]s→s−a , s>σ+a.
Exemplos.
1. Seja f (t) := eat sin(kt), com a, k ∈ R. Então, atendendo a (1.3) e à Propriedade
3.2, vem
· ¸
at k k
L{e sin(kt)} = 2 2
= ,
s + k s→s−a (s − a)2 + k 2
relação que é válida para s > 0 + a = a. Portanto,
k
L{eat sin(kt)} = , s>a.
(s − a)2 + k 2
2. Do mesmo modo, para f (t) := eat cos(kt), com a, k ∈ R, obtém-se
s−a
L{eat cos(kt)} = , s>a.
(s − a)2 + k 2
84 5. TRANSFORMADA DE LAPLACE

Propriedade 3.3 (derivada da transformada). Se f é uma função seccionalmente


contı́nua em [0, +∞[ e de ordem exponencial, com abcissa de convergência σ, de modo que
a transformada de Laplace L{f (t)} ≡ F (s) existe para s > σ, então todas as funções tn f (t)
(n = 0, 1, 2, · · · ) têm transformada de Laplace para s > σ, e tem-se
dn F (s)
L{tn f (t)} = (−1)n , s>σ.
dsn

Prova. Considere-se a igualdade


Z +∞
dF d
(s) = e−st f (t) dt .
ds ds 0
Atendendo às hipóteses consideradas sobre f (t), podemos permutar a ordem de integração
e derivação (3), de modo que, para s > σ, é
Z +∞ Z +∞
dF d ¡ −st ¢
(s) = e f (t) dt = − e−st f (t) dt = L{tf (t)} .
ds 0 ds 0
Isto prova a proposição no caso n = 1. O caso geral deduz-se por indução.

Exemplos.
1. Seja f (t) := tn , com n ∈ N0 . Já vimos anteriormente que L{1} = 1/s para s > 0.
Então, pela Propriedade 3.3, vem
µ ¶
dn 1 n!
L{tn } = L{tn · 1} = (−1)n n = n+1 , s > 0 .
ds s s
2. Seja agora f (t) := t2 et . Sabemos já que L{et } = 1/(s − 1) para s > 1, logo
2
µ ¶ µ ¶′′
2 t 2 d 1 1 2
L{t e } = (−1) = = , s>1.
ds2 s − 1 s−1 (s − 1)3

A tabela seguinte resume alguns dos exemplos anteriormente analisados, e será de grande
utilidade nos desenvolvimentos seguintes.

f (t) L{f (t)} ≡ F (s) Domı́nio de convergência

n!
tn (n ∈ 0) s>0
sn+1

1
eat (a ∈ !) s>a
s−a

(a, k ∈ !)
k
eat sin(kt) s>a
(s − a)2 + k2

s−a
eat cos(kt) (a, k ∈ !) s>a
(s − a)2 + k2

3 Trata-se de uma aplicação da chamada regra de Leibniz


3. PROPRIEDADES DA TRANSFORMADA DE LAPLACE 85

Observação 3.3. Os exemplos anteriores, bem como muitos outros, podem ser obtidos
usando os programas Maple ou Mathematica. Neste último a transformada de Laplace
é implementada através do comando
LaplaceTransform[f[t],t,s] .
Assim, por exemplo, o comando LaplaceTransform[Cos[3t],t,s] produz como output a
s
expressão 2 (como podemos confirmar na tabela).
s +9

Para resolver equações diferenciais usando a transformada de Laplace é conveniente


dispôr de uma fórmula que expresse as transformadas das derivadas da função incógnita em
termos da transformada de Laplace dessa função.
Para obter a fórmula desejada, considere-se uma função f : [0, +∞[→ R e suponha-se que
f é de ordem exponencial com abcissa de convergência σ. Deste modo existe transformada
de Laplace, definida para s > σ. É conveniente assumir algumas hipóteses adicionais sobre
f , nomeadamente, que a função derivada f ′ existe e é seccionalmente contı́nua em [0, +∞[
(o que implica, em particular, que f é contı́nua) e, ainda, que a transformada de Laplace
desta função derivada também existe para s > σ. Nestas condições, podemos escrever
Z ∞ Z T
(3.6) L{f ′ (t)} = e−st f ′ (t) dt = lim e−st f ′ (t) dt .
0 T →+∞ 0
Usando integração por partes (começando a integrar pelo segundo factor) e supondo, para
simplificar, que f ′ é contı́nua (4), o último integral vem igual a
Z T Z T
£ −st ¤T
e−st f ′ (t) dt = e f (t) t=0 + s e−st f (t) dt
0 0
Z T
= e−sT f (T ) − f (0) + s e−st f (t) dt , s>σ.
0
Agora, atendendo às hipóteses colocadas sobre f , é
Z T
lim e−sT f (T ) = 0 e lim e−st f (t) dt = L{f (t)} para s > σ
T →+∞ T →+∞ 0
(note-se que a igualdade a 0 do primeiro destes limites decorre do facto de f ser de ordem
exponencial com abcissa de convergência σ e, em consequência, existe uma constante M > 0
tal que se verifica uma desigualdade do tipo |e−sT f (T )| ≤ M e−(s−σ)T para s > σ) e,
portanto, tomando o limite em (3.6) quando T → +∞, obtém-se a fórmula procurada:
(3.7) L{f ′ (t)} = sL{f (t)} − f (0) ≡ sF (s) − f (0) , s>σ.
Procedendo de modo análogo para a segunda derivada, assumindo que f ′′ existe em [0, +∞[
e que é aı́ seccionalmente contı́nua e, ainda, que as funções f e f ′ são de ordem exponencial
com abcissas de convergência ≤ σ e que f ′′ tem transformada de Laplace para s > σ,
deduz-se
L{f ′′ (t)} = s2 F (s) − sf (0) − f ′ (0) , s > σ .
E, enfim, aplicando sucessivamente o procedimento descrito, de um modo geral é possı́vel
estabelecer o seguinte resultado:

4Se f ′ não for contı́nua, como é seccionalmente contı́nua, então basta particionar o intervalo [0, T ]
em subintervalos, pelos pontos de descontinuidade de f ′ , e considerar como funções integrandas em cada
subintervalo as funções contı́nuas que coincidem com e−st f ′ no interior de cada um desses subintervalos.
86 5. TRANSFORMADA DE LAPLACE

Propriedade 3.4 (transformada da derivada). Seja f uma função cuja derivada


de ordem n existe e é seccionalmente contı́nua em [0, +∞[. Admita-se ainda que f e as
suas sucessivas derivadas até à ordem n − 1 são de ordem exponencial com abcissas de
convergência ≤ σ, e que a transformada de Laplace de f (n) também existe para s > σ.
Nestas condições, para todo o s > σ, tem-se
L{f (n) (t)} = sn F (s) − sn−1 f (0) − sn−2 f ′ (0) − · · · − sf (n−2) (0) − f (n−1) (0) .

Exemplo. Determinar L {cos(kt)} usando (1.3).

Seja f (t) := cos(kt). Então f (0) = 1 e f ′ (t) = −k sin(kt) e, portanto, por (1.3),
k2
L {f ′ (t)} = −kL{sin(kt)} = − , s>0.
s2 + k2
k2
Assim, atendendo a (3.7) tem-se − = L{−k sin(kt)} = s L{cos(kt)} − 1 para s > 0,
s2 + k 2
donde µ ¶
1 k2 s
L{cos(kt)} = 1− 2 = 2 , s > 0.
s s + k2 s + k2

Como consequência da propriedade anterior, pode deduzir-se a seguinte


Propriedade 3.5 (transformada de um integral indefinido). Sendo f uma função
contı́nua em [0, +∞[ e de ordem exponencial com abcissa de convergência σ > 0, então
½Z t ¾
1
L f (u) du = F (s) , s > σ .
0 s
nR £ ¤o
t
Exemplo. Determinar L 0
u3 + sin(2u) .

Neste caso, é f (t) = t3 + sin(2t) , logo (usando a linearidade da transformada e a tabela)


© ª 6 2
F (s) = L t3 + L {sin(2t)} = 4 + 2 , s>0.
s s +4
Consequentemente, pela Propriedade 3.5,
½Z t ¾
£ 3 ¤ 6 2
L u + sin(2u) = 5 + 2
, s>0.
0 s s(s + 4)

Para concluir este primeiro grupo de propriedades, vamos estabelecer uma fórmula que
permite determinar de forma eficaz a transformada de Laplace de uma função periódica.
Recorde-se que uma função f : [0, +∞[→ R é dita periódica se existir um número real T > 0
(chamado perı́odo de f ) tal que
f (t + T ) = f (t) , t≥0.
Propriedade 3.6 (transformada de uma função periódica). Seja f (t) uma função
periódica em [0, +∞[, com perı́odo T > 0, e admita-se ainda que f (t) é seccionalmente
contı́nua. Então Z T
1
L {f (t)} = e−st f (t) dt , s > 0 .
1 − e−sT 0
4. INVERSÃO DA TRANSFORMADA DE LAPLACE 87

Prova. Sendo f periódica e seccionalmente contı́nua em [0, +∞[, é claro que é limitada
neste intervalo. Isto implica que f é também de ordem exponencial com abcissa de con-
vergência σf = 0, pelo que a transformada de Laplace existe para s > 0. Assim, para s > 0
podemos escrever
Z +∞
L {f (t)} = e−st f (t) dt
0
Z T Z 2T Z 3T
−st −st
= e f (t) dt + e f (t) dt + e−st f (t) dt + · · ·
0 T 2T

X
= In (s, T ) ,
n=0
Z (n+1)T
onde In (s, t) := e−st f (t) dt para todo o n = 0, 1, 2 · · · . Agora, efectuando no
nT
integral In (s, T ) a mudança de variável t y x definida por t = x + nT , vem
Z T Z T
In (s, t) = e−s(x+nT ) f (x + nT ) dx = e−snT e−sx f (x) dx (n = 0, 1, 2, · · · ) ,
0 0
sendo a última igualdade justificada pelo facto de f ser periódica de perı́odo T . Conse-
quentemente, substituindo acima vem
à ∞ !Z
X T
−snT
L {f (t)} = e e−sx f (x) dx ,
n=0 0
P∞ −snT
e como n=0 e é uma série geométrica de razão e−sT , a qual é convergente e tem
soma 1/(1 − e−sT )—já que s > 0, logo 0 < e−sT < 1—, obtém-se a fórmula que figura no
enunciado da proposição.

Exemplo. Determinar L {f (t)}, sendo f (t) a função periódica de perı́odo 2π definida


por (
sin t se 0≤t≤π
f (t) :=
0 se π ≤ t < 2π .
É claro que para esta função f todas as hipóteses da Propriedade 3.6 são cumpridas, pelo
que para s > 0 é
Z 2π Z π
1 −st 1
L {f (t)} = e f (t) dt = e−st sin t dt .
1 − e−2πs 0 1 − e−2πs 0
Agora, o valor do último integral pode obter-se como caso particular de (1.2), pelo que
1 1 + e−sπ 1
L {f (t)} = = , s>0.
1 − e−2πs s2 + 1 (1 + s2 )(1 − e−πs )

4. Inversão da transformada de Laplace


Na resolução de muitos problemas de interesse prático (equações diferenciais, por ex-
emplo) é importante, dada uma função F (s), definida num determinado intervalo, saber
se essa função é a transformada de Laplace de alguma função f (t). Conforme sabemos, a
transformada de Laplace L{f (t)} ≡ F (s) apenas contém informação sobre a função f (t)
para valores de t ≥ 0, pelo que, dada F (s), estaremos apenas interessados em encontrar
88 5. TRANSFORMADA DE LAPLACE

funções f (t) definidas para t ≥ 0 tais que L{f (t)} = F (s). Naturalmente, como a trans-
formada de Laplace é definida à custa de um integral envolvendo o produto de uma função
exponencial pela função f (t), e o valor do integral não é afectado se modificarmos o valor da
função nalgum ponto isolado, e.g., é claro que, dada F (s), existe uma infinidade de funções
f (t) para as quais L{f (t)} = F (s). No entanto, é possı́vel demonstrar que se duas funções
f (t) e g(t) têm a mesma transformada de Laplace, apenas uma delas pode ser contı́nua. De
facto, podemos dizer um pouco mais. Designe V o conjunto constituı́do pela totalidade das
funções contı́nuas definidas em [0, +∞[ e de ordem exponencial quando t → +∞. De acordo
com a Propriedade 3.1 e a observação que se lhe segue, podemos afirmar que V é um espaço
vectorial e que a aplicação (operador) L : V → R(V ), onde R(V ) designa o contradomı́nio
da aplicação L, é linear e, obviamente, sobrejectiva. Além disso, pode mostrar-se que L é
também injectiva e, por conseguinte, é invertı́vel. Deste modo, existe a aplicação inversa
L−1 : R(V ) → V , à qual chamaremos operador transformada inversa de Laplace. Porém, se
retirarmos aos elementos de V a exigência de serem funções contı́nuas, deixa de ser ver-
dade que o operador L é invertı́vel e, por conseguinte, dada uma função F (s), existe uma
infinidade de funções seccionalmente contı́nuas que verificam L{f (t)} = F (s). Tendo em
mente as considerações precedentes, adoptaremos como “satisfatória”a seguinte definição:

O sı́mbolo L−1 {F (s)}—a que chamaremos transformada inversa de Laplace de F (s)—


designará uma função f (t) contı́nua em [0, +∞[ cuja transformada de Laplace seja F (s), i.e.,
L{f (t)} ≡ F (s). No caso de todas as funções f (t) que satisfazem a igualdade L{f (t)} ≡ F (s)
serem descontı́nuas em [0, +∞[, seleccionamos uma função seccionalmente contı́nua f (t) que
verifique esta igualdade e tomamo-la para L−1 {F (s)}.

Deste modo, escreveremos


f (t) = L−1 {F (s)} (t ≥ 0) sempre que L{f (t)} ≡ F (s) (s ∈ D ⊂ R) ,
seleccionando, se possı́vel, f contı́nua.
Por exemplo,
½ ¾
1 1
como L{eat } = então L−1 = eat (t ≥ 0) .
s−a s−a
Do mesmo modo,
½ ¾
a −1 a
como L{sin(at)} = 2 então L = sin(at) (t ≥ 0) .
s + a2 s2 + a2
Observamos que, da propriedade de linearidade para L se deduz que também L−1 é linear,
i.e.,
L−1 {aF (s) + bG(s)} = a L−1 {F (s)} + b L−1 {G(s)}
para quaisquer constantes a, b ∈ R e para quaisquer funções F (s) e G(s) que estejam
definidas num domı́nio de frequência comum.
½ ¾
s+1
Exemplo. Determinar L−1 .
s2 (s2 + 9)

s+1
Começamos por decompôr F (s) = como soma de fracções elementares. Os
s2 (s2 + 9)
zeros do polinómio que figura em denominador são as raı́zes da equação algébrica s2 (s2 +9) =
4. INVERSÃO DA TRANSFORMADA DE LAPLACE 89

0, logo são os números 0 (zero duplo) e ±3i (zeros complexos simples). Assim,
s+1 A B C + Ds
(4.8) = 2+ + 2 ,
s2 (s2 + 9) s s s +9
onde A, B, C e D são constantes reais a determinar. A determinação da constante A pode
fazer-se imediatamente pela “regra do tapa”, obtendo-se
· ¸
s+1 1
A= 2 = .
s + 9 s=0 9
Para determinar C e D tem-se (multiplicando ambos os membros de (4.8) por s2 + 9 e, em
seguida, fazendo s = 3i—que é um dos zeros de s2 + 9)
· ¸
s+1 3i + 1 1 1
[C + Ds]s=3i = 2
⇔ C + 3Di = ⇔ C + 3Di = − − i ,
s s=3i −9 9 3
donde (atendendo a que dois números complexos coincidem se e só se coincidem as suas
partes real e imaginária, resp.) C = − 91 e 3D = − 13 , i.e.,
1
C=D=− .
9
Resta determinar a constante B. Um processo possı́vel para a determinação desta constante
(e que permite também obter todas as outras constantes) consiste em reduzir o segundo
membro da expressão (4.8) a uma só fracção (com denominador igual ao da fracção do
primeiro membro de (4.8)) e em seguida, da igualdade entre os numeradores das fracções
nos primeiro e segundo membros da igualdade resultante, deduz-se
s+1 = A(s2 + 9) + Bs(s2 + 9) + (c + Ds)
= (B + D)s3 + (9A + C)s2 + 9Bs + 9A ,
donde, por comparação de coeficientes, se obtém
0=B+D , 0 = 9A + C , 1 = 9B , 1 = 9A .
Em particular, daqui deduz-se B = 19 . (Note-se que, como já haviam sido determinados
os valores de A, C e D, bastaria, por exemplo, ter comparado os coeficientes de s3 , o que
conduziria à relação 0 = B + D, a qual, conjuntamente com o facto de já se saber que
D = − 91 , permitiria determinar o valor de B.) Assim, (4.8) dá lugar a
µ ¶
s+1 1 1 1 1 s
= + − 2 − .
s2 (s2 + 9) 9 s2 s s + 9 s2 + 9
Finalmente, usando a linearidade de L−1 , e como, de acordo com os resultados da tabela de
transformadas de Laplace, é
½ ¾ ½ ¾ ½ 2 ¾
−1 1 −1 1 −1 s
L =t, L =1, L = cos(3t) ,
s2 s s2 + 9
½ ¾ ½ ¾
−1 1 1 −1 3 1
L = L = sin(3t) ,
s2 + 9 3 s2 + 32 3
obtém-se ½ ¾ µ ¶
s+1 1 1
L−1 = t + 1 − sin(3t) − cos(3t) , t≥0.
s2 (s2 + 9) 9 3
90 5. TRANSFORMADA DE LAPLACE

Tal como a linearidade, também a Propriedade 3.2 (translação) da transformada de


Laplace dá lugar a uma propriedade análoga para a transformada inversa, nomeadamente
L−1 {F (s − a)} = eat f (t) , t≥0.
No lugar desta igualdade também é usual escrever, com o mesmo significado,
© ª
L−1 [ F (s) ]s→s−a = eat f (t) , t ≥ 0 ,
ou, ainda, © ª
L−1 [ F (s) ]s→s−a = eat L−1 {F (s)} , t≥0.

½ ¾
2
Exemplo. Determinar L−1 .
s2 + 6s + 13

Observando que
· ¸
2 2 2
= = ,
s2 + 6s + 13 (s + 3)2 + 22 s2 + 22 s→s+3

e atendendo a que (pela tabela),


2
a F (s) = 2 corresponde f (t) = L−1 {F (s)} = sin(2t) ,
s + 22
vem ½ ¾
−1 2
L = e−3t sin(2t) , t ≥ 0 .
s2 + 6s + 13

Observação 4.1. No programa Mathematica a transformada inversa de Laplace é


implementada através do comando
InverseLaplaceTransform[F[s],s,t] .
s
Assim, por exemplo, o comando InverseLaplaceTransform[ ,s,t] produz como
s2 + 9
output a expressão Cos[3t] .

5. Aplicação à resolução de EDO’s


Conforme descrito no inı́cio do capı́tulo, uma das aplicações mais úteis da transfor-
mada de Laplace é à resolução de equações e de sistemas de equações diferenciais ordinárias
(EDO’s). Tipicamente, a transformada de Laplace pode aplicar-se com sucesso quando
procuramos soluções de EDO’s lineares de coeficientes constantes, definidas em intervalos
I ⊂ [0, +∞[ , do tipo
dn y dn−1 y dy
(5.9) a0 n
+ a1 n−1 + · · · + an−1 + an y = f (t) ,
dt dt dt
onde a0 , a1 , · · · , an são constantes reais, a0 6= 0, e f é uma função dada. Como se sabe,
muitas vezes é necessário explicitar certas condições inciais (a velocidade inicial, ou a pop-
ulação inicial, por exemplo), o que corresponde a procurar soluções y = y(t) tais que y e
as suas sucessivas derivadas até à ordem n − 1 satisfaçam certos valores pré-fixados num
determinado instante (usualmente t = 0), digamos,
dy dn−1 y
(5.10) y(0) = c0 , (0) = c1 , ··· , (0) = cn−1 ,
dt dtn−1
5. APLICAÇÃO À RESOLUÇÃO DE EDO’S 91

onde c0 , c1 , · · · , cn−1 são os n valores (iniciais) pré-fixados.


Vejamos então como é que a transformada de Laplace pode ser usada para determinar
soluções da EDO (5.9) sujeita às condições iniciais (5.10). Para evitar formalismos (que neste
contexto são desnecessários) vamos supôr que as condições da propriedade Propriedade 3.4
são verificadas. Em primeiro lugar, aplica-se a transformada de Laplace (admitindo que esta
existe para todas as funções envolvidas) a ambos os membros da igualdade (5.9), obtendo-se
½ n ¾ ½ n−1 ¾ ½ ¾
d y d y dy
(5.11) a0 L + a1 L + · · · + an−1 L + an L {y} = L{f (t)} ,
dtn dtn−1 dt
Agora, pondo L{f (t)} = F (s) (transformada da função dada f ) e L{y(t)} = Y (s) (trans-
formada da função procurada y), atendendo à Propriedade 3.4 cada uma das transformadas
L {· · · } que aparece no primeiro membro de (5.11) pode exprimir-se em termos da trans-
formada Y (s) de y(t) por meio de uma expressão que também envolve as constantes inici-
ais c0 , c1 , · · · , cn−1 , logo, substituindo em (5.11) as expressões assim obtidas, após alguns
cálculos (que para as equações dos exemplos concretos que iremos tratar são geralmente
simples de realizar) obtém-se
Q(s)Y (s) = F (s) + P (s) ,
onde P (s) e Q(s) são polinómios na variável s definidos explicitamente por
 
Xn Xn Xn
Q(s) := ak sk , P (s) :=  aj cj−k−1  sk .
k=0 k=0 j=k+1

Em consequência, é
F (s) + P (s)
Y (s) = ,
Q(s)
de modo que a solução da equação diferencial (5.9) proposta, sujeita às condições iniciais
(5.10) especificadas, se pode agora obter por aplicação da transformada inversa de Laplace:
½ ¾
F (s) + P (s)
y(t) = L−1 {Y (s)} = L−1 .
Q(s)
Observação 5.1.
1. Quando a ordem da EDO é muito elevada, o processo descrito pode tornar-se
“fastidioso”, mas é possı́vel amenizar esta dificuldade usando métodos matriciais (e, claro,
computacionais!).
2. É usual encontrar sistemas modelizados não apenas por uma, mas antes por
várias equações diferenciais de coeficientes constantes, ou seja, sistemas de equações difer-
enciais (de coeficientes constantes). Neste caso, se for r o número de equações deste sis-
tema, nas incógnitas y1 (t), y2 (t), · · · , yr (t), normalmente seremos conduzidos a um sistema
linear algébrico de r equações a r incógnitas, nas n variáveis Yj = Yj (s) := L{yj (t)}
(j = 1, 2, · · · , r).
3. Uma das vantagens deste método para a resolução de EDO lineares de coefi-
cientes constantes, relativamente aos métodos anteriormente estudados, reside no facto de
ser possı́vel determinar soluções particulares da EDO em análise sem necessidade de de-
terminar previamente a solução geral da EDO. Isto mesmo será ilustrado nos exemplos
seguintes.

Exemplos.
92 5. TRANSFORMADA DE LAPLACE

1. Determinar a solução da equação diferencial


d2 y dy
(5.12) +5 + 6 y = 2 e−t (t ≥ 0) ,
dt2 dt
dy
(0) = 0 .
sujeita às condições iniciais y(0) = 1 e
dt
Adoptando o procedimento descrito, aplique-se a transformada de Laplace a
ambos os membros da igualdade (5.12), de modo que
½ 2 ¾ ½ ¾
d y dy © ª
(5.13) L 2
+ 5 L + 6 L{y} = 2 L e−t .
dt dt
1
Agora, usando a tabela, por um lado tem-se L {e−t } = s+1 . Por outro lado,
pondo Y (s) = L{y} , atendendo à Propriedade 3.4 e às condições iniciais, deduz-se
½ ¾
dy
L = sY (s) − y(0) = sY (s) − 1 ,
dt
½ ¾
d2 y
L = s2 Y (s) − sy(0) − y ′ (0) = s2 Y (s) − s ,
dt2
e substituindo estas expressões em (5.13) obtém-se
2
(s2 + 5s + 6)Y (s) = +s+5,
s+1
donde
s2 + 6s + 7
Y (s) = .
(s + 1)(s + 2)(s + 3)
Para calcular a transformada inversa de Y (s) começamos por efectuar a decom-
posição do segundo membro desta última igualdade em frações elementares. O
resultado é
1 1 1
Y (s) = + − .
s+1 s+2 s+3
Finalmente, aplicando a transformada inversa (e usando a linearidade desta),
obtém-se a solução da EDO dada:
y(t) = L−1 {Y (s)}
½ ¾ ½ ¾ ½ ¾
1 1 1
= L−1 + L−1 − L−1
s+1 s+2 s+3
= e−t + e−2t − e−3t , t≥0.

2. Resolver, para t ≥ 0 , o sistema de equações diferenciais de primeira ordem com as


condições iniciais especificadas:


 dx dy
 + + 5 x + 3 y = e−t
dt dt
(5.14) ; x(0) = 2 , y(0) = 1 .

 2 dx + dy + x + y = 3

dt dt
5. APLICAÇÃO À RESOLUÇÃO DE EDO’S 93

Ponha-se X(s) = L {x(t)} e Y (s) = L {y(t)}. Então, aplicando a transformada


de Laplace a ambos os membros de cada uma das equações do sistema dado, de
acordo com a Propriedade 3.4, tem-se

 1

 sX(s) − x(0) + sY (s) − y(0) + 5X(s) + 3Y (s) =
s+1

 2 [ sX(s) − x(0) ] + sY (s) − y(0) + X(s) + Y (s) = 3 ,

s
ou seja, tendo em conta as condições iniciais,

 3s + 4
 (s + 5)X(s) + (s + 3)Y (s) =

s+1

 (2s + 1)X(s) + (s + 1)Y (s) = 5s + 3 .

s
Este sistema pode considerar-se como um sistema de equações algébricas nas
varáveis X = X(s) e Y = Y (s). Adoptando então a regra de Crammer para a
sua resolução, e observando que o determinante do sistema é
¯ ¯
¯ s+5 s+3 ¯
¯ ¯
¯ ¯ = (s + 5)(s + 1) − (s + 3)(2s + 1)
¯ 2s + 1 s + 1 ¯

= −s2 − s − 2 = −(s + 2)(s − 1) ,


obtém-se
¯ 3s+4
¯
¯ s + 3 ¯¯
¯ s+1
¯ ¯
¯ 5s+3
s+1 ¯ 2s2 + 14s + 9
s
X(s) = =
− (s + 2)(s − 1) s(s + 2)(s − 1)

− 92 − 11
6
25
= + + 3 ,
s s+2 s−1
sendo a última igualdade justificada efectuando uma decomposição em fracções
parciais. Aplicando agora a transformada inversa de Laplace (e tendo em conta os
resultados da tabela), vem
x(t) = L−1 {X(s)}
½ ¾ ½ ¾ ½ ¾
9 −1 1 11 −1 1 25 −1 1
= − L − L + L
2 s 6 s+2 3 s−1
9 11 −2t 25 t
= − − e + e , t≥0.
2 6 3
Analogamente,
¯ ¯
¯ s + 5 3s+4 ¯
¯ s+1 ¯
¯ ¯
¯ 2s + 1 5s+3 ¯ s3 − 22s2 + 39s − 15
s
Y (s) = =
− (s + 2)(s − 1) s(s + 1)(s + 2)(s − 1)

15 1 11
2 2 2 − 25
3
= + + + ,
s s+1 s+2 s−1
94 5. TRANSFORMADA DE LAPLACE

donde
y(t) = L−1 {Y (s)}
15 1 −t 11 −2t 25 t
= + e + e − e , t≥0.
2 2 2 3

6. Teorema de Heaviside
Nos dois exemplos da secção anterior considerámos EDO’s da forma (5.9) nas quais o
segundo membro da equação, f (t), era uma função contı́nua. Porém, em muitos problemas
somos conduzidos a EDO’s daquele tipo, mas para as quais a função f (t) não é contı́nua
(por exemplo, numa equação que descreva a intensidade da corrente eléctrica num circuito
onde possam ocorrer cortes bruscos da corrente). Nestes casos é útil fazer uso da chamada
função de Heaviside (5), designada por H(t) ou U(t), e definida por
(
0 se t < 0
H(t) :=
1 se t ≥ 0 .
De facto, esta função pode ser usada para descrever de forma concisa funções com descon-
tinuidades. Para justificar esta afirmação, observemos primeiramente que, da definição da
função de Heaviside, para qualquer número real a (fixo), é
(
0 , t<a
H(t − a) =
1 , t≥a.
(Observamos que também se usa a notação Ua (t) para representar H(t − a)). A partir desta
igualdade constata-se facilmente que, para a função rectângulo, definida por
(
1 , t ∈ [a, b[
Πa,b (t) :=
0 , t 6∈ [a, b[ ,
se verifica a relação
(6.15) Πa,b (t) = H(t − a) − H(t − b) , t∈R.
Finalmente, usando esta expressão da função rectângulo, é fácil expressar funções definidas
por ramos em termos da função de Heaviside. Assim, por exemplo, considerando uma função
definida por três ramos, digamos,

 f1 (t) , 0 ≤ t < t1

f (t) := f2 (t) , t1 ≤ t < t2


f3 (t) , t ≥ t2 ,
onde f1 , f2 e f3 são funções contı́nuas, tem-se sucessivamente
f (t) = f1 (t)H0,t1 (t) + f2 (t)Ht1 ,t2 (t) + f3 (t)H(t − t2 )
= f1 (t)[H(t) − H(t − t1 )] + f2 (t)[H(t − t1 ) − H(t − t2 )] + f3 (t)H(t − t2 )
= f1 (t)H(t) + [f2 (t) − f1 (t)]H(t − t1 ) + [f3 (t) − f2 (t)]H(t − t2 ) ,
igualdade que expressa f em termos da função de Heaviside.

5 Em homenagem ao engenheiro electrotécnico inglês Oliver Heaviside (1850-1925).


6. TEOREMA DE HEAVISIDE 95

Considerando um exemplo concreto, para a função




 0 , 0≤t<1
2
f (t) := 1+t , 1≤t<2


1 , t≥2,
tem-se
f (t) = 0 · H(t) + [(1 + t2 ) − 0]H(t − 1) + [1 − (1 + t2 )]H(t − 2)
= (1 + t2 )H(t − 1) − t2 H(t − 2) .
O interesse em exprimir funções com um número finito de descontinuidades (funções
definidas por ramos, por exemplo) em termos da função de Heaviside, reside na sua utilidade
para o cálculo das transformadas de Laplace dessas funções. Isto decorre essencialmente da
seguinte propriedade, cuja prova não é difı́cil:

Teorema 6.1 (de Heaviside). Seja f uma função com transformada de Laplace
definida num certo domı́nio de frequência D. Então, para qualquer constante real a ≥ 0,
tem-se
L {f (t − a)H(t − a)} = e−as L {f (t)} , s ∈ D .
Exemplos.
1. Escolhendo f (t) ≡ 1, como L {1} = 1/s para s > 0, deduz-se
e−as
L {H(t − a)} = , s > 0 (a ≥ 0) ;
s
em particular, para a = 0 obtém-se a transformada de Laplace da função de Heav-
iside:
1
L {H(t)} = , s > 0 .
s
2. Determinar a transformada de Laplace da função

 0 ,
 t<a
f (t) := ℓ , a≤t<b (ℓ ∈ R , 0 < a < b) .


0 , t≥b,
(O gráfico desta função sugere um rectângulo de largura |ℓ| e comprimento b − a.)
De acordo com (6.15), tem-se
f (t) = ℓ Πa,b (t) = ℓ [H(t − a) − H(t − b)] ;
logo, usando o resultado do exemplo 1,
L{f (t)} = ℓ [L{H(t − a)} − L{H(t − b)}]
ℓ ¡ −as ¢
=e − e−bs , s > 0 .
s
3. Determinar a transformada de Laplace da função
(
t , 0≤t<b
f (t) := (b > 0) .
0 , t≥b,
Em primeiro lugar, expressamos f em termos da função de Heaviside:
f (t) = tH(t) + (0 − t)H(t − b)
= (t − 0)H(t − 0) − (t − b)H(t − b) − bH(t − b) .
96 5. TRANSFORMADA DE LAPLACE

Note-se que o interesse em escrever a última igualdade reside no facto de se obterem


funções do tipo que aparece no teorema de Heaviside, i.e., expressões da forma
[constante] × [função de (t − α)] × H(t − α) .
Por conseguinte, como, pelo teorema de Heaviside, é
1
L{(t − 0)H(t − 0)} = e−0·s L{t} = , s>0,
s2
e−bs
L{(t − b)H(t − b)} = e−bs L{t} = , s>0,
s2
e−bs
L{H(t − b)} = , s>0,
s
obtém-se
1 − (1 + bs)e−bs
L{f (t)} = , s>0.
s2

Na prática, o interesse maior do teorema de Heaviside reside na sua aplicação à de-


terminação de transformadas inversas de Laplace. Deste modo, dada uma função F (s),
definida num domı́nio de frequência, se esta puder ser identificada como sendo a transfor-
mada de Laplace de alguma função f (t), a fórmula útil que resulta directamente do teorema
de Heaviside é
L−1 {e−as F (s)} = f (t − a)H(t − a) , onde f (t) = L−1 {F (s)}
(para a ≥ 0), à qual nos referiremos como sendo a forma inversa do teorema de Heaviside.

Exemplos.
½ ¾
4e−4s
1. Determinar L−1 .
s(s + 2)

Começamos por escrever


½ ¾
−1 4e−4s
L = L−1 {e−4s F (s)} ,
s(s + 2)
onde
4 2 2
F (s) := = − .
s(s + 2) s s+2
Como
½ ¾ ½ ¾
−1 −1 2 −1 2
f (t) := L {F (s)} = L −L = 2 − 2e−2t ,
s s+2
aplicando a forma inversa do teorema de Heaviside obtém-se
½ ¾
4e−4s
L−1 = f (t − 4)H(t − 4)
s(s + 2) ³ ´
= 2 − 2e−2(t−4) H(t − 4)
(
0 , t<4
= −2(t−4)
2 − 2e , t≥4.
6. TEOREMA DE HEAVISIDE 97

2. Determinar uma solução contı́nua e com derivada contı́nua em [0, +∞[ da equação
diferencial
d2 y dy
2
+5 + 6y = f (t)
dt dt
sujeita às condições iniciais y(0) = 0 e dy
dt (0) = 2, onde
(
3 , 0≤t<6
f (t) :=
0 , t≥6.
Primeiramente, exprimimos f (t) em termos da função de Heaviside e calcu-
lamos a sua transformada de Laplace:
f (t) = 3 [ H(t) − H(t − 6) ] ,
donde
L{f (t)}= 3L{H(t)} − 3L{H(t − 6)}
1 e−6s 3¡ ¢
= 3 −3 = 1 − e−6s , s > 0 .
s s s
Agora, aplicando a transformada de Laplace a ambos os membros da EDO dada,
vem
½ 2 ¾ ½ ¾
d y dy 3¡ ¢
(6.16) L + 5L + 6 L {y} = 1 − e−6s .
dt2 dt s
Pondo Y (s) = L {y}, e assumindo as condições da Propriedade 3.4 e atendendo às
condições iniciais especificadas, temos
½ 2 ¾
d y
L = s2 Y (s) − sy(0) − y ′ (0) = s2 Y (s) − 2 ,
dt2
½ ¾
dy
L = sY (s) − y(0) = sY (s) ,
dt
logo, substituindo em (6.16),
3¡ ¢
(s2 + 5s + 6)Y (s) = 2 + 1 − e−6s ,
s
donde, após efectuar alguns cálculos,
2s + 3 3
Y (s) = − e−6s
s(s + 2)(s + 3) s(s + 2)(s + 3)
1 1 µ1 3 ¶
2 2 1 −6s 2 2 1
= + − −e − + .
s s+2 s+3 s s+2 s+3
Consequentemente,
y(t) = L−1 {Y (s)}
½ ¾ ½ ¾ ½ ¾
1 −1 1 1 −1 1 −1 1
= L + L −L
2 s 2 s+2 s+3
½ −6s ¾ ½ −6s ¾ ½ −6s ¾
1 −1 e 3 −1 e −1 e
− L + L −L .
2 s 2 s+2 s+3
Finalmente, como (pela tabela)
½ ¾ ½ ¾ ½ ¾
−1 1 −1 1 1
L =1, L = e−2t , L −1
= e−3t
s s+2 s+3
98 5. TRANSFORMADA DE LAPLACE

e, usando a forma inversa do teorema de Heaviside,


½ −6s ¾ ½ −6s ¾
e e
L−1 = H(t − 6) , L−1 = e−2(t−6) H(t − 6) ,
s s+2
½ ¾
e−6s
L−1 = e−3(t−6) H(t − 6) ,
s+3
obtém-se a solução procurada:
1
¡ ¢
y(t) = 2+ 21 e−2t − e−3t − 12 − 3
2 e−2(t−6) + e−3(t−6) H(t − 6)
 1 1 −2t
 2+2e − e−3t , 0≤t<6
= ¡ ¢ ¡ ¢
 1
2 1 + 3e12 e−2t − 1 + e18 e−3t , t≥6.

Observação. O exemplo 2 precedente ilustra bem o interesse da forma inversa do


teorema de Heaviside na determinação de soluções de EDO’s do tipo (5.9) nas quais a
função f , que figura no segundo membro da equação, tem um número finito de pontos de
descontinuidade de primeira espécie (função seccionalmente contı́nua).

7. “Pacotes” computacionais
A teoria desenvolvida para a transformada de Laplace permite-nos constatar que muitos
dos procedimentos analisados relativos à transformada de Laplace são meramente algébricos
(em particular os métodos expostos para a determinação da transformada ou da transfor-
mada inversa). Sendo assim, é natural que a transformada possa ser implementada em
pacotes computacionais algébricos, como o Mathematica ou o Maple.
A tı́tulo de exemplo, apresentam-se em seguida os comandos do Mathematica que
permitem obter a transformada de Laplace “simbólica” da equação diferencial com condições
iniciais
d2 y dy dy
(7.17) +6 + 9y = t sin t , y(0) = 2 , (0) = −1 ,
dt2 dt dt
bem como a solução deste problema de valor inicial, determinando-se a transformada in-
versa. Conforme já anteriormente referimos, no Mathematica a transformada de Laplace
é obtida através do comando LaplaceTransform[y[t],t,s] , e a transformada inversa
por InverseLaplaceTransform[y[t],t,s] . Na segunda linha da sintaxe substitui-se
LaplaceTransform[y[t],t,s] por Y.

diffequat = y’’[t] + 6 y’[t] + 9 y[t] == t Sin[t]


transformdeq = LaplaceTransform[diffequat, t, s] /.
{y[0] -> 2, y’[0] -> -1, LaplaceTransform[y[t], t, s] -> Y}
soln = Flatten[Solve[transformdeq, Y]]
Y = Y /. soln
InverseLaplaceTransform[Y, s, t]

Após a ordem de execução destes comandos, o Mathematica apresenta como resultado


7. “PACOTES” COMPUTACIONAIS 99

9 y[t] + 6 y’[t] + y’’[t] == t Sin[t]

2 2 s
1 - 2 s + 9 Y + s Y + 6 (-2 + s Y) == ---------
--------
2 2
(1 + s )

2 s
-11 - 2 s - ---------
--------
2 2
(1 + s )
{Y -> -(---------------------)}
--------------------
2
9 + 6 s + s

2 s
-11 - 2 s - ---------
--------
2 2
(1 + s )
-(---------------------)
--------------------
2
9 + 6 s + s

1 487 + 1235 t
---
-- (------------
----------- - (-13 + 15 t) Cos[t] - (9 - 20 t) Sin[t])
250 3 t
E

Por conseguinte, a solução do problema (7.17) é


1 £ ¤
y(t) = (487 + 1235)e−3t − (15t − 13) cos t + (20t − 9) sin t , t > 0 .
125
CAPı́TULO 6

Sistemas de Equações Diferenciais

A definição de equação diferencial ordinária dada no capı́tulo 1, bem como as noções


básicas aı́ apresentadas, são válidas desde que a função desconhecida y esteja definida num
intervalo real e tome valores em algum subconjunto de Rn . Nos capı́tulos seguintes, e até
agora, foram estudadas várias equações diferenciais de primeira ordem e equações lineares de
ordem arbitrária, mas considerando sempre o caso escalar, no qual a função incógnita toma
valores em R. Neste capı́tulo vamos estudar o caso vectorial, em que a função incógnita
é uma função vectorial. Uma tal equação pode ser reescrita em termos das componentes
(reais) das funções que nela figuram. E esta forma de evidenciar as funções escalares que são
as componentes da função vectorial incógnita, justifica o nome porque são mais vulgarmente
conhecidas estas equações diferenciais: sistemas de equações diferenciais. Este também será
o termo adoptado neste curso. A forma normal mais geral de um tal sistema de primeira
ordem é  ′
 y1 = f1 (t, y1 , y2 , . . . , yn )



 y2′ = f2 (t, y1 , y2 , . . . , yn )
..

 .


 ′
yn = fn (t, y1 , y2 , . . . , yn )
onde f1 , f2 , . . . , fn são funções reais conhecidas definidas num certo subconjunto Ω ⊂ I ×Rn ,
onde I é um intervalo de números reais.
Se y é a função vectorial de componentes y1 , y2 , · · · , yn e f é a função vectorial de
componentes f1 , f2 , . . . , fn , o sistema anterior pode-se reescrever de forma condensada:
y′ = f (t, y) .
O estudo destes destes sistemas diferenciais será realizado nas secções 3 e seguintes deste
capı́tulo. Antes disso, nas secções 1 e 2, recordarmos alguns conceitos da teoria das matrizes
que serão úteis nesse estudo.

1. Tópicos da Teoria das Matrizes


1.1. Valores e vectores próprios. Comecemos por recordar algumas definições e
resultados àcerca de matrizes quadradas reais. Seja A ∈ Rn×n . Um escalar λ (real ou
complexo) diz-se valor próprio de A se for solução da equação caracterı́stica de A, isto é, se
(1.1) det(A − λI) = 0 .
Um vector não nulo v (real ou complexo) diz-se vector próprio de A, associado ao valor
próprio λ, se v for solução da equação linear
(1.2) (A − λI)v = 0 .
Convém observar que se λ verificar (1.1), então a equação (1.2) tem sempre soluções v não
triviais. Além disso, para matrizes de entradas reais, os valores próprios complexos ocorrem
101
102 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

em pares conjugados e, consequentemente, também os vectores próprios, associados a pares


de valores próprios conjugados, ocorrem em pares com componentes conjugadas. De facto,
se A tem entradas reais, tomando conjugados em ambos os membros da igualdade Av = λv,
obtém-se Av = λv, onde v é o vector cujas componentes são os conjugados das componentes
de v.
Designaremos por σ(A) o conjunto dos valores próprios de A, também chamado espectro
de A e por ρ(A) o raio espectral de A, que é, por definição
ρ(A) := max |λ| .
λ∈σ(A)

Para cada λ ∈ σ(A), S(λ) designará o conjunto de todas as soluções v da equação (1.2),
chamado subespaço próprio de A associado a λ. Verifica-se facilmente que S(λ) é um sube-
spaço vectorial de Rn . Ainda, para cada λ ∈ σ(A), ma (λ) denotará a multiplicidade algébrica
de λ, isto é, o número de vezes que λ é raı́z da equação caracterı́stica (1.1), e mg (λ) des-
ignará a multiplicidade geométrica de λ, que é exactamente a dimensão do subespaço S(λ).
Constata-se facilmente que
(1.3) 1 ≤ mg (λ) ≤ ma (λ) , ∀λ ∈ σ(A) .

Teorema 1.1. Vectores próprios associados a valores próprios distintos são linearmente
independentes.

Prova. A prova faz-se facilmente por indução sobre o número de vectores próprios em
análise.

1.2. Diagonalização e triangularização de matrizes. Teorema de Shur. Duas


matrizes A e B dizem-se semelhantes se existir uma matriz invertı́vel P tal que
P −1 AP = B .
É importante reter que matrizes semelhantes têm os mesmos valores próprios, o mesmo
traço (que é, por definição, a soma dos elementos que figuram na diagonal principal da
matriz) e o mesmo determinante. Uma matriz diz-se diagonalizável se for semelhante a uma
matriz diagonal. Neste caso, os elementos que figuram na diagonal desta matriz diagonal
são justamente os valores próprios de A.

Teorema 1.2. A é diagonalizável se e só se mg (λ) = ma (λ), ∀λ ∈ σ(A).

É útil observar que, nas condições do teorema, as colunas da matriz P que diagonaliza
A são constituı́das pelas componentes de n vectores próprios linearmente independentes, o
que permite concluir que a diagonalização a que se refere o teorema é uma diagonalização
em C, mesmo que A seja real.

Corolário 1.1. Se todos os valores próprios de A são distintos então A é diago-


nalizável.

Prova. É uma consequência imediata do teorema 1.2 e de (1.3), já que afirmar que A
tem valores próprios distintos significa que ma (λ) = 1, ∀λ ∈ σ(A).

Embora nem todas as matrizes quadradas sejam diagonalizáveis, o teorema que a seguir
se estabelece garante que toda a matriz quadrada é triangularizável, isto é, semelhante a uma
matriz triangular.
1. TÓPICOS DA TEORIA DAS MATRIZES 103

Teorema 1.3. (Schur) Se A é uma matriz quadrada qualquer, existe uma matriz in-
vertı́vel P tal que
(1.4) P −1 AP = T,
onde T é uma matriz triangular, tendo os valores próprios de A ao longo da sua diagonal
principal.
Prova. A demonstração será feita por indução sobre a ordem n de A e admitindo, sem
perda de generalidade, que T é triangular superior. Para n = 1 o teorema é trivialmente
verdadeiro. Agora suponha-se que o teorema é verdadeiro para matrizes n × n (hipótese de
indução) e prove-se que, então, também se verifica para matrizes (n + 1) × (n + 1).
Seja A uma matriz (n + 1) × (n + 1) e λ1 , · · · , λn+1 os seus valores próprios, não neces-
sariamente distintos. Seja, ainda, v1 um vector próprio associado a um determinado valor
próprio, digamos λ1 , isto é, Av1 = λ1 v1 . Seja Q uma matriz invertı́vel cuja primeira coluna
é constituı́da pelas componentes de v1 . (A existência de Q está garantida pelo teorema do
completamento da base.) Então Qe1 = v1 , onde e1 = [ 1 0 · · · 0 ]T . Vamos mostrar
que a primeira coluna da matriz Q−1 AQ é igual a λ1 e1 , ou, equivalentemente,
Q−1 AQe1 = λ1 e1 .
Atendendo a que Qe1 = v1 e Av1 = λ1 v1 , tem-se
Q−1 AQe1 = Q−1 Av1 = Q−1 λ1 v1 = λ1 Q−1 v1 = λ1 e1 .
Portanto,
· ¸
−1 λ1 ∗
(1.5) Q AQ = ,
0 A1
onde A1 é uma matriz de ordem n, tendo valores próprios λ2 , · · · λn+1 , pois (1.5) mostra
que a matriz no segundo membro é semelhante à matriz A. Mas, por hipótese de indução,
existe P1 invertı́vel tal que P1−1 A1 P1 = T1 , onde T1 é triangular, tendo os valores próprios
de A1 ao longo da diagonal principal. Agora vamos mostrar que a matriz invertı́vel
· ¸
1 0
P =Q
0 P1
triangulariza A. Na verdade,
· ¸ · ¸ · ¸· ¸· ¸
−1 1 0 −1 1 0 1 0 λ1 ∗ 1 0
P AP = Q AQ =
0 P1 −1 0 P1 0 P1 −1 0 A1 0 P1
 
· ¸ · ¸ λ1 ∗
λ1 ∗ λ1 ∗  .. 
= = = . ,
0 P1 −1 A1 P1 0 T1
0 λn+1
o que conclui a demonstração.

Para exemplificar o processo de triangularização indicado pelo teorema de Schur, considere-


se a matriz
· ¸
0 1
(1.6) A= .
−4 4
Esta matriz A tem apenas um valor próprio, λ = 2, com multiplicidade algébrica ma (2) £= ¤2.
Agora, as únicas soluções da equação linear Av = 2v são os vectores v da forma v = 12 ,
com α ∈ R, pelo que o subespaço próprio associado ao valor próprio 2 é gerado por apenas
104 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

um vector próprio, logo mg (2) = 1. Consequentemente, a matriz A não é diagonalizável.


Vamos, por isso, triangularizá-la, seguindo
£ ¤ o esquema da demonstração do teorema de Schur.
Considere-se o vector próprio u := 12 . Como não existe nenhum outro vector próprio de A
2
linearmente independente com u, escolhemos £ 0 ¤um vector qualquer de R que seja linearmente
independente com u, por exemplo, w := 1 . Assim, a matriz P , cujas colunas são estes
vectores u e w, triangulariza A. Efectuando cálculos elementares, tem-se então
· ¸ · ¸ · ¸
1 0 1 0 2 1
(1.7) P := , P −1 = , logo P −1 AP = =: T .
2 1 −2 1 0 2
O resultado seguinte relaciona o traço e o determinante de uma matriz com os seus
valores próprios.
Corolário 1.2. Se λ1 , · · · , λn são os valores próprios da matriz A, então
Pn
(i) traço(A) = i=1 λi ,
Qn
(ii) det(A) = i=1 λi .
Prova. É uma consequência imediata do teorema de Schur, se se atender a que os
valores próprios de uma matriz triangular figuram na diagonal principal dessa matriz e a que
matrizes semelhantes têm os mesmos valores próprios e o mesmo determinante. De facto,
considerando o polinómio caracterı́stico da matriz A = [aij ]ni,j=1 , designado por pA (λ),
expandindo o determinante que o define usando o teorema de Laplace (desenvolvendo ao
longo da primeira coluna, e.g.), verificamos que
pA (λ) := det(A − λI)
= (a11 − λ)(a22 − λ) · · · (ann − λ) + {termos de grau ≤ n − 2}
= (−1)n λn + (−1)n−1 (a11 + · · · + ann )λn−1 + {termos de grau ≤ n − 2}
= (−1)n λn + (−1)n−1 (traço(A) )λn−1 + {termos de grau ≤ n − 2} .
Agora, o teorema de Schur assegura que A é semelhante a uma matriz triangular, T , tendo
os valores próprios de A ao longo da sua diagonal principal, e como matrizes semelhantes
têm o mesmo polinómio caracterı́stico, decorre que
pA (λ) = pT (λ) = det(T − λI)
= (−1)n λn + (−1)n−1 (traço(T ) )λn−1 + {termos de grau ≤ n − 2} ,
Pn
logo traço(A) = traço(T ) = i=1 λi , sendo a última igualdade justificada pelo facto de a
matriz T ter os valores próprios ao longo da diagonal principal. Isto prova (i). Observe-se
que a fórmula (ii) também sai directamente da definição de valor próprio, pois também se
pode escrever
pA (t) = (λ1 − λ) · · · (λn − λ) ,
Qn
logo det(A) = pA (0) = i=1 λi .
1.3. Matriz companheira. Matriz companheira é qualquer matriz C da forma
 
0 1
 0 1 
 
 .. .. 
(1.8) C= . .  ,
 
 0 1 
−a0 −a1 · · · −an−2 −an−1 n×n
ou cuja transposta tenha esta forma.
1. TÓPICOS DA TEORIA DAS MATRIZES 105

Teorema 1.4. Para uma matriz companheira, C, da forma (1.8), tem-se:


(i) det(C − λI) = (−1)n (λn + an−1 λn−1 + · · · + a1 λ + a0 ) ;
(ii) Os vectores próprios de C, associados a um qualquer valor próprio λ,
são múltiplos do vector
£ ¤T
1 λ λ2 · · · λn−1 .

Decorre de (i) que os valores próprios de C são as raı́zes do polinómio

p(λ) := λn + an−1 λn−1 + · · · + a1 λ + a0 .

Por este motivo, há autores que se referem à matriz C como sendo a matriz companheira do
polinómio p(λ). Decorre de (ii) que mg (λ) = 1, ∀λ ∈ σ(C) , logo uma matriz companheira é
diagonalizável se e só se todos os seus valores próprios são distintos.

1.4. Vectores próprios generalizados. Seja A uma matriz quadrada e λ ∈ σ(A).


Um vector não nulo v (real ou complexo) diz-se um vector próprio generalizdo de A associado
ao valor próprio λ se verificar as duas condições seguintes:
(i) (A − λI)v 6= 0 (i.e., v não é vector próprio de A) ;
(ii) existe um número inteiro ℓ ≥ 2 tal que (A − λI)ℓ v = 0 .
Se A é uma matriz real de ordem n qualquer, o resultado seguinte, cuja demonstração
se omite, garante a existência de um conjunto de n vectores linearmente independentes,
constituı́do por vectores próprios e vectores próprios generalizados de A.

Lema 1.1. Suponha-se que λ1 , · · · , λk são os valores próprios distintos de A ∈ Rn×n e


que ma (λi ) = µi . Então, para cada i = 1, · · · , k, existe um inteiro positivo di ≤ µi tal que
a equação (A − λi I)di v = 0 tem pelo menos µi soluções linearmente independentes. Além
disso, estes µ1 + · · · + µk = n vectores são linearmente independentes.

1.5. Forma normal de Jordan. De acordo com o teorema 1.2, se A ∈ Rn×n é diag-
onalizável, existe um conjunto de vectores próprios de A linearmente independentes cujas
componentes formam as colunas da matriz que diagonaliza A. Contudo, no caso de A não
ser diagonalizável é possı́vel reduzı́-la, através de uma transformação de semelhança, a uma
forma canónica, chamada forma normal de Jordan, que, não sendo diagonal, tem quando
muito entradas não nulas na diagonal principal e na diagonal imediatamente acima desta.
A forma normal de Jordan de A é uma matriz diagonal por blocos, J, tal que

P −1 AP = J ,

cujos blocos não nulos, chamados blocos elementares de Jordan, são submatrizes da forma
 
λ 1
 λ 1 
 
 . .. . .. 
(1.9) Jm (λ) =  ,
 
 λ 1 
λ
onde m indica a ordem da submatriz. O escalar λ que figura em cada um dos blocos
elementares de Jordan de A é valor próprio de A. As colunas da matriz P que permite reduzir
A à sua forma normal de Jordan são constituı́das pelas componentes de n vectores, que são
106 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

vectores próprios e vectores próprios generalizados linearmente independentes, ordenados de


forma conveniente. A existência destes n vectores é garantida pelo lema 1.1. Observe-se que
 
0 1
 0 1 
 
 .. .. 
Jm (λ) = λI + N , N =  . .  ,
 
 0 1 
0 m×m

pelo que cada bloco elementar de Jordan se pode decompor na soma de uma matriz escalar
(múltiplo da matriz identidade) com uma matriz nilpotente (i.e., existe uma poência da
matriz que se reduz à matriz nula – no caso presente, é N m = 0 ).

1.6. Normas vectoriais e matriciais. No que vai seguir-se vamos considerar uma
norma matricial definida por
kAk := max |aij | ,
1≤i≤n
1≤j≤m

onde A é uma matriz de ordem n×m com entradas aij , i.e., A = [aij ] ∈ Rn,m . Em particular,
para um dado vector v = [vi ]ni=1 ∈ Rn , tem-se

kvk := max |vi | .


1≤i≤n

Sendo A ∈ Rn,k e B ∈ Rk,m , é válida a desigualdade

(1.10) kABk ≤ k kAk kBk .

Com efeito, pondo A = [aij ] e B = [bij ], por definição do produto AB, a entrada (i, j)
Pk
desta matriz é (AB)ij = s=1 ais bsj , logo
k
X
kABk = max |(AB)ij | ≤ max |air | max |brj | = k kAk kBk .
1≤i≤n 1≤i≤n 1≤r≤k
1≤j≤m s=1 1≤r≤k 1≤j≤m

Em particular, é útil reter as seguintes desigualdades, para A ∈ Rn,n e v ∈ Rn :

(1.11) kAk k ≤ nk−1 kAkk (k = 1, 2, 3, · · · ) , kAvk ≤ n kAk kvk .

Observação 1.1. Recorde-se que para v = (v1 , . . . , vn ) ∈ Rn , a sua norma euclideana


é definida por
q
kvke := v12 + · · · + vn2 ,
sendo esta a norma usual que se considera no contexto das funções vectoriais estudadas na
Análise Infinitesimal. Ora, pode provar-se que existem constantes C1 e C2 , dependentes
apenas de n, tais que
C1 kvk ≤ kvke ≤ C2 kvk , v ∈ Rn .
Assim, os resultados estabelecidos para funções vectoriais com base na definição da norma
euclideana (como resultados de continuidade, e.g.) permanecem válidos quer se considere a
norma k · k ou a norma k · ke .
1. TÓPICOS DA TEORIA DAS MATRIZES 107

1.7. Sucessões e séries de matrizes. As noções de limite de uma sucessão de ma-


trizes, bem como as de série e soma de uma série de matrizes, são definidas da maneira
natural, em termos dos correspondentes conceitos para as respectivas sucessões das entradas
das matrizes que figuram na sucessão ou série em causa. Assim, se {Ak }k∈N é uma sucessão
de matrizes, todas da mesma ordem, e A é uma matriz também da mesma ordem que a
ordem comum das matrizes que constituem os termos da sucessão, diz-se que {Ak }k∈N con-
verge para A (ou que tem tem limite A), e escreve-se limk→∞ Ak = A , ou Ak → A , se
para cada par (i, j), a sucessão das entradas que figuram na posição (i, j) na sucessão de
matrizes A1 , A2 , . . . convergir para a entrada (i, j) da matriz A. Por conseguinte, pondo
(k)
Ak = [aij ] i=1,...,r e B = [aij ] i=1,...,r (onde r × s é a ordem comum das matrizes envolvidas),
j=1,...,s j=1,...,s
temos
(k)
lim Ak = A se e só se lim aij = aij , ∀i = 1, . . . , r , ∀j = 1, . . . , s .
k→∞ k→∞
Por exemplo,
" #  
1
−5 sin πk lim 1 lim − 5 lim sin πk
k k→∞ k k→∞ k→∞
lim √ ¡ 1 ¢k =  √ 2 ¡ ¢k 
3 k2
k→∞
k2 +3 e2/k 3 lim k23+3
k
lim e2/k lim 13
k→∞ k→∞ k→∞
" #
0 −5 0
= √ .
3 1 0
É fácil verificar que, sendo {Ak }k∈N e {Bk }k∈N duas sucessões de matrizes de ordens ade-
quadas (de modo a que as relações abaixo façam sentido), convergentes para as matrizes A
e B, respectivamente, então
(i) Ak Bk → AB
(ii) αAk + βBk → αA + βB
(iii) P Ak Q → P AQ ,
onde P e Q são matrizes fixas (de ordem apropriada) e α e β são números complexos.
Vamos agora explicitar o que se entende por série matricial. Dada uma sucessão de
matrizes {Ak }k∈N , a série (matricial) cujo termo geral é esta sucessão é a expressão

X
Ak .
k=0

Como usualmente, esta série diz-se convergente se a sua sucessão associada (das somas
parciais) {Sp }p∈N , onde
Xp
Sp := Ak
k=0
for convergente para alguma matriz S. Por exemplo,
" 1 # " P∞ P∞ 1 # " π2
#
X∞ 0 k2 k=1 0 k=1 k2 0 6
1 1−k
= P∞ 1
P∞ 1−k = .
e e
k=1 k(k+1) k=1 k(k+1) k=1 e 1 e−1

Como se sabe, dada uma série numérica, se esta for absolutamente convergente (i.e., se
convergir a série cujos termos são os módulo dos termos correpondentes da série dada) então
é também convergente. A proposição seguinte pode ser interpretada como sendo o resultado
análogo para séries matriciais.
108 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

Teorema 1.5. Seja {Ak }k∈N0 uma qualquer sucessão de matrizes da mesma ordem, e
suponha-se que

(1.12) kAk k ≤ ak (k = 0, 1, 2, . . .) ,

onde {ak }k∈N0 éPuma sucessão numérica de termos não negativos. Nestas condições,
P∞ se a

série numérica k=0 ak for convergente, o mesmo sucede à série matricial k=0 Ak .

Prova. Por uma questão de simplicidade, vamos provar o resultado supondo que as
matrizes Ak são quadradas de ordem n, mas isso não é essencial na prova. Designando
(k)
por aij as entradas de Ak , por definição de série matricial temos que mostrar que para
P∞ (k) (i,j)
i, j = 1, . . . , n cada uma das séries numéricas k=0 aij é convergente. Designe SN o
(i,j) P N (k)
termo geral da sucessão associada desta série numérica, i.e., SN = k=0 aij . Então,
para M > N tem-se
¯ M ¯ ¯ M ¯ ° M °
¯ X ¯ ¯ X ¯ ° X ° XM
(i,j) (i,j) ¯ (k) ¯ ¯ (k) ¯ ° °
|SM − SN | = ¯ aij ¯ ≤ max ¯ aij ¯ = ° Ak ° ≤ kAk k ,
¯ ¯ 1≤i,j≤n ¯ ¯ ° °
k=N +1 k=N +1 k=N +1 k=N +1

donde, por (1.12),


M
X
(i,j) (i,j)
|SM − SN | ≤ ak , M >N (i, j = 1, . . . , n) .
k=N +1

P∞ PM
Como, por hipótese, a série numérica k=0 ak é convergente, então k=N +1 ak → 0
(i,j) (i,j)
para M, N → ∞, logo também − |SM SN | → 0 para M, N
→ ∞. Isto significa que
(i,j)
{SN }N ∈N0 é uma sucessão de Cauchy para todo o par (i, j), logo cada uma das séries
P∞ (k)
numéricas k=0 aij é convergente.

A proposição seguinte depende do conhecimento de algumas noções elementares de


funções de variável complexa, mas dela não depende nenhum resultado a estabelecer no
seguimento do curso (pelo que a sua leitura pode ser omitida). Contudo, trata-se de um
resultado interessante já que permite gerar séries matriciais convergentes a partir de séries de
potências de funções, estabelecendo condições que permitem substituir a variável que figura
na série de potências por uma matriz (de modo a obter uma série matricial convergente).
Além disso, a prova faz uso da forma canónica de Jordan, pelo que tem interesse apresentá-la
como exemplo de aplicação desta forma canónica.
P∞
Teorema 1.6. Designe f (z) a função definida pela série de potências f (z) = k=0 ck z k ,
convergente para |z| < r. Então a série de potências

X
f (A) := ck Ak
k=0

é convergente para toda a matriz quadrada A tal que ρ(A) < r.

Prova. Considerando a forma normal de Jordan para a matriz A,

P −1 AP = J ,
1. TÓPICOS DA TEORIA DAS MATRIZES 109

observamos que basta provar o teorema para o caso em que J consiste num único bloco de
Jordan, digamos,
 
0 1
 0 1 
 
 .. .. 
J = Jm (λ) = λI + N , N =  . .  .
 
 0 1 
0 m×m

Como Ak = P −1 J k P para todo o k = 0, 1, 2, . . . , deduz-se


p
à p !
X X
k −1 k
ck A = P ck J P , p = 0, 1, 2, . . . ,
k=0 k=0
P∞
Por conseguinte, se provarmos que a série matricial f (J) := k=0 ck J k converge, usando a
definição de série matricial e a propriedade (iii) acima, ter-se-á
p
X
lim ck Ak = P −1 f (J)P ,
p→∞
k=0

o que justificará a convergência da série f (A), obtendo-se ainda


f (A) = P f (J)P −1 .
Prove-se, então, a convergência da série f (J) . Como as matrizes λI e N comutam entre
si, um cálculo directo mostra que
X k µ ¶
k k k
J = (λI + N ) = λk−ℓ N ℓ , k = 0, 1, 2 . . . .

ℓ=0
m
Mas, tendo em conta que N = 0 , podemos escrever
X µk¶
m−1 µ ¶
k
Jk = λk−ℓ N ℓ , com := 0 se k < ℓ , k = 0, 1, 2 . . . ,
ℓ ℓ
ℓ=0

donde
∞ m−1
à ∞ µ ¶
! m−1
X X X k X f (ℓ) (λ) ℓ
k k−ℓ
(1.13) f (J) = ck J = ck λ Nℓ = N ,
ℓ λ!
k=0 ℓ=0 k=0 ℓ=0

sendo a última igualdade justificada pelo facto de a função f (z) (que é definida por uma
série de potências) ter derivadas de todas as ordens nos pontos z tais que |z| < r, as quais
podem ser calculadas derivando a série termo a termo, tendo-se
∞ µ ¶
X
(ℓ) k
f (z) = ℓ! ck z k−ℓ , |z| < r .

k=ℓ

Decorre de (1.13) que a série definida por f (J) converge, o que conclui a prova.
Observação 1.2. As sucessivas potências da matriz nilpotente N têm todas as entradas
iguais a zero com excepção das entradas de uma diagonal paralela à diagonal principal, as
quais são todas iguais a 1. Mais concretamente, as únicas entradas não nulas e iguais a 1 da
matriz N ℓ , para ℓ = 2, 3, . . . , m − 1, são as entradas que figuram na posição (i, i + ℓ) para
110 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

i = 1, · · · , m − ℓ. Assim, conhecida a função f , a matriz que figura no último membro de


(1.13) pode calcular-se explicitamente, obtendo-se
 (m−2)

′′
f (m−1) (λ)
f (λ) f ′ (λ) f 2!(λ) · · · f (m−2)! (λ)
(m−1)!
 
 (m−2)
f (λ) f ′ (λ) · · · f (m−3)! (λ) f (m−2) (λ) 
 (m−2)! 
 .. .. 
 .. .. 
 . . . . 
(1.14) f (Jm (λ)) =  .
 .. f ′′
(λ) 
 . f ′
(λ) 
 2! 
 ′ 
 f (λ) f (λ) 
f (λ)
Recorde-se que dada uma matriz A(t) quadrada de ordem n (na verdade, no que a
seguir se vai expor, não é necessário impor que a matriz seja quadrada), cujas entradas são
funções de t deriváveis nalgum intervalo de números reais, a derivada matricial de A(t) nesse
intervalo é, por definição, a matriz que se obtém de A(t) derivando todas as entradas desta
matriz, i.e., se A(t) = [aij (t)]ni,j=1 então
A′ (t) = [a′ij (t)]ni,j=1 .
Analogamente, se as entradas aij (t) são funções integráveis nalgum intervalo de números
reais [a, b], o integral matricial de A(t) nesse intervalo é, por definição, a matriz que se obtém
de A(t) integrando todas as entradas desta matriz, i.e.,
Z b "Z #n
b
A(t) dt = aij (t) dt .
a a
i,j=1

As proposições seguintes estabelecem que uma série de potências de matrizes convergente


num intervalo de números reais pode ser derivada termo a termo no interior desse intervalo
e integrada termo a termo em qualquer subintervalo.
Teorema 1.7. Seja {Ak }k∈N0 uma sucessão de matrizes de ordem n e suponha-se
que esta sucessão é o termo geral de uma série (matricial) de potências convergente num
intervalo I ⊂ R. Então
(i) A série pode ser derivada termo a termo no interior de I, i.e.,
Ã∞ ! ∞
d X X
Ak tk = (k + 1)Ak+1 tk , t ∈ I 0 .
dt
k=0 k=0

(ii) A série pode ser integrada termo a termo em I, i.e.,


Z t ÃX∞
! ∞
X
k tk+1
Ak t dt = Ak , t∈I.
0 k+1
k=0 k=0

(k)
Prova. Prove-se apenas (i). Ponha-se Ak = [aij ]ni,j=1 , para todo o k ∈ N0 . Como,
P∞ k
por hipótese, a série matricial k=0 Ak t é convergente para todo o t ∈ I então, por
definição de série matricial convergente, cada uma das séries (de potências) de números
P∞ (k) k
reais k=0 aij t é convergente para todo o t ∈ I, e tem-se

" ∞ #n
X X (k)
k k
Ak t = aij t , t∈I,
k=0 k=0 i,j=1
2. EXPONENCIAL MATRICIAL 111

donde, por definição de derivada de uma matriz,


̰ ! " ̰ ! #n
d X k d X (k) k
Ak t = aij t , t∈I.
dt dt
k=0 k=0 i,j=1

Agora, as séries que figuram nas entradas da matriz do segundo membro desta igualdade
são séries de potências convergentes para todo o t ∈ I, pelo que podem ser derivadas termo
a termo no interior do seu intervalo de convergência (que, naturalmente, tem que conter I 0 ),
obtendo-se
Ã∞ ! ∞ ∞
d X (k) k X (k)
X (k+1) k
aij t = k aij tk−1 = (k + 1)aij t , t ∈ I0 .
dt
k=0 k=1 k=0
Assim,
à ∞
! " ∞
#n ∞
d X X (k+1) k
X
k
Ak t = (k + 1)aij t = (k + 1)Ak+1 tk , t ∈ I0 .
dt
k=0 k=0 i,j=1 k=0

2. Exponencial matricial
2.1. Definição e exemplos.
P∞ k Como se sabe, sendo a um númeroa real ou complexo
qualquer, a série numérica k=0 a /k! é convergente e tem por soma e . Tal como sucede
para um dado número, também o conceito de exponencial pode ser introduzido para uma
dada matriz (quadrada) A, definindo-se exp A como sendo a soma de uma série de matrizes
adequada, definida à custa de A.
P∞ k
Teorema 2.1. Dada uma matriz A real de ordem n, a série k=0 A /k! converge para
uma matriz real de ordem n.
Prova. Basta observar que, pondo a := kAk, atendendo a (1.11) é kAk /k!k = kAk k/k! ≤
k−1 k
P∞ kAk /k!
n ≤ (na)k /k! para todo o k ∈ N0 . Consequentemente, como a série P∞numérica
k na k
k=0 (na) /k! converge (para e ), decorre do teorema 1.5 que a série matricial k=0 A /k!
também converge.
Observação 2.1. Uma demonstração alternativa (e igualmente imediata) do teorema
precedente
P∞ k é a seguinte: comoz ρ(A) < a para algum a > 0, e a função definida por f (z) :=
k=0 z /k!
P∞converge (para e ) em |z| < a , o teorema 1.6 assegura que a série de matrizes
k
f (A) = k=0 A /k! é convergente. Note-se, contudo, que esta demonstração, por ser
baseada no teorema 1.6, depende de conhecimentos sobre funções de variável complexa.
Uma outra demonstração aternativa, que também não envolve tais conhecimentos, pode
fazer-se com argumentos de equações diferenciais, com base no teorema 5.1 adiante (cf.
observação 5.3).
À soma da série anterior convencionou-se chamar exponencial da matriz A. Mais pre-
cisamente, dada uma matriz A real de ordem n, exponencial da matriz A, designada por
exp A ou eA , é a matriz real de ordem n definida por
A2 Ak
(2.1) + ··· +
exp A = I + A + + ··· ,
2! k!
onde I denota a matriz identidade de ordem n.
Deste modo, podemos definir a função matricial exp tA, t ∈ R ,
A2 t2 Ak tk
(2.2) exp tA = I + tA + + ··· + + ··· .
2! k!
112 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

Exemplos. O cálculo da exponencial de uma matriz por recurso à definição pode


ser extremamente complicado, mesmo para matrizes de ordem muito pequena. A seguir
apresentam-se alguns exemplos simples.
• Seja A uma matriz diagonal, digamos,
A = diag {λ1 , · · · , λn } .
Então para cada k ∈ N é Ak = diag {λk1 , · · · , λkn }, logo

exp tA = diag {etλ1 , · · · , etλn } .


• Seja A uma matriz diagonal por blocos,
A = diag {A1 , · · · , Aj } ,
onde A1 , . . . , Aj são matrizes de ordens n1 , · · · , nj (resp.), com n1 + · · · + nj = n. Então
Ak = diag {Ak1 , · · · , Akj } para todo o k ∈ N, donde

exp tA = diag {exp tA1 , · · · , exp tAj } .


• Seja A a matriz
· ¸
0 1
A= .
−1 0
Atendendo a que, para k ∈ N0 se tem A2k = (−1)k I e A2k+1 = (−1)k A, deduz-se

X X∞
t2k t2k+1
exp tA = I (−1)k +A (−1)k = I cos t + A sin t
(2k)! (2k + 1)!
k=0 k=0
· ¸
cos t sin t
= .
− sin t cos t
• Finalmente, considere-se a matriz nilpotente
 
0 1
 0 1 
 
 .. .. 
(2.3) N = . .  .
 
 0 1 
0 n×n

Vimos já anteriormente que as únicas entradas não nulas (e que são iguais a 1) da matriz
N k , para k = 2, 3, . . . , n − 1, são as entradas na posição (i, i + k) para i = 1, · · · , n − k.
Portanto,
 2

tn−2 tn−1
1 t t2! · · · (n−2)! (n−1)!
 
 1 t · · · tn−3 tn−2 
 (n−3)! (n−2)! 
 .. .. 
 .. .. 
 . . . . 
exp tA =  .
 .. t 2 
 . t 
 2! 
 1 t 
 
1
2. EXPONENCIAL MATRICIAL 113

2.2. Propriedades. Neste parágrafo estabelecemos algumas propriedades da exponen-


cial matricial que serão de grande utilidade nas secções seguintes.
Teorema 2.2. Sejam A, B, P ∈ Rn,n , sendo P invertı́vel. Então
(i) exp 0 = I .
d
(ii) dt exp At = A exp At .
(iii) det (exp A) = etraço(A) .
(iv) AB = BA se e só se exp t(A + B) = exp tA · exp tB , ∀t ∈ R .
(v) (exp tA)−1 = exp (−tA) , ∀t ∈ R .
(vi) exp (P −1 AP ) = P −1 (exp A)P .
Prova. APpropriedade (i) é imediata. Para provar (ii) basta notar que a série de potências

(matricial) k=0 Ak tk /k! =: exp At é convergente para todo o t ∈ R, pelo que, de acordo
com o teorema 1.7, pode ser derivada termo a termo, o que permite escrever

X X Ak−1 tk−1 ∞
d tk−1
exp At = kAk =A = A exp At .
dt k! (k − 1)!
k=1 k=1

Atendendo a que se λ é valor próprio de A então eλ é valor próprio de exp A, (iii) é uma
consequência imediata do corolário 1.2. Na verdade, se λ1 , · · · , λn são os valores próprios
de A, então pode-se escrever
n
Y
= etraço(A) .
n
det (exp A) = eλi = e i=1 λi

i=1

Remete-se a prova de (iv) para mais tarde (cf. observação 7.2). A invertibilidade da
exponencial matricial é garantida por (iii). Assim, para provar (v) basta observar que
exp (tA) exp (−tA) = I, igualdade esta que resulta da propriedade (iv), com B = −A.
Finalmente, (vi) decorre da definição de exponencial matricial e da fórmula
(P −1 AP )k = P −1 Ak P , ∀k ∈ N ,
cuja demonstração se faz facilmente por indução sobre k.
Observação 2.2. De acordo com a propriedade (iv), se A e B são matrizes comutativas
então a exponencial matricial da soma A + B é igual ao produto das exponenciais matriciais
de cada parcela. Porém, quando A e B não comutam este facto pode não se verificar.
Para justificar esta afirmação, considere-se uma matriz referida num exemplo anterior e cuja
exponencial foi já calculada:
· ¸ · ¸
0 1 cos t sin t
C := , exp tC = .
−1 0 − sin t cos t
Ora, C = A + B, com
· ¸ · ¸
0 1 0 0
A= , B= .
0 0 −1 0
Observe-se que A e B não comutam. Porém, estas duas matrizes são nilpotentes e, além
disso, A2 = B 2 = 0, o que permite calcular
· ¸ · ¸
1 t 1 0
exp tA = I + tA = , exp tB = I + tB = ,
0 1 −t 1
114 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

donde · ¸
1 − t2 t
exp tA · exp tB = 6= exp tC = exp t(A + B) .
−t 1
Como exemplo de aplicação, considere-se a matriz A considerada em(1.6),
· ¸
0 1
A= .
−4 4
De acordo com (1.7), esta matriz é triangularizável, e P −1 AP = T , com
· ¸ · ¸ · ¸
1 0 1 0 2 1
P := , P −1 = , T := .
2 1 −2 1 0 2
£ ¤
Como T = E + N , com E := 2I (matriz escalar) e N := 00 10 , e E e N comutam, então
exp(T t) = exp(Et) exp(N t). Como E é matriz diagonal e N matriz nilpotente, com N k = 0
para k ≥ 2, deduz-se
· 2t ¸ · ¸
e 0 1 t
exp(Et) = 2t = e2t I , exp(N t) = I + N t = ,
0 e 0 1
logo
· ¸
1 − 2t t
exp(At) = P exp(T t) P −1 = e2t .
−4t 1 + 2t
Observação 2.3. Um bloco elementar de Jordan da forma (1.9) pode-se decompor na
soma da uma matriz escalar, λI, com a matriz nilpotente (2.3). Atendendo a que uma
matriz escalar comuta com qualquer outra matriz, aplicando a propriedade (iv) pode-se
obter a exponencial de um bloco elementar de Jordan multiplicando a matriz escalar exp λI
pela exponencial da matriz (2.3). Atendendo a que a forma normal de Jordan, J, de uma
dada matriz A é diagonal por blocos e que os blocos ao longo da diagonal são matrizes cuja
exponencial já sabemos calcular, também é imediato calcular a exponencial de J. Além disso,
se J for conhecida, assim como a matriz P tal que P −1 AP = J, aplicando a propriedade
(vi) pode-se calcular exp A através da fórmula
exp A = P (exp J ) P −1 .

3. Sistemas de equações diferenciais. Noções básicas


Como referimos no inı́cio deste capı́tulo a forma normal mais geral de um sistema de
equações diferenciais de primeira ordem é
 ′
 y1 = f1 (t, y1 , y2 , . . . , yn )


 ′
 y2 = f2 (t, y1 , y2 , . . . , yn )
(3.1) ..

 .


 ′
yn = fn (t, y1 , y2 , . . . , yn ) ,
onde f1 , f2 , . . . , fn são funções reais conhecidas definidas num certo subconjunto Ω ⊂ I ×Rn ,
com I é um intervalo de números reais, o qual se pode reescrever na forma condensada
(3.2) y′ = f (t, y) ,
onde y é a função vectorial de componentes y1 , y2 , · · · , yn e f é a função vectorial de com-
ponentes f1 , f2 , . . . , fn .
3. SISTEMAS DE EQUAÇÕES DIFERENCIAIS. NOÇÕES BÁSICAS 115

Recordemos que por solução em I do sistema (3.1) (ou (3.2)), entende-se n funções
ϕ1 , ϕ2 , . . . , ϕn , definidas e deriváveis em I, tais que para todo o t ∈ I se verifiquem as duas
condições
(i) (t, ϕ1 (t), ϕ2 (t), . . . , ϕn (t)) ∈ Ω
(ii) ϕ′j (t) = fj (t, ϕ1 (t), ϕ2 (t), . . . , ϕn (t)) , j = 1, 2, . . . , n .
Se, além de (3.1), impusermos as condições iniciais

(3.3) y1 (t0 ) = y10 , y2 (t0 ) = y20 , ... , yn (t0 ) = yn0 ,


onde t0 ∈ I e y10 , y20 , . . . , yn0 são n números reais (fixos), diz-se que (3.1) e (3.3) definem um
problema de valores iniciais.
Por exemplo,
½ ′
y1 = 1
(3.4) , y1 (0) = 0 , y2 (0) = 0,
y2′ = 2y2
é um problema de valores iniciais, e
ϕ1 (t) = t , ϕ2 (t) = t2
uma sua solução em R.
Uma forma natural de gerar um sistema de n EDO de primeira ordem é a partir de uma
EDO linear de ordem n. Para justificar esta afirmação, seja

(3.5) y (n) + a1 (t)y (n−1) + . . . + an−1 (t)y ′ + an (t)y = b(t)


uma EDO linear de ordem n definida em certo intervalo I. Introduzindo novas variáveis
y1 , y2 , . . . , yn por meio das relações

(3.6) y1 = y , y2 = y ′ , y3 = y ′′ , . . . , yn = y (n−1) ,
tem-se
y1′ = y ′ = y2 , y2′ = y ′′ = y3 , y3′ = y ′′′ = y4 , . . . , ′
yn−1 = y (n−1) = yn
e, ainda,
yn′ = y (n) = −an (t)y − an−1 (t)y ′ − . . . − a1 (t)y (n−1) + b(t)

= −an (t)y1 − an−1 (t)y2 − . . . − a1 (t)yn + b(t).


Por conseguinte, observamos que (3.5) dá origem ao sistema diferencial
 ′

 y1 = y2



 y′ = y

 2. 3
..



 ′

 yn−1 = yn

 ′
yn = −an (t)y1 − an−1 (t)y2 − · · · − a1 (t)yn + b(t) ,
que pode ainda reescrever-se na forma
(3.7) y′ = C(t)y + b(t) ,
116 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

onde C(t) é uma matriz companheira e b(t) um vector coluna, definidos por
 
0 1  
 0 1  0
   .. 
 .. ..   
C(t) :=  . .  , b(t) :=  . .
   0 
 0 1 
b(t)
−an (t) −an−1 (t) · · · −a2 (t) −a1 (t) n×n
Se, em vez da equação (3.5), partirmos de uma outra EDO de ordem n, não necessari-
amente linear, mas que possa escrever-se na forma normal, digamos,
(3.8) y (n) = F (t, y, y ′ , y ′′ , · · · , y (n−1) ) ,
do mesmo modo se gerava a partir desta EDO um sistema de n EDO’s, introduzindo as mes-
mas variáveis y1 , y2 , . . . , yn definidas por (3.6), obtendo-se deste modo o seguinte resultado:
Teorema 3.1. A equação (3.8) é equivalente ao sistema diferencial


 y1′ = y2



 y2′ = y3
(3.9) ..
 .

 ′

 yn−1 = yn

yn′ = F (t, y1 , y2 , · · · , yn ) ,
no sentido seguinte: se ϕ é uma solução da EDO (3.8) então o vector (ϕ, ϕ′ , ϕ′′ , · · · , ϕ(n−1) )
é uma solução do sistema (3.9), enquanto que se (ϕ1 , · · · , ϕn ) é uma solução do sistema
(3.9) então ϕ1 é uma solução da equação (3.8).
Por exemplo, o problema de Cauchy
µ ¶2
d3 y dy
+ + 5y = cos t , y(0) = 1 , y ′ (0) = 0 , y ′′ (0) = 0 ,
dt3 dt
é equivalente ao sistema diferencial com condições iniciais (problema de valores iniciais)
 ′
 y1 = y2
y ′ = y3 , y1 (0) = 1, y2 (0) = 0, y3 (0) = 0 .
 2′
y3 = cos t − 5y1 − y22
4. Teorema de existência e unicidade
Uma questão essencial que se coloca no estudo do sistema diferencial
(4.1) y′ = f (t, y)
é, naturalmente, a de saber se tal sistema admite ou não alguma solução e, no caso de
existência, analisar se existe ou não unicidade de solução quando uma condição inicial
y(t0 ) = y0 é fixada. Esse estudo será realizado nesta secção e os resultados a estabelecer
consistem numa generalização natural dos resultados de existência e unicidade apresentados
no capı́tulo 2 para as EDO’s de primeira ordem. Recorde-se que, aı́ se provou um teorema
de existência de soluções (teorema de Cauchy-Peano) e um teorema de existência e unici-
dade da solução (teorema de Picard), e na base dessas provas esteve a noção de solução
δ−aproximada. Referimos também na altura que uma prova alternativa para o teorema de
Picard poderia ser dada com base no método das aproximações sucessivas de Picard. É este
o método que adoptaremos para a prova do resultado de existência e unicidade que vamos
estabelecer nesta secção para os sistemas da forma (4.1).
4. TEOREMA DE EXISTÊNCIA E UNICIDADE 117

O conceito de função lipschitziana introduzido anteriormente para funções escalares


generaliza-se de modo natural às funções vectoriais: uma função f : Ω ⊂ R × Rn → Rn
diz-se lipschitziana em Ω a respeito da segunda variável se existir uma constante L > 0, dita
constante de Lipschitz, tal que
kf (t, y2 ) − f (t, y1 )k ≤ L ky2 − y1 k , ∀(t, y1 ), (t, y2 ) ∈ Ω .
n n
Por exemplo, sendo f : R × R → R definida por
f (t, y) := A y + b(t) ,
onde A é uma matriz n × n de entradas reais e b(t) uma função vectorial com valores em
Rn , de acordo com (1.11) tem-se
kf (t, y2 ) − f (t, y1 )k ≤ n kAk ky2 − y1 k
para todos os pontos (t, y1 ), (t, y2 ) ∈ R × Rn , logo esta função vectorial f é lipschitziana em
R × Rn com constante de Lipschitz L := n kAk .
A proposição seguinte dá uma condição suficiente que é útil para analisar se uma dada
função satisfaz a condição de Lipschitz.
Proposição 4.1. Sejam Ω ⊂ R × Rn um subconjunto convexo e f : Ω → Rn . Suponha-
se que em todo o ponto (t, y) ∈ Ω a função f tem derivadas parciais ∂f /∂yj para todo o
j = 1, . . . , n e que estas derivadas são limitadas, i.e., existe uma constante L1 > 0 tal que
k∂f /∂yj k ≤ L1 em Ω, para todo o j = 1, . . . , n. Nestas condições, f é lipschitziana em Ω
com constante de Lipschitz L := nL1 .
Prova. Fixemos pontos (t, y) e (t, z) em Ω. Como Ω é convexo, também os pontos
(t, y+s(z−y)) pertencem a Ω para todo o s ∈ [0, 1]. Assim, a função vectorial h : [0, 1] → Rn
definida por h(s) := f (t, y + s(z − y)) está bem definida e, pelo teorema de derivação da
função composta, tem-se
Xn
∂f
h′ (s) = (zi − yi ) (t, y + s(z − y)) ,
i=1
∂y i

donde ° °
n
X ° ∂f °
kh′ (s)k ≤ |yi − zi | °
° ∂yi (t, y + s(z − y))° ≤ nL1 ky − zk .
°
i=1
Consequentemente,
°Z 1 ° Z 1
° °
k f (t, y) − f (t, z) k = kh(1) − h(0)k = °
° h′ (s) ds°
°≤ kh′ (s)k ds ≤ nL1 ky − zk ,
0 0
o que prova a proposição.

O teorema seguinte estabelece a existência e unicidade das soluções do sistema diferencial


(4.1) com condição inicial, i.e., do problema de Cauchy definido por
(4.2) y′ = f (t, y) , y(t0 ) = y0 .
Este teorema generaliza para os sistemas diferenciais de primeira ordem os teoremas de
Cauchy-Peano e de Picard estabelecidos no capı́tulo 2 para as EDO’s de primeira ordem.
Constata-se por análise directa das demonstrações apresentadas no capı́tulo 2 para aqueles
teoremas que, com simples e naturais adaptações, a demonstração do teorema seguinte pode
fazer-se por analogia com as demonstrações daqueles teoremas. Assim, a prova da parte do
teorema que assegura a existência de solução (análogo ao teorema de Cauchy-Peano) abaixo
será omitida. A prova da parte que garante a unicidade da solução (análogo ao teorema de
118 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

Picard) poderia também omitir-se, mas daremos uma prova alternativa com base no método
das aproximações sucessivas de Picard.

Teorema 4.1. (existência e unicidade de soluções locais) Sejam t0 ∈ R, y0 ∈ Rn


e
Ω := { (t, y) ∈ R × Rn : |t − t0 | ≤ a , ky − y0 k ≤ b } (a, b ∈ R+ ) .

Suponha-se que f é contı́nua em Ω; seja M > 0 tal que

kf (t, y)k ≤ M , ∀(t, y) ∈ Ω .

Então, existe pelo menos uma solução y = ϕ(t) do problema de Cauchy (4.2) definida no
intervalo
Iα = {t ∈ R : |t − t0 | ≤ α} , α := min{a, b/M } .

Se, além das hipóteses anteriores, se admitir que f é também lipschitziana em Ω a respeito
da segunda variável, então a solução é única em Iα e tem-se

ϕ = lim yk uniformemente em Iα ,
k→∞

onde {yk }k∈N0 é uma sucessão de aproximações sucessivas, definida recorrentemente por
Z t
(4.3) y0 (t) := y0 , yk+1 (t) := y0 + f (s, yk (s)) ds (k = 0, 1, 2, . . .)
t0

para todo o t ∈ Iα .

Prova. De acordo com as considerações que precederam o enunciado, vamos demonstrar


apenas a segunda parte do teorema, i.e., que com a totalidade das hipóteses formuladas
no enunciado, existe uma solução definida em Iα e que esta solução é única, usando o
método das aproximações sucessivas de Picard, com a sucessão de aproximações definida
por (4.3). Observe-se primeiramente que a sucessão {yk }k∈N0 está bem definida, pois para
cada k ∈ N0 tem-se (s, yk (s)) ∈ Ω para todo o s ∈ Iα . Esta afirmação pode justificar-se
facilmente por indução sobre k. De facto, para k = 0 é (s, y0 ) ∈ Ω para todo o s ∈ Iα , já que
Iα ⊂ [t0 − a, t0 + a] (por ser α ≤ a). Suponha-se que para k ∈ N0 (fixo) se tem (s, yk (s)) ∈ Ω
para todo o s ∈ Iα (hipótese de indução). Então f (s, yk (s)) está bem definido para todo o
s ∈ Iα , e para todo o t ∈ Iα podemos escrever
¯Z t ¯
¯ ¯
¯
kyk+1 (t) − y0 k ≤ ¯ kf (s, yk (s))k ds ¯¯ ≤ M |t − t0 | ≤ M α ≤ b ,
t0

o que mostra que (s, yk+1 (t)) ∈ Ω e, consequentemente, como t é arbitrário em Iα , fica
justificada a afirmação acima.
Designe L > 0 a constante de Lipschitz e seja c := maxs∈Iα ky1 (s) − y0 (s)k . Note-se
que este máximo existe, de facto, em virtude da continuidade das funções envolvidas e por
Iα ser um intervalo compacto de R. Vamos começar por mostrar, por indução sobre k, que

Lk c
(4.4) kyk+1 (t) − yk (t)k ≤ |t − t0 |k , ∀t ∈ Iα (k = 0, 1, 2, . . .) .
k!
4. TEOREMA DE EXISTÊNCIA E UNICIDADE 119

Para k = 0 é trivial. Suponha-se então que a desigualdade (4.4) vale para um inteiro k (fixo)
e prove-se que permanece válida para o seu sucessor, k + 1. Com efeito, tem-se
°Z t °
° °
kyk+2 (t) − yk+1 (t)k = ° [ f (s, yk+1 (s)) − f (s, yk (s)) ] ds°
°
°
t0
¯Z t ¯
¯ ¯
≤ ¯ ¯ kf (s, yk+1 (s)) − f (s, yk (s))k ds ¯¯
t0
¯Z t ¯
¯ ¯
≤ L ¯¯ kyk+1 (s) − yk (s)k ds ¯¯ ,
t0
sendo a última desigualdade justificada por f satisfazer a condição de Lipschitz. Agora, pela
hipótese de indução, obtém-se
¯Z ¯ ¯
k+1 ¯ Z t
¯
Lk+1 c ¯¯ t k
¯
¯ = L c ¯ k
¯
¯
kyk+2 (t) − yk+1 (t)k ≤ ¯ |s − t 0 | ds ¯ ¯ (s − t0 ) ds ¯
k! t0 k! t0
k+1
L c
≤ |t − t0 |k+1 ,
(k + 1)!
o que prova (4.4). Como Iα = [t0 − α, t0 + α], decorre de (4.4) que
(2αL)k c
sup kyk+1 (t) − yk (t)k ≤ .
t∈Iα k!
Ora, o segundo membro desta desigualdade constitui o termo geral de uma série numérica
convergente (para e2αL c), pelo que, pelo critério de Weierstrass
P∞ para séries de funções reais
(aplicado a cada uma das séries componentes), a série k=0 (yk+1 (t) − yk (t)) é uniforme-
Pk
mente convergente em Iα . Consequentemente, como yk = y0 + j=1 (yj − yj−1 ) , deduz-se
que a sucessão de aproximações {yk }k∈N0 converge uniformemente em Iα , para alguma
função limite ϕ : Iα → Rn ,
ϕ := lim yk uniformemente em Iα .
k→∞
Esta função ϕ é contı́nua em Iα , pois é o limite uniforme de funções contı́nuas. Fazendo
então k tender para +∞ em (4.3), deduz-se
Z t
ϕ(t) = y0 + f (s, ϕ(s)) ds ,
t0
o que permite concluir (passando às componentes em ambos os membros desta igualdade e
aplicando o teorema 7.1 estabelecido no capı́tulo 2) que ϕ é solução do problema de Cauchy
(4.2) em Iα .
Para provar a unicidade da solução, suponha-se que existe uma outra função vectorial
ψ : Iα → Rn satisfazendo
Z t
ψ(t) := y0 + f (s, ψ(s)) ds .
t0
Designe m := maxt∈Iα kψ(t) − y1 (t)k . Constata-se facilmente por indução sobre k que
Lk−1 m (2αL)k−1 m
kψ(t) − yk (t)k ≤ |t − t0 |k−1 ≤ , ∀t ∈ Iα (k = 2, 3, . . .) .
(k − 1)! (k − 1)!
Como o último membro desta expressão tende para zero quando k → ∞ (basta observar que
se trata do termo geral de uma série numérica convergente), deduz-se
ψ(t) = lim yk (t) = ϕ(t) , t ∈ Iα ,
k→∞
120 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

o que prova a unicidade da solução.

Tal como sucedia para as EDO’s de primeira ordem com condição inicial, o teorema
precedente apenas garante a existência de solução local do sistema diferencial (4.2) com
condição incial, definida no intervalo Iα . A proposição que a seguir se enuncia, e cuja
prova é análoga à do corolário 7.1 do capı́tulo 2, estabelece condições que asseguram que a
solução local encontrada pode ser prolongada a uma solução global, definida num intervalo
I previamente fixado.
Corolário 4.1. (existência e unicidade de solução global) Sejam I um intervalo
de números reais, t0 ∈ I 0 e y0 ∈ Rn . Seja f : I × Rn → Rn uma função contı́nua, limitada
e lipschitziana a respeito da segunda variável. Então existe uma e uma só solução y = ϕ(t)
do problema de Cauchy (4.2), definida em todo o intervalo I.

5. Sistemas diferenciais lineares


Se cada uma das funções f1 , f2 , . . . , fn em (3.1) é linear nas variáveis y1 , y2 , . . . , yn , então
o sistema (3.1) diz-se um sistema de EDO de primeira ordem linear (de ordem n). Trata-se,
portanto do caso em que
fi (t, y1 , y2 , . . . , yn ) = ai1 (t)y1 + ai2 (t)y2 + . . . + ain (t)yn + bi (t) , i = 1, 2, . . . , n ,
onde aij (i, j = 1, . . . , n) e bi (i = 1, . . . , n) são funções definidas num intervalo I ⊂ R. A
forma geral de um tal sistema é
 ′
 y1 = a11 (t)y1 + a12 (t)y2 + . . . + a1n (t)yn + b1 (t)


 ′
 y2 = a21 (t)y1 + a22 (t)y2 + . . . + a2n (t)yn + b2 (t)
(5.1) ..

 .


 ′
yn = an1 (t)y1 + an2 (t)y2 + . . . + ann (t)yn + bn (t) .
As funções aij dizem-se os coeficientes do sistema, e no caso de serem todos (funções)
constantes o sistema diz-se de coeficientes constantes; caso contrário, diz-se de coeficientes
variáveis. Se todas as funções bi (i = 1, . . . , n) são identicamente nulas em I, o sistema linear
diz-se homogéneo; e, caso contrário, diz-se não homogéneo ou completo.
A maioria dos resultados neste capı́tulo dizem respeito a sistemas diferenciais de coefi-
cientes constantes e homogéneos. Por comodidade, escreveremos o sistema (5.1) na forma
matricial
(5.2) y′ (t) = A(t)y(t) + b(t) ,
onde
     
y1 (t) a11 (t) a12 (t) ... a1n (t) b1 (t)
 y2 (t)   a21 (t) a22 (t) ... a2n (t)   b2 (t) 
     
y(t) =  .. , A(t) =  .. .. .. .. , b(t) =  .. .
 .   . . . .   . 
yn (t) an1 (t) an2 (t) ... ann (t) bn (t)
Além disso, se estivermos em presença de um problema de valores iniciais, tal que as
funções y1 , y2 , . . . , yn satisfazem as condições iniciais
y1 (t0 ) = y10 , y2 (t0 ) = y20 , ... , yn (t0 ) = yn0 ,
então escreveremos apenas
(5.3) y′ = A(t)y + b(t) , y(t0 ) = y0 ,
5. SISTEMAS DIFERENCIAIS LINEARES 121

onde  
y10
 
y0 =  ...  .
yn0
Por exemplo, o problema de valores iniciais (3.4), pode ser escrito na forma
· ¸ · ¸ · ¸
0 0 1 0
y′ = y+ , y(0) = 0 ≡ ;
0 2 0 0
enquanto que o problema de valores iniciais


 y1 = y1 − y2 + 2y3

 y ′ = 3y2 − y3 , y1 (2) = 1, y2 (2) = 0, y3 (2) = −1,


 y2′ = y + 5y
3 1 2

pode escrever-se na forma


   
1 −1 2 1
y′ =  0 3 −1  y , y(2) =  0  .
1 5 0 −1
Alguns dos resultados apresentados no capı́tulo anterior, para equações lineares de or-
dem n, podem ser facilmente generalizados para o caso de sistemas diferenciais lineares.
Destacamos, em particular, o seguinte teorema da existência e unicidade de soluções.
Teorema 5.1 (existência e unicidade da solução). Suponha-se que as funções
vectoriais A e b que figuram no sistema diferencial linear de primeira ordem (5.2) são
contı́nuas num intervalo I ⊂ R. Fixemos t0 ∈ I e seja y0 um vector qualquer de Rn .
Então, existe uma e uma só solução y = ϕ(t) definida em todo o intervalo I que é
solução em I do sistema diferencial (5.2) e satisfazendo a condição inicial y(t0 ) = y0 .
Prova. Daremos uma prova directa deste resultado adaptando para este caso a prova
apresentada para o teorema 4.1 (na observação 5.1 abaixo justifica-se por que razão a prova
não é consequência directa do teorema 4.1), recorrendo ao método das aproximações sucessi-
vas de Picard. Comecemos por provar a existência de solução. Para isso defina-se a sucessão
de aplicações yk : I → Rn por
Z t
(5.4) y0 (t) := y0 , yk (t) := y0 + [ A(s)yk−1 (s) + b(s) ] ds (k = 1, 2, . . .)
t0

A prova consiste em mostrar que para qualquer intervalo [ξ, η] ⊂ I, contendo t0 , a sucessão
{yk }k∈N0 converge uniformemente em [ξ, η] para uma solução de (5.2) que satisfaz y(t0 ) =
y0 . Designem ℓ := maxs∈[ξ,η] kA(s)k e c := maxs∈[ξ,η] ky1 (s) − y0 (s)k . Estes máximos
existem, pois as funções envolvidas são contı́nuas e [ξ, η] é compacto. Por analogia com a
prova de (4.4) é fácil mostrar, por indução sobre k, que
ℓk c
kyk+1 (t) − yk (t)k ≤ |t − t0 |k , ∀t ∈ [ξ, η] (k = 0, 1, 2, . . .) ,
k!
donde
[ℓ(η − ξ)]k c
sup kyk+1 (t) − yk (t)k ≤ , k = 0, 1, 2, . . . .
t∈[ξ,η] k!
Daqui, como na prova do teorema 4.1, deduz-se que a sucessão de aproximações {yk }k∈N0
converge uniformemente em [ξ, η], para alguma função limite ϕ : [ξ, η] → Rn , contı́nua. Este
122 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

limite existe em I, pois I é a união de intervalos compactos da forma [ξ, η] ⊂ I (contendo


t0 ). Fazendo então k tender para +∞ em (5.4), resulta
Z t
ϕ(t) = y0 + [ A(s)ϕ(s) + b(s) ] ds ,
t0

o que permite concluir que ϕ é solução em I.


A prova da unicidade é análoga à apresentada na demonstração do teorema 4.1, provando-
se que se ψ : I → Rn é outra solução, pondo m := maxt∈[ξ,η] kψ(t) − y1 (t)k , onde [ξ, η] é
um qualquer subintervalo de I contendo t0 , então
ℓk−1 m [ℓ(η − ξ)]k−1 m
kψ(t) − yk (t)k ≤ |t − t0 |k−1 ≤ , ∀t ∈ [ξ, η] (k = 2, 3, . . .) ,
(k − 1)! (k − 1)!
donde
ψ(t) = lim yk (t) = ϕ(t) , ∀t ∈ [ξ, η] ,
k→∞

e da arbitrariedade do subintervalo [ξ, η] ⊂ I, conclui-se que ψ ≡ ϕ em I.

Observação 5.1. Nas condições indicadas no teorema, ponha-se f (t, y) := A(t)y+b(t) .


Para quaisquer pontos (t, y1 ), (t, y2 ) ∈ I × Rn , tem-se
kf (t, y2 ) − f (t, y1 )k = kA(t)(y2 − y1 )k ≤ n kA(t)k ky2 − y1 k ,
sendo a desigualdade justificada por (1.11). Seja J ≡ Ja (t0 ) := [t0 − a, t0 + a] (com a > 0)
um qualquer subintervalo limitado e fechado de I centrado em t0 . Como, pelas hipóteses
do teorema, A(t) é contı́nua em J, então existe (finito) supt∈J kA(t)k . Conclui-se que f é
lipschitziana em J × Rn , com constante de Lipschitz
L := n max kA(t)k .
t∈J

n
Pondo B ≡ Bb (y0 ) := {y ∈ R : ky − y0 k ≤ b } , é claro que f é também lipschitziana em
J × B, e como este conjunto é compacto e f é aı́ contı́nua, existe M ≡ M (J, B) > 0 tal que
kf k ≤ M em J × B . Assim, o teorema 4.1 garante a existência de uma única solução no
intervalo Iα := [t0 − α, t0 + α] ⊂ J ⊂ I, com α := min{a, b/M }. Este intervalo Iα depende
das escolhas de J e B, pelo que, em princı́pio, Iα é um subintervalo estritamente contido
em I e, consequentemente, esta solução que obtivemos não é ainda uma solução definida
em todo o intervalo I. Naturalmente, poderı́amos pensar em prolongar a todo o intervalo
I a solução obtida em Iα , tentando aplicar o corolário 4.1. Porém, este resultado não pode
aplicar-se a esta situação, uma vez que a função f (t, y) := A(t)y + b(t), apesar de contı́nua,
não é limitada em I × Rn , mesmo que I seja limitado. Por esta razão, foi necessário dar
uma prova directa do teorema 5.1 precedente, para garantir que a solução existe, de facto,
em todo o intervalo I (e não apenas numa vizinhança de t0 ).

Observação 5.2. Tal como havia sido referido no capı́tulo 4, o teorema 1.1 aı́ apre-
sentado é consequência imediata do teorema precedente, atendendo à equivalência anteri-
ormente referida entre a EDO linear de ordem n (3.5) e o sistema diferencial linear (3.7).

Observação 5.3. De acordo com o que se referiu na observação 2.1, o teorema 5.1
permite dar uma prova alternativa (sem usar argumentos de funções de variável complexa)
da convergência da série que define a exponencial de uma matriz real. Com efeito, fixada uma
6. SISTEMAS DIFERENCIAIS LINEARES HOMOGÉNEOS 123

matriz A ∈ Rn,n , defina-se a sucessão de funções matriciais Φk : R → Rn,n (k = 0, 1, 2, . . .),


recorrentemente, por
Z t
(5.5) Φ0 (t) = I , Φk+1 (t) = I + AΦk (s) ds (k = 0, 1, 2, . . .) .
0
Constata-se facilmente, por indução sobre k, queP{Φk (t)}k∈N0 assim definida coincide com
∞ k k
a sucessão das somas parciais da série matricial k=0 a t /k! , i.e.,
k
X Aj tj
Φk (t) = (k = 0, 1, 2, . . .) .
j=0
j!

Assim, se se provar que a sucessão de matrizes {Φk (t)}k∈N0 é convergente para todo o
t ∈ R, em particular ficará estabelecida a convergência da série que define a exponencial
da matriz A. Para provar que aquela sucessão converge, comecemos por notar que (5.5) se
pode reescrever sob a forma equivalente de n sistema diferenciais de ordem n
Z t
(5.6) ϕj0 (t) = ej , ϕjk+1 (t) = ej + Aϕjk (s) ds (k = 0, 1, 2, . . .)
0

para j = 1, 2, . . . , n, onde ej designa o j−ésimo vector da base canónica de Rn e ϕjk (t) designa
a j−ésima coluna de Φk (t). Ora, para cada j, (5.6) é uma caso especial de (5.4) na demon-
stração do teorema 5.1, pelo que, pela própria demonstração deste teorema, para cada j
cada uma das sucessões de funções vectoriais {ϕjk (t)}k∈N0 converge uniformemente (quando
k → ∞) em cada intervalo compacto de R. Consequentemente, também {Φk (t)}k∈N0 con-
verge uniformemente (quando k → ∞) em cada intervalo compacto de R. Isto mostra que
Pk j j
a série matricial j=0 A t /j! converge uniformemente em cada intervalo compacto de R.

Ao longo deste capı́tulo suporemos que I ⊂ R é um intervalo onde A e b são funções


contı́nuas. Nestas condições, e de acordo com o teorema 5.1, pode garantir-se a existência e
unicidade de solução de (5.2) em I, para uma condição inicial arbitrariamente prefixada.

6. Sistemas diferenciais lineares homogéneos


Vamos agora estabelecer algumas propriedades algébricas das soluções do sistema linear
homogéneo
(6.1) y′ = A(t)y .
Teorema 6.1. O conjunto S0 (I) de todas as soluções em I do sistema linear homogéneo
(6.1) é um espaço vectorial real de dimensão n.
Prova. Verifica-se facilmente que se ϕ e ψ são soluções de (6.1) e c1 e c2 são números
reais arbitrários, então c1 ϕ(t) + c2 ψ(t) é também solução de (6.1). Daqui se conclui que
S0 (I) é um subespaço vectorial do espaço vectorial constituı́do pelas funções vectoriais de
variável real com derivada contı́nua, designado usualmente por C(I, Rn ). Resta, pois, provar
que
dimS0 (I) = n .
Para isso, vamos definir um isomorfismo entre S0 (I) e Rn . À semelhança do que se fez para
as equações estudadas no capı́tulo anterior, a cada solução ϕ de (6.1) faz-se corresponder o
vector ϕ(t0 ) de Rn , onde t0 é qualquer número real que se fixa no intervalo I. O teorema da
existência e unicidade garante que esta correspondência, que define uma função linear entre
espaços vectoriais, é bijectiva e, por isso, um isomorfismo.
124 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

A qualquer base de S0 (I) chamamos sistema fundamental de soluções em I do sistema


diferencial (6.1).
Lema 6.1 (Teste de independência linear). Sejam ϕ1 , ϕ2 , · · · , ϕk soluções do sis-
tema (6.1) em I. Então estas soluções são linearmente independentes em I se e só se para
algum t0 ∈ I os vectores ϕ1 (t0 ), ϕ2 (t0 ), · · · , ϕk (t0 ) são linearmente independentes em Rn .
Prova. (⇐) Suponhamos que ϕ1 , · · · , ϕk são soluções linearmente dependentes em I.
Então existem constantes c1 , · · · , ck , não todas nulas, tais que
c1 ϕ1 (t) + · · · + ck ϕk (t) = 0 , ∀t ∈ I .
Em particular, qualquer que seja t0 ∈ I, os vectores ϕ1 (t0 ), · · · , ϕk (t0 ) são linearmente
dependentes em Rn .
(⇒) Se, para algum t0 ∈ I, os vectores ϕ1 (t0 ), · · · , ϕk (t0 ) são linearmente dependentes,
então existem constantes c1 , · · · , ck , não todas nulas, tais que
c1 ϕ1 (t0 ) + · · · + ck ϕk (t0 ) = 0 .
Com estas constantes e as soluções dadas, construa-se uma solução do sistema (6.1), definida
por
(6.2) φ(t) = c1 ϕ1 (t) + · · · + ck ϕk (t) .
Como esta solução satisfaz a condição inicial φ(t0 ) = 0, atendendo ao teorema da existência
e unicidade da solução, terá que ser a solução nula. Isto é, c1 ϕ1 (t)+· · ·+ck ϕk (t) = 0 , ∀t ∈ I
e, portanto, ϕ1 , · · · , ϕk são soluções linearmente dependentes em I.

Chama-se matriz fundamental de soluções (ou, simplesmente, matriz fundamental), em I,


do sistema diferencial (6.1) a qualquer função matricial Φ(t) cujas colunas sejam constituı́das
por um sistema fundamental de soluções (em I) de (6.1).
Teorema 6.2. Φ(t) é uma matriz fundamental do sistema (6.1) se e só se
(i) Φ′ (t) = A(t)Φ(t)
(ii) ∃t0 ∈ I : det Φ(t0 ) 6= 0 .
j
Prova. Se ϕ (t) denota a coluna j de Φ(t), a condição Φ′ (t) = A(t)Φ(t) é equivalente às
seguintes n condições
(ϕj )′(t) = A(t)ϕj (t) , j = 1, · · · , n .
Por isso, basta usar a definição de matriz fundamental e o teste de independência linear
para concluir a veracidade do enunciado.

A proposição seguinte estabelece a relação entre quaisquer duas matrizes fundamentais


do mesmo sistema, e é também consequência da definição de matriz fundamental.
Teorema 6.3. Se Φ(t) e Ψ(t) são matrizes fundamentais do sistema (6.1), então existe
uma matriz constante C, invertı́vel, tal que Φ(t) = Ψ(t)C.
Prova. Para cada j = 1, . . . , n, designe ϕj (t) a coluna j de Φ(t) e ψ j (t) a coluna j de
Ψ(t). Por definição de matriz fundamental, qualquer uma destas soluções ϕj (t) do sistema
(6.1) é combinação linear das n soluções ψ 1 (t), . . . , ψ n (t), pelo que existem constantes reais
cij tais que
ϕj (t) = c1j ψ 1 (t) + . . . + cnj ψ n (t) , j = 1, 2, . . . , n .
n
Pondo C := [cij ]i,j=1 , estas n equações podem reescrever-se na forma
Ψ(t) = Φ(t) C .
7. SISTEMAS DIFERENCIAIS LINEARES HOMOGÉNEOS DE COEFICIENTES CONSTANTES 125

A matriz C é invertı́vel, pois para t = 0 vem Ψ(0) = Φ(0) C e as matrizes Φ(0) e Ψ(0) são
invertı́veis (o que é uma consequência do facto de as colunas de cada uma das matrizes Φ(t)
e Ψ(t) constituirem um conjunto de n soluções linearmente independentes de (7.1) e do teste
de independência linear).

Em geral, o problema de determinar uma matriz fundamental e, consequentemente,


todas as soluções de um sistema linear homogéneo, é bastante complicado, a menos que a
matriz dos coeficientes do sistema, seja constante.
Observação 6.1. Tal como aconteceu para equações lineares de ordem n, em certos
casos é mais fácil começar por construir soluções complexas. A obtenção de duas soluções
reais a partir de cada solução complexa é idêntica ao caso escalar já estudado, porque o
enunciado do lema 7.1 do capı́tulo 3 se mantém válido se substituirmos funções escalares
por funções vectoriais.

7. Sistemas diferenciais lineares homogéneos de coeficientes constantes


O objectivo desta secção é a determinação de todas as soluções de sistemas diferenciais
da forma
(7.1) y′ = Ay ,
onde a matriz A, matriz dos coeficientes, é uma matriz constante, real, de ordem n. Note-
se que, neste caso, os resultados anteriormente enunciados neste capı́tulo são válidos em
qualquer intervalo real. Nesta secção usaremos a letra I para denotar a matriz identidade
de ordem n.
Teorema 7.1. exp tA é uma matriz fundamental do sistema (7.1).
Prova. Tendo em conta a propriedade (ii) da exponencial matricial (teorema 2.2) e o
facto de exp tA ser invertı́vel, qualquer que seja t ∈ R, o enunciado deste teorema é uma
consequência imediata do teorema 6.2.
Observação 7.1. Se o cálculo da exponencial de uma matriz qualquer fosse um prob-
lema simples, então estava já resolvido o problema da determinação de todas as soluções
de (7.1). Apesar de não ser assim, o simples facto de exp tA ser uma matriz fundamental
do sistema (7.1), permite derivar um método de construção de um sistema fundamental de
soluções de (7.1).
Corolário 7.1. exp (tA)v é solução do sistema (7.1), qualquer que seja o vector v.
Mais ainda: toda a solução de (7.1) é da forma exp (tA)v para algum vector v.
Prova. É uma consequência imediata do teorema anterior se se notar que sendo v um
vector de Rn então exp (tA)v é uma combinação linear das colunas de exp tA, sendo os
coeficientes desta combinação linear, justamente, as componentes de v.
Observação 7.2. As propriedades da exponencial estabelecidas no teorema 2.2 podem
ser demonstradas de forma alternativa à apresentada, recorrendo ao corolário precedente
e ao teorema 5.1, uma vez que estes resultados garantem que Y (t) := exp(tA) é a única
solução (em R) da equação diferencial com condição inicial
Y ′ = AY , Y (0) = I .
Para ilustrar esta afirmação, vamos provar a propriedade (iv) do teorema 2.2. Pretendemos
demonstrar que se A e B são matrizes que comutam então
(7.2) exp(tA) · exp(tB) = exp t(A + B) , t ∈ R.
126 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

A prova consiste em mostrar que cada um dos membros desta igualdade (7.2) define uma
solução do problema
(7.3) Y ′ = (A + B) Y , Y (0) = I
(logo, como a solução é única, a igualdade (7.2) terá que se verificar). É claro, pelas con-
siderações acima, que exp t(A + B) é solução de (7.3). Para mostrar que exp(tA) · exp(tB)
é também solução, comecemos por observar que, pelo facto de A e B comutarem, então
Ak B = BAk para todo o k = 0, 1, 2 . . ., logo

X ∞
X
Ak Btk Ak tk
exp(tA)B = =B = B exp(tA) ,
k! k!
k=0 k=0

o que permite escrever


d d d
dt {exp(tA) · exp(tB)} = dt {exp(tA)} · exp(tB) + exp(tA) · dt {exp(tB)}

= A exp(tA) · exp(tB) + exp(tA) · B exp(tB)

= A exp(tA) · exp(tB) + B exp(tA) · exp(tB)

= (A + B) exp(tA) · exp(tB) ,
o que mostra que exp(tA) · exp(tB) é solução de (7.3).
Qualquer que seja a matriz A, o vector v (real ou complexo) e o escalar λ (real ou
complexo), é válida a seguinte expressão, que resulta de aplicação directa da definição de
exponencial matricial e do facto de uma matriz escalar comutar com qualquer matriz.

exp (tA)v = exp (tλI) exp (t(A − λI))v


h i
tk
(7.4) = eλt I v + t(A − λI)v + · · · + k! (A − λI)k v + · · ·
h i
tk
= eλt v + t(A − λI)v + · · · + k! (A − λI)k v + · · · .

Observação 7.3. Se v satisfaz (A − λI)m v = 0, para algum inteiro positivo m, a


série anterior termina ao fim dos primeiros m termos. Isto sugere um método para calcular
soluções do sistema (7.1), à custa dos valores próprios da matriz A e dos correspondentes
vectores próprios e vectores próprios generalizados.
Teorema 7.2. Se v é um vector próprio de A, associado ao valor próprio λ, então eλt v
é solução do sistema (7.1).
Prova. Pelo corolário 7.1, exp (tA)v é solução do sistema (7.1), qualquer que seja o
vector v. Mas, se (A − λI)v = 0, resulta de (7.4) que eλt v é solução do sistema (7.1).
Observação 7.4. Se o valor próprio λ for complexo, digamos λ = α + iβ, β 6= 0,
também os correspondentes vectores próprios são complexos e, neste caso, a solução a que
se refere o teorema anterior é uma solução complexa. De acordo com a observação 6.1, a
parte real e o coeficiente da parte imaginária dessa solução complexa são soluções reais do
sistema (7.1).
No teorema seguinte apresentam-se expressões para essas soluções reais.
7. SISTEMAS DIFERENCIAIS LINEARES HOMOGÉNEOS DE COEFICIENTES CONSTANTES 127

Teorema 7.3. Se λ = α + iβ, β 6= 0, é valor próprio de A e v = v1 + iv2 é um vector


próprio de A associado a λ, onde v1 e v2 são vectores reais, então as funções
¡ ¢ ¡ ¢
eαt v1 cos βt − v2 sin βt e eαt v1 sin βt + v2 cos βt
são soluções reais e linearmente independentes do sistema (7.1).
Prova. Basta usar a definição de exponencial de um número complexo (fórmula de
Euler) para escrever a solução complexa e(α+iβ)t (v1 + iv2 ) na forma r(t) + ic(t), onde r
e c são funções vectoriais com valores em Rn . Estas duas funções reais são exactamente
as funções do enunciado. Para provar a independência linear destas funções basta observar
que os vectores v e v são linearmente independentes em Cn , uma vez que estão associados
a valores próprios distintos.

Se λ = α + iβ, β 6= 0, é valor próprio de A e v um vector próprio associado, também


λ = α − iβ, β 6= 0 é valor próprio de A associado a v. Contudo, as soluções reais que se
obtêm aplicando o teorema anterior a λ são multiplos das soluções associadas a λ. Portanto,
se houver valores próprios complexos basta trabalhar com um valor próprio de cada par
conjugado e respectivo vector próprio.
Teorema 7.4. Se v é um vector próprio generalizado de A, associado ao valor próprio
λ, e se (A − λI)m v = 0 mas (A − λI)m−1 v 6= 0, então
· ¸
tm−1
(7.5) eλt v + t(A − λI)v + · · · + (A − λI)m−1 v
(m − 1)!
é solução do sistema (7.1).
Prova. Pelo corolário 7.1, exp (tA)v é solução do sistema (7.1), qualquer que seja o
vector v. Mas, se (A − λI)m v = 0 e (A − λI)m−1 v 6= 0, a solução dada pela fórmula (7.4)
reduz-se a (7.5).

As considerações feitas na observação 7.4 mantêm-se válidas quando a solução dada


por (7.5) é complexa. Isto acontece sempre que o valor próprio não é real. Neste caso, o
cálculo das soluções é, naturalmente, mais longo, por ser mais elaborada a forma das soluções
construı́das à custa de vectores próprios generalizados.
Observação 7.5. Dado que o nosso objectivo é construir sistemas fundamentais de
soluções para o sistema (7.1), importa referir ser sempre possı́vel construir n soluções lin-
earmente independentes de (7.1), à custa de valores próprios, vectores próprios e vectores
próprios generalizados da matriz dos coeficientes do sistema. Esta garantia decorre do lema
1.1 e do teste de independência linear.
O teorema seguinte completa os resultados dos teoremas 7.2 e 7.4.
Teorema 7.5. Sendo λ um escalar real e v um vector de Rn , então uma função da
forma (7.5) é solução do sistema (7.1) apenas quando (A − λI)m v = 0 . Em particular, se
eλt v é solução de (7.1), então v ou é o vector nulo ou é um vector próprio de A associado
ao valor próprio λ.
Prova. Temos que mostrar que se
· ¸
λt tm−1
ϕm (t; λ, A, v) := e v + t(A − λI)v + · · · + (A − λI)m−1 v
(m − 1)!
128 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

é solução de (7.1) então (A − λI)m v = 0 . Comecemos por observar que, de acordo com
(7.4), é válida a igualdade
(7.6) exp(tA) v = ϕm (t; λ, A, v) + eλt (A − λI)m ψm (t; λ, A, v) , t∈R
onde
tm tm+1 tm+2
ψm (t; λ, A, v) := v+ (A − λI)v + (A − λI)2 v + · · · .
m! (m + 1)! (m + 2)!
Como, por hipótese, ϕm (t; λ, A, v) é solução de (7.1), então pelo corolário 7.1 é da forma
ϕm (t; λ, A, v) = exp(tA) u , para algum vector constante u. Assim, como ψm (0; λ, A, v) = 0,
fazendo t = 0 em (7.6) deduz-se v = u, e (7.6) reduz-se a
(A − λI)m ψm (t; λ, A, v) = 0 , t ∈ R.
Derivando ambos os membros desta igualdade m vezes, e notando que
¯
dm ¯
m
{ψm (t; λ, A, v)}¯¯ = v,
dt t=0
obtém-se (A − λI)m v = 0 .

Apresenta-se em seguida um algoritmo para construir um sistema fundamental de soluções


para o sistema (7.1). No caso de haver valores próprios complexos o algoritmo constrói
soluções complexas, sendo necessário construir depois as correspondentes soluções reais, de
acordo com as observações anteriores.
Passo 1. Determinar os valores próprios e os vectores próprios de A. Se A
tem n vectores próprios linearmente independentes, então o sistema tem n
soluções linearmente independentes da forma eλt v (com λ valor próprio e
v vector próprio associado).
Passo 2. Se A tem apenas k < n vectores próprios linearmente inde-
pendentes, então o sistema tem apenas k soluções linearmente indepen-
dentes da forma eλt v. Para encontrar soluções adicionais, proceda-se da
seguinte forma. Para cada um dos valores próprios de A cuja multiplicidade
geométrica é inferior à multiplicidade algébrica, determinar os vectores v
linearmente independentes para os quais (A−λI)2 v = 0 mas (A−λI)v 6= 0.
Para cada um destes vectores,
eλt [v + t(A − λI)v]
é uma solução adicional do sistema (7.1).
Passo 3. Se o número de soluções encontradas nos passos anteriores ainda
não for suficiente (isto só acontece se o número de soluções construı́das,
associadas a um determinado valor próprio, for inferior à sua multiplicidade
algébrica), para cada um dos valores próprios λ nas condições acabadas de
referir, determinar os vectores v linearmente independentes para os quais
(A − λI)3 v = 0 mas (A − λI)2 v 6= 0. Para cada um destes vectores v,
· ¸
t2
eλt v + t(A − λI)v + (A − λI)2 v
2!
é uma solução adicional do sistema (7.1).
Passo 4. Continua-se o procedimento descrito nos passos anteriores até se
obter n soluções linearmente independentes do sistema (7.1).
7. SISTEMAS DIFERENCIAIS LINEARES HOMOGÉNEOS DE COEFICIENTES CONSTANTES 129

De acordo com o lema 1.1, o número de passos deste algoritmo é finito, sendo quando
muito igual a n.
Exemplo. Considere-se o sistema diferencial
 
0 1 2
(7.7) y′ (t) =  0 0 2  y(t) .
4 −6 6
Designando por A a matriz deste sistema, verifica-se que A tem apenas um valor próprio,
λ = 2, tendo-se, portanto, ma (2) = 3. Além disso, verifica-se também que todos os vectores
próprios são da forma α[ 1 , 2 , 2 ]T , com α ∈ R\{0}, logo o subespaço próprio associado
a este valor próprio 2 é gerado apenas por um vector, donde mg (2) = 1. Decorre que,
com os vectores próprios apenas podemos construir uma solução para integrar um sistema
fundamental de soluções do sistema diferencial (7.7), por exemplo,
 
1
y1 (t) := e2t  2  .
2
Como A tem apenas um vector próprio linearmente independente, passamos à determinação
dos vectores v = [ v1 , v2 , v3 ]T tais que
(A − 2I)2 v = 0 , (A − 2I)v 6= 0 .
Tem-se
    
4 −4 2 v1 0
(A − 2I)2 v = 0 ⇔  8 −8 4   v2  =  0  ⇔ v3 = 2(v2 − v1 ) ,
8 −8 4 v3 0
logo    
1 0
(A − 2I)2 v = 0 ⇔ v = α  1  + β  1  , α, β ∈ R .
0 2
Agora, qualquer dos vectores [ 1 , 1 , 0 ]T e [ 0 , 1 , 2 ]T satisfaz (A − 2I)v 6= 0 . Porém,
os vectores [ 1 , 2 , 2 ]T , [ 1 , 1 , 0 ]T e [ 0 , 1 , 2 ]T não são linearmente independentes, logo
y1 (t) ≡ exp(tA) [ 1 , 2 , 2 ]T , exp(tA) [ 1 , 1 , 0 ]T e exp(tA) [ 0 , 1 , 2 ]T são três soluções do
sistema (7.7), mas não são linearmente independentes (de acordo com o teste de inde-
pendência linear). Consequentemente, para já apenas obtivemos (por exemplo)
       
1 1 1 1−t
y2 (t) := exp(tA)  1  = e2t   1  + t(A − 2I)  1   = e2t  1 − 2t 
0 0 0 −2t
como solução adicional, linearmente independente com y1 (t). Para determinar uma terceira
solução linearmente independente com y1 (t) e y2 (t), determinemos os vectores v tais que
(A − 2I)3 v = 0 , (A − 2I)2 v 6= 0 .
Ora, efectuando os cálculos, obtém-se (A − 2I)3 = 0 , logo (A − 2I)3 v = 0 para todo o
vector v. Em particular, o vector v := [ 1 , 0 , 0 ]T satisfaz (A − 2I)2 v 6= 0 e, além disso, é
linearmente independente com [ 1 , 2 , 2 ]T e [ 1 , 1 , 0 ]T , logo
       
1 1 2 1 1 − 2t + 2t2
t
y3 (t) := e2t   0  + t(A − 2I)  0  + (A − 2I)2  0   = e2t  4t2 
2!
0 0 0 4t + 4t2
130 6. SISTEMAS DE EQUAÇÕES DIFERENCIAIS

é uma terceira solução do sistema, linearmente independente com y1 (t) e y2 (t). Conclui-se
que a solução geral do sistema diferencial (7.7) é
 
c1 + c2 + c3 − (c2 + 2c3 )t + 2c3 t2
y(t) = c1 y1 (t) + c2 y2 (t) + c3 y3 (t) = e2t  2c1 + c2 − 2c2 t + 4c3 t2 ,
2
2c1 + (4c3 − 2c2 )t + 4c3 t
onde c1 , c2 e c3 são constantes reais arbitrárias.

Conforme já foi referido atrás, a necessidade de se recorrer ao algoritmo anterior para
a determinação de um sistema fundamental de soluções de (7.1) deve-se à dificuldade em
calcular a exponencial matricial. Acontece que, depois de se construir uma matriz funda-
mental para o sistema (7.1), usando o algoritmo, é possı́vel determinar exp At. Isto decorre
da relação existente entre matrizes fundamentais, referida no teorema 6.3. Na verdade,
tem-se o seguinte resultado.
Teorema 7.6. Se Φ(t) é uma matriz fundamental para o sistema (7.1), então
exp At = Φ(t)Φ−1 (0) .
Prova. Como exp(tA) e (por hipótese) Φ(t) são matrizes fundamentais de soluções para
o sistema (7.1), decorre do teorema 6.3 que existe uma matriz constante invertı́vel, C, tal
que Φ(t) = exp(tA) C . Para t = 0 vem C = Φ(0), logo Φ(t) = exp(tA) Φ(0) . O resultado
pretendido decorre então do facto de Φ(0) ser uma matriz invertı́vel.

Considerando, por exemplo,


 
0 1 2
A= 0 0 2 ,
4 −6 6
que é a matriz do sistema diferencial (7.7), vimos que um sistema fundamental de soluções
é constituı́do pelos vectores y1 (t), y2 (t) e y3 (t) determinados na resolução desse sistema
diferencial, pelo que uma matriz fundamental para este sistema é
 
1 1 − t 1 − 2t + 2t2
2t  2 .
Φ(t) = e 2 1 − 2t 4t
2 −2t 4t + 4t2
Por conseguinte, tem-se
   
1 1 1 0 0 1/2
Φ(0) =  2 1 0 , donde Φ−1 (0) =  0 1 −1  ,
2 0 0 1 −1 1/2
logo  
1 − 2t + 2t2 t − 2t2 t2
−1
exp At = Φ(t)Φ (0) =  4t2 1 − 2t − 4t2 2t + 2t2  .
4t + 4t2 −6t − 4t2 1 + 4t + 2t2

8. Sistemas diferenciais lineares não homogéneos


À semelhança do que acontece no caso escalar, também no caso vectorial existe uma
relação entre as soluções de um sistema diferencial não homogéneo e as soluções do sistema
homogéneo associado. Considere-se o sistema diferencial de primeira ordem
(8.1) y′ = A(t)y + b(t) ,
8. SISTEMAS DIFERENCIAIS LINEARES NÃO HOMOGÉNEOS 131

onde as funções vectoriais A e b são contı́nuas num certo intervalo I ⊂ R. Esta condição
garante a existência e unicidade de solução de qualquer problema de Cauchy em I. O
teorema seguinte, cuja demonstração se omite por ser semelhante ao caso escalar, estabelece
a relação entre as soluções de (8.1) e as soluções do sistema homogéneo associado
(8.2) y′ = A(t)y .
Teorema 8.1. O conjunto S(I) de todas as soluções em I do sistema linear não ho-
mogéneo (8.1) é um espaço afim, associado ao espaço vectorial real S0 (I) das soluções do
sistema homogéneo associado (8.2).
Sendo assim, no caso em que a matriz dos coeficientes é constante, se for conhecida
uma solução particular de (8.1), estamos em condições de determinar todas as soluções de
(8.1). Atendendo a que se Φ(t) é uma matriz fundamental de (8.2), a sua solução geral é da
forma Φ(t)c, onde c é um vector arbitrário de Rn . Uma simples generalização do método
da variação das constantes arbitrárias, introduzido no capı́tulo anterior, permite obter como
solução particular do sistema não homogéneo (8.1) a função
Z t
t ∈ I 7→ Φ(t) Φ−1 (s)b(s)ds ,
t0
onde t0 é um ponto qualquer do intervalo I. Esta última afirmação também pode ser
comprovada directamente, usando a definição de solução e o facto da matriz fundamental
de (8.2) satisfazer Φ′ (t) = AΦ(t). Então podemos enunciar o resultado seguinte.
Teorema 8.2. Se Φ(t) é uma matriz fundamental para o sistema (8.2), então
Z t
(8.3) y(t) = Φ(t)c + Φ(t) Φ−1 (s)b(s) ds ,
t0
onde t0 é qualquer em I e c é um vector de Rn arbitrário, é a solução geral do sistema não
homogéneo (8.1).
Corolário 8.1. Se Φ(t) é uma matriz fundamental para o sistema homogéneo (8.2),
então a solução do sistema não homogéneo (8.1), que satisfaz a condição inicial y(t0 ) = y0 ,
é dada por
Z t
−1
(8.4) y(t) = Φ(t)Φ (t0 )y0 + Φ(t) Φ−1 (s)b(s), ds .
t0

No caso particular em que o sistema tem coeficientes constantes, o resultado anterior


pode ser reescrito em termos da exponencial matricial.
Corolário 8.2. A solução particular do sistema não homogéneo y′ = Ay + b(t), que
satisfaz a condição inicial y(t0 ) = y0 , é dada por
Z t
(8.5) y(t) = exp {A(t − t0 )} y0 + exp (At) exp (−As)b(s) ds .
t0
Bibliografia

1. M. L. Abell, J. P. Braselton: Differential Equations with Mathematica, Academic Press, 1993.


2. R. P. Agarwall, R. C. Gupta: Essentials of Ordinary Differential Equations, McGraw-Hill, 1993.
3. F. R. D. Agudo: Equações Diferenciais: Um primeiro curso com Aplicações, Escolar Editora, 1992.
4. V. V. Amel’Kin: Differential Equations in Applications, Mir, Moscow, 1990.
5. A. Bivar Weinholtz: Equações Diferenciais—uma introdução, Textos de Matemática, Dep. Mat.,
Fac. Ciências, Univ. Lisboa, 2000 (2a ed.).
6. M. Braun: Differential Equations and Their Applications, Springer-Verlag, New York, 1993 (4a ed.).
7. M. Braun, C. S. Coleman, D. A. Drew: Differential Equation Models, Springer-Verlag, New York,
1983.
8. D. Burghes, M. Borrie: Modelling with Differential Equations, John Wiley & Sons, 1981.
9. E. A. Coddington, A. Levinson: Theory of Ordinary Differential Equations, McGraw-Hill, N.Y.,
1955.
10. F. Pestana da Costa: Equações Diferenciais Ordinárias, IST Press, 1998.
11. F. Marcellán, L. Casasús, A. Zarzo: Equaciones Diferenciales: Problemas Lineales y Aplicaciones,
McGraw-Hill, 1990.
12. M. S. Klamkin: Mathematical Modelling: Classroom Notes in Applied Mathematics, SIAM, Philadel-
phia, 1987.
13. R. K. Nagle, E. B. Saff: Fundamentals of Differential Equations, Addison Wesley, 1996 (4a ed.).
14. A. F. Nikiforov, V. B. Uvarov: Special Functions of Mathematical Physics, Birkhäuser, 1988.
15. M. Ramos: Curso Elementar de Equações Diferenciais, Textos de Matemática, Dep. Mat., Fac.
Ciências, Univ. Lisboa, 2000.
16. D. A. Sánchez: Ordinary Differential Equations and Stability Theory: An Introduction, Dover, 1968.
17. J. Sotomayor: Lições de Equações Diferenciais Ordinárias, Projecto Euclides, IMPA, 1979.
18. D. G. Zill: Equações Diferenciais com Aplicações em Modelagem, Thomson, 2003.

133