Você está na página 1de 121

Fundação de Amparo à Pesquisa

do Estado de São Paulo

Relatório Final
no do processo: 2010/07425-9

Os modelos de Kaldor e de Goodwin: Modelagem


matemática e interpretação econômica

Ribeirão Preto
Janeiro/2011
Fundação de Amparo à Pesquisa
do Estado de São Paulo

Relatório Final
no do processo: 2010/07425-9

Os modelos de Kaldor e de Goodwin: Modelagem


matemática e interpretação econômica

Orientando: Alex Pereira da Silva

Prof.a Orientadora: Katia Andreia Gonçalves de Azevedo

Ribeirão Preto
Janeiro/2011
Sumário

Introdução 5

1 Teorema de Existência e Unicidade 7


1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Teorema de Existência . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Teorema de Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Teoria Geral de Sistemas Lineares 13


2.1 Sistemas Lineares Homogêneos com coeficientes Constantes . . . . . . 14
2.2 Autovalores e Autovetores . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Autovalores Generalizados . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4 Classificação de Sistemas Planares . . . . . . . . . . . . . . . . . . . . 31
2.5 Exponencial de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Forma Canônica de Jordan Real . . . . . . . . . . . . . . . . . . . . . 45
2.7 Equações Lineares Homogêneas Não Autônomas . . . . . . . . . . . . 51
2.8 Sistemas Lineares Não Homogêneos . . . . . . . . . . . . . . . . . . . 53
2.9 Modelo IS-LM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3 Equações Diferenciais Não Lineares 68


3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.2 Sistemas Quase-Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.3 Estabilidade Segundo Lyapunov . . . . . . . . . . . . . . . . . . . . . 71
3.4 Competição entre Duas Espécies . . . . . . . . . . . . . . . . . . . . . 92
3.5 Modelo de Lotka-Volterra . . . . . . . . . . . . . . . . . . . . . . . . 98

4 O Teorema de Poincaré-Bendixson 106


4.1 Conjuntos α-limite e ω-limite de uma órbita . . . . . . . . . . . . . . 106
4.2 Considerações Geométricas . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3 O Teorema de Poincaré-Bendixson . . . . . . . . . . . . . . . . . . . 112

3
5 Modelo de Goodwin 114
5.1 Desenvolvimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2 Ciclo econômico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.3 Interpretação Econômica . . . . . . . . . . . . . . . . . . . . . . . . . 120

Referências Bibliográficas 121

4
Introdução

Este projeto consiste de um estudo introdutório sobre a abordagem qualitativa


na análise do comportamento das soluções de sistemas de equações diferenciais or-
dinárias visando à interpretação de dois modelos especı́ficos em Macroeconomia,
o modelo de Kaldor e o modelo de ciclos de crescimento de Goodwin. O estudo
qualitativo das soluções de uma equação diferencial descreve o comportamento das
soluções sem necessariamente ter uma expressão para estas e, então, questões como
retratos de fase, estabilidade e estabilidade assintótica, soluções periódicas, ciclos
limites podem ser formuladas. Este tema propicia um estudo mais detalhado sobre
equações diferenciais, fornecendo ferramentas para analisar problemas em Economia
e também em outras ciências, modelados por tais equações.
De acordo com o cronograma proposto, iniciamos o estudo com a teoria de ex-
istência e unicidade de soluções para equações diferenciais ordinárias. O teorema
aqui apresentado segue a demonstração de [4] e [8], entretanto, também estudamos
a demonstração por meio das iterações de Picard, utilizando [3], para uma mel-
hor compreensão das escolhas dos parâmetros envolvidos. Em seguida, iniciamos o
estudo de sistemas de equações diferenciais ordinárias lineares que englobou: Sis-
temas Lineares Homogêneos com Coeficientes Constantes; Diagonalização; Forma
Canônica de Jordan; Diagramas de Fase; Exponencial de matrizes reais; Sistemas
Lineares Homogêneos não Autônomos; Matrizes Fundamentais e Sistemas Lineares
não Homogêneos. Os retratos de fase foram gerados pelo software Mathematica 6.0
sob orientações seguidas por [9]. A tı́tulo de aplicação do estudo realizado, propuse-
mos uma análise de um sistema planar de equações diferenciais lineares, o Modelo
IS-LM - modelo de determinação da renda no curto prazo proposto pelo economista
Keynes como uma crı́tica ao não intervencionismo governamental vigente no inı́cio
do século passado. Essa análise feita sobre o modelo IS-LM permitiu desenvolver-
mos a capacidade de explicar os resultados de um modelo macroeconômico de uma
maneira intuitiva e clara, considerando toda a análise matemática envolvida.
Propomos agora seguir o estudo com a teoria de sistemas lineares não autônomos
(sistemas quase-lineares), estabilidade de soluções e funcionais de Liapunov, soluções
periódicas, ciclos limites e o teorema de Poincaré-Bendixson visando à análise dos
modelos de Kaldor e de ciclos de crescimento de Goodwin, descrevendo de forma

5
detalhada as interpretações econômicas. Para isto, faremos uma análise do trabalho
de [5] sobre o modelo de Kaldor, utilizando também as observações contidas em [7].

6
Capı́tulo 1

Teorema de Existência e Unicidade

1.1 Preliminares
Um espaço vetorial X é um espaço vetorial normado se para x ∈ X, há um
correspondente número real |x| chamado norma de x e que satistaz:

i. |x| > 0 para x 6= 0 e |x| = 0 para x = 0


ii. |x + y| ≤ |x| + |y|, ∀x, y ∈ X
iii. |ax| = |a| |x|, a ∈ R e x ∈ X

Uma sequência (xn ) em X é uma sequência de Cauchy se, e somente se, para todo
ε > 0, existir um N(ε) natural tal que |xm − xn | < ε para quaisquer m, n > N(ε).
O espaço X é completo se toda sequência de Cauchy em X converge para um
elemento de X.
Um espaço de Banach é um espaço vetorial normado completo.
n
Um conjunto S ⊂ C([a, b] , R , · ), conjunto das funções f contı́nuas de [a, b]
n
com valores em R com f = sup {|f (x)|, a ≤ x ≤ b} é dito:
- uniformemente limitado se existe M > 0 tal que f < M, ∀f ∈ S.
- equicontı́nuo no ponto x0 ∈ [a, b] se, para todo ε > 0, ∃δ = δ(ε) > 0 tal que
|x0 − x1 | < δ implica que |f (x0 ) − f (x1 )| < ε, ∀f ∈ S e x1 ∈ [a, b]. S é equicontı́nuo
se for equicontı́nuo em todo ponto x de [a, b]
Definimos a distância d entre dois pontos x e y como sendo d(x, y) = |x−y|. Seja
T uma aplicação tal que T : (X, d) −→ (Y, d′ ), sendo (X, d) e (Y, d′ ) dois espaços de

Banach com distâncias

 d e d , respectivamente. T é uma contração se ∃ γ ∈ 0, 1
tal que d T (x), T (y) < γd(x, y) para quaisquer x, y ∈ X.
Um conjunto X é compacto se toda sequência em X tem um subsequência que
converge para um ponto de X.

7
Teorema 1.1.1. Teorema do Ponto Fixo de Schauder
Sejam X um espaço de Banach e S ⊂ X um conjunto fechado, limitado e convexo.
Se T : S −→ S é um operador contı́nuo tal que T (S) tem fecho compacto, então T
tem um ponto fixo, isto é, ∃ x ∈ S tal que T x = x

Teorema 1.1.2. Teorema de Arzelá-Ascoli


Um subconjutno S ⊂ C([a, b] , Rn ) tem fecho compacto se, e somente se,
i. S uniformemente limitado
ii. S é equicontı́nuo

Teorema 1.1.3. Teorema do Ponto Fixo de Banach


Sejam (X, d) um espaço de Banach e F um subconjunto fechado de X. Se T : F −→
F é uma contração, então T tem um único ponto fixo em F .

1.2 Teorema de Existência


Uma equação diferencial ordinária de 1a ordem é uma equação que relaciona uma
dx
função x = x(t) desconhecida e sua derivada x′ (t) = . Um sistema de n equações
a
dt
diferenciais de 1 ordem é um sistema que relaciona n funções x1 (t), x2 (t), . . . , xn (t)
desconhecidas e suas derivadas x′1 (t), x′2 (t), . . . , x′n (t) como abaixo:
 


 x1 (t) = f1 x 1 (t), x 2 (t), . . . , xn (t)
 x′ (t) = f2 x1 (t), x2 (t), . . . , xn (t)

2
..

 .
 x′ (t) = f x (t), x (t), . . . , x (t)

n n 1 2 n

Tal sistema pode ser representado vetorialmente sob a forma

x′ = f (t, x) (1.1)

sendo x = x(t) um caminho contı́nuo de I ⊂ R em Rn , x′ (t) = x′1 (t), x′2 (t), . . . , x′n (t)
e f : A ⊂ Rn+1 −→ Rn com (t, x) 7→ f (t, x). Quando f (t, x) = f (x), o sistema (2.1)
é dito autônomo, pois não depende da variável temporal t. 
Entende-se por solução de (2.1), uma função x = x(t) = x1 (t), x2 (t), . . . , xn (t)
diferenciável num certo intervalo I real tal que a função xi (t) satisfaz a i-ésima
equação de (2.1) em I, para todo i = 1, 2, . . . , n.

Teorema 1.2.1. Se f (t, x) é contı́nua em A ⊂ Rn+1 , então para todo ponto (t0 , x0 )
em A, existe ao menos uma solução da equação x′ = f (t, x) passando por x0 .

8
Demonstração: Seja I um intervalo fechado contendo t0 . Então x = x(t) é
solução do seguinte sistema de equações diferenciais
Z x′ = f (t, x), ∀t ∈ I e x(t0 ) = x0
t
se, e somente se, x for contı́nua e x(t) = x0 + f (s, x(s)) ds.
t0

De fato, como x é diferenciável, x é contı́nua e f é uma função contı́nua em t.


Integrando x′ = f (t, x) de t0 a t e usando o fato de x(t0 ) = x0 :
Z t
x(t) = x0 + f (s, x(s)) ds
t0
Z t
Agora, como x é contı́nua e x(t) = x0 + f (s, x(s)) ds, segue pelo Teorema
t0
Fundamental do Cálculo que x(t) é diferenciável em I e x′ = f (t, x), ∀t ∈ I com
x(t0 ) = x0 .

Seja B = {(t, x) ∈ A : |t − t0 | ≤ a, |x − x0 | ≤ b} ⊂ A. Em B, existe M > 0 tal


que M = sup{|f (t, x)| : (t, x) ∈ B}.
Sejam h = min{a, b/M}, J = [t0 − h, t0 + h], C(J, Rn ) um espaço de Banach e
um subconjunto D = {x ∈ C(J, Rn ) : |x(t) − x0 | ≤ b, ∀t ∈ J, x(t0 ) = x0 }.
Mostremos que D é limitado, fechado e convexo.

- D é fechado:

Seja (xn ) uma sequência de elementos em D. Suponha lim xn = x com x ∈


n→∞
C(J, Rn ). Então, como xn ∈ D, temos:

x(t0 ) = lim xn (t0 ) = lim x0 = x0


n→∞ n→∞

E mais,

|x(t) − x0 | = | lim xn (t) − x0 | = | lim xn (t) − x0 |
n→∞ n→∞
= lim |xn (t) − x0 | ≤ lim b = b
n→∞ n→∞

Com isso, x ∈ D e assim, D é fechado.

- D é convexo:

Sejam x, y ∈ D e considere z(t) = αx(t) + (1 − α)y(t), com 0 ≤ α ≤ 1 e t ∈ J.

i. z(t) é contı́nua pois é combinação linear de funções contı́nuas.


ii. z(t0 ) = αx(t0 ) + (1 − α)y(t0 ) = αx0 + (1 − α)x0 = x0 .

9
iii.

|z(t) − x0 | = |αx(t) + (1 − α)y(t) − αx0 − (1 − α)x0 |


≤ α|x(t) − x0 | + (1 − α)|y(t) − x0 |
≤ αb + (1 − α)b = b, ∀t ∈ J.

De i, ii. e iii., segue que z ∈ D. Portanto, D é convexo.

- D é limitado:

De fato, x ∈ D, então |x(t)| ≤ |x(t) − x 0 | + |x0 | ≤ b + |x0 |, ∀t ∈ J.


se
Logo, x = sup{|x(t)| : t ∈ J} ≤ b + x0 , ∀x ∈ D.
Z t
n
Agora, tome T : D −→ C(J, R ) definida por (T x)(t) = x0 + f (s, x(s)) ds.
t0
Note que:
ε
i. T x ∈ C(J, Rn ), pois ∀ε > 0, ∃δ = tal que
M
Z t
|(T x)(t) − (T x)(w)| ≤ | |f (s, x(s))| ds| ≤ M|t − w| < Mδ = ε, sempre que |t − w| < δ;
w

ii. (T x)(t0 ) = x0 ;
iii.
Z t Z t
|(T x)(t) − x0 | = | f (s, x(s)) ds| ≤ | |f (s, x(s))| ds|
t0 t0
≤ M|t − t0 | ≤ Mh ≤ b, t ∈ J;

De i, ii e iii, T está bem definida e T x está em D. Assim, T (D) ⊂ D.


Portanto, T : D −→ D e x é solução para o sistema de equações diferenciais se,
e somente se, T x = x.

Afirmamos que T é um operador contı́nuo.

De fato, seja (xn ) uma sequência de elementos de D, lim xn = x. Mais que isso,
n→∞
xn → x uniformemente.
Uma vez contı́nua no compacto B, f é uniformemente contı́nua e, por isso,
f (s, xn (t)) → f (s, x(t)) uniformemente. Portanto, T xn → T x lembrando que
T xn − T x = sup{|T xn (t) − T x(t)|, t ∈ J}.
Mostremos que T (D) tem fecho compacto.

10
i. T (D) é uniformemente limitado, pois T (D) ⊂ D, e D é uniformemente limi-
tado, como visto acima.
ε
ii. T (D) é equicontı́nuo, pois dado ε > 0, ∃δ = tal que
M
Z t2
|(T x)(t2 ) − (T x)(t1 )| ≤ | |f (s, x(s))| ds| ≤ M|t2 − t1 | < Mδ = ε, sempre que |t2 − t1 | < δ.
t1

Pelo Teorema de Arzelá-Ascoli, T (D) tem fecho compacto.

Satisfeitas as hipótese do Teorema do Ponto Fixo de Schauder, T tem ao menos


um ponto fixo. Consequentemente, o sistema

x′ = f (t, x)
x(t0 ) = x0
tem ao menos uma solução em D.

1.3 Teorema de Unicidade


∂f
Teorema 1.3.1. Se, além de contı́nua em A, f (t, x) for tal que é contı́nua para
∂xj
todo j = 1, . . . , n, então para qualquer (t0 , x0 ) ∈ A, existe uma única solução x(t)
passando por (t0 , x0 ).
∂f ∂f
≤ K, pelo Teorema do
Demonstração: Como é contı́nua em B:
∂xj ∂xj
Valor Médio, f é Lipschitziana:

|f (t, y) − f (t, x)| ≤ K|y − x|, ∀(t, y), (t, x) em B ⊂ A

Sejam γ < 1 e h̄ < h tal que 0 < h̄K < γ e J¯ = [t0 − h̄, t0 + h̄] . Defi-
nimos Q = {y ∈ C(J, ¯ Rn ) : |x(t) − x0 | ≤ b, x(t0 ) = x0 }. Q é um subcon-
junto fechado do espaço de Banach C(J, ¯ Rn ). Afirmação: T : Q −→ Q dada
Z t
por (T x)(t) = x0 + f (s, x(s)) ds é uma contração.
t0

De fato,
Z t
|(T y)(t) − (T x)(t)| ≤ | |f (s, y(s)) − f (s, x(s))| ds|
t0
≤ |t − t0 |K|y(s) − x(s)|.

11

Logo, T y − T x ≤ γ y − x , 0 < γ < 1.

Pelo Teorema do Ponto Fixo de Banach, T tem um único ponto fixo em Q.

12
Capı́tulo 2

Teoria Geral de Sistemas Lineares

Considere um sistema de equações diferenciais ordinárias da forma

x′ = F (t, x) (2.1)
T
sendo x = x(t) um caminho contı́nuo de I ⊂ R em Rn , x′ (t) = x′1 (t), x′2 (t), . . . , x′n (t)
e (t, x) 7→ F (t, x) em Rn uma função dita não autônoma, pois depende explicita-
mente da variável temporal t.
O sistema (2.1) é dito linear quando é da forma

x′ = F (t, x) = A(t)x + b(t) (2.2)

com b(t) um caminho contı́nuo de I em Rn e A : I → M(n) um caminho contı́nuo


de I em M(n), o espaço das matrizes reais quadradas de ordem n. E mais, se a
função b(t) em (2.2) é tal que b(t) ≡ 0, então o sistema linear é dito homogêneo,
caso contrário, não homogêneo. Quando o caminho A(t) é uma matriz constante e
o sistema é homogêneo, então F é uma transformação linear de Rn em Rn . Neste
último caso, o sistema (2.1) é um sistema de equações diferenciais ordinárias lineares
homogêneas de 1a ordem com coeficientes constantes e toma a forma:

x′ = Ax (2.3)

em que A ∈ M(n).

13
2.1 Sistemas Lineares Homogêneos com coeficientes
Constantes
Num primeiro momento, estudemos o sistema (2.3).
Diz-se que x : I → Rn é uma solução de (2.3) se x é diferenciável em I e
x′ (t) = Ax(t), ∀t ∈ I. E mais, xi (t) as funções coordenadas de x(t) são soluções do
sistema abaixo:


 x′1 (t) = a1,1 x1 (t) + a1,2 x2 (t) + . . . + a1,n xn (t)

 x′ (t) = a2,1 x1 (t) + a2,2 x2 (t) + . . . + a2,n xn (t)
2
.. .. .. .. ..

 . . . . .

 x′ (t) = a x (t) + a x (t) + . . . + a x (t)
n n,1 1 n,2 2 n,n n

Satisfeitas as hipóteses do Teorema (1.3.1), então o sistema (2.3) com condição


inicial x(t0 ) = x0 tem uma única solução e pode ser provado que está solução está
definida em todo intervalo I.
Note que se y(t) e z(t) são soluções de (2.3), então qualquer combinação linear
de y(t) e z(t), digamos αy(t) + βz(t), também é solução de (2.3):
 ′ 
y = Ay αy ′ = αAy ′ 
′ ⇔ ′ ⇒ αy ′(t)+βz ′ (t) = αy(t)+βz(t) = A αy(t)+βz(t)
z = Az βz = βAz

Exemplo 2.1.1.
 
5 0 0
Tome x′ = Ax e A =  0 −1 0 , então o sistema toma a forma
0 0 1
 ′
 x1 (t) = 5x1 (t) T
x′2 (t) = −x2 (t) ⇒ x(t) = k1 exp(5t − 5t0 ), k2 exp(−t + t0 ), k3 exp(t − t0 )
 ′
x3 (t) = x3 (t)

é a solução para o sistema acima obtida resolvendo individualmente as equações


diferenciais independentes acima pelo método do fator integrante. E mais, é a única
que satisfaz a condição inicial x(t0 ) = (k1 , k2 , k3)T .
 
exp(5t − 5t0 ) 0 0
x(t) =  0 exp(−t + t0 ) 0  x(t0 )
0 0 exp(t − t0 )

14
Definição 2.1.1.
Uma matriz D = (di,j )n×n é diagonal se di,j = 0 sempre que i 6= j, para quaisquer
i, j = 1, 2, . . . , n.
No exemplo acima, A é diagonal.
Notação:
 
λ1 0 0 . . . 0
 0 λ2 0 . . . 0 
  0 0 λ3 . . . 0 

D = diag λ1 , λ2 , λ3 , . . . , λn =  
 .. .. .. . . .. 
 . . . . . 
0 0 0 . . . λn
O exemplo 2.1.1 carrega uma ideia que se mantém para sistemas n × n:

x′ = Ax, com A = diag(λ1 , λ2 , . . . , λn )
T (2.4)
x(t0 ) = k1 , k2 , . . . , kn

Então x(t) = diag exp(λ1 (t − t0 )), exp(λ2 (t − t0 )), . . . , exp(λn (t − t0 )) x(t0 ) é a
única solução do sistema acima.

Quando em x′ = Ax, A não é diagonal, encontrar a solução torna-se um trabalho


muito mais dispendioso. Porém, graças à Teoria de Álgebra Linear, esse problema
pode ser contornado.
Dada a invariância do sistema (2.3) por translações temporais, consideremos
x(0) = x0 a condição inicial, na intenção de simplificar a notação.
Uma matriz A ∈ M(n) é invertı́vel se, e somente se, det(A) 6= 0, caso contrário
é dita singular. Sendo A invertı́vel, ∃B ∈ M(n) tal que AB = I = BA. Denotemos
tal matriz B por A−1 .

Proposição 2.1.1. Se Q é uma matriz tal que AQ = QB, com A e B matrizes


n × n, então Q transforma as soluções de y ′ = By nas soluções de x′ = Ax. Mais
precisamente, se A = QBQ−1 , então são equivalentes as afirmações:
i. y(t) é uma solução de y ′ = By
ii. Qy(t) é uma solução de x′ = Ax
Demonstração:
(i. ⇒ ii.) x(t) = Qy(t)
x′ (t) = Qy ′ (t) = QBy(t) = AQy(t) = Ax(t)
(ii. ⇒ i.) y(t) = Q−1 x(t)

15
y ′ (t) = Q−1 x′ (t) = Q−1 Ax(t) = BQ−1 x(t) = By(t)

A matriz Q tal como na proposição acima conjuga as matrizes A e B. Logo, A


e B são ditas matrizes conjugadas e escrevemos A ∼ B. É imediato que:
i. A ∼ A
ii. A ∼ B ⇔ B ∼ A
iii. A ∼ B e B ∼ C ⇒ A ∼ C

O resultado acima é muito útil, pois dado um sistema x′ = Ax com A não


diagonal, se encontrarmos uma matriz D diagonal conjugada a A, podemos resolver
o problema.
Definição 2.1.2.
Uma matriz A é diagonalizável se existe uma matriz Q tal que AQ = QD, sendo
Q invertı́vel e D diagonal, ou seja, A é diagonalizável se é conjugada àlguma matriz
diagonal D.
A
Rn / RO n
Q Q−1
 B
Rn / Rn
Proposição 2.1.2. Sejam A ∈ M(n) uma matriz diagonalizável, com Q e D em
M(n) tais que Q é invertı́vel e Q−1 AQ = D = diag(λ1, λ2 , . . . , λn ). Então, dado
1 ≤ i ≤ n e escrevendo Qei = vi , o caminho si : R → Rn definido por
si (t) = exp(λi t)Qei = exp(λi t)vi , t ∈ R
é a solução de x′ = Ax com valor inicial x(0) = vi . Além disso, qualquer solução
x : R → Rn de x′ = Ax é uma combinação linear de s1 , s2 , . . . , sn e
n
X n
X
x(t) = lj sj (t) = lj exp(λi t)vj
j=1 j=1

n
X

define a única solução de x = Ax, x(0) = lj vj = Q(l1 , l2 , . . . , ln )T
j=1

Demonstração: A solução de y ′ = Dy, y(0) = (l1 , l2 , . . . , ln )T é


T
y(t) = l1 exp(λ1 t), l2 exp(λ2 t), . . . , ln exp(λn t)
X
= lj exp(λj t)ej
X
⇒ y(0) = lj ej

16
Com isso, a solução de x′ = Ax é:
X
x(t) = Qy(t) = Q lj exp(λj t)ej
X
= lj exp(λj t)Qej
X X
= lj exp(λj t)vj , com x(0) = lj vj = Q(l1 , l2 , . . . , ln )T

Em particular, tomando y(0) = ei , a solução básica y(t) = exp(λi t)ei de y ′ = Dy


fornece a solução básica

si (t) = exp(λi t)vi , para x′ (t) = Ax

2.2 Autovalores e Autovetores


Pela proposição 2.1.2, cada vetor-coluna Qej = vj de Q dá origem a uma solução
básica sj (t) = exp(λj t)vj do sistema (2.3).
Note que, como Dej = λj ej , cada vetor vj é levado por A a um múltiplo de vj :

Avj = AQej = QDej = Qλj ej = λj vj ⇒ Avj = λj vj

Dados uma matriz real An×n e um vetor v ∈ Rn , diz-se que v é autovetor de A se


v 6= 0 e se existe um número real λ tal que:

Av = λv

E mais, λ é dito autovalor de A associado a v.


Com isso, cada vetor coluna vj da matriz Q é de fato um autovetor de A, sendo
λj o autovalor associado a vj .
Proposição 2.2.1. Seja v ∈ Rn um autovetor de An×n real com λ autovalor. Então:

x(t) = exp(λt)v, t ∈ R

é a solução de x′ = Ax satisfazendo x(0) = v.


Demonstração: Basta derivar x(t) = exp(λt)v:
x′ = λ exp(λt)v = exp(λt)λv = exp(λt)Av = A exp(λt)v = Ax

Seja [v] o subespaço de Rn gerado por v:

[v] = {αv ∈ Rn : α ∈ R}

17
Se w ∈ [v], w também é um autovetor de A, porém existe um único autovalor λ
associado a esse subespaço.
Note que se AQ = QB, com Q invertı́vel, então a cada reta [v] gerada por um
autovetor v de A corresponde uma reta [w] gerada por um autovetor w de B, e
vice-versa, basta tomar Qw = v.
Sendo assim, todas as soluções da equação diferencial x′ = Ax podem ser obtidas
a partir de uma base de autovetores de A.

Proposição 2.2.2. Uma matriz An×n real é diagonalizável se, e somente se, existe
uma base de Rn constituı́da de autovetores de A. Mais precisamente, dadas matrizes
A e Q reais n × n, temos que: as colunas de Q formam um base de autovetores de
A se, e somente se, Q é invertı́vel e Q−1 AQ é uma matriz diagonal.
Como já sugerido, matrizes conjugadas têm os mesmos autovalores. Seja
Nλ = N(A − λI) = {v ∈ Rn /Av = λv}
com isso, v 6= 0 é autovetor de A associado a λ se, e somente se,
Av = λv ⇔ (A − λI) = 0 ⇔ v ∈ Nλ
Lema 2.2.1. Sejam dados uma matriz real An×n e um número real λ. As seguintes
afirmações são equivalentes:
i. λ é um autovalor de A
ii. existe um autovetor de A com autovalor associado λ
iii. Nλ 6= {0}
iv. a matriz A − λI é singular
v. det(A − λI) = 0
A partir do lema, encontrar os n autovalores de An×n é equivalente a encontrar
as raı́zes do polinômio p(λ) = det(A − λI), dito polinômio caracterı́stico de A.
Encontrado λ, determina-se um autovetor associado a ele.
Exemplo 2.2.1.
 
a b
Seja A = . Então seu polinômio caracterı́stico pA (λ) é:
c d

a−λ b
pA (λ) = det(A − λI) = = (a − λ)(d − λ) − bc
c d−λ
= λ2 − (a + d)λ + (ad − bc) = λ2 − tr(A)λ + det(A)
em que tr(A) denota o traço de A, isto é, a soma dos elementos da diagonal principal
de A. Veja que, em geral, para An×n real:
pA (λ) = (−1)n λn + an−1 λn−1 + an−2 λn−2 + . . . + a1 λ + a0

18
Lema 2.2.2. Teorema de Cayley 2 × 2
Uma matriz real A2×2 anula seu polinômio caracterı́stico, ou seja,
 
0 0
p(A) = 0 =
0 0
 
a b
Demonstração: Se A = , temos p(λ) = λ2 − (a + d)λ + (ad − bc)λ0
c d
Lidando com matrizes:

λk ⇒ Ak = AA · · · A}
| {z
k vezes
1 1
λ =λ ⇒ A =A
λ0 = 1 ⇒ A0 = I

Mostremos que p(A) = 02×2 : p(A) = A2 − (a + d)A + (ad − bc)A0


    2 
2 a b a b a + bc ab + bd
A = =
c d c d ac + cd bc + d2
   2 
a b a + ad ab + bd
(a + d)A = (a + d) =
c d ac + cd ad + d2
 
ad − bc 0
(ad − bc)I =
0 ad − bc
 
0 0
⇒ p(A) = 0 =
0 0

O resultado é válido também para matrizes n × n.

Lema 2.2.3. Autovetores associados a autovalores distintos são linearmente inde-


pendentes.

Demonstração: A demonstração se dá por contraposição, ou seja, mostremos


que dois ou mais autovetores linearmente dependentes (LD) têm ao menos dois
autovalores associados iguais.
Sejam v1 , v2 ∈ Rn autovetores LD de An×n real com autovalores associados λ1 , λ2 ,
respectivamente. Então, existe a ∈ R∗ tal que v2 = av1 .

λ2 v2 = Av2 = aAv1 = aλ1 v1 = λ1 av1 = λ1 v2 ⇒ (λ2 − λ1 )v2 = 0

Como v2 6= 0, λ1 = λ2 . Suponha agora, por indução, que quaisquer dados k autove-


tores LD de An×n com k < n, há ao menos dois autovalores iguais.

19
Sejam v1 , v2 , . . . , vk+1 autovetores LD de An×n com autovalores λ1 , λ2 , . . . , λk+1.
Quanto aos vetores v1 , v2 , . . . , vk , eles podem ser LD ou LI.
Se são LD, então por hipótese de indução λi = λj , para algum i 6= j com
i, j = 1, 2, . . . , k. Com isso, v1 , v2 , . . . , vk , vk+1 são tais que λi = λj , para algum
i 6= j.
Se são LI, então como v1 , v2 , . . . , vk , vk+1 são LD e vi 6= 0, ∀i = 1, . . . , k + 1,
temos que vk+1 = a1 v1 + a2 v2 + . . . + ak vk , com aj 6= 0 para algum j = 1, . . . , k.
Multiplicando em ambos os lados por λk+1 :

λk+1 vk+1 = a1 λk+1v1 + a2 λk+1v2 + . . . + ak λk+1vk

Por outro lado,

λk+1vk+1 = Avk+1 = A(a1 v1 + a2 v2 + . . . + ak vk )


= a1 Av1 + a2 Av2 + . . . + ak Avk
Xk
= ai λi vi
i=1

Com isso,

0 = λk+1 vk+1 − λk+1vk+1 = a1 (λk+1 − λ1 )v1 + a2 (λk+1 − λ2 )v2 + . . . + ak (λk+1 − λk )vk

Já que vi 6= 0, ∀i = 1, . . . , k, k + 1 e aj 6= 0 para algum j = 1, . . . , k, temos que


algum λj = λk+1 . O que conclui a demonstração.

Teorema 2.2.1. Se a matriz real An×n tem n autovalores distintos, então A é


diagonalizável.

Exemplo 2.2.2.
 
1 0 1
Considere o sistema x′ = Ax, x(0) = (k1 , k2 , k3 )T sendo A =  0 −2 1 
0 0 −1
Polinômio caracterı́stico de A:

1−λ 0 1

pA (λ) = det(A − λI) = 0
−2 − λ 1

0 0 −1 − λ
= (1 − λ)(−2 − λ)(−1 − λ) = −λ3 − 2λ2 + λ + 2

Os autovalores de A são 1, −1, −2, logo A é diagonalizável: A ∼ D = diag(1, −1, −2)

20
Devemos tomar a matriz Q com os vetores-coluna v1 , v2 e v3 dados por autove-
tores associados a λ1 , λ2 e λ3 , respectivamente.
Para λ1 = 1: v1 = (a, b, c)T tal que λ1 v1 = Av1
     
1 0 1 a a  a + c = a  
 0 −2 1   b  =  b  ∼ −2b + c = b ⇒ v1 ∈ (1, 0, 0)T

0 0 −1 c c − c = c
   
Analogamente, v2 ∈ (1, −2, −2)T e v3 ∈ (0, 1, 0)T . Logo, a matriz Q tal que
AQ = QD é a seguinte:  
1 1 0
Q =  0 −2 1 
0 −2 0
Diante do sistema y ′ = Dy, y(0) = (l1 , l2 , l3 )T ,
 ′      ′
y1 (t) 1 0 0 y1 (t)  y1 (t) = y1 (t)
 y2′ (t)  =  0 −1 0   y2 (t)  ∼ y ′ (t) = −y2 (t)
 2′
y3′ (t) 0 0 −2 y3 (t) y3 (t) = −2y3 (t)

tem solução y(t) = diag exp(t), exp(−t), exp(−2t) y(0), isto é,
  
exp(t) 0 0 l1
y(t) =  0 exp(−t) 0   l2 
0 0 exp(−2t) l3
Quanto ao sistema original, pela proposição 2.1.1, x(t) = Qy(t) é a solução de
x′ = Ax, com isso
   
1 1 0 exp(t) 0 0 l1
x(t) =  0 −2 1   0 exp(−t) 0  l2 
0 −2 0 0 0 exp(−2t) l3

Mas como y(0) = (l1 , l2 , l3 )T = Q−1 x(0) = Q−1 (k1 , k2 , k3 )T , temos:


    
1 1 0 exp(t) 0 0 1 0 1/2 k1
x(t) =  0 −2 1   0 exp(−t) 0   0 0 −1/2   k2 
0 −2 0 0 0 exp(−2t) 0 1 −1 k3

Simplificadamente, x(t) = QD(t)Q−1 x(0), em que


   
exp(λ1 t) 0 0 1 0 1/2
D(t) =  0 exp(λ2 t) 0  e Q−1 =  0 0 −1/2 
0 0 exp(λ3 t) 0 1 −1
A matriz A acima é dita triangular.

21
Definição 2.2.1. Uma matriz Mn×n é triangular superior se mi,j = 0, ∀i > j e
triangular inferior se mi,j = 0, ∀i < j
n
Y
Sendo triangular, temos que det(M) = mi,i
i=1
n
Y
Mais ainda, seu polinômio caracterı́stico é da forma: p(λ) = (mi,i − λ), daı́
i=1
segue que os autovalores de M são os elementos de sua diagonal principal. Porém,
mesmo sendo triangular, M pode  nãoser diagonalizável.
1 0
Tome, por exemplo, M = .
2 1
Note ainda que a matriz identidade é diagonal e possui somente o autovalor
λ = 1, mas como toda matriz diagonal D, a identidade é diagonalizável: D ∼ D,
em particular, I ∼ I. E é diagonalizável porque possui um número suficiente de
autovetores LI que formam uma base.
A dimensão de Nλ , denotada por dλ = dim(Nλ ), é chamada multiplicidade
geométrica do autovalor λ. Sabendo que autovetores associados a autovalores dis-
tintos são LI, se Bλ1 e SBλ2 são bases dos autoespaços Vλ1 e Vλ2 , respectivamente,
S
com λ1 6= λ2 , então BX
λ1 [ pela união Vλ1 Vλ2 . E
Bλ2 é uma base do espaço gerado
mais, se resultar que dλ = n, então obtemos uma base Bλ de Rn constituı́da de
λ λ
autovetores de A, isto é, A é diagonalizável. Caso contrário, A não é diagonalizável,
como ocorre com a matriz M no exemplo acima.
Afirmação: Toda matriz simétrica é diagonalizável.

Com essa dada teoria, a resolução de um sistema linear abaixo pode ser feita
sempre que A é diagonalizável.
 ′
x = Ax
(2.5)
x(0) = x0
Basta encontrar os n autovalores distintos λ1 , λ2 , . . . , λn - que formam a matriz
diagonal D = diag(λ1, λ2 , . . . , λn ) - e a partir destes, os autovetores v1 , v2 , . . . , vn -
que formam as colunas da matriz Q tal que D = Q−1 AQ - linearmente indepen-
dentes. E mais, a solução é da forma x(t) = QD(t)Q−1 x(0), com
 
exp(λ1 t) 0 0 ... 0

 0 exp(λ2 t) 0 ... 0 

D(t) = 
 0 0 exp(λ 3 t) . . . 0 

 .. .. .. .. .. 
 . . . . . 
0 0 0 . . . exp(λn t)

22
Porém, a resolução pode ser tornar muito complexa se n é muito grande, mesmo
com auxı́lio computacional.

2.3 Autovalores Generalizados


As raı́zes do polinômio caracterı́stico  deuma matriz An×n real nem sempre são
0 1
reais. Por exemplo, a matriz A = tem polinômio caracterı́stico dado por
−1 0
p(λ) = λ2 + 1, com isso, A não possui autovetores nem autovalores, pelas definições
expostas. Geometricamente, é evidente que a matriz A do exemplo acima não possui
autovetores, já que a ação A(x1 , x2 )T = (x2 , −x1 )T de A no plano é a de uma rotação
de ângulo reto no sentido horário, portanto desprovida de retas invariantes.
Porém, encarando A como uma matriz complexa e seu polinômio caracterı́stico
p(λ) = det(A−λI) também como complexo, pelo Teorema Fundamental da Álgebra,
p(z) = (z − γ1 )(z − γ2 ) . . . (z − γn ) com raı́zes complexas γ1 , γ2 , . . . , γn que, distintas
ou não, são possivelmente reais.
E mais, γ1 , γ2 , . . . , γn - as raı́zes do polinômio caracterı́stico de A - serão chamados
de autovalores generalizados de A. Podemos estender a ação de A de Rn a Cn e
obter autovetores complexos associados aos autovalores complexos.
Note que o teorema 2.2.1 continua valendo em Cn : n autovalores (complexos) dis-
tintos garantem uma base de autovetores (complexos) e diagonalização (complexa).
Dados uma matriz real An×n e um autovalor complexo γ de A, diz-se que um vetor
não-nulo w ∈ Cn é um autovetor complexo de A associado ao autovalor complexo γ
se Aw = γw ∈ Cn . Uma matriz real é invertı́vel como uma matriz complexa se, e
somente se, tem determinante não nulo. Com isso, γ ∈ C é um autovalor complexo
de A real se, e somente se, det(A − γI) = 0 se, e somente se, existe um autovetor
complexo de A associado ao autovalor complexo γ.
Pelo Teorema Fundamental da Álgebra, qualquer matriz real An×n sempre possui
autovalores (generalizados) e autovetores (possivelmente complexos).

Proposição 2.3.1. Dados uma matriz An×n , um número complexo não real γ e um
vetor não nulo w ∈ Cn , temos:
i. γ é um autovalor complexo de A ⇔ γ também o é.
ii. w é um autovetor complexo de A com autovalor γ ⇔ w é um autovetor complexo
de A com autovalor γ.
iii. se w é um autovetor complexo de A então {w, w} é linearmente independente
em Cn .

Demonstração: Como A é uma matriz real, o polinômio caracterı́stico pA (z) de A


tem coeficientes reais e, portanto, pA (z) = pA (z). Se γ é um autovalor complexo de

23
A, resulta que pA (γ) = pA (γ) = 0 = 0 e assim, γ também é um autovalor complexo
de A.
Se w ∈ Cn é um autovetor complexo de A com autovalor γ, então:

Aw = Aw = γw = γ w,

portanto, w é um autovetor complexo de A com autovalor γ.


Além disso, como γ 6= γ, pelo lema 2.2.1, seus autovetores, w e w, são LI em Cn .

Com isso, autovalores complexos não reais de uma matriz real A aparecem sempre
aos pares conjugados, assim como seus respectivos autovetores complexos.
Se w ∈ Cn é um autovetor complexo de A, então zw ∈ Cn também é autovetor
complexo de A, ∀z ∈ C. Assim, a cada autovetor real de A corresponde uma reta
real em Rn invariante por A e a cada autovetor complexo corresponde uma “reta
complexa” em Cn invariante por A.
Identifique Cn = Rn + iRn , o que equivale a separar cada coordenada de um
vetor complexo em suas partes real e imaginária e, assim, dado w ∈ Cn , podemos
escrever w = u + iv, u, v ∈ Rn . É imediato que w = u + iv = u − iv. Ainda mais,
1 1
u = (w + w) e v = (w − w) (2.6)
2 2i
são os únicos vetores de Rn tais que w = u + iv.
Proposição 2.3.2. Sejam An×n uma matriz real e w ∈ Cn um autovetor complexo
de A associado ao autovalor complexo a + ib ∈ C, com b 6= 0. Escrevendo w = u + iv
com u, v ∈ Rn dados por (2.6), temos que {u, v} é LI em Rn e

Au = au − bv
(2.7)
Av = bu + av

Demonstração: Suponha w um autovetor complexo de A e u, v ∈ Rn tais que


w = u + iv como em (2.6). Suponha por absurdo que {u, v} seja LD em Rn , isto é,
que existe α ∈ R tal que v = αu. Então

w − w = 2iv = 2iαu = iα(w + w) ⇒ (1 − iα)w = (1 + iα)w

Como 1 − iα 6= 0 6= 1 + iα, {w, w} é LD, o que contraria o lema 2.2.1. Segue


então que {u, v} é LI em Rn .
Seja γ = a + ib, com b 6= 0, o autovalor associado a w. Pela unicidade da
decomposição (2.6), a segunda afirmação advem da igualdade

Au + iAv = A(u + iv) = Aw = (a + ib)(u + iv)


= (au − bv) + i(bu + av)

24
Para resolver o caso geral de sistemas (2.5), necessitamos da decomposição de
uma matriz em forma canônica dada pelo Teorema da Decomposição de Jordan.
Teorema 2.3.1. Forma Canônica de Jordan 2 × 2
Dependendo das duas raı́zes λ1 e λ2 do polinômio caracterı́stico pA (λ) de uma
matriz 2×2 real A, ocorre exatamente um dos seguintes casos de classes de equivalência
de semelhança de matrizes:
 
λ1 0
(i.) se λ1 e λ2 são reais e λ1 6= λ2 , então A ∼ , sendo as colunas
0 λ2
da matriz de conjugação linear dada por quaisquer autovetores associados aos auto-
valores λ1 e λ2 .

(ii.) se λ0 = λ1 = λ2 é real e  
λ0 0
(A) dλ0 = 2, então A = λ0 I =
 0 λ0
λ0 0
(B) dλ0 = 1, então A ∼ , sendo as colunas da matriz de conjugação
1 λ0
linear dadas por qualquer vetor u fora do autoespaço Nλ0 e o autovetor v = Au−λ0 u
de A associado ao autovalor λ0

(iii.) se λ1 = a + ib e λ2 = a −ib, com a, b ∈ R, b 6= 0, são números complexos


a b
conjugados, então A ∼ , sendo as colunas da matriz de conjugação linear
−b a
dadas pelas partes real e imaginária de qualquer autovetor complexo de A associado
ao autovalor λ1 .
Demonstração: O caso (i.), de autovalores reais distintos, foi demonstrada no
teorema 2.2.1 e na proposição 2.2.2, até mesmo em Rn .

No caso (ii.), o polinômio caracterı́stico de A é pA (λ) = (λ − λ0 )2 .


(A) Se dim N(A − λ0 I) = 2, então A − λ0 I = 0 em M(2), e assim, λ0 I = A
(B) Se dim N(A − λ0 I) = 1, então dim Im(A − λ0 I) = 1, pelo teorema do posto:
dim N(A − λ0 I) + dim Im(A − λ0 I) = dim A
Mas pelo Teorema de Cayley (lema 2.2.2), temos
(A − λ0 I)(A − λ0 I) = (A − λ0 I)2 = p(A) = 0 ∈ M(2)
⇒ dim N(A − λ0 I)2 = 2 e (A − λ0 I) [(A − λ0 I)u] = 0 ∈ R2 para cada u ∈ R2
ou seja, Im(A−λ0 I) ⊆ N(A−λ0 I). Como esses dois espaços vetoriais têm a mesma
dimensão, decorre que Im(A − λ0 I) = N(A − λ0 I).

25
Tomemos um vetor u ∈ R2 \ N(A − λ0 I) qualquer, logo u 6= 0 e (A − λ0 I)u 6= 0.
Definindo v = (A−λ0 I)u, decorre que v 6= 0 e Au = λ0 u+v, então v ∈ Im(A−λ0 I) =
N(A − λ0 I). Assim, v é um autovetor de A associado ao autovalor λ0 , {u, v} é uma
base de R2 e a matriz
 Q ∈ M(2)  de colunas Qe1 = u e Qe2 = v é invertı́vel.
λ0 0
Escrevendo J = , tem-se Je1 = λ0 e1 + e2 e Je2 = λ0 e2 , logo
1 λ0

AQe1 = Au = λ0 u + v = λ0 Qe1 + Qe2 = Q(λ0 e1 + e2 ) = QJe1
AQe2 = Av = λ0 v = λ0 Qe2 = Qλ0 e2 ) = QJe2

Daı́ segue que AQ = QJ, isto é, A ∼ J, o que prova (ii.)(B).

Para provar o caso (iii.), supomos que as raı́zes do polinômio caracterı́stico de


A são complexas conjugadas λ1 = a + ib = γ e λ2 = a − ib = γ, com a, b ∈ R, b 6= 0.
Seja w ∈ C2 um autovetor complexo de A com autovalor complexo γ e seja
w = u + iv a decomposição de w dada em (2.6), u, v ∈ R2 .
Pela proposição 2.3.2, {u, v} é LI em R2 - portanto, a matriz real Q2×2 de colunas
Qe1 = u e Qe2 = v,   -, Au = au − bv e Av = bu + av.
é invertı́vel
a b
Escrevendo J = , temos Je1 = ae1 − be2 , Je2 = be1 + ae2 , logo
−b a

AQe1 = Au = au − bv = aQe1 − bQe2 = Q(ae1 − be2 ) = QJe1
AQe2 = Av = bu + av = bQe1 + aQe2 = Q(be1 + ae2 ) = QJe2

Portanto, AQ = QJ, ou seja, A ∼ J.

Para resolução da equação (2.5) no caso de autovalores complexos, faz-se ainda


necessário conhecer o seguinte corolário da proposição 2.3.2, que é a versão complexa
da proposição 2.2.1, em que usamos a definição da exponencial complexa ea+ib =
ea eib = ea (cos(b) + i sen(b)), conhecida como a fórmula de Euler.

Corolário 2.3.1. Seja w ∈ Cn um autovetor complexo de An×n real com autovalor


complexo associado λ = a + ib, com b 6= 0. Dada a decomposição w = u + iv em
(2.6) com u, v ∈ Rn , então:

x(t) = exp(at) [cos(bt)u − sen(bt)v]
y(t) = exp(at) [sen(bt)u + cos(bt)v]

definem as únicas soluções, respectivamente, dos sistemas


 ′  ′
x = Ax y = Ay
e
x(0) = u y(0) = v

26
Demonstração: Como w ∈ Cn é um autovetor de An×n real com autovalor
complexo associado λ, temos que Aw = λw; escrevendo z(t) = exp(λt)w, obtemos:

z ′ (t) = λ exp(λt)w = exp(λt)Aw = A exp(λt)w = Az(t)

de modo que z(t) é uma solução complexa de z ′ (t) = Az(t). Escrevendo w = u + iv,
com u, v ∈ Rn e λ = a + ib, com b 6= 0, a fórmula de Euler garante que
 
z(t) = exp (a + ib)t w = exp(at) cos(bt) + i sen(bt) (u + iv)
= exp(at) [cos(bt)u − sen(bt)v] + i exp(at) [sen(bt)u + cos(bt)v]
= x(t) + i y(t)

Essas partes real e imaginária - x(t) e y(t) - da solução complexa z(t) são, de
fato, soluções de x′ (t) = Ax(t), x(0) = u e y ′(t) = Ay(t), y(0) = v, respectivamente.
Para tal conclusão, basta lembrar que

Au = au − bv
Av = bu + av

de modo que, de z(t) = x(t) + i y(t), resulta que

x(t) = exp(at) [cos(bt)u − sen(bt)v]


y(t) = exp(at) [sen(bt)u + cos(bt)v]

E a partir daı́,

x′ (t) = a exp(at) [cos(bt)u − sen(bt)v] − exp(at) [b sen(bt)u + b cos(bt)v]


= exp(at) [au − bv] cos(bt) − exp(at) [av + bu] sen(bt)
= A [exp(at)cos(bt)u − exp(at)sen(bt)v]
= Ax(t)

Analogamente, constata-se que y ′(t) = Ay(t).

Exemplo 2.3.1.

Considere o sistema 
z ′ (t) = Jz(t)
,
z(0) = (l1 , l2 )T
 
a b
em que J = está exatamente sob a forma do caso (iii.) do Teorema 2.3.1
−b a
da Decomposição de Jordan.

27
Polinômio caracterı́stico da matriz J acima:

a−λ b
pJ (λ) = = λ2 − 2aλ + a2 + b2
−b a − λ
Os autovalores de J são λ = a + ib e λ = a − ib. Quanto aos autovetores:
Para λ = a + ib: w = (w1 , w2 )T tal que λw = Jw
     
a b w1 w1 aw1 + bw2 = (a + ib)w1
=λ ∼
−b a w2 w2 −bw1 + aw2 = (a + ib)w2

w2 = iw1
∼ ⇒ w2 = iw1
−w1 = iw2
   
Logo, w ∈ (1, i)T e w ∈ (1, −i)T são autovetores complexos de J e
w = (1, i)T = e1 + ie2 ⇒ u = e1 e v = e2
Usando o corolário 2.3.1, temos que
 
cos(bt)
x(t) = exp(at) [cos(bt)e1 − sen(bt)e2 ] = exp(at)
−sen(bt)
é a solução de x′ = Jx, x(0) = e1 e
 
sen(bt)
y(t) = exp(at) [sen(bt)e1 + cos(bt)e2 ] = exp(at)
cos(bt)
é a solução de y ′ = Jy, y(0) = e2
Então,
 
l1 cos(bt) + l2 sen(bt)
l1 x(t) + l2 y(t) = exp(at)
−l1 sen(bt) + l2 cos(bt)
  
cos(bt) sen(bt) l1
= exp(at)
−sen(bt) cos(bt) l2
é a única solução de z ′ (t) = Jz, z(0) = (l1 , l2 )T , sendo, portanto, periódica de

perı́odo se a = 0 e x(0) 6= (0, 0)T .
b
Observação: Lembrando das relações trigonométricas de seno e cosseno da diferença,
a solução geral z(t) acima pode ser reescrita empcoordenadas polares de forma muito
conveniente. Supondo x(0) 6= (0, 0) , r = l12 + l22 > 0, existe α ∈ R tal que
T

l1 l2
cos(α) = e sen(α) = e daı́ seque que
r r
l1 cos(bt) + l2 sen(bt) = r cos(α)cos(bt) + r sen(alpha)sen(bt)
= r cos(α − bt)
= r cos(bt − α)

28
e, analogamente, −l1 sen(bt) + l2 cos(bt) = −r sen(bt − α).

Escolhamos θ tal que α = bθ e 0 ≤ θ ≤ e, com isso,
b
 
cos(bt − bθ)
z(t) = r exp(at)
sen(bt − bθ)
é a única solução de   
 ′ a b
z (t) = z(t)
−b a

z(0) = (l1 , l2 )T
Se r = 0, então a solução é a trivial: z(t) = (0, 0)T

Exemplo 2.3.2.
 
a b
Considere o sistema (2.5) com A ∼ .
−b a
Os autovalores de A são λ = a + ib e λ = a − ib. Tomando as colunas de Q como
sendo os autovetores complexos w e w, terı́amos:
 
−1 a + ib 0
Q AQ =
0 a − ib
Porém, é mais conveniente trabalhar com a forma proposta pelo teorema 2.3.1,
isto é, tomar os vetores-coluna u e v da matriz Q tais que, pela equação (2.6),
w = u + iv é o autovetor associado ao autovalor λ.
Usando a proposição 2.1.1 e a solução z(t) do exemplo 2.3, a solução de x′ (t) =
Ax(t), com x(0) = (k1 , k2 )T é x(t) = Qz(t), isto é,
  
cos(bt) sen(bt) l1
x(t) = exp(at)Q
−sen(bt) cos(bt) l2
   
cos(bt) sen(bt) −1 k1
= exp(at)Q Q
−sen(bt) cos(bt) k2
Exemplo 2.3.3.
 
 ′ −3 0 2
x (t) = Ax(t)
Considere o sistema em que A =  1 −1 0 .
x(0) = (k1 , k2 , k3 )T
−2 −1 0
Dado o polinômio caracterı́stico p(λ) = −6 − 7λ − 4λ2 − λ3 , os autovalores e
autovetores de A são, respectivamente:
λ1 = −2 e w1 = (2, −2, 1)T
√ √ √
λ2 = −1 + i 2 e w2 = (2 − i 2, −1 − i 2, 3)T
√ √ √
λ2 = −1 − i 2 e w3 = (2 + i 2, −1 + i 2, 3)T

29
√ √
Como w2 = (2, −1, 3)T + i(− 2, − 2, 0)T = u + iv, a matriz Q de conjugação e
a matriz J que comuta com A são
 √   
2 2 −√2 −2 0 √0
Q =  −2 −1 − 2  e J =  0 −1
√ 2 
1 3 0 0 − 2 −1
 ′
y (t) = Jy(t)
Afirmação: Quanto ao sistema , a solução y(t) é
y(0) = (l1 , l2 , l3 )T
 
 l 1 exp(−2t)
√ √ 
y(t) =  exp(−t) l2 cos( √ 2t) + l3 sen( √2t)  
exp(−t) −l2 sen( 2t) + l3 cos( 2t)
  
exp(−t) 0√ 0√ l1
= exp(−t)  0 cos( √2t) sen(√ 2t)   l2 
0 −sen( 2t) cos( 2t) l3

Pela proposição 2.1.1, a solução do sistema original é x(t) = Qy(t):


 
exp(−t) 0√ 0√
x(t) = Q exp(−t)  0 cos( √2t) sen(√ 2t)  Q−1 x(0)
0 −sen( 2t) cos( 2t)

30
2.4 Classificação de Sistemas Planares
A fim de descrever geometricamente as soluções da equação linear vetorial X ′ =
AX e X(0) = (k1 , k2 )T no plano, definimos, para cada solução X(t) = (x, y) de
X ′ = AX, uma curva parametrizada - órbita -, que é simplesmente o conjunto de
pontos {(x(t), y(t)) /t ∈ R} munido de orientação dada pelo sentido de percurso
com t crescente, desde −∞ até ∞.
Pela unicidade das soluções, por cada ponto do plano passa uma única órbita
e dadas duas órbitas quaisquer, ou elas coincidem ou são disjuntas. Esboçando de
maneira sistemática algumas dessas curvas, obtemos um retrato de fase da equação
diferencial, cujo objetivo é dar uma ideia do comportamento global da totalidade
das soluções da equação com diferentes condições iniciais.
Estudemos a classificação de acordo com os autovalores da matriz do sistema:
 
λ1 0
CASO 1: Suponha A = , sendo λ1 < λ2 , então a solução do sistema
  0 λ 2

′ k1 eλ1 t
X = AX é X(t) =
k2 eλ2 t

(A) λ1 < λ2 < 0 (B) 0 < λ1 < λ2

y y

x x

Figura 2.1: Origem: poço/nó estável Figura 2.2: Origem: fonte/nó instável

31
(C) λ1 < 0 < λ2 (D) λ1 < λ2 = 0

y y

x x

Figura 2.3: Origem: sela

(E) 0 = λ1 < λ2
y

32
2
CASO 2: Considere A tal que pA (λ) =(λ − λ0 ) .
λ0 t
k1 e
Suponha que A = λ0 I, então X(t) = a solução de X ′ = AX com
k2 eλ0 t
condição inicial X(0) = (k1 , k2 )T

(A) λ0 < 0 (B) λ0 > 0

y y

x x

Figura 2.4: Origem: poço/nó estável Figura 2.5: Origem: fonte/nó instável

(C) λ0 = 0
y

33
   
λ0 0 k1 eλ0 t
Suponha agora que A = , então X(t) = é a
1 λ0 (k2 + tk1 ) eλ0 t
solução de X ′ = AX com condição inicial X(0) = (k1 , k2 )T

(D) λ0 < 0 (E) 0 < λ0

y y

x x

Figura 2.6: poço/nó impróprio estável Figura 2.7: fonte/nó impróprio instável

(F) λ0 = 0

34
CASO 3: Considere A tal que a + ib e a − ib são raı́zes de pA (λ), com b 6= 0.

(A) a < 0 (B) a > 0

y y

x x

Figura 2.8: poço/espiral estável Figura 2.9: fonte/espiral instável

(C) a = 0
y

Figura 2.10: Origem: centro

35
Estudemos agora a classificação usando-se do determinante e do traço da matriz
do sistema associado. Considere o seguinte sistema:
 ′  
x = ax + by ′ a b
∼ X = AX com A =
y ′ = cx + dy c d
Seja p = a + d e q = ad − bc, tem-se então que pA (λ) = λ2 − pλ + q = λ2 −
2
√ é ∆ = p − 4q. Sendo assim, os autovalores de
tr(A)λ + det(A),√cujo discriminante
p+ ∆ p− ∆
A são λ1 = e λ2 = .
2 2
Quanto ao ponto crı́tico (0, 0), temos:
• nó se q > 0 e ∆ ≥ 0.
Logo p 6= 0.
Para ∆ = 0, λ = λ1 = λ2 = p/2

p > 0 : λ > 0 ⇒ nó impróprio instável, isto é, fonte
p < 0 : λ < 0 ⇒ nó impróprio estável, isto é, poço

p > 0 : λ1 > λ2 ≥ 0 ⇒ nó instável, isto é, fonte
Para ∆ > 0
p < 0 : λ2 < λ1 ≤ 0 ⇒ nó estável, isto é, poço
• ponto de sela se q < 0.
Logo ∆ > 0 e λ1 > λ2 . Mais ainda, λ2 < 0 < λ1 e com isso (0, 0) é ponto de
sela.
• ponto espiral se p 6= 0 e ∆ < 0.
Tem-se que λ1 = λ e λ2 = λ complexos não puros.

p > 0 : espiral instável, isto é, fonte
p < 0 : espiral estável, isto é, poço
• centro se p = 0 e ∆ < 0.
Tem-se que λ1 = λ e λ2 = λ complexos puros. Logo, (0, 0) é um centro.
Dizemos que (0, 0) é:
• assintoticamente estável se q > 0 e p < 0.

 ∆ < 0 : λ1 e λ2 complexos com parte real negativa ⇒ (0, 0) é uma espiral estável
∆ = 0 : λ1 = λ2 < 0 ⇒ (0, 0) é um poço

∆ > 0 : λ2 < λ1 ≤ 0 ⇒ (0, 0) é um poço/nó estável
• estável se q > 0 e p = 0.
Logo, ∆ = −4q < 0. Como p = 0, tem-se que λ1 = λ e λ2 = λ são complexos
puros. Então (0, 0) é um centro, logo estável.

36
• instável se q < 0 ou p > 0.
Suponha que q < 0. Então ∆ > 0 ⇒ λ2 < 0 < λ1 ⇒ (0, 0) é um ponto de sela,
logo, instável.
Suponha que p > 0:

 ∆ < 0 : (0, 0) é uma espiral instável
∆ = 0 : λ1 = λ2 > 0 ⇒ (0, 0) é uma fonte

∆ > 0 : λ1 > λ2 > 0 ⇒ (0, 0) é uma fonte
Tais considerações levam ao seguinte resultado representado graficamente:

q
espiral estável
espiral instável

D= p2 - 4 q < 0 D= p2 - 4 q = 0

nó impróprio
nó impróprio
instável
estável
nó estável: poço nó instável: fonte
centro
p

D= p2 - 4 q > 0

sela sela

Ainda, considere a seguinte tabela:

Autovalores Ponto de equilı́brio Estabilidade


λ1 > λ2 > 0 fonte instável
λ2 < λ1 < 0 poço assintoticamente estável
λ2 < 0 < λ1 sela instável
λ1 = λ2 > 0 nó impróprio instável
0 < λ1 = λ2 nó impróprio assintoticamente estável
λ1 = a + bi, λ2 = a − bi e a > 0 espiral instável
λ1 = a + bi, λ2 = a − bi e a < 0 espiral assintoticamente estável
λ1 = bi e λ2 = −bi centro estável

37
A seção a seguir aborda a teoria necessária para se determinar a solução de um
sistema linear de ordem n de forma a generalizar os resultados propostos ao longo
do capı́tulo.

2.5 Exponencial de Matrizes


A ideia aqui é estender a solução x(t) = eat y0 da equação x′ = ax para uma ex-
pressão da solução x(t) = eAt x0 da equação vetorial x′ = Ax. Para tanto, usaremos

X aj
a expansão em série de Taylor ea = .
j=0
j!
O espaço M(n) é um espaço vetorial normado. Considere a norma do operador
definida por
A = sup |Ax| = sup |Ax|, A ∈ M(n) ∼ Rn2
|x|≤1 |x|=1

Com esta norma, vale a seguinte propriedade: AB ≤ A B . Com esta
propriedade, M(n) é uma álgebra vetorial normada.
Escrevendo A0 = I, A1 = A e Am+1 = Am A, temos por indução que
m m
A ≤ A , ∀m ∈ N
A matriz exponencial de uma matriz A ∈ M(n) é definida por:

A 1 2 1 3 1 j X 1 j
e = I + A + A + A + ...+ A + ... = A
2! 3! j! j=0
j!

Podendo ainda ser escrita como exp(A) ou exp A. Cabe agora saber se eA está
bem definida, isto é, estudemos a convergência da série acima.
∞ ∞ ∞
X 1 j X 1 X 1
A = Aj ≤ A j = e A
j=0
j! j=0
j! j=0
j!
Com isso, a série é absolutamente convergente, logo convergente. Daı́ segue que
A
e está bem definida.

Note que quando a matriz A = D é diagonal, isto é, D = diag(λ1 , λ2 , . . . , λn ),


temos que D j = diag(λj1 , λj2 , . . . , λjn ). Assim, a série toma a forma:
∞ ∞
X 1 j X1
D
e = D = diag(λj1 , λj2 , . . . , λjn )
j=0
j! j=0
j!
∞ ∞ ∞
X 1 j X1 j X 1 j
= diag λ1 , λ2 , . . . , λn
j=0
j! j=0
j! j=0
j!
= diag(eλ1 , eλ2 , . . . , eλn )

38
Em particular, e0 = I e eI = diag(e, e, . . . , e) = eI.

Teorema 2.5.1. Se A, B, Q ∈ M(n) são tais que AQ = QB, então eA Q = QeB .


Em particular, se as matrizes A e B de M(n) são conjugadas, então também as
matrizes eA e eB são conjugadas e, além disso, podemos usar a mesma matriz de
conjugação, ou seja, se Q ∈ M(n) é invertı́vel e A = QBQ−1 , então

eA = eQBQ = QeB Q−1


−1

Demonstração: Como AQ = QB, segue que A2 Q = AAQ = AQB = QB 2 e, por


indução, Aj Q = QB j para j ∈ N. Assim,

n n
A
X 1 j X 1 j
e Q = lim A Q = lim AQ
n→∞
j=0
j! n→∞
j=0
j!
n n
X 1 X 1 j
= lim QB j = Q lim B = QeB
n→∞
j=0
j! n→∞
j=0
j!

Proposição 2.5.1. Dados uma matriz A ∈ M(n) e x0 ∈ Rn , os caminhos t → etA


em M(n) e t → etA x0 em Rn são deriváveis e

d tA d tA
e = AetA ∈ M(n) e e x0 = AetA x0 ∈ Rn
dt dt

Demonstração: Dados A ∈ M(n) e t ∈ R, temos tA = |t| A , de modo que,
1 tA
(e − I) − A = 1 etA − I − tA ≤ 1 tA 2 e tA

t t t
2 |t|
A

2

= |t| A e ≤ |t| A e A , para |t| < 1

Seja X(t) = etA , como X(0) = I e a partir da desigualdade acima decorre pela
definição de derivada que X ′ (0) = A.
Afirmação: X(t + u) = X(t)X(u) ∈ M(n), ∀t, u ∈ R
Por definição de derivada, decorre que X(t) é derivável em R, valendo

X ′ (t) = X ′ (0)X(t) = AX(t), para cada t ∈ R

Além disso, dado x0 ∈ Rn , podemos aplicar todas essas matrizes em x0 para


concluir que x(t) = X(t)x0 = etA x0 é derivável em R e x′ (t) = Ax(t), para cada
t ∈ R.

39
De fato, X(t + u) = X(t)X(u) ∈ M(n), ∀t, u ∈ R. Fixemos t, u em R. Dado
m ∈ N, temos que:
m   m
1 m 1 X m j m−j X tj um−j X tr us
(t + u) = tu = =
m! m! j=0 j j=0
j! (m − j)! r+s=m r! s!
1 1 X tr us  X tr Ar us As
⇒ (tA + uA)m = (t + u)m Am = Am =
m! m! r+s=m
r! s! r+s=m
r! s!
Com isso, para cada n ∈ N,
Xn
1 Xn X tr Ar us As Xn
tr r
Xn
ts s

m
(tA + uA) = = A A
m=0
m! m=0 r+s=m
r! s! r=0
r! s=0
s!
⇒ etA+uA = etA euA , quando n → ∞
⇒ X(t + u) = e(t+u)A = etA+uA = etA euA = X(t)X(u)
Para finalizar a demonstração, basta mostrar as seguintes afirmações:
1. Para cada A ∈ M(n) com a norma da soma, tem-se:

i. eA ≤ e A


ii. eA − I ≤ e A − 1 ≤ A e A
A A 2
A
iii. e − I − A ≤ e
−1− A ≤ A e

2. Seja X : R → M(n) um caminho contı́nuo de matrizes que é derivável em


0 ∈ R. Suponha que X(0) = I e que X(t + u) = X(t)X(u) para quaisquer
t, u ∈ R. Então X é derivável em cada t ∈ R, com X ′ (t) = X ′ (0)X(t).
Afirmação 1:
n n
A
e = lim
X 1 j X 1 j
A = lim
A
n→∞
j=0
j! n→∞
j=0
j!
n
X 1
Aj
≤ lim
n→∞
j=0
j!
n
X 1
A j = exp( A )
≤ lim
n→∞
j=0
j!

n n
A
e − I = lim
X 1 j X 1
A j = exp( A ) − 1
A ≤ lim
n→∞
j=1
j! n→∞
j=1
j!
1 2 1 3
≤ A + A + A + . . .
2! 3!
2 1 3 1 4
≤ A + A + A + A + . . . = A exp( A )
2! 3!
40
n n
A
e − I − A = lim
X 1 j X 1
A j = exp( A ) − 1 − A
A ≤ lim

n→∞
j=2
j! n→∞
j=2
j!
n n
X 1 j+2 2 X 1
A j = A 2 exp( A )
≤ lim A = A lim

n→∞
j=0
j! n→∞
j=0
j!

Afirmação 2:
X(t + h) − X(t) X(h)X(t) − X(t)
X ′ (t) = lim = lim
h→0
 h  h→0 h 
X(h) − I X(h) − X(0)
= lim X(t) = lim X(t)
h→0 h h→0 h
= X ′ (0)X(t)

Teorema 2.5.2. Se A ∈ M(n) e x0 ∈ Rn , então o caminho x(t) = etA x0 , t ∈ R


define a única solução de x′ = Ax com condição inicial x(0) = x0 .
Corolário 2.5.1. Dadas matrizes A e B em M(n), temos:
(1) se AB = BA, então eA eB = eA+B = eB eA
(2) a matriz eA sempre é invertivel, com (eA )−1 = e−A
Demonstração: Se A, B são tais que AB = BA, então B(tA) = (tA)B e, pelo
teorema 2.5.1, BetA = etA B. Fixado x0 ∈ Rn e definindo x(t) = etA etB x0 , a regra
da derivada do produto garante

x′ (t) = AetA etB x0 + etA BetB x0 = AetA etB x0 + BetA etB x0


= (A + B)etA etB x0 = (A + B)x(t)
⇒ x(t) e solução de x′ (t) = (A + B)x com condição inicial x(0) = x0 .

Mas pelo teorema 2.5.2, o caminho et(A+B) x0 é a única solução de x′ = (A + B)x


com condição inicial x(0) = x0 . Daı́ segue que

x(t) = etA etB x0 = et(A+B) x0

Em particular, para t = 1, eA eB x0 = eA+B x0 , ∀x0 ∈ Rn ⇒ eA eB = eA+B .


Como A − A = 0 e e0 = I ⇒ e−A eA = I = eA e−A

Com essa dada teoria, podemos calcular a exponencial de qualquer matriz 2 × 2


na forma canônica de Jordan. De fato,

41
(i.)
   
λ1 0 A eλ1 0
A= ⇒ e =
0 λ2 0  eλ2 
eλ1 t 0
Daı́ segue que x(t) = e x0 =tA
x0 é a solução de x′ = Ax com
0 eλ2 t
condição inicial x(0) = x0 .

(ii.)
 
eλ0 t 0
tA
(a) A = λ0 I ⇒ x(t) = e x0 = x0 é a solução de x′ = Ax com
0 eλ0 t
condição inicial x(0) = 
x0 . 
λ 0
(b) Neste caso, A = pode ser decomposta sob a soma de duas matrizes
1 λ
que comutam, então:
       
A λ 0 0 0 λ 0 0 0
e = exp + = exp exp
0 λ 1 0 0 λ 1 0
 λ        
e 0 0 0 1 0 0 1 0 0
= I+ + + + ...
0 eλ 1 0 2! 0 0 3! 0 0
 λ    λ   
e 0 1 0 e 0 λ 1 0
= = =e
0 eλ 1 1 eλ eλ 1 1
 
1 0
tA
Mais ainda, x(t) = e x0 = e λ
x0 é a solução de x′ = Ax com x(0) = x0 .
t 1
Há um resultado implı́cito nessa conclusão: matrizes do tipo “subdiagonal” são
matrizes nilpotentes, isto é, existe m ∈ N tal que a m-ésima potência da matriz é
nula. Considere a seguinte matriz
 
0 0 0 0 0 0 ··· 0 0
 c 0 0 0 0 0 ··· 0 0 
 
 0 c 0 0 0 0 ··· 0 0 
 
 0 0 c 0 0 0 ··· 0 0 
 
Gc (m) =  0 0 0 c 0 0 · · · 0 0  ∈ M(m)
 
 0 0 0 0 c 0 ··· 0 0 
 
 .. .. .. .. .. .. . . .. .. 
 . . . . . . . . . 
 
 0 0 0 0 0 0 ··· 0 0 
0 0 0 0 0 0 ··· c 0

Afirmação: Gm
c = 0.

42
 
0 0 0 0 0

 c 0 0 0 0 

Tome Gc (5) = 
 0 c 0 0 0 . Segue que:

 0 0 c 0 0 
0 0 0 c 0
   
0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0   0 0 0 0 0 
 2   
Gc (5)2 = 
 c 02 0 0 0  , Gc (5)3 = 
  0 0 0 0 0 ,

 0 c 0 0 0   c3 0 0 0 0 
0 0 c2 0 0 0 c3 0 0 0
   
0 0 0 0 0 0 0 0 0 0
 0 0 0 0 0   0 0 0 0 0 
   
Gc (5)4 = 
 0 0 0 0 0  , Gc (5)5 = 
  0 0 0 0 0 

 0 0 0 0 0   0 0 0 0 0 
c4 0 0 0 0 0 0 0 0 0

Com isso,
1 2 1 3 1 4 1 5 1 6 1 7
eGc = I + Gc + G + G + G + G + G + G + ...
2! c 3! c 4! c 5! c 6! c 7! c
1 2 1 3 1 4 1 1 1
= I + Gc + G + G + Gc + 0 + 0 + 0 + ...
 2! c 3! c 4!  5! 6! 7!
1 0 0 0 0
 c 1 0 0 0 
 2 
 c3 /2!
= 
2
c 1 0 0 

 c /3! c /2! c 1 0 
c4 /4! c3 /3! c2 /2! c 1
 
1 0 0 0 0 0 ··· 0

 c 1 0 0 0 0 ··· 0 


 c2 /2! c 1 0 0 0 ··· 0 


 c3 /3! 2
c /2! c 1 0 0 ··· 0 

Em geral, eGc (m) = c4 /4! c3 /3! c2 /2! c 1 0 ··· 0 
 

 c5 /5! c4 /4! c3 /3! 2
c /2! c 1 ··· 0 

 .. .. .. .. .. .. .. .. 
 . . . . . . . . 
cm−1 cm−2 cm−3 cm−4 cm−5 cm−6
(m−1)! (m−2)! (m−3)! (m−4)! (m−5)! (m−6)!
··· 1
 
a b
(iii.) A =
−b a

43
 
a + bi 0
Poderı́amos encarar A como uma matriz complexa conjugada a ,
   0 a− bi
a 0 0 b
mas é conveniente calcular eA quando se considera A = + , uma
0 a −b
 0
0 b
decomposição com matrizes que comutam. Calculemos exp :
−b 0
     2  3
0 b 0 b 1 0 b 1 0 b
exp =I+ + + + ...
−b 0 −b 0 2! −b 0 3! −b 0
Por outro lado,
 2     
0 b 0 b 0 b −b2 0
= = ,
−b 0 −b 0 −b 0 0 −b2
 3     
0 b 0 b −b2 0 0 −b3
= = ,
−b 0 −b 0 0 −b2 b3 0
 4  
0 b b4 0
= ,
−b 0 0 −b4
 5  
0 b 0 b5
= ,
−b 0 −b5 0
 6  
0 b −b6 0
= ,
−b 0 0 −b6
 7  
0 b 0 −b7
=
−b 0 b7 0
Por indução,
 2j    2j+1  
0 b j b2j 0 0 b j 0 b2j+1
= (−1) e = (−1)
−b 0 0 b2j −b 0 −b2j+1 0

Daı́ segue que


 ∞ ∞ 
X (−1)j b2j X (−1)j b2j+1
   (2j + 1)!   
0 b  j=0 (2j)! j=0
 cos(b) sen(b)
exp =  ∞ ∞
=
−b 0  X
 − (−1)j b2j+1 X (−1)j b2j 
 −sen(b) cos(b)
j=0
(2j + 1)! j=0
(2j)!

44
Logo,
     
a b a 0 0 b
exp = exp +
−b a 0 a −b 0
   
a 0 0 b
= exp exp
0 a −b 0
 a  
e 0 cos(b) sen(b)
=
0 ea −sen(b) cos(b)
 
a cos(b) sen(b)
= e
−sen(b) cos(b)
 
cos(bt) sen(bt)
Sendo assim, x(t) = e = etA at
é a solução de x′ = Ax
−sen(bt) cos(bt)
com condição inicial x(0) = x0 .

2.6 Forma Canônica de Jordan Real


Já sabemos que x(t) = etA x0 é a solução da equação diferencial linear x′ = Ax
com x(0) = x0 para A ∈ M(n) e no caso em que A ∈ M(2), descrevemos as soluções
etA graças a uma matriz P conjugada a A: P = Q−1 AQ. Para explicitar a solução
etA x0 no caso em que A ∈ M(n), usaremos o Teorema da Decomposição de Jordan
para matrizes de ordem n × n.
Na intenção de simplificar a notação, introduzimos a noção de matrizes diagonais
em blocos. Se A1 , A2 , . . . , Ak são matrizes quadradas, então
 
A1 0 . . . 0
 0 A2 . . . 0 
 
A = diag(A1 , A2 , . . . , Ak ) =  .. .. . . .. 
 . . . . 
0 0 . . . Ak

denota a matriz quadrada que tem as matrizes quadradas A1 , A2 , . . . , Ak dispostas


ao longo da diagonal, com todas as entradas fora dessas matrizes iguais a zero.
Diz-se que A é uma matriz diagonal em blocos, sendo cada Ai um bloco de A.
Essa noção equivalente ao caso (2)(b) da forma de Jordan 2×2 pode ser encarada
da seguinte maneira. Dado λ ∈ R e m ≥ 1, o bloco de Jordan real de autovalor λ e

45
tamanho m é definido como sendo
 
λ 0 0 ...
0 0
 1 λ 0 ...
0 0 
 
 0 1 λ ...
0 0 
 
Jλ (m) =  .. .. .. ..
..  ∈ M(n)
 . . . .. 
 
 0 0 0 ... λ 0 
0 0 0 ... 1 λ

Para o caso (3): dados a, b ∈ R com b 6= 0 e m ≥ 1, o bloco de Jordan complexo


de autovalores γ = a + ib e γ = a − ib de tamanho 2m é dado por:
 
Ja,b 0 0 ... 0 0
 I Ja,b 0 . . . 0 0 
 
 0 I J a,b . . . 0 0 
 
Ja,b (m) =  .. .. .. . . ..  ∈ M(n)
 . . . . . 
 
 0 0 0 . . . Ja,b 0 
0 0 0 . . . I Ja,b
 
a b
sendo 0, I, Ja,b ∈ M(2) e Ja,b =
−b a
Agora, enunciemos o Teorema da Decomposição de Jordan:

Teorema 2.6.1. Forma Canônica de Jordan


Se A ∈ M(n), então A é linearmente conjugada a uma matriz real

J = diag(J1 , J2 , . . . , Jr ) ∈ M(n)

em que Ji é um bloco de Jordan, real ou complexo. A matriz J é única, a menos da


ordem dos blocos na diagonal.

A matriz J é conhecida como a forma canônica de Jordan de A. Todos


os autovalres de A necessariamente estão representados nos blocos, mas o mesmo
autovalor de A pode repetir em mais de um bloco, de modo que o número r de
blocos varia desde o número de autovalores distintos de A até no máximo n.
Cada bloco Ji da forma canônica de Jordan de uma matriz A ∈ M(n) descreve a
ação de A sobre um subespaço vetorial de Rn invariante por A, que é um autoespaço
generalizado associado a algum autovalor, restrito ao qual A é linearmente conjugada
a Ji .
Considerando o caso em que os autovalores são todos reais, se Ji = Jλ (m),
então existem vetores linearmente independentes u1 , u2, . . . , un de Rn que geram um

46
subespaço Vλ (m) de Rn tal que A restrita a Vλ (m) é linearmente conjugada a Ji .
Observe que:

Ji u1 = λu1 + u2
Ji u2 = λu2 + u3
..
.
Ji um−1 = λum−1 + um
Ji um = λum

Daı́ segue que, de todos os vetores da base de Vλ (m), somente um é um autovetor


de Ji - e, portanto, de A - associado ao autovalor λ.
Vejamos como são determinados todos os blocos de Jordan de um mesmo auto-
valor real. Seja A ∈ M(n) uma matriz real com um autovalor real λ de multiplicidade
geométrica d = dim Nλ , ou seja, com d autovetores LI associados a λ. Para j ≥ 1,
vale

{0} ⊆ Nλ (A − λI) ⊆ Nλ (A − λI)2 ⊆ . . . ⊆ Nλ (A − λI)j ⊆ Rn

e como todos esses núcleos são subespaços vetoriais de Rn , existe k = k(α) a partir
do qual todos são iguais. Sendo dj = dim N(A − λI)j , temos

1 ≤ d = d1 ≤ d2 ≤ d3 ≤ . . . ≤ dk = dk+1 = . . . ≤ n

N(A − λI)k é o autoespaço generalizado associado ao autovalor λ e dk = dim N(A −


λI)k é a multiplicidade algébrica de λ como raiz do polinômio caracterı́stico de A,
ou seja, o número de vezes que λ aparece na fatoração completa desse polinômio.
Pode ser provado que N(A − λI)k é invariante por A e que, restrito a esse
subespaço vetorial, a ação de A é linearmente conjugada à matriz em blocos dada
por todos blocos de Jordan que têm λ na diagonal. Como cada bloco fornece um
único autovetor, é exatamente d o número desses blocos, ou seja, juntando as d
matrizes de Jordan da forma de Jordan de A que têm λ na diagonal, resulta uma
matriz do tipo  
λ 0 0 ... 0 0
 ∗ λ 0 ... 0 0 
 
 0 ∗ λ ... 0 0 
 
Jλ =  .. .. .. . . .. 
 . . . . . 
 
 0 0 0 ... λ 0 
0 0 0 . . . ∗ λ d ×d
k k

em que exatamente d − 1 dessas dk − 1 entradas subdiagonais denotadas por ∗ são


iguais a 0 e as demais são iguais a 1.

47
Considere o sistema x′ = Ax, com A ∈ M(n) e com condição inicial x(0) = x0 .
Pelo teorema 2.5.2, a solução é x(t) = etA x0 . Cabe agora à teoria vista sobre
exponencial de matrizes na forma canônica de Jordan, calcular exp(tA) e explicitar
a solução dada acima. Lembre-se que se A é tal que A = QP Q−1 (sendo P na forma
canônica de Jordan), então et(QP Q ) = QetP Q−1 = etA . Sob a observação de que
−1

tJλ (m) = λtI + tG1 (m), sendo que qualquer matriz comuta com a identidade, temos
que
etJλ (m) = eλtI eGt (m)

Exemplo 2.6.1.

Seja A tal que pA (λ) = (λ − 7)3 uma matriz de M(3). Com isso temos que:
 
e7t 0 0
• Se dim N7 = 1 então etJ =  te7t e7t 0 
t2 e7t /2 te7t e7t
 7t 
e 0 0
• Se dim N7 = 2 então etJ =  te7t e7t 0 
0 0 e7t
 7t 
e 0 0
• Se dim N7 = 3 então etJ =  0 e7t 0 
0 0 e7t

E mais, etA = QetJ Q−1

Notação:
0
Ja,b (m) = diag(Ja,b, . . . , Ja,b )2m×2m
 
0 0 0 ... 0 0

 tI 0 0 ...

 0 0

 0 tI 0 ...

 0 0
Gt,I (m) =  .. .. .. ..
 .. ..
 . . .  . . .
 
 0 0
0 ... 0 0 
0 0
0 . . . tI 0 m×m
 
cos(b) sen(b)
Rb =
−sen(b) cos(b)

Quanto aos blocos associados a autovalores complexos, note que tJa,b = Jta,tb e
0
daı́ segue que etJa,b = eJta,tb = eat Rbt . E mais, sabendo que tJa,b (m) = tJa,b (m) +

48
tG1, I(m) e que a matriz em blocos Gt,I (m) comuta com a matriz diagonal em blocos
0
tJa,b (m), temos
0
exp tJa,b (m) = etJa,b (m) eGt,I (m)
= eat diag(Rbt , Rbt , . . . , Rbt )eGt,I (m)
 
Rbt 0 0 0 ... 0 0

 tR bt R bt 0 0 ... 0 0 
2
 t 
 Rbt tRbt Rbt 0 ... 0 0 

 23 2


 t t 

at 
Rbt Rbt tRbt Rbt ... 0 0 
= e  3! 2 
.. .. .. .. .. .. .. 

 . . . . . . . 

 tm−2 tm−3
tm−4
tm−5 
 (m − 2)! Rbt (m − 3)! Rbt (m − 4)! Rbt (m − 5)! Rbt ... Rbt 0 


 
 tm−1 tm−2 tm−3 tm−4 
Rbt Rbt Rbt Rbt . . . tRbt Rbt
(m − 1)! (m − 2)! (m − 3)! (m − 4)!
Exemplo 2.6.2.

   
1 0 −2 1 0 0
A =  −5 6 11  ∼  0 −2 1  = J
5 −5 −10 0 −1 −2
 3t 
e 0 0
⇒ etA = QetJ Q−1 = e−2t Q  0 cos(t) sen(t)  Q−1
0 −sen(t) cos(t)

Exemplo 2.6.3.

   
3 8 −29 18 −1 0 0 0
 0 −1 −3 2   1 −1 0 0 
 4 6 −29 18  ∼  0
A =    =J
0 −2 1 
5 7 −34 21 0 0 −1 2
 t 
e 0 0 0
 tet et 0 0 
⇒ etA = QetJ Q−1 = e−2t Q   −1
 0 0 cos(t) sen(t)  Q
0 0 −sen(t) cos(t)

Afirmação: Se A é semelhante a J, matriz na forma canônica de Jordan, então


cada elemento da matriz exponecial etJ = ediag(tJ1 ,...,tJn ) = diag(etJ1 , . . . , etJn ) é zero

49
ou de uma das formas:
tj at tj at
e cos(bt) ou e sen(bt) (2.8)
j! j!
para algum 0 ≤ j ≤ n − 1 e a, b ∈ R tais que λ = a + ib é um autovalor generalizado
tj
de A; se b = 0 e a = λ, os dois tipos acima se reduzem à mesma forma eλt .
j!
Teorema 2.6.2. Seja A ∈ M(n) uma matriz qualquer. Cada coordenada de qual-
quer solução de x′ = Ax é uma combinação linear das funções

t → tj eat cos(bt) e t → tj eat = sen(bt)

com 0 ≤ j ≤ n − 1 e a, b ∈ R tais que λ = a + ib é um autovalor de A.

Demonstração: Dada A ∈ M(n), tomamos uma matriz invertı́vel Q ∈ M(n) tal


que Q−1 AQ = J = diag(J1 , . . . , Jr ) é a forma canônica de Jordan de A. Sabemos
que x(t) = QetJ Q−1 x0 é a solução geral de x′ = Ax e, pelo visto acima, temos que
cada entrada de cada uma das matrizes etJm dos blocos da diagonal de etJ é zero ou
dada por (2.8). Ao multiplicar etJ por Q, Q−1 e o vetor coluna x(0) = x0 , apenas
produzimos combinações lineares dessas funções.

Exemplo 2.6.4.

x′ = Ax

   
−2 −3 1 4 −4 −1 0 0 0 0

 −3 −9 1 5 −1  
  1 −1 0 0 0 

A=
 0 −1 −1 1 −1 ∼
  0 1 −1 0 0 =J

 −5 −14 2 9 −4   0 0 0 −2 1 
−3 −9 0 7 −4 0 0 0 −1 −2

A partir da forma canônica de Jordan J = diag (J−1 (3), J−2,1(1)) dessa matriz
A, obtemos
 
et 0 0 0 0
t t
 te e 0 0 0 
 
t2
etA = QetJ Q−1 −2t   −1
= e Q tet et 0 0 Q
 2 
 0 0 0 cos(t) sen(t) 
0 0 0 −sen(t) cos(t)

50
e podemos até explicitar a solução geral x(t) = etA x(0) da equação x′ = Ax como
t2
uma combinação linear das funções e−t , te−t , e−t , e−2t cos(t) e e−2t sen(t), como
2
garante o teorema 2.6.2.
Do ponto de vista qualitativo, mais importante que explicitar a solução diferen-
cial é entender o comportamento assintótico das soluções. No exemplo acima, note
que todas as soluções tendem à origem quando t → ∞ e que isso pode ser verificado
sem necessidade de explicitar as soluções.

2.7 Equações Lineares Homogêneas Não Autônomas


Considere a equação diferencial ordinária linear:
x′ = A(t)x (2.9)
em Rn , na qual A : I ⊂ R → M(n) é um caminho contı́nuo. Tal equação é dita
homogênea não autônoma e nos fornecerá argumentos para lidar com a equação não
homogênea.
Quando A(t) ≡ A constante em I, temos que x′ = Ax uma equação diferencial
ordinária linear homogênea autônoma, isto é, linear com coeficientes constantes,
estuda anteriormente.
Fixada uma condição inicial x(t0 ) = x0 com (t0 , x0 ) ∈ I × Rn , a solução de (2.9)
é um caminho derivável x : I → Rn tal que x′ (t) = A(t)x(t) para cada t ∈ I e
x(t0 ) = x0 . Note que x ∈ C 1 em Rn .
A equação se diz linear sob a “perspectiva” de que o espaço de todas as soluções
de (2.9) é um espaço vetorial, de fato, isomorfo a Rn .
Daı́ decorre que dados duas soluções de (2.9), digamos w(t) e z(t), então c1 w(t)+
c2 z(t) é também solução de (2.9). É razoável esperar que, para o sistema (2.9)
de ordem n × n, seja suficiente formar combinação linear de n soluções escolhidas
apropriadamente para obter a solução geral de (2.9).
Sejam x(1) , x(2) , . . . , x(n) n caminhos de I para Rn e soluções de (2.9) e considere
a matriz X(t) cujas colunas são os vetores x(1) , x(2) , . . . , x(n) :
 (1) (2) (n) 
x1 x1 . . . x1
 x(1) x(2) . . . x(n) 
 2 2 2 
X(t) =  . . . . 
 . . .
. . . .
. 
(1) (2) (n)
xn xn . . . xn
O determinante de X(t) é avaliado para cada t ∈ I. As soluções x(1) , x(2) , . . . , x(n)
são ditas linearmente independentes se, e somente se, det X(t) 6= 0. Tal deter-
minante é chamado de wronskiano
 das n soluções x(1) , x(2) , . . . , x(n) e denotado
W = W x(1) , x(2) , . . . , x(n) (t) = det X(t).

51
Qualquer conjunto de soluções x(1) , x(2) , . . . , x(n) de (2.9) que seja LI em cada
ponto do intervalo I é dito uma base de soluções nesse intervalo. Podemos encarar
(2.9) como uma equação diferencial matricial

X ′ = A(t)X (2.10)

em M(n). Constatamos que um caminho X : I → M(n) é solução de (2.10)


se, e somente se, cada coluna x(i) de X é solução de (2.9). De fato, escrevendo
X = x(1) , x(2) , . . . , x(n) em colunas x(i) = Xei ∈ Rn , temos:
 
(1) ′ (2) ′ (n) ′
x ,x ,...,x = X ′ = A(t)X

= A(t) x(1) , x(2) , . . . , x(n)

= A(t)x(1) , A(t)x(2) , . . . , A(t)x(n)
′ ′
ou seja, a equação (2.10) é equivalente a um sistema x(1) = A(t)x(1) , x(2) =

A(t)x(2) , . . . , x(n) = A(t)x(n) de n equações vetoriais (2.9), todas com a mesma
matriz A(t). Em particular, existem e são únicas as soluções de (2.10) definidas em
I.
Uma solução X : I ⊂ R → M(n) da equação matricial (2.10) é um sistema
fundamental de soluções ou, mais sucintamente, uma matriz fundamental da equação
(2.9) se as colunas x(1) , x(2) , . . . , x(n) de X são LI em C 1 (I, Rn ), o espaço das funções
de classe C 1 definidas de I para o Rn .
Sendo assim, etA é uma matriz fundamental da equação x′ = Ax.

Proposição 2.7.1. Seja X : I ⊂ R → M(n) uma solução da equação matricial


(2.10) com colunas dadas por x(1) , x(2) , . . . , x(n) : I ⊂ R → Rn . São equivalentes as
seguintes afirmações:
 (1) 
(i.) W x , x(2) , . . . , x(n) (t∗ ) 6= 0 para algum t∗ em I;
(ii.) x(1) (t∗ ), x(2) (t∗ ), . . . , x(n) (t∗ ) é uma base de Rn para algum t∗ em I;
(iii.) X é uma matriz fundamental  de (2.9);
(1) (2) (n)
(iv.) W x , x , . . . , x (t) 6= 0 para todo t em I.

Uma vez que é sempre possı́vel tomar x(i) (t0 ) = ei para cada i = 1, . . . , n como
condição inicial, isto é, tomar uma condição inicial X(t0 ) = I ∈ M(n) com determi-
nante não nulo, estabelecemos que:

• toda equação homogênea (2.9) possui matriz fundamental;

• qualquer solução de (2.9) é combinação linear de uma matriz fundamental;

• quaisquer n + 1 soluções de (2.9) são LD.

52
2.8 Sistemas Lineares Não Homogêneos
Considere o sistema não homogêneo

x′ = A(t)x + b(t) (2.11)

em Rn , na qual A : I ⊂ R → M(n) e b : I ⊂ Rn → Rn são caminhos contı́nuos.


Sejam xP1 (t) e xP2 (t) duas soluções de (2.11). Tome z(t) = xP1 (t) − xP2 (t)
 ′
x P1 (t) = A(t)xP1 (t) + b(t)
∼ x′ P1 (t) − x′ P2 (t) = A(t) (xP1 (t) − xP2 (t))
x′ P2 (t) = A(t)xP2 (t) + b(t)

Daı́ seque que z(t) é solução da equação homogênea (H): z ′ (t) = A(t)z(t)
Tome agora x(t) uma solução qualquer de (2.11), xP (t) uma solução particular
de (2.11) e {x1 , x2 , . . . , xn } uma base de soluções para (H), então x(t) − xP (t) é
solução de (H).
Porém como toda solução de (H) se escreve como combinação linear de x1 , x2 , . . . , xn :
n
X
x(t) − xP (t) = ci xi (t)
i=1

Logo, x(t) = c1 x1 (t) + c2 x2 (t) + . . . + cn xn (t) + xP (t). Uma pergunta natural é


como encontrar a solução particular xP (t). Apresentamos a seguir três métodos para
encontrar xP (t), são eles: Diagonalização, Método dos Coeficientes a se Determinar
e Método da Variação dos Parâmetros.

Diagonalização
Considere o seguinte sistema:

x′ = Ax + b(t) (2.12)

Suponha que A é semelhante a J, uma matriz na forma canônica de Jordan tal


que J = diag(λ1 , λ2 , . . . , λn ), Q−1 AQ = J e seja x = Qy.
Logo, Qy ′ = AQy + b(t) ⇒ y ′ = Q−1 AQy + Q−1 b(t), daı́ decorre a seguinte
equação:
y ′ = Jy + d(t) (2.13)
A equação (2.13) é um sistema de n equações independentes para y1 (t), y2(t), . . . , yn (t),
isto é,
y ′j (t) = λj yj (t) + dj (t), j = 1, 2, . . . , n (2.14)
sendo dj (t) uma combinação linear de b1 (t), b2 (t), . . . , bn (t).

53
Pelo Método do Fator Integrante, a equação (2.14) tem como solução:
Z t
yj (t) = exp(λj t) exp(−λj s) dj (s) ds + cj exp(λj t), j = 1, . . . , n
t0 =0

em que cj são constantes arbitrárias. Com isso, a solução de (2.12) é dada por
x(t) = Qy(t), e mais,
 Z t 
 exp(λ1 t) exp(−λ1 s) d1(s) ds   
t0 =0

 Z t

 c1 exp(λ1 t)
 exp(λ t)
 2 exp(−λ2 s) d2(s) ds 


 c2 exp(λ2 t) 

x(t) = Q  t0 =0 +Q  .. 
 ..   . 
 . 


Z t 
 | cn exp(λn t)
{z }
exp(λn t) exp(−λn s) dn (s) ds xH
t0 =0
| {z }
xP

de modo que xP é a solução particular de (2.12) e xH é a solução da equação linear


homogênea associada a (2.11).
No entanto, se J não é da forma diag(λ1 , λ2 , . . . , λn ) - pela presença de autoval-
ores repetidos e autovalores LI em quantidade insuficiente -, pode-se ainda reduzir
A a forma canônica de Jordan. Neste caso, a equação (2.13) não representa um sis-
tema de equações totalmente independentes, devido aos blocos de Jordan não serem
diagonais. Porém, as equações para y1 , y2, . . . , yn ainda podem ser resolvidas por
blocos, começando pela última equação e então se aplica a matriz Q para explicitar
a solução de (2.12).

Método dos Coeficientes a se Determinar


Esse método é aplicável somente se a matriz A é constante e se a função b é
polinomial, exponencial, trigonométrica ou somas ou produtos destas. Nestes casos,
a forma correta da solução pode ser identificada de maneira sistemática e simples.
Considere o exemplo a seguir que aborda o Método dos Coeficientes a se Determinar
para uma EDO de segunda ordem:

2x′′ + 3x′ + x = t2 + 3sen(t)

Candidata a solução: x(t) = at2 + bt + c + αsen(t) + βcos(t)


Como, x′ (t) = 2at + b + αcos(t) − βsen(t) e x′′ (t) = 2a − αsen(t) − βcos(t),
temos:

t2 + 3sen(t) = 2x′′ + 3x′ + x


= at2 + (6a + b)t + 4a + 3b + c + (−2α − 3β)sen(t) + (3α − β)cos(t)

54
Daı́ segue o seguinte sistema:
 

 a = 1 
 a=1
 

 6a + b = 0  b = −6

4a + 3b + c = 0 ∼ c = 14
 


 −2α − 3β = 3 

 α = −3/11
 
3α − β = 0 β = −9/11

Quanto ao sistema de equações x′ = Ax + b(t), o procedimento é basicamente


o mesmo. A principal diferença é ilustrada pelo caso em que λ é a única raiz
do polinômio caracterı́stico de A e b(t) = eλt (u1 , u2 , . . . , un )T . Nesta situação,
em vez de assumir que a solução é da forma teλt (c1 , c2 , . . . , cn )T , é ncessário usar
teλt (c1 , c2 , . . . , cn )T + eλt (k1 , k2 , . . . , kn )T
Método da Variação dos Parâmetros
Consideremos agora a equação linear não homogênea original:
x′ = A(t)x + b(t) (2.15)
Seja X(t) a matriz fundamental para o sistema homogêneo
x′ = A(t)x (2.16)
Suponha X(t) conhecida. Usamos o Método da Variação dos Parâmetros para
construir uma solução particular e então a solução geral da equação (2.15).
Procuremos uma função µ : I ⊂ R → Rn tal que X(t)µ(t) seja a solução partic-
ular de (2.15).
Pela equação (2.15) e pela diferenciabilidade de X(t)µ(t) em I, temos:
X ′ (t)µ(t) + X(t)µ′ (t) = A(t)X(t)µ(t) + b(t)
Como X(t) é uma matriz fundamental, temos que X ′ (t) = A(t)X(t) e então
X(t)µ′ (t) = b(t). Usando o fato de que X(t) é não singular em I ⊂ R, segue que
µ′ (t) = X −1 (t)b(t)
 
c1 Z
 .. 
⇒ µ(t) =  .  + X −1 (s)b(s) ds
cn
 
c1
 .. 
em que c =  .  é um vetor constante arbitrário. Finalmente, obtemos que
cn
x(t) = X(t)µ(t) é a solução de (2.15):
Z
x(t) = X(t)c + X(t) X −1 (s)b(s) ds (2.17)

55
Uma vez que c é arbitrário, qualquer condição inicial no ponto t0 = 0 pode ser
satisfeita por uma escolha apropriada de c. Então, cada solução do sistema (2.15)
está contida na expressão dada pela equação (2.17), sendo esta, portanto, a solução
geral de (2.15). Encare o primeiro termo de (2.17) como a solução do (H) e o
segundo como a solução particular de (2.15).
Considere agora a condição inicial x(0) = x0 . A solução geral toma a forma
Z t
x(t) = X(t)c + X(t) X −1 (s)b(s) ds (2.18)
0

Como x(0) = X(0)c, c = X −1 (0)x0 . Logo,


Z t
−1
x(t) = X(t)X (0)x0 + X(t) X −1 (s)b(s) ds (2.19)
0

é a solução de (2.15) com condição inicial x(0) = x0 . Apesar de ser útil usar X −1
para escrever as soluções acima, geralmente é melhor em casos particulares resolver
as equações necessárias por redução de linhas do que calcular X −1 .
A solução (2.19) toma uma forma ligeiramente mais simples se usarmos uma
matriz fundamental X(t) tal que X(0) = In×n . Neste caso,
Z t
x(t) = X(t)x0 + X(t) X −1 (s)b(s) ds (2.20)
0

Exemplo 2.8.1.

Considere o sistema
   
′ −2 1 2e−t
x = x+ = Ax + b(t) (2.21)
1 −2 3t

Avaliemos a solução para o sistema acima pelos três métodos vistos.

Diagonalização

Os autovalores e autovetores de A são, respectivamente, λ1 = −3, v1 = (1, −1)T


e λ2 = −1, v2 = (1, 1)T .
Então, a solução do sistema homogêneo é xH (t) = c1 v1 e−3t + c2 v2 e−t .
A matriz Q é tal que Q−1 AQ = J em que:
     
1 1 −1 1/2 −1/2 −3 0
Q= ,Q = eJ=
−1 1 1/2 1/2 0 −1

56
Seja y = Q−1 x, pela equação (2.21), temos:
   
′ −1 −3 0 1 2e−t − 3t
y = Jy + Q b(t) = y+
0 −1 2 2e−t + 3t

Logo,

y ′1 + 3y1 = e−t − 3t/2
y ′2 + y2 = e−t + 3t/2

1 T
Daı́ segue que (y1 , y2 ) = (1 + 3e−t − 3t + 6k1 e−3t , 9t − 9 + 6te−t + k2 e−t ) é
6
solução da equação acima. Logo, a solução de (2.21) é
 
1 −8 + (3 + k2 )e−t + 6t + 6te−t + 6k1 e−3t
x(t) = Q(y1 , y2) =
6 −10 + (k2 − 3)e−t + 12t + 6te−t − 6k1 e−3t
           
−3t 1 −t 1 e−t 1 1 −t 1 1 8
= k1 e + k2 e + +t + te −
−1 1 2 −1 2 1 6 10

em que os dois primeiros termos são a solução da equação homogênea associada a


(2.21) e os outros termos a solução particular do sistema não homogêneo.

Método dos Coeficientes a se Determinar

Podemos escrever o termo b(t) de (2.21) como sendo


   
−t 2 0
b(t) = e +t
0 3

Então assumimos que a solução de (2.21) é da forma


       
−t a1 −t b1 c1 d1
x(t) = te +e +t +
a2 b2 c2 d2

Observe que λ = −1 é um autovalor da matriz A de (2.21) e, portanto, devemos


incluir ambos os termos te−t (a1 , a2 )T e e−t (b1 , b2 )T na solução candidata a solução
geral de (2.21). Aplicando a expressão acima em (2.21), temos:
           
a1 a1 b1 a1 a1 2
A =− , A = − −
a2 a2 b2 a2 a2 0
       
c1 0 d1 c1
A = e A =
c2 3 d2 c2

57
Note que (a1 , a2 )T é o autovetor de A associado ao autovalor é λ = −1, logo
(a1 , a2 )T = (a, a)T , com a 6= 0. Da segunda equação acima, decorre que a = 1 e que
     
b1 1 0
=b − ,b∈R
b2 1 1

A escolha mais simples para a constante b é b = 0 e então (b1 , b2 )T = (0, −1)T .


1
Das terceira e quarta equações, obtemos que (c1 , c2 )T = (1, 2)T e (d1 , d2 )T = − (4, 5)T .
3
Com isso, a solução particular de (2.21) é
       
−t 1 −t 0 1 1 8
xP (t) = te −e +t −
1 1 2 6 10

A solução particular acima não é idêntica à encontrada pelo Método da Diag-


onalização, por termos escolhido b = 0. No entanto, para b = 1/2, (b1 , b2 )T =
(1/2, −1/2)T , as duas soluções particulares estão de acordo.

Método da Variação dos Parâmetros

Conhecemos a solução geral do sistema homogêneo associado a (2.21) do Método


da Diagonalização, então temos a seguinte matriz fundamental
 −3t 
e e−t
X(t) =
−e−3t e−t

A solução geral de (2.21) é dada por x(t) = X(t)u(t), em que u(t) satisfaz
X(t)u′ (t) = b(t), ou seja,
 −3t   ′   −t 
e e−t u1 2e
−3t −t ′ =
−e e u2 3t

Resolvendo por redução de linhas, temos


 ′ 
u 1 = e2t − (3/2)te3t u1 = (3e2t − 3te3t + e3t + c1 )/6

u′2 = 1 + (3/2)tet u2 = (2t + 3tet − 3et + c2 )/2

e então

x(t) = X(t)u(t)
           
−3t 1 −t 1 e−t 1 1 −t 1 1 8
= c1 e + c2 e + +t + te −
−1 1 2 −1 2 1 6 10

que é a mesma solução de (2.21) encontrada anteriormente.

58
2.9 Modelo IS-LM
Consideremos agora o famoso Modelo IS-LM, um modelo de determinação da
renda no curto prazo. Abordamos aqui o modelo sob uma formulação bem simples
e esclarecendo, sempre que possı́vel, a intuição econômica implı́cita nas equações
matemáticas. Nesta versão, supõe-se uma economia fechada, isto é, não há comércio
internacional e daı́ segue que exportações e importações são iguais a zero.
Desenvolvido a partir de uma crı́tica à polı́tica clássica de não intervencionismo
do Estado, o modelo IS-LM propõe que existem momentos em que a atividade
econômica não é capaz de se recuperar por conta própria, momentos em que se fazem
necessárias polı́ticas de incentivo ao crescimento econômico via Governo. Assume-
se que há rigidez de preços no curto prazo, isto é, ausência de inflação num curto
horizonte de tempo, e mais, assume-se que existe capacidade ociosa de fatores pro-
dutivos, principalmente trabalho. Com isso, a oferta pode se ajustar a qualquer
nı́vel de demanda via contratação de trabalhadores.
O nome do modelo advém da segmentação do mercado em dois: o de bens e
o monetário. No mercado de bens, os consumidores tomam decisões sobre quanto
consumir e poupar (IS: investment and saving). Já no mercado monetário, também
dito, mercado financeiro, as pessoas decidem quanto comprar e vender de tı́tulos de
investimento. Vamos supor aqui que é válida a Teoria da Preferência pela Liquidez,
isto é, as pessoas dão preferência por investir em tı́tulos mais lı́quidos. Lembre
que liquidez se refere à facilidade com que um ativo é convertido em moeda fı́sica,
sendo assim, um tı́tulo é dito lı́quido se é relativamente fácil comprá-lo e o vender
no mercado. É daı́ que deriva o nome LM (liquity and money).
O produto interno bruto (PIB) é o valor total dos bens e serviços finais produzidos
na economia em um dado perı́odo, ou ainda, a soma das rendas na economia em
um dado perı́odo. É natural encarar o PIB como sendo a oferta de bens e serviços.
Denotaremos a renda/produção/PIB num perı́odo t por y(t).
A demanda por um bem é a vontade de consumir esse bem. Pensando na de-
manda agregada (DA) de um paı́s, podemos encarar o consumo (C), o investimento
(I) e os gastos do governo (G) como sendo os componentes da DA.
DA = C + I + G
Note que se o consumo interno de um paı́s estiver crescendo a um ritmo su-
perior ao do crescimento da produção, temos um excesso de demanda que deverá
ser atendida via aumento da produção pelas empresas, isso porque se supõe, por
simplicidade, que as empresas não mantêm estoque. Se, por algum motivo, houver
um crescimento da demanda, de DA1 para DA2 , então a produção se ajustará, de
Y1 para Y2 , como mostrado na Figura 2.11. E esse ajustamento se dá sem afetar os
preços, uma consequência direta da ausência de inflação e da hipótese de capacidade
produtiva ociosa no curto prazo.

59
P DA1 DA2

P
OA

Y1 Y2 Y

Figura 2.11: Curto Prazo: a demanda determina a oferta

Quanto ao consumo, consideramos que depende positiva e linearmente da renda


disponı́vel, isto é, a renda lı́quida de imposto de renda. Ainda mais, o investimento
é negativamente influenciado pela taxa de juros. Isso porque as pessoas buscam
investimentos com retorno superior a taxa de juros, com isso taxas altas tornam-se
uma restrição, pois se reduz o número de projetos “aceitáveis” disponı́veis. Resumi-
damente, aumentar a taxa de juros reduz o número de investimentos “interessantes”
e consequentemente o número de investimentos realizados. Vale lembrar que no
mercado de bens, o termo investimento se refere à compra de novas instalações e
máquinas, à construção de novos armazéns, edifı́cios e imóveis.
Considere então a seguinte equação:

DA = c0 + c1 (1 − T )y(t) − hr(t) + G

sendo
c0 : o gasto autônomo, isto é, o que as pessoas consumiriam se sua renda disponı́vel
fosse zero; (c0 > 0)
T : alı́quota de imposto de renda; (0 < T < 1)
c1 : a propensão a consumir, isto é, a parcela da renda disponı́vel ao consumidor que
será utilizada para o consumo; (0 < c1 < 1)
h: é a sensibilidade do investimento à taxa de juros, isto é, supomos aqui que
I = −hr(t), em que r(t) representa a taxa de juros nominal no instante t do tempo;
(h > 0)
G: gastos do governo - variável assumida como constante e determinada exogena-
mente pelo governo.
Pela formulação acima, entende-se C = c0 + c1 (1 − T )y(t), I = −hr(t) e G,
exógena. O equilı́brio no mercado de bens se dá quando não há excesso de demanda

60
nem excesso de oferta, isto é, quando OA = DA, que é equivalente a
y(t) = c0 + c1 (1 − T )y(t) − hr(t) + G (2.22)
Analisemos agora o Mercado Monetário. Dada uma quantidade de riqueza, as
pessoas decidem o quanto retém na forma de moeda e quanto retém na forma de
tı́tulos. A primeira é necessária para que as pessoas possam consumir e a segunda
oferece pagamento de juros. A maneira como se pondera essas quantidades está
intimamente ligada à taxa de juros, pois quanto mais alta for a taxa de juros, mais
se estará disposto a ter tı́tulos e menos disposto a reter riqueza sob a forma de
moeda. Note que as pessoas de maior renda requerem mais moeda para realizar
seu consumo, algo já esperado. Daı́ segue que a demanda real por moeda mD é
negativamente relacionada com a taxa de juros e positivamente relacionada com a
renda:
mD (t) = ky(t) − ur(t), k, u > 0
A oferta de moeda MS , por outro lado, é determinada pelo Banco Central e tida
então como exógena, MS = M0 . Sabendo que o nı́vel de preço é constante, então o
poder de compra do consumidor é estável e a oferta real de moeda é m0 = M0 /P .
Como antes, o equilı́brio é alcançado quando não há excesso de demanda por moeda
ou por tı́tulos, isto é, quando mD (t) = m0 .
Mais precisamente, assume-se que no mercado de bens, a produção y(t) se ajusta
de acordo com o excesso de demanda e que a taxa de juros r(t) se ajusta de acordo
com o excesso de demanda por moeda no mercado monetário, isto é,
 ′
y = α (DA(t) − y(t)) , com α > 0
(2.23)
r ′ = β (mD (t) − m0 ) , com β > 0
Diante de um excesso de demanda, DA(t) > y(t), há estı́mulo ao aumento da
produção e diante de um excesso de demanda por moeda, mD (t) > m0 , aumenta-se
a taxa de juros, servindo de desestı́mulo a demanda por moeda, afinal os tı́tulos se
tornam mais “interessantes”. Para ganhar intuição, tome a taxa de juros como o
“preço do dinheiro”, pois os juros são o que se tem de pagar por “tomar emprestado”
uma certa quantia de dinheiro por um certo tempo - algo como o valor do aluguel
do dinheiro. Note que quando há excesso de demanda por um bem, seu preço sobe.
Em particular, quando o bem é o próprio dinheiro. Essas dinâmicas de ajuste estão
bem representadas em (2.23).
Estas equações podem ser expressas explicitamente em termos de y e r, em que
assumimos ser funções contı́nuas do tempo, mas omitimos a variável tempo para
simplificar a notação:
 ′
y = α (c1 (1 − T ) − 1) y − αhr + α(G + c0 )
(2.24)
r ′ = βky − βur − βm0

61
1 − c1 (1 − T )
assumindo que > 0 para estar empiricamente de acordo com a reali-
h
dade, apesar de ser algebricamente possı́vel que essa hipótese seja falsa.
Como sugerido anteriormente, o equilı́brio se dá quando y ′ = 0 e r ′ = 0:
G + c0 − (1 − c1 (1 − T )) y
Para o mercado de bens, temos a curva IS: r =
h
−m0 + ky
Para o mercado monetário, temos a curva LM: r =
u
r

c0 + G 1-c1 H1-T L m0 k
r= h
- h
y r=- + y
u u

P0

LM IS
y

Figura 2.12: Equilı́brio dos mercados de bens e monetário

A segmentação do mercado em mercado de bens e monetário implica que só há


equilı́brio na economia como um todo, se houver equilı́brio em ambos os mercados.
Sendo assim, o modelo tem apenas um ponto crı́tico P0 :
 
c0 + G + (h/u)m0 −(1 − c1 (1 − T )m0 /u + (c0 + G)k/u
(y0 , r0 ) = ,
1 − c1 (1 − T ) + kh/u 1 − c1 (1 − T ) + kh/u
Num primeiro momento, analisemos a dinâmica de forças que atuam quando
cada um dos mercados não está em equilı́brio. Quanto ao mercado de bens: para
pontos à direita da curva IS, temos que
c0 + G − [1 − c1 (1 − T )] y
r> ⇒ 0 > c0 + G + c1 (1 − T )y − hr − y
h
o que implica que y ′ < 0. Então, à direita da IS, a renda é decrescente. Analoga-
mente, à esquerda a IS, a renda é crescente. Agora, quanto ao mercado monetário,
para pontos à direita da curva LM, temos que
ky − m0
r< ⇒ 0 < ky − ur − m0
u
62
o que implica que r ′ > 0. Então, à direita da LM, a taxa de juros cresce e à esquerda
decresce.
Analisemos agora como as polı́ticas fiscal e monetária afetam o equilı́brio acima.
Suponha que a economia esteja no equilı́brio P0 da Figura 2.12. Considere que o gov-
erno retire moeda da economia, promovendo uma polı́tica monetária retracionista:
a oferta de moeda cai de m0 para m1 . Isso fará com que a curva LM se desloque
para cima, de LM0 para LM1 , já que para um dado nı́vel de produto, uma redução
da oferta de moeda leva a um aumento da taxa de juros.

LM1 Hm1L LM0 Hm0L

PA
T1
T3 T4
r1
P1 T2
r0 P0

IS
y1 y0
y

Figura 2.13: Polı́tica monetária retracionista

Sendo P1 = (y1 , r1 ) o ponto de novo equilı́brio, consideremos quatro possı́veis


caminhos, T1 , T2 , T3 e T4 , para que a economia se ajuste de P0 até P1 . A trajetória
T1 é um caso extremo de ajustamento, pois supõe que o mercado monetário se
ajusta instantaneamente, com o ajustamento imediato da taxa de juros para manter
o equilı́brio no mercado monetário. Sob essa suposição, a economia se move de P0
verticalmente para PA . Isto porque a renda ainda não teve chance de se ajustar e
permanece em y0 . Dado o forte aumento na taxa de juros, o investimento cai e con-
sequentemente a renda. Conforme a renda cai, a demanda por moeda declina assim
como a taxa de juros cai, mas de maneira que o equilı́brio no mercado monetário
é preservado. Isto significa que o ajustamento deve ocorrer ao longo da nova curva
LM1 , como mostrado na Figura 2.13. Sob essa suposição de ajustamento instantâneo
no mercado monetário, a taxa de juros ultrapassa seu novo nı́vel de equilı́brio r1 e
então, com a dinâmica de equilı́brio do mercado de bens, cai até alcançar r1 . A
renda, por outro lado, cai continuamente até alcançar o novo nı́vel de equilı́brio y1 .

63
A trajetória T2 , por outro lado, indica que ambos os mercados se ajustam im-
perfeitamente de tal maneira que a economia se move gradualmente de P0 para
P1 , sendo que a taxa de juros cresce gradualmente até alcançar r1 e a renda cai
gradualmente até y1 . Se a economia se comportar conforme esta trajetória, então
a taxa de juros não ultrapassa o novo nı́vel ótimo r1 . Mas nossa análise na figura
2.12 indica que não há razão para assumir que esta é a única possı́vel trajetória.
Por exemplo, a trajetória T3 mostra um crescimento mais forte na taxa de juros
que o da trajetória T2 , havendo um comportamento assintótico espiral anti-horário
convergindo para o novo equilı́brio P1 . Se assumirmos que o mercado monetário,
embora não se ajuste instantaneamente, ajuste-se rapidamente e que o mercado de
bens se ajuste igualmente rápido, então a trajetória T3 é a mais provável. Esta é
uma importante observação. Uma trajetória espiral convergente ao novo equilı́brio
(trajetória T3 ) é mais provável se ambos os mercados têm uma dinâmica rápida de
ajustamento e consequentemente, ambas as variáveis endógenas y e r, ultrapassarão
o novo nı́vel de equilı́bio (y1 , p1 ). Mesmo assim, uma espiral anti-horário não é o
resultado mais provável. Empiracamente, espera-se observar a trajetória T4 . Isto
porque, em geral, o mercado monetário é relativamente mais rápido para se ajustar
que o mercado de bens, de modo que a trajetória efetuada pela economia permanece
dentro do triângulo P0 PA P1 , sendo “atraı́do” para a trajetória T1 .
Considere agora que o governo promova uma polı́tica fiscal expansionista, au-
mentando seus gastos ou reduzindo a carga tributária.
Suponha que aumentando gastos de G0 para G1 . Isso fará com que a curva IS se
desloque para a direita, de IS0 para IS1 , já que agora para cada taxa de juros fixada,
um aumento dos gastos do governo leva a um aumento do produto. Algebricamente,
aumentar os gastos do governo aumenta o valor do intercepto da IS, (G + c0 )/h, e
então ocorre um deslocamento desta curva. Seja P1 o ponto de novo equilı́brio.
A particular trajetória que a economia fará de P0 até P1 depende dos parâmetros
envolvidos no modelo.

64
r
LM

r1
P1
T1
P0 T2
r0 T3

IS1 HG1L
IS0 HG0L
y0 y1
y

Figura 2.14: Polı́tica fiscal expansionista

Assumindo que o mercado monetário se ajusta instantaneamente, temos um au-


mento gradual da renda e, consequentemente, um aumenta na demanda por moeda
que, por sua vez, estimula um aumento na taxa de juros. Esse ajustamento ocorre
mantendo ainda o mercado monetário em equilı́brio, como mostra a trajetória T1 .
Por outro lado, supondo um ajustamento rápido do mercado monetário e um lento
do mercado de bens, temos a trajetória T2 , com uma taxa de juros crescendo grad-
ualmente até alcançar o nı́vel r1 do novo equilı́brio e a renda até o nı́vel y1 , de tal
forma que a economia não excede o novo nı́vel ponto de equilı́brio. Podemos ainda
considerar que o mercado de bens se ajusta rapidamente, de modo que a economia
segue a trajetória T3 , espiral anti-horário convergindo para o ponto P1 , no entanto,
essa trajetória não é empiricamente esperada.
Essas análises têm, de fato, a resposta para muitas questões da macroeconomia.
Utilizada de maneira apropriada, elas nos permite estudar o que acontece com o
produto e com a taxa de juros quando o Banco Central decide aumentar o estoque
de moeda, ou quando o governo decide aumentar impostos, ou quando os consumi-
dores se tornam mais pessimistas sobre o futuro, e assim por diante. A forma como
desenvolvemos o modelo também nos faz concluir que, caso o governo queira au-
mentar apenas o produto sem alterar a taxa de juros, ele pode combinar as polı́ticas
monetária e fiscal. Mas atente ao fato de que o governo não é onipotente e não
tem o poder de escolher os nı́veis de produto e taxa de juros que quiser. Existem
muitos aspectos da realidade que não são incorporados pelo modelo nesta versão
mais simples e todos complicam a tarefa do governo.
Podemos ainda analisar o modelo sob outra perspectiva: uma análise qualitativa
usando-se dos tópicos já discutidos anteriormente. O sistema de equações ordinárias

65
do modelo podem ser assim representado
 ′      
y −α(1 − c1 (1 − T )) −αh y α(c0 + G)
= +
r′ βk −βu r −βm0
Sejam A, a matriz do sistema planar assim e b(t) a perturbação. Da suposição
1 − c1 (1 − T )
de que > 0, temos que tr A < 0 e que det A > 0. Daı́ segue que o
h
equilı́brio do sistema é assintoticamente estável. Considere que:
c0 = 20, c1 = 0.75, T = 0.25, h = 1.525, k = 0.25, u = 0.5, m0 = 8 e G = 30
O equilı́brio da economia se dá em (y0 , r0 ) = (62, 15). Uma queda na oferta real
de moeda para m1 = 5 leva ao novo ponto de equilı́brio (y1 , r1 ) = (54.375, 17.1875),
representado pelo ponto P1 na Figura 2.15.
r

20
T1
19 T2

T3
18

17
P1

16

P0
56 58 60 62
y

Figura 2.15: Ajustamento da economia

O sistema de equações resultante para m1 = 5, sem especificar os valores de α e


β, é
 ′      
y −0.4375α −1.525α y 50α
= +
r′ 0.25β −0.5β r −5β
A trajetória que a economia traça até o novo equilı́brio dependerá muito dos
parâmetros α e β. Considere três possı́veis combinações, logo três possı́veis tra-
jetórias:
T1 : α = 0.05 e β = 0.8
T2 : α = 0.1 e β = 0.8
T3 : α = 0.5 e β = 0.8

66
Para cada trajetória temos diferentes autovalores associados à matriz A:

T1 : λ1 = −0.354097 e λ2 = −0.067778 ⇒ poço


T2 : λ1 = −0.256925 e λ2 = −0.186825 ⇒ poço
T3 : λ1 = −0.309375 + 0.379851i e λ2 = −0.309375 − 0.379851i ⇒ espiral estável

Assim, a nossa discussão sobre como a economia responderia às polı́ticas monetária
e/ou fiscal está intimamente ligada aos parâmetros α e β, consequentemente, aos
autovalores da matriz do sistema de EDO’s no modelo ISLM, de modo que, esses
parâmetros medem a velocidade com que os mercados de bens e monetário se ajus-
tam a alterações em parâmetros macroeconômicos, como a oferta de moeda m0 ,
os gastos do governo G, a expectativa dos consumidores e consequentemente sua
propensão a consumir c1 e a taxa de juros r.

67
Capı́tulo 3

Equações Diferenciais Não


Lineares

3.1 Introdução
Apesar de já termos analisado a teoria de estabilidade para os sistemas lineares,
ainda não temos formalmente a definição de estabilidade. Considere então um sis-
tema autônomo x′ = f (x), x ∈ Rn , na vizinhança do ponto crı́tico x∗ , satisfazendo
as condições do Teorema de Existência. Sendo assim, f (x∗ ) = 0 e x(t) = x∗ é a
solução de equilı́brio.
Definição 3.1.1. Dizemos que x∗ é estável se, dado qualquer ε > 0, existe um δ > 0
tal que se |x0 − x∗ | < δ, a solução x(t, x0 ) do sistema autônomo

x′ = f (x)
x(0) = x0
existe para todo t > 0 e satisfaz |x(t, x0 ) − x(t, x∗ )| = |x(t, x0 ) − x∗ | < ε, ∀t ≥ 0.
Em outras palavras, todas as soluções que partem suficientemente próximas de

x são definidas para todo t > 0 e se mantêm próximas deste ponto. Note que a
solução de equilı́brio existe para todo t > 0, e a estabilidade desta solução pode ser
interpretada como uma continuidade uniforme (para t > 0) das soluções com respeito
às condições iniciais, isto é, para condições iniciais suficientemente próximas de x∗ ,
a solução do sistema existe para todo t > 0 e se mantém uniformemente próxima
da solução de equilı́brio. Veja as figuras 3.1 e 3.2 que representam estas definições
no caso particular de R2 .
Definição 3.1.2. Dizemos que o ponto de equilı́brio x∗ de x′ = f (x) é assintotica-
mente estável se for estável e, além disto,
lim x(t, x0 ) = x∗
t→∞

68
y y

Ε Ε

∆ ∆
HxH0L,yH0LL HxH0L,yH0LL

x x

Figura 3.1: Estabilidade Figura 3.2: Estabilidade assintótica

Definição 3.1.3. Dizemos que o ponto de equilı́brio x∗ de x′ = f (x) é instável se


não for estável, isto é, existe um ε > 0 e pelo menos uma solução do sistema que
não pertence indefinidamente à bola Bε centrada em x∗ .

3.2 Sistemas Quase-Lineares


Não existem métodos sistemáticos que possam resolver o sistema de equações
diferenciais de primeira ordem
 

 x′1 (t) = f1 x1 (t), x2 (t), . . . , xn (t)

 x′ (t) = f2 x1 (t), x2 (t), . . . , xn (t)
2
.. (3.1)

 .
 x′ (t) = f x (t), x (t), . . . , x (t)

n n 1 2 n

quando as funções fi não forem lineares em x1 , x2 , . . . , xn . Entretanto, em boa


parte das aplicações reais, não é necessário conhecer as expressões analı́ticas para as
soluções x(t) do sistema acima, mas sim algumas de suas proprieadades.
(RETIRAR) Competição entre espécies Lotka Volterra - olhar exemplo lá em-
baixo
Ainda assim, alguns desses sistemas podem ser aproximados, sob algumas hipóteses,
localmente em seus pontos crı́ticos por sistemas lineares. Apesar de, na maioria dos
casos, não se poder afirmar muito sobre o comportamento global da solução, ao
menos localmente, a solução é compreendida.

69
Qual o sentido de um sistema estar “próximo” de um sistema linear (3.1)?
Por simplicidade de notação, considere o sistema em R2 e entenda X = (x, y)

X ′ = AX + b(X) (3.2)

e suponha que (0, 0) seja um ponto crı́tico isolado de (3.2), isto é, suponha que
existe um bola centrada na origem em que o único ponto crı́tico interior a ela é
o próprio (0, 0). E mais, suponha que det(A) 6= 0 e que (0, 0) seja também um
ponto crı́tico isolado de X ′ = AX. Para o sistema (3.2) estar próximo do sistema
X ′ = AX, assume-se que b(X) é pequeno. Mais precisamente, assume-se que as
componentes de b tem derivadas parciais primeiras contı́nuas e satisfazem a condição
|b(X)|
lim = 0, isto é, |b| é pequeno em comparação com |X| sempre que X está
X→0 |X|
próximo de (0, 0). Então o sistema (3.2) é quase-linear na vizinhança do ponto
crı́tico (0, 0).
Considere o caso particular n = 2 do sistema (3.1):
 ′
x = F (x, y)
(3.3)
y ′ = G(x, y)

Definição 3.2.1. O sistema (3.3) é quase-linear na vizinhança de um ponto crı́tico


(x∗ , y ∗) sempre que as funções F e G tem derivadas parciais contı́nuas até ordem 2
Isso pode ser obtido usando as expansões de Taylor ao redor do ponto (x∗ , y ∗)
para escrever F (x, y) e G(x, y) na forma:

F (x, y) = F (x∗ , y ∗) + Fx (x∗ , y ∗)(x − x∗ ) + Fy (x∗ , y ∗)(y − y ∗) + η1 (x, y)
G(x, y) = G(x∗ , y ∗) + Gx (x∗ , y ∗)(x − x∗ ) + Gy (x∗ , y ∗ )(y − y ∗ ) + η2 (x, y)

η1 (x, y)
em que → 0 quando (x, y) → (x∗ , y ∗) e similarmente para η2 (x, y).
|(x − x∗ , y − y ∗)|
dx d(x − x∗ ) dy d(y − y ∗)
Note que F (x∗ , y ∗) = G(x∗ , y ∗) = 0 e que = e = .
dt dt dt dt
Então o sistema (3.3) se reduz a
      
d x − x∗ Fx (x∗ , y ∗) Fy (x∗ , y ∗) x − x∗ η1 (x, y)
= + (3.4)
dt y − y ∗ Gx (x∗ , y ∗) Gy (x∗ , y ∗) y − y∗ η2 (x, y)

ou vetorialmente,
 
du Fx (x∗ , y ∗) Fy (x∗ , y ∗)
= u + η(X) (3.5)
dt Gx (x∗ , y ∗) Gy (x∗ , y ∗)

em que u = (x − x∗ , y − y ∗ ) e η = (η1 , η2 ).

70
Fazendo u1 = x − x∗ e u2 = y − y ∗, o sistema linear que se aproxima do não
linear (3.3) em (x∗ , y ∗) é dado pelas partes lineares das equações (3.4) e (3.5), isto
é,     
d u1 Fx (x∗ , y ∗) Fy (x∗ , y ∗) u1
= (3.6)
dt u2 Gx (x∗ , y ∗) Gy (x∗ , y ∗) u2
Já a equivalência quanto a estabilidade é dependente dos autovalores da matriz
quadrada 2 × 2 das derivadas parciais (a matriz Jacobiana) aplicada aos pontos
crı́ticos de (3.5) e é dada conforme a tabela abaixo:

Tabela 3.1: Equivalência quanto a estabilidade: Linear vs. Quase-Linear


Autovalores λ1 e λ2 Sistema Linear Sistema Quase-Linear
λ1 > λ2 > 0 Instável Instável
λ1 < λ2 < 0 Assintoticamente estável Assintoticamente estável
λ1 < 0 < λ2 Instável Instável
λ1 = λ2 > 0 Instável Instável
λ1 = λ2 < 0 Assintoticamente estável Assintoticamente estável
λ1 = a + ib e λ2 = a − ib
a>0 Instável Instável
a<0 Assintoticamente estável Assintoticamente estável
a=0 Estável Indeterminado

3.3 Estabilidade Segundo Lyapunov


Em vez de tentar determinar a estabilidade de um sistema linear examinando
a aproximação linear, vamos explorar uma abordagem inteiramente diferente. Esta
técnica, descoberta por Lyapunov no final do século XIX, foi redescoberta e aplicada
efetivamente a problemas inteiramente novos, especialmente durante os últimos 20
anos (ano do livro). A técnica é ainda chamada de Método Direto porque pode
ser aplicada diretamente à equação diferencial sem qualquer conhecimento sobre
as soluções desde que sejam construı́das/conhecidas funções auxiliares apropriadas.
Como mostraremos por meio de exemplos, a escolha certa não é em si óbvia. Além de
dar um critério de estabilidade, estabilidade assintótica e instabilidade de soluções,
o método ainda fornece uma maneira de estimar a região de estabilidade assintótica.
Isto é algo que a aproximação linear nunca poderia oferecer porque as propriedades
de estabilidade de sistemas lineares são globais mas o acréscimo de um termo não lin-
ear pode mudar completamente a região de estabilidade ou estabilidade assintótica.
A ideia por trás do método está associada a um resultado de Lagrange (declarado
por ele por volta de 1800 e provado depois por Dirichlet): “Se em uma certa posição

71
de repouso, um sistema mecânico conservativo tem energia potencial mı́nima, então
esta posição corresponde a um estado de equilı́bio; se a posição de repouso não é de
energia potencial mı́nima, então o equilı́brio é instável.” Para ilustrar tal conceito,
consideremos, por simplicidade, uma partı́cula de massa m se movendo em uma
linha reta sob a ação de uma força f (x) que depende da posição x ∈ R mas não do
tempo t. Então a equação de movimento é

mx′′ = f (x) (3.7)

Podemos pensar em f (x) como derivada de uma função potencial F (x), f (x) =
dF (x) dF (x)
− e, portanto, mx′′ = − . Multiplicando a equação por x′ , temos
dx dx
dF (x)
mx′′ x′ = −x′
dx
que pode ser escrita como
 
d mx′ 2 (t) d
= − F (x(t))
dt 2 dt
ou  
d mx′ 2 (t)
+ F (x(t)) = 0
dt 2
mx′ 2 (t)
Esta igualdade nos diz que a expressão + F (x(t)), que representa ob-
2
viamente a energia total V (energias cinética e potencial) do sistema, mantém-se
constante sobre a trajetória x(t) do sistema, por essa razão, chamado de conserva-
tivo. Daı́, temos
mx′ 2 (t)
V (x) = V (x, x′ ) = + F (x(t)) (3.8)
2
Observação: uma função constante ao longo das curvas soluções de um sistema
é chamada função integral do sistema.
Considerando a equação (3.7) como um sistema no plano de fase (posição-
velocidade), podemos escrevê-la como um sistema de equações autônomas de primeira
ordem fazendo x1 = x e x2 = x′

 x′ 1 = x2
dF (x1 ) (3.9)
 mx′ 2 = f (x1 ) = −
dx1
 
dF (x1 )
verificamos que a função função V (x) é uma integral do campo x2 , − ,
dx1
isto é, as trajetórias deste sistema dinâmico são traçadas sobre as linhas de nı́vel de

72
V (x) = V (x0 ). É claro que o argumento acima, embora carregado de linguagem e
significado fı́sico, pode ser repetido matematicamente para qualquer equação difer-
encial ordinária autônoma de segunda ordem.
Para o caso em que x ∈ Rn , multiplicando a equação x′′ = f (x) por x′ (produto
escalar), temos  
d m|x′ |2
= f (x).x′
dt 2
sendo |x′ |2 , sob a norma euclidiana, igual ao produto escalar x′ .x′ .
d
Mas o termo f (x).x′ só poderá ser escrito como − F (x(t)) se f (x) = −∇F (x).
dt
Entretanto, diferente do caso unidimensional, isto só é possivel se a função f (x)
satisfizer as condições de compatibilidade
∂fi ∂fj
=
∂xj ∂xi
 
∂fi
ou seja, se a matriz jacobiana for simétrica. Nestes casos, dizemos que
∂xj i,j
o sistema é conservativo. Em outras palavras, a declaração de que o sistema é
conservativo significa que a função força é determinada por uma função F pela
relação f (x) = −∇F , sendo F (x) chamada energia potencial. Note que aqui também
as trajetórias do sistema conservam energia
   
d m|x′ (t)|2 d m|x′ (0)|2
+ F (x(t) = + F (x(0))
dt 2 dt 2

Em um caso particular, a energia potencial pode ter o gráfico mostrado na figura


5.1 (Brauer), com posições de repouso correspondentes aos pontos A, 0, B, C e D.
Então o Teorema de Lagrange diz que os pontos de repouso correspondentes a 0 e
D são estáveis enquanto que aqueles correspondentes a A, B e C são instáveis. Por
simplicidade, assuma, como indicado na figura, que F (0) = 0 e f (0) = −∇F (0) = 0;
e que F (x) > 0 se x 6= 0 de modo que x = 0 é um ponto de equilı́brio estável
correspondente ao mı́nimo de F (x).
dV dV
Observe que = mx2 e = ∇F (x1 ) = −f (x1 ) de modo que (3.9) pode ser
dx2 dx1
escrita na forma (a chamada forma Hamiltoniana)
 
′ 1 dV dH
 x1 =
  y′ =

m dx2 ou dz (3.10)
−1 dV ′ dH
 ′
 x2 =  z = −

m dx1 dy

73
1
com x1 = y, x2 = z e H(y, z) = V (y, z) é chamada Hamiltoniana de (3.9).
m
Mais geral, um sistema de 2n equações determinada por uma única função escalar
H(y1, . . . , yn , z1 , . . . , zn ) é chamado Hamiltoniano se é da forma

dH
 y′i =

dzi (3.11)
dH
 z′i = −

dyi
Voltemos à demonstração intuitiva do Teorema de Lagrange pelo sistema (3.7) ou
(3.9). Esta demonstração contém as ideias intuitivas por trás do Segundo Método de
Lyapunov. Restrinjamo-nos ao caso simples de um ponto de equilı́brio em (x1 , x2 ) =
(0, 0), quando a energia potencial tem um mı́nimo em x1 = 0. Assumimos que
F (0) = 0; assim pela propriedade do mı́nimo, F (x1 ) > 0 para x1 6= 0 e |x1 | pequeno.
Queremos mostrar que o ponto de equilı́brio (x1 , x2 ) = (0, 0) de (3.7) é estável. Se V
é definida por (3.8), sabemos que V é constante ao longo de uma solução. Considere
agora uma famı́lia de curvas V (x1 , x2 ) = c (constante) no plano de fase x1 x2 . Se c <
0, não existem curvas reais. Se c = 0, conseguimos um ponto único (x1 , x2 ) = (0, 0).
Se c > 0 mas suficientemente pequeno, então o conjunto V (x1 , x2 ) = c é uma famı́lia
de curvas. Existe uma vizinhança da r origem que contém exatamente uma dessas
2
curvas Γc , dada pela equação x2 = ± (c − F (x1 )). Esta curva Γc é fechada, cerca
m
a origem e é simétrica com relação ao eixo x1 , como mostra a figura 5.2 (Brauer). É
claro que pela propriedade de um mı́nimo, se c1 e c2 são pequenos com c1 < c2 ≤ c,
então as curvas correspondentes Γ1 e Γ2 estão situadas como mostrado, contraindo
em direção à origem conforme c tende a zero. Se uma solução (x1 (t), x2 (t)) começa
em um tempo t0 com |x1 (t0 )| e |x2 (t0 )| pequenos, ela permanece próxima à origem
porque está na curva Γ dada pela equação

mx22 mx22 (t0 )


F (x1 ) + = F (x1 (t0 )) +
2 2
mx22 (t0 )
para a qual F (x1 (t0 )) + pode ser tão pequeno como queira, basta uma
2
escolher |x1 (t0 )| e |x2 (t0 )| pequenos o suficiente. Então a curva Γ permanece arbi-
trariamente próxima à origem, que por definição de estabilidade, diz que a origem
é estável e completa um esboço da demonstração. Note, porém, que a origem não
pode ser assintóticamente estável no caso discutido acima porque cada solução não
nula permanece em Γ e essas curvas certamente não se aproximam da origem. É
claro, intuitivamente, que a fim de que a origem seja assintoticamente estável, a en-
ergia toral teria no mı́nimo de decrescer até zero como uma função do tempo quando
t → ∞ e que poderia acontecer somente na presença de um termo de amortecimento,

74
tal como atrito, que causaria dissipação de energia. Quando discutirmos a equação
de Liénard, veremos que essas afirmações estão essencialmente corretas. Veremos
também que é a função V em (3.8) que é a básica para o método que estamos prestes
a descrever.
Para clareza de exposição, consideraremos primeiro sistemas autônomos da forma
x′ = f (x) (3.12)
∂f
sendo f e contı́nuas em uma região D do espaço n dimensional. Assumiremos
∂xi
que D contém a origem em seu interior, que f (0) = 0 (isto é, a origem é um ponto
crı́tico de (3.12) de forma que x ≡ 0 é uma solução de (3.12)) e que a origem é
um ponto crı́tico isolado de (3.12). Apresentaremos um critério para a estabilidade
e instabilidade da solução nula. A consideração da solução nula não é restritiva
desde que, como já vimos anteriormente, o problema de investigar a estabilidade de
qualquer ponto crı́tico x = x0 pode sempre ser transformada para a investigação da
solução nula (página 150, sec 4.2 Brauer).(RETIRAR)
Vimos na seção 2.8 (pag 85) do Brauer (RETIRAR) que soluções de sistemas
autônomos como (3.12) são convenientemente representadas como órbitas no espaço
de fase. Na apresentação da teoria de estabilidade para sistemas autônomos, é
conveniente introduzir certa terminologia extra e alguns fatos simples sobre órbitas.
Se C é uma órbita de (3.12) correspondente à solução x(t) existindo de −∞ < t <
∞, denotaremos por C + (a semi-órbita positiva) o conjunto de pontos de C com
coordenadas x(t) em que t0 ≤ t < ∞ para qualquer t0 e por C − (a semi-órbita
negativa) o conjunto de pontos de C com coordenadas x(t) em que −∞ < t ≤ t0 .
Então C = C + ∪ C − é frequentemente chamada de órbita completa.
Existe uma ı́ntima conexão entre unicidade de soluções do problema do valor
inicial para (3.12) e os seguintes fatos simples, que são de interesse geral. No que
segue, será conveniente denotar por x(t, x0 ) a solução de x′ = f (x) que satisfaz a
condição inicial x(t0 , x0 ) = x0 .
Lema 3.3.1. Se x0 é qualquer ponto de D que não é um ponto crı́tico de (3.12),
então por x0 passa no máximo uma órbita de (3.12).
Lema 3.3.2. Se uma órbita C de (3.12) passa por um ponto comum de D, então
C não pode alcançar qualquer ponto crı́tico x em D em tempo finito. (Mais pre-
cisamente, se C é gerado por uma solução φ e se lim φ(t) = x, com x ∈ D, então
t→a
a = ±∞.)
Uma simples consequência dos Lemas 3.3.1 e do 3.3.2 é o seguinte resultado:
Lema 3.3.3. Uma órbita C de (3.12) que passa por ao menos um ponto comum de
D não pode se cruzar, a menos que seja uma curva fechada em D. Neste caso, C
corresponde a uma solução periódica de (3.12).

75
Seja V (x) uma função escalar contı́nua (isto é, uma função de valores reais das
variáveis x1 , x2 , . . . , xn ) definida em alguma região U contendo a origem.
Definição 3.3.1. A função escalar V é dita positiva definida no conjunto U se, e
somente se, V (0) = 0 e V (x) > 0 se x 6= 0 e x ∈ U.
Definição 3.3.2. A função escalar V é dita negativa definida no conjunto U se, e
somente se, −V (x) é positiva definida em U.
Vamos assumir que a função escalar V (x) tem derivadas parciais de 1a ordem
contı́nuas em todo ponto da região U.
Definição 3.3.3. A derivada de V com respeito ao sistema x′ = f (x) é o produto
escalar
d
V (x(t)) = ∇V (x).f (x) (3.13)
dt
d
Note que V (x) pode ser calculada da equação diferencial sem qualquer conhec-
dt
imento das soluções. Aqui está o poder do método de Lyapunov. Observe ainda que
se x(t) é qualquer outra solução de (3.12), então pela regra da cadeia, pela definição
de solução e por (3.13), temos que
d ∂V ∂V ∂V
V (x(t)) = (x)x1 ′ (t) + (x)x2 ′ (t) + . . . + (x)xn ′ (t) (3.14)
dt ∂x1 ∂x2 ∂xn
∂V ∂V ∂V
= (x)f1 (x) + (x)f2 (x) + . . . + (x)fn (x)
∂x1 ∂x2 ∂xn
= ∇V (x).f (x)

Em outras palavras, ao longo da solução x a derivada total de V (x(t)) com


respeito a t coincide com a derivada total de V com respeito ao sistema calculado
em x = x(t).
Vamos agora enunciar e ilustrar o Teorema de Lyapunov para sistemas autônomos.
Teorema 3.3.1. Estabilidade segundo Lyapunov
Seja f : U ⊂ Rn → Rn um campo continuamente diferenciável com um ponto
crı́tico na origem, f (0) = 0, e considere o sistema dinâmico x′ = f (x). Suponha que
exista uma função V positiva definida satisfazendo uma das condições em U para
x 6= 0
d
a) V (x) ≤ 0;
dt
d
b) V (x) < 0;
dt
d
c) V (x) > 0.
dt
76
Então, o ponto crı́tico será, respectivamente,
a) estável;
b) assintoticamente estável;
c) instável.
Note que cada um desses resultados contidos no teorema depende da existência
de uma função escalar V com certas propriedades, sendo chamada de função de
Lyapunov. Quatro pontos devem ser enfatizados. Primeiro, nada é dito sobre como
a função V é construı́da e esta é a principal limitação deste método - não há métodos
gerais para a construção de tais funções. Segundo, o teorema dá condições suficientes
para estabilidade e instabilidade, mas essas condições não são necessárias(, como
mostraremos logo. Na seção 5.4 mostraremos certas melhorias). Terceiro, no caso
dos resultados a) e b), vemos que, em vista à definição de estabilidade, soluções
começando próximas ao ponto de equilı́brio existem e são limitadas para todo t ≥ 0.
Finalmente, no caso do resultado b), nada é dito sobre o tamanho da região de
estabilidade assintótica (o conjunto de valores iniciais para os quais as soluções
tendem a zero). Voltaremos a essa questão em breve.
A seguir, vamos encarar esses teoremas geometricamente. Em particular, vamos
d
discutir a condição V (x) ≤ 0 no resultado a) do teorema, em que V é positiva
dt
definida em uma região U. Seja c uma constante e considere a equação V (x) = c;
como V é positiva definida em U, precisamos considerar somente valores c ≥ 0 e,
para c = 0 a equação V (x) = 0 fornece somente a origem no espaço de fase. Se
c > 0, a equação V (x) = c representa uma superfı́cie. Já que V é positiva definida,
se c > 0 é suficientemente pequeno, esta superfı́cie tem um componente cujo interior
contém a origem, e já que V é contı́nua, esta componente contrai em direção a origem
conforme c → 0. (Na maioria dos exemplos simples, tais como o examplo 2, esta
superfı́cie V (x) = c consiste somente da componente circundante à origem.) Agora,
d
por definição de V (x) = ∇V (x).f (x), com ∇V (x) um vetor normal à superfı́cie
dt
V (x) = c na direção mostrada na figura 5.3
Figura 5.3 Brauer
d
A hipótese de que V (x) ≤ 0 significa que o vetor f (x) não pode apontar
dt
em direção ao “exterior” da região limitada pela superfı́cie V (x) = c (de qualquer
modo, não pode apontar para o exterior daquela componente da região limitada pela
superfı́cie V (x) = c que contém a origem para c > 0 suficientemente pequeno). Mas
o vetor f (x) é um vetor tangente à órbita do sistema x′ = f (x) em cada ponto x.
Então, para c suficientemente pequeno, a órbita de uma solução começando perto o
suficiente da origem não pode sair da região limitada pela superfı́cie V (x) = c; isto
é, para c suficientemente pequeno, a órbita deve permanecer perto da origem, de
forma que a origem é estável (entendi, mas tá mal explicado aqui). Esta é quase a

77
d
demonstração do resultado a). Se V (x) é negativa definida, como na hipótese do
dt
resultado b), as órbitas efetivamente atravessam do exterior para o interior da região
limitada pela superfı́cie V (x) = c para todo c > 0, não importa o quão pequeno,
e isto indica a estabilidade assintótica. Os resultados de instabilidade podem ser
discutidos de uma maneira similar.

Exemplo 3.3.1.

Considere a equação u′′ + g(u) = 0, sendo g continuamente diferenciável para


|u| < k uma constante e u g(u) > 0 se u 6= 0. Então pela continuidade, g(0) = 0.
Esta condição é satisfeita se g(u) = sen u, de modo que então a equação u′′ +g(u) = 0
modela o movimento de um pêndulo sem atrito. Escrevendo a equação como um
sitema de equações de primeira ordem, temos
 ′
x 1 = x2
(3.15)
x′ 2 = −g(x1 )

e a origem (x1 , x2 ) = (0, 0) é um ponto crı́tico isolado. Para investigar a estabilidade


deste ponto de equilı́brio, queremos ver se um dos teoremas de Lyapunov acima se
aplica. Para tanto, devemos tentar selecionar uma função V adequada. Se pensar-
mos em g(u) como uma força restauradora de uma mola ou de um pêndulo agindo
sobre uma partı́cula de massa unitária em um deslocamento u a partir do equilı́brio
e em u′ como a velocidade da partı́cula, então a energia potencial do deslocamento
u a partir do equilı́brio é Z u
g(s) ds
0

u′ 2
Por outro lado, a energia cinética é de modo que a energia total é
2
Z u
u′ 2
+ g(s) ds
2 0

Isto sugere que devemos tentar esta energia total como uma função de Lyapunov
Z x1
x22
V (x1 , x2 ) = + g(s) ds (3.16)
2 0

Esta função é definida na região U = {(x1 , x2 )/|x1 | < k, |x2 | < ∞}, V (0, 0) = 0
e já que s g(s) > 0, o gráfico de g tem a forma sugerida na figura 5.4 Brauer, de
modo que Z x1
g(s) ds > 0, para 0 < |x1 | < k
0

78
Então V (x1 , x2 ) é positiva definida em U. Agora a derivada de V com respeito
ao sistema (3.15) é

d
V (x1 , x2 ) = x2 x′ 2 + g(x1 )x′ 1 = x2 (−g(x1 )) + g(x1 )x2 = 0, (x1 , x2 ) ∈ U (3.17)
dt
Sendo assim, encontramos uma função V que satisfaz as hipóteses do resultado
a) do Teorema 3.3.1 e então o equilı́brio (x1 , x2 ) = (0, 0) é estável. Neste caso,
encontramos também muito mais: a função V em (3.16) pode ser usada para obter
o retrato completo do plano de fase do sistema. Por (3.14) e (3.17), sabemos que se
(x10 , x20 ) é um ponto qualquer em U e se (x1 (t), x2 (t)) é uma solução qualquer de
dV (x1 (t), x2 (t)) d
(3.15) passando por esse ponto, então = V (x1 (t), x2 (t)) = 0, e a
dt dt
integração nos dá que

V (x1 (t), x2 (t)) ≡ constante ≡ V (x10 , x20 )

Logo, a órbita de cada solução começando em (x10 , x20 ) em U é uma curva C


cuja equação é dada por
Z x1 Z x10
x22 x220
+ g(s) ds = + g(s) ds
2 0 2 0

Pelas hipóteses impostas sobre g, estas órbitas são, para |x1 | e |x2 | suficiente-
mente pequenos, próximas da origem, simétricas com respeito ao eixo x1 , tais como
as mostradas na figura 5.5
Então pelo Lema 3.3.3, cada solução de (3.15) é periódica e não podemos esperar
provar mais; por exemplo, estabilidade assintótica da solução nula.

Exemplo 3.3.2.

Um problema fı́sico a ser considerado é o movimento oscilatório de um pêndulo.


O ângulo θ que um pêndulo de comprimento unitário faz com a direção vertical
satisfaz a seguinte equação
θ′′ + g sen θ = 0 (3.18)
em que g é a aceleração da gravidade. Tal equação é um caso particular do exemplo
anterior. Considere o sistema de equações de primeira ordem
 ′
x = y
y ′ = −g sen x

sendo x = θ e y = θ′ .
figura pág 19 Boyce

79
Pelo exemplo anterior, temos que
y2
V (x, y) = + (1 − cos x)g
2
Os pontos crı́ticos do sistema 3.18 são (x, y) = (nπ, 0) com n ∈ Z. Em termos
fı́sicos, espera-se que os pontos (x, y) = (nπ, 0) com n par sejam estáveis já que
correspondem ao momento em que o pêndulo se encontra verticalmente posicionado;
e mais, espera-se que sejam instáveis os pontos (x, y) = (nπ, 0) com n ı́mpar, uma
vez que correspondem aos momentos em que o extremo do pêndulo atinge altura
máxima. Isto está de acordo com o Teorema de Lagrange, uma vez que a expressão
(1 − cos x)g - correspondente à função energia potencial - alcança seus mı́nimo e
máximo respectivamente nos pontos (x, y) = (2nπ, 0) e (x, y) = ((2n + 1)π, 0), com
n ∈ Z.
Nos pontos crı́ticos estáveis, temos que V é nula. Se a condição inicial (x0 , y0)
está suficientemente próxima de um desses pontos crı́ticos estáveis, então a energia
V (x0 , y0 ) é pequena e movimento associado a esta energia permanece próxima ao
ponto crı́tico. E por outro lado, se V (x0 , y0 ) é suficientemente pequena, a trajetória
se mantém próxima ao ponto crı́tico. Por exemplo, suponha (x0 , y0) próxima à
origem e V (x0 , y0 ) muito pequeno. A equação do movimento do pêndulo sujeito à
y2
energia V (x0 , y0 ) é V (x, y) = + (1 − cos x)g = V (x0 , y0 ). Para x pequeno, temos
2
que 1 − cos x = 1 − (1 − x2 /2! + . . .) ∼ = x2 /2. Assim, a equação do movimento é
2 2
y gx
aproximadamente + = V (x0 , y0 ) ou ainda
2 2
x2 y2
+ =1 (3.19)
2V (x0 , y0 )/g 2V (x0 , y0 )
Esta é uma elipse circundante ao ponto crı́tico (0, 0); quanto menor V (x0 , y0),
menores são os eixos maior e menos da elipse. Fisicamente, a trajetória fechada
corresponde a uma solução que é periódica em t - o movimento é uma pequena
solução ao redor do ponto de equilı́brio. Obviamente, se algum amortecimento é
adicionado de forma que a energia total V decai com o tempo, é natural esperar
que a amplitude do movimento também decaia com tempo, fazendo o centro (0, 0)
se tornar um ponto crı́tico assintoticamente estável.
Verifiquemos agora a aplicabilidade do Teorema 3.3.1 aos pontos crı́ticos (0, 0)
e (π, 0) deste problema. Tome V em D = {(x, y)/ |x| < π/2, |y| < ∞}, então V é
d
positiva definida em D. E mais, já savemos que V = 0 para todo (x, y). Logo
dt
d
V é não positiva definida em D. Daı́ segue, pelo Teorema 3.3.1, que a origem é
dt
um ponto crı́tico estável para o pêndulo sem atrito. (RETIRAR: tal conclusão não
pode obtida a partir da teoria de Sistemas Quase-Lineares)

80
Agora considere o ponto (π, 0). A função V que usamos até agora já não é mais
d
apropriada porque o resultado c) do Teorema 3.3.1 exige uma função V tal que V
dt
seja positivo definido. Para analisar tal ponto, é conveniente movê-lo para a origem
pela mudança de variáveis x = π + u, y = v. Então a equação diferencial toma a
seguinte forma:  ′
u = v
v ′ = g sen u
e o ponto crı́tico é (0, 0) no plano uv. Considere a função V (u, v) = v sen u em
D = {(u, v)/ 0 < u < π/4, v > o}, então V é positiva definida em D e
d
V (u, v) = v 2 cos u + g sen2 u
dt
é positiva definida em D. Daı́ segue, pelo resultado c) do Teorema 3.3.1, que o ponto
(0, 0) no plano uv ou o ponto (π, 0) no plano xy é instável.
Exemplo 3.3.3.
Considere o seguinte sistema:

x′ = −x − y
y′ = x − y3

Aqui não existe motivação fı́sica alguma para tentar alguma particular função
V . Em tais casos, devemos tentar uma função como V (x, y) = x2 + y 2 , que é
d
obviamente positiva definida. A questão é: o que será V para este sistema em
dt
d 2 4
particular? Ora, temos que V (x, y) = −2x − 2y , que é obviamente negativa
dt
definida. Sendo assim, sobrou sorte e concluimos do resultado b) do Teorema 3.3.1
que (x, y) = (0, 0) é assintoticamente estável. Note porém que ainda não temos
informação alguma sobre a região de estabilidade assintótica.
Exemplo 3.3.4.
Considere agora a equação de Liénard

u′′ + u′ + g(u) = 0 (3.20)

ou ainda, 
x′ = y
y ′ = −g(x) − y
em que g(u) satisfaz as hipóteses do Exemplo 3.3 (g é continuamente diferenciável
para |u| < k, para alguma constante k > 0, u g(u) > 0 se u 6= 0) e tal função é

81
normalmente chamada de um ??nonlinear spring??. Fisicamente, sob estas hipóteses,
o sistema u′′ + u′ + g(u) modela o movimento de um pêndulo, que se depara com
uma resistência do ar proporcional à velocidade. Como no Exemplo 3.3, devemos
naturalmente tentar a energia total como uma função de Lyapunov V . Sendo assim,
Z x
y2
V (x, y) = + g(s) ds
2 0

parece ser uma boa candidata. De fato, a função V é positiva definida na região
d d
D = {(x, y)/ |x| < k, |y| < ∞} e como V = −y 2 , temos que V ≤ 0 em D. Com
dt dt
d
isso, (0, 0) é estável, aplicando o resultado a) do Teorema 3.3.1. Mas V (x, y) não
dt
d
é negativa definida em D uma vez que V (x, 0) = 0, ∀x ∈ D, e então não podemos
dt
aplicar o resultado b) para concluir que a origem é assintoticamente estável. Porém,
espera-se que seja esse o caso; Se g(u) fosse linear ou quase-linear, poderı́amos facil-
mente comprovar este fato por teoremas anteriores (adicionar teorema 4.3 Brauer
pag 161), mas não podemos inferir sobre este comportamento aqui, mesmo em casos
simpels, usando o Teorema 3.3.1 e a função V acima. (REVER esse final)

Exemplo 3.3.5.

Devemos agora mostrar como a função V do Exemplo 3.3 construı́da para a


Equação de Liénard pode ser modificada na intenção de assegurar a estabilidade
assintótica da solução nula pelo Método de Lyapunov, mesmo g(u) não sendo nec-
essariamente quase-linear, graças ao fato de que u g(u) > 0 para u 6= 0. Considere
a função Z x
y2
U(x, y) = + β g(x)y + g(s) ds = V (x, y) + β g(x)y (3.21)
2 0

em que (x, y) ∈ D = {(x, y) |x| < k, |y| < ∞} e β > 0 uma constante suficien-
temente pequena a ser determinada por várias restrições. A primeira delas é que
U(x, y) deve ser positiva definida. A motivação é muito simples: se U é da forma
quadrática, digamos ax2 + bxy + cy 2 , então podemos certamente escolher número
reais a, b e c de modo que ax2 + bxy + cy 2 é positivo definido. Aqui tentamos fazer
algo análogo e esperamos ser suficiente pois g(x) tem o mesmo sinal de x. Lembre
da seguite desiguldade para números reais A e B: 2|AB| ≤ A2 + B 2 , e mais geral,
u √
para qualquer γ > 0, fazendo A = √ e B = v γ, temos
γ

u2
2|uv| ≤ + v2γ (3.22)
γ

82
Assim de (3.21) e (3.22) com γ = 1, temos
β 2
U(x, y) ≥ V (x, y) − (g (x) + y 2) (3.23)
2Z
x
1−β 2 β 2
= y + g(s) ds − g (x)
2 0 2
para (x, y) ∈ D. Agora considere

g 2 (x) 2g(x)g ′(x)


lim R x = lim = 2g ′ (0)
x→0
0
g(s) ds x→0 g(x)

pela regra do L’Hôspital. Como g é continuamente


Z x diferenciável, este limite existe.
E como s g(s) > 0 para s 6= 0, temos que g(s) ds > 0 para 0 < |x| < k. Portanto,
0
existe uma constante C > 0 (que depende da constante k1 ) tal que
Z x
2
g (x) ≤ C g(s) ds (−k1 ≤ x ≤ k1 )
0

g 2 (x)
sendo k1 um constante positiva menor que k. Note que a razão Z x é obvia-
g(s) ds
0
mente positiva para 0 < |x| < k.
Substituindo em (3.23), obtemos a seguinte desigualdade
 Z x
1−β 2 Cβ
U(x, y) ≥ y + 1− g(s) ds (3.24)
2 2 0

Então, tomando 0 < β < min {1, 2/C}, temos U(x, y) positiva definida em
{(x, y)/ |x| < k1 , |y| < ∞}.
d
Vamos agora calcular U(x, y) com respeito ao sistema (3.21) e ver ser podemos
dt
d
também escolher β a fim de fazer U(x, y) negativa definida. Começando com
dt
(3.21), temos
d
U(x, y) = y(−g(x) − y) + βg ′ (x)y 2 + βg(x) [−g(x) − y] + g(x)y
dt
= −y 2 + βg ′(x)y 2 − βg(x)y − βg 2 (x)

Então, usando (3.22),


 
d β g 2(x)
− U1 (x, y) ≥ y 2 − βg ′(x)y 2 − + γy + βg 2(x)
2
(3.25)
dt 2 γ

83
Tome M = max |g ′ (x)|, em que 0 < k1 < k e obtemos
|x|<k1

h   
d 2 γ i 1
− U1 (x, y) ≥ y 1 − β M + +β 1− g 2(x) (3.26)
dt 2 2γ

Agora escolhendo
  γ suficientemente grande, em particular γ = 1 servirá, de tal
1
forma que 1 − > 0 e ainda escolha β suficientemente pequeno de forma que

 γ d
0<β< M+ ; com isso, U(x, y) é negativa definida. Lembre que escolhemos
2 dt
β pequeno o suficiente de modo que 0 < β < min {1, 2/C}; isto certamente pode
ser feito. Então, (3.24) e (3.26) mostram que a função U(x, y) definida em (3.21) é
d
positiva definida e tem U(x, y) negativa definida (com respeito ao sistema (3.21))
dt
em {(x, y)/ |x| < k1 , |y| < ∞}, sendo k1 qualquer constante que satisfaz 0 < k1 < k.
Finalmente, o resultado b) do Teorema (3.3.1) pode ser aplicado e concluimos pela
estabilidade assintótica de (0, 0).

Demonstração do Teorema de Lyapunov


Dados p > 0 e r0 > 0 tal que Br0 ⊂ U, seja Ap = {x ∈ Br0 /V (x) ≤ p}. Para
demonstrarmos a) e b), precisamos saber se {Ap }p>0 formam um sistema de vizin-
hanças “decrescentes” da origem, de tal maneira que quando V (x(t)) se aproxima
de zero com t → ∞, possamos garantir que x(t) se aproxima da origem.

Lema 3.3.4. Os conjuntos {Ap }p>0 formam um sistema de vizinhanças da origem


satisfazendo as seguintes propriedades:

i) Ap é uma vizinhança da origem para todo p > 0;


ii) Para toda bola aberta Bε , existe p > 0 tal que Ap ⊂ Bε (ε > 0)

figura 5.32, pag 365 Bassanezi

Demonstração: i) imediato da continuidade de V .


ii) Consideremos uma bola fechada B r0 ⊂ U.
Suponhamos que a afirmação não seja válida, isto é, existe ε0 , r0 > ε0 > 0, e uma
sequência (xn )n em Br0 tal que V (xn ) < 1/n e, no entanto, |xn | ≥ ε0 . Como (xn )n
está em um conjunto limitado {x ∈ U/ ε0 ≤ |x| ≤ r0 }, pelo Teorema de Bolzano-
Weierstrass, existe uma subsequência (xnk )k convergente, digamos, para a. Mas
então V (a) = lim V (xnk ) = 0, o que é impossı́vel, pois V é positiva definida e a 6= 0
k→∞
(0 < ε0 ≤ |a| = lim |xnk | ≤ r0 )

84
Tome Br uma bola centrada na origem, r < r0 , e tomemos p > 0 tal que Ap ⊂ Br ,
e Bε uma bola contida em Ap .
d
a) V (x) ≤ 0
dt
d
Se x(t0 ) está em Bε , então está em Ap e da hipótese de V (x) ≤ 0, segue que
dt
V (x(t)) ≤ V (x(t0 )) para todo t > t0 para o qual exista x(t). Mas isto implica
imediatamente que x(t) está em Ap e, portanto, x(t) está em Br . A estabilidade
pode daı́ ser concluı́da da existência de x(t) para todo t > t0 , o que decorre do
princı́pio de continuação de soluções (ver Brauer pag 132).
d
b) V (x) < 0
dt
Se x(t0 ) está em Bε então x(t) está em Br para t > t0 . Mostremos que dado
σ > 0, existe tσ tal que x(t) está em Aσ para todo t > tσ , o que, pela propriedade
“decrescente” das vizinhanças Aσ , conduz à conclusão de que x(t) → 0 quando
t → ∞, isto é, o ponto crı́tico é assintoticamente estável.
Suponha que esta afirmação não seja válida, isto é, existe σ > 0 tal que x(t, x0 )
d
não está em Vσ para todo t > t0 . Tomemos então a função V (x) no conjunto
dt
fechado {x/ |x| ≤ r0 e V (x) ≥ σ}, onde ela tem um máximo negativo −λ0 < 0.
Como a trajetória se encontra nesta região para t > t0 , temos dV (x(t)/dt < −λ0
para t > t0 . Mas isto é um absurdo, pois implicaria que lim V (x(t)) = −∞, o que
t→∞
prova a afirmação.
c) Deixado como exercı́cio.

As funções de Lyapunov usualmente encontradas nas aplicações são funções


quadráticas (a exemplo do oscilador harmônico) do tipo V (x) = xT P x, em que
P é uma matriz simétrica positiva definida e, portanto, as superfı́cies de nı́vel de
V (x) são as familiares elipsóides. Note que, neste caso, ∇V (x) = 2P x.
Concluı́mos, assim, que as funções de Lyapunov quadráticas não só foram a
motivação da teoria, mas constituem a regra geral das aplicações. Procuremos,
então uma função de Lyapunov para sistemas lineares assintoticamente estáveis que
possa ser obtida pelo teorema a seguir.

Definição 3.3.4. Uma matriz A é dita positiva definida se v T Av > 0, para todo
vetor não nulo v.

Definição 3.3.5. Uma matriz A é dita assintoticamente estável se todos os seus


autovalores λ têm parte real negativa.

Teorema 3.3.2. Teorema de Lyapunov em Matrizes

85
Sejam A uma dada matriz constante assintoticamente estável e C uma dada ma-
triz positiva definida simétrica. Então existe uma matriz positiva definida simétrica
B tal que
AT B + BA = −C

Demonstração: Começemos resolvendo a equação diferencial matricial

X ′ = AX + XAT (3.27)

Seja X(t) = U(t) exp(AT t), com U uma matriz a ser determinada. Então (3.27)
se torna

X ′ = U ′ exp(AT t) + U exp(AT t)AT = AU exp(AT t) + U exp(AT t)AT

ou
U ′ = AU (3.28)
Então a solução U(t) de (3.28) com U(0) = C é

U(t) = eAt C

Assim, a solução X(t) de (3.27) com X(0) = C é

X(t) = exp(At) C exp(AT t) (3.29)

A próximo passo é usar (3.29) para resolver a equação matricial AB+BAT = −C.
Defina a matriz
Z ∞ Z ∞
T
B= exp(At) C exp(A t) dt = X(t) dt (3.30)
0 0

desde que esta integral seja convergente. Antes de usar tal matriz, mostremos que
sob as hipóteses já impostas, a integral converge. Já que A é assumida como sendo
assintoticamente estável, todos os seus autovalores possuem parte real negativa. Os
autovalores de AT são os mesmos que os de A. Então existem constantes positivas
K e σ tais que
|eAt | ≤ Ke−σt
Assim,

|exp(At) C exp(AT t)| ≤ |exp(At)| |C| |exp(AT t)|


≤ K 2 |C| exp(−2σt)

86
Isto prova a convergência da integral (3.30). Mostremos agora que a matrix B
fornece a solução do sistema AB + BAT = −C. Então,
Z ∞ Z ∞
T
AB + BA = A X(t) dt + X(t) dt AT
Z ∞0 0
Z ∞
 
= T
AX(t) + X(t)A dt = X ′ (t) dt
0 0
= lim (X(R) − X(0))
R→∞

em que usamos o fato de que X(t) definida por (3.29) satisfaz (3.27) e que X(0) = C.
A convergência da integral (3.30) implica que lim X(R) = 0, e então AB + BAT =
R→∞
−X(0) = −C e daı́ segue que B é uma solução de AB + BAT = −C.
Podemos encarar AB + BAT = −C como um sistema de n2 equações algébricas
para os elementos de B. Desde que este sistema tenha uma solução para todo termo
não homogêneo C, o determinante de seus coeficientes é não nulo, e portanto a
solução é única. ????
Finalmente, devemos mostrar que a solução B dada por (3.30) é simétrica e
positiva definida. Já que C é simétrica,
Z ∞ Z ∞
T T
T
B = X (t) dt = exp(At) C exp(AT t) dt
0
Z0 ∞
= exp(At) C T exp(AT t) dt
Z0 ∞
= exp(At) C exp(AT t) dt
Z0 ∞
= X(t) dt = B
0

Se v é um vetor não nulo qualquer,


Z ∞
T T
v Bv = v exp(At) C exp(AT t) dt v
Z ∞0
T 
= exp(AT t)v C exp(AT t)v dt
0
T 
Como C é positiva definida, exp(AT t)v C exp(AT t)v > 0 e portanto v T Bv >
0, o que completa a prova do teorema.

Apresentemos agora a motivação do teorema 3.3.2. Considere o sistema linear


com coeficientes constantes
x′ = Ax (3.31)

87
com A uma matriz assintoticamente estável (não necessariamente simétrica). Procu-
ramos por uma função escalar positiva definida da forma

V (x) = xT Bx

sendo B uma matriz positiva definida a ser determinada.


d
Calculemos agora a derivada V de V com respeito ao sistema (3.31). Temos,
dt
para qualquer solução x(t) de (3.31), que

d d  ′
V (x(t)) = [V (x(t))] = xT (t)Bx(t)
dt dt ′
= xT (t) Bx(t) + xT (t)Bx′ (t)
T
= (x′ (t)) Bx(t) + xT (t)BAx(t)
= (Ax(t))T Bx(t) + xT (t)BAx(t)
= xT (t)AT Bx(t) + xT (t)BAx(t)

= xT (t) AT B + BA x(t)

Sendo assim,
d 
V (x) = xT AT B + BA x
dt
d
E com isso, V (x) será negativa definida se, e somente se, a matriz simétrica
dt
C for positiva definida
−C = AT B + BA
O Teorema de Lyapunov 3.3.2 diz que para qualquer dada matriz positiva definida
simétrica C e para qualquer matriz assintoticamente estável A, pode-se satifazer esta
condição com uma matriz positiva definida B.

Voltemos agora aos sistemas quase-lineares. Agora a questão a ser estudada é


sob que condições a parte linear predomina sobre os termos de ordem superior na
caracterização qualitativa do ponto de equilı́brio. Esta questão é respondida pelo
famoso Teorema de Linearização de Lyapunov. Mas antes de enunciá-lo, considere
o seguinte resultado, que é obtido como uma consequência direta do Teorema 3.3.2.

Corolário 3.3.1. Teorema da Função de Lyapunov para Sistemas Lineares Assin-


toticamente Estáveis
Se A é uma matriz n × n assintoticamente estável, então existe uma forma
d
quadrática V (x) = xT Bx positiva definida tal que V (x) é negativa definida.
dt

88
Teorema 3.3.3. Teorema da Linearização de Lyapunov-Poincaré
Seja f (x) um campo continuamente diferenciável em uma vizinhança da origem
na qual podemos escrever
f (x) = Ax + ξ(x)
então

i) se a matriz A for assintoticamente estável, o ponto x = 0 será assintoticamente


estável para o campo f (x);
ii) se a matriz A tiver um de seus autovalores λ com parte real positiva, o sistema
será instável;
iii) se todos os autovalores λ de A tiverem parte real positiva, o ponto crı́tico é um
repulsor, isto é, existe uma vizinhança da origem U de modo que se x(t) for uma
órbita não nula, existirá t0 tal que x(t) ∈
/ U, para t > t0 .

Demonstração: Suponha A assintoticamente estável. Sabemos, pelo Corolário


3.3.1, que a função quadrática de Lyapunov V (x) = xT Bx para o sistema linear x′ =
d
Ax, tal como construı́da no teorema anterior, é tal que V (x(t)) = xT (AT B +BA)x
dt
é negativa definida, sendo AT B + BA = −C com C uma matriz simétrica e positiva
definida. Tome C = I, então temos, para o sistema f (x) = Ax + ξ(x), que a função
V é tal que
d
V (x) = ∇V . f (x) = 2Bx . (Ax + ξ(x))
dt
= 2xT BAx + 2Bx . ξ(x)

= xT AT B + BA x + 2Bx . ξ(x)
= −xT Ix + 2Bx . ξ(x)
= −|x|2 + 2Bx . ξ(x)

Mas
|ξ(x)| 2
2Bx.ξ(x) ≤ 2|Bx| |ξ(x)| ≤ σ|x| |ξ(x)| ≤ σ |x|
|x|
|ξ(x)|
Se tomarmos x em uma região U tal que σ < 1 − ε (o que é possı́vel, visto
|x|
ξ(x) d
que lim = 0), vemos que, em U, V (x) < −ε|x|2 e, portanto, V (x) é uma
x→0 |x| dt
função de Lyapunov do tipo b) para o campo f (x) na vizinhança da origem, o que
implica, pelo Teorema de Lyapunov, a estabilidade assintótica.

De um ponto de vista prático, estamos em geral mais interessados na região de


atração. O seguinte teorema fornece alguma informação nesse sentido.

89
Teorema 3.3.4. Sejam a origem um ponto de equilı́brio isolado para o sistema
x′ = f (x) e V uma função continuamente diferenciável. Se existe um domı́nio
d
limitado DK contendo a origem em que V (x) < K, V é positiva definida e V é
dt
negativa definida, então toda solução x(t) do sistema autônomo que começa em um
ponto de DK é tal que lim x(t) = 0.
t→∞

Em outras palavras, o teorema diz que se x = x(t) é solução do sistema x′ = f (x)


ponto inicial em DK , então x se aproxima da origem quando t → ∞. Então DK
fornece uma região de estabilidade assintótica; claro, pode não ser toda a região de
estabilidade assintótica. A demonstração se dá basicamente ao provar que não há
soluções periódicas de x′ = f (x) em DK e que não há outro ponto crı́tico em DK .
Daı́ segue que toda trajetória iniciada em DK não pode dele sair e, portanto, deve
se aproximar da origem quando t → ∞.
Como já dito antes, o Teorema 3.3.1 fornece condições suficientes para esta-
bilidade e instabilidade, mas não necessárias e a nossa incapacidade em construir
funções de Lyapunov apropriadas não quer dizer necessariamente que elas não ex-
istam. Infelizmente não há um método geral para construção dessas funções, no
entanto, muito trabalho tem sido feito para a construção dessas funções para cer-
tas equações. Um resultado elementar é frequentemente útil para a construção de
funções positiva definida ou negativa definida é enunciado no seguinte teorema.
Teorema 3.3.5. A função V (x, y) = ax2 + bxy + cy 2 é
i) positiva definida se, e somente se, a > 0 e 4ac − b2 > 0;
ii) negativa definida se, e somente se, a < 0 e 4ac − b2 > 0
Exemplo 3.3.6.
Considere o sistema 
x′ = −x − xy 2
y ′ = −y − yx2
Tentemos construir uma função de Lyapunov como no Teorema 3.3.5. Para
∂V ∂V
tanto, = 2ax + by e = bx + 2cy, sendo assim
∂x ∂y
d 
V (x, y) = ∇V . f (x) = (2ax + by, bx + 2cy) −x − xy 2 , −y − yx2
dt  
= − 2a(x2 + x2 y 2) + b(2xy + xy 3 + x3 y) + 2c(y 2 + y 2x2 )
d
Se escolhermos b = 0, a > 0 e c > 0 então V é negativa definida e V é positiva
dt
definida pelo Teorema 3.3.5. Com isso, pelo Teorema 3.3.1, a origem é um ponto
crı́tico assintoticamente estável.

90
Exemplo 3.3.7.
Considere o sistema

x′ = x(1 − x − y)
y ′ = y(0, 75 − y − 0, 5x)

Estas equações modelam uma competição entre espécies e de antemão sabemos


que o ponto crı́tico (0.5, 0.5) é assintoticamente estável. É útil considerar o ponto
crı́tico como sendo a origem, sendo assim tome x = 0, 5 + u e y = 0, 5 + v. Então,
substituindo x e y dos sistema original, temos
 ′
u = −0, 5u − 0, 5v − u2 − uv
v ′ = −0, 25u − 0, 5v − 0, 5uv − v 2

Para manter os cálculos relativamente simples, considere a função V (u, v) =


u2 + v 2 como uma possı́vel função de Lyapunov. Esta função é claramente positiva
definida, então temos apenas de determinar se existe uma região contendo a origem
d d
para a qual V é negativa definida. Avaliemos V
dt dt
d  
V (u, v) = − (u2 + 1, 5uv + v 2 ) + (2u3 + 2u2 v + uv 2 + 2v 3 )
dt
Observe que

u2 + 1, 5uv + v 2 = 0, 25(u2 + v 2 ) + 0, 75(u + v)2

de modo que esses termos são positivos definidos. Por outro lado, o termo cúbico
d
de V pode mudar de sinal. Então devemos mostrar que, em alguma vizinhança
dt
de (u, v) = (0, 0), os termos cúbicos são menores em magnitude que os termos
quadráticos, isto é,

|2u3 + 2u2v + uv 2 + 2v 3 | < 0, 25(u2 + v 2 ) + 0, 75(u + v)2

Para estimar o lado esquerdo da equação acima, introduzimos coordenadas po-


lares u = r cos(θ), v = r sen(θ). Então

|2u3 + 2u2 v + uv 2 + 2v 3 | = r 3 |2cos3 θ + 2cos2 θsenθ + cosθsen2 θ + 2sen3 θ|


 
≤ r 3 2|cos3 θ| + 2cos2 θ|senθ| + |cosθ|sen2 θ + 2|sen3 θ|
≤ 7r 3

Para satisfazer a desigualdade proposta, é certamente suficiente que

7r 3 < 0, 25(u2 + v 2 ) = 0, 25r 2

91
o que fornece r < 1/28. Então, ao menos neste disco, as hipóteses do Teorema 3.3.1
estão satisfeitas, isto é, a origem é um ponto crı́tico assintoticamente estável. O
mesmo é verdade para o ponto crı́tico (0.5, 0.5) do sistema original.

A seguir, apresentamos dois modelos que retratam a interação entre duas espécies,
usando-se das ferramentas da teoria qualitativa já vista.

3.4 Competição entre Duas Espécies


A interação entre duas espécies A e B se processa de maneira que cada espécie
afeta negativamente a outra na luta pela sobrevivência (espaço, alimentação, etc).
Como os recursos são limitados, o modelo de crescimento logı́stico é o mais indicado
para cada espécie, na ausência da outra.
 ′
x = ax − bx2 , se y = 0
y ′ = cx − dy 2, se x = 0

em que x e y são as populações das espécies A e B, respectivamente. Se incluirmos o


efeito da competição, a interação será modelada, supondo que a taxa de crescimento
de cada espécie seja reduzida por um fator proporcional à população da outra espécie.
Assim, as equações que governam tal ecossistema são
 ′
x = x(a − bx − αy)
(3.32)
y ′ = y(c − dy − βx) para x, y ≥ 0

indicando que as respectivas taxas de crescimento são inibidas de uma maneira linear
pelas duas populações.
O sistema de equações (3.32) não tem necessariamente uma solução analı́tica;
por isso, neste caso especı́fico, um estudo qualitativo das soluções é imprescindı́vel.
Os pontos crı́ticos de (3.32) são dados pelas soluções do sistema algébrico

x(a − bx − αy) = 0
y(c − dy − βx) = 0

Obtemos, então, os seguintes pontos crı́ticos:


- a origem (0, 0); a 
- a intersecção da reta a − bx − αy = 0 com a reta y = 0, resultando: ,0 ;
 c b
- a intersecção das retas c − dy − βx = 0 e x = 0: 0, ;
d
-a intersecção das retas
 a − bx − αy = 0 e c − dy − βx = 0, resultando:
ad − cα cb − aβ
, desde que bd − αβ 6= 0.
bd − αβ bd − αβ

92
O ponto de equilı́brio (0, 0) será sempre um nó instável, independentemente dos
valores dos coeficientes que aparecem em (3.32), pois tal sistema linearizado é dado
por  ′
x = ax
y ′ = cy
em que λ1 = a e λ2 = c, ambos positivos, são os autovalores desse sistema linear.
a b
Consideremos o caso em que bd − αβ = 0. Dadas as retas paralelas y = − x
α α
c β a c
e y = − x, suponha < .
d d α d
y

€€dc€

a b
x
a c
Figura 3.3: Retas paralelas com <
α d

A análise do crescimento da curva no plano de fase depende essencialmente dos


sinais das derivadas dadas por (3.32):
→ se x′ > 0;
← se x′ < 0;
↑ se y ′ > 0;
↓ se y ′ < 0.
Se o ponto inicial for o (0, 0) então, pelo sistema (3.32), x′ = y ′ = 0. Logo,
x(t) = y(t) = k = 0 e, portanto, não existe população alguma em qualquer instante.
Se x0 , a condição inicial da população x, for não nula e y0 = 0, então, na verdade,
a
não existe competição entre as duas espécies e lim x(t) = . Por outro lado, se
t→∞ b
c
y0 6= 0, a espécie x tende à extinção, enquanto que a espécie y tende a .
d
a c
Quando > , um raciocı́nio análogo mostra que a espécie y é quem tende à
α d
a
extinção, enquanto a espécie x tende a .
b
93
Suponha agora bd − αβ 6= 0. 
a a
Para a análise do ponto , 0 , tomamos a mudança de variáveis x = + u e
b b
y = v. O sistema (3.32) adquire a seguinte forma
 aα
 u′ = −au −
 v − bu2 − αuv
 b
βa
 v′ =
 c− v − dv 2 − βuv
b
que, linearizado, fornece  aα
 u′ = −au −
 v
 b
βa
 v′ =
 c− v
b
βa
As raı́zes do polinômio caracterı́stico associado são λ1 = −a e λ2 = c − .
a  b
Como λ1 é sempre negativo, temos que o ponto , 0 será um nó assintoticamente
b
c a c a
estável se < e será um ponto de sela se > .
β b β c b
Com uma análise análoga para o ponto 0, , temos: λ1 = a − α e λ2 = −c.
d
a c a c
Logo, se < , o ponto será um nó assintoticamente estável e se > , será um
α d α d
ponto de sela.  
ad − cα cb − aβ
Para que o ponto , com bd − αβ 6= 0 esteja no primeiro
bd − αβ bd − αβ
quadrante, é necessário que
c a a c c a a c
i. > e > ou ii. < e < (3.33)
d α b β d α b β
ad − cα cd − aβ
pois em ambos os casos, temos x∗ = > 0 e y∗ = .
bd − αβ bd − αβ
A mudança de variáveis x = x∗ + u, y = y ∗ + v no sistema (3.32) fornece um
sistema quase linear, cujo linearizado correspondente é
 ′
u = −bx∗ u − αx∗ v
v ′ = −βy ∗ u − dy ∗ v
O polinômio caracterı́stico da matriz dos coeficientes é
P (λ) = λ2 + (bx∗ + dy ∗)λ + (bd − αβ)x∗ y ∗ = 0
cujas raı́zes λ1 e λ2 são
1 1p ∗
λ1,2 = − (bx∗ + dy ∗ ) ± (bx + dy ∗)2 − 4(bd − αβ)x∗ y ∗
2 2
94
Agora,

∆ = (bx∗ + dy ∗)2 − 4(bd − αβ)x∗ y ∗ = (bx∗ − dy ∗ )2 + 4αβx∗ y ∗ > 0


c a a c ac ac
CASO i.: > e > ⇒ > ⇒ αβ − bd > 0 logo, λ1 > 0 e λ2 < 0.
d α b β bd αβ
Neste caso, o ponto de equilı́brio será um ponto de sela.
c a a c
CASO ii.: < e < temos αβ − bd < 0 e, portanto, λ1 < 0 e λ2 < 0, o
d α b β
que implica que o ponto (x∗ , y ∗) é um nó assintoticamente estável.
dy y(c − dy − βx)
No plano de fase, a equação (não-separável) = não admite
dx x(a − bx − αy)
solução envolvendo funções elementares. Neste plano, os eixos são ambos isóclinas
e curvas soluções. As outras isóclinas são
dy
c − dy − βx = 0, com =0
dx
e
dx
a − bx − αx = 0, com =0
dy
Dependendo da posição relativa dessas retas, temos quatro configurações distin-
tas, em que os pontos crı́ticos serão marcados como nos gráficos a seguir:

95
y
c
d€€€
€€€a
Α

a b c Β x
c a c a
Figura 3.4: > e >
d α β b

(0, 0): nó instável


(0, c/d): nó assintoticamente estável
(a/b, 0): ponto de sela
c
A espécie y sobrevive e sua população limite é .
d
a
A espécie x será extinta, a não ser que y0 = 0; logo lim x(t) =
t→∞ b

€€€a
Α
c
d€€€

c Β a b x
c a a c
Figura 3.5: < e >
d α b β

(0, 0): nó instável


(0, c/d): ponto de sela
(a/b, 0): nó assintoticamente estável
a
A espécie x sobrevive e lim x(t) = .
t→∞ b
c
A espécie y será extinta, a não ser que x0 = 0 e daı́ lim y(t) =
t→∞ d

96
y

€€€a
Α

c
d€€€

a b c Β x
a c c a
Figura 3.6: > e >
α d β b

(0, 0): nó instável


(0, c/d): ponto de sela
(a/b, 0): ponto de sela
(x∗ , y ∗): nó assintoticamente estável. As duas espécies sobrevivem e
 
∗ ∗ ad − cα cb − aβ
lim (x(t), y(t)) = (x , y ) = ,
t→∞ bd − αβ bd − αβ

com bd − αβ > 0 (há uma fraca competição entre as espécies).

y
c
d€€€ separatriz

€€€a
Α

c Β a b x
c a c a
Figura 3.7: > e <
d α β b

(0, 0): nó instável


(0, c/d): nó assintoticamente estável
(a/b, 0): nó assintoticamente estável

97
(x∗ , y ∗): ponto de sela. Haverá extinção de uma das espécies, dependendo da
condição inicial das populações. Só pode haver coexistência das espécies se o ponto
inicial estiver na trajetória divisória (separatriz), que é composta das duas órbitas
que se dirigem para (x∗ , y ∗).

3.5 Modelo de Lotka-Volterra


Neste modelo, vamos focar a interação entre duas espécies, em que uma delas
dispõe de alimentos em abundância (presa) e a segunda espécies se alimenta da
primeira (predador). Denotaremos a população de presas por x e a dos predadores
por y. Tanto x como y são funções do tempo t e seus crescimentos dependem das suas
respectivas taxas de natalidade e mortalidade. Lembre que um modelo envolvendo
apenas duas espécies não pode descrever completamente as complexas relações entre
espécies que de fato ocorrem na natureza. Mas, o estudo de modelos simples é o
primeiro passo para entender mais de fenômenos complicados.
Admitiremos que o encontro de elementos das duas espécies seja ao acaso, a
uma taxa proporcional ao tamanho das duas populações. Se a causa principal de
mortalidade de cada presa for atribuı́da ao ataque de um predador, então a taxa de
mortalidade será proporcional ao produto xy. Admitindo que a taxa de natalidade
da espécie predadora seja proporcional ao tamanho y da população e que a quan-
tidade de elementos desta população sobrevivente seja proporcional à quantidade
de alimento disponı́vel x, podemos dizer que a taxa de natalidade efetiva para os
predadores é proporcional a xy. Ainda, temos como hipótese que na ausência de
predadores, as presas crescerão sem limite (não sofrerão nenhum tipo de inibição) e
que, na ausência de presas, os predadores morrerão (por falta de alimento). Assim,
as equações que regem o crescimento destas espécies são
 ′
x = ax − αxy
(3.34)
y ′ = −by + βxy

em que a, α, b e β são constantes positivas, sendo a a taxa de crescimento das presas,


b a taxa de mortalidade dos predadores, α a taxa com que os predadores “destroem”
a população de presas e β a taxa com que a população de predadores aumenta pelo
consumo das presas.
O modelo presa-predador (3.34) foi estabelecido e analisado indenpendentemente
por Lotka e Volterra, por volta de 1925. Embora as equações sejam simples, carac-
terizam uma grande quantidade de problemas.
Estamos interessados em saber o que acontecerá no futuro com as populações
das presas e dos predadores, quando seus tamanhos iniciais são conhecidos.
Vamos estudar as órbitas do sistema quase linear (3.34) no plano de fase: Ini-
cialmente, observemos que há dois pontos de equilı́brio dados pelas soluções das

98
equações algébricas 
ax − αxy = 0
(3.35)
−by + βxy = 0.
 
b a
Tais pontos crı́ticos são (0, 0) e , , sendo (0, 0) um ponto de sela, uma vez
β α
que o sistema linearizado  ′
x = ax
y ′ = −by
 caracterı́stico, λ1 = a > 0 e λ2 = −b < 0. Para
admite como raı́zes do polinômio

b a
analisar o ponto crı́tico , , fazemos a mudança de variáveis
β α

b a
x= +u e y = +v (3.36)
β α

em (3.34) e obtemos 
αb
 u′ = − v − αuv

β

 v′ = aβ
u + βuv.
α
Tal sistema quase linear é associado ao sistema linearizado

αb
 u′ = − v

β (3.37)

 v′ = aβ
u
α
2
cujo polinômio
√ caracterı́stico associado é λ + ab = 0. As raı́zes são os imaginários
puros λ = ±i ab. Neste caso, o ponto crı́tico é um centro (estável) para o sistema
linear acima. De fato, tomando

dv u
=− α
du bα v
β
obtemos as curvas-solução no plano-uv de fase, dadas por
aβ 2 bα 2
u + v =K (3.38)
α β

(sendo K uma constante positiva arbitrária) que são elipses concêntricas para cada
valor de K > 0.

99
Sabemos que quando λ1 e λ2 são imaginários puros, a natureza do ponto crı́tico
para o sistema linear é indeterminada. No modelo presa predador, especificamente,
esta indeterminação pode ser resolvida, uma vez que a equação do plano de fase
dy y(−b + βx)
= (3.39)
dx x(a − αy)
é separável. As curvas soluções de (3.39) são dadas implicitamente por

−a ln y + αy − b ln x + βx = ln k (3.40)

onde k > 0 é uma constante de integração. Tal equação pode ser reescrita como

x−b exp(βx) = k y a exp(−αy) (3.41)

Embora usar somente funções elementares não nos permita resolver a equação
(3.41) explicitamente para uma variável em termos da outra, é possı́vel mostrar que
o gráfico da equação
 para
 um dado valor de k é uma curva fechada que circunda
b a
o ponto crı́tico , . Sendo assim, o ponto crı́tico é também um centro para
β α
o sistema não linear (3.34) e as populações do predador e da presa exibem uma
variação cı́clica.
As órbitas representadas pela equação (3.41) podem ser traçadas através do
método gráfico de Volterra. Considere as funções F1 e F2 como abaixo:

F1 = F1 (x) = x−b exp(βx)


F2 = F2 (y) = y a exp(−αy).

As curvas integrais desejadas são então determinadas pela relação

F1 (x) = kF2 (y). (3.42)

É claro que, para cada valor da constante arbitrária k, existe uma curva integral
correspondente. A fim de construir as curvas integrais, investiguemos a forma das
funções F1 (x) e F2 (y). Temos que
 
dF1 −b−1 −b b
= −bx exp(βx) + βx exp(βx) = β − F1 (x)
dx x
b b dF1
e então F1′ < 0 para 0 < x < e F1′ > 0 para x > , logo = 0 se, e somente se,
β " #β dx
 2
b d2 F1 b b
x= . Note que 2
= F1 (x) β − + 2 > 0, para x > 0. Então a função
β dx x x
F1 tem a forma dada pela figura abaixo.

100
F1 HxL

x
bΒ

Figura 3.8: Digrama 1: equações de Lotka-Volterra

Quanto à F2 ,
 
dF2 a−1 a a
= ay exp(−αy) − αy exp(−αy) = F2 (y) −α ,
dy y
a a
de onde segue que F2′ = 0 se, e somente se, y = e, F2′ > 0 para 0 < y < e
α α
a
F1′ < 0 para x > . Portanto, a função F2 é como mostrado na figura abaixo.
α

F2 HyL

y
aΑ

Figura 3.9: Digrama 2: equações de Lotka-Volterra

" 2 #
d2 F2 a a
De fato, existem pontos de inflecção, dado que = F2 (y) −α − ,
dy 2 y y
mas eles serão negligenciados por simplicidade gráfica.

101
Podemos agora construir as curvas integrais da figura 3.10. Nos segundo e quarto
quadrantes, as curvas F2 e F1 encontrados acima são desenhadas; no terceiro quad-
rante a reta representa a equação (3.42). Tome P0 um ponto arbitrário sobre a
reta R de inclinação k. Desenhe duas linhas a partir dele, uma perpendicular ao
eixo OF1 e a outra ao eixo OF2. Sejam D, E, F, G os pontos de interesecção destas
linhas com as curvas F1 e F2 . Dos pontos D e E desenho duas linhas paralelas ao
eixo OF1 e dos pontos F e G desenhe duas linhas paralelas ao eixo OF2 . Os qua-
tro pontos de intersecção dessas quatro linha (pontos 1, 2, 3, 4) pertencem à curva
integral F1 (x) = kF2 (y). De fato, cada um desses pontos, por construção, é tal
que iguala F1 (x) a kF2 (y). Os pontos P0 sobre a reta R deve estar compreendidos
entre P ′ e P ′′ , dado o valor arbitrário k. Para cada valor de k, existe uma curva
integral correspondente e pode ser construı́da da mesma maneira. Todas as curvas
são fechadas (excetouma  correspondente aos eixos coordenados), de modo que o
b a
ponto de equilı́brio, , , é um centro.
β α

Figura 3.10: Construção das órbitas das equações de Lotka-Volterra

Basta verificar pela figura 3.10 e pelas equações (3.34) que a direção do movi-
mento ao longo da curva integral é o apontado pelas setas (anti-horário). Tome,
a
por exemplo, o ponto 2. Lá, y é maior que , de modo que a − αy < 0 e x′ < 0
α
b
(x decresce); x é menor que , de modo que b − βx > 0 e y ′ < 0 (y decresce).
β

102
Então o ponto caminha no sentido anti-horário sobre a curva integral indicada. Se
puséssemos y no eixo horizontal e x no vertical, a curva integral resultante teria
sentido oposto (horário).
Enquanto o ponto representativo caminha ao longo da curva integral, x oscila
entre os valores xm e xM , e y oscila entre ym e yM . Os valores limitantes de ambas
as populações são dependentes de seus estágio iniciais, pois dependem da constante
arbitrária k. Dadas as condições iniciais, a inclinação da reta R (e então a curva
integral correspondente) é determinada, bem como o ponto sobre a curva integral
do qual o movimento começa.
É também interessante notar que qualquer choque externo simplesmente traz
uma mudança de uma curva integral para outra, onde  o sistema
 retorna a seu movi-
b a
mento periódico. Quando o desvio do ponto crı́tico , for pequeno, as órbitas
β α
são a famı́lia de elipses dada por (3.38). A solução analı́tica do sistema (3.37) fornece
estas elipses na forma paramétrica, em que o tempo t é o parâmetro.
Derivando, em relação a t, ambos os membros da primeira equação de (3.37) e
dv
tomando o valor de da segunda equação, obtemos
dt
d2 u bα dv bα aβ
2
=− =− u
dt β dt β α
ou
u′′ + bau = 0.
Com processo análogo, obtemos

v ′′ + abv = 0.

As soluções das duas equações de segundo grau acima são:


 √ 
 b

 u(t) = k cos abt + θ
βr
√  (3.43)
 a b
 v(t) = k
 sen abt + θ ,
α a
em que k e θ são constantes arbitrárias a serem determinadas com as condições
iniciais. Retornando à mudança de variáveis de (3.36), temos
 √ 
 b b
 x(t) =
 + k cos abt + θ
β βr
√  (3.44)
 a a b
 y(t) =
 +k sen abt + θ .
α α a

103
 
b a
Portanto, para pequenas flutuações em torno do ponto crı́tico , , o tamanho
β α
das populações de presas e predadores varia periodicamente com o perı́odo T =

√ , independentemente das condições iniciais (Lei do Isocronismo dos Pequenos
ab
Desvios).
Temos também que as populações de presas e de predadores estão defasadas
r em
b a b
1/4 de ciclo e a amplitude das oscilações é k para as presas e k para os
β α a
predadores, dependendo das condições iniciais e também dos parâmetros do prob-
lema.
dx a
Do sistema (3.34), temos que > 0 quando y < (com nı́vel baixo de
dt α
dx a
predadores, o número de presas aumenta) e < 0 quando y > (o número
dt α
de presas diminui quando a quantidade de predadores é grande).
dy b
Também, > 0 quando x > (alimentação em grande quantidade favorece
dt β
dy b
o crescimento dos predadores) e < 0 quando x < (com pouco alimento, os
dt β
predadores diminuem).

3.5

3.0

2.5

2.0

1.5

1.0

0.5 presa
predador
5 10 15 20 25 30

Figura 3.11: Evolução das populações x e y

É interessante observar que os valores médios de x e y ao longo de um perı́odo


são os mesmos para todas as soluções, embora soluções diferentes tenham perı́odos
distintos. Para demonstrar este resultado, consideremos o sistema (3.34) escrito na

104
forma 
1
 x′ = a − αy

x (3.45)
1
 y ′ = −b + βx.

y
Integrando ambas as equações de (3.45) entre 0 e T , sendo T é o perı́odo das
soluções em questão, obtemos
 Z T

 ln x(T ) − ln x(0) =
 (a − αy) dt
0
Z T (3.46)

 ln y(T ) − ln y(0) =
 (−b + βx) dt.
0

Como x(T ) = x(0) e y(T ) = y(0), pois T é o perı́odo, obtemos


Z T Z T
aT − α y dt = 0 e β x dt − bT = 0
0 0

ou Z Z
T T
1 a 1 b
y dt = e x dt = (3.47)
T 0 α T 0 β
sendo os dois primeiros membros das equações (3.47) os valores médios de y e de x
ao longo do perı́odo.
Como consequência deste resultado, temos que os valores médios das populações
x e y independem de seus estados iniciais e são exatamente iguais a seus valores
a b
estacionários e .
α β
Isto sugere que para diminuir a quantidade de presas em um ecossistema não
adianta aumetarmos a quantidade de predadores, pois tal fato somente aumentaria
a magnitude da oscilação do ciclo. Os valores médios continuariam os mesmos.
Um fenômeno interessante que ocorre num modelo presa-predador é que uma
retirada uniforme de elementos de ambas as populações beneficia as presas. Por
exemplo, o bicudo (praga do algodão) e a formiga (predadora) convivem num sistema
presa-predador. Se usarmos um inseticida que mata indiscriminadamente tanto os
insetos predadores (formigas) como as presas (bicudos), valor médio dos bicudos deve
aumentar, a não ser que o veneno seja suficientemente eficaz a ponto de destruir toda
a praga.
Este fenômeno foi observado pela primeira vez por Volterra, analisando os da-
dos fornecidos por D’Ancona, relativos à quantidade de tubarões e outros peixes
predadores, que havia aumentado consideravelmente durante a 1a Guerra Mundial
(1914-1918) no Mar Adriático. A diminuição da pesca, neste perı́odo, propiciou o
aumento do valor médio dos predadores.

105
Capı́tulo 4

O Teorema de Poincaré-Bendixson

4.1 Conjuntos α-limite e ω-limite de uma órbita


Considere o sistema autônomo
x′ = f (x) (4.1)
em que f : U → Rn é uma função de classe C 1 no aberto U ⊂ Rn . Dado p ∈ Rn ,
denotaremos por γ(p) a (única) órbita de (4.1) passando por p: se x(t) = x(t, p),
com t ∈ (a, b), designa a solução de (4.1) tal que x(t0 ) = p (para algum t0 ∈ (a, b)),
então
γ(p) = {x(t)/ t ∈ (a, b)} .
Estaremos interessados principalmente no caso em que (a, b) = R. Quando a
solução x(t) está definida para todo t ≥ 0, definimos γ + (p) a semi-órbita positiva
de (4.1) por
γ + (p) = {x(t, p)/ t ≥ 0} .
Analogamente, se x(t) está definida para todo t ≤ 0, a semi-órbita negativa de
(4.1) γ − (p) é definida por
γ − (p) = {x(t, p)/ t ≤ 0} . (4.2)
É claro que, se x(t) existe para todo t ∈ R, então γ(p) = γ + (p) ∪ γ − (p).
Definição 4.1.1. Um conjunto Γ ⊂ Rn é dito positivamente invariante (respectiva-
mente, negativamente invariante) com relação ao sistema (4.1) se
p ∈ Γ ⇒ x(t, p) ∈ Γ, ∀t ≥ 0 (respectivamente, ∀t ≤ 0),
isto é, a solução de (4.1) cuja condição inicial pertence a Γ permanece em Γ para
todo t ≥ 0 (respectivamente, para todo t ≤ 0). Γ ⊂ Rn é dito invariante quando é
positiva e negativamente invariante: a solução de (4.1) cuja condição inicial está
em Γ pertence a Γ para todo t.

106
Exemplo 4.1.1. Para qualquer ponto de equilı́brio x∗ ∈ Rn do sistema (4.1), o
conjunto Γ = {x∗ } é invariante.

Definição 4.1.2. Dada uma semi-órbita positiva γ + , definimos ω(γ + ), o conjunto


ω-limite de γ + , por
n o
ω(γ + ) = p ∈ U/ ∃ (tn )n tal que lim tn = ∞ e lim x(tn ) = p .
n→∞ n→∞

Dado qualquer x0 ∈ γ + , também indicamos ω(γ + ) por ω(x0 ).


Analogamente, definimos o conjunto α-limite, α(γ − ), de uma semi-órbita nega-
tiva por
n o
α(γ − ) = p ∈ U/ ∃ (tn )n tal que lim tn = −∞ e lim x(tn ) = p .
n→∞ n→∞

Teorema 4.1.1. Os conjuntos ω-limite e α-limite de uma órbita γ são dados por
\ \[
ω(γ + ) = γ(x0 ) = x(s) (4.3)
x0 ∈γ + t≥0 s≥t
\ \[
α(γ − ) = γ(x0 ) = x(s)
x0 ∈γ − t≤0 s≤t

em que x(t) é a solução de (4.1) correspondente a γ.

Teorema 4.1.2. Suponha U = Rn . O conjunto ω-limite de qualquer semi-órbita γ +


é um conjunto fechado e invariante. Se, além disso, γ + é limitada, então ω(γ + ) é
não vazio, compacto, conexo e, para qualquer solução x(t) de (4.1) correspondente
a γ, temos 
lim d x(t), ω(γ + ) = 0. (4.4)
t→∞

Observação: Vale um resultado análogo para o conjunto α-limite.


Demonstração: É imediato, a partir da igualdade (4.3), que ω-limite é fechado.
Mostremos que ω(γ + ) é invariante. Dado p ∈ ω(γ + ), existe uma sequência (tn )n
tal que lim tn = ∞ e lim x(tn ) = p. Seja t ∈ R arbitrário. Pela propriedade de
n→∞ n→∞
translação, temos
x(t + tn , x0 ) = x (t, x(tn , x0 )) .
Como as soluções de (4.1) dependem continuamente das condições iniciais, temos
que x (t, x(tn , x0 )) → x(t, p); portanto

x(t + tn , x0 ) → x(t, p).

Isto implica que x(t, p) ∈ ω(γ + ). Logo, ω(γ + ) é invariante.

107
Suponhamos que γ + é limitada e seja x(t) uma solução correspondente a γ + ,
então existe M > 0 tal que |x(t)| ≤ M, ∀t ≥ 0 e, como toda sequência (tn )n com
tn → ∞ é tal que |x(tn )| ≤ M, tem-se que ω(γ + ) ⊂ BM (0, Rn ). Assim, ω(γ + ) é um
subconjunto limitado e fechado de Rn ; logo, ω(γ + ) é compacto.
Para ver que ω(γ + ) 6= ∅, basta notar que a sequência (x(tn ))n definida por
x(tn ) = x(n) é limitada em Rn e, portanto, possui uma subsequência convergente a
um ponto p ∈ Rn . Sendo ω(γ + ) compacto, temos que p ∈ ω(γ + ).
Mostremos que d (x(t), ω(γ + )) → 0. Se esta afirmação não fosse verdadeira,
existiriam um número ε0 > 0 e uma sequência (tn )n com tn → ∞ tais que

d x(tn ), ω(γ + ) > ε0 . (4.5)
Como (x(tn ))n é uma sequência limitada, existe uma subsequência (x(tnk ))k con-
vergente para um ponto p que, pela definição de conjunto ω-limite, pertenceria a
ω(γ + ), contrariando a desigualdade (4.5). Logo, d (x(t), ω(γ + )) → 0.
Suponhamos, por absurdo, que ω(γ + ) não seja conexo. Como ω(γ + ) é fechado,
existem A e B conjuntos fechados, disjuntos e não vazios tais que ω(γ + ) = A ∪ B.
Tome ρ = d(A, B) > 0, então existem a ∈ A e b ∈ B tais que d(a, b) = ρ. Sejam
(sn )n e (s̃n )n sequências tais que sn → ∞, s̃n → ∞ e ainda x(sn ) → a e x(s̃n ) → b.
Consideremos a sequência (tn )n definida por
t2n−1 = sn e t2n = s̃n
e a função g(t) = d(x(t), A) contı́nua em (tn , tn+1 ), para todo n.
Como x(sn ) → a e x(s̃n ) → b, existe n0 tal que

g(t2n−1 ) < ρ/2
n ≥ n0 ⇒
g(t2n ) > ρ/2
e então segue do Teorema do Valor Intermediário que existe t∗n entre tn e tn+1 tal
que
g(t∗n ) = d(x(t∗n ), A) = ρ/2.

Ainda, como a sequência (x(t
 n ))n ⊂ {x ∈ U/ d(x, A) = ρ/2}, um compacto, ex-
iste uma subsequência x(tnk ) k convergente para um ponto p∗ ∈ ω(γ + ) = A ∪ B.

Mas p∗ ∈/ A, pois d(p∗ , A) = ρ/2 > 0; também p∗ ∈


/ B, pois
(p∗ , B) ≥ d(A, B) − d(p∗ , A) = ρ/2 > 0.
O que é uma contradição.

Observação: Valem resultados análogos para sistemas em que f : U → Rn , em


que U ⊂ Rn é aberto. Algumas pequenas adaptações são necessárias: por exemplo,
para mostrar que o conjunto ω-limite de um órbita é invariante, precisamos assumir
que a órbita esteja contida em um subconjunto compacto de U.

108
4.2 Considerações Geométricas
Considere o sistema autônomo planar
 ′
x = f1 (x, y)
(4.6)
y ′ = f2 (x, y),

em que f1 (x, y) e f2 (x, y) são funções de classe C 1 na região (aberto conexo) U ⊂ R2 ;


denotemos f (x, y) = (f1 (x, y), f2 (x, y)).

Definição 4.2.1. Um segmento compacto de reta L ⊂ U é dito um segmento


transversal em relação a f quando

i) todo ponto de L é ponto regular de f , isto é, f (p) 6= 0, ∀p ∈ L;


ii) em nenhum ponto p de L, o vetor f (p) é paralelo a L.

O próximo lema contém as principais propriedades dos segmentos transversais.

Lema 4.2.1. Considere o sistema (4.6).

i) Através de cada ponto regular p = (x0 , y0 ) ∈ U pode ser traçado um segmento


transversal L contendo p em seu interior e L pode ter qualquer direção diferente de
f (p);
ii) Toda órbita que intercepta um segmento transversal L, na verdade, atravessa L
de um lado a outro e todas as órbitas que atravessam L o fazem no mesmo sentido;
iii) Se γ = {(x(t), y(t)) / a ≤ t ≤ b} é um arco finito de órbita de (4.6), então γ
não pode interceptar um dado segmento transversal mais do que um número finito
de vezes;
iv) Seja p um ponto interior de um segmento transversal L. Então para todo ε > 0,
existe δ > 0 tal que, para cada ponto p1 de Bδ (p, Rn ), a órbita de (4.6) que passa
por p1 quando t = 0 intercepta o segmento L para t = t0 (p1 ), em que |t0 (p1 )| < ε.

Demonstração: i) é trivial, ii) é consequência direta da unicidade e da con-


tinuidade das órbitas.
Mostremos iii): suponhamos que não seja verdadeiro, então existe uma sequência
infinita de pontos distintos (pn )n ⊂ γ ∩ L definida por pn = (x(tn ), y(tn )), com
a ≤ tn ≤ b. Como o intervalo [a, b] é compacto, a sequência (tn )n possui uma
subsequência convergente (tnk )k para t∗ ; denotemos p∗ = (x(t∗ ), y(t∗)). Há dois
casos a se considerar:

• existe nk tal que pnk = p∗ : neste caso, γ é uma órbita periódica com perı́odo
T > 0. Logo, uma infinidade de pontos pnk coincidem com p∗ , o que implica
que b − a = mT , ∀m, o que é impossı́vel;

109
• pnk 6= p∗ , ∀k: então (p∗ pnk )k é uma sequência de retas secantes à órbita, cuja
direção limite é a tangente a γ em p∗ . Mas esta direção limite é tangente a
mesma de L; portanto, L é tangente a γ em p∗ , contrariando a definição de
segmento transversal.
Logo, γ ∩ L é um conjunto finito.
Mostremos iv). Não há perda de generalidade em supor p = (0, 0) e L ⊂
{(x, 0)/ x ∈ R}, o eixo x. A solução (x(t, x0 , y0), y(t, x0 , y0)) de (4.6) é uma função
continuamente diferenciável das variáveis t, x0 e y0 em alguma Br (0, R3). Além
disso, pela definição de segmento transversal, temos
∂y
(0, 0, 0) 6= 0.
∂t
Pelo Teorema da Função Implı́cita, a equação y(t, x0, y0 ) = 0 tem uma única
solução t = t(x0 , y0 ) definida em alguma bola Bδ (0, R2 ) que depende continuamente
de (x0 , y0 ). Como t(0, 0) = 0, segue que, para δ > 0, suficientemente pequeno, temos
|t(x0 , y0)| < ε, ∀(x0 , y0) ∈ Bδ (0, R2 ).

Lema 4.2.2. Dada uma órbita γ, suponha um ponto regular p em ω(γ) e seja L um
segmento transversal passando p. Então, existe uma sequência monótona (tn )n tal
que tn → ∞ e γ ∩ L = {p1 , p2 , . . .}, em que (pn )n = (x(tn ), y(tn ))n .
Se p1 = p2 , então pn = p, ∀n e γ é uma órbita periódica.
Se p1 6= p2 , então todos os pontos pn são distintos e pn+1 está entre pn e pn+2 .
Demonstração: Como p ∈ ω(γ), toda bola centrada em p contém pontos de γ
correspondentes a valores arbitrariamente grandes de t. Portanto, o Lema 4.2.1 iv)
implica que existem infinitos valores de t correspondentes a pontos de L ∩ γ. Mas,
pelo Lema 4.2.1 iii), qualquer arco finito de γ só pode interceptar L um número
finito de pontos. Assim, L ∩ γ = {p1 , p2 , . . .}, com (pn )n = (x(tn ), y(tn ))n e tn → ∞,
monotonicamente.
Se p1 = p2 , então γ é uma órbita periódica, o que implica que pn = p1 , ∀n e,
como pn → p, temos que p = p1 = pn , ∀n.
Suponhamos p1 6= p2 . Como γ não intercepta L para t1 < t < t2 , segue-se que o
arco de γ dado por t1 < t < t2 mais o segmento p1 p2 formam uma curva de Jordan
Γ. Há dois casos a se considerar:
Caso 1: Para t2 < t < t2 + ε, γ está dentro de Γ. Para sair do interior de Γ, a órbita γ
deveria cruzar Γ, pelo Teorema da Curva de Jordan, mas γ não pode cruzar
a si própria e, pelo Lema 4.1 ii), não pode cruzar p1 p2 no sentido contrário.
Assim, γ permanece no interior de Γ para todo t > t2 . Portanto, p3 6= p1 e
p3 6= p2 e p2 está entre p1 e p3 . Agora, procedendo por indução, obtemos a
sequência (pn )n monótona.

110
L
p1

p2
p3 Γ
p4
p5

Figura 4.1: Sequência “decrescente” de pontos (pn )n sobre L.

Caso 2: Para t2 < t < t2 + ε, γ está fora de Γ. Então Γ não pode entrar no interior de
Γ, e o argumento procede como no Caso 1, com as devidas alterações.

L Γ
p5

p4
p3
p2
p1

Figura 4.2: Sequência “crescente” de pontos (pn )n sobre o segmento trasnversal L.

111
Observação: Como a sequência (pn )n é monótona, segue que p é o único ponto
limite de (pn )n . Isto implica o seguinte lema:
Lema 4.2.3. Nenhum segmento transversal pode interceptar ω(γ) em 2 pontos dis-
tintos.
Lema 4.2.4. Se ω(γ) contém uma órbita periódica Γ, então ω(γ) = Γ.
Demonstração: Suponhamos que não: então existe p ∈ ω(γ) tal que p ∈ / Γ.
Como ω(γ) é não vazio e conexo, o conjunto ω(γ)\Γ não é fechado (caso contrário,
ω(γ) seria união de dois conjuntos fechados disjuntos: ω(γ)\Γ e Γ). Como ω(γ) é
fechado, existe q ∈ Γ que é ponto de acumulação de ω(γ)\Γ. Seja L um segmento
transversal passando por q. Como toda bola Bδ (q, R2 ) contém um ponto de ω(γ)\Γ,
é claro que L será interceptado por uma órbita pertencente a ω(γ)\Γ. Portanto, ω(γ)
intercepta L em dois pontos distintos, contrariando o Lema 4.2.3. Esta contradição
mostra que ω(γ) = Γ.

4.3 O Teorema de Poincaré-Bendixson


Assumiremos nesta seção que a semi-órbita γ + = {(x(t), y(t)) / t ≥ 0} está con-
tida no compacto K ⊂ U. Temos então a seguinte descrição do conjunto ω(γ + ).
Teorema 4.3.1. (Teorema de Poincaré-Bendixson) Suponhamos que ω(γ + ) não
contenha singularidades de f . Então, ω(γ + ) é uma órbita periódica e vale uma das
seguintes alternativas:
i) γ + é uma órbita periódica e ω(γ + ) = γ + ;
ii) ω(γ + ) é um ciclo limite de γ + , isto é, γ + se aproxima espiralmente (por dentro
e por fora) de ω(γ + ).
Demonstração: Sejam p ∈ ω(γ + ), Γ a órbita contendo p e ω(Γ) o conjunto
ω-limite de Γ. Temos Γ ⊂ ω(γ + ) e como ω(Γ) é fechado, temos ω(Γ) ⊂ ω(γ + ).
Segue-se que ω(Γ) (que é não vazio) contém ao menos um ponto q, o qual é regular,
pois q ∈ ω(γ + ).
Seja L um segmento transversal através de q. Pelo Lema 4.2.3, L intercepta
ω(γ + ) precisamente em um ponto. Como Γ ⊂ ω(γ + ), temos que L intercepta Γ em
um único (a saber, o ponto q). O Lema 4.2.2 implica que Γ é uma órbita periódica.
Pelo Lema 4.2.4, ω(γ + ) = Γ.
Se γ + é periódica, temos o caso i) do Teorema.
Se γ + não é periódica, então, ou γ + está sempre dentro, ou sempre fora de Γ.
Sejam p ∈ Γ, L um segmento transversal através de p e (pn )n uma sequência
monótona de L ∩ Γ correspondente à sequência monótona tn → ∞. Se γ + está

112
fora de ω(γ + ) temos a configuração abaixo (pelo Teorema de Jordan) e portanto a
aproximação é espiral.

113
Capı́tulo 5

Modelo de Goodwin

No modelo original de Lotka-Volterra, o predador e a presa podiam ser distin-


guidas pelo fato de que a população de predadores crescia mais rápido conforme
quão grande fosse a população de presas, enquanto esta crescia mais rápido con-
forme quão pequena fosse a popuação de predadores. O modelo de Goodwin pode
ser encarado como uma reinterpretação do modelo de Lotka-Volterra. Goodwin,
economista americano, identificou u como a participação dos salários no produto in-
terno, enquanto 1 − u é a participação dos lucros empresariais no produto interno e
v a taxa de emprego. O modelo a ser desenvolvido contempla as seguintes equações:
   
 ′ 1 1
v = − (p + n) − u v
k k (5.1)
 ′
u = [−(p + γ) + ρv] u.
Da primeira equação, a taxa de emprego, v, cresce mais rápido conforme quão
grande for a participação dos lucros empresariais, 1 − u e, da segunda equação, a
taxa 1 − u cresce mais rápido conforme quão menor for a taxa de emprego. Então,
temos que o salário é o predador e o emprego, a presa. A implicação econômica
desta conexão é a de que, quando os lucros são altos, o investimento é alto e, como
o investimento requer trabalhadores adicionais, haverá um rápido crescimento do
emprego, v. Por outro lado, quando o emprego é baixo, os salários caem e, em
contrapartida, os lucros aumentam, 1 − u.
As interpretações econômicas acima citadas serão esclarescidas ao longo do de-
senvolvimento do modelo e as conclusões sobre a dinâmica competitiva entre empre-
sas e trabalhadores poderão, então, ser compreendidas. Note que neste modelo as
variáveis envolvidas, u e v, são taxas: não representam valores absolutos, ou seja,
se numa economia existem 200 trabalhadores e apenas 120 estão empregados, então
neste instante de tempo temos v = 60%. Sendo assim, o ciclo é, de fato, um ciclo
em taxas de crescimento. Como as equações de Lotka-Volterra não são estrutural-
mente estáveis, não é de se espantar que pequenas modificações no modelo original

114
de Goodwin conduzem a diferente resultados.
Termos como crescimento e taxa de crescimento são extensamente utilizados em
análises e modelos econômicos. Vale lembrar que o termo crescimento se refere
a variação em valor absoluto de uma variável, podendo portanto ser positivo ou
negativo. Por exemplo, o PIB do Brasil em 2009 e em 2010 foi de R$ 3,418 trilhões
e de R$ 3,675 trilhões, respectivamente; um crescimento de R$ 257 bilhões de 2009
para 2010. Porém, a maneira mais corriqueira de se referir a esse crescimento é
pela taxa de crescimento, isto é, dado o valor de uma variável x num instante t,
digamos, xt , e o seu valor, xt+1 , no instante t + 1, a taxa de crescimento nada mais
xt+1 − xt
é que ; em nosso exemplo então, o PIB sofreu um crescimento de 7, 519%
xt
(aproximadamente). Para fins econômicos, a taxa de crescimento é comumente
dx x2 − x1
t − t1
expressa pela forma dt , uma vez que pode ser aproximada pela expressão 2 ,
x x1
ainda que grosseiramente. E mais, em contextos econômicos, são comuns variáveis
cujo valor é calculado anualmente, como o PIB e o Investimento agregado, por
x2 − x1 dx
t − t1 x − x
≈ dt . Na intenção de simplificar a
2 1
exemplo. Daı́ seque que 2 =
x1 x1 x
x′
notação, considere gx a taxa de crescimento da variável x, isto é, gx = .
x

5.1 Desenvolvimento
Considere as seguintes hipóteses:

(i.) o progresso técnico é constante, isto é, a taxa de crescimento da produtividade


do trabalhador é constante e igual a p:
Y
P = = P0 exp(pt), p > 0, (5.2)
L
é a produtividade do trabalhador, isto é, quanto um trabalhador a mais con-
tribui para a geração de receita, Y . Note então que gP = p;

(ii.) a taxa de crescimento da força de trabalho N é constante e igual a n:

N = N0 exp(nt), n > 0. (5.3)

Note que não existe aqui a hipótese de pleno emprego, isto é, a suposição de
que todos os trabalhadores estão empregados: L = N, em que L representa a
quantidade de trabalhadores empregados e N a quantidade de trabalhadores;

115
(iii.) a produção, Y , é uma variável dependente apenas da força de trabalho N e do
capital K, isto é, Y = Y (N, K), sendo N e K homogêneos e não especı́ficos.
A variável K, dada em valor monetário assim como Y , engloba ativos fı́sicos
da empresa utilizados para a produção tais como máquinas, fábricas, móveis,
imóveis entre outros;
(iv.) todas as quantidades são reais e lı́quidas, isto é, as quantidades monetárias
estão expressas lı́quidas de impostos e em valor real de compra, portanto,
descontadas já a inflação;
(v.) todos os salários são consumidos e todos os lucros são poupados e automati-
camente reinvestidos;
K
(vi.) a razão é constante e igual a k;
Y
(vii.) sendo w o salário real, a taxa de crescimento do salário real, gw , cresce quando
próximo do pleno emprego. O que parece razoável, uma vez que os trabal-
hadores ganham mais poder de barganha quando existem poucos desempre-
gados, basta notar que as empresas se sentem obrigadas a ceder salários mais
altos para não perder seu trabalhador (já escasso).
Seja u a participação dos trabalhadores no produto
wL
u= (5.4)
Y
e daı́ segue que a participação das empresas no produto é 1 − u. Como
wL Y − wL
1−u =1− = ,
Y Y
segue que os lucros são a diferença entre a receita, Y , e o salário total, wL, isto é, o
salário pago w a L empregados. Note ainda que Y − wL = (1 − u)Y é outra forma
de descrever os lucros.
A cada ano, a empresa toma seus lucros e os reinveste, aumentando o seu capital.
(1 − u)Y
O retorno sobre ativo é a taxa expressa por e representa o quanto do capital
K
investido se transformou em lucro empresarial, servindo de medida para a eficiência
com que a empresa usa seu capital. Das hipóteses (iv.), (v.) e (vi.), segue que
(1 − u)Y 1−u
= = gK = gY . (5.5)
K k
Estas igualdades decorrem do fato de que a empresa reinveste todos seus lucros
e então a variação do capital é simplesmente o lucro: (1 − u)Y = K ′ . E ainda, dada
K
a hipótese de que = k, por diferenciação logarı́tmica, segue que gK = gY .
Y
116
Usando diferenciação logarı́tmica em (5.2), temos gY −gL = p e logo gL = gY −p.
1−u
Por (5.5), gL = − p.
k
L
Seja agora a taxa v de emprego, v = , então
N
1−u
gv = gL − gN = − (p + n). (5.6)
k
Consideremos agora a hipótese (vii.): podemos escrever gw = f (v), em que f é
uma função crescente do tipo abaixo.

fHvL

v
1

Figura 5.1: A taxa de salário real e o emprego

Tomando uma aproximação linear,


gw = −γ + ρv, com γ, ρ > 0. (5.7)
Por diferenciação logarı́tmica em (5.4) temos gu = gw − p e daı́, dada a aprox-
imação linear,
gu = −(p + γ) + ρv. (5.8)
Das equações (5.6) e (5.8), obtemos as equações dinâmicas fundamentais do
modelo:    
 ′ 1 1
v = − (p + n) − u v
k k (5.9)
 ′
u = [−(p + γ) + ρv] u.
Fazendo,
1 1
− (p + n) = a, = α, p + γ = b, ρ = β,
k k
temos as equações de Lotka Volterra:
 ′
v = (a − αu) v
u′ = − (b − βv) u.

117
5.2 Ciclo econômico
Aplicando o mesmo procedimento descrito na seção 3.5, podemos desenhar as
curvas integrais usando a relação

φ(v) = kψ(u),

em que φ(v) = v −b exp(βv), ψ(u) = ua exp(−αu); as formas dessas duas funções


já foram discutidas na seção 3.5. O resultado final é mostrado na figura 5.2, que
é construı́da naquela mesma seção (a única diferença é que a variável da primeira
equação, v, é agora mensurada no eixo vertical em vez do eixo horizontal, de modo
que a direção do movimento ao longo da curva integral é horário). As variáveis, por
definição, são restritas ao intervalo [0, 1].
Um ponto sobre o eixo u fornece a distribuição de renda: a participação dos tra-
balhadores é o segmento da origem até (u, 0); a participação dos lucros é o segmento
de (u, 0) até (1, 0).

Figura 5.2: Ciclo de crescimento de Goodwin

De v, obtemos a taxa de crescimento do salário real (ver equação (5.7)). Sabemos


que conforme um certo ponto caminha pela curva integral, as variáveis u e v oscilam
entre valores um e uM e, vm e vM , respectivamente. Um esboço das curvas u(t)
e v(t) é dado pela figura 5.3. Assim, temos um ciclo nas taxas de crescimento do
emprego e da distribuição de renda. Se a fase descendente do ciclo implica também

118
uma queda em valores absolutos ou apenas significa que estes últimos crescem menos
rapidamente depende do quão “severo” é o ciclo. O mesmo é válido para os salários
reais.
3.5

3.0

2.5

2.0

1.5

1.0

0.5 presa
predador
5 10 15 20 25 30

Figura 5.3: Evolução das taxas u e v

O mecanismo econômico subjacente ao movimento dos pontos (u, v) é, nas palavras
de Goodwin (1967), o seguinte: “When profit is greatest, u = um , employment is
average, v = b/β, and the high growth rate pushes employment to its maximum
vM , which squeezes the profit rate to its average value a/α. The deceleration in
growth lowers employment (relative) to its average value again, where profit and
growth are again at their nadir uM . This low growth rate leads to a fall in out-
put and employment to well below full employment, thus restoring profitability to
its average value because productivity is now rising faster than wage rates . . . The
improved profitability carries the seed of its own destruction by engendering a too
vigorous expansion of output and employment, thus destroying the reserve army of
labour and strengthening labour’s bargaining power” (pp. 57-8, os sı́mbolos foram
alterados de acordo com a notação aqui empregada). De acordo com Goodwin,
esta é essencialmente a ideia de Marx sobre as contradições do capitalismo; há, no
entanto, uma diferença, uma vez que no modelo a participação dos salários pode
não cair em valor absoluto, como já comentado anteriormente. Marx acreditava que
“capitalism’s alternate ups and downs can be explained by the dynamic interaction
of profits, wages and employment” (Goodwin (1972), p. 442).
Como já é sabido, choques externos não afetam as caracterı́sticas do ciclo, uma
vez que eles meramente mudam as trajetórias (u, v) para uma  outra curva integral,
a b
tendo a mesma forma e circundando o mesmo ponto, C = , . Em ambos os
α β
casos, isto é, para o sistema não perturbado e para o perturbado, os valores médios
de longo prazo de u e v, que são as coordenadas do ponto C, são independentes das

119
condições iniciais e de choques externos, como mostrado durante o desenvolvimento
do modelo de Lotka-Volterra.
Z Z
1 T a 1 T b
u dt = e v dt = ,
T 0 α T 0 β

sendo T = √ o perı́odo das funções u e v.
ab

5.3 Interpretação Econômica


O modelo de Goodwin,
   
 ′ 1 1
v = − (p + n) − u v
k k (5.10)
 ′
u = [−(p + γ) + ρv] u,

encarado como uma reinterpretação do modelo de Lotka-Volterra, propõe um ciclo


econômico que envolve as variáveis v, taxa de emprego, e u, a participação salarial no
PIB. Daı́ emerge uma caracterı́stica elogiável deste modelo: as variáveis empregadas
são taxas, o que conduz a interpretações mais realı́sticas para ciclos e crescimento
econômicos pois não implica, por exemplo, que a renda Y fique confinada num
intervalo fixo. Note que, empiricamente, o que se observa é que o crescimento
econômico das nações guia a renda Y a nı́veis cada vez mais altos. O máximo que
pode ocorrer é alguma crise econômica ou alguma depressão que reduza o ritmo de
crescimento desta variável, ou mesmo, chegue a reduzı́-la a valores absolutos menores
que os do último perı́odo, o que, de fato, promove uma recessão econômica já séria.
Como já explicado, no modelo de Goodwin, o salário se comporta como predador
e o emprego como presa. Isto pressupõe que, quando o valor salarial é ı́nfimo ou
nulo diante da produção Y , isto é, u = 0, temos v ′ > 0. Porém, isso é válido
1
somente se > (p + n), hipótese, portanto, implı́cita ao modelo. Esclarescida esta
k
questão, temos que, diante de altos nı́veis de emprego, o poder de barganha dos
trabalhadores empregados pressiona um aumento dos salários e, então um recuo dos
lucros. Conforme os lucros caem, menos trabalhadores são contratados e outros
eventualmente são despedidos. Logo, o emprego cai, conduzindo a lucros maiores.
Em seguida, com lucros elevados, mais trabalhadores são contratados, os nı́veis de
emprego sobem novamente. Com isso, o já citado ciclo emerge.

120
Referências Bibliográficas

[1] BASSANEZI, R.C.; FERREIRA JR., W.C. Equações Diferenciais com


Aplicações São Paulo: Harbra, 1988.

[2] BLANCHARD, O. Macroeconomia 4. ed. São Paulo: Pearson Prentice Hall,


2007.

[3] BOYCE, W.; DiPrima, R. Elementary Differential Equations and Boundary


Value Problems 7. ed. New York: John Winley & Sons, Inc, 2001.

[4] BRAUER, F.; NOHEL, J.A. The Qualitative Theory of Ordinary Differential
Equations. New York: W.A. Benjamim, 1969.

[5] CHIANG, W.W.; SMYTH, D.J. The Existence and Persistence of Cycles in
a Non-Linear Model: Kaldor’s 1940 Model Re-examined. The Review of Eco-
nomics Studies. v. 38, n. 1, pp. 37-44, 1971.

[6] DOERING, C. I.; LOPES, A.O. Equações Diferenciais Ordinárias. Rio de


Janeiro: IMPA, Coleção Matemática Universitária, 2005.

[7] GANDOLFO, G. Economic Dynamics. Heidelberg: Springer-Verlag Berlin,


1997.

[8] HALE, J.K. Ordinary Differential Equations. Florida: Robert e Krieger Pub-
lishing Co., 1969.

[9] SHONE, R.: Economic Dynamics: Phase Diagrams and their Economic Appli-
cation. Second Edition Cambridge University Press, 2002.

121

Você também pode gostar