Escolar Documentos
Profissional Documentos
Cultura Documentos
1 Introduo
Todos ns j tentmos, numa ou outra ocasio, manter em equilbrio uma
vara sobre o dedo indicador (i.e., resolver o problema do pndulo invertido).
Por outro lado muito mais difcil, sobretudo se fecharmos os olhos, manter
em equilbrio um pndulo invertido duplo. A teoria do controlo permite
faz-lo sob a condio de dispormos de um bom modelo matemtico.
Um sistema de controlo um sistema dinmico, que evolui no tempo,
sobre o qual podemos agir atravs de uma funo de comando ou controlo.
Um computador, que permite a um utilizador efectuar uma srie de comandos,
um ecossistema sobre o qual podemos agir favorecendo esta ou aquela espcie,
os tecidos nervosos que formam uma rede controlada pelo crebro e realizam a
transformao de estmulos provenientes do exterior em aces do organismo,
um robot que deve efectuar uma tarefa bem precisa, uma viatura sobre
a qual agimos por intermdio de um pedal de acelerao, de travagem e
embraiagem e que conduzimos com a ajuda de um volante, um satlite ou
uma nave espacial, so todos eles exemplos de sistemas de controlo, os quais
podem ser modelados e estudados pela teoria dos sistemas de controlo.
A teoria do controlo analisa as propriedades de tais sistemas, com o intuito
de os conduzir de um determinado estado inicial a um dado estado final,
respeitando eventualmente certas restries. A origem de tais sistemas pode
ser muito diversa: mecnica, elctrica, biolgica, qumica, econmica, etc. O
objectivo pode ser o de estabilizar o sistema tornando-o insensvel a certas
perturbaes (problema de estabilizao) ou ainda determinar as solues
ptimas relativamente a um determinado critrio de optimizao (problema
do controlo ptimo). Para modelar os sistemas de controlo podemos recorrer a
equaes diferenciais, integrais, funcionais, de diferenas finitas, s derivadas
parciais, determinsticas ou estocsticas, etc. Por esta razo a teoria do
controlo vai beber e contribui em numerosos domnios da matemtica (vide,
e.g., [4, 11, 12, 21, 23, 27]).
A estrutura de um sistema de controlo representada pela interconexo
de certos elementos mais simples que formam sub-sistemas. Neles transita
informao. A dinmica de um sistema de controlo define as transformaes
possveis do sistema, que ocorrem no tempo de maneira determinista ou
aleatria. Os exemplos j dados mostram que a estrutura e a dinmica de um
sistema de controlo podem ter significados muito diferentes. Em particular,
o conceito de sistema de controlo pode descrever transformaes discretas,
contnuas, hbridas ou, de um modo mais geral, numa time scale ou measure
chain [13, 14, 22].
Um sistema de controlo diz-se controlvel se o podemos conduzir (em
X(t) = AX(t) + Bu(t) t ,
(1)
X(0) = X0 .
X0
X(t)
X0 X1 = X(T )
X0 X1 = X(T )
X0
A(X0 , T )
A soluo de
X = AX + Bu
(
(2)
X(0) = X0
Z t
X(t) = etA + etA esA Bu(s) ds .
0
Constatamos que se X0 = 0, i.e., se partirmos da origem, ento a expresso
de X(t) simplificada: X(t) = e Bu(s) ds linear em u. Esta
tA
R t sA
0e
observao leva-nos seguinte proposio.
3.3 Controlabilidade
O sistema de controlo X = AX + Bu diz-se controlvel se para todo o
X0 , X1 Rn existe um controlo u tal que a trajectria associada une X0 a
X1 em tempo finito T (Figura 9). De modo mais formal temos:
X0 , X1 Rn T > 0 u : [0, T ] I L1
X = AX + Bu ,
X : [0, T ] Rn |
X(0) = X0 ,
X(T ) = X .
1
X0 X1
Figura 9: controlabilidade.
X0 X1 = X(T )
X0 X1
A(X0 , T )
A(X0 , t)
X(0) = X0 .
u(t) = sinalh(t), Bi
O x
m
A massa pontual sai da origem por uma fora que supomos igual a
k1 (x l) k2 (x l)3
|u(t)| 1 t.
Isto significa que a fora apenas pode tomar valores no intervalo fechado
[1, 1]. Suponhamos que a posio e a velocidade iniciais do objecto so,
respectivamente, x(0) = x0 e x(0)
= y0 . O problema consiste em trazer, em
tempo mnimo, a massa pontual posio de equilbrio x = l por escolha
adequada da fora externa u(t) e tendo em conta a restrio |u(t)| 1. A
fora u aqui o nosso controlo.
Problema. Dadas as condies iniciais x(0) = x0 e x(0)
= y0 , encontrar a
funo u que permite transportar a massa para a sua posio de equilbrio
em tempo mnimo.
= y(t)
(
x(t)
= x(t) k2 x(t)3 + u(t)
y(t) (5)
x(0) = x0 , x(0)
= y0 .
tomando
0 1 0
! !
A= , B= ,
1 0 1
0
! ! !
x x0
X= , X0 = , f (X) = .
y y0 k2 x3
X(0) = X0
0 1
!
rank (B|AB) = rank =2
1 0
Se u = +1, obtemos
x = y ,
(
(8)
y = x + 1 .
A trajectria ptima unindo X0 a 0 constituda por pedaos de solues de
(7) e (8) concatenadas. As solues de (7) e (8) so facilmente obtidas:
d
x = y, y = x 1 ((x + 1)2 + y 2 ) = 0
dx
(x + 1)2 + y 2 = const = R2
e conclumos que as curvas solues de (7) so crculos centrados em x = 1
e y = 0 de perodo 2 (com efeito, x(t) = 1 + R cos t e y(t) = R sen t); como
solues de (8) obtemos x(t) = 1 + R cos t e y(t) = R sen t, i.e., as solues
de (8) so crculos centrados em x = 1 e y = 0 de perodo 2.
A trajectria ptima de X0 at 0 segue alternadamente um arco de crculo
centrado em x = 1 e y = 0 e um arco de crculo centrado em x = 1 e y = 0.
O estudo detalhado da trajectria ptima e a sua implementao numrica,
para todo e qualquer X0 , podem ser encontrados em [33].
A(T ) = Rn .
[
T 0
rank(B|AB| |An1 B) = n
H : Rn Rn \{0} Rm R
(x, p, u) 7 H(x, p, u) = hp, f (x, u)i
H H
x(t) = (x(t), p(t), u(t)) , p(t)
= (x(t), p(t), u(t))
p x
H
(x(t), p(t), u(t)) = 0 (equao de restrio)
u
onde H o hamiltoniano do sistema.
Demonstrao. Por definio, o par (x, u) singular sobre [0, T ] se dET (u)
no sobrejectiva. Logo existe um vector linha p Rn \{0} tal que
Z T
v() L ([0, T ]) h
p, dET (u) vi = p M (T )M 1 (s)B(s)v(s) ds = 0 .
0
Consequentemente,
f
= p(t)
p(t) (x(t), u(t)) .
x
x0
x0 , T )
A(
x0 (T )
x1 x
onde f 0 : Rn Rm R de classe C 1 .
Se o controlo u U ptimo em [0, t ], ento existe uma aplicao no
trivial (i.e., no identicamente nula) (p(), p0 ) : [0, t ] Rn R absoluta-
mente contnua, chamada vector adjunto, onde p0 uma constante negativa
ou nula, tal que a trajectria ptima x associada ao controlo u verifica, em
quase todos os pontos de [0, t ], o sistema hamiltoniano
H H
x = (x, p, p0 , u) , p = (x, p, p0 , u)
p x
e a condio do mximo
H(x(t), p(t), p0 , u(t)) = max H(x(t), p(t), p0 , v) , q.t.p. t [0, t ] ,
v
onde o hamiltoniano H dado por H(x, p, p0 , u) = hp, f (x, u)i + p0 f 0 (x, u).
Alm disso, tem-se para todo o t [0, t ] que
max H(x(t), p(t), p0 , v) = 0 . (14)
v
H(x, y, px , py , p0 , u) = px y + py (x 2x3 + u) + p0 .
py u = max py (t) .
|v|1
py (t ) = cos , py (t ) = sen ,
= y(t)
x(t)
= x(t) + 2x(t)3 sinal(py (t))
y(t)
p y (t) = px (t)
2
px (t) = py (t)(1 + 6x(t) ) .
Nota final
A Teoria Matemtica dos Sistemas e Controlo ensinada nas instituies
dos autores, nos Departamentos de Matemtica da Universidade de Aveiro
e da Universidade de Orlans, Frana. Em Aveiro no mbito do Mestrado
Matemtica e Aplicaes, especializao em Matemtica Empresarial e Tec-
nolgica [35], e no mbito do Programa Doutoral em Matemtica e Aplicaes
este ltimo uma associao entre os Departamentos de Matemtica da
Universidade de Aveiro e da Universidade do Minho [36]; em Orlans na
opo Controlo Automtico do Mestrado PASSION [37]. O primeiro autor
foi aluno de Mestrado em Aveiro e faz actualmente um doutoramento em
Aveiro e Orlans na rea do Controlo ptimo, com o apoio financeiro da
FCT, bolsa SFRH/BD/27272/2006.
Agradecemos a um revisor annimo a apreciao cuidada e as numerosas
e pertinentes observaes, comentrios e sugestes.
Referncias
[1] A. A. Agrachev, Y. L. Sachkov. Control theory from the geometric
viewpoint, Encyclopaedia Math. Sci., 87, Springer, Berlin, 2004.
[4] A. E. Bryson Jr. Optimal control 1950 to 1985, IEEE Control Syst.
Mag 16 (1996), no. 3, 2633.