Você está na página 1de 131

UNIVERSIDADE FEDERAL DO MARANHÃO

CENTRO DE CIÊNCIAS EXATAS E DE TECNOLOGIA


CURSO DE ENGENHARIA ELÉTRICA

DISCIPLINA: CONTROLE II

SÃO LUÍS – MA , 2019


Prof. Vilemar Gomes
1. BREVE INTRODUÇÃO AOS SISTEMAS DE CONTROLE
1.1. Sistemas Dinâmicos – definição e classificação
Os sistemas dinâmicos são sistemas descritos por equações diferenciais
(para o caso de sistemas de tempo contínuo) ou à diferença (para o
caso de sistemas de tempo discreto). Podem ser também: i) de múltiplas
entradas e múltiplas saídas (Multi Input, Multi Output–MIMO), ou de
entrada única e saída única (Single Input, Single Output - SISO); ii)
lineares ou não lineares.

1.2. Requisitos de desempenho de um sistema em malha fechada


a) Estabilidade: Para o caso de sistemas lineares, os pólos (ou
autovalores) do sistema em malha fechada devem ser tais que Re( s )  0
(sistema de tempo contínuo) ou z  1 (para sistema de tempo discreto)

b) Rejeição de perturbações: o desempenho em malha fechada deve ser


fortemente dependente das entradas de controle e o mais independente
possível das perturbações

c) Seguimento de referência: os erros em regime permanente entre as saídas


a controlar e as entradas de referência devem ser nulos ou menores
que valores arbitrados.
d) Robustez: a estabilidade e o desempenho devem ser preservados
frente a possíveis variações paramétricas ou a dinâmicas não
modeladas da planta. Exemplo 1: variações paramétricas por
desgaste natural de componentes; parâmetros variantes com o tempo,
com a temperatura e com a pressão. Exemplo 2: Dinâmicas não
modeladas: modelos de ordem reduzida, negligência ou
desconhecimento de dinâmicas de alta freqüência.
1.2.1. Requisitos específicos de sistemas MIMO
a) Desacoplamento: calcula-se um controlador que permite isolar um
ou mais subsistemas que compõem o sistema a controlar. Pode-se
aplicar técnicas particulares sobre os subsistemas isolados.
1 1

y1
u1 v1 y1

u2 y2 v2 y2

2 2
 Desacoplamento total: obtenção de um conjunto de subsistemas
isolados (diagonalização)
b) Descentralização: restrição imposta à estrutura do controlador
devido à impossibilidade (geográfica, técnica ou econômica ) de
centralizar as informações das saídas.

C1
u1 y1
S1
u2 y2
S2

C2
u3 y3
S3

C3
Ações de controle são aplicadas sobre os subsistemas; os
controladores devem atuar de forma coordenada para atingir o
desempenho global desejado.
 Não altera os acoplamentos (interconexões) entre os subsistemas.
 Exemplo: controle de sistemas de grande porte (Sistemas Elétricos
de Potência).
2. REPRESENTAÇÃO DE SISTEMAS DINÂMICOS
2.1. Introdução
 Os sistemas dinâmicos, independentemente de serem mecânicos,
elétricos, térmicos, hidráulicos, econômicos, biológicos, ou de outra
natureza, majoritariamente, podem ser descritos por equações
diferenciais ou à diferença.

 A modelagem matemática de um sistema físico é o procedimento de


análise matemática do sistema visando obter um conjunto de
equações que descrevam a dinâmica do sistema com precisão ou
de forma aproximada. Para um dado sistema o modelo matemático
não é único.

 Compromisso entre Simplificação e precisão: quanto maior for a


precisão de um modelo matemático, maior será sua complexidade.
Por isto, deve-se estabelecer um compromisso entre simplicidade
do modelo e precisão dos resultados da análise.
Exemplo: ao se obter um modelo matemático de um sistema linear a
parâmetros concentrados, sempre é necessário ignorar certas não
linearidades e a influência de parâmetros distribuídos (que dariam
origem a equações diferenciais parciais)

 Sistemas dinâmicos lineares: são aqueles descritos por equações


diferenciais lineares. Para eles vale o princípio da superposição.
Exemplo simples: o movimento translacional de uma massa m sob a
ação de uma força F , desprezando o atrito:
m F
F  mx
 Sistemas dinâmicos não lineares: são aqueles descritos por equações
diferenciais não lineares. Para eles não vale o principio da
superposição.
Exemplo: um pêndulo
 mg sin   kx  mx
x l
 m ml  mg sin   kl
l 
x onde k é o coeficient e de atrito
Na maioria dos casos, os sistemas físicos são não lineares. Mesmo
os chamados “sistemas lineares” são realmente lineares apenas em
faixas limitadas de operação.
Exemplos: a saída de um componente do sistema pode saturar para
sinais grandes na entrada. Por outro lado pode haver um espaço morto
(onde o componente é insensível) para uma faixa de pequenos sinais de
entrada. Não linearidade do tipo lei quadrática pode ocorrer em alguns
componentes, como por exemplo em amortecedores operando numa faixa
de altas velocidades, onde a força amortecedora é proporcional ao
quadrado da velocidade de operação. Em sistemas com ação de controle
liga-desliga, não há uma relação linear entre a entrada e a saída do
controlador.
 Curvas características para algumas não linearidades típicas
saida saida saida

entrada entrada entrada

Tipo saturação Tipo zona morta Tipo lei quadrática


2.2. Representação via relação entrada-saída

2.2.1. Sistemas de entrada única e saída única (Single Input, Single Output
- SISO), também chamados sistemas monovariáveis
O conceito de função de transferência é bastante usado para caracterizar
a razão entre a entrada e a saída de um sistema linear invariante no
tempo ( Linear Time Invariant – LTI System), monovariável.

 Função de transferência
A função de transferência de um sistema LTI monovariável é definida
como a razão da transformada de Laplace da saída para a transformada
de Laplace da entrada, considerando nulas todas as condições iniciais.

Considere um sistema LTI geral representado pela seguinte equação


diferencial:
(n) ( n 1) ( m) ( m 1)
an y  an 1 y    a1 y  a0 y  bm u  bm1 u    b1u  b0u, (n  m) (2.1)

onde y é a saída do sistema e u é sua entrada


Aplicando a transformada de Laplace a ambos os membros da
Equação (2.1), considerando nulas todas as condições iniciais, obtém-
se a seguinte função de transferência para o sistema:

Y ( s) bm s m  bm1s m1    b1s  b0


G( s)  
U ( s) an s n  an 1s n1    a1s  a0
 A função de transferência é uma expressão em termos dos parâmetros
do sistema, e caracteriza o próprio sistema independentemente da
entrada (função de excitação)

 Pela utilização deste conceito pode-se representar a dinâmica do


sistema via equações algébricas em s

 A maior potência de s no denominador da função de transferência é


igual à ordem do termo de maior derivada na saída

 Se a maior potência de s é n , o sistema é de ordem n


Exemplos de sistemas SISO com respectivas modelagens por função de
transferência
1. Sistema translacional mecânico: com amortecedor, massa e mola

k k : constante da mola
u
m : massa
m f : coeficient e de fricção - viscosa (do amortecedo r)
y u : força aplicada à massa (é a entrada do sistema)
f y : deslocamen to da massa (é a saída do sistema)

O amortecedor consiste em um cilindro cheio de óleo com um pistão. Isto


proporciona uma fricção viscosa, que produz um amortecimento.
A força peso (constante), agindo sobre a massa, será omitida na análise
seguinte. Isto é possível, fazendo a posição y  0 corresponder à situação
de equilíbrio do sistema.
Aplicando a lei de Newton ,  F  m a, a este sistema
i mecânico, obtém-se
d2y dy d2y dy
m 2 u f  ky ou m 2 f  ky  u (2.2)
dt dt dt dt
Aplicando a transformada de Laplace à equação (2.2), segue que

m[s 2 Y (s)  s y(0)  y (0)]  f [s Y (s)  y(0)]  k Y (s)  U (s) (2.3)

Considerando nulas as condições iniciais, ou seja, y (0)  0 e y (0)  0, a


equação (2.3) pode ser simplificada para

(m s 2  f s  k )Y (s)  U ( s)

A função de transferência é a razão entre a saída Y(s) e a entrada U(s):

Y (s) 1
G( s)  
U (s) m s 2  f s  k
2. Sistema rotacional mecânico: uma carga inercial com um amortecedor

f J: momento de inércia da carga, kg m 2


T  f: coeficient e de fricção viscosa, N m / rad / s
J
: velocidade angular, rad / s
T: torque aplicado ao sistema, N m

De modo geral, para sistemas mecânicos rotacionais, a lei de Newton esta


belece que Ti  J
onde  denota aceleração angular, rad / s 2

Aplicando esta lei ao sistema mecânico representado no diagrama acima

T  f   J
J  f  T (2.4)
Aplicando a transformada de Laplace à equação (2.4), considerando
nula a condição inicial, segue que

J s  (s)  f ( s)  T ( s)

 ( s) é a transform ada de Laplace de  (t )


onde:
T ( s ) é a transfor mada de Laplace de T(t)

Sejam: T(s) a entrada do sistema e Ω(s) a saída, então a função de


transferência é dada por

( s) 1
G( s)  
T ( s) Js  f
2.2.2. Sistemas de múltiplas entradas e múltiplas saídas (Multi Input,
Multi output - MIMO), também chamados de sistemas multivariáveis

A função de transferência foi definida anteriormente para sistemas de


entrada única e saída única. Uma extensão deste conceito para
sistemas de múltiplas entradas e múltiplas saídas é apresentado na
seqüência.

 Matriz de transferência
Considere um sistema com m entradas e p saídas. As m entradas e as
p saídas serão consideradas como as componentes de dois vetores, que
serão denominados vetor de entrada e vetor de saída, respectivamente:

 u1 (t )   y1 (t ) 
 u (t )   y (t ) 
u (t )   2 , vetor de entrada y (t )   , vetor de saída
2

     
   
um (t )  p 
y (t )
A matriz de transferência relaciona a transformada de Laplace do vetor
de saída, Y(s), com a transformada de Laplace do vetor de entrada,
U(s), da forma expressa a seguir:

 Y1 ( s)   G11 ( s) G12 ( s)  G1m ( s)   U1 ( s) 


Y ( s)  G ( s) G ( s)  G ( s)   
 2    21 22 2m U
 2 ( s )
(2.5)
          
    
 p   p1
Y ( s ) G ( s ) G p2 ( s )  G pm ( s )   m 
U ( s )
A seguir apresenta-se um diagrama ilustrativo de um sistema
multivariável genérico

U1 (s) Y1 ( s)
U 2 ( s) Y2 (s)
G(s)
 
U m (s) Y p (s )
 Da equação (2.5), pode-se escrever o conjunto de equações:
Y1 ( s)  G11 ( s)U1 ( s)  G12 ( s)U 2 ( s)    G1m ( s)U m ( s)
Y2 ( s)  G21 ( s)U1 ( s)  G22 ( s)U 2 ( s)    G2 m ( s)U m ( s)
  
Yp ( s)  G p1 ( s)U1 ( s)  G p 2 ( s)U 2 ( s)    G pm ( s)U m ( s)
 As equações acima podem ser representadas pelo diagrama de blocos:
U1 (s) G11 (s)
U 2 ( s) G12 (s)  Y1 ( s)

G1m ( s )

  
G p1 ( s )

G p 2 (s)  Y p (s )

U m (s) G pm (s )
Exemplo de modelagem de um sistema físico MIMO
Considere o sistema mecânico translacional, esquematizado na figura a
seguir:

k1 u1 , u2 : forças aplicadas às massas ( entradas)


u1
y1 , y2 : deslocamen tos das massas ( saídas)
m1 k2 k1 , k 2 : constantes das molas
y1
m1 , m2 : valores das massas
f u2 f : coeficient e de atrito viscoso (do amortecedo r)

m2
y2
Mais uma vez as forças peso que agem sobre as massas serão omitidas da
análise, graças ao fato de fazermos y1  0 e y2  0 corresponder à situ
ação de equilíbrio do sistema quando este não está sujeito às forças u1, u2
Aplicando a lei de Newton a cada uma das massas, segue que
u1  k1 y1  f ( y1  y 2 )  m1 y1 (2.6a)
u2  k2 y2  f ( y 2  y1 )  m2 y2 (2.6b)
re-ordenando os termos das equações (2.6), pode-se escrever:
m1 y1  f ( y1  y 2 )  k1 y1  u1 (2.7a)
m2 y2  f ( y 2  y1 )  k2 y2  u2 (2.7b)
Aplicando a transformada de Laplace a cada uma das equações (2.7), tém-se:
(m1s 2  fs  k1 )Y1 ( s)  fsY2 ( s)  U1 ( s) (2.8a)
(m2 s 2  fs  k2 )Y2 ( s)  fsY1 ( s)  U 2 ( s) (2.8b)
Na forma matriz-vetor, o sistema (2.8) é equivalente a:

m1 s 2  fs  k1  fs  Y1 ( s)  U1 ( s) 


     (2.9)
  fs m2 s  fs  k2   2   2 
2
Y ( s ) U ( s )
Como a matriz 2x2 presente no sistema (2.9) é inversível, este sistema
pode ser escrito como:
1
Y1 ( s)  m1 s  fs  k1
2
 fs  U1 ( s) 
Y ( s)     
 2    fs m2 s  fs  k2   2 
2
U ( s )

ou
 m2 s 2  fs  k 2 fs 
Y1 ( s)    
 U1 ( s ) 
Y ( s )   
m1 s  fs  k1  U 2 ( s)
2 (2.10)
 2   fs
   

onde
  (m1s 2  fs  k1 )(m2 s 2  fs  k2 )  ( fs) 2  0

A matriz 2x2 da equação (2.10) é a matriz de transferência entre o vetor de


saídas e o vetor de entradas.
As respostas temporais são dadas pelas transformadas iversas de Laplace:

1  m s 2
 f s  k2 fs 
y1 (t )  &  2
U1 ( s )  U 2 ( s )
   

1  f s m s 2
 f s  k1 
y2 (t )  &  U1 ( s ) 
1
U 2 ( s )
  

 Sistema possuindo duas entradas, uma de referência, R(s), e uma de


perturbação, N(s); e uma saída, Y(s).
N (s )

R(s )  G1 ( s)  G2 (s) Y (s )

H (s)
Do diagrama em blocos da figura anterior, obtém-se a expressão para
a transformada de Laplace da saída:

G1 ( s)G2 ( s) G2 ( s)
Y ( s)  R( s)  N ( s) (2.11)
1  G1 ( s)G2 ( s ) H ( s ) 1  G1 ( s)G2 ( s) H ( s)

Na forma matriz-vetor, (2.11) é equivalente a:

 G1 ( s)G2 ( s) G2 ( s)   R( s ) 
Y ( s)   
1  G1 ( s)G2 ( s) H ( s) 1  G1 ( s)G2 (s) H ( s)   N ( s)

A análise e controle ótimo de sistemas multivariáveis pode ser realizada


mais convenientemente usando o conceito de variáveis de estado.
2.3. Representação via espaço de estados
A representação de um dado sistema dinâmico através do conceito de
espaço de estados não é única, exceto que o número de variáveis de
estado é o mesmo para qualquer das diferentes representações do
sistema considerado.

Considere um sistema dinâmico multivariável com n variáveis que


descrevem o comportamento do sistema x1 (t ) , x2 (t ) ,, xn (t ),
denominadas variáveis de estado . Considere ainda que o sistema
possui m sinais de entrada u1 (t ) , u2 (t ) ,, um (t ) e p sinais de saída
y1 (t ) , y2 (t ) ,, y p (t ) .
O sistema pode então ser descrito pelas n equações
x1 (t )  f1 ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
x2 (t )  f 2 ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
 (2.12)
xn (t )  f n ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
Os valores instantâneos dos sinais de saída são dados por:
y1 (t )  g1 ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
y2 (t )  g 2 ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
 (2.13)
y p (t )  g p ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t )
Definir:

 x1 (t )   f1 ( x1 , x2 ,, xn ; u1 , u2 ,, um ; t ) 
 x (t )  f ( x , x ,, x ; u , u ,, u ; t )
x(t )   2  , f ( x , u , t )   2 1 2 n 1 2 m 
     
   
 n 
x (t )  n 1 2
f ( x , x ,  , x n ; u 1 , u 2 ,  , u m ; t ) 
 y1 (t )   g1 ( x1 , x2 , , xn ; u1 , u2 , , um ; t )   u1 (t ) 
 y (t )   g ( x , x ,, x ; u , u ,, u ; t )   u (t ) 
y (t )    , g(x , u , t)   2 1 2  , u (t )   2 
2 n 1 2 m

        
     
 p 
y (t )  p 1 2
g ( x , x ,  , x n ; u1 , u 2 ,  , u m ; t )   m 
u (t )
Então as equações (2.12) e (2.13) podem ser escritas da forma
compacta seguinte:
x (t )  f ( x , u , t ) (2.14a)
y (t )  g ( x , u , t ) (2.14b)
Onde (2.14a) é a equação de estados e (2.14b) é a equação de saída. Se
as funções vetoriais f e/ou g envolverem, explicitamente, a variável t, o
sistema será dito variante no tempo.

Se as equações (2.14) forem linearizadas em torno do estado de


operação, obtém-se o caso particular:
x (t )  A(t ) x(t )  B(t )u (t ) (2.15a)
y (t )  C (t ) x(t )  D(t )u (t ) (2.15b)
x  n : vetor de estados; A(t ) : matriz de estado
u  m : vetor de entradas; B(t ) : matriz de entrada
y  p : vetor de saídas; C (t ) : matriz de saída
D(t ) : é dita matriz de transmiss ão direta
As equações (2.15), de um sistema linear variante no tempo, correspondem
ao diagrama em blocos da figura seguinte:

D(t )

x (t ) x(t ) y (t )

u (t )
B (t )   dt C (t )

A(t )

 Sistemas lineares invariantes no tempo (Linear Time Invariant – LTI


Systems)
Quando as funções vetoriais f e g não envolvem, explicitamente, a
variável t, o sistema é dito invariante no tempo e as equações (2.15)
assumem a forma particular:

x (t )  Ax(t )  Bu (t ) (2.16a )
y (t )  Cx(t )  Du (t ) (2.16b)
 Exemplo de modelagem de sistema físico no espaço de estados:

Considere o sistema translacional mecânico esquematizado na figura


abaixo, o qual é monovariável (possui só uma entrada e só uma saída).

u (t ) k k : constante da mola
u : força aplicada à massa (entrada do sistema)
m m : massa
y (t ) f : coeficient e de fricção viscosa
f y : deslocamen to da massa (saída do sistema)

Considere que este sistema é linear.


Aplicando a lei de Newton, obtém-se a seguinte equação:

u (t )  ky(t )  f y (t )  m y(t ) (2.17)


Reordenando os termos da equação (2.17), segue que

m y(t )  f y (t )  k y (t )  u (t ) (2.18)

Este sistema é de segunda ordem, o que implica na existência de dois


integradores.

A seguir, definem-se duas variáveis de estado, x1 (t ) e x2 (t ), como:


x1 (t )  y (t ) (2.19a)
x2 (t )  y (t ) (2.19b)
Visando deduzir expressões para x1 (t ) e x2 (t ) , derivam-se as equações
(2.19), em relação ao tempo, de modo que:
x1 (t )  y (t ) (2.20a)
x2 (t )  y(t ) (2.20b)
Da equação (2.18), pode-se escrever
k f 1
y(t )   y (t )  y (t )  u (t )
 (2.21)
m m m

Substituindo as equações (2.19) na equação (2.21), encontra-se:


k f 1
y(t )   x1 (t )  x2 (t )  u (t ) (2.22)
m m m

Substituindo as equações (2.19b) e (2.22) nas equações (2.20), encontram-


se:
x1 (t )  x2 (t ) (2.23a)
k f 1
x2 (t )   x1 (t )  x2 (t )  u (t ) (2.23b)
m m m
A equação de saída é a própria equação (2.19a), que é equivalente a:

y(t )  x1 (t ) (2.24)
Sob a forma matriz-vetor, as equações (2.23) e (2.24) podem ser escritas
como segue:

 x1 (t )   0 1   x (t )   0 
 x (t )   k f   1    1  u (t )
   x2 (t )  
(2.25a)
 2   m m m

 x1 (t ) 
y (t )  1 0   (2.25b)
 2 
x (t )
A equação (2.25a) é denominada equação de estados e (2.25b) é a
equação de saída.
Observa-se que o sistema particular (2.25) está na forma:
x (t )  Ax(t )  Bu (t )
y (t )  Cx(t )  Du (t )
onde:
 x1 (t )   0 1 0
x(t )    , A k f  , B   1  , C  1 0, D  0
 x2 (t )     m 
 m m
 Diagrama em blocos a partir do sistema no espaço de estados

 Com base nas equações (2.23), o sistema mecânico em


consideração pode ser representado pelo seguinte diagrama de blocos:

1 x2 x2 x1  y
u
m
  
f
 m
k
m

 Correlação entre matriz de transferência e equações no espaço de


estado.
A seguir será deduzida uma expressão para a matriz de transferência
do sistema, a partir do seu modelo no espaço de estados.
Considere o sistema representado no espaço de estados, conforme segue:
x (t )  Ax(t )  Bu (t ) (2.26a )
y (t )  Cx(t )  Du (t ) (2.26b)
onde:
xn : vetor de estados ; u m : vetor de entradas ;
y  p : vetor de saídas
Aplicando a transformada de Laplace a cada uma das equações (2.26),
considerando condições iniciais nulas, tem-se:

s X ( s)  A X ( s)  BU ( s) (2.27a)
Y ( s)  C X ( s)  D U ( s) (2.27b)
De (2.27a), pode-se escrever:

( sI  A) X ( s)  B U ( s) (2.28)
Multiplicando, à esquerda, a equação (2.28) por ( sI  A) 1, obtém-se

X (s)  (sI  A) 1 B U (s) (2.29)


Substituindo (2.29) em (2.27b), obtém-se

Y (s)  [C (sI  A) 1 B  D] U (s) (2.30)

De (2.30), identifica-se a matriz de transferência:

G(s)  C (sI  A) 1 B  D
Que está em termos das matrizes A, B, C e D.

Exemplo: Considere o sistema (2.25), cujas matrizes são:

 0 1 0
A k f , B   1 , C  1 0, D0
    m 
 m m
Observe que este sistema é monovariável pois B tem uma única coluna e
C tem uma única linha.
Portanto, o resultado do cálculo seguinte é de uma função de transferência
e não de uma matriz de transferência. 1
  s 0  0 1  0
G ( s )  C ( sI  A) 1 B  D  1 0    k f  1 0
 0 s       m 
  m m
1
 s 1    0 
 
G ( s)  1 0  k f   1 
 s    
m m m
  f 
  s  m 1   0 
G ( s )  1 0
1  1 
 

  m 
 
 s 2   f  s  k   k
m  m
s 

 
 m

1
G ( s) 
ms 2  f s  k
2.3.1 Representação no espaço de estados de sistemas descritos por
equações diferenciais lineares de ordem n sem derivadas do sinal de
entrada
Considere um sistema monovariável geral, descrito pela seguinte equação
diferencial de ordem n:
(n) ( n 1)
y (t )  an 1 y (t )    a1 y (t )  ao y (t )  u (t ) (2.31)
( n 1)
O conhecimento de y (0) , y (0) ,, y (0) , e do sinal de entrada u (t )
para t  0 , determina completamente o comportamento futuro do
sistema. ( n1)
Pode-se considerar y (t ) , y (t ) ,, y (t ) como os n valores de variáveis de
estado, usando a seguinte definição:

x1 (t )  y (t )
x2 (t )  y (t )
 (2.32)
( n 1)
xn (t )  y (t )
Na prática, devido à imprecisão causada pelo ruído nos termos com
derivada de ordem elevada, tal escolha pode não ser conveniente.
Entretanto, ela é bastante conveniente sob o ponto de vista matemático.
Derivando, em relação ao tempo, cada uma das equações (2.32), obtém-
se:
x1 (t )  y (t )
x2 (t )  y(t )
 (2.33)
(n)
xn (t )  y (t )

Combinando entre si, as equações (2.31), (2.32) e (2.33), pode-se escrever


x1 (t )  x2 (t )
x2 (t )  x3 (t )
 (2.34)
xn 1 (t )  xn (t )
xn (t )  a0 x1 (t )    an 1 xn (t )  u (t )
Sob a forma matriz-vetor, as equações (2.34) são equivalentes a
 x1 (t )   0 1 0  0  x1 (t )  0
 x (t )   0 0 1  0  x (t )  0
 2    2   
              u (t ) (2.35)
       

x (t )
 n 1   0 0 0  1 x (t )
 n 1  0
 xn (t )   a0  a1  a2   an 1   xn (t )  1

Considere que a saída do sistema é dada por:

 x1 (t ) 
 x (t )
y (t )  1 0  0  2  (2.36)
  
 
 xn (t )

O sistema (2.35) (2.36) está sob a forma


x (t )  Ax(t )  Bu (t )
y (t )  Cx(t )
Na forma de função de transferência, o sistema (2.35) (2.36) é representado
por:

Y (s) 1
 n
U ( s ) s  an 1s n 1    a1s  a0

2.3.2 Representação no espaço de estados de sistemas descritos por


equações diferenciais lineares de ordem n contendo derivadas do sinal de
entrada

Considere um sistema geral que é descrito pela seguinte equação diferencial


de ordem n
(n) ( n 1) (n) ( n 1)
y (t )  an 1 y (t )    a1 y (t )  a0 y (t )  bn u (t )  bn 1 u (t )    b1u (t )  b0u (t )
(2.37)
O procedimento de escolha das variáveis de estado aplicado na subseção
anterior não se aplica ao caso desta subseção. As variáveis de estado
devem ser definidas de modo que as derivadas de u não estejam
presentes na equação de estados.
Visando obter uma equação de estados e uma equação de saída, definem-se
as n variáveis de estado seguintes:

x1 (t )  y (t )   0u (t )
x2 (t )  y (t )   0u (t )  1u (t )  x1 (t )  1u (t )
x3 (t )  y(t )   0u(t )  1u (t )   2u (t )  x2 (t )   2u (t )
 (2.38)
( n 1) ( n 1) ( n2) ( n  3)
xn (t )  y (t )   0 u (t )  1 u (t )   2 u (t )     n  2u (t )   n 1u (t )  xn 1 (t )   n 1u (t )

Objetivando encontrar uma expressão para xn (t ) , primeiramente deriva-se a


última equação de (2.38), considerando somente a primeira igualdade:
(n) (n) ( n 1) ( n2)
xn (t )  y (t )   o u (t )  1 u (t )   2 u (t )     n 2u(t )   n 1u (t ) (2.39)
(n)
De (2.37), encontra-se a seguinte expressão para y (t ) :
(n) ( n 1) (n) ( n 1)
y (t )  an 1 y (t )    a1 y (t )  a0 y (t )  bn u (t )  bn 1 u (t )    b2u(t )  b1u (t )  b0u (t )
Substituindo a última expressão em (2.39) e definindo
 0  bn
1  bn 1  an 1 0
 2  bn 2  an 2  0  an 11
 (2.40)
 n  b0  a0  0  a11    an 1 n1

após alguns passos algébricos, encontra-se:

xn (t )  a0 x1 (t )  a1 x2 (t )    an1 xn   nu(t ) (2.41)

Com a escolha de variáveis de estado definida em (2.38) sob a consideração


(2.40), a existência e a unicidade de solução da equação de estados estão
garantidas.
De (2.38) e (2.40) obtém-se:

x1 (t )  x2 (t )  1u (t )
x2 (t )  x3 (t )   2u (t )
 (2.42)
xn 1 (t )  xn (t )   n 1u (t )
xn (t )  a0 x1 (t )  a1 x2 (t )    an 1 xn (t )   nu (t )

Sob a forma matriz vetor, as equações (2.42) são equivalentes a:

 x1 (t )   0 1 0  0  x1 (t )   1 
 x (t )   0 0 1  0  x2 (t )    2 
 2  
              u (t ) (2.43)
 xn 1 (t )  0 0 0 
   
1  xn 1 (t )   n 1 
  
 xn (t )   a0  a1  a2   an 1   xn (t )    n 
E a equação de saída pode ser escrita como:
 x1 (t ) 
 x (t ) 
 2 
y (t )  1 0  0 0      0u (t ) (2.44)
 
x (
 n 1 t )
 xn (t ) 

Observe que o sistema (2.43) (2.44) está na forma


x (t )  Ax(t )  Bu (t )
y (t )  Cx(t )  Du (t )
onde:
 1 
T
 x1 (t )   0 1 0  0 1
 x (t )   0 0 1  0   0 
 2    2   
x(t )     , A     , B     , C     , D   0
       
x (
 n 1 t )  0 0 0  1 
 n 1  0 
 xn (t )   a0  a1  a2   an 1    n  0
3. ANÁLISE DE SISTEMAS DE CONTROLE NO ESPAÇO DE
ESTADOS
3.1. Introdução
O uso da notação matriz – vetor simplifica a representação matemática de
sistemas de controle. Conceitos básicos da análise no espaço de
estados, incluindo a representação de sistemas sob formas canônicas e
as propriedades de controlabilidade e observabilidade, são apresentados
nesta unidade.
3.2. Representação no espaço de estados sob formas
canônicas
Considere um sistema geral descrito pela equação diferencial
(n) ( n 1) (n) ( n 1)
y (t )  an 1 y (t )    a1 y (t )  a0 y (t )  bn u (t )  bn 1 u (t )    b1u (t )  b0u (t )

onde u é a excitação ou entrada do sistema e y é a resposta ou saída.


A função de transferência correspondente a esta equação é
Y ( s) bn s n  bn 1 s n 1    b1 s  b0
 n (3.1)
U ( s) s  an 1 s n 1    a1 s  a0
A seguir são apresentadas representações do sistema sob as formas
canônicas: controlável, observável, diagonal e de Jordan, a partir de sua
função de transferência (3.1)

 Forma canônica controlável


A seguinte representação no espaço de estados é chamada de forma
canônica controlável:

 x1 (t )   0 1 0  0  x1 (t )  0
 x (t )   0 0 1  0  x2 (t )  0
 2  
              u (t ) (3.2a)
      

 n 1   0
x (t ) 0 0  1  xn 1 (t ) 0
 xn (t )   a0  a1  a2   an 1   xn (t )  1
 x1 (t ) 
 x (t ) 
y (t )  b0  a0 bn b1  a1 bn  bn 1  an 1 bn   2   bn u (t ) (3.2b)
  
 
 xn (t )
 Forma canônica observável

A seguinte representação no espaço de estados é chamada de forma


canônica observável:

 x1 (t )  0 0  0  a0   x1 (t )   b0  a0 bn 
 x (t )   1 0  0  a1   x2 (t )   b1  a1 bn 
 2  
             u (t ) (3.3a )
      

 n 1  0  1
x (t ) 0  an  2   xn 1 (t ) bn  2  an  2 bn 
 xn (t )  0 0  1  an 1   xn (t )   bn 1  an 1 bn 
 x1 (t ) 
 x (t ) 
 2 
y (t )  0 0  0 1     bn u (t ) (3.3b)
 
 xn 1 (t )
 xn (t ) 
 Forma canônica diagonal
Considere o caso em que o polinômio do denominador de (3.1) possui
somente raízes distintas, de modo que (3.1) pode ser escrita como:
Y ( s) bn s n  bn 1 s n 1    b1 s  b0

U ( s) ( s  p1 )( s  p2 ) ( s  pn )
Y ( s) c1 c2 cn
 bn    (3.4)
U ( s) s  p1 s  p2 s  pn
A forma canônica diagonal deste sistema é:

 x1 (t )   p1 0  0   x1 (t )  1
 x (t )   0  p2  0   x2 (t )  1
 2   u (t ) (3.5a)
    0 0  0     
     

 n   0
x (t ) 0   pn   xn (t ) 1
 x1 (t ) 
 x (t )
y (t )  c1 c2  cn   2   bn u (t ) (3.5b)
  
 
 n 
x (t )
 Forma canônica de Jordan

Será considerado o caso em que o polinômio do denominador de (3.1) possui


raízes múltiplas. Para este caso, transforma-se a forma canônica diagonal
na forma canônica de Jordan.

Considere por exemplo que três dos n pólos são iguais entre si, que são
p1  p2  p3 , e os n-3 restantes são distintos . Assim, a forma fatorada
de Y(s)/U(s) torna-se:
Y ( s) bn s n  bn 1 s n 1    b1 s  b0

U ( s) ( s  p1 )3 ( s  p4 ) ( s  pn )

A expansão desta última equação em frações parciais, torna-se:

Y ( s) c1 c2 c3 c4 cn
 bn       
U ( s) ( s  p1 )3 ( s  p1 ) 2 s  p1 s  p4 s  pn
Uma representação deste sistema no espaço de estados, sob a forma
canônica de Jordan é dada por:

 x1 (t )   p1 1 0 0  0  x1 (t )  0
 x (t )   0  p 1    x (t )  0
 2   1  2   
 x3 (t )   0 0  p1 0  0  x3 (t )  1
       u (t ) (3.6a )

 x4 (t )   0  0  p4 0  x4 (t )  1
           
      
 n  
x (t ) 0  0 0  p   n  1
n x (t )
 x1 (t ) 
 x (t ) 
y (t )  c1 c2  cn   2   bn u (t ) (3.6b)
  
 
 n 
x (t )

As partições destacadas em quadrados, na matriz nxn da equação 3.6a,


são chamadas blocos de Jordan
 Exemplo: considere o sistema cuja função de transferência é dada por:
Y ( s) s3
 2 (3.7)
U ( s) s  3s  2
Representar este sistema no espaço de estados sob as formas canônicas:
controlável (definida pelas equações 3.2), observável (ver equações 3.3) e
diagonal (definida pelas equações 3.5).
Forma canônica controlável:
 x1 (t )   0 1   x1 (t )  0
 x (t )   2  3  x (t )  1 u (t )
 2    2   
 x1 (t ) 
y (t )  3 1  
 2 
x (t )
Forma canônica observável:
 x1 (t )  0  2  x1 (t )  3
 x (t )  1  3  x (t )  1 u (t )
 2    2   
 x1 (t ) 
y (t )  0 1  
 x2 (t )
Forma canônica diagonal:

Para aplicar as equações (3.5), considere inicialmente a expansão em


frações parciais da função de transferência do sistema, dada por (3.7):
s3 s3 c1 c2
   (3.8)
s  3s  2 ( s  1)( s  2) s  1 s  2
2

A expansão definida por (3.8) resulta em c1  2 , c2  1

Portanto, a forma canônica diagonal para o presente exemplo é a seguinte:

 x1 (t )   1 0   x1 (t )  1
 x (t )   0  2  x (t )  1 u (t )
 2    2   
 x1 (t ) 
y (t )  2  1  
 2 
x (t )
 Autovalores de uma matriz A n x n.
Um escalar  é chamado um autovalor de uma matriz real A n x n se existe
um vetor não nulo q tal que
Aq   q (3.9)
O vetor q é chamado um autovetor, à direita, de A, associado ao autovalor .
Para fins de calculo dos autovalores de A, escreve-se (3.9) como:

(I  A)q  0 (3.10)

onde I é a matriz identidade.

Como q deve ser não nulo, então para (3.10) ter solução, a matriz (I  A)
deve ser singular ou, equivalentemente:

det( I  A)  0 (3.11)

A equação (3.11) é chamada equação característica de A.


Exemplo: dada a matriz:
 0 1 0
A   0 0 1
 6  11  6

a equação característica é:

 1 0
det( I  A)  0   1  3  62  11  6  (  1)(  2)(  3)  0
6 11   6

Portanto os autovalores de A são: -1, -2, -3


 Autovalores distintos e diagonalização
Seja   {i , com i  1, 2 , , n} o conjunto de autovalores (todos distintos )
de uma matriz A n x n , e q ium autovetor de A associado a ,i ou seja
A q i  i q i , a informação sobre os autovalores e autovetores de A pode
ser apresentada através de uma fatoração do tipo
A  QDQ 1 (3.12)

onde Q é uma matriz não singular (inversível) dada por:


Q  q1 q 2  q n 

e D é uma matriz diagonal dada por:


1 0 0 0  0 
0  0 0  0 
 2 
D   0 0 3 0  0  (3.13)
 
      
 0 0 0  n 
O conjunto linearmente independente q1 q 2  q n  é uma base
Uma matriz A n xn é diagonalizável se e somente se A tem n autovetores
linearmente independentes.

Este tipo de fatoração é útil para analisar (e desacoplar) sistemas dinâmicos.

 Exemplo sobre autovalores/autovetores e diagonalização: Considere a


matriz
0 0 0
A  1 0 2
0 1 1
Sua equação característica é
 0 0
det( I  A)   1   2  2 (  1)  2  (  2)(  1)  0
0 1  1
que corresponde ao polinômio característico:
 ( )  det(I  A)  (  2)(  1)  3  2  2
Os autovalores de A são as raízes da equação característica, ou seja 2, -1, 0.
O autovetor associado a   2 é alguma solução não nula de
 2 0 0
( A  2 I)q1   1  2 2q1  0 (3.14)
 0 1  1
que pode ser

q1  0 1 1
T

O autovetor associado a   1 é alguma solução não nula de

 1 0 0
( A  1 I)q 2   1 1 2q 2  0 (3.15)
0 1 2

podendo ser
q 2  0  2 1
T
Por último o autovetor associado a   0, que é obtido de
0 0 0
( A  0 I)q 3   1 0 2q 3  0 (3.16)
0 1 1
podendo ser
q3  2 1 1
T

A solução para cada uma das equações (3.14), (3.15) e (3.16) não é única.
Portanto, outros valores para os autovetores q1 , q 2 , q 3 podem ser
escolhidos, satisfazendo (3.14), (3.15) e (3.16), respectivamente.

A representação de A na base {q 1 , q 2 , q 3} é

 2 0 0
D  0  1 0
0 0 0
Observe que D é uma matriz diagonal, cujos elementos da diagonal principal
são os autovalores de A.

A matriz D pode ser obtida também multiplicando (3.12), à esquerda por Q 1


e à direita por Q . Ou seja

D  Q 1 AQ
com

0 0 2
Q  q1 q 2 q 3    1  2 1
 1 1  1

A equação (3.12) pode ser escrita ainda da seguinte forma:

QD  AQ

Com ajuda do MATLAB, a matriz D e uma matriz Q podem ser encontradas


dada a matriz A, da seguinte maneira: [Q,D]=eig(A)
Através do MATLAB, os autovalores são calculados diretamente da matriz,
usando transformações de similaridade.

Uma vez calculados os autovalores,  , o polinômio característico fica


i
determinado, conforme segue:
n
 ( )   (  i )
i 1
onde  significa produtório.

Com auxílio do MATLAB, o polinômio característico pode ser determinado,


utilizando-se os comandos   eig ( A) ;   poly ( ) .

Mais um exemplo de calculo de matriz diagonal. Considere a matriz


 1 1 1
A   0 4  13
 0 1 0

Seu polinômio característico é  ( )  det(I  A)  (  1)(  4  13)


2
Os autovalores da matriz A são portanto: -1, 2+3j, 2-3j

Um autovetor q1 associado ao autovalor   1 é tal que:

0 1 1
( A  1I)q1  0 5  13q1  0
0 1 1


podendo ser q1  1 0 0
T

Analogamente, um autovetor q 2 associado ao autovalor   2  3 j , pode


ser
q2   j  3  2 j j
T

O autovetor q 3 , associado ao autovalor   2  3 j é necessariamente o


complexo conjugado do autovetor associado ao autovalor   2  3 j

q3   j  3  2 j  j 
T
Concluindo, as matrizes Q e D são:

1 j  j  1 0 0
Q  q1 q 2 q 3   0  3  2 j  3  2 j  , D   0 2  3 j 0
0 j  j   0 0 2  3 j 

Utilizando o MATLAB , com as linhas de comando


A=[ -1 1 1; 0 4 -13 ; 0 1 0 ] ;
[Q,D]=eig(A)

encontram-se:

1 0.2582 j  0.2582 j   1 0 0
Q  0  0.7746  0.5164 j  0.7746  0.5164 j  , D   0 2  3 j 0
0 0.2582 j  0.2582 j   0 0 2  3 j 
 Caso em que nem todos os autovalores são distintos

Um autovalor com multiplicidade 2 ,ou mais, é chamado um autovalor repeti-


do. Se uma matriz A tem autovalores repetidos, então ela não possui uma
forma diagonal correspondente. Este caso é considerado na seqüência.

Considere uma matriz A n x n com autovalor  de multiplicidade n . Suponha,


por exemplo, que n = 4 . Considere também que
posto( λI-A)  n  1  3
Portanto, a nulidade de (λI-A) é 1. Então a equação (I-A)q1  0 tem
somente uma solução independente. Conseqüentemente, a matriz A tem
somente um autovetor associado ao autovalor  . São necessários mais
n 1  3 vetores linearmente independentes para formar uma base para  .
4

Os três vetores q 2 , q 3 , q 4 serão escolhidos de modo que

( A   I) 2 q 2  0
( A   I) 3 q 3  0
( A  I) 4 q 4  0
Um vetor v é chamado um autovetor generalizado de grau n se
( A  I) n v  0 (3.17a)
e
( A  I) n 1 v  0 (3.17b)
Se n =1, as equações (3.17) são reduzidas a:
( A  I)v  0
e
v0
e, neste caso, v é um autovetor ordinário.
Para n =4, definem-se
v4  v (3.18a)
v3  ( A  I)v 4  ( A  I) v (3.18b)
v 2  ( A  I)v 3  ( A  I) 2 v (3.18c)
v1  ( A  I)v 2  ( A  I)3 v (3.18d )
As equações (3.18) definem um conjunto de autovetores generalizados de
comprimento n=4, que tem as propriedades:

( A  I) v1  0
( A  I) 2 v 2  0
( A  I) 3 v 3  0
( A  I) 4 v 4  0

Estes vetores, da forma como são gerados, são automaticamente linearmente


Independentes, podendo ser usados como uma base. Destas equações,
podem-se obter:
Av1  v1
Av 2  v1  v 2
Av 3  v 2  v 3
Av 4  v 3  v 4
Então a representação de A em relação à base v1 v2 v3 v4  é
 1 0 0 
0  1 0
J 
0 0  1
 
 0 0 0  

De fato, a primeira coluna de J, por exemplo, é a representação de Av1  v1


em relação à base mencionada acima. Ainda como exemplo, a última
coluna de J é a representação de Av 4  v3  v 4 em relação à mesma base.
A matriz J é chamada um bloco de Jordan de ordem n=4.

Se ( A  I) tem posto n-2 ou, equivalentemente, nulidade 2, então a


equação ( A  I)q  0 tem duas soluções linearmente independentes. Por
conseguinte A tem dois autovetores linearmente independentes, sendo
necessários (n-2) autovetores generalizados. Neste caso existem dois
conjuntos de autovetores generalizados, que serão denotados por:
 
v1 v2  vk e u1 u 2  u l  com k  l  n .
Se v1 e u1 são linearmente independentes, então o conjunto de n vetores
v1 ,  v k , u1 ,  , u l 

é linearmente independente e pode ser usado como uma base.

A representação de A em relação a esta base é uma matriz bloco diagonal da


forma
J1 0 
J 
 0 J 2

onde J1 e J 2 são blocos de Jordan de ordem k e l, respectivamente.


3.2. Transformação de equivalência
Considere o sistema representado no espaço de estados
x (t )  Ax(t )  Bu (t ) (3.19a)
y (t )  Cx(t )  Du (t ) (3.19b)
onde: A  n x n , B n x m , C  p x n , D p x m , xn , u m , y  p
A definição seguinte estabelece uma equivalência com o sistema acima.

Definição: Seja P uma matriz não singular n x n e considere um vetor de


estados x definido por.

x  Px (3.20)
O sistema
x (t )  A x (t )  B u(t ) (3.21a)
y(t )  C x (t )  D u(t ) (3.21b)

com: A  PAP1 , B  PB , C  CP 1 , D  D, é dito ser algebricamente


equivalente ao sistema (3.19). E (3.20) é chamada uma transformação
de equivalência.
Substituindo (3.20) em (3.19) (isto é possível porque existe P -1 ) obtém-se

o sistema (3.21).

 Invariância de autovalores sob uma transformação de equivalência


Pode-se provar que os autovalores da matriz A não variam ao se aplicar
a transformação de equivalência (3.20). Isto significa que estes
autovalores são idênticos aos autovalores da matriz A .

3.3. Solução da equação de estado de um sistema linear e


invariante no tempo

Considere um sistema LTI representado no espaço de estados:

x (t )  Ax(t )  Bu (t ) (3.22a)
y (t )  Cx(t )  Du (t ) (3.22b)
onde:
A  n x n , B n x m , C  p x n , D p x m , xn , u m , y  p
O problema é encontrar a solução x(t) ao estado inicial x(0) e à entrada u(t)
O procedimento a seguir visa encontrar essa solução.

 At
Premultiplicando (3.22a) por e encontra-se:

e  At x (t )  e  At Ax(t )  e  At Bu (t )
ou
e  At x (t )  e  At Ax(t )  e  At Bu (t ) (3.23)

A equação (3.23) é equivalente a:

d  At
[e x(t )]  e  At Bu (t ) (3.24)
dt
Aplicando a integral, de 0 a t, sobre a equação (3.24), obtém-se
t
 A
x( )  0   e  A Bu ( )d
t
e (3.25)
0
De (3.25) segue que:
t
e  At
x(t )  e x(0)   e  A Bu ( )d
0
0

ou
t
e  At
x(t )  I x(0)   e  A Bu ( )d (3.26)
0

At
Premultiplicando (3.26) por e resulta:

t
x(t )  e x(0)   e A(t  ) Bu ( )d
At
(3.27)
0

Esta é portanto a solução de (3.22a) para: o estado inicial x(0) e entrada u(t).
Para verificar isto, pode-se mostrar que (3.27) satisfaz (3.22a).

 Solução para equação de saída (3.22b)


Substituindo (3.27) em (3.22b), encontra-se a seguinte solução y(t):
t
y (t )  Ce x(0)  C  e A(t  ) Bu ( )d  Du (t )
At
(3.28)
0
Observe que (3.27), (3.28) é a solução de (3.22) no domínio do tempo.

A solução pode ser encontrada também usando transformada de Laplace,


como mostrado na seqüência.

Aplicando a transformada de Laplace a (3.22a), segue que:

sX ( s )  x(0)  AX ( s )  BU ( s )
sX ( s )  AX ( s )  x(0)  BU ( s )
( sI  A) X ( s )  x(0)  BU ( s ) (3.29)

Premultiplicando (3.29) por ( sI  A) ,1 encontra-se

X (s)  (sI  A) 1[ x(0)  BU (s)] (3.30)

Substituindo (3.30) em (3.22b), obtém-se:

Y (s)  C (sI  A) 1[ x(0)  BU (s)]  DU (s) (3.31)


 Em particular se Bu=0, a equação (3.30) assume a seguinte forma:

X (s)  ( sI  A) 1 x(0)
A transformada inversa de Laplace de X(s) é a solução x(t). Portanto

x(t )  & 1 [( sI  A) 1 ]x(0) (3.32)


A matriz ( sI  A) 1 pode ser expandida na série:
2
I A A
( sI  A) 1   2  3  
s s s
E a transformada inversa de Laplace de ( sI  A) 1 pode ser escrita como
2 2 3 3
1 1 A t A t
& [( sI  A) ]  I  At      e At (3.33)
2! 3!

Portanto, de (3.32) e (3.33), conclui-se que

x(t )  e x(0)
At
(3.34)
3.3. Matriz de transição de estado
Considere a equação de estado homogênea

x (t )  Ax(t ) (3.35)
A solução de (3.35) pode ser escrita como

x(t )  (t ) x(0) (3.36)


Onde Φ(t) é uma matriz n x n, solução única de
 (t )  A(t ) ,
 (0)  0 (3.37)
De (3.32), (3.34) e (3.36) conclui-se que:

(t )  e At  & 1 [( sI  A) 1 ] (3.38)

Observa-se que  1 (t )  e  At  (t ) . A matriz Φ(t) é chamada matriz de


transição de estados. Ela contém toda a informação relativa ao
comportamento livre do sistema definido pela equação (3.35).
Se os autovalores 1 , 2 ,n da matriz A forem distintos, então Φ(t)
conterá n exponenciais da forma

e1 t , e2 t ,en t


Em particular, se a matriz A estiver na forma diagonal, então

e  1 t 0 
 2t 
 (t )   
e
  
 nt 
 0 e 

Se a matriz A tiver autovalores múltiplos, como por exemplo


1 , 1 , 1 , 4 , 5 ,, n

Então, além das exponenciais e1 t , e4 t , e5 t ,, en t Φ(t) conterá ter-
mos como t e 1 t
 Propriedades da matriz de transição de estados

A seguir mostra-se um resumo de propriedades importantes da matriz de


transição de estados Φ(t), para o caso de sistemas LTI x (t )  Ax(t )

1. (0)  e A 0  I
2. (t)  e At  (e  At ) 1  [(t )]1 ou  1 (t )  (t )
3. (t1  t 2 )  e A(t1 t2 )  e At1 e At2  (t1 ) (t 2 )  (t2 ) (t1 )
4. [(t )]n  (nt )
5. (t 2  t1 ) (t1  t0 )  (t2  t0 )  (t1  t0 ) (t2  t1 )

Exemplo: Obter a matriz de transição de estados relativa ao seguinte sis-


tema:

 x1   0 1   x1 
 x    2  3  x 
 2    2
Para este sistema a matriz A é:

0 1
A 
 2  3
A matriz de transição de estados é

1
(t )  e At  & [( sI  A) 1 ]

A matriz ( sI  A) é
 s 0  0 1  s 1 
sI  A       
0 s    2  3  2 s  3
e sua inversa é
 ( s  3) 1 
1 1  s  3 1  ( s  1)( s  2) ( s  1)( s  2) 
( sI  A)     
( s  1)( s  2)   2 s   2 s 
 ( s  1)( s  2) ( s  1)( s  2) 
Então,

 2e t
 e 2t
e t  e 2t 
(t )  e At  & 1 [( sI  A) 1 ]   t  2t 
  2 e  2 e  e t  2e 2t 

1
Sabendo que a inversa da matriz de transição de estados é  (t )  (t ) ,
então

 2et  e 2t et  e 2t 
 1 (t )  e  At   
  2e t
 2e 2t
 et  2e 2t 
3.4. Controlabilidade e observabilidade

Um sistema será dito controlável no instante t 0 , se for possível, através de


um vetor de controle não restrito, transferir o sistema de qualquer estado
inicial x(t0 ) para qualquer outro estado, em um intervalo de tempo finito.
Um sistema será dito observável no instante t 0 se, com o sistema no estado
x(t0 ) , for possível determinar esse estado a partir da observação da saída
durante um intervalo de tempo finito.

A maioria dos sistemas físicos são projetados de modo que a entrada de con-
trole afete o sistema por completo. Para tanto deve existir um controlador a-
propriado.

Os conceitos de controlabilidade e observabilidade, apresentados nesta se-


ção, são importantes para tratar os problemas de projeto de controladores e
de observadores, respectivamente, no espaço de estados. A solução para um
problema de controlador só existe se o sistema considerado for controlável.
Analogamente, existe um observador somente se o sistema for observável.
A condição para controlabilidade de estado completa é apresentada na
seqüência:

3.4.1 Controlabilidade de estado completa de um sistema de tempo contínuo

Considere a equação de estado de um sistema de tempo contínuo:


x (t )  Ax(t )  Bu (t ) (3.39)
onde:
x  n : é o vetor de estados
u  : é o sinal de controle (escalar)
A n n : matriz de estado
B  n1 : matriz de entrada

A seguir deduz-se a condição para controlabilidade completa de estados.


Sem perda de generalidade, considera-se que o estado final é a origem do
espaço de estados, x(t1 )  0, e que o instante inicial é t0  0 .
Conforme visto anteriormente, a solução da equação na forma (3.39) é:

t
x(t )  e x(0)   e A(t  ) Bu ( ) d
At
(3.40)
0

No instante final t  t1 a equação (3.40) torna-se:


t1
0e At1
x(0)   e A(t1  ) Bu ( ) d (3.41)
0

 At1
Premultiplicando (3.41) por e e encontrando x(0), tém-se
t1
x(0)    e  A Bu ( ) d (3.42)
0

Com base na interpolação de Sylvester, e  A pode ser escrita como:


n 1
e  A
   k ( ) Ak
k 0
Substituindo esta última em (3.42), segue que:
n 1
x(0)   A B   k ( )u ( ) d
t1
k
(3.43)
0
k 0

t1
Fazendo 0
 k ( )u ( ) d   k , então (3.43) é equivalente a:

 0 
 
 
n 1
x(0)   Ak B  k   B AB  An 1 B  1  (3.44)
k 0   
 
  n 1 
Se o sistema for a estados completamente controláveis, a equação (3.44)
deve ser satisfeita. Isto requer que:

posto B  AB  An1B  n


onde M c  B  
AB  An 1 B   n n é dita matriz de controlabi lidade
Este resultado pode ser estendido para o caso em que o sinal de controle u(t)

é m-dimensional, ou seja, u .m

Assim, considere o sistema descrito por

x (t )  Ax(t )  Bu (t ) (3.45)

com u m. Este sistema é a estados completamente controláveis se a


seguinte condição de posto é satisfeita:

posto B AB  An1B  n


onde B  AB  An1B n n m 
Exemplo 1: Considere o sistema dado por:
 x1  1 1   x1  1
 x   0  1  x   0 u
 2    2  
Portanto n=2. A matriz de controlabilidade é:

1 1
B AB  
 0 0 
 1 1 
Como posto   
 0 0  1
é menor que n=2, o sistema não é a estados
 
completamente controláveis.

 Controlabilidade de estados completa no plano s


A condição de controlabilidade de estados completa pode ser estabelecida
em termos de funções (ou matrizes) de transferência.

Uma condição necessária e suficiente para a controlabilidade de estados com


pleta é que não ocorram cancelamentos na função de transferência /matriz
de transferência. Se houver cancelamento, o sistema não poderá ser contro-
lado na direção do modo cancelado.
Exemplo: Considere a seguinte função de transferência
Y ( s) s  2,5

U ( s) ( s  2,5)( s  1)
Observe que o fator (s+2,5) do numerador pode ser cancelado com o fator
(s+2,5) do denominador. Consequentemente, um grau de liberdade é perdi-
do. Devido ao cancelamento, este sistema não é a estados completamente
controláveis.

3.4.2 Controlabilidade de saída


No projeto de um sistema de controle, procura-se controlar as variá-
veis de saída em vez das variáveis de estado do sistema. A controlabilidade
de estados completa não é condição necessária nem suficiente para se con-
trolar as variáveis de saída do sistema. A seguir define-se a controlabilidade
completa de saídas.
Considere o sistema descrito por:
x (t )  Ax(t )  Bu (t ) (3.46a)
y (t )  Cx(t )  Du (t ) (3.46b)
onde:
x  n : é o vetor de estados
u  m : é o vetor de entradas de controle
y  p : é o vetor de saídas medidas
A n  n : matriz de estado
B  n  m : matriz de entrada
C  p  n : matriz de saída
D  p  m : matriz de transmiss ão direta
O sistema (3.46) é dito de saídas completamente controláveis, se for
possível, por meio de um vetor de controle não restrito u(t), transferir uma
saída inicial qualquer y(to) para outro valor de saída qualquer y(t1) num
intervalo de tempo finito t0  t  t1
Na seqüência apresenta-se a condição para a controlabilidade completa de
saída.
O sistema (3.46) é de saídas completamente controláveis se somente se a
seguinte condição de posto for satisfeita:


posto CB CAB CA2 B  CAn1B D   p

onde M cs  CB CAB CA2 B  CAn 1 B D   p  ( n 1) m 
é dita matriz de controlabilidade de saída.

3.4.3 Observabilidade
O conceito de observabilidade é dual ao de controlabilidade. Estes dois
conceitos são definidos sob a hipótese de que o modelo do sistema no espa
ço de estados é conhecido ou, equivalentemente, as matrizes A, B, C e D são
conhecidas. Conseqüentemente, o problema de observabilidade é diferente
do problema de realização ou identificação, que é para determinar ou estimar
A, B, C e D a partir das informações de entrada e saída.
Considere mais uma vez o sistema representado no espaço de estados:

x (t )  Ax(t )  Bu (t ) (3.47a)
y (t )  Cx(t )  Du (t ) (3.47b)

O sistema é dito completamente observável se qualquer estado x(to)


pode ser determinado a partir da observação de y(t) durante um intervalo de
tempo finito t0  t  t1 .

Como foi visto anteriormente, a solução do sistema, ou seja o vetor de esta-


dos x(t) e o vetor de saídas y(t) que satisfazem as equações (3.47) são:
t
x(t )  e x(0)   e A (t  ) B u ( ) d
At
(3.48)
0
e t
y (t )  Ce x(0)  C  e A (t  ) B u ( ) d  Du (t ) (3.49)
At
0

respectivamente.
Como A, B, C, D e u(t) são conhecidos, então os dois últimos termos do
segundo membro da equação (3.49) são quantidades conhecidas.

Portanto, elas podem ser subtraídas dos valores observados de y(t). Con-
seqüentemente, para se deduzir uma condição necessária e suficiente para
observabilidade completa para o sistema (3.47), seus termos Bu(t) e Du(t)
podem ser ignorados visando a simplificação da dedução. Neste sentido,
considere o sistema:
x (t )  Ax(t ) (3.50a)
y (t )  Cx(t ) (3.50b)

Portanto, o vetor de saídas y(t) é

y(t )  Ce At x(0) (3.51)


Como na dedução da condição de controlabilidade, utiliza-se a igualdade
n 1
e  A
   k ( ) Ak
k 0
de modo que (3.51) é equivalente a
n 1
y (t )    k (t ) C Ak x(0)
k 0

ou

y (t )   0 (t ) C x(0)  1 (t ) C A x(0)     n 1 (t ) C An 1 x(0)

ou ainda:

 C 
 CA 
y (t )   0 (t ) 1 (t )   n 1 (t )   x(0) (3.52)
  
 n 1 
CA 
Se o sistema for completamente observável, então, dado o sinal de saída y(t),
é possível determinar x(0), univocamente, durante um intervalo de tempo
0  t  t1 a partir da equação (3.52).

Pode-se demonstrar que, para isto, é necessário que o posto da matriz np x n



M o  CT (CA)T  T
 (CAn 1 )T , envolvida na equação (3.52) , seja igual a n.

Com base nesta análise, a condição de observabilidade é enuciada na se-.


qüência.
 Condição para observabilidade completa de sistemas contínuos
O sistema (3.47) (ou 3.50) é completamente observável se a seguinte
condição de posto é satisfeita:

  C   C 
  CA    CA 
     n , onde M o    é dita matriz de observabil idade
posto  
     
 
 n1    n 1 

 CA  CA 
O conceito de observabilidade é útil para a solução de problema de reconstru
ção de variáveis de estados não mensuráveis.

Exemplo 1: Verificar se o sistema descrito pelas equações abaixo é controlá


vel e observável
 x1   1 1   x1  0
 x    2  1  x   1 u
 2    2  
 x1 
y  1 0  
 x2 

Note que n =2, p =1. A matriz de controlabilidade é


0 1
M c  B AB  
 1  1

O posto desta matriz é


 0 1 
posto    2

  1  1 
Como este posto é igual a n, o sistema dado é a estados completamente
controláveis.

Para testar a controlabilidade de saída, verifica-se o posto da matriz


   
M c s  CB CAB  0 1 , conforme mostrado a seguir:

posto 0 1  1

Como este posto é igual a p, o sistema dado é a saídas completamente


controláveis.

Para testar a condição de observabilidade, verifica-se o posto da matriz

Mo  C T
CA
T T
 1 0
  , o que é feito a seguir:
1 1

 1 0 
posto    2

 1 1 
Como este posto é igual a n, o sistema dado é completamente observável.
3.5. Estabilidade de sistemas
3.5.1 Introdução
Os sistemas são projetados para realizar algumas tarefas ou para processar
sinais. Se o sistema não é estável, ele pode queimar-se, desintegrar-se, ou
saturar quando um sinal é aplicado à sua entrada. Portanto, um sistema
instável não tem utilidade na prática e estabilidade é um requisito básico para
todos os sistemas. Além da estabilidade, os sistemas devem cumprir outros
requisitos, tais como seguimento de referência, supressão de ruído e/ou
outros, para realmente serem úteis na prática.

A resposta de um sistema linear sempre pode ser decomposta em resposta


ao estado nulo e resposta à entrada nula.

3.5.2 Estabilidade entrada-saída de sistemas LTI


Considere um sistema linear e invariante no tempo (sigla em inglês: LTI sys-
tem), possuindo uma única entrada e uma única saída ( em inglês: SISO),
descrito por t t
y (t )   g (t   ) u ( ) d   g ( ) u (t   ) d (3.53)
0 0
onde g(t) é a resposta ao impulso, ou seja é a saída para uma entrada impul-
so aplicada em t=0. Resalta-se que, para ser descrito por (3.53), além de
linear e invariante no tempo, o sistema deve ser causal. Adicionalmente, o
sistema deve ser inicialmente relaxado em t=0.

Uma entrada u(t) é dita limitada se existe uma constante um tal que

u(t )  um   para todo t  0


Um sistema é dito BIBO estável (Bounded-Input Bounded-Output stable) se
qualquer entrada limitada resulta uma saída limitada. Este conceito de estabi
lidade é definido para resposta ao estado nulo e é aplicável somente se o
sistema está inicialmente relaxado. Uma definição formal é apresentada na
seqüência.

 Definição de BIBO estabilidade


Um sistema SISO, descrito por (3.53), é BIBO estável se, e somente se

0
g (t ) dt  M   para alguma constante M
 Se um sistema com resposta ao impulso denotada por g(t), é BIBO
estável, então, para t → ∞, pode-se afirmar que:
1. Para uma entrada dada por u(t)= a, com t ≥ 0, a saida y(t) tende a

G ( 0) a
2. Para uma entrada u(t) = sin ωot, com t ≥ 0, a saída y(t) aproxima-se
de
G( j0 ) sin (0 t   )

onde G(s) é a transformada de Laplace de g(t)

Este é um resultado básico que pode ser utilizado em problemas de filtragem


de sinais.

Na seqüência, a condição de BIBO estabilidade é apresentada em termos de


funções de transferência racionais próprias.
 Condição de BIBO estabilidade em termos de função/matriz de transferência

Um sistema SISO com função de transferência G(s) é BIBO estável se, e so-
mente se, todos os pólos de G(s) tem parte real negativa ou, equivalente-
mente, situam-se no semiplano esquerdo do plano s.


Um sistema MIMO com matriz de transferência racional própriaG ( s )  Gi j ( s ) 
é BIBO estável se, e somente se, todos os pólos de cada função Gi j (s )
têm parte real negativa.

Na seqüência discute-se estabilidade BIBO, sendo dada a representação no


espaço de estados. Considere o sistema
x (t )  Ax(t )  Bu (t ) (3.54a)
y (t )  Cx(t )  Du (t ) (3.54b)
A matriz de transferência entre a entrada u(t) e a saída y(t) é

G(s)  C(sI  A)1 B  D  Gij (s)   (3.55)


O sistema (3.54) ou, para ser mais preciso, a resposta ao estado nulo do
sistema (3.54) é BIBO estável se, e somente se, todos os pólos de cada

função Gij (s ) têm parte real negativa.

 Relação entre os pólos de G(s) e os autovalores de A.


A matriz de transferência expressa em (3.55) é equivalente a

Adj ( sI  A)
G( s)  C BD
det( sI  A)

Observe que os pólos de G(s) são as raízes da equação det( sI  A)  0, ou


seja, os autovalores de A.

Por conseguinte, se todos os autovalores de A têm parte real negativa, então


todos os pólos de G(s) têm parte real negativa e o sistema (3.54) é BIBO está-
vel.
3.5.3 O caso de sistemas de tempo discreto

Considere um sistema SISO de tempo discreto descrito por


k k
y ( k )   g ( k  m) u ( m)   g ( m) u ( k  m) (3.56)
m 0 m 0

onde g(k) é a seqüência de resposta ao impulso ou a seqüência de saída ex-


citada por uma seqüência de impulso em k=0.

Para ser representável por (3.56) o sistema de tempo discreto deve ser linear
Invariante no tempo e causal. Além do mais o sistema deve ser inicialmente
relaxado em k=0.
Uma seqüência de entrada u(k) é dita limitada se u(k) não tende   , ou
equivalentemente
u(k )  um   para k  0 , 1, 2 ,

Um sistema é dito BIBO estável se, para toda seqüência de entrada limitada,
ele produz uma seqüência de saída limitada.
Este conceito é definido para a resposta ao estado nulo e é aplicável
somente se o sistema está inicialmente relaxado.
A formalização deste conceito é apresentada na seqüência.

 Estabilidade BIBO de um sistema de tempo discreto


Um sistema SISO de tempo discreto (3.56) é dito BIBO estável se, e somente
se, a seguinte desigualdade é satisfeita:


k 0
g (k )  M  

para alguma constante M.

Se um sistema de tempo discreto com seqüência de resposta ao impulso g(k)


é BIBO estável, então, quando k   , tem-se:
1. Para uma excitação u (k )  a, com k  0 a saída tende a G (1) a
2. Para uma excitação u(k )  sin 0 k , com k  0 , a saída tende a
G (e j 0 ) sin (0 k   )  G (e j0 )
Onde G(z) é a transformada z de g(k), ou seja,

G ( z )   g ( m) z  m
m 0

 Estabilidade BIBO de um sistema de tempo discreto considerando a


sua função de transferência pulsada G(z), dada como uma expressão
racional própria.

Um sistema de tempo discreto SISO, com função de transferência racio-


nal própria G(z) é BIBO estável se, e somente se, todos os pólos de G(z)
têm magnitudes menor que 1 ou, equivalentemente, situam-se no interior
de um círculo de raio unitário centrado na origem do plano z.

Se G(z) tem pólo pi com multiplicidade m , então sua expansão em fra-


i
ções parciais contém os fatores:

1 1 1
, ,,
z  pi ( z  pi ) 2
( z  pi ) mi
Por conseguinte, a transformada z inversa de G(z) ou a seqüência de respos-
ta ao impulso contém os fatores
pik , k pik , , k mi 1 pik

 Estabilidade BIBO de um sistema MIMO


Um sistema de tempo discreto MIMO com matriz de transferência racional
 
própria discreta G ( z )  Gi j ( z ) é BIBO estável se, e somente se, todos os
pólos de cada função Gi j (z ) têm magnitude menor do que 1.

Para apresentar a estabilidade BIBO de um sistema de tempo discreto no


espaço de estado, considere
x(k  1)  Ax(k )  Bu (k ) (3.57a)
y (k )  Cx(k )  Du (k ) (3.57b)
Sua matriz de transferência é

G( z )  C ( zI  A) 1 B  D (3.58)
A resposta ao estado nulo do sistema (3.57) é BIBO estável se, e somente
se, todos os pólos de G(z) têm magnitude menor do que 1.

 Relação entre os pólos de G(z) e os autovalores de A


A equação (3.58) é equivalente a
Adj( zI  A)
G( z )  C BD
det( zI  A)
Portanto, todo pólo de G(z) é um autovalor de A. Por conseguinte, se todo
autovalor de A tem magnitude menor do que 1, então o sistema (3.57) é
BIBO estável.

3.5.4 Estabilidade Interna


A estabilidade BIBO foi apresentada para a resposta ao estado nulo.
Nesta subseção estuda-se a estabilidade da resposta à entrada nula, u  0,
com estado inicial não nulo, x0  0 . Ou seja, estuda-se a resposta de
x (t )  Ax(t ) (3.59)
com x0  0
A solução de (3.59) é
x(t )  e At x0
A resposta à entrada nula de (3.54), ou a resposta de (3.59) é marginalmente
estável, ou estável no sentido de Lyapunov, se para todo estado inicial finito
x0 a resposta é limitada. Ele é asintoticamente estável se todo estado inici-
al finito produz uma resposta limitada. Em adição, a resposta tende ao esta-
do nulo quando t   .

Exemplo 1:
Considere o sistema
 x1  0 0 0  x1 
 x   0 0 0  x 
 2    2
 x3  0 0  1  x3 
Seu polinômio característico é  ( )  2 (  1) e seu polinômio mínimo é
 ( )   (  1) . A matriz A tem autovalores 0, 0, -1. O polinômio mínimo
tem raízes 0, -1. Portanto o autovalor 0 é uma raiz simples do polinômio
mínimo. Conseqüentemente, o sistema é marginalmente estável.
Exemplo 2:
Considere o sistema
 x1  0 1 0  x1 
 x   0 0 0  x 
 2    2
 x3  0 0  1  x3 
O polinômio mínimo é  ( )   (  1) , cujas raízes são 0, 0, -1. Portanto
2

0 não é uma raíz simples do polinômio mínimo. Conseqüentemente, o sistema


do exemplo 2 não é marginalmente estável.

A estabilidade marginal é útil somente em projeto de osciladores.


Como discutido anteriormente, cada pólo da matriz de transferência
1
G(s)  C (sI  A) B  D
é um autovalor de A. Por conseguinte, estabilidade assintótica implica esta-
bilidade BIBO. A recíproca, em geral, não é verdadeira. Note que estabilidade
assintótica é definida para resposta à entrada nula, enquanto estabilidade
BIBO é definida para resposta ao estado nulo.
3.5.5 Estabilidade segundo Lyapunov

Muitos critérios para a análise de estabilidade de sistemas LTI estão disponí-


veis na literatura científica, tais como critério de estabilidade de Nyquist e cri-
tério de estabilidade de Routh. Entretanto, para sistemas não lineares e/ou
variantes no tempo, tais critérios não se aplicam, e a análise de estabilidade
pode ser extremamente difícil ou impossível. O método de análise de estabi-
lidade segundo Lyapunov pode ser aplicado a algumas questões de estabili-
dade de sistemas não lineares. Neste curso, a análise de estabilidade de sis-
temas não lineares limita-se a alguns casos simples.

 Definições úteis
- Sistema : o sistema considerado nesta subseção é representado por
x  f ( x, t ) (3.60)
onde x n é o vetor de estados e f ( x, t )n é uma função de
x1 , x2 ,, xn , t . Supõe-se que o sistema (3.60) possui uma única so-
lução, que começa numa dada condição inicial. Esta solução será designada
por  (t ; x0 , t0 ) onde x(t0 )  x0 , e t é o instante de tempo observado
Portanto,  (t0 ; x0 , t0 )  x0
- Estado de equilíbrio : no sistema (3.60), um estado xe para o qual
f ( xe , t )  0 ,  t , é chamado um estado de equilíbrio do sistema.

Para um sistema LTI f ( x, t )  Ax , haverá um único estado de equilíbrio


se A for não singular, e haverá um número infinito de estados de equilíbrio
se A for singular. Para os sistemas não lineares, pode haver um ou mais pon-
tos de equilíbrio.

Qualquer estado de equilíbrio isolado (isto é, isolado de outros) pode ser


deslocado para a origem do sistema de coordenadas, que corresponde a
f (0, t )  0 , mediante uma translação de coordenadas. Na seqüência estu-
da-se a análise de estabilidade de estados de equilíbrio na origem.

- Estabilidade no sentido de Lyapunov


A seguir denota-se uma região esférica de raio k ao redor de um estado
de equilibrio xe , como

x  xe  k
A notação x  xe é chamada de norma euclidiana, que é definida por

x  xe  ( x  x
1 1e ) 2
 ( x 2  x 2e ) 2
   ( x n  x ne ) 2

Seja S ( ) uma região de pontos tais que
x0  xe  
E seja S ( ) outra região de pontos tais que
 (t ; x0 , t0 )  xe   ,  t  t0
Um estado de equilíbrio xe do sistema (3.60) é dito estável no sentido de
Lyapunov se existe um S ( ) correspondendo a cada S ( ) tal que as traje
tórias partindo de S ( ) não saem de S ( ) quando t aumenta indefini-
damente. O número real  depende de 
e, em geral, também depende
de to. Se  não depender de to, o estado de equilíbrio é dito uniformemen-
te estável. S ( )
x Esta figura ilustra o conceito de
S ( ) xe0 estado de equilíbrio estável
O que ficou especificado nesta definição é que em primeiro lugar escolhe-se
a região S ( ) . Para cada S ( ) deve existir uma região S ( ) tal que as
trajetórias partindo de dentro de S ( ) não saem de S ( ) quando t au-
menta indefinidamente.

- Estabilidade assintótica
Um estado de equilíbrio xe do sistema (3.60) é dito assintoticamente está-
vel se ele é estável no sentido de Lyapunov e se toda solução partindo de
dentro de S ( ) converge para xe , sem sair de S ( ) .
Esta definição está ilustrada na figura a seguir:

S ( )
S ( ) x0
xe
Na prática, a estabilidade assintótica é mais importante que a mera estabilida
de. Entretanto, a estabilidade assintótica é uma estabilidade local. Então, a
confirmação de que um dado sistema é assintoticamente estável, não garante
que o sistema vai operar adequadamente numa região irrestrita.
Neste contexto, é necessário algum conhecimento do tamanho da máxima
região de estabilidade assintótica. Esta região é chamada de domínio de
atração.

O domínio de atração é a parte do espaço de estados onde se originam tra-


jetórias assintoticamente estáveis. Em outras palavras, toda trajetória que
se origina no domínio de atração é assintoticamente estável.

- Estabilidade assintótica global


Se a estabilidade assintótica se verifica para todos os pontos do espaço de
estados a partir dos quais se originam trajetórias, o estado de equilíbrio é dito
assintoticamente estável globalmente (ou assintoticamente estável em grande
escala). Ou seja, o estado de equilíbrio xe do sistema (3.60) é dito assintotica
mente estável globalmente, se ele é estável e se toda solução converge pa-
ra xe quando t aumenta indefinidamente.

Uma característica natural da estabilidade assintótica global é que existe a-


penas um estado de equilíbrio em todo espaço de estados.
Em problemas de controle de sistemas dinâmicos, um requisito desejável é a
estabilidade assintótica global. Se o estado de equilíbrio não é assintotica-
mente estável globalmente, então o problema se torna o de determinar a
maior região de estabilidade assintótica. Isto é geralmente muito difícil.
Entretanto, para todos os fins práticos, é suficiente determinar uma região de
estabilidade assintótica suficientemente grande tal que nenhuma perturba-
ção a exceda.

-Instabilidade
Um estado de equilíbrio xe é dito instável se para algum número real   0
e qualquer outro número real   0 , tão pequenos quanto se queira, sempre
existe um estado x0 em S ( ) tal que a trajetória partindo deste estado
abandona S ( ) . Na figura a seguir ilustra-se este conceito.

S ( )
S ( ) x0 xe

Não se pode afirmar que a trajetória irá, necessariamente, para o infinito.


Note que as definições dadas não especificam a região exata de condições
iniciais permitidas. Portanto, a definição se aplica à vizinhança do estado de
equilíbrio, a não ser que S ( ) corresponda à totalidade do espaço de esta-
dos.

Se um dado sistema LTI é instável, as trajetórias começando perto de um esta


do de equilíbrio instável se dirigem ao infinito. Mas no caso de sistemas não li
neares, isto não é necessariamente verdade.

O conhecimento destas definições é importante para o entendimento da aná-


lise de estabilidade de sistemas lineares e de sistemas não lineares.

- Funções escalares positivas definidas


Uma função escalar V(x) é dita positiva definida em uma região Ω, que
inclui a origem do espaço de estados, se V(x) > 0 para todo x   ,
sendo x  0 e V(0)=0.
Uma função variante no tempo V(x,t) é dita positiva definida em uma região
Ω, que inclui a origem do espaço de estados, se ela é limitada inferiormente

por uma função positiva definida V(x) tal que:


V ( x , t )  V ( x) ,  t  t0
V (0 , t )  0 ,  t  t 0
- Funções escalares negativas definidas
Uma função escalar V(x) é dita negativa definida se –V(x) é positiva defini-
da.
- Funções escalares positivas semidefinidas
Uma função escalar V(x) é dita positiva semidefinida se ela é positiva para
os estados da região Ω , exceto na origem e em alguns outros estados, para
os quais ela é nula.

- Funções escalares negativas semidefinidas


Uma função escalar V(x) é dita negativa semidefinida se –V(x) é positiva
semidefinida.
- Funções escalares indefinidas

Uma função escalar é dita indefinida se na região Ω, ela assume tanto valo
res positivos quanto negativos, independentemente de quão pequena é a
região Ω.

Exemplo
Para cada uma das funções escalares representadas pelas expressões abai-
xo, identifica-se a classe de funções a que ela pertence.
1. V ( x)  x12  x22  positiva definida
2. V ( x)  ( x1  x2 ) 2  positiva semidefini da
3. V ( x)   x12  (3x1  2 x2 ) 2  negativa definida
4. V ( x)  x1 x2  x22  indefinida
- Formas quadráticas
Uma classe de funções escalares que tem um papel importante na análise
de estabilidade baseada no segundo método de Lyapunov é a forma quadráti
ca.
Um exemplo de função escalar na forma quadrática é a seguinte:

 p11 p12  p1n   x1 


p p22  p2 n   x2 
V ( x)  x' Px  x1 x2  xn   12 (3.61)
      
  
 p1n p2 n  pnn   xn 
Note que a matriz P é simétrica.
Para determinar se a forma quadrática V(x) é positiva definida, pode-se utilizar
o critério de Sylvester, enuciado na seqüência.
- Critério de Sylvester
As condições necessárias e suficientes para que a forma quadrática (3.61)
seja positiva definida são que todos os determinantes menores principais
sucessivos de P sejam positivos, ou seja:
p11 p12  p1n
p11 p12 p12 p22  p2 n
p11  0 ,  0 , , 0
p12 p22   
p1n p2 n  pnn
A forma quadrática V(x)=x’Px é positiva semidefinida se P é singular e todos
seus menores principais são não negativos.
V(x) é negativa definida se –V(x) é positiva definida. De forma semelhante,
V(x) é negativa semidefinida se –V(x) é positiva semidefinida.

Exemplo
Mostre que a seguinte forma quadrática é positiva definida:
V ( x)  10 x12  4 x22  x32  2 x1 x2  2 x2 x3  4 x1 x3 (3.62)
Para mostrar isto, note que a forma quadrática (3.61), para n=3, é equivalente
V ( x)  p11x12  p22 x22  p33 x32  2 p12 x1 x2  2 p13 x1 x3  2 p23 x2 x3 (3.63)

De (3.62) e (3.63), tem-se  p11 p12 p13   10 1  2


P   p12 p22 p23   1
 4  1 

 p13 p23 p33   2  1 1 
10 1  2
Aplicando o critério de Sylvester, note que 10 1
10  0 ,  0, 1 4 1  0
1 4
 2 1 1
Como todos os menores principais sucessivos da matriz P são positivos,
está demonstrado que V(x) é positiva definida.
3.5.6 O Segundo método de Lyapunov
Lyapunov apresentou dois métodos, chamados de primeiro e segundo
métodos, para determinar a estabilidade de sistemas dinâmicos descritos
por equações diferenciais ordinárias. O primeiro método consiste em pro-
cedimentos, onde a forma explícita das soluções das equações diferenciais
é usada para a análise.

O segundo método, por outro lado, não requer as soluções das equa-
ções diferenciais. Para o caso de sistemas não lineares isto é muito impor
tante uma vez que suas soluções exatas podem não ser determináveis ou
serem de difícil determinação.

 Segundo método de Lyapunov


Se um sistema tem um estado de equilíbrio assintoticamente estável, então
a energia armazenada do sistema deslocado dentro do domínio de atração
decresce com o passar do tempo, até que finalmente assume um valor míni-
mo no estado de equilíbrio.
Para sistemas puramente matemáticos, não há entretanto uma maneira sim-
ples de definir uma função de energia. Para contornar esta dificuldade, Lya-
punov introduziu uma função de energia fictícia, que ficou conhecida como
função de Lyapunov. A idéia é mais geral que a de energia, e é aplicável de
forma mais ampla. Para um sistema complicado, achar uma função de Lya-
punov pode ser bastante difícil.

Uma função de Lyapunov será denotada por V(x, t) ou por V(x) quando não
Incluirem o tempo t explicitamente. No segundo método de Lyapunov, o com
portamento do sinal de V(x, t) e o comportamento de sua derivada temporal
V ( x , t ) nos fornecem informações sobre a estabilidade, estabilidade as-
sintótica ou instabilidade de um estado de equilíbrio, sem necessidade de re-
solver as equações do sistema.

 Teorema principal sobre estabilidade de Lyapunov


Suponha que um sistema é descrito por
x  f ( x , t ) onde f (0 , t )  0 ,  t
O estado de equilíbrio na origem é assintoticamente estável uniformemente se
existe uma função escalar V(x,t) tendo primeiras derivadas parciais contínuas
e satisfazendo as seguintes condições:

1. V ( x , t ) é positiva definida
2. V ( x , t ) é negativa definida

Se o estado de equilíbrio na origem é assintoticamente estável uniformemen-


te e lim V ( x , t )   , então ele é assintoticamente estável uniformemente de
x 
forma global.

Exemplo
Considere o sistema descrito pelas equações:

x1  x2  x1 ( x12  x22 ) (3.64a)


x2   x1  x2 ( x12  x22 ) (3.64b)
É obvio que a origem x1 x2   0 0 é o único estado de equilíbrio.
/ /
Para determinar a estabilidade deste estado de equilíbrio, vamos considerar
uma função escalar V(x) definida pela expressão:
V ( x)  x12  x22
que é positiva definida. A derivada de V(x) em relação ao tempo, ao longo de
qualquer trajetória é
V ( x)  2 x1 x1  2 x2 x2 (3.65)
Substituindo as equações (3.64) em (3.65), após simplificações, obtem-se

V ( x)  2 ( x12  x22 ) 2

Note portanto que V (x ) é negativa definida. Isto implica que V(x) é com-
tinuamente decrescente ao longo de qualquer trajetória. Portanto V(x) é uma
função de Lyapunov.
Como V(x) se torna infinito para um desvio infinito a partir do estado de equi-
líbrio, então o estado de equilíbrio na origem é assintoticamente estável
globalmente.
Um enunciado mais preciso deste teorema de Lyapunov é apresentado na
seqüência
Considere a classe de sistemas descritos por
x  f ( x , t ) onde f (0 , t )  0 ,  t  t0
O estado de equilíbrio na origem do sistema é uniforme e assintoticamente
estável globalmente se existe uma função escalar V(x,t) tendo primeiras de-
rivadas parciais contínuas e satisfazendo as seguintes condições:
1. V ( x , t ) é positiva definida
2. V ( x , t ) é negativa semidefini da
3. V ( (t ; x0 , t0 ) , t )  0  t  t0 , com t0  0 e x0  0

onde  (t ; x0 , t0 ) denota a trajetória ou solução partindo de x0em t 0 .


Note que se V ( x , t ) não é negativa definida, mas sim negativa semidefini-
da, então a trajetória de um ponto representativo pode-se tornar tangente a
alguma superfície particular definida por V ( x , t )  K . Entretanto, com a
condição 3 satisfeita, o ponto representativo não pode permanecer no ponto
tangente (que corresponde a V ( x , t )  0 ) e portanto deve-se mover em
direção à origem.

Se, entretanto, existe uma função escalar positiva definida V ( x , t ) tal que
V ( x , t ) é identicamente nula, então a origem pode permanecer em um
ciclo limite. O estado de equilíbrio na origem, neste caso, é dito estável no
sentido de Lyapunov

Exemplo
Considere o seguinte sistema
 x1   0 1   x1 
 x    1  1  x  (3.66)
 2    2
É óbvio que o único estado de equilíbrio é a origem, x1 x2  /  0 0./
Determine a estabilidade deste estado.
Vamos escolher como uma possível função de Lyapunov, a seguinte função:

V ( x)  2 x12  x22  positiva definida


A função V (x) é
V ( x)  4 x1 x1  2 x2 x2 (3.67)

Extraindo de (3.66), as expressões para x1 e x2 e substituindo-as


em (3.67), após simplificação, encontra-se:
V ( x)  2 x1 x2  2 x22

Note que V (x) é indefinida. Isto implica que esta função particular V(x)
não é uma função de Lyapunov, e portanto a estabilidade não pode ser deter-
minada utilizado-a.

Se for escolhida como possível função de Lyapunov, a função escalar defini-


da por:
V ( x)  x1  x2
2 2
 positiva definida
então
V ( x)  2 x1 x1  2 x2 x2  2 x22
que é negativa semidefinida.
Se V (x) deve se anular para todo t  t1 , então x2 deve ser nulo para todo
t  t1 . Isto requer que x2  0 para todo t  t1. Como x2   x1  x2

então x1 também deve ser nulo para t  t1 . Isto significa que V (x) se
anula apenas na origem. Portanto, o estado de equilíbrio na origem é assin-
toticamente estável globalmente. Uma escolha diferente de uma função de
Lyapunov fornece a mesma informação de estabilidade.

Como V(x) deve ser positiva definida, freqüentemente escolhe-se V(x) como
uma forma quadrática em x. A função positiva definida mais simples é uma
forma quadrática. Em seguida, é investigada se V (x) é pelo menos negativa
semidefinida.

 Instabilidade
Considere mais uma vez um sistema descrito por
x  f ( x , t ) onde f (0 , t )  0 ,  t  t0 .
O estado de equilíbrio na origem é instável se existe uma função escalar
W(x, t) , tendo primeiras derivadas parciais contínuas e satisfazendo as se-
guintes condições:

1. W ( x , t ) é positiva definida numa certa região em torno da origem


2. W ( x , t ) é positiva definida na mesma região
3.5.7 Análise de estabilidade de sistemas LTI
Existem várias abordagens para a investigação da estabilidade assintó-
tica de sistemas LTI.
Um exemplo é apresentado na seqüência. Considere um sistema LTI de tem-
po contínuo, descrito por
x  Ax

a condição necessária e suficiente para a estabilidade assintótica da origem


do sistema é que todos os autovalores da matriz A tenham partes reais ne-
gativas, ou, equivalentemente, que as raízes do polinômio característico a se-
guir tenham partes reais negativas:
det( sI  A)  s n  an 1s n 1    a1s  a0
De maneira análoga, considere um sistema de tempo discreto da forma

x(k  1)  A x(k )

A condição necessária e suficiente para a estabilidade assintótica da ori-


gem é que todos os autovalores de A tenham módulo menor que a unidade,
ou, equivalentemente, que os zeros do polinômio característico a seguir este-
jam posicionados dentro do círculo de raio unitário centrado na origem do
plano z.

det( zI  A)  z n  bn 1 z n 1    b1 z  b0

A determinação dos autovalores se torna difícil, ou impossível, no caso de sis-


temas de ordem elevada, ou se alguns dos coeficientes do polinômio caracte
rístico são não numéricos. Neste caso, o critério de estabilidade de Routh
pode ser aplicado convenientemente. Uma alternativa a este método é base-
ada no segundo método de Lyapunov. A abordagem de Lyapunov é algébrica
e não requer a fatoração do polinômio característico.
 Análise de estabilidade de Lyapunov para sistemas LTI
Considere o sistema LTI de tempo contínuo

x  Ax (3.68)
Onde:
xn : é o vetor de estados
An n : é uma matriz constante
Suponha que A é uma matriz não singular. Então, o único estado de equilíbrio
é a origem x=0.

Baseado no segundo método de Lyapunov, vamos escolher, para o sistema


(3.68), uma possível função de Lyapunov como
V ( x)  x' Px (3.69)
onde P é uma matriz simétrica e positiva definida, ou seja, P  P '  0. Para
o caso em que x é um vetor de componentes complexas, P > 0 é hermitiana.
Derivando a equação (3.69), em relação ao tempo, obtém-se:
V ( x)  x ' Px  x' Px (3.70)
ao longo de qualquer trajetória.

Visando re-escrever a expressão (3.70) numa forma quadrática semelhante à


forma (3.69), obtém-se inicialmente a expressão para x ' a partir de (3.68),
conforme segue:
x '  x' A' (3.71)
Substituindo (3.68) e (3.71) em (3.70), segue que
V ( x)  x' A' Px  x' PAx  x' ( A' P  PA) x
De acordo com a condição 2 do teorema principal de Lyapunov, V ( x)  0 ,
ou seja:
x' ( A' P  PA) x  0 (3.72)
Para que a forma quadrática (3.72) seja verificada é necessário que

A' P  PA  0 (3.73)
A condição (3.73) significa que a matriz ( A' P  PA) deve ser negativa
definida. Em particular, ela pode ser igual a uma matriz –Q, sendo Q uma
matriz positiva definida, Q > 0, conforme a seguinte igualdade:
A' P  PA  Q
- Enunciado formal do teorema de Lyapunov
Considere o sistema descrito por

x  Ax
onde:
xn : é o vetor de estados
An n : é uma matriz constante não singular
O estado de equilíbrio x=0 é assintoticamente estável globalmente se, dada
uma matriz Q  Q '  0, existe uma matriz P  P'  0 tal que:

A' P  PA  Q (3.74)
A função escalar V ( x)  x' Px é uma função de Lyapunov para este
sistema. Note que, para o sistema linear em consideração, se o estado de
equilíbrio (a origem) é assintoticamente estável, então ele é assintoticamente
estável globalmente.
Ao se aplicar este teorema, várias observações importantes são necessárias:

1. Se V ( x)   x' Q x não se anula ao longo de qualquer trajetória, então Q


pode ser positiva semidefinida, Q0

2. O resultado final não depende da matriz Q escolhida em particular


3. Para determinar a matriz P , a equação (3.74) deve ser escrita explicitan
do-se, elemento por elemento, as matrizes envolvidas. Obviamente, os
elementos de P são incógnitas a serem determinadas.
4. Em geral pode-se escolher Q=I, onde I é a matriz identidade.

Exemplo
Considere o sistema de segunda ordem descrito por
 x1   0 1   x1 
 x    1  1  x 
 2    2
O estado de equilíbrio é a origem. Determine a estabilidade deste estado.

Suponha a função de Lyapunov V ( x)  x' Px onde a matriz P será determi-


nada através da igualdade matricial:
A' P  PA  Q (3.75)
Considere Q=I e

 p11 p12 
P
 p12 p22 

Então a equação (3.75) torna-se

0  1  p11 p12   p11 p12   0 1   1 0 


1  1  p    
   12 p22   p12 p22   1  1  0  1
 

A partir desta equação matricial, obtêm-se as três equações simultâneas a


A seguir
 2 p12   1
p11  p12  p22  0
2 p12  2 p22  1
Resolvendo este sistema de equações, obtém-se a matriz P, como segue:

 p11 p12   3 2 1 
P   2
 p12 p22   1 1
 2 

Para determinar se P é positiva definida, conferem-se os determinantes dos


menores principais sucessivos:

3 p11 p12 3 2 1
p11   0 ,  2 0
2 p12 p22 1 1
2
Portanto, a matriz P é positiva definida e, conseqüentemente, o estado de
equilíbrio na origem é assintoticamente estável globalmente.
- Estabilidade de Lyapunov para o caso de sistemas de tempo discreto.
Considere o sistema de tempo discreto
x(k  1)  Ax(k )
onde:
xn : é o vetor de estados
An n : é uma matriz constante
O estado de equilíbrio x=0 é assintoticamente estável se, dada uma matriz
Q  Q '  0 , existe uma matriz P  P'  0 tal que
A' PA  P  Q
A função escalar V ( x)  x' Px é uma função de Lyapunov para este sistema.
Se  V ( x( k ))   x' (k )Qx (k ) não se anula identicamente ao longo de
qualquer série solução, então Q pode ser escolhida positiva semidefinida.

Você também pode gostar