Você está na página 1de 101

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE

CENTRO DE TECNOLOGIA
DEPT°. DE ENGENHARIA DE COMPUTAÇÃO E AUTOMAÇÃO

SISTEMAS
DE
CONTROLE

Prof. Fábio Meneghetti Ugulino de Araújo Fevereiro de 2007 Natal - RN


Índice

1 PROBLEMA DE CONTROLE ___________________________________________________ 1


1.1 DEFINIÇÕES __________________________________________________________________ 1
• Planta ____________________________________________________________________ 1
• Processo __________________________________________________________________ 1
• Sistema ___________________________________________________________________ 1
• Sistema Físico _____________________________________________________________ 1
• Especificações de Desempenho ________________________________________________ 1
• Modelo ___________________________________________________________________ 1
• Controle __________________________________________________________________ 1
• Controlador _______________________________________________________________ 1
• Sistema de Controle _________________________________________________________ 1
• Sistema de Controle em Malha Aberta___________________________________________ 2
• Sistema de Controle em Malha Fechada _________________________________________ 2
1.2 EXEMPLOS ___________________________________________________________________ 2
1.3 FORMULAÇÃO GERAL DO PROBLEMA DE CONTROLE ___________________________________ 3
2 MÉTODO DO LUGAR GEOMÉTRICO DAS RAÍZES (LGR)_________________________ 4
2.1 INTRODUÇÃO _________________________________________________________________ 4
2.2 PASSOS PARA A CONSTRUÇÃO DO LGR _____________________________________________ 6
• Exemplo 1: Sistema com 2 pólos e 1 zero reais ____________________________________ 7
• Exemplo 2: Sistema com 4 pólos e 1 zero reais ____________________________________ 8
• Exemplo 3: Sistema com 2 pólos reais e 2 pólos complexos _________________________ 10
2.3 LGR PARA FUNÇÕES DE TRANSFERÊNCIA TÍPICAS ___________________________________ 12
2.4 LOCALIZANDO RAÍZES NO LGR__________________________________________________ 16
• Exemplo: Teste de localização de raízes para um sistema de segunda ordem ___________ 17
2.5 EXERCÍCIOS _________________________________________________________________ 18
3 AÇÕES DE CONTROLE BÁSICAS ______________________________________________ 19
3.1 INTRODUÇÃO ________________________________________________________________ 19
• Controladores Série ________________________________________________________ 19
• Controladores por Realimentação _____________________________________________ 19
3.2 AÇÕES PROPORCIONAL, INTEGRAL E DERIVATIVA (P-I-D) _____________________________ 20
• Controle Proporcional (P) ___________________________________________________ 20
• Controlador Proporcional + Integral (PI)_______________________________________ 21
• Controlador Proporcional + Derivativo (PD)____________________________________ 22
• Controlador Proporcional + Integral + Derivativo (PID) __________________________ 23
3.3 AÇÕES DE CONTROLE AVANÇO-ATRASO ___________________________________________ 23
• Controlador Avanço de Fase (Lead) ___________________________________________ 23
• Controlador Atraso de Fase(Lag) _____________________________________________ 24
• Controlador Avanço-Atraso de Fase(Lead-Lag) __________________________________ 24
3.4 MODIFICAÇÕES DAS AÇÕES DE CONTROLE PID______________________________________ 25
• PID Original _____________________________________________________________ 25
• Parte Derivativa -Filtro _____________________________________________________ 25
• PI-D ____________________________________________________________________ 25
• I-PD ____________________________________________________________________ 25
3.5 EXERCÍCIOS _________________________________________________________________ 26
4 PROJETO DE CONTROLADORES PELO MÉTODO DO LGR______________________ 27
4.1 ESPECIFICAÇÕES DE DESEMPENHO________________________________________________ 27
4.2 PROJETO DE CONTROLADORES PD________________________________________________ 28
• Passos para o projeto de controladores PD _____________________________________ 28
4.3 PROJETO DE CONTROLADORES PI ________________________________________________ 30
• Passos para o projeto de controladores PI ______________________________________ 30
4.4 PROJETO DE CONTROLADORES PID _______________________________________________ 32
• Passos para o projeto de controladores PID _____________________________________ 32
Sistemas de Controle i
4.4.1 Regras de Zigler-Nichols para o Ajuste dos Parâmetros do PID ___________________ 33
• Primeiro Método de Ziegler-Nichols ___________________________________________ 34
• Segundo Método de Ziegler-Nichols ___________________________________________ 37
4.5 PROJETO DE CONTROLADORES AVANÇO DE FASE ____________________________________ 40
• Passos para o projeto de controladores Avanço de Fase ___________________________ 40
4.6 PROJETO DE CONTROLADORES ATRASO DE FASE_____________________________________ 42
• Passos para o projeto de controladores Atraso de Fase ____________________________ 42
4.7 PROJETO DE CONTROLADORES ATRASO-AVANÇO DE FASE _____________________________ 44
• Passos para o projeto de controladores atraso-avanço_____________________________ 44
4.8 EXERCÍCIOS _________________________________________________________________ 49
5 APROXIMAÇÃO DISCRETA DE FUNÇÕES DE TRANSF. CONTÍNUAS_____________ 50
5.1 INTRODUÇÃO ________________________________________________________________ 50
5.2 APROXIMAÇÕES POR INTEGRAÇÃO NUMÉRICA ______________________________________ 50
• Método de Euler ou Forward_________________________________________________ 50
• Método Backward _________________________________________________________ 51
• Método Trapezoidal, Tustim ou Aproximação Bilinear _____________________________ 52
5.3 INVARIÂNCIA AO DEGRAU ______________________________________________________ 52
5.4 EXERCÍCIOS _________________________________________________________________ 53
6 IMPLEMENTAÇÃO DE CONTROLADORES DIGITAIS ___________________________ 54
6.1 INTRODUÇÃO ________________________________________________________________ 54
6.2 PRÉ-FILTRAGEM E ATRASO COMPUTACIONAL _______________________________________ 54
• Pré-Filtragem_____________________________________________________________ 54
• Atraso Computacional ______________________________________________________ 55
6.3 ATUADORES NÃO-LINEARES ____________________________________________________ 56
6.4 ASPECTOS OPERACIONAIS ______________________________________________________ 56
6.5 MUDANÇAS DE PARÂMETROS ___________________________________________________ 57
6.6 ASPECTOS NUMÉRICOS ________________________________________________________ 59
6.7 PROJETO DE CONTROLADORES DIGITAIS ___________________________________________ 60
6.7.1 Controladores Deadbeat __________________________________________________ 60
7 PROJETO DE SISTEMAS DE CONTROLE USANDO O ESPAÇO DE ESTADOS ______ 63
7.1 DESCRIÇÃO POR VARIÁVEIS DE ESTADO ___________________________________________ 63
7.2 SOLUÇÃO DA EQUAÇÃO DE ESTADO ______________________________________________ 64
• Caso Escalar _____________________________________________________________ 64
• Caso Vetorial _____________________________________________________________ 64
7.3 ESTABILIDADE _______________________________________________________________ 64
7.4 CONTROLABILIDADE __________________________________________________________ 65
7.5 OBSERVABILIDADE ___________________________________________________________ 66
7.6 REALIZAÇÕES DE FUNÇÕES DE TRANSFERÊNCIA _____________________________________ 66
7.6.1 Realização na Forma Canônica Observável___________________________________ 67
7.6.2 Realização na Forma Canônica Controlável __________________________________ 67
7.7 REALIMENTAÇÃO DE ESTADO ___________________________________________________ 68
• Fórmula de Ackermann para Determinação da Matriz de Ganhos K __________________ 69
7.8 OBSERVADORES DE ESTADO ____________________________________________________ 71
• Erro de Estimação _________________________________________________________ 71
• Fórmula de Ackermann para Determinação da Matriz de Ganhos do Observador L _____ 72
7.9 REALIMENTAÇÃO DE ESTADOS OBSERVADOS _______________________________________ 74
7.10 SEGUIDORES DE REFERÊNCIA (OU SERVOSISTEMAS) ________________________________ 77
• Princípio do modelo interno para referência do tipo degrau unitário _________________ 77
• Princípio do modelo interno para referência do tipo rampa unitária __________________ 80
7.11 DESCRIÇÃO POR VARIÁVEIS DE ESTADO DE SISTEMAS DISCRETOS NO TEMPO ____________ 81
7.11.1 Discretização da Equação de Estado ______________________________________ 82
7.12 SOLUÇÃO DA EQUAÇÃO DE ESTADO DE SISTEMAS DISCRETOS NO TEMPO _______________ 84
7.13 ESTABILIDADE DE SISTEMAS DISCRETOS NO TEMPO ________________________________ 84
7.14 CONTROLABILIDADE DE SISTEMAS DISCRETOS NO TEMPO ___________________________ 84
7.15 OBSERVABILIDADE DE SISTEMAS DISCRETOS NO TEMPO ____________________________ 85
7.16 REALIMENTAÇÃO DE ESTADOS DE SISTEMAS DISCRETOS NO TEMPO ___________________ 85
7.17 OBSERVADORES DE ESTADO DE SISTEMAS DISCRETOS NO TEMPO _____________________ 85
7.18 SEGUIDOR DE REFERÊNCIA PARA SISTEMAS DISCRETOS NO TEMPO ____________________ 86
ii Sistemas de Controle
• Entrada do Tipo Degrau ____________________________________________________ 86
7.19 EXERCÍCIOS _______________________________________________________________ 87
8 INTRODUÇÃO AOS SISTEMAS DE CONTROLE ÓTIMO _________________________ 90
8.1 CONTROLE ÓTIMO QUADRÁTICO _________________________________________________ 90
8.2 CONTROLE ÓTIMO QUADRÁTICO DISCRETO ________________________________________ 93
• Equação de Riccati de Regime Permanente______________________________________ 94
REFERÊNCIAS____________________________________________________________________ 96

Sistemas de Controle iii


Agradecimentos

Agradecemos ao Prof. Dr. André Laurindo Maitelli

(www.dca.ufrn.br/~maitelli) por ter, gentilmente, cedido o material

didático que serviu de fonte para elaboração deste texto. Agradecemos

ainda, a todos os demais professores do Departamento de Engenharia

de Computação e Automação (DCA / UFRN) que, de alguma forma,

também contribuíram com o conteúdo deste material. Por fim, agradecemos

a todos os alunos que têm contribuído para o aprimoramento deste texto

com suas importantes sugestões.

iv Sistemas de Controle
1 PROBLEMA DE CONTROLE

O objetivo principal do estudo dos sistemas de controle e resolver o que se costuma


denominar por “Problema de Controle”. Para que se possa apresentar uma formulação geral
do que seja o problema de controle, são necessárias algumas definições iniciais.

1.1 Definições

• Planta

É uma parte de um equipamento ou instalação industrial, eventualmente um conjunto de


itens de uma máquina que funcionam juntos, cuja finalidade é desempenhar uma dada
operação.

• Processo

Pode ser definido como uma operação ou desenvolvimento natural que evolui
progressivamente, caracterizado por uma série de mudanças graduais que se sucedem de
modo relativamente fixo, conduzindo a um resultado ou finalidade particular.

• Sistema

É uma disposição, conjunto ou coleção de partes, dentro de um universo, que estão


conectadas ou relacionadas de tal maneira a formarem um todo.

• Sistema Físico

É uma parte do universo que foi delimitada para estudo.

• Especificações de Desempenho

São descrições do comportamento a ser apresentado pelo sistema físico, conforme


solicitação do usuário.

• Modelo

Consiste na representação de certas características do sistema físico que são relevantes


para seu estudo.

• Controle

É a ação de fazer com que um sistema físico atenda as especificações de desempenho


determinadas a priori.

• Controlador

Dispositivo utilizado para a obtenção do controle de um sistema físico.

• Sistema de Controle

Conjunto formado pelo sistema a ser controlado e o controlador.

Sistemas de Controle 1
• Sistema de Controle em Malha Aberta

É aquele em que a saída ou resposta não possui nenhuma influência sobre a entrada.

Sinal de Controle
Resposta Desejada (Variável Manipulada) Saída
(Referência ou Set-Point) MV (Variável de Processo)
SP Controlador Planta PV

• Sistema de Controle em Malha Fechada

É aquele em que a saída ou resposta influencia a entrada do sistema.

Sinal de Controle
Resposta Desejada Comparação (Variável Manipulada) Saída
(Referência ou Set-Point) + MV (Variável de Processo)
SP Controlador Planta PV
-
Sensor +
Transmissor

1.2 Exemplos

Ser humano tentando pegar um objeto

Posição do Posição
Objeto +Olhos da Mão
Cérebro Braço
- e Mão
Controlador Sistema

Controle de temperatura de uma sala

Temperatura Temperatura
Desejada Termostato
+ Ar
Ambiente
Sala
- Condicionado
Controlador Sistema

Controle do nível de um reservatório

Nivel Nível de
Desejado + Água
Bomba Reservatório
-
Controlador Sistema

Bóia
Sensor

2 Sistemas de Controle
1.3 Formulação Geral do Problema de Controle

Um problema de controle consiste em determinar uma forma de afetar um dado sistema


físico de modo que seu comportamento atenda às especificações de desempenho previamente
estabelecidas.
Como, normalmente, não é possível alterar a estrutura funcional do sistema físico em
questão, a satisfação das especificações de desempenho é atingida mediante o projeto e
implementação de controladores (compensadores).

U = Universo

Entradas Manipuladas
Sistema u( t )
Físico
Entradas
Exógenas
w(t)
Meio
Ambiente
Saídas Observadas
y(t)

Saídas de Interesse
z(t)

Especificações de
Desempenho
||
Modelos Velocidade
|| Segurança
Quantitativos (Ex.: Modelos Matemáticos) Conforto
ou Custo
Qualitativos (Ex.: Modelos em Escala) Durabilidade
.
.
.

Análise Projeto Implementação

Sistemas de Controle 3
2 MÉTODO DO LUGAR GEOMÉTRICO DAS RAÍZES (LGR)

2.1 Introdução

O diagrama do LGR consiste em um conjunto de curvas no plano complexo s, onde estas


curvas representam as posições admissíveis para os pólos de malha fechada de um dado
sistema quando o seu ganho varia de zero a infinito.

Considere o seguinte sistema:

R(s) + C(s)
G(s) C(s) G(s)
G MF (s) = =
- R(s) 1 + G(s)H(s)

Os pólos de malha fechada são as raízes do polinômio característico:

1 + G(s)H(s) = 0

G(s)H(s) = −1

Como G(s)H(s) representa uma quantidade complexa, a igualdade acima precisa ser
desmembrada em duas equações, as quais nos fornecem as seguintes condição para a
localização dos pólos no plano s:

Condição de Módulo:

G(s)H(s) = 1 ( 2.1 )

Condição de ângulo:

∠G(s)H(s) = ± 180(2k + 1) k = 0,1,... ( 2.2 )

Ponto de
Teste p1 Im
si

z1 Re

p2

4 Sistemas de Controle
Ex:

R(s) + K C(s)
C(s) K
s(s+4) = 2
- R(s) s + 4s + K

Os pólos de malha fechada são as raízes da eq. característica ⇒ s 2 + 4s + K = 0

p1 = −2 + 4 − K
− 4 ± 16 − 4K 
s= = −2 ± 4 − K 
2 
p 2 = −2 − 4 − K

Variando K temos a seguinte tabela de pólos de malha fechada:

K p1 p2

0 0 -4

1 -0,27 -3,73

2 -0,59 -3,41

4 -2,00 -2,00

5 -2,00 + j 1,00 -2,00 - j 1,00

8 -2,00 + j 2,00 -2,00 - j 2,00

Ponto de
K→∞ Im G(s)H(s) = 1 ⇒
Teste Im
si
K
=1
A1A 2
K=0 K=0

- τ1 1
- 2τ Re
1 1 - τ1 1
- 2τ Re
1 1
∠G(s)H(s) = ± 180 o (2k + 1) ⇒

K→∞ θ1 + θ 2 = 180 o

Sistemas de Controle 5
2.2 Passos para a Construção do LGR

1. Escrever o polinômio característico do


modo que o parâmetro de interesse (K) p.ex.: 1 + G(s)H(s) = 1 + KP(s)
apareça claramente:
nZ

2. Fatorar o polinômio P(s) em termos dos nP


∏ (s + z ) i
1 + G(s)H(s) = 1 + K i =1
nP

∏ (s + p )
pólos e nZ zeros.
j
j =1

3. Assinalar os pólos e zeros de malha aberta X = Pólos e O = Zeros.


no plano s com os símbolos O LGR começa nos pólos e termina nos
correspondentes. zeros.

4. Assinalar os segmentos do eixo real que são O LGR se situa à esquerda de um número
LGR. ímpar de pólos e zeros

5. Determinar o número de lugares separados, LS = nP, quando np ≥ nZ;


LS (seguimentos de curva que compõe o nP = Número de pólos finitos
LGR). nZ = Número de zeros finitos

6. O LGR é simétrico com relação ao eixo real Basta desenhar a parte acima do eixo real e
(eixo horizontal) depois espelhar o esboço.

7. (nP - nZ) seguimentos de um LGR σA =


∑ (− p j ) − ∑ (− z i )
nP − nz
prosseguem em direção aos zeros infinitos
ao longo de assíntotas centralizadas em σA e
com ângulos φA. φA =
(2q + 1) 180 o , q = 0,1,2,..., (n − n − 1)
P z
nP − n z

1º Fazer K = p(s);
8. Determinar o ponto de saída (se existir)
sobre o eixo real. dp(s)
2º Determinar as raízes de = 0.
ds

9. Utilizando o critério de Routh-Hurwirtz,


Ver critério de estabilidade de
determinar o ponto no qual o eixo
Routh-Hurwirtz.
imaginário é cruzado (se isso ocorrer).

Ângulo de Partida = 180° - (∑θi) + (∑φj)


10. Usando a condição de ângulo, determinar o
ângulo de partida para os pólos complexos e Ângulo de Chegada = 180° - (∑φi) + (∑θj)
o ângulo de chegada para os zeros onde:
complexos. θi = ângulos de vetores partindo dos
demais pólos até o pólo em questão.
∠ P(s) = 180 o ± q360 o em s = pj ou zi. φj = ângulos de vetores partindo dos
demais zeros até o pólo em questão

6 Sistemas de Controle
• Exemplo 1: Sistema com 2 pólos e 1 zero reais

Considere o seguinte sistema:

R(s) + s+2 C(s)


K K (s + 2)
s(s+4) 1 + G(s)H(s) = 1 +
- s 2 + 4s

1. Escrever o polinômio característico do K (s + 2)


modo que o parâmetro de interesse (K) 1 + G(s)H(s) = 1 + = 1 + KP(s)
apareça claramente: s 2 + 4s

K (s + 2)
1 + G(s)H(s) = ⇒
2. Fatorar o polinômio P(s) em termos dos nP s 2 + 4s
pólos e nZ zeros. (s + 2)
⇒ P(s) = (forma fatorada )
s(s + 4)

Lugar Geométrico das Raízes


(LGR) Im
0.2
3. Assinalar os pólos e zeros de malha aberta
no plano s com os símbolos
0.1
correspondentes:

Re
-5 -4 -3 -2 -1 0
X = Pólos e O = Zeros.
O LGR começa nos pólos e termina nos -0.1
zeros.

-0.2

Lugar Geométrico das Raízes


(LGR) Im
0.2
Total de
4. Assinalar os segmentos do eixo real que 2 pólos e zeros
0.1
são LGR. (nº Par)

Re
-5 -4 -3 -2 -1 0
O LGR se situa à esquerda de um número
ímpar de pólos e zeros. Total de -0.1
Total de
3 pólos e zeros
1 pólos e zeros
(nº Impar)
(nº Impar) -0.2

Sistemas de Controle 7
• Exemplo 2: Sistema com 4 pólos e 1 zero reais

Considere agora o seguinte sistema:

R(s) + K C(s)
(s+2)(s+4)
- K (s + 1)
1 + G(s)H(s) = 1 +
(s+1) s + 10 s 3 + 32 s 2 + 32 s
4

s(s+4)

1. Escrever o polinômio característico do s +1


modo que o parâmetro de interesse (K) 1 + KP(s) = 1 + K
apareça claramente: s + 10 s + 32 s 2 + 32 s
4 3

2. Fatorar o polinômio P(s) em termos dos (s + 1)


P(s) =
nP pólos e nZ zeros. s(s + 2)(s + 4) 2

Im
5
3. Assinalar os pólos e zeros de malha Pólo com
aberta no plano s com os símbolos multiplicidade 2
correspondentes:
Re
-5 -4 -3 -2 -1 0
X = Pólos e O = Zeros.
O LGR começa nos pólos e termina nos
zeros.
-5

Im
Trecho entre 5
2 pólos Total de
Pólo com 2 pólos e zeros
4. Assinalar os segmentos do eixo real que (nº Par)
são LGR. multiplicidade 2
Re
-5 -4 -3 -2 -1 0
O LGR se situa à esquerda de um número Total de
ímpar de pólos e zeros. 3 pólos e zeros
(nº Impar) Total de
1 pólos e zeros
(nº Impar) -5

5. Determinar o nº de lugares separados,


LS = nP = 4
LS = nP, quando np ≥ nZ;

6. LGR é simétrico em relação ao eixo real .

8 Sistemas de Controle
7. (nP - nZ) seguimentos de um LGR
prosseguem em direção aos zeros
infinitos ao longo de assíntotas
Im
centralizadas em σA e com ângulos φA. 5

σA =
∑ (− p j ) − ∑ (− z i ) 180º

nP − nz

φA =
(2q + 1) 180 o , q = 0,1,2,..., (n − n z − 1)
60º
Re
P
nP − nz -5 -4 σA= -3 -2 -1 0

(−2) + 2(−4) − (−1) − 9 300º


σA = = = −3
4 −1 3
φA =
(2q + 1)180 o φ A = 60 o ; q = 0
 -5
4 −1 ⇒ φ A = 180 o ; q = 1

(n P − n z − 1) = 2 φ A = 300 ; q = 2
o

8. Determinar o ponto de saída (se existir)


sobre o eixo real.

1º Fazer K = p(s);
Im
dp(s) 5
2º Determinar as raízes de = 0.
ds dp(s) = 0 ⇒ s = -2,5994
ds
s +1 (Pto. de saída sobre Re)
1 + KP(s) = 1 + K ⇒
s + 10 s + 32 s 2 + 32 s
4 3

Re
s 4 + 10 s 3 + 32 s 2 + 32 s
⇒ p(s) = K = − ⇒ -5 -4 -3 -2 -1 0
s +1
dp(s) 3s 4 + 24 s 3 + 62 s 2 + 64 s + 32
⇒ =−
ds (s + 1)2
logo:
-5
dp(s)
= 0 ⇒ s = −2,5994
ds

Sistemas de Controle 9
• Exemplo 3: Sistema com 2 pólos reais e 2 pólos complexos

Ex.: Considere agora o seguinte sistema:

R(s) + K C(s)
2
- s ( s + 8s + 32 ) K
1 + G(s)H(s) = 1 +
1 s + 12 s + 64 s 2 + 128 s
4 3

(s+4)

1. Escrever o polinômio característico do 1


modo que o parâmetro de interesse (K) 1 + KP(s) = 1 + K
apareça claramente: s + 12 s + 64 s 2 + 128 s
4 3

2. Fatorar o polinômio P(s) em termos dos 1


P(s) =
nP pólos e nZ zeros. s(s + 4)(s + 4 + 4i )(s + 4 − 4i )

10

3. Assinalar os pólos e zeros de malha


aberta no plano s com os símbolos 5
correspondentes:

-10 -8 -6 -4 -2 0 2
X = Pólos e O = Zeros.
O LGR começa nos pólos e termina nos -5
zeros.
-10

Im 10
Total de
2 pólos e zeros
4. Assinalar os segmentos do eixo real que (nº Par) 5
são LGR.
Re
-10 -8 -6 -4 -2 0 2

O LGR se situa à esquerda de um número


-5
ímpar de pólos e zeros. Total de
1 pólos e zeros
(nº Impar) -10

5. Determinar o nº de lugares separados, LS = nP = 4

6. LGR é simétrico em relação ao eixo real .

10 Sistemas de Controle
7. (nP - nZ) seguimentos de um LGR
prosseguem em direção aos zeros
infinitos ao longo de assíntotas 10
centralizadas em σA e com ângulos φA. 135º

(0) + (−4) + (−4) + (−4) − 12 5


σA = = = −3
4 4 45º
225º
-10 -8 -6 -4 -3 -2 0 2
φA =
(2q + 1)180 o φ A = 45 o ; q = 0 ||
315º
4 φ A = 135 o ; q = 1 σA -5
⇒
φ A = 225 ; q = 2
o

(n P − n z − 1) = 3 φ = 315 o ; q = 3
 A -10

8. Determinar o ponto de saída (se existir)


sobre o eixo real.

1º Fazer K = p(s); (-1,5767; 83,5704) p(s)


dp(s) 80
2º Determinar as raízes de = 0.
ds
60
1
1 + KP(s) = 1 + K 4 ⇒
s + 12 s + 64 s 2 + 128 s
3
40
⇒ p(s) = K = −s 4 + 12 s 3 + 64 s 2 + 128 s ⇒
dp(s)
⇒ = −4 s 3 − 36 s 2 − 128 s - 128 20
ds
logo:
dp(s) -4 -3 -2 -1 0 s
= 0 ⇒ s = −1,5767
ds

9. Utilizando o critério de Routh-Hurwirtz, s4 1 64 K


determinar o ponto no qual o eixo real é s3 12 128
cruzado (se isso ocorrer). s2 b1 K
s1 c1
O polinômio característico é: s0 K

s 4 + 12 s 3 + 64 s 2 + 128 s + K = 0 12(64) − 128


b1 = = 53,3333
12
A partir do critério de Routh-Hurwirtz,
determinamos o polinômio auxiliar: b1 (128) − 12(K )
c1 = = 128 − 0,2250K
b1
53,3334 s 2 + 568,8889 = 0
Logo, o limite de ganho para estabilidade é:
cujo as raízes determinam os pontos onde o
LGR cruza o eixo imaginário. 128
K= = 568,8889
0,2250
s1,2 = ± 3,2660 i

Sistemas de Controle 11
10. Usando a condição de ângulo, determinar Im 10
o ângulo de partida para os pólos
θ1 = 225º
complexos e o ângulo de chegada para os
5
zeros complexos.
θ3 = 135º
90º
∠ P(s) = 180 ± q360 em s = pj ou zi.
o o Re
-10 -8 -6 -4 -2 0 2
Logo: 90º
-5
Por simetria
θ1 = 180 − (90 + 90 + 135 ) = 225
o o o o o

-10

dp(s) = 0 ⇒ s = -1,5767 10 10
ds
(Pto. de saída sobre Re)
5 5

±3,2660 i
0 -10 -8 -6 -4 -2 0 2
-10 -8 -6 -4 -2 2

-5 -5

-10
-10

2.3 LGR para Funções de Transferência Típicas

G(s) LGR

Im

K
1.
s τ1 + 1 Re
- τ1
1

12 Sistemas de Controle
Im

K
2.
(s τ1 + 1)(s τ 2 + 1) Re
- τ1 - τ1
1 2

Im

K
3.
(s τ1 + 1)(s τ 2 + 1)(s τ 3 + 1) - τ1 - τ1 - τ1 Re
3 2 1

Im

K
4.
s Re

Im

K
5.
s(s τ1 + 1) Re
- τ1
1

Sistemas de Controle 13
Im

K
6.
s(s τ1 + 1)(s τ 2 + 1) - τ1 - τ1 Re
2 1

Im

K(s τ a + 1)
7.
s(s τ 1 + 1)(s τ 2 + 1) - τ1 - τ1 - τ1 Re
2 a 1

Im
Pólo com
multiplicidade 2

K
8.
s2 Re

Im
Pólo com
multiplicidade 2

K
9.
s (s τ1 + 1)
2
Re
- τ1
1

14 Sistemas de Controle
Im

K(s τ a + 1)
10. ; τ a > τ1
s 2 (s τ1 + 1) - τ1 Re
- τ1 a
1

Im
Pólo com
multiplicidade 3

K
11.
s3 Re

Im
Pólo com
multiplicidade 3

K(s τ a + 1)
12.
s3 - τ1 Re
a

Im

Pólo com
multiplicidade 3
K(s τ a + 1)(s τ b + 1)
13.
s3 - τ1 - 1 Re
b τa

Sistemas de Controle 15
Im
Pólo com
multiplicidade 2

K(s τ a + 1)
14.
s (s τ 1 + 1)(s τ 2 + 1)
2
- τ1 - τ1 - τ1 Re
2 1 a

Im

K(s τ a + 1)(s τ b + 1)
15.
s(s τ 1 + 1)(s τ 2 + 1)(s τ 3 + 1)(s τ 4 + 1) Re

2.4 Localizando Raízes no LGR

Um ponto qualquer no plano s pertence ao LGR de um sistema, ou seja, é raiz deste


sistema, se forem satisfeitos os critérios de módulo e ângulo de fase (eqs. ( 2.1 ) e ( 2.2 )).
Desta forma, uma vez traçado o LGR, é possível, através de dois passos adicionais, verificar
se um ponto qualquer no plano s pertence ao LGR de um dado sistema.

∠P(s) s = s = 180° ± q360° ⇒


i

11. Determinar a localização das raízes que  


satisfazem o critério do ângulo de fase.  ∑θ i − ∑ φ j  = 180° ± q360°
n 
 p n z  s = si

nP

∏ (s + p )
j =1
j

12. Determinar o valor do parâmetro K na raiz si. KP(s) s =s = 1 ⇒ K i = nZ

∏ (s + z )
i

k
k =1 s =s i

16 Sistemas de Controle
• Exemplo: Teste de localização de raízes para um sistema de segunda ordem

Considere o seguinte sistema de segunda ordem:

R(s) + K C(s)
K
s(s+4) 1 + GH(s) = 1 + = s 2 + 4s + K
- s(s + 4 )

Dado um ponto s1 no plano s, é possível verificar se ele pertence ao LGR do sistema em


questão através do critério do ângulo de fase:

11. Determinar a localização das raízes que K


satisfazem o critério do ângulo de fase. ∠ = - ∠ s i - ∠ (s i + 4 ) =
s(s + 4) s =si
∠ P(s) s =s = 180 o ± q360 o
i
[( ) ]
= − 180 o − θ + θ = −180 o

nP

12. Determinar o valor do parâmetro K na raiz si.


∏ (s + p ) j

⇒ K i = s i (s i + 4)
j =1
Ki = nZ
nP
∏ (s + z )
∏ (s + p )
k
j k =1 s =s i
j =1
Ki = nZ

∏ (s + z )
k =1
k
onde: |si| é a magnitude do vetor que vai
da origem até si.
s =s i
|(si + 4)| é a magnitude do vetor
que vai de -4 até si.

Im

Re

Sistemas de Controle 17
2.5 Exercícios

1. Traçar o LGR para os seguintes sistemas (com K>0), e, testar se o ponto dado
pertence ao LGR do sistema:

K
a) G(s)H(s) = ; s i = -1,0066 + 3,9950i .
s(s + 6s + 25)
2

K
b) G(s) = ; H(s) = 1 ; s i = -0,3337 − 0,5780i .
s(s + 1)(s + 2)

K(s + 2)
c) G(s)H(s) = ; s i = -0,7660 + 0,2995i .
s 2 + 2s + 3

1 1
d) G(s) = ; H(s) = ; s i = -0,4968 + 1,3290i .
s + 4s + 5
2
s

1 1
e) G(s) = ; H(s) = ; s i = 2,5509 - 4,1649i .
(
s s + 4s + 13
2
) s +1

1 s +1
f) G(s) = ; H(s) = 2 ; s i = -0,2968 + 4,3290i .
s + 3,6 s

2. Dadas as seguintes funções de transferência de malha fechada. Considerando que


estes sistemas têm realimentação unitária, traçar o LGR, e, testar se o ponto dado pertence ao
LGR:

C(s) s2 +1
a) = 2 ; s i = -0,5000 + 0,5000i .
R(s) 2s + 2s + 1)

C(s) 1
b) = 4 ; s i = -1,0000 - 1,5811i .
R(s) s + 4s + 11s 2 + 14s + 11
3

18 Sistemas de Controle
3 AÇÕES DE CONTROLE BÁSICAS

3.1 Introdução

A introdução de um controlador em um determinado sistema visa a modificação de sua


dinâmica, manipulando a relação entrada/saída através da atuação sobre um ou mais dos seus
parâmetros, com o objetivo de satisfazer certas especificações com relação a sua resposta
(Ogata, 1993). Os parâmetros do sistema que sofrem uma ação direta do controlador, são
denominadas de variáveis manipuladas, enquanto que os parâmetros no qual se deseja obter
as mudanças que satisfaçam as dadas especificações, denominam-se variáveis controladas.

O controlador é um dispositivo físico, podendo ser: eletrônico, elétrico, mecânico,


pneumático, hidráulico ou combinações destes. No projeto real de um sistema de controle, o
projetista deverá decidir pela utilização de um ou mais controladores. Esta escolha depende
de vários fatores. O tipo de controlador mais comumente usado, mesmo em plantas das mais
diversas naturezas, é o controlador eletrônico. De fato, os sinais não elétricos são,
normalmente, transformados em sinais elétricos, através de transdutores, e, devido a
simplicidade de transmissão, aumento da performance, aumento da confiabilidade e
principalmente, facilidade de compensação. Geralmente controladores eletrônicos são
circuitos simples, formados basicamente por amplificadores operacionais, sendo assim de
fácil implementação prática e baixos custos (Ogata, 1993).

Uma vez determinada a necessidade de se projetar um controlador, existem algumas


configurações possíveis, com respeito ao posicionamento do mesmo no sistema a ser
controlado. Algumas das configurações mais usadas em sistemas de controle, são:

• Controladores Série

Em geral, o projeto de controladores série é mais simples que o de controladores por


realimentação. Entretanto, normalmente exige amplificadores adicionais para aumentar o
ganho do sistema. Consiste em colocar o controlador no ramo direto de alimentação, ou seja,
em série com a planta

• Controladores por Realimentação

Em geral, o número de componentes necessários na compensação por realimentação será


menor que o número de componentes na compensação série. Esta configuração recebe este
nome pois, neste caso, o compensador é inserido num ramo de realimentação.

R(s) + U(s) C(s)


R(s) + E(s) U(s) C(s) Planta
Comp. Planta -
-
Comp.

Sistemas de Controle 19
3.2 Ações Proporcional, Integral e Derivativa (P-I-D)

• Controle Proporcional (P)

A razão entre a saída e a entrada do compensador é chamada de ganho proporcional ‘K’,


quanto maior for o ganho do compensador, menor será o erro de estado estacionário ‘ess’,
contudo, o tempo de acomodação aumenta, tendendo, em certos casos, a desestabilizar o
sistema. O inverso acontece quando se reduz (atenua) o ganho. Um compensador deste tipo,
como não acrescenta pólos nem zeros ao sistema principal, representa apenas um ajuste no
seu ganho original.

u ( t ) = Ke( t ) ; U(s) = KE(s)

onde: e(t)= r(t) - y(t)

Resumo

• É um amplificador com ganho ajustável (K).

• O aumento de K diminui o erro de regime.

• Em geral, o aumento de K torna o sistema mais oscilatório, podendo instabilizá-lo.

• Melhora o regime e piora o transitório, sendo bastante limitado.

Ex:

R(s) + 1 C(s)
K
(τ s + 1 )
-

1
Para entrada degrau unitário ⇒ e ss =
1+ K

O erro será nulo somente para K → ∞, o que nem sempre é possível.

20 Sistemas de Controle
• Controlador Proporcional + Integral (PI)

A ação integral corresponde a ter-se uma taxa de variação do sinal de saída com relação a
t
entrada ( u& = k i e ⇒ u = k i ∫ e dt ). Desta forma, com uma ação integral, atua-se beneficamente
0
na resposta em regime permanente, tendendo a eliminar o erro de estado estacionário,
contudo, prejudica-se o regime transitório, pois acrescenta-se pólos ao sistema tendendo a
desestabilizá-lo, e com isso aumentar o tempo de acomodação.

A atuação de um controlador PI corresponde à soma de uma ação proporcional com uma


ação integral. Desta forma pode-se melhorar a resposta transitória com a contribuição da ação
proporcional, enquanto a ação integral corrige o erro de estado estacionário.

 1 t  (K s + Ki )
u (t ) = K p  e(t ) + ∫ e(τ )dτ 
p
; U (s) = E ( s)
 τi 0  s

Kp
onde: K i = , sendo τi o tempo integrativo ou reset time.
τi

Resumo

• Tende a zerar o erro de regime, pois aumenta o tipo do sistema.

• Adiciona um pólo em p = 0 e um zero em z = - Ki/Kp.

• É utilizado quando a resposta transitória é aceitável e resposta em regime


insatisfatória.

• Como aumenta a ordem do sistema, acrescenta possibilidades de instabilidade


diferentes daquelas apresentadas pelo sistema original.

Ex:

R(s) + Κi 1 C(s)
Kp + s (τ s + 1 )
-

1
Para entrada degrau unitário ⇒ e ss = =0
1+ ∞

Sistemas de Controle 21
• Controlador Proporcional + Derivativo (PD)

Embora um controlador puramente derivativo não seja implementável na prática, a ação


derivativa, associada à ação proporcional, corresponde ao acréscimo de um zero ao sistema,
atuando beneficamente no regime transitório, tendendo a aumentar a estabilidade relativa do
sistema e reduzindo o tempo de acomodação, contudo, contrapondo-se a estas vantagens, ele
aumenta o tempo de subida e, por não atuar no regime permanente, não corrige o erro de
estado estacionário.

Obs.: Este compensador, por introduzir um avanço de fase, é considerado na bibliografia


como um caso particular de um compensador em avanço. (Ogata, 1993 e Kuo, 1995)

U(s) = (K p + K d s )E(s)
 d
u (t ) = K p  e(t ) + τ d e(t ) ;
 dt 

onde: Kd = Kpτ d, sendo τ d a constante derivativa.

Resumo

• Leva em conta a taxa de variação do erro

• Adiciona um zero em z = - Kp/Kd

• É utilizado quando a resposta em regime é aceitável e resposta transitória


insatisfatória.

• Introduz um efeito de antecipação no sistema, fazendo com que o mesmo reaja não
somente à magnitude do sinal de erro, como também à sua tendência para o instante
futuro, iniciando, assim, uma ação corretiva mais cedo.

• A ação derivativa tem a desvantagem de amplificar os sinais de ruído, o que pode


causar um efeito de saturação nos atuadores do sistema.

Ex:

R(s) + 1 C(s)
Kp + Kd s
2
- Js

C(s) (K p + K d s)
= 2
R (s) Js + K d s + K p

22 Sistemas de Controle
• Controlador Proporcional + Integral + Derivativo (PID)

O PID une as ações proporcional, integral e derivativa num só controlador, atuando tanto
no regime transitório quanto no regime permanente.

U(s) K d s + K p s + K i
2
 K 
U(s) =  K p + i + K d s E(s) ⇒ =
 s  E(s) s

Resumo

• É utilizado quando temos resposta transitória e em regime insatisfatórias.

• Adiciona um pólo em p = 0 e 2 zeros, que dependem dos parâmetros do controlador.

• Geralmente os dois zeros são reais e iguais.

3.3 Ações de Controle Avanço-Atraso

• Controlador Avanço de Fase (Lead)

Sua principal finalidade é suprir um atraso de fase estabelecido naturalmente pelas


próprias características de alguns componentes do sistema original. Este tipo de compensação
permite remodelar o lugar das raízes de maneira a obterem-se pólos dominantes desejados em
malha fechada. Em geral seus efeitos correspondem a um aumento no amortecimento, com
menores tempo de subida e de acomodação, o que corresponde, no domínio da freqüência, a
um aumento na largura de faixa. Além disso, as margens de ganho e de fase são melhoradas,
contudo o erro de estado estacionário não é afetado.

U(s) K(s + z) Kz (s / z + 1)
G c (s) = = = p>z
E(s) (s + p) p (s / p + 1)

τs +1 1 1
G c (s) = K c , em que: z = ; p= ; K c = Kα ; 0 < α < 1
ατ s + 1 τ ατ

Resumo

• Introduz um zero e um pólo

• Melhora o transitório, a exemplo do controlador PD

• Sempre adianta a fase

Sistemas de Controle 23
• Controlador Atraso de Fase(Lag)

Uma compensação em atraso melhora o erro em regime permanente, no entanto, diminui


a largura de faixa, o que implica, em termos de domínio do tempo, numa resposta mais lenta,
com maiores tempos de subida e acomodação. Em alguns casos é preciso reduzir a largura de
faixa de um dado sistema com o intuito de torná-lo menos susceptível a sinais de ruído

U(s) K(s + z) Kz (s / z + 1)
G c (s) = = = z>p
E(s) (s + p) p (s / p + 1)

τs +1 1 1
G c (s) = K c , em que: z = ; p= ; K c = Kβ ; β >1
βτ s + 1 τ βτ

Resumo

• Introduz um zero e um pólo

• Melhora o regime, a exemplo do controlador PI

• Sempre atrasa a fase

• Não zera o erro, mas o reduz bastante

• Controlador Avanço-Atraso de Fase(Lead-Lag)

Em casos onde se deseja uma resposta rápida, característica de sistema com


compensação em avanço, porém com diminuição do erro em regime estacionário, que é
garantida por uma compensação em atraso, é possível usar um controlador que una ambas as
características, que é o caso do controlador em avanço–atraso.

U(s) K (s + z 1 )(s + z 2 )
G c (s) = =
E(s) (s + p1 )(s + p 2 )

τ 1s + 1 τ 2s + 1 1 1
G c (s) = K c ; em que: < ; K c >0 ; β >1 ; 0 < α < 1
ατ1s + 1 βτ 2s + 1 τ 2 τ1

Características

• Introduz dois zeros e dois pólos

• É usado para melhorar o desempenho em regime e o transitório

• É análogo ao controlador PID

24 Sistemas de Controle
3.4 Modificações das Ações de Controle PID

• PID Original

• Parte Derivativa -Filtro

Td s
, com: γ ≈ 0.1
1 + γTd s

• PI-D

Objetivo: Não derivar variações bruscas no sinal de referência

• I-PD

Objetivo: Não derivar, nem amplificar variações bruscas no sinal de referência.

Sistemas de Controle 25
3.5 Exercícios

1. Dados os seguintes sistemas e seus respectivos controladores, traçar o LGR do


sistema sem o controlador, e, testar se o ponto dado pertence ao LGR do sistema. Em seguida
traçar o LGR com sistema em série com o controlador e testar se agora o ponto pertence ao
LGR:

1 1
a) G(s) = ; H(s) = 2 ; s i = -0,2968 + 4,3290i ,
s + 3,6 s

Controlador PD com Kp = 0,4 e Kd = 1.

26 Sistemas de Controle
4 PROJETO DE CONTROLADORES PELO MÉTODO DO LGR

4.1 Especificações de Desempenho

Normalmente, as especificações de desempenho transitório são dadas em termos de


sistemas de 2a ordem, ou seja, em termos de fator de amortecimento (ξ) e freqüência natural.

Para um sistema de segunda ordem, temos:

C(s) ω2n
= 2 2 ; Pólos ⇒
s = −ξωn ± ωn ξ 2 − 1 ( 4.1 )
R (s) s + 2ξωn s + ωn

Se as especificações forem: M p (%) ≤ M e t s ≤ T , temos ξ ≥ ξ min e ξω n ≥ (ξω n )min .

Im
-1
θ = cos ξ
min

θ
Re

( ξω )
n min

Região Viável para os pólos de malha fechada

O projeto de controladores é basicamente um método educado de tentativa-e-erro, onde


se tenta satisfazer todas as especificações de desempenho. Uma vez projetado o controlador, o
projetista deve verificar se o sistema em malha fechada satisfaz todas as especificações de
desempenho. Se não for este o caso, repete o processo de projeto por modificação de
parâmetros ajustáveis, ou modifica a configuração do sistema, até atingir as especificações
requeridas.

Quando desejamos alterar o desempenho transitório de um sistema, o controlador deve


contribuir com singularidades de modo que o LGR do sistema passe no ponto especificado,
calculado a partir das especificações de desempenho. Quando desejamos alterar o
desempenho em regime, o controlador deve contribuir com o ganho necessário, sem alterar
muito o LGR do sistema original.

Sistemas de Controle 27
4.2 Projeto de Controladores PD

A função de transferência de um PD é:

 Kp 
G c (s) = K p + K d s = K d  s +  = K c (s + z) ( 4.2 )
 K d 

É utilizado quando o sistema tem um transitório insatisfatório e regime bom.

• Passos para o projeto de controladores PD

1) Traduzir as especificações de desempenho em termos de uma localização desejada dos


pólos dominantes de malha fechada

2) Verificar se o objetivo não pode ser atingido com um controlador Proporcional

3) Se o PD é necessário, localizar o zero de modo que a condição de ângulo seja


satisfeita

4) Calcular o ganho total requerido, aplicando a condição de módulo.

5) Calcular a constante de erro estacionário

6) Se a constante não for adequada, tentar um outro controlador.

7) Simular o sistema com o controlador e observar o comportamento da resposta. Caso


não seja satisfatório, tentar um ajuste fino dos parâmetros do controlador (Kc e z)

K ds
OBS: PD prático ⇒ G c (s) = K p + 3 ≤ a ≤ 10
 s
1 + 
 a

EXEMPLO:

R(s) + 2 C(s)
Gc(s)
s2
-

Projetar um controlador Gc(s) para que: t s ≤ 4s ; M p ≤ 20% .

ζπ

1−ζ 2
Da equação do máximo pico: M P = e = 20% , obtemos: ζ min = 0,46 ; e da equação
4
do tempo de acomodação (para 2%): t s = = 4 ; obtemos: (ζω n )min = 1 .
ζω n

28 Sistemas de Controle
Sendo ainda: ω d = ω n 1 − ζ 2 , para os valores de ζ e ωn encontrados, temos: ω d = 1,95 .

Logo os pólos dominantes de malha fechada devem estar em -1 ± 1,95i.

Como é imprescindível a introdução de um controlador PD para a obtenção dos pólos


dominantes desejados, determinam-se o zero e o ganho do controlador utilizando-se o critério
de ângulo e o critério do módulo, respectivamente.

 
ωd 
θ = θ1 = θ 2 = 180 − ATAN  = 117,13°

 (ζω n )min
  z = − ωd
+ (ζω n )min
  tan (180 − φ )
 ωd   
φ = 180 − ATAN 
 ⇒ ⇓ ;
 (ζω n )min − z    z = 2,41
− θ 1 − θ 2 + φ = −180 ⇒ φ = 2θ − 180 = 54,25°  
 

Kt =
(ω 2
d + 12 )
2

=2
ω + ( z − 1)
2
d
2

Como o sistema originalmente já tem um ganho K = 2,0 , temos que: K c = K t K = 1,0

Resposta no Tempo
2

1.8
Sem Controlador

1.6

1.4 M P = 31.87%

1.2
Resposta

Com Controlador
1

0.8 t s = 3.64seg.

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

A simulação mostra que a especificação de desempenho com relação ao máximo sobre-


sinal não foi cumprida, sendo necessário realizar um ajuste fino nos parâmetros do
controlador. Neste caso, usar um ganho K c ≥ 2,5 resolve esse problema.

Sistemas de Controle 29
4.3 Projeto de Controladores PI

A função de transferência de um PI é:

K i sK p + K i s + K i / K p K c (s + z)
Gc ( s ) = K p + = = Kp = ( 4.3 )
s s s s

É usado quando o sistema é Tipo N e se deseja que o mesmo apresente erro zero para
uma entrada de complexidade N, ou seja, quando desejamos melhorar o regime.

• Passos para o projeto de controladores PI

1) Localizar o pólo na origem;

2) Determinar o zero de modo que a condição de ângulo seja satisfeita;

3) Calcular o ganho total requerido, aplicando a condição de módulo;

4) Simular o sistema em malha fechada com o controlador

5) Caso o desempenho não seja satisfatório, tentar fazer um ajuste fino dos parâmetros do
controlador (Kc e z)

2
EXEMPLO: Dado G ( s) = ; H(s) =1 . Projetar um controlador para que o sistema
s ( s + 2)
tenha erro zero para entrada rampa, alterando o mínimo possível o transitório.

Resposta `a Rampa
10

9
Com Controlador
8

6
Sem Controlador
Resposta

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

30 Sistemas de Controle
Resposta no Tempo
1.4

1.2
M P = 4.32%

0.8 t s = 4.36seg.
Resposta

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Testa-se valores para o módulo do zero do controlador tão pequenos quanto possível. As
respostas apresentadas, foram obtidas com K c = 1 e z = 0,25 . Quanto menor for o valor de z,
menos o transitório será alterado, porém, o seguimento da referência se dará mais lentamente.

Resposta `a Rampa
10
Referencia
9 Sem Controlador
z = 0.10
8 z = 0.25
z = 0.50
7

6
Resposta

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Sistemas de Controle 31
4.4 Projeto de Controladores PID

São muito freqüentemente utilizados em sistemas de controle industriais. De uma


maneira geral, a função de transferência de um PID, considerando zeros reais é da seguinte
forma:

Ki s 2 K d + sK p + K i ( s + z1 )( s + z 2 )
Gc ( s ) = K p + + Kd s = = Kc ( 4.4 )
s s s

• Passos para o projeto de controladores PID

1) Traduzir as especificações de desempenho em termos de uma localização desejada de


pólos dominantes de malha fechada;

2) Verificar se o objetivo não pode ser atingido com um controlador mais simples;

3) Se o PID é necessário, localizar o pólo na origem e os zeros de modo que a condição


de ângulo seja satisfeita;

4) Calcular o ganho total requerido, aplicando a condição de módulo;

5) Simular o sistema com o controlador e observar o comportamento da resposta. Caso


não seja satisfatório, tentar um ajuste fino dos parâmetros do controlador (Kc , z1 e z2).

1
EXEMPLO: Dado o sistema G ( s ) = ; H(s). Projetar um controlador PID para que
s +1 2

os pólos de malha fechada estejam em s = −1 ± 3 i

Uma rápida análise do problema nos mostra que o número de parâmetros (Kc , z1 e z2)
que precisam ser calculados é maior do que o número de equações que descrevem o problema
(critério de ângulo e critério de módulo). Uma alternativa para contornar este problema é
considerar que os zeros do controlador são idênticos.

Neste caso, tem-se:

 3  
φ = φ1 = φ 2 = 180 − ATAN  

1− z  
θ1 = 180 − ATAN ( ) 
3 − 1 = 143,79°  φ = 96,95° ⇒
= 180 − ATAN( )  3
θ2 3 + 1 = 110,10° ⇒ z1 = z 2 = − +1 ⇒
tan (180 − φ )
= 180 − ATAN( )

θ3 3 = 120,00° 
− θ1 − θ 2 − θ 3 + 2φ = −180  ⇒ z1 = z 2 = 0,79



 ( )
2 
3 − 1 + 12  ( )
2 
3 + 1 + 12  ( 3)
2 
+ 12 
Kc =     = 2,37

( 3)
2
 
+ (1 − z )
2 2
 
 

32 Sistemas de Controle
Resposta no Tempo
1.4

1.2 M P = 13.96%
Com Controlador
1

0.8 t s = 7.65seg.
Resposta

0.6 Sem Controlador

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

4.4.1 Regras de Zigler-Nichols para o Ajuste dos Parâmetros do PID


Conforme apresentado anteriormente, o problema de controle consiste em determinar
uma forma, normalmente, mediante o projeto de controladores, de afetar um dado sistema
físico de modo a satisfazer certas especificações de desempenho.

Também sabemos que, apesar de todo o avanço tecnológico dos últimos anos, com o
surgimento de soluções avançadas, tanto em termos de algoritmos de controle quanto de
hardware, os controladores PID, e suas variações, ainda são, com larga vantagem, os mais
usados na indústria. Os argumentos, para essa massiva predominância do PID, vão desde a
simplicidade, à facilidade de implementação e manutenção. A maioria desses argumentos se
justifica pelo número reduzido de parâmetros sintonizáveis existentes nos PIDs. Embora,
algumas versões de PIDs, trazidas em CLPs e instrumentos de redes industriais, apresentem
um número elevado de parâmetros a serem ajustados, a estrutura básica de um PID contém
apenas três parâmetros: O ganho proporcional – kP, a constante de tempo integrativo τi (ou o
ganho integrativo ki), e, a constante de tempo derivativo τd (ou o ganho derivativo kd).

O ajuste dos parâmetros de um controlador é chamado de sintonia (tuning). Quando se


tem um modelo matemático, representativo, do sistema, a escolha dos parâmetros do
controlador recai no desenvolvimento de um projeto, que pode ser feito com base mo método
do lugar geométrico das raízes, dentre outros. Como, nem sempre é possível se obter um
modelo, que represente, adequadamente, a dinâmica que se deseja controlar, se fez necessário
o surgimento de técnicas, que não dependessem de modelo, para sintonia do controlador.
Zigler e Nichols propuseram dois métodos para sintonia de controladores PID baseadas em
experimentação e, conseqüentemente, independentes da existência de um modelo matemático
do sistema. Ambas visam, basicamente, a obtenção de 25% de sobre-sinal máximo, na
resposta ao degrau.

Sistemas de Controle 33
• Primeiro Método de Ziegler-Nichols

Plantas que não envolvam integrador(es), ou, pólos complexos conjugados dominantes,
tendem a apresentar uma curva de resposta ao degrau em forma de S.

y
Reta tangente no
ponto de inflexão
K

Tempo

L T

Este tipo de curva pode ser caracterizado por duas constantes: tempo de retardo (L) e
constante de tempo (T). Essas constantes são determinadas traçando-se uma reta, tangente ao
ponto de inflexão da curva de resposta, e encontrando-se os pontos de interseção dessa reta
com o eixo dos tempos e com uma reta dada por y(t) = K. Uma vez determinadas estas
constantes, elas são usadas para determinação dos parâmetros do controlador, de acordo com
a seguinte tabela:

Tipo de
KP τi τd
Controlador

T
P ∞ 0
L

T L
PI 0,9 0
L 0,3

T L
PID 1,2 2L
L 2

EXEMPLO: Considere uma planta com modelo matemático desconhecido. Uma entrada,
tipo degrau unitário foi imposta a essa planta e amostras, de sua saída, foram colhidas,
experimentalmente, a cada 0,1 segundos. O resultado desse ensaio pode ser visto na curva de
resposta apresentada na figura a seguir.

34 Sistemas de Controle
Resposta ao Degrau

1 Referencia
Resposta
0.9

0.8

0.7

0.6
Amplitude

0.5

0.4

0.3

0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Utilizando-se métodos numéricos (Diferenciação Numérica por Diferenças Finitas


Centrais) determinou-se que o ponto de inflexão da curva ocorre aos 0,7 segundos, com
amplitude de 0,1270. Determinou-se, então, tomando um ponto anterior e um ponto posterior
a este, a reta tangente ao ponto de inflexão (y = 0,2495t – 0,0477).

Resposta ao Degrau: L = 0.19104 e T = 2.0041


0.5

0.45

0.4

0.35

0.3
Amplitude

0.25

0.2

0.15

0.1

0.05

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Uma vez determinada a reta tangente, determinou-se: L ≈ 0,2 e T ≈ 2,0.

Sistemas de Controle 35
De posse desses valores, fazendo-se uma breve consulta à tabela proposta por Ziegler e
Nichols, tem-se os seguintes parâmetros para um controlador PID: kP = 12,5886, τi = 0,3821 e
τd = 0,0955. Com esta sintonia, a planta com o controlador apresentaram a seguinte resposta:
Resposta ao Degrau: Kp = 12,5886, Ti = 0,3821 e Td = 0,0955
1.8
M P = 66.19%
1.6

1.4

1.2

1
Resposta

0.8 t s = 5seg.

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Os métodos de Ziegler-Nichols fornecem uma estimativa inicial para os parâmetros do


controlador. Caso a resposta do sistema controlado não seja satisfatória, com os parâmetros
fornecidos pelo método de Ziegler-Nichols, o projetista deverá determinar alterações nestes
parâmetros para as quais o sistema funcione satisfatoriamente.
Resposta ao Degrau: Kp = 8,57, Ti = 1,40 e Td = 0,35
1.4

M P = 17.81%
1.2

0.8 t s = 3.9seg.
Resposta

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

36 Sistemas de Controle
• Segundo Método de Ziegler-Nichols

Este método consiste em determinar o valor de ganho proporcional, que torna o sistema
marginalmete estável, com sua saída apresentando oscilações mantidas. Esse valor de ganho é
chamado de ganho crítico, Kcr.

Pcr

Tempo

Como os métodos de Ziegler e Nichols são, essencialmente, experimentais, aplicados a


sistemas para os quais não se dispõe de modelos matemáticos, a obtenção, na prática, do
ganho crítico, consiste em, uma vez implementado um controlador PID, ele é configurado
para funcionar como um controlador P (τi = ∞ e τd = 0). O ganho proporcional é aumentado
até que a saída do sistema apresente oscilações mantidas. Tal valor de ganho será o ganho
crítico, Kcr, e o período de tais oscilações será chamado de período crítico, Pcr. Uma vez
determinadas estas constantes, elas são usadas para determinação dos parâmetros do
controlador, de acordo com a seguinte tabela:

Tipo de
KP τi τd
Controlador

P 0,5 K cr ∞ 0

0,5Pcr
PI 0,45 K cr 0
1,2

PID 0,6 K cr 0,5Pcr 0,125Pcr

Os métodos de Ziegler-Nichols, para determinação dos parâmetros de controladores


PIDs, têm sido amplamente utilizados e sua importância é indiscutível. Porém, é importantes
notarmos que:

1. Em sistemas cuja resposta ao degrau não tem forma de S, não é possível


aplicar o primeiro método de Ziegler-Nichols;

2. Em sistemas que não se tornam marginalmente estável para nenhum ganho,


não é possível aplicar o segundo método de Ziegler-Nichols; e,

3. Os métodos de Ziegler-Nichols fornecem, apenas, uma estimativa inicial para


os parâmetros do controlador, sendo necessário, em muitos casos, um ajuste
fino desses parâmetros, por parte do projetista.

Sistemas de Controle 37
EXEMPLO: Considere uma planta com modelo matemático desconhecido. Uma entrada,
tipo degrau unitário foi imposta a essa planta e amostras, de sua saída, foram colhidas,
experimentalmente, a cada 0,1 segundos. O resultado desse ensaio pode ser visto na curva de
resposta apresentada na figura a seguir.
Resposta ao Degrau
1
Referencia
0.9 Resposta

0.8

0.7

0.6
Amplitude

0.5

0.4

0.3

0.2

0.1

0
0 5 10 15 20 25 30 35 40 45 50
Tempo

Como a curva de resposta não tem forma de S, o primeiro método de Ziegler-Nichols não
se aplica. É introduzido um ganho ajustável na malha do sistema e, após algumas tentativas,
determina-se o ganho que faz com que o sistema tenha oscilações mantidas, Kcr = 4,00. e o
período dessas oscilações, Pcr = 6,3s.
Resposta ao Degrau com Ganho Crítico, K cr = 4

1.6 P cr = 6.3s

1.4

1.2

1
Amplitude

0.8

0.6

0.4

0.2

0
0 5 10 15 20 25 30 35 40 45 50
Tempo

38 Sistemas de Controle
De posse desses valores, fazendo-se uma breve consulta à tabela proposta por Ziegler e
Nichols, tem-se os seguintes parâmetros para um controlador PID: kP = 2,4000, τi = 3,1500 e
τd = 0,7875. Com esta sintonia, a planta, com o controlador, apresentaram a seguinte resposta:
Resposta ao Degrau: Kp = 2,40, Ti = 3,15 e Td = 0,79

M P = 26.64%

1.2

0.8 t s = 8.6seg.
Amplitude

0.6

0.4

0.2

0
0 5 10 15 20 25 30 35 40 45 50
Tempo

Sempre é possível, a partir dos valores fornecidos pelos métodos de Ziegler-Nichols,


buscar um ajuste melhor do controlador, de acordo com a experiência do projetista. Neste
caso, apenas aumentando, em 50%, o valor de kd, obtém-se a seguinte resposta:
Resposta ao Degrau

M P = 16.3%
1.2

0.8 t s = 6.8seg.
Amplitude

0.6

0.4

0.2

0
0 5 10 15 20 25 30 35 40 45 50
Tempo

Sistemas de Controle 39
4.5 Projeto de Controladores Avanço de Fase

A FT de um controlador avanço de fase é:

1
s+
Gc ( s ) = K c T = K s + z , com: 0 < α < 1
c ( 4.5 )
1 s+ p
s+
αT

É utilizado quando o sistema tem um transitório insatisfatório e regime bom.

• Passos para o projeto de controladores Avanço de Fase

1) Traduzir as especificações de desempenho em termos de uma localização desejada de


pólos dominantes de malha fechada

2) Verificar se o objetivo não pode ser atingido com um controlador Proporcional

3) Se o controlador avanço de fase é necessário, posicionar o zero do controlador em um


local adequado

4) Determinar a localização do pólo do controlador de modo que a condição de ângulo


seja satisfeita

5) Calcular o ganho total requerido, aplicando a condição de módulo

6) Calcular a constante de erro estacionário

7) Se a constante não for adequada, tentar um outro controlador, voltando ao passo 3.

8) Simular o sistema com o controlador e observar o comportamento da resposta. Caso


não seja satisfatório, tentar um ajuste fino dos parâmetros do controlador (Kc e z)

4
EXEMPLO: Dado o sistema G (s) = . Projetar um controlador Gc(s) para que
s(s + 2)
ω n = 4 rad/s sem modificar o fator de amortecimento.

Da FT de MF, temos: ω n = 2,0 e ζ = 0,5 . Logo, para as especificações dadas, os pólos


dominantes de malha fechada devem estar em -2 ± 3,4641i.

Fazendo-se uma breve análise do LGR do sistema original com relação aos pólos
desejados, verifica-se que o zero do controlador deve está à esquerda dos pólos de MA do
sistema original. Foi escolhido, empiricamente, z = 3,0 . A partir daí, aplicando o critério do
ângulo calculamos p = 5,6 e aplicando o critério do módulo obtemos que o ganho total do
sistema será: K t = 19,2 . Como o sistema originalmente já tem um ganho K = 4,0 o ganho do
controlador será: K c = K t K = 4,8 .

40 Sistemas de Controle
Resposta no Tempo
1.4

MP = 21.13%
1.2 Com Controlador
Sem Controlador

0.8 ts = 2.24seg.
Resposta

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

Sinal de Controle no Tempo


5

3
Sinal de Controle

-1
0 1 2 3 4 5 6 7 8 9 10
Tempo

Sistemas de Controle 41
4.6 Projeto de Controladores Atraso de Fase

A FT de um controlador atraso de fase é:

1
s+
Gc ( s ) =
KcT = K s + z , com β > 1
( 4.6 )
β s+ 1
c
s+ p
βT

O objetivo do controlador é melhorar o regime, sem alterar significativamente o


transitório.

Sabemos que: K v = lim sG ( s ) . Logo, com o controlador em série com a planta, temos
s →0

que: Kvcomp = lim sGc ( s )G ( s ) = lim Gc ( s ) K v


s →0 s →0

 1 
 
Kc  T K = K K
onde: Kvcomp =
β  1  v c v

 βT 
 

Aplicando a condição de módulo para o sistema com o controlador e considerando que os


pólos de malha fechada não terão grandes alterações, temos:

1
s+
Kc T G ( s ) s = 1 ⇒ K c ≅ β ⇒ Kvcomp ≅ βK v
β s+ 1 1

βT s1

Logo: 1
s+
Gc ( s ) ≅ T
( 4.7 )
1
s+
βT

• Passos para o projeto de controladores Atraso de Fase

1) Determine o ganho de malha aberta utilizando a condição de módulo

2) Calcule o coeficiente de erro particular especificado para o problema

3) Determine a quantidade de aumento no coeficiente de erro necessária para atender as


especificações

4) Determine o pólo e o zero do controlador que produz o aumento necessário, sem


alterar significativamente o LGR original (próximos entre si e próximos da origem).

5) Simular o comportamento do sistema com o controlador, voltando ao passo 4, caso


necessário

42 Sistemas de Controle
5
EXEMPLO: Dado G ( s ) = ; H(s) =1 . Projetar um controlador para que o sistema
s ( s + 2)
tenha um erro de regime para entrada rampa unitária igual a 1/20, sem alterar
significativamente o transitório.

Calculando, com relação ao sistema original, a constante de erro estacionário para uma
entrada tipo rampa, temos K V = 2,5 . Dos requisitos de projeto, temos que Kv comp = 20 . Logo,
Kvcomp ≅ βK v ⇒ β ≅ 8 . Uma boa escolha para o zero do controlador costuma ser z = 0,1 , que
corresponde a T = 10 . Com esses valores de z e β, temos que a FT do controlador é dada por:
( s + 0,1)
GC ( s ) =
( s + 0,0125)

Resposta `a Rampa
10
Referencia
Sem Controlador
Com Controlador
Resposta

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

1 1

0.5 0.5

0 0

-0.5 -0.5

-1 -1
-2 -1.5 -1 -0.5 0 -2 -1.5 -1 -0.5 0

Sistemas de Controle 43
Quanto maior for o valor de T, menor serão as alterações causados pelo controlador com
relação ao comportamento transitório do sistema original. Contudo, valores muito grandes de
T tendem a não ser implementáveis na prática.

Resposta no Tempo
1.4

1.2 M P = 20.58%

Com Controlador
1
Sem Controlador

0.8 t s = 3.84seg.
Resposta

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

4.7 Projeto de Controladores Atraso-Avanço de Fase

De uma maneira geral, a FT de um controlador atraso-avanço de fase é:

 1  1 
s+  s + 
T1 T2
Gc ( s ) = K c    ( 4.8 )
 γ  1 
s+  s + 
 T1  βT2 

É utilizado quando o transitório e o regime estão insatisfatórios.

• Passos para o projeto de controladores atraso-avanço

1) Traduzir as especificações de desempenho em termos de uma localização desejada de


pólos dominantes de malha fechada.

2) Determine a contribuição angular necessária φ para a rede em avanço

3) Determine T1 e γ através da condições de ângulo

44 Sistemas de Controle
1
s+
T1

γ
s+
T1

4) Determine Kc através da condição de módulo

1 1 1
s+ s+ s+
T1 T2 T2
Gc ( s )G ( s ) s = 1 = K c G ( s ) s ; considerando: ≅1
1 γ 1 1 1
s+ s+ s+
T1 s1
β T2 s1
βT2 s1

5) Determine β a partir das exigências de erro: Kvcomp = lim sGc ( s)G ( s) =


s →0

β β
= lim sK c G ( s ) = K c K V , e, escolha T2 de modo que a contribuição angular da parte em
s →0 γ γ
atraso esteja entre -5o e 0 o, e o módulo desta parte em s1 seja aproximadamente a unidade.

5) Simular o sistema com o controlador e observar o comportamento da resposta. Caso


não seja satisfatório, tentar um ajuste fino dos parâmetros do controlador.

4
EXEMPLO: Dado o sistema G ( s) = ; H(s). Projetar um controlador atraso-
s( s + 0.5)
avanço para que os pólos de malha fechada tenham ξ = 0.5 , ω n = 5 rad / s e para que o
sistema tenha um Kvcomp = 80 .

4
Determinando a FT de MF da planta não controlada Gmf ( s) = , é fácil notar
s + 0,5s + 4 2

que: ξ = 0,125 , ω n = 2 rad / s . Além disso podemos observar que os pólos de MF do sistema
se localizam em: s1, 2 = -0,25 ± 1,98i . De G(s) temos ainda que K v = lim sG ( s) = 8 .
s →0

Das especificações de projeto, temos que os pólos dominantes de malha fechada devem
estar em s1, 2 = -2,50 ± 4,33i .

1
s+
T1
A partir dos pólos de MF da planta não controlada, temos: = 180° .
γ
s+
T1
s = −0 , 25 +1, 98i

Sistemas de Controle 45
1
s+
T1
A partir dos pólos desejados, temos: ≅ 235° .
γ
s+
T1
s = - 2 , 50 + 4 , 33i

Logo a contribuição de fase da rede em avanço é de: φ = −180° + θ1 + θ 2 ≅ 55° .

  4,33 
θ1 = 180° − ATAN  ≅ 120°
  2,50 
onde: 
θ = 180° − ATAN 4,33 
 ≅ 115°
 1
 2,50 − 0,50 

3
s = -2,50+ 4,33i
2

-1

-2

-3
-4 -3 -2 -1 0

É fácil notar que infinitas combinações de T1 e γ podem gerar a contribuição de fase


desejada. Sendo assim, é necessário fixar, aleatoriamente, algum dos parâmetros. Neste caso,
o zero da rede em avanço pode ser posicionado em s = -0,5, acarretando em um cancelamento
matemático um dos pólos da planta. A partir daí, com a posição do zero e a contribuição de
fase, a posição do pólo é determinada como sendo aproximadamente em s = -5,0, ou seja,
T1 = 2 e γ = 10

Agora, do critério de módulo, temos:

s + 0,5 4 s ( s + 5) 25
Kc = 1 ⇒ Kc = = = 6,25
s + 5 s ( s + 0,5) s = −2 , 50 + 4 , 33i
4 s = −2 , 50 + 4 , 33i 4

A partir do erro de velocidade estático desejado Kvcomp = 80 e dos valores anteriormente


γKvcomp
calculados, temos: β = = 16
KV K c

Como qualquer valor de T2 ≥ 5 satisfaz a condição de ângulo, é assumido que T2 = 5 .


Conclui-se assim o projeto do controlador.

46 Sistemas de Controle
Resposta no Tempo
1.8

1.6 Sem Controlador

1.4
MP = 19.88%
1.2
Com Controlador
1
Resposta

0.8 ts = 1.26seg.

0.6

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

4
Sinal de Controle

-1

-2
0 1 2 3 4 5 6 7 8 9 10
Tempo

Sistemas de Controle 47
Resposta no Tempo
10

Com Controlador

Sem Controlador
Resposta

0
0 1 2 3 4 5 6 7 8 9 10
Tempo

48 Sistemas de Controle
4.8 Exercícios

1. Considere o exemplo da seção 4.2. Verifique, através de simulação, a resposta do


sistema com o controlador PD projetado: variando-se o ganho do controlador:
a. Variando-se o ganho do controlador de 1 à 5, com incremento de 0,5;
b. Variando-se o ganho do controlador de 1 à 2, com incremento de 0,1;
c. Variando-se a posição do zero do controlador de 0,1 à 3,1, com incremento de
0,5. Lembrar de recalcular o ganho;
d. Variando-se a posição do zero do controlador de 0,4 à 0,8, com incremento de
0,05. Lembrar de recalcular o ganho;

2. Para cada um dos sistemas dados a seguir, projetar o controlador indicado para
satisfazer as especificações dadas:
1
a. G ( s ) = . Projetar um PD para que em MF ξ = 0,7 ,
10000( s − 1,1772)
2

ω n = 0,5 rad / s .
820
b. G ( s) = . Projetar um controlador em atraso para que o fator
s ( s + 10)( s + 20)
de amortecimento dos pólos dominantes permaneça em ξ = 0,6 , mas, a
constante de erro de velocidade estático aumente para Kv comp = 41s −1 .

1
c. G ( s) = . Projetar um controlador em atraso-avanço para que o
s( s + 1)( s + 5)
fator de amortecimento dos pólos dominantes seja ξ = 0,5 , e, a constante de
erro de velocidade estático seja Kv comp = 50s −1 (escolher o zero da porção em
avanço de forma a cancelar o pólo da planta em s = -1).

2
3. Seja G ( s) = , verifique através de simulação a resposta do sistema com um
s + 2s + 1
2

controlador PI, com os seguintes parâmetros:


a. Kc = 1,00; z = 0.01;
b. Kc = 1,00; z = 0.05;
c. Kc = 1,00; z = 0.10;
d. Kc = 1,00; z = 0.25;
e. Kc = 1,00; z = 0.50;
f. Kc = 2,50; z = 0.25;
g. Kc = 5,00; z = 0.25;

Sistemas de Controle 49
5 APROXIMAÇÃO DISCRETA DE FUNÇÕES DE TRANSF. CONTÍNUAS

5.1 Introdução

Muitas vezes um sistema analógico de controle é substituído por um sistema de controle


digital devido às vantagens deste último sistema, particularmente no que toca à comunicação
e flexibilidade. Nestes casos, é natural pensarmos em métodos que convertem um sistema
analógico (contínuo) para um sistema digital (discreto) com características semelhantes. Um
caminho para isto é usar um curto período de amostragem e fazer algumas aproximações
discretas a partir do controlador contínuo.

H(z) ≈ G(s)

u(t) u(kT) y(kT) y(t)


A/ D Algoritmo D/A

Relógio

5.2 Aproximações por Integração Numérica

Uma função de transferência representa uma equação diferencial. Assim sendo, é natural
obter uma equação de diferenças cuja solução é a aproximação para a equação diferencial.
Existem três formas básicas de fazer esta aproximação: método Forward (ou método de
Euler), método Backward e método Tustin (ou método de trapezoidal).

Supondo que os valores dos sinais de entrada e saída de um sistema contínuo são
medidos a cada T segundos e que este período T é suficientemente pequeno, podemos obter
uma equação de diferenças que modela aproximadamente a relação entre um sinal de entrada
t
u(t) e sua integral y(t) = ∫ u(τ )dτ , ou seja:
o

Y(s) 1
G(s) = = ( 5.1 )
U(s) s

• Método de Euler ou Forward

Baseia-se na seguinte equação de diferenças, resultado do método de integração


numérica de Euler; y k = y k −1 + Tu k −1 ; ou seja:

Y(z) T
H(z) = = ( 5.2 )
U(z) z − 1

Comparando as equações ( 5.1 ) e ( 5.2 ), concluímos que nesta aproximação:

50 Sistemas de Controle
z −1
s= ( 5.3 )
T

Neste caso, podemos mostrar que o semi-plano esquerdo do plano s é mapeado para a
região mostrada na figura abaixo, a qual inclui o círculo unitário. Assim sendo, neste tipo de
aproximação é possível que um sistema contínuo estável (pólos em s no semi-plano esquerdo)
seja transformado em um sistema discreto instável (pólos em z fora do círculo unitário).
Plano s Plano z
Método Forward
Im Im

Semi-plano Esquerdo
Re Re

Círculo Unitário

• Método Backward

Baseia-se na seguinte equação de diferenças, resultado do método de integração


numérica semelhante ao de Euler; y k = y k −1 + Tu k ; ou seja,

Y(z) Tz
H(z) = = ( 5.4 )
U(z) z − 1

Comparando as equações ( 5.1 ) e ( 5.4 ), concluímos que nesta aproximação:

z −1
s= ( 5.5 )
Tz

Neste caso, podemos mostrar que o semi-plano esquerdo do plano s é mapeado para a
região mostrada na figura abaixo, a qual está contido no círculo unitário. Assim sendo, neste
tipo de aproximação, um sistema contínuo estável sempre será transformado em um sistema
discreto estável. Porém, podemos ter sistemas contínuos instáveis transformados em sistemas
discretos estáveis.
Plano s Plano z
Método Backward
Im Im

Semi-plano Esquerdo
Re Re

Círculo Unitário

Sistemas de Controle 51
• Método Trapezoidal, Tustim ou Aproximação Bilinear

Esta aproximação corresponde ao método dos trapézios para integração numérica, que
u + u k −1
corresponde à seguinte equação de diferenças; y k = y k −1 + T k ; ou seja:
2

Y(z) T (z + 1)
H(z) = = ( 5.6 )
U(z) 2 (z − 1)

Comparando as equações ( 5.1 ) e ( 5.6 ), concluímos que nesta aproximação:

2 z −1
s= ( 5.7 )
T z +1

Neste caso, podemos mostrar que o semi-plano esquerdo do plano s é transformado no


círculo unitário, como mostra a figura abaixo. Neste caso, sistemas contínuos estáveis são
transformados em sistemas discretos estáveis e sistemas contínuos instáveis são
transformados em sistemas discretos instáveis.
Plano s Plano z
Método Tustin
Im Im

Semi-plano Esquerdo
Re Re

Círculo Unitário

5.3 Invariância ao Degrau

A idéia é utilizar uma equivalência de ordem zero de sistema G(s), considerando-o


precedido por um Segurador de Ordem Zero (SOZ)

H(z) ≈ G(s)

SOZ G(s)

Desta forma, a função de transferência discreta H(z), pode ser obtida a partir de G(s),
através da seguinte equação,

 z − 1   G(s) 
H(z) =  Z ( 5.8 )
 z   s 

52 Sistemas de Controle
5.4 Exercícios

1. Fazer as aproximações Forward, Backward, Tustin e Invariante ao Degrau para:

1
a) G ( s) =
s

1
b) G ( s) =
s2

1
c) G ( s ) =
s+a

s
d) G ( s ) =
s+a

s
e) G ( s) = K
s+a

s
f) G ( s) =
(s + a )2
ωs
g) G ( s ) =
(s + a )2 + ω 2

 1 
2. Um controlador PI continuo é descrito por K 1 +  .
 τis 

a) Use a aproximação de Tustin para encontrar a representação discreta do


controlador PI;

b) Determine as relações entre os parâmetros contínuos K e τ i e seus


correspondentes discretos.

Sistemas de Controle 53
6 IMPLEMENTAÇÃO DE CONTROLADORES DIGITAIS

6.1 Introdução

O principal problema tratado neste capítulo é a implementação de algoritmos de controle


em computadores digitais. Uma vez escolhida uma lei de controle e obtida sua representação
discreta, é necessário implementá-la. Normalmente, não basta colocar a lei de controle na
forma de um código de computador, existem importantes considerações que não podem ser
desprezadas. É preciso, por exemplo, estabelecer comunicação com os sensores e atuadores e
criar interfaces homem-máquina (IHM).

Os detalhes da implementação dependem dos hardware e software usados. Supondo uma


implementação em um computador digital com relógio (RTC – Real Time Clock) e
conversores A/D e D/A, um esquema geral poderia ser representado da seguinte forma:
Computador Digital

r(t) + e(t) e(kT) u(kT) u(t) Planta y(t)


A/D Algoritmo D /A Atuadores ou
- Processo

Relógio

Sensores

A lei de controle implementada no algoritmo computacional opera em ciclos, com


duração equivalente ao período de amostragem determinado para o sistema.
Relógio

Código Computacional:
Ler dados (A/D);
Calcular variável de controle;
Escrever dados (D/A);

6.2 Pré-Filtragem e Atraso Computacional

• Pré-Filtragem

Para evitar aliasing1 é necessário usar um pré-filtro analógico, antes de amostrar os sinais
dos sensores analógicos, visando eliminar distúrbios e ruídos com freqüências superiores a
freqüência de Nyquist. A pré-filtragem é fundamentalmente importante, quando existem
componentes de alta freqüência que podem contaminar o sinal amostrado.

1
Aliasing é um fenômeno que ocorre quando o sinal amostrado contém harmônicas maiores que a metade
da freqüência de amostragem.

54 Sistemas de Controle
Em alguns casos a solução mais simples é introduzir um filtro analógico na frente do
amostrador:

Relógio

r(t) + y(t)
Filtro C(z) SOZ G(s)
-

Sensores
,

Um circuito analógico típico para um filtro de segunda ordem é:


R R
Implementação, através de
amplificador operacional, de um
2ζC filtro de segunda ordem, com
R
3 1
freqüência: ω = , e, função de
RC
- transferência dada por ( 6.1 ), onde:
3C ωB é a largura de banda selecionada
2ζ +
para o filtro.

ω2
G f (s) = 2
 s  + 2ζω  s  + ω 2 ( 6.1 )
 ω   ω 
 B   B 

Filtros de ordem superior podem ser obtidos pelo arranjo, em cascata, de vários filtros de
primeira e segunda ordem.

• Atraso Computacional

Tanto os conversores (A/D – D/A) quanto os cálculos computacionais requerem tempo,


por isso, sempre existirá atraso quando uma lei de controle for implementada
computacionalmente. Este atraso é chamado de atraso computacional, e, afeta o desempenho
global do sistema controlado.
y y
Variável de Processo

Variável de Processo

y(Tk+1) y(Tk+1)

y(Tk) y(Tk)
y(Tk-1) y(Tk-1)

Tempo Tempo

u u
u(Tk+1) u(Tk+1)
Variável de Controle

Variável de Controle

u(Tk) u(Tk)
Atraso u(Tk-1) Atraso
Computacional Computacional

Tempo Tempo
Tk-1 Tk Tk+1 Tk-1 Tk Tk+1

Sistemas de Controle 55
Existem basicamente duas possibilidades: A variável de processo medida no instante k
pode ser usada para calcular a ação de controle para o instante k+1, ou a variável de processo
medida no instante k é usada imediatamente no calculo da ação de controle, que, por sua vez,
deve ser enviada ao conversor D/A tão rápido quanto possível.

No primeiro caso, o atraso computacional é constante, o que é uma vantagem, porém é


igual ao período de amostragem, o que pode ser demasiado grande para alguns sistemas. Já no
segundo caso, o atraso normalmente será menor, porém dependerá de aspectos da
programação, e, para leis de controle não lineares poderá variar a cada ciclo.

6.3 Atuadores Não-Lineares

Grande parte dos métodos para o projeto de controladores baseia-se na teoria de sistemas
lineares, ou seja, partem do pressuposto de que o processo a ser controlado é linear. No
entanto, a maioria dos sistemas físicos reais apresentam algum tipo de não-linearidade. No
caso dos sistemas de controle, isso acontece, mas tipicamente, com os atuadores. Uma das
principais não-linearidades apresentadas por atuadores é a saturação.

Planta ou Processo
Atuador Dinâmica Linear
u(t) up(t) y(t)

Um dos principais atuadores encontrados em processos industriais são as válvulas.


Durante a abertura e fechamento as válvulas são aproximadamente lineares, porém, as
situações de totalmente aberta e totalmente fechada são exemplos típicos de não-linearidade
por saturação de atuador.

Existem, fundamentalmente, dois caminhos para lidar com essa realidade: Um é utilizar
técnicas de projeto que levem em conta as não-linearidades. Estes métodos costumam
envolver cálculos complexos, gerando assim, leis de controle também complexas. Outro
caminho é utilizar métodos heurísticos simples.

6.4 Aspectos Operacionais

Neste ponto será discutida a interface entre o sistema de controle e o operador. Isto inclui
a apresentação de dados e a alteração, por parte do operador, dos parâmetros do controlador.
Interface
Apresentação de Dados
Valores numéricos;
Gráficos;
Imágems;
Controlador

Animações ...
Operador

Ajuste de Parâmetros
Referência;
Ganhos;
Tempo integrativo;
Tempo derivativo;
Modo de operação ...

56 Sistemas de Controle
No caso do controle regulatório de processos, é comum exibir informações sobre os
valores de referência (SP – Set-point), sobre as saídas medidas (PV – Process Variable), e
sinais de controle. Além disso, a interface também deve possibilitar ao operador a alteração
dos ganhos, do tempo integrativo e do tempo derivativo. Também costuma ser desejado que
haja a possibilidade de alternar entre os modos de operação automático e manual. Uma forma
simples de realizar o controle manual é através de botões para aumentar e diminuir o valor do
sinal de controle. Porém, como o controlador é um sistema dinâmico, precauções devem ser
tomadas no chaveamento do modo de operação manual para o automático, para que a
transição seja suave evitando que surjam transitórios devido ao chaveamento.

6.5 Mudanças de Parâmetros

Nos controladores convencionais o operador, normalmente, tem flexibilidade para alterar


valores como: referência e parâmetros básicos dos controladores (ganhos e tempos). Nos
controladores implementados computacionalmente essa flexibilidade é ainda maior.

Devido a grande facilidade para realizar cálculos é possível utilizar uma parametrização
no algoritmo de controle e mostrar outra ao operador através da interface. Por exemplo, o
algoritmo pode trabalhar sempre com os tempos derivativo e integrativo, mas, a interface
pode possibilitar que o operador entre ou com estes tempos ou com os respectivos ganhos. No
segundo caso, a partir dos ganhos fornecidos pelo operador, os tempos seriam calculados e
então usados no algoritmo de controle.

Porém, existem dois problemas com a alteração de parâmetros em tempo real. Um


problema está relacionado com a programação em tempo real. Se mais de um programa,
rodando simultaneamente, estiver utilizando os mesmos dados é possível que haja problemas.
É necessário ter certeza de que a alteração será aceita e processada por todos os programas
que estejam usando o parâmetro em questão.

O outro problema é algorítmico. A alteração de parâmetros em tempo real pode acarretar


em efeitos similares ao de perturbações. Esses efeitos são chamados de transientes de
chaveamento. Tal problema, muitas vezes, pode ser contornado com alterações simples no
código do programa. Considere, por exemplo, os dois códigos a seguir para implementação do
algoritmo de um controlador PI.

Algoritmo #1 Algoritmo #2

e(k) = r - y(k); e(k) = r - y(k);


I(k) = I(k-1) + e(k) * T; I(k) = I(k-1) + Kp* e(k) * T / ti;
u(k) = Kp * (e(k) + I(k)/ti); u(k) = Kp * e(k) + I(k);

Considere também o modelo discreto de um sistema de tanques acoplados de segunda


ordem:

9,687 z + 9,645
G ( z ) = 10 −5 ( 6.2 )
z − 1,987 z + 0,987
2

Sistemas de Controle 57
Considerando-se os parâmetros do controlador como sendo: kP = 2 e τi = 100, temos que,
se esses parâmetros permanecerem inalterados, ambos os algoritmos geram sinais de controle
idênticos. Conseqüentemente, a resposta do sistema em ambos os casos é também idêntica.

Sistema de Segunda Ordem com Controlador PI – Parâmetros Constantes

Algoritmo #1

25 40

30
20
20
15
10
10
0
5
-10

0 -20
0 500 1000 1500 2000 0 500 1000 1500 2000

Algoritmo #2

25 40

30
20
20
15
10
10
0
5
-10

0 -20
0 500 1000 1500 2000 0 500 1000 1500 2000

Porém, se em algum instante o tempo integrativo for alterado, no sistema com o


controlador PI implementado de acordo com o algoritmo #1 surgirá um transiente de
chaveamento, enquanto que com o algoritmo #1 o sistema fica livre desse transiente.

Considere o caso onde o sistema apresentado anteriormente sofre uma redução de 10


vezes no tempo integrativo, a partir do milésimo instante. Note como surgimento do
transiente de chaveamento perturba o sistema no primeiro caso, enquanto que com o segundo
algoritmo o sistema apenas tende a acomodar-se mais rapidamente, o que é exatamente o
efeito desejado ao reduzir-se o tempo integrativo.

58 Sistemas de Controle
Sistema de Segunda Ordem com Controlador PI – Variação de Parâmetros

Algoritmo #1

25 40

30
20
20
15
10
10
0
5
-10

0 -20
0 500 1000 1500 2000 0 500 1000 1500 2000

Algoritmo #2

25 40

30
20
20
15
10
10
0
5
-10

0 -20
0 500 1000 1500 2000 0 500 1000 1500 2000

6.6 Aspectos Numéricos

Sistemas de Controle 59
6.7 Projeto de Controladores Digitais

Considere um sistema discreto descrito pelo seguinte diagrama de blocos:

R(z) + E(z) U(z) Y(z)


D(z) G(z)
-

A partir do mesmo podemos escrever que, Y ( z ) = G ( z ) D( z )[R( z ) − Y ( z )]

Y ( z) 1 Y ( z ) / R( z )
Se for especificado , temos que: D( z ) =
R( z ) G ( z ) 1 − Y ( z ) / R( z )

6.7.1 Controladores Deadbeat


Um controlador deadbeat ou de resposta mínima é aquele que satisfaz as seguintes
condições:

• O tempo de subida deve ser mínimo;

• O erro de regime deve ser zero.

Para um planta de ordem n o tempo mínimo é igual a nT, o problema a ser resolvido é
obter D(z), tal que, para uma entrada degrau, ou seja, R(z) = (1 - z -1)-1 a resposta seja: y(k) =
r(k) = 1 para k ≥ n, com: u(k) = u(n) para k ≥ n.

Aplicando a transformada Z temos:

{
Y ( z ) = y1 z −1 + y 2 z −2 + ... + 1 z − n + z − ( n +1) + ... }
{
U ( z ) = u 0 + u1 z −1 + u 2 z −2 + ... + u N z − n + z − ( n+1) + ... }
Y ( z)
R( z )
[ { }]( )
= y1 z −1 + y 2 z −2 + ... + 1 z −n + z −( n +1) + ... 1 − z −1 = y1 z −1 − y1 z − 2 + y 2 z −2 + ... + z −n

Y ( z)
= y1 z −1 − ( y 2 − y1 ) z −2 + ... + (1 − y n −1 ) z −n
R( z )

Y ( z)
R( z )
= p1 z −1 + p 2 z − 2 + ... + p n z − n , com ∑p i =1 ( 6.3 )

Por analogía:

U ( z) q 0 = u 0 ; q1 = u1 − u 0 ; q n = u n − u n −1
= q0 + q1 z −1 + q 2 z −2 + ... + q n z −n , com:  ( 6.4 )
R( z ) ∑ qi = u n

Então,

60 Sistemas de Controle
Y ( z) D( z )G ( z )
= = P( z ) ( 6.5 )
R( z ) 1 + D( z )G ( z )

ou:

Y ( z) Y ( z ) R( z ) P( z )
= G( z) = = ( 6.6 )
U ( z) R( z ) U ( z ) Q( z )

Usando as equações ( 6.6 ) em ( 6.5 ), temos:

Q( z ) q + q1 z −1 + K + q n z − n
D( z ) = = 0
(
1 − P( z ) 1 − p1 z −1 + K + p n z − n )
Seja ainda:

b1 z −1 + b2 z −2 + ... + bn z − n q
G( z) = −1 −2 −n
× 0 ( 6.7 )
1 + a1 z + a 2 z + ... + a n z q0

Da equação ( 6.6 ), temos:

p1 z −1 + p 2 z −2 + ... + p n z − n
G( z) = ( 6.8 )
q0 + q1 z −1 + q 2 z − 2 + ... + q n z − n

Comparando ( 6.7 ) e ( 6.8 ), temos que:

q 1 = a 1q 0 p1 = b1q 0
M eM
qn = anqo pn = bnqo

1
Como: ∑p = q 0 ∑ b i = 1 , então: q 0 = .
∑ i
i
b

EXEMPLO:

0.368 z + 0.265
Projetar um controlador deadbeat para o seguinte sistema: G ( z ) = .
z − 1.368 z + 0.368
2

SOLUÇÃO:

q 0 = 1 (b1 + b2 ) = 1.58 p1 = q0 b1 = 0.581

q1 = a1 q0 = −2.160 p 2 = q0 b2 = 0.418

q 2 = a 2 q0 = 0.581

1.58 − 2.16 z −1 + 0.58 z −2


Logo: D( z ) =
1 − 0.58 z −1 − 0.418 z − 2
Sistemas de Controle 61
As figuras a seguir mostram a saída da planta e o sinal de controle com o controlador
deadbeat projetado:
Resposta ao Degrau com o Deadbeat Sinal de Controle do Deadbeat
2
1
1.5
0.8

Sinal de Controle
1

0.6
Saída

0.5

0.4
0

0.2 -0.5

0 -1
0 2 4 6 8 10 0 2 4 6 8 10
Instante Instante

62 Sistemas de Controle
7 PROJETO DE SISTEMAS DE CONTROLE USANDO O ESPAÇO DE ESTADOS

7.1 Descrição por Variáveis de Estado

É aplicável a sistemas de múltiplas entradas e múltiplas saídas, que podem ser lineares ou
não-lineares, invariantes ou variantes no tempo e com condições iniciais não-nulas.

O estado de um sistema no instante t0 é a quantidade de informação em t0, que, junto com


a entrada u(t) em t ≥ t 0 , determina univocamente o comportamento do sistema para todo
t ≥ t0 .

Considere os vetores:

 x1 (t )   u1 (t )   y1 (t ) 
 x (t )   u (t )   y (t ) 
x(t ) =  2  u(t ) =   y (t ) =  
2 2

 :   :   : 
     
 x n (t ) u p (t )  y q (t )
x(t) → vetor de estados. u(t) → vetor de entrada. y(t) → vetor de saída.
xi(t) → variável de estado.
E as matrizes; A(t)nxn; B(t)nxp; C(t)qxn; D(t)qxp.

Na representação por variáveis de estado, temos:

x& (t ) = A(t )x(t ) + B(t )u(t ) Equação de Estado (dinâmica do sistema)


( 7.1 )
y (t ) = C(t )x(t ) + D(t )u(t ) Equação de Saída (observação do sistema)

Ou ainda, no caso invariante no tempo, temos:

x& (t ) = Ax(t ) + Bu(t ) Equação de Estado (dinâmica do sistema)


( 7.2 )
y (t ) = Cx(t ) + Du(t ) Equação de Saída (observação do sistema)

Aplicando Transformada de Laplace temos:

( sI − A) X( s ) = BU( s ) + X(0)
( 7.3 )
X( s ) = (sI − A ) BU ( s ) + (sI − A ) X(0)
−1 −1

Para condições iniciais nulas ( X(0) = 0 ):

[ ]
Y( s ) = C(sI − A ) B + D U( s ) = G ( s )U( s )
−1
( 7.4 )

De onde, conclui-se:

G ( s ) = C(sI − A ) B + D
−1
Matriz Função de Transferência ( 7.5 )

Como (sI − A ) corresponde ao polinômio característico de G(s), os autovalores de A


correspondem às raízes do polinômio característico, ou seja, aos pólos de G(s).

Sistemas de Controle 63
7.2 Solução da Equação de Estado

• Caso Escalar

→ X ( s ) = (s − a ) x(0) + (s − a ) bU ( s )
−1 −1
x& (t ) = ax(t ) + bu (t ) Laplace

Aplicando a Transformada inversa de Laplace, obtemos:

{
x(t ) = L−1 {X ( s )} = e at x(0) + bL−1 (s − a )
−1
}* L −1
{U ( s)} ⇒
t
x(t ) = e x(0) + ∫ e a ( t −τ ) bu (τ )dτ
at
( 7.6 )
0

• Caso Vetorial

x& (t ) = Ax(t ) + Bu(t )

t
x(t ) = e x(0) + ∫ e A (t −τ ) BU (τ )dτ
At
( 7.7 )
0

{
onde: e At = L−1 (sI − A )
−1
}.
A exponencial matricial; e At , pode ser calculada através da série:

A 2t 2 Akt k
e At
= I + At + + ... + + . . . ; que converge para todo t finito e para todo A.
2! k!

7.3 Estabilidade

Considere uma representação em variáveis de estado de um sistema SISO:


x& (t ) = Ax(t ) + Bu (t )
( 7.8 )
y (t ) = Cx(t ) + du (t )

Teorema: Um sistema é estável, se, quando u(t) = 0, para todo x(0), temos que
lim x(t ) = 0
t →∞

OBS: se u(t) = 0 ⇒ x( t ) = e At x(0)

Corolário: Um sistema é estável, se, todos os autovalores da matriz A apresentam parte


real negativa.

OBS: Os autovalores de A são as raízes da equação característica: ∆( s ) = det (sI − A ) = 0 .

64 Sistemas de Controle
EXEMPLO:

 − 1 1 3 0  s + 1 − 1 −3 
x& =  0 − 3 4 x + 0u ⇒ det( sI − A) =  0 s + 3 − 4  = ( s + 1)( s + 3)( s − 2)
 0 0 2 1  0 0 S − 2

Logo, o sistema é instável.

7.4 Controlabilidade

Definição: O sistema (A,B,C,d) é controlável se, quaisquer que sejam x(0) e x(T), existe
u(t) 0 ≤ t ≤ T que transfere o estado x(0) para o estado x(T) em um tempo finito.

Teorema: O sistema (A,B,C,d) é controlável se e somente se, o posto da matriz de


controlabilidade Unxnp associada é igual a n.

[
U = B AB A 2B ... A n −1B ] ( 7.9 )

OBS: Uma matriz R é dita possuir posto (rank), ρ(R), igual a m, se existir uma submatriz
Mmxm de modo que o determinante de M é não nulo, e o determinante de todas as submatrizes
rxr (onde r > m) de R é zero.

EXEMPLO1:

1 2 2
1 2
1 − 1 3
R1 =   ρ (R 1 ) = 1 R2 =  ρ (R 2 ) = 2
1 − 1 0 0 0
 
0 0 0

EXEMPLO2:

u = x&1 + x1
+ 1F x1 1F x2
u = x& 2 + x 2
u ~
- 1Ω 1Ω − 1 0  1
x& =   x +  u
 0 − 1 1

1 − 1
U = [B AB] =   ρ (U) = 1 < 2 (Não-Controlável)
1 − 1

Justificativa: Se x1(0) = x2(0) ⇒ x1(t) = x2(t); ∇t ≥ 0 .

Sistemas de Controle 65
7.5 Observabilidade

Definição: O sistema (A,B,C,d) é observável, se, para todo x(0), o conhecimento da


entrada u(t) e da saída y(t) em um tempo finito é suficiente para determinar x(0).

Teorema: O sistema (A,B,C,d) é observável, se e somente se, o posto da matriz de


observabilidade Vnqxn associada é igual a n.

C 
CA 
 
V = CA 2  ( 7.10 )
 
: 
CA n −1 

EXEMPLO:
1F
− 1 0 0  1 
+  
x& =  0 0 − 1 x + 1u
1Ω 1Ω  0 1 − 1 0
u 1F y
1H y = [0 1 0]x
-

 C  0 1 0
 
V =  CA  = 0 0 − 1 ⇒ ρ(V) = 2; Logo, o sistema é Não-observável.
CA 2  0 − 1 1

7.6 Realizações de Funções de Transferência

Dada a seguinte representação em variáveis de estado de um sistema SISO:

x& (t ) = Ax(t ) + Bu (t )

y (t ) = Cx(t ) + du (t )

(A,B,C,d) é uma realização de G(s) se:

C(sI − A ) B + d = G ( s )
−1

com:

Y ( s) β1 s n −1 + β 2 s n − 2 + ... + β n N (s)
= G ( s) = n +d = +d
U ( s) s + α 1 s + α 2 s + ... + α n
n −1 n−2
D( s)

66 Sistemas de Controle
7.6.1 Realização na Forma Canônica Observável

0 0 ... 0 −αn   βn 
1 
0 ... 0 - α n -1  β 
A= ; B =  n −1  ; C = [0 0 ... 0 1] ( 7.11 )
0 0 ... 0 - α 2   β2 
   
0 0 ... 1 - α 1   β1 

7.6.2 Realização na Forma Canônica Controlável

0 1 ... 0 0  0 
0 0 ... 0 0   0 
A= ; B =   ; C = [β n β n −1 ... β 2 β1 ] ( 7.12 )
0 0 ... 0 1  0 
   
− α n − α n −1 ... −α2 − α1  1

Sistemas de Controle 67
7.7 Realimentação de Estado

A idéia básica da realimentação de estados consiste em alocar os pólos de malha fechada


(autovalores da matriz dinâmica), modificando, assim, a dinâmica do sistema.

x& (t ) = Ax(t ) + Bu (t )
Dada uma representação em variáveis de estado de um sistema;  :
 y (t ) = Cx(t ) + du (t )

D
.
x(t)
+
y(t)
u(t) + +
B
+
∫ C

x(t)
A

Usando realimentação de estado, cada variável de estado é multiplicada por um ganho e


realimentada para o terminal de entrada, ou seja:

u (t ) = Kx(t ) + r (t ) ( 7.13 )

onde: K = [k1 k2 ... k n ] é o vetor de ganhos de realimentação.

Assim, temos:

x& (t ) = Ax(t ) + Bu (t )
 ⇒ x& (t ) = Ax(t ) + B(Kx(t ) + r (t ) ) ⇒
u (t ) = Kx(t ) + r (t )

⇒ x& (t ) = (A + BK )x(t ) + Br (t ) ( 7.14 )

OBS: Devemos ter acesso a todos os estados do sistema.

D
.
x(t)
+
y(t)
u(t) + +
B
+
∫ C

x(t)
A

Teorema: Se (A,B,C,d) for controlável, usando u (t ) = Kx(t ) + r (t ) podemos escolher


arbitrariamente os autovalores de (A + BK ) .

68 Sistemas de Controle
• Fórmula de Ackermann para Determinação da Matriz de Ganhos K

1- Formar ∆( s ) = s n + a1 s n −1 + ... + a n −1 s + a n com os pólos desejados.

2- Calcular K da seguinte forma

K = −[0 0 ... 1] U −1 q c ( A) ( 7.15 )

[
U = B AB A 2 B ... A n −1B
onde: 
] .
q c ( A) = A n + a1 A n −1 + ... + a n I

EXEMPLO:

 1 0  1
x& =   x +  u
Dado;  0 − 2  1 , usando; u (t ) = Kx(t ) + r (t ) . Determine K para que os
 y = [1 1]x

autovalores do sistema sejam -1 e -2.

SOLUÇÃO:

∆(s) = (s + 1)(s + 2) = s 2 + 3s + 2

1 1 1 − 2 − 1
U = [B AB] =   U −1 = − 
1 − 2 3  − 1 1

6 0
q c ( A) = A 2 + 3A + 2I =  
0 0

− 2 − 1 6 0
K=
1
[0 1]   = [− 2 0]
3  − 1 1 0 0

Sistemas de Controle 69
SIMULAÇÃO:

x& (t ) = (A + BK )x(t ) + Br (t )
y (t ) = Cx(t )

Rotina Matlab:
% Programa para Realimentação de Estado

clear all;
A=[1 0;0 -2];B=[1 1]';C=[1 1];d=0; % Sistema Original
K=[-2 0]; % Matriz de Ganhos
Aa=[A+B*K]; % Matriz Dinamica realimentada
t=0:0.01:5; % Tempo da simulaçao
u=0*t; % Sinal de entrada (nulo)
x0=[1 1]'; % Condiçoes iniciais

[Y1,X1]= LSIM(A,B,C,d,u,t,x0); % Simula o sistema, sem realimentaçao


% para uma entrada e cond. iniciais dadas
[Y,X] = LSIM(Aa,B,C,d,u,t,x0); % Simula o sistema, com realimentaçao
% para uma entrada e cond. iniciais dadas

figure;plot(t,Y1,'r','linewidth',2)
title('Saída sem realimentação de estado')
figure;plot(t,Y,'b','linewidth',2)
title('Saída com realimentação de estado')

Saída sem realimentação de estado Saída com realimentação de estado


150 2

1.5

100
1

0.5
50

0 -0.5
0 1 2 3 4 5 0 1 2 3 4 5

70 Sistemas de Controle
7.8 Observadores de Estado

O observador de estados consiste em um mecanismo (algoritmo) para estimação dos


estados da planta. É uma solução útil quando os estados reais da planta não estão accessíveis,
situação muito comum na prática .

x& (t ) = Ax(t ) + Bu (t )
Seja:  , conhecendo-se A, B e C, e a medição de y(t) e u(t),
 y (t ) = Cx(t )
constrói-se o estimador:

x&ˆ (t ) = Axˆ (t ) + L( y (t ) − yˆ (t ) ) + Bu (t )
 ; (Estimador Assintótico) ( 7.16 )
 ˆ
y (t ) = Cxˆ (t )

onde: L = [l1 ... l n ]


T
l2
.
x(t)
u(t) + y(t)
B
+
∫ C

x(t)
A
+
L
.
^ -
+ x(t)
B
+
∫ C
^y(t)
^
x(t)
A

• Erro de Estimação

O erro entre x e x̂ , conhecido como erro de estimação (ou erro de observação), é dado
por; ~
x (t ) = x(t ) − xˆ (t ) , derivando-se, temos:

x& (t ) = x& (t ) − x&ˆ (t ) = [Ax(t ) + Bu (t )] − [Axˆ (t ) + L( y (t ) − yˆ (t ) ) + Bu (t )] ⇒


~
⇒~ x& (t ) = A(x(t ) − xˆ (t ) ) − LC(x(t ) − xˆ (t ) )

ou, simplesmente:

x& (t ) = (A − LC )~
~ x (t ) ( 7.17 )

x (t ) = 0 é necessário que os autovalores de (A − LC ) sejam estáveis, ou


Para que lim ~
t →∞

seja, tenham parte real negativa.

Teorema: Se (A,B,C,d) for observável, então um estimador de estado assintótico com


quaisquer autovalores pode ser construído.

Sistemas de Controle 71
• Fórmula de Ackermann para Determinação da Matriz de Ganhos do Observador L

1- Formar ∆( s ) = s n + a1 s n −1 + ... + a n −1 s + a n com os pólos desejados para o observador.

2- Calcular L da seguinte forma

L = q L ( A)V −1[0 0 ... 1]


T
( 7.18 )

onde: 
[
V = C CA CA 2 K CA n −1 ]
T

.
q L ( A) = A n + a1 A n −1 + ... + a n I

EXEMPLO:

 1 0  1
x& =   x +  u
Dado;  0 − 2  1 . Projetar um observador de estados com autovalores -3, -3.
 y = [1 1]x

SOLUÇÃO:

∆( s ) = ( s + 3)( s + 3) = s 2 + 6s + 9

 C  1 1 1 − 2 − 1
V= =  V −1 = − 
CA  1 − 2 3  − 1 1

16 0
q L ( A) = A 2 + 6 A + 9I =  
 0 1

1 16 0 − 2 − 1 0 1 16 


L=−  =
3  0 1  − 1 1 1 3 − 1

72 Sistemas de Controle
SIMULAÇÃO:

x& (t )  A 0  x(t ) B 
x&ˆ (t ) LC A − LC xˆ (t ) + B u (t )
=
      
x(t )
y (t ) = [C 0] 
xˆ (t )

Rotina Matlab:
% Programa para Observadores de Estado

clear all;close all;clc

A=[1 0;0 -2];B=[1 1]';C=[1 1];d=0; % Sistema Original


L=1/3*[16 -1]'; % Matriz de Ganhos do Observador
I=eye(2); % Matriz identidade 2x2

Aa=[A 0*I;L*C (A-L*C)];


Ba=[B;B]; % Matrizes aumentadas do Observador
Ca=[C zeros(size(C))];

t=0:0.01:5; % Tempo da simulaçao


u=0*t; % Sinal de entrada (nulo)
x0=[1 1 0 0]'; % Condiçoes iniciais

[Y,X] = LSIM(Aa,Ba,Ca,d,u,t,x0); % Simula o sistema aumentado


% para entrada e cond. iniciais dadas

E = [X(:,1)-X(:,3) X(:,2)-X(:,4)]; % Erro de estimativa

figure;plot(t,X(:,1),'b','linewidth',2);hold on; plot(t,X(:,3),'r','linewidth',2)


set(1,'Position',[10 258 380 280]);title('Estado X_1 e sua estimativa')
legend('X_1','X_1 Estimado'); hold off

figure;plot(t,X(:,2),'b','linewidth',2);hold on; plot(t,X(:,4),'r','linewidth',2)


set(2,'Position',[232 258 380 280]);title('Estado X_2 e sua estimativa')
legend('X_2','X_2 Estimado'); hold off

figure;plot(t,E(:,1),'b','linewidth',2);hold on; plot(t,E(:,2),'r','linewidth',2)


set(3,'Position',[482 258 380 280]);title('Erro de estimativa')
legend('Erro de estimativa de X_1','Erro de estimativa de X_2');hold off

Sistemas de Controle 73
Estado X1 e sua estimativa Estado X2 e sua estimativa
150 1.2
X1 X2
X1 Estimado 1 X2 Estimado

0.8
100
0.6

0.4
50
0.2

0 -0.2
0 1 2 3 4 5 0 1 2 3 4 5

Estado X1 e sua estimativa Erro de estimativa


5 1
X1 Erro de estimativa de X1
0.8
X1 Estimado Erro de estimativa de X2
4
0.6

3 0.4

0.2
2 0

-0.2
1
-0.4

0 -0.6
0 0.5 1 1.5 0 1 2 3 4 5

7.9 Realimentação de Estados Observados

Para a realimentação de estados é necessário que todos os estados reais da planta, x(t ) ,
sejam mensuráveis. Quando isto não ocorre, há a necessidade de construir um observador de
estados. Neste caso a realimentação é feita a partir dos estados estimados, xˆ (t ) :
.
x(t)
u(t) + y(t)
B
+
∫ C

x(t)
A
+
L
.
^ -
+ x(t)
B
+
∫ C ^y(t)
^
x(t)
A

74 Sistemas de Controle
x& (t ) = Ax(t ) + Bu (t )
Seja:  . Se xˆ (t ) é uma estimativa de x(t ) , então, na realimentação
 y (t ) = Cx(t )
de estados utiliza-se:

u (t ) = Kxˆ (t ) + r (t ) ( 7.19 )

Porém, se a realimentação é feita a partir dos estados estimados, a dinâmica do estimador


precisa ser considerada. Desta forma, tem-se:

x& (t )  A BK  x(t ) B 
x&ˆ (t ) LC A − LC + BK  xˆ (t ) + B u (t )
=
      
( 7.20 )
x(t )
y (t ) = [C 0] 
xˆ (t )

EXEMPLO:

 1 0  1
x& =   x +  u
Dado;  0 − 2  1 . Utilizar a realimentação de estados em conjunto com o
 y = [1 1]x

observador de estados projetados anteriormente.

SIMULAÇÃO:

x& (t )  A BK  x(t ) B 
x&ˆ (t ) = LC A − LC + BK  xˆ (t ) + B u (t )
      
x(t )
y (t ) = [C 0] 
xˆ (t )

Rotina Matlab:
% Programa para Observadores de Estado + Realimentação de Estado

clear all;close all;clc

A=[1 0;0 -2];B=[1 1]';C=[1 1];d=0; % Sistema Original


L=1/3*[16 -1]'; % Matriz de Ganhos do Observador
K=[-2 0]; % Matriz de Ganhos de Realimentaçao
I=eye(2); % Matriz identidade 2x2
Aa=[A B*K;L*C (A-L*C+B*K)];
Ba=[B;B]; % Matrizes aumentadas do Observador
Ca=[C zeros(size(C))];
t=0:0.01:5; % Tempo da simulaçao
u=0*t; % Sinal de entrada (nulo)
x0=[1 1 0 0]'; % Condiçoes iniciais

Sistemas de Controle 75
[Y,X] = LSIM(Aa,Ba,Ca,d,u,t,x0); % Simula o sistema aumentado
% para entrada e cond. iniciais dadas

E = [X(:,1)-X(:,3) X(:,2)-X(:,4)]; % Erro de estimativa

Figure;plot(t,X(:,1),'b','linewidth',2);hold on; plot(t,X(:,3),'r','linewidth',2)


set(1,'Position',[10 258 380 280]);title('Estado X_1 e sua estimativa')
legend('X_1','X_1 Estimado'); hold off

figure;plot(t,X(:,2),'b','linewidth',2);hold on; plot(t,X(:,4),'r','linewidth',2)


set(2,'Position',[232 258 380 280]);title('Estado X_2 e sua estimativa')
legend('X_2','X_2 Estimado'); hold off

figure;plot(t,E(:,1),'b','linewidth',2);hold on; plot(t,E(:,2),'r','linewidth',2)


set(3,'Position',[482 258 380 280]);title('Erro de estimativa')
legend('Erro de estimativa de X_1','Erro de estimativa de X_2');hold off

figure;plot(t,Y,'b','linewidth',2);set(4,'Position',[602 258 380 280])


title('Resposta do Sistema')
Estado X1 e sua estimativa Estado X2 e sua estimativa
1.2 1
X1 X2
1 X1 Estimado X2 Estimado
0.5
0.8

0.6
0
0.4

0.2
-0.5
0

-0.2 -1
0 1 2 3 4 5 0 1 2 3 4 5

Erro de estimativa Resposta do Sistema


1 2
Erro de estimativa de X1
0.8
Erro de estimativa de X2
1.5
0.6

0.4 1
0.2

0 0.5

-0.2
0
-0.4

-0.6 -0.5
0 1 2 3 4 5 0 1 2 3 4 5

76 Sistemas de Controle
7.10 Seguidores de Referência (ou servosistemas)

Para que um sistema descrito por variáveis de estado possa, além de possuir a dinâmica
desejada (garantida pela alocação de pólos por realimentação de estado), seguir uma
determinada entrada, com erro zero, usamos o princípio do modelo interno.

Considere entradas de referência descritas por equações do tipo:

x& r = A r x r
 ( 7.21 )
r = C r x r

com condições iniciais desconhecidas. Um modelo equivalente para entradas de referência é:

r ( n ) + α n −1 r ( n −1) + .... + α 1 r& + α 0 r = 0 ( 7.22 )

onde r ( n ) é a n-ésima derivada de r(t).

Exemplos:

a) Degrau unitário: r(t) = 1; t ≥ 0; r& = 0 :

 x& = 0 x r
Escolhendo xr = r, temos:  r
r = 1x r

r& = 1
b) Rampa unitária: r(t) = t, t ≥ 0;  :
&r& = 0

 x& r1  0 1  x r1 
 &  =   
 x r1 = r   x r 2  0 0   x r 2 
Escolhendo  , temos: 
 x r 2 = r& r = [1 0] x r1 
 x 
  r2 

• Princípio do modelo interno para referência do tipo degrau unitário

x& (t ) = Ax(t ) + Bu (t )
Considere o sistema:  .
 y (t ) = Cx(t )

Definimos o erro de rastreamento como: e(t ) = y (t ) − r (t ) .

Das características do sinal de referência, temos: e&(t ) = y& (t ) − r&(t ) = y& (t ) = Cx& (t ) .

z = x& e& = Cz
Definimos novas variáveis de estado como:  , então temos: , ou, na
w = u& z& = Az + Bw
forma matricial:

 e&  0 C   e   0 
z&  = 0 A  z  + B  w ( 7.23 )
      

Sistemas de Controle 77
Se o sistema for controlável, então, existe uma lei de controle por realimentação de
estado, da forma; w = k1e + k 2 z , tal que os pólos do sistema aumentado podem ser
posicionados arbitrariamente.

Desde que os pólos do sistema aumentado sejam alocados na região de estabilidade, o


erro de rastreamento será estável. Assim, o objetivo de rastreamento assintótico com erro em
regime nulo será alcançado. Ou seja, a resposta do sistema abaixo é assintóticamente estável.

 e&   0 C  e 
z&  = Bk A + Bk 2  z 
( 7.24 )
   1

A entrada de controle u(t) é obtida da expressão:


t t
u (t ) = ∫ w(τ )dτ = k1 ∫ e(τ )dτ + k 2 x(t ) ( 7.25 )
0 0

Logo:

x& = Ax + Bu ⇒ x& = Ax + B k1 ∫ e(τ )dτ + k 2 x 


t
( 7.26 )
 0 

Definindo: x n +1 (t ) = ∫ e(τ )dτ , temos: x& n +1 (t ) = e(t ) = y (t ) − r (t ) = Cx(t ) − r (t ) ;

logo:

 x&   A + Bk 2 B k1   x   0 
 x&  =  C +
0   x n +1  − 1
r ( 7.27 )
 n +1  

.
x(t)
r(t) + + u(t) + y(t)

-
k1 ∫ +
B
+
∫ C

x(t)
A

k2

EXEMPLO:
  0 1 0 
x& =   x +  u
Considerando o sistema descrito por:   − 2 − 2 1 . Projetar um controlador
 y = [1 0]x

para que o sistema tenha erro zero para entrada degrau.

78 Sistemas de Controle
SOLUÇÃO:

Sistema aumentado é dado por:

 e&  0 1 0   e  0 
 z&  = 0 0 1   z1  + 0 w .
 1 
 z& 2  0 − 2 − 2  z 2  1

Logo, a matriz de controlabilidade do sistema aumentado, isto é, calculada levando-se


em conta as matriz A e B do sistema aumentado é da por:

0 0 1
[ 
U = B AB A B = 0 2
]
1 − 2 .
 1 − 2 2

Como o posto da matriz de controlabilidade do sistema aumentado é igual à dimensão do


sistema aumentado: ρ(U) = n = 3, o sistema é controlável. Logo, é possível alocar seus pólos
de maneira que o rastreamento da referência seja assintótico.

Escolhendo os pólos desejados em –10 e -1±j1, temos:

∆( s ) = ( s + 10)( s + 1 + j1)( s + 1 − j1) = s 3 + 12 s 2 + 22s + 20

Aplicação da fórmula de Ackermann:

 2 2 1
 −1  
U =  2 1 0 
 1 0 0
K = −[0 0 ... 1] U −1 q c ( A) ; com: 
 20 20 10
q ( A) = A 3 + 12A 2 + 22A + I =  0 0 0 
 c  
  0 0 0 

Logo: K = [k1 k 2 ] = [k1 k 21 k 21 ] = [− 20 − 20 − 10] .

De onde concluímos que a lei de controle é dada por:

u (t ) = ∫ w(τ )dτ = k1 ∫ e(τ )dτ + k 2 x(t ) = −20 ∫ e(τ )dτ + [− 20 − 10]x(t )


t t t

0 0 0

logo:

 x&1   0 1 0  x1   0
 x&  = − 22 − 12 − 20  x  +  0 r
 2   2   
 x& 3   1 0 0  x3  − 1

Sistemas de Controle 79
SIMULAÇÃO:

 x&   A + Bk 2 B k1   x   0 
 x&  =  C +
0   x n +1  − 1
r
 n +1  
 x 
y = [C 0] 
 x n +1 

Rotina Matlab:
% Programa para Seguidor de Referêcia do tipo Degrau

clear all;close all, clc


A=[0 1;-2 -2];B=[0 1]';C=[1 0];d=0; % Sistema Original
K=[-20 -20 -10]; % Matriz de Ganhos
k1=K(1,1);k2=K(1,2:3);

Aa=[A+B*k2 B*k1;C 0];


Ba=[zeros(size(B));-1]; % Matrizes aumentadas do Observador
Ca=[C 0];
t=0:0.01:10; % Tempo da simulaçao
u=0*t+1; % Sinal de entrada (degrau)
x0=[0 0]';x0a=[0 0 0]'; % Condiçoes iniciais (nulas)

[Y1,X1]= LSIM(A,B,C,d,u,t,x0); % Simula o sistema, sem realimentaçao


% para uma entrada e cond. iniciais dadas
[Y,X] = LSIM(Aa,Ba,Ca,d,u,t,x0a); % Simula o sistema, com seguidor de referência
% para uma entrada e cond. iniciais dadas

figure; plot(t,Y1,'r','linewidth',2); set(1,'Position',[232 258 380 280])


title('Saída do Sistema Original'); axis([0 max(t) 0 1.2])
figure; plot(t,Y,'b','linewidth',2); set(2,'Position',[232 258 380 280])
title('Saída do Sistema com Seguidor de Referência'); axis([0 max(t) 0 1.2])
Saída do Sistema Original Saída do Sistema com Seguidor de Referência

1 1

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
0 2 4 6 8 10 0 2 4 6 8 10

• Princípio do modelo interno para referência do tipo rampa unitária


80 Sistemas de Controle
x& (t ) = Ax(t ) + Bu (t )
Considere o sistema: 
 y (t ) = Cx(t )

Definimos o erro de rastreamento como: e(t ) = y (t ) − r (t ) ; com: e&&(t ) = &y&(t ) = C&x&(t ) .

z = &x&
Definimos novas variáveis de estado como:  , temos:
w = u&&

 e&  0 1 0   e   0 
e&& = 0 0 C   e&  +  0  w
( 7.28 )
      
z&  0 0 A  z  B 

Se o sistema acima for controlável, então existe w = k1e + k 2e& + k 3 z , tal que o sistema
aumentado é assintóticamente estável e e(t) → 0 quando t → ∞.

A lei de controle será dada por:

u (t ) = ∫0 ∫0 w(τ )dτdδ = ∫0 ∫0 (k1e(τ ) + k 2 e&(τ ) + k 3 &x&(t ) )dτdδ


t s t s

u (t ) = k1 ∫0 ∫0 e(τ )dτdδ + k 2 ∫0 e(τ )dτ + k 3 x(t )


t s t

Logo:
t s
(
x& = Ax + Bu ⇒ x& = Ax + B k1 ∫0 ∫0 e(τ )dτdδ + k 2 ∫0 e(τ )dτ + k 3 x(t )
t
) ( 7.29 )

 x n +1 (t ) = ∫ e(τ )dτ  x& n +1 (t ) = e(t ) = y (t ) − r (t ) = Cx(t ) − r (t )


Definindo:  , temos:  ;
 x n + 2 (t ) = ∫∫ e(τ )dτ dδ  x& n + 2 (t ) = x n +1 (t )

logo:

 x&   A + Bk 3 Bk 2 B k1   x   0 
 x&  =  C 0 0   x n +1  + − 1 r ( 7.30 )
 n +1  
 x& n + 2   0 1 0   x n + 2   0 

.
x(t)
r(t) + + + u(t) + y(t)
k1 ∫ ∫ +
B
+
∫ C
- +
x(t)
k2 A

k3

7.11 Descrição por Variáveis de Estado de Sistemas Discretos no Tempo

A partir de agora serão considerados sistemas discretos no tempo.


Sistemas de Controle 81
Considere um sistema discreto linear e invariante no tempo descrito em variáveis de
estado:

x(k + 1) = Gx(k ) + Hu (k )
 ( 7.31 )
 y (k ) = Cx(k ) + Du (k )

Aplicando transformada Z, temos:

zX( z ) − zx(0) = GX( z ) + HU ( z ) ⇔


⇔ ( zI − G )X( z ) = zx(0) + HU ( z )

Para condições iniciais nulas (x(0) = 0):

X ( z ) = ( zI − G ) H U ( z )
−1

Logo;

[
Y ( z ) = C( zI − G ) H + D U ( z )
−1
] ( 7.32 )
Y ( z ) = G ( z )U ( z )

onde:

[
G ( z ) = C(zI − G ) H + D
−1
] ( 7.33 )

7.11.1 Discretização da Equação de Estado


Considere um sistema linear e invariante no tempo, descrito pela seguinte equação
diferencial: x& (t ) = Ax(t ) + Bu (t ) . A solução para esta equação diferencial é dada por:

t
x(t ) = e At x(0) + e At ∫ e − Aτ Bu (τ )dτ
0

Supondo u(t) constante entre kT e (k + 1)T;


( k +1)T

x((k + 1)T ) = e A ( k +1)T x(0) + e A ( k +1)T ∫e


− Aτ
Bu (τ )dτ ( 7.34 )
0

e;
kT
x(kT ) = e AkT x(0) + e AkT ∫ e − Aτ Bu (τ )dτ
0

Multiplicando-se ambos os lados desta ultima equação por eAT, obtém-se:

82 Sistemas de Controle
kT
e x(kT ) = e
AT A ( k +1)T
x ( 0) + e A ( k +1)T
∫e
− Aτ
Bu (τ )dτ ( 7.35 )
0

Agora, subtraindo a equação ( 7.34 ) da equação( 7.35 ), obtém-se:


( k +1)T

x((k + 1)T ) = e x(kT ) + e


AT AT
∫e
− Aτ
Bu (τ )dτ =
kT
( k +1)T

∫e
− A ( kT −τ )
= e AT x(kT ) + e AT Bu (kτ )dτ
kT

Assim;
T
x((k + 1)T ) = e AT x(kT ) + e AT ∫ e − At Bu (kT )dt ⇔
0
T
⇔ x((k + 1)T ) = e AT x(kT ) + ∫ e Aλ Bu (kT )dλ
0

Logo:

x((k + 1)T ) = G (T)x(kT) + H (T)u (kT) ( 7.36 )

EXEMPLO:

0 1  0 
Dado o sistema: x& =   x + 1u , com T = 1s . Obter a forma discreta:
0 − 2   

x((k + 1)T ) = G (T )x(kT ) + H (T )u (kT )

SOLUÇÃO:

G (T ) = e AT

Sabendo que:  T
 T At  , temos:
H (T ) = ∫ e Bdt =  ∫ e dt B
At

 0 0 

1 1 
e AT
=L −1
[(sI − A ) ]
−1

= L−1  
s − 1 
−1

 = L

−1 s
 

s (s + 2 )  = 1
1
(
1 − e − 2T )
 2
 0 s − 2  0 1  
e − 2T 
0 
 s + 2 

e;

Sistemas de Controle 83
1  e −2 T − 1  
T    0   T + 
 At 
T
 ∫ e dt B =  ∫ 1
1
2
(
1 − e − 2T )
 dt    =  2  2 
   0 0   1  1
0    e − 2T   (
 2 1 − e
− 2T
) 


Se T = 1s , temos ainda que:

 x 1 ((k + 1)T ) 1 0,432  x 1 (kT ) 0,284


 x ((k + 1)T ) = 0 0,135   x (kT ) + 0,432 u (kT)
 2    2   

7.12 Solução da Equação de Estado de Sistemas Discretos no Tempo

x(k + 1) = Gx(k ) + Hu (k )
Considere o seguinte sistema discreto:  .
 y ( k ) = Cx ( k ) + Du ( k )

Conhecendo as condições iniciais e a entrada a partir do instante zero, podemos escrever,

x(1) = Gx(0) + Hu (0)


x(2) = Gx(1) + Hu (1) = G 2 x(0) + GHu (0) + Hu (1)
x(3) = Gx(2) + Hu (2) = G 3 x(0) + G 2 Hu (0) + GHu (1) + Hu (2)
M
k −1
x(k ) = G k x(0) + ∑ G k − j −1 Hu ( j )
j =0

7.13 Estabilidade de Sistemas Discretos no Tempo

x(k + 1) = Gx(k ) + Hu (k )
Dado:  .
 y ( k ) = Cx ( k ) + Du ( k )

Um sistema discreto é estável se todos os autovalores de G estão dentro de círculo


unitário.

7.14 Controlabilidade de Sistemas Discretos no Tempo

O sistema (G,H,C,D) é controlável se o posto da matriz de controlabilidade WC for igual


a n.

[
WC = H GH K G n −1 H ] ( 7.37 )

84 Sistemas de Controle
7.15 Observabilidade de Sistemas Discretos no Tempo

O sistema (G,H,C,D) é observável se o posto da matriz de observabilidade WO for igual


a n.

 C 
 CG 
WO =   ( 7.38 )
 M 
 n −1 
C G 

7.16 Realimentação de Estados de Sistemas Discretos no Tempo

x(k + 1) = Gx(k ) + Hu (k )
Dado o seguinte sistema na forma discreta: 
 y (k ) = Cx(k ) + Du (k )

Fazendo-se: u (k ) = Kx(k ) + r (k ) , tem-se: x(k + 1) = Gx(k ) + H (Kx(k ) + r (k ) ) , logo:

x(k + 1) = (G + HK )x(k ) + Hr (k ) ( 7.39 )

O problema de controle através da realimentação de estados consiste em projetar K para


que (G + HK) tenha pólos desejados.

Assim como no caso contínuo uma das ferramentas disponíveis para a determinação da
matriz de ganhos da realimentação, K, é a formula de Ackermann.

K = −[0 0 L 1]WC−1q c (G ) ( 7.40 )

7.17 Observadores de Estado de Sistemas Discretos no Tempo

A dinâmica do observador de estados é dada por:

xˆ (k + 1) = Gxˆ (k ) + L( y (k ) − yˆ (k ) ) + Hu (k )
 ( 7.41 )
 yˆ (k ) = Cxˆ (k )

A dinâmica do erro e estimação dos estados é descrita então por:


~
x (k + 1) = x(k + 1) − xˆ (k + 1) ⇒
xˆ (k + 1) = Gx(k ) + Hu (k ) − [Gxˆ (k ) + L( y (k ) − yˆ (k ) ) + Hu (k )] ⇒

xˆ (k + 1) = (G − LC )~
x ( 7.42 )

O projeto de observadores de estado consiste em determinar L para que (G – LC) tenha


pólos desejados. Dessa forma, utilizando-se a formula de Ackermann, temos:

L = q C (G ) WO−1 [0 0 L 1]
T
( 7.43 )

Sistemas de Controle 85
7.18 Seguidor de Referência para Sistemas Discretos no Tempo

• Entrada do Tipo Degrau

x(k + 1) = Gx(k ) + Hu (k )
Dado o sistema: 
 y (k ) = Cx(k )

e um sinal do tipo: v(k ) = v(k − 1) + r (k ) − y (k ) ,


14243
e( k )

v(k + 1) = v(k ) + r (k + 1) − y (k + 1) =
onde: = v(k ) + r (k + 1) + −C[Gx(k ) + Hu (k )] =
= −CGx(k ) + v(k ) − CHu (k ) + r (k + 1)

A realimentação de estado para o seguidor de degraus é dada por:

u (k ) = −k 2 x(k ) + k1v(k ) ( 7.44 )

u (k + 1) = −k 2 x(k + 1) + k1v(k + 1) ⇒
u (k + 1) = −k 2 [Gx(k ) + Hu (k )] + k1 [− CGx(k ) + v(k ) − CHu (k ) + r (k + 1)] ⇒
logo:
u (k + 1) = (− k 2 G − k1CG )x(k ) + (− k 2 H − k1CH )u (k ) + k1v(k ) + k1 r (k + 1) ⇒
u (k + 1) = (− k 2 G − k1CG )x(k ) + (− k 2 H − k1CH )u (k ) + u (k ) + k 2 x(k ) + k1 r (k + 1) ⇒

u (k + 1) = (k 2 − k 2 G − k1CG )x(k ) + (1 − k 2 H − k1CH )u (k ) + k1 r (k + 1) ( 7.45 )

Daí, temos:

x(k + 1)  G H   x( k )   0 
u (k + 1) = k − k G − k CG 1 − k H − k CH  u (k ) + k  r (k + 1)
   2 2 1 2 1    1
( 7.46 )
 x( k ) 
y(k ) = [C 0] 
u (k )

Se os autovalores da matriz dinâmica da equação ( 7.46 ) forem “estáveis”

v(k ) = V (k + 1) quando k → ∞
v(∞−) = v(∞) + r y (∞)

Considerando a referência do tipo degrau, e, definindo: xe (k ) = x(k ) − x(∞) e


u e (k ) = u (k ) − u (∞) . Temos:

x e (k + 1)  G H  x e (k )
u (k + 1)  = k − k G − k CG 1 − k H − k CH  u (k )  ( 7.47 )
 e   2 2 1 2 1  e 

x (k )
Definindo w(k ) = [k 2 − k 2 G − k1CG 1 − k 2 H − k1CH ] e 
u e ( k ) 

86 Sistemas de Controle
 x (k + 1) G H   xe (k ) 0 ˆ ˆ
Temos:  e
u ( k + 1)  =  0 0  u (k ) + 1 w(k ) e ξ (k + 1) = Gξ (k ) + Hw(k ) .
 e    e   

Usando realimentação de estado: w(k ) = −K ˆ ξ (k ) , e calculando o ganho através da


fórmula de Ackermmann: Kˆ = [0 0 ... 1]W −1q (G ˆ ) , temos que:
c c

−1

[k 2 [
k1 ] = K
ˆ ]
[0 1] 
G −I H 
 ( 7.48 )
 CG CH 

7.19 Exercícios

1. Dados os seguintes sistemas, determine se eles são estáveis, controláveis e observáveis


e obtenha uma função de transferência equivalente (ou, matriz de funções de
transferência, se for o caso):

 1 0  1
x& =   x +  u
a)  0 − 2  1
 y = [1 1]x

  0 1 0 
x& =   x +  u
b)   − 2 − 2 1
 y = [1 0]x

 1 1 1
x& =   x +  u
c)  0 − 1 0 
 y = [1 2]x

  0 1 1
x& =   x +  u
d)  2,1 − 1,5 1
 y = [1 0]x

 0 1 0 0
 
x& =  0 0 1  x + 0u

e) 
 − 6 − 11 − 6 1
 y = [4 5 1]x

 −6 1 0  2
 
x& = − 11 0 1 x + 6u
f) 
  − 6 0 0 2
 y = [1 0 0]x

Sistemas de Controle 87
 − 1 − 2 − 2  2
 
x& =  0 − 1 1  x + 0u

g) 
  1 0 − 1  1
 y = [1 1 0]x

 2 0 0 0 1 
 
x& = 0 2 0 x + 1 0u

 0 3 1 0 1
h) 

 y = 1 0 0
x
 0 1 0

2. Considere a função de transferência obtida no item c da questão 1 (FT de ordem 2,


sem cancelamento de pólos e zeros):

a) Obtenha uma realização na forma canônica controlável;

b) Verifique se este sistema é observável.

3. Considere a função de transferência obtida no item e da questão 1:

a) Obtenha uma realização na forma canônica observável;

b) Verifique se este sistema é controlável.

4. Para cada sistema, projete um observador de estados, uma realimentação de estados,


um seguidor de referência para entrada do tipo degrau e um seguidor de referência
para entrada do tipo rampa, usando os pólos fornecidos, respectivamente, para cada
caso.
Pólos desejados para o:
Sistema
Observ. Realim. Seg.Deg. Seg.Ramp
 1 0  1
x& =   x +  u
a)  0 − 2  1
 y = [1 1]x

  0 1 0 
x& =   x +  u
b)   − 2 − 2 1 
 y = [1 0]x

88 Sistemas de Controle
  0 1 1
x& =   x +  u
c)  2,1 − 1,5 1
 y = [1 0]x

 −6 1 0  2
 
x& = − 11 0 1 x + 6u

d) 
  − 6 0 0 2
 y = [1 0 0]x

 − 1 − 2 − 2  2
 
x& =  0 − 1 1  x + 0u

e) 
  1 0 − 1 1
 y = [1 1 0]x

Sistemas de Controle 89
8 Introdução aos Sistemas de Controle Ótimo

O problema de controle, de uma forma geral, consiste em determinar uma lei de controle
que faça com que o sistema atenda a certas especificações de desempenho. No caso dos
sistemas de controle ótimo, a obtenção de uma lei de controle se dá pela minimização de um
funcional de custo.

J = f (x, u, t ) ( 8.1 )

Estudaremos os sistemas de controle ótimo quadráticos, mais especificamente, os


reguladores lineares quadráticos (LQR – Linear Quadratic Regulator).

8.1 Controle Ótimo Quadrático

No caso do controle ótimo quadrático, temos um sistema dinâmico,

x& = Ax + Bu
( 8.2 )
y = Cx

com a seguinte lei de controle:

u = Kx ( 8.3 )

onde a matriz de ganhos K, será obtida a partir da minimização de um funcional de custo


quadrático, do tipo:

J = ∫ L(x, u)dt ( 8.4 )
0

Portanto, o projeto de reguladores ótimos baseados em índices de desempenho (funcional


de custo) quadráticos consiste, simplesmente, na determinação dos elementos da matriz K.

Uma forma típica para o funcional quadrático é:



J = ∫ (x T Qx + u T Ru)dt ( 8.5 )
0

onde: Q é uma matriz real simétrica positiva semi-definida; e R é uma matriz real simétrica
positiva definida.

Existem várias maneiras de resolver o problema do LQR, a mais comumente usada é


aquela que se baseia no segundo método de Liapunov. A maior vantagem da aplicação do
método de Liapunov é que, exceto em casos muito especiais, a estabilidade fica garantida a
priori, ou seja, garante-se encontrar uma matriz de ganhos K que resulte em autovalores
estáveis de (A + BK).

A solução do problema de otimização inicia-se pela substituição da lei de controle ( 8.3 )


na equação de estados ( 8.2 );

x& = Ax + BKx = (A + BK )x ( 8.6 )

90 Sistemas de Controle
e no funcional ( 8.4 ),

( )
∞ ∞
J = ∫ (x T Qx + x T K T RKx)dt = ∫ x T Q + K T RK xdt ( 8.7 )
0 0

Para mostra que uma função de Liapunov pode, efetivamente, ser usada na solução deste
problema, vamos, inicialmente, supor que:

(Q + K T
RK = − ) d T
dt
(
x Px ) ( 8.8 )

onde P é uma matriz real simétrica positivo definida.

Expandindo a equação ( 8.8 ), temos:

(Q + K T
)
RK = − x& T Px − x T Px& ( 8.9 )

Substituindo ( 8.6 ) em ( 8.9 ), temos:

(Q + K RK ) = −(A + BK ) x Px − x P(A + BK )x ⇒
T T T T

⇒ (Q + K RK ) = −x [(A + BK ) P + P(A + BK )]x


T T T ( 8.10 )

Pelo segundo método de Liapunov, sabemos que, para um dado (Q + K T RK ), se


(A + BK ) for estável, existe uma matriz P, tal que:
(A + BK )T P + P(A + BK ) = −(Q + K T RK ) ( 8.11 )

A equação ( 8.11 ) é conhecida como Equação Algébrica de Riccati (ARE - Algebraic


Riccati Equation).

O funcional de custo pode ser calculado como:

( )
∞ ∞
J = ∫ x T Q + K T RK xdt = − x T Px = − x(∞) T Px (∞) + x(0) T Px (0) ( 8.12 )
0
0

Como (A + BK ) é assumida com sendo estável, temos que x(∞) → 0 ; logo:

J = x(0) T Px(0) ( 8.13 )

Assim, o funcional pode ser obtido em termos das condições iniciais x(0) e de P, que, por
sua vez, está relacionada com (A + BK ) e (Q + K T RK ).

Para obter a solução do problema de controle ótimo quadrático, seguem-se os seguintes


passos. Inicialmente, como R é uma matriz real simétrica positivo definida, podemos
escrever:

R = TT T ( 8.14 )

onde T é uma matriz não singular.

Substituindo ( 8.14 ) em ( 8.11 ), temos:


Sistemas de Controle 91
(A T
+ K T B T )P + P(A + BK ) + Q + K T T T TK = 0 ( 8.15 )

Reescrevendo ( 8.15 ), podemos obter:

[
A T P + PA + TK + T T ( ) −1
][
T
B T P TK + T T( ) −1
]
B T P − PB T T T( )
−1
BT P + Q = 0 ( 8.16 )

A minimização do funcional J com relação a matriz de ganhos K, requer a minimização


de:

[
x T TK + T T ( ) −1
][
T
B T P TK + T T( ) −1
BT P x ] ( 8.17 )

A expressão ( 8.17 ), por ser quadrática, é não negativa, logo seu mínimo ocorre quando
ela é nula, ou seja, quando:

TK + (T T ) B T P = 0 ⇒ TK = −(T T ) B T P ⇒
−1 −1

( 8.18 )
⇒ K = −T −1 (T T ) B T P
−1

ou simplesmente:

K = − R −1 B T P ( 8.19 )

onde P deve satisfazer a equação ( 8.16 ) ou sua versão reduzida, conhecida como Equação de
Algébrica de Riccati de matriz reduzida.

A T P + PA − PBR −1B T P + Q = 0 ( 8.20 )

Resumindo, dados uma sistema dinâmico na forma ( 8.2 ) e um funcional de custo


quadrático na forma ( 8.5 ), o projeto de um regulador linear quadrático consiste,
basicamente, de dois passos:

1. Encontrar a solução P da Equação Algébrica de Riccati ( 8.20 ); e,

2. Usar esta solução para determinar a matriz de ganhos da realimentação K.

EXEMPLO:

0 1  0 
x& =   x +  u
Considere o seguinte sistema; 0 − 1 1 . Determine a matriz ótima de ganhos
y = [1 0]x
∞ 1 0
da realimentação para o funcional; J = ∫ (x T   x + u )dt .
2

0  0 1 

SOLUÇÃO:

O primeiro passo é resolver a equação de Riccate e determinar a matriz P:

92 Sistemas de Controle
0 0   p11 p12   p11 p12  0 1   p11 p12  0
[1][0 1] 11
p p12  1 0 0 0
1 − 1  p + − + =
   12 p22   p12 p22  0 − 1  p12   
p22  1  p12 p22  0 1 0 0

 0 0  0 p11 − p12   p122 p12 p22  1 0 0 0


⇒ + − + =
 p11 − p12 p12 − p22  0 p12 − p22   p12 p22 p222 
 0 1 0 0

De onde obtemos o seguinte sistema de equações simultâneas:

− p122 + 1 = 0

 p11 − p12 − p12 p22 = 0 2 1
 ;⇒ P =  
 p11 − p12 − p12 p22 = 0 1 1
p − p + p − p − p2 +1= 0
 12 22 12 22 22

O segundo, e último, passo consiste em utilizar a matriz P, determinada anteriormente,


para calcular a matriz ótima de ganhos da realimentação de estados K:

2 1
K = − R −1B T P = −[1][0 1]  = −[1 1]
1 1

8.2 Controle Ótimo Quadrático Discreto

No caso do controle ótimo quadrático discreto, é possível mostrar que, considerando o


controle do processo para um tempo finito, a matriz de ganhos K varia ao longo do tempo,
permanecendo constante apenas nos instantes iniciais. Porém, se consideramos que o controle
do processo atuará indefinidamente, com o instante final, N, tendendo ao infinito, podemos
adotar uma solução sub-ótima, considerando o sistema em regime, onde a matriz de ganhos K
é constante.

Neste caso, para N = ∞, temos um sistema dinâmico dado por:

x(k + 1) = Gx(k ) + Hu(k ); k = 0,1,2,...,N ( 8.21 )

com a seguinte lei de controle:

u(k ) = Kx(k ) ( 8.22 )

onde a matriz de ganhos K, será obtida a partir da minimização de um funcional de custo


quadrático, do tipo:

J=
1 ∞ T
[
∑ x (k )Qx(k ) + u (k )Ru(k )
2 k =0
T
] ( 8.23 )

onde: Q é uma matriz real simétrica positiva semi-definida; e R é uma matriz real simétrica
positiva definida.

Assim como no caso contínuo, a matriz de ganhos K é definida em função de uma matriz
real simétrica positivo definida P. Onde K é dada por:

Sistemas de Controle 93
(
K = − R + H T PH )
−1
H T PG ( 8.24 )

Sendo a matriz P a solução de uma equação de Riccati de regime permanente.

(
P = Q + G T PG − G T PH R + H T PH )−1
H T PG ( 8.25 )

• Equação de Riccati de Regime Permanente

Uma forma de resolver a equação de Riccati de regime permanente é considerar o caso


transitório, onde:

(
P(k + 1) = Q + G T P(k )G − G T P(k )H R + H T P(k )H )−1
H T P (k )G ( 8.26 )

Partindo de uma solução inicial nula P(0) = 0, damos início a um processo iterativo que
deverá convergir para uma matriz P constante. Quando os elementos de P não variarem
significativamente (dentro de uma tolerância previamente estabelecida) tomaremos a última
matriz P calculada como sendo a solução da equação de Riccati de regime permanente e a
usaremos para determinar a matriz de ganhos K.

EXEMPLO:

0,2 0  1
Considere o seguinte sistema; x(k + 1) =   x(k ) +  u(k ) . Determine a matriz
 0 0,4 1
1 0 
Q = 
ótima de ganhos da realimentação, considerando;
0 0 , 5  e R = 1.

SOLUÇÃO:

O primeiro passo é resolver a equação de Riccate e determinar a matriz P. Sendo P(0)=0,


temos:

1,0000 0,0000
(
P(1) = Q + G T P(0)G − G T P(0)H R + H T P(0)H )
−1
H T P(0)G = Q =  
0,0000 0,5000

 1,0240 − 0,0160
(
P(2) = Q + G T P(1)G − G T P(1)H R + H T P(1)H ) −1
H T P(1)G =  
− 0,0160 0,5640 

 1,0251 − 0,0186
(
P(3) = Q + G T P(2)G − G T P(2)H R + H T P(2)H ) −1
H T P(2)G =  
− 0,0186 0,5714 

 1,0252 − 0,0189  1,0252 − 0,0189  1,0252 − 0,0189


P(4) =   ; P(5) =   ; P(6) =  
− 0,0189 0,5723  − 0,0189 0,5724  − 0,0189 0,5724 

94 Sistemas de Controle
Considerando uma tolerância de 10-4, atingimos uma solução satisfatória na sexta
iteração:

 1,0525 − 0,0189
P= 
− 0,0189 0,5724 

Em seguida, utilizamos a matriz P, determinada anteriormente, para calcular a matriz


ótima de ganhos da realimentação de estados K:

(
K = − R + H T PH )
−1
H T PG = −[0,0786 0,0865]

Sistemas de Controle 95
Referências

Este texto destina-se a ser uma fonte de informações teórico-didáticas, facilmente


acessível, para alunos de disciplinas relacionadas ao tema de Sistemas de Controle. Desta
forma, este material não se propõe a substituir livros, também relacionados a este tema, tais
como:

1. DORF, R. C. e BISHOP, R. H. Modern Control Systems. Addison-Wesley, 1995.

2. K. OGATA. Engenharia de Controle Moderno - Segunda Edição. Prentice-Hall do Brasil, 1990.

3. B. C. KUO. Sistemas de Controle Automático. Prentice-Hall do Brasil, 1985.

4. G. F. FRANKLIN, J. D. POWELL e A. E. NAEINI. Feedback Control of Dynamic Systems. Addison-


Wesley, 1986.

5. J. J. D'AZZO e C. H. HOUPIS. Análise e Projeto de Sistemas de Controle Lineares. Guanabara Dois, 1984.

6. ROHRS, C. E., MELSA, J. L. e SCHULTZ, D. G. Linear Control Systems. McGraw-Hill, 1993.

7. GOLTEN, J. e VERNER, A. Control System Design and Simulation. McGraw-Hill, 1991.

8. ASTROM, K e Wittenmark, B. Computer-Controlled Systems-Theory and Design. Prentice-Hall Internat.,


1990.

9. K. OGATA. Dicrete-Time Control Systems. Prentice-Hall, 1987.

10. FRANKLIN, G. F. e POWELL, J. D. Digital Control of Dynamic Systems. Addison-Wesley Publ., 1980.

11. SMITH, C. L. Digital Computer Process Control. Intext Educational Publishers, 1972.

12. K. OGATA. Designing Linear Control Systems with MATLAB. Prentice-Hall, 1994.

13. Quanser, Inovation Educate. Manual Coupled Water Tank Experiments.

Além disso, outras fontes bibliográficas muito úteis podem ser encontradas na Internet.
Alguns exemplo são os diversos materiais que podem ser encontrados nas páginas eletrônicas
de alguns professores do DCA:

14. Prof. Dr. Adelardo Adelino D. de Medeiros, www.dca.ufrn.br/~adelardo/, (17/11/2005).

15. Prof. Dr. André Laurindo Maitelli, www.dca.ufrn.br/~maitelli/, (17/11/2005)

96 Sistemas de Controle