Você está na página 1de 60

UNIVERSIDADE FEDERAL DO MARANHÃO

PRÓ-REITORIA DE PÓS-GRADUAÇÃO
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA AEROESPACIAL
EAEROM0015 - ESTIMAÇÃO DE ESTADOS DE SISTEMAS DINÂMICOS
MULTIVARIÁVEIS

PROF. FRANCISCO SOUZA

Estimação de Estados de Sistemas Dinâmicos Multivariáveis


EAEROM0015
OBSERVADORES DE ESTADOS

São Luı́s, MA
2020
PROF. FRANCISCO SOUZA

Estimação de Estados de Sistemas Dinâmicos Multivariáveis


EAEROM0015
OBSERVADORES DE ESTADOS

Material de estudo apresentado à turma de


EESDM.

Área de concentração: Engenharia Ae-


roespacial

Orientador: Prof. Dr. Francisco das Chagas


de Souza

São Luı́s, MA
2020
Lista de figuras

Figura 1.1 – Estimação de Estados . . . . . . . . . . . . . . . . . . . . . . . . . . . 14


Figura 2.1 – Um sistema linear qualquer em espaço de estados representado em
diagrama de blocos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Figura 2.2 – A área com traços diagonais corresponde às medições utilizadas para
estimação. k: Instante no qual o estado está sendo estimado. kf : Instante
final que delimita todas as medições. . . . . . . . . . . . . . . . . . . . 35
Figura 2.3 – Projeto de sistema de controle. . . . . . . . . . . . . . . . . . . . . . . 37
Figura 2.4 – Representação em diagrama de blocos de um sistema com controle de
realimentação. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Figura 2.5 – Representação em diagrama de blocos de um observador de estado. . . 41
Figura 2.6 – Representação em diagrama de blocos de um observador de estado. . . 42
Figura 3.1 – Servomecanismo DC de velocidade. . . . . . . . . . . . . . . . . . . . . 44
Figura 3.2 – Representação da implementação do sistema com observador em simu-
link sem ruı́do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Figura 3.3 – Evolução de x1 (k). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Figura 3.4 – Evolução de x2 (k). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Figura 3.5 – Evolução de x3 (k). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
Figura 3.6 – Evolução de y(k). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Figura 3.7 – Métrica e1,k da estimação feita pelo observador sem ruı́do. . . . . . . . 48
Figura 3.8 – Métrica e2,k da estimação feita pelo observador sem ruı́do. . . . . . . . 49
Figura 3.9 – Métrica e3,k da estimação feita pelo observador sem ruı́do. . . . . . . . 49
Figura 3.10–Representação da implementação do sistema com observador em simu-
link com ruı́do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
Figura 3.11–Realização do ruido de observação w. . . . . . . . . . . . . . . . . . . . 51
Figura 3.12–Realização do ruido de medição v. . . . . . . . . . . . . . . . . . . . . . 52
Figura 3.13–Realização com ruido no estado x1 . . . . . . . . . . . . . . . . . . . . . 52
Figura 3.14–Realização com ruido no estado x2 . . . . . . . . . . . . . . . . . . . . . 53
Figura 3.15–Realização com ruido no estado x3 . . . . . . . . . . . . . . . . . . . . . 53
Figura 3.16–Realização com ruido na saı́da y. . . . . . . . . . . . . . . . . . . . . . 54
Figura 3.17–Métrica e1,k da estimação feita pelo observador com ruı́do. . . . . . . . 54
Figura 3.18–Métrica e2,k da estimação feita pelo observador com ruı́do. . . . . . . . 55
Figura 3.19–Métrica e3,k da estimação feita pelo observador com ruı́do. . . . . . . . 55
Figura 4.1 – Representação da implementação do sistema com observador em Simu-
link sem ruı́do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
Figura 4.2 – Estado x1 real e estimado pelo observador. . . . . . . . . . . . . . . . . 57
Figura 4.3 – Estado x2 real e estimado pelo observador. . . . . . . . . . . . . . . . . 57
Figura 4.4 – Métrica e1,k da estimação feita pelo observador. . . . . . . . . . . . . . 58
Figura 4.5 – Métrica e2,k da estimação feita pelo observador. . . . . . . . . . . . . . 58
Sumário

1 Estimador de Estados . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Histórico da Estimação . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Problemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1 Representação do Sistema em Espaço de Estados . . . . . . . . . . . . 17
2.2 Linearização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4 Discretização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Processos Estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Distribuição em Processos Estocásticos . . . . . . . . . . . . . . . . . 30
2.7 Estatı́sticas de Processos Estocásticos de Primeira e Segunda Ordem . 30
2.8 Ortogonalidade e Descorrelação . . . . . . . . . . . . . . . . . . . . . 31
2.9 Estacionariedade com Sentido Estrito e Sentido Amplo . . . . . . . . 32
2.10 Ergocidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.11 Ruido Branco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.12 Estimador de Estado . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.13 Métrica de Desempenho . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.14 Sistema de Controle de Realimentação . . . . . . . . . . . . . . . . . 36
2.15 Observadores de Estados . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.16 Realimentação de Estados . . . . . . . . . . . . . . . . . . . . . . . . 38
2.17 Observador de Estado com Realimentação . . . . . . . . . . . . . . . . 39
2.18 Principio da separação . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3 Simulações 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.1 Exemplo sem Ruı́do . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2 Discretização do Sistema . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Exemplo com Ruı́do . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Simulações 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

Referências1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

1
De acordo com a Associação Brasileira de Normas Técnicas. NBR 6023.
6

1 Estimador de Estados

1.1 Introdução

Sistema
Um sistema é composto por entradas e saı́das, podendo estar interrelacionadas de
acordo com um conjunto de regras.

• Para analisar um sistema, é essencial reduzir a complexidade das expressões ma-


temáticas, bem como recorrer aos computadores para a maioria dos processamentos
necessários na análise.
• A abordagem com base no espaço de estados é a mais apropriada para analisar o
sistema sob este ponto de vista (OGATA; YANG, 2010).

Anotações:
7

Espaço de Estados
A noção de espaço de estados vem do método de variáveis de estado para descrever
equações diferenciais.

• Nesse método, as equações diferenciais que descrevem um sistema dinâmico são


organizadas como um conjunto de equações diferenciais de primeira ordem no vetor
de estados do sistema, e a solução é visualizada como uma trajetória desse vetor de
estados no espaço (FRANKLIN et al., 1994).
• Todo sistema linear com parâmetros concentrados pode ser descrito por um conjunto
de equações da forma (CHEN, 1998)

ẋ(t) = Ax(t) + Bu(t) (1.1)

y(t) = Cx(t) + Du(t) (1.2)

dx
onde ẋ = com x ∈ <n .
dt

Para um sistema com a saı́da da planta y ∈ <q e a entrada de controle u ∈ <m , as


matrizes do sistema são (CHEN, 1998):
A(·) ∈ <n×n , B ∈ (·) ∈ <n×m , C ∈ (·) ∈ <q×n e D ∈ (·) ∈ <q×m .

A equação (1.1) representa a equação de estados e contém informações passadas do


sistema e a (1.2) representa a equação da saı́da, função da entrada e do conjunto de
estados.

Anotações:
8

1.2 Histórico da Estimação

Método dos Mı́nimos Quadrados (MMQ)


O primeiro método para formar um estimador ótimo a partir de dados ruidosos,
surgiu em 1795, conhecido como método dos mı́nimos quadrados (MMQ), sendo a sua
descoberta atribuı́da a Carl Friedrich Gauss.

• A existência inevitável dos erros de medição havia sido reconhecida desde a época
de Galileu, mas este foi o primeiro método formal para lidar com tais erros.
• Embora seja mais comumente usado para problemas de estimação linear, Gauss
utilizou o MMQ primeiramente para um problema de estimação não linear, no campo
da astronomia, visando realizar a estimação de órbitas de planetas.
• O MMQ foi o primeiro método de estimação que satisfazia uma condição de otimali-
dade (GREWAL; ANDREWS, 2014).
Observação:
Embora a descoberta do MMQ seja, geralmente, atribuı́da a Gauss, há publicações
independentes do MMQ por Andrien-Marie Legendre (França), Robert Adrian
(Estados Unidos). Também, o MMQ havia sido usado antes de Gauss nascer pelo
fı́sico alemão-suı́ço Johann Heinrich Lambert.

Anotações:
9

Filtro de Wiener
Nos primeiros anos da Segunda Guerra Mundial, Wiener esteve envolvido em
um projeto militar de um controlador automático para direcionar armas antiaéreas com
informações de radar.

• Com a alta velocidade dos aviões, necessitava-se prever a trajetória das aeronaves
para atingir o alvo.

Assim, o sistema deveria “disparar no futuro”, ou seja, o controlador deveria prever o


curso futuro de seu alvo usando dados de rastreamento de radar ruidoso (GREWAL;
ANDREWS, 2014).

Anotações:
10

Na derivação de um estimador ótimo, Wiener usaria medidas de probabilidade em


espaços funcionais para representar dinâmicas incertas.

• Wiener derivou a solução para o erro de predição no sentido do mı́nimo quadrado


médio em termos das funções de autocorrelação do sinal e do ruı́do:
- Sua solução está na forma de um operador integrador que pode ser implementado
através de filtros analógicos.

• Uma derivação análoga do preditor linear ideal para sistemas de tempo discretos
foi publicada por Kolmogorov em 1941, em um trabalho independente ao de Wie-
ner, quando Wiener estava apenas concluindo o seu trabalho no preditor de tempo
contı́nuo.

• O trabalho de Wiener foi publicado em um relatório intitulado


“Extrapolation, interpolation, and smoothing of stationary time series”.
O tı́tulo foi posteriormente abreviado para “Time series”.

Anotações:
11

Filtro de Kalman
Em 1958, o Escritório de Pesquisa Cientı́fica da Força Aérea financiava Kalman
e Bucy para pesquisas avançadas em estimação e controle no RIAS (Research Institute
for Advanced Studies), trabalhos estes na mesma linha de pesquisa dos de Wiener e
Kolmogorov.

• Com a suposição adicional de dimensionalidade finita, Kalman conseguiu derivar o


filtro de Wiener-Kolmogorov na forma de espaço de estados.
- Dessa forma, surgiu o que é atualmente conhecido como filtro de Kalman (KF -
Kalman Filter).

• O filtro de Kalman é considerado a maior conquista na teoria de estimação do século


XX (GREWAL; ANDREWS, 2014).

Anotações:
12

1.3 Problemática

Conhecimento Completo do Vetor de Estados


Existem muitos procedimentos analı́ticos para projeto de controle, que são base-
ados na suposição de que o vetor de estados completo esteja disponı́vel para medição
(LUENBERGER, 1979).

• Esses procedimentos especificam a seguinte condição:


- O valor da entrada atual é uma função do valor atual do vetor de estados, ou seja,
o controle é uma função estática dos estados do sistema.

Anotações:
13

Matematicamente, é claro, há boas razões para esse tipo de especificação de controle.
O sistema evolui de acordo com suas equações do vetor de estados e, portanto, influência
o comportamento futuro, que é baseado no valor atual do estado. Porém na prática, novos
problemas podem surgir como:

1. O vetor estados de pode não está disponı́vel para medição (o estado pode não ser
uma grandeza fı́sica, por exemplo).
2. Em muitos sistemas fı́sicos, por exemplo, as medições requerem o uso de equipamentos
com custos elevados.
3. A precisão das medições das variáveis de estado pode ser baixa.

• Em grandes sistemas sociais ou econômicos, as medições podem exigir pesquisas


extensas ou procedimentos complexos de manutenção de registros. E, em alguns
sistemas, certos componentes do vetor de estado correspondem a variáveis internas
inacessı́veis, que não podem ser medidas.

Anotações:
14

Estimador de Estados
Os estimadores de estados são empregados para estimar estados não medidos e
para filtrar os estados que são medidos.

Figura 1.1 – Estimação de Estados

• Os estimadores de estados são fundamentais para qualquer aplicação de controle


(SALAU, 2009). Neste caso projetamos um dispositivo chamado estimador de estado
ou observador de estado, para que a saı́da do dispositivo gere uma estimativa do
estado.
• Os únicos dados disponı́veis são a entrada u(t), a saida y(t), w(t) e v(t) que são
ruı́dos gaussianos brancos com apenas estatı́sticas conhecidas.
• O estimador utilizará os sinais de entrada e de saı́da além das informações estatı́sticas
dos ruı́dos e do modelo do sistema para realizar a medição. A estrutura da estimação
de estados são apresentados na figura 1.1.

Anotações:
15

1.4 Motivação

Observador de Luenberger
A idéia é projetar um estimador de estados (observador) com base em informações
sobre a dinâmica do sistema, suas entradas e saı́das.

• Conceito inovador foi proposto inicialmente por Luenberger (LUENBERGER, 1979).

• Através do método de espaço de estados podemos projetar um controle via reali-


mentação, com o monitoramento do vetor de estados.

Anotações:
16

Observador de Luenberger

• Projeta-se um observador de estados para estimar o vetor de estados x̂(t), isto é,
obter a estimativa do estado x(t) usando as observações de saı́da:

y(1), y(2), y(3), ..., y(t).

Para tal, assume-se que:

– as observações são medidas a partir do instante (t)


– o vetor de estado inicial é x(0) = x0 , o qual pode ser desconhecido.

• O próprio observador de estados é um sistema dinâmico:

– suas entradas são os valores das saı́das medidas do sistema original (planta)
– sua saı́da (vetor de estado estimado) fornece informações ausentes (não medidas)
sobre o estado do sistema original (LUENBERGER, 1979).

Anotações:
17

2 Generalidades

2.1 Representação do Sistema em Espaço de Estados

A representação básica para sistemas lineares é a equação de estado linear, normal-


mente escrita na forma padrão

ẋ(t) = A(t)x(t) + B(t)u(t)


(2.1)
y(t) = C(t)x(t) + D(t)u(t)

• O ponto sobre x(t), isto é, ẋ(t), denota diferenciação em relação ao tempo t.

• O vetor x(t) tem dimenssão n × 1, denominado vetor de estado, é uma função


do tempo, tendo como seus componentes x1 (t), ..., xn (t), os quais são chamados
variáveis de estado.

• O sinal de entrada é a função u(t) com dimenssão m × 1.

• O sinal de saı́da é função y(t) com dimenssão p × 1.

Anotações:
18

Hipóteses e Terminologia Padrão

• Suposições sobre as matrizes de coeficientes em (2.1):


Os elementos de A(n × n), B(n × m), C(p × n) e D(p × m) são funções contı́nuas,
com valor real definidas para todo t ∈ (−∞, ∞).

• Na terminologia padrão, a equaçãpo (2.1) é:

– invariante no tempo se as matrizes de coeficientes forem constantes;


– variante no tempo se qualquer elemento de qualquer matriz variar com o tempo
(RUGH, 1996).

• Normalmente, em problemas de engenharia, para um tempo inicial fixo t0 e deter-


minado estado inicial x(t0 ) = x0 , as propriedades da solução x(t) são obtidas para
t > t0 , considerando o sinal de entrada u(t) especificado em t ∈ (t0 , ∞) (RUGH,
1996).

Anotações:
19

2.2 Linearização

A equação de estado linear (2.1) é útil como uma aproximação a uma equação de
estado não linear no sentido a seguir. Considere

ẋ(t) = f [x(t), u(t), t] , x (t0 ) = x0 (2.2)

x(t): Vetor de estado, n × 1


u(t): Vetor de entrada de vetor, m × 1

Escrita em termos escalares, a equação do i -ésimo componente tem a forma

ẋi (t) = fi [x1 (t), . . . , xn (t); u1 (t), . . . , um (t); t] , xi (to ) = xio , i = 1, ..., n (2.3)

Anotações:
20

Solução Nominal: Geralmente chamada de trajetória nominal, x̃(t)

• Para obter a trajetória nominal, a Eq. (2.2) é resolvida para:

– um sinal de entrada especı́fico chamado entrada nominal, ũ(t)


– um estado inicial especı́fico chamado estado inicial nominal, x̃0

• De interesse é o comportamento da equação de estado não linear para um estado


inicial e uma entrada que estão ’próximos’ de seus valores nominais. Ou seja,

xo = x̃o + xoδ ,
u(t) = ũ(t) + uδ (t)

onde as normas kxoδ k e kuδ (t)k são apropriadamente pequenas para t > t0 .
• Dessa forma, é razoável assumir que a solução correspondente x(t) permanece próxima
de x̃(t) e escreve-se

x(t) = x̃(t) + xδ (t).

Observação: É claro que nem sempre é esse o caso (RUGH, 1996).

Anotações:
21

Em termos da descrição da equação de estado não linear, essas notações estão


relacionadas de acordo com

d d
x̃(t) + xδ (t) = f [x̃(t) + xδ (t), ũ(t) + uδ (t), t] (2.4)
dt dt

x̃ (to ) + xδ (to ) = x̃o + xoδ (2.5)

• Supondo que f seja derivável, pode-se expandir o lado direito de (2.4) usando a série
de Taylor em relação a x̃(t) e ũ(t), retendo apenas os termos de primeira ordem.
• Isso deve fornecer uma aproximação razoável, pois presume-se que uδ (t) e xδ (t) sejam
pequeno para todo t.
22

Expansão em Série de Taylor: Para o i-ésima componente de f , mantendo somente


os termos de primeira ordem e eliminando, momentaneamente, a maioria dos argumentos
t por simplicidade, tem-se

∂fi ∂fi
fi (x̃ + xδ , ũ + uδ , t) ≈fi (x̃, ũ, t) + (x̃, ũ, t)xδ1 + · · · + (x̃, ũ, t)xδn
∂x1 ∂xn
(2.6)
∂fi ∂fi
+ (x̃, ũ, t)uδ1 + · · · + (x̃, ũ, t)uδm .
∂u1 ∂um

• Observe que esta expansão descreve o comportamento da função f (x, u, t) com


relação aos argumentos x e u.

• Note que não há expansão em relação ao terceiro argumento t.


23

Execução da expansão para i = 1, ..., n e organização na forma matriz-vetorial:

d d ∂f
x̃(t) + xδ (t) ≈f (x̃(t), ũ(t), t) + (x̃(t), ũ(t), t)xδ (t)
dt dt ∂x (2.7)
∂f
+ (x̃(t), ũ(t), t)uδ (t)
∂u

Notação:
∂f /∂x denota o jacobiano, i.e., uma matriz com seu (i, j)-ésimo elemento dado por ∂fi /∂xj .

Como

d
x̃(t) = f (x̃(t), ũ(t), t), x̃ (to ) = x̃o (2.8)
dt

então, a relação entre xδ (t) e uδ (t) é aproximadamente descrito por uma equação de estado
linear variável no tempo da forma

ẋδ (t) = A(t)xδ (t) + B(t)uδ (t), xδ (to ) = xa − x̃o (2.9)

A e B: Matrizes de derivadas parciais avaliadas usando os dados da trajetória nominal

∂f ∂f
A(t) = (x̃(t), ũ(t), t), B(t) = (x̃(t), ũ(t), t). (2.10)
∂x ∂u
24

Se houver uma equação de saı́da não linear,

y(t) = h(x(t), u(t), t) (2.11)

a função h(x, u, t) pode ser expandido com relação a x = x̃(t) e u = ũ(t) para fornecer,
depois de eliminar termos de ordem superior, a descrição aproximada

yδ (t) = C(t)xδ (t) + D(t)uδ (t). (2.12)

Aqui a saı́da de desvio é yδ (t) = y(t) − ỹ(t), onde ỹ(t) = h(x̃(t), ũ(t), t), e

∂h ∂h
C(t) = (x̃(t), ũ(t), t), D(t) = (x̃(t), ũ(t), t). (2.13)
∂x ∂u
Nesse desenvolvimento, supõe-se que exista uma solução nominal de interesse para
todo t > t0 e deve ser conhecido antes que o cálculo da linearização possa ser realizado
(RUGH, 1996).
25

2.3 Sistemas Lineares

A representação básica para sistemas lineares é a equação de estado linear, normal-


mente escrita na forma padrão

ẋ(t) = Ax(t) + Bu(t) (2.14)

y(t) = Cx(t) + Du(t) (2.15)

Para quaisquer dois pares i = 1, 2 de entradas e condiçães iniciais



xi (t0 ) 
→ yi (t), t ≥ t0
ui (t), t ≥ t0 

x1 (t0 ) + x2 (t0 ) 
→ y1 (t) + y2 (t), t ≥ t0 aditividade
u1 (t) + u2 (t), t ≥ t0 

αxi (t0 ) 
→ αyi (t), t ≥ t0 ; i = 1, 2 homogeneidade
αui (t), t ≥ t0 

α1 x1 (t0 ) + α2 x2 (t0 ) 
→ α1 y1 (t) + α2 y2 (t), t ≥ t0 superposição
α u (t) + α u (t), t ≥ t 
1 1 2 2 0

• Se a estrada u(t) ≡ 0, t ≥ t0 : resposta à entrada nula


• Se x (t0 ) = 0 : resposta ao estado nulo
26

Assim, a resposta de todo sistema linear pode ser decomposta na resposta de estado
zero e na resposta de entrada zero.

• Além disso, as duas respostas podem ser estudadas separadamente e sua soma gera
a resposta completa.

Figura 2.1 – Um sistema linear qualquer em espaço de estados representado em diagrama


de blocos.

Caso de Sistemas Não Lineares: Para sistemas não lineares, a resposta completa
pode ser muito diferente da soma da resposta de entrada zero e resposta de estado zero.

• Portanto, não podemos separar as respostas de entrada zero e respostas de estado


zero no estudo de sistemas não lineares.
27

2.4 Discretização

Considere a equação do estado de tempo contı́nuo

ẋ(t) = Ax(t) + Bu(t) (2.16)

y(t) = Cx(t) + Du(t) (2.17)

A discretização deste sistema contı́nuo pode ser feita aproximando a derivada de ẋ (CHEN,
1998)

x(t + T ) − x(t)
ẋ(t) = lim (2.18)
T →0 T

• Assim, (2.16) pode ser aproximada como

x(t + T ) = x(t) + Ax(t)T + Bu(t)T. (2.19)


28

• Calculando x(t) e y(t) apenas em t = kT para k = 0, 1, ..., resulta

x((k + 1)T ) = (I + T A)x(kT ) + T Bu(kT )


(2.20)
y(kT ) = Cx(kT ) + Du(kT )

Outra Forma de Discretização: Uma alternativa para a discretização é obtida


considerandando a entrada u(t) gerada por um computador digital e seguido por um
conversor digital-analógico:

• Então u(t) será constante por partes.


• Assim, se uma entrada alterar o seu valor apenas em instantes de tempo discretos
kT e se calcularmos apenas as respostas em t = kT , obtém-se (HAYKIN, 2014).

x[k + 1] = Ad x[k] + Bd u[k]


(2.21)
y(k] = Cd x[k] + Dd u[k]
com as matrizes A, B, C e D dadas por

Z T 
AT Aτ
Ad = e , Bd = e dτ B, Cd = C, Dd = D. (2.22)
0

A equação (2.2) é uma representação do sistema em espaço de estados de tempo


discreto.
29

2.5 Processos Estocásticos

O termo processo estocástico ou processo aleatório, é usado para descrever a


evolução temporal de um fenômeno estatı́stico de acordo com as leis probabilı́sticas. A
evolução temporal do fenômeno significa que o processo estocástico é uma função do
tempo, definida em algum intervalo de observação. A natureza estatı́stica do fenômeno
significa que, antes de realizar um experimento, não é possı́vel definir exatamente como
ele evolui com o tempo. Exemplos de um processo estocástico incluem sinais de fala,
sinais de televisão, sinais de radar, dados de computadores digitais, saı́da de um canal
de comunicação, dados sismológicos e ruı́do (HAYKIN, 2014). Uma variável aleatória x é
uma regra para atribuir a cada resultado ζ de um experimento S um número x(ζ). Um
processo estocástico x(t) é uma regra para atribuir a todos ζ uma função x(t, ζ). Assim,
um processo estocástico é uma famı́lia de funções de tempo, dependendo do parâmetro
ζ ou, equivalentemente, uma função de t e ζ. O domı́nio de ζ é o conjunto de todos os
resultados experimentais e o domı́nio de t é um conjunto < de números reais (PAPOULIS;
PILLAI, 2002). Se < é o eixo real, então x(t) é um processo de tempo contı́nuo. Se < é o
conjunto de números inteiros, então x(t) é um processo de tempo discreto. Um processo
de tempo discreto é, portanto, uma sequência de variáveis aleatórias. Diremos que x(t)
é um processo de estado discreto se seus valores forem contáveis. Caso contrário, é um
processo de estado contı́nuo. A maioria dos resultados desta investigação será redigida em
termos de processos de tempo contı́nuo (PAPOULIS; PILLAI, 2002).
Tem as seguintes interpretações sobre processo estocástico:

1. É uma famı́lia (ou um conjunto) de funções x(t, ζ). Nesta interpretação, t e ζ são
variáveis.
2. Se t é uma variável e ζ é fixo. Tem-se uma função de temporal (ou uma realização
do processo fornecido).
3. Se t é fixo e ζ é variável, então x(t) é uma variável aleatória igual ao estado do
processo especificado no tempo t.
4. Se t e ζ são fixos, então x(t) é um número.

São obtidas amostrasde um processo estocástico ao longo do tempo. Cada vez que
o processo é reniciado, um novo conjunto de amostras é obtido.A este conjunto de amostra
dá-se o nome de realizações (MANOLAKIS et al., 2000).
30

2.6 Distribuição em Processos Estocásticos

No instante t = t0 , x(t0 ) é uma variável aleatória que requer uma função de


probabilidade de primeira ordem, como sendo definada por Fx (x; t0 ). Da mesma forma,
x(t1 , ζ) e x(t2 , ζ) são variáveis aleatórias conjuntas nas instâncias t1 e t2 respectivamente,
existindo uma distribuição conjunta denominada Fx (x1 , x2 ; t1 , t2 ) , sendo a distribuição de
segunda ordem (MANOLAKIS et al., 2000).

Fx (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) (2.23)

2.7 Estatı́sticas de Processos Estocásticos de Primeira e Segunda Ordem

Um processo estocástico é uma grande quantidade incontável de variáveis aleatórias,


uma para cada t. Para um t especı́fico, x(t) é uma variável aleatória com distribuição

F (x, t) = P {x(t) ≤ x}. (2.24)

Esta função depende de t,e é igual à probabilidade do evento {x(t) ≤ x} consiste em todos
os resultados ζ de modo que, no momento especı́fico t, as amostras x(t, ζ) do processo
especificado não excedam o número x. A função F (x, t) será chamada de distribuição de
primeira ordem do processo x(t). Sua derivada em relação a x:
∂F (x, t)
f (x, t) = (2.25)
∂x
é a densidade de primeira ordem de x(t) (PAPOULIS; PILLAI, 2002).
A distribuição de segunda ordem do processo x(t) é a distribuição conjunta

F (x1 , x2 ; t1 , t2 ) = P {x (t1 ) ≤ x1 , x (t2 ) ≤ x2 } . (2.26)

Em relação as distribuições de primeira ordem, é possivel calcular o valor esperado


ou valor médio por
x̂(t) = E[x(t)] (2.27)

Uma interpretação possivel para a média de x(t) é que esta pode ser considerada
como a ”localização”ou o ”centro de gravidade”de x(t) (MANOLAKIS et al., 2000)
Relacionado as distribuições de segunda ordem, é possivel calcular a correlação e a
corariância. A correlação é dada por

R (x (t1 ) , x (t2 )) = E [x (t1 ) x (t2 )] . (2.28)


31

A covariância é dada por

C (x (t1 ) , x (t2 )) = E [(x (t1 ) − x̂ (t1 )) (x (t2 ) − x̂ (t2 ))] . (2.29)

Através da covariáncia, é possivel encontrar o desvio padräo através de


p
σ (x (t1 ) , x (t2 )) = C (x (t1 ) , x (t2 )) (2.30)

o qual é uma medida da dispersão dos valores observados em torno da média de x(t)
(MANOLAKIS et al., 2000) É possivel construir a matriz de correlação de um processo
fazendo
 
R (x (t1 ) , x (t1 )) R (x (t1 ) , x (t2 )) . . . R (x (t1 ) , x (t2 ))
 
 
 R (x (t2 ) , x (t1 )) R (x (t2 ) , x (t2 )) . . . R (x (t2 ) , x (tn )) 
R= .. .. .. ..
 (2.31)
.
 
 . . . 
 
R (x (tn ) , x (t1 )) R (x (tn ) , x (t2 )) . . . R (x (tn ) , x (tn ))

a matriz de covariância por


 
C (x (t1 ) , x (t1 )) C (x (t1 ) , x (t2 )) . . . C (x (t1 ) , x (t2 ))
 
 
 C (x (t2 ) , x (t1 )) C (x (t2 ) , x (t2 )) . . . C (x (t2 ) , x (tn )) 
C=  .. .. ... ..

 (2.32)
 . . . 
 
C (x (tn ) , x (t1 )) C (x (tn ) , x (t2 )) . . . C (x (tn ) , x (tn ))

2.8 Ortogonalidade e Descorrelação

Dois processos são denominados mutuamente ortogonais se (MANOLAKIS et al.,


2000)(PAPOULIS; PILLAI, 2002)

R (x (t1 ) , x (t2 )) = 0 ∀t1 e t2 (2.33)

e descorrelacionados se

C (x (t1 ) , x (t2 )) = 0 ∀t1 e t2 (2.34)

Se ambos os processos tiverem média nula, a descorrelação implica também na ortogonali-


dade (MANOLAKIS et al., 2000).
32

2.9 Estacionariedade com Sentido Estrito e Sentido Amplo

O RP x(t) (ou sequência aleatória xk ) é chamado estacionário de sentido estrito


se todas as suas estatı́sticas (significando p[x(t1 ), x(t2 ), ...]) são invariantes em relação às
mudanças de tempo origem (GREWAL; ANDREWS, 2014):

p (x1 , x2 , . . . , xn , t1 , . . . , tn )
(2.35)
=p (x1 , x2 , . . . , xn , t1 + ε, t2 + ε, . . . , tn + ε)

O RP x(t) (ou xk ) é chamado estacionário de sentido amplo (ou estacionário de


sentido fraco) se

Ehx(t)i = c(a constant ) (2.36)

e
E x (t1 ) xT (t2 ) = Q (t2 − t1 ) = Q(τ )


(2.37)

onde Q é uma matriz com cada elemento, dependendo apenas da diferença t2 − t1 =


τ .Portanto, quando x(t) é estacionário no sentido amplo, isso implica que suas estatı́sticas
de primeira e segunda ordem são independentes da origem temporal, enquanto a estacionari-
edade estrita por definição implica que as estatı́sticas de todas as ordens são independentes
da origem temporal (GREWAL; ANDREWS, 2014).

2.10 Ergocidade

Um problema central nas aplicações de processos estocásticos é a estimativa de


vários parâmetros estatı́sticos em termos de dados reais. (PAPOULIS; PILLAI, 2002)
A maioria dos parâmetros podem ser expressos como valores esperados de um processo
de x(t). Um processo é considerado ergódico se todos os seus parâmetros estatı́sticos,
média, variação e assim por diante, puderem ser determinados a partir de funções-membro
escolhidas arbitrariamente. Uma função amostrada x(t) é ergódica se suas estatı́sticas
médias de tempo forem iguais às médias do conjunto.
33

2.11 Ruido Branco

Matemáticamente, um processo v(t) é ruı́do branco se seus valores v(ti ) e v(tj ) são
descorrelacionados para cada v(ti ) e v(tj ) 6= v(ti ) (PAPOULIS; PILLAI, 2002)

C (ti , tj ) = 0 ti 6= tj (2.38)

a autocovariância de um processo não trivial de ruı́do branco deve ser de interesse

C (t1 , t2 ) = q (t1 ) δ (t1 − t2 ) q(t) ≥ 0. (2.39)

Se as variáveis aleatórias v(ti ) e v(tj ) são descorrelacionados, mas também indepen-


dentes, v(t) será chamado estritamente de ruı́do branco.Ao contrário disto, será assumido
que a média de um processo de ruı́do branco é nula (MANOLAKIS et al., 2000).
O termo ruı́do branco é usado para enfatizar que todas as frequências contribuem
com a mesma quantidade de energia, como no caso da luz branca, obtida pela mistura
de todas as cores possı́veis na mesma quantidade. Se, além disso, adicionar as funções
densidades de probabilidade de um ruı́do branco x(t) for gaussiano, o processo será
chamado de processo de ruı́do gaussiano branco (de segunda ordem) (MANOLAKIS et al.,
2000).
34

2.12 Estimador de Estado

Uma solução trivial para o problema de estimar o estado de um sistema é construir


uma cópia do sistema original. Dado o sistema

xk+1 = Axk + Buk


(2.40)
yk = Cxk

Existem três tipos gerais de estimadores (GREWAL; ANDREWS, 2014):

• Preditor: Utiliza observações estritamente antes do instante no qual o estado do


sistema dinâmico deve ser estimado:

tobserv < testim .

• Filtro: Ultiliza observações até e incluindo o instante no qual o estado do sistema


dinâmico deve ser estimado:
tobserv ≤ testim .

• Suavizador: Utiliza observações além do instante no qual o estado do sistema dinâmico


deve ser estimado:
tobserv > testim .
35

Tal classificação pode ser compreendida através da Figura 2.2.

Figura 2.2 – A área com traços diagonais corresponde às medições utilizadas para es-
timação.
k: Instante no qual o estado está sendo estimado.
kf : Instante final que delimita todas as medições.
36

2.13 Métrica de Desempenho

Para realizar a comparação entre as técnicas, foram definidas as seguintes funções


de performance baseadas no erro absoluto:

• Primeiramente, uma métrica para avaliar o erro de estimação dada por:


NMC
1 X q
ei,k = (x̂k,i,r − xk,i,r )2 (2.41)
NM C r=1

onde NM C é o número de realizações de Monte Carlo, r é o indice referente a


realização, i é o indice referente ao estado, k é o indice temporal, x̂k,i,r é o estado
estimado e xk,i,r ė o estado real.
• Uma segunda métrica para apresentar o erro de todos os estados juntos:
nx
1 X
ek = ei,k (2.42)
nx i=1

onde nx é a dimensão do vetor de estados.


• E, por fim, uma métrica escalar dada por
tf
1 X
e= ek (2.43)
tf k=1

onde tf é o ı́ndice de tempo no final das realizações utilizadas.

2.14 Sistema de Controle de Realimentação

Os problemas de controle de realimentação podem ser classificados em duas catego-


rias: realimentação do estado que pressupõe um conhecimento completo dos estados do
sistema e realimentação da saı́da que apenas as saı́das da planta estão disponı́veis para
medição (SALMAN, 2009). Em termos gerais, a tarefa do controle é manipular as entradas
disponı́veis de um sistema dinâmico para fazer com que o sistema se comporte de uma
maneira mais desejável do que seria (LUENBERGER, 1979). A maioria dos sistemas de
controle pode ser formulada como mostrado na figura (2.2), na qual a planta e o sinal
de referência r(t) são dados. A entrada u(t) da planta é chamada de sinal de atuação ou
sinal de controle. A saı́da y(t) da planta é chamada de saı́da da planta ou sinal controlado
(CHEN, 1998). O problema é projetar um sistema geral para que a saı́da da planta siga o
mais próximo possı́vel o sinal de referência r(t).
37

Figura 2.3 – Projeto de sistema de controle.

O Existem dois tipos de controle o de malha aberta e de malha fechada, suas


aplicações dependem da planta do sistema a ser controlado. O controle pode ser projetado
para muitos propósitos e pode ser aplicado de várias maneiras.

2.15 Observadores de Estados

É mostrado nesta seção que o estado (ou uma aproximação dele) pode ser conveni-
entemente calculado por um dispositivo conhecido como observador. O próprio observador
é um sistema dinâmico linear. Seus valores de entrada são os valores das saı́das medidas do
sistema original e seu vetor de estado gera informações ausentes sobre o estado do sistema
original. O observador pode ser considerado como um dispositivo dinâmico que, quando
conectado às saı́das disponı́veis do sistema, gera todo o estado (LUENBERGER, 1979).
Uma abordagem alternativa é a de estimar o estado com base em medições que
são uma combinação linear dos estados e, em seguida, gerar o esforço de controle com
base nos estados estimados. Assumiremos que, na melhor das hipóteses, apenas alguns
dos estados são medidos diretamente. Queremos projetar um estimador de estado ou
observador (LUENBERGER, 1979) que, quando dada uma sequência yk e a entrada uk
reconstrói uma estimativa da sequência xk . Um observador ou estimador de estado é
outro sistema dinâmico que possui entradas uk e yk ,cuja saı́da é uma estimativa de xk
(JACQUOT, 1995). Para derivação do observador, dado um sistema linear de espaço de
estados
xk+1 = Axk + Buk
(2.44)
yk = Cxk
Se conhecermos A e B e a condição inicial x0 com precisão suficiente, este modelo
estimará com precisão a sequência de estados xk . O verdadeiro problema está no fato de
que sempre conhecemos A e B apenas aproximadamente e raramente sabemos x0 . Para
38

tais casos, a utilizaão de um observador de estados permite uma melhor estimação da


sequência de xk (JACQUOT, 1995).

2.16 Realimentação de Estados

Nesta seção, uma breve explicação sobre o projeto do sistema de controle usando a
realimentação dos estados e a estimação dos estados quando as medições disponı́veis são
incompletas.
Considere a planta de tempo discreto descrita pela equação:

xk+1 = Axk + Buk (2.45)

yk = Cxk . (2.46)

Um regulador é um sistema que controla a saı́da em torno de zero na presença


de perturbações externas, portanto, o controle será fornecido através da realimentação
negativa dos estados (JACQUOT, 1995). Dado por

uk = −F xk (2.47)

Isso significa que o sinal de controle u é determinado por um estado instantâneo.


A matriz F , 1 × n é denominada matriz de ganho de realimentação de estado (OGATA;
YANG, 2010). É usatilizada como termo de correção. Se a diferença for zero, nenhuma
correção é necessária. Se a diferença for diferente de zero e se o ganho F for projetado
adequadamente, a diferença conduzirá o estado estimado ao estado real. A figura 2.3
representa o diagrama de blocos dessa configuração. Sendo a entrada do controle de
realimentação de estados, como postulado em (2.18), substituı́do em (2.16), tem-se a
equação de atulização dos estados:

xk+1 = Ak + B(−F x)k


xk+1 = Ak − BFk (2.48)
xk+1 = (A − BF )xk
39

os autovalores de (2.19) podem ser encontrados através da equação caracterı́stica

λc (z) = det[zI − A + BF ] = 0. (2.49)

Se o estado é da dimensão n e o esforço de controle é da dimensão m, a matriz de


realimentação F possui elementos nm. Se o sistema (A, B) for controlável, a escolha dos
elementos de F controlará a localização dos pólos do sistema de circuito fechado(JACQUOT,
1995).

Figura 2.4 – Representação em diagrama de blocos de um sistema com controle de reali-


mentação.

2.17 Observador de Estado com Realimentação

Considere o sistema (2.16) e (2.17), assumimos que o par de matrizes (A,C) é


observável. Gostarı́amos de construir um estimador que levará o erro da estimativa a
zero no sentido assintótico. Projetar um estimador ou observador que inclua a estimativa
anterior x̂k e a medida yk para estimar x̂k+1 (JACQUOT, 1995). Um estimador linear
dessa forma seria
x̂k+1 = M x̂k + Kyy + zk (2.50)

onde M e K são matrizes ainda a serem selecionadas e zk é um vetor ainda não especifi-
cado.Substuindo (2.21) e (2.16), tem-se o erro de estimacão que é definido por

x̃ = x + x̂ (2.51)
40

x̃k+1 = Axk + Buk − M x̂k − Kyy − zk (2.52)

é apropriado escolher a entrada zk = Buk , para que a expressão de erro se torne

x̃k+1 = Axk − M x̂k − Ky


(2.53)
= (A − KC)xk − M x̂.
Sendo M = (A − KC), tem-se

x̃ = (A − KC)x̂k . (2.54)

Se o estimador for estável, o erro será zerado assintoticamente. Podemos controlar


a dinâmica do erro selecionando a matriz de ganho K do estimador para localizar os polos
em qualquer lugar que desejamos.A escolha da matriz de ganho K pode ser feita utiliando
alocação de polos (JACQUOT, 1995).
Agora voltamos a equação (2.21), substitui-se M e zk , para obter a equação de
estimação

x̂k+1 = (A − KC)x̂k + Kyk + Buk


(2.55)
= Ax̂k + K(yk − C x̂k ) + Buk .

É interessante notar que o estimador é uma réplica da planta original (2.16)


impulsionada pelo erro na estimativa de yk . O diagrama de blocos deste estimador é dado
na Figura 2.4.
Os pólos da dinâmica do erro são os autovalores da matriz (A − KC) e, portanto,
as raı́zes são obtidas por (JACQUOT, 1995)

det[Iz − A + KC] = 0 (2.56)

2.18 Principio da separação

É importante mostra que em certo sentido, é significativo separar o problema do


projeto do observador do projeto de controle. Agora, vamos examinar um sistema de
controle em que o estimador é usado para reconstruir os estados e, em seguida, a estimativa
41

Figura 2.5 – Representação em diagrama de blocos de um observador de estado.

do estado é realimentada para gerar a sequência do esforço de controle ou a lei de controle


(JACQUOT, 1995)
uk = −F x̂ (2.57)

Este esquema é mostrado na figura 2.5, para o estimador


equação de erro é
x̃k+1 = [A − KC]x̂k (2.58)

combinando a equação da planata (2.16) com a equação (2.28), tem-se

xk+1 = Axk − BFx̂k (2.59)

relacionando a equação (2.22) e escrevendo (2.30), temos


    
x̃k+1 A − KC 0 x̃k
 =  . (2.60)
xk+1 BF A − BF xk
42

Figura 2.6 – Representação em diagrama de blocos de um observador de estado.

A transformação z produz um determinante para a equação caracterı́stica do sistema


completo  
Iz − (A − KC) 0
det  =0 (2.61)
−BF Iz − (A − BF)
Sendo a matriz zero no canto superior direito,o determinante acima pode ser
calculado como o produto de dois determinantes

det[Iz − (A − KC)] det[Iz − (A − BF)] = 0 (2.62)

A prova desses determinantes indica que n pólos do sistema completo vêm do


segundo determinante e seus valores são controlados pela seleção dos elementos da matriz
de controle de realimentação F . Os pólos do observador são declarados pelo primeiro
determinante na escolha de K. Esse resultado é chamado princı́pio de separação, pois
podemos projetar o observador e o controlador separadamente. Depois que os elementos de
F são selecionados para fornecer ao sistema de controle de malha fechada as localizações
corretas dos polos, os elementos de K devem ser escolhidos para que os polos do estimador
seja mais rápidos (aproximadamente 2 vezes mais rápido) do que os polos de malha fechada
(JACQUOT, 1995).
43

Com a lei de controle (2.28) substituı́da na equação do estimador, temos

x̂k+1 = Ax̂k − BFx̂k + K (yk − Cx̂k )


(2.63)
x̂k+1 = [A − BF − KC]x̂k + Kyk
44

3 Simulações 1

3.1 Exemplo sem Ruı́do

Considere o servomecanismo DC de velocidade mostrado na figura (3.1) (HEMERLY,


2000).

Figura 3.1 – Servomecanismo DC de velocidade.

A corrente de campo i c (t) é dada por


d
Lf ic (t) + Rf ic (t) = Au(t) (3.1)
dt
onde A é o ganho do amplificador operacional. A tensão induzida nos terminais do
gerador é dada por vg (t) = Kg ic (t) e a forca contra-eletromotriz nos terminais do motor
é vm (t) = Km w(t), onde w(t) é a velocidade angular do motor. Logo, na malha de
armadura temos (HEMERLY, 2000)
d
(Lag + Lam ) ia (t) + (Rag + Ram ) ia (t) + Km w(t) = Kg ic (t) (3.2)
dt
d
Finalmente, o torque é dado por T(t) = Km ia (t), com T(t) = Bw(t) + J dt w(t), onde
B é o atrito viscoso e J é a inércia da carga. Logo,

d
Jw(t) + Bw(t) = Km ia (t) (3.3)
dt
Assim, definindo-se os estados x1 (t) = w(t), x2 (t) = ic (t)e x3 (t) = ia (t), de (3.1)-
(3.3) temos

Jẋ1 (t) + Bx1 (t) = Km x3 (t)


Lf ẋ2 (t) + Rf x2 (t) = Au(t) (3.4)
(Lag + Jam ) ẋ3 (t) + (Rag + Ram ) x3 (t) = Kg x2 (t) − Km x1 (t)
45

Suponda-se agora J = 2 × 10−4 kgm2 , B = 20 × 10−5 Nms−1 , Km = 0, 09Vs, Lf =


0, 8H, RF = 15Ω, A = 5 (Lag + Lam ) = 0, 4H, (Rag + Ram ) = 12Ω, Kg = 35VA−1 , e
admitindo-se que a velocidade angular w(t) = x1 (t) seja a variável medida, via tacômetro
TAC na Figura (3.1), com ganho Kt = 0, 05V s e redução n = 1/5, ou seja, y(t) = Vt (t) =
Kt nw(t) = 0, 01x1 (t), resulta o seguinte modelo em variáveis de estado

      
ẋ (t) −1 0 450
x (t) 0
 1    1   
= −18, 75 0   x2 (t)  +  6, 25  u(t) (3.5)
      
 ẋ2 (t) 0
      
ẋ3 (t) −0, 225 87, 50 −30 x3 (t) 0
 
x1 (t)
h i 
y(t) = (3.6)
 
0, 01 0 0  x2 (t) 
 
x3 (t)

3.2 Discretização do Sistema

Discretizando-se o sistema (3.5)-(3.6) com perı́do de amostragem T = 0.01s,


resultando em

      
x (k + 1) 0, 9855 1, 6695 3, 8609 x (k) 0, 0363
 1    1   
=  +  0, 0570  u(k) (3.7)
      
 x2 (k + 1) 0 0, 8290 0   x2 (k)
      
x3 (k + 1) −0, 0019 0, 6849 0, 7367 x3 (k) 0, 0233
 
x (k)
h i 1 
y(k) = (3.8)
 
0, 01 0 0  x2 (k) 
 
x3 (k)
Para entrada degrau, com amplitude 1 volt, e condicão inicial x1 (0) = x2 (0) =
x3 (0) = 0 comportamento das variáveis de estado x1 (k), x2 (k)ex3 (k), e da saida y(k) é
mostrado nas figuras (3.3)-(3.6)
46

Figura 3.2 – Representação da implementação do sistema com observador em simulink


sem ruı́do.

Figura 3.3 – Evolução de x1 (k).

O valor de regime de y(k), na figura (3.6) corresponde a uma velocidade de aproxi-


madamente 1000 rpm no eixo do motor.
47

Figura 3.4 – Evolução de x2 (k).

Figura 3.5 – Evolução de x3 (k).

O erro absoluto obtido para tal caso pode ser observado nas figuras (3.7)-(3.9)
48

Figura 3.6 – Evolução de y(k).

Figura 3.7 – Métrica e1,k da estimação feita pelo observador sem ruı́do.

3.3 Exemplo com Ruı́do

Conforme sabe-se, usualmente o tacômetro é um sensor ruidoso. Assim, de modo a


tornarmos o modelo (3.7)-(3.8) mais realista, podemos acrescentar um ruido de leitura v(k).
49

Figura 3.8 – Métrica e2,k da estimação feita pelo observador sem ruı́do.

Figura 3.9 – Métrica e3,k da estimação feita pelo observador sem ruı́do.

Adicionalmente, a corrente de armadura i a (t), que é a variável de estado x3 (t), também


pode ser ruidosa, devido à comutação das escovas no gerador e no motor. Concluindo,
50

temos o seguinte modelo estocástico para o servomecanismo DC de velocidade da Figura


3.1 (HEMERLY, 2000)

        
x (k + 1) 0, 9855 1, 6695 3, 8609 x (k) 0, 0363 0
 1    1     
=  +  0, 0570  u(k) +  0  w
        
 x2 (k + 1) 0 0, 8290 0   x2 (k)
        
x3 (k + 1) −0, 0019 0, 6849 0, 7367 x3 (k) 0, 0233 1
(3.9)
 
x (k)
h i 1 
y(k) =  + v(k) (3.10)
 
0, 01 0 0  x2 (k)
 
x3 (k)
Supondo-se que os ruı́dos de estado w(k) e de medida v(k) sejam Gaussianos
com média zero e covariâncias Pw = 0, 0002 e Pv = 0, 01, respectivamente, na Figuras
(3.6)-(3.11) apresentam-se três realizaçães dos processos envolvidos no modelo ( 3.9)-(3.10).
As realizaçães dos estados x1 (k) e x2 (k) são praticamente coincidentes, pois o ruı́do nesses
dois estados é oriundo do estado x3 (k), vide (3.8), que por sua vez não é muito ruidoso,
conforme indicado no quarto gráfico da Figuras (3.7)-(3.12) (HEMERLY, 2000).

O erro absoluto obtido para tal caso pode ser observado nas figuras (3.7)-(3.9)
51

Figura 3.10 – Representação da implementação do sistema com observador em simulink


com ruı́do.

Figura 3.11 – Realização do ruido de observação w.


52

Figura 3.12 – Realização do ruido de medição v.

Figura 3.13 – Realização com ruido no estado x1 .


53

Figura 3.14 – Realização com ruido no estado x2 .

Figura 3.15 – Realização com ruido no estado x3 .


54

Figura 3.16 – Realização com ruido na saı́da y.

Figura 3.17 – Métrica e1,k da estimação feita pelo observador com ruı́do.
55

Figura 3.18 – Métrica e2,k da estimação feita pelo observador com ruı́do.

Figura 3.19 – Métrica e3,k da estimação feita pelo observador com ruı́do.
56

4 Simulações 2

Um observador de estados foi implementado para estimar os estados do sistema


cujo o modelo matemático é dado por
   
1, 2272 1 0, 0634
xk+1 =   xk +   uk (4.1)
−0, 3029 0 0, 0978
 
1
yk =   xk (4.2)
0
A entrada utilizada é mostrada na Figura 2.15. As condicães iniciais do sistema
foram x0 = [8 10]T e do observador foram x̂0 = [0 0]T . A simulação foi realizada até 150
amostras. Os polos encontrados da matriz A foram [0, 8849 0, 3423], e os polos utilizados
para o observador foram [0, 4425 0, 1711]. Utilizando a função place do MatLab(R), o
ganho de realimentação do observador obtido foi K = [0, 6136 − 0, 2272]T . Os estados
estimados pelo observador podem ser observados nas Figuras 2.16 e 2.17

Figura 4.1 – Representação da implementação do sistema com observador em Simulink


sem ruı́do.

O erro absoluto obtido para tal caso pode ser observado nas figuras
57

Figura 4.2 – Estado x1 real e estimado pelo observador.

Figura 4.3 – Estado x2 real e estimado pelo observador.


58

Figura 4.4 – Métrica e1,k da estimação feita pelo observador.

Figura 4.5 – Métrica e2,k da estimação feita pelo observador.


59

Referências1

CHEN, C.-T. Linear system theory and design. [S.l.]: Oxford University Press, Inc., 1998.

FRANKLIN, G. F.; POWELL, J. D.; EMAMI-NAEINI, A.; POWELL, J. D. Feedback


control of dynamic systems. [S.l.]: Addison-Wesley Reading, MA, 1994. v. 3.

GREWAL, M. S.; ANDREWS, A. P. Kalman filtering: Theory and Practice with


MATLAB. [S.l.]: John Wiley & Sons, 2014.

HAYKIN, S. S. Adaptive filter theory. [S.l.]: Pearson Education India, 2014.

HEMERLY, E. M. Controle por computador de sistemas dinâmicos. [S.l.]: Editora Blucher,


2000.

JACQUOT, R. G. Modern digital control systems. [S.l.]: Routledge, 1995.

LUENBERGER, D. G. Introduction to dynamic systems; theory, models, and applications.


[S.l.], 1979.

MANOLAKIS, D. G.; INGLE, V. K.; KOGON, S. M. et al. Statistical and adaptive signal
processing: spectral estimation, signal modeling, adaptive filtering, and array processing.
[S.l.]: McGraw-Hill Boston, 2000.

OGATA, K.; YANG, Y. Modern control engineering. [S.l.]: Prentice hall Upper Saddle
River, NJ, 2010. v. 5.

PAPOULIS, A.; PILLAI, S. U. Probability, random variables, and stochastic processes.


[S.l.]: Tata McGraw-Hill Education, 2002.

RUGH, W. J. Linear system theory. [S.l.]: prentice hall Upper Saddle River, NJ, 1996.
v. 2.

SALAU, N. P. G. Abordagem sistemática para construção e sintonia de estimadores de


estados não-lineares. 2009.

SALMAN, M. ADAPTIVE ESTIMATION USING STATE-SPACE METHODS. Tese


(Doutorado) — National University of Sciences and Technology, Pakistan, 2009.

1
De acordo com a Associação Brasileira de Normas Técnicas. NBR 6023.

Você também pode gostar