Escolar Documentos
Profissional Documentos
Cultura Documentos
Estas notas de aula são baseadas no livro de Kemin Zhou, John C. Doyle and Keith
Glover, ROBUST AND OPTIMAL CONTROL, Prentice Hall, 1995.
O que se segue, em grande parte, já deveria ter sido visto na Graduação. Será (re)passado
de forma um tanto rápida devido às nossa limitações de tempo.
1
Calculando, a inversa de cada fator e efetuando o produto, obtemos:
−1
⎡ A11 A12 ⎤ ⎡ A11−1 + A11−1 A12 ∆ −1 A21 A11−1 − A11−1 A12 ∆ −1 ⎤
⎢A =⎢ ⎥.
A22 ⎥⎦
(2)
⎣ 21 ⎣ −∆ −1 A21 A11−1 ∆ −1 ⎦
Observe-se que de (1), temos imediatamente
det[ A] = det[ A11 ]det[∆ ] = det[ A11 ]det[ A22 − A21 A11−1 A12 ] . (3)
É claro que com as facilidades computacionais, ninguém iria calcular a inversa de uma
matriz grande ou com muitos elementos fracionários. Mas a importância das fórmulas
acima continua de pé, pois são usadas com freqüência em demonstrações.
2
Uma outra norma importante, mas que não é norma induzida é a norma de Frobenius,
definida como A F
:= Traço(A∗ A) . (10a)
Recorda-se que o traço de uma matriz é a soma dos elementos da sua diagonal. Não é
m n
∑∑ a
2
difícil verificar que (faça um exemplo!): A F
= ij . (10b)
i =1 j =1
Lema: (11)
Sejam os vetores x ∈ F e y ∈ F .
n m
Lema (12*)
Seja A uma matriz particionada em blocos de sub-matrizes:
⎡ A11 A12 A1q ⎤
⎢A A22 A2 q ⎥⎥
A=⎢
21
.
⎢ ⋅ ⎥
⎢ ⎥
⎢⎣ Am1 Am 2 Amq ⎥⎦
Então para toda norma induzida, temos
3
⎡ A11 A12 p A1q ⎤
⎢ p p
⎥
⎢ A A22 p A2 q ⎥
Ap≤ ⎢ p⎥
21 p
.
⎢ ⋅ ⎥
⎢ ⎥
⎢ Am1 p Am 2 p Amq ⎥
⎣ p⎦
Teorema (13a)
Seja A ∈ Fm×n com posto p. Então existem matrizes unitárias
U = [u1 u2 ... um ] ∈ Fm×m (13b)
V = [ v1 v2 ... vn ] ∈ Fn×n (13c)
⎡σ 1 0 0⎤
⎢0 σ 0 ⎥⎥
⎡Σ1 0 ⎤
∗
tais que A = U ΣV , sendo Σ = ⎢ e Σ1 = ⎢
2
⎥ ⎢ ⎥
. (13 d)
⎣ 0 0⎦
⎢ ⎥
⎣⎢ 0 0 σ p ⎦⎥
onde σ 1 ≥ σ 2 ≥ ≥ σ p > 0 e p ≤ min{m, n} .
Prova: ZDG, pp. 32s. (ZDG são as iniciais dos autores do livro que é a base deste curso,
citado logo ao início). •
4
auto-valor da matriz A∗ A e também da matriz AA∗ . E de (15b) vemos que cada vetor
singular à direita de A é igual ao auto-vetor (à direita) de AA∗ , enquanto que de (15a),
vemos que cada vetor singular à esquerda de A é igual ao autor-vetor (à direita) de
A∗ A .
Adotaremos a seguinte notação padrão:
σ ( A) = σ max ( A) = σ1 = maior valor singular da matriz A.
σ ( A) = σ min ( A) = σ p = menor valor singular da matriz A.
Lema: (15*)
Suponha que as matrizes A e ∆ sejam quadradas. Então,
(i) σ ( A + ∆ ) − σ ( A) ≤ σ (∆ ) ;
(ii) σ ( A∆ ) ≥ σ ( A)σ (∆ ) ;
1
(iii) σ ( A−1 ) = se A tiver inversa.
σ ( A)
Prova:
(i): σ ( A + ∆) = min x =1 ( A + ∆ ) x
≥ min x =1 { Ax − ∆x }
≥ min x =1 Ax − max x =1 ∆x
= σ ( A) − σ (∆) .
Portanto, −σ (∆) ≤ σ ( A + ∆ ) − σ ( A) .
A outra desigualdade, σ ( A + ∆) − σ ( A) ≤ σ (∆) , é obtida substituindo A por A + ∆ e ∆
por - ∆ na prova acima.
(ii) σ ( A∆) := min x =1 A∆x
= min x =1 x*∆* A* A∆x
≥ σ ( A) min x =1 ∆x = σ ( A)σ (∆) ;
(iii) Seja A = U ΣV * , donde A−1 = V Σ −1U * .
Portanto, σ ( A−1 ) = σ (Σ −1 ) = 1/ σ (Σ) = 1/ σ ( A) ,
a segunda igualdade se devendo à estrutura diagonal de Σ . •
5
Lema: (15**)
m×n
Seja A ∈ F , sejam U e V tais que A = U ΣV , sejam ui e v j as colunas de U e V,
*
6. A = σ 1 ;
7. σ i (U 0 AV0 ) = σ i ( A), i = 1, 2,..., p = min {m, n} , para matrizes unitárias apropriadas
U 0 e V0 ;
(Na 6ª. propriedade acima, trata-se da norma-2 induzida, como será costume neste texto:
quando não se diz que norma é, será a 2). •
Teorema: (15***)
⎡X B⎤
Suponha γ > 0 . As soluções X de ⎢ ≤ γ são dadas por:
⎣C A⎥⎦
X = −YA*Z + γ ( I − YY * )1/ 2 W ( I − ZZ * )1/ 2 , onde A* é a transposta conjugada da matriz
A, W é uma contração arbitrária, isto é, W ≤ 1 , Y e Z com Y ≤ 1 e Z ≤ 1 são
soluções das seguintes eqs. lineares:
B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z .
Lema: (15#)
m×n k ×n
Sejam B ∈ F e C ∈ F . Suponha que m ≥ k e B B = C C . Então eixste uma matriz
* *
m×k
U ∈ F tal que U *U = I e B = UC. •
Prova: ZDG, p. 37
6
A raiz quadrada de uma matriz pode ser calculada facilmente se a matriz for
diagonalizável, isto é, se existir uma matriz U tal que UAU * = Λ , onde Λ é uma matriz
diagonal constituida pelos auto-valores da matriz A. Então, se fizermos A1/ 2 = U Λ1/ 2U * ,
obtemos efetivamente A = U Λ1/ 2U *U Λ1/ 2U * = U ΛU * .
Teorema: (15$)
⎡ X B⎤
Seja γ > 0 . Então as soluções X tais que ⎢ ⎥ ≤ γ são dadas por
⎣ C A⎦
X = −YA* Z + γ ( I − YY * )1/ 2W ( I − Z * Z )1/ 2 ,
onde W é uma “contração” ( W ≤ 1 ) arbitrária, enquanto que Y e Z, com
Y ≤ 1 e Z ≤ 1 são soluções das segintes eqs.
B = Y (γ 2 I − A* A)1/ 2 e C = (γ 2 I − AA* )1/ 2 Z .
7
(Faça exemplos para se convencer da equivalência da representação dada em (16) e uma
equação diferencial, caso isso seja novidade para você. Comece com caso bem simples,
por exemplo, com x(t ) de dimensão dois e a matriz A diagonal. Aliás, esta é sempre a
melhor maneira de entender alguma coisa em matemática: fazer exemplos, começando
com os mais simples.)
Denotemos por xˆ ( s ) a transformada de Laplace de x(t ) e analogamente para u (t ) e
y (t ) . Suponha x0 = 0 . Aplicando transformada de Laplace a (16), temos
sxˆ ( s ) = Axˆ ( s ) + Buˆ ( s ) , (17a)
yˆ ( s ) = Cxˆ ( s ) + Duˆ ( s ) , (17b)
o que nos dá imediatamente
yˆ ( s ) = (C ( sI − A) −1 B + D)uˆ ( s ) . (18a)
−1
ou seja, H ( s ) := C ( sI − A) B + D é a matriz de transferência do sistema. (18b)
A expressão entre ( ) acima é a chamada matriz de transferência, às vezes também
chamada função de transferência, especialmente quando o sistema é escalar, isto é, tanto
y como u são escalares (não vetores).
⎡A B⎤
C ( sI − A) −1 B + D = ⎢ ⎥ (18c)
⎣C D ⎦
⎡A B⎤
Usam-se os separadores horizontal e vertical para diferenciar da matriz ⎢
D ⎥⎦
.
⎣C
8
No exemplo acima podemos então escrever:
⎡ −1 2 1 ⎤
⎡ −1 B ⎤
H ( s ) = ⎢⎢ 0 1 0 ⎥⎥ = ⎢ ⎥ , B e C tais que BC = 1
⎢⎣ 0 1 0 ⎥⎦ ⎣ C 0⎦
Esta igualdade parece estranha, mas não tem nada de estranho, pois o que está entre [ ]
não são matrizes, mas funções de transferência, anotadas de modo não convencional. Esta
notação alem de ser compacta, mostra claramente de que realização se trata. É claro que o
modo convencional de indicar a igualdade acima é
−1
⎡ s + 1 −2 ⎤ ⎡1 ⎤ BC
H ( s ) = [ 0 1] ⎢ =
s − 1⎥⎦ ⎢⎣0 ⎥⎦ s + 1
.
⎣ 0
Comparando esta com (17a), que supõe nulo o estado inicial, conclui-se facilmente
t
∫
que a transformada de Laplace de e A( t −τ ) Bu (τ ) dτ é ( sI − A) −1 Buˆ ( s ) . E da mesma
t0
9
Observação: Daqui para frente a dimensão da matriz A será sempre n , a não ser que
seja expressamente escrito o contrário.
C
iii) A matriz de controlabilidade = ⎡⎣ B AB A2 B An −1 B ⎤⎦ tem posto cheio,
isto é, n.
iv) A matriz [ A − λ I B ] tem posto cheio (igual a n) para todo λ em C , o plano
complexo.
v) Se λ for um auto-valor de A e x for o respectivo auto-vetor à esquerda, isto, é,
x∗ A = x∗λ , então x∗ B ≠ 0 .
vi) Os auto-valores de A + BF podem ser arbitrariamente escolhidos (com a restrição
que os auto-valores complexos aparecem sempre em pares conjugados) por meio de uma
escolha apropriada da matriz F .
Exemplo: (22*)
Verificar se o sistema em que A e B são dadas a seguir é controlável.
⎡1 −1 2 ⎤ ⎡1 1 ⎤
A = ⎢0 1 1 ⎥ , B = ⎢⎢0 1 ⎥⎥
⎢ ⎥
⎣⎢0 0 2 ⎦⎥ ⎣⎢1 0 ⎦⎥
Solução:Vamos usar o método (iii) do teorema acima. Temos que verificar se o posto de
⎡⎣ B AB A2 B ⎤⎦ é igual ou inferior a 3.
Ora, efetuando, verifica-se que não é necessário calcular A2 B , pois
⎡1 1 3 0 ⎤
[ B AB ] = ⎢⎢0 1 1 1 ⎥⎥ e nesta matriz a 2ª. a 3ª. e a 4ª. colunas são l.i, portanto o
⎢⎣1 0 2 0 ⎥⎦
sistema é controlável.
O método acima, usando a matriz de controlabilidade, é, de longe, o mais usado, sendo
também de fácil aplicação quando se usa computador, ainda que por sua natureza possa
ter problemas quando o computador não consegue distinguir valores muito próximos,
mas diferentes, de zero.
Para resolver rapidamente o problema de verificar a controlabilidade por simples
inspeção, ou quase, o 4º. método é muito conveniente, como se pode ver no seguinte
Exemplo:
10
⎡1 2 −3 4 ⎤ ⎡1 −5⎤
⎢ 0 −1 0 3 ⎥ ⎢ ⎥
⎢ ⎥ , B = ⎢2 2 ⎥ .
⎢1 2 1 0 ⎥ ⎢4 4 ⎥
⎢ ⎥ ⎢ ⎥
⎣0 0 0 2⎦ ⎣0 0 ⎦
Solução: usando o método (iv), temos
⎡ λ − 1 −2 3 −4 1 −5⎤
⎢ 0 λ +1 0 −3 2 2 ⎥⎥
[ λ I − A B ] ⎢
= ⎢ . E é claro que se λ = 2 , a úllima
−1 −2 λ − 1 0 4 4⎥
⎢ ⎥
⎣ 0 0 0 λ −2 0 0 ⎦
linha desta matriz se anula, e portanto o sistema não é controlável.
Teorema: (22**)
É possivel posicionar arbitrariamente os autovalores do sistema (16a) através de
realimentação do estado, u=Fx , se só se o sistema for controlável. •
O que este teorema diz é que através da realimentação de estado os autovalores da matriz
A+BF podem ser escolhidos arbitrariamente através de matriz F apropriada se só se o
sistema (16a) for controlável.
(É claro que o posicionamento arbitrário dos autovalores deve respeitar o fato de que os
autovalores complexos devem aparecer aos pares conjugados, uma vez que todas as
matrizes envolvidas são, por hipótese, de números reais).
Exemplo
⎡1 2 ⎤ ⎡1⎤
Seja o sistema (16a) com A = ⎢ ⎥ , B = ⎢ ⎥ . Realimentando o estado com
⎣0 2⎦ ⎣1⎦
⎡1 2 ⎤ ⎡1⎤ ⎡1 + f1 2 + f 2 ⎤
F = [ f1 f 2 ] , temos A + BF = ⎢ + ⎢ ⎥ [ f1 f 2 ] = ⎢
⎥ 2 + f 2 ⎥⎦
. Então temos que
⎣0 2 ⎦ ⎣1⎦ ⎣ f1
os autovalores do sistema realimentado são dados pelas raízes do polinômio
⎛ ⎡λ − 1 − f1 −2 − f 2 ⎤ ⎞
⎥ ⎟ = λ − (1 + f1 + f 2 )λ + f 2 + 2 . Escolhidos os autovalores do
2
det ⎜ ⎢
⎝⎣ − f1 λ − 2 − f 2⎦⎠
11
Vale observar que se a solução foi única neste caso, isto não ocorre em geral quando o
controle u tem mais de uma componente
Definição: (23)
Um sistema x(t ) = Ax(t ) é dito assintoticamente estável se todos os autovalores de A
estiverem no semi-plano aberto da esquerda, ou seja, se Re[λ ( A)] < 0 .
Definição: (23*)
Os autovalores da matriz A, chamada por alguns autores de matriz do sistema, são
chamados polos do sistema.
Exemplo:
Vejamos se o sistema do exemplo (22*) é estável. Para isso, temos que calcular os
autovalores da matriz A:
⎛ ⎡λ − 1 1 −2 ⎤ ⎞
⎜⎢ ⎟
det(λ I − A) = det ⎜ ⎢ 0 λ − 1 −1 ⎥⎥ ⎟ = (λ − 1)2 (λ − 2) . Donde se vê que o sistema não
⎜⎢ 0 λ − 2 ⎥⎦ ⎟⎠
⎝⎣ 0
é assintoticamente estável, pois tem 3 autovalores da matriz A (ou polos do sistema) fora
do semiplano aberto da esquerda, bastaria um.
⎣ −1 0 ⎦
onde j = + −1 . Portanto o sistema não é assintoticamente estável de acordo com a
definição (23). Ora, é fácil verificar que a solução das eqs. diferenciais do sitema é
x1 (t ) = asent + b cos t , x2 (t ) = a cos t − bsent , com a e b números reais quaisquer.
12
Verifica-se assim que este sistema, mesmo não sendo assintoticamente estável, não é
instável, pois seu estado não “explode”, tal como no exemplo anterior. Ele é, tal como o
outro, marginalmente estável.
Como caracterizar, em termos de autovalores da matriz A estes sistemas que nem são
instáveis nem assintoticamente estáveis e sim marginalmente estáveis?
Deste exemplo e do anterior poderíamos concluir que os sistemas marginalmente estáveis
são aqueles que têm pelo menos um polo no eixo imaginário?
Efetivamente, todo sistema marginalmente estável tem pelo menos um polo no eixo
imaginário e nenhum polo no semiplano aberto da direita. Mas como veremos agora, nem
todo sistema que satisfaz a esta dupla condição é marginamente estável.
Calculando, obtemos
bd = 0, bc = 0, cd = 0, d 2 = 0 ∴ d = 0 .
13
⎡a 0⎤
Mas da segunda igualdade acima, se b = 0, então T = ⎢ ⎥ , que não tem inversa, e se
⎣ c 0⎦
⎡a b⎤
c = 0, temos T = ⎢ ⎥ , que também não tem inversa, donde se conclui que a matriz
⎣0 0⎦
⎡0 1 ⎤
⎢ 0 0 ⎥ não é efetivamente diagonalizável.
⎣ ⎦
- Mas se uma matriz não é diagonalizavel, ela pode ser tansformada em matriz bloco
diagonal da seguinte forma:
⎡ J1 0 0⎤
⎢0 J 0 ⎥⎥
−1
A = T AT = diag J i i =1 =
q ⎢ 2
, onde cada bloco da matriz ao lado tem a
⎢ ⎥
⎢ ⎥
⎣⎢ 0 0 J q ⎦⎥
⎡λi 1 0 0⎤
⎢0 λ 1 0 ⎥⎥
⎢ i
Teorema: (24)
Um sistema é marginalmente esstável se só se não tiver polo no semiplano aberto da
direita e tiver pelo menos um polo no eixo imaginario e cada polo neste eixo com grau de
multiplicidade maior do que 1 não pertencer a bloco de Jordan com ordem maior ou igual
a dois. •
⎡0 1 ⎤
O exemplo acima com A = ⎢ ⎥ é um bloco de Jordan de ordem 2 e, como vimos, o
⎣0 0 ⎦
estado apresenta o “modo” t , alem de constante
⎡0 1 0⎤
Se A = ⎢⎢0 0 1 ⎥⎥ , temos um bloco de Jordan de ordem três, cujo estado apresentará o
⎢⎣0 0 0 ⎥⎦
“modo” t 2 , alem de t e constante.
14
⎡0 1 0 0 0⎤
⎢0 0 0 0 0 ⎥⎥
⎢
⎢ ⋅ ⎥
Se A = ⎢ ⎥ , temos dois blocos de Jordan, um de ordem dois e o
⎢0 0 0 1 0⎥
⎢0 0 0 0 1⎥
⎢ ⎥
⎣0 0 0 0 0⎦
outro de ordem três. (O tracejado dentro da matriz é para separar os blocos, não tem nada
a ver como matriz de transferência, claro...). O estado deste sistema apresentará os
modos t 2 , t e constante.
Definição: (25a)
O sistema (16a), ou mais compactamente, o par (A, B) é dito estabilizável se existir uma
realimentação u = Fx tal que o sistema seja estável, isto é, A + BF seja estável. Esta
estabilizabilidade é chamada de “estabilizabilidade por realimentação de estado”.
Exemplo:
No exemplo antes da definição (25a), testando a condição ii) acima, temos
15
⎡λ + 1 0 0⎤
Posto ⎢ é evidentemente cheio para todo λ no semiplano fechado da
⎣ 0 λ − 1 1 ⎥⎦
direita, e portanto o par (A, B) é estabilizável.
Definição: (26)
O sistema (16), ou mais simplesmente, o par (C, A) é dito observável se para algum
t1 > 0 o estado inicial x(0) puder ser determinado conhecendo-se u(t) e y(t) no
intervalo [0, t1 ]. Do contrário, o sistema é dito não-observável.
Teorema: (27)
As seguintes proposições são equivalentes:
i) (C, A) é observável.
t
ii) A matriz Wo (t ) = ∫ e A τ C T Ce Aτ dτ
T
é positiva definida para todo t > 0. (Esta matriz é
0
o gramiano de observabilidade).
⎡ C ⎤
⎢ CA ⎥
⎢ ⎥
O
16
⎡ y (0) ⎤ ⎡ C ⎤
⎢ y (0) ⎥ ⎢ CA ⎥
⎢ ⎥ ⎢ ⎥
⎢ y (0) ⎥ = ⎢ CA2 ⎥ x(0)
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎢⎣ y ( n −1) (0) ⎥⎦ ⎢⎣CAn −1 ⎥⎦
Ora, por hipótese, conhecemos y e todas as suas derivadas no instante t = 0. Se a matriz
acima tiver posto cheio, podemos determinar x(0) e se não tiver posto cheio, não
podemos.
A equivalência das outras condições pode ser demonstrada por dualidade com as
condições de controlabilidade do teorema (22). •
Observação: (28)
De posse da definição de observabilidade acima, podemos acrescentar uma sétima
proposição equivalente ao Teorema (22), a saber,
vii) ( BT , AT ) é observável.
Definição: (29)
(C, A) é detectável se A + LC for estável para alguma matriz L.
Teorema: (30)
As seguintes proposições são equivalentes:
i) (C, A) é detectável.
⎡ A − λI ⎤
ii) A matriz ⎢ ⎥ tem posto cheio (igual a n) para todo Re[λ ] ≥ 0 .
⎣ C ⎦
iii) Se λ for um auto-valor de A tal que Re[λ ] ≥ 0 e x for o respectivo auto-vetor à
direita, isto, é, Ax = λ x , então Cx ≠ 0 .
iv) ( AT , C T ) é estabilizável.
17
x = Ax + Bu
(16 bis)
y = Cx + Du
(Supomos, como usual, que a matriz A é de ordem n).
Um observador é um outro sistema com entrada (u, y) e cuja resposta deve estimar (num
sentido definido logo adiante) o estado x de (16). Chamemos esta estimativa de x̂ .
Sejam então as eqs. do observador, cujo estado é q:
q = Mq + Nu − Ly (31a)
x̂ = Qq + Ru + Sy (31b)
M, N, L,Q, R e S devem ser escolhidos de tal forma que tenhamos
xˆ (t ) → x(t ) quando t → ∞ .
Vejamos as condições de possibilidade para isto:
Teorema: (31*)
Existe um observador (que estime o estado de (16)) se só se (C, A) for detectável. Se isto
ocorrer, existe um observador de ordem n (chamado de “observador de Luenberger”)
dado por M = A + LC, N =B + LD, Q = I, R = 0, S = 0.
Ou seja, as eqs. do observador de Luenberger são
q = ( A + LC )q + ( B + LD)u − Ly
x̂ = q ,
onde L é qualquer matriz tal que A + LC seja estável.
Prova:
Para provar a suficiência da condição de detectabilidade de (C, A), basta construir um
observador que satisfaça a esta condição. E vamos verificar agora que o observador de
Luenberger satisfaz efetivamente à condição. Substituindo y dado em (16b) na eq. acima
do observador, temos
q = ( A + LC )q + ( B + LD)u − LCx − LDu = ( A + LC )q + Bu − LCx . (31**)
Definamos o erro: e = xˆ − x = q – x.
Então temos da eq. acima do observador e de (16 bis)
e = (A +LC)q + Bu – LCx – Ax - Bu
= (A + LC)q – (A + LC)x = (A + LC)e.
Ou seja, e(t ) → 0, quando t → ∞ e portanto xˆ (t ) → x(t ) quando t → ∞ , como
desejado.
Para provar a necessidade, suponha que (C, A) não seja detectável.
Considere um estado não nulo x(0) no subespaço não detectável. Pode-se demonstrar que
este espaço é invariante sob A, ou seja, se x estiver neste subespaço, Ax também estará.
Um observador deve ser capaz de estimar o estado da planta, qualquer que seja o controle
u e qualquer que seja o estado inicial do mesmo observador. Então, seja q(0) = 0 e u(t)
= 0 para todo t. As eqs. da planta (16) e do observador (31) se tornam
x = Ax ,
q = Mq − LCx ,
18
x̂ = Qq + SCx .
Ora, como x(0) está por hipótese no subespaço não detectavel, temos Cx(0) = 0 e como
este subespaço é invariante sob A, temos da 1ª. eq. acima que C x(t) = 0 para todo t.
Então da 2ª. eq. acima temos q(t) = 0 para todo t. E da 3ª. eq. acima concluímos que o
estado estimado x̂ é nulo para todo t, e portanto diferente de x(t). •
Vejamos um
Exemplo: Projetar um observador para o seguinte sistema
⎡1 0 ⎤ ⎡1 ⎤
x=⎢ ⎥ x + ⎢ ⎥ u , y = [1 0]x.
⎣3 −1⎦ ⎣2⎦
Solução: Vamos ver primeiramente se o problema tem solução: temos que verificar se o
sistema é detectável. Ora,
⎡λ − 1 0 ⎤
⎡ λ I − A⎤
Posto ⎢ ⎥ =Posto ⎢ −3 λ + 1⎥⎥ é claramente igual a 2 para qualquer λ no
⎢
⎣ C ⎦
⎣⎢ 1 0 ⎦⎥
semiplano fechado da direita: basta verificar que se λ =1, o posto é dois e para qualquer
outro λ no semiplano fechado da direita o posto também é dois com mais forte razão.
Então o sistema é detectável.
Um dos autovalores de A +LC é igual a -1 e não pode ser mudado, qualque que seja L.
Escolhamos o outro autovalor também igual a -1. Então devemos ter
det(λ I − A − LC ) = (λ + 1) 2 = λ 2 + 2λ + 1 .
⎡l ⎤ ⎡1 0 ⎤ ⎡ l1 ⎤ ⎡ l +1 0 ⎤
Seja L =: ⎢ 1 ⎥ . Então, A + LC = ⎢ ⎥ + ⎢ ⎥ [1 0] = ⎢ 1 ⎥.
⎣l2 ⎦ ⎣3 −1⎦ ⎣l2 ⎦ ⎣l2 + 3 −1⎦
⎛ ⎡λ − l1 − 1 0 ⎤⎞
⎟ = λ + 2λ + 1 ,
2
Então, devemos ter det ⎜ ⎢ ⎥
⎝ ⎣ −l2 − 3 λ + 1⎦ ⎠
⎡ −1 0⎤
o que nos dá l1 = −2, l2 qualquer número real . Donde que A + LC = ⎢ ⎥.
⎣l2 + 3 −1⎦
E do Teorema (31*) temos as eqs. do observador:
⎡ −1 0⎤ ⎡1 ⎤ ⎡ −2 ⎤
q=⎢ ⎥ q + ⎢2⎥ u − ⎢ l ⎥ y , l2 sendo um número real qualquer, e
⎣l2 + 3 −1⎦ ⎣ ⎦ ⎣ 2⎦
x̂ = q .
- O observador acima tem a mesma ordem da planta, n. Há, como veremos agora, certa
redundância, o observador pode ter ordem menor. A ideia de um observador de ordem
mínima é a seguinte:
Através de uma transformação de similaridade, ou o que é o mesmo, de mudança de base
para o estado, fazemos C ter a forma
19
C = [I 0] . E o estado de planta pode ser particionado correspondentemente como
⎡x ⎤
x = ⎢ 1 ⎥ . Donde que Cx = x1 , bastando estimar, através de observador, a componente
⎣ x2 ⎦
x2 .
20
⎡ A + BF + LC + LDF −L⎤
K (s) = ⎢
⎣ F 0 ⎥⎦
⎡A B1 ⎤ ⎡ A2 B2 ⎤
G1 ( s ) = ⎢ 1 ⎥ , G2 ( s ) = ⎢
⎣C1 D1 ⎦ ⎣ C2 D2 ⎥⎦
Considere a associação dos dois sistemas indicada no diagrama de blocos abaixo. Tal
associação é chamada em cascata ou em série.
G1 G2
Figura 1
Observe-se que para que esta associação seja possível, o número de entradas de G1 deve
ser igual ao de saídas de G2 .
A matriz de transferência da associação acima é G1 G2 .
No caso multi-variável, mesmo que o produto G2 G1 seja possível, tem-se em geral
G1G2 ≠ G2G1 . E isto porque o produto de matrizes não é, em geral, comutativo.
Temos as seguintes fórmulas compactas:
⎡ A1 B1C2 B1D2 ⎤ ⎡ A2 0 B2 ⎤
G1 ( s )G2 ( s ) = ⎢⎢ 0 A2 B2 ⎥⎥ = ⎢⎢ B1C2 A1 B1D2 ⎥⎥ (32a)
⎢⎣C1 D1C2 D1D2 ⎥⎦ ⎢⎣ D1C2 C1 D1D2 ⎥⎦
21
−1 −1
⎡ sI − A1 − B1C2 ⎤ ⎛ ⎡ sI − A1 ⎤ ⎡ I −( sI − A1 ) −1 B1C2 ⎤ ⎞
mas ⎢ ⎥ =⎜⎢ ⎢ ⎥ ⎟⎟
⎣ 0 sI − A2 ⎦ ⎜
⎝⎣ sI − A2 ⎦⎥ ⎣0 I ⎦⎠
⎡ I ( sI − A1 ) B1C2 ⎤ ⎡( sI − A1 )
−1 −1
0 ⎤
=⎢ ⎥⎢ −1 ⎥
=
⎣ 0 I ⎦⎣ 0 ( sI − A2 ) ⎦
⎡( sI − A1 ) −1
( sI − A1 ) B1C2 ( sI − A2 ) ⎤
−1 −1
Exemplo:
Calcular a associação em cascata das matrizes de transferência, que têm as seguintes
realizações:
⎡1 8 2⎤ ⎡1 2 ⎤
⎢
A1 = −2 3 1 ⎥ , B1 = ⎢⎢1 −1⎥⎥ , C1 = [ 2 0 4] e D1 = [5 −1] ,
⎥
⎢
⎢⎣ 4 −2 −1⎥⎦ ⎢⎣0 1 ⎥⎦
⎡ −1 2 ⎤ ⎡ 0 −10 ⎤ ⎡ 0 −10 ⎤
A2 = ⎢ ⎥ , B2 = ⎢ ⎥ , C2 = ⎢ ⎥ e D2 = 02×2 .
⎣ 5 4⎦ ⎣4 1 ⎦ ⎣4 1 ⎦
Para exprimir a matriz de transferência G1 ( s )G2 ( s ) de forma compacta, efetuamos os
⎡ 8 −8 ⎤
produtos: B1C2 = ⎢⎢ −4 −11⎥⎥ , B1 D2 = 03×2 , D1C2 = [ −4 −49] , D1 D2 = 01×2 .
⎢⎣ 4 1 ⎥⎦
Então, temos:
⎡ 1 8 2 8 −8 0 0 ⎤
⎢ −2 3 1 −4 −11 0 0 ⎥⎥
⎢
⎢ 4 −2 −1 4 1 0 0 ⎥
G1 ( s )G2 ( s ) = ⎢ ⎥
⎢ 0 0 0 −1 2 0 −10 ⎥
⎢0 0 0 5 4 4 1 ⎥
⎢ ⎥
⎣ 2 0 4 −4 −49 0 0 ⎦
22
G1
y u
G2
É claro que
y ( s ) = G1 ( s )u ( s ) + G2 ( s )u ( s ) = ( G1 ( s ) + G2 ( s ) ) u ( s )
Obtem-se a matriz de transferência equivalente:
⎡ A1 0 B1 ⎤
G1 ( s ) + G2 ( s ) = ⎢⎢ 0 A2 B2 ⎥⎥ (32b)
⎢⎣C1 C2 D1 + D2 ⎥⎦
Prova:
O segundo lado da igualdade acima é
−1
⎡ sI − A1 0 ⎤ ⎡ B1 ⎤
[C1 C2 ] ⎢ 0 sI − A ⎥ ⎢ B ⎥ + D1 + D2
⎣ 2⎦ ⎣ 2⎦
C1 ( sI − A1 ) B1 + C2 ( sI − A2 ) B2 + D1 + D2 = C1 ( sI − A1 ) −1 B1 + D1 + C2 ( sI − A2 ) −1 B2 + D2
−1 −1
= G1 ( s ) + G2 ( s ) . •
Exemplo:
É claro que na associação em paralelo as duas matrizes de transferência têm que ter as
mesmas dimensões. Seja
⎡ −1 5 ⎤ ⎡1 ⎤
A1 = ⎢ ⎥ , B1 = ⎢ ⎥ , C1 = [ −3 2] e D1 = 2
⎣ 4 8⎦ ⎣ 4⎦
⎡1 −2 ⎤ ⎡ −1⎤
A2 = ⎢ ⎥ , B2 = ⎢ ⎥ , C2 = [3 1] e D2 = 1 .
⎣4 7 ⎦ ⎣3⎦
Portanto,
⎡ −1 5 0 0 1⎤
⎢4 8 0 0 4 ⎥⎥
⎢
G1 + G2 = ⎢ 0 0 1 −2 −1⎥
⎢ ⎥
⎢0 0 4 7 3⎥
⎢⎣ −3 2 3 1 3 ⎥⎦
23
- Considere-se agora a associação em realimentação na figura abaixo:
v = u − G2G1v ∴ v = ( I + G2G1 ) −1 u ∴ y = G1v = G1 ( I + G2G1 ) −1 u . Ou seja, a matriz de
transferência entre y e u é G1 ( I + G2G1 ) −1 = ( I + G1G2 ) −1 G1 . (32c)
Esta última igualdade se deve ao fato que ( I + G1G2 )G1 = G1 ( I + G2G1 ) .
G1 u
y
v
G2
Figura 3
Obtemos a seguinte matriz de transferência T(s), cuja demonstração é omitida posto que
bastante trabalhosa. De (32c), o primeiro passo da demonstração é calcular I + G1G2
usando (32a) e (32b). A seguir, temos a parte mais trabalhosa da demonstração, que é
calcular ( I + G1G2 ) −1 , que é feito primeiramente transformando a matriz “A” em produto
de matrizes bloco-diagonais, cujas inversas são imediatas. Este é o “pulo do gato”. O
resto é rotina trabalhosa.Last not least, premultiplicar ( I + G1G2 ) −1 por G1 , usando
novamente (32a). Obtem-se:
Exemplo:
Sejam os sistemas A1 = −1, B1 = 2, C1 = 3, D1 = 0; A2 = −2, B2 = 1, C2 = 2, D2 = 0 .
Vamos calcular a matriz de transferência equivalente pelos dois métodos:
6 2
De (32c), temos G1 ( I + G2G1 ) −1 . Mas G1 = e G2 = , donde
s +1 s+2
6 1 6 ( s + 2)( s + 1) 6s + 12
G1 ( I + G2G1 ) −1 = = = 2 .
s + 1 1+ 2 6 s + 1 s + 3s + 14 s + 3s + 14
2
s + 2 s +1
24
E por outro lado, da expressão de T acima, vem
⎡ −1 −4 2 ⎤
T = ⎢⎢ 3 −2 0 ⎥⎥
⎢⎣ 3 0 0 ⎥⎦
E portanto,
−1
⎡s + 1 4 ⎤ ⎡ 2⎤ 1 ⎡ s + 2 −4 ⎤ ⎡ 2 ⎤
T = [3 0] ⎢ ⎥ ⎢ ⎥ = [3 0] 2
⎣ −3 s + 2 ⎦ ⎣ 0 ⎦ s + 3s + 14 ⎢⎣ 3 s + 1⎥⎦ ⎢⎣ 0 ⎥⎦
1 ⎡ 2s + 4⎤ 6s + 12
= [3 0] 2 ⎢ ⎥ = 2 , conferindo com o resultado encontrado
s + 3s + 14 ⎣ 6 ⎦ s + 3s + 14
acima.
Definição: (33)
O sistema conjugado de G(s) é definido por
G ~ ( s ) = G T (− s ) = BT (− sI − AT ) −1 C T + DT
⎡ − AT −C T ⎤
=⎢ T ⎥
⎣B DT ⎦
Teorema: (33*)
†
Seja D a inversa à direita (esquerda) de D. Então a inversa à direita (esquerda) de G(s)
é dada por
⎡ A − BD †C − BD † ⎤
G† = ⎢ ⎥
⎣ D †C D† ⎦
Prova:
Vamos provar este resultado só para a inversa à direita, o procedimento é em tudo
semelhante para a inversa a esquerda. Vamos calcular o produto GG † usando (32a):
⎡A BD †C BD † ⎤
⎢ ⎥
GG = ⎢ 0
†
A − BD †C − BD† ⎥
⎢C DD †C DD † ⎥⎦
⎣
Mas DD † = I , donde
⎡A BD †C BD † ⎤
⎢ ⎥
GG = ⎢ 0
†
A − BD †C − BD† ⎥
⎢C C I ⎥⎦
⎣
25
Agora observe- se que para um sistema qualquer, C ( sI − A) −1 B = CT −1T ( sI − A) −1T −1TB
( ) ( )
−1 −1
= CT −1 T ( sI − A)T −1 TB = CT −1 sI − TAT −1 TB .
⎡I I⎤ ⎡I −I ⎤
Para o sistema acima com T = ⎢ ⎥ , temos T −1 = ⎢
I ⎥⎦
,
⎣0 I⎦ ⎣0
⎡I I ⎤ ⎡ A BD †C ⎤ ⎡ I − I ⎤ ⎡A 0 ⎤ ⎡I I ⎤ ⎡ BD † ⎤ ⎡ 0 ⎤
⎢0 I ⎥ ⎢ † ⎥⎢ ⎥= ⎢ 0 A − BD †C ⎥ , ⎢0 ⎢ ⎥=
I ⎥⎦ ⎣ − BD † ⎦ ⎢⎣ − BD † ⎥⎦
,
⎣ ⎦ ⎣ 0 A − BD C ⎦ ⎣ 0 I ⎦ ⎣ ⎦ ⎣
⎡I −I ⎤
[C C]⎢ ⎥ = [C 0] . Então, temos
⎣0 I ⎦
⎡A 0 0 ⎤
GG = ⎢⎢ 0
†
A − BD C †
− BD† ⎥⎥
⎢⎣C 0 I ⎥⎦
−1
⎡ sI − A 0 ⎤ ⎡ 0 ⎤
= [ C 0] ⎢ +I
⎣ 0 sI − A + BD C ⎦ ⎢⎣ − BD † ⎥⎦
† ⎥
= I. •
Definição:
A ordem de uma realização de uma matriz de transferência é a dimensão da matriz A.
Definição:
Uma realização é de ordem mínima se ela tiver a menor ordem possível.
Exemplo
Seja a função de transferência G(s)= 1/s. É fácil verificar que ela tem as seguintes
realizações, entre inúmeras outras:
⎡0 0 ⎤ ⎡1 ⎤
A1 = −0, B1 = 1, C1 = 1 e D1 = 0 , A2 = ⎢ ⎥ B2 = ⎢ ⎥ , C2 = [1 2] e D2 = 0 .
⎣0 1 ⎦ ⎣0⎦
Claro que a primeira realização é de ordem mínima, igual a 1. Observe-se que a mesma
função de transferência tem uma infinidade de realizações. Assim, por exemplo, o
segundo elemento de C2 pode ser qualquer número real. E na primeira realização, basta
que o produto B1C1 seja igual a 1.
26
função de transferência). Mas para matrizes de transferência, como veremos, a coisa é um
pouco mais complicada, ou melhor, o polinômio característico não é determinável de
modo tão simples.
Uma realização de ordem 1 é seguramente de ordem mínima. Mas se ela não for de
ordem 1, como saber se é mínima? A resposta nos é dada no importante
Teorema: (33**)
Uma realização (A, B, C, D) no espaço de estado de uma matriz de transferência G(s) é
de ordem mínima se só se (A, B) for controlável e (C , A) for observável.
Prova:
(Somente se): Pode-se demonstrar que se o sistema não for controlável, existe uma
transformação de similaridade, com uma matriz não singular T tal que
⎡ A11 A12 ⎤ ⎡B ⎤
TAT −1 = ⎢ ⎥ e TB = ⎢ 1 ⎥ . Seja CT −1 = [C1 C2 ] .
⎣ 0 A22 ⎦ ⎣0⎦
Ora a matriz de transferência do sistema é
C ( sI − A) −1 B + D = CT −1T ( sI − A) −1 T −1TB + D
= CT −1 (T ( sI − A)T −1 ) TB + D = CT −1 ( sI − TAT −1 ) TB + D
−1 −1
⎣ 21
A A22 ⎦
acima.
(Se): Suponha que a realização (A, B, C, D) seja controlável e observável, mas não seja
mínima. Seja uma outra realização da mesma matriz de transferência que seja mínima:
( Am , Bm , Cm , D) . Então,
C ( sI − A) −1 B + D = Cm ( sI − Am ) −1 Bm + D , ou seja, C ( sI − A) −1 B = Cm ( sI − Am ) −1 Bm . (*)
Mas ( sI − A) −1 = Is −1 + As −2 + A2 s −3 + ... , supondo que a série convirja, ou seja, que a
matriz A seja assintoticamente estável. (**)
−1
e da mesma forma para ( sI − Am ) .
Então de (*), duas linhas acima, temos
CB = Cm Bm , CAB = Cm ABm , CA2 B = Cm A2 Bm ,... (#)
Ora, lembramos que as matrizes de controlabilidade e observabilidade são
27
⎡ C ⎤
⎢ CA ⎥
C = [ B, AB, ..., An −1 B] e O = ⎢ ⎥ , respectivamnete.
⎢ ⎥
⎢ n −1 ⎥
⎣CA ⎦
⎡ Cm ⎤
⎢C A ⎥
Definamos C m := [ Bm , Am Bm , ..., Amn −1 Bm ] e O m := ⎢ m m ⎥ .
⎢ ⎥
⎢ n −1 ⎥
⎣Cm Am ⎦
Mas destas duas e de (#), quatro linhas acima, temos
OC = O m C m . (##)
Mas das desigualdades de Sylvester, temos
Posto[ O] + Posto[C] − n ≤ Posto[ O C] ≤ min{Posto[ O], Posto[C]} .
Mas como a realização (A, B, C, D) é controlável e observável por hipótese,
temos da dupla desigualdade acima que Posto[ O C] = n .
Mas visto que a realização ( Am , Bm , Cm , D) é por hipotese minima, ela é controlável e
observável, de acordo com a necessidade, já demonstrada do teorema. Seja k o posto de
Cm e de O m . Então, aplicando as desigualdades de Sylvester a O m Cm , concluimos que
seu posto é igual a k. E de (##), concluimos que k = n. •
Observação:
Se o sistema (A, B, C, D) não for controlável, ao efetuarmos o produto ( sI − A) −1 B , há
cancelamento de polo. E se o sistema não for observável, ao efetuarmos o produto
C ( sI − A) −1 , também há cancelamento de polo.
Exemplo:
⎡ −1 0 ⎤ ⎡0 ⎤
Suponha que um sistema tenha A = ⎢ ⎥ , B = ⎢ ⎥ . Este sistema não é controlavel,
⎣ 0 1⎦ ⎣1 ⎦
⎡ s + 1 0 0⎤
pois Posto[ sI − A, B] = Posto ⎢ = 1 < 2 ∀s ∈ C .
⎣ 0 s -1 1 ⎥⎦
⎡( s + 1) −1 0 ⎤ ⎡0⎤ ⎡ 0 ⎤
Ora, ( sI − A) −1 B = ⎢ ⎥⎢ ⎥ = ⎢ −1 ⎥
. Ou seja, o polo -1 efetivamente
⎣ 0 ( s − 1) −1 ⎦ ⎣1 ⎦ ⎣( s − 1) ⎦
foi cancelado no produto. E observe-se que o sistema com este par (A,B) é estabilizável,
⎡ s + 1 0 0⎤
pois Posto[ sI − A, B ] = Posto ⎢ = 2 ∀s ∈ C+ . Ou seja, como visto acima,
⎣ 0 s -1 1 ⎥⎦
num sistema estabilizável , mas não controlável, há sempre cancelamento de um modo
“bom”, no caso acima, s = -1.
28
Se com a mesma matriz A, tivermos C = [ 0 1] , obteremos C ( sI − A) −1 = ⎡⎣0 ( s − 1) −1 ⎤⎦
e, de novo, o mesmo modo “bom” foi cancelado no produto C ( sI − A) −1 , o sistema sendo
detectável.
Se o sistema tiver as matrizes A, B e C acima, ele não será nem controlável, nem
observável (mas será estabilizável e detectável).
Teorema:
Sejam ( A1 , B1 , C1 , D) e ( A2 , B2 , C2 , D) duas realizações mínimas de uma mesma matriz
de transferência. Então existe uma única matriz não singular T tal que
−1
A2 = TAT1 , B2 = TB1 , e C2 = C1T −1 . Alem disso, sejam C1 , C 2 , O1 e O 2 as respectivas
matrizes de controlabilidade e observabilidade, respectivamente. Então, T é dada por
T = (O*2 O 2 ) −1 (O*2 O 2 ) = (C2 C*2 )(C 2C*2 ) −1 . (E observe-se que T = T −1 , ou seja, T é uma
matriz unitária, ou ortogonal, sendo as matrizes reais)
Prova: omitida.
⎡ Ai Bi ⎤
Gi ( s) = ⎢ ⎥ , i = 1, 2, 3 e 4
⎣⎢Ci Di ⎦⎥
Então uma realização de G(s) é dada por
⎡ A1 0 0 0 B1 0⎤
⎢0 A 0 0 0 B2 ⎥⎥
⎢ 2
⎢0 0 A3 0 B3 0⎥
G(s) = ⎢ ⎥
⎢0 0 0 A4 0 B4 ⎥
⎢C1 C2 0 0 D1 D2 ⎥
⎢ ⎥
⎣⎢ 0 0 C3 C4 D3 D4 ⎦⎥
A prova deste resultado é imediata.
Vejamos a chamada realização de Gilbert, que pode ser usada quando os polos da matriz
de transferência são reais e distintos:
Seja G(s) uma matriz de transferência própria, p × m .
Separamos a parte estritamente própria da constante:
G ( s ) = D + Gsp ( s )
Seja d(s) o mínimo múltiplo comum dos denominadores de G(s).
Então, temos d ( s ) = ( s − λ1 )( s − λ2 ) ( s − λr ) .
Podemos escrever:
29
1 1 1
Gsp ( s ) = W1 + W2 + + Wr ,
s − λ1 s − λ2 s − λr
onde Wi ∈ R p×m , i = 1, 2, r, são os chamados resíduos (que são matriciais).
Temos então:
r
Wi
G (s) = D + ∑ . (*)
i =1 s − λi
Realizamos cada
1
s − λi
(
Wi como Ci ( s − λi ) I ki Bi )
Então é fácil verificar desta e de (*), três linhas acima, que uma realização de G(s) é dada
por
⎡λ1 I k1 0 B1 ⎤
⎢ ⎥
G (s) = ⎢ ⎥
⎢ 0 λr I k Br ⎥
⎢ r
⎥
⎢⎣ C1 Cr D ⎥⎦
Aplicando o teste PBH do posto, vê-se “imediatamente” que esta realização é controlável
e observável.
Exemplo
Achar a realização de Gilbert da seguinte matriz de transferência
⎡ 2s 2 1 ⎤
⎢ 2 ⎥
G ( s ) = ⎢ s + 3s + 2 s − 1 ⎥ .
2
⎢ s −1 s −1 ⎥
⎢⎣ s 2 + s s − 2 ⎥⎦
Solução: Primeiramente separamos as partes estritamente própria e constante
(independentemente de s) e fatoramos os denominadores:
⎡ −6 s − 4 1 ⎤
⎡ 2 0 ⎤ ( s + 1)( s + 2) ( s + 1)( s − 1) ⎥
⎢
G (s) = ⎢ ⎥+⎢ −
⎥.
⎣ 0 1 ⎦ ⎢ s 1 1 ⎥
⎢ s ( s + 1) s−2 ⎥
⎣ ⎦
Agora “parcelamos” cada elemento estritamente próprio, utilizando o cálculo dos
resíduos:
−6 s − 4 2 8 1 1 1 s −1 2 1
= − , = − , = − .
( s + 1)( s + 2) s + 1 s + 2 ( s + 1)( s − 1) 2( s − 1) 2( s + 1) s ( s + 1) s + 1 s
Então, temos
30
⎡ 2 8 1 1 ⎤
− −
⎡ 2 0 ⎤ s + 1 s + 2 2( s − 1) 2( s + 1) ⎥
⎢
G (s) = ⎢ ⎥+⎢ ⎥,
⎣0 1 ⎦ ⎢ 2 − 1 1 ⎥
⎢⎣ s + 1 s s−2 ⎥⎦
ou seja,
⎡2 0⎤ 1 ⎡ 0 0⎤ 1 ⎡ 2 −1/ 2 ⎤ 1 ⎡ 0 1/ 2 ⎤ 1 ⎡0 0⎤
G (s) = ⎢ ⎥ + ⎢ ⎥ + ⎢ + +
⎣ 0 1 ⎦ s ⎣ −1 0 ⎦ s + 1 ⎣ 2 0 ⎦ ( s − 1) ⎣ 0 0 ⎦ s − 2 ⎢⎣ 0 1 ⎥⎦
⎥ ⎢ ⎥
⎡s 1 0⎤
⎢ s +1 1 0 ⎥⎥
⎢
⎢ s +1 0 1⎥
⎢ ⎥
G (s) = ⎢ s −1 0 1⎥
⎢ s−2 0 1⎥
⎢ ⎥
⎢0 2 −1/ 2 1/ 2 0 2 0⎥
⎢ −1 2 0 1 ⎥⎦
⎣ 0 0 1
Lema: (35)
Com referência à eq. (34), suponha que A seja estável. Então, sua solução tem as
seguintes propriedades:
∞
∫
T
(i) X = e A t Qe At dt ;
0
(ii) X > 0 se Q > 0 e X ≥ 0 se Q ≥ 0 ;
(iii) suponha Q ≥ 0 ; então (Q1/ 2 , A) é observável se só se X > 0.
31
∞
Lo = ∫ e A t C T Ce At dt .
T
0
Então verifica-se que ele satisfaz à eq. de Lyapunov, a saber,
AT Lo + Lo A + C T C = 0 .
Mais ainda, de acordo com (iii) do Lema, um par (C, A) é observável se só se ele
satisfizer à eq. acima.
0
satisfizer à eq. de Lyapunov
ALc + Lc AT + BBT = 0 .
Exemplo:
Achar os gramianos de controlabilidade e de observabilidade do seguinte sistema
⎡ −1 1 ⎤ ⎡1 ⎤
A=⎢ ⎥ , B = ⎢ ⎥ , C = [1 3] , D qualquer matriz dois por dois de reais.
⎣ 0 −2 ⎦ ⎣ 2⎦
Solução:
ALc + Lc AT + BBT = 0 .
⎡l m⎤
Seja Lc =: ⎢
p ⎥⎦
. Substituindo, vem
⎣n
⎡ −1 1 ⎤ ⎡ l m ⎤ ⎡ l m ⎤ ⎡ −1 0 ⎤ ⎡ 1 ⎤ ⎡0 0⎤
⎢ 0 −2 ⎥ ⎢ n ⎥ +⎢ ⎥ ⎢ ⎥ + ⎢ ⎥ [1 2] = ⎢ ⎥,
⎣ ⎦⎣ p ⎦ ⎣ n p ⎦ ⎣ 1 −2 ⎦ ⎣ 2⎦ ⎣0 0⎦
⎡ −l + n − m + p ⎤ ⎡ −l + m −2m ⎤ ⎡ 1 2 ⎤ ⎡ 0 0 ⎤
donde ⎢ + + =
−2 p ⎥⎦ ⎢⎣ − n + p −2 p ⎥⎦ ⎢⎣ 2 4 ⎥⎦ ⎢⎣ 0 0 ⎥⎦
,
⎣ −2n
que nos dá 4 eqs.: m + n − 2l + 1 = 0, p − 3n + 2 = 0, p − 3m + 2 = 0 e − 4 p + 4 = 0 .
⎡3/ 2 1⎤
Donde obtemos m = n = p = 1, l = 3/2, ou seja, Lc = ⎢ ⎥.
⎣ 1 1⎦
O gramiano de observavilidade é calculado de forma semelhante.
32
quando se efetuam os produtos para constiuir a função de transferência. São cancelados,
como vimos, os “modos” incontroláveis e/ou inobserváveis.
Após os cancelamentos ficamos com uma função de transferência com menos polos do
que os autovalores da matriz “A”.
Para funções de transferência, o conceito de estabilidade é o de BIBO-estabilidade, BIBO
significando “bounded input / bounded output”:
Definição: (36)
Uma função de transferência é BIBO se para todo sinal de entrada limitado, a sua
resposta também será um sinal limitado.
Teorema: (37)
Uma função de transferência é BIBO – estável se só se não tiver polo no semi-plano
fechado da direita.
A prova deste fato é simples, bastando lembrar que a transformada de Laplace de sinais
limitados tem seus polos no semiplano fechado da esquerda, sendo que os polos no eixo
imaginário são simples, isto é, com grau de multiplicidade igua a 1. •
Exemplo:
1
Considere a função de transferência G ( s ) = . Se a entrada for um sinal limitado, a
s +1
resposta conterá este mesmo sinal limitado, além de uma exponencial decrescente, que
tende para zero. Assim, por exemplo, se a entrada for um “degrau” aplicado no instante t
1 1 1 1 1
= 0, isto é, u ( s ) = , então a resposta é y ( s ) = = y(s) = − , esta última
s s +1 s s s +1
igualdade sendo obtida pelo familiar cálculo dos resíduos. Ora, a transformada inversa
desta é y (t ) = 1 − e − t , t ≥ 0 , ou seja, um degrau diminuido de uma exponencial
decrescente, ou seja, a resposta é BIBO
1
Considere agora a função de transferência G ( s ) = , que tem o polo fora do semiplano
s
aberto da esquerda, mas na “fronteira”. Suponha que a entrada seja a mesma do caso
1
anterior. Então a resposta será y ( s ) = , cuja trasformada inversa é y (t ) = t , t ≥ 0 ,
s2
uma “rampa”, trata-se de um sinal que evidentemente não é limitado, e portanto esta
função de transferência não é BIBO, como previsto pelo Teorema (37).
33
transferência, ele também será polo da matriz, mas o grau de multiplicidade do polo da
matriz não será necessariamente igual ao grau no elemento.
Definição: (38)
Supondo que todos os elementos de uma matriz de transferência sejam irredutíveis, seu
polinômio característico é definido como o mínimo múltiplo comum (m.m.c.) dos
denominadores de todos seus menores.
34
Isto posto temos a definição de polos em matrizes de tranferência:
Definição: (40)
Os polos de uma matriz de transferência, com seus respectivos graus de multiplicidade,
são as raízes de seu polinômio característico.
No exemplo acima temos polo duplo na origem e em 1 e polo simples em -1 e -2. Vale
observar que o polo duplo na origem não aparece em nenhum dos elementos.
- Para definir zeros em sistemas multivariáveis temos que definir o que são matrizes de
MacMillan, tb. chamadas de Smith-MacMillan.
Definição: (41)
Uma matriz polinomial em s, quadrada, é dita unimodular se seu determinante for
independente de s.
Na matriz acima r é o chamado posto normal da matriz P(s), que é definido como o
maior dos postos da matriz para pelo menos um valor de s.
Esta definição de posto normal é geral, valendo também para matrizes irracionais. No
caso de matrizes polinomiais (como também no caso de matrizes racionais, aliás toda
matriz polinomial é tb. racional), o posto normal é a ordem do menor de maior ordem não
indenticamente nulo.
A demonstração da forma de Smith que será omitida aqui, é feita através de operações
elementares e da aplicação da fórmula de Binet-Cauchy que dá o menor do produto de
35
matrizes em função dos menores dos fatores. Esta demonstração está, por exemplo, nas
pp. 47ss (numeração embaixo da página) do meu texto “Sistemas Lineares” que se
encontra no meu site.
Mas o conceito de operações elementares tem que ser explicado para sabermos como
calcular a forma de Smith de uma matriz.
São três as operações elementares tanto sobre as linhas como sobre as colunas:
1. Multiplicação de uma linha (coluna) por um número real diferente de zero;
2. Permutação de duas linhas (colunas);
3. Adição de uma linha (coluna) multiplicada por um polinômio a uma outra linha
(coluna).
⎡1 0 0⎤
equivalente à posmultiplicação de P(s) por ⎢ 0 0 1 ⎥⎥ , de novo uma matriz unimodular,
⎢
⎢⎣0 1 0 ⎥⎦
obtida, tal como no caso anterior, por aplicação da operação à matriz identidade
3. Adicionando à 2ª. coluna a primeira multiplicada pelo polinômio s, obtemos
⎡ s s +1 s3 ⎤ ⎡ s s 2 + s + 1 s + 1⎤
⎢ 2⎥
∼⎢ ⎥ . E este resultado, tal como nos
⎣ s − 1 s − 4 ( s − 4) ⎦ ⎣( s − 1) s2 − 4 s − 4⎦
casos anteriores, pode ser obtido, posmultiplicando a matriz P(s) pela matriz que é o
resultado da aplicação da mesma operação elementar à matriz identidade, ou seja, pela
⎡1 s 0 ⎤
matriz ⎢ 0 1 0 ⎥ .
⎢ ⎥
⎢⎣0 0 1 ⎥⎦
36
Como acabamos de constatar, toda operação elementar, seja aplicada às linhas, seja às
colunas, é equivalente, respectivamente, à premultiplicação ou posmultiplicação por uma
matriz unimodular.
Mas o produto de matrizes unimodulares é unimodular. (Para ver isto, basta considerar
que o produto dos determinantes delas é independente de s). Consequentemente, uma
sequência de operações elementares é equivalente à pré- (ou pós-) multiplicação por
matrizes unimodulares. E a recíproca também é verdadeira, ou seja, toda matriz
unimodular que pré (pós)- multiplique outra matriz pode ser decomposta como o produto
de matrizes unimodulares simples (dos tipos das 3 acima), e portanto é equivalente a uma
sequência de operações elementares.
⎡ −1 −5 − s 3 + s 2 − 9 s + 16 ⎤ ⎡1 5 s 3 − s 2 + 9s − 16 ⎤
∼⎢ ∼
⎥ ⎢ ⎥
⎣ s s +1 s3 ⎦ ⎣s s + 1 s3 ⎦
⎡1 0 0 ⎤ ⎡1 0 0 ⎤
∼⎢ ⎥ ∼⎢ ⎥.
⎣ s −4 s + 1 − s + 2 s − 8s + 16 s ⎦ ⎣ 0 −4 s + 1 − s + 2s − 8s + 16s ⎦
4 3 2 4 3 2
Chegados a este ponto, coloca-se em (2,2) o elemento de mais baixo grau, que já está lá e
fazem-se operações elementares para zerar todos os elementos da 2ª. linha e da 2ª.
coluna, à exceção do elemento (2,2), claro. Ou seja:
⎡1 0 0 ⎤ ⎡1 0 0 ⎤
∼⎢ ⎥ ∼ ⎢ ⎥
⎣0 s − 1/ 4 s − 2 s + 8s − 16 s ⎦ ⎣ 0 s − 1/ 4 (−7 / 4) s + 8s − 16s ⎦
4 3 2 3 2
⎡1 0 0 ⎤ ⎡1 0 0 ⎤
∼⎢ ⎥ ∼⎢ ⎥
⎣0 s − 1/ 4 (7 / 4) s − 8s + 16s ⎦ ⎣0 s − 1/ 4 (−121/16) s − 16s ⎦
3 2 2
⎡1 0 0 ⎤ ⎡1 0 0 ⎤
∼⎢ ⎥ ∼ ⎢ ⎥
⎣0 s − 1/ 4 (121/16) s + 16 s ⎦ ⎣0 s − 1/ 4 (1145 / 64) s ⎦
2
⎡1 0 0 ⎤ ⎡1 0 0 ⎤ ⎡1 0 0 ⎤ ⎡1 0 0⎤
∼⎢ ⎥ ∼⎢ ⎥ ∼⎢ ⎥ ∼⎢ ⎥
⎣0 s − 1/ 4 s ⎦ ⎣ 0 s − 1/ 4 1/ 4 ⎦ ⎣ 0 −1/ 4 1/ 4⎦ ⎣ 0 −1/ 4 0⎦
⎡1 0 0 ⎤
⎢0 1 0 ⎥ , que é a forma de Smith.
⎣ ⎦
37
Claro que poderíamos parar na matriz anterior. Mas por convenção, todos os polinômios
da diagonal da forma de Smith, os polinômios invariantes, devem ser mônicos, ou seja,
com os coeficientes do termo de mais alto grau igual a 1.
Como se vê neste exemplo, o cálculo da forma de Smith pode ser bastante trabalhoso,
mesmo quando a matriz é simples, se bem que no cálculo acima, poder-se-ia ter cortado
caminho. As operações feitas acima foram mais complicadas para se seguir o algoritmo
da demonstração da forma de Smith, conforme mencionado acima.
- Os zeros de uma matriz polinomial são definidos pelas raízes do menor de maior ordem
não identicamente nulo. Ora o determinante de um produto de matrizes é o produto dos
seus determinantes.
Ora, em (42b) as matrizes U e V são unimodulares, portanto as raízes de P são as
mesmas, contadas as multiplicidades, que as da matriz S.
r
Ou seja, os zeros da matriz P são as raízes de ∏ γ (s) .
i =1
i
Mas as matrizes que interessam mais em Teoria de Controles são as matrizes racionais,
pois são nelas que são expressas as matrizes de transferência de um sistema.
Passamos portanto ao estudo da Forma de (Smith)-MacMillan, que são as formas
canônicas mais importantes para as matrizes racionais, assim como a Forma deSmith é a
forma canônica mais importante para as matrizes polinomiais.
Seja portanto G(s) uma matriz racional com coeficientes reais, que são, como vimos
antes, as matrizes de transferência que surgem quando estudamos sitemas linerares
invariantes no tempo regidos por eqs. diferenciais ordinárias.
Teorema (43a)
Seja G(s) uma matriz racional própria . Então existem matrizes polinomiais unimodulares
U(s) e V(s) tais que:
38
⎡ α1 ( s ) ⎤
⎢ β (s) 0 0 0⎥
⎢ 1 ⎥
⎢ α 2 ( s ) ⎥
⎢ 0 β 2 (s)
0 0⎥
U ( s )G ( s )V ( s ) = ⎢ ⎥ =: M ( s ) , (43b)
⎢ ⎥
⎢ ⎥
⎢ 0 α r (s) ⎥
0 0
⎢ β r ( s) ⎥
⎢ ⎥
⎣ 0 0 0 0⎦
onde cada α i ( s ) é fator de α i +1 ( s ) , enquanto que cada β i +1 ( s ) é fator de β i ( s ) ; alem
disso, β1 ( s ) =d(s).
Prova:
Suponha, sem perda de generalidade, que cada elemento de G(s) esteja na forma
irredutível. Seja d(s) o m.m.c. dos denominadores de G(s) e seja N(s) matriz polinomial
N (s)
tal que G ( s ) = . Agora aplicamos operações elementares a N(s) de modo a
d (s)
transformá-la na forma de Smith, de acordo com o teorema (42):
⎡γ 1 ( s ) 0 0 0⎤
⎢ 0 γ 2 (s) 0 0 ⎥⎥
⎢
U ( s ) N ( s )V ( s ) = ⎢ ⎥ =: S ( s ) .
⎢ ⎥
⎢ 0 0 γ r (s) 0⎥
⎢⎣ 0 0 0 0 ⎥⎦
Definamos agora
⎡ γ 1 (s) ⎤
⎢ d (s) 0 0 0⎥
⎢ ⎥
⎢ γ 2 (s) ⎥
⎢ 0 d (s)
0 0⎥
S (s) ⎢ ⎥ . Cancelando agora os fatores comuns
M (s) = =
d (s) ⎢ ⎥
⎢ γ ( s ) ⎥
⎢ 0 0 r
0⎥
⎢ d (s) ⎥
⎢ 0 0 ⎥⎦
⎣ 0 0
entre γ i ( s ) e d(s), chegamos a (43b). Observe-se em seguida que, como vimos, cada
γ i ( s ) é fator de γ i +1 ( s ) , portanto cada α i ( s ) é fator de α i +1 ( s ) , pois cada α i ( s ) está
sendo dividido pelo mesmo d(s). E por outro lado, ao cancelarmos os fatores de α i ( s ) e
d(s), sobra no denominador β i ( s ) que é fator de β i −1 ( s ) . β1 (s) = d (s) , pois se houvesse
39
cancelamento de fator comum entre α1 ( s ) e d(s), isto signficaria um cancelamento entre
o m.d.c. dos elementos de N(s) e o m.m.c. dos denominadores de G(s), ou seja, isto
significaria que os elementos de G(s) não seriam irredutíveis, contra a hipótese inicial. •
Definição: (44)
r
O grau de MacMillan de uma matriz racional é definido como ∑ grau(β (s)) .
i =1
i
Esta noção é importante porque se pode demonstrar que a ordem de uma realização
mínima de uma matriz de transferência é exatamente o grau de McMillan da matriz de
transferência.
Definição: (45)
Os zeros de uma matriz de transferência, mais comumente chamados de zeros de
r
transmissão, são as raízes de ∏α (s) .
i =1
i
Outro conceito de zero de uma matriz de transferência talvez tão, ou mais, utilizado na
prática quanto o anterior é o de zero de bloqueio.
Definição: (46)
Os zeros de bloqueio de uma matriz de transferência são as raízes, contadas as
multiplicidades, do m.d.c. dos numeradores da matriz de transferência. (Aqui, como
usual, cada elemento da matriz de transferência é suposto irredutível).
Esta definição de zero de uma matriz de transferência pareceria mais apropriada do que a
anterior, se tivéssemos que escolher uma das duas. Com efeito, zero de uma função é o
valor da variável no domínio da função que a torna nula. No caso de uma função racional
escalar ou no caso de um polinômio isto é claro. E é claro também no caso de uma matriz
racional, se for usada a definição de zero de bloqueio; mas esta propriedade não se realiza
se for usada a outra noção, a de zero de transmissão.
Os polos da matriz de transferência podem ser computados também a partir da sua forma
de McMillan, a saber:
Definição: (47)
40
Os polos de uma matriz de transferência, cuja forma de McMillan é dada por (43b) são as
r
raízes, contados os graus de multiplicidade, de ∏ β (s) .
i =1
i
d (s) ⎢ ⎥
⎢⎣ 1 2s + 1 s ⎥⎦
Passamos ao cálculo da Froma de Smith desta matriz:
O m.d.c. dos elementos de N(s) é claramente 1, portanto o primeiro polinômio invariante
de G(s), que é α1 ( s ) na sua forma de Smith, é igual a 1.
A seguir, observe-se que a 1ª. e 3ª. linhas acima são l.d., efetivamente a 1ª. linha é a 3ª.
multiplicada por s + 1.
Então adicionando à primeira linha a terceira multiplicada por -(s + 1), temos
⎡ 0 0 0 ⎤
N ( s ) ∼ ⎢ s + 2 ( s + 2)( s + 5s + 3) s ( s + 2) ⎥⎥ . Ora, à primeira vista, temos três
⎢ 2
⎢⎣ 1 2s + 1 s ⎥⎦
menores de ordem 2, não identicamente nulos, nesta matriz. Mas calculando, verifica-se
que um deles é nulo e os outros dois são iguais a
( s + 2)( s 2 + 5s + 3 − 2s − 1) = ( s + 2)( s 2 + 3s + 2) = ( s + 1)( s + 2) 2 .
Consequentemente, a forma de Smith de N(s) é
41
⎡1 0 0⎤
S ( s ) = ⎢⎢ 0 ( s + 1)( s + 2) 2 0 ⎥⎥ . E a forma de McMillan é obtida dividindo-se esta por
⎢⎣ 0 0 0 ⎥⎦
⎡ 1 ⎤
⎢ ( s + 1) 2 ( s + 2) 0 0⎥
⎢ ⎥
⎢ s+2 ⎥
d(s): M ( s ) = ⎢ 0 0⎥ .
s +1
⎢ ⎥
⎢ 0 0 0⎥
⎢ ⎥
⎣ ⎦
Então verificamos que G(s) tem um zero de transmissão em -2, um polo também em -2 e
um polo em -1 com grau de multiplicidade 3.
Para encerrar esta seção, é preciso tratar ainda dos zeros e polos no infinito.
Uma função racional estritamente própria se anula quando a variável s é igual a infinito.
E se a diferença entre o grau do denominador e o do numerador for p, podemos (e
devemos) dizer que o grau de multiplicidade do zero no infinito é p.
E por outro lado, dizemos que uma função de transferência imprópria tem polo no
infinito, porque quando s é igual a infinito, o valor da função também o é. E o grau de
multiplicidade do polo no infinito é igual à diferença entre os graus do numerador e do
denominador.
Por que? Como vemos de (43b), para obtermos a forma de McMillan de uma matriz, pré-
e pós- multiplicamo-la por matrizes unimodulares. Ora, as matrizes unimodulares são
impróprias e, em geral, têm polos no infinito. Portanto, há em geral uma introdução de
polos no infinito na matriz original. E assim, sendo a matriz original própria, sua forma
de McMillan pode ser imprópria.
Para verificar zeros e polos no infnito de uma matriz, substituímos s por 1/z na sua
forma de McMillan e verificamos se esta matriz tem, e quantos, zeros e polos na origem.
Exemplo:
⎡1 s ⎤
G(s) = ⎢ ⎥ , Esta é uma matriz polinomial, e aliás unimodular. Mas a consideramos
⎣0 1⎦
aqui como uma matriz racional imprópria. Substituindo s por 1/z, temos
42
⎡1 1/ z ⎤ 1 ⎡ z 1 ⎤
G (1/ z ) = ⎢ ⎥= ⎢ ⎥ . Ora, para calcular a forma de Smith desta matriz,
⎣0 1 ⎦ z ⎣0 z ⎦
vemos que o m.d.c. de seus elementos é 1, enquanto que seu determinante é z 2 .
1 ⎡1 0 ⎤ ⎡1/ z 0 ⎤
Então a forma de Mcmillan da matriz em z é ⎢ =
z ⎣0 z 2 ⎥⎦ ⎢⎣ 0 z ⎥⎦
, que tem um zero e
um polo na origem. Portanto a matriz original G(s) tem um zero e um polo no infinito.
Esta conclusão é surpreendente: que a matriz G(s) tenha um polo no infinito, não é de se
admirar, uma vez que ela é imprópria. Mas um zero no infinito? Eis um resultado não
intuitivo.
onde ∂S é a fronteira de S.
43
O produto interno deste espaço de Hilbert é definido como:
∞
1
∫ Traço[F ( jω )G ( jω )]dω < ∞ .
∗
F , G := (3)
2π -∞
Este produto interno induz uma norma dada por
F 2 := F, F . (4)
σ > 0 ⎝ 2π −∞ ⎠
Pode-se demonstrar, utilizando o teorema do maximum modulus, que
∞
1
∫ Traço[F ( jω ) F ( jω )]d ω
∗
=
2
F (5)
2
2π -∞
Comparando-se esta com (2), verifica-se que são idênticas, ou seja, se F ∈ H 2 , sua
norma é a mesma que se estivesse em L2 (j R ).
Como exemplo, o conjunto de todas as funções reais racionais estritamente próprias e
estáveis pertence a este espaço. Ele é denotado por RH 2 .
44
tempo será denotado por L2 (- ∞ , ∞ ). Pode-se provar que existe um isomorfismo entre
este espaço e o anterior, ou seja,
L2 (- ∞ , ∞ ) ≅ L2 (j R ). (6)
L∞ ( jR ) definido como um
- O próximo espaço que nos interessará neste curso é o
espaço de Banach de funções ou matrizes que são essencialmente limitadas em jR com
norma
F ∞ := ess sup σ [ F ( jω )] (9),
ω∈R
onde, como vimos no capítulo anterior, σ (⋅) denota o maior valor singular de uma
matriz.
Observe-se que é definido também o espaço L∞ no domínio do tempo, o qual é usado,
geralmente, para definir sinais, ao passo que o no domínio da frequência, L∞ ( jR ) , é
usado geralmente para matrizes ou funções de transferência e, mais geralmente,
operadores.
45
F ∞
:= sup σ [ F ( s)] = sup σ [ F ( jω )] ,
Re[ s ]< 0 ω∈R
que, como se vê, é identical a (10).
Analogamente aos casos anteriores, RH ∞ denota o subconjunto das funções (matrizes)
_
racionais com coeficientes reais que são próprias e têm todos seus pólos no semiplano
complexo da direita.
46
Prova de (15) e (16): ver ZDG, pp. 105s.
- Note-se que lim sup z (t ) = G ( jω0 )u0 (ver (16c)) vale para u0 ∈ R q e ω0 fixados. É
t →∞
importante saber o que acontece se eles não são fixados. Efetivamente, a frequência da
senoide pode variar dentro de certos limites e a amplitude da senoide também. A tabela
abaixo responde a esta pergunta:
Entrada u(t) Resposta z(t) Norma da entrada Norma induzida
L2 L2 ∞
G
u2= ∫u
2 ∞
dt
0
L∞ L∞ u ∞
= sup max ui (t )
i
max gi
i 1
t
L∞ L∞ u = sup u (t ) ∞
∞
t ≤ ∫ g (t ) dt
0
Tabela 1
Observe-se que as normas que aparecem dos lados direitos das igualdades acima são
normas euclideanas, isto é, a raiz quadrada da soma dos quadrados das componentes do
vetor.
Prova dos resultados acima: ZDG, pp. 108ss.
- Vamos agora calcular majorantes, que serão muito úteis, para as normas em H ∞ e L1 .
Seja a matriz de transferência, com dimensões não especificadas, mas compatíveis
⎡A B⎤
G(s) = ⎢ ⎥ ∈ RH ∞ (16a)
⎣C D ⎦
Teorema: (18)
∞ n
σ1 ≤ G ∞
≤ ∫ g (t ) dt ≤ 2∑ σ i .
0 i =1
47
Observação: g(t) é uma matriz, igual, como se sabe, a Ce At B . A norma dentro do
integrando é a norma euclidiana.
Prova do teorema (18): ZDG, pp. 111s.
É fácil verificar que a norma acima é limitada se só se a matriz de transferência G(s) for
estritamente própria, isto é, G (∞) = 0 .
s −1
Com efeito, se por exemplo, G ( s ) = , temos
s +1
− jω − 1 jω − 1 1 + ω 2
G* ( jω )G ( jω ) = = = 1 , donde que a integral acima diverge.
− jω + 1 jω + 1 1 + ω 2
E isto também se aplica para norma definida em H 2 . Consequentemente, quando se
tratar de norma L2 ou H 2 , suporemos que a matriz de transferência seja estritamente
própria.
48
∞ ∞
G 2 = ∫ Traço ( g * (t ) g (t ) ) dt = ∫ Traço ( g (t ) g * (t ) ) dt
2
0 0
∞ ∞
∫ Traço ( B * e C * Ce B ) dt = ∫ Traço ( Ce BB * e C *) dt .
A*t At At A*t
=
0 0
A demonstração é concluída lembrando que os gramianos de controlabilidade e
observabilidade são definidos respectivamente por
∞ ∞
Lc = ∫ e BB * e dt e Lo = ∫ e A*t C * Ce At dt ,
At A*t
0 0
sendo que, como já vimos, estes gramianos podem ser calculados por (22). •
Exemplo:
Calcular a norma em L2 do sistema em que A = -1, B = C = 1, D = 0.
Solução: vamos calcular a norma pelos dois métodos:
1
Utilizando primeiramente (19), temos que G ( s ) = , donde
s +1
1
G* ( jω )G ( jω ) = . E das primeiras igualdades de (19) ou (20), temos
1+ ω2
∞ ∞
1 +∞ π ⎛ π⎞
∫−∞ ω ω ω ∫−∞ 1 + ω 2 dω = arctg(ω ) −∞ = 2 − ⎜⎝ − 2 ⎟⎠ = π ,
∗
Traço[G ( j )G ( j )]d =
1
portanto G 2 = .
2
2
Agora vamos à eq. (23): Como B = C, os dois gramianos são iguais. Denominemo-
1
lo por L. Então temos de (22): - L – L +1 = 0, donde L = ½ e de (23), G 2 = .
2
- Mas em geral, mesmo no caso multiváriavel, pode-se obter uma estimativa da norma
por método simples, a saber, escolhe-se um conjunto de frequências relativamente
próximas umas das outras, {ω1 , ω2 ,..., ω N } , e então uma (relativamente) boa estimativa
da norma será
49
max σ {G ( jωk } . (25)
1≤k ≤N
- No caso em que a matriz (ou função) de transferência é racional, o que ocorre com
frequência, a norma pode ser computada a partir da sua realização no espaço de estado,
como no Lema abaixo.
Lema: (26)
Seja γ > 0 e a matriz dada em (16a).
Então G ∞
< γ se só se σ ( D ) < γ e a matriz H abaixo não tiver autovalor no eixo
⎡ A + BR −1DT C BR −1BT ⎤
imaginário H := ⎢ −1 −1 ⎥,
⎣ −C ( I + DR D )C −( A + BR D C ) ⎦
T T T T
onde R = γ I − DT D
2
50
Consideremos o diagrama de blocos abaixo, que é a configuração padrão quando se fala
em sistema com realimentação.
di
d
r K P y
u up
_
n
Figura 1
Na figura acima, como nas que se seguirão, nos somadores, o sinal é o (+) a não ser que
conste o contrario, como o sinal (–) à esquerda na figura.
3.1 Sistemas com realimentação “bem postos” [ZDG, pp. 119 ss]
Suponha que no diagrama acima P e K sejam matrizes racionais. Então a primeira
pergunta que se põe é saber se o diagrama de blocos faz sentido, isto é, se é fisicamente
realizável.
s −1
Considere por exemplo o caso em que P = − e K =1, ambas funções racionais
s+2
s+2 s −1
próprias. É fácil verificar que u = (r − n − d ) − di . Ou seja, a função de
3 3
transferência entre a saída de K e os sinais exógenos é uma função de transferência
imprópria. É costume dizer que tais funções de transferência não são fisicamente
realizáveis. O que se quer dizer é que se, por exemplo, um sinal exógeno é um degrau, a
saída em K , que é u, será um impulso. Mas um impulso é um “centelhamento” que
“queima” qualquer dispositivo, por isso se diz que tal função de transferência não é
realizável.
Temos então a
Definição: (28)
Um sistema com realimentação é dito bem posto se todas as funções (matrizes) de
transferência no sistema são bem definidas e próprias.
É fácil verificar, por simples inspeção e pequenos cálculos, que se, por exemplo, as
funções de transferência entre a entrada de K e cada sinal exógeno for bem definida e
própria, então todas as outras matrizes de transferência também o serão.
Alternativamente, é fácil ver também que se as matrizes de transferência entre u e os
sinais exógenos di e d forem bem definidas e próprias, as outras duas entre u e os
sinais exógenos r e n também o serão.
E o mesmo vale para qualquer sinal no interior da malha.
51
Como consequência, para saber se um sistema é bem posto, basta verificar se a função
⎡ di ⎤
(matriz) de transferência entre u e ⎢ ⎥ existe e é própria.
⎣d ⎦
Para ser coerente com a notação posterior do curso, definamos K̂ = - K . Reagrupando os
sinais exógenos, temos o diagrama de blocos equivalente na figura abaixo
w1
P y2
e1
y1
e2
w2
K̂
Figura 2
Em vista do que foi dito antes, o sistema é bem posto se só se a função (matriz) de
⎡ w1 ⎤
transferência entre ⎢ ⎥ e e1 (ou e2 ou y1 ou y2 ) existe e é própria.
⎣ w2 ⎦
Lema: (29)
O sistema da figura 2 é bem posto se só se I − Kˆ (∞) P (∞) tiver inversa.
Prova:
Do diagrama de blocos temos imediatamente
e1 = w1 + Ke
ˆ , e = w + Pe .
2 2 2 1
Destas duas eqs., temos
( I − KP
ˆ )e = w + Kw
1 1
ˆ
2
Ora, para que exista solução para esta eq. para todo w1 e w2 , é necessário e suficiente
que a matriz I − KP
ˆ seja não singular, ou seja, tenha inversa. Mas para que isto
aconteça, é necessário e suficiente que ela seja não singular em qualquer ponto do plano
complexo. E para que a inversa seja própria, é necessário e suficiente que a matriz exista
no ponto { ∞ }. •
Observações:
1) Vamos verificar que a condição do Lema (29) é equivalente a cada uma das duas
seguintes:
⎡ I − Kˆ (∞) ⎤
⎢ ⎥ e (30)
⎣ − P ( ∞ ) I ⎦
I − P (∞) K (∞) têm inversa.
ˆ
52
Prova:
⎡ I − Kˆ (∞) ⎤ ⎡ I 0 ⎤ ⎡ I − Kˆ (∞) P (∞) − Kˆ (∞) ⎤
⎢ ⎥⎢
∞ ⎥=⎢ ⎥ . Claro que o lado
⎣ − P ( ∞ ) I ⎦ ⎣ P ( ) I ⎦ ⎣ 0 I ⎦
⎡ I − Kˆ (∞) ⎤
esquerdo desta eq. tem inversa se só se ⎢ ⎥ tiver, enquanto que o lado
⎣ − P ( ∞ ) I ⎦
direito tem inversa se só se I − Kˆ (∞) P (∞) tiver.
Por outro lado,
⎡ I 0⎤ ⎡ I − Kˆ (∞) ⎤ ⎡ I − Kˆ (∞) ⎤
⎢ P (∞ ) I ⎥ ⎢ ⎥ ⎢
= ⎥ . E exatamente o mesmo
⎣ ⎦ ⎣ − P (∞ ) I ⎦ ⎣⎢0 I − P (∞) Kˆ (∞) ⎦⎥
raciocínio que na eq. acima conclui a prova. •
2) Para verificar se um sistema é bem posto, podemos também usar uma realização no
espaço de estado.
Com efeito, seja
⎡A B⎤ ˆ ⎡ Aˆ Bˆ ⎤
P( s) = ⎢ ⎥ , K (s) = ⎢ ˆ ˆ ⎥ (31)
⎣C D ⎦ ⎢⎣C D ⎥⎦
Ora, é claro que P (∞) = D e Kˆ (∞ ) = Dˆ . Portanto, a condição (30) é:
⎡ I − Dˆ ⎤
a matriz ⎢ ⎥ tem inversa. (32)
⎣ − D I ⎦
Ocorre que a planta P é frequentemente estritamente própria, pois a maioria dos sistemas
que queremos controlar tem alguma “inércia” (mecânica, térmica,...). Mas isto significa
que frequentemente temos D = 0 e portanto a condição (32) é satisfeita para todo D̂ .
e1 = Cx
ˆ ˆ + De
ˆ .
2
Definição: (34)
Suponha que o sistema da figura 2 seja bem posto. Ele é dito internamente estável se a
origem do espaço de estado constituído pelos dois estados, ( x, xˆ ) = (0,0) , for
53
assintoticamente estável, isto é, se os estados ( x, xˆ ) tenderem a zero a partir de quaisquer
condições iniciais, com w1 = 0 e w2 = 0.
É claro que estabilidade interna é equivalente à condição que a matriz A seja Hurwitz, ou
seja, tenha todos os seus autovalores no semiplano complexo aberto da esquerda.
Formalizamos isto no
Lema: (35)
O sistema da figura 2 é internamente estável se só se a matriz A for Hurwitz.
Lema: (37)
O sistema da figura 2 é internamente estável se só se a matriz de transferência dada em
−1
⎡ I − Kˆ ⎤
(36), ⎢ ⎥ , pertencer a RH ∞ .
⎣ − P I ⎦
Prova:
Em primeiro lugar note-se que dizer que uma matriz racional pertence a RH ∞ é
equivalente a afirmar que seus polos estão no semiplano aberto da esquerda.
A seguir, observe-se que
⎡ I 0 ⎤ ⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎡ I 0 ⎤
⎢P I ⎥ ⎢ ⎥ ⎢ ⎥ = ⎢ ⎥.
⎣ ⎦ ⎣ − P I ⎦ ⎣ 0 I ⎦ ⎣ 0 I − PKˆ ⎦
54
Portanto,
−1 −1
⎡ I − Kˆ ⎤ ⎡ I 0⎤ ⎡ I 0 ⎤ ⎡ I Kˆ ⎤
⎢ ⎥= ⎢P I ⎥ ⎢ ⎥ ⎢ ⎥ .
⎣−P I ⎦ ⎣ ⎦ ⎣ 0 I − PKˆ ⎦ ⎣0 I ⎦
Ou seja,
−1
⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤ ⎡ I 0 ⎤ ⎡ I 0⎤
⎢ ⎥ = ⎢ ⎥⎢ − ⎥⎢ ⎥
⎣−P I ⎦ ⎣ 0 I ⎦ ⎣ 0 ( I − PKˆ ) ⎦ ⎣ P I ⎦
1
⎡ I + Kˆ ( I − PKˆ ) −1 P Kˆ ( I − PKˆ ) −1 ⎤
= ⎢ ⎥. (38a)
−1
⎢⎣ ( I − PKˆ ) P ( I − PKˆ ) −1 ⎥⎦
E é imediato (ou quase...) obter-se a seguinte fórmula:
−1
⎡ I − Kˆ ⎤ ⎡ ( I − KP ˆ ) −1 Kˆ ( I − PKˆ ) −1 ⎤
⎢ ⎥ = ⎢ ⎥. (38b)
⎣−P I ⎦ ˆ ) −1
⎢⎣ P ( I − KP ( I − PKˆ ) −1 ⎦⎥
Sejam
⎡A B⎤ ⎡ ˆ ˆ⎤
P(s) = ⎢ ˆ (s) = ⎢ A B ⎥
⎥ e K
⎣C D ⎦ ⎢⎣Cˆ Dˆ ⎥⎦
realizações estabilizáveis e detectáveis de P e K̂ , respectivamente, ou seja, não há
cancelamento de modos instáveis nem em P nem em K̂ .
Seja y1 a saída de P e y2 a saída de K̂ . Então temos as eqs.
⎡ x ⎤ ⎡ A 0 ⎤ ⎡ x ⎤ ⎡ B 0 ⎤ ⎡ e1 ⎤
⎢ ˆ⎥ = ⎢ +
ˆ ⎥ ⎢⎣ xˆ ⎥⎦ ⎢ 0 Bˆ ⎥ ⎢⎣ e2 ⎥⎦
⎣ ⎦ ⎣
x 0 A ⎦ ⎣ ⎦
⎡ y1 ⎤ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎡ e1 ⎤
⎢y ⎥ = ⎢ ⎥⎢ ⎥+⎢ ⎥⎢ ⎥ (39)
⎣ 2 ⎦ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎣ e2 ⎦
⎡ e1 ⎤ ⎡ w1 ⎤ ⎡0 I ⎤ ⎡ y1 ⎤
⎢e ⎥ = ⎢ w ⎥ + ⎢ I 0⎥ ⎢ y ⎥
⎣ 2⎦ ⎣ 2⎦ ⎣ ⎦⎣ 2⎦
Para simplificar a notação no desenvolvimento, seja
⎡e ⎤ ⎡w ⎤ ⎡y ⎤
e := ⎢ 1 ⎥ , w := ⎢ 1 ⎥ , y := ⎢ 1 ⎥ . (40)
⎣ e2 ⎦ ⎣ w2 ⎦ ⎣ y2 ⎦
Substituindo a 2ª. eq. de (39) na 3ª., temos
⎡ 0 I ⎤ ⎛ ⎡C 0 ⎤ ⎡ x ⎤ ⎡ D 0 ⎤ ⎞ ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ 0 Dˆ ⎤
e = w+ ⎢ ⎥ ⎢⎜ ⎥⎢ ⎥ ⎢ + ⎥ e ⎟ = w + ⎢ ⎥⎢ ⎥+⎢ ⎥e .
⎣ I 0 ⎦ ⎜⎝ ⎣ 0 Cˆ ⎦ ⎣ xˆ ⎦ ⎣ 0 Dˆ ⎦ ⎟⎠ ⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ D 0 ⎦
E, portanto,
55
⎡ I − Dˆ ⎤ ⎡ e1 ⎤ ⎡ 0 Cˆ ⎤ ⎡ x ⎤ ⎡ w1 ⎤
⎢ ⎥⎢ ⎥ = ⎢ ⎥⎢ ⎥+ ⎢ ⎥.
⎣ − D I ⎦ ⎣e2 ⎦ ⎣C 0 ⎦ ⎣ xˆ ⎦ ⎣ w2 ⎦
(Somente se): Sendo o sistema internamente estável, ele é bem posto, o que implica que
I − DDˆ = ( I − PKˆ )(∞) tem inversa e, portanto, I − PKˆ tem inversa. Mais ainda, de
acordo com o lema anterior, os autovalores de A , dada em (34*), estão no semiplano
aberto da esquerda. Donde se segue que a matriz de transferência (36) (ou (38)), está em
RH ∞ .
(Se): Se a matriz (38) está em RH ∞ , então, em particular o bloco (2,2) de (38a),
−1
( I − PKˆ ) , é própria, o que implica que I − P (∞) Kˆ (∞) = I − DDˆ é não singular.
⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I − Dˆ ⎤
Mas ⎢ ⎥⎢ =
⎥ ⎢ ⎥.
⎣ D I ⎦ ⎣ − D I ⎦ ⎢⎣ 0 I − DDˆ ⎥⎦
⎡ I − Dˆ ⎤
Consequentemente, D := ⎢ ⎥ é não singular.
⎣−D I ⎦
A seguir, pode-se provar que a matriz de transferência entre
⎡ e1 ⎤ ⎡ w1 ⎤
⎢e ⎥ e ⎢ w ⎥ em termos das realizações no espaço de estado é
⎣ 2⎦ ⎣ 2⎦
⎛ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤ ⎡ B 0 ⎤ ⎞ −1
D −1 ⎜ ⎢ ⎥ +⎢ ⎥ ( sI − A) −1 ⎢ ⎥ ⎟⎟ D ,
⎜ −D I ˆ
⎝⎣ ⎦ ⎣ C 0 ⎦ ⎣ 0 B ⎦⎠
onde A é dada em (34*).
Mas por hipótese esta matriz de transferência pertence a RH ∞ , donde se segue que a
⎡0 Cˆ ⎤ ⎡B 0 ⎤
⎥ pertence a RH ∞ . Mas sendo
−1
matriz de transferência ⎢ ⎥ ( sI − A) ⎢ ˆ
⎣ C 0 ⎦ ⎣ 0 B ⎦
⎛ ⎡ B 0 ⎤ ⎡ 0 Cˆ ⎤ ⎞
( A, B, C ) e ( Aˆ , Bˆ , Cˆ ) estabilizaveis e detectáveis, ⎜ Aˆ , ⎢ ⎥ ⎟⎟ também é
ˆ⎥ ⎢
,
⎜
⎝ ⎣ 0 B ⎦ ⎣C 0 ⎦ ⎠
estabilizável e detectável.
Donde se conclui que A tem os seus autovalores no semiplano aberto da esquerda e,
portanto, o sistema da figura 2 é internamente estável. •
Observação:
O Lema (37), cuja prova é bastante macetosa, exprime uma realidade simples e já
conhecida, mas generalizando-a. Com efeito, sabemos que se uma planta for estabilizável
e detectável, ela será assintoticamente estável se só se sua matriz de transferência for
BIBO estável. Ora, no caso presente, a “planta” do sistema em malha fechada tem por
56
−1
⎡ I − Kˆ ⎤
matriz de transferência a que é dada no Lema, a saber, ⎢ ⎥ , que é a matriz de
⎣ − P I ⎦
⎡ e1 ⎤ ⎡ w1 ⎤
transferência entre ⎢ ⎥ e ⎢ ⎥ .
⎣e2 ⎦ ⎣ w2 ⎦
E o que o Lema diz é que se os “componentes” desta “planta”, a saber, as realizações no
espaço de estado de P e K̂ dadas pelas duas primeiras de (39) forem estabilizáveis e
detectáveis, então a realização no espaço de estado da “planta” é assintoticamente estável
se só se sua matriz de transferência for BIBO estável.
Observação:
O Lema diz que para checar a estabilidade interna é preciso conferir a estabilidade de
quatro matrizes de transferência. Mas ao invés das quatro do Lema, podem-se checar as
⎡ w1 ⎤
(outras quatro) matrizes de transferência entre os sinais exógenos ⎢ ⎥ e as respostas da
⎣ w2 ⎦
⎡ y1 ⎤
planta e compensador, ⎢ ⎥.
⎣ y2 ⎦
Observação:
É comum (ou seria melhor dizer que era comum?) entre os “práticos”, achar que o
sistema em malha fechada é estável se a matriz de transferência entre a saída da planta e
o primeiro sinal exógeno, tipicamente um sinal a ser rastreado, o for. Isto é falso, como
mostra o Lema (37), há que conferir quatro matrizes de transferência.
Corolário: (41)
Suponha que K̂ ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se
ˆ ) −1 ∈ RH .
for bem posto e P ( I − KP ∞
Prova: A necessidade é obvia a partir do bloco (2,1) de (38b). Para provar a suficiência,
comparar (38a) e (38b) e, a partir (38a), vemos que basta provar que ( I − PKˆ ) −1 ∈ RH ∞ .
Ora, ( I − PKˆ ) −1 ( I − PKˆ ) = I ; donde ( I − PKˆ ) −1 − ( I − PKˆ ) −1 PKˆ = I , ou seja,
( I − PKˆ ) −1 = I + ( I − PKˆ ) −1 PKˆ = I + P ( I − KP
ˆ ) −1 Kˆ , que pertence a RH ∞ , de acordo
com as hipóteses. •
Corolário: (42)
Suponha que P ∈ RH ∞ . Então o sistema da figura 2 é internamente estável se só se for
bem posto e Kˆ ( I − PKˆ ) −1 ∈ RH ∞ .
57
Corolário: (43)
Suponha que tanto P como K̂ pertençam a RH ∞ . Então o sistema da figura 2 é
internamente estável se só se ( I − PKˆ ) ∈ RH ∞ .
Prova: como as anteriores, mas mais fácil. •
Teorema: (44)
Seja nk := numero de polos de K̂ no semiplano fechado da direita e n p := numero de
polos de P no semiplano fechado da direita.
Então o sistema da figura 2 é internamente estável se só se ele for bem posto e
(i) o número de polos de P (s) K̂ (s) no semiplano fechado da direita for nk + n p ;
(ii) φ ( s ) := det[ I − P ( s ) Kˆ ( s )] tiver todos seus zeros no semiplano aberto da esquerda, o
que é equivalente à estabilidade de [ I − P ( s ) Kˆ ( s )]−1 .
Prova:
Usando as fórmulas de associação de matrizes de transferência (32a) e (32b) do primeiro
capítulo, temos imediatamente
na longa dedução).
⎡A B⎤
( I − PKˆ ) −1 = ⎢ ⎥
⎣C D ⎦
onde
⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎡ BDˆ ⎤
⎥ + ⎢ ⎥ ( I − DDˆ ) ⎡⎣C DCˆ ⎤⎦ ,
−1
A=⎢ B = ⎢ ⎥ ( I − DDˆ ) −1 , (#)
ˆ ˆ ⎣⎢ Bˆ ⎦⎥
⎣⎢ 0 A ⎥⎦ ⎢⎣ B ⎦⎥
C = ( I − DDˆ ) −1 ⎡⎣C DCˆ ⎤⎦ , D = ( I − DDˆ ) −1 .
É sempre bom confereir, multiplicando a inversa por I − PKˆ para verificar se se obtem a
matriz identidade.
Vamos verificar que A = A dada em (34*) acima. Para isso, repetimos (34*):
58
−1
⎡ A 0 ⎤ ⎡ B 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ 0 Cˆ ⎤
A=⎢ +
ˆ⎥ ⎢ ˆ⎥⎢ ⎥ ⎢ ⎥
⎣ 0 A ⎦ ⎣ 0 B ⎦ ⎣ − D I ⎦ ⎣C 0 ⎦
(*)
⎡ I 0 ⎤ ⎡ I − Dˆ ⎤ ⎡ I − Dˆ ⎤ ⎡ I − Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I − Dˆ ⎤
Ora, ⎢ ⎥ ⎢ ⎥ = ⎢ ⎥ ∴ ⎢ ⎥ = ⎢ ⎥ ⎢ ⎥
⎣ D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥ ⎣ − D I ⎦ ⎣ − D I ⎦ ⎣⎢0 I − DDˆ ⎦⎥
⎡ I 0⎤ ⎡ I 0 ⎤ ⎡ I − Dˆ ⎤
=⎢ ⎥ ⎢ ⎥⎢ ⎥ , donde
⎣ − D I ⎦ ⎣0 I − DDˆ ⎦ ⎣0 I ⎦
−1
⎡ I − Dˆ ⎤ ⎡ I Dˆ ⎤ ⎡ I 0 ⎤ ⎡ I 0 ⎤ ⎡ I + Dˆ ( I − DDˆ ) −1 D Dˆ ( I − DDˆ ) −1 ⎤
⎢ ⎥ = ⎢ ⎥⎢ −1 ⎥ ⎢ ⎥= ⎢ ⎥.
⎣−D I ⎦ ⎣0 I ⎦ ⎣ 0 ( I − DDˆ ) ⎦ ⎣ D I ⎦ ⎢⎣ ( I − DDˆ ) D
−1
( I − DDˆ ) −1 ⎥⎦
Substituindo isto em (*) acima, concluimos efetivamente A = A .
Portanto, o SMF é internamente estável se só se A = A tiver todos os auto-valores no
semiplano aberto da esquerda.
Ora, sendo o sistema internamente estável, ( I − PKˆ ) −1 ∈ RH ∞ , o que implica que todos
os zeros de det( I − PKˆ ) −1 estão no semiplano aberto da esquerda.
Portanto só nos resta provar que, dada a condição (ii), a condição (i) é necessária e
suficiente para a estabilidade interna. Observe-se que a condição (i) afirma que não há
cancelamento de modos instáveis no produto P (s) K̂ (s).
Agora observe-se de (#) acima que
⎡ A BCˆ ⎤
A=⎢ ⎥ + B ⎡⎣C DCˆ ⎤⎦ , donde
ˆ
⎣⎢ 0 A ⎦⎥
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤
[ sI − A B ] = ⎢ ⎢ ⎥ − ⎢ ⎥ − B ⎡ C DC ˆ⎤ B ⎥
⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥ ⎣ ⎦ ⎥⎦
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤⎡ I 0⎤
∼ ⎢⎢ ⎥ − ⎢ ⎥ − B ⎡ C DC ˆ⎤ B ⎥ ⎢ ⎥
⎢⎣ ⎣ 0 sI ⎦ ⎣⎢ 0 Aˆ ⎦⎥ ⎣ ⎦ ⎥⎦ ⎢⎣ ⎣⎡C DCˆ ⎦⎤ I ⎥⎦
⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎤ ⎡ ⎡ sI 0 ⎤ ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎤
= ⎢⎢ −
⎥ ⎢ ⎥ B ⎥ = ⎢ ⎢ −
⎥ ⎢ ⎥ ⎢ ⎥⎥ .
⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦ ⎥⎦ ⎢⎣ ⎣ 0 sI ⎦ ⎢⎣ 0 Aˆ ⎥⎦ ⎢⎣ Bˆ ⎥⎦ ⎥⎦
⎛ ⎡ A BCˆ ⎤ ⎡ BDˆ ⎤ ⎞
Portanto, o par ( A, B ) é estabilizável se só se ⎜ ⎢ ⎥ , ⎢ ⎥ ⎟ o for.
⎜ ⎢ 0 Aˆ ⎥ ⎢ Bˆ ⎥ ⎟
⎝⎣ ⎦ ⎣ ⎦⎠
Pelo mesmo método é fácil provar que ( C , A ) é detectável se só se
⎛ ⎡ A BCˆ ⎤ ⎞
⎜ ⎡C DCˆ ⎤ , ⎢ ⎟
⎜⎣ ⎦ 0 Aˆ ⎥ ⎟ o for.
⎝ ⎢
⎣ ⎥
⎦⎠
Ora, estas duas condições são equivalentes à condição (i) do teorema, isto é, não há
cancelamento no produto PKˆ . •
59
Com este resultado, fica fácil a demonstração da versão multivariável do critério de
Nyquist:
Definição: (48)
Duas matrizes M e N em RH ∞ são coprimas à direita (c.d.) em RH ∞ se elas tiverem
o mesmo número de colunas e existirem matrizes X r e Yr em RH ∞ tais que
⎡M ⎤
[Xr Yr ] ⎢ ⎥ = X r M + Yr N = I . (49a)
⎣ ⎦
N
De modo semelhante, M e N em RH ∞ são coprimas à esquerda (c.e.) em RH ∞ se
elas tiverem o mesmo número de linhas e existirem matrizes X l e Yl tais que
60
⎡X ⎤
⎡⎣ M N ⎤⎦ ⎢ l ⎥ = MX l + NYl = I . (49b)
⎣ Yl ⎦
⎡M ⎤
Observe-se que a primeira definição acima é equivalente a afirmar que a matriz ⎢ ⎥
⎣N⎦
tem inversa à esquerda em RH ∞ , enquanto que a segunda é equivalente a dizer que a
matriz ⎡⎣ M N ⎤⎦ tem inversa à direita em RH ∞ .
Seja agora P uma matriz racional com coeficientes reais. Uma fatoração coprima à
direita (f.c.d.) de P é uma fatoração P = NM −1 , onde M e N são coprimas à direita
em RH ∞ . De modo semelhante, uma fatoração coprima à esquerda (f.c.e.) tem a forma
P = M −1 N , onde M e N são coprimas à esquerda em RH ∞ .
Denotemos por R P ( s) o conjunto das matrizes racionais próprias com coeficientes reais.
Dizemos que P ∈ R P ( s ) tem uma dupla fatoração coprima se P tiver uma f.c.d.
P = NM −1 e uma f.c.e. P = M −1 N e se existirem matrizes X r , Yr , X l , Yl ∈ RH ∞ tais
que
⎡ Xr Yr ⎤ ⎡ M −Yl ⎤
=I.
⎢− N M ⎥⎦ ⎢⎣ N X l ⎥⎦
(50a)
⎣
Claro que na igualdade acima, uma matriz é a inversa da outra, ambas sendo quadradas,
como se pode verificar facilmente. Donde, comutando o produto,
⎡M −Yl ⎤ ⎡ X r Yr ⎤
⎢N =I.
X l ⎥⎦ ⎢⎣ − N M ⎥⎦
(50b)
⎣
As duas igualdades acima nos oferecem, cada qual, quatro equações.
É claro que em todo este desenvolvimento, estamos supondo que M e M sejam
matrizes quadradas. (Tal não ocorre em outras aplicações desta teoria).
Teorema: (51)
Seja P ( s ) uma matriz racional própria com coeficientes reais:
⎡A B⎤
P( s) = ⎢ ⎥,
⎣C D ⎦
onde a realização indicada é estabilizavel e detectável. Sejam F e L tais que A + BF e
A + LC sejam estáveis. Definam-se
61
⎡ A + BF B −L⎤
⎡M −Yl ⎤ ⎢
⎢N = 0 ⎥⎥ ,
X l ⎥⎦ ⎢
F I (52)
⎣ ⎢⎣C + DF − D I ⎥⎦
⎡ A + LC − ( B + LD ) L⎤
⎡ Xr Yr ⎤ ⎢
⎢ = 0 ⎥⎥ .
M ⎥⎦ ⎢
F I (53)
⎣− N ⎢⎣ C −D I ⎥⎦
⎡ A + LC −( B + LD) ⎤ ⎡ A + BF B ⎤ ⎡ A + LC L ⎤ ⎡ A + BF B⎤
⎢ F ⎥⎢ F +
⎣ I ⎦⎣ I ⎥⎦ ⎢⎣ F 0 ⎥⎦ ⎢⎣C + DF D ⎥⎦
⎡ A + LC −( B + LD) F −( B + LD ) ⎤ ⎡ A + LC L(C + DF ) LD ⎤
⎢ 0 A + BF B ⎥+⎢ 0 A + BF B ⎥⎥
⎢ ⎥ ⎢
⎢⎣ F F I ⎥⎦ ⎢⎣ F 0 0 ⎥⎦
⎡ A + LC −( B + LD) F 0 0 −( B + LD) ⎤
⎢ 0 A + BF 0 0 B ⎥
⎢ ⎥
X r M + Yr N = ⎢ 0 0 A + LC L(C + DF ) LD ⎥
⎢ ⎥
⎢ 0 0 0 A + BF B ⎥
⎢⎣ F F F 0 I ⎥⎦
62
( )
−1
X r M + Yr N = C sI − A B+I ;
a seguir, pré-multiplicamos a matriz B por uma matriz T não singular e
tendo que posmultiplicar a matriz C por T −1 , pois
( ) ( ) ( )
−1 −1 −1
C sI − A B + I = CT −1T sI − A T −1TB + I = CT −1 sI − TAT −1 TB + I .
Como vemos, A tem que ser pré-multiplicada por T e pós-multiplicada por T −1 .
( )
−1
Através de escolha de T conveniente, obtem-se C sI − A B = 0, e portanto
efetivamente, temos X r M + Yr N = I.
A prova do teorema inclui ainda a demonstração das outras três igualdades de (50a). •
Observação: (54)
Observe-se que se P for estável, então as eqs. (52) e (53) são satisfeitas com
X r = X l = I , Yr = Yl = 0 , N = N = P , M = I , M = I .
⎡ A + BF B⎤
M (s) = ⎢
I ⎥⎦
, (55)
⎣ F
⎡ A + BF B⎤
N (s) = ⎢
D ⎥⎦
. (56)
⎣ C + DF
63
Considere de novo o diagrama de blocos da figura 2. Sejam as fatorações coprimas à
direita e à esquerda de P como definidas antes e de K̂ :
K̂ = UV −1 = V −1U . (57)
Lema: (58)
Considere o sistema da figura 2. As seguintes condições são equivalentes:
(i) O sistema é internamente estável;
⎡M U⎤
(ii) ⎢ tem inversa em RH ∞ ;
⎣N V ⎥⎦
⎡ V −U ⎤
(iii) ⎢ ⎥ tem inversa em RH ∞ ;
⎣− N M ⎦
(iv) MV − NU tem inversa em RH ∞ ;
(v) VM − UN tem inversa em RH ∞ .
Prova:
Como vimos, estabilidade interna é equivalente a
−1 −1
⎡ I − Kˆ ⎤ ⎡ I Kˆ ⎤
⎢ ⎥ ∈ RH ∞ , ou seja, ⎢ ⎥ ∈ RH ∞ .
⎣−P I ⎦ ⎣P I ⎦
⎡ I Kˆ ⎤ ⎡ I UV −1 ⎤ ⎡ M U ⎤ ⎡ M −1 0 ⎤
Ora, ⎢ ⎥=⎢ −1 ⎥=⎢ ⎥⎢ ⎥.
⎣ P I ⎦ ⎣ NM I ⎦ ⎣ N V ⎦ ⎣ 0 V −1 ⎦
−1 −1
⎡ I Kˆ ⎤ ⎡M 0 ⎤ ⎡M U⎤
Donde, ⎢ ⎥ =⎢
V ⎥⎦ ⎢⎣ N V ⎥⎦
. (59)
⎣P I ⎦ ⎣0
Agora se observe que
⎡I 0 0 0⎤ ⎡ M 0 ⎤ ⎡M 0⎤
⎢0 I 0 0 ⎥⎥ ⎢⎢ 0 V ⎥⎥ ⎢⎢ 0 V ⎥⎥
⎢ = .
⎢−I 0 I 0⎥ ⎢ M U⎥ ⎢ 0 U⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣0 −I 0 I⎦⎣N V⎦ ⎣N 0⎦
Note que a segunda matriz do lado esquerdo é composta das matrizes “numerador” e
“denominador” de (59). A primeira matriz do lado esquerdo desta tem posto cheio e,
portanto, ao pósmultiplicá-la pela segunda matriz, o posto desta não se altera. Ora, a
matriz do lado direito tem claramente posto cheio, pelo fato de os pares (M, N) e (V, U)
serem c. d. Portanto, a segunda matriz do lado esquerdo também tem posto cheio e,
portanto as matrizes do lado direito de (59) são c. d.
Daí que o sistema é internamente estável se só se
−1
⎡M U⎤
⎢N ∈ RH ∞ , o que prova a equivalência das condições (i) e (ii).
⎣ V ⎥⎦
A equivalência das condições (i) e (iii) é provada de forma semelhante.
64
Agora observe que
⎡V −U ⎤ ⎡ M U ⎤ ⎡VM − UN 0 ⎤
⎢ ⎥⎢ =⎢ ⎥.
⎣− N M ⎦⎣N V ⎥⎦ ⎣ 0 MV − NU ⎦
Ora, o lado esquerdo desta eq. tem inversa em RH ∞ , consequentemente o lado direito
também, provando as condições (iv) e (v).
Para concluir, vamos provar que (v) ⇒ (i). Ora,
−1 −1
⎡ I Kˆ ⎤ ⎡ I V −1U ⎤
⎢ ⎥ = ⎢ −1 ⎥ ; (60)
⎣ P I ⎦ ⎣ NM I ⎦
⎡ I V U ⎤ ⎡V
−1 −1
0 ⎤ ⎡VM U ⎤ ⎡ M −1 0 ⎤
mas ⎢ −1 ⎥ = ⎢ ⎥⎢ ⎥⎢ ⎥,
⎣ NM I ⎦ ⎣ 0 I⎦⎣ N I ⎦⎣ 0 I⎦
−1 −1
⎡ I V −1U ⎤ ⎡M 0 ⎤ ⎡VM U ⎤ ⎡V 0⎤
donde ⎢ ⎥ =⎢ ⎢ ⎥ ⎢ ⎥.
⎣ NM
−1
I ⎦ ⎣0 I ⎥⎦ ⎣ N I ⎦ ⎣0 I⎦
Em vista disso e de (60), vemos que (i) ocorre se só se
−1
⎡VM U⎤
⎢ ⎥ ∈ RH ∞ . (61)
⎣ N I⎦
⎡VM U⎤⎡ I 0 ⎤ ⎡VM − UN U ⎤
Mas ⎢ ⎥⎢ =⎢ ⎥,
⎣ N I ⎦ ⎣− N I ⎥⎦ ⎣ 0 I⎦
−1
⎡I 0 ⎤ ⎡VM U⎤ ⎡ (VM − UN ) −1 0 ⎤
ou seja, ⎢ ⎢ ⎥ = ⎢ ⎥.
⎣N I ⎥⎦ ⎣ N I⎦ ⎣ 0 I⎦
Em vista desta e de (61), concluímos que (i) ocorre se só se (v) ocorre. •
Claro que este lema estabelece também, o que já deveria estar claro a esta altura, que K̂
é um controlador que estabiliza o SMF.
65
di
d
r K P y
u up
_
n
Figura 1 bis
66
Estas quatro equações resumem as propriedades benéficas da realimentação. Com efeito:
- Por exemplo, a primeira mostra que o efeito do distúrbio d na resposta da planta pode
ser feito “pequeno” se fizermos a matriz de sensibilidade da resposta, So , pequena.
Por “pequeno” se entende pequeno na faixa de frequência de interesse. Assim, se o sinal
exógeno puder ser aproximado por degraus, cuja transformada de Laplace é 1/s, então
So (0) deve ser pequeno, e frequentemente é feito nulo, utilizando integrador no
controlador, sua transformada de Laplace sendo também 1/s: o s do denominador do
integrador aparece no numerador de So .
De um modo geral, a noção de matriz “pequena” associada a um dado espectro de
frequências de interesse pode ser explicitada pelo maior valor singular, como, por
exemplo, σ ( So ) < 1 : neste caso, esta desigualdade significa que dentro de dado espectro
de frequências o efeito do distúrbio d sobre a resposta da planta é pequeno, de acordo
com (69a). Note-se que o lado direito da desigualdade, um, é usualmente normalizado,
através de matrizes de “peso” e por isso parece que não é “pequeno”.
- De modo semelhante, da quarta equação, vemos que o efeito do distúrbio di pode ser
diminuído se fizermos a sensibilidade de entrada, Si , pequena.
Portanto, boa rejeição dos distúrbios d e d i na resposta da planta implica,
respectivamente, que os seguintes valores singulares sejam pequenos, de acordo com
(69a):
1
σ ( So ) = σ (( I + PK ) −1 ) = , (70a)
σ ( I + PK )
σ ( So P) = σ (( I + PK ) −1 P) = σ ( PSi ) . (70b)
- Por outro lado, boa rejeição dos distúrbios d e d i na entrada da planta, u P , requer,
respectivamente, de acordo com (69d), que os seguintes sejam pequenos:
1
σ ( Si ) = σ (( I + KP ) −1 ) = , (70c)
σ ( I + KP )
σ ( Si K ) = σ (( I + KP ) −1 K ) = σ ( KSo ) . (70 d)
- Agora, tenham-se em vista as seguintes propriedades dos valores singulares que valem
para quaisquer matrizes quadradas:
σ ( PK ) − 1 ≤ σ ( I + PK ) ≤ σ ( PK ) + 1 , (71a)
σ ( KP) − 1 ≤ σ ( I + KP) ≤ σ ( KP) + 1 . (71b)
Destas desigualdades e das igualdades anteriores, temos
1 1
≤ σ ( So ) ≤ se σ ( PK ) > 1 , (72a)
σ ( PK ) + 1 σ ( PK ) − 1
1 1
≤ σ ( Si ) ≤ se σ ( KP ) > 1 (72b)
σ ( KP ) + 1 σ ( KP) − 1
Estas inequações implicam
σ ( So ) 1 ⇔ σ ( PK ) 1, (73a)
σ ( Si ) 1 ⇔ σ ( KP ) 1. (73b)
67
Supondo que P e K tenham inversas, temos
1
{σ ( PK ) 1 ou σ ( KP ) 1} ⇔ σ ( So P ) = σ (( I + PK ) −1 P ) ≈ σ ( K −1 ) = ,
σ (K )
(74a)
1
{σ ( PK ) 1 ou σ ( KP ) 1} ⇔ σ ( KSo ) = σ ( K ( I + PK ) −1 ) ≈ σ ( P −1 ) = .
σ ( P)
(74b)
Assim, por exemplo, a rejeição de distúrbios implica grandes ganhos na malha aberta,
traduzidos por
σ ( PK ) 1 e σ ( KP ) 1 .
Mas a afirmação acima não deveria ser interpretada como se o projeto de um sistema de
malha fechada fosse algo trivial.
Efetivamente, há sempre “compromissos” (“trade-offs”) a serem obtidos.
Assim, por exemplo, de (69a), obtem-se boa rejeição de distúrbios d e di com So
pequeno; mas isto implica que To é grande e, portanto a rejeição do distúrbio n não é
satisfatória. Mais ainda, de (69b), se r for um sinal de referência a ser rastreado pela
resposta da planta, então o erro, que se deseja pequeno, será grande para To grande, ou
seja, o erro será sensível ao distúrbio n.
Outro ponto da necessidade de compromisso é que os ganhos em malha aberta não
podem ser grandes em espectro muito largo de frequências, conforme explicação a
seguir:
Suponha que a planta seja perturbada, isto é, P → ( I + ∆ ) P , com ∆ estável. Suponha
que o sistema nominal (isto é, com ∆ = 0) seja internamente estável. O sistema
perturbado é internamente estável se só se
det( I + ( I + ∆ ) PK ) não tiver zero no semiplano da direita. Ora,
( I + ( I + ∆ ) PK ) = ( I + PK + ∆PK ) = ( I + PK + ∆PK )( I + PK ) −1 ( I + PK )
= ( I + ∆PK ( I + PK ) −1 )( I + PK ) = ( I + ∆T0 )( I + PK ) . Donde
det( I + ( I + ∆ ) PK ) = det( I + ∆T0 )det ( I + PK ) (75)
Para que este produto de funções racionais no lado direito da igualdade acima não tenha
zero no semiplano da direita, é necessário, em geral, que ∆PK seja pequeno, ou seja,
que ∆To seja pequeno, isto é, que σ (To ) seja bem pequeno nas frequências em que
∆ é grande. Mas esta condição conflita, como já vimos, com uma boa redução de
distúrbios.
Há ainda outras situações de conflito, indicadas em ZDG, p. 133.
68
do desempenho (tipicamente, de baixas frequências) e de robustez (tipicamente, de altas
frequências). Ou seja, temos que encontrar K tal que σ ( L) e σ ( L ) fiquem dentro dos
limites impostos pelas restrições, como ilustrado na figura abaixo.
σ ( L)
ωh
ωl
σ ( L)
Figure 3
Na figura 3 os valores nos eixos horizontal (frequência) e vertical (módulo do valor
singular de L) são lançados, tipicamente, em logaritmos decimais e em decibéis,
respectivamente, decibéis sendo 20 vezes o logaritmo decimal. Observe-se ainda que os
gráficos dos valores singulares são, na realidade, de suas assíntotas, que fornecem
aproximação razoável para a maioria dos casos.
Loop shaping no caso escalar (sistemas SISO= single input, single output)
1) Observe-se inicialmente que no caso escalar só há um valor singular de L, o qual
coincide com o proprio L, ou seja, na figura 3 as duas curvas (na realidade, as assíntotas
delas) coincidem. Trata-se, como vimos, de achar uma função racional estritamente
própria L que contenha todos os polos e zeros no semiplano fechado da direita da planta
P e de tal modo que L fique dentro das especificações impostas pelas restrições de
baixa frequência (desempenho) e de alta frequência (robustez). É claro que se L não
tiver todos os polos e zeros ruins de P, haverá cancelamento de modos ruins no produto
PK, o que por sua vez implica instabilidade. Estas especificações de L são obtidas
usando as relações (70) a (74), principalmente (73) e (74), acima. Isto é garantido se L
ficar dentro das especificações. Isto é feito por “tentativa e erro”.
Alem disso, L deve ser escolhido de tal modo que 1 + L tenha todos os seus zeros no
semiplano aberto da esquerda; para obter isso, temos a seguinte “receita de bolo”: em
geral, L deve ser “bem comportada” na chamada frequência de “cross over”, que é a
frequência onde L( jω ) = 1 (ou seja, seu logaritmo é nulo). “Bem comportada” aqui
quer dizer que L não deve decrescer muito rapidamente na dita região.
2) A função de transferência do controlador é simplesmente K = L / P.
69
Loop shaping no caso multivariável (sistemas MIMO = multiple input and output)
O loop shaping é feito de modo semelhante, quando se tomam os valores singulares, a
saber:
1) Achar uma função racional estritamente própria L que contenha todos os polos e zeros
no semiplano fechado da direita da planta P, conferindo se P −1 Lo (ou Li P −1 ) não tem
cancelamento de pólos e / ou zeros. Constróem-se os lugares dos valores singulares
máximo e mínimo como na figura 3, usando especialmente (73) e (74) acima, conferindo
que eles não ultrapassem as restrições impostas pelo desempenho e robustez. Se qualquer
um ultrapassar em algum ponto, deve ser corrigido. Além disso, L deve ser tal que det(I
+ L) tenha todos seus zeros no semiplano aberto da esquerda.
2) O controlador é dado por P −1 Lo , ou Li P −1 , conforme se tenha escolhido uma ou outra
matriz de transferência do sistema em malha aberta.
Seja dito que o método do “loop shaping” é muito usado no caso de sistemas SISO, bem
menos nos sistemas MIMO, a tentativa e erro na escolha de L sendo bastante trabalhosa,
tendo em vista também que:
i) Este método só leva em consideração o desempenho e a robustez da estabilidade. Ora,
no caso multivariável, podem existir outras especificações, e diferentes, nos diversos
canais. A coisa se agrava se houver incerteza no modelo da planta. Com efeito, seja
P∆ = ( I + ∆ ) P , onde P é a planta nominal e ∆ é o erro multiplicativo de modelagem
(desconhecido). Seja a normalização do erro ∆ = ∆Wt , com σ ( ∆ ) < 1. Para robustez,
desejamos σ ( ∆WtTo ) < 1, ou σ (WtTo ) ≤ 1. Ora, precisamos de um majorante no caso
σ ( Lo )
multivariável, como segue, σ (WtTo ) ≤ σ (Wt )σ (To ) ≤ σ (Wt ) , se σ ( Lo ) < 1.
1 − σ ( Lo )
Por outro lado, a estabilidade robusta é obtida se
σ ( Lo ) 1 1
σ ( Lo ) ≤ ≈ , se σ ( Lo ) < 1. (76a)
1 − σ ( Lo ) σ (Wt ) + 1 σ (Wt )
De modo semelhante, se as especificações de desempenho como, por exemplo, a rejeição
de distúrbio, não forem especificadas uniformemente em todos os canais e sim através de
uma matriz de peso Ws de tal modo que σ (Ws So ) ≤ 1 então é necessário limitar por cima
σ (Ws So ) a fim de aplicar as técnicas de loop shaping:
σ (Ws )
σ (Ws So ) ≤ σ (Ws )σ ( So ) ≤ σ (Ws ) , se σ ( Lo ) < 1.
σ − 1( Lo )
E obtem-se o desempenho satisfazendo às condições se
σ ( Lo ) ≥ σ (Ws ) + 1 ≈ σ (Ws ) , (76b)
se σ ( Lo ) > 1.
E é possível que os limites para o loop shaping se contradigam um ao outro, como na
figura 5 abaixo, mas isto não significa que não haja controle que satisfaça às
especificações de robustez da estabilidade e desempenho, a não ser em problemas
escalares.
70
Vejamos como a contradição mencionada pode acontecer em exemplo bem simples:
1 ⎡1 α ⎤
P(s) =
s + 1 ⎢⎣ 0 1 ⎥⎦
, as matrizes de “peso” (ponderação) sendo dadas por
⎡ 1 α ⎤ ⎡ s + 2 α ( s + 1) ⎤
⎢ s + 1 ( s + 1)( s + 2) ⎥ ⎢ s + 10 ( s + 10) ⎥
Ws = ⎢ ⎥ , Wt = ⎢ ⎥.
⎢ 1 ⎥ ⎢ s+2 ⎥
⎢⎣ 0 s +1 ⎥⎦ ⎢⎣ 0 s + 10 ⎥⎦
Pode-se verificar que os valores singulares extremos dos “pesos” são dados na figura 5
quando α é grande.
σ (Ws )
log ω
1
σ (Wt )
Figura 5
Donde se vê que neste caso não se pode aplicar a técnica de loop shaping. Por outro lado,
pode-se conferir que se usarmos o controlador K = I , obtemos
⎡ 1 ⎤ ⎡ 1 ⎤
⎢s + 2 0 ⎥ ⎢ s + 10 0 ⎥
Ws S = ⎢ ⎥ , WtT = ⎢ ⎥ , os critérios de desempenho e robustez na
⎢ 0 1 ⎥ ⎢ 0 1 ⎥
⎢⎣ s + 2 ⎥⎦ ⎢⎣ s + 10 ⎥⎦
estabilidade sendo satisfeitos.
71
S ( jω ) ≤ α < 1, para todo ω ≤ ω0 ;
S ( jω ) ≤ β > 1 , para todo ω > ω0 .
Ao invés desta forma, é mais conveniente usar funções de peso apropriadas. Assim, ao
invés do problema acima, usa-se geralmente o equivalente
Ws ( jω ) S ( jω ) ≤ 1 para todo ω , com
α −1 , ∀ω ≤ ω0
Ws ( jω ) = .
β −1 , ∀ω > ω0
Em geral, usa-se Ws ( jω ) racional. E assim para as outras funções de peso. Então, ao
invés do diagrama de blocos da figura 1 (ou 1bis), usa-se o seguinte:
Figura 6
As vantagens de usar pesos são multiplas, especialmente em sistemas multivariáveis. Em
primeiro lugar, algumas componentes do sinal são mais importantes que outras; em
segundo lugar, as componentes quase sempre são medidas em métricas diferentes,
quando, por exemplo, umas são medidas em metros e outras em volts. As funções de peso
são então essenciais para tornar estas medidas comparáveis. Outra razão é que muitas
vezes estamos interessados em rejeição de distúrbios numa certa gama de frequências e
não em outras.
Desempenho em H2
Suponha que o distúrbio d possa ser modelado aproximadamente pelo impulso
d (t ) = ηδ (t ) , onde η é um vetor aleatório com E[ηη ∗ ] = I , onde E denota o operador
expectância. Queremos minimizar a energia do erro devido ao distúrbio, ou seja,
queremos minimizar
72
⎧∞ 2 ⎫
{ }
E e 2
2
= E ⎨ ∫ e dt ⎬ = We SoWd 2 ,
⎩0 ⎭
2
{
E e 2+ρ u
2 2 2
2 } ⎡ WSW ⎤
= ⎢ e o d ⎥ , com escolhas apropriadas da matriz de peso Wu e do
⎣ ρWu KSoWd ⎦ 2
escalar ρ .
Com efeito, suponhamos que se queira minimizar
sup e 2 = We SoWd ∞ ,
d ≤1
2
sujeito à restrição na energia do controle ou da banda de frequências do controle:
sup u 2 = Wu KSoWd .
∞
d ≤1
2
Mais frequentemente se introduz um parâmetro ρ e um critério misto:
2
d ≤1
{
sup e 2 + ρ u
2 2 2
2 } ⎡ WSW ⎤
= ⎢ e o d ⎥
⎣⎢ ρWu KSoWd ⎦⎥ ∞
, como indicado acima.
2
73
Figura 7
A incerteza ∆ pode ser causada por mudanças dos parâmetros ou por se ter desprezado
no modelo alguma dinâmica ou por outras razões.
Uma alternativa a (1) é dada pela assim chamada forma multiplicativa:
P∆ ( s ) = ( I + W1 ( s )∆ ( s )W2 ( s )) P ( s ) . (2)
Este modelo confina a planta “real” P∆ a uma vizinhança normalizada do modelo.
As representações (1) e (2) das incertezas têm sido muito empregadas tanto em teoria
como nos problemas práticos. Há que considerar, porem, que a escolha das matrizes de
peso W1 e W2 não é algo trivial.
Inicialmente focalizaremos a expressão (2). Nesta expressão suporemos que a planta
nominal P é estritamente própria, o que é o mais comum, pois as plantas que queremos
controlar quase sempre têm “inércia” (mecânica, térmica....). Mais ainda, suporemos
também que a planta perturbada, P∆ , permaneça estritamente própria, o que quase
sempre ocorre, porque ∆ é quase sempre própria e só um masoquista escolheria W1 e /
ou W2 impróprios.
As matrizes de peso são usualmente tais que se obtém a figura 8, que mostra que o ganho
das matrizes de peso é “pequeno” ( 1) em baixas frequências e aumenta, passando de 1
à medida que a frequência aumenta.
74
Figura 8
w2
M
y2
e2
Figura 9
75
Teorema do pequeno ganho (4)
Suponha que M ∈ RH ∞ e seja γ > 0. Então o sistema em malha fechada da figura 9 é
bem posto e internamente estável para todo ∆( s) ∈ RH ∞ com:
1
(a) ∆ ∞ ≤ se só se M ( s ) ∞ < γ ;
γ
1
(b) ∆ < se só se M ( s ) ≤γ .
∞
γ ∞
Prova:
Provaremos só a suficiência. (A prova da necessidade, mais trabalhosa, está em ZDG, pp.
218s).
Claro que M ( s )∆( s ) é estável, pois cada fator o é. Ora, das condições (a) e (b) temos
que M ∞ ∆ ∞ < 1 . Mas isto implica, a fortiori, M ∆ ∞ < 1 , o que por sua vez implica,
usando o critério de Nyquist, Teorema (45) do Capítulo 3, que det( I − M ∆ ) não tem zero
no semi-plano fechado da direita, ou seja, o sistema em malha fechada é estável.
Exemplo:
A 1
Seja M ( s) = e ∆ = , onde A é um número real. Verificar se o SMF da fig. 9,
s +1 A
acima, é internamente estável .
A A 1
Solução: M ∞ = supω = supω = A , ∆ ∞ = . Nenhuma das condições
1 + jω 1+ ω2 A
do teorema é satisfeita, logo o SMF não é internamente estável. (Na realidade, basta
conferir se uma delas é ou não satisfeita, a outra será ou não, tal como a primeira).
1
Vamos conferir o polinômio característico do SMF: s + 1 − A = s , que não é um
A
polinômio Hurwitz, portanto o SMF não é internamente estável, confirmando a aplicação
do teorema anterior.
Este teorema é um resultado muito geral, não valendo somente para os sistemas tratados,
em que as matrizes de transferência são racionais. Efetivamente, ele pode ser
demonstrado também para sistemas de dimensão infinita (que correspondem a equações
diferenciais com derivadas parciais). Isto é afirmado formalmente no resultado abaixo:
Corolário: (5)
As seguintes afirmações são equivalentes com relação ao diagrama de blocos da figura 9:
1
(i) O sistema é bem posto e internamente estável para todo ∆ ∈ H ∞ com ∆ ∞ < .
γ
1
(ii) O sistema é bem posto e internamente estável para todo ∆ ∈ RH ∞ com ∆ < ;
∞
γ
1
(iii) O sistema é bem posto e internamente estável para todo ∆ ∈ C q× p com ∆ < ;
∞
γ
76
(iv) M ( s ) ∞
≤γ .
1
O lema seguinte mostra que se M > γ , então existe ∆ com ∆ ∞ < que
∞
γ
desestabiliza o sistema:
Lema: (6)
Suponha que M ∈ RH ∞ e que M ∞
> γ . Então existe σ 0 > 0 tal que para todo
1
σ ∈ [0,σ 0 ] existe ∆ com ∆ ∞ < tal que det( I − M ( s ) ∆ ( s )) tenha zero em σ .
γ
K Π
Figura 10
77
Lembramos que o sistema da figura 10 é bem posto e internamente estável se só se
−1 −1
⎡ I K ⎤ ⎡ ( I + K Π ) −1 − K ( I + ΠK ) −1 ⎤
⎢ −Π I ⎥⎦ ⎢⎣ ( I + ΠK ) −1 Π
= ⎥ ∈ RH ∞ para todo Π ∈Π . (7c)
⎣ ( I + Π K ) −1 ⎦
Incertezas aditivas
Consideremos primeiramente as perturbações (ou incertezas) aditivas, a saber,
Π := {P + W1∆W2 : ∆ ∈ RH ∞ } . (8)
Teorema: (9a)
Seja Π definido acima e seja K um controlador estabilizador para a planta nominal P.
Então o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∞ < 1
se só se W2 KSoW1 ∞
≤1
78
∴ So ( P + W1∆W2 )( I + K Π ) = ( I + SoW1∆W2 K )Π
∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + ( I + PK ) −1W1∆W2 K )Π
∴ ( I + PK ) −1 ( P + W1∆W2 )( I + K Π ) = ( I + PK ) −1 ( I + PK + W1∆W2 K )Π
∴ Π ( I + K Π ) = ( I + ΠK )Π , que é uma identidade óbvia.
Bloco (2,2): agora temos que provar que
S o ( I + W1∆W2 KSo ) −1 = ( I + Π K ) −1 ∴ ( I + ΠK ) S o = I + W1∆W2 KSo
∴ ( I + ΠK )( I + PK ) −1 = I + W1∆W2 K ( I + PK ) −1 ∴ I + ΠK = I + PK + W1∆W2 K , que é
uma identidade.
Agora, note-se que dadas duas matrizes X e Y, cujos produtos XY e YX sejam matrizes
quadradas, temos
⎛ ⎡I Y ⎤⎞ ⎛⎡ I Y⎤⎞ ⎛ ⎡Y I ⎤⎞
det( I + XY ) = det ⎜ ⎢ ⎥ ⎟ = det ⎜ ⎢ ⎥ ⎟ = det ⎜ ⎢ ⎟
⎝ ⎣ 0 I + XY ⎦ ⎠ ⎝ ⎣− X I ⎦ ⎠ ⎝⎣I − X ⎥⎦ ⎠
⎛⎡I −X ⎤⎞ ⎛⎡I 0 ⎤⎞
= det ⎜ ⎢ ⎥ ⎟ = det ⎜ ⎢ ⎥ ⎟ = det( I + YX ) .
⎝ ⎣Y I ⎦⎠ ⎝ ⎣Y I + YX ⎦⎠
Ora, podemos aplicar este tipo de operações a todos os denominadores das matrizes de
(9b). Assim por exemplo, o denominador do bloco (1,1) é I + KSoW1∆W2 , enquanto que
o do bloco (1,2) é I + W1∆W2 KSo . Então permutando KSo e W1∆W2 , vemos que os dois
determinantes são iguais. E assim cada matriz de (9b) será estável se só se uma delas o
for. Mais ainda, de acordo com a mesma propriedade acima, cada uma delas será estável
se só se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ . E isto é garantido se ∆W2 KSoW1 ∞ < 1 , de acordo
com o teorema do pequeno ganho, provando a suficiência do presente teorema.
(Necessidade): o bloco (1,2) de (7c) tem que ser estável, ou seja,
K ( I + Π K ) −1 ∈ RH ∞ para todo ∆ admissível e isto, por sua vez, implica
∆W2 K ( I + Π K ) −1W1 ∈ RH ∞ ; (*)
−1
ora, I + Π K = I + PK + W1∆W2 K = ( I + PK )( I + ( I + PK ) W1∆W2 K ) ; donde,
( I + Π K ) −1 = ( I + ( I + PK ) −1W1∆W2 K ) −1 ( I + PK ) −1
= ( I + PK ) −1 ( I + W1∆W2 K ( I + PK ) −1 ) −1 = So ( I + W1∆W2 KSo ) −1 ;
donde a expressão em (*) acima é ∆W2 K ( I + Π K ) −1W1 = ∆W2 KS o ( I + W1∆W2 KS o ) −1W1
= ∆W2 KSoW1 ( I + ∆W2 KS oW1 ) −1 = ( I + ∆W2 KS oW1 − I )( I + ∆W2 KSoW1 ) −1
= I − ( I + ∆W2 KS oW1 ) −1
Então, (*) acima é sastisfeita somente se ( I + ∆W2 KSoW1 ) −1 ∈ RH ∞ .
E pelo teorema do pequeno ganho esta última é verdade para todo ∆ ∈ RH ∞ com
∆ ∞
< 1 se só se W2 KSoW1 ∞
≤ 1 , concluindo a prova. •
Incertezas multiplicativas:
79
Suporemos agora que
Π = {( I + W1∆W2 ) P : ∆ ∈ RH ∞ } , (10)
conforme a figura 10*, onde W1 , W2 , ∆ ∈ RH ∞ , observando-se que estamos tratando do
problema da estabilidade e portanto podemos ignorar os sinais exógenos da figura.
dm
W2
∆
z W1
w
K P
r
d Wd
_
d
e We
Figura 10*
Teorema: (11)
Seja Π definido em (10) e seja K um controlador estabilizador para a planta nominal P.
Então
(i) o sistema em malha fechada é bem posto e internamente estável para todo
∆ ∈ RH ∞ com ∆ ∞ < 1 se só se W2ToW1 ∞ ≤ 1 ;
(ii) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞
com ∆ ∞
≤ 1 se W2ToW1 ∞
< 1;
(iii) a estabilidade robusta do sistema em malha fechada com ∆ ∞
≤ 1 não implica
necessariamente que W2ToW1 ∞
< 1;
(iv) o sistema em malha fechada é bem posto e internamente estável para todo ∆ ∈ RH ∞
com ∆ ∞
≤ 1 somente se W2ToW1 ∞
≤ 1;
(v) se nem P nem K tiverem pólo no eixo imaginário, então o sistema em malha fichada
é internamente estável para todo ∆ ∈ RH ∞ com ∆ ∞ ≤ 1 se só se W2ToW1 ∞ < 1 .
80
Observação: É digna de nota a falta de simetria entre (i) e (ii), isto é, enquanto que (i) é
condição necessária e suficiente, (ii) é condição suficiente apenas; observe-se que a
condição (iv) é mais fraca do que a condição de necessidade da condição . E caso a planta
e o controlador não tenham polo no eixo imaginário, então retomamos a necessidade da
condição que esperaríamos em (ii).
Exemplo: (12)
1
Seja P ( s ) = , K = 1, W1 = W2 = 1 .
s
Solução: Diante dos valores iguais a 1 acima, temos de (i) do teorema: ∆ ∞
< 1 se só se
PK 1/ s 1
To ≤ 1 . Ora, To =
= = .
∞
1 + PK 1 + 1/ s s + 1
1 1
Donde To ∞ = sup = sup = 1, satisfazendo á condição (i) do teorema.
ω 1 + jω ω 1+ ω2
Observe-se que não é trivial chegar a esta conclusão utilizando o polinômio característico
do SMF. Com efeito, se forem N ∆ ( s ) e D∆ (s) o numerador e denominador de ∆ ( s )
numa fatoração coprima, o polinômio característico do SMF será
sD∆ (s)+N ∆ ( s ) + D∆ (s) . E daí?
_
∆N
z1 ∆M
w
K N
r M −1 y
Figura 11
81
∴ y = ( M + ∆ M ) −1 ( N + ∆ N ) z1 , que é o que queríamos provar.
Teorema: (14)
Seja Π = ( M + ∆ M ) −1 ( N + ∆ N ) , (15)
com M , N , ∆ M , ∆ N ∈ RH ∞ . A planta nominal tem fatoração c.e. P = M −1 N e K
estabiliza internamente o SMF com a planta nominal. Definamos ∆ = ⎡⎣ ∆ N ∆ M ⎤⎦ .
Então o SMF é bem posto e internamente estável para todo ∆ ∞
< 1 se só se
⎡K ⎤ −1 −1
⎢ I ⎥ ( I + PK ) M ≤ 1.
⎣ ⎦ ∞
Prova:
Seja o controlador com uma fatoração c.d. K = UV −1 sobre RH ∞ . Sabemos que o SMF
( )
−1
é estável se só se ( N + ∆ N )U + ( M + ∆ M )V ∈ RH ∞ . (*)
Mas como o controlador estabiliza por hipótese a planta nominal, temos
( NU + MV ) −1 ∈ RH ∞ .
Ora, de (*) acima, temos ( NU + MV + ∆ NU + ∆ M V ) −1 ∈ RH ∞
(( ) )
−1
∴ I + (∆ NU + ∆ M V )( NU + MV ) −1 ( NU + MV ) ∈ RH ∞
( )
−1
∴ I + (∆ NU + ∆ M V )( NU + MV ) −1 ∈ RH ∞ ,
−1
⎛ ⎡U ⎤ ⎞
∴ ⎜ I + ⎣⎡ ∆ N ∆ M ⎦⎤ ⎢ ⎥ ( NU + MV ) −1 ⎟ ∈ RH ∞ .
⎝ ⎣V ⎦ ⎠
Ora, de acordo com o teorema do pequeno ganho, a expressão anterior vale para todo
⎡U ⎤
∆ ∞
< 1 se só se ⎢ ⎥ ( NU + MV ) −1 ≤ 1. (**)
⎣V ⎦ ∞
⎡UV ⎤ −1
−1 ⎡ K ⎤
⎡U ⎤
Mas ⎢ ⎥ ( NU + MV ) −1 = ⎢
⎣V ⎦ ⎣ I ⎦
( (
−1 −1
⎥ V M M NUV + I V = ⎢ ⎥ ( I + PK ) M ,
⎣I ⎦
−1 −1
) )
concluindo a prova, em vista de (**) acima.
⎡K ⎤
E note-se que se ∆ ∞ ≤ 1 , teremos ⎢ ⎥ ( I + PK ) −1 M −1 < 1 . •
⎣I ⎦ ∞
A tabela abaixo nos dá vários outros tipos de perturbações com os respectivos testes de
estabilidade robusta.
Na Tebela supomos, como já mencionado:
W1 , W2 e ∆ ∈ RH ∞ , ∆ ∞ < 1
82
Tipo de perturbação do Modelo Teste de estabilidade robusta
( I + W1∆W2 ) P W2ToW1 ∞ ≤ 1
P( I + W1∆W2 ) W2TW
i 1 ∞
≤1
( I + W1∆W2 ) P−1
W2 SoW1 ∞
≤1
P ( I + W1∆W2 ) −1 W2 SiW1 ∞
≤1
P + W1∆W2 W2 KSoW1 ∞
≤1
P( I + W1∆W2 P) −1 W2 So PW1 ∞
≤1
( M + ∆ M ) −1 ( N + ∆ N ) ⎡K ⎤ −1
⎢ I ⎥ So M ≤1
⎣ ⎦ ∞
( N + ∆ N )( M + ∆ M ) −1 M −1 S i [ K I] ≤1
∞
Exemplo: (16)
Seja o sistema cujas perturbações fazem variar o número de polos no semiplano fechado
⎧ 1 ⎫ 1 1
da direita: Pδ = ⎨ : δ ∈ R , δ ≤ 1⎬ . Vê-se que tanto P1 = como P2 =
⎩s −δ ⎭ s −1 s +1
são elementos de Pδ , um instável e o outro estável. Observe-se agora que o conjunto Pδ
{
satisfaz a Pδ ⊂ Π := P (1 + ∆P ) −1 : ∆ ∈ RH ∞ , ∆ ∞
≤ 1} . Escolhemos como planta
1
nominal a que está no meio entre os dois extremos, ou seja, P = . Podemos usar o
s
sexto tipo de perturbações da tabela acima: com efeito, com W1 = W2 = 1 , temos
P 1/ s 1
= == Pδ com ∆ < 1 . E de acordo com a tabela, a condição de
1 + ∆P 1 + ∆ / s s + ∆
estabilidade robusta é S o P ∞ ≤ 1 .
P 1/ s 1
Mas So P = = = . Então a condição de estabilidade robusta é
1 + PK 1+ K / s s+K
1
≤ 1.
s+K ∞
Exemplo: (17)
Considere o seguinte conjunto de plantas:
s +1+ α
P∆ = , com α ≤ 2 .
( s + 1)( s + 2)
Solução: Vamos verificar que caímos no sétimo caso (ou oitavo, pois o sistema é escalar)
da tabela acima com
⎧ s + 1 + 2δ ⎫ s +1
P∆ ⊂ Π := ⎨ , δ ∈ RH ∞ , δ ∞ ≤ 1⎬ . A planta nominal é P =
⎩ ( s + 1)( s + 2) ⎭ ( s + 1)( s + 2)
83
1
= .
s+2
Calculemos uma fatoração coprima sobre RH ∞ de P. Isto é feito, por exemplo,
dividindo-se numerador e denominador de P por ( s + 1) 2 . Com isto, o numerador e
1/ s + 1
denominador são próprios e estáveis. Então, temos P = ; donde
( s + 2) /( s + 1)
s+2 s +1 1 s+2 s +1
M =M = ∴ M −1 = ; ora, So = = ∴ So M −1 = .
s +1 s+2 1 + PK K + s + 2 K +s+2
⎡K ⎤ s +1
E a condição de estabilidade é portanto ⎢ ⎥ ≤ 1.
⎣1⎦ K +s+2 ∞
P W2
K
e
_
W1
n
Figura 12
84
Wd d
d
K P∆ ∈ Π
We
r
e
_
y
Figura 13
Desempenho robusto em H2
Seja T a matriz de transferência entre e e d , reportando-nos à figura 13. Então,
ed
Ted = We ( I + P∆ K ) −1Wd , P∆ ∈ Π . (14)
O problema do desempenho em H2 consiste em achar
sup Ted 2
P∆ ∈Π
Exemplo:
Suponha-se o sistema escalar com Wd = 1, We = ws , P = p e seja o modelo dado pela
incerteza multiplicativa
Π = {(1 + wtδ ) p : δ ∈ RH ∞ , δ ∞ < 1} .
Suponha que o sistema seja robustamente estabilizável por um controlador k. Então, da
figura 13 com as notações quatro linhas acima, temos:
d ws ws
e = ws y, y = d − P∆ ky ∴ y = ∴e = d , donde Ted =
1 + P∆ k 1 + (1 + wtδ ) pk 1 + (1 + wtδ ) pk
ws
sup Ted = sup δ ≤1 . (15)
P∆ ∈Π 2 1 + (1 + wtδ ) pk ∞
A análise exata do problema multivariável (matricial) é difícil, mas podem-se obter
majorantes, como faremos para o problema no H ∞ . Entretanto os majorantes no presente
85
caso dão pouca intuição sobre o problema e por isso esta abordagem do problema será
omitida.
86
dm
W2
∆
z W1
w
K P
r
d Wd
_
d
e We
Teorema (19)
{
Suponha que P∆ ∈ ( I + W1∆W2 ) P : ∆ ∈ RH ∞ , ∆ ∞
< 1} e que K estabilize
internamente a planta nominal P, ou seja, estabilize internamente a malha com a planta
nominal P. Então obtem-se desempenho robusto se uma das condições seguintes for
satisfeita:
(i) para cada frequência ω , σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1 (20)
(ii) para cada frequência ω , κ (W1−1Wd )σ (We SoWd ) + σ (W2ToW1 ) ≤ 1 , (21)
onde W1 e Wd são supostas não singulares.
Prova:
Tanto a condição (20) como a (21) garantem que W2ToW1 ≤ 1 . Com efeito, em (21) isto
é imediato, lembrando que W2ToW1 = σ (W2ToW1 ) e que a parcela à esquerda de
σ (W2ToW1 ) é positiva; em (20) tenha-se em vista que σ (W2ToW1 ) ≤ σ (W1 )σ (W2To ) e que a
parcela à esquerda de σ (W1 )σ (W2To ) é positiva.
O desempenho robusto é equivalente a: T
ed
≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞
< 1.
2
Ora, para cada ω , temos de (17*)
T = We So ( I + W1∆W2To ) −1Wd ,
ed
e portanto,
87
σ (We So )σ (Wd ) σ (We So )σ (Wd )
σ (Ted ) ≤ σ (We So )σ ⎡⎣( I + W1∆W2To ) −1 ⎤⎦ σ (Wd ) = ≤
σ ( I + W1∆W2To ) 1 − σ (W1∆W2To )
σ (We So )σ (Wd )
≤ . (22)
1 − σ (W1 )σ (W2To )σ (∆)
Portanto a condição (20), isto é, σ (Wd )σ (We So ) + σ (W1 )σ (W2To ) ≤ 1 , ou seja,
σ (Wd )σ (We So ) ≤ 1 − σ (W1 )σ (W2To ) , garante
σ (Ted ) ≤ 1, ∀∆ ∈ RH ∞ , ∆ ∞ < 1 para cada frequência.
Por outro lado, podemos escrever
We SoWd (W1−1Wd ) −1 ( I + ∆W2ToW1 ) −1W1−1Wd = We SoW1 ( I + ∆W2ToW1 ) −1W1−1Wd
= We So ( I + W1∆W2To ) −1W1W1−1Wd = We So ( I + W1∆W2To ) −1Wd
= Ted , de acordo com (17*).
Ou seja, Ted = We SoWd (W1−1Wd )−1 ( I + ∆W2ToW1 )−1W1−1Wd
σ (We SoWd )κ (W1−1Wd )
donde, σ T ( ed ) ≤
1 − σ (W2ToW )σ (∆ )
. (*)
Observação (23)
Pode-se provar que as condições do teorema são necessárias se o sistema for escalar.
Observação: (24)
Em vista da equivalência, verificada antes, entre estabilidade robusta e desempenho
nominal, é razoável conjecturar que o problema de desempenho robusto é equivalente ao
problema de estabilidade robusta na figura 10*, com o modelo de incerteza dado por
{
Π := ( I + Wd ∆ eWe ) −1 ( I + W1∆W2 ) P, ∆ e ∞ < 1, ∆ ∞ < 1 ,}
tal como na figura 14.
88
d
W2 Wd
∆ W1
W2
w
z
K
P We
r
∆e
Figura 14
Observação: (25)
Suponha que W1 e Wd tenham inversas. Então temos
We SoWd ( I + (W1−1Wd ) −1 ∆W2ToW1 (W1−1Wd ) )
−1
(25*)
= We SoWdWd−1W1 ( (W1−1Wd ) −1 + (W1−1Wd )−1 ∆W2ToW1 )
−1
( )
−1
= We SoW1 Wd−1W1 + Wd−1W1∆W2ToW1
( )
−1
= We SoW1W1−1 Wd−1 ( I + W1∆W2To ) = We So ( I + W1∆W2To )−1Wd
=T , de acordo com (17*).
ed
Consequentemente, em vista de (25*), uma alternativa para condição suficiente de
desempenho robusto é
σ (We SoWd ) + κ (W1−1Wd )σ (W2ToW1 ) ≤ 1 .
89
w d
z
∆ Wd
W2 W1
e
K
We
P
Figura 15
Para esta posição do problema, vimos que:
a condição de estabilidade robusta é W2TWi 1 ∞
≤1 .
e a condição de desempenho nominal é We SoWd ∞
≤ 1.
Vamos calcular a matriz de transferência de d a e:
Seja y a entrada de We e seja u a saída de K. Então, temos
y = Wd d + P (u + W1∆W2 u ) = Wd d − P ( I + W1∆W2 u ) Ky
y = ( I + PK + PW1∆W2 K ) −1Wd d ;
mas I + PK + PW1∆W2 K = ( I + PW1∆W2 K ( I + PK ) −1 ) ( I + PK ) , donde
( )
−1
y = ( I + PK ) −1 I + PW1∆W2 K ( I + PK ) −1 Wd d = So ( I + PW1∆W2 KS o ) −1Wd d , donde
Ted = We S o ( I + PW1∆W2 KSo ) −1Wd . (25**)
Suponha agora que W1 , Wd e P tenham inversas. Então, temos
Ted = We S oWd ( ( I + PW1∆W2 KS o )Wd ) Wd = We SoWd (Wd + PW1∆W2 KS oWd ) Wd
−1 −1
( ) = W S W (I +W )
−1 −1
= We SoWd Wd−1 (Wd + PW1∆W2 KS oWd ) e o d
−1
d PW1∆W2 KS oWd
= W S W ( I + W PW ∆W K ( I + PK ) W ) )
−1 −1 −1
e o d d 1 2 d
= W S W ( I + W PW ∆W K ( I + PK ) PP W ) )
−1 −1 −1 −1
e o d d 1 2 d
= W S W ( I + W PW ∆W KP ( I + KP ) P W ) )
−1 −1 −1 −1
e o d d 1 2 d
= W S W ( I + W PW ∆W TW W P W ) ) , donde
−1 −1 −1 −1
e o d d 1 2 i 1 1 d
T = W S W ( I + (W PW ) ∆ (W TW )(W PW ) ) .
ed e o d d
−1
1 2 i 1 d
−1
1
−1 −1
(25***)
Se, alem disso, W2 também tiver inversa, pode-se demonstrar que
90
( )
−1
Ted = We S oWd (W1−1Wd ) −1 I + (W1−1PW1 ) ∆ (W2 P −1W2−1 )(W2ToW1 ) (W1−1Wd ) . (25#)
Baseados nestes resultados, temos
Teorema (26a)
{
Seja P∆ ∈ Π = P ( I + W1∆W2 ) : ∆ ∈ RH ∞ , ∆ ∞ }
< 1 com K estabilizando internamente
o sistema nominal. Suponha que P, W1 , W2 e Wd sejam quadradas e inversíveis. Então
obtemos desempenho robusto se uma das seguintes condições for satisfeita
(i) para cada frequência ω , σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW i 1) ≤ 1 , (26b)
(ii) para cada frequência ω ,
κ (W1−1Wd )σ (We SoWd ) + σ (W1−1 PW1 )σ (W2 P −1W2−1 )σ (W2ToW1 ) ≤ 1 . (26c)
Prova:
(i) vem de (25***) e (ii) vem de (25#). •
Observação: (27)
Se as hipóteses de inversibilidade das matrizes não forem satisfeitas, obtem-se pelo
mesmo tipo de raciocinio, usando (25**), isto é, Ted = We So ( I + PW1∆W2 KSo ) −1Wd , a
seguinte condição suficiente alternativa:
σ (Wd )σ (We So ) + σ ( PW1 )σ (W2 KSo ) ≤ 1 . (28)
Observação: (29)
É importante notar que enquanto a condição de estabilidade robusta é dada em função de
Li = KP , a condição para o desempenho nominal é dado em função de Lo = PK . Esta
classe de problemas é dita “skewed” (“torta”). Como em geral PK ≠ KP , a margem para
estabilidade robusta na entrada da planta é em geral diferente daquela na saída da planta.
Observação: (29*)
Se o modelo nominal ponderado for mal condicionado no espectro de frequências
considerado, então as condições de desempenho robusto podem ser bem mais restritivas
do que aquelas de estabilidade e desempenho nominais. Assim, por exemplo, se
W1 = I , Wd = I e W2 = wt I , onde wt ∈ RH ∞ é uma função escalar, a condição (26b), isto
é, σ (We SoWd ) + κ (Wd−1 PW1 )σ (W2TW
i 1 ) ≤ 1 , se torna σ (We S o ) + κ ( P )σ ( wt To ) ≤ 1, ∀ω .
Comparando este resultado com os obtidos para os problemas “non-skewed”, vemos que
a condição para estabilidade, isto é, a desigualdade acima fica dificil de ser satisteita se
κ ( P) for grande. Este problema será discutido com mais detalhe no capitulo seis.
Observação: (30)
Se K tiver inversa, temos de (25**), que repetimos:
( )
−1
T = We So ( I + PW1∆W2 KSo )−1Wd = We So ( So−1K −1 + PW1∆W2 ) KSo Wd
ed
( ) ( )
−1 −1
= We K −1 So−1 K −1 + PW1∆W2 Wd = We K −1 So−1 K −1 ( I + KSo PW1∆W2 ) Wd
91
( )
−1
= We K −1 ( I + KSo PW1∆W2 ) KSoWd = We K −1 I + K ( I + PK ) −1 PW1∆W2
−1
KS oWd
( )
−1
KSoWd = We K −1 ( I + TW
i 1∆W2 ) KS oWd
−1
= We K −1 I + ( I + KP ) −1 KPW1∆W2
= We K −1 ( I + TW
i 1∆W2 ) K ( I + PK ) Wd = We K ( I + TW
i 1∆W2 ) ( I + KP ) KWd .
−1 −1 −1 −1−1
Donde, finalmente,
Ted = We K −1 ( I + TW −1
i 1∆W2 ) Si KWd . (30*)
Suponha que We = I , Wd = ws I , W2 = I , onde ws ∈ RH ∞ é uma função escalar. Então
obtemos da expressão acima
i 1∆ ) ws Si K , donde κ ( K )σ ( Si ws ) + σ (TW
Ted = K −1 ( I + TW −1
i 1 ) ≤ 1 , para todo ω .
E vemos que a desiguladade não será satisfeita se o número condicionante do controlador
for grande, ou seja, se ele for mal condicionado.
wt
wt ∆ ∆
P
P
Figura 16
Se P tiver inversa, temos
Π2 ⊇ Π1 se wt ≥ wt κ ( P ) ∀ω . Com efeito,
P( I + wt ∆) = P ( I + wt ∆P −1P ) = ( I + wt P∆P −1 ) P , donde
P ( I + wt ∆ ) = ( I + wt P∆P −1 ) P .
Como dito antes, o número de condicionamento pode crescer bastante com a frequência
ω . A título de ilustração, temos o seguinte problema típico do ponto de vista industrial.
92
⎡ 0, 2 0,1 1 0 1 ⎤
⎢ −0, 05 0 0 0 0, 7 ⎥⎥
⎢
P( s) = ⎢ 0 0 −1 1 0 ⎥
⎢ ⎥
⎢ 1 0 0 0 0 ⎥
⎢⎣ 0 1 0 0 0 ⎥⎦
1 ⎡ s ( s + 1)( s + 0,07) ⎤
a ( s ) ⎢⎣ −0,05 ( s + 1)( s + 0,13) ⎥⎦
= ,
Figura 17
Vemos que para frequências altas o número de condicionament o torna-se alto.
O problema “skewed” tem reconhecidamente solução mais complicada que o outro, mas
faz sentido em vários problemas.
Considere, por exemplo, o caso em que
⎡z⎤ ⎡ w⎤ ⎡ −W2TW −W2 KSoWd ⎤
⎢ e ⎥ = G ( s ) ⎢ ⎥ , onde G ( s ) = ⎢
i 1
We S oWd ⎥⎦
, (30**)
⎣ ⎦ ⎣d ⎦ ⎣We So PW1
⎡ −W2 ( I + KP ) −1 KPW1 −W2 KSoWd ⎤ ⎡ −W2 KSo PW1 −W2 KSoWd ⎤
ou seja, G ( s ) = ⎢ ⎥ = ⎢ W S PW
⎣ We So PW1 We S oWd ⎦ ⎣ e o 1 We SoWd ⎥⎦
93
⎡ −W2 0 ⎤ ⎡ KSo P KSo ⎤ ⎡W1 0 ⎤ ⎡ −W2 0 ⎤ ⎡ K ⎤ ⎡W 0⎤
= ⎢ S [P I ]⎢ 1
We ⎥⎦ ⎢⎣ So P So ⎥⎦ ⎢⎣ 0 Wd ⎥⎦ ⎢⎣ 0 We ⎥⎦ ⎢⎣ I ⎥⎦ o ⎥
=
⎣ 0 ⎣ 0 Wd ⎦
⎡ −W 0 ⎤ ⎡K ⎤ ⎡W 0⎤
= ⎢ 2 ⎥ ⎢ ⎥ ( I + PK ) −1 [ P I ] ⎢ 1 ⎥.
⎣ 0 We ⎦ ⎣ I ⎦ ⎣ 0 Wd ⎦
Objetivo comum num projeto é fazer G ( s) ∞ pequeno. Em vista de (30**), vemos que
isto implica em fazer Ti , KSo , So P e So pequenos na faixa mais relevante de
frequências. E da última expressão, vê-se que PK deve ser grande.
L( s )
Figura 18
Margem de ganho: Diz-se que o SMF acima tem margem de ganho [ kmin , kmax ] se o SMF
for estável para todo L ( s ) = kL0 ( s ) , com kmin < k < kmax , mas instável com
L( s ) = kmax L0 ( s ) e com L( s ) = kmin L0 ( s ) , onde 0 ≤ kmin ≤ 1 e kmax ≥ 1 .
Margem de fase: O SMF tem margem de fase [φmin , φmax ] se ele for estável para todo
L( s ) = e − jφ L0 ( s ) com φmin < φ < φmax , mas instável se L( s ) = e − jφmax L0 ( s ) ou se
L ( s ) = e − jφmin L0 ( s ) , onde −π ≤ φmin ≤ 0 e 0 ≤ φmax ≤ π .
Estas margens de estabilidade nos são dadas diretamente do digrama de Nyquist do
sistema em malha aberta, como indicado na figura 19.
94
Figura 19
Na figura da esquerda, kmax e kmin indicam quanto o ganho pode ser aumentado e
diminuído, respectivamente, sem provocar instabilidade da malha.
E na figura da direita φmax e φmin representam quanto o atraso de fase, e o avanço de fase,
respectivamente, podem ser tolerados sem produzir instabilidade.
Entretanto, como veremos agora, as margens de ganho e de fase podem não ser um
indicador suficiente da robustez de um sistema. Considere-se o sistema muito simples
a−s b+s
P( s) = , a > 1, com um controlador K ( s ) = , b > 0.
as − 1 s +1
O polinômio característico do SMF é
(as − 1)( s + 1) + (a − s )(b + s ) = (a − 1) s 2 + (2a − b − 1) s + ab − 1 .
Para que este polinômio seja Hurwitz é necessário e suficiente que
a − 1 > 0, 2a − b − 1 > 0 e ab − 1 > 0 .
Da primeira desigualdade, temos a > 1 e desta com a 3ª. temos b > 0 .
95
a−s
(i) b = 1. Neste caso, temos imediatamente K 0 = 1 e L0 ( s ) = , portanto,
as − 1
k (a − s) k (a − jω ) k (a − jω )(−1 − jaω )
L( s ) = . Donde L( jω ) = =
as − 1 jaω − 1 1 + a 2ω 2
k (− a − aω 2 + j (− a 2ω + ω )) k 2 a 2 (1 + ω 2 ) 2 k 2ω 2 (1 − a 2 ) 2
∴ L( jω ) = + =1
2
=
a 2ω 2 + 1 (a 2ω 2 + 1) 2 (a 2ω 2 + 1) 2
∴ k 2 a 2 (1 + 2ω 2 + ω 4 ) + k 2ω 2 (1 − 2a 2 + a 4 ) = a 4ω 4 + 2a 2ω 2 + 1
a 4ω 4 + 2a 2ω 2 + 1 a 4ω 4 + 2a 2ω 2 + 1
∴k2 = 2 = . (*)
a (1 + 2ω 2 + ω 4 ) + ω 2 (1 − 2a 2 + a 4 ) a 2ω 4 + (a 4 + 1)ω 2 + a 2
Ora, as frequências que maximizam / minimizam k, são as mesmas que maximizam /
minimizam k 2 . Então, para achar estes valores das frequências, vamos calcular
dk 2 (4a 4ω 3 + 4a 2ω )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) − (a 4ω 4 + 2a 2ω 2 + 1)(4a 2ω 3 + 2(a 4 + 1)ω )
=
dω (a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) 2
= 0, donde
4ω (a 4ω 2 + a 2 )(a 2ω 4 + (a 4 + 1)ω 2 + a 2 ) = (a 4ω 4 + 2a 2ω 2 + 1)2ω (2a 2ω 2 + (a 4 + 1)) ;
vemos que ω = 0 é uma solução desta eq. Substituindo em (*), obtem-se o valor do
ganho correspondente k = 1/ a
Eliminando-se ω , temos uma eq. do 6º. grau, biquadrada . Resolvida esta equação,
teremos três raízes. Das 4 raizes, calculando-se, obtemos de acordo com ZDG, p. 239,
1
kmin = e kmax = a .
a
Para o cálculo da margem de fase, temos
e − jφ (a − s ) e − jφ (a − jω )
L( s) = , donde L ( jω ) = ; obtemos, de acordo com ZDG,
as − 1 jaω − 1
-1 ⎛ a − 1 ⎞
2
φmin = −π e φmax = sen ⎜ 2 ⎟ =: θ .
⎝ a +1⎠
Claro que tanto a margem de ganho como a de fase tornam-se muito altas quando a é
grande;
1
(ii) < b < a e b → a . Neste caso, obtem-se de acordo com o livro,
a
1 1
kmin = → 2 , kmax = ab → a 2 , φmin = −π e φmax → 0 .
ab a
Ou seja, neste caso temos margem de ganho muito grande e margem de fase
arbitrariamente pequena.
1 1
(iii) < b < a e b → . Neste caso, temos novamente de acordo com o livro,
a a
1
kmin = → 1, kmax = ab → 1, φmin = −π e φmax → 2θ .
ab
96
Obtemos neste caso margem de fase muito grande e margem de ganho arbitrariamente
pequena.
O ponto que se quis ilustrar com este exemplo é que às vezes as margens de ganho e de
fase juntas não são suficientes para indicar a robustez de um sistema.
Por exemplo, é possível construir um controlador (complicado) tal que
1
kmin < , kmax > a, φmin = −π e φmax > θ .
a
Neste sistema, pode-se conferir que o diagrama de Nyquist se aproxima arbitrariamente
do ponto (-1; 0).
Um controlador que dá estes valores é
s + 3,3 s + 0,55 1,7 s 2 + 1,5s + 1
K= .
3,3s + 1 0,55s + 1 s 2 + 1,5s + 1,7
Pode-se verificar que este sistema tem pelo menos as mesmas margens de ganho e de fase
que o sistema com controlador K = 1, mas o diagrama de Nyquist aproxima-se mais do
ponto (-1; 0). Consquentemente este sistema é menos robusto quando o ganho e a fase
são perturbados simultaneamente.
4.6 Deficiência do controle clássico para sistemas MIMO (Esta seção pode ser
omitida)
Nesta seção é mostrado, através de um exemplo, que a teoria de controle clássica pode
não ser confiável quando aplicada a projeto de sistemas MIMO.
Considere um massa inercial em forma cilindria, que gira em torno do seu eixo vertical,
que denominaremos de eixo z.
A “entrada” do sistema é constituída por dois “momenta” (torques) T1 e T2 aplicados nos
eixos no plano horizontal, x e y , respectivamente. A velocidade angular do cilindro em
torno do eixo z é constante e igual a Ω . Os momentos de inércia do cilindro com
relação aos três eixos são I1 , I 2 = I1 e I 3 , respectivamente. Sejam ω1 e ω2 as
velocidades angulares com relação aos eixos x e y , respectivamente.
Então as eqs. de Euler são
I1ω1 − ω2 Ω( I1 − I 3 ) = T1 ,
I1ω2 − ω1Ω( I 3 − I1 ) = T2 .
Definamos
⎡ u1 ⎤ ⎡ T1 / I1 ⎤
⎢u ⎥ := ⎢T / I ⎥ , a := (1 − I 3 / I1 )Ω .
⎣ 2 ⎦ ⎣ 2 1⎦
Obtemos as seguintes eqs. de estado do sistema:
⎡ ω1 ⎤ ⎡ 0 a ⎤ ⎡ ω1 ⎤ ⎡ u1 ⎤
⎢ω ⎥ = ⎢ − a 0 ⎥ ⎢ω ⎥ + ⎢u ⎥ .
⎣ 2⎦ ⎣ ⎦⎣ 2⎦ ⎣ 2⎦
Suponha agora que ω1 e ω2 sejam medidas em coordenadas tais que
⎡ y1 ⎤ 1 ⎡ cos θ senθ ⎤ ⎡ ω1 ⎤ ⎡ 1 a ⎤ ⎡ ω1 ⎤
⎢ y ⎥ = cos θ ⎢ −senθ =
cos θ ⎥⎦ ⎢⎣ω2 ⎥⎦ ⎢⎣ − a 1 ⎥⎦ ⎢⎣ω2 ⎥⎦
.
⎣ 2⎦ ⎣
97
⎡u ⎤ ⎡ y1 ⎤
Definindo u = ⎢ 1 ⎥ e Y = ⎢ ⎥ ,
⎣ u2 ⎦ ⎣ y2 ⎦
obtemos a equação em função da matriz de transferência
1 ⎡ s2 − a2 a ( s + 1) ⎤
Y ( s ) = P ( s )u ( s ) , com P ( s ) = 2 2 ⎢ ⎥.
s + a ⎣ − a ( s + 10 s − a 2 ⎦
suponhamos que a lei de controle seja
u = K1r − y ,
onde
1 ⎡ 1 −a ⎤
K1 =
1 + a 2 ⎢⎣ a 1 ⎥⎦
.r
r
P K1 r
y u
Figura 21
A matriz de transferência do sistema acima é dada por
1 ⎡1 0 ⎤
Y (s) =
s + 1 ⎢⎣ 0 1 ⎥⎦
R( s) .
98
Figura 22
z (s) 1
Definamos = −T11 = − .
w( s ) s +1
1
É claro que a máxima perturbação será: δ ∞
< = 1 , que é independente de a .
T11 ∞
Figura 23
⎡δ δ12 ⎤
Temos P∆ = ( I + ∆ ) P , sendo ∆ = ⎢ 11 ⎥ ∈ RH ∞ .
⎣δ 21 δ 22 ⎦
99
Então, de acordo com o teorema do pequeno ganho, o sistema é robustamente estável
para todo ∆ ∞ < γ se só se
1 1
γ≤ = , o qual será muito menor que 1 se a for muito maior que 1.
T ∞ 1 + a2
Considere o caso particular
⎡δ 0⎤
∆ = ∆ d = ⎢ 11 ⎥.
⎣ 0 δ 22 ⎦
Neste caso, o sistema em malha fechada é estável para todo ∆ ∞
< γ se só se
1
det( I + T ∆ d ) = ( s 2 + (2 + δ11 + δ 22 ) s + 1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 ) não tiver zero no
( s + 1) 2
semiplano fechado da direita.
Portanto, a região de estabilidade é dada por
2 + δ11 + δ 22 > 0 ,
1 + δ11 + δ 22 + (1 + a 2 )δ11δ 22 > 0 .
1
É fácil verificar que o sistema é instável se δ11 = −δ 22 = .
1+ a 2
Isto mostra como no caso de sistemas multivariáveis o uso de métodos apropriados para
sistemas escalares pode levar a resultados errados.
100