Você está na página 1de 18

UNIVERSIDAD SURCOLOMBIANA

FACULTAD DE INGENIERIA
INGENIERIA ELECTRONICA
CRISTIAN ANDRADE VIDARTE 2005200965

Espacio de Estados

Todo sistema dinámico puede ser repres entado por u na ecuación diferencial
(caso continuo) o por una ecuación de diferencias (caso discreto). En general,
una ecuación diferencial ordinaria de orden n puede tener la forma siguiente

dny d n−1 y dy
= F( n−1 , ..., , y, u, t)
dt n dt dt
Donde
u es una variable “excitadora” o entrada al sistema
y es la salida del sistema
t es el tiempo
F es una función arbitraria de sus argumentos

Sin embargo, el sistema anterior es un Sistema Lineal si la forma específica


de la función F es una combinación lineal de derivadas de la entrada o la
salida. Es decir, si el sistema anterior se puede escribir como

dny dy m
a n (t) n + ... + a 1 (t) + a 0 (t)y = b m (t) d mu + ... + b 1 (t) du + b 0 (t)u
dt dt dt dt

En donde los coeficientes ai(t), bi(t) son funciones continuas del tiempo.

En el caso particular de que dichos coeficientes sean constantes, se tiene un


Sistema Lineal con coeficientes constantes (SLIT) para el cual la teoria está
muy desarrollada y que en la mayoría de los casos será el que se trate aquí.

Es un hecho conocido que el sistema (SLIT) dado por la ecuación anterior


admite bajo condiciones iniciales cero, una representación algebraica mediante
una función racional obtenida aplicando Transformada de Laplace a la
ecuación.
Esta representación es la Función Transferencia del sistema y es simplemente
la relación de la Transformada de Laplace de la salida Y(S) a la Transformada
de Laplace de la entrada U(S) cuando las condiciones iniciales son cero ; como
sigue

Y(S) b m S m + ... + b 1 S + b 0
= G(S) =
U(S) a n S n + ... + a 1 S + a 0

Esta representación también se denomina Entrada - Salida o representación


externa y justifica la representación de una SLIT como un bloque
multiplicativo como se muestra en la siguiente figura

U(S) Y(S)
G(S)

La cual es una representación gráfica de la “operación” que realiza el sistema


sobre al entrada U(S) para producir la salida Y(S) ; es decir, Y(S) = G(S)U(S)

Aunque en lo anterior se ha supuesto que sólo hay una entrada y una salida,
en general, U(S) puede representar un vector de p entradas y Y(S) un vector
de q salidas, en tal caso G(S) resulta un función matricial o matriz de
transferencia de dimensión q × p cuyos elementos son funciones racionales
de S.

@ Ejemplo
Considerando el circuito RLC de la siguiente figura, obtendremos su
representación en función transferencia.

Considerar el vector de entradas u(t)=[u1(t) u2(t)]T = [e1(t) e2(t)]T


y el vector de salidas y(t) = [y1(t) y2(t)]T = [i1(t) i2(t)]T
iL VC
+ -

+
L C +

e1 ~ y1 y2 ~ e2
-
R
-

Las ecuaciones de las mallas del circuito son


*
L y 1 (t) + R[y 1 (t) − y 2 (t)] = u 1 (t)
1 t
C
° −º y 2 (t)dt + R[y 2 (t) − y 1 (t)] = −u 2 (t)

Aplicando Transformada de Laplace con condiciones iniciales cero a ambas


ecuaciones obtenemos el sistema de ecuaciones algebraicas

LS −R Y 1 (S) U 1 (S)
1 =
−R R + CS Y 2 (S) −U 2 (S)

Despejando el vector de corrientes, obtenemos

RCS+1 RCS
Y 1 (S) RLCS 2 +LS+R RLCS 2 +LS+R U 1 (S)
= RCS LCS 2 +RCS
Y 2 (S) RLCS +LS+R RLCS 2 +LS+R
2 −U 2 (S)
En el caso de sistemas lineales, la función transferencia nos proporciona un
modelado del comportamiento entrada - salida del sistema, ¿porqué buscar
otra alternativa de modelado?. El siguiente analisis está orientado a dar alguna
justificación al respecto.

Análisis de la estabilización por cancelación de polos

Consideremos el sistema de primer orden modelado por la siguiente función


transferencia:

G(S) = 1
s−1

El cual corresponde a la ecuación diferencial


dy(t)
dt − y(t) = u(t)

donde u(t) es la entrada y y(t) es la salida del sistema.

El sist ema anterior es inestable, ya que su único polo s=1 (raíz del polinomio
característico s-1= 0 ) está ubicado en el semiplano complejo derecho ( tiene
parte real positiva). Para estabilizar el sistemas propone manejar su entrada
mediante un compensador en serie Gc(s) como se muestra en la figura
siguiente

S -1 1
v u y
S+1 S-1
Gc(S) G(S)
Con esto se espera que la función transferencia del sistema completo se
convierta en

Gc(S) G(S) = S − 1 1 = 1 ,
S+1 S−1 S+1

¡con lo cual se tendría un comportamiento estable!

El razonamiento anterior parece un resultado muy atractivo para estabilizar un


sistema inestable, sin embargo no funciona: Después de un rato de operar el
sistema construido con esta idea éste comenzará a saturarse. Para ver porque,
consideremos la siguiente simulación en una computadora analógica

o o
+ x1 x1 + + x2 x2
v
-2 ∫ + u +
∫ y
-

Gc(S) G(S)

Para analizar el comportamiento de la realización anterior, consideremos la


evolución de las principales variables de la realización las cuales son
claramente las salidas de los integradores , es decir, x 1, x2.

De la figura anterior podemos obtener las ecuaciones siguientes


o
x 1 = − x 1 − 2v
o
x2 = x1 + x2 + v
y = x1

Estas ecuaciones se conocen como las ecuaciones de espacio de estado del


sistema y a las variables x1 y x2 se les llama variables de estado o estados del
sistema.
Las ecuaciones anteriores se pueden resolver con las condiciones iniciales
arbitrarias x1(0) = x10 y x2(0) = x20. Obteniendo para la primera

x1(t) = e-t x10 -2e-t * v

donde el símbolo * denota convolución en el tiempo.

La segunda ecuación puede ser resuelta empleando transformada de Laplace


como sigue
x x 10 V(S)
Y(S) = X 2 (S) = 20 + +
S − 1 (S − 1)(S + 1) S + 1
es decir,

y(t) = etx20 + 1/2(et-e-t)x10 + e-t*v

De acuerdo a la ecuación anterior se ve que la salida y(t) crecerá sin cota


definida conforme el tiempo crece a menos que las condiciones iniciales sean
ambas cero (x10 = x20 = 0).

Una razón com únmente dada al hecho de que el sistema anterior no es estable
es que por pequeños errores en los pará metros de G(S) la cancelación exacta
de polo no se puede tener, sin embargo, la razón es mucho más profunda, ya
que de acuerdo a lo anterior, inclusive en el caso en que haya cancelación
exacta la inestabilidad de hecho se presenta para cualquier condición inicial
diferente de cero (excepto para x10 = -2x20)

Entonces, con la representación en espacio de estado tenemos una


descripción del comportamiento interno que no tenemos con la función
transferencia
Obtención de las ecuaciones de estado (Realizaciones canónicas)

Varias realizaciones pueden obtenerse considerando el problema de como


simular una función transferencia de un sistema continuo o discreto. Ambos
problemas (el continuo y el discreto son análogos, se tratará aquí el continuo
solamente).

Consideraciones sobre simulación analógica

Una de las primeras “tentaciones” al tratar de simular una ecuación diferencial


de la forma general
.
y (n) = F(y (n−1) , ..., y, y, u, t)

es el usar n derivadores para obtener las derivadas de y a partir de la señal y

Por ejemplo, para simular la ecuación diferencial


..
y +5y = u

podría pensarse en el siguiente diagrama de simulación

. ..
y y y
d d
dt dt
-
u
+
1
5
sin embargo,
los diferenciadores no son una opción operativa, ya que todas las señales
físicas inevitablemente están contaminadas por ruido normalmente de alta
frecuencia, por esto, aunque la magnitud del ruido sea muy pequeña, su
derivada puede tener una magnitud tan grande que sature a los derivadores.
William Thomson (Lord Kelvin) propuso el uso de integradores e lugar de
diferenciadores como bloque básico de los diagramas de simulación analógica,
así, la ecuación diferencial general planteada al inicio de esta secció n se puede
simular mediante el esquema de Kelvin como sigue

(n-1) (n-2)
y(0) y (0) y (0)
(n) (n-1) (n-2) .
y y y ... y y
∫ ∫ ∫

Dispositivo cuya
salida es
(n-1) .
F( y, ... ,y,u,t )
u

El esquema de Kelvin tiene la ventaja de usar solamente integradores en su


construcción, por lo cual es físicamente realizable, además provee la manera de
establecer condiciones iniciales en cada bloque integrador para cada salida
correspondiente.

Sin embargo, la principal idea de incluir estos esquemas aquí es que en estos
términos, el proceso de obtención de algunas realizacione s y sus d iagramas de
bloques estándar es sencillo.
Cuatro realizaciones canónicas

Al considerar sistemas lineales (ecuaciones diferenciales) que en general


pueden contener derivadas de la entrada, por ejemplo
.
ÿ + 5y = u + 2 u

debemos ir más allá del método de Kelvin para evitar el uso de derivadores, a
continuación se trata un enfoque basado en superposición

Consideremos el siguiente sistema de tercer orden (el caso general de órdenes


mayores sólo es más complicado en notación)
... .. . . ..
y +a 1 y +a 2 y +a 3 y = b 3 u + b 2 u +b 1 u (1)

Primero consideremos el sistema relacionado


... .. .
q +a 1 q +a 2 q +a 3 q = u (2)

Entonces, por linealidad (considerando condiciones iniciales cero)


. ..
y = b 3 q + b 2 q +b 1 q (3)

Un diagrama de simulación se puede obtener para el sistema así planteado, si


aplicamos el método de Kelvin a la ecuación (2) con entrada u y salida q, y
posteriormente usamos diferenciadores para obtener y a partir de q como se
muestra en la figura 2.1

Además, los diferenciadores se pueden eliminar observando simplemente que


se tienen integradores y diferenciadores en serie, o bien, usando el hecho de
.
que si q aparece a la salida de un integrador, la entrada de éste debe ser q esto
se muestra en la figura 2.2
d d
b1
dt dt

d b2
dt + y
.. .
u q q q q
+ ∫ ∫ ∫ b3

-a1

-a2

-a3

Figura 2.1 Implementación de (1) usando diferenciadores

b1

b2 + y
... .. .
u q q q q
+ ∫ ∫ ∫ b3

-a1

-a2

-a3

Figura 2.2 Implementación usando sólo integradores


Representación matricial

El diagrama de la figura 2.2 se conoce como la forma canónica controlador


y al igual que cualquier diagrama de simulación, puede representarse como un
con junto de ecuaciones de estado de primer orden . Para ello, tomemos como
variables de estado las salidas de cada integrador, es decir
.. .
x 1c =q, x 2c =q, x 3c =q

Del diagrama de simulación o equivalentemente, de las ecuaciones (2) y (3) es


fácil obtener:
.
x 1c = −a 1 x 1c − a 2 x 2c − a 3 x 3c + u
.
x 2c = x 1c
.
x 3c = x 2c

y = b 1 x 1c + b 2 x 2c + b 3 x 3c

el conjunto de ecuaciones anterior se puede escribir de manera compacta en


forma matricial como sigue
.
x c =A c x+b c u, y=c c x c (4)

En donde xc=[ x1c x2c x3c ]T,

−a 1 −a 2 −a 3 1
A c = 1 0 0 , b c = 0 , c c =[b 1 b 2 b 3 ] (5)
0 1 0 0

Otro enfoque

Usando transformada de Laplace (considerando condiciones iniciales cero) en


la ecuación (1), obtenemos

(s3+a1s2+a2s+a3) Y(s) = (b1s2+b2s+b3) U(s)


Es decir,
b(s) (b 1 s 2 + b 2 s + b 3 )
Y(s) = a(s) 3 U(s) (6)
(s + a 1 s 2 + a 2 s + a 3 )

lo cual puede ser escrito como

Y(s) = b(s)a-1(s)U(s) = b(S)Q(s) (7)

En donde
a(s) Q(s) = U(s) (8)

el razonamiento anterior es equivalente al de las ecuaciones (1), (2), (3).

Por otro lado, es natural investigar que pasa si escribimos las cosas en orden
inverso, es decir
Y(s) = a-1(s)b(s)U(s) (9)
. ..
Si ahora definimos m(t) = b 3 u(t)+b 2 u(t)+b 1 u(t) e implementamos la
ecuación
a(s)Y(s) = M(s) (10)

obtenemos el siguiente diagrama de simulación

d d
b1
dt dt
... .. .
m y y y y
d
dt
b2 + + ∫ ∫ ∫

u b3 -a1

-a2

-a3

Figura 2.3
El diagrama anterior puede ser transformado usando sólo integradores en el
siguiente
u

b1 b2 b3

x 3ob x 2ob x 1ob


+ ∫ + ∫ + ∫ y

-a1

-a2

-a3

figura 2.4
En donde

b 1 = b1
b 2 = b2 - a 1 b 1
b 3 = b3 - a 1 b 2 - a 2 b 1 + a 1 2 b 1

lo cual puede ser expresado en forma matricial como


−1
b1 1 0 0 b1
b2 = a1 1 0 b2 (11)
b3 a2 a1 1 b3

A la implementación de la figura 2.4 se le llama la forma canónica de


observabilidad

De acuerdo al diagrama de simulación y eligiendo como variables de estado las


salidas de cada integrador, es decir, xob=[x1ob x2ob x3ob ] T obtenemos las
siguientes ecuaciones de estado para esta forma canónica
.
x ob =A ob x ob +b ob u, y=c ob x ob (12)
En donde

0 1 0 b1
A ob = 0 0 1 , b ob = b 2 , c ob =[1 0 0] (13)
−a 3 −a 2 −a 1 b3

Otra manera de ver el proceso anterior es obtener un desarrollo en serie de


potencias de s-1 para la función racional b(s)/a(s), es decir
º
b(s)
a(s) = H(S) = S
i=1
h i s −i (14)

En donde los coeficientes hi se denominan parámetros de Markov puede


demostrarse que

h i = b i, i=1, 2, 3, ..., n (15)

Otro par de realizaciones pueden ser obtenidas con razonamientos similares:

La Forma canónica observador toma como variables de estado las salidas de


los integradores en la figura 2.5, es decir, xo =[ x01 x02 xo3]T

u
b3 b2 b1

x 3o x2o x1o
+ ∫ + ∫ + ∫ y
∫ ∫ ∫

-a 3 -a2 -a1

Figura 2.5 Forma canónica observador


y sus ecuaciones de estado son
.
x o = A o x o +b o u, y=c o x o (16)

En donde

−a 1 1 0 b1
A o = −a 2 0 1 , b o = b 2 , c o =[1 0 0 ] (17)
−a 3 0 0 b3

La Forma canónica de controlabilidad tiene las siguientes ecuaciones de


estado
.
x co = A co x co +b co u, y=c co x co (16)
En donde

0 0 −a 3 1
A co = 1 0 −a 2 , b co = 0 , c o =[ b 1 b 2 b 3 ]
(17)
0 1 −a 1 0
Estas ecuaciones corresponden al diagrama de simulación siguiente

β3
y
β2 +

u x3co β1
+ ∫ x1co + ∫ x2co + ∫
∫ ∫ ∫

-a 3 -a2 -a1

Figura 2.6 Forma canónica de controlabilidad


Dualidad
Las formas canónicas controlador y observador se dicen duales en el sentido
de que Ao = AcT, bo= ccT, co = bcT

En forma similar, las formas de controlabilidad y de observabilidad son duales


en el sentido de que Aob = AcoT, bob= ccoT, cob = bcoT

Realizaciones en paralelo o diagonales


Una de las realizaciones más compactas se puede obtener observando que la
función racional (propia) b(s)/a(s), en el caso en que el denominador a(s) tenga
todas sus raíces diferentes, es decir,
a(s) = (s-λ1)(s-λ2)...(s-λn) (18)
podemos expandir el cociente en fracciones parciales de la siguiente manera
n
b(s) gi
a(s) = S
i=1 s − ki
(19)
El diagrama de simulación correspondiente a la expresión anterior es

b1 c1
+ ∫

λ1

b2 c2
+ ∫

λ2
y
u
bi c i= g i +

bn cn
+ ∫

λn

Figura 2.7 Forma diagonal


Del diagrama anterior podemos obtener las correspondientes ecuaciones de
estado
.
x d =A d x d +b d u, y=c d u (21)

En donde (para n=3)

k1 0 0 b1
A d = 0 k 2 0 , b d = b 2 , c d =[ c 1 c 2 c 3 ]
(22)
0 0 k3 b3
y las variables de estado son las salidas de cada integrador en la figura 2.7.

La forma diagonal es de las realizaciones más sencillas, sin embargo, cuando


las raíces de a(s) son repetidas no siempre es posible obtenerla, en tal caso la
matriz A d en general puede ser una matriz diagonal por bloques del tipo
canónico de Jordan. Los cálculos requeridos para obtener una forma de Jordan
son numéricamente inestables y no se tratarán en estas notas.

No unicidad de las realizaciones en espacio de estado

De la discusión anterior se puede ver que una misma ecuación diferencial


puede ser implementada mediante diversos diagramas de simulación, y cada
uno de estos correspondiendo a una representación diferente en espacio de
estado. De acuerdo con esto no tiene mucho sentido hablar de los estados de
un sistema, sino más bien de los estados de una realización determinada.

En general la relación entre una realización y otra puede establecerse como un


cambio de variables de estado relacionadas por una transformación lineal
definida por una matriz de transformación T, de la forma

variables viejas = T . variables nuevas

o bien, si las variables viejas son x(t) y las nuevas son x (t) entonces

x(t) = Tx(t), con det T !0 (23)


-
Entonces .
x (t) = Ax(t) + bu(t) (24)
con y(t) = cx(t) (25)

En donde A = T −1 AT, b = T −1 b, c = cT (27)

Como hay una infinidad de matrices invertibles T, es claro que hay una
infinidad de realizaciones

Las matrices A yA se denominan matrices similares y la transformación


definida por (27) se denomina transformación de similaridad.

De esta manera cuando buscamos una realización determinada, el problema se


resuelve encontrando la matriz T que logra la transformación deseada. Es
importante enfatizar que este problema NO siempre tien e solución, es decir, no
siempre es posible obtener una realización deseada del mismo orden que la
original mediante una transformación de similaridad.

Você também pode gostar