Analisis de Sistemas Lineales
Analisis de Sistemas Lineales
Analisis de Sistemas Lineales
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1
1 Departamento de Electrónica
Prefacio
iii
iv
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
Prefacio III
1. Aspectos fundamentales 1
1.1. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Invarianza en el tiempo . . . . . . . . . . . . . . . . . . . . . . . 8
1.5. Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5.1. Sistema no lineal de tiempo continuo . . . . . . . . . . . . 9
1.5.2. Sistema no lineal de tiempo discreto . . . . . . . . . . . . 12
1.6. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 18
2. Señales 21
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Señales de tiempo continuo . . . . . . . . . . . . . . . . . . . . . 21
2.2.1. Escalón unitario (función de Heaviside) . . . . . . . . . . 21
2.2.2. Impulso unitario o delta de Dirac . . . . . . . . . . . . . . 21
2.2.3. Rampa unitaria . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5. Señales sinusoidales . . . . . . . . . . . . . . . . . . . . . 25
2.2.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 26
2.3. Señales de tiempo discreto . . . . . . . . . . . . . . . . . . . . . . 27
2.3.1. Escalón unitario de tiempo discreto . . . . . . . . . . . . 27
2.3.2. Impulso unitario discreto o delta de Kronecker . . . . . . 27
2.3.3. Rampa unitaria de tiempo discreto . . . . . . . . . . . . . 28
2.3.4. Exponencial de tiempo discreto . . . . . . . . . . . . . . . 29
2.3.5. Señales sinusoidales de tiempo discreto . . . . . . . . . . . 30
2.3.6. Sinusoidales con amplitud exponencial . . . . . . . . . . . 31
2.4. Problemas para el lector . . . . . . . . . . . . . . . . . . . . . . . 32
v
vi ÍNDICE GENERAL
12.Modelos 323
12.1. Ideas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
12.2. Modelado de sistemas de tiempo continuo. Teorı́a básica. . . . . . 324
12.3. Modelado de sistemas de tiempo continuo. Modelos lineales. . . . 329
12.4. Modelado de sistemas de tiempo discreto. Teorı́a básica. . . . . . 332
12.5. Modelado de sistemas de tiempo discreto. Modelos lineales. . . . 336
xi
xii ÍNDICE DE FIGURAS
9.1. Diagrama de Bode de magnitud para una función tipo [B2], con
q = −1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
9.2. Diagrama de Bode de fase para una función tipo [B2], con q = −1 223
9.3. Diagrama de Bode de magnitud para una función tipo [B4], con
q = −1 y dos valores de ξ. . . . . . . . . . . . . . . . . . . . . . . 224
9.4. Diagrama de Bode de fase para una función tipo [B4], con q = −1 226
9.5. Diagrama de Bode de fase para una función tipo [B5] . . . . . . . 227
9.6. Diagramas de Bode de magnitud y fase para la respuesta en fre-
cuencia del Ejemplo 9.2 . . . . . . . . . . . . . . . . . . . . . . . 231
9.7. Diagrama de Bode en tiempo discreto (Ejemplo 9.3). . . . . . . . 233
9.8. Diagrama polar. Coordenadas cartesianas (Ejemplo 9.4). . . . . . 235
9.9. Diagrama polar. Coordenadas polar (Ejemplo 9.4). . . . . . . . . 236
9.10. Diagramas polares para el caso [P1]. . . . . . . . . . . . . . . . . 237
9.11. Diagrama polar de una función tipo [P4] para distintos valores de ξ 238
xiv ÍNDICE DE FIGURAS
xvii
xviii ÍNDICE DE CUADROS
sistema
entrada
condiciones iniciales
Capı́tulo 1
Aspectos fundamentales
1.1. Sistemas
La entidad básica considerada a lo largo del texto es el sistema. Como una
forma de uniformar el lenguaje a utilizar, usaremos la siguiente definición:
222
Esta definición es vaga a propósito, de modo que ella permita describir situa-
ciones tan disı́miles como sea posible. Es ası́ como la definición de arriba incluye
casos como los de una red eléctrica, un motor hidráulico, un organismo vivo, la
economı́a de un paı́s, etc. También es relevante destacar que un mismo sistema
fı́sico puede tener interés diferente para distintos observadores; por ejemplo, un
amplificador electrónico puede ser estudiado como un sistema eléctrico o co-
mo un sistema térmico. De esta forma la nocion de sistema resulta un tanto
abstracta, pero por lo mismo sumamente poderosa.
Nuestra tarea guarda relación con el comportamiento de los sistemas en el
tiempo, el cual depende de:
y este comportamiento no sólo depende , sino que también de:
1
2 CAPÍTULO 1. ASPECTOS FUNDAMENTALES
se~
nales Las entradas al sistema son señales o funciones temporales a través de las
respuestas
sistema!dinámico cuales el sistema recibe información y/o energı́a. Estos estı́mulos contribuyen a
generar cambios en algunas o en todas las variables del proceso; estas últimas
también son señales puesto que pueden ser descritas como funciones del tiempo.
Las señales del proceso elegidas para observar el comportamiento del sistema se
conocen como respuestas.
Las respuestas de un sistema pueden depender también de la información
y/o energı́a existentes (almacenadas) en el sistema en el instante en que el com-
portamiento del sistema empieza a ser observado. Los sistemas con esta carac-
terı́stica inercial se denominan genéricamente sistemas dinámicos. Ejemplos
de mecanismos inerciales en sistemas son:
+
vf (t) C vc (t)
i(t)
u(t) ∈ Rm : vector que reúne todas las excitaciones del sistema, operador
estado inicial
x(to ) ∈ Rn : vector que describe el estado del sistema al tiempo to ,
y(t) ∈ Rp : vector que reúne las señales escogidas como salidas.
u(t) y(t)
S
x(to )
dvc (t)
vf (t) = RC + vc (t) (1.2)
dt
cuya solución es1 :
Z t t−η
t−to e− RC
vc (t) = vc (to )e− RC + vf (η)dη (1.3)
to RC
222
Las definiciones precedentes se aplican también a los sistemas de tiempo
discreto, es decir, cuando el tiempo toma valores en un conjunto enumerable
(t0 , t1 , t2 , . . .). En este tipo de sistemas, la variable independiente temporal se
suele denominar t, y para enfatizar la naturaleza distinta de las señales de tiem-
po discreto, usaremos paréntesis cuadrados, es decir, f [t] describirá una señal
función de la variable temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Tal como se demostrará en el Capı́tulo 3.
4 CAPÍTULO 1. ASPECTOS FUNDAMENTALES
sistema!algebraico Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe
modelo
modelo un interés igual a ρ % mensual. Si en el mes t-ésimo (t = t0 , t0 + 1, . . .) se hace
un depósito igual a d[t], entonces el saldo s[t] puede ser descrito por:
ρ
s[t] = s[t − 1] 1 + + d[t] ∀t ≥ t0 (1.5)
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el
estado inicial es s[t0 ]. La ecuación (1.5) tiene como solución:
t
X
s[t] = so αt−t0 + αt−` d[`] ∀t > t0 (1.6)
`=t0 +1
1.2. Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no tra-
bajamos con el sistema real, sino que con una representación de ese sistema. Esa
representación o modelo, captura aspectos esenciales del sistema. Por defini-
ción, un modelo es una representación aproximada de la realidad, y su grado
de fidelidad depende de muchos factores, siendo uno de ellos el propósito del
modelo.
La construcción de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologı́a del sistema, mediciones, procesos de ajuste, etc.
La obtencion de modelos es, por si sola, una disciplina rica en conceptos y
técnicas, sobre las cuales se entregan mas antecedentes en el Capı́tulo 12.
A lo largo del texto, supondremos que ya se cuenta con un modelo que
describe el sistema y, en consecuencia, la teorı́a que aquı́ se desarrolla se aplica
al modelo del sistema bajo estudio. El que las conclusiones que ası́ se deriven
1.3. SISTEMAS LINEALES 5
sean válidas para el sistema mismo dependerá de la fidelidad con que el modelo sistemas lineales
superposici\’on
representa a ese sistema. En muchos casos hablaremos del modelo y del sistema homogeneidad
como sinónimos, en otros será necesario hacer la diferencia.
donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y
u2 (t) son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y sólo si:
y(t) = Thh−u1 (t)ii = 2|u1 (t)| 6= −2|u1 (t)| = −Thhu1 (t)ii (1.23)
Ejemplo 1.5. Sea un sistema cuya relación entrada-salida está descrita por: integrador
dy(t) n
= (u(t)) sujeto a y(to ) = xo (1.24)
dt
Entonces, el estado inicial x(to ) es xo y la respuesta resulta:
Z t
n
y(t) = Thhxo , u(t)ii = xo + (u(η)) dη ∀t ≥ to (1.25)
to
( Rt n
yx (t) = Thh0, u(t)ii = to (u(η)) dη
y(t) = yx (t) + yu (t) (1.26)
yu (t) = Thhxo , 0 i = xo
donde y(t) = 4u(t) − f (t), donde f (t) es una función (no constante) del tiempo. linealización|textbf
punto de operación
Entonces este sistema es variante en t. Sin embargo, si redefinimos el mismo modelo!linealizado
sistema de modo que la entrada es ahora el vector ũ(t) ∈ R2 , dado por ũ(t) =
˜ donde α es
[u(t) f (t)]T y mantenemos la salida y(t) ∈ R, entonces y(t) = αu(t),
un vector fila constante dado por α = [4 − 1]. El sistema ası́ definido es ahora
invariante en t.
1.5. Linealización
Como hemos mencionado ya, casi todos los sistemas reales incluyen carac-
terı́sticas no lineales. Sin embargo, muchos de ellos pueden ser descritos con
razonable precisión por modelos lineales, al menos dentro de ciertos rangos en
que el sistema funciona, lo cual permite aplicar una amplia gama de herramien-
tas matemáticas.
Del punto de vista práctico, para obtener estos modelos lineales es común
comenzar con un modelo no lineal y, a partir de éste construir una aproxima-
cion lineal en la vecindad de un punto de operación elegido. Este enfoque
constituye una herramienta clave para el modelado lineal en diversos campos,
por ejemplo, en la Electrónica analógica y en el Control Automático.
La estrategia de linealización puede ser aplicada de igual forma a modelos
de tiempo continuo y a modelos de tiempo discreto, a modelos en variables
de estado (Capı́tulo 10) y a modelos de entrada-salida (ecuaciones recursivas y
ecuaciones diferenciales de orden superior).
Antes de intentar la formulación de un procedimiento general de lineal-
ización, motivaremos el tema con el estudio de dos casos. Ambos casos se
frasearán de idéntica forma, con las obvias adaptaciones, para que el lector
pueda apreciar que el tema de linealización trasciende la naturaleza de la de-
scripción temporal.
3
d 2 y(t) d y(t) 3 d u(t)
+ (0, 2 + y(t)) + (y(t)) = 2 + u(t) (1.30)
dt 2 dt dt
4
∆u(t) = u(t) − uQ (1.31)
4
∆y(t) = y(t) − yQ (1.32)
3
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t)) (1.34)
3
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t)) (1.35)
2
ga (x1Q , x2Q , x3Q ) + (3 (x1Q ) + x2Q )(x1 (t) − x1Q )
+ (0, 2 + x1Q )(x2 (t) − x2Q ) + (x3 (t) − x3Q )
2
= gb (x4Q , x5Q ) + 3 (2x5Q + x4Q ) (x4 (t) − x4Q )
2
+ 6 (2x5Q + x4Q ) (x5 (t) − x5Q ) (1.36)
con lo cual, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en la ecuación (1.36). punto de equilibrio
En esta etapa de nuestro análisis es oportuno hacer las siguientes observa-
ciones:
222
12 CAPÍTULO 1. ASPECTOS FUNDAMENTALES
4
∆u[t] = u[t] − uQ (1.50)
4
∆y[t] = y[t] − yQ (1.51)
2
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t]) (1.53)
3
gd (x5 [t]) = (x5 [t]) (1.54)
Para lograr el objetivo deseado, es decir, una ecuación recursiva en ∆u[t] y punto de equilibrio
∆y[t], es necesario que el punto de operación (x1Q , x2Q , . . . , x5Q ) satisfaga:
(iii) Es necesario elegir un punto de operación en que las señales son constantes,
es decir, u[t] = uQ e y[t] = yQ , para todo instante t, lo cual implica también
que todas las diferencias son cero. Este punto de operación se conoce como
punto de operación en equilibrio o, más brevemente, punto de equilibrio.
La idea es que si un sistema está en un punto de equilibrio, el sistema se
mantiene operando en ese punto ya que las diferencias de y[t] y de u[t] son
cero. La elección del punto de equilibrio se hace considerando el punto en
que el sistema a analizar estará operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x1Q = x2Q = x3Q = yQ ,
x4Q = x5Q = uQ , e
2 2
yQ + 0, 5yQ + 0, 1uQ yQ = u3Q (1.62)
(iv) Cuando el modelo no lineal está descrito por dos o más ecuaciones, las
coordenadas del punto de operación deben satisfacer al conjunto de ecua-
ciones simultáneas.
222
El análisis de los casos precedentes muestra que, con independencia de la
naturaleza temporal de los sistemas (continuo o discreto), la linealización de
14 CAPÍTULO 1. ASPECTOS FUNDAMENTALES
punto de operación sus modelos no lineales tiene ciertos pasos básicos. En primer lugar, restringire-
se~
nal incremental
modelo!peque~
na se~ nal mos la linealización a la construcción de modelos lineales en torno a puntos
de equilibrio. Observamos que cuando trabajamos en un punto de equilibrio,
todos los valores de ese punto x1Q , x2Q , . . . , se pueden expresar en función del
par (uQ , yQ ); por ello diremos que el punto de operación en equilibrio queda
definido por ese par.
Supongamos que el sistema con entrada u(◦) y salida y(◦) es descrito por:
(i) existe, al menos un par de valores constantes reales (uQ , yQ ) tales que,
f huQ , yQ i = 0 (1.65)
2
√ (uQ ) 16
yQ − =0 =⇒ yQ = (1.69)
3 9
(ii) El modelo linealizado es entonces obtenido a través de la expansión de
(1.68) en serie de Taylor para obtener:
d∆y(t) 1 2uQ
+ √ ∆y(t) − ∆u(t) = 0 (1.70)
dt 2 yQ 3
d∆y(t) 3 4
+ ∆y(t) − ∆u(t) = 0 (1.71)
dt 8 3
222
La idea fundamental que se deduce del proceso de linealización es que: las
propiedades del modelo lineal para valores pequeños de sus variables incremen-
tales, permiten inferir el comportamiento del sistema original en las cercanı́as
del punto de operación.
Para comparar efectivamente la calidad de la aproximación que provee un
modelo linealizado, es necesario poder simular ambos modelos, el original (no-
lineal) y el obtenido (lineal). Para ello, herramientas como Simulink o Simnon
son extraordinariamente poderosas. A modo de ejemplo, se incluye en la Figura
1.4 un esquema Simulink para simular el modelo no lineal del Ejemplo 1.6,
dado por:
2
dy p (u(t))
+ y(t) = (1.72)
dt 3
o, en forma más conveniente para armar el esquema Simulink :
2
dy p (u(t))
= − y(t) + (1.73)
dt 3
Para apreciar la calidad de la aproximación consideramos el sistema original
y su modelo linealizado y corremos una simulación donde la entrada a ambos
sistemas es una constante igual a 2 más una secuencia de pulsos de amplitud
creciente. Los resultados se muestran en la Figura 1.5. Podemos ver ahı́ que el
error de linealización crece a medida que el sistema es llevado lejos del punto de
operación, en torno al cual se calculó el modelo linealizado.
16 CAPÍTULO 1. ASPECTOS FUNDAMENTALES
Gain Math
Function Integrador
sqrt
Raiz
Cuadrada
2.8
2.6
2.4
2.2
1.8
1.6
1.4
0 1 2 3 4 5 6 7 8 9 10
Tiempo [s]
Figura 1.5: Salida del sistema no lineal (linea sólida) y salida del sistema lin-
ealizado (lı́nea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lı́nea punteada)
222
Nota 1.4. Como hemos mencionado, los modelos linealizados son sólo modelos
aproximados y, por tanto, deben ser considerados con la precaución apropia-
da (como deberı́an serlo en realidad todos los modelos). Cuando se realiza la
linealizacion de un modelo, el siguiente término de la expansión en serie de
Taylor puede ser utilizado frecuentemente como una medida del error asociado
al modelado.
Problema 1.4. Considere un sistema con entrada u(t) y salida y(t), rela-
cionados por la ecuación diferencial
dy(t) 2
+ 2 + 0,1 (y(t)) y(t) = 2u(t) (1.81)
dt
1.4.1 Determine los modelos linealizados para un punto de operación definido
por yQ = 0,1.
d y(t) 2 1
y(t) + 3 (y(t)) = 2 (u(t)) 3 (1.82)
dt
Redefina, si es posible, la entrada y/o la salida de modo que el modelo en las
salidas redefinidas sea lineal.
1.6. PROBLEMAS PARA EL LECTOR 19
d y(t)
+ f (y)y(t) = 2u(t) (1.84)
dt
Donde la función f (y) aparece en la Figura 1.6.
1.5
0.5
f(y)
−0.5
−1
−1.5
−4 −3 −2 −1 0 1 2 3 4
y
d y(t)
+ 2ty(t) = 2u(t) (1.85)
dt
dc
= αc(t) + βc(t)z(t) (1.91)
dt
dz
= −γz(t) + δc(t)z(t) (1.92)
dt
en que los parámetros α, β, γ, δ son positivos.
1.12.4 Elija algun valor para los parámetros, y simule el sistema original y el
linealizado en torno a cada punto de equilibrio, representando la solucion
en el plano (c(t), z(t)).
se~
nales|textbf
se~
nales!de prueba
escalón unitario
Heaviside
impulso unitario
delta de Dirac|textbf
Dirac
Capı́tulo 2
Señales
2.1. Introducción
El comportamiento de los sistemas puede evaluarse observando las señales
correspondientes a las variables de entrada del sistema, variables de salida e
incluso a variables intermedias del mismo. Más aún, el comportamiento de los
sistemas puede estudiarse, y ası́ suele hacerse, observando su respuesta cuando
se inyectan al sistema determinadas señales de prueba.
El análisis de señales es un aspecto esencial de la teorı́a de sistemas lineales,
no sólo por su valor experimental, sino que por la propiedad de linealidad, la
cual permite construir modelos en base a la respuesta del sistema ante ciertas
señales de prueba.
21
22 CAPÍTULO 2. SEÑALES
µ(t − to )
0 to t
δ(t − to )
0 to t
f1 (t) f2 (t)
1
1
2
to − to to + t to − t o to + t
Además,
Otra función de importancia que tiene la misma propiedad que f1 (t) y f2 (t)
es:
1 sen t−t
o
f3 (t) = (2.5)
π t − to
Esta función, conocida como la función muestreo, juega un papel muy im-
portante en la relación entre señales de tiempo continuo y de tiempo discreto
(ver Capı́tulo 11). Se puede demostrar que:
Una propiedad clave del delta de Dirac está descrita en el siguiente lema.
222
El Lema 2.1 establece que toda señal puede ser expresada como una op-
eración lineal sobre el impulso δ(t − τ ) para −∞ < τ < ∞. Veremos más
adelante que esta propiedad será la base para calcular la respuesta de un sis-
tema lineal ante cualquier señal, a partir de la respuesta de ese sistema a un
impulso unitario.
dµ(t − to ) d2 r(t − to )
δ(t − to ) = = (2.9)
dt dt2
24 CAPÍTULO 2. SEÑALES
exponencial r(t − to )
exponencial!creciente
constante de tiempo
0 to to + 1 t
2.2.4. Exponencial
La función exponencial es definida genéricamente como
8 1 sinusoide
7
0.8 α<0
6 α>0
5 0.6
4 0.4
3
0.2
2
1 0
0 1 2 3 4 0 1 2 3 4
Tiempo [s] Tiempo [s]
1
τ= (2.12)
|σ|
0.6 τ=τ
1
0.4 τ=τ
2
0.2 τ=τ
3
0
0 0.5 1 1.5 2 2.5 3 3.5 4
Tiempo [s]
sinusoide!amplitud 1
sinusoide!frecuencia angular
sinusoide!desfase 0.8
sinusoide!perı́odo
sinusoide!frecuencia 0.6
Euler
sinusoide!fórmula de Euler 0.4
exponencial imaginaria
sinusoide!amortiguada 0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Tiempo normalizado t/τ
ej(ωt+β) − e−j(ωt+β)
A sen(ωt + β) = A (2.15)
2j
De esta ecuación se puede apreciar la interpretación que usualmente se da a
la exponencial imaginaria ejωt , ya que1
e(σ+jω)t+jβ − e(σ−jω)t−jβ
Aeσt sen(ωt + β) = A (2.18)
2j
1 La notación ={ } siginifica parte imaginaria de ...
2.3. SEÑALES DE TIEMPO DISCRETO 27
1 500 se~
nales!de tiempo discreto
escalón unitario
impulso unitario
0.5
delta de Kronecker|textbf
0 0
−0.5
−1 −500
0 1 2 3 0 1 2 3
tiempo normalizado t/T tiempo normalizado t/T
µ[t − to ]
0 to t
0 to t
r[t − to ] exponencial
0 to t
f [t] = λt (2.25)
donde λ es, en general, un número complejo. Sin embargo, cuando ={λ} 6=
0, la exponencial no es una señal real, y sólo tiene sentido fı́sico cuando se
combina con (λ∗ )t , en cuyo caso se llega a una sinusoide de amplitud modulada
exponencialmente, situación que se analiza por separado más adelante.
Si λ ∈ R distinguimos cuatro casos, como se ilustra en la Figuras 2.12 y 2.13.
1.2 5
1 0<λ< 1 1<λ
4
0.8
3
0.6
2
0.4
0.2 1
0 0
0 2 4 6 8 0 2 4 6 8
exponencial!creciente 1. Cuando λ > 1 tenemos una exponencial creciente. Esta señal aparece asociada
sinusoide!discreta
sinuosoide!aperiódica a los sistemas inestables de tiempo discreto, como es explicará más adelante.
Por su parte, cuando 0 < λ < 1, estamos en presencia de una exponencial
decreciente. Esta forma exponencial es de enorme importancia en la teorı́a de
sistemas, ya que interviene con frecuencia en la descripción del comportamiento
natural de una amplia gama de sistemas.
En la Figura 2.13, se observa el caso cuando λ es negativo, a la izquierda
aparece el sub-caso 0 > λ > −1 y a la derecha, aparece el sub-caso λ < −1.
6
1
0>λ>− 1 4 λ<− 1
0.5
2
0
0
−0.5 −2
−1 −4
0 2 4 6 8 0 2 4 6 8
Demostración Euler
sinusoide!discreta!amortiguada
Una sinusoide discreta sen(θt) es periódica si y sólo si existe un número
natural N tal que, para todo t ∈ N,
222
De acuerdo a este lema, las sinusoidales de tiempo discreto: sen(t/7), cos(2t),
sen(e t) son todas señales aperiódicas.
Un representación equivalente para las señales sinusoidales se puede obtener
a partir de la fórmula de Euler:
ej(θt+β) − e−j(θt+β)
A sen(θt + β) = A (2.29)
2j
0.6 2
0.4 1
0.2 0
0 −1
−0.2 −2
−0.4 −3
0 5 10 15 20 0 5 10 15 20
Figura 2.14: Señales sinusoidales de tiempo discreto con amplitud variando ex-
ponencialmente
1 sen(α(t − 2))
f (t) = (2.36)
π t−2
Dibuje f (t) (use Matlab ) para diferentes valores de α. Comente sus resul-
tados
π π
f1 (t) = 2µ(t − 2) − µ(t − 4); f2 (t) = sen 3t − µ(t − ) (2.37)
3 2
2t − 4
f3 (t) = r ; f4 (t) = (r(t) − 2r(t − 2)) µ(−t + 4) (2.38)
3
f1 (t) f2 (t)
t t
1 2 3 4 1 2 3
Figura 2.15: Señales compuestas
2.6.2 Determine una expresión analı́tica para la integral en el intervalo [0, t].
Capı́tulo 3
3.1. Introducción
La herramienta fundamental para describir los cambios de una variable en
el dominio del tiempo continuo es la derivada, por tanto, el modelo matemático
central para los sistemas en tiempo continuo es la ecuación diferencial del sis-
tema, EDS, la cual relaciona la entrada del sistema, u(t), con la salida, y(t). En
el caso de modelos linealizados (Capı́tulo 1), debe entenderse que nos referimos
a la entrada incremental ∆u(t) y salida incremental ∆y(t).
Como ya hemos destacado, cuando se dispone de un buen modelo lineal para
un sistema, se puede utilizar numerosas y poderosas herramientas de análisis,
sı́ntesis y diseño. Por ejemplo, para resolver una EDS respecto de una entrada
particular y condiciones iniciales especı́ficas, los métodos operacionalmente más
eficientes pertenecen probablemente al dominio del tiempo. Aprovechando tales
métodos de resolución en el tiempo presentaremos en este capı́tulo las soluciones
generales para tiempo continuo, suponiendo que el lector tiene la preparación
previa necesaria para utilizar esos métodos de resolución sin necesidad de de-
mostración.
El estudio de las propiedades de las soluciones de una EDS nos permitirá in-
troducir indicadores de propiedades fundamentales para los sistemas dinámicos
lineales tales como su comportamiento natural, estabilidad, velocidad relativa,
ganancia y otras. Estos indicadores permitirán establecer relaciones estrechas
entre sus propiedades cuantitativas y cualitativas. La aplicación de los indi-
cadores descritos en este capı́tulo y en el siguiente, para el caso de sistemas de
tiempo discreto, es más eficiente en el dominio de la frecuencia, sin embargo, este
tópico se aborda en los capı́tulos posteriores a través de las transformaciones de
Fourier, de Laplace y Zeta.
35
36 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
Heaviside!operador
Heaviside
d f (t)
ρ hf (t)i = ρ f (t) , (3.2)
dt
dn f (t)
ρ n hf (t)i = ρ n f (t) = ρ ρ n−1 hf (t)i = (3.3)
dtn
El operador de Heaviside representa la derivada de una función y, natural-
mente, tiene un inverso asociado definido por la integral:
Z t
−1
ρ hf (t)i = f (τ )d τ (3.4)
−∞
ρ n y(t) + an−1 ρ n−1 y(t) + . . . + a0 y(t) = bn ρ n u(t) + bn−1 ρ n−1 u(t) + . . . + b0 u(t)
(3.5)
Para ilustrar la forma en que se llega a la EDS desarrollamos el siguiente
ejemplo.
Ejemplo 3.1. Considere la red eléctrica de la Figura 3.1, donde todos los com-
ponentes son lineales.
i(t) R1
iL (t)
+
L C R2 v(t)
vf (t)
R1 + R 2 1 1
a1 = ; a0 = ; b2 = 0; b1 = ; b0 = 0 (3.11)
R1 R2 C LC R1 C
Es importante además hacer notar que la solución v(t) debe ser tal que sat-
isfaga las condiciones iniciales impuestas por la tensión inicial en el conden-
sador, y la corriente inicial en el inductor.
222
En resumen, podemos afirmar que:
dy
+ y(t) = u(t) (3.12)
dt
Observamos en (3.12) que la salida y(t) no puede variar arbitrariamente, sino
que existe una restricción. Esa restricción dice que en un instante arbitrario,
t = t1 , la suma de la salida y su primera derivada debe ser igual al valor que
38 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
equilibrio estable tiene la entrada u(t1 ). Por ejemplo si u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces
sistema! inestable
necesariamente ẏ(0) = 3, es decir, ẏ(0) > 0, por lo cual en t = 0 la salida
y, está aumentando. Por otro lado, a medida que y(t) aumenta y se acerca a
2, entonces ẏ(t) sigue siendo positiva, pero disminuye consistentemente. En el
lı́mite, cuando y(t) = 2, su derivada de y es cero, lo cual indica que en ese
instante y(t) ya no cambia, es decir, se alcanza un punto de equilibrio estable.
Introduzcamos ahora una variante en (3.12):
dy
− y(t) = u(t) (3.13)
dt
Si nuevamente u(t) = 2, ∀t ≥ 0, e y(0) = −1, entonces ẏ(0) = 1, lo cual
implica que en t = 0 la salida y está aumentando. Sin embargo, a diferencia del
caso anterior, a medida que y aumenta, acercándose a 2, su derivada crece, es
decir, y(t) aumenta. Cuando y(t) = 2, se tiene que ẏ(t) = 4, y subiendo. En
consecuencia, y(t) sigue creciendo monotónicamente, pero siempre la velocidad
de cambio, ẏ(t), debe cumplir con ẏ(t) = u(t) + y(t). Es decir, no se alcanza
un punto de equilibrio y, más adelante, definimos este tipo de sistemas como
inestable.
Ambos casos pueden ser representados por la forma general de una EDS de
primer orden:
dy
+ ay(t) − bu(t) = 0 (3.14)
dt
La forma (3.14) deja en evidencia el significado de restricción que tiene la
EDS.
El análisis precedente se puede aplicar a EDS más complejas, pero en esos
casos se pierde la visión intuitiva, por ello nos conviene trasladarnos a un ámbito
más general, que es lo que hacemos a continuación.
Note que esta ecuación tiene infinitas soluciones, las que pueden describirse
genéricamente como una familia. Los miembros de esta familia se diferencian
por los valores numéricos especı́ficos que se pueden escoger para un conjunto de
n constantes indeterminadas.
Por su parte, la componente o solución particular, yp (t), es una función
especı́fica del tiempo, independiente de las condiciones iniciales, que satisface la
ecuación (3.1).
La solución completa y(t) = yh (t) + yp (t) queda totalmente determinada al
usar las condiciones iniciales, aplicadas a la respuesta completa, y(t), para
calcular las constantes indeterminadas presentes en yh (t).
Antes de proseguir con el análisis consideraremos un ejemplo.
dy(t)
+ 2y(t) = 4u(t) (3.16)
dt
y que la respuesta y(t) debe satisfacer la condición inicial y(0) = −0, 5. Se desea
calcular la respuesta del sistema para t ≥ 0 cuando u(t) = 1.
yh (t)
La componente homogénea debe cumplir con:
dyh (t)
+ 2yh (t) = 0 (3.17)
dt
222
40 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
donde los Cki son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
Los valores de λ que satisfacen (3.19) son conocidos como autovalores, valores
propios1 , valores caracterı́sticos o frecuencias naturales del sistema. Dado que
los coeficientes de la ecuación caracterı́stica asociada a la EDS son reales, todas
sus raı́ces son reales, o bien aparecen en pares complejos conjugados.
A su vez, cada una de las funciones temporales, asociadas a λk , de la forma:
X̀
u(t) = B i eβ i t (3.22)
i=1
donde los βi0 s son distintos y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones eβi t recibe el nombre de modo forzante.
1 Esta denominación resultará natural para modelos en variables de estado (Capı́tulo 10)
3.3. LA RESPUESTA DEL SISTEMA 41
Eje
Imaginario λ
λ2 λ1 λ0 λ3 λ4 Eje
Real
Figura 3.2: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales
42 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
modo forzante!ganancia a Se puede verificar, usando la linealidad del sistema, que la solución particu-
ganancia! a modo forzante
modo forzado lar, yp (t), está dada por:
ganancia
ganancia! a continua
X̀
yp (t) = ypi (t) , en que ypi (t) = Ki Bi eβi t (3.23)
i=1
dy
+ 3y(t) = 2u(t); entonces a1 = 1; a0 = 3; b0 = 2 (3.25)
dt
Supongamos que la entrada es u(t) = 5 + 4 cos(πt + π/4), entonces podemos
expresarla como:
3
X π π
u(t) = Bi eβi t = 5eβ1 t + 2ej 4 eβ2 t + 2e−j 4 eβ3 t (3.26)
i=1
b0 2
K1 = = (3.27)
β1 + a 0 3
b0 2
K2 = = = 0,3180 − j0,3330 = 0,4604e−j0,8084 (3.28)
β2 + a 0 jπ + 3
b0 2
K3 = = = 0,3180 + j0,3330 = 0,4604ej0,8084 (3.29)
β3 + a 0 −jπ + 3
222
El tratamiento general de la solución particular será pospuesto para capı́tulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
3.3. LA RESPUESTA DEL SISTEMA 43
estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis-
tintos, y esta capacidad de discriminación es la base para el análisis y diseño
de sistemas de procesamiento de señales y para otras aplicaciones.
3.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relación con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (señales) del sistema permanecen acotadas ante cualquier excitación
acotada o estado inicial acotado. Si consideramos sólo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son éstas, es
decir, las raı́ces de la ecuación caracterı́stica del sistema, las que determinan la
estabilidad del sistema. Consideremos el caso de un modo natural de la forma
genérica:
yh1 (t) = Ceλt = Ceσt ejωo t = Ceσt (cos(ωo t) + j sen(ωo t)) (3.31)
De la expresión anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y sólo si eλt decae, y esto ocurre si y sólo si σ < 0. Dicho de otra
forma, si y sólo si λ está en el semi plano izquierdo abierto del plano complejo.
Esto se ve reflejado claramente en la Figura 3.2.
En resumen, tenemos la siguiente definición de estabilidad, conocida como
estabilidad asintótica:
velocidad Ejemplo 3.4. Sea un sistema cuya EDS está dada por:
frecuencia natural!dominante
modo natural!dominante
dy
= 2u(t) (3.32)
dt
Entonces el sistema tiene sólo una frecuencia natural, y ella está ubicada
en λ = 0, esto significa que el modo natural que aparecerá en la respuesta del
sistema es eλt = 1. Ası́, la respuesta homogénea es yh (t) = C1 . Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u(t) = Uo , entonces la componente
particular de la respuesta es yp (t) = Uo t. De esa forma la respuesta completa es
y(t) = C1 + Uo t donde C1 debe calcularse para satisfacer la condición inicial.
Debemos notar que este ejemplo pone en evidencia que, aunque la entrada
es una simple constante, la salida del sistema crece en forma ilimitada a medida
que transcurre el tiempo. El sistema es, por tanto, inestable.
222
3.3.5. Velocidad
Un segundo aspecto de interés en relación con las frecuencias y modos nat-
urales guarda relación con la velocidad con que evolucionan las variables de los
sistemas.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no sólo por la distinta naturaleza de los valores propios, sino por las
velocidades relativas con que decaen sus modos naturales. Por ejemplo, con-
sideremos dos sistemas con las componentes homogénas que se indican:
Vemos que yh1 (t) está dominada por el modo natural e−2t porque esta señal
decae más lentamente que el otro modo natural e−5t . Por su parte, yh2 (t)
está dominada por el modo natural e−3t , el que decae más lentamente que
el modo e−7t . Ası́ diremos que el Sistema 1 tiene una frecuencia natural
dominante igual a −2, con un modo natural dominante e−2t . A su vez,
el Sistema 2 tiene una frecuencia natural dominante igual a −3, con un mo-
do natural dominante e−3t . Al comparar ambos sistemas podemos concluir, en
primera aproximación, que el Sistema 1 es más lento que el Sistema 2, porque
su modo dominante decae más lentamente.
En general, si λ = −|σ| + jωo , el modo natural tiene la forma:
dy(t)
+ 2y(t) = 4u(t) (3.40)
dt
y que la respuesta y(t) debe satisfacer la condición inicial y(0) = −0, 5.
Se desea calcular la respuesta del sistema para u(t) = 1 para t ≥ 0.
yx (t)
La respuesta a estado inicial debe cumplir con:
dyx (t)
+ 2yx (t) = 0 (3.41)
dt
y con yx (0) = −0, 5 Esta ecuación es satisfecha por yx (t) = Ce−2t , con C =
−0,5
yu (t)
La respuesta a entrada, yu (t), es una solución para (3.40) con u(t) = 1, y
sujeta a yu (0) = 0.
De esta forma, la solución completa es:
De esta forma, podemos ahora completar la Tabla 3.1 para el caso de las
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 3.2.
222
Las dos descomposiciones de la respuesta del sistema obtenidas permiten
observar dicha respuesta desde dos perspectivas diferentes:
En la descomposición componente homogénea – componente particular se
observa la estructura de la respuesta. En efecto, en esa partición queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogénea) y modos forzados (incluidos en la componente
particular).
En la descomposición respuesta a estado inicial – respuesta a entrada
se separan los efectos de las dos causantes de que el sistema tenga una
respuesta: las condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, aún ası́, los
modos naturales se encuentran presente en la respuesta (en este caso sólo aparece
la componente debida a la entrada, yu (t)).
Para cerrar esta sección consideraremos un ejemplo donde estos conceptos
adquieren un significado más concreto.
Ejemplo 3.6. En el circuito de la Figura 3.3 las componentes (escaladas, por
simplicidad) tienen los siguientes valores:
iL (t) L R1 A
+
iα (t) iβ (t) vc (t)
vf (t) C R2
Maple
>with(linalg);
>Z:=array(1..2,1..2,[[2+rho+2/rho,-2/rho],[-2/rho,2/rho+1]]);
>Zi:=inverse(Z);
De donde resulta:
−1 1 2+ρ 2
Z = 2 (3.49)
ρ + 4ρ + 6 2 ρ 2 + 2ρ + 2
Resolviendo para iβ (t) se obtiene:
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
(b) La componente homogénea, vch (t), es la parte de la respuesta que contiene respuesta transitoria
respuesta estacionaria
todos los modos naturales, en este caso:
5 −2t √ 1 √ −2t √
vch (t) = e cos( 2t) − 2e sen( 2t) (3.54)
3 3
(c) La componente a estado inicial, vch (t), corresponde al valor que tendrı́a
vc (t) debido sólo a la corriente inicial en el inductor y a la tensión inicial
en el condensador, es decir con la fuente de tensión cortocircuitada. Esta
componente se puede calcular con el siguiente código:
Maple
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
Maple
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)
-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene:
10 10 −2t √ 10 √ −2t √
vcu (t) = − e cos( 2t) − 2e sen( 2t) (3.56)
3 3 3
222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria (o transiente) y respuesta estacionaria (o en estado
estacionario). La respuesta estacionaria corresponde a la respuesta del sistema
cuando ha transcurrido mucho tiempo desde el instante inicial. Por su parte
50 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
respuesta! a $\mu (t)$ la respuesta transiente es aquella parte de la respuesta que se extingue con el
respuesta! a escalón
tiempo.
En el Ejemplo 3.6 en la página 47, la respuesta estacionaria está dada por
el modo forzado constante, mientras que la respuesta transitoria está formada
por los modos naturales (sinusoidales amortiguadas).
La separación en componentes estacionaria y transitoria es transversal a la
idea de modos naturales y modos forzados, es decir, no ocurrirá siempre que la
respuesta estacionaria incluya sólo modos forzados, e incluso es posible que la
respuesta estacionaria esté formada exclusivamente por modos naturales. Por
ejemplo, el lector puede verificar que si un sistema tiene modos naturales si-
nusoidales y la entrada es una exponencial decreciente, entonces la respuesta
estacionaria contendrá los modos naturales sinusoidales y la respuesta transito-
ria incluirá el modo forzado por la exponencial.
p k n
1 XX
go (t) = + Cki ti−1 eλk t ∀t ≥ 0 (3.58)
a0 i=1
k=1
kp n
1 p XX
go (t) = t + Cki ti−1 eλk t ∀t ≥ 0 (3.59)
p!ap i=1
k=1
3.4. RESPUESTA A SEÑALES DE PRUEBA 51
Paso 2 Calcule las constantes Cki usando la restricción de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:
ρ ` hgo (t)it=0 = 0 ` = 0, 1, . . . , n − 1 (3.60)
Paso 3 Calcule las primeras n − 1 derivadas de go (t). Note que, como las condi-
ciones iniciales son cero, esas derivadas son continuas en t = 0.
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a:
n−1
X
g(t) = bi ρ i hgo (t)iµ(t) (3.61)
i=0
que resulta ser go (t) = 14 +C1 e−4t +C2 e−t . Este resultado se puede obtener
con el siguiente código:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve(eds);
1
go (0) = 0 = + C1 + C2 (3.65)
4
ρ hgo (t)i|t=0 = 0 = −4C1 − C2 (3.66)
52 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
1
respuesta a $\delta (t)$ de donde C1 = 12 y C2 = − 13 . Nuevamente, este resultado se puede obten-
respuesta! a impulso
er a través del siguiente código:
Maple
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
1 1 −4t
g(t) = 2go (t) − ρ hgo (t)i = + e − e−t (3.67)
2 2
222
ello no es aconsejable dada la especial naturaleza del delta Dirac. En efecto, ésta convolución
se~
nal causal
no es, en rigor, una función y no es diferenciable, por lo cual ocurren situaciones
paradójicas. Por último, desde el punto de vista meramente instrumental es
mucho más simple calcular la respuesta a impulso usando la transformación de
Laplace, como se verá en el Capitulo 7.
dg(t)
h(t) = = −2e−4t + e−t ∀t ≥ 0 (3.69)
dt
222
Es importante anotar que las condiciones iniciales de un sistema son valores
conocidos para t = t−
o , pero las señales pueden ser discontinuas en t = t o . Esto
es lo que ocurre en el Ejemplo 3.8, donde:
En una perspectiva más general, podemos observar que dada la relación entre
la respuesta a impulso y la respuesta a escalón, y considerando que esta última
contiene una combinación lineal de los modos naturales del sistema y una con-
stante, entonces h(t) contiene sólo modos naturales. Conceptualmente, es
ésta la caracterı́stica que confiere especial importancia a las respuestas a escalón
e impulso. En rigor, la respuesta a excitaciones más complejas también contiene
una combinación de modos naturales (a través de la componente homogénea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente sección una utilidad inmediata de estas considera-
ciones.
Z t
y(t) = f (τ )h(t − τ ) dτ ∀t ≥ 0 (3.71)
0
Demostración
Sea i ∈ N y sea ∆ un incremento temporal, entonces, usando la propiedad
de invarianza en el tiempo, tenemos que:
Z ∞ Z ∞
y(t) = f (τ )h(t − τ ) dτ = f (t − τ )h(τ ) dτ ∀t ≥ 0 (3.76)
−∞ −∞
Z ∞ Z ∞
f1 (t) ∗ f2 (t) = f1 (τ )f2 (t − τ ) dτ = f1 (t − τ )f2 (τ ) dτ (3.77)
−∞ −∞
Ejemplo 3.9. Un sistema lineal tiene una respuesta a impulso unitario, con transformada de Fourier
transformada de Laplace
condiciones iguales a cero, dada por h(t) = e−2t µ(t). Determine, usando con-
volución la respuesta a la señal u(t) = µ(t) − µ(t − 1).
Solución
La respuesta está dada por:
Z t
y(t) = u(t) ∗ h(t) = h(τ )u(t − τ )dτ
−∞
Z t
= e−2τ µ(τ )(µ(t − τ ) − µ(t − 1 − τ )dτ (3.79)
−∞
Z 0
u(τ )h(t − τ )dτ = 0 t<0
Z−∞
t
1
u(t) ∗ h(t) = u(τ )h(t − τ )dτ = (1 − e−2t ) 0≤t<1 (3.80)
2
Z0 1
1
u(τ )h(t − τ )dτ = (e−2(t−1) − e−2t ) 1≤t
0 2
222
Como se puede apreciar, el cálculo mismo de la convolución es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
establece un nexo fundamental con el análisis mediante las transformadas de
Fourier y de Laplace (Capı́tulos 6 y 7, respectivamente).
De igual forma, la respuesta de un sistema lineal e invariante en el tiempo
se puede calcular a partir de la respuesta a escalón, como se demuestra en el
siguiente lema.
56 CAPÍTULO 3. ANÁLISIS EN TIEMPO CONTINUO
Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escalón unitario de entrada, con condiciones ini-
ciales iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitación u(t) está dada por:
du(t)
y(t) = g(t) ∗ (3.81)
dt
Demostración
La demostración sigue la misma lı́nea que el lema anterior. En primer lugar,
tenemos que la señal de entrada u(t) puede ser expresada aproximadamente
como la suma de escalones de altura diferencial, es decir3 :
∞
X u((i + 1)∆) − u(i∆)
ũ(t) = µ(t − i∆)∆ (3.82)
i=−∞
∆
donde ũ(t) tiende a u(t) cuando ∆ tiende a cero. Por otro lado:
222
3 Note que el lı́mite superior de la suma es ∞ aunque los sumandos para i > t/∆ son cero,
λ2 + aλ + 4 = 0 (3.90)
0.7
0.6
0.5
0.4
g(t)
0.3
0.2
0.1
0
0 5 10 15
Tiempo [s]
Sistema 1 Sistema 2
2 4
1.5 3
1 2
Eje imaginario
Eje imaginario
0.5 1
0 0
−0.5 −1
−1 −2
−1.5 −3
−2 −4
−2 −1.5 −1 −0.5 0 0.5 1 −3 −2 −1 0 1
Eje real Eje real
1
3
C 2
R1 4
1
1 3
3
2 vc (t) +
+
R2 vo (t) 2 Avc (t)
vf (t) 4
Capı́tulo 4
4.1. Introducción
Para variables definidas solo en instantes discretos de tiempo, no es posible
definir la derivada, por tanto, la herramienta para describir sus variaciones en
el tiempo es la diferencia entre instantes sucesivos. De esta forma. Para los
sistemas de tiempo discreto el modelo matemático central es la ecuación de
recursión del sistema, ERS, la cual relaciona la entrada del sistema, u[t], con la
salida, y[t]. Para el caso de modelos linealizados, la entrada y salida son ∆u[t]
y ∆y[t], respectivamente.
La ERS es una descripción cuantitativa del sistema especialmente útil para
el análisis numérico del mismo. Esto guarda relación con la naturaleza de los
algoritmos computacionales, en los que una iteración se basa en los resultados
de la iteración anterior. Por otro lado, una ERS surge también cuando se dis-
cretiza el modelo para un sistema lineal de tiempo continuo. El estudio de las
propiedades de la solución que realizaremos en este capı́tulo será complementa-
do cuando, en capı́tulos posteriores, se usen la transformada de Fourier discreta,
y la transformada Zeta.
En este capı́tulo, análogamente a lo que se hizo en el capı́tulo precedente,
se desarrollan herramientas de análisis que establecen relaciones estrechas entre
propiedades cuantitativas y cualitativas de los sistemas lineales (de tiempo dis-
creto). En particular, interesa cuantificar y construir indicadores de propiedades
relevantes tales como comportamiento natural, estabilidad, velocidad relativa y
ganancia.
61
62 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
causalidad Esta forma de la ERS es una forma en la que la causalidad se cumple sin
condiciones iniciales
operador adelanto condiciones para cualquier par de enteros positivos n y m. Esto se aprecia por
promedio móvil el hecho que la salida y[t] no depende de valores futuros de la entrada, aunque
sı́ podrı́a depender de valores presentes de la entrada.
Cuando la salida depende sólo de valores pasados de la entrada (bm = 0), se
habla de sistemas estrictamente causales.
La solución a esta ecuación debe cumplir además con las restricciones que
imponen las condiciones o estado inicial. Estas condiciones iniciales se refieren
usualmente a un conjunto de n valores y[i ], y[i − 1], . . ., y[i − n + 1], donde
i = −1 o, alternativamente1 i = n − 1. Note que estas alternativas no encierran
aspectos conceptuales, sino que reflejan el hecho que la elección del instante
inicial es arbitraria. Una generalización más amplia dice que la ecuación (4.1)
puede ser resuelta si conocemos, aparte de la entrada u[t], un conjunto de valores
de la salida y[t] en cualquier conjunto de n instantes.
Ası́ como ocurre con los sistemas de tiempo continuo, conviene usar una
notación compacta, tipo operador, para denotar la operación corrimiento tem-
poral. Por esa razón, introducimos el operador adelanto temporal, q definido
por
4
qhf [t]i = qf [t] = f [t + 1] (4.2)
q hf [t]i = q n f [t] = f [t + n]
n
(4.3)
q −` hf [t]i = q −` f [t] = f [t − `] (4.4)
222
equilibrio estable Observamos en (4.11) que la salida y[t] no puede variar arbitrariamente, sino
sistema! inestable
que existe una restricción. Esa restricción dice que en un instante arbitrario,
t = t1 , la salida menos la mitad de la salida en un instante anterior debe ser
igual al valor que tenı́a la entrada un instante anterior, u[t1 −1]. Para estudiar la
evolución de la salida del sistema conviene re-escribir (4.11) en la forma siguiente
yp [t]
La componente particular yp [t] es una función, independiente de las condi-
ciones iniciales, que debe satisfacer (3.16) con u[t] = 1. Como la entrada es una
constante, una solución tentativa es suponer que la solución particular también
es constante, digamos yp [t] = Co . Si esta suposición es correcta, entonces existe
Co constante que satisface (4.16) y puede ser calculada reemplazando yp [t] = Co
y u[t] = 1 en (4.16):
Co − 0, 5Co = 1 =⇒ Co = 2 (4.19)
Entonces la solución completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La
constante C se calcula de modo que y[−1] = −1:
3
y[−1] = −1 = 2 + C(0, 5)−1 =⇒ C = − (4.20)
2
Por lo tanto la solución completa está dada por:
3
y[t] = 2 − (0, 5)t (4.21)
2
222
66 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
Lema 4.1. La función f [t] = Cλto (λo 6= 0) satisface (4.22) para cualquier
constante C ∈ C si y sólo si λo ∈ C satisface la ecuación caracterı́stica
asociada a la ecuación homogénea:
4
pq (λ) = λn + an−1 λn−1 + . . . + a1 λ + a0 = 0 (4.23)
donde:
X
pq (λ) = a` λ` con an = 1 (4.24)
`=0
222
Supongamos que las n raı́ces de pq (λ) son distintas, entonces la solución
homogénea tiene la forma:
n
X
yh [t] = Ci λti (4.26)
i=1
Un caso más complejo ocurre cuando algunas raı́ces de pq (λ) son repetidas.
El lema que sigue se refiere al caso de raı́ces dobles.
Lema 4.2. Si el polinomio caracterı́stico pq (λ) tiene una raı́z doble, digamos
en λ = λ1 , entonces la función f2 [t] = Ctλt1 satisface la ecuación homogénea
(4.22).
Demostración
Primero notamos que si pq (λ) tiene una raı́z doble en λ = λ1 , entonces:
n
d pq (λ) X
= a` `λ`1 = 0; con an = 1 (4.27)
dλ λ=λ1
`=0
4.3. LA RESPUESTA DEL SISTEMA 67
Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.22), para de- respuesta particular
solución particular
mostrar que es igual a cero. constantes indeterminadas
n
X n
X
a` yh [t − n + `] = a` (t − n + `)λt−n+`
1 (4.28)
`=0 `=0
n
X n
X
= (t − n)λt−n
1 a` λ`1 + λ1t−n+1 a` `λ`−1
1 (4.29)
`=0 `=0
d pq (λ)
= (t − n)λt−n
1 pq (λ1 ) +λ1t−n+1 (4.30)
| {z } dλ λ=λ1
0 | {z }
0
222
El lector es invitado a demostrar el siguiente lema.
222
De los resultados precedentes se puede ver que la ecuación homogénea tiene
infinitas soluciones, las que pueden describirse genéricamente como una familia.
Los miembros de esta familia se diferencian por los valores numéricos especı́ficos
que se pueden escoger para un conjunto de n constantes indeterminadas. De
la ecuación (4.22) se observa que podemos escoger libremente un conjunto de
valores arbitrarios para y[−1], y[−2], . . ., y[−n]. Por cada conjunto elegido hay
una solución distinta.
Por su parte, la componente o solución particular es una función del tiempo
completamente determinada, es decir, independiente de las condiciones iniciales,
y que satisface la ecuación (3.1). La solución completa y[t] = yh [t] + yp [t] queda
totalmente determinada al usar las condiciones iniciales, aplicadas a la res-
puesta completa, y[t], para calcular las constantes indeterminadas presentes
en yh [t].
Si las soluciones de (4.23) son λ1 , λ2 , . . . λp con multiplicidad n1 , n2 , . . . ,
np respectivamente, tal que n1 + n2 + . . . + np = n, entonces la forma general
de yh [t] es:
p X
X nt
yh [t] = C`i ti−1 λt` (4.31)
`=1 i=1
donde los C`i son constantes arbitrarias (constantes indeterminadas) que gener-
an los grados de libertad necesarios para que la respuesta completa satisfaga
las condiciones iniciales.
68 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
frecuencias naturales Los valores de λ que satisfacen (4.23) son conocidos como autovalores, valores
modos naturales
modo forzante propios o frecuencias naturales del sistema. Como la ecuación caracterı́stica
modo forzante!ganancia a de la ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre
ganancia! a modo forzante ocurren en pares conjugados.
modo forzado
A su vez, la funciones temporales de la forma:
X̀
u[t] = Bi βit (4.33)
i=1
donde los βi0 s son distintos enter sı́ y ninguno de ellos coincide con alguna
frecuencia natural. Cada una de las funciones βit recibe el nombre de modo
forzante.
Se puede verificar, usando la linealidad del sistema, que la solución particu-
lar, yp [t], está dada por:
X̀
yp [t] = ypi [t]; con ypi [t] = Ki Bi βit (4.34)
i=1
ganancia
z ganancia! a continua
Figura 4.1: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso decreciente).
Figura 4.2: Relación entre la ubicación de las frecuencias naturales (de multi-
plicidad uno) y los modos naturales (caso no decreciente).
π π
donde β1 = 1, β2 = ej 4 y β3 = e−j 4 , es decir, hay tres modos forzantes
presentes. Las ganancias están dadas por (4.35), y para este caso particular:
b0 2
K1 = = =4 (4.38)
β1 + a 0 0, 5
b0 β2−1
K2 = = 0, 7630 − j2, 605 = 2, 7144e−j1,286 (4.39)
1 + a0 β2−1
b0 β2−1
K3 = = 0, 7630 + j2, 605 = 2, 7144ej1,286 (4.40)
1 + a0 β2−1
222
El tratamiento general de la solución particular será pospuesto para capı́tulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
4.3. LA RESPUESTA DEL SISTEMA 71
estabilidad
Los sistemas lineales exhiben ganancias distintas para modos forzantes dis- cı́rculo unitario
tintos, y esta capacidad de discriminación es la base para el análisis y diseño disco unitario
de sistemas de procesamiento de señales y para otras aplicaciones.
4.3.4. Estabilidad
Como ya hemos mencionado, los modos naturales describen aspectos es-
enciales de un sistema lineal. En primer lugar, los modos naturales guardan
estrecha relación con la idea de estabilidad. Intuitivamente podemos definir
un sistema lineal (o, mejor dicho, un modelo lineal) como estable si todas las
variables (señales) del sistema permanecen acotadas ante cualquier excitación
acotada o estado inicial acotado. Si consideramos sólo el efecto de condiciones
iniciales, resulta que la estabilidad requiere que los modos naturales sean todos
acotados. Sin embargo, veremos que la estabilidad de un sistema requiere que
todos los modos naturales decaigan en el tiempo.
Como cada modo natural depende de una frecuencia natural, son éstas, es
decir, las raı́ces de la ecuación caracterı́stica, las que determinan la estabilidad
del sistema. Consideremos el caso de un modo de la forma genérica:
velocidad Ejemplo 4.6. Sea un sistema cuya ERS está dada por:
frecuencia natural!dominante
modo natural!dominante
y[t] − y[t − 1] = 2u[t − 1] (4.43)
Entonces el sistema tiene sólo una frecuencia natural, y ella está ubicada
en λ = 1, esto significa que el modo natural que aparecerá en la respuesta del
sistema es λt = 1. Ası́, la respuesta homogénea es yh [t] = C1 . Supongamos que
la entrada es una constante ∀t ≥ 0, digamos u[t] = Uo , entonces la componente
particular de la respuesta es yp [t] = 2Uo t. De esa forma la respuesta completa es
y[t] = C1 + 2Uo t donde C1 debe calcularse para satisfacer la condición inicial.
En todo caso, lo relevante de este ejemplo es que aunque la entrada es una
simple constante, la salida crece en forma no acotada a medida que el tiempo
evoluciona. El sistema es, entonces, inestable.
Podemos apreciar mejor la naturaleza de este sistema, si (4.43) es escrita
como:
4.3.5. Velocidad
Un segundo aspecto de interés en relación con las frecuencias y modos nat-
urales guarda relación con la velocidad con que evolucionan las variables de un
sistema.
Dentro de la clase de sistemas estables, podemos distinguir diferencias no-
tables, no sólo por la distinta naturaleza de los valores propios, sino por las
velocidades comparativas a las que decaen las componente homogéneas de la
respuesta de los distintos sistemas. Por ejemplo, consideremos dos sistemas con
las componentes homogénas que se indican:
Vemos que yh1 [t] está dominada por el modo natural 0, 9t , pues esta señal de-
cae más lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] está dom-
inada por el modo natural 0, 7t , el que decae más lentamente que el modo 0, 2t .
Ası́ diremos que el Sistema 1 tiene una frecuencia natural dominante igual
a 0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7 t .
Al comparar ambos sistemas podemos concluir, en primera aproximación, que
el Sistema 1 es más lento que el Sistema 2, porque su modo dominante decae
más lentamente.
4.3. LA RESPUESTA DEL SISTEMA 73
yu [t]
La respuesta a entrada, yu [t], es una solución para (4.52) con u[t] = 1, y
sujeta a yu [−1] = 0.
De esta forma, la solución completa es
Maple
>rsolve({y(n)=0.5*y(n-1)+1, y(-1)=-1},y(t));
De esta forma, podemos ahora completar la Tabla 4.1 para el caso de las respuesta transitoria
respuesta estacionaria
soluciones obtenidas para este ejemplo. Esto se muestra en la Tabla 4.2.
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
Note que aunque las condiciones iniciales sean cero, los modos naturales
igual se encuentran presentes en la respuesta del sistema a través de la respuesta
debida a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria
corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo
desde el instante inicial. Por su parte la respuesta transiente es aquella parte de
la respuesta que se extingue con el tiempo.
En el ejemplo 3.6 en la página 47, la respuesta estacionaria está dada por el
modo forzado constante, mientras que la respuesta transitoria está formada por
los modos naturales (sinusoidales amortiguadas).
La separación en componentes estacionaria y transitoria es transversal a
la idea de modos naturales y modos forzados. La respuesta estacionaria puede
existir incluso si la entrada es cero. En ese caso está formada exclusivamente por
modos naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales
y la entrada es una exponencial decreciente, entonces la respuesta estacionaria
contendrá los modos naturales sinusoidales y la respuesta transitoria incluirá el
modo forzado por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el cor-
respondiente modo forzado no aparecerá en la respuesta estacionaria.
76 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
Note que go [t] contiene una parte natural u homogénea (combinación lineal
de modos naturales de la forma (4.31)) y una componente particular o
forzada. Cuando el sistema no tiene frequencias naturales en λ = 1, go [t]
tiene la forma:
p X̀
X n
go [t] = Ko + C`i ti−1 λt` ∀t ≥ −n (4.60)
`=1 i=1
1
Ko = Pn ; con an = 1 (4.61)
i=0 ai
p X̀
X n
go [t] = Kp tp−1 + C`i ti−1 λt` ∀t ≥ −n (4.62)
`=1 i=1
Paso 3 Calcule las constantes C`i usando la restricción de las condiciones ini-
ciales iguales a cero, es decir, usando el hecho que:
q −` go [t]|t=0 = 0 ` = 0, 1, . . . , n − 1 (4.63)
m
X
g[t] = bm go [t] + bm−i q −i go [t]µ[t − i ] (4.64)
i=1
10 10
go [t − 1] = + C1 (0, 5)t−1 + C2 (0, 4)t−1 = + 2C1 (0, 5)t + 2, 5C2 (0, 4)t
3 3
(4.67)
10 10
go [t − 2] = + C1 (0, 5)t−2 + C2 (0, 4)t−2 = + 4C1 (0, 5)t + 6, 25C2 (0, 4)t
3 3
(4.68)
10
go [−1] = 0 = + 2C1 + 2, 5C2 (4.69)
3
10
go [−2] = 0 = + 4C1 + 6, 25C2 (4.70)
3
78 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
10 8
go [t] = − 5(0, 5)t + (0, 4)t ∀t ≥ −2 (4.71)
3 3
Maple
>ers:=go(n)-0.9*go(n-1)+0.2*go(n-2)-1;
>rsolve({ers,go(-1)=0,go(-2)=0},go(t));
222
convolución
h[t] = 10 − 20(0, 5)t + 12(0, 4)t − 10 + 20(0, 5)t−1 − 12(0, 4)t−1 (4.79)
t t
= 20(0, 5) − 18(0, 4) ∀t ≥ 0 (4.80)
222
En una perspectiva general, podemos observar que dada la relación entre la
respuesta a impulso y la respuesta a escalón, y considerando que esta última
contiene una combinación lineal de los modos naturales del sistema y una con-
stante, entonces h[t] contiene sólo modos naturales. Conceptualmente, es
ésta la caracterı́stica que confiere especial importancia a las respuestas a escalón
e impulso. En rigor, la respuesta a excitaciones más complejas también contiene
una combinación de modos naturales (a través de la componente homogénea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente sección una utilidad inmediata de estas considera-
ciones.
se~
nal causal una excitación causal7 arbitaria, u[t], con condiciones iniciales iguales a cero,
está dada por:
t
X
y[t] = u[`]h(t − `) ∀t ≥ 0 (4.81)
`=0
Demostración
Recordemos que toda señal u[t] puede expresarse por:
∞
X
u[t] = u[`]δ[t − `] (4.82)
`=0
222
En la ecuación (4.86) y[t] se puede interpretar como una suma ponderada
(por u[`]) de respuestas a impulso h[t − `].
Note que dado que u[t] y h[t] son causales, entonces, la ecuación (4.81)
también se puede escribir como:
∞
X ∞
X
y[t] = u[`]h[t − `] = u[t − `]h[`] ∀t ≥ 0 (4.87)
`=−∞ `=−∞
Las sumas que aparecen en la ecuación (4.87) son una expresión de la con-
volución de dos funciones temporales. La definición genérica es:
∞
X ∞
X
f1 [t] ∗ f2 [t] = f1 [`]f2 [t − `] = f1 [t − `]f2 [`] (4.88)
`=−∞ `=−∞
∞
X ∞
X
u[t]∗δ[t−to ] = u[`]δ[t−to −`] = u[t−to ]δ[t−to −`] = u[t−to ] (4.91)
`=−∞ `=−∞
t
X
y[t] = u[t] ∗ h[t] = u[`]h[t − `]
`−∞
t
X
= (0, 5)t−` µ[t − `](µ[`] − µ[` − 3]) (4.92)
`−∞
transformada de Fourier
transformada Zeta −1
X
u[`]h[t − `]d` = 0 t<0
`=−∞
X t
u[t] ∗ h[t] = u[`]h[t − `]d` = 2 − (0, 5)t 0≤t<3 (4.93)
`=0
2
X
u[`]h[t − `]d` = 7(0, 5)t t≥3
`=0
222
Como se puede apreciar, el cálculo mismo de la convolución es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia
de la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro,
es un nexo de conexión con el análisis en el dominio de las transformadas de
Fourier discreta y Zeta (Capı́tulos 6 y 8, respectivamente).
La convolución en tiempo discreto es ampliamente usada para construir la
respuesta de sistemas lineales, invariantes en el tiempo y causales, cuando se
conoce la respuesta a un impulso unitario. Esto se debe a la simplicidad de las
expresiones del Lema 4.4.
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular
a partir de la respuesta a escalón, como se muestra en el el siguiente lema.
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la
respuesta de ese sistema a un escalón unitario de entrada, con condiciones ini-
ciales iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones
iniciales iguales a cero, a una excitación u[t] está dada por:
y[t] = u[t] ∗ (g[t] − g[t − 1]) = g[t] ∗ (u[t] − u[t − 1]) (4.96)
Demostración
Dado que δ[t] = µ[t] − µ[t − 1], entonces, por linealidad e invarianza, la
respuesta h[t], a un impulso unitario puede expresarse como:
222
84 CAPÍTULO 4. ANÁLISIS EN TIEMPO DISCRETO
4.3.1 Proponga una ERS de modo que f [t] corresponda (∀t ≥ 0) a la respuesta
del sistema a impulso con condiciones iniciales iguales a cero.
λ2 + aλ + b = 0 (4.113)
1.5
1
g[k]
0.5
0
−1 0 1 2 3 4 5 6 7 8 9 10
Tiempo [s]
+
i0 i1 in−2 in−1 in
E
Capı́tulo 5
2
y(t) = Au(t) + (u(t)) (5.1)
De esta forma, podemos apreciar que la salida del sistema contiene tres
sinusoides de distinta frecuencia (0, ω y 2ω [rad/s]), que deben ser consideradas
cuando esta señal actúa como entrada de otro sistema.
Otros casos en que aparecen señales periódicas no sinusoidales incluyen el
corte de señales sinusoidales (cuando la amplitud de una sinusoide excede cierto
87
88 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
ej(ωt+φ) + e−j(ωt+φ)
A cos(ωt + φ) = A = αejωt + α∗ e−jωt (5.5)
2
donde α ∈ C, α∗ es el complejo conjugado de α y
A jφ
e α= (5.6)
2
Por otra parte sabemos que si K(ω) ∈ C es la ganancia al modo forzante
ejωt , entonces, por linealidad:
5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO89
sistema! estable
modos naturales
∗
Thhxo , A cos(ωt + φ)ii = K(ω)αejωt + (K(ω)) α∗ e−jωt + {modos naturales}
(5.7)
Donde K(ω) es la ganancia a modo forzante y dada por (3.24), con βi = jω.
Si expresamos K(ω) en su forma polar se llega a:
d 2 y(t) d y(t)
+4 + 13y(t) = 26u(t)
dt 2 dt
Supongamos que la entrada es u(t) = sen(ωt) y que todas las condiciones
iniciales son cero.
El sistema en primer lugar es estable, ya que sus frecuencias naturales se
encuentran ubicadas en λ1,2 = −2 ± j3. Con esto sabemos entonces que la
solución homogénea tiene la forma:
respuesta en frecuencia Los coeficientes C1 (ω) y C2 (ω) se obtienen reemplazando la solución par-
ticular propuesta y la función de entrada en la ecuación diferencial original y
derivando:
− C1 (ω)ω 2 cos(ωt) − C2 (ω)ω 2 sen(ωt) + 4C2 (ω)ω cos(ωt) − 4C1 (ω)ω sen(ωt)
+ 13C1 (ω) cos(ωt) + 13C2 (ω) sen(ωt) = 26 sen(ωt) (5.14)
−104ω
C1 (ω) = (5.15)
(13 − ω 2 )2 + (4ω)2
26(13 − ω 2 )
C2 (ω) = (5.16)
(13 − ω 2 )2 + (4ω)2
p
As (10) = C1 (10)2 + C2 (10)2 = 0,272 (5.18)
o
φs (10) = ∠(C2 (10) + jC1 (10)) = −2, 7106 [rad] ≈ −155, 31 (5.19)
Una manera más directa para obtener una descripción genérica de los resul-
tados anteriores serı́a calcular la respuesta en frecuencia K(ω), la que, en este
caso particular, está dada por:
26
K(ω) = |K(ω)|ejφa (ω) = (5.20)
(jω)2 + 4jω + 13
La magnitud y fase de esta respuesta en frecuencia aparecen en la Figura
5.2. En esta figura los valores de magnitud y fase de K(10) se pueden calcular
usando el comando de Matlab ginput, el resultado es |K(10)| = 0, 2734 y
φa (10) = −2, 7188 [rad] (note que, en este ejemplo, A = 1).
222
5.2. RESPUESTA A ENTRADA SINUSOIDAL. EL CASO DE TIEMPO CONTINUO91
0.5
−0.5
−1
0 1 2 3 4 5 6
2.5 0
2 −0.5
−1
1.5
|K(ω)|
φa(ω)
−1.5
1
−2
0.5 −2.5
0 −3
0 5 10 15 20 0 5 10 15 20
Frecuencia [rad/s] Frecuencia [rad/s]
d 2 y(t) d y(t)
+ 0, 01 + 4y(t) = 4y(t) (5.21)
dt 2 dt
1 Un caso tradicionalmente analizado en la fı́sica de las oscilaciones es el colapso del Puente
Tacoma en EE.UU.
92 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
222
Finalmente, cuando las frecuencias naturales del sistema se encuentran fuera
de la zona de estabilidad, la componente natural de la respuesta es no acotada.
Sin embargo, la componente forzada sigue siendo una oscilación de la misma
frecuencia que la sinusoide en la entrada. Para apreciar esto se recomienda al
lector analizar el Problema 5.5.
El conjunto definido en (5.23) resulta ser análogo al conjunto de funciones independencia lineal
ortogonalidad
considerados en el Lema B.1 en la página 346, dado que son linealmente in- Serie de Fourier
dependientes , pues ninguna de las sinusoides (o la constante) del conjunto frecuencia fundamental
puede describirse como una combinación lineal de las demás. Además definimos
el producto interno en este espacio de funciones como la integral:
Z T
2
hf (t), g(t)i = f (t)∗ g(t)dt f (t), g(t) ∈ B (5.24)
− T2
∞
X 2π
y(t) = A0 + [An cos(nω0 t) + Bn sen(nω0 t)] ; ω0 = (5.26)
n=1
T
Z T
1 2
A0 = y(t)dt
T − T2
Z T
2 2
An = y(t) cos(nω0 t)dt (5.27)
T − T2
Z T
2 2
Bn = y(t) sen(nω0 t)dt
T − T2
espectro! en frecuencia
armónicas ∞
X
desfase
y(t) = A0 + C̃n cos(nω0 t − φn ) (5.28)
ángulo! de desfase
espectro! de lı́nea n=1
en que:
p
C̃n = A2n + Bn2 (5.29)
Bn
φn = arctg (5.30)
An
1
Señal y(t)
−1
−2
−6 −4 −2 0 2 4 6
Tiempo [s]
Este resultado era previsible dada la simetrı́a de áreas sobre y bajo el eje de
abscisas.
Z T
2 2
An = y(t) cos(nωo t) dt
T − T2
Z 0 Z 2
1 1
=− 2 cos(0, 5nπt) dt + 2 cos(0, 5nπt) dt = 0 (5.32)
2 −2 2 0
Z T Z Z
0 2
2 2 1 1
Bn = y(t) sen(nωo t) dt = − 2 sen(0, 5nπt) dt+ 2 sen(0, 5nπt) dt
T − T2 2 −2 2 0
Z t
2
4 4
=2 sen(0, 5nπt) dt = − cos(0, 5nπt) = (1 − cos(nπ)) (5.33)
0 nπ nπ
0
3
Amplitud de las armónicas
2.5
1.5
0.5
0
0 2 4 6 8 10 12
Frecuencia angular, en múltiplos de ωo
0.8
0.6
0.4
0.2
0
0 0.005 0.01 0.015 0.02 0.025 0.03
Time [s]
Maple
> assume(0<alpha,alpha<1):
> y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
> A_0:=1/Pi*int(y(t),t=0..Pi);
> assume(n,integer):
> A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
> B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
5.3. SERIES DE FOURIER PARA SEÑALES DE TIEMPO CONTINUO 97
1 + cos(α)
A0 =
π
2
1 + 2 cos(α) (cos(α n)) − cos(α) + 4 n sen(α) sen(α n) cos(α n)
An = −2
(1 + 2 n) π (−1 + 2 n)
2
− cos(α) sen(α n) cos(α n) + 2 n sen(α) (cos(α n)) − n sen(α)
Bn = 4
(1 + 2 n) π (−1 + 2 n)
222
Maple
> y(t):=convert(piecewise(t<-2,-t-3,t<0,t+1,t<2,-t+1,t-3),Heaviside);
Maple
> A(n):=1/2*int(y(t)*cos(n*Pi/2*t),t=-2..2);
1
Señal y aproximación
0.5
−0.5
−1
−6 −4 −2 0 2 4 6
Tiempo [s]
1
Amplitud de las armónicas
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
Frecuencia angular, en múltiplos de ωo
0.1
0.05
y(t)
–4 –3 –2 –1 1 2
t
3 4 eN (t)
–0.05
yN (t)
–0.1
(a) Error e3 (t) = y(t) − y3 (t) . (b) Interpretación geométrica del error
Figura 5.8:
en que los fk (t) son vectores de la base B, el producto (5.37) puede escribirse y
desarrollarse como:
heN (t), yN (t)i = hy(t) − yN (t), yN (t)i = hy(t), yN (t)i − hyN (t), yN (t)i (5.39)
* N
+ *N N
+
X X X
= y(t), αk fk (t) − αk fk (t), αj fj (t) (5.40)
k=1 k=1 j=1
N N
* N
+
X X X
= αk hy(t), fk (t)i − αk fk (t), αj fj (t) (5.41)
k=1 k=1 j=1
N
X N
X
heN (t), yN (t)i = αk hy(t), fk (t)i − αk2 hfk (t), fk (t)i (5.42)
k=1 k=1
hy(t), fk (t)i
αk = (5.43)
hfk (t), fk (t)i
100 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
Por lo tanto:
N N
X hy(t), fk (t)i X hy(t), fk (t)i2
heN (t), yN (t)i = hy(t), fk (t)i− hfk (t), fk (t)i
hfk (t), fk (t)i hfk (t), fk (t)i2
k=1 k=1
N 2 N X hy(t), fk (t)i2
X hy(t), fk (t)i
= − =0 (5.44)
hfk (t), fk (t)i hfk (t), fk (t)i
k=1 k=1
222
Este resultado permite apreciar que yN (t), con los coeficientes calculados
según (5.27), es la combinación lineal que mejor representa a y(t) (en el
sentido de la norma cuadrática), ya que, dada su ortogonalidad con el vector
de error eN (t), minimiza la distancia entre y(t) y el conjunto de funciones que
se generan por combinación lineal de los N elementos de la base. La Figura 5.8
(b) ilustra geométricamente la idea de ortogonalidad entre el error eN (t) y la
representación truncada yN (t).
Finalmente, es importante hacer notar que la representación obtenida en
(5.26), con los coeficientes explicitados en (5.27), representa a la función y(t),
dentro del intervalo [− T2 , T2 ] sea ésta periódica o no. En este último caso la
representación se debe entender válida sólo dentro del intervalo en que se ha
calculado. Sin embargo, dado que dentro del intervalo de longitud T todas las
sinusoides del conjunto B completan un número entero de perı́odos, la period-
icidad de los elementos de B se extiende a la representación de y(t), es decir,
se repite en todo intervalo de la forma [kT − T2 , kT + T2 ] con k ∈ Z. Además
por simple traslación del intervalo en que trabajamos, es decir, corriendo del eje
temporal, el cálculo de los coeficientes y la representación pueden tomarse en
cualquier intervalo arbitrario [to , to + T ]. En todo caso, el lector debe advertir
que si la señal bajo análisis no es periódica, la representación será distinta para
distintas elecciones de to .
∞
X
y(t) = A0 + [An cos(nω0 t) + Bn sen(nω0 t)]
n=1
∞
j0ω0 t
X ejnω0 t + e−jnω0 t ejnω0 t − e−jnω0 t
= A0 e + An + Bn (5.45)
n=1
2 2j
serie de Fourier!exponencial
∞
j0ω0 t
X An − jBn jnω0 t An + jBn −jnω0 t
y(t) = A0 e + e + e (5.46)
n=1
2 2
" Z T Z T2 #
An − jBn 1 2 2 2
Cn = = y(t) cos(nω0 t)dt − j y(t) sen(nω0 t)dt
2 2 T − T2 T − T2
Z T2
1
= y(t)(cos(nω0 t) − j sen(nω0 t))dt (5.48)
T − T2
Se deja al lector verificar que esta expresión también es válida para el resto
de los coeficientes Cn , cuando n ≤ 0. Si se presta atención a la forma de los coe-
ficientes en la ecuación (5.46), puede apreciarse que aparecen en pares complejos
conjugados, es decir, ∀n > 0:
An − jBn
Cn = = |Cn |ejθn (5.50)
2
An + jBn
C−n = = |Cn |e−jθn (5.51)
2
tal como también puede demostrarse a partir de la expresión general (5.49)
para los coeficientes de la serie compleja. Es decir, tenemos un nuevo conjunto
de funciones, complejas en este caso, de la forma:
2π
{ejnω0 t }n∈Z ; ω0 = (5.52)
T
que constituye una base para el espacio de funciones seccionalmente continuas
en el intervalo [− T2 , T2 ]. Se deja al lector verificar que este conjunto también es
ortogonal bajo el producto interno antes definido, pero en que ahora la conju-
gación sı́ afecta a las funciones involucradas:
102 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
Parseval
Parseval
Z T Z T
2 2
hfn (t), fm (t)i = fn (t)∗ fm (t)dt = e−jnω0 t ejmω0 t dt (5.53)
− T2 − T2
Note que el lado izquierdo en (5.57) representa el cuadrado del valor efectivo sinusoidal
amplitud
de la señal periódica. \’angulo! de desfase
Para la serie de Fourier trigonométrica, usando la misma definición del pro- fase
ducto interno (5.24), la expresión (5.57) se reduce a: perı́odo
frecuencia! angular
Z T /2 ∞ frecuencia
1X 2
(y(t))2 dt = A2o + (A` + B`2 ) (5.58)
−T /2 2
`=0
2π
u[t] = A cos(θt + φ); con θ = (5.61)
N
en que (vea Capı́tulo 2):
ej(θt+φ) + e−j(θt+φ)
A cos(θt + φ) = A = αejθt + α∗ e−jθt (5.62)
2
104 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
∗
Thhxo , A cos(θt + φ)ii = K(θ)αejθt + (K(θ)) α∗ e−jθt + {modos naturales}
(5.64)
Donde K(θ) es la ganancia a modo forzante y está dada por (4.35), con
βi = ejθ . Si expresamos K(θ) en su forma polar se llega a:
1, 5e2jθ
K(θ) = (5.72)
e2jθ − 0, 7ejθ + 0, 12
Esta respuesta en frecuencia puede ser representada gráficamente, como se
muestra en la Figura 5.9
4 1
3.5
0.5
3
2.5
|K(ω)|
φ (ω)
0
a
1.5
−0.5
1
0.5 −1
0 2 4 6 8 0 2 4 6 8
Frecuencia angular discreta [rad] Frecuencia angular discreta [rad]
222
Análogamente a lo que ocurre en el caso de tiempo continuo, en ciertos
sistemas, a pesar de tener todas sus frecuencias naturales en el interior de la zona
de estabilidad, la respuesta a sinusoides de baja amplitud incluye componentes
sinuosidales de altı́sima amplitud. Esto sucede en situaciones en que el sistema
es excitado con una sinusoide de frecuencia muy cercana a frecuencias naturales
que se encuentran al interior del disco unitario, pero muy próximas al lı́mite de
estabilidad (en este caso, la circunferencia unitaria). En este caso, dependiendo
del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario
sólo después de mucho tiempo, y aunque analı́ticamente la oscilación en la salida
permanece acotada, puede alcanzar magnitudes insostenibles para el sistema
real.
106 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
2π
θ0 = (5.76)
N
y las frecuencia armónicas corresponden a los múltiplos de la frecuencia fun-
damental θ0 . Sin embargo, si observamos con atención la forma que toman las
exponenciales imaginarias para cada armónica veremos que:
2π 2π 2π
ejθ0 (`+N )t = ej N (`+N )t = ej N `t ej2πt = ej N `t (5.77)
5.5. SERIE DE FOURIER DE TIEMPO DISCRETO 107
N
X −1
hejθ0 n1 t , ejθ0 n2 t i = (ejθ0 n1 t )∗ ejθ0 n2 t (5.81)
t=0
N
X −1
= ejθ0 (−n1 +n2 )t (5.82)
t=0
Pero según (5.76) tenemos que N θ0 = 2π, y n1 y n2 son números enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:
1 − ej2π(−n1 +n2 )t
hejθ0 n1 t , ejθ0 n2 t i = =0 (5.84)
1 − ejθ0 (−n1 +n2 )
y si n1 = n2 = n:
N
X −1 N
X −1
jθ0 nt jθ0 nt jθ0 nt 2 −jθ0 nt jθ0 nt
he ,e i = ke k = e e = 1=N (5.85)
t=0 t=0
108 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
N −1
hejθ0 nt , y[t]i 1 X 2π
Cn = = y[t]e−jθ0 nt ; θ0 = (5.86)
hejθ0 nt , ejθ0 nt i N t=0 N
N −1 N −1
1 X 1 X
CN −` = y[t]e−jθ0 (N −`)t = y[t]e−jθ0 N t ejθ0 `t
N t=0 N t=0
N −1 N −1
1 X 1 X
= y[t]ejθ0 `t = (y[t]e−jθ0 `t )∗ = (C` )∗ (5.87)
N t=0 N t=0
La serie de Fourier para una señal de tiempo discreto puede ser descrita en espectro de lı́nea
matriz! de Fourier
un gráfico en que aparece |C` | en función de ` ∈ Z. Este diagrama es conocido
como el espectro de lı́nea de la señal de tiempo discreto.
El problema de convergencia de la serie de Fourier para señales de tiempo
discreto tiene un tratamiento mucho más simple que en el caso de tiempo con-
tinuo. Esto se debe a que las amplitudes de las N armónicas se pueden calcular
a partir de un sistema de ecuaciones linealmente independientes de la forma:
y[0] C0
y[1]
C1
y[2]
= WN C2
(5.90)
.. ..
. .
y[N − 1] CN −1
donde el elemento (i, j) de la matriz WN está dado por:
(i−1)(j−1)
[WN ]i,j = ejθ0 (5.91)
Las ecuaciones precedentes permiten calcular los coeficientes que describen
exactamente la señal periódica y[t]. Note que la matriz WN tiene la forma
general:
1 1 1 ··· 1
1
w w2 ··· wN −1
WN = 1
w2 w4 ··· wN −2
(5.92)
.. .. .. .. ..
. . . . .
1 wN −1 wN −2 ··· w
N
X −1
y[t] = α` f` [t] (5.93)
`=0
donde las funciones f` [t] son elementos de una base ortogonal, entonces:
N
X −1
hy[t], y[t]i = |α` |2 hf` [t], f` [t]i (5.94)
`=0
110 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
3 0
2.5 −1
2
−2
|K(ω)|
φ (ω)
1.5
a
−3
1
0.5 −4
0 −5
0 2 4 6 8 10 0 2 4 6 8 10
Frecuencia [rad/s] Frecuencia [rad/s]
3
y(t)
2
Entrada y respuesta
1
−1
u(t)
−2
−3
0 2 4 6 8 10 12 14 16 18 20
Tiempo [s]
−1
; −π < t ≤ 0
(a) y(t) = +1 ;0 < t ≤ π
y(t + 2π) e.t.o.c.
(
t ; −1 < t ≤ 1
(b) y(t) =
y(t + 2) e.t.o.c.
(c) y(t) = |A cos(ωt)|
(d) y(t) = máx{0, A sen(ωt)}
(e) y(t) = 4 sen2 (t) (use identidades trigonometricas)
(f ) y(t) = sen(t) + 6 cos3 (t)(idem)
d y(t)
+ 10y(t) = 10u(t)
dt
Suponga que u(t) es la señal periódica de la Figura 5.12.
2.5
2
1.5
1
u(t)
0.5
0
−0.5
−1
−1.5
0 2 4 6 8 10 12
Tiempo [s]
d 2 y(t) d y(t)
2
+ 2ξωn + ωn2 y(t) = ωn2 u(t)
dt dt
5.4.1 Determine la salida del sistema si la entrada es u(t) = A cos(ωn t).
d y(t)
= y(t) + u(t)
dt
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
114 CAPÍTULO 5. ANÁLISIS BAJO EXCITACIONES PERIÓDICAS
d y(t)
+ 100y(t) = 100u(t) ?
dt
5.7. PROBLEMAS PARA EL LECTOR 115
5.9.2 ¿ Cómo podrı́a extenderse al intervalo [−T, T ] de manera que su serie sea
de la forma:
X∞
y(t) = Bn sen(ωn t) ?
n=1
π
(a) y[t] = sen t
( 3
sen 3t ; t = 0, . . . , 3
(b) y[t] =
y[t + 4] ; e.t.o.c.
(
λt ; λ 6= 1, t = 0, . . . , N − 1
(c) y[t] =
y[t + N ] ; e.t.o.c.
(d) y[t] = (−1)t
−1
; t = −2, . . . , 0
(e) y[t] = 1 ; t = 1, . . . , 3
y[t + 6] ; e.t.o.c.
(f ) y[t] = t mod N
Capı́tulo 6
117
118CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
serie de Fourier
0 0 T
a 0 b a 0 b
a 0 b a 0 b
tiene la forma:
∞
X
f (t) = Cn ejωn t (6.1)
n=−∞
En que:
Z T /2
1
Cn = f (t)e−jωn t dt (6.2)
T −T /2
2π
ωn = nω0 = n (6.3)
T
La ecuación (6.1) es la que describe la función f (t) dentro del interva-
lo [− T2 , T2 ] en términos de las exponenciales periódicas que representan las
diferentes armónicas ωn . Recordemos que la ecuación (6.3) explicita que las
armónicas no son nada más que múltiplos de la frecuencia fundamental ω 0 = 2π T .
Ahora bien, cada uno de los coeficientes definidos por la ecuación (6.2) define
a Cn como función de la frecuencia ωn , es decir:
Cn = Cn (ωn ) (6.4)
Consideremos ahora la función:
ω0 = ωn − ωn−1 = ∆ω (6.7)
la serie se reescribe como:
∞
1 X
f (t) = F (ωn )ejωn t ∆ω (6.8)
2π n=−∞
Z ∞
F {f (t)} = F ( ω) = f (t)e− ωt dt (6.12)
−∞
Z ∞
−1 1
F {F ( ω)} = f (t) = F ( ω)e ωt dω (6.13)
2π −∞
Z ∞
−1
F {F (j2πf )} = F (j2πf )ej2πf t df
−∞
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Con-
sideremos la función f (t) definida en principio periódica en el intervalo [− T2 , T2 ]:
(
A ; |t| ≤ τ /2 < T /2
f (t) = (6.15)
0 ; τ /2 < |t| ≤ T /2
Esta corresponde a un pulso de alto A y ancho τ , centrado en cero, que se
repite en intervalos de longitud T .
Los coeficientes de la serie exponencial de Fourier se pueden obtener sin
problema:
Maple
> assume(T>0,A>0);
> assume(0<tau,tau<T);
> y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
> C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
> C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),
t=-T/2..T/2));
Aτ
C0 = (6.16)
T πnτ
Aτ sen T
Cn = · πnτ ∀n 6= 0 (6.17)
T
T
La transformada de Fourier de y(t) resulta dada por la expresión:
Z ∞ Z τ /2
F ( ω) = y(t)e− ωt dt = Ae− ωt dt (6.18)
−∞ −τ /2
A τ /2 A τ τ
· e− ωt = − (e− ω 2 − e ω 2 )
= (6.19)
− ω −τ /2 ω
2A ωτ
= sen (6.20)
ω 2
122CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
ωτ
sen 2
F ( ω) = Aτ ωτ (6.21)
2
lı́m T Cn = F ( ω) (6.23)
n→∞
222
A pesar de su conexión, existen varias diferencias conceptuales entre la serie
de Fourier y la transformada de Fourier. La primera diferencia importante es
que el espectro de lı́nea que aparece asociado a la serie de Fourier, se convierte,
en el caso de la Transformada de Fourier, en un espectro definido para toda
frecuencia. En forma compacta nos referiremos a este último como el espectro
continuo de la señal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un
conjunto de valores complejos asociados a un conjunto enumerable de frecuencias
(la frecuencia 0 y las frecuencias múltiplos de una frecuencia fundamental), esos
valores complejos determinan la amplitud y fase de las componentes armónicas.
Ese no es el caso de la Transformada de Fourier para señales de tiempo continuo,
ya que la transformada F ( ω) es una medida de densidad o más bien de
intensidad relativa (no absoluta) de la participación de las distintas frecuencias
en la representación de la función. Esta cantidad está definida para todo el eje
de los reales, es decir, para todo ω, ası́, la presencia de una frecuencia ω1 en una
señal f (t) está dada por:
Z ω1+
Y1 = F ( ω)e ωt dω (6.24)
ω1−
Ejemplo 6.2. Para apreciar desde un ángulo distinto las diferencias mencio-
nandas, consideremos la analogı́a de una viga empotrada, cargada con arena fina
y con tres fuerzas puntuales, como se muestra en la Figura 6.3.
La viga tiene un largo L y un ancho A. En la Figura 6.3 la coordenada x
es análoga a la frecuencia angular ω. En primer lugar se aprecian tres fuerzas
no nulas, que actúan en puntos especı́ficos de la viga. Ellas son análogas a los
coeficientes de una serie de Fourier. En segundo lugar se observa la carga de
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO123
Parseval
F1 F2 F3 Parseval
f(x)
arena, con una distribución f (x) [N/m]. Esta distribución captura la irregular-
idad de la distribucicón de la arena a lo largo y a lo ancho de la viga. Se puede
deducir que si f (x) es finita, entonces, esta carga de arena ejerce una fuerza
cero en cualquier punto de la viga. No obstante, es obvio que si la densidad de
la arena es ρ(x), entonces la fuerza total ejercida por la carga de arena es:
Z L
f (x)ρ(x)Adx (6.25)
0
La densidad de carga por metro lineal f (x) es entonces análoga a la trans-
formada de Fourier F ( ω), en el sentido que esta última corresponde a una
densidad espectral por ancho de banda.
222
La transformación de Fourier posee una serie de propiedades que resultan de
mucha utilidad para el cálculo de transformadas de funciones a partir de algunas
elementales, para la obtención de transformadas inversas sin tener que resolver la
integral (6.13), y para el análisis de sistemas, como se ve en la sección siguiente.
Estas propiedades se detallan en el Apéndice C. Algunas de esas propiedades
son de especial relevancia por sus aplicaciones al análisis de sistemas lineales.
Z ∞ Z ∞ Z ∞
2 1 1
(f (t)) dt = |F ( ω)|2 dω = |F ( ω)|2 dω (6.26)
−∞ 2π −∞ π 0
124CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
bm ( ω)m + . . . + b0 B( ω)
Y ( ω) = n
U ( ω) = U ( ω) (6.32)
( ω) + . . . + a0 A( ω)
donde A( ω) y B( ω) son polinomios en ω.
Si ahora definimos la función racional en ω como
B( ω) bm ( ω)m + . . . + b0
H( ω) = = (6.33)
A( ω) ( ω)n + . . . + a0
entonces la salida del sistema lineal puede ser expresada como
B( ω) bm ( ω)m + . . . + b0 − ωτ
H( ω) = = e (6.35)
A( ω) ( ω)n + . . . + a0
Una discusión adicional sobre la naturaleza de H( ω), en particular, referida
a la estabilidad del sistema se desarrolla más adelante, en la Sección 6.2.5.
Una interpretación fundamental para la función de transferencia se puede
construir a partir del Lema 3.1 en la página 53. Allı́ se establece que la respuesta
de un sistema a una señal de entrada arbitraria u(t), puede obtenerse mediante
la convolución de ésta con la respuesta h(t) del sistema a un impulso unitario:
Z ∞
y(t) = u(t) ∗ h(t) = u(τ )h(t − τ )dτ (6.36)
−∞
Si aplicamos transformación de Fourier a esta relación, utilizando el resultado
(C.13) en la página 371 que establece la transformada de la convolución de
funciones, tenemos que:
+
vf (t) C vc (t)
i(t)
d y(t)
+ αy(t) = αu(t) ; α ∈ R+ (6.44)
dt
A continuación calculamos la salida del sistema para diferentes funciones de
entrada u(t).
Si aplicamos transformación de Fourier a (6.44) tenemos:
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO127
Maple
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
>Y(jw):=solve(%,Y(jw));
ωY ( ω) + αY ( ω) = αU ( ω) (6.45)
α
Y ( ω) = U ( ω) (6.46)
ω + α
Con esta expresión se puede obtener la salida del sistema para diferentes
casos, con ayuda de las tranformadas en la Tabla C.2 en la página 389.
Entrada impulso unitario
En primer lugar, podemos calcular casi directamente la respuesta a impulso
del sistema, ya que si u(t) = δ(t), entonces U ( ω) = 1 y, por tanto:
Maple
>U(jw)= fourier(Dirac(t),t,w) :
>H(jw)=subs(%,Y(jw));
U ( ω) = 1
α
Y ( ω) = H( ω) =
ω + α
Donde se aplica transformación inversa
Maple
1
h(t) = αF −1 (6.47)
ω + α
= αe−αt µ(t) (6.48)
fracciones parciales
Maple
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
1
U ( ω) = πδ(ω) + (6.49)
ω
α 1
Y ( ω) = πδ(ω) + (6.50)
ω + α ω
α α
Y ( ω) = πδ(ω) + (6.51)
ω + α ω( ω + α)
1 1
= πδ(ω) + − (6.52)
ω ( ω + α)
Ya que, del término que multiplica al delta Dirac sólo interesa su valor en
ω = 0, y el otro se separa en fracciones parciales. De esta forma se puede
calcular la transformación inversa de Fourier:
Maple
−1 1 −1 1
y(t) = F πδ(ω) + −F (6.53)
ω ( ω + α)
= µ(t) − e−αt µ(t) (6.54)
α α
Y ( ω) = 2πδ(ω − ωo ) = 2πδ(ω − ωo ) (6.56)
ω + α ωo + α
α
⇒ y(t) = e ωo t = A(ωo )e ωo t+jφ(ωo ) (6.57)
ωo + α
en que:
α = p α
A(ωo ) =
(6.58)
ωo + α ωo2 + α2
ωo
φ(ωo ) = − arctan (6.59)
α
Lo anterior muestra que, al pasar a través del sistema, la exponencial periódi-
ca, experimenta un cambio en magnitud (en un factor A(ωo )) y en fase (una
adición igual a φ(ωo ).
222
En que
1 1
y(t) = H( ωo )e ωo t + H(− ωo )e− ωo t (6.70)
2 2
1 ωo t+j∠H( ωo ) 1
= |H( ωo )|e + |H( ωo )|e− ωo t−j∠H( ωo ) (6.71)
2 2
= |H( ωo )| cos(ωo t + ∠H( ωo )) (6.72)
222
Ejemplo 6.5. Para el mismo sistema del Ejemplo 6.4, descrito por la ecuación
diferencial:
d y(t)
+ αy(t) = αu(t) ; α ∈ R+ (6.73)
dt
Determinemos la solución si la señal de entrada es u(t) = cos(t).
Tal como se hizo antes, se aplica transformación de Fourier sobre la EDS,
donde se ha reemplazado la entrada u(t) con lo que se obtiene la transformada
de Fourier de la salida:
Maple
α α
Y ( ω) = πδ(ω + 1) + πδ(ω − 1) (6.76)
−j + α j+α
α(α + j) α(α − j)
= πδ(ω + 1) + 2 πδ(ω − 1) (6.77)
α2 + 1 α +1
= Aejφ πδ(ω + 1) + Ae−jφ πδ(ω − 1) (6.78)
en que:
α(α + j)
A = 2 = √ α (6.79)
α +1 α2 + 1
α(α + j) 1
φ=∠ 2
= arctan (6.80)
α +1 α
0.8
−0.5
0.6
A(ω)
φ(ω)
0.4 −1
0.2
−1.5
0
0 100 200 300 400 500 600 0 100 200 300 400 500 600
ω ω
Fourier resulta ser acotada, mientras que la salida verdadera del sistema crece
hasta infinito. Es decir, la solución mediante Fourier para señales no causales
resulta ciega a la inestabilidad propia del sistema, pero nos permite obten-
er la componente particular de la señal de salida. Para ilustrar esto observe el
siguiente ejemplo, que sólo tiene sentido si el sistema bajo análisis es estable.
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));
π ω
U ( ω) = (δ(ω − 1) + δ(ω + 1)) + (6.84)
2 −ω 2 + 1
α π ω
Y ( ω) = (δ(ω − 1) + δ(ω + 1)) + (6.85)
ω + α 2 −ω 2 + 1
filtraje
α π α π α
Y ( ω) = δ(ω − 1) + δ(ω + 1) +
j+α 2 −j + α 2 ( ω + α)(−ω 2 + 1)
α(α − j) π α(α + j) π
= 2
δ(ω − 1) + δ(ω + 1)
α +1 2 −j + α 2
α(α ω + 1)) α2 1
+ 2 −
(α + 1)(−ω 2 + 1) α2 + 1 ω + α
α2 π α jπ
= 2 δ(ω + 1) + δ(ω − 1) + 2 δ(ω + 1) − δ(ω − 1)
α +1 2 α +1 2
α2 ω α 1 α2 1
+ 2 + −
(α + 1) (−ω 2 + 1) (α2 + 1) (−ω 2 + 1) α2 + 1 ω + α
Por tanto, con ayuda de la Tabla C.2 en la página 389, tenemos que la salida
es:
α −1 π ω
y(t) = αF δ(ω + 1) + δ(ω − 1) +
α2 + 1 2 (−ω 2 + 1)
jπ 1
+ F −1 δ(ω + 1) − δ(ω − 1) +
2 (−ω 2 + 1)
1
− αF −1
ω + α
α
y(t) = 2 α cos(t)µ(t) + sen(t)µ(t) − αe−αt µ(t)
α +1
En Maple los cálculos se pueden hacer mucho más rápido, y, dado que en la
transformación inversa aparecen exponenciales complejas, se utiliza la función
evalc, que permite expandir éstas mediante la relación de Euler, 1 :
Maple
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
6.2.4. Filtraje
Una generalización de los resultados precedentes se puede extraer examinan-
do la naturaleza de la función de transferencia y la forma en que evolucionan
1 ejθ = cos(θ) + j sen(θ)
134CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
|H(jω)| |H(jω)|
A A
a a
ωc ω ωc ω
1
H1 ( ω) = Pasa bajos (6.86)
( ω + 1)2
( ω)2
H2 ( ω) = Pasa altos (6.87)
( ω + 1)2
Si a ambos sistemas se aplica una secuencia de escalones, se obtiene el re-
sultado de la Figura 6.7. En esta, se observa que la respuesta del filtro pasa
6.2. LA TRANSFORMACIÓN DE FOURIER. EL CASO DEL TIEMPO CONTINUO135
frecuencia! de corte
2 pasa banda
1.5 y (t) elimina banda
Respuesta a escalón
1
1
0.5
−0.5 y (t)
2
−1
0 5 10 15 20 25 30
Tiempo [s]
bajos, y1 (t), no puede seguir las transiciones de los escalones, pero alcanza el
nivel constante de la entrada sin error (dado que la ganancia a continua es
uno). Por su parte, la respuesta del filtro pasa altos, y2 (t), es capaz de replicar
instantáneamente los cambios bruscos, sin embargo presenta respuesta nula una
vez que el escalón alcanza un nivel constante (dado que la ganancia a continua
es cero).
222
La transición entre una zona de paso y otra de rechazo (y viceversa) que
ocurre en |H( ω)| es siempre gradual. Una forma de cuantificar un lı́mite para
esa transición es lo que se define como frecuencia de corte. Esta definición,
aunque arbitraria es universalmente
√ aceptada. En la Figura 6.6, ωc es la fre-
cuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las
caracterı́sticas pasa banda y elimina banda. Las caracterı́sticas generales de
ambos sistemas aparecen reflejadas en los gráficos de la Figura 6.8.
|H(jω)| |H(jω)|
A A
a a
frecuencias de corte El sistema descrito por la caracterı́stica del lado izquierdo en la Figura 6.8
bloquea las frecuencias bajas y las fecuencias altas, en cambio, deja pasar un
rango de frecuencias intermedias. Por su parte, el sistema descrito por la car-
acterı́stica del lado derecho en la Figura 6.8, bloquea un rango intermedio de
frecuencias y deja pasar tanto las altas como las bajas frecuencias. El compor-
tamiento de estos sistemas puede ser estudiado también usando una secuencia
de escalones. Para ilustrar las diferentes conductas desarrollamos un ejemplo.
Ejemplo 6.8. Considere los siguientes sistemas:
ω
H3 ( ω) = Pasa banda (6.88)
( ω + 1)2
( ω)2 + 1
H4 ( ω) = Elimina banda (6.89)
( ω + 1)2
1.5
1
Respuesta a escalón
y (t)
4
0.5
0
y3(t)
−0.5
−1
−1.5
0 5 10 15 20 25 30
Time [s]
Es muy importante notar que el Lemma 6.1 en la página 129, que iguala
H( ω) con la respuesta en frecuencia, está formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
en el eje imaginario, aunque sean no repetidas. Veamos a través de un ejemplo,
los resultados erróneos que surgen si no somos cuidadosos.
Ejemplo 6.9. Un sistema con entrada u(t) y salida y(t), tiene una EDS:
dy(t)
= u(t) (6.90)
dt
Observamos que el sistema tiene sólo una frecuencia natural, y ella está ubi-
cada en λ = 0, es decir, se trata de una frecuencia natural no repetida en el eje
imaginario.
La respuesta en frecuencia, K(ω) está dada por la ganancia al modo forzante
e ωt , y ella resulta de aplicar (3.24) a este caso particular:
1
K(ω) = (6.91)
ω
Suponga que u(t) = e−at µ(t), a > 0 y si, erróneamente, hacemos H( ω) =
K(ω), entonces y(t) se puede calcular a partir de :
−1 −1 −1 1
y(t) = F {Y ( ω)} = F {H( ω)U ( ω)} = F (6.92)
ω( ω + a)
Ası́ se obtiene:
Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
dando origen a una respuesta no causal, ya que la función signo (t) tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la función de transfer-
encia H( ω) es la transformada de Fourier de la respuesta del sistema a un
impulso unitario. Aplicando esta definición a nuestro sistema se llega a:
1
H( ω) = + πδ(ω) (6.94)
ω
Entonces
−1 1 π 1 − e−at µ(t)
y(t) = F + δ(ω) = µ(t) (6.95)
ω( ω + a) a a
que es la respuesta correcta.
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales en el eje imaginario, los modos naturales asociados no
decaen, y la transformada de Fourier de cada uno de ellos sólo existe en el
lı́mite. Esta condición es acusada por la presencia de deltas de Dirac en ω. Ası́,
la función de transferencia es una función racional más uno o varios deltas de
Dirac en ω.
La última pregunta que debemos responder es por qué la determinación de
H( ω) usando (6.31) no da el resultado correcto. La respuesta está en que para
pasar de (6.31) a (6.33) se requiere dividir por un polinomio que se hace cero
para uno o más valores de ω, es decir, se realiza una división por cero a esas
frecuencias. Consideremos un ejemplo adicional.
Ejemplo 6.10. Sea un sistema con la EDS:
d 2 y(t)
+ 4y(t) = 3u(t) (6.96)
dt 2
Al aplicar transformación de Fourier se obtiene:
3 3
H( ω) = + j (δ(ω + 2) − δ(ω − 2)) (6.100)
( ω)2 + 4 2
222
N −1
X 2π
y[t] = Cn ejθo nt ; donde θo =
n=0
N
N −1
1 X
Cn = y[t]e−jθo nt
N t=0
Y (ejθn ) = N · Cn (6.101)
Reemplazando en la representación en serie anterior:
N −1
1 X
y[t] = Y (ejθn )ejθo nt (6.102)
N n=0
N −1
1 X
= Y (ejθn )ejθn t ∆θ (6.103)
2π n=0
2π
θN −1 = · (N − 1) (6.104)
N
lı́m θN −1 = 2π (6.105)
N →∞
Cabe recordar que para el caso de las funciones de tiempo discreto existe
periodicidad en frecuencia, por tanto la función y[t] podrı́a representarse emple-
ando el intervalo [−π, π] o cualquier otro de longitud 2π.
La ecuación (6.106) nos dice que podemos representar la función de tiempo
discreto y[t] como una integral que involucra la función Y (ejθ ), que ahora pre-
senta valores en forma continua en el intervalo [0, 2π]. Veamos ahora cuál es la
expresión que permite obtener esta función. A partir de la definición hecha en
(6.101) tenemos:
N
X −1 N
X −1
Y (ejθn ) = N · Cn = y[t]e−jθo nt = y[t]e−jθn t (6.107)
t=0 t=0
∞
X
Fd {y[t]} = Y (ejθ ) = y[t]e−jθt (6.109)
t=−∞
Z 2π
1
Fd −1 Y (ejθ ) = y[t] = Y (ejθ )ejθt dθ (6.110)
2π 0
∞
X
Y (ejθ ) = δ[t]e−jθt = δK [0]e−jθ0 = 1 (6.111)
t=−∞
es decir, se obtiene un espectro plano, en analogı́a al caso del espectro del delta
de Dirac en tiempo continuo. En la Figura 6.10 se muestra el delta de Kronecker
y la transformada de Fourier calculada, que en este caso resulta tener sólo parte
real.
1
1.5
0.8
0.6
Y(ejθ)
δk[t]
1
0.4
0.2
0.5
0
−0.2 0
−5 0 5 0 2 4 6
t θ
222
∞
X ∞
X ∞
X
Y (ejθ ) = y[t]e−jθt = αt e−jθt = (αe−jθ )t (6.113)
t=−∞ t=0 t=0
1
Y (ejθ ) = (6.114)
1 − αe−jθ
1
Y (ejθ ) = (6.115)
1 − α cos(θ) + jα sen(θ)
jθ 1 1
|Y (e )| = p =p (6.116)
2
(1 − α cos(θ)) + (α sen(θ)) 2 1 − 2α cos(θ) + α2
α sen(θ)
∠Y (ejθ ) = − arctan (6.117)
1 − α cos(θ)
1 5
0.8
4
0.6
|Y(ejθ)|
y[t]
3
0.4
2
0.2
0 1
−0.2 0
−2 0 2 4 6 8 10 0 2 4 6
t
θ
Se puede apreciar directamente que es una función real, ya que cada par de
exponenciales complejas conjugadas al sumarse se transforman en una función
coseno, es decir:
5
X
Y (ejθ ) = 1 + 2 cos(θt) (6.120)
t=1
Parseval
energı́a
5
X 1 − e−jθ(11) ejθ5 − e−jθ6
Y (ejθ ) = e−jθt = e−jθ(−5) −jθ
= (6.121)
t=−5
1−e 1 − e−jθ
θ 11 11
jθ ejθ5 − e−jθ6 · ej 2 ejθ 2 − e−jθ 2 sen(θ 11
2 )
Y (e ) = θ = θ θ = 1 (6.122)
(1 − e−jθ ) · ej 2 ej − e−j
2 2 sen(θ 2 )
15
1
10
0.8
0.6
Y(e )
jθ
y[t]
5
0.4
0.2
0
0
−0.2 −5
−10 −5 0 5 10 0 2 4 6
t θ
en que, tal como se vió al final del Capı́tulo 4, la secuencia h[t] es la respuesta
del sistema al delta Kronecker.
1
H(ejθ ) = (6.135)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )
La transformada de la salida queda entonces dada por
146CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
fracciones parciales
U (ejθ )
Y (ejθ ) = H(ejθ )U (ejθ ) = (6.136)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )
1
U (ejθ ) = 1 ⇒ Y (ejθ ) = (6.137)
(1 − 0,9e−jθ )(1 − 0,7e−jθ )
4,5 3,5
Y (ejθ ) = −jθ
− (6.138)
1 − 0,9e 1 − 0,7e−jθ
∞
jθ 1 X
U (e ) = +π δ(θ + 2`π) (6.140)
1 − e−jθ
`=−∞
∞
!
jθ 1 1 X
Y (e ) = + π δ(θ + 2`π)
(1 − 0,9e−jθ )(1 − 0,7e−jθ ) 1 − e−jθ
`=−∞
(6.141)
100
H(ejθ )θ=2`π = H(1) = ; ∀` ∈ Z (6.142)
3
De esta forma:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO147
1
Y (ejθ ) =
(1 − 0,9e−jθ )(1 − 0,7e−jθ )(1 − e−jθ )
∞
1 X
+ π δ(θ + 2`π) (6.143)
(1 − 0,9e−j0 )(1 − 0,7e−j0 )
`=−∞
100 ∞
−40,5 8,17 3 100 X
= + + + π δ(θ + 2`π)
1 − 0,9e−jθ 1 − 0,7e−jθ 1 − e−jθ 3
`=−∞
(6.144)
100
−1 −40,5 −1 8,17 −1 3 100
y[t] = Fd + Fd + Fd + πδ(θ)
1 − 0,9e−jθ 1 − 0,7e−jθ 1 − e−jθ 3
(6.145)
= (−40,5(0,9)t + 8,17(0,7)t + 33,3)µ[t] (6.146)
2.5 35
30
2
25
1.5
20
15
1
10
0.5
0 0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
k k
∞
X
U (ejθ ) = 2π δ(θ − θo + 2`π) (6.147)
`=−∞
∞
X
jθ jθ jθ jθ
Y (e ) = H(e )U (e ) = H(e ) δ(θ − θo + 2`π)
`=−∞
∞
X
= 2πH(ejθo ) δ(θ − θo + 2`π) (6.148)
`=−∞
222
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[t] y salida
y[t], la respuesta del sistema a la señal de entrada sinusoidal u[t] = cos(θ o t), ∀t,
es:
en que:
A(θo ) = H(ejθo ) (6.152)
jθo
φ(θo ) = ∠H(e ) (6.153)
1 1
y[t] = H(ejθo )e ωo t + H(e−jθo )e−jθo t (6.157)
2 2
1 jθo jθo t+j∠H(ejθo ) 1 jθo
= |H(e )|e + |H( ωo )|e−jθo t−j∠H(e ) (6.158)
2 2
= |H(ejθo )| cos(θo t + ∠H(ejθo )) (6.159)
222
6.3.4. Filtraje
La respuesta en frecuencia de los sistemas discretos puede ser caracterizada
a través de H(ejθ ). Se aplican en este caso las mismas definiciones que en el caso
de sistemas de tiempo continuo: frecuencias de corte, banda de paso, banda de
rechazo, etc. Existe sin embargo un elemento que agrega complejidad al análisis,
y él es la naturaleza perdiódica de H(ejθ ). Consideremos un sistema para el que
la magnitud de la respuesta en frecuencia aparece descrita en la Figura 6.14.
1.2
0.8
|F(ejθ)|
0.6
0.4
0.2
0
−10 −8 −6 −4 −2 0 2 4 6 8 10
Frecuencia θ
Es muy importante notar que el Lema 6.2 en la página 148, que iguala
H(ejθ ) con la respuesta en frecuencia, está formulado para sistemas estables.
No podemos extender este resultado a sistemas que tienen frecuencias naturales
sobre la circunferencia unitaria, aunque sean no repetidas. Veamos a través de
un ejemplo, los resultados erróneos que surgen si no somos cuidadosos.
Ejemplo 6.15. Un sistema con entrada u[t] y salida y[t], tiene una ERS:
ejθ
K(θ) = (6.161)
1 − ejθ
Suponga que u[t] = at µ[t], 1 > a > 0 y si, erróneamente, hacemos H(ejθ ) =
K(θ), entonces y[t] se puede calcular a partir de:
ejθ
Y (ejθ ) = H(ejθ )U (ejθ ) = (6.162)
(ejθ − 1)(ejθ − a)
de donde se obtiene:
jθ
1 e ejθ 1
y[t] = Fd −1 jθ
− jθ
= signo [t] − 2at µ[t]
1−a e −1 e −a 2(1 − a)
(6.163)
dando origen a una respuesta no causal, ya que la función signo [t] tiene valor
−1, ∀t < 0.
Para obtener la respuesta correcta, recordemos que la función de transferen-
cia H(ejθ ) es la transformada de Fourier de la respuesta del sistema a un delta
de Kronecker. Aplicando esta definición a nuestro sistema se llega a:
6.3. LA TRANSFORMACIÓN DE FOURIER. EL CASO DE TIEMPO DISCRETO151
∞
ejθ X
H(ejθ ) = + π δ(θ − 2`π) (6.164)
ejθ − 1
`=−∞
" ∞
#
jθ jθ
1 e e X
Y (ejθ ) = − +π δ(θ − 2`π) (6.165)
1 − a ejθ − 1 ejθ − a
`=−∞
222
El ejemplo precedente ilustra y explica el problema. Cuando el sistema tiene
frecuencias naturales sobre la circunferencia unitaria, los modos naturales aso-
ciados no decaen, y la transformada de Fourier de cada uno de ellos sólo existe
en el lı́mite. Esta condición es acusada por la presencia de deltas de Dirac en
el dominio de la frecuencia θ. Ası́, la función de transferencia es una función
racional más uno o varios deltas de Dirac en θ.
La explicación de esta situación es análoga a la del caso continuo.
152CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
2. y(t) = (1 − 2e−|t| )2
t
!2
Z ∞
1 −
2σ 2 √
3. y(t) = √ e (Recuerde que e−u du = π)
σ 2π −∞
Problema 6.3. Demuestre que una función f (t) arbitraria (o de perı́odo in-
finito) puede expresarse en la forma de Integral de Fourier:
Z ∞
1
f (t) = [A(ω) cos(ωt) + B(ω) sen(ωt)] dω
π 0
en que:
Z ∞
A(ω) = f (t) cos(ωt)dt
−∞
Z ∞
B(ω) = f (t) sen(ωt)dt
−∞
d 2 y(t)
+ 100y(t) = 100u(t)
dt 2
Encuentre la salida del sistema mediante la transformación de Fourier cuan-
do
Es decir, este sistema actúa como filtro ideal ya que permite el paso de
sinusoides de frecuencias menores que ωc sin afectarlas, mientras que aquellas
de frecuencias mayores no aparecen en la salida.
2t + 3 t
y[t] = µ[t]
6t
y[t] = cos(θ1 t + φ) , con 0 < θ1 < 2π
154CAPÍTULO 6. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE FO
Comente.
Laplace
transformada de
Laplace|textbf
sistema!dinámico
sistema!estable
sistema!inestable
se~
nal!no acotada
se~
nal! de tiempo continuo
Capı́tulo 7
Z ∞
L {y(t)} = Y (s) = e−st y(t)dt (7.1)
0−
Z σ+j∞
1
L−1 {Y (s)} = y(t) = est Y (s)ds (7.2)
2πj σ−j∞
155
156CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
condiciones iniciales
T función de transferencia
f (s, x0 ) = p(s) x0 (7.7) función!racional
función de
donde p(s) es un vector que contiene polinomios en s y x0 es un vector que transferencia!ceros
contiene las condiciones iniciales ya mencionadas. Esta estructura explicita la ceros
linealidad del sistema, puesto que la homogeneidad y superposición respecto de
las condiciones iniciales resulta evidente.
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
B(s)
H(s) = (7.9)
A(s)
que se forma con los polinomios que contienen los coeficientes de la ecuación
(7.4) original:
d 2y dy
2
+2 = u(t) (7.12)
dt dt
Su función de transferencia es:
1
H(s) = (7.13)
s2 + 2s
222
(i) Las m raı́ces de la ecuación B(s) = 0 son los ceros del sistema. Ellos
hacen además que H(s) = 0.
158CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
función de transferencia!polos (ii) Las n raı́ces de la ecuación A(s) = 0 son los polos del sistema. Ellos hacen
polos
función de además que H(s) → ∞.
transferencia!multiplicidad
multiplicidad (iii) Si A(s) = 0 tiene nk raı́ces en s = λk , decimos que el polo λk tiene
función de multiplicidad nk .
transferencia!grado relativo
grado relativo
(iv) Lapropia
función de transferencia!estrictamente diferencia de grado entre A(s) y B(s), es decir, m − n se denomina el
función de grado relativo del sistema.
transferencia!bipropia
función de transferencia!propia
función de
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica
transferencia!impropia que el grado relativo del sistema es positivo.
sistema! estable
entrada (vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
salida
respuesta! a impulso
relativo del sistema es cero.
impulso! respuesta a
(vii) Si m ≤ n decimos que el modelo es propio.
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
En que:
función de transferencia!con
retardo
La función de transferencia H(s) de un sistema de tiempo continuo, definida función!racional
en (7.9), es igual a la transformada de Laplace de la respuesta h(t) del retardo
sistema a un impulso (Delta de Dirac) en la entrada, cuando las condiciones
iniciales cero.
B(s) −sτ
H(s) = e (7.16)
A(s)
Matlab
A =
1 3 2
B =
1 1
>> H=tf(B,A)
Transfer function:
s + 1
-------------
s^2 + 3 s + 2
delta de Dirac! en
frecuencia Matlab
Transfer function:
s
>> H=(s+1)/(s^2+2*s+1)
Transfer function:
s + 1
-------------
s^2 + 2 s + 1
d 2 y(t) d y(t)
+ a1 + y(t) = u(t) (7.17)
dt 2 dt
donde a1 ≥ 0.
La función de transferencia, en el dominio de Laplace, es:
1
HL (s) = ; ∀<{s} > 0 (7.18)
s2 + a 1 s + 1
En cambio, en el caso de Fourier, debemos distinguir dos casos.
7.3. RESPUESTA A IMPULSO Y RESPUESTA A ESCALÓN. 161
1
HF ( ω) = (7.19)
( ω)2 + a1 ω + 1
En este caso:
HF ( ω) = HL (s)|s= ω (7.20)
(ii) Caso a1 = 0 :
En este caso, las frecuencias naturales están sobre el eje imaginario y los
modos naturales combinados corresponden a una sinusoide. Más especı́fi-
camente, la respuesta a impulso, con condiciones iniciales iguales a cero
es:
jπ 1
HF ( ω) = (δ(ω + 1) − δ(ω − 1)) + (7.22)
2 ( ω)2 + 1
222
valor final señal de entrada (caracterı́sticas del transiente, velocidad de respuesta, etc.), a
partir del análisis de la función H(s).
Debido a la idealización implı́cita en la definición de un impulso es mucho
más frecuente estudiar la dinámica natural de un sistema con la ayuda de la
respuesta a escalón, es decir, cuando U (s) = 1/s.
La definición (7.9) nos permite expresar la respuesta a escalón unitario
del sistema como:
1
Y (s) = H(s) (7.23)
s
Lo cual, suponiendo que el sistema no tiene polos en el origen,
corresponde a:
donde y∞ = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la página 410). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario está dada por la constante y∞ . Note que si H(s) tiene uno o más
ceros en s = 0, entonces y∞ = 0.
d 2 y(t) d y(t)
+5 + 4y(t) = 2u(t) (7.25)
dt 2 dt
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la función de transferencia del sistema:
2
U (s) = L {δ(t)} = 1 ⇒ Y (s) = H(s) = (7.28)
s2 + 5s + 4
Donde podemos aplicar transformada inversa separando en fracciones par-
ciales1 , o bien con ayuda de Maple :
Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
U (s) = 1 (7.29)
2
Y (s) = (7.30)
s2 + 5s + 4
2 1 −1
Y (s) = + (7.31)
3 s+1 s+4
2 2
y(t) = e−t − e−4t (7.32)
3 3
La respuesta a escalón unitario se puede obtener de manera similar
1 2 1
U (s) = L {µ(t)} = ⇒ Y (s) = 2 · (7.33)
s s + 5s + 4 s
Donde se aplica transformada inversa:
Maple
>with(inttrans):
>U(s):=laplace(Heaviside(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>y(t):=invlaplace(Y(s),s,t);
1
U (s) = (7.34)
s
2
Y (s) = (7.35)
s(s + 1)(s + 4)
1 2 1
y(t) = − e−t + e−4t (7.36)
2 3 6
En la Figura 7.1 se puede apreciar tanto la respuesta a escalón recién obteni-
da ası́ como la respuesta impulso. Estas se generaron en Matlab, con los co-
mandos impulse y step, que usan como argumento el sistema definido mediante
su funcion de transferencia:
164CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Matlab
>>G=tf([2],[1 5 4]);
>>subplot(2,1,1),impulse(G);
>>subplot(2,1,2),step(G);
Impulse Response
0.4
0.3
Amplitude
0.2
0.1
0
0 1 2 3 4 5 6
Time (sec.)
Step Response
0.5
0.4
Amplitude
0.3
0.2
0.1
0
0 1 2 3 4 5 6
Time (sec.)
222
Es útil definir también un conjunto de parámetros que describen ciertas
propiedades de la dinámica del sistema. Para identificar estos parámetros a
definir consideremos la función de transferencia dada por:
−s + 1
G(s) = 9 (7.37)
s2 + 4s + 9
La respuesta a escalón del sistema se muestra en la Figura 7.2. Entonces
podemos definir los siguientes ı́ndices:
y +M
∞ p
y∞+δ
y
∞
k y y∞−δ
r ∞
−Mu
tu tr tp ts
Tiempo
al utilizarla.
3 Note que para este ejemplo en particular, hemos elegido un valor inusualmente grande
d 2 y(t) d y(t)
+ + y(t) = u(t) (7.38)
dt 2 dt
s+2
Y (s) = (7.43)
(s + 12 )2 + 3
4
√
3
s + 12 √ 2
= + 3 (7.44)
(s + 12 )2 + 3
4 (s + 1 2
2) + 3
4
1
y(t)
0.5
0 1 2 3 4 5 6 7 8 9 10
t [seg]
valor inicial R
+
vf (t) C vc (t)
i(t)
d µ(t) d i(t) 1
=R + i(t) (7.48)
dt dt C
1 1
s = R sI(s) − i(0− ) + I(s) (7.49)
s C
Despejando se obtiene:
C
I(s) = (7.50)
s RC + 1
Si aplicamos el Teorema del Valor Inicial (vea Apéndice D), tenemos que:
sC 1
i(0+ ) = lı́m sI(s) = lı́m = (7.51)
s→∞ s RC + 1
s→∞ R
Evidentemente esta es diferente a la corriente inicial, dada en t = 0 − . Esto
se comprueba observando que la transformada inversa de I(s) es discontinua en
t = 0:
1/R 1
i(t) = L−1 {I(s)} = L−1 = e−t/RC µ(t) (7.52)
s + 1/RC R
222
Consideremos ahora el caso en que la entrada es una señal arbitraria.
Ejemplo 7.6. Consideremos el mismo sistema del Ejemplo 7.5, pero en que
ahora la entrada es un pulso definido como:
(
1 ; 0 ≤ t ≤ 10
u(t) = (7.53)
0 ; t > 10
Las condiciones iniciales son iguales a cero, por simplicidad. Note que no
habrı́a problemas en considerar el efecto de éstas, ya sea incluyéndolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sis-
tema, se calculando su efecto en la salida por separado y sumandolo al efecto de
la señal de entrada.
La función de transferencia del sistema, si se aplica transforma de Laplace,
es:
7.4. RESPUESTA A CONDICIONES INICIALES Y SEÑALES ARBITRARIAS.169
Y (s) 1
H(s) = = 2 (7.54)
U (s) s +s+1
La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya
que esta función se expresa en términos de escalones y se puede utilizar la
propiedad de corrimiento temporal, que se traduce en una exponencial en s (vea
(D.23) en el Apéndice D):
1 − e−10s
Y (s) = H(s)U (s) = (7.56)
s(s2 + s + 1)
Note que para obtener la inversa, dado que la exponencial sólo representa un
corrimiento en el tiempo, podemos concentrarnos sólo en la parte racional de
Y (s), para luego aplicarle dicha traslación temporal. Es decir, consideremos:
√
3
1 1 s+1 1 s + 12 1 2
F (s) = = − = − − √
s(s2 + s + 1) s s2 + s + 1 s (s + 12 )2 + 3
4 3 (s + 12 )2 + 43
(7.57)
Donde se observa que tenemos la forma de la transformada de un escalón,
del seno y del coseno, éstas últimas con un corrimiento en la variable s. Este
corrimiento en s corresponde a una exponencial en el tiempo (Apéndice D), por
lo tanto:
√ √
− 21 t 3 1
f (t) = 1 − e cos 2 t + √ sen 23 t µ(t) (7.58)
3
Luego la salida es:
y(t) = L−1 (1 − e−10s )F (s) = f (t) − f (t − 10) (7.59)
Es decir:
√ √
1 1
y(t) = 1 − e− 2 t cos 23 t + √ sen 23 t µ(t)
3
√ √
1 1
− 1 − e− 2 (t−10) cos 23 (t − 10) + √ sen 23 (t − 10) µ(t − 10)
3
(7.60)
En la Figura 7.5 se muestra el pulso de entrada u(t) y la salida del sistema,
y(t), ante esta excitación.
170CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
1.5
u(t) − y(t)
0.5
−0.5
0 2 4 6 8 10 12 14 16 18 20
t [seg]
Figura 7.5: Pulso de entrada y respuesta del sistema del ejemplo 7.6.
d 2 y(t) d y(t)
+ + y(t) = u(t) (7.61)
dt 2 dt
Con esto y con ayuda de Maple podemos llegar de manera directa a una
expresión para la transformada de Laplace de la salida y aplicarle transformación
inversa:
Maple
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
7.5. ESTABILIDAD 171
respuesta en frecuencia
estabilidad
s
U (s) = (7.63)
s2 + ω 2
1
H(s) = 2 (7.64)
s +s+1
s 1
Y (s) = 2 2
· 2 (7.65)
s +ω s +s+1
1 − ω2 ω
y(t) = cos(ωt) + sen(ωt) + {modos naturales}
−ω + 1 + ω 4
2 −ω 2 + 1 + ω 4
(7.66)
Los modos naturales del sistema decaen a cero cuando t → ∞, por tanto
podemos concentrarnos sólo en la componente particular de la salida. Las com-
ponentes seno y coseno pueden combinarse en un solo término:
1
A(ω) = √ (7.68)
−ω 2
+ 1 + ω4
−ω
φ(ω) = − arctan (7.69)
1 − ω2
Matlab
222
7.5. Estabilidad
Hasta aquı́ hemos visto que la respuesta de un sistema que tiene una función
de transferencia H(s) es de la forma:
172CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
Magnitud
0.8
0.6
0.4
0.2
0
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
−50
Fase
−100
−150
−200
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Frecuencia [rad/s]
p X
nk
X βki
Y (s) = H(s)U (s) + (7.70)
(s − λk )i
k=1 i=1
Ejemplo 7.8. Consideremos el sistema del ejemplo 7.1. Los polos de su función
de transferencia están ubicados en s = −2 y s = 0. Estos no están en el SPI
abierto (el 0 está en el SPI cerrado). Por tanto el sistema no es estable. Se
7.5. ESTABILIDAD 173
deja al lector el verificar, usando la transformada de Laplace, que una entrada Hurwitz!polinomio
constante (diferente de cero) produce una salida que crece indefinidamente.
222
n
X
an−1 = − λi (7.73)
i=1
n
Y
p(s) = (s − λi ) (7.74)
i=1
174CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
n
Y
a0 = (−1)n λi (7.75)
i=1
Note que esta propiedad es necesaria para que p(s) sea un polinomio estri-
camente Hurwitz, pero no suficiente, excepto en el caso en que n = 1
y n = 2.
Propiedad 4 Si alguno de los coeficientes es negativo o cero, entonces una
o más raı́ces de p(s) tiene parte real negativa o cero. Esta propiedad se
deduce directamente de la propiedad anterior.
7.5. ESTABILIDAD 175
Además de los criterios que nos entregan las propiedades anteriores, uno de Routh!algoritmo
los métodos clásicos para determinar la naturaleza Hurwitz de un polinomio es
el algoritmo de Routh, también conocido como algoritmo o criterio de Routh-
Hurwitz, que a continuación se explica.
Consideremos un polinomio p(s) de grado n, definido como
n
X
p(s) = ai s i (7.79)
i=0
Y (s) 1
H(s) = = 3 2
(7.84)
U (s) s + s + 2s + 3
Por tanto, para la estabilidad debemos analizar las raı́ces del polinomio de-
nominador:
p(s) = s3 + s2 + 2s + 3 (7.85)
El arreglo de Routh en este caso es:
s3 1 2
s2 1 3
2−3
s1 1 = −1 0
s0 3 0
Matlab
ans =
0.1378 + 1.5273i
0.1378 - 1.5273i
-1.2757
222
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 177
7.6.1. Polos
Como el lector recordará de sus cursos de matemáticas, una función racional
siempre puede descomponerse en fracciones parciales, tal es el caso también de
la función de transferencia de un sistema en la variable s. Cada uno de los
términos de esta expansión contiene ya sea un polo real simple, un par de polos
complejos conjugados o múltiples combinaciones de polos repetidos. Por tanto,
para conocer el efecto de los polos en la respuesta transiente de un sistema
basta conocer el efecto ocasionado por los polos de primer y segundo orden y
su interacción.
4 En ocasiones, por abuso de lenguaje, los ceros de fase no mı́nima tambiés se les denomina
ceros inestables, dado que se encuantran al la región del plano s en que los polos son inestables.
178CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
1
H1 (s) = (7.89)
s−p
para los polos ubicados sobre el eje real, y
1
H2 (s) = (7.90)
s − (a + bj) s − (a − bj)
para los polos complejos, que aparecen emparejados con su conjugado.
Tanto la ubicación en el plano complejo de los polos de un sistema, como las
caracterı́sticas por esta determinada, están en directa relación con las frecuencias
naturales que se pueden obtener a partir de la EDS del sistema.
En virtud de estas analogı́as es que nos referiremos, en general, como polos
rápidos a aquellos que se encuentran más alejados del lı́mite de estabilidad que
los demás polos del sistema. Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece más rápido que aquella asociada
a los otros polos, tal como puede apreciarse en la Figura 7.7 al comparar la
respuesta a impulso de un sistema con un polo en p2 = −4 con las demás.
Por otro lado llamaremos polos dominantes o polos lentos a aquellos que se
encuentran en el SPI abierto, pero más cercanos al lı́mite de estabilidad que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado
a los polos dominantes decae más lento que los demás modos naturales, como
también puede apreciarse en la figura 7.7, para el polo en p1 .
Por ejemplo, si tenemos un sistema cuyos polos están ubicados en (−1; −2 ±
j6; −4; −5 ± j3), podemos decir que el polo dominante es −1 y los polos rápidos
son los que se encuentran en −5 ± j3.
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 179
p2 p1 p0 p3 p4
K
s+1
U (s) Y (s)
αK
s+2
K αK
Y (s) = + U (s) (7.91)
s+1 s+2
(1 + α)s + (2 + α)
G(s) = K (7.92)
(s + 1)(s + 2)
7.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 181
(s + 1,909)
G(s) = 1,1K (7.94)
(s + 1)(s + 2)
En esta puede observarse la cercanı́a del cero al polo en s = −2. La respuesta
a impulso será en este caso:
K
G(s) = (7.96)
(s + 1)
Invitamos al lector a estudiar el caso análogo cuando α alcanza valores muy
grandes y cuál es su efecto sobre el otro modo natural del sistema. Además
puede analizarse qué sucede con el sistema cuando el parámetro α toma valores
negativos. ¿Qué pasa si α = −1 o α = −2 ?
222
undershoot 6
contrarespuesta c=−0.1
respuesta!inversa 4
c=−0.25
2
Respuesta
c=−10
0
c=10
−2 c=0.25
−4 c=0.1
−6
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Tiempo [s]
Algo análogo sucede para el segundo modo a medida que c se acerca a −2. Esta
situación de cuasi cancelaciones también fue mencionada en el ejemplo anterior
La situación más general se aprecia en la figura 7.9. En esta, se indica el
valos de c al lado de cada una de las respuestas graficadas. Podemos apreciar que
un cero rápido, i.e. |c| 1, no afecta significativamente la respuesta transiente.
Cuando el cero es lento y estable obtenemos un gran overshoot, mientras que
cuando es lento, pero inestable, el undershoot es el que crece en magnitud. El
efecto de los ceros puede parecer demasiado crı́tico en este ejemplo, en que ambos
superan el 400 %, sin embargo, el lector puede verificar que puede ser aún mayor
si el cero es más cercano el origen.
222
definida para <{s} ≥ 0 y, por otro lado, por el hecho que la respuesta a un factor de amortiguamiento
frecuencia natural!no
escalón está bien definida para <{s} > 0. En consecuencia, la región de conver- amortiguada
gencia para y(t) es <{s} > 0. frecuencia natural!amortiguada
Si ahora, en la ecuación (7.99), hacemos s = c (note que, por ser c > 0,
está en la región de convergencia) obtenemos, aplicando el hecho que H(c) = 0:
Z ∞
K
H(c) = y(t)e−ct dt = 0 (7.100)
c 0
Como la integral es cero, y e−ct > 0, ∀t, necesariamente y(t) debe ser nega-
tiva en uno o más intervalos de tiempo.
222
1.5
1 1
Respuesta a escalón
Respuesta a escalón
0.5
0.5 0
−0.5
0 −1
−1.5
−0.5 −2
0 5 10 15 0 2 4 6
Tiempo [s] Tiempo [s]
ωn2
H(s) = (7.101)
s2 + 2ψωn s + ωn2
donde ψ (0 < ψ < 1) es conocido como el factor de amortiguamiento y ωn , como
la frecuencia natural no amortiguada. También definimos, para uso futuro, la
frecuencia natural amortiguada, ωd , como:
p
ωd = ω n 1 + ψ2 (7.102)
Este sistema tiene dos polos complejos conjugados, s1 y s2 , definidos por:
184CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
ωn2 ωn2
Y (s) = = (7.104)
(s2 + 2ψωn s + ωn2 )s [(s + ψωn )2 + ωd2 ] s
Realizando una expansión en fracciones parciales se llega a:
1 s + ψωn ψωn
Y (s) = − 2 − (7.105)
2
s (s + ψωn ) + ωd (s + ψωn )2 + ωd2
p
1 1 s + ψωn ωd
= −p 1 − ψ2 − ψ
s 1 − ψ2 (s + ψωn )2 + ωd2 (s + ψωn )2 + ωd2
(7.106)
e−ψωn t
y(t) = 1 − p sen(ωd t + β) (7.107)
1 − ψ2
Las caracterı́sticas principales de esta respuesta aparecen in la Figura 7.11,
donde y∞ = 1 y Td = 2π/ωd .
jωd y∞+Mp
ωn
y
∞
β Td
−ψωn
−jωd
tr tp
e−ψωn tr
p sen(ωd tr + β) = 0 (7.108)
1 − ψ2
De aquı́ se llega a:
π−β
tr = (7.109)
ωd
dy(t) e−ψωn t
= −p [−ψωn sen(ωd t + β) + ωd cos(ωd tr + β)] (7.110)
dt 1 − ψ2
Aunque este sistema canónico parece ser un caso muy particular, ocurre que
con frecuencia, y en distintas aplicaciones, el sistema bajo estudio está dominado
por un par de polos complejos conjugados. Aunque las fórmulas desarrolladas
para calcular los indicadores de la respuesta a escalón no son aplicables a sis-
temas no canónicos, los conceptos asociados tiene igual validez.
186CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
d 2 y(t) d y(t)
(i) + − 6y(t) = u(t)
dt 2 dt
d 3 y(t) d 2 y(t) d y(t) d u(t)
(ii) +3 + + 3y(t) = − u(t)
dt 3 dt 2 dt dt
d 2 y(t) d y(t)
(iii) + − 6y(t) = u(t)
dt 2 dt
d 2 y(t) d y(t)
(iv) + 16 + 100y(t) = 100u(t)
dt 2 dt
7.2.1 Determine su función de transferencia,
7.3.3 Determine la salida del sistema si la entrada es u(t) = µ(t) − µ(t − 2).
Grafique.
7.7. PROBLEMAS PARA EL LECTOR 187
7.4.3 Repita los dos puntos anteriores, pero para el modo rápido del sistema.
+ R
e(t) vc (t)
L C
d 2 y(t) d y(t)
2
+ [2 + 0,1u(t)2 ] + 6y(t) = u(t) + 0,1e−u(t)
dt dt
Linealice el sistema en torno a un punto de operación (uQ ,yQ ), determine
su función de transferencia y analice la evolución de los polos cuando u Q ∈
[−0,5, 0,5].
188CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
s2 + 13s + 30
H(s) =
s3 + 4s2 − 7s − 10
7.8.1 Haga un esquema con la ubicación de todos los polos y ceros del sistema
en el plano complejo s, clasificándolos de acuerdo a su velocidad (lentos y
rápidos).
7.8.3 Determine la salida del sistema si las condiciones iniciales son ÿ(0) = 1,
ẏ(0) = 0 e y(0) = −2.
K(s + 1)
G(s) =
s2 − s + 1 + K(s + 1)
7.9.1 Determine para qué rango de valores del parámetro K los el sistema es
estable.
−s + b2
G(s) =
s2 + bs + b2
K(−s + a)
(i) G1 (s) =
(s + a)(s + K)
K(−s + a)(−s + b)
(ii) G2 (s) =
(s + a)(s + b)(s + K)
K(−s + a)(−s + b)(−s + c)
(iii) G3 (s) =
(s + a)(s + b)(s + c)(s + K)
¿Que puede decir del efecto de los ceros sobre la respuesta del sistema?
dp(t)
=0 ⇐⇒ grado relativo de G(s) ≥ 2
dt t=0
190CAPÍTULO 7. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA DE LA
transformada Zeta|textbf
Zeta!transformada
transformada Zeta!inversa
Capı́tulo 8
∞
X
Z {f [t]} = F (z) = f [t]z −t (8.1)
t=0
I
−1 1
Z {F (z)} = f [t] = F (z)z t−1 dz (8.2)
2πj Γ
191
192CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
función de transferencia La curva cerrada Γ sobre la que se calcula integral compleja que define la
condiciones iniciales
transformada Zeta inversa (E.2) es tal que debe encerrar a todas las singulari-
dades de Y (z) [17]. La fundamentación de estas expresiones se desarrolla en el
Apéndice E. También se incluyen en ese apéndice las propiedades más impor-
tantes de la Transformación Zeta.
En este capı́tulo nos concentraremos en el uso de esta transformación para
el análisis de sistemas lineales de tiempo discreto.
Nota 8.1. Note también que se ha supuesto que u[−1] = u[−2] = . . . = fracciones parciales
u[−m] = 0. Esto no es restrictivo, porque siempre es posible encontrar una se-
cuencia de entrada u[t], no nula ∀t < −m, tal que y[t] satisfaga las condiciones
iniciales establecidas.
222
Para ilustrar estas ideas, consideramos un ejemplo en donde además analizare-
mos algunas alternativas para el cálculo de la transformación inversa.
Y (z) − 0, 7 z −1 Y (z) + y[−1] + 0, 1 z −2 Y (z) + z −1 y[−1] + y[−2]
= 0, 8z −1 U (z) (8.8)
Esto lleva a:
y[−1]
f (z −1 , xo ) = [p(z −1 )]T xo = 0, 7 − 0, 1z −1 −0, 1 (8.10)
y[−2]
0, 8z 1, 5z 2 − 0, 2z
Y (z) = U (z) + 2 (8.11)
z2− 0, 7z + 0, 1 z − 0, 7z + 0, 1
| {z } | {z }
Yu (z) Yx (z)
0, 8z z 4 4 2
Yu (z) = = − + (8.12)
(z − 0, 5)(z − 0, 2) z − 1 3(z − 0, 2) 3(z − 0, 5) z − 1
Ası́, podemos utilizar la Tabla E.2 en la página 434 para obtener la trans-
formación inversa:
4
yu [t] = (0, 2)t−1 − (0, 5)t−1 µ[t − 1] + 2µ[t − 1] ; ∀t ≥ 0 (8.13)
3
Análogamente:
1, 5z 2 − 0, 2z 3 1 11
Yx (z) = = − + (8.14)
(z − 0, 5)(z − 0, 2) 2 15(z − 0, 2) 12(z − 0, 5)
Aplicando transformación inversa se llega a:
3 1 11
yx [t] = δK [t] − (0, 2)t−1 µ[t − 1] + (0, 5)t−1 µ[t − 1] ; ∀t ≥ 0 (8.15)
2 15 12
Finalmente, la respuesta completa es y[t] = yu [t] + yx [t].
Sin embargo, una forma alternativa para calcular y[t] es la siguiente:
0, 8z 1, 5z − 0, 2
Y (z) = z + (8.16)
(z − 0, 5)(z − 0, 2)(z − 1) (z − 0, 5)(z − 0, 2)
5 5 2
=z − + (8.17)
15(z − 0, 2) 6(z − 0, 5) z − 1
z 5z 2z
= − + (8.18)
3(z − 0, 2) 6(z − 0, 5) z − 1
Al aplicar ahora transformación inversa se llega a
1 5
y[t] = 2 + (0, 2)t − (0, 5)t ; ∀t ≥ 0 (8.19)
3 6
Lo que se ha hecho en esta segunda forma de calcular Z −1 {◦} es aprovechar
la presencia de un factor z en el numerador. Ası́ las fracciones parciales pueden
después recibir de vuelta ese factor z, de modo que en la transformación inversa
no aparece corrimiento en el tiempo, ya que, como puede verse en el Apéndice
E:
−1 z t −1 1
Z = a µ[t] 6= Z = at−1 µ[t − 1] (8.20)
z−a z−a
El lector puede comprobar que ambas expresiones obtenidas previamente para
y[t] son equivalentes y corresponden a la señal en la Figura 8.1.
8.2. APLICACIÓN A SISTEMAS LINEALES: LA FUNCIÓN DE TRANSFERENCIA195
2.5
2
y[t]
1.5
0.5
0
0 5 10 15
t
222
Volvamos ahora a considerar la forma general de la ERS y supongamos
condiciones iniciales iguales a cero. Entonces tenemos que:
B(z)
H(z) = (8.22)
A(z)
que se forma con los polinomios que contienen los coeficientes de la ecuación
(8.3) original:
z 3 (0, 2z − 0, 7) 0, 2z − 0, 7
H(z) = = (8.26)
z 4 (z 3 2
− 0, 8z + 0, 4z − 0, 1) z(z − 0, 8z 2 + 0, 4z − 0, 1)
3
196CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
z 3 (0, 2z − 0, 7) 0, 2z − 0, 7
H(z) = 3 3 2
= 3 (8.28)
z (z − 0, 8z + 0, 4z − 0, 1) z − 0, 8z 2 + 0, 4z − 0, 1
222
Ejemplo 8.4 (Caso n > m). Sea la ERS:
z 3 (0, 2z − 0, 7) z(0, 2z − 0, 7)
H(z) = = 3 (8.30)
z 2 (z 3 − 0, 8z 2 + 0, 4z − 0, 1) z − 0, 8z 2 + 0, 4z − 0, 1
222
(i) Las m̃ raı́ces de la ecuación B(z) = 0 son los ceros del sistema. Ellos función de
transferencia!ceros
hacen además que H(z) = 0. función de
transferencia!polos
(ii) Las ñ raı́ces de la ecuación A(z) = 0 son los polos del sistema. Ellos hacen multiplicidad!polos
función de transferencia!grado relati
además que H(z) → ∞. grado relativo
función de
(iii) Si A(z) = 0 tiene nt raı́ces en z = λt , decimos que el polo λt tiene transferencia!estrictamente pro
función de transferencia!bipropia
multiplicidad nt .
función de transferencia!propia
polinomio caractrerı́stico
(iv) La diferencia de grado entre A(z) y B(z), es decir, m̃ − ñ se denomina el
grado relativo del sistema.
En que:
h[t] = Z −1 {H(z)} (8.32)
delta de Dirac!en
frecuencia
La función de transferencia H(z) de un sistema de tiempo discreto, definida
en (8.22), es igual a la transformada Zeta de la respuesta h[t] del sistema
a un Delta de Kronecter en la entrada, cuando las condiciones iniciales son
cero.
ERS
impulso!respuesta a 222
escalón!respuesta a
respuesta! a impulso
respuesta!a escalón
La relación entre la transformación de Fourier y transformación Zeta puede
valor final ser resumida en la siguiente afirmación:
Matlab
Transfer function:
-0.2 z^2 + 0.25 z
------------------
z^2 - 1.75 z + 0.8
222
0.3
0.2
Respuesta a impulso
0.1
−0.1
−0.2
0 5 10 15 20 25 30 35 40
t
1.5
Respuesta a escalon
0.5
−0.5
0 5 10 15 20 25 30 35 40
t
Bf (z)
F (z) = (8.44)
Af (z)
donde Af (z) y Bf (z) son polinomios de la forma:
para números enteros p y q no negativos. Observe que dado que F (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p ≥ q.
La expansión de F (z) en potencias de z −1 se obtiene dividiendo Bf (z) por
Af (z), esto lleva a:
Esta ecuación demuestra que el primer valor de f [t] distinto de cero ocurre grado relativo
en el instante t = p − q, con f [p − q] = βq . El resultado principal se puede
resumir en el siguiente lema:
222
Cuando este lema se aplica a la respuesta a escalón unitario, con condiciones
iniciales iguales a cero, se deduce que ésta es cero en los primeros d instantes,
donde d es el grado relativo de la función de transferencia H(z). En rigor, el
z
Lema 8.1 se aplica al producto H(z)U (z), pero en este caso U (z) es z−1 , es
decir, su grado relativo es cero, por lo tanto el grado relativo de H(z)U (z) es
igual al grado relativo de H(z).
lo cual lleva a:
b1 z + b 0 −(a1 y[−1] + a2 y[−2])z 2 − a2 y[−1]z
Y (z) = U (z) + (8.50)
z 2 (z 2 + a1 z + a2 ) z 2 + a1 z + a2
| {z } | {z }
Yu (z)=Z{Thh0,u[t]ii} Yx (z)=Z{Thhxo ,0ii}
222
retardo (i) Tanto la respuesta a entrada, yu [t] como la respuesta a condiciones ini-
respuesta!estacionaria
ciales, yx [t], contienen los modos naturales del sistema.
(ii) El denominador de Yu (z) difiere del de Yx (z), no sólo debido al denomi-
nador de U (z), sino que además en un conjunto de polos en z = 0. Estos
no son frecuencias naturales del sistema, sino que corresponden ex-
actamente al retardo con que se aplica la excitación.
(iii) La transformada Yu (z) contiene los polos de U (z); éstos explican la pres-
encia de modos forzados, lo cual es consistente con lo planteado en la
subsección 4.3.6 en la página 73.
(iv) Si el grado relativo de H(z) es mayor que cero (como ocurre usualmente),
entonces yu [0] = 0.
(v) Salvo para especiales valores de las condiciones iniciales, el grado relativo
de Yx (z) es cero, ası́ yx (0) 6= 0, lo cual lleva, salvo para esos valores
especiales, a que y(0) 6= 0.
Un caso especial de interés es cuando la excitación u[t] es una sinusoide de
frecuencia θo , ∀t ≥ 0, es decir, u[t] = 0, 5(ejθo t + e−jθo t ).
Consideremos primero el caso de una excitación u[t] = ejθo t µ[t], y un sistema
estable, con función de transferencia H(z), entonces:
z
U (z) = (8.51)
z − ejθo
z
Y (z) = H(z) + Yx (z) (8.52)
z − ejθo
Dado que el sistema es estable, sólo el modo forzado permanece, ya que la
frecuencia forzante está sobre la circunferencia unitaria. Ası́, si denotamos como
0
Yee (z) la transformada Zeta de la componente estacionaria de la salida, tenemos
que:
0 zH(ejθo ) jθo
Yee (z) = ; H(ejθo ) = |H(ejθo )| ej∠H(e )
(8.53)
z − ejθo
y, por tanto:
jθo
0
yee [t] = ejθo t H(ejθo ) = |H(ejθo )| ej(θo t+∠H(e ))
(8.54)
00 zH(e−jθo ) jθo
Yee (z) = ; H(−ejθo ) = |H(ejθo )| e−j∠H(e )
(8.55)
z − e−jθo
y, por tanto:
jθo
00
yee [t] = e−jθo t H(e−jθo ) = |H(e−jθo )| e−j(θo t+∠H(e ))
(8.56)
8.5. ESTABILIDAD 205
0 00
yee [t] = 0, 5 (yee [t] + yee [t]) = |H(ejθo )| cos(tθo + ∠H(ejθo )) (8.57)
8.5. Estabilidad
Hasta aquı́ hemos visto que la respuesta de un sistema que tiene una función
de transferencia H(z) es de la forma:
p X
nt
X αti
Y (z) = H(z)U (z) + (8.58)
t=1 i=1
(z − λt )i
Donde el valor de cada αti depende de las condiciones iniciales, y donde
hemos supuesto que cada polo ubicado en z = λt , tiene multiplicidad nt . Esta
suposición implica a su vez que n1 + n2 + . . . + np = n, donde n es el orden de
la ERS, es decir, es el número de autovalores del sistema.
Si recordamos la definición de estabilidad, tenemos que un sistema es estable
cuando cualquier entrada acotada produce una salida también acotada, para
cualquier condición inicial acotada. Si observamos la ecuación (8.58) podemos
afirmar que la condición necesaria y suficiente para que el sistema sea estable
es que los polos de éste, que aparecen en las fracciones del segundo término
de la ecuación, den origen a señales que decaigan exponencialmente. Esto se
traduce en que los polos del sistema deben tener magnitud estrictamente menor
que uno, es decir, deben estar ubicados sobre el disco unitario abierto del
plano complejo z . Es decir, para sistemas discretos, el lı́mite de estabilidad en
el plano complejo z en que se ubican sus polos, es la circunferencia unitaria.
Ejemplo 8.8. Consideremos un sistema con función de transferencia:
(z − 0, 2)
H(z) = (8.59)
z 3 (z − 1)(z − 0, 8)
Esta función tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.23) y (8.24)). Estos polos sólo
introducen retardos en los modos naturales. Los otros polos de su función de
transferencia están ubicados en z = 1, y z = 0, 8. Estos últimos polos correspon-
den a frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no
está en el disco unitario abierto, sino que justo sobre el lı́mite de estabilidad.
206CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
sistemas discretos!estabilidad Por tanto el sistema no es estable. Se deja al lector el verificar que una entrada
constante, diferente de cero, produce una salida que crece indefinidamente.
222
n
X
an−1 = −an λi (8.61)
i=1
n
Y
p(z) = an (z − λi ) (8.62)
i=1
n
Y
a0 = (−1)n an λi (8.63)
i=1
La primera propiedad dice que para que el polinomio p(z) sea estable, en- desigualdad!triangular
bilineal!transformación
tonces es necesario que |an−1 | < n|an | ya que cada raı́z de p(z) debe tener Routh
magnitud menor que 1. El resultado se obtiene al utilizar la desigualdad trian-
gular: el módulo de la suma es menor que la suma de los módulos.
La segunda propiedad dice que la estabilidad de p(z) exige como condición
necesaria que |a0 | < |an |. Este resultado se obtiene al considerar que cada factor
λi en (8.63) debe tener magnitud menor que uno.
Las dos propiedades precedentes ayudan a descartar algunos polinomios bajo
análisis. El lector debe recordar que estas propiedades son necesarias pero no
suficientes para asegurar estabilidad. También conviene tener presente que, a
diferencia del caso de tiempo continuo, un polinomio puede ser estable aunque
algunas de sus raı́ces sean positivas; esto implica que los coeficientes de un
polinomio p(z) estable pueden ser positivos, negativos o cero.
Una vez superada la etapa de la inspección se requiere un método de análisis
que proporcione una respuesta categórica sobre la estabilidad o inestabilidad del
polinomio. Una de las formas de realizar el estudio es transformar el problema
en uno en que podamos aplicar el algoritmo de Routh y, en general, todos los
resultados de la Sección §7.5.1. Con este objetivo se puede usar, por ejemplo, la
transformación bilineal:
w+1 z+1
z= ⇐⇒ w = (8.64)
w−1 z−1
donde w es una variable compleja auxiliar. Si expresamos la variable w en térmi-
no de su parte real ζ y su parte imaginaria ψ, es decir w = ζ + jψ entonces
(8.64) se puede escribir como:
s
w+1 ζ + 1 + jψ (ζ + 1)2 + ψ 2
z= = =⇒ |z| = (8.65)
w−1 ζ − 1 + jψ (ζ − 1)2 + ψ 2
De la ecuación (8.65) se puede ver que ζ > 0 si y sólo si |z| < 1. También
se puede ver w está en el eje imaginario ( ζ = 0) si y sólo si z está sobre la
circunferencia unitaria (|z| = 1). Ası́, si definimos la función racional P w (w)
como:
Pw (w) = p (z) (8.66)
w+1
z= w−1
entonces el polinomio p(z) tiene todas sus raı́ces al interior del disco unitario
si y sólo si el polinomio numerador de Pw (w) tiene todas sus raices al interior
del semi-plano izquierdo. Por lo tanto, podemos usar el criterio de Routh para
probar el polinomio numerador de Pw (w) y ası́ estudiar la estabilidad de p(z).
Jury
Jury!algoritmo
0, 15w3 + 1, 85w 2 + 4, 65w + 1, 35
Pw (w) = (8.67)
(w − 1)3
Luego aplicamos Routh al numerador de Pw (w), construyendo el arreglo:
w3 0, 15 4, 65
w2 1, 85 1, 35
w1 4, 5405
w0 1, 35
(ii) La segunda fila se construye a partir de la primera fila con los mismos
coeficientes, pero en orden ascendente.
1 γn,n γn,`−1
γn−1,n−` = ` = 1, 2, . . . , n (8.68)
γn,n γn,0 γn,n−`+1
Note que esta fila tiene un elemento menos que las dos anteriores.
(iv) La cuarta fila se construye a partir de la tercera fila con los mismos coefi-
cientes, pero en orden inverso.
(v) La quinta fila se construye a partir de las dos filas precedentes usando
(8.68) con los coeficientes correspondientes. Esta regla de construcción se
aplica también a todas las filas impares que siguen, hasta la (2n + 1)-
ésima, es decir, hasta calcular γ0,0 . En cada una de estas filas, el número
de coeficientes se reduce en uno.
(vi) La sexta fila, ası́ como todas las filas pares que siguen, se construyen con
los mismos coeficientes de la fila impar inmediatamente anterior, pero en
orden inverso.
Teorema 8.1. El polinomio p(z) dado en (8.60), con an > 0, tiene todas
sus raı́ces estrictamente al interior del cı́rculo unitario si y sólo si γ `,` > 0
para ` = 0, 1, . . . , n − 1. 222
1
1 0, 32 1
1 −0, 64 1
1 −0, 5
γ2,2 = 1
0, 32 ; γ2,1 = 1
; γ2,0 = 1
1 0, 32 −0, 5 0, 32 −0, 64
(8.69)
1
0, 8976 −0, 48 1
0, 8976 −0, 2952
γ1,1 = 0,8976 −0, 48 0, 8976 ; γ1,0 =
0,8976
−0, 48 (8.70)
−0, 2952
1 0, 6409 −0, 4531
γ0,0 = (8.71)
0, 6409 −0, 4531 0, 6409
210CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
Al aplicar el teorema de Jury observamos que γ3,3 = a3 > 0 y que γ`,` > 0,
∀` ∈ {0, 1, 2}. En consecuencia el polinomio p(z) tiene todas sus raı́ces dentro
del disco unitario.
222
Para apreciar el uso del algoritmo de Jury en estudios de estabilidad relativa
o condicional, consideraremos un ejemplo adicional.
Ejemplo 8.11. Sea un polinomio p(z) = z 2 + az + 0, 8. Se trata de estudiar
bajo qué condiciones este polinomio tiene sus dos raı́ces con módulo menor que
uno. Note que n = 2 y an = a2 = 1 > 0.
Primero construimos el arreglo de Jury, el que aparece en la Tabla 8.3.
fase mı́nima
Qm ceros!fase no mı́nima
i=1 (z − βi )
H(z) = K d Q n (8.72) función de transferencia!estable
z l=1 (z − αl ) polos
donde αl ∈ C y βi ∈ C. Si suponemos que no hay valores de l y de i tales que
αl = βi entonces, β1 , β2 , . . . , βm and α1 , α2 , . . . , αn son los ceros y los polos de
la función de transferencia, respectivamente (a estos últimos hay que agregar
los d polos en el origen).
Estaremos particularmente interesados en aquellos ceros ubicados sobre la
circunferencia unitaria o en su cercanı́a, y en aquellos polos al exterior del disco
unitario. Los polos y ceros ubicados en estas regiones juegan un rol fundamental
en la dinámica del sistema.
Una clase especial de función de transferencia es aquella que tiene todos
sus ceros y sus polos al interior del disco unitario en el plano complejo z .
Tradicionalmente éstas se denominan funciones de transferencia de fase
mı́nima . Sin embargo, a similitud de la nomenclatura usada en sistemas de
tiempo continuo, reservaremos ese nombre para referirnos simplemente a fun-
ciones de transferencia sin ceros fuera del disco unitario, que tengan o no polos
en él. Diremos que un cero tiene fase no mı́nima si tiene magnitud mayor o,
al menos, igual a uno, de otra forma se denominará cero de fase mı́nima. Si
hablamos de una función de transferencia estable nos referimos a que todos
sus polos se ubican sobre el disco unitario abierto; si decimos que inestable,
es porque al menos uno de sus polos se encuentra fuera del disco unitario, o
sobre el borde de este último. Los polos en si mismos también se pueden de-
nominar estables o inestables , si se encuentran dentro o fuera del disco unitario
abierto,respectivamente 2 .
A continuación examinaremos la influencia sobre la respuesta transiente de
un sistema de los polos y ceros de su función de transferencia.
8.6.1. Polos
Las funciones que se originan al aplicar la transformación Zeta a las ERS
de sistemas lineales, son funciones racionales y siempre pueden descomponerse
en fracciones parciales. Cada uno de los términos de esta expansión contiene
ya sea un polo real simple, un par de polos complejos conjugados o múltiples
combinaciones de polos repetidos. Por tanto, para conocer el efecto de los polos
en la respuesta transiente de un sistema basta conocer el efecto ocasionado por
los polos de primer y segundo orden y su interacción.
Un polo de primer orden contribuye a la descomposición en fracciones par-
ciales, en general, con un término de la forma:
K1 (1 − a)
H1 (z) = (8.73)
z−a
donde K1 es la ganancia a continua.
2 En ocasiones, por abuso de lenguaje, a los ceros de fase no mı́nima también se les denomina
ceros inestables, dado que se encuentran en la región del plano z en que los polos son
inestables.
212CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
modos naturales Mientras que un polo de segundo orden contribuye a la expansión con un
término:
1 − 2ρ cos θo + ρ2
H2 (s) = K2 (8.74)
z 2 − 2zρ cos θo + ρ2
donde K2 es la ganancia a continua.
En el Capı́tulo 4 se describió gráficamente la relación entre la ubicación de
las frecuencias naturales (simples) y los modos naturales. Dado que los polos de
H(z), salvo aquellos ubicados en el origen, son iguales a las frecuencias naturales,
es conveniente repetir la descripción gráfica de esa relación.
Figura 8.4: Relación entre la ubicación de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).
Cada polo genera un término especı́fico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos están presentes también en la respuesta a cualquier entrada al
sistema (excepto en casos muy excepcionales cuando hay coincidencia de polos
8.6. POLOS, CEROS Y LA RESPUESTA TEMPORAL 213
polos!rápidos
z polos!dominantes
polos!lentos
Figura 8.5: Relación entre la ubicación de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).
con ceros). El tipo de modo natural asociado a cada polo de un sistema depende
de la ubicación de éste sobre el plano complejo z , exactamente equivalente a la
ubicación de cada frecuencia natural λ sobre un plano complejo, como se vió en
el Capı́tulo 4. Para ilustrar esto podemos apreciar en la Figura 8.4 las diferentes
respuestas a impulso de un sistema de un único polo.
En forma análoga a lo que ocurre con los sistemas continuos en el tiempo,
nos referiremos, en general, como polos rápidos a aquellos que se encuentran
más cercanos al origen del plano z . Esto es equivalente que considerar que la
respuesta transiente asociada a estos polos desaparece más rápido que aquella
asociada a los otros polos, tal como puede apreciarse en la figura 8.4. Por otro
lado, llamaremos polos dominantes o polos lentos a aquellos que se encuantran
al interior del disco unitario, pero más cercanos al lı́mite de estabilidad (cir-
cunferencia unitaria) que el resto de los polos de sistema. Esto equivale a decir
que el transiente asociado a los polos dominantes decae más lentamente que los
demás modos naturales.
214CAPÍTULO 8. ANÁLISIS BAJO EXCITACIONES ARBITRARIAS. LA TRANSFORMADA ZETA
ceros Por ejemplo, si tenemos un sistema cuyos polos están ubicados en (−0, 5; −0, 6±
controlabilidad
observabilidad j0, 6; −0, 2; −0, 2+j0, 3), podemos decir que los polos dominantes es −0, 6±j0, 6
y el polo más rápido es el que se encuentra en −0, 2.
8.6.2. Ceros
En general, el efecto de la ubicación de los polos en la dinámica de un sis-
tema puede entenderse sin demasiada dificultad dada su directa relación con la
estabilidad y las caracterı́sticas generales de la respuesta del sistema. De hecho
en la literatura sobre sistemas y su estabilidad se puede encontrar mucha más
información que la aquı́ detallada. Por el contrario, a menudo se ha subestima-
do el efecto de los ceros en el análisis del comportamiento de un sistema. Sin
embargo, en los últimos años se ha vuelto a dar un vistazo al efecto de los ceros
sobre la respuesta de un sistema, que ahora son reconocidos por su importancia,
por ejemplo, al definir criterios de diseño de sistemas de control. Es asi como,
mientras que los polos de un sistema están asociados a la presencia de sus modos
naturales aislados, los ceros reflejan de algún modo la interacción entre éstos,
por ejemplo, en el caso en que la salida de un sistema está formada por la suma
de dos modos naturales diferentes. Además, a pesar que la ubicación de los polos
determina los modos naturales de un sistema, es la ubicación de los ceros la que
determina la proporción en que los modos aparecen combinados en la salida. En
estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. De hecho, la ubicación relativa
de polos y ceros tiene directa relación con los conceptos de observabilidad y
controlabilidad, como se detalla en el Capı́tulo 10.
Veamos esto a través de un ejemplo.
α
z − 0, 5
U (z) Y (z)
1−α
z − 0, 8
Figura 8.6: Sistema discreto con interacción aditiva entre dos estados.
3α+1 cancelación!cuasi-
Este sistema tiene sus polos en p1 = 0, 5 y p2 = 0, 8 y un cero en c1 = 3α+2 .
undershoot
Es decir, la ubicación está directamente relacionada con el peso de cada uno contrarespuesta
de los modos naturales en la respuesta del sistema, por ejemplo, a un impulso respuesta!inversa
unitario en la entrada:
(z − 0,5074)
H(z) = 0, 203 (8.77)
(z − 0, 5)(z − 0, 8)
En esta puede observarse la cercanı́a del cero al polo en z = 0, 5. La respuesta
a impulso será en este caso:
para |z| ≥ 1 y, por otro lado, por el hecho que la respuesta a un escalón está bien
definida para |z| > 1. En consecuencia, la región de convergencia para y[t] es
|z| > 1.
Si ahora, en la ecuación (8.80), hacemos z = c (note que, por ser c > 1,
está en la región de convergencia) obtenemos, aplicando el hecho que H(c) = 0
∞
K X
H(c) = y[t]c−t = 0 (8.81)
c t=0
Como la suma es cero, y c−t > 0, ∀t, necesariamente y[t] debe ser negativa
en uno o más lapsos, y positiva, el resto del tiempo.
1
1
Respuesta a escalón
Respuesta a escalón
0.5
0.5
0 0
−0.5 −0.5
−1
−1
0 10 20 30 40 50 0 10 20 30 40 50
Tiempo [s] Tiempo [s]
Capı́tulo 9
Representación de sistemas
lineales
219
220 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
Bode!diagramas de
Bode|textbf
9.2. Diagramas de Bode
diagramas!de Bode
ejes logarı́tmicos 9.2.1. Tiempo continuo
decada
octava Como ya hemos visto, un sistema de tiempo continuo puede ser caracterizado
decibel por la función H( ω). El diagrama de Bode correspondiente a esta función
factores canónicos está formado por dos gráficos: uno que describe la evolución de su magnitud
|H( ω)| como función de la frecuencia angular ω, y el otro describe el ángulo
de la respuesta en frecuencia ∠H( ω), también como función de la frecuencia
angular ω.
Los diagramas de Bode son dibujados con ejes especiales:
[B1] K
donde el exponente q ∈ {−1; 1} describe las dos opciones para cada factor: su
presencia en el numerador o en el denominador de la funcion H( ω) dada.
A continuación se presente un ejemplo ilustrativo.
e−0,1 ω ( ω + 2)
H( ω) = 6 (9.2)
ω( ω + 1)(( ω)2 + ω + 4)
Que puede reescribirse como:
(3) · (e−0,1 ω ) · (1 + 0, 5 ω)
H( ω) = (9.3)
ω ω 2
( ω) · (1 + ω) · 1 + 2 × 0, 25 +
2 2
222
donde cada uno de los factores elementales, F` ( ω), es una función perteneciente
a alguno de los tipos [B1] a [B5]. Entonces
n
X n
X
|H( ω)|dB = 20 log10 |H( ω)| = 20 log10 |F` ( ω)| = |F` ( ω)|dB (9.5)
`=1 `=1
n
X
∠H( ω) = ∠F` ( ω) (9.6)
`=1
Es decir:
Bode!ası́ntotas [B1]
En este caso F ( ω) = K y su magnitud es exactamente:
[B2]
En este caso F ( ω) = (1 + T ω)q , donde q ∈ {−1; 1}. Entonces:
p
|F ( ω)|dB = 20 q log10 1 + T 2 ω 2 = 10 q log10 (1 + T 2 ω 2 ) (9.9)
∠F ( ω) = q arctan(T ω) (9.10)
1
ω =⇒ |F ( ω)|dB ≈ 0 [dB] (9.11)
|T |
1
ω =⇒ |F ( ω)|dB ≈ 20q log10 (|T |ω) (9.12)
|T |
Esto significa que la magnitud de la respuesta en frecuencia de una función
tipo [B2] puede aproximarse por dos ası́ntotas: una de baja frecuencia, con
pendiente 0 [dB/dec] y otra de alta frecuencia, cuya pendiente es 20q [dB/dec].
Estas ası́ntotas se intersectan en ω = 1/|T |. Cuando q = −1, a esta p frecuencia
la curva exacta pasa √ 3 [dB] más abajo, ya que |F (j/|T |)| = 1/2 y basta
recordar que 20 log10 0, 5 ≈ −3, 0103.
En la Figura 9.1 se muestra la aproximación asintótica y la curva exacta para
una función tipo [B2], con q = −1, en término de la frecuencia normalizada ω|T |.
La fase de la respuesta en frecuencia es más difı́cil de aproximar de una
manera simple. Sabemos que para |T ω| 1 la fase es aproximadamente cero
y que para |T ω| 1, la fase es aproximadamente φ∞ = 90 q signo(T ) [o ]. Una
aproximación aceptable puede ser construida por tres rectas:
Una recta horizontal en 0 [o ] en el rango de frecuencia (−∞; 0, 1/|T |), es
decir, hasta una década antes de 1/|T |).
Una recta que une los puntos (0; 0, 1/|T |) y (10/|T |; φ∞ ), es decir, desde
una década antes hasta una década después de 1/|T |). Esta recta tiene
una pendiente de 0, 5φ∞ [o /dec] (para el caso con T > 0 y q = 1, esta
pendiente es 45 [o /dec]),
9.2. DIAGRAMAS DE BODE 223
10
0
Magnitud [dB]
−10
−20
−30
−40
−50
−2 −1 0 1 2
10 10 10 10 10
ω |T|
Figura 9.1: Diagrama de Bode de magnitud para una función tipo [B2], con
q = −1
20
−20
Fase [°]
−40
−60
−80
−100
−2 −1 0 1 2
10 10 10 10 10
ωT
Figura 9.2: Diagrama de Bode de fase para una función tipo [B2], con q = −1
[B3]
En este caso, F ( ω) = ( ω)q , q ∈ {−1; 1}. La magnitud, en decibeles, está dada
por:
|F ( ω)|dB = 20q log10 |ω| (9.13)
De esta forma, considerando que el eje de abscisas está en escala logarı́tmica, la
magnitud es una recta con pendiente 20q [dB/dec].
La fase, en tanto, es:
∠F ( ω) = 90 q[o ] (9.14)
224 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
[B4]
En este caso, el factor canónico es de la forma:
" 2 # q
ω ω
F ( ω) = 1 + 2ξ + (9.15)
ωn ωn
40
20
Magnitud [dB]
−20
−40
−1 0 1
10 10 10
ω/ω
n
Figura 9.3: Diagrama de Bode de magnitud para una función tipo [B4], con
q = −1 y dos valores de ξ.
9.2. DIAGRAMAS DE BODE 225
Ası́, en baja frecuencia, la magnitud (en [dB]) puede ser aproximada por una resonancia
ası́ntota horizontal en 0 [dB]. En alta frecuencia, la aproximación asintótica es
una recta de pendiente 40q [dB/dec] que pasa por el punto (ωn ; 0). Sin embargo,
la curva exacta puede ser muy distinta a la aproximación asintótica, dependiendo
del valor del parámetro ξ. Esto puede se ilustra en la Figura 9.3, donde se
muestran las curvas exactas para ξ = 0, 01 and ξ = 0, 1. La flecha indica la
dirección en la que aumenta ξ. Note que en el caso lı́mite, cuando ξ = 0, el
diagrama tiende a ∞ [dB].
En general, el diagrama de magnitud exhibe, a la frecuencia ωr , un pico
de resonancia Mr , valor que puede calcularse usando los métodos clásicos del
Cálculo. Para simplificar el desarrollo, usaremos la frecuencia normalizada ν =
ω/ωn y el hecho que para q = −1, |F ( ω)|dB alcanza el máximo a la misma
frecuencia νr a la que g(ν) = (1−ν 2 )2 +4ξ 2 ν 2 alcanza el mı́nimo. Ası́, derivando
y haciendo igual a cero se obtiene:
dg(ν)
= 2(1 − ν 2 )(−2ν) + 8ξ 2 ν = 0 (9.20)
dν
donde se observa que la resonancia ocurre exactamente en:
p p
νr = 1 − 2ξ 2 =⇒ ωr = ωn 1 − 2ξ 2 (9.21)
ω ωn =⇒ ∠F ( ω) ≈ 0 [o ] (9.23)
ω ωn =⇒ ∠F ( ω) ≈ 180 q[o ] (9.24)
−50
Fase [o]
−100
ξ
−150
−200
−1 0 1
10 10 10
ω/ωn
Figura 9.4: Diagrama de Bode de fase para una función tipo [B4], con q = −1
Maple
> assume(q,integer);
> assume(xi>0,omega>0,omega_n>0);
> interface(showassumed=0);
> H(omega):=(1+2*xi*I*omega/omega_n+(I*omega/omega_n)^2)^q;
> fase_H:=evalc(argument(H(omega)));
> d_fase_H:=factor(diff(subs(omega=10^phi,fase_H),phi));
> simplify(subs(phi=log10(omega_n),d_fase_H));
2 !q
2ξ( ω) ω
H( ω) = 1 + + (9.25)
ωn ωn
sen q arctan ω2ξω nω
2 −ω 2
f aseH ( ω) = arctan n (9.26)
cos q arctan ω2ξω nω
2 −ω 2
n
d 2 q ξ 10 ln(10)ωn ωn + (10φ )2
φ 2
f aseH = 2 2 (9.27)
dφ (ωn2 − (10φ )2 ) + (2ξ(10φ )ωn )
d q ln(10) 2, 3 q
f aseH = ≈ (9.28)
dφ φ=10ωn ξ ξ
9.2. DIAGRAMAS DE BODE 227
[B5] retardo
retardo!diagrama de Bode
En este caso, tenemos la función F ( ω) = e−τ ω , τ > 0, y por lo tanto: Bode!aproximación asintótica
Bode!frecuencias de quiebre
|F ( ω)|dB = 1 (9.29)
∠F ( ω) = −ωτ (9.30)
Note que el retardo puro sólo introduce un ángulo de fase lineal en frecuen-
cia; sin embargo, dado que los diagramas de Bode usan una escala de frecuencia
logarı́tmica, la fase no aparece como una recta, sino que como una curva expo-
nencial. Esto último se debe a que la fase puede también escribirse como:
−100
−200
Fase [o]
−300
−400
−500
−600
−1 0 1
10 10 10
ωτ
Figura 9.5: Diagrama de Bode de fase para una función tipo [B5]
222
Con las aproximaciones para las clases [B1] a [B4], más la representación
exacta de la clase [B5], se puede construir una aproximación global para una
función arbitraria H( ω) usando (9.5)-(9.6). De esa forma, la aproximación,
tanto para la magnitud (en [dB]) como para la fase (en [o ]) de H( ω) se puede
calcular sumando las aproximaciones para cada uno de los factores canónicos.
A continuación bosquejamos una forma sistemática de construir esas aprox-
imaciones. Esto requiere tener presente las aproximaciones ası́ntóticas de los
factores [B1]-[B4], que resumimos en las Tablas 9.1 y 9.2.
Note que las ası́ntotas son rectas que se encuentran en puntos o frecuencias
de quiebre.
Con estas ası́ntotas se puede desarrollar un proceso constructivo, tanto para
magnitud como para fase. La contribución de factores tipo [B1] y [B5] es agre-
gada al final en ambos diagramas. Lo mismo se aplica a la contribución de un
factor tipo [B3] en el diagrama de fase. El procedimiento se desarrolla a través
de los siguientes pasos:
228 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
K 0 [dB] ∀ω
( ω)` 20` log10 ω [dB]
∀ω
`
(1 + ωT ) 0 [dB] 20` log10 (ω|T |) [dB]
1
T ∈R ∀ω < |T |
∀ω > |T1 |
2 !`
ω ω ω
1 + 2ξ + 0 [dB] 40` log10 [dB]
ωn ωn ωn
0≤ξ<1 ∀ ω < ωn ∀ ω > ωn
Paso 3 Anote para cada factor, los puntos de quiebre de sus ası́ntotas ası́ como
la pendiente de ellas entre cada par de puntos de quiebre consecutivos.
Tome en inmediata consideración los factores repetidos (tal como se ha
hecho en las Tablas 9.1 y 9.2).
Paso 8 Si H( ω) incluye un factor ( ω)` , es decir, un factor tipo [B3], desplace
verticalmente el diagrama de fase en 90` [o]. Además, si K < 0, desplace
verticalmente el diagrama de fase en ±180 [o ].
como en fase
9.2. DIAGRAMAS DE BODE 229
K (1 − signo(K))90 [o ]
∀ω
`
( ω) 90` [o ] ∀ω
` o
(1 + ωT ) 0[ ] 45` log10 (10ω|T |) [o ] 90` [o ]
1 1 10 10
T >0 ∀ω < |10T | |10T |
<ω< |T |
∀ω > |T |
8( ω − 2)( ω + 1)
H( ω) = (9.32)
ω( ω + 8)( ω − 4)
Lo primero que debemos hacer es re-escribir H( ω) como el producto de seis
factores (F1 ( ω) a F6 ( ω)) canónicos del tipo [B1] a [B5]. Ası́ se obtiene
Diagrama de fase:
A similitud del caso de la magnitud construimos un cuadro donde se especi-
fica la contribución, en pendiente de la fase, de cada factor, entre dos puntos
sucesivos. Las pendientes son múltiplos de 45 [o/dec]. El lector es invitado a re-
visar nuevamente la Tabla 9.2 para tener en mente las caracterı́sticas ası́ntóticas
de cada factor.
La última lı́nea de la Tabla 9.4 muestra el efecto acumulado de los factores F3
a F6 . Con esta información podemos ejecutar los Pasos 4 a 6 del procedimiento
bosquejado.
Para el Paso 8 apreciamos que el efecto del factor F1 sobre la fase es nulo,
ya que se trata de una ganancia positiva. En cambio, el factor F2 sı́ afecta la
fase, desplazándola en −90 [o ].
El diagrama asintótico de fase resultante aparece en el gráfico inferior de la
Figura 9.6 donde también se indica la curva exacta.
(−∞; 0, 1] (0, 1; 0, 2] (0, 2; 0, 4] (0, 4; 0, 8] (0, 8; 10] (10; 20] (20; 40] (40; 80] (80; 100]
F3 0 1 1 1 1 0 0 0 0
F4 0 0 -1 -1 -1 -1 0 0 0
F5 0 0 0 1 1 1 1 0 0
F6 0 0 0 0 -1 -1 -1 -1 0
Ac. 0 1 0 1 0 -1 0 -1 0
222
La complejidad de los sistemas, ası́ como la necesidad de precisión hacen que
el procedimiento descrito tenga un valor limitado. Por ello, es también impor-
9.2. DIAGRAMAS DE BODE 231
8( ω)2 − 8 ω − 16
H( ω) = (9.34)
( ω)3 + 4( ω)2 − 32 ω
Entonces, los diagramas de Bode obtienen con el código Matlab :
Matlab
40
30
20
Magnitud [dB]
10
−10
−20
−30
−2 −1 0 1 2
10 10 10 10 10
−55
−60
−65
Fase [o]
−70
−75
−80
−85
−90
−2 −1 0 1 2
10 10 10 10 10
Frecuencia [rad/s]
Maple
> H:=0.2/(exp(2*I*theta)-1.5*exp(I*theta)+0.7);
> abs(H);
> argument(evalc(H));
0,2
|H(ejθ )| = p (9.36)
(− cos 2θ + 1, 5 cos θ − 0, 7)2 + (− sen 2θ + 1, 5 sen θ)2
jθ sen 2θ − 1, 5 sen θ
∠H(e ) = arctan (9.37)
cos 2θ − 1, 5 cos θ + 0, 7
Se puede apreciar que las expresiones obtenidas no son simples de aproximar,
ya sea en baja o alta frecuencia, usando o no escala logaritmica en la frecuencia.
Sin embargo, en Matlab , resulta muy simple obtener el gráfico de la magnitud
y el ángulo de la función H(ejθ ), usando el comando bode. Note que este es el
mismo que se usa para tiempo continuo, por tanto se debe tener el cuidado
de definir la función de transferencia en tiempo discreto. Con los siguientes
comandos, Matlab entrega los gráficos de la Figura 9.7, donde se aprecia una
lı́mite de la banda de frecuencia en θ = π, producto de la periodicidad inherente
al análisis en frecuencia en tiempo discreto:
9.3. DIAGRAMAS POLARES 233
diagrama polar
polar!diagrama
Matlab
Bode Diagram
5
−5
Magnitude (dB)
−10
−15
−20
−25
−90
Phase (deg)
−180
−270
−360
−1 0
10 10
Frequency (rad/sec)
222
1
H( ω) = (9.38)
( ω + 3)(( ω)2 + 0, 4 ω + 1)
Si se evalúa H( ω) en un rango de frecuencias 0 < ω < ∞ y dibujamos
el resultado en en plano cartesiano se obtiene el resultado que aparece en el
diagrama polar de la Figura 9.8. Esta figura se obtiene con el siguiente código
Matlab :
Matlab
>>H=tf(1,conv([1 3],[1 0.4 1]));
>>w=logspace(-2,1,1000);h=freqresp(H,w);
>>plot(real(h(1,:)), imag(h(1,:)))
Matlab
0.1
ω4 ω=∞ ω=0
0
−0.1
−0.2
ω1
Parte imaginaria
−0.3
−0.4
−0.5
ω2
−0.6
−0.7
ω
−0.8 3
−0.9
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
Parte real
[P1] K
1
[P2]
Tω + 1
[P3] ( ω)q , q ∈ {−1; 1}
" 2 #−1
ω ω
[P4] + 2ξ +1 0 ≤ ξ < 1, ωn > 0.
ωn ωn
236 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
90
1
120 60
0.8
0.6
150 30
0.4
0.2
ω4 ω=0
180 0
ω1
210 ω2 330
ω3
240 300
270
1
[P6] ,T >0
ω(T ω + 1)
e− ωτ
[P7]
Tω + 1
1
[P8]
( ω)2 − ωo2
[P1]
En este caso el diagrama polar es un único punto, ∀ω ∈ R. Este punto corre-
sponde a (K, 0).
9.3. DIAGRAMAS POLARES 237
[P2]
Podemos determinar la descomposición cartesiana (partes real e imaginaria) y
la descomposición polar (magnitud y fase). Ası́:
1 ωT
F ( ω) = −j 2 2 (9.39)
ω2 T 2 + 1 ω T +1
1
|F ( ω)| = √ (9.40)
ω T2 + 1
2
(
− arctan(ω|T |) T > 0
∠F ( ω) = (9.41)
arctan(ω|T |) T <0
Entonces, examinando la caracterı́stica de fase, se observa que el diagrama
polar recorre el cuarto cuadrante para T > 0 y el primer cuadrante si T < 0. Por
otro lado la magnitud es monotónicamente decreciente, desde 1 (para ω = 0)
hasta cero (para ω = ∞); sin embargo, en este caso particular se puede decir algo
más, porque es fácil demostrar, usando (9.39) que las partes real e imaginaria
de F ( ω) cumplen con
(<{F ( ω)} − 0, 5)2 + (={F ( ω)} = 0, 25 (9.42)
lo cual indica que el diagrama polar es una semi-circunferencia centrada en
(0, 5; 0) con radio 0, 5. Esta semi-circunferencia está en el cuarto cuadrante para
T > 0 y en el primero para T < 0.
Note además que el valor absoluto de T no afecta el diagrama, pues solamente
equivale a re-escalar la frecuencia, la cual se encuentra implı́cita como parámetro
que hace recorrer la curva.
Además, de (9.41) vemos que la fase tiende a −0, 5πsigno(T ). Es decir,
cuando ω tiende a infinito, el diagrama polar tiende al origen, apegándose al eje
imaginario por abajo (T > 0) o al al eje imaginario por arriba (T < 0).
Los diagramas polares correspondientes a T > 0 y a T < 0 se muestran en
la Figura (9.10).
Parte imaginaria
0.4
−0.2
0.2
−0.4
ω1 0
ω3
−0.6 ω2 ω=∞ ω=0
−0.2
0 0.5 1 0 0.5 1
Parte real Parte real
[P3]
En este caso, F ( ω) = ( ω)q . Esta función tiene parte real cero para q ∈ {−1; 1}.
238 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
Ası́ es que el diagrama polar coincide con el eje imaginario (semi-eje superior
para q = 1 y semi-eje inferior para q = −1). La fase es 0, 5qπ ∀ω ∈ R+ . Para
valores de ω tendiendo a cero, la magnitud tiende a infinito. Para ω tendiendo
a infinito, la magnitud tiende a cero.
[P4]
En este caso conviene descomponer la función F ( ω) en sus partes real e imag-
inaria en la forma
ωn2
F ( ω) = =
( ω)2 + 2ξωn ω + ωn2
(ω 2 − ωn2 )ωn2 2ξ ωn3 ω
− j (9.43)
(ω 2 − ωn2 )2 + 4ξ 2 ωn2 ω 2 (ω 2 − ωn2 )2 + 4ξ 2 ωn2 ω 2
ω=∞ ω=0
0
0,25
−2
Parte Imaginaria
0,15
−4
0,1
−6
−8
ξ=0,05
−10
−12
−6 −4 −2 0 2 4 6
Parte Real
Figura 9.11: Diagrama polar de una función tipo [P4] para distintos valores de
ξ
de la respuesta en frecuencia para el sistema elemental [B4] (ver Figura 9.4 en retardo!diagrama polar
cı́rculo unitario
la página 226). Observamos que la fase decae monotónicamente a medida que ω
crece. Un aspecto de interés es que, cuando ω → ∞, el diagrama polar se acerca
al origen asintóticamente siguiendo el eje real negativo.
La Figura 9.11 muestra los diagramas polares de F ( ω) tipo [P4], para dis-
tintos valores de ξ. Note que el valor de ωn no altera los diagramas, porque este
parámetro sólo produce escalamiento de la frecuencia (ojo, esta afirmación es
sólo válida si ωn > 0; el lector es invitado a investigar el caso ωn < 0).
[P5]
La respuesta en frecuencia del retardo puro, e− ωτ , tiene magnitud unitaria,
∀ω ∈ R, y con fase igual a −ωτ , en consecuencia el diagrama polar es una
circunferencia unitaria con centro en el origen.
[P6]
La función F ( ω), en este caso, puede descomponerse en sus partes real e imag-
inaria, en la forma:
1 −T ω + 1 −T 1
F ( ω) = = = −j (9.44)
ω(T ω + 1) ω(1 + ω 2 T 2 ) (1 + ω 2 T 2 ) ω(1 + ω 2 T 2 )
La descomposición en magnitud y fase está dada por:
1
|F ( ω)| = √ (9.45)
ω ω2 T 2 + 1
∠F ( ω) = −0, 5π − arctan(ωT ) (9.46)
De la ecuación (9.44) se observa que la parte real es siempre negativa, y que
la parte imaginaria también es siempre negativa. Por lo tanto, el diagrama polar
de F ( ω) está confinado al cuarto cuadrante. De la ecuación (9.45) se ve que
la magnitud decrece montónicamente a medida que la frecuencia aumenta. Esto
es consistente con la ecuación (9.44), ya que de allı́ sabemos que tanto la parte
real como la parte imaginaria decaen monotónicamente a cero.
De la ecuación (9.46) se ve también que para ω = 0 la fase es −0, 5π; sin
embargo, esto no implica que a esa frecuencia la parte real sea cero. De hecho,
de la ecuación (9.44) se ve que la parte real, para ω = 0, es igual a −T . Para
ω = ∞ la fase tiende a −π; esto implica que el diagrama polar tiende al origen
acercándose asintóticamente al eje real negativo.
En la Figura 9.12 se muestra el diagrama polar de una función tipo [P6] con
T = 1. Se observa que la parte real viene desde (−1; −∞) cuando ω = 0.
[P7]
La función en este caso es el producto de una función tipo [P5] y una función
tipo [P6]. Por lo tanto la magnitud resultante es el producto de las magnitudes
de los factores y la fase es la suma de la fase de los factores, es decir:
1
|F ( ω)| = √ ; ∠F ( ω) = −ωτ − 0, 5π − arctan(ωT ) (9.47)
ω ω2 T 2 + 1
240 CAPÍTULO 9. REPRESENTACIÓN DE SISTEMAS LINEALES
espiral
0
ω=∞
−2
−4
−6
−8
ω→ 0
−10
−12
−1.5 −1 −0.5 0 0.5
La magnitud es la misma de una función tipo [P6], lo cual implica que decae
monótonamente a medida que la frecuencia crece. Por su parte, la fase exhibe
un crecimiento monótono, en la dirección negativa; esta caracterı́stica se debe
al término −ωτ . Dado que la magnitud decae monótonamente, el crecimiento
de la fase genera una espiral hacia el origen.
1 0.02
0 0.01
Parte imaginaria
Parte imaginaria
0
−1
−0.01
ω→ 0
−2
−0.02
−3 −0.03
ω→ 0
−4 −0.04
−3 −2 −1 0 1 −0.04 −0.02 0 0.02 0.04
Parte real Parte real
a) b)
[P8]
En este caso, F ( ω) = 1/(( ω)2 − ωo2 ). Para esta función el diagrama polar
9.3. DIAGRAMAS POLARES 241
1
H( ω) = (9.48)
(0, 5 ω + 1)(( ω)2 + 1)
1 ω
H( ω) = −j (9.49)
(0, 25ω 2 2
+ 1)(−ω + 1) (0, 25ω + 1)(−ω 2 + 1)
2
y en magnitud y fase:
1
|H( ω)| = p (9.50)
0, 25 ω 2 + 1 |ω 2 − 1|
(
− arctan(0, 5ω) ∀ω < 1
∠H( ω) = (9.51)
−π − arctan(0, 5ω) ∀ω > 1
El diagrama polar para este ejemplo aparece en la Figura 9.14. Note que se
ha dibujado con lı́nea delgada la ası́ntota del diagrama polar para ω → 1− y para
ω → 1+ .
1.5
+
ω→ 1
1
0.5
Parte imaginaria
0
ω=0
ω=∞
−0.5
−1
ω→ 1−
−1.5
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Parte real
222
( ω + 5)2 (− ω + 0, 1)
H( ω) = 0, 001 (9.52)
( ω + 0, 5)( ω + 0, 2)( ω + 0, 1)2
Para una función tan compleja como ésta, podemos deducir algunas rasgos
del diagrama polar:
Matlab
−4
x 10
1 2
0.8 0
Parte imaginaria
Parte imaginaria
0.6 −2
0.4 −4
0.2 −6
0 −8
−0.2 −10
−0.4 −12
−2 −1.5 −1 −0.5 0 0.5 0 1 2 3 4
Parte real Parte real −3
x 10
a) b)
>> w2=logspace(0.3,3,4000);h2=freqresp(H,w2);
>> subplot(222);plot(h2(1,:));
222
ejθ
θ=π η θ=0
po
ejθ − zo
F (ejω ) = = 1 − zo e−jθ ; 0 < zo < 1 (9.55)
ejθ
Las caracterı́sticas del diagrama polar pueden ser construidas a partir de la
Figura 9.17.
ejθ
γ
θ=π θ β θ=0
zo
|ejθ − zo |
|F (ejθ )| = = |ejθ − zo | (9.56)
|ejθ |
∠F (ejθ ) = ∠(ejθ − zo ) − ∠ejθ = β − θ (9.57)
bloques , que en el caso de Ejemplo 9.7 los siguientes comandos dan como resultado el
diagramas de bloques
sistema!interconexión gráfico de la Figura 9.18.
interconexión
Matlab
0.8
0.7
0.6
Parte imaginaria
0.5
0.4
0.3
0.2
0.1
θ=0 θ=π
0
1−zo 1+zo
−0.1
−0.2
−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
Parte real
V2 ( ω) R2
H1 ( ω) = = (9.58)
V1 ( ω) ωC3 R1 R2 + R1 + R2
V4 ( ω) ωC4 R5
H2 ( ω) = = (9.59)
V3 ( ω) ωC4 R5 + 1
R1 C4
V2 ( ω) R2 (R5 C4 ω + 1)
=
V1 ( ω) R1 R2 R5 C3 C4 ω 2 + (R1 R2 C4 + R1 R5 C3 + R2 R5 C4 ) ω + R1 + R2
(9.60)
V4 ( ω) V4 ( ω) R5 C4 ω
= = (9.61)
V2 ( ω) V3 ( ω) R 5 C4 ω + 1
R1 − C4
+
H1 ( ω) H2 ( ω) H1 ( ω)H2 ( ω)
H1 ( ω)
+
H1 ( ω) + H2 ( ω)
+
H2 ( ω)
+
H1 ( ω) H2 ( ω) H1 ( ω)H2 ( ω)
±
1 ∓ H1 ( ω)H2 ( ω)
+
H1 ( ω)
± H1 ( ω)
1 ∓ H1 ( ω)H2 ( ω)
H2 ( ω)
H3 ( ω)
+ (H1 ( ω) + H3 ( ω))H2 ( ω)
H1 ( ω) H2 ( ω) 1 + H1 ( ω)H2 ( ω)
+ − +
+
H1 ( ω) H2 ( ω) H3 ( ω) H1 ( ω)H2 ( ω)H3 ( ω)
+ − −
1 + H2 ( ω) + H1 ( ω)H2 ( ω)H3 ( ω)
Problema 9.3. Dados los diagramas de Bode de la Figura 9.21, proponga una
función de transferencia H(s) que pueda ser representada aproximadamente por
ellos.
Problema 9.4. Con los diagramas de Bode de G(s) que aparecen en la Figura
9.22, determine en forma aproximada los diagramas de Bode para e−2s G(s),
−s+1 G(s)
s+1 G(s) y s .
20
−20
−40
−60
−80
100
50
0
Fase (grados)
−50
−100
−150
−200
−2 −1 0 1 2 3
10 10 10 10 10 10
Frecuencia (rad/seg.)
−10
−20
−30
−40
−50
−50
Fase (grados)
−100
−150
−200
−2 −1 0 1
10 10 10 10
Frecuencia (rad/seg.)
−5
−10
−15
−20
−25
−20
Fase (grados)
−40
−60
−80
−100
−1 0 1 2
10 10 10 10
Frecuencia (rad/seg.)
Capı́tulo 10
Representación en variables
de estado.
253
254 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
sistema!dinámico vez, sino que se construye en un proceso iterativo, que considera la calidad de
sistema!hı́brido
muestreo los resultados obtenidos con él en las diferentes etapas, por ejemplo, para hacer
estado!del sistema control sobre un sistema o predecir su comportamiento.
estado!variables de En este capı́tulo, nos interesa introducir una clase especial de modelos, útil
variables!de estado
para describir sistemas dinámicos. Como ya hemos visto, estos sistemas se car-
estado!vector de
vector!de estado acterizan por la interacción de sus variables en el tiempo, y se describen, en
estado!espacio de tiempo continuo, a través de ecuaciones diferenciales (EDS en Cap. 3), y en
estado!trayectoria tiempo discreto, a través de ecuaciones recursivas (ERS en Cap. 4).
Además de estos dos tipos de sistemas dinámicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hı́bridos en los que se
establece una relación entre tiempo continuo y discreto a través del muestreo.
En este capı́tulo hemos enfatizado los conceptos, propiedades fundamentales,
interpretaciones fı́sicas y ejemplos, sin embargo, para un estudio en mayor pro-
fundidad de los tópicos aquı́ presentados el lector puede consultar, por ejemplo,
las referencias [5], [8], [15], [18], [19], [20], [21].
por la definición dada, se pueden obtener a partir del estado del sistema.
Esto sugiere además que podemos pensar el estado de un sistema de forma
más general, ya que las variables de estado pueden ser cualquier función de
variables del sistema. Esta observación resulta muy importante pues establece
que el estado del sistema no necesariamente esta formado por variables reales
del sistema, permitiendo de esta forma un análisis más general. Es más, esta
misma observación hace evidente que la elección de las variables de estado no
es única.
roce viscoso
Con esta elección, se pueden aplicar las leyes de Newton para obtener:
dv(t)
f (t) = M + Kd(t) + Dv(t) = M ẋ2 (t) + Kx1 (t) + Dx2 (t) (10.7)
dt
donde D es el coeficiente de roce viscoso, o constante de proporcionalidad.
De esta forma podemos escribir las ecuaciones de estado del sistema:
Para esto se utilizan modelos de estado sin excitaciones o señales de entrada. se~
nal!de tiempo continuo
se~
nal!de tiempo discreto
Por tanto, la señal que se obtiene como salida del sistema sólo depende de la sistema!tiempo continuo
condición inicial del vector de estado.
Este tipo de sistemas sin señal de entrada se denominan homogéneos o
autónomos:
dx(t)
= Ax(t) (10.12)
dt
y(t) = Cx(t) (10.13)
Esta esta formada por una sinusoide más una constante, y puede interpre-
tarse como la solución de la ecuación diferencial homogénea:
d 3 f (t) d f (t)
+ 25 = 0; sujeta a f (0) = 6; f˙(0) = −5 and f¨(0) = −100
dt 3 dt
(10.17)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f˙(t) y
x3 (t) = f¨(t), entonces el modelo el espacio de estado de esta señal es:
0 1 0
dx(t)
= 0 0 1 x(t) y(t) = [1 0 0] x(t) (10.18)
dt
0 −25 0
222
10.3.1. Linealización
Si consideramos el modelo de un sistema invariante en el tiempo, las ecua-
ciones (10.1)-(10.2) se reducen a:
dx
= F(x(t), u(t)) (10.19)
dt
y(t) = G(x(t), u(t)) (10.20)
0 = F(xQ , uQ ) (10.21)
yQ = G(xQ , uQ ) (10.22)
d∆x(t)
= A∆x(t) + B∆u(t) (10.25)
dt
∆y(t) = C∆x(t) + D∆u(t) (10.26)
i(t)
R +
L e(t)
mg
K1
f (t) = i(t) (10.29)
h(t) + K2
di(t)
e(t) = Ri(t) + L (10.30)
dt
dh(t)
v(t) = − (10.31)
dt
K1 dv(t)
f (t) = i(t) = mg + m (10.32)
h(t) + K2 dt
260 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
222
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 261
De aqui en adelante omitiremos el prefijo ∆, pero el lector debe tener en matriz!de transición
exponencial!de una matriz
mente que los modelos obtenidos mediante linealización relacionan el estado
incremental, las entradas incrementales y las salidas incrementales, en
torno al punto de equilibrio.
∞
! n !
At
X 1 k k X
x(t) = e xo = I+ A t α ` v`
k!
k=1 `=1
n
X ∞
X 1 n
X
= α` v` + Ak v ` t k = α ` e λ ` t v` (10.53)
k! | {z }
`=1 k=1 `=1
λk
` v`
det(λI − A) = 0 (10.54)
la velocidad de respuesta.
1 Todo conjunto de n vectores l.i. en Rn forman una base para Rn
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 263
plano de fase Para ilustrar estas tres situaciones podemos utiliar Matlab , que permite
definir facilmente definir sistemas en variables de estado a traves del coman-
do ss. La respuesta a una condición inicial se obtiene a través del comando
initial. Para estas simulaciones consideramos tres diferentes valores para la
constante de roce viscoso D, mientras que los otros parámetros son:
hmi
N
M = 2 [kg]; K = 0, 1 d(0) = 0, 3 [m]; and v(0) = 0, 05
m s
(10.58)
Usando código Matlab como el siguiente se obtienen los gráficos de la Figu-
ra 10.3.
Matlab
0.4
D=0
0.2 D=0.2
D=2
Amplitud
−0.2
−0.4
0 10 20 30 40 50 60 70
Tiempo (seg.)
Matlab
>> [y,t,x]=initial(S,x_o);
>> plot(x(:,1),x(:,2))
10.3. MODELOS DE ESTADO PARA SISTEMAS CONTINUOS 265
0.06
0.04
0.02
velocidad v(t)
−0.02
−0.04
−0.06
D=0
D=0.2
−0.08 D=2
−0.1
−0.5 −0.4 −0.3 −0.2 −0.1 0 0.1 0.2 0.3 0.4 0.5
distancia d(t)
Note que, excepto en el caso en que no existe roce (D = 0), la masa llegará a
detenerse asintóticamente, es decir, llega al origen del espacio de estado.
222
Esta parte del estado también incluye modos naturales, pero además contiene
los modos forzados o soluciones particulares, los cuales como hemos visto en
capı́tulos precedentes, no dependen del sistema, sino que exclusivamente de la
señal de entrada u(t). En general, los modos forzantes presentes en la entrada
aparecerán también en el estado. Sin embargo, es importante mencionar que un
caso especial sucede cuando los modos forzantes en la entrada coinciden con
alguno de los modos naturales del sistema.
equilibrio inestable Por definición, todas las variables de un sistema pueden expresarse como
punto de equilibrio
modo natural!dominante funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t)
resonancia es un vector de funciones temporales acotadas, entonces las variables del sistema
serán acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 10.1. Considere el sistema con la descripción en variables de estado
(10.44)-(10.45) donde los elementos de A, B, C y D están acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada
si, y sólo si, los autovalores de la matriz A tienen parte real estrictamente
negativa.
222
Para apreciar la aplicación de este teorema en la práctica, retomemos el
sistema del levitador magnético del Ejemplo 10.3. Para dicho sistema la matriz
A (en el modelo linealizado) está dada por la expresión:
R
− 0 0
L
A= 0 0 −1
(10.60)
Rg Rmg 2
− 0
EQ K 1 EQ
y sus autovalores o valores propios son las raı́ces de la ecuación
s ! s !
R Rmg 2 Rmg 2
det(λI − A) = λ + λ− λ+ (10.61)
L K 1 EQ K 1 EQ
En sistemas mecánicos, la energı́a cinética de una masa en movimiento y la en- transformación del estado
estado!transformación
ergı́a potencial debida a diferencia de nivel o a la compresión de un resorte. Los similaridad
principales problemas con este tipo sistemas ocurren cuando la señal de entrada
contiene energı́a en la banda de frecuencias cercana a la frecuencia con que el
sistema oscila en forma natural. En la práctica, este problema puede traducirse
en oscilaciones de magnitud que el sistema simplemente no está preparado para
soportar. Para ilustrar esta situación examinaremos un ejemplo que ilustra el
fenómeno:
Con lo cual los autovalores del sistema son las soluciones de:
det(λI − A) = λ2 + D
Mλ + K
M = λ2 + 31 λ + 1 = 0 (10.63)
q
⇒ λ1,2 = − 16 ± 1
2
−35
9 ≈ − 61 ± j (10.64)
Por tanto, los modos naturales son de la forma e−0,1667t cos(t+φ). Cualquier
excitación que posea energı́a a frecuencias cercanas a ω = 1[rad/s] hará que el
sistema entre en resonancia, haciendo que en la salida del sistema aparezcan
oscilaciones de magnitud significativa.
Se desarrolla una simulación del comportamiento del sistema bajo dos ex-
citaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia
ω = 1 [rad/s], y en el segundo caso, la excitación una señal cuadrada de frecuen-
cia fundamental ωo = 0, 333 [rad/s]. En ambos casos las condiciones iniciales
del sistema son cero. Los resultados se muestran en la Figura 10.5.
Podemos apreciar que, en el primer caso, se genera un fenómeno de reso-
nancia debido a que la frecuencia de la sinusoide es aproximadamente igual a
la frecuencia de oscilación de los modos naturales del sistema. En el segundo
caso, también aparece un fenómeno de resonancia; sin embargo, ahora se debe
a la tercera armónica de la excitación , ya que la frequencia angular de ella
es 3ωo = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia
natural de oscilación del sistema.
222
matriz!de transformación 3
y(t)
2 u(t)
−1
−2
−3
0 5 10 15 20 25 30 35 40
tiempo
3
y(t)
2 u(t)
−1
−2
−3
0 5 10 15 20 25 30 35 40
tiempo
Lema 10.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
{A, B, C, D}, entonces, dada la matriz de transformación T ∈ Rn×n no
singular, tenemos un nuevo vector de estado:
Demostración
Dada la transformación (10.65), en que T es no singular y, por tanto, in-
vertible, tenemos que:
x(t) = T−1 · x(t) (10.67)
Si reemplazamos entonces el vector de estado x(t) en las ecuaciones de estado
del sistema (10.44)-(10.45), obtenemos:
i (t) i2 (t)
R1
+
vf (t)
C L R2 vC (t)
iL (t)
función de transferencia
polos
autovalores Una elección alternativa del vector de estado puede ser x(t) = [x 1 (t) x2 (t)]T =
[i(t) i2 (t)]T . Donde puede probarse sin problema que
1 R2 1
x(t) = x(t) (10.77)
R2 0 1
| {z }
T
222
Por otro lado, para obtener los polos de la transferencia H(s) podemos ree- cancelación
scribir la inversa de (sI − A) usando las propiedades en el Apéndice F. De esta
forma:
Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Para interpretar este hecho en la práctica, volvamos una vez más al levita-
dor magnético del Ejemplo 10.3 en la página 259. Si consideramos la corriente
i(t) como salida, vemos de inmediato que la función de transferencia desde la
entrada e(t) a esta salida tiene sólo un polo, a pesar que el vector de estado
tiene dimensión tres. La explicación de esto es que, en nuestro modelo fı́sico
simplificado, la corriente i(t) no es afectada por la posición ni por la velocidad
vertical de la esfera. Note que la situación seria diferente si consideráramos en
el modelo el efecto del cambio de posición de la esfera en la inductancia del
electroimán.
dv`−1 (t)
v` (t) = ` ∈ {2, . . . , n} (10.90)
dt
Xn
Y (s) = b`−1 V` (s) (10.91)
`=1
n
Ao (s) sn X s`−1
U (s) = U (s) = U (s) + a`−1 U (s) (10.92)
Ao (s) Ao (s) Ao (s)
| {z } `=1 | {z }
sVn (s) V` (s)
4s − 10 4s − 10
H(s) = = 3 (10.95)
(s + 2)2 (s − 1) s + 3s2 − 4
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS273
xQ = Fd (xQ , uQ ) (10.100)
yQ = Gd (xQ , uQ ) (10.101)
retentor de orden cero 4 . Es importante considerar que existen otras formas ZOH|seeretentor
muestreo!perı́odo de
de generar una señal de actuación continua a partir de la secuencia discreta perı́odo!de muestreo
(véase, por ejemplo, [3]).
Además de la señal de actuación, es necesario medir las variables que nos
interesan de un sistema en los instantes de tiempo especı́ficos que se requiera.
Es decir, debemos muestrear las señales de salida.
En la Figura 10.7 se describe la discretización de un sistema continuo. Si
suponemos un muestreo periódico, con periodo ∆, nos interesa el valor de las
variables sólo en los instantes k∆, en que k ∈ N. En las secciones posteriores
omitiremos el perı́odo de muestreo ∆ del argumento de las señales, usando
u(k∆) = u[t] para la entrada, y(k∆) = y[t] para la salida, y x(k∆) = x[t] para
el estado del sistema, donde ahora t representa los instantes de tiempo discreto.
exponencial!de una matriz Por lo tanto, dado un sistema de tiempo continuo con un modelo en variables
de estado con matrices {A, B, C, D}, si muestreamos sus entradas y salidas cada
∆ segundos, entonces, el sistema muestreado equivalente queda descrito por el
modelo de estado en tiempo discreto:
donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posición de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los parámet-
ros del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2
[Ns/m] y la constante del resorte K = 0, 32 [N/m].
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS277
La matriz Ad se obtiene usando (10.113), aplicando transformada de Laplace matriz!de transición! discreta
inversa:
" #−1
s −1
Ad = L−1
0, 32 s + 1,2
t=∆
" #
−0,4∆
2e − e−0,8∆ 2,5(e−0,4∆ − e−0,8∆ )
= −0,4∆
(10.115)
0, 8(e − e−0,8∆ ) −e−0,4∆ + 2e−0,8∆
Z ∆
2e−0,4η − e−0,8η 2,5(e−0,4η − e−0,8η ) 0
Bd = dη
0 0, 8(e−0,4η − e−0,8η ) −e−0,4η + 2e−0,8η 1
−0,4∆ −0,8∆
−6,25e + 3,125e + 3,125
= (10.116)
2,5(e−0,4∆ − e−0,8∆ )
(t−to )−1
X
x[t] = Ad (t−to ) xo + Ad (t−to )−i−1 Bd u[i + to ] ∀ t ≥ to (10.119)
i=0
(t−to )−1
X
(t−to )
y[t] = Cd Ad xo + C d Ad (t−to )−i−1 Bd u[to + i] + Dd u[t]
i=0
(10.123)
x[t] = Ad t xo (10.126)
10.4. MODELOS DE ESTADO PARA SISTEMAS DISCRETOS Y MUESTREADOS279
det(ηI − Ad ) = 0 (10.129)
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el
tiempo también puede ser analizada a través de la matriz Ad . Ya hemos es-
tablecido que todas las variables del sistema se pueden expresar como funciones
lineales del estado y la entrada. Cuando la entrada u[t] es un vector acotado en
el tiempo, entonces las variables del sistema permanecerán acotadas si y sólo si
el estado está acotado. Tenemos entonces el siguiente resultado:
Teorema 10.2. Dado un sistema descrito en variables de estado por las ecua-
ciones (10.117)-(10.118), donde Ad , Bd , Cd y Dd tienen elementos acotados.
Entonces, el estado del sistema estará acotado para toda entrada acotada si y
sólo si los autovalores de la matriz Ad se encuentran en el interior del disco
unitario, i.e. |η` | < 1 ; ∀`.
222
A pesar que los modos naturales de un sistema estable decaen a cero, ellos
determinan la respuesta transiente del sistema. Para apreciar esto, generalmente
se utiliza la respuesta!a escalón del sistema, con condiciones iniciales cero.
perı́odo!de muestreo
muestreo!perı́odo de 1
0.8
0.6
y[k]
η = 0.2
0.4 η = 0.6
η = 0.8
0.2
0
0 1 2 3 4 5 6 7 8 9 10
tiempo discreto k
5
y[k]
u[k]
−5
0 5 10 15 20 25 30 35 40
tiempo discreto k
3
y[k]
2 u[k]
−1
−2
−3
0 5 10 15 20 25 30 35 40
tiempo discreto k
Demostración
La matriz del sistema de tiempo continuo A puede ser diagonalizada uti-
lizando sus autovalores:
donde {λ1 , . . . , λn } son los autovalores del sistema de tiempo continuo. En-
tonces, usando (10.112):
−1 −1
diag{λ1 ,...,λn }T∆ diag{λ1 ∆,...,λn ∆}T
Ad = eA∆ = eT = eT
= T−1 diag{eλ1 ∆ , . . . , eλn ∆ }T (10.146)
x1[k]
0.5
0
0 2 4 6 8 10 12 14 16 18 20
Tiempo de muestreo ∆=1
1
x1[k]
0.5
0
0 2 4 6 8 10 12 14 16 18 20
Tiempo de muestreo ∆=2
1
x1[k]
0.5
0
0 2 4 6 8 10 12 14 16 18 20
tiempo discreto k
Ejemplo 10.13. Para ilustrat una mala elección de ∆, supongamos una señal
f (t) = A sen(ωo t) que es muestreada cada ∆ segundos, con ∆ = 2`π/ω, ` ∈ N.
Entonces, la señal discreta resultante es f [t] = 0, ∀t ∈ Z, es decir, una constante
!
222
Calefactor y(t)
u(t)
Sensor
flujo
entregue al fluı́do la fuente de calor. Esta es controlado por una señal de control
u(t). Los cambios en u(t) producen cambios en la temperatura y(t), pero con un
retardo de tiempo no despreciable. El sistema linealizado se representa mediante
la función de transferencia:
Y (s) e−τ s K
= H(s) = (10.147)
U (s) s+λ
Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respec-
tivamente.
Supongamos luego que las señales de entrada y salida son muestreadas cada
∆ [s]. El retardo τ , también en segundos, es función de la velocidad del flujo y
podemos suponer, por simplicidad, que τ es un múltiplo del intervalo de muestreo
∆, es decir, τ = m∆, m ∈ Z+ . Este retardo se convierte en un factor z m en el
denominador de la función de transferencia en el dominio de la transformada
Zeta. Es decir, el retardo se convierte en un conjunto de m polos en el origen.
Además, en base a la ecuación (10.144), el autovalor del sistema continuo en
s = −λ se transforman en un autovalor del sistema discreto en z = e−λ∆ . La
función de transferencia resultante es:
Y [z] K 1 − e−λ∆
= H[z] = (10.148)
U [z] λ z m (z − e−λ∆ )
que puede expresarse mediante el modelo de estado discreto:
x1 [t + 1] = x2 [t] (10.149)
x2 [t + 1] = x3 [t] (10.150)
.. ..
. .
xm [t + 1] = xm+1 [t] (10.151)
−λ∆ K −λ∆
xm+1 [t + 1] = e xm+1 [t] + λ (1 −e )u[t] (10.152)
y[t] = x1 [t] (10.153)
Aún más, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] co-
mo la temperatura en puntos equiespaciados entre el calefactor y el sensor de
temperatura (suponiendo un caudal de velocidad constante).
222
286 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
transformación del estado Cuando el retardo τ no es múltiplo exacto del perı́odo de muestreo ∆, en la
estado!transformación
similaridad función de transferencia aparecen un polo y un cero adicionales (consulte, por
función de transferencia ejemplo, [6]).
matriz!adjunta
Yi [z]
Y[z] = H[z]U[z]; where [H[z]]ij = (10.154)
Uj [z]
que se reduce a:
Cd (zI − Ad )−1 Bd + Dd = H[z] (10.157)
En adelante, nos concentraremos en los sistemas escalares o SISO, i.e. m =
p = 1, Bd , Cd T son vectores columna, y Dd = H[∞]. Podemos apreciar que en
este caso H[z] es un cuociente de polinomios en la variable z, i.e.
Cd Adj(zI − Ad ) Bd + Dd det(zI − Ad )
H[z] = (10.158)
det(zI − Ad )
Análogamente al caso de tiempo continuo, podemos observar que los polos cancelación
realización mı́nima
de la función de transferencia pertenecen al conjunto de autovalores de la ma- sistema!interconexión
triz Ad . Sin embargo, como se aprecia en el Ejemplo 10.7 en la página 271,
para el caso continuo, puede suceder que algunos de los autovalores de A d no
aparezcan como polos de la función de transferencia. Esto implica la existencia
de cancelaciones entre polos y ceros de la función de transferencia (ver Secciones
§10.6.1 y §10.6.2, más adelante).
2z 2 − z + 1 1,8z + 0, 04
H[z] = = 2 +2 (10.160)
(z − 0, 8)(z − 0, 6) z − 1,4z + 0, 48
Una realización mı́nima para este sistema está dada por las matrices:
0 1 0
Ad = ; Bd = (10.161)
−0, 48 −1,4 1
Cd = 0, 04 1,8 ; Dd = 2 (10.162)
222
conexión!serie(cascada) estos casos nos interesa obtener un modelo en variables de estado del sistema
serie!conexión
cascada|seeconexión completo resultante.
conexión!paralelo Para el análisis que sigue consideramos dos sistemas, definidos mediante su
paralelo!conexión modelo en variables de estado:
dx1 (t)
= A1 x1 (t) + B1 u1 (t)
Sistema 1: dt (10.163)
y1 (t) = C1 x1 (t) + D1 u1 (t)
dx2 (t)
= A2 x2 (t) + B2 u2 (t)
Sistema 2: dt (10.164)
y (t) = C x (t) + D u (t)
2 2 2 2 2
Conexión en serie
La interconexión de sistemas que se muestra en la Figura 10.12 se denomina
conexión en serie o en cascada. Para obtener el modelo de estado deseado,
observamos que y2 (t) = u1 (t). Además, el sistema completo tiene como entrada
u(t) = u2 (t), y como salida y(t) = y1 (t). Con esto se obtiene:
ẋ1 (t) A1 B1 C2 x1 (t) B1 D 2
= + u(t) (10.165)
ẋ2 (t) 0 A2 x2 (t) B2
x1 (t)
y(t) = C1 D1 C2 + D1 D2 u(t) (10.166)
x2 (t)
Conexión en paralelo
La interconexión de sistemas que se muestra en la Figura 10.13 se denomina
conexión en paralelo. Para obtener el modelo de estado deseado, observamos
que la entrada es u(t) = u1 (t) = u2 (t) y que la salida para el sistema se expresa
como y(t) = y1 (t) + y2 (t). De esta forma, se obtiene:
ẋ1 (t) A1 0 x1 (t) B1
= + u(t) (10.167)
ẋ2 (t) 0 A2 x2 (t) B2
x1 (t)
y(t) = C1 C2 + D1 + D2 u(t) (10.168)
x2 (t)
10.5. MODELOS DE ESTADO PARA SISTEMAS INTERCONECTADOS289
conexión!realimentación
u1(t) y1(t) realimentación
x1(t) feedback!seerealimentación
lazo de control
u(t) + y(t) planta
controlador
+
x2(t)
u2(t) y2(t)
Conexión en realimentación
La interconexión de sistemas que se muestra en la Figura 10.14 se denomina
conexión en realimentación o feedback (con realimentación negativa unitaria), y
aparece normalmente asociada a la estructura básica del lazo de control reali-
mentado, donde S1 es la planta y S2 es el controlador. Para obtener el modelo en
variables de estado del sistema en su conjunto, podemos apreciar que la entrada
al sistema completo satisface la ecuación u(t) = u2 (t) + y1 (t), y que la salida
del sistema es y(t) = y1 (t). Si suponemos además que el sistema S1 (la planta)
es estrictamente propia, es decir, D1 = 0, se obtiene:
ẋ1 (t) A1 − B1 D2 C1 B1 C2 x1 (t) B1 D 2
= + u(t) (10.169)
ẋ2 (t) −B2 C1 A2 x2 (t) B2
x1 (t)
y(t) = C1 0 (10.170)
x2 (t)
sistema!propiedades
control
10.6. Propiedades de los sistemas
controlabilidad
sistema!controlable 10.6.1. Controlabilidad, Alcanzabilidad y Estabilizabilidad
estado!controlable
alcanzabilidad Una cuestión de interés, en especial pensando en el control de sistemas, es
sistema!alcanzable bajo qué condiciones es posible llevar el vector de estado a un punto especı́fico
estado!alcanzable
del espacio de estado, a través de las señales de entrada al sistema. Debemos
recordar que el estado de un sistema a menudo está formado por variables
internas de este, tales como temperatura, presión, el nivel de algún estanque
u otras, que en pueden ser crı́ticas e interesa mantenerlas controladas entre
algunos valores especı́ficos. En esta sección se revisan conceptos relacionados
con este objetivo.
Controlabilidad
Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ningún cambio. Diremos que
este sistema no es completamente controlable.
222
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado
en general para sistemas de tiempo discreto. Formalmente se define como:
Test de controlabilidad
Dado que no siempre es posible, a priori, determinar si un sistema es o no
controlable, se presenta a continuación una manera sistemática para determinar
la completa controlabilidad de un sistema. Los conceptos involucrados sobre
matrices pueden ser consultados en el Apéndice F.
Teorema 10.3. Considere el modelo de estado lineal e invariante en el tiempo,
donde A ∈ Rn×n :
ẋ(t) = Ax(t) + Bu(t) (10.173)
y(t) = Cx(t) + Du(t) (10.174)
(i) El conjunto de todos los estados controlables es el espacio rango de la
matriz de controlabilidad Γc [A, B] donde:
4
Γc [A, B] = B AB A2 B ... An−1 B (10.175)
Pérdida de controlabilidad
La falta de controlabilidad en un sistema en ocasiones puede originarse en la
estructura misma del sistema, sin embargo, en otras ocasiones depende del valor
numérico de ciertos parámetros. Esto se ilustra a través del siguiente ejemplo.
Ejemplo 10.19. Considere el circuito en la Figura 10.15 en la página siguiente.
En primer lugar, nos interesa obtener un modelo de él en variables de estado.
Eligiendo como variables de estado x1 (t) = iR1 (t) y x2 (t) = vC3 (t), y usando
leyes básicas de redes eléctricas para la parte izquierda del circuito, tenemos que:
d vi − v + v+
iC1 = C1 (vi −v+ ); iR1 = ; iR2 = ; iC1 = iR2 −iR1 (10.180)
dt R1 R2
Lo que permite obtener:
iR1(t) R1 Op.Amp.
v+ (t)
+ v− (t) R3
−
vi (t) C1 R2 C3
vC3(t) vo (t)
dvC3 (t) 1 1
=− vC3 (t) + v− (t) (10.183)
dt R3 C3 R3 C3
vo (t) = vC3 (t) (10.184)
y su determinante es igual a:
R2
det (Γc [A, B]) = (−R1 C1 + R3 C3 ) (10.188)
(R1 R2 R3 C1 C2 )2
R1 C1 6= R3 C3 (10.189)
294 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
cancelación Esta condición tiene una interpretación muy importante desde el punto de
gramiano!controlabilidad
controlabilidad!gramiano vista de la función de transferencia del sistema. Si se aplica transformada de
Laplace a las ecuaciones (10.181)–(10.184), la función de transferencia desde
Vi (s) a Vo (s), recordando que V+ (s) = V− (s), está dada por:
1 1
s+
Vo (s) Vo (s) V+ (s) R 3 C3 R1 C1
= = · (10.190)
Vi (s) V− (s) Vi (s) 1 R1 + R 2
s+ s+
R3 C3 R 1 R2 C1
Gramiano de controlabilidad
El test de controlabilidad da una respuesta afirmativa o negativa sobre la
(completa) controlabilidad de un sistema dado. Sin embargo, el saber que un
sistema es completamente controlable no dice nada respecto a qué grado de
controlabilidad el sistema posee, es decir, qué tan difı́cil es controlar un estado
del sistema.
Para sistemas estables es posible cuantificar el esfuerzo de control a través
de la energı́a involucrada en la señal de entrada u(t) aplicada desde t = −∞
para alcanzar el estado x(0) = x0 en t = 0:
Z 0 Z 0
2
J(u) = ku(t)k dt = u(t)T u(t)dt (10.191)
−∞ −∞
donde
Z ∞
T
P= eAt BBT eA t dt (10.193)
0
Ad P d Ad T − P d + B d B d T = 0 (10.199)
Matlab
0,2778 0,2586 1,4616 −1,5660
P= P−1 = 10−3 × (10.205)
0,2586 0,2414 −1,5660 1,6820
Los autovalores de P son λ1 = 0,0003 y λ2 = 0,5188 con sus correspondientes
autovectores v1 = [0,6818 − 0,7315]T y v2 = [0,7315 0,6818]T .
Ası́ podemos calcular, usando la ecuación (10.192), la mı́nima energı́a de
control necesaria para llevar el estado x(t), from 0 in t = −∞, to x0 in t = 0.
Suponemos que x0 is colineal con los autovectores:
Lema 10.6. Considere un sistema para el cual rango{Γc [A, B]} = t < n,
entonces existe una transformación de similaridad x = T−1 x, en que las nuevas
matrices de estado tienen la forma:
Ac A12
A = T−1 AT = (10.209)
0 Anc
Bc
B = T−1 B = (10.210)
0
Este resultado establece cuáles estados pueden y cuáles no pueden ser lleva-
dos a cero. Para apreciar mejor este hecho, expresemos el estado y la salida de
la forma:
ẋc Ac A12 xc Bc
= + u (10.211)
ẋnc 0 Anc xnc 0
xc
y = Cc Cnc + Du (10.212)
xnc
donde:
λn + αn−1 λn−1 + · · · + α1 λ + α0 = det(λI − A) (10.215)
es el polinomio caracterı́stico de A.
222
donde:
λn + αn−1 λn−1 + · · · + α1 λ + α0 = det(λI − A) (10.217)
es el polinomio caracterı́stico de A.
222
10.6. PROPIEDADES DE LOS SISTEMAS 299
Observabilidad
Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable, es decir, existe una parte del estado
de la cual nunca se obtendrá información alguna.
222
Se puede formalizar la definición de observabilidad de la siguiente forma:
Definición 10.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo ,
y u(t) = 0 para t ≥ 0, entonces y(t) = 0 para t ≥ 0, es decir, la condición
inicial xo no tiene efecto alguno sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial,
diferente de cero, que sea no observable.
Reconstructibilidad
Otro concepto estrechamente relacionado al de observabilidad, es el que se
denomina reconstructibilidad. Este, para sistemas de tiempo discreto, se re-
fiere a qué se puede decir de x(K), habiendo observado valores pasados de la
salida y[t], durante 0 ≤ t ≤ K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer
distinción entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son difer-
entes.
Ejemplo 10.22. Considere el modelo en espacio de estado:
Test de observabilidad
Para contar con un criterio que permita determinar si un sistema es o no
observable, se presenta a continuación el siguiente teorema.
Teorema 10.4. Considere el sistema en variables de estado, continuo, lineal e
invariante en el tiempo:
donde A ∈ Rn×n .
222
Este test de observabilidad puede aplicarse indistintamente a sistemas de
tiempo discreto y continuo.
Ejemplo 10.23. Considere el siguiente modelo en espacio de estado:
−3 −2 1
A= ; B= ; C = 1 −1 (10.224)
1 0 0
−1 0
A= ; C= 1 0 (10.226)
1 −1
Pérdida de observabilidad
La observabilidad de un sistema queda determinada básicamente por car-
acterı́sticas propias de su estructura. Sin embargo, también es posible que la
observabilidad de un modelo se vea afectada por valores numéricos particulares
en algunos de sus parámetros, de manera análoga a lo que sucede con la con-
trolabilidad, tal como se analizó en la Sección §10.6.1. Es esperable que los
parámetros afecten la completa observabilidad de un modelo de una manera
similar. Para esto se propone el siguiente ejemplo, que es el dual del Ejemp-
lo 10.19 en la página 292.
Ejemplo 10.25. Consideremos el circuito de la Figura 10.16 en la página
siguiente. Este corresponde al mismo de la Figura 10.15, pero en que se han
intercambiado las redes eléctricas a la derecha e izquierda del amplificador op-
eracional. Por tanto, podemos utilizar ecuaciones similares a las antes obtenidas
para describir el sistema en variables de estado. En particular, se escoge x 1 (t) =
vC3 (t) y x2 (t) = iR1 (t).
Para la parte izquierda del circuito, tenemos:
dvC3 (t) 1 1
=− vC3 (t) + vi (t) (10.228)
dt R3 C3 R3 C3
v+ (t) = vC3 (t) (10.229)
Op.Amp.
iR1(t) R1
R3 v+ (t)
+ v− (t)
−
vi (t) vC3(t) C3
C1 R2 vo (t)
Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 10.4 en la página 300
permite determinar si un sistema es o no es completamente observable. sin
embargo, en ocasiones puede ser de interés determinar el grado de observabilidad
de un sistema dado. Para el caso de sistemas estables, podemos cuantificar la
energı́a en la señal de salida y(t), en ausencia de señal de entrada (u(t) = 0), y
cuando el estado inicial es x(0) = x0 , mediante:
Z ∞ Z ∞
2
E(x0 ) = ky(t)k dt = y(t)T y(t)dt (10.237)
0 0
Es posible demostrar que la energı́a en la salida del sistema está dada por:
Z ∞
E(xo ) = ky(t)k2 dt = xo T Qxo (10.238)
0
donde
Z ∞
T
Q= eA t CT C eAt dt (10.239)
0
AT Q + QA + CT C = 0 (10.243)
Ad T Q d Ad − Q d + C d T C d = 0 (10.245)
Matlab
0,2414 −0,2328
Q= (10.250)
−0,2328 0,2250
Los autovalores de Q son λ1 = 0,0003 y λ2 = 0,4661 con sus correspondi-
entes autovectores v1 = [−0,6946 − 0,7194]T y v2 = [−0,7194 0,6946]T .
Ahora podemos evaluar el efecto de ciertos estados iniciales en la salida del
sistema. Consideraremos x0 = v1 y x0 = v2 para calcular la energı́a, tal como
se define en la ecuación (10.238):
x0 = v 1 ⇒ E(x0 ) = 0,000287 (10.251)
x0 = v 2 ⇒ E(x0 ) = 0,4661 (10.252)
donde se observa que la energı́a debida el estado inicial x0 = v2 es tres órdenes
de magnitud mayor, lo que indica que existen ciertos estados que son poco ob-
servables en la salida.
La pérdida de observabilidad también puede ser apreciado en la función de
transferencia del sistema:
Vo (s) s + 1 + 19 1
= 20
· (10.253)
Vi (s) s+ 9 (s + 1)
donde se aprecia que existe una cuasi-cancelación entre un polo y un cero.
222
Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 10.3 en
la página 291 y del Teorema 10.4 en la página 300, y también entre las defini-
ciones de los gramianos (10.193) y (10.239). Esto de pie a lo que se conoce como
el principio de dualidad, el cual se formaliza a continuación:
306 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
222
(ii) El subsistema:
Aco 0 B1
, , C1 0 (10.262)
A21 A22 B2
es completamente controlable.
(iii) El subsistema:
Aco A13 B1
, , C1 C2 (10.263)
0 A33 0
es completamente observable.
222
x(t)
u(t) y(t)
xno (t)
xnc (t)
xnc−no (t)
10.7. Observadores
Cuando las variables de estado de un sistema deben ser medidas para mon-
itoreo, control u otros propósitos, existen importantes aspectos tanto técnicos
como económicos a considerar.
u(t) y(t)
Sistema
+ -1 x^ (t) +
B (sI-A) C -
+
dx̂(t)
= Ax̂(t) + Bu(t) + J(y(t) − Cx̂(t)) (10.267)
dt
Una pregunta natural es: si contamos con un modelo del sistema y conocemos
su entrada, ¿porqué es necesario entonces usar la salida para estimar el estado?
¿no bastarı́a con simular el sistema? La clave aquı́ es que no conocemos el
estado inicial del sistema, y por tanto no podrı́amos obtener la trayectoria
del estado.
Si consideramos el error de estimación del estado x̃(t) = x(t) − x̂(t), su
dinámica se obtiene restando (10.267) de (10.44). Esto es:
dx̃(t)
= (A − JC)x̃(t) (10.268)
dt
donde observamos que el error de estimación converge a cero si y solo si todos los
autovalores de la matriz A − JC tienen parte real negativa, i.e., si el polinomio
del observador:
E(s) = det(sI − A + JC) (10.269)
es estrictamente Hurwitz.
Discusión
La ecuación (10.268) es válida solo si el modelo es un representación exacta
del sistema bajo análisis. Errores de modelado tendrán consecuencias sobre
el observador, tales como error de estimación diferente de cero.
10.7. OBSERVADORES 311
Matlab
T
J = −4,5247 −7,5617 −4,1543 (10.270)
Para apreciar la dinámica del observador, asumiremos que el estado inicial
del sistema es x(0) = [−1 2 1]T y que la entrada del sistema es una señal
cuadrada de amplitud 1, y frecuencia igual a 1 [rad/s]. El observador se inicia
con x̂(0) = 0. Entonces, la norma del error de estimación, ||x̃(t)|| evoluciona
como se muestra en la Figura 10.19
Es importante notar que, en este ejemplo, la planta es inestable, lo que sig-
nifica que tanto el estado como su estimación crecen indefinidamente. Sin em-
bargo, bajo el supuesto de un modelo exacto, el error de estimación converge a
cero.
222
Para darle una interpretación fı́sica a la filosofı́a del uso de observadores,
veamos a continuación otro ejemplo.
Ejemplo 10.28. La Figura 10.20 muestra el esquema de un sistema rotacional
en que la entrada es el torque τ (t). La potencia en el sistema se transmite a
través de un sistema de engranajes en dos ruedas de radios r1 y r2 y momentos
312 CAPÍTULO 10. REPRESENTACIÓN EN VARIABLES DE ESTADO.
12
10
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
Tiempo [s]
D1 θ1
I
ω1 τ1 1
r1
D2
τ K2
r2
τ 2 ω2 ω3
I2 θ2 θ3 I3
ω1 (t) r2
= ; and τ1 (t)ω1 (t) = τ2 (t)ω2 (t) (10.271)
ω2 (t) r1
10.7. OBSERVADORES 313
ruido En esta expresión podemos observar que la matriz Γo tiene rango completo,
filtro
pues claramente det Γo 6= 0, por tanto el sistema es completamente observable
desde la salida ω1 (t).
Una vez que tenemos la estimación del vector de estado, x̂(t), la estimación
del estado ω̂3 (t) para ω3 , se obtiene a partir de:
222
Supongamos que queremos estimar una variable del sistema z(t) = γ T x(t),
donde γ T = [1 1]. Entonces, una estimación de esta variable es ẑ(t), que se
obtiene como:
ẑ(t) = γ T x̂(t) (10.290)
10.7. OBSERVADORES 315
1,875s + 5,625
H1 (s) = γ T (sI − A + J1 C)−1 J1 = (10.293)
s2 + 1,25s + 0, 375
144s + 432
H2 (s) = γ T (sI − A + J2 C)−1 J2 = 2 (10.294)
s + 30s + 200
40
20 |H2(jω)|
Magnitud [dB]
−20
|H (jω)|
−40 1
−60
−1 0 1 2 3
10 10 10 10 10
Frecuencia [rad/s]
222
observador!de orden reducido Una forma sistemática de encarar este problema es usar la teorı́a de filtro
observador!de orden completo
óptimos, como los filtros de Kalman-Bucy. El lector interesado puede consultar,
por ejemplo, la referencia [2].
Existe una serie de otros observadores, incluso capaces de incorporar no-
linealidades presentes en el sistema a observar. Sin embargo, uno de particular
interés es el observador de orden reducido, que básicamente asocia direc-
tamente la salida del sistema a una parte del estado, reduciendo la parte del
estado a estimar. Dada esta diferencia, el observador clásico presentado en esta
sección también se denomina de orden completo (ver [13, 7],yuz01?).
muestreo|textbf
quantum|textbf
sistemas!digitales
Capı́tulo 11
Sistemas hı́bridos
11.1. Introducción
Uno de los paradigmas más ricos de la ingenierı́a moderna es el uso de la
tecnologı́a digital en el procesamiento de señales. Esto se refleja en campos
tan distintos como las telecomunicaciones, la bioingenierı́a, la automatización,
el control automático, el procesamiento de imágenes, procesamiento de voz, re-
conocimiento de patrones, etc. La amplitud y velocidad con las que la aplicación
de este paradigma se consolida y se extiende parecen no tener lı́mites; ello se
debe a la velocidad con que progresa la electrónica digital.
Los sistemas digitales usados en procesamiento de señales, cualquiera sea
el propósito de éste, manejan señales que son discretas en magnitud (con dis-
cretización determinada por el número de bits) y discretas en tiempo (debido a
que existe una sincronización con un reloj o temporizador). Por ejemplo, en un
computador con registros de 16 bits y una unidad procesadora central (CPU)
de 1 [GHz], se pueden representar números enteros positivos con magnitud cuya
discretización corresponde a 2−16 veces el valor máximo representado. Esto es
el quantum de magnitud. A su vez, las operaciones que se realizan en la CPU y
las transferencias de datos sólo pueden iniciarse en instantes que son múltiplos
del perı́odo del reloj, es decir, múltiplos de 1 [ns].
Muchas veces se usan como sinónimo las expresiones digital y tiempo dis-
creto. En rigor, no son sinónimos, ya que un registro digital tiene un valor que
está definido en todo instante (tiempo continuo); lo que sı́ ocurre es que sólo
nos interesa analizar lo que pasa con ese valor almacenado en los instantes que
corresponden a múltiplos del ciclo del reloj, que es cuando se puede producir
algún cambio. Por esta última razón aceptaremos la sinonimia; sin embargo
debemos tener presente que si el dispositivo digital tiene una discretización muy
gruesa, es decir, un quantum grande, debido a un número reducido de bits, es
necesario hacer un análisis de este efecto en el procesamiento de las señales
Una fracción muy significativa de las aplicaciones en el campo del proce-
samiento de señales involucran la interacción o interconexión de sistemas y
317
318 CAPÍTULO 11. SISTEMAS HÍBRIDOS
sistemas!hı́bridos señales de tiempo continuo con sistemas y señales de tiempo discreto. Cuan-
muestreo
reconstrucción do un sistema incluye componentes tanto de tiempo continuo como de tiempo
muestreo|textbf discreto, se habla de sistemas hı́bridos.
muestreo!perı́odo de La comunicación de sistemas que procesan señales de distinta naturaleza re-
muestra quiere resolver dos problemas: el problema de muestreo, que permite transfor-
mar una señal de tiempo continuo en una señal de tiempo discreto y el problema
de reconstrucción, es decir, la transformación de una señal de tiempo discreto
en una señal de tiempo continuo.
Si bien ya se abordó brevemente en la Sección § los modelos para sistemas
y señales muestreadas, en este capı́tulo estudiaremos mas en profundidad la
solución de esos problemas y su descripción, tanto temporal como frecuencial.
Para una comprensión acabada de los conceptos y resultados que se presentan
acá, se requiere que el lector tenga un dominio acabado de los capı́tulos 3, 4 y
6.
t = t1
Conversor
A/D
f (t) f (t1 ) fd (t1 )
2 2 2
∆=1 [s] ∆=0,5 [s] ∆=0,05 [s]
1 1 1
0 0 0
−1 −1 −1
−2 −2 −2
0 0.5 1 0 0.5 1 0 0.5 1
Ejemplo 11.1. Suponga que f (t) = 2 cos(2πt), es decir, se trata de una señal
sinuosidal de frecuencia 1 [Hz]. Consideremos ahora tres valores distintos para
la frecuencia de muestreo fm (ωm = 2πfm )
−4
x 10
2
0
Error
−2
−4
−6
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Tiempo [s]
Matlab
>>tt=[0:1e-5:1];Delta=0.05;t=[0:Delta:1];
>>f=2*cos(2*pi*tt);fk=2*cos(2*pi*t);
>>faprox=spline(t,fk,tt); subplot(211);plot(tt,f-faprox);
Lema 11.1. Sea una señal de tiempo continuo f (t), muestreada periódicamente
con frecuencia angular de muestreo ωm [rad/s] (es decir, cada ∆ [s]), y sean
F ( ω) y F [ejθ ] las transformadas de Fourier de f (t) y de la secuencia f [k] =
f (k∆) respectivamente. Entonces, se cumple que
11.3. ANÁLISIS EN FRECUENCIA DE SEÑALES MUESTREADAS 321
tren de impulsos
muestreo impulsivo
∞ ∞
jθ 1 X 2π` 1 X
F [e ] = F ω − = F ( ω − `ωm ) donde θ = ω∆
∆ ∆ ∆
`=−∞ `=−∞
(11.1)
Demostración
Recordemos que
∞
X
f [k] = f (k∆) = f (`∆)δK [k − `] (11.2)
`=−∞
Por otro lado supongamos que la señal original, f (t) es multiplicada por un
tren de impulsos, es decir,
∞
X
f∆ (t) = f (t) δD (t − k∆) (11.4)
k=−∞
| {z }
m∆ (t)
Z ∞ ∞
1 1 X 2π`
F∆ ( ω) = F (jζ)M∆ ( ω − jζ) dζ = F ω − (11.8)
2π −∞ ∆ ∆
`=−∞
de donde se llega a
∞
X
F∆ ( ω) = f (k∆)e−jk∆ω (11.10)
k=−∞
Capı́tulo 12
Modelos
Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matemático que pueda replicar
en la forma más precisa posible (bajo algún criterio de optimalidad) la
historia de datos disponibles y otras historias de datos que se puedan obtener
del mismo sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Además la historia de datos del sistema
debe ser tal que permita observar los rasgos de interés del sistema. Por ejemplo,
323
324 CAPÍTULO 12. MODELOS
si el sistema que deseamos modelar es una red RC, no nos servirá recolectar datos
del sistema cuando las fuentes que alimentan la red son constantes, porque en
ese caso será imposible calcular los parámetros de cualquier modelo dinámico.
Otra idea que aparece en la definición del problema es que la construcción
del mejor modelo tiene asociado un criterio de calidad óptima.
En la determinación de un modelo existen pues, tres elementos
entonces
α̂ = arg mı́n J(α) (12.3)
α∈R
Z t −1
6
p(t) = (u(τ )) dτ (12.5)
0
3
φ(t) = (u(t)) (12.6)
donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo
y la entrada observada de la planta.
1 Note que se trata de datos experimentales de la planta
326 CAPÍTULO 12. MODELOS
regresión!vector de Las ecuaciones (12.8) y (12.9) permiten calcular α̂(t) en tiempo real, como
regresores
se puede verificar en la simulación implementada en el esquema SIMULINK
de la Figura 12.1. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e(t) en el
oscilloscopio, que ese sistema pertenece a la clase M.
u(t) y(t)
SISTEMA
e
e (t)
p (0)
\phi (t)
p (t) p
1/s alfa
alfa (t)
alfa (0)
Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integración correspondientes
Note además que, para que este programa SIMULINK funcione se debe asig-
nar una condición distinta de cero a p(0) (en el bloque integrador correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p(0).
En cambio, el valor inicial α̂(0) puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
de calcular un valor estimado para el parámetro α. En la primera, dada por la
ecuación (12.4), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.8) y
(12.9), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuación el método general para sistemas de tiempo
continuo.
La clase de modelos a usar, M, está definida por
Entonces, el modelo (12.11) puede ser puesto en la forma (12.10) con las
siguientes asociaciones
p
φ (t) = [ u(t) u(t) cos(u(t)) 1]T (12.12)
θ = [a b c d ]T (12.13)
Veremos además en una sección siguiente que (12.10) puede describir sis-
temas dinámicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de
la clase M, debemos encontrar un estimado óptimo, θ̂θ , para θ de modo que se
minimice Z tf
J(θθ ) = (y(τ ) − φ (τ )T θ )2 dτ (12.14)
0
dP(t)
= −P(t)φ φ(t)T P(t)
φ(t)φ (12.19)
dt
dθ̂θ (t)
φ(t)(y(t) − φ (t)θ̂θ (t)) = P(t)φ
= P(t)φ φ(t)e(t) (12.20)
dt
Demostración
Definamos previamente la matriz P(t) ∈ Rp×p de la forma
Z t −1
P(t) = φ(τ )T dτ
φ (τ )φ (12.21)
0
3 Cuya deducción escapa al marco de este texto.
12.3. MODELADO DE SISTEMAS DE TIEMPO CONTINUO. MODELOS LINEALES.329
y la matriz
Z t
Q(t) = P(t)−1 = φ(τ )T dτ
φ (τ )φ (12.22)
0
entonces
Q(t)
φ(t)T
= φ (t)φ (12.25)
dt
Por otro lado, al usar (12.17)
Z tf
θ̂θ (t) = P(t) φ (τ )y(τ ) dτ (12.26)
0
Z tf
dθ̂θ dP(t)
= φ (τ )y(τ ) dτ + P(t)φ φ(t)y(t) (12.27)
dt dt 0
Z tf
dQ(t)
= −P(t) P(t) φ(t)y(t)
φ (τ )y(τ ) dτ +P(t)φ (12.28)
dt 0
| {z }
θ̂(t)
dym (t)
+ a0 ym (t) = b0 u(t) (12.30)
dt
La primera opción para contruir la forma (12.10) en este caso es (note la
sustitución de ym (t) por y(t) en el vector φ (t))
hR Rt iT
t
φ (t) = u(τ )dτ
0
− 0
y(τ )dτ (12.31)
T
θ = b0 a 0 (12.32)
Sin embargo, esta forma de selección del vector de regresión φ (t) no es ra-
zonable, porque basta que las señales tengan un valor medio distinto de cero (por
pequeño que sea) para que el vector φ (t) crezca sin lı́mites.
Intentaremos otro enfoque, usando el operador de Heaviside (definido en
(3.2). El modelo (12.30) puede ser re-escrito como
222
El Ejemplo 12.2 permite inducir una metodologı́a general.
Definamos
A(ρ) B(ρ)
0=− ym + u(t) (12.41)
E(ρ) E(ρ)
T
θ = bn−1 bn−2 ··· b0 en−1 − an−1 en−2 − an−2 ··· e0 − a0
(12.44)
T
ρ2 u(t) ρu(t) u(t) ρ2 y(t) ρy(t) y(t)
φ (t) = (12.45)
E(ρ) E(ρ) E(ρ) E(ρ) E(ρ) E(ρ)
T
θ = b2 b1 · · · b 0 e 2 − a 2 e 1 − a 1 e 0 − a 0 (12.46)
donde E(ρ) es cualquier polinomio de tercer grado cuyas raı́ces tenga parte real
menor que cero.
222
332 CAPÍTULO 12. MODELOS
entonces
α̂ = arg mı́n J(α) (12.49)
α∈R
" N
#−1
X
6
p[k] = (u[`]) (12.51)
`=1
3
φ[k] = (u[k]) (12.52)
4 Note que se trata de datos experimentales de la planta
12.4. MODELADO DE SISTEMAS DE TIEMPO DISCRETO. TEORÍA BÁSICA.333
k
X
α̂[k] = p[k] y[`]φ[`] (12.53)
`=1
p[k − 1]
p[k] = = p[k − 1] − p[k − 1]φ[k]2 p[k] (12.54)
1 + p[k − 1]φ[k]2
donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo
y la entrada observada de la planta.
Las ecuaciones (12.54) y (12.55) permiten calcular α̂[k] en tiempo real, como
se puede verificar en la simulación implementada en el esquema SIMULINK de
la Figura 12.2. En esa figura, el sistema a modelar, o mecanismo generador
de datos aparece enmascarado. El lector puede verificar, al observar e[k] en el
oscilloscopio, que ese sistema pertenece a la clase M.
u[k] y[k]
e
SISTEMA
p [0]
1 e [k]
z
p [k]
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
\phi [k]
p
alfa [0]
1
z
alfa
alfa [k]
Antes de empezar la simulación, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes
Note además que, para que este programa SIMULINK funcione se debe asig-
nar una condición distinta de cero a p[0] (en el bloque de retardo correspondi-
ente). Se invita al lector a observar el efecto de distintas elecciones para p[0].
En cambio, el valor inicial α̂[0] puede ser cualquier valor, incluyendo cero.
334 CAPÍTULO 12. MODELOS
regresión!vector de 222
regresores
PEM Es importante repetir que, en el ejemplo precedente, se plantearon dos formas
errores en las variables de calcular un valor estimado para el parámetro α. En la primera, dada por la
ecuación (12.50), se requiere conocer previamente un conjunto de datos en un
lapso no cero. En cambio, en la forma construida por las ecuaciones (12.54) y
(12.55), el valor estimado se va construyendo a medida que los datos se van
obteniendo.
Formularemos a continuación el método general sistemas de tiempo discreto.
La clase de modelos a usar, M, está definida por
Entonces, el modelo (12.57) puede ser puesto en la forma (12.56) con las
siguientes asociaciones
p
φ [k] = [ u[k] u[k] cos(u[k]) 1]T (12.58)
θ = [a b c d ]T (12.59)
Veremos además en una sección siguiente que (12.56) puede describir sis-
temas dinámicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de
la clase M, debemos encontrar un estimado óptimo, θ̂θ , para θ de modo que se
minimice
N
X
J(θθ ) = (y[`] − φ [`]T θ )2 (12.60)
0
es conocida como el error de predicción (no confundir con los métodos PEM). El predicción!error de
gradiente
método de estimación cuadrática permite determinar cual de los elementos de
M es el que arroja la predicción con menor error cuadrático acumulado. Esto
es equivalente a seleccionar el óptimo θ .
La minimización de (12.60) se hace a través del procedimiento tradicional:
derivando respecto de la incógnita y luego haciendo esa derivada igual a cero.
Como se trata de la derivada de una función escalar respecto de un vector, la
derivada corresponde al gradiente ∇θ . Ası́ el mejor estimado θ̂θ está dado por
Demostración
Definamos previamente la matriz P[k] ∈ Rp×p de la forma
" k
#−1
X
T
P[k] = φ[`]
φ [`]φ (12.67)
`=1
y la matriz
k
X
Q[k] = P[k]−1 = φ[`]T = Q[k − 1] + φ [k]φ
φ [`]φ φ[k]T (12.68)
`=1
k
X
P[k]−1θ̂θ [k] = φ [`]y[`] (12.69)
`=1
k−1
X
P[k − 1]−1θ̂θ [k − 1] = φ [`]y[`] (12.70)
`=1
lo cual lleva a
222
El Teorema 12.2 establece un procedimiento a través del cual la estimación
de los parámetros del modelo se va obteniendo a medida que se dispone de nueva
información.
ym [k] + an−1 ym [k − 1] + . . . + a1 ym [k − n + 1] + a0 ym [k − n] =
bm u[k] + bm−1 u[k − 1] + . . . + b1 u[k − m + 1] + b0 u[k − m] (12.72)
T
φ [k] = u[k] −ym [k − 1] (12.74)
T
θ = b0 a 0 (12.75)
A diferencia del caso de tiempo continuo, esta forma de selección del vector
de regresión φ [k] es razonable y la metodologı́a de la sección anterior puede ser
aplicada sin mayores dificultades.
222
El Ejemplo 12.5 permite inducir una metodologı́a general, ya que podemos
expresar la ecuación (12.72) como
Apéndice A
Series de Taylor
d x 1 d 2 x 2 1 d 3 x
g(x) = g(xQ ) + (x − xQ ) + (x − xQ ) + (x − xQ )3 + . . .
dt Q 2! dt 2 Q 3! dt 3 Q
(A.1)
∞
X 1 d i x
= (x − xQ )i (A.2)
i=0
i! dt i Q
n
donde ddt nx Q denota la derivada n-ésima de g respecto de x y evaluada en
x = xQ .
A partir de esta expansión, podemos construir aproximaciones de primer,
segundo, tercer orden, etc. truncando la serie después de la potencia de primer,
segundo, tercer grado, etc., respectivamente. Por ejemplo, la aproximación de
primer orden es
d g
ĝ1 (x) = k0 + k1 (x − xQ ); k0 = g(xQ ); k1 = (A.3)
dx Q
Esta aproximación de primer orden se puede apreciar gráficamente, como se
muestra en la Figura A.1.
dg
En esta figura m = k1 = dx . Se observa que, en la medida que nos
Q
alejamos del punto de operación, el error de modelado lineal aumenta.
339
340 APÉNDICE A. SERIES DE TAYLOR
g(x)
ĝ1 (x)
m
1
g(xQ )
xQ x
Figura A.1: Aproximación de primer orden para función no lineal de una varia-
ble.
∂g ∂g 1 ∂ 2 g
g(x1Q , yQ ) + (x1 − x1Q ) + (x2 − x2Q ) + (x1 − x1Q )2 +
∂x1 Q ∂x2 Q 2 ∂x21 Q
1 ∂ 2 g 2 ∂ 2 f
(x 2 − x 2Q ) + (x1 − x1Q )(x2 − x2Q ) + . . . (A.4)
2 ∂x2
2 Q ∂x1 ∂x2
Q
1 ∂ i+j g
(x1 − x1Q )i (x2 − x2Q )j (A.5)
i!j! ∂xi1 ∂xj2
Q
En forma análoga al caso de una variable, podemos truncar esta serie para
tener aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la
aproximación de primer orden está dada por
A.3. EL CASO GENERAL 341
(A.10)
donde ni = i1 + i2 + . . . + in .
La aproximación de primer orden, por truncamiento de la serie es entonces
n
X
ĝ1 (x1 , x2 , . . . , xn ) = k0 + k1i (xi − xiQ ) (A.11)
i=1
k0 = g(x1Q , x2Q , . . . , xnQ ) (A.12)
d g
k1i = (A.13)
dxi Q
(A.14)
Es importante señalar que los desarrollos precedentes siguen siendo válidos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u
otra variable independiente.
d g(x)
[R1,1] ĝ1 (x) = g(xQ ) + (x − xQ )
dx Q
d h(x)
[R1,2] ĥ1 (x) = h(xQ ) + (x − xQ )
dx Q
!
\ d g(x) d h(x)
[R1,3]g(x) + h(x)1 = g(xQ ) + h(xQ ) + + (x − xQ )
dx Q dx Q
!
\ = g(xQ )h(xQ ) + h(xQ ) d g(x) d h(x)
[R1,4] g(x)h(x) 1
+ g(xQ ) (x − xQ )
dx Q dx Q
d ` x(t)
R2 La aproximación de primer orden de g(x) = dt `
en torno al punto de
operación x = xQ , g(xQ ) = 0 es
d ` (x(t) − xQ )
ĝ1 (x) = (A.15)
dt `
h ` ik
R3 La aproximación de primer orden de g(x) = d dtx(t) ` , k > 1 en torno al
h ` ik−1
punto de operación x = xQ , d dtx(t)
` = 0 es
3. Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) =
(~vi + ~vj ) + ~vk
4. Existe un vector ~0 ∈ V, tal que para todo ~vi ∈ V se cumple ~vi + ~0 = ~vi
5. Para cada ~vi ∈ V existe un vector −~vi ∈ V, tal que ~vi + (−~vi ) = ~0
343
344APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER
10. Existe el escalar 1 tal que 1~vi = ~vi , para todo ~vi ∈ V
El espacio Cn en que los escalares pueden ser números reales o bien com-
plejos,
~v = α1~v1 + . . . + αn~vn
Es decir, ~v es una combinación lineal de ~v1 , . . . , ~vn .
α1~v1 + . . . + αn~vn = 0
se cumple sólo para los escalares α1 = α2 = . . . = αn = 0. En caso contrario
se dice que los vectores son linealmente dependientes.
Definición B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial
V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. h~vi , ~vj i es un escalar
2. h~vi , α~vj + β~vk i = αh~vi , ~vj i + βh~vi , ~vk i
Además puede definirse el coseno del ángulo entre dos vectores como
h~vi , ~vj i
cos ∠(~vi , ~vj ) =
~vi
~vj
346APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER
Definición B.8. De la definición del ángulo entre dos vectores es claro que
podemos decir que dos vectores son ortogonales bajo el producto interno h◦, ◦i,
si este producto es igual a cero. Es decir:
h~vi , ~ui
αi = (B.4)
h~vi , ~vi i
Demostración
La representación (B.3) se deduce de inmediato del hecho de tener un con-
junto de n vectores linealmente independientes en un espacio vectorial V de
dimensión n. Lo central que nos atañe en este caso es el cálculo de los coefi-
cientes (B.4).
Tomemos la ecuación (B.3), y apliquémosle producto interno con alguno de
los vectores de la base (B.1):
Demostración
Primero se observa que esta desigualdad es inmediata si cualquiera de los
vectores, vi o vj , es el vector cero. Ası́ es suficiente considerar el caso en ambos
son no nulos.
Consideremos un vector (αvi − βvj ), cuya norma es no negativa
De donde
2αβhvi , vj i ≤ α2 hvi , vi i + β 2 hvj , vj i (B.11)
p p
Ahora, si tomamos α = hvj , vj i y β = hvi , vi i entonces
√ √
2 hvj , vj i hvi , vi ihvi , vj i ≤ 2hvi , vi ihvj , vj i (B.12)
√ √
hvi , vj i ≤ hvj , vj i hvi , vi i (B.13)
Definición B.9. Se dice que una sucesión de funciones {fk (x)} de funciones,
cada una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
Definición B.10. Se dice que una sucesión {fk (x)} de funciones, definidas en
un intervalo I = [a, b], converge uniformemente a una función f (x) en el
intervalo I si
converge. Note que por comparación de los términos generales, si una serie
converge absolutamente, entonces también converge en el sentido usual 2
Tales que
|fk (x)| ≤ Mk (B.22)
P∞
Para cada k y para cada x ∈ I , entonces la serie de funciones k=1 fk (x)
converge uniforme y absolutamente en el intervalo I.
Demostración
Por comparación entre los términos de la serie numérica y la de funciones, se
sigue que para cada x0 en el intervalo I, la serie converge absolutamente. Ası́ la
serie converge puntualmente a una función lı́mite f (x) en a ≤ x ≤ b. Ahora
n
∞
X X
f (x) − fk (x) = fk (x) (B.23)
k=1 k=n+1
∞
X
≤ |fk (x)| (B.24)
k=n+1
X∞
≤ Mk (B.25)
k=n+1
X∞ n
X
= Mk − Mk (B.26)
k=1 k=1
Demostración
La norma al cuadrado del error que se comete, que se representa en la figura
5.8 a la derecha, es:
350APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER
en (t)
2 = hen (t), en (t)i (B.28)
= hen (t), y(t) − yn (t)i (B.29)
= hen (t), y(t)i − hen (t), yn (t)i (B.30)
n
X
2
en (t)
2 =
y(t)
2 − αk2
fk (t)
(B.35)
k=1
Z T Z T
" n #
2 2 X T T
e2n (t)dt = y 2 (t)dt − A20 · T + A2k · + Bk2 · ≥ 0 (B.36)
− T2 − T2 2 2
k=1
Z T
2 2
lı́m Ak = lı́m y(t) cos(kω0 t)dt = 0 (B.38)
k→∞ k→∞ T − T2
Z T
2 2
lı́m Bk = lı́m y(t) sen(kω0 t)dt = 0 (B.39)
k→∞ k→∞ T − T2
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 351
Demostración
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo
existe, entonces la serie del lado derecho, cuyo término general es no-negativo,
está acotada superiormente. Esto permite afirmar que converge, lo que a su
vez implica que el término general se hace cero cuando n → ∞, por tanto, los
coeficientes Ak y Bk se hacen cero cuando k → ∞. 222
Demostración
La aproximación n-ésima puede escribirse utilizando las ecuaciones (5.27)
n
X
yn (t) = A0 + [Ak cos(kω0 t) + Bk sen(kω0 t)] (B.41)
k=1
Z T
1 2
= y(τ )dτ (B.42)
T − T2
n
" Z T Z T
#
X 2 2 2 2
+ cos(kω0 t) y(τ ) cos(kω0 τ )dτ + sen(kω0 t) y(τ ) sen(kω0 τ )dτ
T T
−2 T − T2
k=1
(B.43)
Z T
" n
#
2 2 1 X
= y(τ ) + {cos(kω0 t) cos(kω0 τ ) + sen(kω0 t) sen(kω0 τ )} dτ
T − T2 2
k=1
(B.44)
Z T
" n
#
2 2 1 X
= y(τ ) + cos(kω0 (τ − t)) dτ (B.45)
T − T2 2
k=1
ω s
1 1 0
sen k+ ω0 s − sen k− ω0 s = 2 sen cos (kω0 s) (B.46)
2 2 2
ω s n
ω s X
1 0 0
sen n+ ω0 s − sen = 2 sen cos (kω0 s) (B.47)
2 2 2
k=1
352APÉNDICE B. BASES MATEMÁTICAS PARA LAS SERIES DE FOURIER
O bien,
n
1 X sen n + 12 ω0 s
+ cos (kω0 s) = (B.48)
2
k=1
2 sen 12 ω0 s
Reemplazando en la integral se obtiene
Z T
2 2 sen n + 12 ω0 (τ − t)
yn (t) = y(τ ) dτ (B.49)
T − T2 2 sen ω20 (τ − t)
y(t+ −
0 ) + y(t0 )
lı́m yn (t0 ) = (B.51)
n→∞ 2
En que y(t+ −
0 ) e y(t0 ) son los lı́mites por la derecha y por la izquierda de y(t)
en t0 .
Demostración
Primero, y como resultado previo, observemos que si integramos a ambos
lados de la ecuación (B.48), obtenemos
Z T2
sen n + 12 ω0 s T
1
= (B.52)
−2T 2 sen ω
2 0 s 2
y(t+ −
0 ) + y(t0 ) g(t+ −
0 ) + g(t0 )
g(t0 ) = = (B.54)
2 2
Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representación
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recién
mencionada y la expresión (B.40) para la n-ésima suma parcial, el error puede
escribirse
O, lo que es lo mismo,
g(t+ −
0 ) + g(t0 )
lı́m gn (t0 ) = g(t0 ) = (B.60)
n→∞ 2
G(t) + G(−t)
Gpar (t) = (B.62)
2
g(t + t0 ) + g(−t + t0 ) − 2g(t0 )
= (B.63)
2
G(t) − G(−t)
Gimpar (t) = (B.64)
2
g(t + t0 ) − g(−t + t0 )
= (B.65)
2
Demostración
Sean
∞
X
A0 + [An cos(nω0 t) + Bn sen(nω0 t)] (B.68)
n=1
X∞
A00 + [A0n cos(nω0 t) + Bn0 sen(nω0 t)] (B.69)
n=1
Z T
1 2
A00 = y 0 (t)dt (B.70)
T − T2
1
= [y(T /2) − y(−T /2)] (B.71)
T
=0 (B.72)
Z T
2 2
A0n = y 0 (t) cos(nω0 t)dt (B.73)
T − T2
" Z T2 #
2 T2
= y(t) cos(nω0 t) T + nω0 y(t) sen(nω0 t)dt (B.74)
T −2 − T2
Z T2
2
= nω0 y(t) sen(nω0 t)dt (B.75)
T − T2
= nω0 Bn (B.76)
Z T2
2
Bn0 = y 0 (t) sen(nω0 t)dt (B.77)
T − T2
" Z T2 #
2 T2
= y(t) sen(nω0 t) T − nω0 y(t) cos(nω0 t)dt (B.78)
T −2 − T2
Z T2
2
= −nω0 y(t) sen(nω0 t)dt (B.79)
T − T2
= −nω0 An (B.80)
También converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.8)
|h(An , Bn ); (cos(nω0 t), sen(nω0 t))i| ≤ k(An , Bn )k · k(cos(nω0 t), sen(nω0 t))k
(B.84)
q p
An cos(nω0 t) + Bn sen(nω0 t) ≤ An 2 + Bn 2 cos2 (nω0 t) + sen2 (nω0 t)
(B.85)
q
= An 2 + B n 2 (B.86)
Lema B.8. Sea y(t) una función definida en (−∞, ∞), de periodo T , seccional-
mente continua y con primera derivada seccionalmente continua. Entonces, si
yn (t) es la n-ésima suma parcial de su representación en serie de Fourier, la
norma del error en (t) = y(t) − yn (t) es tal que
Demostración
Es directa de (B.67), ya que si tomamos y(t) en el intervalo [− T2 , T2 ], y
denotamos por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro
de él, entonces, dado un ε > 0, para cada uno de los m + 1 subintervalos
(− T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 ) existe una constante Nk tal que
B.2. CONVERGENCIA DE LAS SERIES DE FOURIER 357
Z T
2
ken (t)k2 = en 2 (t)dt (B.94)
− T2
Z Z Z T
t1 tk+1 2
= en 2 (t)dt + . . . + en 2 (t)dt + . . . + en 2 (t)2 dt (B.95)
− T2 tk tm
Demostración
Es directa de la ecuación (B.36), donde como consecuencia del lema anterior
(B.90), la norma del error, además de ser positiva, tiende asintóticamente a cero.
Por tanto la desigualdad (B.27) se transforma en la identidad (B.97).
Apéndice C
La transformación de
Fourier
Z ∞
F [y(t)] = Y ( ω) = y(t)e− ωt dt (C.1)
−∞
Z ∞
1
F −1 [Y ( ω)] = y(t) = Y ( ω)e ωt dω (C.2)
2π −∞
Para que la transformada exista es suficiente que la función y(t) sea absolu-
tamente integrable en el intervalo −∞ < t < ∞, es decir:
Z ∞
y(t) dt < ∞
−∞
359
360 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
Z ∆/2
1 − ωt
Y∆ ( ω) = e dt
∆ −∆/2
1 − ω ∆ ∆
= e 2 − e ω 2
− ω∆
sen ω∆
2
= ω∆
2
16 1
14
0.8
12
0.6
10
8 0.4
0.2
y∆ (t) −→ δ(t)
↓ ↓
2 )
sen( ω∆
Y∆ ( ω) = ω∆ −→ Y ( ω) = 1
2
Demostración
Es directa de reemplazar Y (t) en la definición de la transformada y recor-
dando la ecuación que define a y(t) como transformada inversa de Y ( ω)
Z ∞
F{Y (t)} = Y (t)e− ωt dt
−∞
Z ∞
1
= 2π Y (t)ejt(−ω) dt
2π −∞
= 2πy(− ω)
222
Ejemplo C.2. Consideremos una función constante y(t) = C. Esta función
no es absolutamente integrable, sin embargo, su transformada de Fourier puede
obtenerse en base a la transformada del Delta de Dirac:
F {y(t)} = F {C}
= C · F {1}
= C · 2πδ(−ω)
= C · 2πδ(ω)
Demostración
Aplicando la definición de la Transformada de Fourier, para la función y(t)
desplazada en el tiempo, tenemos que
Z ∞
F{y(t − t0 )} = y(t − t0 )e− ωt dt
−∞
Z ∞
− ωt0
=e y(t − t0 )e− ω(t−t0 ) dt
−∞
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso
de amplitud A no está centrado en el origen, sino que se ha desplazado a la
derecha, ubicándose en el intervalo [0, τ ] su transformada de Fourier será
−jw τ2 sen ωτ2
F{y[0,τ ] (t)} = e Aτ ωτ
2
Demostración
Si aplicamos la definición de la transformada a la función y(t) multiplicada
por la exponencial periódica e ω0 t tenemos que
Z ∞
at
F{e y(t)} = eat y(t)e− ωt dt
−∞
Z ∞
= y(t)e−( ω−a)t dt
−∞
222
e ω0 t + e− ω0 t
F {cos(ω0 t)} = F
2
1
= F e− ω0 t + F e ω0 t
2
= π [δ(ω + ω0 ) + δ(ω − ω0 )]
e ω0 t − e− ω0 t
F {sin(ω0 t)} = F
2j
−j − ω0 t
= −F e + F e ω 0 t
2
= jπ [δ(ω + ω0 ) − δ(ω − ω0 )]
364 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
Demostración
Esta es directa del lema anterior utilizando la ecuación de Euler, es decir,
escribiendo cos(ω0 t) con exponenciales periódicas. Esto es
1 ω0 t
F{cos(ω0 t)y(t)} = F (e + e− ω0 t )y(t)
2
1
= F{e ω0 t y(t)} + F{e− ω0 t y(t)}
2
1
= (Y ( ω − ω0 ) + Y ( ω + ω0 ))
2
222
Se deja al lector la demostración del corolario que se obtiene por analogı́a
en el caso que en vez de cos(ω0 t) se utiliza sen(ω0 t).
Ejemplo C.5. En ambos casos de modulación planteados, cosenoidal y senoidal,
al hacer el producto de una señal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la señal. Esto permite llevar, por ejemplo, señales
de contenido de baja frecuencia (como la voz humana, en la banda de 0−4[kHz]),
a bandas de frecuencia para transmisión radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)cos(2π106 t)}|
|F {y(t)}|
4[kHz]
1[M Hz]
( ∞
)
X
− ωn t
F {yT (t)} = F Cn e
n=−∞
∞
X
F {yT (t)} = Cn F e− ωn t
n=−∞
X∞
= Cn δ(ω + ωn )
n=−∞
y(t)
1
−π π
t
−1
∞
X
y(t) = An cos(nt)
n=1
Z π
1
An = y(t) cos(nt)dt
π −π
∞ nπ
X 4
y(t) = sen cos(nt)
n=1
nπ 2
Luego,
∞ nπ
X 4
Y ( ω) = sen [δ(ω + n) + δ(ω − n)]
n=1
n 2
∞ nπ
X 4
= sen δ(ω + n)
n=−∞
n 2
n6=0
1.2 0.6
0.8 0.4
0.6
0.4 0.2
0.2
0 2 4 6 8 10 –10 –5 0 5 10
w
–0.2
–0.4 –0.2
Figura C.4:
1 ω
F{y(at)} = Y (j ) (C.7)
|a| a
Demostración
Si reemplazamos la función escalada y(at) en la definición de la integral,
podemos ahı́ definir una nueva variable t∗ = at, pero se debe tener en cuenta
que el signo de a determina si los lı́mites de la integral se mantienen o se deben
intercambiar:
Z ∞
F{y(at)} = y(at)e− ωt dt
−∞
Z ∞ ∗
t∗ dt
y(t∗ )e− ω a ; si a > 0
Z−∞ a
= −∞ ∗
t∗ dt
y(t∗ )e− ω a ; si a < 0
∞ a
Dado que el cambio de orden en los lı́mites de la integral es un cambio de
signo, ambas expresiones pueden juntarse en una sola:
Z ∞
signo(a) ω ∗
F{y(at)} = y(t∗ )e−j a t dt∗
a −∞
1 ω
F{y(at)} = Y (j )
|a| a
222
A partir de este lema puede verificarse directamente que
Demostración
d y(t)
Si se aplica la definición de la transformada de Fourier a la derivada dt ,
y se integra por partes, se obtiene:
Z ∞
d y(t) d y(t) − ωt
F = e dt
dt dt
−∞
Z ∞
∞
= y(t)e− ωt + ω y(t)e− ωt dt
−∞ −∞
222
Demostración
Demostración
Para demostrar esta propiedad debemos en primer lugar observar que si
definimos φ1 (t) como la integral definida de y(t), entonces
Z t
d φ1 (t) d
= y(τ )dτ
dt dt −∞
= y(t)
d
(φ1 (t) + k) = y(t)
dt
ω (Φ1 ( ω) + 2πkδ(ω)) = Y ( ω)
Z t
φ1 (t) = y(τ )dτ
−∞
Z ∞ Z t
= y(τ )dτ + y(τ )dτ
−∞ ∞
Z ∞ Z −t
= y(τ )dτ − y(−x)dx
−∞ −∞
Z t
φ2 (t) = y(−x)dx
−∞
1
⇒ Φ2 ( ω) = Y (− ω) − 2πkδ(ω)
ω
Z ∞
φ1 (t) = y(τ )dτ − φ2 (−t)
−∞
Z ∞
Φ1 ( ω) = 2π y(τ )dτ δ(ω) − Φ2 (− ω)
−∞
Z ∞
1 1
Y ( ω) − 2πkδ(ω) = 2π y(τ )dτ δ(ω) − Y ( ω) − 2πkδ(ω)
ω −∞ − ω
Z
1 ∞
k=− y(τ )dτ
2 −∞
Z ∞
1 − ωτ
=− y(τ )e dτ
2 −∞ ω=0
1
= − Y (0)
2
Por tanto
1
Φ1 ( ω) = Y ( ω) + πY (0)δ(ω)
ω
222
Z (
t
0 ;t < 0
δ(τ )dτ =
−∞ 1 ;t > 0
= µ(t)
Por tanto,
Z t
F {µ(t)} = F δ(τ )dτ
−∞
1
= F {δ(t)} + πδ(ω) F {δ(t)}|ω=0
ω
1
= + πδ(ω)
ω
C.1. TRANSFORMACIÓN DE FOURIER EN TIEMPO CONTINUO 371
Demostración
Insertando la expresión de la convolución en la transformada se obtiene
Z ∞ Z ∞
F{y1 (t) ∗ y2 (t)} = y1 (τ )y2 (t − τ )dτ e− ωt dt
−∞ −∞
222
1
F{y1 (t)y2 (t)} = Y1 ( ω) ∗ Y2 ( ω) (C.15)
2π
372 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
Demostración
Consideremos la transformada de Fourier inversa de la convolución de fun-
ciones en ω
Z ∞
1
F −1 {Y1 ( ω) ∗ Y2 ( ω)} = Y1 ( ω) ∗ Y2 ( ω)e ωt dω
2π −∞
Z ∞ Z ∞
1
= Y1 (jζ)Y2 ( ω − jζ)dζ e ωt dω
2π −∞ −∞
Donde si se define ω − jζ = ω ∗
Z ∞ Z ∞
−1 1 ∗ ( ω ∗ +jζ)t ∗
F {Y1 ( ω) ∗ Y2 ( ω)} = Y1 (jζ) Y2 ( ω )e dω dζ
2π −∞ −∞
Z ∞ Z ∞
1 jζt 1 ∗ jω ∗ t ∗
= 2π Y1 (jζ)e dζ Y2 ( ω )e dω
2π −∞ 2π −∞
= 2πy1 (t)y2 (t)
Demostración
Esto se demuestra con ayuda del lema de convolución en el tiempo (C.13).
Según este tenemos que
Si evaluamos en t = 0, queda
Z ∞ Z ∞
1
y1 (τ )y2 (−τ )dτ = Y1 ( ω)Y2 ( ω)dω
−∞ 2π −∞
222
C.2.
transformada de Fourier discreta
transformada de Fourier discreta inversa
Transformada de Fourier en tiempo discre-
to
C.2.1. Definición de la transformada
Dada una función definida en tiempo discreto y[k] , en que k ∈ Z , su
transformada de Fourier discreta Y (ejθ ) y su transformada de Fourier discreta
inversa quedan definidas por las ecuaciones
∞
X
Fd {y(t)} = Y (ejθ ) = y[k]e−jθk (C.18)
k=−∞
Z 2π
−1
1
Fd Y (ejθ ) = y[k] = Y (jθ)ejθk dθ (C.19)
2π 0
∞
X
y[k] < ∞
k=−∞
Si bien existen funciones que no cumplen con esta condición, a pesar de ello
poseen transformada de Fourier discreta.
A continuación se muestran algunos ejemplos para ver cómo se obtiene la
transformada de Fourier discreta para un delta de Kronecker, para una secuencia
constante y para una exponencial decreciente discreta.
∞
X
Y (ejθ ) = δK [k]e−jθk
k=−∞
= δK [0]e−jθ0
=1
y[k] = 1 ∀k ∈ Z
Z T
1 2 2π
Ck = f (θ)ej T kθ
T − T2
k=−∞
∞
X
Y (ejθ ) = αk e−jθk
k=0
X∞
= (αe−jθ )k
k=0
Que resulta ser una serie geométrica convergente ya que |αe −jθ | < 1. Por
tanto su suma es
1
Y (ejθ ) =
1 − αe−jθ
Demostración
Es directa de la definición de la transformada (C.18), ya que
∞
X
Fd {αy1 [k] + βy2 [k]} = (αy1 [k] + βy2 [k])e−jθk
k=−∞
X∞ ∞
X
=α y1 [k]e−jθk + β y2 [k]e−jθk
k=−∞ k=−∞
222
Demostración
Consideremos la definición de la transformada (C.18), y tomemos k0 ∈ Z,
entonces
∞
X
Fd {y[k − k0 ]} = y[k − k0 ]e−jθk
k=−∞
∞
X
Fd {y[k − k0 ]} = y[l]e−jθ(l+k0 )
l=−∞
∞
X
= e−jθk0 y[l]e−jθl
l=−∞
−jθk0
=e Y (ejθ )
378 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
222
Demostración
Para demostrar la propiedad anterior podemos considerar directamente la
definición (C.18)
∞
X
Fd ejθ0 k y[k] = ejθ0 k y[k]e−jθk
k=−∞
X∞
= y[k]e−j(θ−θ0 )k
k=−∞
= Y (ejζ )
= Y (ej(θ−θ0 ) )
θ0 = ϑ0 + 2πn
2π 1 n j 2π k o 1 n −j 2π k o
Fd cos k = Fd e 10 + Fd e 10
10 2 2
∞ ∞
1 X 2π 1 X 2π
= 2π δ(θ − + 2πn) + 2π δ(θ + + 2πn)
2 n=−∞ 10 2 n=−∞ 10
∞ ∞
X 2π X 2π
=π δ(θ − + 2πn) + π δ(θ + + 2πn)
n=−∞
10 n=−∞
10
2
1.5
1.8
1
1.6
1.4
0.5
1.2
Y(e )
jθ
1
y[k]
0.8
−0.5
0.6
0.4
−1
0.2
−1.5 0
−15 −10 −5 0 5 10 15 0 1 2 3 4 5 6
k θ
Demostración
Como se mencionó anteriormente resulta de la aplicación del lema anterior,
ya que tanto cos(θ0 k) como sen(θ0 k) pueden escribirse en términos de exponen-
ciales periódicas.
Consideremos la ecuación (C.23):
ejθ0 k + e−jθ0 k
Fd {cos(θ0 k)y[k]} = Fd y[k]
2
1 jθ0 k 1
= Fd e y[k] + Fd e−jθ0 k y[k]
2 2
1h j(θ−θ0
i
= Y (e + Y (ej(θ+θ0 )
2
La demostración de (C.24) resulta análoga, por lo tanto se deja como ejercicio
para el lector. 222
Demostración
Para demostrar la propiedad usamos la ecuación (C.18), que define la trans-
formada de Fourier discreta de una secuencia
∞
X
Fd {y[−k]} = y[−k]e−jθk
k=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 381
∞
X
Fd {y[−k]} = y[l]e−jθ(−l)
l=−∞
X∞
= y[l]e−j(−θ)l
l=−∞
= Y (e−jθ )
222
Corollario C.6. Note que si la secuencia y[k] está compuesta sólo por valores
reales, entonces
Fd {y[−k]} = Y ∗ (e−jθ ) (C.26)
En que (·)∗ denota al complejo conjugado de (·)
Demostración
Se deja como ejercicio al lector. 222
x[k] = µ[k] + C
⇒ x[k] − x[k − 1] = δK [k]
∞
X
jθ
X(e ) = Fd {µ[k]} + C2π δ(θ − 2πn)
n=−∞
1 1
− C · S(θ) = S(θ) − − C · S(−θ) +1
1 − e−jθ 1 − ejθ
En que
∞
X
S(θ) = 2π δ(θ − 2πn)
n=−∞
−1 −1
−C · 2S(θ) = S(θ) + + +1
1 − ejθ 1 − e−jθ
| {z }
0
−C · 2S(θ) = S(θ)
1
C=−
2
Luego, la transformada de Fourier discreta del escalón µ[k] es
∞
1 X
Fd {µ[k]} = + π δ(θ − 2πn)
1 − e−jθ n=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 383
Lema C.13. Sea y[k] una secuencia de tiempo discreto definida ∀k ∈ Z, cuya
transformada es Y (ejθ ). Consideremos ahora la secuencia k · y[k], su transfor-
mada, sólo en el caso que exista, es igual a
d Y (ejθ )
Fd {k · y[k]} = j (C.27)
dθ
Demostración
Z 2π
−1 d Y (ejθ ) 1 d Y (ejθ ) jθk
Fd j = j e dθ
dθ 2π 0 dθ
Z 2π
−1 d Y (e−jθ ) j d Y (ejθ )
Fd j = ejθk
dθ
dθ 2π 0 dθ
j jθk 2π j Z 2π
e Y (ejθ ) − Y (ejθ )jkejθk dθ
=
2π | {z 0
} 2π 0
0
2 Z 2π
−j
= k Y (ejθ )ejθk dθ
2π 0
Z 2π
1
=k· Y (ejθ )ejθk dθ
2π 0
| {z }
y[k]
222
k d Fd αk µ[k]
Fd kα µ[k] = j
dθ
d 1
=j
dθ 1 − αe−jθ
−1
=j· · (jαe−jθ )
(1 − αe−jθ )2
αe−jθ
=
(1 − αe−jθ )2
2 5
1.8 4.5
1.6 4
1.4 3.5
1.2 3
Y(e )
jθ
y[k]
1 2.5
0.8 2
0.6 1.5
0.4 1
0.2 0.5
0 0
−5 0 5 10 15 20 25 0 1 2 3 4 5 6
k θ
Demostración
Recordemos en primer lugar que la convolución de dos secuencias de tiempo
discreto y1 [k] e y2 [k] se define como :
∞
X
y1 [k] ∗ y2 [k] = y1 [l]y2 [k − l]
l=−∞
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 385
∞ ∞
!
X X
−jθk
Fd {y1 [k] ∗ y2 [k]} = y1 [l] y2 [k − l]e
l=−∞ k=−∞
X∞
= y1 [l]e−jθl Y2 (ejθ )
l=−∞
∞
X
= Y2 (ejθ ) y1 [l]e−jθl
l=−∞
= Y2 (e )Y1 (ejθ )
jθ
222
Demostración
Reemplazando el producto de las secuencias en la definición (C.18) tenemos
que :
∞
X
Fd {y1 [k]y2 [k]} = y1 [k]y2 [k]e−jθk
k=−∞
Aqui podemos escribir una de las secuencias según la ecuación (C.19) que
la expresa como la transformada de Fourier inversa. Con esto e intercambiando
de orden la sumatoria con la integral que aparece tenemos que :
∞ Z 2π
X 1
Fd {y1 [k]y2 [k]} = Y1 (ejζ )ejζk dζ y2 [k]e−jθk
2π 0
k=−∞
Z 2π ∞
!
1 jζ
X
jζk
−jθk
= Y1 (e ) e y2 [k] e dζ
2π 0
k=−∞
386 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
222
Demostración
En el lado izquierdo de la ecuación (C.30) podemos reemplazar y1 [k], uti-
lizando la definición de la transformada de Fourier discreta inversa dada por la
expresión (C.19) :
∞ ∞ Z 2π
X X 1
y1 [k]y2 [k] = Y1 (ejθ )ejθk dθ y2 [k]
2π 0
k=−∞ k=−∞
∞ Z ∞
!
2π
X 1 X
y1 [k]y2∗ [k] = Y1 (ejθ ) y2∗ [k]ejθk dθ
2π 0
k=−∞ k=−∞
Z ∞
!∗
2π
1 X
= Y1 (ejθ ) y2 [k]e−jθk dθ
2π 0 k=−∞
Z 2π
1
= Y1 (ejθ )Y2∗ (ejθ )dθ
2π 0
222
Demostración
Es directa de la ecuación (C.30) ya que
222
388 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
l
X l
X
ai yi (t) ai Yi ( ω) Linealidad
i=1 i=1
dy(t)
ωY ( ω) Derivación
dt
dk y(t)
( ω)k Y ( ω) Derivadas superiores
dtk
Z t
1
y(τ )dτ Y ( ω) + πY (0)δ(ω) Integración
−∞ ω
1 ω
y(at) Y j Escalamiento temporal
|a| a
1
y(t) cos(ωo t) {Y ( ω − ωo ) + Y ( ω + ωo )} Modulación (cosenoidal)
2
1
y(t) sen(ωo t) {Y ( ω − ωo ) − Y ( ω + ωo )} Modulación (senoidal)
j2
f (t) ∀t ∈ R F {f (t)}
1 2πδ(ω)
δD (t) 1
1
µ(t) πδ(ω) +
ω
1 − e− ωto
µ(t) − µ(t − to )
ω
1
e−αt µ(t) <{α} ∈ R+
ω − α
1
te−αt µ(t) <{α} ∈ R+
( ω − α)2
2α
e−α|t| α ∈ R+
ω2 + α2
π ω
cos(ωo t)µ(t) (δ(ω + ωo ) + δ(ω − ωo )) +
2 −ω 2 + ωo2
jπ ωo
sen(ωo t)µ(t) (δ(ω + ωo ) − δ(ω − ωo )) +
2 −ω + ωo2
2
ω + α
e−αt cos(ωo t)µ(t) α ∈ R+
( ω + α)2 + ωo2
ωo
e−αt sen(ωo t)µ(t) α ∈ R+
( ω + α)2 + ωo2
l
X l
X
αi yi [k] αi Yi (ejθ ) Linealidad
i=1 i=1
1h i
cos(θ0 k)y[k] Y (ej(θ+θ0 ) + Y (ej(θ−θ0 ) Modulación cosenoidal
2
jh i
sen(θ0 k)y[k] Y (ej(θ+θ0 ) − Y (ej(θ−θ0 ) Modulación senoidal
2
d Y (ejθ )
ky[k] j
dθ
∞
X
y1 [l]y2 [k − l] Y1 (ejθ )Y2 (ejθ ) Convolución
l=−∞
Z 2π
1
y1 [k]y2 [k] Y1 (ejζ )Y2 (ej(θ−ζ) )dζ Producto en el tiempo
2π 0
∞ Z 2π
X 1
y1 [k]y2∗ [k] Y1 (ejθ )Y2∗ (ejθ )dθ Teorema de Parseval
2π 0
k=−∞
∞ Z 2π
X 1
| y[k] |2 | Y (ejθ ) |2 dθ Teorema de Parseval
2π 0
k=−∞
δK [k] 1
δK [k − k0 ] e−jθk0
∞
X
1 (∀k ∈ Z) 2π δ(θ − 2πn)
n=−∞
∞
1 X
µ[k] + π δ(θ − 2πn)
1 − e−jθ n=−∞
1
αk µ[k] (|α| < 1)
1 − αe−jθ
1
(k + 1)αk µ[k] (|α| < 1)
(1 − αe−jθ )2
∞
X
ejθ0 k 2π δ(θ − θ0 + 2πn)
n=−∞
∞
X
cos(θ0 k) π [δ(θ + θ0 + 2πn) + δ(θ − θ0 + 2πn)]
n=−∞
X∞
sen(θ0 k) jπ [δ(θ + θ0 + 2πn) − δ(θ − θ0 + 2πn)]
n=−∞
∞
X
cos(θ0 k + φ) π e−jφ δ(θ + θ0 + 2πn) + ejφ δ(θ − θ0 + 2πn)
n=−∞
∞
sen(θc k) X
Y0 (ej(θ+2πn) )
πk n=−∞
(
1 ; |θ| < θc
Y0 (ejθ ) =
0 ; θc < |θ| ≤ π
(
2N +1
0 ; |k| ≤ N sen 2 θ
y[k] =
1 ; |k| > N sen 21 θ
αe−jθ
kαk µ[k] (|α| < 1)
(1 − αe−jθ )2
Usualmente se define
2π
WN = ejθo = ej N (C.34)
y la función
N
X −1
Hn = N · C n = y[k]WN−nk (C.35)
k=0
precaución al consultar la literatura para evitar confusión con la denominación transformada rápida
de Fourier
que hemos usado en este texto.
Si se observa la ecuación (C.35) ésta puede entenderse como un producto
matricial en que el vector Hn es igual al producto de la matriz {WN }n,k =
{WN−nk } por el vector y[k]. Es decir
−0·(N −1)
H0 WN−0·0 WN−0·1 ... WN y[0]
−1·(N −1)
H1
WN−1·0 WN−1·1 ... WN y[1]
.. = . . . . ..
. .. .. .. ..
.
HN −1 WN
−(N −1)·0 −(N
WN
−1)·1 −(N
. . . WN
−1)(N −1) y[N − 1]
(C.37)
Hacer el producto matricial el lado derecho de la ecuación anterior implica
N 2 multiplicaciones complejas, además de las sumas respectivas para el cálculo
de cada Hn . También se requieren algunas operaciones más para el cálculo de
las potencias de WN . Es decir, podemos apreciar que el cálculo de la DFT es
un proceso O(N 2 ) 2 .
Sin embargo, la matriz involucrada en (C.37) está formada por potencias de
2π
WN = ej N , por tanto todos sus componentes son alguna de las raı́ces N -ésimas
de la unidad, distribuida en torno a la circunferencia unitaria. Esta simetrı́a de
hecho es el camino para reducir el número de cálculos necesarios para el cálculo
de la DFT. Los algoritmos que hacen uso de estas simetrı́as se comenzaron a
desarrollar más fuertemente a partir de mediados de los años 60 y reciben el
nombre genérico de transformada rápida de Fourier o FFT por su denom-
inación en inglés3 .
Para maximizar el aprovechamiento de las simetrı́as es conveniente elegir
secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v para algun v ∈ Z+ (C.38)
Esto no implica perder generalidad, pues en los casos en que no pueden
tomarse más valores de la secuencia original podemos completar con ceros hasta
la potencia de 2 más cercana (aunque ello significa la introducción de un grado
variable de inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , según la ecuación
(C.35). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es
decir:
N
X −1
Hn = y[k]WN−nk (C.39)
k=0
N/2−1 N/2−1
X −n(2r)
X −n(2r+1)
= y[2r]WN + y[2r + 1]WN (C.40)
r=0 r=0
2 Del orden de N 2 , es decir, si se duplica N el número de cálculos se ¡ cuadruplica !
3 Fast Fourier Transform.
394 APÉNDICE C. LA TRANSFORMACIÓN DE FOURIER
Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r + 1], son
secuencias de largo N/2, por lo que podrı́a escribirse las sumatorias como la
serie de Fourier discreta modificada que les corresponde. Justamente esto sucede
en forma natural al observar que
−n(2r) 2π 2π
WN = e−j N n(2r) = e−j N/2 nr = WN/2
−nr
(C.41)
Es decir, en la sumatoria aparecen las armónicas para secuencias de longitud
N/2. Con esta observación la expresión para Hn queda
N/2−1 N/2−1
X −n(2r)
X −n(2r)
Hn = y[2r]WN + y[2r + 1]WN WN−n (C.42)
r=0 r=0
N/2−1 N/2−1
X X
−nr
= y[2r]WN/2 + WN−n −nr
y[2r + 1]WN/2 (C.43)
r=0 r=0
= Hnpar + WN−n Hnimpar (C.44)
Como antes mencionamos, para calcular los términos Hn para una secuencia
de longitud N por el método directo, se requieren del aproximadamente N 2
multiplicaciones complejas en el producto matricial (C.37). Análogamente para
calcular cada uno de los términos Hnpar y Hnimpar , que corresponden a secuencias
de largo N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno.
Y para poder formar cada uno de los N términos Hn requerimos una única
multiplicación compleja más, según (C.44).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son
−nr
N/2 periódicas en r, sus armónicas WN/2 , también lo son:
−(l+N/2) 2π 2π 2π
WN/2 = e−j N/2 (l+N/2) = e−j N/2 l e−j2π = e−j N/2 l = WN/2
−l
(C.45)
2500
2000
1500
1000
500
0
0 5 10 15 20 25 30 35 40 45 50
N
H0p H0
W80
H1p H1
W8−1
H2p H2
W8−2
H3p H3
W8−3
H0i H4
W8−4
H1i H5
W8−5
H2i H6
W8−6
H3i H7
W8−7
H4p = H0p
H4i = H0i
Por lo tanto,
De manera análoga, para calcular los términos de Hnp y Hni podemos aplicar
la misma idea
Donde ahora las series Hnpp , Hnpi , Hnip y Hnii están formadas por subsecuen-
cias de largo 2, y también son periódicas de perı́odo 2. Como se ve en el esquema
de la figura C.9
Finalmente al subdividir nuevamente las secuencias quedan términos indi-
viduales que corresponden a los 8 valores de la secuencia original considerada:
C.2. TRANSFORMADA DE FOURIER EN TIEMPO DISCRETO 397
H0pp H0
W80 W80
H1pp H1
W8−2 W8−1
H0pi W8−4
H2
W8−2
H1pi W8−6
H3
W8−3
H0ip W8−4
H4
W80
H1ip H5
W8−2 W8−5
H0ii H6
W8−4 W8−6
H1ii H7
W8−6 W8−7
y0 H0
W80 W80 W80
y1 H1
W8−4 W8−2 W8−1
y2 W8−4
H2
W80
W8−2
y3 W8−4
H3
W8−6
W8−3
y4 H4
W80 W80 W8−4
y5 H5
W8−4 W8−2 W8−5
y6 H6
W80 W8−4 W8−6
y7 H7
W8−4 W8−6 W8−7
Apéndice D
La transformada de Laplace
Z ∞
L {y(t)} = Y (s) = e−st y(t)dt (D.1)
0−
Z σ+j∞
1
L−1 {Y (s)} = y(t) = est Y (s)ds (D.2)
2πj σ−j∞
399
400 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
Lema D.1. Sea H(s) una función racional estrictamente propia1 de la vari-
able s con región de convergencia <{s} > −α. SI denotamos como h(t) a su
correspondiente función temporal, i.e.
Demostración
De la definición de la transformada de Laplace tenemos que, para todo s en
la región de convergencia de la transformada, i.e. en <{s} > −α
Z ∞
H(s) = h(t)e−st dt (D.6)
0
Por lo tanto se tiene que z0 está en la región de convergencia de la transfor-
mada.
222
Corollario D.1. En la ecuación D.5 se observa que como condición necesaria
para la convergencia de la integral del lado izquierdo se debe cumplir que
> y(t):=exp(2*t);
> with(inttrans):
Y(s) := laplace(y(t),t,s);
en el denominador
D.1. TRANSFORMADA DE LAPLACE 401
Ahora considere
Z∞
I(z0 ) = e−z0 t y(t)dt (D.10)
0
Note que esto se podrı́a haberse obtenido como consecuencia de lema D.1 ya
que
1
Y (3) = =1 (D.12)
3−2
Sin embargo, si tomamos z0 = 1, entonces Y (1) = −1. Entonces claramente
I(z0 ) es ∞. Esto está de acuerdo con el lema D.1 ya que z0 = 1 no está en el
interior de la región de convergencia de la transformada.
222
Demostración
Esta propiedad es directa dado que la transformada de Laplace está definida
mediante la integral (D.1) :
Z ∞
L {αy1 (t) + βy2 (t)} = (αy1 (t) + βy2 (t))e−st dt
0−
Z ∞ Z ∞
=α y1 (t)dt + β y2 (t)dt
0− 0−
= αY1 (s) + βY2 (s)
222
402 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
Demostración
Según la definición tenemos:
Z ∞
d y(t) d y −st
L = e dt
dt 0− dt
s laplace(y(t), t, s) − y(0)
d n y(t) d n−1 y(0− )
L = sn Y (s) − sn−1 y(0− ) − · · · − n ∈ Z+ (D.16)
dt n dt n−1
donde Y (s) = L {y(t)}. Este resultado será usado repetidamente para conver-
tir ecuaciones diferenciales en ecuaciones algebraicas en la variable s. Además
en la ecuación (D.16) se incluyen las condiciones iniciales de la función y sus
derivadas.
D.1. TRANSFORMADA DE LAPLACE 403
d 2θ dθ
+2 = va (t) (D.17)
dt 2 dt
Si tomamos transformada de Laplace a ambos lados de la ecuación y apli-
camos D.16 se obtiene
> theta(0):=0;
D(theta)(0):=0;
v_a(t):=Heaviside(t);
Theta(s):=solve(EDO,laplace(theta(t),t,s));
1
Θ(s) = Va (s)
s2 + 2s
1 1
= 2
s + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
1 1 1
Θ(s) = + − (D.19)
4(s + 2) 2s2 4s
Aquı́, aplicando los resultados de la Tabla D.2 (página 415 ), la salida para
t ≥ 0 es
> theta(t):=invlaplace(Theta(s),s,t);
1 −2t 1 1
θ(t) = e + t− (D.20)
4 2 4
404 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
Demostración
Si reemplazamos la integral en la definición de la transfomada (D.1), pode-
mos hacer una integral por partes:
Z t Z ∞ Z t
L y(τ )dτ = y(τ )dτ e|−st
{zdt}
0− 0− 0−
| {z } dv
u
Z t Z ∞
e−st ∞ e−st
= y(τ )dτ − y(t) dt
0− −s 0− 0− −s
Z ∞
1
=0+ y(t)e−st dt
s 0−
222
d n Y (s)
L {tn · y(t)} = (−1)n (D.22)
ds n
Demostración
Este resultado se establece derivando ambos lados de la ecuación
Z ∞
Y (s) = y(t)e−st dt
0−
y ası̀ obtenemos
Z ∞
dY (s) ∂
= y(t)e−st dt
ds 0− ∂s
Z ∞
=− ty(t)e−st dt
0−
= −L {t · y(t)}
D.1. TRANSFORMADA DE LAPLACE 405
d2
L t2 · 1 = (−1)2 2 L {1}
ds
d2 1
=
ds 2 s
d 1
= − 2
ds s
2
= 3
s
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos
>laplace(t*y(t),t,s);
∂
− laplace(y(t), t, s)
∂s
> y(t):= t^2;
laplace(y(t),t,s);
1
2
s3
Se deja al lector como ejercicio encontrar una expresión (no recursiva) para
L {tn }, usando el método de inducción.
Lema D.6. Desplazamiento en t.
Sea y(t − a), a > 0 una versión desplazada de la función y(t). Si µ(t − a) es
la función escalón unitario que comienza en a, entonces
Demostración
Dado que la función escalón unitario es igual a 0 antes de a y 1 después, la
transformada de Laplace puede calcularse con la definición
Z ∞
L {u(t − a)y(t − a)} = µ(t − a)y(t − a)e−st dt
Z0 ∞
−
= y(t − a)e−st dt
Za ∞
−
= y(t̃)e−s(t̃+a) dt̃
0−
Z ∞
= e−sa y(t̃)e−st̃ dt̃
0−
−sa
= e Y (s)
De donde se obtiene el resultado deseado.
222
Note que
1 ; si 0 ≤ t < a
p(t) =
0 ; si t ≥ a
Esta señal puede escribirse usando la función de Heaviside o escalón unitario
µ(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);
1 1 −as
P (s) = − e
s s
1
= 1 − e−sa
s
D.1. TRANSFORMADA DE LAPLACE 407
Este ejemplo puede extenderse a cualquier función que esté definida por
tramos, cuya transformada de otra forma se tendrı́a que calcular separando la
integral (D.1) de la definición.
Se deja al lector obtener una expresión para f (t)p(t) en que p(t) es el pulso
del ejemplo anterior, y f (t) es alguna función continua en el intervalo 0 < t < a.
A continuación se presenta otro resultado relacionado con el desplazamiento
temporal de una función.
∞
X
y(t) = yT (t − nT ) (D.24)
n=0
en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [µ(t) − µ(t −
T )]y(t). Entonces la transformada de Laplace de y(t) es
1
L {y(t)} = YT (s) (D.25)
1 − e−sT
en que YT (s) = L {yT (t)}.
Demostración
Si se utiliza el resultado del lema D.6, al aplicar transformada de Laplace a
la ecuación (D.24) tenemos por linealidad
∞
X
L {y(t)} = e−nT s YT (s)
n=0
∞
X
Y (s) = YT (s) e−nT s
n=0
1
Y (s) = YT (s)
1 − e−sT
222
408 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
Demostración
De la definición (D.1), tenemos que
Z ∞
L eat y(t) = eat y(t)e−st dt
0−
Z ∞
= y(t)e−(s−a)t dt
0−
= Y (s − a)
222
En que
Z t
y1 (t) ∗ y2 (t) = y1 (τ )y2 (t − τ )dτ (D.28)
0−
Demostración
Si las señales son causales, es decir, su valor es cero ∀t < 0, entonces podemos
reescribirlas
Z ∞ Z ∞
L {y1 (t) ∗ y2 (t)} = y1 (τ )µ(τ )y2 (t − τ )µ(t − τ )dτ e−st dt
0− −∞
Z ∞ Z ∞
−st
= y1 (τ )µ(τ ) [y2 (t − τ )µ(t − τ )] e dt dτ
−∞ 0−
Z ∞
L {y1 (t) ∗ y2 (t)} = y1 (τ )µ(τ )e−sτ Y2 (s)dτ
−∞
Z ∞
= Y2 (s) y1 (τ )e−sτ dτ
0−
= Y2 (s)Y1 (s)
222
Demostración
Si reemplazamos el producto de las funciones dentro de la definición de la
transformada, podemos demostrar la propiedad escribiendo una de ellas como
la transformada inversa de su transformada de Laplace:
Z ∞
L {y1 (t)y2 (t)} = y1 (t)y2 (t)e−st dt
0−
Z ∞ Z σ+j∞
1
= Y1 (ζ)e dζ y2 (t)e−st dt
ζt
0− 2πj σ−j∞
Z σ+j∞ Z ∞
1
L {y1 (t)y2 (t)} = Y1 (ζ) eζt y2 (t)e−st dt dζ
2πj σ−j∞ 0−
Z σ+j∞
1
= Y1 (ζ)Y2 (s − ζ)dζ
2πj σ−j∞
222
Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Las ecuaciones anteriores son válidas sólo en caso que ambos lı́mites ex-
istan.
Demostración
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0− ) = y(0+ ) =
y = 0. Si usamos la ecuación (D.14) tenemos
Z ∞
d y(t) −st
e dt = sY (s) − y(0− )
0− dt
pero la integral del lado izquierdo puede acotarse y usar la ecuación (D.3)
Z ∞ Z ∞
d y(t) −st d y(t) −st
e dt ≤ dt e dt
0− dt 0−
Z ∞
≤ keσt e−st dt
0−
∞
e−(s−σ)t
=k
−s + σ 0−
k
y si s → ∞ entonces s−σ → 0, de donde se obtiene
Z ∞
d ỹ(t) −st
e dt = sỸ (s) − ỹ(0− )
0− dt
Z ∞
d y(t)
dt = sY (s) − y(0− ) (D.33)
0− dt
222
412 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
Ejemplo D.5. Debe tenerse precaución de utilizar estos teoremas en caso solo
en que ambos limites existan tanto en el tiempo como en la variable compleja s.
Consideremos por ejemplo la transformada de Laplace de cos(ω0 t)
s
L {cos(ω0 t)} =
s2 + ω02
s2
lı́m =0
s→0 s2 + ω02
lı́m cos(ω0 t) = @
t→∞
222
+
vf (t) C vc (t)
i(t)
d µ(t) d i(t) 1
=R + i(t)
dt dt C
D.1. TRANSFORMADA DE LAPLACE 413
Si aplicamos transformada de Laplace, y consideramos la condición inicial igual Propiedades transformada de Laplace
a cero Tabla transformadas de Laplace
Tabla transformadas de Laplace invers
1 1
s = R sI(s) − i(0− ) + I(s)
s C
y despejando se obtiene
1
I(s) = 1
sR + C
l
X l
X
ai yi (t) ai Yi (s) Fi (s) = L {fi (t)}
i=1 i=1
dy(t)
sY (s) − y(0− ) donde Y (s) = L {y(t)}
dt
dk y(t) k
Pk k−i di−1 y(t)
s Y (s) − i=1 s donde Y (s) = L {y(t)}
dtk dti−1 t=0−
Z t
1
y(τ )dτ Y (s)
0− s
dY (s)
ty(t) −
ds
dk Y (s)
tk y(t) (−1)k k ∈ {1, 2, 3, . . .}
dsk
eat y(t) Y (s − a)
Z t
y1 (τ )y2 (t − τ )dτ Y1 (s)Y2 (s) y1 (t) = y2 (t) = 0 ∀t < 0
0−
Z σ+j∞
1
y1 (t)y2 (t) Y1 (ζ)Y2 (s − ζ)dζ Convolución compleja
2πj σ−j∞
1
1 σ>0
s
e−sτ
µ(t − τ ) s τ >0
1
t σ>0
s2
n!
tn n ∈ Z+ σ>0
sn+1
1
eαt α∈C σ > <{α}
s−α
1
teαt α∈C σ > <{α}
(s − α)2
s
cos(ωo t) σ>0
s2 + ωo2
ωo
sen(ωo t) σ>0
s2 + ωo2
(sen β)s + ωo2 cos β − α sen β
eαt sen(ωo t + β) σ > <{α}
(s − α)2 + ωo2
2ωo s
t sen(ωo t) σ>0
(s2 + ωo2 )2
s2 − ωo2
t cos(ωo t) σ>0
(s2 + ωo2 )2
1 − e−sτ
µ(t) − µ(t − τ ) |σ| < ∞
s
α+β = A
λ2 α + λ1 βλ1 = B (D.42)
Aλ1 − B
α =
λ1 − λ 2
−Aλ2 + B
β = (D.43)
λ1 − λ 2
D.1. TRANSFORMADA DE LAPLACE 417
Como puede verse este método de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva
raı́z, permite llegar de manera mucho más directa a los coeficientes de la de-
scomposición (D.46). Con ayuda de la tabla D.2 se obtiene finalmente
1 7 3
−1 −4 − 20
y2 (t) = L + + 5
s s+4 s−1
1 7 3
= − − e−4t + et (D.47)
4 20 5
222
Se deja al lector verificar que la función obtenida es la misma que se obtiene
si se aplica el método del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar
por cada factor del denominador (s − λ) y reemplazar por s = −λ todos los
términos de la descomposición en fracciones parciales se hacen cero, excepto el
1
coeficiente correspondiente a s−λ . Sin embargo, en caso de existir raı́ces repeti-
das, aparecerá una indefinición al reeplazar (s = λ).
Ejemplo D.9. En el caso de raı́ces repetidas, la descomposición en fracciones
parciales no toma la forma (D.40), sino que se descompone como
As + B α β
Y3 (s) = = + (D.48)
(s − λ)2 s − λ (s − λ)2
Note que en esta expresión solamente el coeficiente β puede ser obtenido
como en el ejemplo D.8, ¿ Porqué no puede obtenerse el coeficiente α ? ¿ Cómo
podrı́a obtenerse ?
Una manera simple de llegar a la forma (D.48) es forzando a que aparezca
el término (s − λ) en el numerador, separar y luego simplificar como se muestra
a continuacion
A(s − λ) + (Aλ + B)
Y3 (s) =
(s + λ)2
A Aλ + B
= + (D.49)
s − λ (s + λ)2
Con lo cual puede obtenerse de la tabla D.2
y3 (t) = Aeλt + (Aλ + B)teλt (D.50)
222
Cuando las raı́ces del polinomio denominador son números complejos, el
método visto en los ejemplos D.7,D.8 y D.9 puede aplicarse de igual forma. Los
coeficientes que se obtienen en este caso son complejos, pero además, dado que
el polinomio denominador tiene coeficientes reales, las raı́ces complejas apare-
cen siempre en pares complejos conjugados2 , los coeficientes de la expansión
2 Esto como resultado del Teorema Fundamental del Álgebra
D.1. TRANSFORMADA DE LAPLACE 419
en fracciones parciales también son complejos conjugados. Esto asegura que las
funciones exponenciales complejas que se obtienen en (D.44) son iguales a sinu-
soidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio
esta demostración.
Ejemplo D.10. Cuando el denominador de una función racional de la forma
(D.39) tiene raı́ces complejas se suele escribir como
As + B
Y4 (s) = ; 0≤ξ<1 (D.51)
s2 + 2ξωn s + ωn2
Expresión en que ξ se denomina factor de amortiguación. Dado que en la tabla
D.2 tenemos sólo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la función de la forma
As + B
Y4 (s) = p (D.52)
(s + ξωn )2+ (ωn 1 − ξ 2 )2
Y en el numerador de esta expresión puede construı́rse el término (s + ξω n )
para luego separar en dos términos
A(s + ξωn ) + (−Aξωn + B)
Y4 (s) =
D(s)
A(s + ξωn ) (−Aξωn + B)
= +
D(s) D(s)
p
A(s + ξωn ) (−Aξωn + B) (ωn 1 − ξ 2 )
= + p (D.53)
D(s) (ω0 1 − ξ 2 ) D(s)
en que el denominador es
p
D(s) = (s + ξωn )2 + (ωn 1 − ξ 2 )2 (D.54)
Y aplicando transformada de Laplace inversa se llega a
p (−Aξωn + B) −ξωn t p
y4 (t) = Ae−ξωn t cos ωn 1 − ξ 2 t+ p e sen ωn 1 − ξ 2 t (D.55)
(ωn 1 − ξ 2 )
222
Con estos ejemplos y un poco de práctica no debiera resultar difı́cil obtener
transformadas de Laplace inversa de funciones racionales. En realidad hoy en
dı́a cualquier software es capaz de obtener la expansión en fraccines parciales de
una función racional3 , e incluso transformadas inversas de Laplace, por lo tanto,
estos cálculos pueden dejarse para el computador cuando resulten demasiado
engorrosos.
Por ejemplo, si usamos Maple para obtener la transformada de Laplace
inversa de la función racional (D.39), tenemos las siguientes lı́neas de comando
que arrojan el resultado que se aprecia más adelante
3 Use el comando residue de MATLAB
420 APÉNDICE D. LA TRANSFORMADA DE LAPLACE
1 √ 1 √
1 e− 2 Ct C 3 B cos( 12 4 D − C 2 t) e− 2 Ct DA cos( 12 4 D − C 2 t)
h(t) = +4
2 (4 D − C 2 ) D 4 D − C2
1 √ 1 √
e− 2 Ct C 2 A cos( 12 4 D − C 2 t) e− 2 Ct AC sen( 12 4 D − C 2 t)
− − √
4 D − C2 4 D − C2
− 21 Ct 1
√ 1 √
e CB cos( 2 4 D − C 2 t) e 2 B sen( 12 4 D − C 2 t)
− Ct
−2 +2 √
4 D − C2 4 D − C2
1 √
1 e− 2 Ct CB cos( 21 4 D − C 2 t)
+
2 D
1 δD (t)
e−τ s , τ > 0 δD (t − τ )
1
µ(t)
s
1 tn−1
, n ∈ {2, 3, . . .}
sn (n − 1)!
k
ke−λt
s+λ
e−τ s
,τ > 0 e−λ(t−τ ) µ(t − τ )
s+λ
a1 s + a 0
C1 e−λ1 t + C2 e−λ2 t
(s + λ1 )(s + λ2 )
λ1 a1 −a0 −λ2 a1 +a0
C1 = λ1 −λ2 ; C2 = λ1 −λ2
a1 s + a 0
a1 e−λt + (a0 − λa1 )te−λt
(s + λ)2
a1 s + a 0 h i
e−λt C1 cos(ω0 t) + C2 sen(ω0 t)
(s + λ)2 + ω02
a0 −a1 λ
C1 = a 1 ; C 2 = ω0
k k
1 − e−λt
s(s + λ) a
a1 s + a 0 a0 h i
−λt
2 1 − e C 1 cos(ω 0 t) + C 2 sen(ω 0 t)
s (s + λ)2 + ω02 λ2 + ω0
a0 λ−a1 (λ2 +ω02 )
C1 = a 0 ; C 2 = ω0
Apéndice E
La Transformación Zeta
∞
X
Z {f [k]} = F (z) = f [k]z −k (E.1)
k=0
I
1
Z −1 {F (z)} = f [k] = f (z)z k−1 dz (E.2)
2πj Γ
423
424 APÉNDICE E. LA TRANSFORMACIÓN ZETA
transformada de Fourier, pero si tiene transformada Zeta, para ello, basta elegir
|z| > 1, 5.
Para obtener (E.2), que describe la fórmula de la Transformación Zeta inver-
sa, podemos recurrir a la idea de ortogonalidad. Si ambos lados de la ecuación
(E.1) son multiplicados por z k = |z|k ejθk , y luego integramos en el intervalo
[0; 2π], se obtiene
Z 2π ∞
X Z 2π
F (z)z k dθ = f [k]|z|k−` ej(k−`)θ dθ (E.4)
0 `=0 0
Por otra parte, sabemos que las exponenciales periódicas 1, ejθ , ej2θ , ej3θ , . . .
forman un conjunto de funciones ortogonales, ya que
Z 2π (
jkθ j`θ j(`−k)θ 0 ∀k 6= `
he , e i = e dθ = (E.5)
0 2π k = `
dz d |z|ejθ 1
= = jz =⇒ dθ = dz (E.7)
dθ dθ jz
∞ ∞
X X 1 − (αz −1 )k
Z αk µ[k] = αk z −k = (αz −1 )k = lı́m (E.9)
k→∞ 1 − (αz −1 )
k=0 k=0
Demostración
Esta propiedad se demuestra sin problema ya que la transformada Zeta se
define mediante la sumatoria (E.1) :
∞
X
L {αy1 [k] + βy2 [k]} = (αy1 [k] + βy2 [k])z −k
k=0
∞
X ∞
X
=α y1 [k]z −k + β y2 [k]z −k
k=0 k=0
= αY1 (z) + βY2 (z)
Demostración
Según la definición tenemos:
∞ ∞ z −k z
X X
Z ak y[k] = ak y[k]z −k = y[k] =Y (E.14)
a a
k=0 k=0
426 APÉNDICE E. LA TRANSFORMACIÓN ZETA
z
Y2 (z) = Y1
α−1
= Y1 (αz)
αz
=
αz − α
z
=
z−1
Que converge si y solo si |z| > 1.
y[k] = r k cos(θ0 k)
Su transformada Zeta puede obtenerse escribiendo el coseno en términos de
exponenciales complejas
1 jθ0 k
y[k] = (re ) + (re−jθ0 )k )
2
Usando el teorema, tenemos que
1 jθ0 k
Y (z) = Z (re ) + Z (re−jθ0 )k )
2
1 z z
= +
2 z − rejθ0 z − re−jθ0
1 z(2z − 2r cos θ0 )
=
2 z 2 − z2r cos θ0 + r2
z(z − r cos θ0 )
= 2
z − z2r cos θ0 + r2
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 427
Z {y ∗ [k]} = Y ∗ (z ∗ ) (E.15)
Demostración
Directa de la definición (E.1)
∞
X
Z {y ∗ [k]} = y ∗ [k]z −k
k=0
∞
!∗
X
= y[k](z ∗ )−k = {Y (z ∗ )}∗
k=0
222
Demostración
Consideremos primero el caso en que la secuencia ha sido retrasada en k 0 ,
es decir, la ecuación (E.16). Si usamos la definición de la transformada (E.1), y
la escribimos por extensión, tenemos que
∞
X
Z {y[k − k0 ]} = y[k − k0 ]z −k
k=0
∞
X
= y[−k0 ] + y[−k0 + 1]z −1 + . . . + y[−1]z −k0 +1 + y[k − k0 ]z −k
k=k0
∞
X
Z {y[k − k0 ]} = y[l]z −(l+k0 ) + y[−1]z −k0 +1 + . . . + y[−k0 + 1]z −1 + y[−k0 ]
l=0
∞
!
X
−k0 −l
=z y[l]z + y[−1]z −k0 +1 + . . . + y[−k0 + 1]z −1 + y[−k0 ]
l=0
∞
X
Z {y[k + k0 ]} = y[k + k0 ]z −k
k=0
X∞
= y[l]z −(l−k0 )
l=k0
" ∞
#
X
k0 −l −1 −k0 +1
=z y[l]z − y[0] + y[1]z + . . . + y[k0 − 1]z
l=0
∞
X
= y[l]z −l − y[0]z k0 + y[1]z k0 −1 + . . . + y[k0 − 1]z
l=0
z −k0
Y (z) =
z−α
Esta transformada se puede reescribir de manera de poder aplicar la ecuación
(E.18)
z
Y (z) = z −(k0 +1)
z−α
⇒ y[k] = αk−(k0 +1) µ[k − (k0 + 1)]
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 429
d Y (z)
Z {k · y[k]} = −z (E.19)
dz
Demostración
De la definición (E.1), tenemos que
∞
X
Z {k · y[k]} = ky[k]z −k
k=0
X∞
= ky[k]z −k
k=0
∞
X
= −z (−k)y[k]z −k−1
k=0
d Y (z)
= −z
dz
222
y[k] = kµ[k]
Según (E.19) su transformada será
d z
Z {kµ[k]} = −z
dz z − 1
(z − 1) − z
= −z
(z − 1)2
z
=
(z − 1)2
En que
k
X
y1 [k] ∗ y2 [k] = y1 [l]y2 [k − l] (E.21)
l=0
Demostración
Si las señales son causales, es decir, su valor es cero ∀k < 0, entonces podemos
reescribirlas
∞ ∞
!
X X
L {y1 [k] ∗ y2 [k]} = y1 [l]µ[l]y2 [k − l]µ[k − l] z −k
k=0 l=−∞
∞
!
X X
−k
= y1 [l]µ[l] y2 [k − l]µ[k − l]z
l=−∞ k=0
∞
X
L {y1 [k] ∗ y2 [k]} = y1 [l]µ[l]z −l Y2 (z)
l=−∞
∞
X
= Y2 (z) y1 [l]z −l
l=0
= Y2 (z)Y1 (z)
222
E.2. PROPIEDADES DE LA TRANSFORMADA ZETA 431
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asintótico de la función
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial
y teorema del Valor Final en tiempo discreto.
Las ecuaciones anteriores son válidas sólo en el caso que los lı́mites
existen, tanto en k como en z.
Demostración
∞
X
Y (z) = y[k]z −k
k=0
= y[0] + y[1]z −1 + . . . + y[k]z −k + . . .
k
X
Z {y[k + 1] − y[k]} = lı́m (y[l + 1] − y[l])z −l
k→∞
l=0
432 APÉNDICE E. LA TRANSFORMACIÓN ZETA
l
X l
X
ai yi [k] ai Yi (z)
i=1 i=1
z
αk y[k] Y α ∈ C, <{α} > 0
α
y ∗ [k] Y ∗ (z ∗ ) Conjugación
dY (z)
ky[k] −z
dz
k
X
y1 [l]y2 [k − l] Y1 (z)Y2 (z) Convolución en k
l=0
δK [k] 1 ∀z ∈ C
z
1 |z| > 1
z−1
z
k |z| > 1
(z − 1)2
z
αk |z| > |α|
z−α
z
ejθ0 k |z| > 1
z − ejθ0
z(z − cos θ0 )
cos(θ0 k) |z| > 1
z 2 − 2z cos θ0 + 1
z sen θ0
sen(θ0 k) |z| > 1
z2 − 2z cos θ0 + 1
z(z − α cos θ0 )
αk cos(θ0 k) |z| > |α|
z 2 − 2zα cos θ0 + α2
zα sen θ0
αk sen(θ0 k) |z| > |α|
z2 − 2zα cos θ0 + α2
z 2 cos φ − z cos φ cos θ0 + sen φ sen θ0
cos(θ0 k + φ) |z| > 1
z 2 − 2z cos θ0 + 1
(
αk ;0 ≤ k < N 1 − (αz −1 )N
|z| > 0
0 ;k ≥ N 1 − αz −1
Apéndice F
Matrices. Definiciones y
Propiedades
11 de septiembre de 2003
435
436 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
matriz!cuadrada
a11 a11 ... a1m
a21 a22 ... a2m
A = {aij } =
(F.1)
. .. .. ..
.. . . .
an1 an2 ... anm
(e) para cada a ∈ K existe el inverso multiplicativo ∃a−1 ∈ K tal que vector!columna
vector!fila
a · a−1 = a−1 · a = 1 matriz!traza
(f ) conmutatividad, es decir, a · b = b · a traza
matriz!traspuesta
(g) distributividad, es decir, a · (b + c) = a · b + a · c matriz!simétrica
matriz!hermitiana
Vectores
Una matriz formada por n filas y 1 columna se denomina vector columna.
En base a esta definición podemos afirmar que una matriz de n×m está formada
por m vectores columna, cada uno con n elementos.
Una matriz formada por 1 fila y m columnas se denomina vector fila.
Análogamente, en base a esta definición podemos decir que una matriz de n × m
está formada por n vectores fila, cada uno con m elementos.
En general, cuando se defina un vector de dimensión p nos referiremos a un
vector columna formado por p elementos.
Matrices especiales
Definición F.4. Dada A = {aij } ∈ Kn×m , la matriz traspuesta de A, que
denotamos por AT , es la que resulta de intercambiar sus filas con sus columnas,
es decir,
A = {aij } ⇐⇒ AT = {aji } (F.5)
Una consecuencia natural de esta definición es que toda matriz real y simétri-
ca es hermitiana.
Para matrices cuadradas, tenemos las siguientes definiciones:
438 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
matriz!diagonal Definición F.6. Dada una matriz A = {aij } ∈ Kn×n , diremos que:
matriz!triangular superior
matriz!triangular inferior la matriz A es diagonal si y sólo si aij = 0 ∀i 6= j , es decir, todos sus
matriz!identidad elementos fuera de la diagonal principal de la matriz son cero.
determinante
matriz!determinante la matriz A es triangular superior si y sólo si aij = 0 ∀i > j, es decir,
todos los elementos bajo la diagonal principal son cero.
la matriz A es triangular inferior si y solo si AT es triangular superior.
Dentro del conjunto de matrices diagonales, la matriz identidad es de
especial interés y su denominación se justifica en base a las propiedades del
producto matricial definido mas adelante. Esta se define como:
Definición F.7. La matriz identidad de dimensión n, que denotamos por I n ,
se define como una matriz diagonal, cuyos elementos no nulos son iguales a 1,
es decir:
1 0 ... 0
0 1 ... 0
In = ∈ Kn×n (F.7)
.. .. .. ..
.
. . .
0 0 ... 1
Expansión de Laplace1
El cálculo del determinante puede ser definido por inducción. Sin embargo,
previo a su definición presentamos dos conceptos previos necesarios:
1 Roger A. Horn & Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1990,
pág. 7
F.2. DETERMINANTE DE UNA MATRIZ 439
se define el escalar:
" #
det a11 = a11 = a11 (F.12)
a11 a12
= a11 a22 − a12 a21 (F.13)
a21 a22
a11 a12 a13
a22 a23 a21
a23 a21
a22
a21 a22 a23 = a11 − a12
+ a13
(F.14)
a32 a33
a31 a33 a31 a32
a31 a32 a33
..
. (F.15)
440 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
singular Existe una serie de reglas que pueden facilitar el cálculo del determinante de
matriz!singular
matriz!no singular una matriz que están más allá del objetivo de este apéndice. Sin embargo, una
matriz!rango observación útil para reducir el número de cálculos necesarios para obtener el
rango determinante de una matriz es elegir la fila (o columna) que contenga el mayor
rango!columna número de ceros, para hacer el desarrollo en (F.10).
rango!columna
matriz!rango Podemos además hacer las siguientes observaciones:
rango
rango completo Si la matriz A tiene una fila o una columna formada sólo por ceros, en-
tonces det(A) = 0.
Si det(A) = 0 se dice que la matriz es singular. En caso contrario, se dice
que la matriz es no singular.
Si la matriz A de n × n es diagonal o triangular (superior o inferior),
entonces det(A) = a11 a22 . . . ann
tiene rango fila igual a 2, pues la tercera fila es la suma de las dos primeras,
mientras que tiene rango columna igual a 3, pues las 3 columnas a la izquierda
son linealmente independientes, y en R3 estas conforman una base, es decir,
cualquier otro vector se puede escribir como combinación lineal de elementos de
esta base. Su rango, por ende, es igual a 2, y no es de rango completo.
F.3. OPERACIONES CON MATRICES 441
222 matrices!suma
espacio!vectorial
Una matriz cuadrada es de rango completo si y sólo si es no singular.
>> A+c
Producto matricial
El producto de matrices puede entenderse como una extensión del producto
punto o producto interno usual dos vectores v, w ∈ Kn , definido como:
n
X
hv, wi = v · w = vk∗ wk (F.19)
k=1
Note que:
Note que:
(a) A es no singular.
(c) rango A = n.
(f ) det A 6= 0.
1
A−1 = Adj A (F.25)
det A
Demostración:
Usando la expansión de Laplace (F.10), entonces se puede probar que:
222
Matrices particionadas
Toda matriz puede ser particionada de forma tal que se expresa como una
matriz de macro elementos, cada uno de ellos es en si mismo otra matriz. Se
dice, en estos casos que la matriz está definida por bloques. Considere una matriz
A ∈ Cn×m , entonces:
F.4. INVERSA DE UNA MATRIZ 445
A11 A12 A13 ··· A1q
A21 A22 A23 ··· A2q
A = {aij } =
(F.27)
. .. .. ..
.. . . ... .
Ap1 Ap2 Ap3 ··· Apq
Por ejemplo, si
−1 2 0 −7
0 3 −2 5
A=
(F.29)
−1 −1 2 3
2 2 −2 4
−1 2 0 −7
" #
A11 = 0 3 −2 ; A12 = 5 ; A21 = 2 2 −2 ; A22 = 4 (F.30)
−1 −1 2 3
inversion matricial
matriz!particionada
A11 A12
A= ∈ C(p+q)×(p+q) (F.31)
A21 A22
en que:
A−1 −1 −1 −1
11 + A11 A12 ∆22 A21 A11 −A−1 −1
11 A12 ∆22
A−1 = (F.35)
−∆−1 −1
22 A21 A11 ∆−1
22
o bien:
∆−1
11 −∆−1 −1
11 A12 A22
A−1 = (F.36)
−A−1 −1
22 A21 ∆11 A−1 −1 −1 −1
22 + A22 A21 ∆11 A12 A22
∆−1 −1 −1 −1 −1
11 = A11 + A11 A12 ∆22 A21 A11 (F.37)
Ademas, dadas submatrices como las que forman la matriz (F.31), se tiene
que:
A−1 −1 −1 −1
11 A12 ∆22 = ∆11 A12 A22 (F.38)
Finalmente, el determinante de la matriz definida en (F.31), se puede cal-
cular como:
o bien:
Demostración:
La matriz A puede reescribirse en la forma:
Ip 0 A11 A12
A= (F.41)
A21 A11 −1 Iq 0 ∆22
y de la forma:
Ip A12 A22 −1 ∆11 0
A= (F.42)
0 Iq A21 A22
y, además:
−1
Ip 0 Ip 0
= (F.44)
A21 A11 −1 Iq −A21 A11 −1 Iq
Estas dos ecuaciones se pueden utilizar cuando se aplica inversión matricial
en la ecuación (F.41):
−1 −1
A11 A12 Ip 0
A−1 = (F.45)
0 ∆22 A21 A11 −1 Iq
Demostracion:
222
A · v = λv ; v 6= 0 (F.51)
n
en que interesa encontrar el (o los) vector(es) v ∈ K y escalar(es) λ ∈ K que
permiten reemplazar el producto matriz-vector al lado izquierdo de (F.51), por
un producto escalar-vector (lado derecho). Naturalmente, nos interesa encontrar
soluciones no triviales de la ecuación (F.51).
Definición F.15. Valores y vectores propios
Dada una matriz A ∈ Kn×n y la ecuación (F.51), entonces:
los escalares {λi } que satisfacen esta ecuación se denominan valores pro-
pios, autovalores o eigenvalores, y
los correspondientes vectores {vi } se denominan vectores propios, au-
tovectores o eigenvectores
F.5. AUTOVALORES Y AUTOVECTORES 449
Las soluciones de la ecuación (F.51) vienen dadas por el siguiente lema: polinomio caracterı́stico
espectro
Lema F.8. Ecuación caracterı́stica radio espectral
Cada autovalor λ de la matriz A en (F.51) satisface la ecuación caracterı́stica:
det(λI − A) = 0 (F.52)
El lado izquierdo de esta ecuación es el polinomio caracterı́stico, p(λ),
de orden n, y posee n raices complejas.
Demostración:
La ecuación (F.51) puede reescribirse como:
λv − Av = 0 (F.53)
(λI − A) v = 0 (F.54)
Entonces el resultado se prueba por contradicción: si la ecuación (F.52) no
se cumple, entonces la matriz (λI − A) es no singular, y al multiplicar por su
inversa al lado izquierdo se tiene:
matrices!similares Diagonalización
similaridad!transformación de
congruencia Cuando los autovectores vi de la matriz A que satisfacen la ecuación (F.51),
son linealmente independientes, pueden agruparse en una matriz T no singular:
" #
T = v1 v2 ... vn (F.58)
T−1 AT = P (F.59)
en que P es la matriz diagonal formada por los autovalores de A, es decir:
P = diag{λ1 , λ2 , . . . , λn } (F.60)
Demostración
" #
AT = A v v2 ... vn (F.61)
1
" #
= Av1 Av2 ... Avn (F.62)
" #
= λ 1 v1 λ 2 v2 ... λ n vn (F.63)
= T diag{λ1 , λ2 , . . . , λn } (F.64)
T
congruentes si y sólo si existe una matriz no singular S tal que B = multiplicidad!autovalores
autovectores!generalizados
ST AS. Jordan!forma de
matriz!forma de Jordan
Naturalmente estos conceptos son equivalentes si S es una matriz real.
Forma de Jordan
En el caso que una matriz A posea autovalores repetidos, es decir, con mul-
tiplicidad, pueden darse dos situaciones diferentes respecto a la digonalización.
Supongamos que un autovalor λi con multiplicidad ni ≥ 2, entonces:
(A − λi I)vi,0 = 0
(A − λi I)vi,1 = vi,0 (F.65)
(A − λi I)vi,2 = vi,1
..
.
T = v1 . . . vi,k vi,k−1 . . . vi,0 . . . vn (F.66)
| {z }
asociados a λi
autovectores!generalizados
λ1 0 ... 0
.. ..
0
. .
P = JA = Ji (F.67)
. ..
.. . 0
0 ... 0 λn
(
2 λ1 = 2 (multiplicidad 2)
det(λI − A) = (λ − 2) (λ + 1) = 0 ⇒ (F.71)
λ2 = −1
Caso 1 : a = 0
0 0 0 α1 α1
(λ1 I − A)v1 = 0 0 0 =0 ⇒ v1 = (F.72)
β1 β1
−1 −1 3 γ1 (α1 + β1 )/3
−3 0
0 α2
0
(λ2 I − A)v2 = 0 −3 0 =0 ⇒ v2 = 0 (F.73)
β2
−1 −1 0 γ2 γ2
α1
3
0
α β α β1
1 1 1
v1 = β1 = + = v1,α + v1,β (F.74)
3 0 3 3 3 3
(α1 + β1 )/3 1 1
3 0 0
" #
T= v v1,β v2 = 0 3 0 (F.75)
1,α
1 1 1
2 0 0
−1
T AT = 0 2 0 =P (F.76)
0 0 −1
Caso 2 : a 6= 0
0 0 0 0
(λ1 I − A)v1 = −a 0 0 v =0 ⇒ v1 = 3 = v1,0 (F.77)
1
−1 −1 3 1
−3 0 0 0
(λ2 I − A)v2 = −a −3 0 v2 = 0 ⇒ v 2 = 0 (F.78)
−1 −1 0 1
n
X
tr(A) = λi (F.83)
i=1
Yn
det(A) = λi (F.84)
i=1
Demostración
Primero observamos que siempre existe una matriz no singular T, tal que
T−1 AT = diag{J1 , J2 , . . . , Jq } (F.85)
456 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
es decir, tr(T−1 AT) es igual a la suma de todos los autovalores de A. Por otro
lado
Demostración
Si A y B son similares, entonces existe T no singular tal que B = T−1 AT.
Entonces, los autovalores de B son las raı́ces de det(λI − B) = 0. Si ahora
usamos la similaridad tenemos que
det(λI − B) = det(λT−1 T − T−1 AT) = det T−1 (λI − A)T (F.90)
= det (λI − A)TT−1 = det(λI − A) (F.91)
Esta es la norma mas comun, pues representa la distancia usual dos puntos
en Cn . Note que tambien se deriva del producto punto usual (F.19) en Cn ,
es decir, kvk22 = hv, vi = v∗ v
Norma de matrices
Para definir la norma de una matriz, o equivalentemente, la distancia entre
dos matrices, una primera forma seria considerar simplemente el isomorfismo
entre espacio Mn×m (K) y el espacio vectorial Knm . Sin embargo, al considerar
simplemente la norma en un espacio vectorial de mayores dimensiones, no es
posible establecer relaciones con propiedades caracterı́sticas de las matrices,
como son el producto matricial, el determinante y el espectro, entre otras. Por
esto, tenemos la siguiente definición, más adecuada:
Definición F.19. Una norma matricial es una función que va de M(K) → R
talque, para A, B de dimensiones adecuadas, satisface:
kAvk
kAk = máx kAvk = máx kAvk = máx (F.102)
kvk=1 kvk≤1 kvk6=0 kvk
Varias de las normas antes definidas, pueden expresarse en términos de la
norma inducida, eligiendo la norma vectorial adecuada. Sin embargo, existe una
serie de normas matriciales independientes de esta definición. Entre ellas, una
de las más importantes es:
Note que κ(A) = kAk kA−1 k ≥ kAA−1 k ≥ kIk ≥ 1 para toda matriz A.
De esta forma, cuando κ(A) es grande, la matriz se dice mal condiciona-
da. Si κ(A) es cercano a 1, la matriz se dice bien condicionada, y si κ(A) =
1, entonces la matriz A se dice perfectamente condicionada.
460 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
matriz!unitaria Cuando una matriz es mal condicionada, el cálculo del inverso puede tener
teorema de Schur
errores muy grandes, y es aconsejable recurrir a métodos de inversión numéri-
camente robustos.
Un caso especial de número de condición de una matriz real es cuando se
usa la norma spectral en (F.104). En ese caso
|λmax |
κ(A) = (F.105)
|λmin |
UH AU = P (F.106)
UH AU = T = {tij } (F.107)
pA (A) = 0 (F.108)
Matrices normales
Definición F.24. Una matriz A ∈ Kn×n se dice normal, si y solo si AH A =
AAH , es decir, A conmuta con su matriz hermitiana o compleja conjugada.
Con ayuda del Teorema de Schur, puede probarse que una matriz A es
normal si y sólo si es unitaria diagonalizable, es decir, si existe una matriz
unitaria U talque UH AU es diagonal.
Recuerde además, del Lema F.12 que toda matriz hermitiana (simétrica, en
el caso de matrices reales) es normal y, por tanto unitaria diagonalizable, es
decir:
A = AH ⇒ A = UH DU (F.109)
Matrices positivas
Una clase de matrices hermitianas (real simétricas) que aparece en múltiples
aplicaciones son aquellas que poseen (o no) la propiedad de ser positivas.
Consideremos, por ejemplo, la expansion en serie de Taylor de una función
en dos variables (apendice A, p.317) en torno a un punto (xo , yo ):
462 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
hessiano
matriz!positiva definida
∆x
f (x, y) (xo ,yo )
= f (xo , yo ) + ∇f
(xo ,yo )
∆y
" # ∆x
1
+ H(f ) + ... (F.110)
2 ∆x ∆y (xo ,yo )
∆y
donde los autovectores tienen largo unitario (en norma-2). Entonces al mul-
tiplicar (F.112), por la izquierda, por v`H , y, por la derecha, por v` se tiene
que
Lema F.15. Si una matriz hermitiana A tiene todos sus elementos sobre la
diagonal principal positivos y es estricamente diagonal dominante, entonces es
definida positiva.
Otras matrices
Definición F.27. Dada una matriz A ∈ Kn×n , se defina la matriz exponen-
cial de A, usando la expansion en serie de Taylor usual, es decir:
∞
1 2 X 1 n
eA = I + A + A + ... = A (F.117)
2! n=0
n!
Aq = 0 (F.118)
Definición F.29. Una matriz A ∈ Kn×n se dice idempotente, si y sólo si :
A2 = A (F.119)
n×n
Definición F.30. Una matriz A ∈ K se dice diagonal por bloques, si y
solo si sus únicos elementos distintos de cero pueden ser agrupados en subma-
trices Ai ∈ Kni ×ni sobre su diagonal, es decir:
A1 0 . . . 0
0 A2 . . . 0
A= . .. .. .. (F.120)
.. . . .
0 0 ... Ak
Pk
en que i=1 ni = n
De manera análoga puede extenderse el concepto de matriz triangular (tanto
superior como inferior), a matrices triangulares por bloques.
Definición F.31. Una matriz P ∈ Kn×n se denomina matriz de permutación
si uno y sólo uno de los elementos sobre cada fila y columna es igual a 1, y el
resto son 0.
Ejemplo F.3. Considere la matriz de permutación:
0 1 0
P = 1 0 0 (F.121)
0 0 1
La denominación resulta natural pues multiplicar cualquier vector por esta ma-
triz equivale a permutar sus elementos, por ejemplo:
F.7. TIPOS ESPECIALES DE MATRICES 465
matriz!circulante
matriz!Toeplitz
1 2
P 2 = 1 (F.122)
3 3
Definición F.32. Una matriz A ∈ Kn×n se denomina matriz circulante si
cada una de sus filas resulta de la rotación de la primera, es decir:
a1 a2 . . . an
an a1 . . . an−1
.. .. . . .. (F.123)
. . . .
a2 a3 . . . a1
Note que una matriz circulante puede ser escrita en términos de la matriz
de permutación circular :
0 1 0 ... 0
0 0 1 . . . 0 n−1
X
.. .. . . . . ak+1 Ck
. .
C = . . . . . ⇒ A= (F.124)
0 ... 1 k=0
1 0 ... 0
En que C0 = Cn = I y {a1 , . . . , ak } son los elementos de la primera fila de
la matriz A.
Definición F.33. Una matriz A ∈ Kn×n se denomina matriz Toeplitz si
todos los elementos sobre cada diagonal son iguales, es decir:
a0 a1 a2 . . . an
a−1 a0 a1 . . . an−1
.. . .. . .. ... ..
A= . . (F.125)
a−n+1 ... . . . a0 a1
a−n a−n+1 . . . a−1 a0
Note que una matriz Toeplitz puede ser escrita en términos de las matrices
un paso adelante F y un paso atrás B:
0 1 ... 0 0 ... 0 0
.. .. .. .. ..
. . . . 1
T . 0
F= y B=F =
.
.. (F.126)
..
.. .. ..
0 . 1 . . .
0 0 ... 0 0 ... 1 0
entonces:
n
X n
X
A= a−k Fk + ak Bk (F.127)
k=1 k=1
466 APÉNDICE F. MATRICES. DEFINICIONES Y PROPIEDADES
A = VΣWH (F.134)
en que:
F.8. VALORES SINGULARES 467
σij = 0 ∀i 6= j (F.135)
σ11 ≥ σ22 ≥ . . . ≥ σkk > σk+1,k+1 = . . . = σqq = 0 (F.136)
√
los elementos {σii } = {σi } = { λi }, en λi son los autovalores de AH A,
que quedan por tanto únicamente determinados;
Si n ≤ m y AAH no tiene autovalores repetidos, entonces diferentes ma- Chequear si es necesario que
trices V en la representación (F.134) quedan relacionados por una matriz sean diferentes
diagonal D = diag{ejθ1 , . . . , ejθn } con θi ∈ R. Esto es:
3. Finalmente, W = AH VΣ−1
q
!1/2
X
kAk2 = σi2 (F.138)
i=1
[1] B.D.O. Anderson and John Moore. Linear Optimal Control. Prentice Hall,
Englewood Cliffs, N.J., 1971.
[2] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, En-
glewood Cliffs, N.J., 1979.
[4] H.W. Bode. Network analysis and feedback amplifier design. Van Nostrand,
New York, 1945.
[5] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Engle-
wood Cliffs, New Jersey, 9th edition, 1997.
[6] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems.
Addison-Wesley, second edition, 1990.
[8] G.C. Goodwin, S. Graebe, and M.E. Salgado. Control System Design.
Prentice Hall, New Jersey, 2001.
[10] E. Jury. Sample Data Control Systems. John Wiley and Sons, 1958.
[12] D.L. Kreider, R.G. Kuller, D.R. Ostberg, and F.W. Perkins. Introducción
al análisis lineal. Fondo Educativo Interamericano S.A., 1971.
[14] R.H. Middleton and G.C. Goodwin. Digital Control and Estimation. A
Unified Approach. Prentice Hall, Englewood Cliffs, New Jersey, 1990.
469
470 BIBLIOGRAFÍA
[16] A.V. Oppenheim and R.W. Schafer. Discrete - Time Signal Processing.
Prentice-Hall International, Inc., 2nd edition, 1999.
[19] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems.
McGraw Hill Book Company, New York, 1967.
[20] D.W. Wiberg. Theory and Problems of State Space and Linear Systems.
McGraw Hill Book Company, New York, 1971.
[21] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state
space approach. McGraw Hill Book Company, New York, 1963.
[23] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduc-
tion for unstable systems. International Journal of Robust and Nonlinear
Control, 9:183–198, 1999.
Index
471
472 INDEX