Ing. de Control Clasico

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

Sistemas de Control (septiembre 2017)

I. Conceptos Básicos de Sistemas de Control


Las teorías de control que se utilizan habitualmente son la teoría de control clásica (también
denominada teoría de control convencional), la teoría de control moderno y la teoría de
control robusto.
El control automático ha desempeñado un papel vital en el avance de la ingeniería y la
ciencia.
El control automático se ha convertido en una parte importante e integral en los sistemas de
vehículos espaciales, en los sistemas robóticos, en los procesos modernos de fabricación y
en cualquier operación industrial que requiera el control de temperatura, presión, humedad,
flujo, etc. Es deseable que la mayoría de los ingenieros y científicos estén familiarizados con
la teoría y la práctica del control automático.
El primer trabajo significativo en control automático fue el regulador de velocidad centrífugo
de James Watt para el control de la velocidad de una máquina de vapor, en el siglo dieciocho.
Minorsky, Hazen y Nyquist, entre muchos otros apartaron trabajos importantes en las etapas
iniciales del desarrollo de la teoría de control. En 1922, Minorsky trabajó en controladores
automáticos para el guiado de embarcaciones, y mostró que la estabilidad puede determinarse
a partir de las ecuaciones diferenciales que describen el sistema. En 1932, Nyquist diseñó un
procedimiento relativamente simple para determinar la estabilidad de sistemas en lazo
cerrado, a partir de la respuesta en lazo abierto a entradas sinusoidales en estado estacionario.
En 1934, Hazen, quien introdujo el término servomecanismos para los sistemas de control de
posición, analizó el diseño de los servomecanismos con relé, capaces de seguir con precisión
una entrada cambiante.
Durante la década de los cuarenta, los métodos de la respuesta en frecuencia (especialmente
los diagramas de Bode) hicieron posible que los ingenieros diseñaran sistemas de control
lineales en lazo cerrado que cumplieran los requisitos de comportamiento. En los años
cuarenta y cincuenta muchos sistemas de control industrial utilizaban controladores PID para
el control de la presión, de la temperatura, etc. A comienzos de la década de los cuarenta
Ziegler y Nichols establecieron reglas para sintonizar controladores PID, las denominadas
reglas de sintonía de Ziegler-Nichols. A finales de los años cuarenta y principios de los
cincuenta, se desarrolló por completo el método del lugar de las raíces propuesto por Evans.
Los métodos de respuesta en frecuencia y del lugar de las raíces, que forman el núcleo de la
teoría de control clásica, conducen a sistemas estables que satisfacen un conjunto más o
menos arbitrario de requisitos de comportamiento. En general, estos sistemas son aceptables,
pero no óptimos desde ningún punto de vista. Desde el final de la década de los cincuenta, el
énfasis en los problemas de diseño de control se ha desplazado del diseño de uno de los
posibles sistemas que funciona adecuadamente al diseño de un sistema óptimo respecto de
algún criterio.
Conforme las plantas modernas con muchas entradas y salidas se vuelven más y más
complejas, la descripción de un sistema de control moderno requiere una gran cantidad de
ecuaciones. La teoría de control clásica, que trata de los sistemas con una entrada y una salida,
pierde su potencialidad cuando se trabaja con sistemas con entradas y salidas múltiples. Hacia
1960, debido a la disponibilidad de las computadoras digitales fue posible el análisis en el
dominio del tiempo de sistemas complejos. La teoría de control moderna, basada en el
análisis en el dominio del tiempo y la síntesis a partir de variables de estados, se ha
desarrollado para manejar la creciente complejidad de las plantas modernas y los requisitos
cada vez más exigentes sobre precisión, peso y coste en aplicaciones militares, espaciales e
industriales.
Durante los años comprendidos entre 1960 y 1980, se investigó a fondo el control óptimo
tanto de sistemas determinísticos como estocásticos, así como el control adaptativo y con
aprendizaje de sistemas complejos. Desde la década de los ochenta hasta la de los noventa,
los avances en la teoría de control moderna se centraron en el control robusto y temas
relacionados.
La teoría de control moderna se basa en el análisis en el dominio temporal de los sistemas de
ecuaciones diferenciales. La teoría de control moderna simplificó el diseño de los sistemas
de control porque se basa en un modelo del sistema real que se quiere controlar. Sin embargo,
la estabilidad del sistema depende del error entre el sistema real y su modelo. Esto significa
que cuando el controlador diseñado basado en un modelo se aplica al sistema real, éste puede
no ser estable. Para evitar esta situación, se diseña el sistema de control definiendo en primer
lugar el rango de posibles errores y después diseñando el controlador de forma que, si el error
del sistema está en dicho rango, el sistema de control diseñado permanezca estable. El
método de diseño basado en este principio se denomina teoría de control robusto. Esta teoría
incorpora tanto la aproximación de respuesta en frecuencia como la del dominio temporal.
Esta teoría es matemáticamente muy compleja.
Como esta teoría requiere una base matemática de nivel de licenciados, la inclusión de la
teoría de control robusto en este libro está limitada únicamente a aspectos introductorios. El
lector interesado en detalles sobre la teoría de control robusto debería cursar previamente un
curso de control de una licenciatura en una universidad.

1.- Definiciones.
 Variable controlada y señal de control o variable manipulada. La variable
controlada es la cantidad o condición que se mide y controla. La señal de control o
variable manipulada es la cantidad o condición que el controlador modifica para
afectar el valor de la variable controlada. Normalmente, la variable controlada es la
salida del sistema. Controlar significa medir el valor de la variable controlada del
sistema y aplicar la variable manipulada al sistema para corregir o limitar la
desviación del valor medido respecto del valor deseado.
En el estudio de la ingeniería de control, es necesario definir términos adicionales que
se para describir los sistemas de control.
 Plantas. Una planta puede ser una parte de un equipo, tal vez un conjunto de los
elementos de una máquina que funcionan juntos, y cuyo objetivo es efectuar una
operación particular. En este libro se llamará planta a cualquier objeto físico que se
va a controlar (como un dispositivo mecánico, un horno de calefacción, un reactor
químico o una nave espacial).
 Procesos. El Diccionario Merriam-Webster define un proceso como una operación o
un desarrollo natural progresivamente continuo, marcado por una serie de cambios
graduales que se suceden unos a otros de una forma relativamente fija y que conducen
a un resultado o propósito determinados; o una operación artificial o voluntaria que
se hace de forma progresiva y que consta de una serie de acciones o movimientos
controlados, sistemáticamente dirigidos hacia un resultado o propósito determinado.
En este libro se llamará proceso a cualquier operación que se va a controlar. Algunos
ejemplos son los procesos químicos, económicos y biológicos.
 Sistemas. Un sistema es una combinación de componentes que actúan juntos y
realizan un objetivo determinado. Un sistema no está necesariamente limitado a los
sistemas físicos. El concepto de sistema se puede aplicar a fenómenos abstractos y
dinámicos, como los que se encuentran en la economía. Por tanto, la palabra sistema
debe interpretarse en un sentido amplio que comprenda sistemas físicos, biológicos,
económicos y similares.
 Perturbaciones. Una perturbación es una señal que tiende a afectar negativamente el
valor de la salida de un sistema. Si la perturbación se genera dentro del sistema se
denomina interna, mientras que una perturbación externa se genera fuera del sistema
y es una entrada.
 Control realimentado. El control realimentado se refiere a una operación que, en
presencia de perturbaciones, tiende a reducir la diferencia entre la salida de un sistema
y alguna entrada de referencia, y lo realiza tomando en cuenta esta diferencia. Aquí
sólo se especifican con este término las perturbaciones impredecibles, ya que las
perturbaciones predecibles o conocidas siempre puede compensarse dentro del
sistema.

II. Sistemas de Control en Lazo Cerrado


Los sistemas de control realimentados se denominan también sistemas de control en lazo
cerrado. En la práctica, los términos control realimentado y control en lazo cerrado se
usan indistintamente. En un sistema de control en lazo cerrado, se alimenta al controlador
la señal de error de actuación, que es la diferencia entre la señal de entrada y la señal de
realimentación (que puede ser la propia señal de salida o una función de la señal de salida
y sus derivadas y/o integrales), con el fin de reducir el error y llevar la salida del sistema
a un valor deseado. El termino control en lazo cerrado siempre implica el uso de una
acción de control realimentado para reducir el error del sistema.

III. Sistemas de Control en Lazo Abierto


Los sistemas en los cuales la salida no tiene efecto sobre la acción de control se
denominan sistemas de control en lazo abierto. En otras palabras, en un sistema de control
en lazo abierto no se mide la salida ni se realimenta para compararla con la entrada. Un
ejemplo práctico es una lavadora. El remojo, el lavado y el centrifugado en la lavadora
operan con una base de tiempo. La máquina no mide la señal de salida, que es la limpieza
de la ropa.
En cualquier sistema de control en lazo abierto, la salida no se compara con la entrada de
referencia. Así, a cada entrada de referencia le corresponde una condición de operación
fija; como resultado de ello, la precisión del sistema depende de la calibración. Ante la
presencia de perturbaciones, un sistema de control en lazo abierto no realiza la tarea
deseada. En la práctica, el control en lazo abierto sólo se usa si se conoce la relación entre
la entrada y la salida y si no hay perturbaciones internas ni externas. Es evidente que estos
sistemas no son de control realimentado. Obsérvese que cualquier sistema de control que
opere con una base de tiempo está en lazo abierto. Por ejemplo, el control de tráfico
mediante señales operadas con una base de tiempo es otro ejemplo de control en lazo
abierto.

IV. Sistemas de control en lazo cerrado en comparación con sistemas en lazo


Abierto
Una ventaja del sistema de control en lazo cerrado es que el uso de la realimentación vuelve
la respuesta del sistema relativamente insensible a las perturbaciones externas y a las
variaciones internas en los parámetros del sistema. Es así posible usar componentes
relativamente poco precisos y baratos para obtener el control adecuado de una planta
determinada, mientras que hacer eso es imposible en el caso de un sistema en lazo abierto.
Desde el punto de vista de estabilidad, el sistema de control en lazo abierto es más fácil de
desarrollar, porque la estabilidad del sistema no es un problema importante. Por otra parte,
la estabilidad es un gran problema en el sistema de control en lazo cerrado, que puede
conducir a corregir en exceso errores que producen oscilaciones de amplitud constante o
cambiante. Debe señalarse que, para los sistemas en los que se conocen con anticipación las
entradas y en los cuales no hay perturbaciones, es aconsejable emplear un control en lazo
abierto. Los sistemas de control en lazo cerrado sólo tienen ventajas cuando se presentan
perturbaciones y/o variaciones impredecibles en los componentes del sistema. Obsérvese que
la potencia nominal de salida determina en forma parcial el coste, peso y tamaño de un
sistema de control. El número de componentes usados en un sistema de control en lazo
cerrado es mayor que el que se emplea para un sistema de control equivalente en lazo abierto.
Por tanto, el sistema de control en lazo cerrado suele tener costes y potencias más grandes.
Para disminuir la potencia requerida de un sistema, se emplea un control en lazo abierto
siempre que pueda aplicarse. Por lo general, una combinación adecuada de controles en lazo
abierto y en lazo cerrado es menos costosa y ofrecerá un comportamiento satisfactorio del
sistema global.
La mayoría de los análisis y diseños de sistemas de control presentados en este libro son
sistemas de control en lazo cerrado. En ciertas circunstancias (por ejemplo, si no hay
perturbaciones o la salida es difícil de medir) pueden ser deseables los sistemas de control en
lazo abierto. Por tanto, es conveniente resumir las ventajas y desventajas de utilizar sistemas
de control en lazo abierto.
Las ventajas fundamentales de los sistemas de control en lazo abierto son las siguientes:
 Construcción simple y facilidad de mantenimiento.
 Menos costosos que el correspondiente sistema en lazo cerrado.
 No hay problemas de estabilidad.
 Convenientes cuando la salida es difícil de medir o cuando medir la salida de manera
precisa no es económicamente viable. (Por ejemplo, en el caso de la lavadora, sería
bastante costoso proporcionar un dispositivo para medir la calidad de la salida de la
lavadora, es decir, la limpieza de la ropa lavada.)
Las desventajas fundamentales de los sistemas de control en lazo abierto son las siguientes:
 Las perturbaciones y los cambios en la calibración originan errores, y la salida puede
ser diferente de lo que se desea.
 Para mantener la calidad requerida en la salida, es necesaria la recalibración de vez
en cuando.
V. Sistemas lineales
Un sistema se denomina lineal si se aplica el principio de superposición. Este principio
establece que la respuesta producida por la aplicación simultánea de dos funciones de
entradas diferentes es la suma de las dos respuestas individuales. Por tanto, para el sistema
lineal, la respuesta a varias entradas se calcula tratando una entrada cada vez y sumando los
resultados. Este principio permite desarrollar soluciones complicadas para la ecuación
diferencial lineal a partir de soluciones simples.

VI. Sistemas lineales invariantes y variantes en el tiempo


Una ecuación diferencial es lineal si sus coeficientes son constantes o son funciones sólo de
la variable independiente. Los sistemas dinámicos formados por componentes de parámetros
concentrados lineales invariantes con el tiempo se describen mediante ecuaciones
diferenciales lineales invariantes en el tiempo de coeficientes constantes. Tales sistemas se
denominan sistemas lineales invariantes en el tiempo (o lineales de coeficientes constantes).
Los sistemas que se representan mediante ecuaciones diferenciales cuyos coeficientes son
funciones del tiempo, se denominan sistemas lineales variantes en el tiempo. Un ejemplo de
un sistema de control variante en el tiempo es un sistema de control de naves especiales. (La
masa de una nave espacial cambia debido al consumo de combustible.)

VII. Ejemplos de la Transformada de Laplace.


1 1 𝑠
 ℒ = {4𝑡 − 3 + 2 cos(5𝑡)}= 4ℒ{𝑡} − 3ℒ{1} + 2ℒ{cos(5𝑡)} = 4 𝑠2 − 3 𝑠 + 2 𝑠2 +52
1 1 𝑠 4(𝑠 2 + 25) − 3𝑠(𝑠 2 + 25) + 2𝑠 3 100 − 75𝑠 + 4𝑠 2 − 𝑠 3
4 2−3 +2 2 = =
𝑠 𝑠 𝑠 + 25 𝑠 2 (𝑠 2 + 25) 𝑠 2 (𝑠 2 + 25)

También podría gustarte