Evolución Histórica de la Ingeniería de Control
Primeros ejemplos históricos de sistemas de control.
Para lo cual se utiliza un flotador que regulaba la entrada de agua a un depósito auxiliar de manera que el nivel de este se manténía constante y por lo
El documento más antiguo encontrado donde se menciona una Clepsydra es el registro de un procedimiento judicial donde se le nombra como una ayuda para asegurar que ambas partes dispongan del mismo tiempo para las alegaciones finales.
tenían ciertas dificultades para levantarse por la mañana, lo cual era fuente de discusiones todos los días. Es de suponer que ante el ruido de las bolas los “despiertos” alumnos terminarían por levantarse.
En la Clepsydra de la Figura 2 el caudal suministrado al depósito b es constante por lo cual este tardará en llenarse un tiempo determinado y fijo al final del cual las bolas caen sobre la bandeja ejerciendo la función de alarma.
Philon de Bizancio, construyo un sistema de regulación de nivel de una lámpara de aceite. Al quemarse el aceite de la lampara, el nivel del depósito de aceite bajaba haciendo que entrará aire en otro depósito de forma que éste suministraba más aceite al depósito de la lámpara.
Con este sistema no se conseguía un nivel constante en el depósito pero se aseguraba la recarga de este cuando el aceite se iba consumiendo.
En el primero describe varios sistemas realimentados y en el segundo presenta complicados aparatos que ejecutan un programa fijo.
Solo que subir o bajar el nivel del flotador para decidir el nivel del depósito a.
El sistema de la Figura 6 también fue diseñado por Herón. Entonces el vino caía dentro de c procedente de un gran depósito e hasta que la altura de a y c hacía que el flotador volviera a tapar la válvula.
Heron también construye un Odómetro, un instrumento dedicado a medir la distancia recorrida por un vehículo. El sistema utilizado era muy ingenioso y consistía en una transmisión que cada vez que daba una vuelta la rueda final caía una bola en un contenedor. Solo había que contar el número de bolas para conocer la distancia recorrida.
En la Edad Media se desarrollan importantes mejoras técnicas pero en el campo de los ingenios dotados con realimentación existen pocos desarrollos, solamente cabría resaltar la realización de un sistema de control de un molino de harina realizado por H.U. Lansperg hacia el 1200, de forma que la cantidad de grano suministrada al molino dependía de la fuerza del viento y la dureza del propio grano, permitiendo que el sistema funcionará en condiciones óptimas, no se pretendía moler a velocidad constante.
El grano llegaba a la rueda de molienda a través de un alimentador con una pendiente muy pequeña, de forma que el grano no se movía si el alimentador estaba en reposo.
El eje de la rueda moledora tenia una serie de aristas que golpeaban el alimentador. A cada golpe caía una pequeña cantidad de grano de forma que cuanto mayor fuera la
Por el simple equilibrio de energía se produce el efecto de la realimentación.
En el Siglo XVII se presentan diversos sistemas de regulación de temperatura, entre ellos los aplicados en el horno y la incubadora de Drebel. El principio utilizado en la regulación de temperatura es el siguiente, si la temperatura del horno sube se dilata el contenido de un depósito de alcohol de forma que se desplaza un juego de palancas que abre un orificio de salida de gases.
Lee inventa un sistema para controlar automáticamente la orientación e inclinación de las aspas de los molinos de viento, de modo que se aprovechara mejor la dirección del viento. En esta patente [Lee 1745] se describen dos mecanismos.
El molinillo de cola, el cual no gira si no se encuentra en la dirección normal al viento, y por lo tanto no hace girar la cúpula del molino.
Un variador automático del ángulo de ataque de las aspas. Con el que se podía regular la velocidad de giro de las aspas del molino.
Este segundo mecanismo no se llego a realizar debido a su complicación constructiva. El ingenio de Lee se implantó rápidamente en Inglaterra y en el norte de Alemania.
Este se combinaba con otro ingenio que variaba el ángulo de ataque de las aspas del molino, de forma que se controlaba la velocidad del molino.
La Revolución Industrial.
En el siglo II antes de Cristo Heron de Alejandría construyo la primera turbina de vapor conocida, la conocida como Aelopila de Heron.Este y otros inventos, como la bomba de aire de Ktesibio, solo conocieron aplicaciones lúdicas. En el Renacimiento se encontraron nuevas aplicaciones técnicas del
Tiempo después, el francés Denis Papín diseñaría una máquina de vapor donde la presión atmosférica jugaba un papel decisivo.
En el Siglo XVII se empezaron a desarrollar las primeras máquinas de vapor. Al calentar agua para producir vapor, este alcanza un volumen 2700 veces superior a la misma masa de agua líquida. Esta propiedad expansiva del vapor constituye el fundamento de la máquina que lleva su nombre, un ingenio que revolucionaría la sociedad occidental.
Pero su rendimiento era muy pobre, tan solo el 0.5% de la energía del combustible utilizado.
A pesar de ello, en 1760 había más de 100 máquinas trabajando.
El resultado fue que se aumento el rendimiento de la máquina hasta el 4%.
Se debe remarcar que la invención de los reguladores centrífugos se le ha atribuido desde siempre a Meilke, el cual era el líder en el diseño e implantación de molinos, pero se reconoce que Meilke basó los diseños de sus reguladores centrífugos en el ingenio patentado por Mead en 1787.
Watt sugiere inmediatamente la posibilidad de aplicar el mismo principio para controlar la velocidad de las máquinas de vapor, y es probable que antes de final de año tuviera diseñado su primer regulador centrífugo.
Boulton y Watt hicieron lo posible para que el diseño de su regulador permaneciera secreto el máximo tiempo posible. Cuando la patente de Watt caduca en 1800, su regulador
Este regulador mecánico por medio de un sistema de palanca regulaba la cantidad de vapor suministrada por la caldera a la turbina de la máquina de vapor. Este invento resultará ser de gran importancia en el desarrollo histórico de la Regulación Automática, dado que incorpora el sensor y el actuador en un único ingenio, sin disponer de un amplificador de potencia que aislará el sensor del actuador. [Auslander 71]
No se puede afirmar que estos ejemplos aislados supongan la existencia de algún tipo de Ingeniería o Teoría de Control Automático, dado que ni siquiera existían las herramientas matemáticas necesarias para ello.
Los primeros reguladores de Watt funcionaron satisfactoriamente debido fundamentalmente al considerable rozamiento que presentaban sus mecanismos, haciendo
el sistema de por si estable. Sobre 1868 existían unos 75000 reguladores de Watt operando en Inglaterra.
Se les denominaban moderadores, no controladores.Se aíslan sensor y accionador incorporando en medio un amplificador de Potencia. Por lo tanto los servomecanismos adoptan la estructura funcional que se mantiene hasta el presente. Mientras en los reguladores de Mead y Watt el control era proporcional, en este ingenio el control pasa a ser integral.
Los amplificadores de potencia mecánicos, conocidos en el contexto del control como servomotores, siguen desempeñando una función fundamental en los sistemas de control. Farcot en su patente [Farcot 1868] hace una comparación entre su invento, el servomotor y el jinete de un caballo:
“el jinete puede dirigir los músculos del caballo con pequeños movimientos de sus manos, busca que sus pequeñas intenciones se transformen en grandes fuerzas”
Farcot denominó su patente como “Servomoteur, ou moteur asservi” y de aquí se origina el término servomotor.
Los sistemas mecánicos se desarrollan hasta 1900, entonces son superados por sistemas hidráulicos. Los motores eléctricos y el desarrollo de la electrónica adquieren gran relevancia durante la segunda Guerra Mundial, desempañando un gran papel en el desarrollo de la teoría clásica de control.
El problema de la estabilidad.
Pero hasta 75 años después de la muerte de Cauchy, no surgíó lo que se podría denominar la Teoría de Control.Este problema era bastante grave y atrajo a un gran número de importantes científicos e ingenieros.
La
Vischnegradsky también demostró la incapacidad de un regulador proporcional para establecer un correcto comportamiento de un sistema de tercer orden.
Maxwell plantea de esta forma el problema general de estudiar la estabilidad de un sistema dinámico en función de la localización de las raíces de su ecuación carácterística. Hermite había publicado un trabajo sobre el mismo problema unos años antes pero no era muy conocido.
En este trabajo presenta por primera vez su conocido criterio de estabilidad.
Lo que no le faltaba a Routh era ironía en sus palabras.
Bompiani demostraría en 1911 la equivalencia de los criterios de Routh y Hurwitz [Bompiani 11].
En 1889, Liapunov presenta sus trabajos sobre estabilidad, los cuales servirán de base a la teoría moderna de control. Es importante resaltar la aportación de Heaviside, aplicando el análisis impulsional en el estudio de los sistemas dinámicos. Heaviside es el primero que aplica el cálculo operacional a un amplio espectro de problemas de Ingeniería Eléctrica.
La importancia del control automático durante el final del siglo XIX y comienzos del XX se pone de manifiesto con la concesión en 1912 del Premio Nobel de Física al sueco Dalen por su desarrollo de reguladores automáticos que se utilizan conjuntamente con los acumuladores de gas para balizas luminosas.
A finales del siglo XIX se encuentran asentadas las bases necesarias para el desarrollo de Teoría de Control Automático, llevado a cabo durante este Siglo XX.
Control clásico.
Hasta bien entrado el Siglo XX las únicas herramientas analíticas que poseía el especialista en control eran la utilización de ecuaciones diferenciales ordinarias junto con criterios álgebraicos para determinar la posición de las raíces de la ecuación carácterística asociada. Aplicando el criterio de Routh y Hurwitz el ingeniero determinaba la estabilidad o no de los sistemas, pero para esto se debía obtener el modelo matemático operando
Además ahí que destacar que el criterio de Routh y Hurwitz no ofrece información de cómo mejorar la estabilidad del sistema.
Desde el punto de vista teórico, la Ingeniería de Control se empieza a consolidar cuando se produce el traslado y aplicación de los conocimientos adquiridos en los problemas de amplificación de señales a los problemas de control industrial.
Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.
Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.
Hazen en su publicación “Theory of Servomechanism” (1934) [Thaler 74], analiza el funcionamiento de los servomecánismos utilizando en su análisis entradas típicas de escalón y rampa. En sus trabajos estudia el diseño de servomecánismos para posicionar ejes.
El desarrollo de las técnicas frecuenciales.
Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).
El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de
Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.
La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.
Para mantener la inteligibilidad de la señal de audio transmitida en distancias intercontinentales se requería una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar ( una distorsión del orden del 0.005%).
Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo “Stabilized Feedback Amplifiers” [Thaler 74] en 1934. El descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una reducción en la distorsión no lineal de manera que el sistema se comportase como una ganancia lineal, estable y precisa. Black utiliza el criterio de Nyquist y llega a interpretar una serie de fenómenos que se producen en los sistemas realimentados.
Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador realimentado, lo cual se podía esperar, pero otros manifestaban estas carácterísticas cuando la ganancia se disminuía y esto si que era completamente inesperado.
Su descripción en términos de un conjunto de ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista de las rudimentarias facilidades disponibles en esos años para la solución por computador de tales ecuaciones.
El famoso trabajo de Nyquist resolvíó este misterio, abríó totalmente nuevas perspectivas en la teoría de los mecanismos realimentados y por lo tanto comenzó una nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control; en la década que siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas
Más aún, el contorno del lugar de Nyquist daba una indicación inmediata de cómo se podía mejorar la conducta de un sistema realimentado que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su carácterística de ganancia en lazo abierto en función de la frecuencia.
La oficina de patentes británica, en palabras de Black, trató la aplicación “como si se tratase de una máquina de movimiento continuo”.
En otro de los trabajos clásicos que están en los fundamentos de la Teoría del Control, H. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.
De esta forma fue capaz de dar reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para un amplificador realimentado.
En estos procesos la evolución de la variable controlada era tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los primeros pasos que se dan para controlar estos procesos son la incorporación de instrumentos para supervisar la operación y registradores de plumilla. El desarrollo natural fue utilizar el movimiento de la plumilla del registrador para efectuar una acción de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.
Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio de un simple mecanismo conmutador o relé que pronto se reveló
El máximo valor recomendado entonces para la banda proporcional era del cinco por ciento.
Durante los años 30 se desarrollaron completamente estos reguladores neumáticos y se transfirió a este campo del control la idea de utilizar el término de acción integral que se venía empleando desde tiempo en los sistemas mecánicos. El primer regulador de temperatura con acción proporcional integral fue el Foxboro Stabilog patentado por Masón en 1931. Hay que hacer constar que en un principio el Stabilog no tuvo mucho éxito comercial, debido entre otras cosas a su precio y a que no era comprendido su funcionamiento.
La importancia de estas reglas de ajuste óptimo de controladores es enorme, siguen siendo vigentes y profusamente usadas en el ámbito del control de procesos industriales.
El trabajo de Ziegler y Nichols es pionero en el desarrollo de la idea de control óptimo, aunque su criterio de optimización, que consiste en minimizar la superficie de error absoluto, no se puede tratar analíticamente.
Un paso crucial en la transferencia de las técnicas utilizadas en el análisis de los amplificadores realimentados de los sistemas de telefonía a otras clases de sistemas fue realizada por H. Harris del MIT en su trabajo “The analisys and design of servomechanics” [Harris 42], en el cual introduce el uso de funciones de transferencia en el análisis de un sistema realimentado general. Esto permitíó que un servomecanismo mecánico o un sistema de control de un proceso químico se representasen mediante diagramas de bloques y utilizasen las técnicas del dominio frecuencial.
Avances durante la Segunda Guerra Mundial.
Un gran estímulo para el desarrollo de la técnica lo constituyen las guerras. La Segunda Guerra Mundial supuso un gran impulso al desarrollo teórico y mucho más al desarrollo práctico, dada la fuerte necesidad de sistemas de control que funcionarán como los servos de los radares y el posicionamiento de cañones.
La Segunda Guerra Mundial creó una necesidad urgente para diseñar servomeca- nismos de altas prestaciones y condujo a grandes avances en la forma de construir sistemas de control realimentados. Las exigencias de la guerra enfocaron la atención sobre un problema importante: el llamado problema de control de tiro, proporcionando una cadena automática de órdenes entre la detección del blanco, el apuntamiento del arma y el disparo. Este problema tiene tres etapas:
Detección y seguimiento del blanco.
Predicción.
Colocación del cañón en posición de disparo.
En el comienzo de la guerra, aunque cada etapa requería algunos operadores, cada uno efectuando operaciones de seguimiento manual, había una considerable controversia en cuanto al valor operacional del control automático. Esto no es sorprendente ya que los
Cuando la guerra progresó, aumentó la velocidad de los blancos, el personal entrenado comenzó a escasear y la aparición de los radares de seguimiento mejoró notablemente la capacidad de predicción: era pues el momento para que el control automático se hiciese notar.
Vannevar Bush del Comité de Investigación de Defensa Nacional (NDRC).
El comité era responsable de la dirección de la investigación y de la circulación de informes reservados a los grupos apropiados.
Los siguientes trabajos han sido recogidos en la colección [Thaler 74]:
Albores de la era espacial.
Desde siempre los procesos más complejos comandados por computador han sido las aplicaciones de control de vuelo aerospaciales. Tsiolkovsky (1857-1935), y el alemán Hermann Ganswindt (1856-1934) que criticaron a los ast rónomos y matemáticos de la época que aseguraban que nunca jamás el ser humano poseería los medios para conseguir el control, la precisión y la velocidad necesaria para los vuelos en el espacio.
Uno de los primeros trabajos en este campo se debe al alemán Hermann Orberth, que en su articulo “Die Rakete zu den Planetenräumen” (Cohetes en el espacio interplanetario)
publicado en 1923, afirma que para poder efectuar vuelos en el espacio, el hombre debe acceder a técnicas de control automático mucho más sofisticadas que las disponibles entonces. En su trabajo de 1929 “Wege zur Raumschiffahrt” (Métodos para volar en el espacio) predice que el desarrollo de cohetes que dispongan de la suficiente fuerza propulsiva llevará largo tiempo y lo mismo sucederá con la necesaria tecnología de control automático. Para colocar un satélite orbitando sobre la tierra es necesaria una velocidad mínima de 7,904 kilómetros por segundo. Conocida como la velocidad de escape. Estas velocidades resultaban difíciles de imaginar para la época cuando un coche que circulaba a 100 Km./hora necesitaba cinco minutos para recorrer la distancia de ocho kilómetros. En otras palabras el cohete debía ir a una velocidad trescientas veces superior a la del coche.
Goddard publica en 1919 el primer trabajo “A Method of Reaching Extreme Altitudes” donde se describen cohetes cuya combustión se basaba en oxígeno líquido.Las primeras unidades desarrolladas para el ejercito alemán, las denominadas A1 y A2, fueron destinadas principalmente al ensayo de sistemas de propulsión y control de cohetes. Una vez se dispuso de unidades en funcionamiento, enseguida se observo que el principal problema a solucionar era mantener el sistema estable. Según palabras de Willy Ley [Willy 44] los conocimientos que se poseían entonces sobre la estabilidad de los cohetes “se podían escribir en una postal, dejando alguna parte en blanco”.
Para el desarrollo del tercer ingenio, la A3, la marina Alemana envió a un reconocido especialista en el problema de estabilización y alineamiento de las torretas de tiro, el clásico problema del control de la segunda Guerra Mundial. Sin embargo este ingenio no se terminó de construir dado que el mecanismo de control se revelo inadecuado. Después de lo cual se desarrolla un nuevo sistema de control bastante avanzado para la época. Este sistema utilizaba giróscopos y acelerómetros como elementos sensores y dispónía de servomotores eléctricos que podían efectuar pequeños y precisos movimientos, construidos en molibdeno, un material resistente a altas temperaturas, y encargados de controlar el suministro de gas a las turbinas del cohete.
Para estudiar la dinámica del sistema se construyo un simulador mecánico, cuyo diseño se basó en los registros obtenidos de los vuelos de los primeros ensayos mediante radiotelemetría (otro desarrollo pionero). En este momento, Willy Ley hubiera necesitado al menos doce docenas de postales.
Esta concentración de esfuerzos en resolver los problemas de control y estabilidad condujo al desarrollo de la unidad A4, que Goebbels después denominaría V2–V de Vergeltungswaffe (misil de justo castigo o pena merecida). Ya en las primeras pruebas
Nada más lejos de la realidad, las pruebas realizadas por los investigadores alemanes afirmaban que les era imposible controlar los misiles con la debida precisión. Los ingenios eran alineados hacia su objetivo (primero fue París y después Londres), pero una vez habían sido lanzados era imposible modificar la trayectoria del misil.
También se traslado allí todo el equipo científico alemán que continuó con su labor de investigación.
El resto de la historia es de sobra conocida por todos nosotros. ¿Llegará alguno de nuestros hijos al Planeta Rojo?
Los años clásicos: 1945-1955
Desde el punto de vista del desarrollo de las técnicas de diseño de control automático, el principal resultado de este gran esfuerzo y experiencia fue extender rápidamente la utilización de las ideas de respuesta en frecuencia a todos los campos y producir así una teoría unificada y coherente para los sistemas realimentados con un único lazo.
En este trabajo se da un enfoque radicalmente distinto del estudio del problema del control, y supone el inicio de la conocida como teoría estocástica clásica. Las aportaciones de Wiener consisten en considerar la presencia de ruidos en las señales, e introduce también el concepto de control óptimo, cuyo objetivo consiste en minimizar un determinado criterio que define la calidad del control, en este caso minimiza la superficie de error cuadrático [Wiener 49].
Todo ello, conduce a la formulación de lo que se denominaría cibernética en su trabajo “Cybernetics” de 1948 publicado por el MIT press [Wiener 48].
A finales de la década de los cuarenta, surgen otras dos vías de desarrollo de la teoría de control: el Método del modelo de Truxal [Truxal 54] y el método del lugar de las Raíces,
Se presentan también aportaciones como la extensión de los métodos frecuenciales a sistemas no-lineales y a sistemas estocásticos.
Partiendo de las especificaciones deseadas se obtiene la función de transferencia que debe seguir el sistema de control. Pero se manifestaban en él algunas dificultades prácticas como podían ser la complejidad de los correctores que se obtienen, que dejaban de tener la estructura clásica PID.
Los trabajos de Evans:
“Graphical Analysis of Control Systems” [Evans 48].
En palabras del propio autor “el lugar de las raíces determina todas las raíces de la ecuación diferencial de un sistema de control por medio de una representación gráfica, la cual permite una síntesis rápida de la respuesta transitoria o frecuencial deseada”.
A su favor, aporta un método gráfico de estimar la influencia de variaciones en los parámetros del sistema o del regulador sobre la estabilidad y el comportamiento dinámico de los sistemas.
Primeros pasos del control por computador.
Como la rotación de un radar de seguimiento solamente ilumina a su blanco de forma intermitente, muchos de los sistemas de control de tiro desarrollados durante la Segunda Guerra Mundial tuvieron que diseñarse para tratar con datos que estaban disponibles de forma pulsada o muestreada.
Los computadores desarrollando funciones de control de procesos son elementos que trabajan por ciclos. No trabajan en tiempo continuo sino en tiempo discreto. El computador necesita un tiempo para adquirir las entradas (mando y realimentaciones), calcular las acciones, y para volcar las acciones sobre el sistema, que consiste en un proceso de conversión digital-analógico. Este ciclo se ejecuta cada cierto intervalo de tiempo o período de muestreo por lo que los computadores trabajan en tiempo discreto. Por lo tanto la teoría de los sistemas continuos desarrollada hasta entonces era inservible.
Las bases para un tratamiento efectivo de los sistemas muestreados fueron establecidas por Hurewicz, quien desarrolló una extensión apropiada del criterio de estabilidad de Nyquist para este tipo de sistemas. El posterior desarrollo de las técnicas de cálculo digital iba pronto a conducir a un campo de investigación muy activo sobre tales sistemas discretos. Shanon en 1948 estudia los procesos de muestreo y reconstrucción de señales con presencia de ruido [Shanon 48].
Los sistemas de control digital que operan sobre plantas de naturaleza continua, requieren técnicas de análisis que permitan que ambas clases de sistemas, continuos y discretos, así como sus interconexiones a través de interfaces adecuadas se puedan ver desde un punto de vista unificado. Este trabajo lo desarrolló Linvilí en el dominio transformado.
El impulso definitivo para el estudio de esta clase de sistemas se debe al grupo del Prof. Entre sus integrantes figuraban investigadores de la talla de Zadeh, Kalman, Jury, Franldin, Bertram, Bergen, Friedland, Slansky y Kranck entre otros.Esto hace que se desarrollen los estudios que pretenden trasladar al campo discreto los resultados obtenidos para el campo continuo.
A finales de la década de los cincuenta, los trabajos de Jury en 1958, “Sampled data control Systems” con su criterio de estabilidad, los de Ragazzini y Franklin también en 1958 con idéntico título al de Jury, y el trabajo de Tou de 1959 “Digital and Sampled Data Control Systems” terminan por definir y establecer la teoría clásica de los sistemas muestreados.
Teoría moderna de control.
Aparece un nuevo método de diseño de control, conocido a partir de entonces como teoría de control moderna. Se basaba en representar los sistemas en variables de estado o representación interna y trabajando casi exclusivamente en el dominio del tiempo.
Destacan los trabajos de Aizerman, Lerner, Lurie, Pontryagin, La Salle, Popov, Minorsky, Kabala y Bellman.La teoría de control moderna esta basada en el concepto de estabilidad de Liapunov presentado a finales del Siglo XIX. Los trabajos desarrollados por Lurie sobre servomecanismos de posicionamiento de torretas de tanques dieron lugar al concepto de estabilidad absoluta, generalizada después por Popov con el concepto de hiperestabilidad, que considera no linealidades en la realimentación.
En el desarrollo de estos métodos se deben destacar los trabajos de Pontryagin, La Salle, Bellman y Kalman.
Kalman efectúa la resolución de los problemas de control óptimo cuadrático y lineal cuadrático gaussiano.
Al final de los sesenta y comienzo de los setenta se presenta el enfoque geométrico del problema de control, que utiliza métodos del álgebra lineal. En paralelo se desarrollan los métodos de identificación de sistemas, por mínimos cuadrados y de máxima verosimilitud, este último fue desarrollado por Fisher en 1912 y aplicado en sistemas industriales por Åström y Bohlin en 1965.
Desde un punto de vista conceptual, las técnicas adaptatívas aparecen cuando se transvasan a la máquina comportamientos inherentes al hombre: La adaptación, no en términos de decisiones (conseguida con la realimentación simple), sino en término de estructuras para la decisión.
Las Estructuras de Control adaptatívas que han tenido mayor impacto técnico son:
Sistemas Auto-Ajustables. Sistemas Adaptativos con Modelo de Referencia (S.A.M.R.).
El concepto de regulador autoajustable fue propuesto inicialmente por Kalman, utilizando un método de identificación de mínimos cuadrados recursivos en su artículo “Design of a self-optimizing control system” [Kalman 58], otro sistema, basado en la minimización de la varianza de salida es desarrollado por Peterka en 1970, y por Åström y Witenmark en [Åström 73]. Se consideraba el problema en un entorno estocástico.
La técnica de los sistemas autoajustables se basa en que si se dispone de un método válido de diseño de reguladores que parte del conocimiento del modelo del proceso, para realizar un control que se adapte a los cambios en el proceso basta con acoplar ese método de diseño de reguladores con un procedimiento de identificación en línea. Este “calculador” consiste en un estimador recursivo de los parámetros del sistema o proceso controlado. Los resultados del estimador servirán para calcular los valores óptimos de los coeficientes del regulador.
Los Sistemas Adaptativos con Modelo de Referencia se basan en otro concepto muy simple: se desea que el comportamiento del proceso sea “idéntico” al de un modelo que se da como referencia. Si existe diferencia entre las salidas del proceso y del modelo un mecanismo de adaptación intenta minimizarla con el ajuste de los parámetros del regulador, o añadiendo una variación en la acción sobre el sistema físico.
De esta forma se pudo garantizar la estabilidad global del sistema adaptativo. The model reference aproach” [Landau 79] utiliza la teoría de la hiperestabilidad de Popov en el diseño de SAMR.Quizás se pueda comenzar a hablar de una teoría unificada de los sistemas adaptativos.
El computador en el control de procesos industriales
La aplicación del computador en el control de procesos supone un salto tecnológico enorme que se traduce en la implantación de nuevos sistemas de control en el entorno Industria y posibilita el desarrollo de la navegación espacial. Desde el punto de vista de la aplicación de las teorías de control automático el computador no esta limitado a emular el cálculo realizado en los reguladores analógicos El computador permite la implantación de avanzados algoritmos de control mucho más complejos como pueden ser el control óptimo o el control adaptativo. El objetivo en un principio era sustituir y mejorar los reguladores analógicos, pero este objetivo se fue ampliando dada las capacidades de los computadores en realizar un control integral de las plantas de fabricación, englobando también la gestión de la producción.
Aplicaciones del Computador.
Las principales aplicaciones industriales del computador son:
Adquisición de datos
. Consiste en la recogida, tratamiento y almacenamiento de los datos.
Supervisión
. En esta función el computador no efectúa directamente el control de proceso. La principal función es la ayuda al operador de
El computador suministra al computador unas informaciones elaboradas como pueden ser alarmas, tratamiento de fallos, procedimientos de rearme.
Control secuencial
. En esta función el computador suele tomar la forma de autómata programable, en el cual se ejecutan programas de control de sistemas secuenciales.
Control analógico digital
. Es una forma de control que se utilizaba con los primeros computadores en la cual el computador se encargaba de elaborar la consigna de los bucles analógicos.
Control digital directo
. El computador ejecuta directamente el control del proceso continuo. Toma la forma de regulador industrial o de computador industrial con tarjetas de interface con el proceso.
Análisis de datos
. Función clásica de los computadores de gestión en el que se analizan los datos de producción por medio de herramientas de ofimática.
Evolución histórica de la tecnología del control por computador aplicada al control de sistemas continuos.
El desarrollo de la tecnología del computador aplicada al control de procesos industriales, recibíó a finales de los años cincuenta un gran impulso debido a que existían industrias como las refinerías de petrolíferas donde los procesos a controlar en este tipo de plantas son complicados. Los sistemas de control disponibles estaban bastante limitados, implicando en el proceso de fabricación a gran cantidad de mano de obra, como sucedía en la Industria de producción de papel. Los operarios eran quienes decidían cuales eran las referencias de mando más adecuadas para el sistema de control analógico.
El primer trabajo sobre la aplicación del computador al control Industrial aparece en un articulo realizado por Brown y Campbell en el año 1950.
Brown, G.S., Campbell, D.P.: Instrument engineering: its growth and promise in process-control problem [Brown 50].
En dicho artículo aparece un computador controlando un sistema mediante bucle de realimentación y prealimentación. Los autores asumen que los elementos de cálculo y control del sistema deben ser computadores de cálculo analógicos, pero sugieren el posible uso de un computador digital.
La iniciativa no parte como cabría suponer de la industria del control y manufactura, sino de los fabricantes de computadoras y de sistemas electrónicos que buscaban nuevos mercados para dar salida a productos que no se habían terminado de adaptar a las aplicaciones militares.
Pero este no era un sistema de control industrial. Su función era supervisar el correcto funcionamiento de la instalación.
El primer computador dedicado a control industrial se instaló en la refinería de Port Arthur, en Texas. La refinería comenzó a funcionar controlada en bucle cerrado por computador el 15 de Marzo de 1959.
En los años 1957-1958 la compañía química Monsanto en cooperación con Ramo- Wooldridge estudian la posibilidad de instalar control por computador. En Octubre de 1958 deciden implantar un sistema de control en la planta de la ciudad de Luling, dedicada a la producción de amoniaco. Este sistema como otros muchos basados en el ordenador RW- 300 no realizaban un control digital directo sobre las plantas, sino que eran sistemas supervisores dedicados a calcular las referencias óptimas de los reguladores analógicos. Este sistema se denomina control analógico-digital (DAC) o control supervisor. Se debe observar que este esquema de control fue protegido por una patente (EXNER Patent), lo cual ha limitado su aplicación.
En 1961 la Monsanto comienza a diseñar un control digital directo (DCC) para una planta en Texas city y un sistema de control jerarquizado para el complejo petroquímico de Chocolate Bayou. En el control digital directo el computador controla directamente el proceso, tomando medidas del proceso y calculando la acción a aplicar.
Comenzó a funcionar en Noviembre de 1962.
El sistema dispónía de 120 bucles de control y efectuaba la medida de 256 variables. En la instalación se sustituyeron los antiguos reguladores analógicos por el computador digital que realizaba sus mismas funciones.
Esto llevo a que en un mismo computador se implementarán las dos tareas principales supervisión y control digital directo.
La tarea del control digital directo tenía que tener prioridad sobre la supervisión. Lo cual conllevaba que se tenia que descargar parte de la memoria del ordenador para cargar el código de la otra tarea.
En pocos años el número de ordenadores dedicados a control de procesos pasa de 5000 en 1970 a 50000 en 1975.
Un computador para un solo proceso.
En la década de lo sesenta la complejidad y prestaciones de los sistemas de control se incrementan gracias al empleo de circuitos integrados y en particular los microprocesadores.
El desarrollo en la década de los 70 del microprocesador permite que llegue a ser rentable el dedicar un computador para el control de un solo proceso. Aplicaciones del ordenador al control de procesos que antes no eran rentables instalarlas, dado que el control analógico era mucho más barato, se vuelven competitivas. Incluso esta reducción de costes permite que se empiecen a desarrollar sistemas de control por computador encargados de controlar una sola máquina eléctrica.
Además de la razón económica, una de las razones que impedía que se implantará los controles digitales sobre máquinas eléctricas era la excesiva rapidez de los accionamientos electromecánicos, con constantes de tiempo en muchos casos bastante inferiores al segundo (comparemos con los procesos químicos). Esto hacia imposible que un computador calculará el algoritmo de control en el período de muestreo marcado por el diseño del controlador.
Los primeros controles digitales se implantan sobre máquinas de corriente continua, que presentan un modelo matemático muy sencillo de tratar. Los esfuerzos se vuelcan en el desarrollo de controles digitales sobre motores síncronos y asíncronos que permitieran obtener a los accionamientos prestaciones de precisión y dinámica de par comparables a los de continua, con el objeto de utilizar un motor mucho más barato (asíncrono) que no presentará los problemas de los motores de continua.
Los primeros controles digitales consistían en la simple emulación programada de los algoritmos de control clásicos, pero la aplicación de las modernas técnicas del control ha permitido desarrollar aplicaciones de control vectorial, las cuales, en accionamientos de motores asíncronos proporcionan una calidad en la respuesta dinámica superior a los accionamientos de motores de corriente continua. En el momento actual existe toda una amplia gama de microcontroladores especializados en el control de máquinas eléctricas.
Control en tiempo real.
Los requisitos del control de tiempo real se manifiestan en una de sus carácterísticas principales: las restricciones temporales a que esta sometido. Estas son inherentes al funcionamiento de los sistemas de tiempo real. Para tareas periódicas de control, vienen impuestas por el período de muestreo con que se debe ejecutar el algoritmo de control. Para otro tipo de tareas periódicas como pueden ser tareas de tratamiento de datos, tareas gráficas o de supervisión, tareas de comunicación los restricciones temporales no son tan estrictas y muchas veces el diseñador de las aplicaciones dispone de un margen donde elegir.
Estas restricciones temporales también implican prioridad de ejecución, siendo comúnmente las tareas dedicadas al control las más frecuentes y por lo tanto las que se deben ejecutar con mayor prioridad, interrumpiendo en el caso de los sistemas monoprocesadores a todas las demás tareas. También pueden existir tareas de control que se ejecuten con períodos grandes como en las aplicaciones de control de variables lentas como la temperatura, existiendo algunas otras tareas con períodos de ejecución menor. Pero la tarea de control es la más crítica dado que es la que actúa de interface con el proceso y debe garantizar su correcto funcionamiento.
Para las tareas activada como respuesta a eventos, las restricciones vienen impuestas por los márgenes de seguridad y buen funcionamiento del proceso a controlar. Por ejemplo las acciones que se deben producir ante la aparición de una parada de emergencia, deberán producirse en un tiempo mínimo que intente garantizar al máximo la seguridad de los operarios en primer lugar y del proceso controlado en segundo lugar.
Las aplicaciones de control militar, misiles, sistemas de tiro, sistemas anti-misiles se pueden considerar igual o más críticas que algunas aplicaciones industriales (no olvidemos las centrales nucleares). Por lo cual se establece también la necesidad de que los sistemas de control de tiempo real incorporen mecanismos que garanticen una alta tolerancia a fallos.
Se puede establecer una nueva clasificación entre sistemas de tiempo real críticos y acríticos. Los sistemas de tiempo real críticos son aquellos en que los plazos de respuesta de todas las tareas deben respetarse bajo cualquier circunstancia. En estos sistemas el incumplimiento de un plazo de respuesta, podría acarrear un mal funcionamiento o un accidente en el proceso o aplicación militar controlada. En los sistemas de tiempo real acríticos se puede incumplir ocasionalmente el plazo de respuesta de alguna tarea.
Hilando más fino, en un sistema de tiempo real se debe distinguir entre tareas críticas (control, emergencia…) y acríticas (representación gráfica, tratamiento de datos)
Hardware y software de los sistemas de tiempo real.
Así se van desarrollando periféricos especializados como tarjetas de adquisición de datos con conversores analógico/digitales y digitales/analógicos. Tarjetas con relojes de alta precisión que unidos a sistemas de interrupciones evolucionados permiten atender correctamente los requisitos temporales de las aplicaciones de control en tiempo real.En los años 70 se desarrollan nuevos sistemas de computación repartidos que podían adoptar estructuras centralizadas o distribuidas. En los sistemas centralizados las decisiones del control las toma el computador central, pero alrededor de él se acoplan una serie de periféricos, algunos de ellos especializados capaces de realizar determinadas tareas. Estos periféricos intercambian datos con y reciben ordenes del ordenador central por medio de una red de comunicaciones.
Los sistemas descentralizados o distribuidos consisten en un conjunto de unidades de control que pueden tomar decisiones autónomas, intercomunicándose por medio de una red de comunicaciones.
Desde el punto de vista del software los lenguajes y también las metodologías de desarrollo de las aplicaciones deben suministrar las herramientas y mecanismos necesarios para que los sistemas de control de tiempo real cumplan todas las carácterísticas de restricciones temporales, tolerancia a fallos y seguridad de funcionamiento.
A estos lenguajes se le añade una serie de funciones y mecanismos: Funciones para ejecución en tiempo real ( run time system, tareas…)Bibliotecas de funciones software que dan al programador un cierto nivel de comodidad a la hora de trabajar con la interface del proceso o con el control del tiempo de ejecución. Compiladores que generen un código eficaz. Además permiten el acceso a recursos de bajo nivel evitando el uso del ensamblador.
Es un lenguaje que se muestra adecuado para el desarrollo de aplicaciones de tamaño pequeño a medio. No es adecuado para el desarrollo de grandes aplicaciones.
El lenguaje que se ha convertido en un estándar para el desarrollo de sistemas de tiempo es el lenguaje ADA.
Sus principales carácterísticas son:
Soporta tecnologías de software avanzadas.
Incluye concurrencia, tiempo real, acceso a recursos de bajo nivel y un potente tratamiento de excepciones.
ADA es un lenguaje definido para el desarrollo y programación de aplicaciones complejas como pueden ser las aplicaciones de control de ingenios militares. También se definieron anexos especializados en aplicaciones distribuidas, sistemas de información…
Autómatas en la historia.
Cabe mencionar que los árabes fueron unos maestros en la construcción de autómatas y en la precisión de sus cálculos, y como ejemplo de ello, se puede mencionar que inventaron el reloj mecánico, así como sus grandes aportaciones a la astrología. También los ingenieros griegos aportaron grandes conocimientos a los autómatas, aunque su interés era más bien hacia el saber humano más que hacia las aplicaciones prácticas.C., Amenhotep, hermano de Hapu, construye una estatua de Memon, el rey de Etiopía, que emite sonidos cuando la iluminan los rayos del sol al amanecer.
C., fué encontrado el tesoro de Chin Shih Hueng Ti consistente en una orquesta mecánica de muñecos, encontrada por el primer emperador Han.
En el año 62 Heron de Alejandría describe múltiples aparatos en su libro “Autómata”. Todos ellos fueron diseñados como juguetes, sin mayor interés por encontrarles aplicación. Sin embargo, describe algunos como un molino de viento para accionar un órgano o un precursor de la turbina de vapor.
También se diseñan ingeniosos mecanismos como la máquina de fuego que abría puertas de los templos o altares mágicos como el de la Figura 23 donde las figuras apagaban el fuego de la llama.
En Roma existía la costumbre de hacer funcionar juguetes automáticos para deleitar a los huéspedes. Trimalco ofrecíó en su famoso banquete, pasteles y frutas que arrojaban un chorro de perfume cuando se hacía una ligera presión sobre un príapo de pasta, en cuyo regazo estaban colocados pasteles y frutas.
Ejemplos de estos son diversos sistemas dispensadores automáticos de agua para beber o lavarse.En el año 1235, Villard d’Honnecourt escribe un libro con bocetos que incluyen secciones de dispositivos mecánicos, como un ángel autómata, e indicaciones para la construcción de figuras humanas y animales.
Este es el autómata más antiguo que se conserva en la actualidad, formaba parte del reloj de la catedral de Estrasburgo y al dar las horas movía el pico y las alas.
Durante los siglos XV y XVI algunos de los más relevantes representantes del Renacimiento se interesan también por los ingenios descritos y desarrollados por los griegos. Este autómata con forma de moje, andaba y movía la cabeza, ojos boca y brazos.
Salomón de Camus también construyó fuentes ornamentales y jardines placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza.Los alimentos los digería por disolución y se conducía por unos tubos hacia el ano, donde había un esfínter que permitía evacuarlos.
Vaucanson también construyo varios muñecos animados, entre los que destaca un flautista capaz de tocar melodías. El ingenio consistía en un complejo mecanismo de aire que causaba el movimiento de dedos y labios, como el funcionamiento normal de una
Por instigación de Luis XV, intento construir un modelo con corazón, venas y arterias, pero murió antes de poder terminar esta tarea.
También construyo muchos objetos útiles para la industria como una silla para los tejedores, pero eso suscito el disgusto de los manufactureros de seda franceses, quienes lo amenazaron de muerte.
Estos se conservan en el museo de arte e Historia de Neuchâtel, Suiza.
Construyen un mecanismo “mágico” que responde preguntas y un pájaro que canta en una caja.
Estas máquinas constituyeron los primeros precedentes históricos de las máquinas de control numérico.
Algo más tarde que en la industria textil, se incorporan los automatismos en las industrias mineras y metalúrgicas. El primer automatismo que supuso un gran impacto social, lo realiza Potter a principios del siglo XVIII, automatizando el funcionamiento de una máquina de vapor del tipo Newcomen.
Automatismos industriales.
La definición de autómata que aparece en la real academia índica que un autómata es una “máquina que imita la figura y los movimientos de un ser animado”.En las dos últimas décadas se han abandonado las tecnologías cableadas sustituidas por los autómatas programables.
Inicialmente Halder desarrolló su campaña dentro de Ford, pero se extendíó por si sola al rest o de la industria americana, establecíéndose un debate sobre su aplicación en la industria y las consecuencias sociales que esto conllevaría. Se vertieron opiniones, no sin falta de razón, de que el objetivo final era sacar al ser humano fuera del proceso productivo, prediciendo que una gran cantidad de personas se quedaría sin trabajo.
La automatización supondría “la segunda revolución industrial”.
No fue hasta la década de los sesenta que se dispuso de herramientas como las redes de Petri, para el diseño y análisis de automatismos secuenciales y concurrentes.
Tecnologías cableadas.
Las primeras tecnologías disponibles para implementar controladores de sistemas de eventos discretos, se basaban en la aplicación de tecnologías cableadas, lo que de denominaba automatismos cableados. Se utilizaban principalmente las tecnologías neumática y electromecánica.
Los nuevos productos desarrollados incorporan como sistema de mando, en el caso de algunas máquinas pequeñas, circuitos de relés electromagnéticos, pero la mayoría esta comandada por autómatas programables.
Aunque han sido prácticamente sustituidos por autómatas programables, se siguen utilizando alrededor de ellos en particular para realizar los circuitos de seguridad.
El desarrollo de los autómatas programables.
Dentro de estos armarios se construía mediante circuitos de relés electromagnéticos la inteligencia que controlaba el proceso de
Esta tecnología funcionaba y por supuesto se fabricaban coches pero también poseía una gran problemática.
La tecnología cableada no era muy adecuada para implementar sistemas de control complejos.
Los elementos que la forman eran electromecánicos ( en el caso de los relés), lo cual implica un número no ilimitado de maniobras (rompen) y la necesidad de implantar logísticas de mantenimiento preventivo.
Ofrecían una gran dificultad para la búsqueda de averías (un cable que no hace contacto sigue estando visualmente junto al tornillo). Para facilitar la localización de averías se instalaban contactores y relés que señalizarán los fallos.
A veces se debían realizar conexiones entre cientos o miles de relés, lo que implicaba un enorme esfuerzo de diseño y mantenimiento.
Cuando se cambiaba el proceso de producción cambiaba también el sistema de control.
A finales de los años cincuenta los fabricantes de automóviles necesitaban nuevas y mejores herramientas de control de la producción. La solución fue el empleo de una técnica de programación familiar y reemplazar los relés mecánicos por relés de estado sólido.
Bedford Associates propuso un sistema de control denominado Controlador Digital Modular (Modicon, Modular Digital Controler) al fabricante de automóviles General Motors.
El MODICON 084 resultó ser el primer PLC del mundo en ser producido comercialmente.
Por cada modelo de microprocesador había un modelo de PLC basado en el mismo.
El primer bus de comunicaciones fue el Modbus de Modicon. El PLC podía ahora establecer comunicación e intercambiar informaciones con otros PLC’s.
La implantación de los sistemas de comunicación permitíó aplicar herramientas de gestión de producción que se ejecutaban en miniordenadores enviando ordenes de
A su vez estos los autómatas de control envían el estado de la producción al autómata de gestión.
Hoy día el PLC más pequeño es del tamaño de un simple relé.
Análisis y formalización de los automatismos lógicos industriales.
Recordando su definición:
Los sistemas de eventos discretos son sistemas en los que el tiempo y los estados son continuos. El estado del sistema puede variar instantáneamente en instantes separados de tiempo. En un intervalo de tiempo finito no puede haber un número infinito de cambios de estado. Otra herramienta disponible para la descripción de automatismos combinatorios son los programas de decisiones binarias desarrollados por C.Y. Lee en 1959.
Los automatismos provistos de una cierta capacidad de memoria, los sistemas secuenciales, se empezaron a estudiar a partir de los años 40. El primer método formal orientado a la síntesis de sistemas secuenciales se debe a Huffman. La idea básica de este método es construir un sistema secuencial a partir de uno combinatorio realimentado. Pero se encuentra con un gran escollo tecnológico que fácilmente se comprenden al observar que los circuitos combinatorios se modelan mediante Álgebra de Boole, y esta no recoge más que
El álgebra de Boole no puede modelar la “dinámica” de los sistemas secuenciales.
Unger fue el primero que demostró la imposibilidad de la eliminación de aleatoriedades por métodos puramente lógicos.
La complejidad que van adquiriendo algunas aplicaciones, sobre todo las desarrolladas en la industria del automóvil hacen que los diseñadores sean incapaces de dominar completamente el problema, por lo que en el proceso de implantación de los automatismos se invertía gran cantidad de tiempo en realizar verificaciones que permitan la detección de errores. La inaplicabilidad del método de Huffman hacía que la mayor parte de los desarrollos industriales se basaran en la experiencia e intuición del ingeniero, lo cual se mostraba insuficiente para abordar los sistemas complejos y concurrentes.
El ingeniero carecía de herramientas que le permitieran obtener un modelo del sistema y analizar su comportamiento. Se podría decir que estaban en la misma situación que los ingenieros de control de los años veinte antes de que Nyquist escribiera su artículo, aunque algunos opinen que el paralelismo se debe hacer con Maxwell.
La potencia de la herramienta es enorme y se aplica en el análisis y modelado
Este mismo año tuvimos el honor de asistir a la investidura del profesor Petri como Doctor Honoris Causa por la Universidad de Zaragoza.
Control Industrial.
En este apartado haremos referencia a la situación actual de la tecnología de los sistemas de control por computador aplicada al control de sistemas continuos y de sistemas de eventos discretos. Se abordará en detalle algunas implementaciones industriales muy difundidas como pueden ser los reguladores industriales, los autómatas programables, y los microprocesadores especializados en el control de máquinas eléctricas (justificado por el encuadre de las asignaturas objeto del proyecto docente dentro de la Especialidad de Electrónica Industrial). Por último se dedica un apartado a analizar la nueva tendencia existente en el control industrial: el control basado en la plataforma PC.
En el momento presente se puede afirmar que la casi totalidad de los procesos industriales están controlados mediante computador. Igualmente sucede con los procesos de fabricación en los que están implicados sistemas de eventos discretos. Los sistemas de control cableados o analógicos, apenas son instalados en la actualidad. No obstante, los controles analógicos siguen funcionando en muchas industrias de nuestro entorno, y seguirán haciéndolo mientras sea más caro acometer el proceso de sustitución que supone la parada de la máquina durante algunos días.
Los avances en el desarrollo de herramientas software ha contribuido a la reducción del coste del proyecto e implantación de los sistemas basados en control por computador. En la última década se ha desarrollado mucho la tecnología de control aplicada a la Robótica y de sistemas de control jerarquizado mediante redes de autómatas y ordenadores.
En el control de procesos continuos actualmente se puede encontrar multitud de formas tecnológicas:
Reguladores PID Industriales. Autómatasprogramables con funciones de regulación incorporadas en su lenguaje tales como los Simatic S7 de Siemens y los TSX Micro de Telemecánica.
Autómatasprogramables con CPU´s orientadas al control de procesos, tales como los autómatas Premium PMX y los autómatas Quantum de Modicon.
Computadores industriales dotados de tarjetas de adquisición de datos, con aplicaciones de control desarrolladas en lenguajes de alto nivel como el ADA.
Computadoresindustriales dotados de tarjetas de adquisición de datos, con aplicaciones dedicadas al control, configurables por el usuario, tal como Labview de National Instruments.
En el control de sistemas de eventos discretos también se pueden encontrar varias formas tecnológicas:
Autómatas programablesclásicos Autómatas programablesdistribuidos Control basado en PC.
Reguladores industriales
Los reguladores industriales son computadores de propósito específico dedicados al control de procesos continuos. Los últimos reguladores industriales que han salido al mercado disponen de toda una gama de funcionalidades.
Como función de regulación principal incorpora la clásica PID, pero también incorporan la función Modelo de Referencia que obtiene mejores resultados en el caso de sistemas con excesivo retraso. También se encuentran funciones de regulación simples como es el control on-off de dos estados y de tres estados. Incorporan la posibilidad de control de ratio, control selectivo, control de gama partida y la función calor/frío.
Disponen de funciones auxiliares sobre la medida, como puede ser el filtrado, la extracción de la raíz cuadrada (sensores de caudal), generadores de función para linealizar la señal de sensor.. Incorporan el control de campo con funciones de ajuste de la rama feed forward y la posibilidad de actuar con salidas todo o nada en función PWM y en función SERVO.
En definitiva, toda una serie de funcionalidades que ayudan al operario de los procesos industriales a configurar rápidamente la aplicación.
Autómatas programables
Los autómatas programables ya no se pueden definir solamente como los controladores de máquinas secuenciales, que ejecutan un programa en lenguaje de estados. En la última década en el campo de la Automatización Industrial se ha incorporando toda una gama de nuevas funcionalidades, que han superado el tradicional concepto de controlador secuencial, para pasar a realizar funciones especializadas como regulación de procesos continuos, comunicación mediante redes industriales, incorporar novedosos sistemas de cableado distribuido mediante los buses de campo. En el mercado se dispone de módulos especializados en pesaje, control de ejes, identificadores de productos…
Figura 28. Nuevas funciones de los autómatas programables
No solo se han producido avances en los lenguajes de programación sino también en los sistemas de ejecución de los programas. Estas tareas pueden ser del tipo:
Tareamaestra.La tarea maestra siempre está presente y puede ser cíclica o periódica. En esta tarea es donde se programa el clásico tratamiento secuencial.
Tarea rápida. Los programas asociados a esta tarea deben ser de corta duración para no retardar la ejecución de la tarea maestra. Tareas de eventos.Tratamientos de eventos, ejecutados por el sistema al aparecer un evento en un módulo de entradas, en un contaje rápido… Estos tratamientos se programan opcionalmente y son utilizados en aplicaciones que necesitan tiempos de respuestas muy cortos para actuar sobre las salidas.
En algunos modelos de autómata existen las llamadas tareas auxiliares que se ejecutan con prioridad más baja que la tarea maestra. Son tareas destinadas a los tratamientos más lentos como son la medida, la regulación, el diálogo operador, la ayuda al diagnóstico.
– Prioridad de Ejecución +
Figura 29 Ejecución de tareas en un autómata programable
La prioridad de ejecución de las tareas es, de mayor a menor:
Tareas de eventos. Tarea rápida. Tareamaestra. Tareas auxiliares. Operaciones de sistema.La evolución en el hardware de los autómatas también ha sido notable. La estructura interna ha pasado de ser monoprocesador a multiprocesador con procesadores especializados en tareas específicas de comunicación, de cálculo booleano, de control de
En las gamas altas, con el objeto de mejorar la seguridad de funcionamiento, se pueden encontrar modelos con doble unidad central, donde la segunda unidad garantiza la continuidad del control en el caso de que falle la unidad maestra.
Los sistemas de cableado tradicionales hilo a hilo van siendo sustituidos por módulos de entrada/salida distribuidas o por buses de campo como el AS-i Interface que permiten la conexión directa de captadores y accionadores.
Lenguajes de programación de autómatas.
Marcas como Siemens lo siguen suministrando como opción principal y existe un gran número de programadores que lo utilizan e incluso lo prefieren. Sus partidarios dicen que permite un mayor control de la máquina, sus detractores opinan que ese mayor control se refiere al autómata, no a la máquina o proceso controlado. En definitiva, aleja al programador del problema real.
El lenguaje de contactos se debe considerar el más universal de todos, dado que lo incorporan prácticamente todos los fabricantes de autómatas.
El Grafcet ha contado con un gran apoyo por parte del gobierno y de los fabricantes franceses entre ellos Telemecánica.
El Grafcet se desarrolló en las décadas de los setenta y ochenta siendo en esta última cuando se incorpora el concepto de macroetapa.
El objetivo de este comité era responder a la complejidad creciente de los sistemas de control y a la diversidad de autómatas
De dicho comité se definíó la norma 61131 cuyos diversos apartados son:
IEC 61131-1 (1992-10). Parte 1: Información general.
IEC 61131-2 (1992-10). Parte 2: Especificaciones y ensayos de los equipos.
IEC 61131-3 (1993-03). Parte 3: lenguajes de programación.
IEC/TR3 61131-4(1995-03).
Autómatas programables. Además se están definiendo las siguientes:
IEC 61131-5 Ed. 1.0. Parte 5: Comunicaciones.
IEC 61131-6 Ed. 1.0. Parte 6: Comunicaciones vía buses de campo.
IEC 61131-7 Ed. 1.0. Parte 7: Programación del control Fuzzy.
IEC 61131-8 TRTR Ed. 1.0.
Guías para la aplicación e implementación de lenguajes para autómatas programables.
La norma define los lenguajes de programación de autómatas:
Gráfico secuencial de funciones (Grafcet).
Lista de instrucciones.
Texto estructurado.
Diagrama de contactos.
Diagrama de funciones. Este lenguaje es adecuado para pequeñas aplicaciones y para optimizar partes de una aplicación.
El lenguaje posee soporte para bucles iterativos, ejecuciones condicionales y funciones matemáticas
El diagrama de funciones (function block diagram o FBD) es un lenguaje gráfico que permite programar elementos que aparecen como bloques para ser cableados entre sí de forma análoga al esquema de un circuito. FBD es adecuado para muchas aplicaciones que involucren el flujo de información o datos entre componentes de control.
El estándar también define una nueva arquitectura para la organización e interacción de tareas en los autómatas programables.
Existen instalaciones donde un autómata, denominado de gestión, recibe las ordenes de producción las procesa y se las transmite a los autómatas de control, a la vez recoge datos de planta y convenientemente tratados se los envía al ordenador central.
Un paso más allá ha sido la incorporación de funciones orientadas a la gestión de la comunicación, al diálogo con los módulos de control de ejes, con módulos de pesaje, función de control PID programable, y módulos de control PID configurables.
Estos Kits añaden al lenguaje las funciones necesarias para tratar con los objetos de autómata (entrada/salida, memoria, sistema, constantes…). Hay que observar que puede ser una buena opción pero realmente no ha tenido una gran difusión, siendo en la práctica no muy utilizada.
Los objetos OLE se comunican con variables de memoria del autómata en procesos de lectura o escritura.
Microprocesadores especializados en control de máquinas eléctricas.
Los microprocesadores son en estos momentos un elemento esencial en el desarrollo y mejora de los sistemas de control de las máquinas eléctricas. Están permitiendo el desplazamiento de los accionamientos de corriente continua por los de corriente alterna ofreciendo mejores prestaciones y a un precio muy similar.
Los microprocesadores especializados en el control de máquinas eléctricas disponen de conversores analógicos digitales para leer magnitudes tales como corriente, tensión, posición y velocidad. La precisión de los conversores A/D no debe de ser inferior a 10 bits y mejor si es de 12 y a velocidades de conversión de unos pocos microsegundos.
También disponen de interface serie para establecer comunicación con una estación PC y memoria Flash EEPROM, la cual sirve para salvaguardar el programa de aplicación de una forma sencilla, sin tener que recurrir a memorias no volátiles externas. La potencia y velocidad de cálculo de estos integrados hace posible que se implementen métodos de control avanzados de máquinas eléctricas tales como controles vectoriales o controles orientados a campo (FOC).Existe una gran cantidad de fabricantes que ofrecen soluciones para este campo de aplicación. A continuación hacemos un pequeño comentario sobre los productos que ofrecen tres de ellos, que nosotros consideramos principales.
Otros micros más modernos como el TMS 320×240 son específicos para el control de motores eléctricos (motores de inducción, reluctancia variable o motores síncronos de imanes permanentes).Tienen además un bloque específico para obtener la transformación de Park y de Clark imprescindible para el control vectorial.
Hitachi es el fabricante que tiene un mayor surtido de micros para el control de máquinas eléctricas destacan sus series SH1 y SH2 capaces de trabajar hasta 33 MIPS con 256kBytes de memoria Flash EEPROM y varios puertos de entrada salida.
Buses de campo.
Como bus de campo de nivel de sensores y actuadores cuenta con una gran implantación el bus AS-i Interface, respaldado fuertemente por Siemens.Por último el bus “independiente” Interbus, del fabricante Phoenix Contact, tiene una fuerte implantación en la industria del automóvil, por ejemplo Fasa Renault lo ha adoptado como el bus de campo de sus fábricas.
Integran la función clásica de bus de campo (nivel de captadores y accionadores) y la función de Red de comunicación (nivel de célula).En la versión AS-i Interface 2.0 se pueden conectar módulos de entrada/salida analógica y el número de esclavos se amplia de 31 a 63.
Por ejemplo, en los modelos superiores del autómata Premium, integran en la CPU el maestro del bus FIPIO, y se dispone de módulos que conectados en el rack del autómata permiten la conexión a buses de otros fabricantes como Profibus e Interbus.
Estas tarjetas son suministradas por el fabricante del bus, pero también por desarrolladores independientes.
Por ejemplo Profibus-DP, integra los servicios clásicos de un bus de campo dedicado al nivel de datos de proceso, es decir, datos de entrada-/salida, y Profibus-FMS integra los servicios clásicos de una red de comunicaciones como son la comunicación entre estaciones, envío de programas, intercambio de variables..
Ethernet.
Se pretende en definitiva que Ethernet se convierta en el estándar de la comunicación industrial, incluso en el ámbito de captadores y accionadores.
Empresas como Siemens con su Industrial Ethernet, Fisher Rosemount con su Web Plant o Modicon con su Transparent Factory, integran Ethernet en los sistemas de Automatización industrial. Estas propuestas pretenden dar una total transparencia a la comunicación y permitir la disponibilidad de los datos en tiempo real en los sistemas de comunicación industrial, teniendo como herramientas el protocolo TCP/IP y la incorporación de Internet al control industrial.
Fabricantes como Fisher-Rosemount, ABB, Foxboro y Rockwell Automation utilizan Ethernet para conectar controladores de planta y terminales de explotación en arquitectura centralizadas. En el nivel de campo, un pequeño grupo de fabricantes ha sacado al mercado tarjetas que permiten conectar los dispositivos de entrada/salida directamente a una red Ethernet o se conectan a un concentrador de entradas/salidas compatible con Ethernet.
Permitiendo de esta forma, que funciones como programación y supervisión se realicen a través de Internet.
Mediante Ethernet se pueden integrar PC´s, dispositivos de campo, controladores, periféricos, dispositivos inteligentes que coexisten en la misma red.
En muchos buses de campo, se tienen dos niveles de bus, uno para la comunicación entre estaciones y otro para el nivel de entrada/salida. Los sistemas de control podrán incorporar la potencia de los dispositivos distribuidos inteligentes de entrada/salida, haciendo uso de una tecnología altamente extendida y de bajo costo.
Control basado en PC.
Siemens en Europa y Allén Bradley en Norteamérica han hecho un buen negocio durante muchos años gracias a esta dependencia, sin olvidar a compañías como Onrom, Festo, Schneider Automation, Mitsubishi.
Fue en el sector de la industria del automóvil, uno de los sectores de mayor demanda en sistemas de control, donde primero fue adoptado el autómata. El norte de Estados Unidos, cuna de la industria automóvilística americana, comprobó pronto los beneficios de estos nuevos sistemas y también padecíó las consecuencias de la dependencia usuario- fabricante.
No es de extrañar que fuera también en esta industria y en este mismo lugar donde se comenzó a desarrollar la idea de buscar sistemas más abiertos y flexibles que liberaran al usuario del carácter propietario que los autómatas llevan asociado. A finales de los ochenta el PC era un elemento pasivo de los sistemas de control, pero ya se perfilaba como candidato a jugar un papel más importante.
Durante los últimos años de la década de los ochenta y primeros de los noventa, compañías como General Motors aprovechaban el paro de producción en verano para probar líneas de producción con los nuevos controladores, pero no fue hasta mediados de los noventa cuando dos grandes consumidores de sistemas de control se deciden a implementar la nueva tecnología en importantes líneas de fabricación. Una de ellas contaba con 800 computadores industriales.
Los sistemas de comunicación no eran muy fiables y muchas veces se restringían a la comunicación serie RS-232. Por lo cual, algunas compañías pensaron que la plataforma PC ofrecía más posibilidades a la hora de integrar las funciones clave de
un proceso de producción: visualización, optimización y control, recolección de datos del área de producción de la planta, al igual que almacenamiento y análisis de datos
Las primeras aplicaciones desarrolladas consistían en PC´s provistos de tarjetas de entradas/salidas digitales y/o analógicas. Las aplicaciones software se desarrollaban en lenguajes orientados al desarrollo de sistemas de control en tiempo real como el ADA, o lenguajes clásicos de programación como C. Constituían lo que se suele denominar sistemas empotrados de control.
Los maestros del bus pueden ser autómatas programables, pero también pueden serlo PC’s con tarjetas de comunicación incorporadas.Existen tarjetas para los buses Profibus, Interbus, AS-i…Para desarrollar el control desde el PC, se suministran los correspondientes drivers, para lenguajes de programación como Visual C++, Delphi, Visual Basic.
El software suministrado incluye ejemplos de programación y las librerías necesarias para los lenguajes Borland C++ 3.1, Turbo C 1.0, Microsoft C 7.0…
Con este sistema de control se tiene la posibilidad de desarrollar aplicaciones de control en lenguajes de programación de ordenadores que directamente se comunican con los elementos conectados a un bus industrial: módulos de entrada/salida, variadores de velocidad, terminales de visualización y explotación.
Las aplicaciones industriales cuyo control esta basado en un PC que actúa de maestro de un bus de campo, en el aspecto hardware, sólo se diferencian con el control basado en autómata/bus de campo en el maestro del bus.
También existen aplicaciones especificas como pueden ser Incontrol de Wonderware. Este software permite la realización de aplicaciones de control en tiempo real, programadas en lenguajes clásicos de autómata, pero que se ejecutan en un PC con sistema operativo Windows NT. De esta forma l