Teoría de los sistemas de control

Share Button

Evolución Histórica de la Ingeniería de Control

Primeros ejemplos históricos de sistemas de control.
Para lo cual se utiliza un flotador que regulaba la entrada  de  agua a un depósito auxiliar de manera que el nivel de este se manténía constante y por lo


El documento más antiguo encontrado donde  se menciona una Clepsydra es el registro de un procedimiento judicial donde se le nombra como una ayuda para asegurar que ambas partes dispongan del mismo tiempo para las alegaciones finales.

tenían ciertas dificultades para levantarse por la mañana, lo cual era fuente  de discusiones todos los  días. Es de suponer que ante el ruido de las bolas los “despiertos” alumnos terminarían por levantarse.


En la Clepsydra de la Figura  2 el caudal  suministrado  al depósito  b es  constante  por  lo cual este tardará en llenarse un tiempo determinado y fijo al final del cual las bolas caen sobre la bandeja ejerciendo la función de alarma.

Philon de Bizancio, construyo un sistema de regulación de nivel de una lámpara de aceite. Al quemarse el aceite de la lampara, el nivel del depósito  de aceite bajaba haciendo que entrará aire en otro  depósito  de forma que éste  suministraba  más aceite  al depósito  de la lámpara.

Con este sistema no se conseguía un nivel  constante  en  el depósito pero se aseguraba la recarga de este cuando el aceite se iba consumiendo.

En el primero describe varios sistemas realimentados y en el segundo presenta complicados aparatos que ejecutan un programa fijo.

Solo que subir o  bajar el nivel del flotador para decidir el nivel del depósito a.


El sistema  de la  Figura  6 también fue diseñado por Herón. Entonces el vino caía dentro de c procedente de un gran  depósito  e hasta que la altura de  y c hacía que el flotador volviera a tapar la válvula.

Heron también construye un Odómetro, un instrumento dedicado a medir la distancia recorrida por un vehículo.  El sistema  utilizado  era muy ingenioso  y consistía en una transmisión que cada vez que daba una vuelta la rueda final caía una bola en un contenedor. Solo había que contar el número de bolas para conocer la distancia recorrida.


En la Edad Media se desarrollan importantes  mejoras  técnicas  pero  en el campo de  los ingenios  dotados con realimentación  existen  pocos  desarrollos,  solamente  cabría   resaltar la realización de un sistema de control de un molino de harina realizado por H.U. Lansperg hacia el 1200, de forma que la cantidad de grano suministrada al molino dependía    de la fuerza del viento y la dureza del propio grano,  permitiendo  que el sistema funcionará  en condiciones óptimas, no se pretendía moler a velocidad constante.

El grano llegaba a la rueda de molienda a través de un alimentador con una pendiente muy pequeña, de forma  que  el  grano  no  se movía si el alimentador estaba en reposo.

El eje de la rueda moledora tenia una serie de aristas que golpeaban el alimentador. A cada golpe caía una pequeña cantidad de grano de forma que cuanto mayor fuera la


Por el simple equilibrio de energía se produce el efecto de la realimentación.

En el Siglo XVII se presentan diversos sistemas de regulación  de temperatura,  entre ellos los aplicados en el horno y la incubadora de Drebel. El principio utilizado en  la  regulación de temperatura es el siguiente, si la temperatura del horno sube se dilata  el contenido de un depósito de alcohol  de forma que se desplaza  un juego  de palancas  que  abre un orificio de salida de gases.

Lee inventa un sistema para controlar automáticamente la  orientación e inclinación de las aspas de los molinos de viento, de modo que se aprovechara mejor la dirección del viento. En esta patente [Lee 1745]  se describen dos mecanismos. El molinillo de cola, el cual no gira si no se encuentra en la dirección normal al viento, y por lo tanto no hace girar la cúpula del molino. Un variador automático del ángulo de ataque de las aspas. Con el que se podía regular la velocidad de giro de las aspas del molino.

Este segundo mecanismo no se llego  a  realizar  debido  a  su  complicación constructiva. El ingenio de Lee se implantó rápidamente en Inglaterra y en el norte de Alemania.

Este se combinaba con otro  ingenio  que  variaba el ángulo  de ataque  de las aspas  del molino,  de forma  que se controlaba  la  velocidad del molino.

La Revolución Industrial.

En el siglo II antes de Cristo Heron de Alejandría construyo la primera turbina  de  vapor conocida, la conocida como Aelopila de Heron.

Este y otros inventos, como la bomba de aire  de  Ktesibio,  solo  conocieron  aplicaciones lúdicas. En el Renacimiento se encontraron nuevas aplicaciones técnicas del


Tiempo después, el francés Denis Papín  diseñaría  una máquina de vapor donde la presión atmosférica jugaba un papel decisivo.


En el Siglo XVII se empezaron a desarrollar las  primeras  máquinas  de  vapor.  Al  calentar agua para producir vapor, este alcanza un volumen 2700 veces superior a la misma masa de agua líquida. Esta propiedad expansiva del vapor constituye el fundamento de la máquina que lleva su nombre, un ingenio que revolucionaría la sociedad occidental.

Pero su rendimiento era muy pobre, tan solo el 0.5% de la energía del combustible utilizado.

A pesar de ello, en 1760 había más de 100 máquinas trabajando.


El resultado  fue que se aumento el rendimiento de la máquina hasta el 4%.

Se debe remarcar que la invención de los reguladores centrífugos se le ha atribuido desde siempre a Meilke, el cual era el líder en el diseño e implantación de molinos, pero se reconoce que Meilke basó los diseños  de sus reguladores centrífugos  en el ingenio  patentado  por Mead  en 1787.

Watt sugiere inmediatamente la posibilidad de aplicar el mismo principio  para  controlar  la velocidad  de  las máquinas de vapor, y es probable que antes de final de año tuviera diseñado su primer regulador centrífugo.

Boulton y Watt hicieron lo posible para que el diseño de su regulador permaneciera secreto el máximo tiempo posible. Cuando la patente de Watt caduca en 1800, su regulador

Este regulador mecánico por medio de un sistema de palanca regulaba la cantidad de vapor suministrada por la caldera a la turbina de  la  máquina  de  vapor.  Este  invento  resultará ser de gran importancia en el desarrollo  histórico  de  la  Regulación  Automática, dado que incorpora el sensor y el actuador en un único ingenio, sin disponer de un amplificador de potencia que aislará el sensor del actuador. [Auslander 71]


No se puede afirmar que estos ejemplos aislados  supongan  la existencia  de algún  tipo de Ingeniería o Teoría de Control Automático,  dado  que  ni  siquiera  existían  las herramientas matemáticas necesarias para ello.

Los primeros reguladores de Watt funcionaron satisfactoriamente debido fundamentalmente al considerable rozamiento que presentaban sus mecanismos, haciendo

el sistema de por si estable. Sobre 1868 existían unos 75000 reguladores de Watt operando en Inglaterra.

Se les denominaban moderadores, no controladores.

Se aíslan sensor y accionador incorporando en medio  un amplificador  de Potencia.  Por lo tanto  los servomecanismos adoptan la estructura funcional que se mantiene hasta el presente.  Mientras  en  los  reguladores  de  Mead  y Watt el control era proporcional, en este ingenio el control pasa a  ser integral.

Los amplificadores de potencia mecánicos,  conocidos  en  el  contexto  del  control como servomotores, siguen  desempeñando  una función  fundamental  en los sistemas  de control. Farcot en su patente [Farcot 1868] hace una comparación entre su invento,    el servomotor y el jinete de un caballo:

“el jinete puede dirigir los músculos del caballo con pequeños movimientos de sus manos, busca que sus pequeñas intenciones se transformen en grandes fuerzas”

Farcot denominó su patente como “Servomoteur, ou moteur asservi” y de aquí  se  origina el término servomotor.


Los sistemas  mecánicos se desarrollan  hasta  1900,  entonces  son superados  por sistemas hidráulicos. Los motores eléctricos y el desarrollo de la electrónica adquieren gran relevancia durante la segunda Guerra Mundial,  desempañando  un gran  papel  en el desarrollo de la teoría clásica de control.

El problema de la estabilidad.

Pero hasta 75 años  después  de  la  muerte de Cauchy, no surgíó lo que se podría denominar la Teoría de Control.

Este  problema  era  bastante grave y atrajo a un gran número de importantes científicos e ingenieros.

La


Vischnegradsky también demostró la incapacidad de  un  regulador  proporcional para establecer un correcto comportamiento de un sistema de tercer orden.


Maxwell plantea de esta forma el problema general de estudiar la estabilidad de un sistema dinámico en función de la localización de las raíces de su ecuación carácterística. Hermite había publicado un trabajo sobre el mismo problema unos  años  antes  pero  no era muy conocido.

En este trabajo presenta por primera vez su conocido criterio de estabilidad.

Lo que no le faltaba a Routh era ironía en sus palabras.


Bompiani demostraría  en 1911 la equivalencia  de los criterios  de Routh  y Hurwitz  [Bompiani 11].


En  1889, Liapunov presenta sus trabajos sobre estabilidad, los cuales servirán de base    a la teoría moderna de control. Es importante  resaltar  la aportación de Heaviside,  aplicando el análisis impulsional en el estudio de los sistemas dinámicos. Heaviside es el primero que aplica el cálculo operacional a un amplio espectro de problemas de Ingeniería Eléctrica.


La importancia del control automático durante el final del siglo  XIX  y comienzos del XX se pone de manifiesto con la concesión en 1912 del Premio Nobel de Física al sueco  Dalen por su desarrollo de reguladores automáticos que se utilizan conjuntamente con los acumuladores de gas para balizas luminosas.

A finales del siglo  XIX  se encuentran asentadas  las  bases  necesarias  para  el desarrollo de Teoría de Control Automático, llevado a cabo durante este Siglo XX.

Control clásico.

Hasta bien entrado el Siglo XX las únicas herramientas analíticas que poseía el especialista en control eran la utilización de ecuaciones diferenciales ordinarias junto con criterios álgebraicos para determinar la posición de las raíces de la ecuación carácterística asociada. Aplicando  el criterio  de Routh  y Hurwitz  el ingeniero  determinaba  la estabilidad  o no de los sistemas, pero para esto se debía obtener el modelo matemático operando


Además ahí que destacar que el criterio  de Routh  y Hurwitz  no ofrece  información  de cómo  mejorar  la estabilidad del sistema.

Desde el punto de vista teórico, la Ingeniería de Control se empieza  a  consolidar  cuando se produce  el traslado  y aplicación  de los conocimientos  adquiridos  en  los problemas de amplificación de señales a los problemas de control industrial.

Estos estudios desembocan en la llamada Teoría Clásica de Control, en la cual se utililizaban como herramientas matemáticas los métodos de Transformación de Laplace y Fourier y la descripción externa de los sistemas.

Estudia la estabilidad y los efectos de los retrasos de la información sobre las salidas de los Sistemas.


Hazen en su publicación “Theory of Servomechanism” (1934) [Thaler 74], analiza el funcionamiento de los servomecánismos  utilizando  en su análisis   entradas  típicas   de escalón y rampa. En sus trabajos estudia el diseño de servomecánismos para posicionar ejes.

El desarrollo de las técnicas frecuenciales.

Destacan los trabajos de Nyquist (1932), Black (1934) y Bode (1940).

El suceso que realmente marca época en el desarrollo de los métodos de respuesta en frecuencia es la aparición de trabajo clásico de Nyquist sobre la estabilidad de


Su investigación surge de los problemas que presentaba la atenuación y distorsión de la señal en la telefonía a grandes distancias.

La atenuación de la señal a lo largo de las 3000 millas era de 60 dB, se redujo a 18dB utilizando seis amplificadores con una ganancia total de 42 dB.

Para mantener la inteligibilidad de la señal de audio transmitida  en distancias intercontinentales  se requería  una linealidad efectiva del amplificador muy lejos de la que la tecnología era capaz de dar (  una distorsión del orden del 0.005%).

Black de los laboratorios Bell quien propuso la idea de un amplificador realimentado, en su trabajo “Stabilized Feedback  Amplifiers”  [Thaler  74]  en  1934El  descubrimiento importante de Black fue que la elevada ganancia en un dispositivo amplificador no lineal y cuyos parámetros eran variables con el tiempo se podía negociar para conseguir una   reducción en la distorsión no lineal de manera que el sistema se comportase como  una ganancia lineal, estable  y precisa.  Black  utiliza  el criterio  de Nyquist  y llega  a interpretar una serie de fenómenos que se producen en los sistemas realimentados.

Algunos lo hacían cuando aumentaba la ganancia del lazo del amplificador  realimentado,  lo  cual  se  podía esperar, pero otros manifestaban estas carácterísticas cuando la ganancia se disminuía y esto si que era completamente inesperado.

Su descripción en términos de un  conjunto  de  ecuaciones diferenciales, como en el análisis clásico de los sistemas de control automático de origen mecánico era casi una tarea imposible a la vista  de las rudimentarias  facilidades  disponibles  en esos años para la solución por computador de tales ecuaciones.

El famoso trabajo  de Nyquist  resolvíó  este misterio,  abríó  totalmente  nuevas  perspectivas en la teoría de los mecanismos realimentados y por  lo  tanto  comenzó  una  nueva era en el Control Automático. Antes de 1932 el enfoque basado en las ecuaciones diferenciales había sido la gran herramienta del ingeniero del control;  en  la  década  que  siguió a la contribución de Nyquist estas técnicas fueron casi completamente reemplazadas


Más aún, el contorno del lugar de Nyquist daba una indicación inmediata  de cómo se podía  mejorar  la conducta  de  un sistema realimentado  que estaba muy poco amortiguado o que incluso era inestable simplemente modificando de una manera apropiada su carácterística de ganancia en lazo abierto en función de la frecuencia.

La oficina de patentes  británica, en palabras de Black, trató la aplicación “como si se tratase de una máquina de movimiento continuo”.

En otro de los trabajos clásicos que están en los fundamentos de la  Teoría  del Control, H. Bode realizó este análisis, extendiendo resultados previos de Lee y Wiener.

De esta forma fue capaz de dar  reglas para obtener la forma óptima de la ganancia del lazo en función de la frecuencia para  un amplificador realimentado.

En estos procesos la evolución  de  la  variable  controlada  era  tan lenta ( y lo sigue siendo) que el control se hacia mediante realimentación manual. Los  primeros pasos que se dan para controlar estos  procesos  son  la  incorporación  de instrumentos para supervisar la operación y registradores de plumilla.  El desarrollo  natural  fue utilizar el movimiento  de la plumilla  del registrador  para efectuar  una acción  de realimentación sobre las válvulas de control en la planta utilizando líneas de transmisión, amplificadores y transductores neumáticos.

Los primeros controladores de temperatura, ofrecían una acción de control de tipo on-off por medio  de un simple  mecanismo conmutador  o relé que pronto  se reveló


El máximo valor recomendado entonces para  la  banda  proporcional  era  del  cinco por ciento.


Durante los años 30 se desarrollaron completamente  estos  reguladores  neumáticos  y  se transfirió a este campo del control la idea de utilizar el término de acción integral que se venía empleando  desde  tiempo  en los sistemas  mecánicos.  El primer  regulador  de  temperatura con acción proporcional integral  fue  el Foxboro Stabilog patentado por Masón en 1931. Hay que hacer constar que en  un  principio  el  Stabilog no tuvo mucho éxito comercial, debido entre otras cosas a su precio y a que no era comprendido su funcionamiento.


La importancia de estas reglas de ajuste óptimo de controladores es enorme, siguen siendo vigentes y profusamente usadas en el  ámbito  del control de procesos industriales.

El trabajo de Ziegler y Nichols es pionero en el desarrollo de la  idea  de  control  óptimo, aunque su criterio de optimización, que consiste en minimizar la superficie de error absoluto, no se puede tratar analíticamente.

Un paso crucial en la transferencia de las técnicas utilizadas en el análisis de los amplificadores realimentados de los sistemas de telefonía a otras clases de sistemas fue realizada por H. Harris del MIT en su trabajo “The analisys and design of servomechanics” [Harris 42], en el cual introduce el uso de funciones de transferencia en el análisis de un sistema realimentado  general.  Esto permitíó  que un servomecanismo   mecánico   o  un sistema de control de un proceso  químico  se representasen mediante  diagramas  de bloques  y utilizasen las técnicas del dominio frecuencial.

Avances durante la Segunda Guerra Mundial.

Un gran estímulo para el desarrollo de la técnica lo  constituyen  las  guerras.  La Segunda Guerra Mundial supuso un gran impulso al desarrollo teórico y mucho más al desarrollo práctico, dada la fuerte necesidad  de sistemas de control  que funcionarán  como  los servos de los radares y el posicionamiento de cañones.

La Segunda Guerra Mundial creó una necesidad urgente para diseñar  servomeca- nismos de altas prestaciones y condujo  a grandes  avances  en la forma  de construir  sistemas de control realimentados. Las exigencias de la guerra enfocaron la atención  sobre  un  problema importante: el llamado problema de control de tiro, proporcionando una cadena automática de órdenes entre la detección del blanco, el apuntamiento del arma y el disparo. Este problema tiene tres etapas:

Detección y seguimiento del blanco. Predicción. Colocación del cañón en posición de disparo.

En el comienzo de la guerra, aunque cada etapa requería algunos operadores, cada   uno efectuando operaciones de seguimiento manual, había una considerable controversia en cuanto al valor operacional del control automático. Esto no es sorprendente ya que los


Cuando la guerra progresó, aumentó la velocidad de los blancos, el personal entrenado comenzó a escasear y la aparición de los radares de seguimiento mejoró notablemente la capacidad de predicción: era pues el momento para  que  el  control  automático se hiciese notar.

Vannevar Bush del Comité de Investigación de Defensa Nacional (NDRC).

El comité  era responsable  de la dirección  de la investigación  y de la  circulación de informes reservados a los grupos apropiados.

Los siguientes trabajos han sido recogidos en la colección [Thaler 74]:

Albores de la era espacial.

Desde siempre los procesos más complejos comandados por computador han sido las aplicaciones de control de vuelo aerospaciales. Tsiolkovsky (1857-1935), y el  alemán  Hermann  Ganswindt  (1856-1934)  que  criticaron  a los ast rónomos y matemáticos de la época que aseguraban que nunca jamás el ser humano poseería los medios para conseguir el control, la precisión y la velocidad necesaria para los vuelos en el espacio.

Uno de los primeros trabajos en este  campo  se debe  al alemán Hermann Orberth, que en su articulo “Die Rakete zu den Planetenräumen” (Cohetes en el espacio interplanetario)


publicado en 1923, afirma que para poder efectuar vuelos en el espacio, el hombre debe acceder a técnicas de control automático mucho más sofisticadas  que  las  disponibles  entonces. En su trabajo de 1929 “Wege zur Raumschiffahrt” (Métodos para volar en  el espacio) predice que el desarrollo de cohetes que dispongan de  la  suficiente  fuerza  propulsiva llevará largo tiempo y lo mismo sucederá con la necesaria tecnología de control automático. Para colocar un satélite orbitando sobre la tierra es necesaria una velocidad mínima de 7,904 kilómetros por segundo. Conocida como la velocidad de escape. Estas velocidades  resultaban  difíciles  de  imaginar para la época cuando un coche que circulaba a 100 Km./hora necesitaba cinco minutos para recorrer la distancia de ocho kilómetros. En otras palabras  el  cohete  debía  ir  a  una velocidad trescientas veces superior a la del coche.

Goddard publica en 1919 el primer  trabajo “A Method of Reaching Extreme Altitudes” donde se describen cohetes cuya combustión se basaba en oxígeno líquido.

Las primeras unidades desarrolladas para el  ejercito  alemán,  las  denominadas  A1  y A2, fueron destinadas principalmente al ensayo de sistemas de propulsión  y  control  de cohetes. Una vez se dispuso de unidades en funcionamiento, enseguida se observo que el principal problema a solucionar era mantener el sistema  estable.  Según  palabras  de  Willy Ley [Willy 44] los conocimientos que se poseían entonces sobre  la  estabilidad  de  los  cohetes “se podían escribir en una postal, dejando alguna parte en blanco”.

Para el desarrollo del tercer ingenio, la A3, la marina Alemana envió a un reconocido especialista en el problema  de estabilización  y alineamiento  de las torretas   de  tiro,   el clásico problema del control de la segunda Guerra Mundial. Sin embargo este ingenio no se terminó de construir  dado  que  el  mecanismo  de  control se revelo inadecuado. Después de  lo cual se desarrolla un nuevo sistema de control bastante avanzado para la  época.  Este sistema utilizaba  giróscopos  y acelerómetros  como elementos  sensores  y dispónía  de servomotores eléctricos que podían efectuar pequeños y precisos movimientos, construidos  en molibdeno, un material resistente a altas temperaturas, y encargados de controlar el suministro de gas a las turbinas del cohete.

Para estudiar la dinámica del sistema se construyo un  simulador  mecánico,  cuyo  diseño se basó en los registros obtenidos de los vuelos de los primeros ensayos mediante radiotelemetría (otro desarrollo pionero).  En  este  momento,  Willy  Ley  hubiera  necesitado al menos doce docenas de postales.

Esta concentración de esfuerzos en resolver los problemas de control y estabilidad condujo al desarrollo  de la unidad  A4, que Goebbels  después  denominaría  V2–V de Vergeltungswaffe (misil  de justo  castigo  o pena merecida).  Ya en las primeras pruebas


Nada más lejos de la realidad,  las pruebas  realizadas  por los investigadores  alemanes afirmaban que les era imposible controlar los misiles con la debida  precisión.  Los ingenios eran alineados hacia su objetivo (primero fue París  y  después  Londres),  pero  una  vez  habían sido lanzados era imposible modificar la trayectoria del misil.

También se traslado allí todo el equipo científico alemán que continuó con su labor de investigación.

El resto de la historia es de sobra conocida por todos nosotros. ¿Llegará alguno de nuestros hijos al Planeta Rojo?

Los años clásicos: 1945-1955

Desde el punto de vista del desarrollo de las técnicas de diseño de control automático,    el principal resultado de este gran esfuerzo y experiencia fue extender rápidamente la utilización de las ideas de respuesta en frecuencia a todos los campos  y producir así una  teoría unificada y coherente para los sistemas realimentados con un único lazo.

En este  trabajo  se da un enfoque radicalmente  distinto  del estudio  del problema del control, y supone el inicio de la conocida  como  teoría  estocástica clásica. Las aportaciones de Wiener consisten en  considerar  la  presencia  de  ruidos en las señales, e introduce también el concepto de control óptimo, cuyo  objetivo  consiste en minimizar un determinado criterio  que  define  la  calidad  del  control,  en  este  caso minimiza la superficie de error cuadrático [Wiener 49].

Todo ello, conduce a la formulación  de lo que se denominaría cibernética en su trabajo “Cybernetics” de 1948 publicado por el MIT press [Wiener 48].

A finales de la década de los cuarenta, surgen otras dos vías de desarrollo de la teoría   de control: el Método del modelo de Truxal [Truxal 54] y el método del lugar de las Raíces,


Se presentan también aportaciones como la  extensión  de  los  métodos  frecuenciales a sistemas no-lineales y a sistemas estocásticos.

Partiendo de las especificaciones deseadas se obtiene la función de transferencia que debe seguir el sistema de control. Pero se manifestaban en él algunas dificultades prácticas como podían ser  la  complejidad de los correctores que se obtienen, que dejaban de tener la estructura clásica  PID.

Los trabajos de Evans:

“Graphical Analysis of Control Systems” [Evans 48].

En palabras del propio autor “el lugar de las raíces determina todas las  raíces de la ecuación diferencial de un sistema de control por medio de una representación gráfica, la cual permite  una síntesis  rápida de la respuesta transitoria o  frecuencial  deseada”.

A su favor,  aporta  un método  gráfico  de estimar  la influencia de variaciones  en los parámetros  del sistema  o del regulador  sobre  la  estabilidad y el comportamiento dinámico de los sistemas.

Primeros pasos del control por computador.

Como la rotación de un radar de seguimiento solamente ilumina a su blanco de forma intermitente, muchos de los sistemas de control de tiro desarrollados durante  la  Segunda Guerra Mundial tuvieron que diseñarse para tratar con datos  que  estaban  disponibles  de forma pulsada o muestreada.

Los computadores desarrollando funciones de control de procesos son elementos que trabajan por ciclos. No trabajan en tiempo continuo sino en tiempo discreto. El computador necesita un tiempo para adquirir las entradas (mando y realimentaciones), calcular las  acciones, y para volcar las acciones sobre el sistema, que consiste en un proceso  de  conversión  digital-analógico.  Este ciclo se ejecuta cada cierto intervalo de tiempo o período   de muestreo por lo que los computadores trabajan  en tiempo discreto. Por lo tanto la teoría de los sistemas continuos desarrollada hasta entonces era inservible.

Las bases para un tratamiento efectivo de  los  sistemas  muestreados  fueron  establecidas por Hurewicz, quien desarrolló una extensión apropiada del  criterio  de estabilidad de Nyquist para este tipo de sistemas. El posterior desarrollo de las técnicas de cálculo digital iba pronto a conducir a un campo de investigación muy activo sobre tales sistemas discretos. Shanon en 1948 estudia los procesos de muestreo y reconstrucción de señales con presencia de ruido [Shanon 48].

Los sistemas de control digital que operan sobre plantas de naturaleza continua,  requieren técnicas de análisis que permitan que ambas clases de sistemas, continuos y discretos, así como sus interconexiones a través de interfaces  adecuadas  se  puedan  ver  desde un punto  de vista  unificado.  Este trabajo  lo desarrolló  Linvilí  en el dominio  transformado.

El impulso definitivo para el estudio de esta clase de sistemas se debe al grupo del Prof. Entre sus integrantes figuraban investigadores de la talla de Zadeh, Kalman, Jury, Franldin, Bertram, Bergen, Friedland, Slansky y Kranck entre otros.

Esto hace que se desarrollen  los estudios que pretenden  trasladar al campo discreto los resultados obtenidos para el campo continuo.

A finales de la década de los cincuenta, los trabajos de Jury en 1958, “Sampled data control Systems” con su criterio de estabilidad,  los  de  Ragazzini  y  Franklin  también  en 1958 con idéntico título al de Jury, y el trabajo de Tou de 1959 “Digital and Sampled Data Control Systems”  terminan  por definir  y establecer  la teoría  clásica  de los sistemas muestreados.

Teoría moderna de control.

Aparece un nuevo método de diseño de control, conocido a partir de entonces como teoría de control moderna. Se basaba en representar los sistemas en variables de estado o representación interna y trabajando casi exclusivamente en el dominio del tiempo.

Destacan los  trabajos  de Aizerman, Lerner, Lurie, Pontryagin, La Salle, Popov, Minorsky, Kabala y Bellman.

La teoría de control moderna esta basada en el concepto de estabilidad de Liapunov presentado a finales del Siglo XIX. Los trabajos desarrollados por Lurie  sobre servomecanismos de posicionamiento de torretas de tanques dieron lugar al concepto de estabilidad absoluta, generalizada después por Popov  con el concepto de hiperestabilidad,  que considera no linealidades en la realimentación.


En el desarrollo de estos métodos se deben destacar los trabajos de Pontryagin, La Salle, Bellman y Kalman.

Kalman efectúa la resolución de los problemas de control óptimo cuadrático y lineal cuadrático gaussiano.

Al final de los sesenta y comienzo de los setenta se presenta el enfoque geométrico del problema de control, que utiliza métodos del álgebra lineal. En paralelo se desarrollan los métodos de identificación de sistemas, por mínimos cuadrados y de máxima verosimilitud, este último fue desarrollado por  Fisher  en  1912 y aplicado en sistemas industriales por Åström y Bohlin en 1965.

Desde un punto de vista conceptual, las técnicas adaptatívas aparecen cuando se transvasan a la máquina comportamientos inherentes al hombre: La adaptación, no en términos de decisiones (conseguida con la realimentación simple), sino en término de estructuras para la decisión.

Las Estructuras de Control adaptatívas que han tenido mayor impacto técnico son:

Sistemas Auto-Ajustables. Sistemas Adaptativos con Modelo de Referencia (S.A.M.R.).

El concepto de regulador autoajustable fue propuesto inicialmente por Kalman,  utilizando un método de identificación  de mínimos cuadrados recursivos en  su  artículo “Design of a self-optimizing control system” [Kalman 58], otro sistema, basado en la minimización de la varianza de salida es desarrollado por Peterka en 1970, y por Åström y Witenmark en [Åström 73]. Se consideraba el problema en un entorno estocástico.

La técnica de los sistemas autoajustables se basa en que si se dispone de un método válido de diseño de reguladores que parte del conocimiento del modelo del proceso, para realizar un control  que  se  adapte  a los cambios en el proceso basta con acoplar ese método de diseño de reguladores con un procedimiento de identificación en línea. Este “calculador” consiste en un estimador recursivo de los parámetros del sistema o proceso controlado. Los resultados del estimador servirán para calcular los valores óptimos de los coeficientes del regulador.

Los Sistemas Adaptativos con Modelo de Referencia se basan en otro concepto muy simple: se desea que el comportamiento del  proceso  sea  “idéntico”  al de un modelo  que  se da como referencia. Si existe diferencia entre las salidas del proceso y del modelo un mecanismo  de  adaptación  intenta minimizarla con el ajuste de los parámetros del regulador,  o añadiendo una variación en la acción sobre el sistema físico.

De esta forma se pudo garantizar la estabilidad global del sistema adaptativo. The model reference aproach” [Landau 79] utiliza la teoría de la hiperestabilidad de Popov en el diseño de SAMR.

Quizás se pueda comenzar a hablar de una teoría unificada de los sistemas adaptativos.

El computador en el control de procesos industriales

La aplicación del computador en el control de procesos supone un salto tecnológico enorme que se traduce en la implantación de nuevos sistemas de control en el entorno Industria y posibilita el desarrollo de la navegación espacial. Desde el punto de vista de la aplicación de las teorías de control automático el computador no esta limitado a emular el cálculo realizado en los reguladores analógicos El computador permite la implantación de avanzados algoritmos de control mucho  más  complejos  como  pueden  ser  el control  óptimo o el control adaptativo. El objetivo en un principio era sustituir y mejorar los reguladores analógicos, pero este objetivo  se fue ampliando  dada  las capacidades de los computadores  en realizar un control integral de las  plantas  de fabricación,  englobando  también  la gestión  de la producción.

Aplicaciones del Computador.

Las principales aplicaciones industriales del computador son:

Adquisición de datos


. Consiste en la recogida, tratamiento y almacenamiento  de los datos.

Supervisión

. En esta función el  computador  no  efectúa  directamente  el  control de proceso. La principal función es la ayuda al operador de


El computador suministra al computador unas informaciones elaboradas  como pueden ser alarmas, tratamiento de fallos, procedimientos de rearme.

Control secuencial

. En esta función el computador suele tomar la forma de autómata programable, en el cual se ejecutan programas de control de sistemas secuenciales.

Control analógico digital

. Es una forma de control que se utilizaba con los primeros computadores en la cual el computador se encargaba de elaborar la consigna de los bucles analógicos.

Control digital directo

. El computador ejecuta directamente el  control  del  proceso continuo. Toma la forma  de regulador industrial o de  computador  industrial con tarjetas de interface con el proceso.

Análisis de datos

. Función clásica de los computadores de gestión en el que se analizan los datos de producción por medio de herramientas de ofimática.

Evolución histórica de la tecnología del control por computador aplicada al control de sistemas continuos.

El desarrollo de la tecnología  del computador  aplicada  al control  de procesos industriales, recibíó a finales de los años cincuenta un gran impulso debido a que existían industrias como las refinerías de petrolíferas donde los procesos a controlar en este tipo de plantas son complicados. Los sistemas de control disponibles estaban bastante limitados, implicando en el proceso de fabricación a gran cantidad de mano de obra, como sucedía en     la Industria de producción de  papel. Los operarios eran quienes  decidían cuales eran las referencias de mando más adecuadas para el sistema de control analógico.

El primer trabajo sobre la aplicación del computador  al control Industrial  aparece  en un articulo realizado por Brown y Campbell en el año 1950.

Brown, G.S., Campbell, D.P.: Instrument engineering: its growth and promise in process-control problem [Brown 50].

En dicho artículo aparece un computador controlando un sistema mediante bucle de realimentación y prealimentación.  Los autores  asumen  que los elementos  de cálculo  y control  del  sistema deben ser computadores de cálculo analógicos, pero sugieren el posible  uso de un computador digital.

La iniciativa no parte  como  cabría suponer de la industria  del control y manufactura, sino de los fabricantes  de  computadoras  y  de  sistemas electrónicos que buscaban nuevos mercados para dar salida a productos que no se habían terminado de adaptar a las aplicaciones militares.
Pero este no era un sistema de control industrial. Su función era supervisar el correcto funcionamiento de la instalación.

El primer computador dedicado a control industrial se instaló en la refinería de Port Arthur, en Texas. La refinería comenzó a funcionar  controlada  en bucle cerrado  por computador el 15 de Marzo de 1959.

En los años 1957-1958 la compañía química Monsanto en cooperación con Ramo- Wooldridge estudian la posibilidad de instalar control por computador. En Octubre de 1958 deciden implantar un sistema de control en la planta de la ciudad de Luling, dedicada a la producción de amoniaco. Este sistema como otros muchos basados en el ordenador RW- 300 no realizaban un control digital directo sobre las plantas, sino que eran sistemas supervisores dedicados a calcular las referencias óptimas de   los reguladores analógicos. Este sistema se denomina control analógico-digital  (DAC)  o  control supervisor. Se debe observar que este esquema de control fue protegido  por  una patente (EXNER Patent), lo cual ha limitado su aplicación.

En 1961 la Monsanto comienza a diseñar un control digital directo (DCC) para  una planta en Texas city y un sistema de control jerarquizado para el complejo petroquímico de Chocolate Bayou. En el control digital directo el computador controla  directamente  el  proceso, tomando medidas del proceso y calculando la acción a aplicar.

Comenzó a funcionar en Noviembre de 1962.

El sistema dispónía de 120 bucles de control y efectuaba la medida de 256 variables. En la instalación se sustituyeron los  antiguos  reguladores  analógicos  por  el  computador  digital que realizaba sus mismas funciones.

Esto llevo a que en un mismo  computador  se  implementarán  las  dos  tareas principales supervisión y control digital directo.

La tarea del control digital directo tenía que tener prioridad sobre la supervisión. Lo cual conllevaba que se tenia que descargar parte de la memoria del ordenador para cargar el código de la otra tarea.


En pocos años el número de ordenadores dedicados a control de procesos pasa de 5000  en 1970 a 50000 en 1975.

Un computador para un solo proceso.

En la década de lo sesenta la complejidad y prestaciones de los sistemas de control se incrementan gracias al empleo de circuitos  integrados  y  en  particular  los  microprocesadores.

El desarrollo en la década de los 70 del microprocesador permite que llegue a ser rentable el dedicar un computador para el control de un solo proceso. Aplicaciones del ordenador al control de procesos que antes no eran rentables instalarlas, dado que el control analógico era mucho más barato, se vuelven competitivas. Incluso esta reducción de costes permite que se empiecen a desarrollar sistemas de control por computador encargados de controlar una sola máquina eléctrica.

Además de la razón económica, una de las razones que impedía que se implantará los controles digitales sobre máquinas eléctricas era la excesiva rapidez de los accionamientos electromecánicos, con constantes de tiempo en muchos casos bastante inferiores al segundo (comparemos con los procesos  químicos).  Esto hacia  imposible  que un  computador  calculará el algoritmo de control en el período de muestreo marcado por el diseño del controlador.

Los primeros controles digitales se implantan sobre  máquinas  de  corriente  continua, que presentan un modelo matemático muy sencillo de tratar. Los esfuerzos se vuelcan en el desarrollo de controles  digitales  sobre  motores  síncronos  y asíncronos  que permitieran obtener a los accionamientos prestaciones de precisión  y dinámica de par comparables a los  de continua, con el objeto de utilizar un motor mucho más barato (asíncrono) que no  presentará los problemas de los motores de continua.

Los primeros controles digitales consistían en la simple emulación programada de los algoritmos de control clásicos, pero la aplicación de las modernas técnicas del control ha permitido desarrollar aplicaciones de control vectorial, las cuales, en accionamientos de motores asíncronos proporcionan una calidad en la respuesta dinámica superior a los accionamientos de motores de corriente continua. En el momento actual existe toda  una amplia gama de microcontroladores especializados en el control de máquinas eléctricas.

Control en tiempo real.

Los requisitos del control de tiempo real se manifiestan en una de sus carácterísticas principales: las restricciones  temporales  a que esta sometido.  Estas  son inherentes  al funcionamiento de los sistemas de tiempo real. Para tareas periódicas de control, vienen impuestas por el período de muestreo con que se debe ejecutar el algoritmo de control. Para otro tipo de tareas periódicas como pueden ser tareas de tratamiento de  datos,  tareas  gráficas o de supervisión, tareas de comunicación los restricciones temporales no son tan estrictas y muchas  veces  el diseñador  de las aplicaciones dispone de  un  margen  donde elegir.

Estas restricciones  temporales  también  implican  prioridad  de ejecución,  siendo  comúnmente las tareas dedicadas al control  las más frecuentes y por lo tanto  las que se  deben ejecutar con mayor prioridad, interrumpiendo en el caso de los sistemas monoprocesadores a todas las demás  tareas.  También  pueden  existir  tareas  de control que se ejecuten con períodos grandes como en las aplicaciones de control  de variables lentas  como la temperatura, existiendo algunas otras tareas con períodos de ejecución menor. Pero     la tarea de control es la más crítica dado que es la que actúa de interface con el proceso  y  debe garantizar su correcto funcionamiento.

Para las tareas activada como respuesta  a eventos, las restricciones  vienen impuestas por los márgenes de seguridad y buen funcionamiento del proceso a controlar. Por ejemplo    las acciones que se deben producir ante la aparición de una parada de emergencia, deberán producirse en un tiempo mínimo que intente garantizar al máximo la seguridad  de  los  operarios en primer lugar y del proceso controlado en segundo lugar.

Las aplicaciones de control militar, misiles, sistemas de tiro, sistemas anti-misiles se pueden considerar igual o más  críticas  que  algunas  aplicaciones  industriales (no olvidemos las centrales nucleares).  Por lo cual se establece  también  la necesidad  de que los sistemas  de control de tiempo real incorporen mecanismos  que  garanticen  una  alta  tolerancia  a  fallos.

Se puede establecer una nueva clasificación entre sistemas de tiempo real críticos y acríticos. Los sistemas de tiempo  real  críticos  son  aquellos  en que  los  plazos  de respuesta de todas las tareas deben respetarse bajo cualquier circunstancia. En estos sistemas el incumplimiento de un plazo  de respuesta,  podría acarrear un mal funcionamiento o un accidente en el proceso o aplicación militar controlada. En los sistemas de tiempo  real  acríticos se puede incumplir ocasionalmente el plazo de respuesta de alguna tarea.

Hilando más fino, en un sistema de tiempo real se debe distinguir entre tareas críticas (control, emergencia…) y acríticas (representación gráfica, tratamiento de datos)

Hardware y software de los sistemas de tiempo real.
Así se van desarrollando periféricos especializados como tarjetas de adquisición de datos con conversores analógico/digitales y digitales/analógicos. Tarjetas con relojes de alta precisión que unidos a sistemas de interrupciones evolucionados permiten atender correctamente los requisitos temporales de las aplicaciones de control en tiempo real.

En los años 70 se desarrollan nuevos sistemas de computación repartidos que podían adoptar estructuras  centralizadas o  distribuidas.  En  los  sistemas  centralizados  las  decisiones del control las toma el computador central, pero alrededor de él se acoplan  una  serie de periféricos,  algunos de ellos especializados  capaces  de  realizar   determinadas  tareas. Estos periféricos intercambian datos con y reciben ordenes del ordenador central por medio de una red de comunicaciones.

Los sistemas descentralizados o distribuidos consisten en un conjunto de unidades de control que pueden tomar decisiones autónomas,  intercomunicándose  por medio de una red de comunicaciones.


Desde el punto de vista del software los lenguajes y también las metodologías de desarrollo de las aplicaciones deben suministrar las herramientas  y  mecanismos  necesarios para que los sistemas de control de tiempo real cumplan todas las carácterísticas de restricciones temporales, tolerancia a fallos y seguridad de funcionamiento.

A estos lenguajes se  le añade una serie de funciones y mecanismos: Funciones para ejecución en tiempo real ( run time system, tareas…)

Bibliotecas de funciones software que dan al programador un cierto nivel de comodidad a la hora de trabajar con la interface del proceso o con el control del tiempo de ejecución. Compiladores que generen un código eficaz. Además permiten el acceso a recursos de bajo nivel evitando el uso del ensamblador.

Es un lenguaje que se muestra adecuado para el  desarrollo  de  aplicaciones  de  tamaño pequeño a medio. No es adecuado para el desarrollo de grandes aplicaciones.

El lenguaje que se ha convertido en un estándar para el desarrollo de sistemas de tiempo es el lenguaje ADA.

Sus principales carácterísticas son:

Soporta tecnologías de software avanzadas. Incluye concurrencia, tiempo real, acceso a recursos de bajo nivel y un potente tratamiento de excepciones.

Transportabilidad, legibilidad, eficiencia,seguridad.

ADA es un lenguaje definido  para el desarrollo  y programación  de aplicaciones complejas como pueden ser las aplicaciones de control de ingenios militares. También se definieron  anexos especializados en aplicaciones distribuidas,  sistemas  de información…

Autómatas en la historia.

Cabe mencionar que los árabes fueron unos maestros en la construcción de autómatas y en la precisión de sus cálculos, y como ejemplo  de ello, se   puede mencionar que inventaron el reloj mecánico, así como sus grandes aportaciones a la astrología. También los ingenieros  griegos  aportaron  grandes  conocimientos  a  los autómatas, aunque su interés era más bien hacia el saber humano más que hacia las aplicaciones prácticas.

C., Amenhotep, hermano de Hapu, construye una estatua de Memon, el  rey  de Etiopía, que emite sonidos cuando la iluminan los rayos del sol al amanecer.

C., fué encontrado el tesoro de Chin Shih Hueng Ti consistente en una  orquesta mecánica de muñecos, encontrada por el primer emperador Han.


En el año 62 Heron de Alejandría describe múltiples aparatos en su libro “Autómata”. Todos ellos  fueron  diseñados  como juguetes,  sin mayor interés  por encontrarles  aplicación.  Sin embargo,  describe  algunos  como un molino de viento para accionar un órgano o un precursor de la turbina de vapor.

También se diseñan ingeniosos mecanismos como la máquina de fuego  que  abría puertas de los templos o altares mágicos como el de la  Figura  23  donde  las   figuras  apagaban el fuego de la llama.


En Roma existía la costumbre de hacer funcionar juguetes automáticos para deleitar a  los huéspedes. Trimalco ofrecíó en su famoso banquete, pasteles y frutas que arrojaban un chorro de perfume cuando se hacía una ligera presión sobre un príapo de pasta,  en cuyo  regazo estaban colocados pasteles y frutas.

Ejemplos de estos son diversos sistemas dispensadores automáticos de agua para beber o lavarse.

En el año 1235, Villard d’Honnecourt escribe un libro con bocetos que incluyen secciones de dispositivos mecánicos, como un ángel  autómata,  e indicaciones  para la construcción   de  figuras humanas y animales.

Este es el autómata más antiguo que se conserva en la actualidad, formaba parte del reloj de la catedral de Estrasburgo y al dar las  horas  movía  el pico  y las alas.


Durante los siglos XV y XVI algunos de los más relevantes representantes del Renacimiento se interesan  también  por los ingenios  descritos  y  desarrollados   por  los griegos. Este  autómata  con  forma  de  moje,  andaba  y  movía la cabeza, ojos boca y brazos.

Salomón de Camus también construyó fuentes ornamentales y jardines placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza.

Los alimentos     los digería por disolución y se conducía por unos tubos hacia  el  ano,  donde  había  un  esfínter que permitía evacuarlos.

Vaucanson también construyo varios muñecos animados, entre los que destaca un flautista capaz de tocar melodías.  El ingenio  consistía  en un complejo  mecanismo  de aire que causaba el movimiento de dedos y labios, como el funcionamiento normal de una


Por instigación de Luis XV, intento construir un  modelo  con  corazón,  venas  y  arterias, pero murió antes de poder terminar esta tarea.


También construyo muchos objetos útiles para la industria como una silla para los tejedores, pero eso suscito el disgusto de los manufactureros de seda franceses, quienes lo amenazaron de muerte.

Estos se conservan en el museo de arte e Historia de Neuchâtel, Suiza.

Construyen un mecanismo “mágico” que responde preguntas y un pájaro que canta en una caja.

Estas máquinas constituyeron los primeros  precedentes  históricos  de  las máquinas de control numérico.


Algo más tarde que en la industria textil, se incorporan los automatismos en  las industrias mineras  y metalúrgicas.  El primer  automatismo  que supuso  un gran impacto social, lo realiza Potter a principios  del  siglo  XVIII,  automatizando  el  funcionamiento  de una máquina de vapor del tipo Newcomen.

Automatismos industriales.

La definición de autómata que aparece   en la real academia índica que un autómata es una “máquina que imita la figura y los movimientos de un ser animado”.

En las dos últimas décadas se han abandonado las tecnologías cableadas sustituidas por los autómatas programables.


Inicialmente Halder desarrolló su  campaña  dentro  de  Ford,  pero  se  extendíó  por si  sola  al  rest o de la industria americana, establecíéndose un debate sobre su aplicación  en la industria y las consecuencias sociales que esto conllevaría.  Se vertieron opiniones,  no sin falta de razón, de que el objetivo final era sacar al ser humano fuera del proceso  productivo, prediciendo que una gran cantidad de personas se quedaría sin trabajo.

La automatización supondría “la segunda revolución industrial”.

No fue hasta la década de los  sesenta que se dispuso de herramientas como las redes de Petri, para el diseño y análisis de automatismos secuenciales y concurrentes.

Tecnologías cableadas.

Las primeras tecnologías disponibles para implementar controladores de sistemas de eventos discretos, se basaban en la aplicación de tecnologías cableadas, lo que de  denominaba automatismos cableados. Se  utilizaban  principalmente  las  tecnologías  neumática y electromecánica.

Los nuevos productos desarrollados incorporan como  sistema  de mando,  en el caso de algunas máquinas pequeñas, circuitos de relés  electromagnéticos,  pero  la mayoría esta comandada por autómatas programables.

Aunque han sido prácticamente sustituidos por autómatas programables, se siguen utilizando alrededor de ellos en particular para realizar los circuitos de seguridad.

El desarrollo de los autómatas programables.

Dentro de estos armarios se  construía  mediante  circuitos de relés electromagnéticos la inteligencia que controlaba el proceso de
Esta tecnología funcionaba y por supuesto se fabricaban coches pero también poseía una gran problemática. La tecnología cableada no era muy adecuada  para  implementar  sistemas  de control complejos. Los elementos que la forman eran electromecánicos ( en el caso de los relés), lo  cual implica un número no ilimitado de maniobras (rompen) y la necesidad de implantar logísticas de mantenimiento preventivo. Ofrecían una gran dificultad para la búsqueda de averías (un cable que no hace contacto sigue estando visualmente junto al tornillo).  Para  facilitar  la localización de averías se instalaban contactores y relés que señalizarán los fallos. A veces se debían realizar conexiones entre cientos o miles de relés, lo que  implicaba un enorme esfuerzo de diseño y mantenimiento. Cuando se cambiaba el proceso de producción cambiaba también el sistema de control.

A finales de los años cincuenta los fabricantes de automóviles necesitaban nuevas y mejores herramientas de control de la producción. La solución fue el empleo de una  técnica  de programación  familiar  y reemplazar  los relés mecánicos por relés de estado sólido.

Bedford Associates propuso un sistema de  control  denominado Controlador Digital Modular (Modicon, Modular Digital Controler) al fabricante de automóviles General Motors.

El MODICON 084 resultó ser el primer PLC del mundo  en ser producido comercialmente.

Por cada modelo de microprocesador había un modelo de PLC basado en el mismo.

El primer bus de comunicaciones fue el Modbus  de  Modicon.  El  PLC podía ahora establecer comunicación e intercambiar informaciones con otros PLC’s.

La implantación de los sistemas de comunicación permitíó aplicar herramientas de gestión de producción que se ejecutaban en miniordenadores enviando ordenes de


A su vez estos los autómatas de control envían el estado  de  la  producción  al autómata de gestión.

Hoy día el PLC más pequeño es del tamaño de un simple relé.

Análisis y formalización de los automatismos lógicos industriales.

Recordando su definición:

Los sistemas de eventos discretos son sistemas  en los que el tiempo y los estados   son continuos. El estado del sistema puede variar instantáneamente en instantes separados de tiempo. En un intervalo de tiempo finito no puede haber un número infinito de cambios de estado. Otra herramienta disponible para la descripción de  automatismos  combinatorios son los programas de decisiones  binarias  desarrollados  por  C.Y.  Lee  en  1959.

Los automatismos provistos  de una cierta capacidad de memoria, los sistemas secuenciales, se empezaron a estudiar a partir de los años 40. El primer método formal orientado a la síntesis de sistemas secuenciales se debe a Huffman. La idea básica de este método es construir  un  sistema secuencial a partir de uno combinatorio  realimentado.  Pero  se  encuentra  con  un gran escollo  tecnológico que fácilmente se comprenden al observar que los circuitos combinatorios se modelan  mediante  Álgebra  de Boole,  y esta no recoge  más que


El álgebra de Boole no puede modelar la “dinámica” de los sistemas secuenciales.

Unger  fue  el primero que  demostró la imposibilidad de la eliminación de aleatoriedades por métodos puramente lógicos.

La complejidad que van  adquiriendo  algunas aplicaciones,  sobre  todo  las  desarrolladas en la industria del automóvil hacen que los diseñadores sean incapaces de  dominar completamente el problema, por lo que en el proceso de implantación de los automatismos se invertía gran cantidad de tiempo en realizar verificaciones que permitan la detección de errores. La inaplicabilidad  del método de Huffman  hacía  que la mayor  parte  de los desarrollos industriales  se basaran  en la experiencia  e intuición  del  ingeniero, lo cual  se mostraba insuficiente para abordar los sistemas complejos y concurrentes.

El ingeniero carecía de herramientas que le  permitieran  obtener  un  modelo  del  sistema y analizar su comportamiento. Se podría  decir  que  estaban  en la misma  situación que los ingenieros de control de los años veinte antes de que Nyquist escribiera su artículo, aunque algunos opinen que el paralelismo se debe hacer con Maxwell.

La potencia de la herramienta es enorme y se aplica en el análisis y modelado
Este mismo año tuvimos el honor de asistir a la investidura del profesor Petri como Doctor Honoris Causa por la Universidad de Zaragoza.

Control Industrial.

En este apartado haremos referencia a la situación actual de la tecnología de  los  sistemas de control por computador  aplicada  al control  de sistemas  continuos  y de sistemas de eventos discretos. Se abordará en detalle algunas implementaciones industriales muy difundidas como pueden ser los reguladores industriales, los autómatas programables, y los microprocesadores especializados en el control de máquinas eléctricas (justificado por el encuadre de las asignaturas objeto del proyecto docente dentro de la Especialidad de Electrónica Industrial). Por último se dedica un apartado a analizar la nueva tendencia existente en el control industrial: el control basado en la plataforma PC.

En el momento presente se puede afirmar que la casi totalidad de los procesos industriales están  controlados  mediante  computador.  Igualmente  sucede  con  los  procesos de fabricación en los que están implicados sistemas de eventos discretos. Los sistemas de control cableados o analógicos, apenas son instalados en la actualidad. No obstante, los controles analógicos  siguen  funcionando  en muchas  industrias  de nuestro  entorno,  y seguirán haciéndolo mientras  sea  más  caro  acometer  el proceso  de sustitución que supone  la parada de la máquina durante algunos días.

Los avances en el desarrollo de herramientas  software  ha contribuido a la reducción  del coste del proyecto e implantación  de los sistemas basados  en control  por computador.  En la última década se ha desarrollado mucho la tecnología de  control  aplicada  a  la  Robótica y de sistemas de control jerarquizado mediante redes de autómatas y ordenadores.

En el control de procesos continuos actualmente se  puede  encontrar  multitud  de  formas tecnológicas:

Reguladores PID Industriales. Autómatasprogramables  con funciones  de regulación  incorporadas  en  su  lenguaje tales como los Simatic S7 de Siemens y  los   TSX   Micro  de  Telemecánica.

Autómatasprogramables  con CPU´s  orientadas  al control  de procesos, tales  como los autómatas Premium PMX y los autómatas Quantum de Modicon. Computadores industriales dotados de tarjetas de adquisición de datos, con aplicaciones de control desarrolladas en lenguajes de alto nivel como el ADA. Computadoresindustriales  dotados de tarjetas de adquisición de datos, con aplicaciones dedicadas al control, configurables por el usuario, tal como Labview   de National Instruments.

Sistemas distribuidos de control de última tecnología como Web Plant de Fisher Rosemount, que integran  buses  de campo  orientados  al control  de procesos industriales tales como Fieldbus. Sistemasde supervisión  y adquisición  de datos  con funciones  de regulación incorporadas, tales como Fix D´Macs de Intellution, Wincc  de  Siemens  y  Lookout de National Instruments.

En el control de sistemas de eventos discretos también se pueden  encontrar  varias formas tecnológicas:

Autómatas programablesclásicos Autómatas programablesdistribuidos Control basado en PC.

Reguladores industriales

Los reguladores industriales son computadores de propósito específico dedicados al control de procesos continuos. Los últimos reguladores industriales que  han  salido  al   mercado disponen de toda una gama de funcionalidades.

Como función  de regulación principal  incorpora  la clásica PID, pero también incorporan la función Modelo de Referencia que obtiene mejores resultados en el caso de sistemas con excesivo retraso. También se  encuentran  funciones  de  regulación  simples  como es el control on-off de dos estados y de tres estados.  Incorporan  la posibilidad  de control de ratio, control selectivo, control de gama partida y la función calor/frío.

Disponen de funciones auxiliares sobre la medida, como puede ser el filtrado, la extracción de la raíz  cuadrada  (sensores  de  caudal),  generadores de función  para linealizar la señal de sensor.. Incorporan el control de campo con funciones de ajuste de la rama feed forward y la posibilidad de actuar con salidas todo o nada en función PWM y en función SERVO.

En definitiva, toda una serie de funcionalidades que ayudan al operario de los procesos industriales a configurar rápidamente la aplicación.

Autómatas programables

Los autómatas programables ya no se pueden  definir  solamente  como  los controladores de máquinas secuenciales,  que ejecutan  un programa  en lenguaje  de estados. En la última década en el campo de la Automatización Industrial  se ha  incorporando  toda  una gama de nuevas funcionalidades, que han superado el  tradicional  concepto  de controlador secuencial, para pasar a realizar funciones especializadas como regulación de procesos continuos, comunicación mediante redes  industriales,  incorporar  novedosos  sistemas de cableado  distribuido  mediante  los  buses  de campo.  En el mercado  se dispone de módulos especializados en pesaje, control de ejes, identificadores de productos…


Figura 28. Nuevas funciones de los autómatas programables

No  solo  se  han  producido avances en los lenguajes de programación sino también en los sistemas de ejecución de los programas. Estas tareas pueden ser del tipo:

Tareamaestra.

La tarea maestra siempre está presente y puede ser cíclica o periódica. En esta tarea es donde se programa el clásico tratamiento secuencial.

Tarea rápida. Los programas asociados a esta tarea  deben ser de corta duración para no retardar la ejecución de la tarea maestra. Tareas de eventos.

Tratamientos de eventos, ejecutados por el sistema al aparecer un evento en un módulo de entradas, en un contaje rápido… Estos tratamientos se programan  opcionalmente y son utilizados en aplicaciones que necesitan  tiempos  de  respuestas muy cortos para actuar sobre las salidas.


Tareas auxiliares.

En algunos modelos de autómata existen las llamadas tareas auxiliares que se ejecutan con prioridad más baja que la tarea maestra. Son tareas destinadas a los tratamientos más lentos  como  son  la medida,  la regulación,  el diálogo  operador,  la ayuda al diagnóstico.

HtmlImg3.Gif–        Prioridad de Ejecución                          +

Figura 29 Ejecución de tareas en un autómata programable


La prioridad de ejecución de las tareas es, de mayor a menor:

Tareas de eventos. Tarea rápida. Tareamaestra. Tareas auxiliares. Operaciones de sistema.

 

La evolución en el hardware de los autómatas también ha sido notable. La estructura interna ha pasado de ser monoprocesador  a  multiprocesador  con  procesadores  especializados en tareas específicas de comunicación, de cálculo booleano, de control de


En las gamas altas, con el objeto de mejorar la seguridad de funcionamiento, se pueden encontrar modelos con doble unidad central, donde la segunda unidad garantiza la continuidad del control en el caso de que falle la unidad maestra.

Los sistemas de cableado tradicionales hilo a hilo van siendo sustituidos por módulos de entrada/salida distribuidas o por buses de campo como el AS-i Interface que permiten la conexión directa de captadores y accionadores.

Lenguajes de programación de autómatas.

Marcas como Siemens lo siguen suministrando como opción principal y existe un gran número de programadores que lo utilizan e incluso lo prefieren. Sus partidarios dicen que permite un  mayor  control  de  la  máquina,  sus detractores opinan que ese mayor control se refiere al autómata, no a la máquina o proceso controlado. En definitiva, aleja al programador del problema real.

El lenguaje de contactos  se debe considerar el más universal de todos, dado que lo incorporan prácticamente todos los fabricantes de autómatas.

El Grafcet ha contado con un gran apoyo por parte del gobierno y de  los  fabricantes  franceses entre ellos Telemecánica.

El Grafcet se desarrolló en las décadas de los  setenta y ochenta siendo en esta última cuando se incorpora el concepto de macroetapa.

El objetivo  de este comité  era responder  a la complejidad creciente de los sistemas de control y a la diversidad de autómatas


De dicho comité se definíó la norma 61131 cuyos diversos apartados son: IEC 61131-1 (1992-10). Parte 1: Información general. IEC 61131-2 (1992-10). Parte 2: Especificaciones y ensayos de los equipos. IEC 61131-3 (1993-03). Parte 3: lenguajes de programación. IEC/TR3 61131-4(1995-03).

Autómatas programables. Además se están definiendo las siguientes:

IEC 61131-5 Ed. 1.0. Parte 5: Comunicaciones.

IEC 61131-6 Ed. 1.0. Parte 6: Comunicaciones vía buses de campo.

IEC 61131-7 Ed. 1.0. Parte 7: Programación del control Fuzzy.

IEC 61131-8 TRTR Ed. 1.0.

Guías para la aplicación e implementación de lenguajes para autómatas programables.

La norma define los lenguajes de programación de autómatas:

Gráfico secuencial de funciones (Grafcet). Lista de instrucciones. Texto estructurado. Diagrama de contactos. Diagrama de funciones. Este lenguaje es adecuado para pequeñas aplicaciones y para optimizar partes de una aplicación.
El  lenguaje posee soporte para bucles iterativos, ejecuciones condicionales y funciones matemáticas

El diagrama de funciones (function block diagram o FBD) es un lenguaje gráfico que permite programar elementos que aparecen como bloques para ser cableados entre  sí  de forma análoga al esquema de un circuito. FBD es adecuado para muchas aplicaciones que involucren el flujo de información o datos entre componentes de control.

El estándar también define una nueva arquitectura para la organización e interacción  de tareas en los autómatas programables.

Existen instalaciones donde un autómata, denominado de gestión, recibe las ordenes de producción las procesa y se las transmite a los autómatas de control, a la vez recoge datos de planta y convenientemente tratados se los envía al ordenador central.

Un paso más allá ha sido la incorporación de funciones orientadas a la gestión de la comunicación, al diálogo  con los módulos  de control  de ejes,  con módulos  de pesaje, función de control PID programable, y módulos de control PID configurables.

Estos Kits añaden al lenguaje  las  funciones  necesarias  para tratar con los objetos de autómata  (entrada/salida,  memoria,  sistema,  constantes…).  Hay que observar que puede ser una buena opción pero realmente no ha tenido una gran difusión, siendo en la práctica no muy utilizada.

Los objetos OLE se comunican con variables de memoria del autómata en procesos de lectura o escritura.

Microprocesadores especializados en control de máquinas eléctricas.

Los microprocesadores  son  en estos  momentos  un elemento  esencial  en el desarrollo  y mejora de los sistemas de control de las máquinas eléctricas. Están permitiendo el desplazamiento de los accionamientos de corriente continua por los de corriente alterna ofreciendo mejores prestaciones y a un precio muy similar.

Los microprocesadores especializados en  el  control  de  máquinas  eléctricas  disponen de conversores analógicos digitales para leer magnitudes tales como corriente, tensión,  posición y velocidad. La precisión  de los  conversores  A/D  no debe de ser  inferior  a 10 bits y mejor si es de 12 y a velocidades de conversión de unos pocos microsegundos.

También disponen de interface serie para establecer comunicación  con una estación PC y  memoria  Flash  EEPROM,  la  cual  sirve para salvaguardar el programa de aplicación de una forma sencilla, sin tener que recurrir a memorias no volátiles externas. La potencia y velocidad de cálculo de estos integrados hace posible que se implementen métodos de control  avanzados  de  máquinas  eléctricas  tales como controles vectoriales o controles orientados a campo (FOC).

Existe una gran cantidad de fabricantes que ofrecen soluciones para este campo de aplicación. A continuación hacemos un pequeño  comentario  sobre  los  productos  que  ofrecen tres de ellos, que nosotros consideramos principales.

Otros  micros  más  modernos  como  el TMS  320×240  son  específicos  para el control de motores eléctricos (motores de inducción, reluctancia variable o motores  síncronos de imanes permanentes).

Tienen además un bloque específico para obtener la transformación de Park y de Clark imprescindible para el control vectorial.

Hitachi es el fabricante que tiene un mayor surtido de micros para el control de  máquinas eléctricas destacan sus series SH1 y SH2 capaces de trabajar hasta 33 MIPS con 256kBytes de memoria Flash EEPROM y varios puertos de entrada salida.

Buses de campo.

Como bus de campo de nivel de sensores y actuadores cuenta con una gran implantación el bus AS-i Interface, respaldado fuertemente por Siemens.


Por último el bus “independiente” Interbus, del fabricante Phoenix Contact, tiene una fuerte implantación en la industria del automóvil, por ejemplo Fasa Renault lo ha adoptado como el bus de campo de sus fábricas.

Integran la función clásica de  bus  de campo (nivel de captadores y accionadores) y la función de Red de comunicación (nivel de célula).

En la versión AS-i Interface 2.0 se pueden conectar módulos de entrada/salida analógica y  el  número  de  esclavos se amplia de 31 a 63.


Por ejemplo, en los modelos  superiores  del  autómata  Premium, integran en la CPU el maestro del bus FIPIO, y se dispone de módulos que conectados en el rack del autómata permiten la conexión a buses de otros fabricantes como  Profibus  e  Interbus.

Estas tarjetas son  suministradas  por  el  fabricante  del  bus,  pero también por desarrolladores independientes.

Por ejemplo Profibus-DP, integra los servicios clásicos de un bus de campo dedicado al nivel de datos de proceso, es decir, datos de entrada-/salida, y Profibus-FMS integra los  servicios  clásicos  de  una  red  de comunicaciones como son la comunicación  entre estaciones,  envío  de  programas, intercambio de variables..

Ethernet.

Se pretende en definitiva que Ethernet se convierta en el estándar de la comunicación industrial, incluso en el ámbito de captadores y accionadores.

Empresas como Siemens con su Industrial Ethernet, Fisher Rosemount  con su Web  Plant o Modicon con su Transparent Factory, integran Ethernet en los sistemas de Automatización industrial.  Estas  propuestas pretenden dar una total transparencia a la comunicación y permitir la disponibilidad de los datos en tiempo real en los sistemas de comunicación industrial, teniendo como herramientas el  protocolo  TCP/IP  y  la   incorporación de Internet al control industrial.

Fabricantes como Fisher-Rosemount, ABB, Foxboro y Rockwell Automation utilizan Ethernet para conectar controladores de planta y terminales de explotación en arquitectura centralizadas. En el nivel de campo, un pequeño grupo de fabricantes ha sacado al mercado tarjetas que permiten conectar los dispositivos de entrada/salida directamente a una red Ethernet o se conectan a un concentrador de entradas/salidas compatible con Ethernet.


Permitiendo  de esta forma,  que funciones  como  programación y supervisión se realicen a través de Internet.

Mediante Ethernet se pueden integrar PC´s, dispositivos de campo, controladores, periféricos, dispositivos inteligentes que coexisten en la misma red.

En muchos buses de campo,  se tienen dos niveles de bus, uno para la comunicación  entre estaciones y otro para el nivel de entrada/salida. Los  sistemas  de control podrán  incorporar  la potencia  de los dispositivos  distribuidos  inteligentes  de entrada/salida, haciendo uso de una tecnología altamente extendida y de bajo costo.

Control basado en PC.

Siemens en Europa y Allén Bradley en Norteamérica han hecho  un  buen  negocio durante muchos años gracias a esta dependencia, sin olvidar a compañías  como  Onrom, Festo, Schneider Automation, Mitsubishi.

Fue en el sector de la industria del automóvil,  uno de los sectores de mayor  demanda en sistemas de control, donde primero fue adoptado el autómata.  El  norte  de  Estados  Unidos, cuna de la industria automóvilística americana, comprobó pronto los  beneficios  de estos nuevos sistemas y también padecíó las consecuencias de la dependencia usuario- fabricante.

No es de extrañar que fuera también en esta industria y en este mismo lugar donde se comenzó a desarrollar la idea de buscar sistemas más abiertos y flexibles que liberaran al usuario del carácter propietario que los autómatas  llevan  asociado.  A finales de los ochenta el PC era un elemento pasivo de los sistemas de control, pero  ya  se  perfilaba  como  candidato a jugar un papel más importante.

Durante los últimos años de la década de los ochenta y primeros de los noventa, compañías como General Motors aprovechaban el  paro  de  producción  en  verano  para probar líneas de producción con los nuevos  controladores,  pero  no fue hasta mediados  de  los noventa cuando dos grandes consumidores de sistemas de control se deciden a  implementar la nueva tecnología en importantes líneas de fabricación. Una de ellas contaba con 800 computadores industriales.

Los sistemas de comunicación no eran muy fiables y muchas veces    se restringían a la comunicación serie  RS-232.  Por  lo  cual,  algunas  compañías  pensaron  que la plataforma PC ofrecía más posibilidades a la hora de integrar las funciones clave de

un proceso de producción: visualización, optimización y  control,  recolección  de  datos  del área de producción de la planta, al igual que almacenamiento y análisis de datos

Las primeras aplicaciones desarrolladas consistían en PC´s provistos de tarjetas de entradas/salidas digitales  y/o analógicas.  Las aplicaciones  software  se desarrollaban  en lenguajes orientados al desarrollo de sistemas de control en tiempo real como el ADA, o lenguajes clásicos  de programación  como C. Constituían  lo que se  suele   denominar  sistemas empotrados de control.

Los maestros del bus pueden ser autómatas programables, pero también  pueden  serlo PC’s con tarjetas de comunicación incorporadas.

Existen tarjetas para los buses Profibus, Interbus, AS-i…Para desarrollar el control desde el PC, se suministran los correspondientes drivers, para lenguajes de programación como Visual C++, Delphi, Visual Basic.

El software suministrado incluye ejemplos de programación y las librerías necesarias para los lenguajes Borland C++ 3.1, Turbo C 1.0, Microsoft C 7.0…

Con este sistema de control  se tiene  la posibilidad de desarrollar  aplicaciones  de control en lenguajes de programación  de ordenadores que directamente  se comunican  con  los elementos conectados a un bus industrial: módulos de entrada/salida, variadores de velocidad, terminales de visualización y explotación.

Las aplicaciones industriales cuyo control esta basado en un PC que actúa de maestro   de un bus de campo, en el aspecto hardware, sólo se diferencian con el control basado en autómata/bus de campo en el maestro del bus.

También existen aplicaciones especificas como pueden ser Incontrol de Wonderware. Este software permite la realización de  aplicaciones  de  control  en  tiempo  real,  programadas en lenguajes clásicos de autómata, pero que se ejecutan en un PC con sistema operativo Windows NT. De esta forma l

Share Button

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.