Historia Del Control
Historia Del Control
Historia Del Control
1. La preocupación de los griegos y los árabes por controlar de forma precisa la evolución del tiempo.
2. La revolución industrial en Europa.
3. El inicio de las comunicaciones en masa y la primera guerra mundial.
4. El inicio de la era espacial y las computadoras.
7
un mecanismo de retroalimentación propiamente dicho, a menos que las acciones del conductor sean
incluidas como parte del sistema. Por ello, no es un sistema de control automático.
La Revolución Industrial en Europa. Generalmente se sitúa su comienzo en el tercer cuarto del siglo
XVIII; sin embargo, sus raíces pueden encontrarse ya en los años 1600.
La Revolución Industrial en Europa fué consecuencia, entre otros factores, de la introducción de las
primeras máquinas motrices, especialmente las máquinas de vapor. La historia comienza con la invención
de los molinos para moler grano, y continúa con el diseño y construcción de hornos, calderas, y por Þn,
la máquina de vapor. Estos dispositivos no podían ser regulados de forma adecuada a mano, y de esa
manera surgió la necesidad de desarrollar sistemas de control automático adecuados. Se inventaron en
esta época una gran variedad de dispositivos de control, tales como reguladores ßotantes, reguladores
de temperatura, reguladores de presión, y dispositivos de control de velocidad.
James Watt inventó su máquina de vapor en 1769, y esta fecha marca para los historiadores el
comienzo aceptado de la Revolución Industrial. Sin embargo, las raíces de la Revolución Industrial
pueden llevarse hasta los años 1600 o antes, con el desarrollo de los molinos y los hornos.
En 1840, el astrónomo del Observatorio Astronómico Británico en Greenwich, G. B. Airy, desarrolló
un dispositivo de realimentación para el apuntamiento de un telescopio. Su dispositivo era un sistema
regulador de velocidad que giraba el telescopio de forma automática para compensar la rotación de la
tierra, permitiendo de esa forma el estudio de una estrella dada durante un intervalo largo de tiempo.
Desafortunadamente, Airy descubrió que debido al diseño erróneo del bucle de control automático, se
introducían oscilaciones salvajes en el sistema. De esa forma, fué el primero en discutir las inestabilidades
de sistemas de bucle cerrado, y el primero en usar ecuaciones diferenciales en su análisis [1]. La teoría de
las ecuaciones diferenciales estaba por entonces bien desarrollada, debido al descubrimiento del cálculo
inÞnitesimal por I. Newton (1642-1727) y G. W. Leibnitz (1646-1716), y el trabajo de los hermanos
Bernoulli (últimos años del siglo XVII y primeros del XVIII), J. F. Riccati (1676-1754), y otros. El uso
de las ecuaciones diferenciales en el análisis del movimiento de sistemas dinámicos fué establecido por
J. L. Lagrange (1736-1813) y W. R. Hamilton (1805-1865).
8
elásticas de la ßexión de una lámina, órgano vital destinado a mantener de forma automática la cota
de inmersión; y un péndulo diseñado para el control de la inclinación.Se trataba del dispositivo que
ponía en marcha, simultánea o independientemente, los motores eléctricos acoplados a las dos hélices
de eje vertical, situadas en las cabezas del buque. El elemento sensible era un lámina ßexible, en una
de cuyas caras actuaba la presión del agua, en tanto que en la otra lo hacía un muelle, previamente
regulado a la tensión correspondiente a la profundidad deseada. Cuando el submarino se encontraba a esa
profundidad, la lámina no presentaba deformación alguna, por anularse ambas presiones. En este caso
se mantenía cerrado un circuito secundario que hacía girar las hélices a poca velocidad, pero suÞciente
para compensar la ßotabilidad positiva del submarino, que era de sólo 50 Kg., para que llevando los
tanques de lastre llenos y las citadas hélices paradas, la torreta quedara a ßote. Por el contrario, cuando
la tensión del muelle superaba la presión del agua, la lámina se curvaba cerrando el circuito principal
y ambas hélices giraban a gran velocidad, impulsando la nave hacia el fondo, hasta quedar igualadas
dichas presiones.
Inversamente, cuando la presión del agua era mayor que la tensión del muelle, la lámina se curvaba
hacia el otro lado y las hélices giraban en sentido contrario, haciendo subir al submarino. En la práctica,
como existía la ßotabilidad positiva antes indicada, la cota de inmersión se mantenía mediante la acción
intermitente de las hélices, de acuerdo con las ligeras oscilaciones verticales que se producían en todo
caso inferiores a 30 cm. de amplitud. Independiente del aparato de profundidades había un péndulo de
nivelación que al inclinarse longitudinalmente el submarino, ponía en funcionamiento las hélices hasta
colocarlo horizontal. El problema formulado por Maxwell fue retomado por Edward J. Routh (1831-
1907) . En 1877 [3], En este trabajo presenta por primera vez su conocido criterio de estabilidad, con
el que obtiene el premio Adams.
Hurwitz [4], en 1885, de una forma independiente y utilizando las técnicas de Cauchy y Hermite
resuelve el mismo problema en términos de un conjunto de determinantes. Bompiani demostraría en
1911 la equivalencia de los criterios de Routh y Hurwitz.
El ruso I. I. Vishnegradsky [5] analizó la estabilidad de los reguladores usando ecuaciones diferenciales
de forma independiente a Maxwell. En 1893, A. B. Stodola estudió la regulación de una turbina de agua
usando las técnicas de Vishnegradsky. Modeló la dinámica de los actuadores, incluyendo en su análisis
el problema de los retrasos de los mecanismos de actuación. Fué el primero en introducir la noción de
“constante de tiempo del sistema”.
El trabajo de A. M. Lyapunov fué la base de toda la teoría de control posterior. Estudió la estabilidad
de ecuaciones diferenciales no lineales usando una noción generalizada de la energía en 1892 [6]. De-
safortunadamente, aunque su trabajo fué aplicado y continuó en Rusia, los tiempos no estaban maduros
en el mundo occidental para su elegante teoría, y permaneció desconocida allí hasta aproximadamente
1960, cuando su importancia fué realmente reconocida.
El ingeniero británico O. Heaviside inventó el cálculo operacional en 1892-1898. Estudió el compor-
tamiento transitorio de sistemas, introduciendo una noción equivalente a la de función transferencia.
La culminación de esta fase de desarrollo de la teoría de control podría situarse en la publicación en
1921 del libro de M. Tolle, donde exponía las ecuaciones diferenciales que describen el movimiento de
varios tipos distintos de máquinas y sus reguladores. Otras fuertes aplicaciones en control se dan con el
crecimiento del conocimiento de la electricidad y sus aplicaciones, que provee herramientas adicionales
para la medida, transmisión y manipulación de señales y para la actuación, el relé eléctrico, el cual
provee altas ganancias de ampliÞcación y el solenoide basado en resortes, la cual provee una acción de
control proporcional.
9
que se vendieron fueron medidores, indicadores y dispositivos registradores, al Þnal de este periodo se
incrementó la venta de controladores.
En 1922 Nicholas Minorsky (1985-1979) presentó un análisis de control que involucraba un sistema
de control de posición y formuló una ley de control de tres términos, que ahora es conocido como
controlador PID N. [7].
Es en el estudio de sistemas dinámicos donde la teoría de control por retroalimentación tiene su lugar
en la organización del conocimiento humano. Así, la introducción del concepto de sistema como una
entidad dinámica con entradas (“input”) y salidas (“output”) deÞnidas que se ligan a otros sistemas y al
entorno fué un requisito previo para un gran desarrollo de la teoría del control. Durante los siglos XVIII
y XIX, el trabajo de A. Smith [8] en Economía, los descubrimientos de C. R. Darwin [9] en Biología,
y otros desarrollos en Medicina, Política, Psicología, Sociología, etc. evidencían la importancia de la
teoría de control en campos tan distintos como los mencionados, que por otro lado estaban teniendo
un gran impacto en la conciencia humana. El estudio de la Þlosofía natural superó el trabajo de los
Þlósofos griegos y árabes, con contribuciones de Nicolás de Cusa (1463), Leibniz y otros. Los desarrollos
del siglo XIX, unidos a la Revolución Industrial y un sentido expansivo de la conciencia de geopolítica
global y astronomía tuvieron una inßuencia profunda en esta Þlosofía natural.
El análisis matemático de los sistemas de control había sido desarrollado hasta aquí usando ecua-
ciones diferenciales en el dominio del tiempo. En los Laboratorios Bell, durante los años 1920 y 1930,
fueron exploradas y usadas en sistemas de comunicación las aproximaciones en el dominio de la frecuen-
cia desarrolladas por P.-S. de Laplace (1749-1827), J. Fourier (1768-1830), A. L. Cauchy (1789-1857),
y otros.
El ampliÞcador (triodo) diseñado por H. S. Black era, de hecho, la expresión electrónica del principio
de control usado previamente en sistemas mecánicos. La cuestión que surgió a continuación era si este
ampliÞcador sería estable en todo el rango de frecuencias representado en la comunicación oral. La
respuesta a esta cuestión requería un análisis matemático de la estabilidad más complejo que el que había
sido desarrollado hasta entonces para sistemas mecánicos. El diseño de Black consistía en introducir un
desfase en el sistema en la frecuencia correcta. La Teoría de Regeneración para el diseño de ampliÞcadores
estables fue desarrollada por el sueco Harry Nyquist [10], derivando su criterio de estabilidad basado
en la representación polar de una función compleja. Nyquist establece los fundamentos cientíÞcos de la
cibernética, mediante el desarrollo de la teoría que sirve como base a los procesos estables de oscilación
con realimentación negativa. Nyquist toma la idea para el tratamiento de procesos con realimentación
negativa de esta experiencia previa en las técnicas de ampliÞcación mediante válvulas. El acoplamiento
positivo hace que la oscilación se vea reforzada, motivo por el cual se emplea con frecuencia en los
osciladores. Por el contrario, la realimentación negativa tiene un efecto amortiguador, siendo adecuado
para la estabilización de las oscilaciones.
La importancia del control automático durante el Þnal del siglo XIX y comienzos del XX se pone
de maniÞesto con la concesión en 1912 del Premio Nobel de Física al sueco Dalen por su desarrollo
de reguladores automáticos que se utilizan conjuntamente con los acumuladores de gas para balizas
luminosas.
10
confrontar los efectos del ruido y utilizó esta aproximación para diseñar un sistema de control para un
radar aerotransportado. El éxito demostró de forma deÞnitiva la importancia de las técnicas del dominio
de frecuencias en el diseño de sistemas de control [12].
Usando aproximaciones basadas en la función de transferencia, el diagrama de bloques y métodos
del dominio de frecuencias, hubo un gran éxito en el diseño de controles en el Laboratorio de Radiación.
En 1947, N. B. Nichols desarrolló su carta para el diseño de sistemas de realimentación. Con el trabajo
del M.I.T., la teoría de servomecanismos lineales fue establecida Þrmemente. Un resumen del trabajo
de este laboratorio puede encontrarse en Theory of Servomechanisms [13].
Trabajando en la Aviación Norteamericana, W. R. Evans [14] presentó su técnica de localización de
raíces, que proporcionó una forma directa de determinar la situación de los polos de bucle cerrado en
el plano s. Durante los 1950, la mayor parte del trabajo sobre teoría de control se concentró en el plano
s, obteniendo características de respuesta deseables.
11
Estos Principios Extremales son todos principios de mínimo. En los primeros años 1900, A. Ein-
stein mostró que, en el sistema de coordenadas espacio-temporal cuadridimensional, el movimiento de
sistemas ocurre de forma tal que el tiempo resulta ser un máximo y no un mínimo.Ya que los sistemas
naturales exhiben control óptimo en su comportamiento (en sentido de que hacen extremal una cierta
función), tiene sentido diseñar sistemas de control artiÞciales en una forma “óptima” en este sentido.
Una ventaja es que este diseño puede llevarse a cabo en el dominio temporal. En el contexto del diseño
de control moderno, es usual minimizar el tiempo de tránsito, o un funcional de energía generalizada
cuadrática, posiblemente con alguna ligadura en los controles permitidos. Richard Bellman [15] aplicó la
programación dinámica al control óptimo de sistemas discretos en el tiempo, probando que la dirección
natural de resolver problemas de control óptimo es hacia atrás en el tiempo, obteniendo esquemas de
realimentación de bucle cerrado, generalmente no lineales. En 1958, L. S. Pontryagin [16] había desar-
rollado su principio de máximo, que resolvía problemas de control óptimo basándose en el cálculo de
variaciones desarrollado por L. Euler (1707-1783). Resolvió el problema de tiempo mínimo, derivando
una ley de control on/o como el control óptimo (bang-bang).
En la década de los 50‘s Kalman presentó el articulo “ On the general Theory of Control Systems”,
En el cual mostró la profundidad y la dualidad exacta existente entre el problema de Control Multi-
varable retroalimentado y Þltraje retroalimentación multivariable. Un importante paso fué el tratamien-
to de Kalman del problema de control óptimo multivariable lineal con índice de desempeño cuadrático.
Kalman trabajó también en los conceptos de controlabilidad y observabilidad y con Rosenbrock la idea
del control Modal, un fuerte resultado fué la prueba de Wonham‘s que da una condición suÞciente para
que se puedan localizar arbitrariamente las frecuencias características en lazo cerrado de un sistema
controlado arbitrariamente bajo retroalimentación es que todos los estados sean accesibles. El triun-
fo Þnal llego cuando Kalman y Bucy atacaron el problema de Þltrado. Durante 1960, en los Estados
Unidos, G. Zames, I.W. Sandberg, K.S. Narendra, C.A. Desoer y algunos otros, extendieron el trabajo
de Popov y Lyapunov sobre la estabilidad no lineal, lo cual tuvo su repercusión en el diseño de controles
para aeroplanos, en el control de procesos no lineales e incluso en el campo de la robótica.
La teoría de control moderna (referida de nuevo al dominio del tiempo), comenzaba a requerir
herramientas para resolver las complicadas ecuaciones matriciales no lineales que se planteaban. Por
fortuna, en 1960 se realizaron grandes avances en el campo de la tecnología digital. De no ser por las
computadoras, el control moderno hubiera visto muy limitadas sus aplicaciones.
Sobre 1830, C. Babbage introdujo una serie de principios referidos a las computadoras modernas.
Trató temas como el de la memoria y los programas de control. En 1948, J. von Neumann dirigió el
desarrollo de un programa de almacenamiento en Princeton, al mismo tiempo que IBM construía su
máquina programable SSEC. En 1950, Sperry Rand fabricó el primer procesador de datos comercial,
llamado UNIVAC I. Poco después, IBM lanzó al mercado su computadora 701.
En 1960, tuvo lugar uno de los avances más importantes en este campo: nació la segunda generación
de computadoras, que contaban ya con tecnología en estado sólido. Sobre 1965, la Corporación de
Equipos Digitales desarrolló el PDP-8, y comenzó la industria de las minicomputadoras. Finalmente,
en 1969, W. Ho inventó el procesador.
Con la llegada del procesador, comenzó a desarrollarse una nueva área. Los sistemas de control que
se implementaban en ordenadores digitales necesitaban ser primeramente discretizados. Nace, por tanto,
la teoría de control digital.
Durante 1950, se desarrolló en Columbia la teoría sobre sistemas de datos muestreados, interviniendo
en este estudio J.R. Ragazzini, G. Franklin y L.A. Zadeh, así como E.I. Jury, B.C. Kuo y otros. En
este periodo surgió la idea de emplear ordenadores digitales para el control de procesos industriales.
En 1959, como resultado de un proyecto de colaboración entre TRW y Texaco, se instaló un sistema
controlado por ordenador en la reÞnería de petróleo Port Arthur, en Texas.
El desarrollo de reactores nucleares durante el año 1950, motivó la investigación sobre el control de
procesos industriales y la instrumentación. En 1970, gracias a los trabajos de K. Aström y otros, se
estableció deÞnitivamente la importancia del control digital de procesos.
Los estudios realizados por C.E. Shannon a mediados de 1950 en los laboratorios Bell, revelaron la
importancia de las técnicas basadas en el muestreo de datos a la hora del procesamiento de señales.
12
Con la introducción del PC en 1983, el diseño de sistemas de control modernos se hacía posible para
el ingeniero particular. Comienza, entonces, el desarrollo de paquetes software tan importantes como
ORACLS, Program CC, Control-C, PC-Matlab, MATRIXx, Easy5, SIMNON y muchos otros.
Con la publicación de los primeros libros de texto en 1960, la teoría de control moderna se estableció
así misma como la herramienta más importante para el diseño de controles automáticos. Una intensa
actividad en este enfoque fué llevada a cabo por I.R.E y A.I.E.E, así como por P. Haggerty, en Texas
Instrument. Finalmente, en este mismo año, se formó el Instituto de Ingenieros Eléctricos y Electrónicos
(I.E.E.E).
Sin embargo, la teoría de control moderna presentaba ciertas carencias en algunos aspectos. Por
ejemplo, permitía diseñar sistemas de control que funcionaban perfectamente a través de la aplicación
de ecuaciones matriciales, pero no proporcionaba una noción práctica de lo que ello suponía para el
sistema; es decir, no daba una idea de en qué se traducían todas esas ecuaciones a efectos del sistema. Por
otro lado, los sistemas de control modernos que carecían de dinámica de compensación podían perder
robustéz frente a distorsiones y ruidos. Sin embargo, empleando las nociones de ganancia y margen de
fase propuestas por la teoría de control clásica, este problema de robustéz se solucionaba.
Por tanto, en 1970, y especialmente en Gran Bretaña, se realizaron grandes esfuerzos por extender
las técnicas clásicas en el dominio de la frecuencia y del lugar de las raíces a los sistemas multivariables.
Se alcanzó un gran éxito empleando los conceptos de lugar característico, dominio diagonal y array
inverso de Nyquist.
Un gran impulsor de las técnicas clásicas para sistemas multivariables fué I. Hurwitz, cuya teoría de
realimentación cuantitativa, desarrollada a comienzos de 1970, posibilitó diseños robustos empleando la
gráÞca de Nichols.
En 1981, algunos estudios realizados por J. Doyle, M.G. Safonov, A.J. Laub y G.L. Hartmann,
demostraron la importancia de las técnicas clásicas en el dominio de la frecuencia en el diseño de
sistemas de control moderno. Estos estudios tuvieron su aplicación en numerosos procesos de control.
Como resultado de todas estas investigaciones llevadas a cabo, hoy en día se puede hablar de una
nueva teoría de control que reúne las mejores características de las teorías clásica y moderna.
Otro frente reciente del Control son los agentes Þsicos. Entendemos por agente físico un agente
software que tiene un fundamento físico, que a su vez se entiende como un sistema dinámico (ya sea
mecánico, eléctrico, electrónico, térmico, químico, como otro soporte) de variable continua (tiempo y es-
tado continuos). Dicho fundamento físico está regido por leyes de control automático (implementadas en
la actualidad con la teoría de sistemas lineales principalmente) supervisado por un autómata secuencial
(implementado en la actualidad con lógica secuencial o bien con sistemas basados en el conocimiento,
como por ejemplo sistemas expertos), y que se coordina (compite o coopera) con otros sistemas físicos.
13