Historia de La Computacion
Historia de La Computacion
Historia de La Computacion
Historia de la Computación
Profesor: Estudiante:
Germán Ospino Raquel Macías C.I: 27609053
Sección: 21
Noviembre de 2023
Introducción
La historia de la computación es sin duda alguna un tema extenso y apasionante que nos
permite comprender como hemos logrado llegar a la era digital en la que vivimos. Desde
los primeros dispositivos mecánicos hasta las ligeras y potentes computadoras de hoy día,
el desarrollo de la computación ha sido un proceso fascinante y de gran impacto en la
sociedad.
En este trabajo, estudiaremos los hitos clave en la evolución de la computación, desde
los antiguos sistemas de cálculo utilizados por los egipcios y babilonios, lo largo de la
historia, diferentes inventos y descubrimientos han contribuido al avance de la
computación. La creación de dispositivos mecánicos como el ábaco y la calculadora de
Pascal, hasta el diseño de la maquina analítica de Charles Babbage, seguidamente de las
primeras computadoras electrónicas y finalmente el surgimiento de la internet y la
computación en la nube, cada avance ha sido un paso hacia adelante en la capacidad de
procesamiento de la información.
Esta historia es una prueba clara de cómo el ingenio humano y la búsqueda de soluciones
han llevado a la creación de herramientas cada vez mas sofisticadas. Esta evolución
continua de la computación nos ha permitido avanzar en numerosos campos, innovando la
manera en que trabajamos, nos comunicamos y vivimos.
2
Las Computadoras
La Historia de la Computación
3
engranajes a través de una rueda "mutilada"; Cada vuelta completa de esta última rueda
permite que la rueda situada a la derecha gire una décima parte de una vuelta completa. Un
mecanismo de detección de desbordamiento hace sonar una campana. En 1642, a la edad de
diecinueve años, Blaise Pascal inventó la Pascalina, una calculadora de sumar para ayudar a
su padre en su trabajo de recaudación de impuestos. A menudo se considera que esta es la
primera máquina sumadora mecánica. Un conjunto de diales con muescas mueve los
engranajes internos de manera que una rotación completa de un engranaje hace que el
engranaje de la izquierda avance una décima de vuelta completa. Aunque el primer
prototipo contenía solo cinco marchas, las unidades posteriores se construyeron con seis y
ocho marchas. Su máquina de sumar de 1652 asumía números de seis dígitos; Seis diales
numéricos en una fila representan un número de entrada. Cada dial tiene diez aberturas en
las que se inserta un lápiz óptico para marcar. La resta se realiza sumando el complemento
de 10 del sustraendo al minuendo.
El británico Samuel Morland también produjo en 1666 una calculadora mecánica para
sumar y restar. John Napier de Escocia inventó un dispositivo que comprende un conjunto
de varillas verticales, donde cada varilla se divide en diez cuadrados. El dispositivo Napier
se utilizó para leer directamente las filas que contenían múltiplos de números almacenados
en la primera fila. Napier también fue el inventor del concepto de logaritmos, que se
utilizan para convertir multiplicaciones en sumas simples.
El barón Gottfried Wilhelm Von Leibniz, filósofo y matemático alemán, mejoró el
dispositivo de Pascal en 1674 para realizar la multiplicación y división de números. Su
máquina emplea engranajes y diales. Fue fuertemente influenciado por las notas y dibujos
de Pascal. El Calculador escalonado de Leibniz utiliza un tipo especial de equipo. Es un
cilindro con nueve dientes en forma de barra de longitud creciente que son paralelos al eje
del cilindro. Cuando se gira un tambor mediante una manivela, un engranaje regular de diez
dientes que se fija en un eje deslizante gira de cero a nueve posiciones dependiendo de su
posición relativa al tambor. Hay un juego de engranajes para cada dígito. Cuando se gira el
tambor, se genera en los engranajes regulares un movimiento proporcional a su posición
relativa. Este movimiento es traducido por el dispositivo en multiplicación o división
dependiendo de la dirección del tambor giratorio. Leibniz también es conocido por su
intento de desarrollar un lenguaje simbólico generalizado y un álgebra relacionada para
automatizar el razonamiento. Como resultado, coinventó el cálculo; el otro coinventor fue
Sir Isaac Newton.
En 1777, el tercer conde de Stanhope en Inglaterra produjo una calculadora
multiplicadora. El francés Joseph-Marie Jacquard introdujo en 1801 el concepto de
secuenciación de tarjetas perforadas para controlar los patrones de tejido y el uso de telas
en un telar automático. La introducción de estos telares provocó disturbios contra la
sustitución de personas por máquinas en la segunda mitad del siglo XVIII. La invención de
Jacquard fue de suma importancia tanto para la revolución industrial como para la
tecnológica, como se muestra más adelante.
4
En la década de 1820, las calculadoras mecánicas se utilizaron ampliamente. Charles
Xavier Thomas de Colmar, nativo de Francia, inventó el aritmómetro para implementar las
cuatro funciones aritméticas básicas. La suma y la resta se llevan a cabo a través de un
solo acumulador y se emplea la propagación de transporte de ondulación. La multiplicación
y la división utilizan sumas y restas repetidas a través del control manual. El aritmómetro se
utilizó ampliamente hasta la Primera Guerra Mundial. Utilizó el mecanismo de tambor
escalonado inventado por Leibniz como actuador de valor digital.
Charles Babbage, profesor de matemáticas en la Universidad de Cambridge, es
considerado el padre de la informática moderna. Durante muchos años se centró en la
automatización de tareas mediante la invención de dispositivos adecuados. En 1812 se
había dado cuenta de que las máquinas eran compatibles con las matemáticas. Ambos
podrían usarse para repetir secuencias de pasos sin errores. Propuso en 1822 su Máquina
Diferencial que podía sumar y restar para producir tablas de salida para funciones dadas;
Un solo algoritmo se ejecuta utilizando diferencias finitas con polinomios. Debía funcionar
con vapor, contendría un programa almacenado e imprimiría los resultados. En 1832 sólo
había construido una parte de la Máquina Diferencial. Sin embargo, cambió su atención en
1833, a la edad de 42 años, al diseño de una máquina de computación de propósito general,
la máquina analítica. Produjo un diseño viable en 1836. Hizo una revisión importante en
1837. No intentó construir la máquina en ese momento, a pesar de que trabajó intensamente
hasta finales de la década de 1840 en el refinamiento de su diseño. Finalmente comenzó en
1856 un intento de construir la máquina. Muchas partes de su máquina habían sido
construidas en el momento de su muerte, en 1871. Babbage no publicó un relato detallado
de su máquina. Luigi Menabrea, de Italia, publicó una descripción relativamente buena de
la máquina, después de haber asistido a las conferencias pertinentes dadas por Babbage.
Samuel Morse demostró en 1838 los principios del telégrafo. En 1844, envió un mensaje
telegráfico desde Washington/D.C. a Baltimore en los Estados Unidos. Un cable telegráfico
transatlántico se utilizó durante unos días en 1858. Un cable de telégrafo conectado entre sí
las costas este y oeste de los EE.UU. en 1861. Alexander Graham Bell inventó el teléfono
en 1876. Guglielmo Marconi transmitió una señal de radio en 1895. También jugó un papel
decisivo en una transmisión transatlántica de señales inalámbricas en 1901. La importancia
de estos últimos inventos se deriva de la omnipresente presencia de Internet en nuestros
días.
En 1854, George Boole publicó un artículo que introdujo el concepto de lógica binaria,
así como un conjunto apropiado de operaciones. Su artículo sobre el razonamiento
simbólico y lógico se titulaba "Una investigación de las leyes del pensamiento". Una
variable puede estar en uno de dos estados en cualquier momento, a saber, "verdadero" o
"falso". Las computadoras electrónicas que contienen transistores utilizan la lógica binaria
(es decir, booleana) en todas sus operaciones básicas. Reemplazan los dos estados con los
números binarios "0" y "1".
Se necesitaron casi siete años para procesar los datos recopilados por el censo de
Estados Unidos de 1880. Herman Hollerith utilizó tarjetas perforadas para representar la
5
entrada de la máquina de procesamiento de datos del siguiente censo en 1890. Cada punzón
de una tarjeta representaba un número, y las combinaciones de dos punzones representaban
una letra. Una sola tarjeta puede representar hasta 80 variables. Un agujero en una tarjeta
cierra un circuito eléctrico cuando la tarjeta pasa a través de un lector. A continuación, el
lector cuenta el número de circuitos cerrados. Estos nuevos datos del censo se procesaron
en solo unas seis semanas. Hollerith fundó la Tabulating Machine Company en 1896 para
producir el lector de tarjetas perforadas. La compañía pasó a llamarse International
Business Machines (IBM) en 1924 después de una serie de fusiones con otras compañías.
Remington Rand y Burroughs, entre otros, también fabricaron lectores de tarjetas
perforadas para el mundo de los negocios. Las tarjetas perforadas se utilizaron mucho hasta
la década de 1960.
El inglés John A. Fleming inventó en 1904 el tubo de vacío de diodos que podía
facilitar el diseño de ordenadores electrónicos. En 1906, Lee de Forest introdujo en los
EE.UU. un tercer electrodo para controlar la falla de corriente en el diodo de Fleming;
Llamó al nuevo dispositivo un audión. En 1911, el físico holandés Kamerlingh Onnes
descubrió la superconductividad.
Vannevar Bush diseñó en 1931 una calculadora para resolver ecuaciones diferenciales
complejas. Sin embargo, la complejidad de esta calculadora era muy sustancial, ya que
contenía cientos de engranajes y ejes para la representación de números y sus relaciones.
En 1936, Alan Turing introdujo el concepto teórico de la máquina de computación
universal. Esta máquina imaginaria sirve más como un programa informático que como un
hardware informático y puede implementar cualquier tipo de cálculo en forma algorítmica.
Dado que la interpretación de las instrucciones y su implementación son procesos
mecánicos, Turing sugirió una máquina simple que puede implementar cualquier secuencia
dada de instrucciones (es decir, un programa de computadora en el sentido actual). La
máquina consta de un cabezal de lectura/escritura que escanea los datos en una cinta
unidimensional de tamaño infinito. La cinta está dividida en cuadrados, donde cada
cuadrado contiene un símbolo o espacio en blanco. Lee el símbolo actual de la cinta y, en
función de ese símbolo y del estado actual, puede sobrescribir el símbolo actual con otro,
puede cambiar el estado actual y, a continuación, mueve el cabezal hacia la izquierda o
hacia la derecha en la cinta. El lógico estadounidense Alonzo Church llegó
independientemente a conclusiones similares sobre la computabilidad en la misma época.
John V. Atanasoff, profesor de la Universidad Estatal de Iowa, investigó en 1939 el
diseño de una computadora totalmente electrónica mediante el uso de la lógica booleana
para representar instrucciones y datos, y realizar cálculos. Atanasoff extendió la lógica
booleana para representar 0 y 1 por el estado "apagado" y "encendido" de un dispositivo
electrónico. Desarrolló en 1942, con la ayuda del talentoso estudiante graduado Clifford
Berry, la computadora ABC (Atanasoff-Berry Computer). Utiliza un sistema de reloj
mecánico, pero los cálculos se realizan electrónicamente. Tiene dos tambores giratorios que
contienen condensadores, que contienen la carga eléctrica para la memoria. Los datos se
introducen mediante tarjetas perforadas. Por primera vez, los tubos de vacío se utilizaron en
6
la informática. El proyecto costó unos 1.000 dólares. Introdujo los conceptos de aritmética
binaria en computadoras, memoria regenerativa y circuitos lógicos. Atanasoff fue
reconocido como el padre de la informática moderna cuando, en un caso de infracción de
patentes que Sperry Rand presentó contra Honeywell, un juez federal de los Estados Unidos
anuló en 1973 la patente de Sperry Rand sobre el ENIAC (presentada en la siguiente
sección), diciendo que se había derivado de la invención de Atanasoff. Mientras pasaba
cinco días en el laboratorio de Atanastoff, Mauchly observó el ABC y leyó su manual de 35
páginas. Se llegó a la conclusión de que Mauchly había utilizado esta información para
construir el ENIAC.
El ingeniero alemán Konrad Zuse construyó en 1941 la computadora Z3 con relés
electromagnéticos para el diseño de misiles y aviones.
2. Computadoras electrónicas
7
fue una famosa programadora de Mark I en el Centro de Computación de Harvard; era
teniente de la Marina de los Estados Unidos.
La Segunda Guerra Mundial obligó a varios gobiernos a poner serios esfuerzos en el
desarrollo de computadoras electrónicas para el diseño de misiles y aviones, y la
decodificación de mensajes. Una computadora tan poderosa fue el Electronic Numerical
Integrator And Computer (ENIAC) que fue desarrollado para el gobierno de los Estados
Unidos en la Universidad de Pensilvania por John Presper Eckert Jr. y John W. Mauchly.
Con su personal de catorce personas, trabajaron en el diseño y construcción del ENIAC
desde 1943 hasta 1945. Se ubicaron en la Escuela Moore de Ingeniería Eléctrica de la
Universidad de Pensilvania. La primera aplicación del ENIAC fue en ciencias nucleares
para el Proyecto Manhattan. Contenía unos 18.000 tubos de vacío, 70.000 resistencias y
1.500 relés. Consumía 160 kilovatios de energía eléctrica y pesaba 30 toneladas. Su gran
consumo de energía era el resultado de una gran cantidad de tubos de vacío. Los tubos de
vacío contienen un elemento calefactor que desplaza electrones. El calentador se quema
después de unos pocos miles de horas de funcionamiento. ENIAC estuvo funcionando sin
fallas durante uno o dos días, en promedio. Realizaba unas 5.000 operaciones por segundo.
Era unas 1.000 veces más rápida que la Mark I y fue desarrollada como una computadora
de propósito general. Tenía solo veinte ubicaciones de memoria en las que cada una podía
almacenar un número decimal de 10 dígitos con signo.
El UNIVAC I (Universal Automatic Computer) construido por Remington Rand en 1951
fue el primer ordenador comercial que implementó los principales conceptos de diseño de
Von Neumann. Utilizaba tubos de vacío para los elementos de conmutación. En general, las
computadoras electrónicas de primera generación empleaban tubos de vacío y tambores
magnéticos para el almacenamiento de programas y datos. Además, estaban programados
principalmente en lenguaje de máquina.
8
comercial que utilizó memoria de núcleo magnético fue la IBM 705, en 1955. Los
fabricantes de computadoras en la década de 1950 generalmente producían máquinas de
procesamiento de datos, en lugar de computadoras para abordar problemas matemáticos.
El IBM 7090, el DEC PDP-1 y el Control Data Corporation (CDC) 1604 fueron los
primeros ordenadores en utilizar transistores. El PDP-1 dio origen a la industria de las
minicomputadoras; Costaba mucho menos que el 7090, producía la mitad de su
rendimiento y podía almacenar 4.000 palabras de 18 bits. Las minicomputadoras cuestan
mucho menos que las computadoras grandes, pero pueden producir un rendimiento muy
sustancial. Se introdujeron supercomputadoras que contenían muchos procesadores, como
la IBM 7030 (su nombre de proyecto era STRETCH) en 1955 y la Sperry-Rand LARC. Se
utilizaron en laboratorios de energía atómica para procesar grandes cantidades de datos en
cortos períodos de tiempo. El IBM 7030 era diez veces más rápido que sus modelos
anteriores que usaban tubos de vacío. También introdujo el concepto de múltiples bancos de
memoria y utilizó una canalización pesada, con hasta seis instrucciones activas
simultáneamente. La programación en lenguaje ensamblador, los sistemas operativos y los
sistemas de almacenamiento en cinta eran comunes en esta generación. Otros fabricantes de
computadoras durante este período fueron, entre otros, Honeywell, Control Data y
Burroughs. La industria del software también tiene sus raíces en esta generación de
computadoras. Los lenguajes de programación COBOL (Common Business-Oriented
Language) y FORTRAN (Formula Translator) reemplazaron el código máquina binario con
mnemotecnia, palabras, oraciones y fórmulas matemáticas. BASIC, un lenguaje de
programación fácil de aprender, fue desarrollado en 1964 por los estudiantes de la
universidad Dartmouth.
Jack Kilby de Texas Instruments inventó el circuito integrado (IC) en 1958 al mismo
tiempo que Robert Noyce de Fairchild Corporation. Colocó menos de media docena de
transistores semiconductores en un solo chip. Fairchild introdujo en 1961 los primeros
circuitos integrados comerciales, en forma de RTL (lógica de resistencia-transistor). A este
éxito le siguieron integraciones más densas a lo largo de los años. Más tarde, la lógica TTL
(transistor-transistor) mejoró la eficiencia y el proceso de fabricación. Entre 1961 y 1971, el
número de transistores en los chips comerciales (COTS) se duplicó aproximadamente cada
año. Desde entonces, el rendimiento del microprocesador se duplica aproximadamente cada
dieciocho meses, mientras que el número de transistores en un chip se duplica
aproximadamente cada dos años. Se espera que esta mejora en la integración de transistores
continúe (probablemente hasta alrededor de 2010) según una predicción hecha por Gordon
Moore en 1965; esta predicción se conoce como Ley de Moore.
El CDC 6600 se introdujo en 1964. Contenía varios procesadores (CPU) altamente
paralelos. Su diseñador fue Seymour R. Cray. Más tarde se hizo muy famoso por diseñar
supercomputadoras (como se discute a continuación). El CDC 6600 introdujo la técnica del
marcador para resolver las dependencias de datos entre las instrucciones para la
programación dinámica de las operaciones. Contenía diez unidades funcionales y las
instrucciones se emitieron fuera de orden.
El primer láser se demostró en 1960 en los Laboratorios de Investigación Hughes en los
EE. UU. Desde entonces han aparecido varios tipos diferentes de láseres. La tecnología
9
láser ha tenido un impacto muy significativo en los últimos años en las comunicaciones
informáticas, el registro óptico de la información y la impresión por ordenador.
10
incluía todos los componentes básicos del procesador de 4 bits en un solo chip. Contenía
2.300 transistores. La era de los chips de microprocesador único apenas comenzaba. Más
tarde, los microprocesadores aparecieron en todas partes, en electrodomésticos de cocina,
computadoras de escritorio, automóviles, etc. Su bajo costo los pone al alcance de muchas
personas, no solo de las empresas. Otras empresas pioneras de microcomputadoras fueron
Commodore y Apple Computers. En 1972, Intel produjo el microprocesador 8008 de 8 bits
que contenía 3.300 transistores y funcionaba a 0,5 MHz. Otros microprocesadores
populares de 8 bits de esta época fueron el Intel 8080 y el Motorola MC6800. Se utilizaron
en aplicaciones integradas. El primer sistema informático popular fue el MITS Altair 8800
que contenía el Intel 8080 de 2 MHz. A mediados de la década de 1970 estuvieron
disponibles varias otras computadoras de pasatiempo. La mayoría de estas computadoras
se vendieron en kits.
En los últimos cuarenta años, las ventas de supercomputadoras han crecido de un
pequeño número para menores mercados especializados a un número relativamente grande
de máquinas para el gobierno, la industria y las universidades. Seymour R. Cray estuvo a
cargo del desarrollo de una de las primeras computadoras que contenía transistores, a saber,
la CDC 1604. Su grupo diseñó el CDC 6600 y varias versiones mejoradas del mismo.
Varias universidades y laboratorios gubernamentales compraron estas máquinas debido a su
alta velocidad. Más tarde, Cray fundó Cray Research, Inc., en 1972 para la fabricación de
supercomputadoras. Creía que se debe utilizar la mejor tecnología cada vez para diseñar la
máquina más rápida, independientemente de su costo. Los diseños de Cray se basaron en el
procesamiento de datos vectoriales, donde la misma operación se aplica simultáneamente a
muchos o todos los elementos de una matriz de datos. Estas operaciones de matriz son muy
comunes en las aplicaciones de ingeniería. Mientras que todas las máquinas anteriores
similares a las supercomputadoras usaban memoria de núcleo magnético, Cray usó chips de
memoria por primera vez.
11
digital. Apple I tenía todas papeletas de triunfar gracias a la combinación de un
microprocesador con conexión para un teclado y monitor, además, al poco tiempo de
empezar con las promociones, los tres empresarios tecnológicos recibieron los primeros
encargos de este ordenador, llegando a vender 200 unidades.
El microordenador Apple II de 1977 contenía el MCS6502 microprocesador que se
implementó en la tecnología CMOS. Era un sistema completo con un CRT (tubo de rayos
catódicos), una unidad de disquete y un teclado. En la década de 1980, los sistemas de
videojuegos, como el Atari 2600, hicieron que las microcomputadoras fueran muy
populares. Tras cosechar el primer éxito, Apple Computer quiso desarrollar ordenadores
más avanzados, empezó a cotizar en el mercado bursátil de Estados Unidos en el año 1980
y, años después, llegó el gran éxito de la compañía, el famoso Macintosh, un dispositivo
personal que contaba con un ratón y una interfaz gráfica.
Debido a las limitaciones en el número de pines y transistores, los primeros
microprocesadores evitaron la implementación de cualquier forma de paralelismo
avanzado. Sin embargo, los microprocesadores de 16 bits que aparecieron más tarde
implementaron el procesamiento de instrucciones canalizadas. Tal era el MC68000
microprocesador que funcionaba a 8 MHz y tenía un rendimiento máximo de 2 MIPS.
Finalmente, a principios de la década de 1980, se formaron muchas nuevas empresas
informáticas (como Apollo) para producir estaciones de trabajo basadas en
microprocesadores para aplicaciones científicas y de ingeniería.
En 1981, IBM introdujo la computadora personal (PC) que se utilizaría como
computadora de escritorio. Su código de sistema operativo DOS (Disk Operating System)
fue producido por Microsoft para IBM. DOS no permitía la multitarea ni el acceso de
varios usuarios simultáneamente. IBM vendió 13.000 PCs en 1981. Los clones de PC
aparecieron poco después como productos de muchas empresas recién establecidas. A
finales de 1982 se vendieron millones de PC. El microordenador Macintosh fue introducido
por Apple en 1984. Era muy fácil de usar porque un mouse (es decir, un dispositivo en
movimiento que rastrea el cursor en la pantalla de la computadora) podría usarse para
seleccionar comandos de computadora, en lugar de escribir los comandos en el teclado. Los
impresionantes avances en las tecnologías de integración hicieron posible la introducción
de numerosos microprocesadores en los años siguientes. El crecimiento del mercado de PC
fue fenomenal.
El primer sistema de ventanas de software, en el que se permite que diferentes tareas
ocupen diferentes partes de la pantalla del ordenador, apareció en 1981 en el sistema Xerox
Start. Apple produjo su sistema de ventanas en 1984 y Microsoft en 1985. X Windows, otro
sistema de ventanas, se introdujo a finales de la década de 1990 en el MIT para estaciones
de trabajo gráficas; Unix o Linux es el sistema operativo asumido.
Las integraciones de transistores siguieron la Ley de Moore a lo largo de los años e
hicieron posible la implementación de microprocesadores con enormes capacidades y muy
alta complejidad. David Ditzel y David Patterson propusieron en 1980 una nueva filosofía
de diseño para los microprocesadores. Acuñaron la palabra RISC (Reduced Instruction Set
Computer) para estos microprocesadores. Propusieron la reducción de la complejidad del
microprocesador para un mejor rendimiento. Los microprocesadores existentes en ese
12
momento pertenecían a la clase CISC (Complex Instruction Set Computer). Sostuvieron
que la complejidad de esta última clase era tan alta que todas las instrucciones
experimentaban una sobrecarga significativa durante la ejecución. Su estudio mostró que
solo cuatro clases de instrucciones (a saber, cargar, almacenar, agregar y saltar) se ejecutan
aproximadamente el 75% de las veces en los programas de aplicación. Por lo tanto, la
implementación de estas clases de instrucciones debe tener mayor prioridad que la
implementación de cualquier otra instrucción o característica del microprocesador. Como
resultado, numerosos microprocesadores RISC estuvieron disponibles comercialmente en
los años siguientes. Su rendimiento de instrucción es de aproximadamente una instrucción
por ciclo de reloj. Sin embargo, los diseños de CISC han sobrevivido. En realidad, la
mayoría de los microprocesadores actuales poseen características RISC y CISC.
Ethernet para PC comenzó a comercializarse en 1982. Es un sistema de comunicación
de radiodifusión que transporta paquetes de datos digitales entre ordenadores distribuidos
interconectados localmente. El intercambio de información en una red de ordenadores
mejora la productividad en el entorno de trabajo, y por ello Ethernet ha tenido un impacto
muy positivo en la informática.
El equipo de Cray tardó cuatro años en desarrollar la supercomputadora Cray-1 en 1976.
El sistema de refrigeración de la máquina era innovador, capaz de disipar grandes
cantidades de calor. El diseño equilibró el procesamiento vectorial de pozos con el
procesamiento escalar (es decir, datos individuales) y la entrada/salida de datos. Utilizó los
primeros circuitos integrados comerciales ECL (lógica acoplada al emisor) que conmutan
rápidamente porque no saturan. Además, los dispositivos ECL pueden tener un alto número
de distribución ramificada (es decir, la misma salida ECL se puede conectar a muchas
entradas). Cray-1 tenía un tiempo de ciclo de 12,5 ns (correspondiente a una frecuencia de
reloj de 80 MHz). Se introdujo el concepto de encadenamiento de operaciones, donde los
elementos resultantes de una operación vectorial son consumidos por una segunda
operación que sigue en el programa. Cray comenzó a trabajar en el Cray-2 en 1978.
Mientras tanto, otros grupos de la compañía produjeron el Cray-1S y el Cray-1M en 1979 y
1982, respectivamente. El 1S tenía un rendimiento comparable con la primera máquina,
pero empleaba la tecnología MOS (semiconductor de óxido metálico) para Reducir el
costo. Los productos posteriores incluyeron el Cray X-MP y el Y-MP. El Cray-2 en 1985 se
sumergió en un líquido de fluorocarbono para fines de enfriamiento. Contenía cuatro
procesadores y tenía el doble de espacio de memoria que el X-MP. Cray quería utilizar la
tecnología de arseniuro de galio para los circuitos integrados debido a su alta velocidad,
pero la tecnología era inmadura en ese momento. Se utilizaron matrices de puertas ECL
bipolares y el tiempo de ciclo fue de 4,1 ns (correspondiente a una frecuencia de reloj de
unos 244 MHz).
Muchas otras supercomputadoras también se hicieron populares. Algunos de ellos no
implementaron el procesamiento vectorial, pero se beneficiaron enormemente del
rendimiento agregado de las colecciones de procesadores. La Connection Machine CM-2
construida por Thinking Machines, la Intel iPSC y la nCUBE/2 son algunas de las
máquinas más representativas. El CM-2 contenía hasta 65.536 procesadores propietarios de
un solo bit.
13
2.5. Quinta generación (1990-presente)
14
Wide Web (WWW) es una colección de páginas con hipervínculos distribuidas a través de
Internet a través del protocolo de red HTTP (protocolo de transferencia de hipertexto). La
WWW fue inventada en 1990 por Tim Berners-Lee, físico del CERN (Laboratorio Europeo
de Física de Partículas). Fue inventado para que los físicos compartieran los resultados de
sus investigaciones. Inicialmente, solo incluía texto. Los procesos gráficos se integraron
más tarde con el navegador de páginas WWW Mosaic que se produjo en la Universidad de
Illinois en Urban-Champaign. El impacto de la combinación de Internet y WWW ha sido
extremadamente positivo. Se han establecido numerosas empresas que prestan servicio a
través de sus páginas de Internet.
También se están investigando enfoques no tradicionales en informática. Por ejemplo,
se han propuesto sistemas ópticos para la interconexión de chips informáticos. Las
computadoras que implementan enfoques de redes neuronales siguen modelos biológicos
en los que las neuronas se entrenan para responder a entradas conocidas y luego se adaptan
por sí mismas a entradas desconocidas. Han tenido éxito en algunas aplicaciones
relacionadas principalmente con el reconocimiento de patrones. Los algoritmos genéticos
simulan la evolución de las secuencias de ADN y son apropiados en problemas de
optimización. Sin embargo, su teoría aún no se entiende bien. Se espera que las
computadoras cuánticas funcionen de acuerdo con las leyes de la física cuántica. Su
viabilidad y aplicabilidad siguen siendo cuestionables.
Los últimos 10 años serán recordados como una revolución tecnológica sin precedentes
que cambió al mundo por completo. La aparición y consolidación del cloud computing, la
amenaza para los bancos y muchos nuevos millonarios que trajo el blockchain o la
aceleración de la producción gracias a conceptos como industria 4.0 o metodologías como
Agile apenas sirven como introducción para las profundas transformaciones que sufrió la
humanidad en esta década gracias a (o por culpa de) la tecnología. Los nuevos años 20 se
inaugurarán con un planeta que utiliza internet para todo, que automatiza y vuelve
inteligente hasta los cepillos de dientes y cuyas organizaciones se enfrentan a la máxima de
transformarse o morir. Aquí recopilamos algunas de las tecnologías que más impacto
tuvieron en este periodo.
Inteligencia Artificial
A pesar de ser una de las ganadoras indiscutibles de la época, la inteligencia artificial
tiene tanto espacio para crecer que será posiblemente en los próximos 10 años donde se vea
realmente su consolidación en todo lo que la tecnología toca. Los 2010 partieron para la IA
con la victoria de la computadora IBM Watson en Jeopardy. Fueron avanzando con temores
crecientes al impacto que los robots tendrían en la pérdida de trabajos humanos a gran
escala, pero para finales de la década la integración de la inteligencia artificial en el día a
día de las personas (tanto en su vida diaria como en el trabajo) ha abierto una gran cantidad
15
de puertas y nuevas oportunidades de negocio. Su impacto en analytics, automatización de
procesos, chatbots, inteligencia de negocio e Industria 4.0 dio forma al escenario mundial
de las IT que habitamos hoy en día. Imaginar un mundo que crezca sin el aporte de la
inteligencia artificial a estas alturas es imposible. Los números apoyan la tesis: el gasto
global en IA alcanzó en 2019 $37,500 millones de dólares y para el 2023 se espera que esta
cifra crezca dos veces y media, hasta los $97,900 millones de dólares.
La nube
Pocas tendencias o tecnologías han cambiado el mundo tanto y tan rápido como el cloud
computing. Esta alternativa al modelo tradicional de consumir recursos IT, con su habilidad
de entregar amplios poderes digitales y escalabilidad a bajo costo, tuvo su nacimiento
comercial el 2006, de la mano de Jeff Bezos y su Elastic Compute Cloud (EC2), bajo el
alero de Amazon Web Services, dos años después Google daría el salto con su Google
Cloud Platform (GCP) y aún dos años más tarde Microsoft se subiría al tren con Azure.
Pero fue en la década más reciente donde esta tecnología se consolidó, comenzaron a
ampliar sus ecosistemas y a generar nuevas formas de aproximarse al trabajo IT. La
aparición de modelos de consumo Everything-as-a-Service son prueba de la fuerte
transformación que la nube operó en las organizaciones, mientras el debate en torno a los
beneficios de la nube pública, privada, híbrida o especializada dan testimonio de lo mucho
que le queda por evolucionar.
Open Source
El código abierto solía ser mirado en menos tanto por desarrolladores como por los
consumidores. Nadie esperaba que las comunidades consiguieran autorregularse para
generar software seguro, confiable, con soporte permanente y calidad empresarial a precios
bajos, pero iniciativas como Github y Red Hat evolucionaron tanto qué gigantes como
Microsoft e IBM se vieron obligados a comprarlos para aprovechar su competitividad. Los
años recientes han visto el crecimiento del Open Source no solo en el software sino también
en el hardware, una tendencia que muy probablemente se consolidará en la próxima década.
Seguridad
En el 2010 ninguna compañía pensaba en contratar a un Chief Security Officer o similar.
La seguridad se limitaba a proteger el perímetro, y enfrentar la ocasional amenaza de los
hackers, pero las fuentes de amenaza se multiplicaron tanto y se volvieron tan sofisticadas
que hoy en día las organizaciones prácticamente deben vivir en un estado constante de
guerra. El cibercrimen se transformó en uno de los negocios ilegales más rentables del
mundo y cualquier persona con un poco de dinero extra puede acceder a software de alta
complejidad para violar la seguridad de una empresa poco preparada, o a una red de bots
dispuestos a sobrecargar cualquier servidor. La nueva norma es vivir bajo ataque, y por lo
mismo los trabajos y las certificaciones en ciberseguridad son algunas de las que mejores
oportunidades presentarán para los especialistas IT en la próxima década.
16
4G
La gran mayoría de los grandes cambios de la década se deben al aumento de las
velocidades de transmisión de datos y a la reducción de sus costos. La posibilidad de,
además, estar conectado en todo momento y lugar a esas velocidades revolucionó el
consumo digital y consolidó la economía de las apps. Esta evolución de la conectividad
también aportaría a los trabajos remotos, la Industria 4.0, y una plétora de aspectos de las
labores diarias, pero quizás el cambio más significativo fue humano: hoy es casi imposible
pensar en una sociedad para la que no está disponible todo el contenido de internet en todo
momento y en la palma de su mano.
17
Conclusión
18
Bibliografía
19