Historia de La Computacion

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 19

UNIVERSIDAD DE CARABOBO

FACULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES


ESCUELA DE RELACIONES INDUSTRIALES
CAMPUS BARBULA

Historia de la Computación

Profesor: Estudiante:
Germán Ospino Raquel Macías C.I: 27609053

Sección: 21

Noviembre de 2023
Introducción

La historia de la computación es sin duda alguna un tema extenso y apasionante que nos
permite comprender como hemos logrado llegar a la era digital en la que vivimos. Desde
los primeros dispositivos mecánicos hasta las ligeras y potentes computadoras de hoy día,
el desarrollo de la computación ha sido un proceso fascinante y de gran impacto en la
sociedad.
En este trabajo, estudiaremos los hitos clave en la evolución de la computación, desde
los antiguos sistemas de cálculo utilizados por los egipcios y babilonios, lo largo de la
historia, diferentes inventos y descubrimientos han contribuido al avance de la
computación. La creación de dispositivos mecánicos como el ábaco y la calculadora de
Pascal, hasta el diseño de la maquina analítica de Charles Babbage, seguidamente de las
primeras computadoras electrónicas y finalmente el surgimiento de la internet y la
computación en la nube, cada avance ha sido un paso hacia adelante en la capacidad de
procesamiento de la información.
Esta historia es una prueba clara de cómo el ingenio humano y la búsqueda de soluciones
han llevado a la creación de herramientas cada vez mas sofisticadas. Esta evolución
continua de la computación nos ha permitido avanzar en numerosos campos, innovando la
manera en que trabajamos, nos comunicamos y vivimos.

2
Las Computadoras

Un computador, computadora u ordenador es una máquina digital programable, de


funcionamiento electrónico, capaz de procesar grandes cantidades de datos a grandes
velocidades. Así obtiene información útil que luego presenta a un operador humano, o
transmite a otros sistemas mediante redes informáticas de distinto tipo.
La computadora es la herramienta más versátil, potente y revolucionaria que el ser
humano ha creado en su historia reciente. Representa el punto cumbre de la Revolución
industrial, científica y tecnológica que presenció el siglo XX después de la Segunda Guerra
Mundial.
Su presencia y popularización en nuestro tiempo no sólo cambió para siempre el modo
de procesar la información en el mundo, sino también la manera de trabajar y concebir el
trabajo, las formas de comunicarse a larga distancia, las formas de ocio, y muchas otras
áreas de la vida cotidiana.
Consisten fundamentalmente en un gran número de circuitos integrados, componentes
de apoyo y extensiones electrónicas. Sin embargo, las computadoras han cambiado
radicalmente a lo largo de su propia y rápida historia, pasando de ser enormes e incómodas
instalaciones, a ocupar un lugar tan pequeño como el bolsillo de nuestros pantalones, en el
caso de los teléfonos inteligentes.

La Historia de la Computación

1. Primeras máquinas informáticas (no electrónicas)

Cualquier trabajo sobre la historia de la computación puede tener omisiones. Se intenta


aquí presentar los avances más importantes en la materia, en orden cronológico. Los
registros de transacciones se inscribieron en tablillas de arcilla antes del año 1.000 a.C.
Acostumbrados a contar con los dedos, muchas civilizaciones primitivas adoptaron
sistemas numéricos con cinco o diez como base. Los sistemas numéricos sumerio, griego,
romano y árabe fueron algunos de los inventos. El ábaco fue inventado hace unos 5.000
años en Babilonia. Los cálculos básicos se realizan deslizando a mano las cuentas en las
rejillas. También fue adoptado más tarde por otras civilizaciones. Las versiones
modificadas del ábaco todavía se utilizan en Oriente.
En 1623, Wilhelm Schickard, un profesor de origen alemán, construyó el reloj de
cálculo para sumar y restar números de seis dígitos. Contiene seis ruedas dentadas con

3
engranajes a través de una rueda "mutilada"; Cada vuelta completa de esta última rueda
permite que la rueda situada a la derecha gire una décima parte de una vuelta completa. Un
mecanismo de detección de desbordamiento hace sonar una campana. En 1642, a la edad de
diecinueve años, Blaise Pascal inventó la Pascalina, una calculadora de sumar para ayudar a
su padre en su trabajo de recaudación de impuestos. A menudo se considera que esta es la
primera máquina sumadora mecánica. Un conjunto de diales con muescas mueve los
engranajes internos de manera que una rotación completa de un engranaje hace que el
engranaje de la izquierda avance una décima de vuelta completa. Aunque el primer
prototipo contenía solo cinco marchas, las unidades posteriores se construyeron con seis y
ocho marchas. Su máquina de sumar de 1652 asumía números de seis dígitos; Seis diales
numéricos en una fila representan un número de entrada. Cada dial tiene diez aberturas en
las que se inserta un lápiz óptico para marcar. La resta se realiza sumando el complemento
de 10 del sustraendo al minuendo.
El británico Samuel Morland también produjo en 1666 una calculadora mecánica para
sumar y restar. John Napier de Escocia inventó un dispositivo que comprende un conjunto
de varillas verticales, donde cada varilla se divide en diez cuadrados. El dispositivo Napier
se utilizó para leer directamente las filas que contenían múltiplos de números almacenados
en la primera fila. Napier también fue el inventor del concepto de logaritmos, que se
utilizan para convertir multiplicaciones en sumas simples.
El barón Gottfried Wilhelm Von Leibniz, filósofo y matemático alemán, mejoró el
dispositivo de Pascal en 1674 para realizar la multiplicación y división de números. Su
máquina emplea engranajes y diales. Fue fuertemente influenciado por las notas y dibujos
de Pascal. El Calculador escalonado de Leibniz utiliza un tipo especial de equipo. Es un
cilindro con nueve dientes en forma de barra de longitud creciente que son paralelos al eje
del cilindro. Cuando se gira un tambor mediante una manivela, un engranaje regular de diez
dientes que se fija en un eje deslizante gira de cero a nueve posiciones dependiendo de su
posición relativa al tambor. Hay un juego de engranajes para cada dígito. Cuando se gira el
tambor, se genera en los engranajes regulares un movimiento proporcional a su posición
relativa. Este movimiento es traducido por el dispositivo en multiplicación o división
dependiendo de la dirección del tambor giratorio. Leibniz también es conocido por su
intento de desarrollar un lenguaje simbólico generalizado y un álgebra relacionada para
automatizar el razonamiento. Como resultado, coinventó el cálculo; el otro coinventor fue
Sir Isaac Newton.
En 1777, el tercer conde de Stanhope en Inglaterra produjo una calculadora
multiplicadora. El francés Joseph-Marie Jacquard introdujo en 1801 el concepto de
secuenciación de tarjetas perforadas para controlar los patrones de tejido y el uso de telas
en un telar automático. La introducción de estos telares provocó disturbios contra la
sustitución de personas por máquinas en la segunda mitad del siglo XVIII. La invención de
Jacquard fue de suma importancia tanto para la revolución industrial como para la
tecnológica, como se muestra más adelante.

4
En la década de 1820, las calculadoras mecánicas se utilizaron ampliamente. Charles
Xavier Thomas de Colmar, nativo de Francia, inventó el aritmómetro para implementar las
cuatro funciones aritméticas básicas. La suma y la resta se llevan a cabo a través de un
solo acumulador y se emplea la propagación de transporte de ondulación. La multiplicación
y la división utilizan sumas y restas repetidas a través del control manual. El aritmómetro se
utilizó ampliamente hasta la Primera Guerra Mundial. Utilizó el mecanismo de tambor
escalonado inventado por Leibniz como actuador de valor digital.
Charles Babbage, profesor de matemáticas en la Universidad de Cambridge, es
considerado el padre de la informática moderna. Durante muchos años se centró en la
automatización de tareas mediante la invención de dispositivos adecuados. En 1812 se
había dado cuenta de que las máquinas eran compatibles con las matemáticas. Ambos
podrían usarse para repetir secuencias de pasos sin errores. Propuso en 1822 su Máquina
Diferencial que podía sumar y restar para producir tablas de salida para funciones dadas;
Un solo algoritmo se ejecuta utilizando diferencias finitas con polinomios. Debía funcionar
con vapor, contendría un programa almacenado e imprimiría los resultados. En 1832 sólo
había construido una parte de la Máquina Diferencial. Sin embargo, cambió su atención en
1833, a la edad de 42 años, al diseño de una máquina de computación de propósito general,
la máquina analítica. Produjo un diseño viable en 1836. Hizo una revisión importante en
1837. No intentó construir la máquina en ese momento, a pesar de que trabajó intensamente
hasta finales de la década de 1840 en el refinamiento de su diseño. Finalmente comenzó en
1856 un intento de construir la máquina. Muchas partes de su máquina habían sido
construidas en el momento de su muerte, en 1871. Babbage no publicó un relato detallado
de su máquina. Luigi Menabrea, de Italia, publicó una descripción relativamente buena de
la máquina, después de haber asistido a las conferencias pertinentes dadas por Babbage.
Samuel Morse demostró en 1838 los principios del telégrafo. En 1844, envió un mensaje
telegráfico desde Washington/D.C. a Baltimore en los Estados Unidos. Un cable telegráfico
transatlántico se utilizó durante unos días en 1858. Un cable de telégrafo conectado entre sí
las costas este y oeste de los EE.UU. en 1861. Alexander Graham Bell inventó el teléfono
en 1876. Guglielmo Marconi transmitió una señal de radio en 1895. También jugó un papel
decisivo en una transmisión transatlántica de señales inalámbricas en 1901. La importancia
de estos últimos inventos se deriva de la omnipresente presencia de Internet en nuestros
días.
En 1854, George Boole publicó un artículo que introdujo el concepto de lógica binaria,
así como un conjunto apropiado de operaciones. Su artículo sobre el razonamiento
simbólico y lógico se titulaba "Una investigación de las leyes del pensamiento". Una
variable puede estar en uno de dos estados en cualquier momento, a saber, "verdadero" o
"falso". Las computadoras electrónicas que contienen transistores utilizan la lógica binaria
(es decir, booleana) en todas sus operaciones básicas. Reemplazan los dos estados con los
números binarios "0" y "1".
Se necesitaron casi siete años para procesar los datos recopilados por el censo de
Estados Unidos de 1880. Herman Hollerith utilizó tarjetas perforadas para representar la

5
entrada de la máquina de procesamiento de datos del siguiente censo en 1890. Cada punzón
de una tarjeta representaba un número, y las combinaciones de dos punzones representaban
una letra. Una sola tarjeta puede representar hasta 80 variables. Un agujero en una tarjeta
cierra un circuito eléctrico cuando la tarjeta pasa a través de un lector. A continuación, el
lector cuenta el número de circuitos cerrados. Estos nuevos datos del censo se procesaron
en solo unas seis semanas. Hollerith fundó la Tabulating Machine Company en 1896 para
producir el lector de tarjetas perforadas. La compañía pasó a llamarse International
Business Machines (IBM) en 1924 después de una serie de fusiones con otras compañías.
Remington Rand y Burroughs, entre otros, también fabricaron lectores de tarjetas
perforadas para el mundo de los negocios. Las tarjetas perforadas se utilizaron mucho hasta
la década de 1960.
El inglés John A. Fleming inventó en 1904 el tubo de vacío de diodos que podía
facilitar el diseño de ordenadores electrónicos. En 1906, Lee de Forest introdujo en los
EE.UU. un tercer electrodo para controlar la falla de corriente en el diodo de Fleming;
Llamó al nuevo dispositivo un audión. En 1911, el físico holandés Kamerlingh Onnes
descubrió la superconductividad.
Vannevar Bush diseñó en 1931 una calculadora para resolver ecuaciones diferenciales
complejas. Sin embargo, la complejidad de esta calculadora era muy sustancial, ya que
contenía cientos de engranajes y ejes para la representación de números y sus relaciones.
En 1936, Alan Turing introdujo el concepto teórico de la máquina de computación
universal. Esta máquina imaginaria sirve más como un programa informático que como un
hardware informático y puede implementar cualquier tipo de cálculo en forma algorítmica.
Dado que la interpretación de las instrucciones y su implementación son procesos
mecánicos, Turing sugirió una máquina simple que puede implementar cualquier secuencia
dada de instrucciones (es decir, un programa de computadora en el sentido actual). La
máquina consta de un cabezal de lectura/escritura que escanea los datos en una cinta
unidimensional de tamaño infinito. La cinta está dividida en cuadrados, donde cada
cuadrado contiene un símbolo o espacio en blanco. Lee el símbolo actual de la cinta y, en
función de ese símbolo y del estado actual, puede sobrescribir el símbolo actual con otro,
puede cambiar el estado actual y, a continuación, mueve el cabezal hacia la izquierda o
hacia la derecha en la cinta. El lógico estadounidense Alonzo Church llegó
independientemente a conclusiones similares sobre la computabilidad en la misma época.
John V. Atanasoff, profesor de la Universidad Estatal de Iowa, investigó en 1939 el
diseño de una computadora totalmente electrónica mediante el uso de la lógica booleana
para representar instrucciones y datos, y realizar cálculos. Atanasoff extendió la lógica
booleana para representar 0 y 1 por el estado "apagado" y "encendido" de un dispositivo
electrónico. Desarrolló en 1942, con la ayuda del talentoso estudiante graduado Clifford
Berry, la computadora ABC (Atanasoff-Berry Computer). Utiliza un sistema de reloj
mecánico, pero los cálculos se realizan electrónicamente. Tiene dos tambores giratorios que
contienen condensadores, que contienen la carga eléctrica para la memoria. Los datos se
introducen mediante tarjetas perforadas. Por primera vez, los tubos de vacío se utilizaron en

6
la informática. El proyecto costó unos 1.000 dólares. Introdujo los conceptos de aritmética
binaria en computadoras, memoria regenerativa y circuitos lógicos. Atanasoff fue
reconocido como el padre de la informática moderna cuando, en un caso de infracción de
patentes que Sperry Rand presentó contra Honeywell, un juez federal de los Estados Unidos
anuló en 1973 la patente de Sperry Rand sobre el ENIAC (presentada en la siguiente
sección), diciendo que se había derivado de la invención de Atanasoff. Mientras pasaba
cinco días en el laboratorio de Atanastoff, Mauchly observó el ABC y leyó su manual de 35
páginas. Se llegó a la conclusión de que Mauchly había utilizado esta información para
construir el ENIAC.
El ingeniero alemán Konrad Zuse construyó en 1941 la computadora Z3 con relés
electromagnéticos para el diseño de misiles y aviones.

2. Computadoras electrónicas

Ha habido cinco generaciones de computadoras electrónicas. La tecnología subyacente


para la implementación de dispositivos electrónicos ha sido la fuerza impulsora detrás de
los avances en el diseño de computadoras electrónicas. Las computadoras electrónicas
primitivas aparecen hoy en día en los centros de conmutación telefónica, los escáneres de
los supermercados, los cajeros automáticos (ATM) para transacciones bancarias, los
sistemas de frenos antibloqueo (ABS) en los automóviles, etc. Las computadoras más
avanzadas se utilizan en computadoras personales, como interruptores en redes
informáticas avanzadas, el diseño de aeronaves, la predicción meteorológica, etc. Esta
sección se centra en las computadoras de propósito general que pueden resolver problemas
en muchos campos diversos. Aquí se presta especial atención a los ordenadores adecuados
para aplicaciones científicas y de ingeniería.
2.1. Primera generación (1945-1955)

La computadora Colossus fue construida en Inglaterra en 1943 para decodificar


mensajes transmitidos por los alemanes durante la Segunda Guerra Mundial. Alan M.
Turing, el famoso matemático británico, ayudó en el desarrollo de la primera computadora
electrónica del mundo. Una máquina ENIGMA que fue utilizada por los alemanes para
codificar mensajes había caído en manos de la inteligencia británica. Se necesitaron
enormes cantidades de cómputo para descifrar los mensajes codificados. El desarrollo de
Colossus se mantuvo en secreto durante muchos años.
Howard H. Aiken de la Universidad de Harvard (en cooperación con IBM) produjo en
1944 una calculadora totalmente electrónica basada en relés para el desarrollo de cartas
balísticas por parte de la Marina de los Estados Unidos. La calculadora Mark I ocupaba un
espacio muy considerable e incluía unos 500 kilómetros de cableado. Las señales
electromagnéticas se utilizaron para accionar las piezas mecánicas. Grace Murray Hopper

7
fue una famosa programadora de Mark I en el Centro de Computación de Harvard; era
teniente de la Marina de los Estados Unidos.
La Segunda Guerra Mundial obligó a varios gobiernos a poner serios esfuerzos en el
desarrollo de computadoras electrónicas para el diseño de misiles y aviones, y la
decodificación de mensajes. Una computadora tan poderosa fue el Electronic Numerical
Integrator And Computer (ENIAC) que fue desarrollado para el gobierno de los Estados
Unidos en la Universidad de Pensilvania por John Presper Eckert Jr. y John W. Mauchly.
Con su personal de catorce personas, trabajaron en el diseño y construcción del ENIAC
desde 1943 hasta 1945. Se ubicaron en la Escuela Moore de Ingeniería Eléctrica de la
Universidad de Pensilvania. La primera aplicación del ENIAC fue en ciencias nucleares
para el Proyecto Manhattan. Contenía unos 18.000 tubos de vacío, 70.000 resistencias y
1.500 relés. Consumía 160 kilovatios de energía eléctrica y pesaba 30 toneladas. Su gran
consumo de energía era el resultado de una gran cantidad de tubos de vacío. Los tubos de
vacío contienen un elemento calefactor que desplaza electrones. El calentador se quema
después de unos pocos miles de horas de funcionamiento. ENIAC estuvo funcionando sin
fallas durante uno o dos días, en promedio. Realizaba unas 5.000 operaciones por segundo.
Era unas 1.000 veces más rápida que la Mark I y fue desarrollada como una computadora
de propósito general. Tenía solo veinte ubicaciones de memoria en las que cada una podía
almacenar un número decimal de 10 dígitos con signo.
El UNIVAC I (Universal Automatic Computer) construido por Remington Rand en 1951
fue el primer ordenador comercial que implementó los principales conceptos de diseño de
Von Neumann. Utilizaba tubos de vacío para los elementos de conmutación. En general, las
computadoras electrónicas de primera generación empleaban tubos de vacío y tambores
magnéticos para el almacenamiento de programas y datos. Además, estaban programados
principalmente en lenguaje de máquina.

2.2. Segunda generación (1955-1965)

La tecnología de transistores que facilita la implementación de estado sólido de


componentes electrónicos fue inventada en 1947 en los Laboratorios Bell de Nueva Jersey
por John Bardeen y Walter Brattain. Demostraron un amplificador de estado sólido. El
líder de su proyecto, William Shockley, propuso un nuevo tipo de transistor que se
implementó en 1950. Contenía una capa de un semiconductor de tipo p entre dos capas de
un semiconductor de tipo n. En el tipo p, la conducción eléctrica es el resultado de
transferencias de huecos (o vacantes de electrones). En el tipo n, las transferencias de
electrones producen conducción. Esta nueva generación de computadoras floreció debido a
este desarrollo de transistores. El uso de pequeños transistores, en lugar de grandes tubos de
vacío, redujo drásticamente el tamaño de los componentes, mientras que su velocidad de
procesamiento aumentó enormemente. El progreso en la reducción de los transistores
continúa hasta nuestros días. Como se discutió anteriormente, la memoria de núcleo
magnético fue introducida en 1950 en el MIT por William Papian y Jay Forrester para la
computadora Whirlwind. Tuvo un impacto positivo en el tamaño, la velocidad, la
confiabilidad y el consumo de energía de las computadoras. La primera computadora

8
comercial que utilizó memoria de núcleo magnético fue la IBM 705, en 1955. Los
fabricantes de computadoras en la década de 1950 generalmente producían máquinas de
procesamiento de datos, en lugar de computadoras para abordar problemas matemáticos.

El IBM 7090, el DEC PDP-1 y el Control Data Corporation (CDC) 1604 fueron los
primeros ordenadores en utilizar transistores. El PDP-1 dio origen a la industria de las
minicomputadoras; Costaba mucho menos que el 7090, producía la mitad de su
rendimiento y podía almacenar 4.000 palabras de 18 bits. Las minicomputadoras cuestan
mucho menos que las computadoras grandes, pero pueden producir un rendimiento muy
sustancial. Se introdujeron supercomputadoras que contenían muchos procesadores, como
la IBM 7030 (su nombre de proyecto era STRETCH) en 1955 y la Sperry-Rand LARC. Se
utilizaron en laboratorios de energía atómica para procesar grandes cantidades de datos en
cortos períodos de tiempo. El IBM 7030 era diez veces más rápido que sus modelos
anteriores que usaban tubos de vacío. También introdujo el concepto de múltiples bancos de
memoria y utilizó una canalización pesada, con hasta seis instrucciones activas
simultáneamente. La programación en lenguaje ensamblador, los sistemas operativos y los
sistemas de almacenamiento en cinta eran comunes en esta generación. Otros fabricantes de
computadoras durante este período fueron, entre otros, Honeywell, Control Data y
Burroughs. La industria del software también tiene sus raíces en esta generación de
computadoras. Los lenguajes de programación COBOL (Common Business-Oriented
Language) y FORTRAN (Formula Translator) reemplazaron el código máquina binario con
mnemotecnia, palabras, oraciones y fórmulas matemáticas. BASIC, un lenguaje de
programación fácil de aprender, fue desarrollado en 1964 por los estudiantes de la
universidad Dartmouth.
Jack Kilby de Texas Instruments inventó el circuito integrado (IC) en 1958 al mismo
tiempo que Robert Noyce de Fairchild Corporation. Colocó menos de media docena de
transistores semiconductores en un solo chip. Fairchild introdujo en 1961 los primeros
circuitos integrados comerciales, en forma de RTL (lógica de resistencia-transistor). A este
éxito le siguieron integraciones más densas a lo largo de los años. Más tarde, la lógica TTL
(transistor-transistor) mejoró la eficiencia y el proceso de fabricación. Entre 1961 y 1971, el
número de transistores en los chips comerciales (COTS) se duplicó aproximadamente cada
año. Desde entonces, el rendimiento del microprocesador se duplica aproximadamente cada
dieciocho meses, mientras que el número de transistores en un chip se duplica
aproximadamente cada dos años. Se espera que esta mejora en la integración de transistores
continúe (probablemente hasta alrededor de 2010) según una predicción hecha por Gordon
Moore en 1965; esta predicción se conoce como Ley de Moore.
El CDC 6600 se introdujo en 1964. Contenía varios procesadores (CPU) altamente
paralelos. Su diseñador fue Seymour R. Cray. Más tarde se hizo muy famoso por diseñar
supercomputadoras (como se discute a continuación). El CDC 6600 introdujo la técnica del
marcador para resolver las dependencias de datos entre las instrucciones para la
programación dinámica de las operaciones. Contenía diez unidades funcionales y las
instrucciones se emitieron fuera de orden.
El primer láser se demostró en 1960 en los Laboratorios de Investigación Hughes en los
EE. UU. Desde entonces han aparecido varios tipos diferentes de láseres. La tecnología

9
láser ha tenido un impacto muy significativo en los últimos años en las comunicaciones
informáticas, el registro óptico de la información y la impresión por ordenador.

2.3. Tercera generación (1965-1974)

La invención del circuito integrado en 1959 permitió a varias empresas nuevas


introducir minicomputadoras. Además, la tecnología de memoria de núcleo magnético fue
reemplazada por memorias IC en la década de 1970. El transistor bipolar que facilita las
transferencias de electrones dentro del cuerpo del semiconductor fue preeminente en la
década de 1950. El Laboratorio de Investigación Electrónica de la RCA desarrolló el
MOSFET (transistor de efecto de campo de silicio de óxido metálico) en 1962. Los
circuitos integrados MOS aumentan la integración de los componentes y las transferencias
de electrones se producen en la superficie del semiconductor. En 1965, Digital Equipment
Corp. (DEC) introdujo el PDP-8, un producto muy exitoso que dominó el mercado de las
minicomputadoras. Tenía un tamaño más pequeño que las computadoras anteriores debido
a sus chips IC. Le siguió el PDP-11 que tuvo un tremendo éxito entre las universidades y
los centros de investigación. En 1967, Fairchild produjo el 3800, un chip ALU (Unidad
Aritmética y Lógica) de 8 bits con un acumulador integrado.
En 1969, Kenneth Thompson y Dennis Ritchie de los Laboratorios Bell de AT&T
desarrollaron el sistema operativo UNIX. Es compatible con múltiples usuarios y
multitarea. Se puede instalar prácticamente en cualquier computadora porque está escrito en
un lenguaje de alto nivel, a saber, C. Hay dos versiones populares de Unix, Berkeley Unix y
AT&T system V. Una versión más reciente, a saber, Linux, se ejecuta en muchas
plataformas de hardware, incluidas las computadoras personales. Fue desarrollado por
Linus Torvalds en la década de 1990. La Agencia de Proyectos de Investigación Avanzada
(ARPA, por sus siglas en inglés) del Departamento de Defensa de los Estados Unidos
estableció la red de comunicaciones de intercambio de datos Arpanet, que comenzó con
cuatro universidades.
El System/360 permitió a IBM dominar el mercado de los grandes ordenadores
centrales. Se desarrollaron más familias de mainframes de IBM con lenguajes
ensambladores idénticos para fines de compatibilidad de programas. El concepto de
multiprogramación, en el que varios programas pueden residir simultáneamente en la
máquina, también se introdujo con la familia System/360.
El primer anuncio de Intel para una microcomputadora apareció en noviembre de 1971.
Era para el MCS-4. El MCS-8, más versátil, estuvo disponible en abril de 1972. Intel había
comenzado como una empresa que producía chips de memoria. En 1971, el chip Intel 4004

10
incluía todos los componentes básicos del procesador de 4 bits en un solo chip. Contenía
2.300 transistores. La era de los chips de microprocesador único apenas comenzaba. Más
tarde, los microprocesadores aparecieron en todas partes, en electrodomésticos de cocina,
computadoras de escritorio, automóviles, etc. Su bajo costo los pone al alcance de muchas
personas, no solo de las empresas. Otras empresas pioneras de microcomputadoras fueron
Commodore y Apple Computers. En 1972, Intel produjo el microprocesador 8008 de 8 bits
que contenía 3.300 transistores y funcionaba a 0,5 MHz. Otros microprocesadores
populares de 8 bits de esta época fueron el Intel 8080 y el Motorola MC6800. Se utilizaron
en aplicaciones integradas. El primer sistema informático popular fue el MITS Altair 8800
que contenía el Intel 8080 de 2 MHz. A mediados de la década de 1970 estuvieron
disponibles varias otras computadoras de pasatiempo. La mayoría de estas computadoras
se vendieron en kits.
En los últimos cuarenta años, las ventas de supercomputadoras han crecido de un
pequeño número para menores mercados especializados a un número relativamente grande
de máquinas para el gobierno, la industria y las universidades. Seymour R. Cray estuvo a
cargo del desarrollo de una de las primeras computadoras que contenía transistores, a saber,
la CDC 1604. Su grupo diseñó el CDC 6600 y varias versiones mejoradas del mismo.
Varias universidades y laboratorios gubernamentales compraron estas máquinas debido a su
alta velocidad. Más tarde, Cray fundó Cray Research, Inc., en 1972 para la fabricación de
supercomputadoras. Creía que se debe utilizar la mejor tecnología cada vez para diseñar la
máquina más rápida, independientemente de su costo. Los diseños de Cray se basaron en el
procesamiento de datos vectoriales, donde la misma operación se aplica simultáneamente a
muchos o todos los elementos de una matriz de datos. Estas operaciones de matriz son muy
comunes en las aplicaciones de ingeniería. Mientras que todas las máquinas anteriores
similares a las supercomputadoras usaban memoria de núcleo magnético, Cray usó chips de
memoria por primera vez.

2.4. Cuarta generación (1974-1989)

La tecnología LSI (Large Scale Integration) permitió la inclusión de cientos de


transistores en un solo chip. En la década de 1980, VLSI (Very LSI) había puesto decenas
de miles de transistores en un solo chip. Cada nueva generación de chips disminuye el
tamaño de los componentes, así como su consumo de energía y su coste. Además, aumenta
el rendimiento, la eficiencia y la fiabilidad.
A mediados de la década de 1970, IBM había producido el mainframe System/370 y
también se había centrado en el desarrollo de software. IBM eligió el camino de la
evolución del diseño en lugar de la revolución durante estos años.
Steve Jobs, Steve Wozniak y Ronald Wayne fundaron la empresa Apple Computer para
comercializar el primer ordenador de la compañía el 1 de abril de 1976, llamado Apple I.
Este dispositivo se mostró por primera vez en el club informático Homebrew Computer
Club y, tras captar la atención de los asistentes, Jobs vio una oportunidad de negocio para
promocionar el ordenador entre los aficionados a la informática y tiendas de electrónica

11
digital. Apple I tenía todas papeletas de triunfar gracias a la combinación de un
microprocesador con conexión para un teclado y monitor, además, al poco tiempo de
empezar con las promociones, los tres empresarios tecnológicos recibieron los primeros
encargos de este ordenador, llegando a vender 200 unidades.
El microordenador Apple II de 1977 contenía el MCS6502 microprocesador que se
implementó en la tecnología CMOS. Era un sistema completo con un CRT (tubo de rayos
catódicos), una unidad de disquete y un teclado. En la década de 1980, los sistemas de
videojuegos, como el Atari 2600, hicieron que las microcomputadoras fueran muy
populares. Tras cosechar el primer éxito, Apple Computer quiso desarrollar ordenadores
más avanzados, empezó a cotizar en el mercado bursátil de Estados Unidos en el año 1980
y, años después, llegó el gran éxito de la compañía, el famoso Macintosh, un dispositivo
personal que contaba con un ratón y una interfaz gráfica.
Debido a las limitaciones en el número de pines y transistores, los primeros
microprocesadores evitaron la implementación de cualquier forma de paralelismo
avanzado. Sin embargo, los microprocesadores de 16 bits que aparecieron más tarde
implementaron el procesamiento de instrucciones canalizadas. Tal era el MC68000
microprocesador que funcionaba a 8 MHz y tenía un rendimiento máximo de 2 MIPS.
Finalmente, a principios de la década de 1980, se formaron muchas nuevas empresas
informáticas (como Apollo) para producir estaciones de trabajo basadas en
microprocesadores para aplicaciones científicas y de ingeniería.
En 1981, IBM introdujo la computadora personal (PC) que se utilizaría como
computadora de escritorio. Su código de sistema operativo DOS (Disk Operating System)
fue producido por Microsoft para IBM. DOS no permitía la multitarea ni el acceso de
varios usuarios simultáneamente. IBM vendió 13.000 PCs en 1981. Los clones de PC
aparecieron poco después como productos de muchas empresas recién establecidas. A
finales de 1982 se vendieron millones de PC. El microordenador Macintosh fue introducido
por Apple en 1984. Era muy fácil de usar porque un mouse (es decir, un dispositivo en
movimiento que rastrea el cursor en la pantalla de la computadora) podría usarse para
seleccionar comandos de computadora, en lugar de escribir los comandos en el teclado. Los
impresionantes avances en las tecnologías de integración hicieron posible la introducción
de numerosos microprocesadores en los años siguientes. El crecimiento del mercado de PC
fue fenomenal.
El primer sistema de ventanas de software, en el que se permite que diferentes tareas
ocupen diferentes partes de la pantalla del ordenador, apareció en 1981 en el sistema Xerox
Start. Apple produjo su sistema de ventanas en 1984 y Microsoft en 1985. X Windows, otro
sistema de ventanas, se introdujo a finales de la década de 1990 en el MIT para estaciones
de trabajo gráficas; Unix o Linux es el sistema operativo asumido.
Las integraciones de transistores siguieron la Ley de Moore a lo largo de los años e
hicieron posible la implementación de microprocesadores con enormes capacidades y muy
alta complejidad. David Ditzel y David Patterson propusieron en 1980 una nueva filosofía
de diseño para los microprocesadores. Acuñaron la palabra RISC (Reduced Instruction Set
Computer) para estos microprocesadores. Propusieron la reducción de la complejidad del
microprocesador para un mejor rendimiento. Los microprocesadores existentes en ese

12
momento pertenecían a la clase CISC (Complex Instruction Set Computer). Sostuvieron
que la complejidad de esta última clase era tan alta que todas las instrucciones
experimentaban una sobrecarga significativa durante la ejecución. Su estudio mostró que
solo cuatro clases de instrucciones (a saber, cargar, almacenar, agregar y saltar) se ejecutan
aproximadamente el 75% de las veces en los programas de aplicación. Por lo tanto, la
implementación de estas clases de instrucciones debe tener mayor prioridad que la
implementación de cualquier otra instrucción o característica del microprocesador. Como
resultado, numerosos microprocesadores RISC estuvieron disponibles comercialmente en
los años siguientes. Su rendimiento de instrucción es de aproximadamente una instrucción
por ciclo de reloj. Sin embargo, los diseños de CISC han sobrevivido. En realidad, la
mayoría de los microprocesadores actuales poseen características RISC y CISC.
Ethernet para PC comenzó a comercializarse en 1982. Es un sistema de comunicación
de radiodifusión que transporta paquetes de datos digitales entre ordenadores distribuidos
interconectados localmente. El intercambio de información en una red de ordenadores
mejora la productividad en el entorno de trabajo, y por ello Ethernet ha tenido un impacto
muy positivo en la informática.
El equipo de Cray tardó cuatro años en desarrollar la supercomputadora Cray-1 en 1976.
El sistema de refrigeración de la máquina era innovador, capaz de disipar grandes
cantidades de calor. El diseño equilibró el procesamiento vectorial de pozos con el
procesamiento escalar (es decir, datos individuales) y la entrada/salida de datos. Utilizó los
primeros circuitos integrados comerciales ECL (lógica acoplada al emisor) que conmutan
rápidamente porque no saturan. Además, los dispositivos ECL pueden tener un alto número
de distribución ramificada (es decir, la misma salida ECL se puede conectar a muchas
entradas). Cray-1 tenía un tiempo de ciclo de 12,5 ns (correspondiente a una frecuencia de
reloj de 80 MHz). Se introdujo el concepto de encadenamiento de operaciones, donde los
elementos resultantes de una operación vectorial son consumidos por una segunda
operación que sigue en el programa. Cray comenzó a trabajar en el Cray-2 en 1978.
Mientras tanto, otros grupos de la compañía produjeron el Cray-1S y el Cray-1M en 1979 y
1982, respectivamente. El 1S tenía un rendimiento comparable con la primera máquina,
pero empleaba la tecnología MOS (semiconductor de óxido metálico) para Reducir el
costo. Los productos posteriores incluyeron el Cray X-MP y el Y-MP. El Cray-2 en 1985 se
sumergió en un líquido de fluorocarbono para fines de enfriamiento. Contenía cuatro
procesadores y tenía el doble de espacio de memoria que el X-MP. Cray quería utilizar la
tecnología de arseniuro de galio para los circuitos integrados debido a su alta velocidad,
pero la tecnología era inmadura en ese momento. Se utilizaron matrices de puertas ECL
bipolares y el tiempo de ciclo fue de 4,1 ns (correspondiente a una frecuencia de reloj de
unos 244 MHz).
Muchas otras supercomputadoras también se hicieron populares. Algunos de ellos no
implementaron el procesamiento vectorial, pero se beneficiaron enormemente del
rendimiento agregado de las colecciones de procesadores. La Connection Machine CM-2
construida por Thinking Machines, la Intel iPSC y la nCUBE/2 son algunas de las
máquinas más representativas. El CM-2 contenía hasta 65.536 procesadores propietarios de
un solo bit.

13
2.5. Quinta generación (1990-presente)

La cifra de integración de un millón de transistores por chip se alcanzó a finales de 1989


con los avances en la tecnología VLSI. Su sucesora, la tecnología ULSI (Ultra LSI), ha
aumentado esta cifra a millones. Actualmente estamos en la quinta generación de diseño de
microprocesadores. Cada generación sucesiva de microprocesadores casi duplica el costo
de desarrollo de la generación inmediatamente anterior. El énfasis actual está en el
procesamiento superescalar y el multithreading. Muchas operaciones escalares se pueden
implementar simultáneamente en procesadores superescalares. Muchos subprocesos
independientes (es decir, secuencias) de instrucciones pueden residir simultáneamente en
procesadores multiproceso; Un subproceso de este tipo a menudo se activa
instantáneamente con una sobrecarga mínima. El mercado de PC creció a 60 millones de
unidades en 1995. En comparación, el mercado de microprocesadores superó los cuatro mil
millones de unidades el mismo año. Una mayor integración de componentes ha hecho
posible la construcción de pequeñas computadoras portátiles y de mano. Entre 1988 y mayo
de 2000, Intel vendió mil millones de chips de memoria flash; Se utilizan principalmente en
teléfonos y dispositivos portátiles. La Ley de Moore predice chips con unos 350 millones
de transistores en 2006. Sin embargo, por razones económicas, los fabricantes a menudo
producen chips con aproximadamente un 20% menos de transistores de los esperados.
IBM y Motorola produjeron recientemente de forma independiente técnicas que utilizan
cableado de cobre en chips, en lugar de cableado de aluminio que era la solución
previamente aceptada. Debido a la menor resistencia con el cobre, se pueden lograr
velocidades más altas en las transferencias de datos.
La supercomputadora vectorial Cray T90 en 1994 incluía hasta 32 procesadores. Varias
supercomputadoras japonesas compitieron con éxito con las máquinas Cray, como la
Fujitsu VPP500. Más recientemente, se han construido supercomputadoras masivamente
paralelas con cientos o miles de procesadores, como el Cray MPP T3D y T3E, Thinking
Machines CM-5, Intel Paragon e IBM RS/6000 SP. El IBM SP puede contener 1.152
procesadores Power3 que funcionan a 222 MHz. En 1997, la supercomputadora IBM Deep
Blue derrotó al campeón mundial de ajedrez Garry Kasparov.
IBM presentó en junio de 2000 un disco duro con una capacidad de almacenamiento de
mil millones de bytes de información que tiene el tamaño de un libro de fósforos. El disco
duro 3380 de IBM en la década de 1980 de la misma capacidad tenía el tamaño de un
refrigerador. Los principales mercados para la nueva unidad son las cámaras digitales y las
computadoras de escritorio y portátiles. La unidad puede almacenar alrededor de 1.000
fotografías de alta resolución o 10 horas de música de audio digital de alta calidad. El
desarrollo de estos sistemas de almacenamiento magnético es un paso importante para la
incorporación de la próxima generación de discos duros en los ordenadores wearables.
Debido a la gran cantidad y capacidades de las PC y estaciones de trabajo individuales,
el intercambio eficiente de información se volvió absolutamente esencial en el entorno de
trabajo, y nació la era de las PC en red para compartir información, software y espacio de
memoria. Luego, nació la red global de computadoras de Internet para vincular las
computadoras de todo el mundo en, potencialmente, una sola red de información. La World

14
Wide Web (WWW) es una colección de páginas con hipervínculos distribuidas a través de
Internet a través del protocolo de red HTTP (protocolo de transferencia de hipertexto). La
WWW fue inventada en 1990 por Tim Berners-Lee, físico del CERN (Laboratorio Europeo
de Física de Partículas). Fue inventado para que los físicos compartieran los resultados de
sus investigaciones. Inicialmente, solo incluía texto. Los procesos gráficos se integraron
más tarde con el navegador de páginas WWW Mosaic que se produjo en la Universidad de
Illinois en Urban-Champaign. El impacto de la combinación de Internet y WWW ha sido
extremadamente positivo. Se han establecido numerosas empresas que prestan servicio a
través de sus páginas de Internet.
También se están investigando enfoques no tradicionales en informática. Por ejemplo,
se han propuesto sistemas ópticos para la interconexión de chips informáticos. Las
computadoras que implementan enfoques de redes neuronales siguen modelos biológicos
en los que las neuronas se entrenan para responder a entradas conocidas y luego se adaptan
por sí mismas a entradas desconocidas. Han tenido éxito en algunas aplicaciones
relacionadas principalmente con el reconocimiento de patrones. Los algoritmos genéticos
simulan la evolución de las secuencias de ADN y son apropiados en problemas de
optimización. Sin embargo, su teoría aún no se entiende bien. Se espera que las
computadoras cuánticas funcionen de acuerdo con las leyes de la física cuántica. Su
viabilidad y aplicabilidad siguen siendo cuestionables.

Una vez terminado el recuento de las cinco generaciones en la historia de la computación se


mostrará los avances de la última década (2013 hasta 2023).

Los últimos 10 años serán recordados como una revolución tecnológica sin precedentes
que cambió al mundo por completo. La aparición y consolidación del cloud computing, la
amenaza para los bancos y muchos nuevos millonarios que trajo el blockchain o la
aceleración de la producción gracias a conceptos como industria 4.0 o metodologías como
Agile apenas sirven como introducción para las profundas transformaciones que sufrió la
humanidad en esta década gracias a (o por culpa de) la tecnología. Los nuevos años 20 se
inaugurarán con un planeta que utiliza internet para todo, que automatiza y vuelve
inteligente hasta los cepillos de dientes y cuyas organizaciones se enfrentan a la máxima de
transformarse o morir. Aquí recopilamos algunas de las tecnologías que más impacto
tuvieron en este periodo.

 Inteligencia Artificial
A pesar de ser una de las ganadoras indiscutibles de la época, la inteligencia artificial
tiene tanto espacio para crecer que será posiblemente en los próximos 10 años donde se vea
realmente su consolidación en todo lo que la tecnología toca. Los 2010 partieron para la IA
con la victoria de la computadora IBM Watson en Jeopardy. Fueron avanzando con temores
crecientes al impacto que los robots tendrían en la pérdida de trabajos humanos a gran
escala, pero para finales de la década la integración de la inteligencia artificial en el día a
día de las personas (tanto en su vida diaria como en el trabajo) ha abierto una gran cantidad

15
de puertas y nuevas oportunidades de negocio. Su impacto en analytics, automatización de
procesos, chatbots, inteligencia de negocio e Industria 4.0 dio forma al escenario mundial
de las IT que habitamos hoy en día. Imaginar un mundo que crezca sin el aporte de la
inteligencia artificial a estas alturas es imposible. Los números apoyan la tesis: el gasto
global en IA alcanzó en 2019 $37,500 millones de dólares y para el 2023 se espera que esta
cifra crezca dos veces y media, hasta los $97,900 millones de dólares.

 La nube
Pocas tendencias o tecnologías han cambiado el mundo tanto y tan rápido como el cloud
computing. Esta alternativa al modelo tradicional de consumir recursos IT, con su habilidad
de entregar amplios poderes digitales y escalabilidad a bajo costo, tuvo su nacimiento
comercial el 2006, de la mano de Jeff Bezos y su Elastic Compute Cloud (EC2), bajo el
alero de Amazon Web Services, dos años después Google daría el salto con su Google
Cloud Platform (GCP) y aún dos años más tarde Microsoft se subiría al tren con Azure.
Pero fue en la década más reciente donde esta tecnología se consolidó, comenzaron a
ampliar sus ecosistemas y a generar nuevas formas de aproximarse al trabajo IT. La
aparición de modelos de consumo Everything-as-a-Service son prueba de la fuerte
transformación que la nube operó en las organizaciones, mientras el debate en torno a los
beneficios de la nube pública, privada, híbrida o especializada dan testimonio de lo mucho
que le queda por evolucionar.

 Open Source
El código abierto solía ser mirado en menos tanto por desarrolladores como por los
consumidores. Nadie esperaba que las comunidades consiguieran autorregularse para
generar software seguro, confiable, con soporte permanente y calidad empresarial a precios
bajos, pero iniciativas como Github y Red Hat evolucionaron tanto qué gigantes como
Microsoft e IBM se vieron obligados a comprarlos para aprovechar su competitividad. Los
años recientes han visto el crecimiento del Open Source no solo en el software sino también
en el hardware, una tendencia que muy probablemente se consolidará en la próxima década.

 Seguridad
En el 2010 ninguna compañía pensaba en contratar a un Chief Security Officer o similar.
La seguridad se limitaba a proteger el perímetro, y enfrentar la ocasional amenaza de los
hackers, pero las fuentes de amenaza se multiplicaron tanto y se volvieron tan sofisticadas
que hoy en día las organizaciones prácticamente deben vivir en un estado constante de
guerra. El cibercrimen se transformó en uno de los negocios ilegales más rentables del
mundo y cualquier persona con un poco de dinero extra puede acceder a software de alta
complejidad para violar la seguridad de una empresa poco preparada, o a una red de bots
dispuestos a sobrecargar cualquier servidor. La nueva norma es vivir bajo ataque, y por lo
mismo los trabajos y las certificaciones en ciberseguridad son algunas de las que mejores
oportunidades presentarán para los especialistas IT en la próxima década.

16
 4G
La gran mayoría de los grandes cambios de la década se deben al aumento de las
velocidades de transmisión de datos y a la reducción de sus costos. La posibilidad de,
además, estar conectado en todo momento y lugar a esas velocidades revolucionó el
consumo digital y consolidó la economía de las apps. Esta evolución de la conectividad
también aportaría a los trabajos remotos, la Industria 4.0, y una plétora de aspectos de las
labores diarias, pero quizás el cambio más significativo fue humano: hoy es casi imposible
pensar en una sociedad para la que no está disponible todo el contenido de internet en todo
momento y en la palma de su mano.

 Big Data y Analytics


Cada minuto, Estados Unidos genera más de tres millones de gigabytes de datos. Se
proyecta que en 2020 por cada ser humano sobre el planeta se crearán 1.7 Mb de
información por segundo. Los datos se han ganado el apodo del “petróleo del siglo XXI” y
la comparación hasta podría quedarse corta: el mercado de Big Data proyecta crecimientos
de $42,000 millones de dólares en 2018 a más de $103,000 millones en 2027, un ritmo de
10% anual. Por otro lado, de acuerdo con un estudio de Accenture, cuatro de cada cinco
ejecutivos concuerdan en que las compañías que no abracen el Big Data perderán su
posición competitiva y podrían extinguirse. Coincidentemente, ese mismo 83% de
empresas ya están persiguiendo proyectos basados en datos para obtener una ventaja
competitiva. Muchas de las grandes decisiones en las organizaciones hoy en día no se
toman sin antes consultar una base de datos demasiado grande para las capacidades
humanas, con la confianza de que cada vez más y mejores algoritmos y procesos lograrán
descubrir la nueva veta millonaria, o la secuencia de eventos que harán saltar al negocio al
siguiente nivel. Esta década hizo despertar al gran monstruo de los datos, los siguientes 10
años verán su dominio alcanzar a prácticamente todos los aspectos de la vida humana.

17
Conclusión

Podemos concluir que la historia de la computación nos enseña que el proceso


tecnológico es un perpetuo ciclo de aprendizaje y mejora, a lo largo de los años,
visionarios, inventores y científicos han trabajado incansablemente para mejorar y
perfeccionar sistemas, dando lugar a una evolución constante de la capacidad de
procesamiento, velocidad y almacenamiento de datos. A medida que se avanza al futuro se
continúan impulsando la exploración de nuevas tecnologías para el desarrollo de la
sociedad y poder así, aprovechar al máximo el potencial de la misma. No cabe duda de que
la computación seguirá desempeñando un papel fundamental en nuestra sociedad y
continuará inspirando nuevas ideas y descubrimientos

18
Bibliografía

1. Bromley, A.G. (1998). La máquina analítica de Charles Babbage, 1838. Anales de


Historia de la Computación del IEEE, 20(4), 29-45
2. "Computadora". Autor: Equipo editorial, Etecé. De: Argentina. Para: Concepto.de.
Disponible en: https://concepto.de/computadora/. Última edición: 26 de septiembre
de 2020.
3. Chase, G.C. (1980). Historia de la Maquinaria de Computación Mecánica. Anales
del IEEE de la Historia de la Computación 2(3).
4. "Historia de la computadora". Autor: Equipo editorial, Etecé. De: Argentina. Para:
Enciclopedia Humanidades. Disponible en: https://humanidades.com/historia-de-la-
computadora/. Última edición: 11 junio, 2023.
5. https://www.20minutos.es/tecnologia/fabricantes/como-se-fundo-apple-asi-fue-
como-steve-jobs-steve-wozniak-ronald-wayne-cambiaron-historia-5114718/
6. Malone, M. (1995). El microprocesador: una biografía. Nueva York, Estados
Unidos: SpringerVerlag.

19

También podría gustarte

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy