Só Trabalhos De-Wps Office
Só Trabalhos De-Wps Office
Só Trabalhos De-Wps Office
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO
A HISTÓRIA DO COMPUTADOR
LUANDA
2016
FACULDADE DE DIREITO
LICENCIATURA EM DIREITO
A HISTÓRIA DO COMPUTADOR
DOMINELA HUGO
Período: Manhã
Turma: C
Ano: 1º
Trabalho a ser apresentado ao curso de Direito na disciplina de Informática como requisito parcial para
obtenção de notas.
LUANDA
2016
SUMÁRIO
1. INTRODUÇÃO
2. ABORDAGEM TEÓRICA
3. REFERÊNCIAS BIBLIOGRÁFICAS
1. INTRODUÇÃO
Hoje em dia, os computadores estão presentes na nossa vida. Sejam em casa, na escola, na faculdade,
na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, os
computadores não surgiram nos últimos anos ou décadas, mas sim há mais de 7 mil anos.
Neste trabalho, pretendo abordar a história e a evolução dos computadores e dos computadores em
geral, desde a antiguidade até os dias de hoje. Desta maneira, ficaremos por dentro das principais
formas de computação utilizadas pela humanidade.
2. ABORDAGEM TEÓRICA
O mais antigo equipamento para cálculo foi o ábaco, que era um quadro com arruelas móveis, dispostas
em arames paralelos, tendo, portanto, um mecanismo simples. Surgido da tentativa do homem de se
livrar dos trabalhos manuais e repetitivos e da necessidade inata de se fazer contas mais rápida e
precisamente, o ábaco provavelmente foi criado em 2500 a.C., no mundo mediterrâneo. Em latim, uma
pedrinha do ábaco era chamada de calculus. E fazer operações aritméticas era calculare.
O brilhante matemático inglês Charles Babbage (1792-1871), conhecido como o "Pai do Computador",
projectou o chamado "Calculador Analítico", muito próximo da concepção de um computador actual. O
projecto, totalmente mecânico, era composto de uma memória, um engenho central, engrenagens e
alavancas usadas para a transferência de dados da memória para o engenho central e dispositivos para
entrada e saída de dados. O calculador utilizava cartões perfurados e era automático. Ada Augusta
(1815-1852), Lady Lovelace, filha do poeta Lord Byron, era uma matemática amadora entusiasta e
tornou-se a primeira programadora, escrevendo séries de instruções para o engenho analítico.
Por volta de 1890, um outro nome entrou na história do computador: Dr. Herman Hollerith (1860-1929),
responsável por uma grande mudança na maneira de se processar os dados dos censos da época. Os
dados do censo de 1880, manualmente processados, levaram 7 anos e meio para serem compilados. Os
do censo de 1890 foram processados em 2 anos e meio, com a ajuda de uma máquina de perfurar
cartões e máquinas de tabular e ordenar, criadas por Hollerith e sua equipe. As informações sobre os
indivíduos eram armazenadas por meio de perfurações em locais específicos do cartão. Nas máquinas
de tabular, um pino passava pelo furo e chegava a uma jarra de mercúrio, fechando um circuito eléctrico
e causando um incremento de 1 em um contador mecânico. Mais tarde, Hollerith fundou uma
companhia para produzir máquinas de tabulação. Anos depois, em 1924, essa companhia veio a se
chamar IBM.
Os sistemas operacionais têm evoluído com o passar dos anos. Nas próximas sessões vou apresentar de
forma sucinta este desenvolvimento.
Após muitos esforços mal sucedidos de se construir computadores digitais antes da 2ª guerra mundial,
em torno da metade da década de 1940 alguns sucessos foram obtidos na construção de máquinas de
cálculo empregando-se válvulas e relés. Estas máquinas eram enormes, ocupando salas com racks que
abrigavam dezenas de milhares de válvulas (e consumiam quantidades imensas de energia).
Naquela época, um pequeno grupo de pessoas projectava, construía, programava, operava mantinha
cada máquina. Toda programação era feita absolutamente em linguagem de máquina, muitas vezes
interligando plugs para controlar funções básicas da máquina. Linguagens de programação eram
desconhecidas; sistemas operacionais idem. Por volta de 1950 foram introduzidos os cartões perfurados
aumentando a facilidade de programação.
Pela primeira vez, houve uma separação clara entre projectistas, construtores, operadores,
programadores e pessoal de manutenção. Entretanto, dado seu custo ainda elevado, somente
corporações e universidades de porte detinham recursos e infra-estrutura para empregar os
computadores desta geração.
Estas máquinas eram acondicionadas em salas especiais com pessoal especializado para sua operação.
Para executar um job (programa), o programador produzia um conjunto de cartões perfurados (um
cartão por comando do programa), e o entregava ao operador que dava entrada do programa no
computador. Quando o computador completava o trabalho, o operador devolvia os cartões com a
impressão dos resultados ao programador.
A maioria dos computadores da 2ª geração foram utilizados para cálculos científicos e de engenharia.
Estes sistemas eram largamente programados em FORTRAN e ASSEMBLY. Sistemas operacionais
típicos[1] eram o FMS (Fortran Monitor Systems) e o IBSYS (IBM's Operating Systems).
No início dos anos 60, a maioria dos fabricantes de computadores mantinham duas linhas distintas e
incompatíveis de produtos. De um lado, havia os computadores científicos que eram usados para
cálculos numéricos nas ciências e na engenharia. Do outro, haviam os computadores comerciais que
executavam tarefas como ordenação de dados e impressão de relatórios, sendo utilizados
principalmente por instituições financeiras.
A IBM tentou resolver este problema introduzindo a série System/360. Esta série consistia de máquinas
com mesma arquitectura e conjunto de instruções. Desta maneira, programas escritos para uma
máquina da série executavam em todas as demais. A série 360 foi projectada para atender tanto
aplicações científicas quanto comerciais.
O tempo de espera dos resultados dos programas reduziu-se drasticamente com a 3ª geração de
sistemas. O desejo por respostas rápidas abriu caminho para o time-sharing, uma variação da
multiprogramação onde cada usuário tem um terminal on-line e todos compartilham uma única CPU.
Após o sucesso do primeiro sistema operacional com capacidade de time-sharing (o CTSS) desenvolvido
no MIT, um consórcio envolvendo o MIT, a GE e o Laboratório Bell foi formado com o intuito de
desenvolver um projecto ambicioso para a época: um sistema operacional que suportasse centenas de
usuários on-line. O MULTICS (MULTiplexed Information and Computing Service) introduziu muitas idéias
inovadoras, mas sua implementação mostrou-se impraticável para a década de sessenta. O projecto
MULTICS influenciou os pesquisadores da Bell que viriam a desenvolver o UNIX uma década depois.
Com o desenvolvimento de circuitos integrados em larga escala (LSI), chips contendo milhares de
transístores em um centímetro quadrado de silício, surgiu a era dos computadores pessoais e estações
de trabalho. Em termos de arquitectura, estes não diferem dos minicomputadores da classe do PDP-11,
excepto no quesito mais importante: preço. Enquanto os minicomputadores atendiam companhias e
universidades, os computadores pessoais e estações de trabalho passaram a atender usuários
individualmente.
O aumento do potencial destas máquinas criou um vastíssimo mercado de software a elas dirigido.
Como requisito básico, estes produtos (tanto aplicativos quanto o próprio sistema operacional)
necessitavam ser "amigáveis", visando usuários sem conhecimento aprofundado de computadores e
sem intenção de estudar muito para utilizá-los. Esta foi certamente a maior mudança em relação ao
OS/360 que era tão obscuro que diversos livros foram escritos sobre ele.
Dois sistemas operacionais têm dominado o mercado: MS-DOS (seguido do MS-Windows) para os
computadores pessoais e UNIX (com suas várias vertentes) para as estações de trabalho.
O próximo desenvolvimento no campo dos sistemas operacionais surgiu com a tecnologia de redes de
computadores: os sistemas operacionais de rede e distribuídos.
Sistemas operacionais de rede diferem dos sistemas operacionais para um simples processador no
tocante à capacidade de manipular recursos distribuídos pelos processadores da rede.
Por exemplo, um arquivo pode ser acessado por um usuário em um processador, mesmo que
fisicamente o arquivo se encontre em outro processador. Sistemas operacionais de rede provêem ao
usuário uma interface transparente de acesso a recursos compartilhados (aplicativos, arquivos,
impressoras, etc.), sejam estes recursos locais ou remotos.
Sistemas operacionais distribuídos são muito mais complexos. Estes sistemas permitem que os
processadores cooperem em serviços intrínsecos de sistemas operacionais tais como escalonamento de
tarefas e paginação. Por exemplo, em um sistema operacional distribuído uma tarefa pode "migrar"
durante sua execução de um computador sobrecarregado para outro que apresente carga mais leve.
Contrário aos sistemas operacionais de rede que são largamente disponíveis comercialmente, sistemas
operacionais distribuídos têm sua utilização ainda restrita.
A partir dos anos 80 os CIs (circuitos integrados) foram ficando cada vez menores e mais complexos
chegando a bilhões de componentes em uma única pastilha de silício, possibilitando a criação de
computadores menores, com maior desempenho maior capacidade de armazenamento e maior
capacidade de processamento. O marco nesta evolução dos computadores como o conhecemos hoje, é
dada também a invenção dos sistemas operacionais, Unix Vs 7 (1983), MAC OS (1984), Windows (1985),
Linux (1991), conferindo maior flexibilidade na sua utilização.
Por conta disso tudo, os computadores começaram a se tornar mais baratos, mais "amigáveis" e mais
"úteis" às pessoas comuns. Por isso, sobretudo a partir da década de 80, os computadores começaram a
se popularizar, e hoje são realidade para milhões de pessoas no mundo inteiro.
Também iniciou-se por parte dos governos principalmente dos EUA e Japão, um esforço gigantesco e
altos investimentos em projectos de super-computadores. Computadores com características
computacionais de alta performance e inteligência artificial.
A década de 1990 tornou-se a era de expansão da Internet. Para facilitar a navegação pela Internet,
surgiram vários navegadores (browsers) como, por exemplo, o Internet Explorer da Microsoft e o
Netscape Navigator. O surgimento acelerado de provedores de acesso e portais de serviços online
contribuíram para este crescimento. A Internet passou a ser utilizada por vários segmentos sociais. Os
estudantes passaram a buscas informações para pesquisas escolares, enquanto jovens utilizavam para a
pura diversão em sites de games. As salas de chat tornaram-se pontos de encontro para um bate-papo
virtual a qualquer momento. Desempregados iniciaram a busca de empregos através de sites de
agências de empregos ou enviando currículos por e-mail. As empresas descobriram na Internet um
excelente caminho para melhorar seus lucros e as vendas online dispararam, transformando a Internet
em verdadeiros shopping centers virtuais.
Nos dias actuais, é impossível pensar no mundo sem a Internet. Ela tomou parte dos lares de pessoas do
mundo todo. Estar conectado a rede mundial passou a ser uma necessidade de extrema importância. A
Internet também está presente nas escolas, faculdades, empresas e diversos locais, possibilitando
acesso as informações e notícias do mundo em apenas um click.
A Inteligência Artificial (IA) é um ramo da ciência da computação que se propõe a elaborar dispositivos
que simulem a capacidade humana de raciocinar, perceber, tomar decisões e resolver problemas, enfim,
a capacidade de ser inteligente.
Existente há décadas, esta área da ciência é grandemente impulsionada com o rápido desenvolvimento
da informática e da computação, permitindo que novos elementos sejam rapidamente agregados à IA.
2.2.5.3 IA NA VIDA REAL
Hoje em dia, são várias as aplicações na vida real da Inteligência Artificial: jogos, programas de
computador, aplicativos de segurança para sistemas informacionais, robótica (robôs auxiliares),
dispositivos para reconhecimentos de escrita a mão e reconhecimento de voz, programas de
diagnósticos médicos e muito mais.
Como pode ser notado, a Inteligência Artificial é um tema complexo e bastante controverso. São
diversos os pontos a favor e contra e cada lado tem razão em suas afirmações. Cabe a nós esperar que,
independente dos rumos que os estudos sobre IA tomem, eles sejam guiados pela ética e pelo bom
senso.
Conclui-se assim que o computador foi criado por causa das necessidades humanas e através de
pesquisas e dos avanços tecnológicos, foi tornando-se cada vez mais prático, rápido e com componentes
cada vez mais modernos que facilitam o trabalho do homem.
3. REFERÊNCIAS BIBLIOGRÁFICAS
ANDREW, Tanenbaum. "Modern Operating Systems". Massachusetts Addison-Wesley, 1984. ISBN 0-13-
595752-4.
MAURICE J. Bach. "The Design of The UNIX Operating System". Prentice Hall Software Series, Englewood
Cli_s, New Jersey 07632, 1990. ISBN 0-13-201799-7.
URESH, Vahalia. "UNIX Internals: The New Frontiers". Prentice Hall, Upper Saddle River, New Jersey
07458, 1996. ISBN 0-13-101908-2.
Unknown às 10:59:00
Compartilhar
2 comentários:
Responder
Responder
‹
Página inicial
Tecnologia do Blogger.