Tecnologia

Ξ 1 comentário

Processamento de Dados – A Evolução – Parte I

publicado por Wilson Laia

Os Computadores analógicos
Antes da segunda guerra, surgem os computadores mecânicos e elétricos, os computadores analógicos, que foram considerados o ‘estado da arte’, e muitos pensavam que eles eram o futuro da computação. Computadores analógicos utilizam variações contínuas de variáveis físicas, como voltagem e corrente, ou a velocidade de rotação de um dispositivo, para representar as quantidades sendo processadas.

Um exemplo ingênuo de tal máquina é o Integrator aquático construído em 1936. Ao contrário dos computadores digitais modernos, computadores analógicos não são muito flexíveis, e precisavam ser reconfigurados (reprogramados) manualmente para trocar o problema em que iriam trabalhar, mas eles tinham uma vantagem frente aos primeiros computadores digitais, pois, eram capazes de resolver problemas mais complexos.

Desde que os programas de computador não eram ainda muito populares nesta época (apesar do trabalho pioneiro de Babbage), As soluções eram frequentemente hard-coded na forma de gráficos e nomogramas, que podiam representar, por exemplo, uma analogia da solução de problemas como a distribuição de pressão e temperatura em um sistema de aquecimento. Mas à medida que os computadores digitais se tornavam mais rápidos e com mais memória (e.g., RAM ou armazenamento interno), eles praticamente substituíram inteiramente os computadores analógicos, e a profissão de programador surgiu.

Primeira geração dos computadores digitais

Uma corrida de desenvolvimento antes e durante a Segunda guerra mundial, com circuitos eletrônicos, relés, capacitores e válvulas substituindo seus equivalentes mecânicos e o cálculo digital substituindo o cálculo analógico dá início a era da computação moderna. Os computadores projetados e construídos nesta época foram chamados computadores de ‘Primeira Geração’.

Foi criada, então, uma máquina baseada em relés telefônicos e passou a ser o primeiro computador programável, contendo avanços, como o uso de aritmética binária, e números de ponto flutuante.

Muitas das máquinas de hoje continuam a ter instruções de ajuste decimal, a aritmética decimal é ainda essencial para aplicações comerciais e financeiras e hardware para cálculos de ponto-flutuante decimais vem sendo adicionado em muitas novas máquinas (O sistema binário continua sendo utilizado em praticamente todas as máquinas).

O ENIAC (Electronic Numerical Integrator and Computer), frequentemente chamado o primeiro computador eletrônico de propósito-geral, validou publicamente o uso da eletrônica para a computação em larga escala. Isto foi crucial para o desenvolvimento da computação moderna, inicialmente devido à enorme vantagem em velocidade e depois pelo potencial de miniaturização.

Construído sob a direção de John Mauchly e J. Presper Eckert, ele era 1.000 vezes mais rápido que seus contemporâneos. O desenvolvimento e construção do ENIAC iniciaram em 1941 e entrou em operação completa 1945. Quando seu projeto foi proposto, muitos pesquisadores acreditavam que milhares de delicadas válvulas iriam queimar com uma frequência tal que o ENIAC estaria frequentemente desligado para reparos e não teria uso prático. Ele foi, entretanto, capaz de fazer 100.000 cálculos simples por segundo por horas entre as falhas nas válvulas.

O ENIAC foi criado com o plano inicial de armazenamento de Softwares em seu interior. Mas, devido à necessidade de agilizar o lançamento da máquina, essa ideia foi abandonada. Assim, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada, já que não havia software.

Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Era dessa forma que o processamento em si era realizado.

Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Mas, por incrível que possa parecer, isso não chegava a ser uma barreira intransponível, visto que a produção de software ainda não era significativa e não existiam muitos programas disponíveis.

Os Softwares existentes, por sua vez, não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.

O coração de todas estas máquinas maravilhosas é a CPU – Central Processing Unit ou Unidade Central de Processamento, onde os Softwares primitivos rodavam.

Segunda Geração

O grande passo seguinte na história da computação foi a invenção do transístor em 1948. Ele substituiu as frágeis válvulas, que ainda eram maiores e gastavam mais energia, além de serem menos confiáveis. Os computadores transistorizados utilizavam transistores e placas de circuito impresso, eram grandes e utilizados principalmente em universidades, órgãos públicos e grandes empresas.

Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas.

Terceira Geração e Posterior

A explosão no uso dos computadores começou com a ‘Terceira Geração’ de computadores. Estes se baseiam na invenção independente do circuito integrado (ou chip), que posteriormente levou à invenção do microcomputador por Ted Hoff da Intel.

No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos.

Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360.  Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam em comum.

http://www.tecmundo.com.br/historia/2157-a-historia-dos-processadores.htm
http://www.ebah.com.br/content/ABAAABIpIAF/plataformas-cisc-risc
http://en.wikipedia.org/wiki/Mainframe_computer
Stephen White’s excellent computer history site *Yahoo Computers and History
IEEE computer history timeline

Autor

Executivo sênior da Área de TI com uma carreira de 41 anos na área, tendo atuado em grandes multinacionais, tais como: IBM Brasil, Software AG Brasil, Hildebrando Brasil, braço de TI do Grupo TELMEX, Case Brasil, Emerson e Beloit Industrial. Board Member - Board Club, Head of Projects - Agent of Industry 4.0 Prosperity and Development no IDCA - International Data Center Authority, atuando nas Iniciativas de Internacionalização Brasil-Portugal. Membro do Hard Core da Excelência Holding e do Sistema Excelência Holding. MBA em TI pela FGV, Pós-graduado Babson College-USA. Especialista em Data Centers com certificações do IDCA - International Data Center Authority. Certified DCM – Data Center Manager ® - IDCA – USA Certified DCE – Data Center Engineer ® - IDCA – USA Certified DCTP – Data Center Technology Professional ® - IDCA – USA Certified DCOS – Data Center Operations Specialist ® - IDCA – USA Certified DCOM – Data Center Operations Manager ® - IDCA – USA Certified DCIS – Data Center Infrastructure Specialist ® - IDCA – USA Certified DCES – Data Center Engineering Specialist ® - IDCA – USA Certified DCIE – Data Center Infrastructure Expert ® - IDCA – USA Possuí uma combinação única de Vendas, Tecnologia, Infraestrutura de TI (Mainframe, Unix, Linux, Windows), Consultoria (Serviços Profissionais ou Professional Services), suporte técnico, Redes no Brasil, América Latina, América do Norte e no mercado Europeu. A larga experiência na área de TI, lhe confere uma rara oportunidade de conhecer quase todos os segmentos desta área, inclusive em startups de empresas, garantindo uma navegabilidade em todas as plataformas e tecnologias vista em poucos profissionais, o que aliado ao conhecimento estratégico que envolve a área, o credencia a discorrer sobre vários assuntos pertinentes em TI.

Wilson Laia

Comentários

You must be logged in to post a comment.

Busca

Patrocínio

Publicidade



Siga-nos!

Newsletter: Inscreva-se

Para se inscrever em nossa newsletter preencha o formulário.

Artigos Recentes