Invenções famosas

A história dos computadores – Essas inovações na matemática e na ciência

Computadores, por outro lado, realizam cálculos automaticamente seguindo uma série de comandos internos chamados software.

Ao longo da história humana, a coisa mais próxima de um computador foi o ábaco, que na verdade é considerado uma calculadora, pois exigia um operador humano.

No século XX, os avanços tecnológicos permitiram as máquinas de computação em constante evolução que vemos hoje. Mas, mesmo antes do advento dos microprocessadores e supercomputadores, havia cientistas e inventores notáveis ​​que ajudaram a estabelecer as bases de uma tecnologia que desde então mudou drasticamente nossas vidas.

O idioma antes do hardware

linguagem universal na qual os computadores executam as instruções do processador originou-se no século XVII na forma do sistema numérico binário.

Desenvolvido pelo filósofo e matemático alemão Gottfried Wilhelm Leibniz, o sistema surgiu como uma maneira de representar números decimais usando apenas dois dígitos, o número zero e o número um.

Seu sistema foi inspirado em parte por explicações filosóficas no texto chinês clássico, o “I Ching”, que compreendia o universo em termos de dualidades, como luz e trevas, e masculino e feminino.

Embora não houvesse nenhum uso prático para seu sistema recém-codificado na época, Leibniz acreditava que era possível que uma máquina algum dia usasse essas longas cadeias de números binários.

Em 1847, o matemático inglês George Boole introduziu uma linguagem algébrica recentemente concebida construída sobre o trabalho de Leibniz. Sua “álgebra booleana” era na verdade um sistema de lógica, com equações matemáticas usadas para representar declarações na lógica.

Tão importante quanto isso foi empregar uma abordagem binária na qual a relação entre diferentes quantidades matemáticas seria verdadeira ou falsa, 0 ou 1.

E embora não houvesse uma aplicação óbvia para a álgebra de Boole na época, outro matemático, Charles Sanders Pierce, passou décadas expandindo o sistema e finalmente descobriram em 1886 que os cálculos podem ser realizados com circuitos elétricos de comutação. E com o tempo, a lógica booleana se tornaria instrumental no projeto de computadores eletrônicos.

Os primeiros processadores

O matemático inglês Charles Babbage é creditado por ter montado os primeiros computadores mecânicos – pelo menos tecnicamente falando. Seus 19 primeiros thmáquinas do século contou com uma maneira de introduzir números, memória, um processador e um caminho para a saída dos resultados.

A tentativa inicial de construir o primeiro computador do mundo, que ele chamou de “mecanismo de diferença”, foi um empreendimento dispendioso que foi praticamente abandonado depois que mais de 17.000 libras esterlinas foram gastas em seu desenvolvimento.

O design exigia uma máquina que calculasse os valores e imprimisse os resultados automaticamente em uma tabela. Era para ser manivela e teria pesado quatro toneladas. O projeto acabou sendo cancelado depois que o governo britânico cortou o financiamento de Babbage em 1842.

Isso forçou o inventor a passar para outra idéia dele chamada de mecanismo analítico, uma máquina mais ambiciosa para computação de propósito geral, em vez de apenas aritmética.

E, embora ele não foi capaz de acompanhar, através e construir um dispositivo de trabalho, projeto de Babbage caracterizado essencialmente a mesma estrutura lógica como computadores eletrônicos que entram em uso na 20 ª século.

O mecanismo analítico tinha, por exemplo, memória integrada, uma forma de armazenamento de informações encontrada em todos os computadores.

Ele também permite a ramificação ou a capacidade de os computadores executarem um conjunto de instruções que se desviam da ordem de sequência padrão, bem como loops, que são sequências de instruções repetidas sucessivamente.

Apesar de seus fracassos em produzir uma máquina computacional totalmente funcional, Babbage permaneceu firmemente intimidado em perseguir suas idéias. Entre 1847 e 1849, ele elaborou projetos para uma segunda versão melhorada e aprimorada de seu mecanismo de diferença.

Desta vez, calculou números decimais de até trinta dígitos, realizou cálculos mais rapidamente e foi concebido para ser mais simples, uma vez que exigia menos peças.

Ainda assim, o governo britânico não achou que valesse o investimento. No final, o maior progresso que Babbage já fez em um protótipo foi completar um sétimo de seu primeiro motor de diferença.

Durante essa era inicial da computação, houve algumas conquistas notáveis. Uma máquina que previa as marés, inventada pelo matemático, físico e engenheiro escocês-irlandês Sir William Thomson em 1872, foi considerada o primeiro computador analógico moderno.

Quatro anos depois, seu irmão mais velho, James Thomson, inventou um conceito para um computador que resolvia problemas matemáticos conhecidos como equações diferenciais.

Ele chamou seu dispositivo de “máquina integradora” e, nos anos seguintes, serviria de base para sistemas conhecidos como analisadores diferenciais.

Em 1927, o cientista americano Vannevar Bush iniciou o desenvolvimento da primeira máquina a ser nomeada como tal e publicou uma descrição de sua nova invenção em um periódico científico em 1931.

Amanhecer de computadores modernos

Até o início dos anos 20 º século, a evolução da computação era pouco mais do que os cientistas dabbling na concepção de máquinas capazes de executar com eficiência vários tipos de cálculos para vários fins.

Não foi até 1936 que uma teoria unificada sobre o que constitui um computador de uso geral e como ele deveria funcionar foi finalmente apresentada.

Naquele ano, Inglês matemático Alan Turing publicou um artigo chamado intitulado “Sobre números computáveis, com um pedido à Entscheidungsproblem”, que descreve como um dispositivo teórico chamado de “máquina de Turing” pode ser usado para realizar qualquer cálculo matemático concebível executando instruções. Em teoria, a máquina teria memória ilimitada, ler dados, escrever resultados e armazenar um programa de instruções.

Enquanto o computador de Turing era um conceito abstrato, era um engenheiro alemão chamado Konrad Zuse que iria construir o primeiro computador programável do mundo.

Sua primeira tentativa de desenvolver um computador eletrônico, o Z1, foi uma calculadora de código binário que lia as instruções do filme de 35 milímetros. O problema era que a tecnologia não era confiável, então ele seguiu com o Z2, um dispositivo similar que usava circuitos de relés eletromecânicos.

No entanto, foi na montagem de seu terceiro modelo que tudo veio junto. Inaugurado em 1941, o Z3 foi mais rápido, mais confiável e mais capaz de realizar cálculos complicados. Mas a grande diferença era que as instruções eram armazenadas em fita externa, permitindo que funcionasse como um sistema controlado por programa totalmente operacional.

O que talvez seja mais notável é que Zuse fez muito do seu trabalho isoladamente. Ele não sabia que o Z3 era Turing completo, ou em outras palavras, capaz de resolver qualquer problema matemático computável – pelo menos em teoria.

Tampouco tinha conhecimento de outros projetos semelhantes que estavam ocorrendo na mesma época em outras partes do mundo.

Entre os mais notáveis ​​estava o Harvard Mark I, financiado pela IBM, que estreou em 1944. Mais promissor, porém, foi o desenvolvimento de sistemas eletrônicos como o protótipo de computação Colossus de 1943 da Grã-Bretanha e o ENIAC, o primeiro aparelho eletrônico totalmente operacional de uso geral. computador que foi colocado em serviço na Universidade da Pensilvânia em 1946.

Fora do projeto ENIAC veio o próximo grande salto em tecnologia de computação. John Von Neumann, um matemático húngaro que havia consultado sobre o projeto ENIAC, lançaria as bases para um computador de programa armazenado.

Até esse ponto, os computadores operavam em programas fixos e alteravam suas funções, como, por exemplo, da execução de cálculos ao processamento de texto, exigiam que eles fossem manualmente reconectados e reestruturados.

O ENIAC, por exemplo, levou vários dias para reprogramar. Idealmente, Turing propôs que o programa fosse armazenado na memória, o que permitiria que ele fosse modificado pelo computador.

Von Neumann ficou intrigado com o conceito e, em 1945, elaborou um relatório que fornecia em detalhes uma arquitetura viável para a computação programada armazenada.

Seu artigo publicado seria amplamente divulgado entre equipes concorrentes de pesquisadores trabalhando em vários projetos de computadores.

E em 1948, um grupo na Inglaterra introduziu o Manchester Small-Scale Experimental Machine, o primeiro computador a executar um programa armazenado baseado na arquitetura de Von Neumann.

Apelidado de “Baby”, o Manchester máquina era um computador experimental e serviu como o antecessor para o Manchester Mark I. O EDVAC, o projeto de computador para o qual o relatório de Von Neumann foi originalmente planejado, não foi concluído até 1949.

Transição Para Transistores

Os primeiros computadores modernos não se pareciam com os produtos comerciais usados ​​pelos consumidores hoje em dia. Eram complicadas engenhocas que muitas vezes ocupavam o espaço de uma sala inteira. Eles também sugavam enormes quantidades de energia e eram notoriamente cheios de bugs.

E como esses primeiros computadores funcionavam com tubos de vácuo volumosos, os cientistas que esperavam melhorar as velocidades de processamento teriam que encontrar salas maiores ou propor uma alternativa.

Felizmente, esse avanço muito necessário já estava em andamento. Em 1947, um grupo de cientistas da Bell Telephone Laboratories desenvolveu uma nova tecnologia chamada transistores de contato pontual.

Como os tubos de vácuo, os transistores amplificam a corrente elétrica e podem ser usados ​​como interruptores. Mas, o mais importante, eram muito menores (mais ou menos do tamanho de uma pílula), mais confiáveis ​​e usavam muito menos energia em geral.

Os co-inventores John Bardeen, Walter Brattain e William Shockley acabariam sendo agraciados com o Prêmio Nobel de Física em 1956.

E enquanto Bardeen e Brattain continuaram fazendo o trabalho de pesquisa, Shockley se moveu para desenvolver e comercializar ainda mais a tecnologia de transistores.

Uma das primeiras contratações de sua recém-fundada empresa foi um engenheiro elétrico chamado Robert Noyce, que acabou se separando e formou sua própria firma, a Fairchild Semiconductor, uma divisão da Fairchild Camera and Instrument.

Na época, a Noyce estava procurando formas de combinar o transistor e outros componentes em um único circuito integrado para eliminar o processo no qual eles eram montados à mão. Jack Kilby, engenheiro da Texas Instruments, também teve a mesma ideia e acabou depositando uma patente primeiro. Foi o projeto de Noyce, no entanto, que seria amplamente adotado.

Onde os circuitos integrados tiveram o impacto mais significativo foi na preparação do caminho para a nova era da computação pessoal.

Com o tempo, abriu a possibilidade de executar processos movidos por milhões de circuitos – todos em um microchip do tamanho de um selo postal. Em essência, é o que permitiu que nossos dispositivos portáteis onipresentes fossem muito mais poderosos do que os primeiros computadores.

 

Classifique este post
[Total: 0 Average: 0]

Para enviar seu comentário, preencha os campos abaixo:

Deixe uma resposta

*

Seja o primeiro a comentar!

Por gentileza, se deseja alterar o arquivo do rodapé,
entre em contato com o suporte.
x
error: O conteúdo está protegido !!

Ao continuar a usar o site, você concorda com o uso de cookies. Mais Informações

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close