Você está na página 1de 24

A Evolução Histórica dos Computadores

Resumo
O trabalho mostra a evolução dos
computadores desde os primórdios, da
utilização numérica até o fim da década de 70.
Através dele pode se observar que no inicio
sua evolução era lenta, e que com o passar
dos séculos ela vai acelerando, como hoje por
exemplo, em que a média para que algo
evolua é de apenas 18 meses.

Passados de alguns séculos, da invenção da


escrita foram inventados os algarismos
numéricos, que tinham um desenvolvimento
mais lento que a escrita, enquanto a escrita se
desenvolvia através de vários símbolos para
diferentes sílabas , as
contagens continuavam a ser feitas com base
no conceito 1. Um evento igual a um risquinho
numa pedra, numa árvore ou em um osso.
Uma das categorias que contribuíram para o
avanço da ciência do cálculo foram os
primitivos pastores. Durante séculos eles
soltavam seus rebanhos pela manhã, para
pastar em campo aberto, e recolhiam a tarde.
Tudo de maneira simples, até que um dia
alguém perguntou para um pastor como ele
sabia que a quantidade de ovelhas que saiu
foi a mesma que voltou? Esse "seríssimo"
problema foi resolvido por um pastor: de
pela manhã, ele fazia um montinho de pedra
colocando nele uma pedra para cada ovelha
que saia, e de noite retirava uma pedra para
cada ovelha que voltava. Mesmo sem saber foi
o primeiro ser humano a calcular. Porque
pedra, em latim, é calculus.
A primeira maneira que os homens
encontraram para mostrar a quantidade que
estavam se referindo foi com o uso dos dedos
das mãos. A 5 mil anos atrás para contar até
20 erma necessário 2 homens, porque tinham
que ser usadas quatro mãos, até que alguém
percebeu que bastava apenas acumular o
resultado de duas mãos, e voltar a primeira
mão.
Até essa época a maioria das pessoas só
saibam contar até três.

Há cerca de 4 mil anos os mercadores da


Mesopotâmia desenvolveram o primeiro
sistema cientifico para contar e acumular
grandes quantias. Primeiro eles faziam um
sulco na areia e iam colocando neles
sementes secas (ou contas) até chegar a dez.
Depois faziam um segundo suco, uma só
conta – que equivalia a 10 –, esvaziavam o
primeiro suco e iam repetindo a operação:
cada dez contas no primeiro suco valia uma
conta no segundo sulco. Quando o segundo
suco completava dez contas, um terceiro sulco
era feito e nele era colocada uma conta que
equivalia a 100. Assim uma quantia enorme
como 732 só precisava de 12 continhas para
ser expressa.
Apesar que o homem começou a fazer as
contas com elas também vieram os erros, e
para diminuir esses erros os homens se
preocuparam em inventar algum aparelho
para auxiliar na contagem.
A primeira tentativa bem sucedida de criar
uma máquina de contar foi o ábaco. O nome
tem origem em uma palavra hebraica abaq
(pó), em memória a antiqüíssimos tabletes de
pedra, aspergidos com areia, onde os antigos
mestres desenhavam figuras com o dedo para
educar seus discípulos.
Os inventores do ábaco,
aparentemente foram os chineses,
que deram o nome de suan pan. Os
japoneses também reivindicam a invenção –
no Japão o ábaco chama-se soroban – , para
não falar nos russos: o deles se chama
tschoty. Feito com fios verticais paralelos
pelos quais sues operadores podiam fazer
deslizar sementes secas, o ábaco chinês era
incrivelmente eficiente. Um operador com
pratica podia multiplicar dois números de
cinco algarismos cada um com a mesma
velocidade com que alguém hoje faria mesma
conta numa calculadora digital. Quase 3 mil
anos depois de ter sido inventado, o ábaco
ainda é muito utilizado na Ásia por muitos
comerciantes.

Até meados do século IX, um computador não


era uma máquina, mas uma pessoa que tinha
a função de fazer contas e arbitrar conflitos
que envolvessem números.
A ampliação do termo ao moderno
computador só aconteceria a partir de 1944,
quando o jornal inglês London Times, que
publicou uma matéria de alguns equipamentos
que poderiam substituir o esforço humano, o
jornal chamou uma hipotética máquina
pensante de computer.
O computador é uma invenção sem inventor,
o computador sempre foi o aperfeiçoamento
de idéias anteriores. Muitas vezes, passavam-
se séculos sem que nada fosse inovado, ao
contrario de hoje que leva em média 18
meses para que se inventem uma máquina
mais rápida que a anterior.
A primeira máquina moderna de
calcular – na verdade uma
somadora – foi construída, pelo
físico, matemático e filosofo francês Blaise
Pascal, em 1642. A máquina, com seis rodas
dentadas, cada uma contendo algarismos de 0
a 9, permitia somar até três parcelas de cada
vez desde que o total não ultrapassasse 999
999. Por exemplo uma multiplicação de 28 por
15 era feita somando-se 15 vezes o número
28.
A somadora original de Pascal ainda existe e
funcionando e está exposta no Conservatorie
des Arts et Metiers, em Paris. Quando Pascal
construiu a máquina tinha apenas 19 anos,
passando a frente de grandes cientistas da
época.
Antes de morrer, aos 39 anos, em 1662,
Pascal daria outras grandes contribuições a
vários campos da ciência. Por isso ficou em
segundo plano em um invento seu que é
usado até hoje: a caixa registradora.
A máquina de Pascal teve uma vida útil de
quase 200 anos e foi aperfeiçoada por vários
inventores. Funcionava cada vez melhor mais
tinha um limite: a entrada de dados dependia
da eficiência da pessoa que estivesse batendo
o número em suas teclas. Por melhor que
fosse está pessoa, ela tinha um limite físico,
então o passo seguinte seria o aumento da
velocidade na alimentação de dados.
Quem conseguiu encontrar a solução foi o
francês Joseph-Marie Jacquard, depois de ficar
20 anos pensando. Ele era aprendiz têxtil
desde os dez anos de idade, ele se sentiu
incomodado com a monótona tarefa de
alimentar os teares com novelos de linhas
coloridas para formar os desenhos no pano
que estava sendo fiado. Como toda a
operação era manual, a sua tarefa era
interminável: a cada segundo ele tinha que
mudar o novelo, seguindo as determinações
dos contramestre.
Com o tempo Jacquard percebeu que as
mudanças eram sempre seqüenciais. E
inventou um processo simples: cartões
perfurados, onde o contramestre poderia
registrar, ponto a ponto a receita para a
confecção de um tecido. Daí ele construiu um
tear automático, capaz de ler os cartões e
executar as seqüências programada. A
primeira demonstração prática aconteceu em
1801. Dez anos depois já havia mais de 10 mil
teares de cartões em uso na França, e logo se
espalhou pelo mundo e se manteve inalterado
por 150 anos. E fez a primeira vítima da
tecnologia: o contramestre que era
importantíssimo no sistema de tecelagem, foi
substituído, nas suas funções mais nobres por
uma máquina.
Os mesmos cartões, teriam poucos
anos depois uma importante
presença no ramo da computação.
E, praticamente continuam sendo
aplicados ainda hoje: forma eles, os
famigerados punching cards, que causaram
aquela confusão na Flórida nas eleições dos
EUA em 2000.
Nesse mesmo século, um inglês matemático,
Charles Babbage, deu um grande impulso
no papel das máquina s matemáticas. O seu
objetivo era de construir máquinas que
calculassem e imprimissem tabelas
matemáticas.
Idealizou um pequeno modelo
constituído por 96 rodas de 24
eixos que denominou Máquina
Diferencial. Estimou 3 anos para
o final do projeto mas a medida
que avançava novas idéias iam
surgindo e acabavam por inutilizar todo o
trabalho anterior, e passou a um novo
projeto.
Como os cartões podiam alimentar as
máquinas com milhares de dados em poucos
minutos eliminando a lentidão humana. Ainda
faltavam dois passos para poder aperfeiçoar
as máquinas, em 1834, Babbage elaborou um
projeto a qual chamou de Aparelho
Analítico. Segundo o projeto, devia dispor de
uma memória capaz de armazenar mil
números de cinqüenta dígitos, comparando
números e agindo de acordo com o resultado
obtido. Baseado no sistema de numeração
decimal, a sua principal limitação era, que não
existindo ainda a eletrônica, o seu
funcionamento tinha que se conformar com a
mecânica. Toda a informação seria
armazenada em cartões perfurados tanto os
dados como os programas, o mecanismo
baseava-se em arames que podiam ou não
atravessar os furos dos cartões, pondo em
marcha as engrenagens adequadas. Com isso
anteviu os passos que até hoje são a base de
funcionamento de um computador:
 Alimentação de dados através de cartões
perfurados.
 Uma unidade de memória, onde os
números podiam ser armazenados e
reutilizados.
 Programação seqüencial de operações, um
procedimento que hoje chamamos de
sistema operacional.
Infelizmente, sua máquina jamais chegou a
ser construída: Ele não dispunha de recursos
para financiá-la, e também não encontrou
investidores que se interessassem totalmente
pelo projeto. Mas seus relatórios tornaram-se
leitura obrigatória para os cientistas, que
seguiram o mesmo caminho.
Os planos originais de Babbage ficaram
engavetados por 157 anos, até que em 1991
cientistas britânicos, montaram a máquina,
que funcionou com uma precisão de 31 casas
depois da vírgula.
Mas os seus planos não resultaram em nada
de prático na época, pelo menos os conceitos
teóricos se espalharam pelo mundo, e logo os
cartões perfurados ganharam aplicação
prática na computação de dados, através de
Hollerith.
O

conceito de
Herman Hollerith tinha duas etapas:
primeiro transferir dados numéricos para um
cartão duro, perfurando-o em campos
predeterminados; depois transformar os furos
em impulsos, através de energia elétrica que
passava por eles, ativando dessa forma os
contadores mecânicos dentro de um máquina.
A idéia de Hollerith foi de juntar duas coisa
que já existiam: os cartões de Jacquard e o
conceito de impulsos elétricos para a
transmissão de dados de Samuel Morse
havia desenvolvido bem antes em 1844,
quando inventou o telégrafo e transformou
letras e números em sinais elétricos.
O cartão perfurado de Hollerith estreou em
1887, em estudo estatísticos de mortalidade.
Mas foi em 1890, no recenseamento dos EUA,
que o sistema ganhou fama mundial. Pela
primeira vez o pessoal do censo não precisou
fazer o trabalho braçal de tabular os milhões
de dados que haviam sido coletados pelos
pesquisadores. O recenseamento ficou pronto
em uma fração de tempo que as anteriores,
gerou uma grande economia para o governo a
americano e fama para Hollerith.
Apesar de parecer irônico, o salto definitivo
dos computadores foi dado durante a II
Guerra Mundial.
para cifrar suas mensagens, os nazistas
haviam criado uma máquina chamada de
enigma. Durante os primeiros anos de
guerra, os serviços de contra-espionagem dos
países aliados conseguiam interceptar as
mensagens dos alemães, mas não
conseguiam decifra-la. E quando conseguiam
já era tarde demais. O que o enigma fazia era
gerar novos códigos a cada mensagem.
Desvendar como esses códigos eram
reprogramados passou a se um prioridade
absoluta, e os ingleses resolveram pedir ajuda
a cientistas como Alan Turing.
Turing já havia publicado trabalhos teóricos
sobre computação de dados antes da guerra e
por isso foi recrutado a toque de caixas pelas
Forças Armadas. Se suas teorias estivessem
certas, elas levariam a construção de uma
máquina capaz de imitar o cérebro humano
para explorar todas as alternativas possíveis a
partir de uma variável. Como a hipotética
máquina de Turing estaria apta a computar e
traduzir milhares de caracteres por segundo,
bastaria alimentar com qualquer mensagem
cifrada alemã, para que ela em seguida
devolvesse a mesma mensagem escrita em
alemão compreensivo.
Com o aprendizado alcançado
com a construção do Enigma,
foi construído logo em
seguida outra máquina, mais
elaborada e mais sofisticada,
chamada de Colossus. A
máquina levou um ano para ser montada nos
laboratórios dos correios londrinos, pelo
cientista Thomas Flowers. Uma vez plugada,
programada e alimentada, resolvia qualquer
questão de criptografia em poucos minutos.
Concluído em 1941, o Colossus não era ainda
um modelo bem acabado de computador, pois
só executava uma única e especifica função,
mas mostrou que a computação poderia
resolver rapidamente qualquer problema que
pudesse ser transformado em instruções
numéricas. Mas, tudo isso foi mantido em
segredo durante e após a guerra (os 10
modelos foram desmontados em 1946, para
que evitasse cair em mãos inimigas.) a obra
de Turing só se tornou pública anos depois
que outras máquinas mais poderosas já
existiam.
Vários pesquisadores passaram anos
disputando a honra de ter sido o primeiro
criador do computador moderno. Entre eles foi
um alemão Konrad Zuse, que aparentemente
construiu em 1941 o primeiro computador
eletromecânico, perfeitamente operacional
controlado por um programa de sistema
binário (que Zuse chamava de já/nein,
sim/não, o antecessor do zero/um dos bits),
mas sua máquina chamada de Z1 foi
destruída em um bombardeio em Berlim, em
1944. Mas, Zuse sobreviveu ao bombardeio e
com ele suas anotações e as plantas do Z1 e
seus princípios que mostraram incrivelmente
semelhante a tudo o que viria depois.

Uma ampla e
bem feita
campanha promocional, talvez explique por
que hoje se acredite que o primeiro
computador tenha sido uma máquina
americana, o ENIAC.
O ENIAC foi ligado na tomada em 1946. Era
um máquina que funcionava usando 17.480
válvulas de rádio, pesava 4 toneladas,
media 30 metros de comprimento por 3
de largura e ocupava uma área de 180m2.
Era capaz de fazer 5 mil somas por segundo.
Foi construído por dois cientistas da
Universidade da Pennsylvania, nos EUA, e seu
nome vem das iniciais de Eletronic Numerical
Integrator And Computer – Integrador e
Computador Numérico-Eletrônico. Sua
construção foi financiada pelas Forças
Aramadas americanas, a um custo na época,
de 500 mil dólares (20 milhões de dólares
atualmente). Por conta da repercussão
daquela matéria do London Times, a mídia
usou a palavra computer para explicar ao
povo o que aquela engenhoca era capaz de
fazer. Se a escolha recaísse sobre o I, de
ENIAC, e não sobre o C hoje poderíamos ter
integradores ao invés de computadores.
O ENIAC funcionava da seguinte maneira:
Primeiro um grupo de cientistas desenvolvia
equações matemáticas na exata seqüência em
que elas tinham que ser digeridas pelo
sistema. A seguir seis especialistas
programavam o computador para executá-las,
girando botões de sintonia e plugando
centenas de fios nas tomadas corretas.
Portanto o que hoje é o sistema operacional,
em 1946 era uma operação completamente
manual.
O primeiro teste do ENIAC – uma
demonstração feita para generais das Forças
Armadas – calculou a trajetória de uma bala
de canhão até um alvo determinado.
Alimentado com as equações, o computador
forneceu os dados para que o canhão fosse
calibrado. A bala acertou o alvo, mas o que
mais impressionou os generais, foi que o
tempo que o computador levou para resolver,
foi menor que o tempo da trajetória da bala.
O único problema do ENIAC era que para
calcular a trajetória de outra bala, até um
novo alvo, tudo tinha que ser refeito: das
equações até o reacerto dos fios. É essa tarefa
que hoje já vem embutido nos programas.
Mas antes disso tudo na década de 30, além
de Zuse, o doutor John Atasanoff, professor
de Física da Universidade de Iowa States. Em
1939, sem muita divulgação, ele construiu um
aparelho experimental, que chamou de ABC
(Atasanoff Berry Computer). Clifford Berry era
o seu assistente no projeto. Atasanoff fez
demonstrações práticas de seu protótipo para
vários cientistas, e um deles demostrou total
interesse em saber todos os detalhes, era o
doutor John Mauchly, que trabalhava nas
Forças Armadas no desenvolvimento do
ENIAC.
A repercussão positiva que o ENIAC causou
junto a opinião publica americana transformou
o doutor Mauchly e seu associado: o doutor
Eckert proeminentes acima de qualquer
suspeita. Mas Atasanoff levou o caso aos
tribunais, acusando a dupla do ENIAC por
pirataria. O processo durou 20 anos quando
finalmente uma corte distrital americana
decidiu que o ENIAC havia derivado das idéias
do doutor Atasanoff. Apesar disso nem a
dupla do ENIAC foi condenada, nem Atasanoff
recebeu alguma compensação.
Além de
Atasanoff ,
também a IBM
reivindica sua
participação na
invenção do primeiro
computador moderno, que teria sido o
Harvard Mark I, parcialmente financiado
pela IBM. O Mark I tinha o nome técnico de
Calculador Automático Seqüencial Controlado,
e foi construído entre 1939 e 1944, pelo
professor Howard Aiken. O Mark I talvez tenha
sido a maior máquina calculadora já
construída (20 metros de comprimento por
3 de altura e 750 mil componentes).
Independente dessa discussão a participação
da IBM nos desenvolvimentos dos
computadores é inegável.
A IBM também teria um outro destaque na
história dos computadores por um
acontecimento: foi em um Mark II em que
ocorreu o primeiro bug.
A palavra já vinha sendo usada como gíria
para significar qualquer complicação desde a
Revolução Industrial, as máquinas eram
instaladas em locais onde havia muitos
insetos voando e havia grande chance de que
algum isento pousar em um lugar errado e
causar estragos era grande, e qualquer
parada mecânica era atribuída a principio por
bug.
Com os computadores realmente foi um bug:
em 1945, uma mariposa conseguiu entrar
num Mark II do Centro Naval de Virgínia, nos
EUA, e travou todo o sistema, a partir daí o
nome passaria a ser sinônimo de qualquer
falha ou erro.
A IBM foi fundada em 1911, e
fabricava materiais de escritório e
se chamava CTR. O nome IBM vem
da sigla International Business
Machines, apareceu em 1924.
A IBM entrou no ramo de computadores em
uma época em que as empresas estavam em
duvida da viabilidade comercial.
Apesar das desconfianças inicias de
Mr. Watson (presidente da IBM),
após a Segunda Guerra Mundial a
IBM lançaria versões cada vez mais
avançadas de computadores, desenvolvido
principalmente para gestão de negócios. Em
1952 seria a vez do IBM 701, inaugurando a
moda dos modelos numerados.
No começo a maior concorrente da IBM era a
Remington Rand, que produzia o UNIVAC
(Univesal Automatic Computer). Em 1952 um
UNIVAC acertou o resultado da eleição da
Presidência da Republica, contrariando ao do
instituto de pesquisas.
O domínio da IBM tem sido tão grande que
em 1952 e 1969 que foi acusada pelos EUA de
monopólio, mas ela saiu das duas brigas
intacta.

Bit é uma pelas duas primeiras letras de


binário e pela última letra do dígito (digit).
Quem inventou a palavra foi um engenheiro
belga, Claude Shannon, em sua obra Teoria
Matemática da Comunicação, de 1948. Nela
ele descrevia um bit como sendo uma unidade
de informação.
O bit é a base de toda a linguagem dos
computadores: o sistema binário, ou de base
dois, é representado graficamente por duas
alternativas possíveis: 0, ou 1.
No sistema binário usam-se só dois dígitos: 0
e 1, para representar qualquer número.
A vantagem do sistema binário é sua
simplicidade para o computador: se cada um
dos dez algarismos arábicos, tivessem que ser
reconhecido individualmente pelo sistema, os
cálculos demorariam muito mais.
Os bits servem para representar qualquer
coisa que precise ser informada ao
computador.
O sistema binário é bem antigo. Os cartões
perfurados do século 19 já o utilizavam: ou
uma determinada posição tinha um furo (1)
ou não (0). Depois vieram as fitas perfuradas
de papel (mais estreitas que um cartão, e em
bobinas contínuas) e finalmente as fitas
magnéticas, tipo fita de áudio. Mas o principio
continuou o mesmo: na fita, um espaço
estava magnetizado (1) ou não (0).
Um byte é uma informação inteira. E os bits
são as oito peças que o sistema reconhece
que número é aquele. Em linguagem binária o
número 14 é: 00001110. Cada um dos oito
algarismos é um bit. Todos eles juntos um
byte. São oito bits em um byte porque as
combinações possíveis de oito dígitos são
mais que suficiente para expressar qualquer
número, letra ou símbolo.
Um Kilobyte tem 1024 bits. Porque a base de
tudo, é o número 2, e capacidade de
processamento dos micros evolui em
múltiplos, sempre dobrando em relação a
medida anterior: 4K, 8K, 32K.... 512K. O
próximo valor é 1024, o valor mais próximo
de mil. Portanto esse Kilo de byte já vem com
uma diferença, pois o sistema usa o logaritmo
2: o número 1024 corresponde a 210.
Um megabyte tem mil kilobyte, redondinho. É
porque a partir do megabyte todas as medidas
são mil vezes maiores que as anterior.

Na década de 1950 apareceu o transistor,


circuito integrado para substituir as antigas
válvulas. Eram elas enormes, que ocupavam a
moio parte da estrutura física de um
computador. Fabricado inicialmente pela
Fairchild Semicondutors, o transistor era uma
maravilha eletrônica que fazia a mesma coisa
que uma válvula – deixar ou não passar uma
corrente elétrica – ,mas ocupando um espaço
muitas vezes menor.
O termo foi inventado por um cientista dos
Laboratórios Bell, Jonh Bardeen, a partir de
outra duas palavras: transferir e reter
(transfer e resistor). Em 1945 foram
concluídos os estudos teóricos, que anos
depois possibilitou a fabricação de grandes
quantidades de transistor.
Depois veio o microchip: uma placa minúscula
com um monte de minúsculos transistores,
cada um com a mesma função original. A
diferença está na dimensão: se o transistor
era do tamanho de um dedo, o microchip era
do menor que uma impressão digital. O que
permitiu o aparecimento dos microchips foi a
aplicação prática de novos semicondutores de
eletricidade, que conduzem ou não uma carga
elétrica.
A vantagem do microchip sobre o transistor é
o silício, um elemento que faz com que a
corrente elétrica seja conduzida muito mais
rapidamente de um bit para o outro. A Intel
Corporation criou em 1971 o primeiro
microchip.

Em 1970, a Xerox Corporation, aproveitando


os avanços tecnológicos, contratou as
melhores pessoas ligadas na tecnologia da
época – cientistas, principalmente, mas
também gênios recém-saídos de
universidades de alta tecnologia e confinou
essa turma e seu Centro de Pesquisa em Palo
Alto, cidade da Califórnia. Ao fim de dois anos
eles chegaram a duas idéias interessantes:
A primeira foi um protótipo batizado de Alto,
em homenagem a cidade – uma máquininha
para pertencer a um único indivíduo, que
poderia usa-lo em sua própria casa. O Alto era
uma tela vertical de televisão, aclopada a um
teclado semelhante a de uma máquina de
escrever, ambos conectados a uma caixa,
pouco maior que um nobreak atual, dentro da
qual programas com instruções faziam a
engenhoca funcionar. O seu conceito foi
revolucionário para uma época em que os
computadores eram enormes e caros, tanto
que só empresas de grande porte podiam ter
um.
O Alto ainda tinha outras características hoje
muito usadas:
 Para que o usuário de um Alto, não
precisasse digitar milhares de instruções,
foi criado pequenos desenhos (ícones) que
ficavam na tela, através dos quais podia-
se abrir os programas.
 Para abrir os ícones foi usado um pequeno
aparelho, conectado ao micro. Ao move-lo
um pontinho na tela acompanhava o
movimento feito pela mão. Era o mause.
Quando o pontinho passava pelo ícone
bastava o usuário apertar um de seus três
botões para abrir o programa. O mause
não era uma idéia nova (havia sido
inventado sete anos antes, em 1965, pelo
engenheiro Doug Engelbart, e era de
madeira).
 Ao invés de fazer os caracteres – letras,
números e figuras – aparecessem já
formados na tela, semelhante a máquina
de escrever, o sistema construía cada um
deles, a partir de milhões de pontos
isolados (ou pixels), um processo
chamado hoje de bit mapping , que é a
base de qualquer sistema gráfico.
 Para operacionar os comandos do Alto, a
Xerox criou uma linguagem com
codificação própria, chamada Smalltalk,
que permitia a seus programadores a
desenvolver novos programas compatíveis
com o sistema.
Foram feitas 150 unidades do Alto, mas
nenhuma chegou a ser colocada a venda. O
Alto era tão avançado que muitas de suas
características, não apareceriam nem na
primeira geração de computadores da Apple,
em 1976, mas só na seguinte, com o
Macintosh, em 1984.
A segunda com o conceito do Alto os
cientistas da Xerox previram a possibilidade
de criar uma rede integrando todos os
computadores pessoais, o que permitiria a
seus usuários acessar e transferir dados uns
para os outros, nem os grandes computadores
tinham essa capacidade na época. O nome
que os cientistas deram para essa rede foi:
Ethernet.
Como a xerox não colocou o Alto a venda, a
primeira empresa a colocar foi a americana
MITS (Micro Instrumentation and Telemetry
Systems) em 1975. Na verdade ele era um kit
de partes vendidas separadamente que tinha
que ser montada pelo usuário. Mas já tinha
um único microprocessador e o chip. E as
instruções para que ele pudesse funcionar
estava em um programa em BASIC, escritas
por Bill Gates e sei colega de escola, Paul
Allen, ambos tinham 18 anos e estavam
entrando na faculdade.
O nome da máquina era Altair 8800
que custava 395 dólares e tinha 256
bytes de memória.
A Apple foi fundada na Califórnia no
dia 1º de Abril de 1976. O
computador da Apple, era parecido
com o Altair, também era vendido em kit:
uma caixa, que continha o circuito impresso
mais um saco cheio de pequenas partes, e um
manual de montagem de 16 páginas
custavam 666 dólares.
Os primeiros micros da Apple
faziam pouca coisa se
comparados aos dias atuais:
joguinhos que não ocupassem
muita memória e um editor de
texto bem simples. O grande salto – que
abriria os olhos das corporações para a
primeira e real utilidade prática dos micros –
viria em 1979, com o VisiCalc, a primeira
planilha eletrônica de cálculos, foi ele que
impulsionou as vendas de um novo modelo
que estava sendo lançado, o Apple II, e
multiplicou da noite para o dia o valor da
Apple como empresa.

Você também pode gostar