Você está na página 1de 27

UNIVERSIDADE AGOSTINHO NETO

FACULDADE DE ECONOMIA

FEC-UAN

TRABALHO DE INFORMÁTICA

A ORIGEM DO COMPUTADOR

Orientado pelo Docente:

_______________________

Luanda/2022
FACULDADE DE ECONOMIA

FEC-UAN

A ORIGEM DO COMPUTADOR

Trabalho apresentado à Faculdade de Economia da


Universidade Agostinho Neto
Autor: Filipe António Alexandre Cahunga
Curso: Economia.
Disciplina: Informática
Lecionado pelo professor: Dr.
Turma: H
Período: Noite

Orientado pelo Docente:

________________________
DEDICATÓRIA

À Jeová Deus pelo amor que tem demostrado por mim, dando-me uma família
e amigos maravilhosos que têm me apoiado e ajudado em todos os aspectos da minha
vida aos meus colegas que são pessoas incríveis.

II
AGRADECIMENTOS

À Jeová Deus Pai Todo Poderoso, por me ter inspirado e acompanhado neste
percurso.

À minha Esposa e aos meus Filhos pela forma inolvidável como garantia de
suporte em todos os momentos.

Aos meus pais pelo percurso e acompanhamento.

À minha Família por estarem sempre presentes nos momentos difíceis e por
prestarem o seu carinho e apoio de forma incondicional.

Aos meus Orientadores e professores que não poupam esforços e sabedoria


para me orientar e guiar neste desafio.

III
EPÍGRAFE

“O principal objetivo da educação é criar pessoas


capazes de fazer coisas novas e não simplesmente
repetir o que as outras gerações fizeram” – Jean
Piaget.

IV
ÍNDICE
DEDICATÓRIA...............................................................................................................II

AGRADECIMENTOS....................................................................................................III

EPÍGRAFE......................................................................................................................IV

INTRODUÇÃO.................................................................................................................1

1. HISTÓRIA DO COMPUTADOR.............................................................................2

1.1 Pré-História..............................................................................................................2

1.2 A guerra e os computadores.....................................................................................5

1.3 O primeiro computador eletrônico Digital...............................................................5

1.4 O nascimento da ciência da computação.................................................................6

2.1 – Primeira Geração (1930 - 1958)...........................................................................6

2.2 – Segunda Geração (1955 - 1965)...........................................................................8

2.3 – Terceira Geração (1965 - 1980)............................................................................8

2.4 Quarta Geração (1980 - 1999)................................................................................9

2.5 – Quinta Geração...................................................................................................10

2.6 – Próxima Geração.................................................................................................11

3.1 Evolução Histórica.................................................................................................12

4.1 Tipos de Motherboard............................................................................................15

5. CONTRIBUIÇÕES PARA A SOCIEDADE..............................................................18

CONCLUSÃO.................................................................................................................19

REFERENCIA BIBLIOGRAFICA.................................................................................20
INTRODUÇÃO

O computador nem sempre foi como é hoje em dia. Actualmente os


computadores
processam dados e resolvem problemas milhões de vezes mais depressa que os
sistemas electrónicos primordiais dos anos 40 e 50.

Em aproximadamente seis décadas, a indústria da informática evoluiu das


máquinas electromecânicas de cartões perfurados e calculadoras de válvulas até aos
super
computadores actuais cujas velocidades são medidas em nanossegundos.
Este trabalho, desenvolvido no âmbito da disciplina de Introdução à Informática como
base para a avaliação, tem como principal objectivo dar a conhecer a história da
computação, ou seja, a história daquilo que conhecemos como computador e alguns dos
seus componentes principais como a motherboard, e as memórias.

Pretende-se portanto mostrar em que aspectos os computadores têm evoluído,


qual a história por detrás das memórias e quais os seus tipos e a evolução das
motherboards.

1
1. HISTÓRIA DO COMPUTADOR

Embora a primeira coisa a que podemos chamar “computador” tenho sido o


ENIAC, inventado por volta de 1946, aquilo que conhecemos como computação
começou uns bons anos antes. O termo “computar” significa fazer cálculos, contar ou
efectuar operações aritméticas, e portanto “computador” será o mecanismo ou aparelho
que auxilia essa tarefa, com vantagens no tempo gasto e na precisão. No entanto os
primeiros
computadores não eram objectos, eram pessoas! Comecemos então com a história dos
computadores.

Computador: é máquina composta de um conjunto de partes eletrônicas e


eletromecânicas capaz de receber, armazenar, tratar e produzir informações de forma
automática, com grande rapidez e precisão.

1.1 Pré-História

O termo “computador” originalmente era nada mais nada menos que um título
profissional utilizado para descrever seres humanos cujo trabalho era repetir cálculos
necessários para “computar” coisas como tabelas de navegação ou posições
planetárias para compêndios astronómicos. Visto se tratar de um trabalho bastante
aborrecido e demorado era necessário um objecto que pudesse facilitar este trabalho,
tendo surgido então o ábaco, o auxílio primordial em computações matemáticas.
Embora a invenção do ábaco seja erroneamente atribuída aos chineses, o ábaco mais
antigo de que se tem registo remonta a 300 a.C. da autoria dos babilónios.

A capacidade dos seres humanos em calcular quantidades dos mais variados


modos foi um dos fatores que possibilitaram o desenvolvimento da matemática e da
lógica. Nos primórdios da matemática e da álgebra, utilizavam-se os dedos das mãos
para
efetuar cálculos.

A mais antiga ferramenta conhecida para uso em computação foi o ábaco, e foi
inventado na Babilônia por volta de 2400 a.C. O seu estilo original de uso, era desenhar
linhas na areia com rochas. Ábacos, de um design mais moderno, ainda são usados

2
como ferramentas de cálculo. O ábaco dos romanos consistia de bolinhas de mármore
que deslizavam numa placa de bronze cheia de sulcos. Também surgiram alguns termos
matemáticos: em latim "calx" significa mármore, assim "cálculos" era uma bolinha do
ábaco, e fazer cálculos aritméticos era "calculare".

Entre 200 a.C. e 400, os indianos também inventaram o logaritmo, e partir do


século XIII tabelas logarítmicas eram produzidas por matemáticos islâmicos. Quando
John Napier descobriu os logaritmos para uso computacional no século XVI, seguiu-se
um período de considerável progresso na construção de ferramentas de cálculo.

Em 1617 um escocês excêntrico chamado John Napier inventou logaritmos, uma


tecnologia que permite a multiplicação via adição, tendo posteriormente inventado
tabelas alternativas onde os logaritmos eram desenhados em pequenas barras ou bastões
de madeira. Esta invenção de Napier resultou também na invenção da
régua de cálculo na Inglaterra em 1632, que foi utilizada até 1960 pelos engenheiros
responsáveis pelos programas da NASA que colocaram o homem na Lua.

Em 1642, Blaise Pascal, aos 19 anos de idade, inventou o Pascaline como uma
ferramenta para o seu pai que era um colector de impostos. Pascaline era na realidade
um contador mecânico que utilizava engrenagens para somas e multiplicações.

Em 1801, o francês Joseph Marie Jacquard inventou uma espécie de tear


mecânico que podia alterar o seu movimento, e portanto o desenho do tecido, através de
um padrão automaticamente “lido” de cartões de madeira perfurados estendidos numa
longa corda.

Estes cartões perfurados passaram a ser utilizados desde então.

Em 1822, o matemático inglês Charles Babbage propôs uma máquina de


calcular a vapor do tamanho de um quarto, ao qual chamou Difference Engine. Esta
máquina era capaz de computar tabelas de números, como por exemplo tabelas de
logaritmos.

Visto que o Império Britânico se encontrava em expansão marítima, necessitava


de acertos em inúmeros cálculos marítimos, e portanto está máquina vinha em boa
altura.

3
No entanto a sua construção mostrou-se difícil e dez anos depois o aparelho
estava longe de ser terminado, tendo sido o projecto posteriormente abandonado.

Contudo Babbage não desistiu, tendo-lhe então surgido outra ideia, ao qual lhe
chamou o Analytic Engine. Este dispositivo, do tamanha de uma casa e alimentado por
6 motores a vapor, seria de um propósito mais geral pois seria programável, devido à
tecnologia dos cartões perfurados de Jacquard. No entanto foi Babbage que deu um
importante salto intelectual relativamente aos cartões perfurados.

No tear de Jacquard, a presença ou a falta de cada buraco no cartão físico


permitia que um fio colorido passasse ou parasse, o que foi notado por Babbage, e
conclui que esse padrão de buracos podia ser utilizado para representar uma ideia
abstracta como uma frase problema ou os dados brutos necessários para resolver o
problema. Tendo também
concluído que não havia necessidade de a matéria do problema passar pelos buracos
físicos.

O que aconteceu foi que Babbage apercebeu-se que os cartões perfurados


podiam ser utilizados como um mecanismo de armazenamento, guardando números
computados para futuras referências. Devido à conexão ao tear de Jacquard, Babbage
denominou as duas partes principais do Analytic Engine, “armazém” (Store) e “fábrica”
ou “moinho” (Mill), termos utilizados na indústria da tecelagem. O Store era onde os
números eram armazenados e o Mill era o que os convertia em resultados. Nos
computadores modernos estas partes são chamadas de unidade de memória e CPU.

O grande avanço tecnológico ocorreu nos EUA, onde era necessário fazer um
censo à população, que, devido ao seu elevado número, necessitava de um aparelho para
auxílio. Foi nesse contexto que Herman Hollerith inventou um mecanismo também
baseado nos cartões perfurados de Jacquard. Esta invenção consistia num leitor de
cartões que sentia os buracos nos mesmos, um mecanismo que fazia a contagem e uma
grande superfície com indicadores para mostrarem os resultados da contagem.

A invenção e a técnica de Hollerith tiveram tanto sucesso que este acabou por
construir uma empresa chamada Tabulating Machine Company, que, depois de várias
aquisições, acabou por se tornar na International Business Machines, conhecida
actualmente como IBM. A IBM rapidamente cresceu e os cartões perfurados

4
começaram a ser utilizados para “tudo”, como por exemplo as famosas máquinas das
fábricas nas quais cada trabalhador perfurava o seu cartão para saber a hora de entrada e
a hora de
saída.

1.2 A guerra e os computadores

Durante a Segunda Guerra Mundial, o exército dos EUA necessitava de algo que
os ajudasse a resolver complicadas equações que determinavam factores como o
arrastamento atmosférico, o vento, a gravidade, entre outros, que influenciavam os seus
navios de combate. Esse desejo foi respondido com o computador Harvard Mark I, que
foi construído pela pareceria criada entre Harvard e a IBM, em 1944. O Mark I foi o
primeiro computador digital programável construído nos EUA, não sendo inteiramente
electrónico. Um dos programadores primários do Mark I foi uma mulher de nome Grace
Hopper.

Foi ela quem encontrou o primeiro “bug”: uma traça morta que tinha entrado
dentro do Mark I e cujas asas estavam a bloquear a leitura dos buracos na fita de papel.
Em 1953, Grace Hopper inventou a primeira linguagem de alto nível, a “Flow-matic”,
que eventualmente se tornou COBOL, a linguagem mais afectada pelo infame problema
Y2K.

1.3 O primeiro computador eletrônico Digital

Uma das primeiras tentativas para construir um computador electrónico e digital


foi em 1937, por J.V. Atanasoff, um professor universitário de física e matemática. Em
1941 ele e um estudante seu construíram uma máquina que conseguia resolver 29
equações em simultâneo com 29 variáveis.

No entanto não era programável sendo só apropriada para um tipo de problema


matemático, por isso o projecto foi abandonado. No entanto, outro candidato a avô do
computador actual foi o Colossus, construído durante a Segunda Guerra Mundial pelos
Ingleses para tentar decifrar os códigos alemães. No entanto também não eram multi-
propósitos, nem programável. Estes três últimos computadores fizeram importantes

5
contribuições para o desenvolvimento da computação. E enquanto os americanos e os
ingleses discutiam sobre quem fez primeiro o quê, um alemão chamado Konrad Zuse
criou uma sequência de computadores de multi-propósitos na casa de seus pais, o
primeiro ficou conhecido como Z1.

Em 1941, o Z3 era provavelmente o primeiro computador digital


operacional, de propósito múltiplo e programável. Zune reinventou o conceito de
programação de Babbage e decidiu, por si próprio, utilizar representação binária ao
invés da decimal utilizada por Babbage. Embora estas máquinas não fossem
conhecidas foram da Alemanha, não tendo portanto influenciado o desenvolvimento da
computação, a sua arquitectura era bastante idêntica à que é utilizada hoje, e para um
país que naquele tempo não tinha acesso a quase nenhuns materiais, Zuse conseguiu
uma obra impressionante para o pouco conhecimento que tinha de inventores de
máquinas calculadoras e para a escassez de materiais.

1.4 O nascimento da ciência da computação

Antes da década de 1920, o computador era um termo associado a pessoas que


realizavam cálculos, geralmente liderados por físicos em sua maioria homens. Milhares
de computadores, eram empregados em projetos no comércio, governo e sítios de
pesquisa. Após a década de 1920, a expressão máquina computacional começou a ser
usada para referir-se a qualquer máquina que realize o trabalho de um profissional
computador, especialmente aquelas de acordo com os métodos da Tese de Church-
Turing.

O termo máquina computacional acabou perdendo espaço para o termo reduzido


computador no final da década de 1940, com as máquinas digitais cada vez mais
difundidas. Alan Turing, conhecido como pai da Ciência da Computação, inventou a
Máquina de Turing, que posteriormente evoluiu para o computador moderno.

2. GERAÇÕES DE COMPUTADORES

A arquitetura de um computador depende do seu projeto lógico, enquanto que a


sua implementação depende da tecnologia disponível. As três primeiras gerações de
computadores refletiam a evolução dos componentes básicos do computador (hardware)
e um aprimoramento dos programas (software) existentes.

6
2.1 – Primeira Geração (1930 - 1958)

O antepassado de todos os computadores actuais é, sem dúvida, o ENIAC


(Electronic Numerical Integrator and Calculator). Este computador foi construído por
dois professores universitários, John Mauchly e J. Presper Eckert, que foram
financiados pelo departamento de guerra dos EUA depois de dizerem que conseguiam
construir uma máquina que substituiria a pessoas que calculavam as tabelas de disparo
das armas de artilharia do exército.

O ENIAC pesava 30 toneladas e utilizava mais de 18 000 válvulas electrónicas,


utilizando também leitores de fitas de papel obtidos da IBM. Este computador era mais
rápido que qualquer máquina que já tinha sido desenvolvida. Em 1945, por sugestão
Von Neuman, o sistema binário foi adoptado em todos os computadores e as instruções
e dados compilados passaram a ser armazenados internamente no computador. A partir
daí, a álgebra de Boole passou a ser introduzida nos computadores e, em 1952, Mauchly
e Eckert construíram o EDVAC (Electronic Discrete Variable Automatic Computer), a
primeira máquina electrónica de processamento de dados.

7
Nos finais da década de 1950, os computadores já não eram
dispositivos únicos de universidades ou laboratórios de pesquisa do
governo. Eckert e Mauchly deixaram a Universidade na qual trabalhavam e decidiram
montar a sua própria empresa. O seu primeiro produto foi o famoso UNIVAC
(Universal Automatic Computer), o primeiro computador comercial produzido em
massa.

No entanto, visto Eckert e Mauchly não terem direitos sob o ENIAC,


começaram a perder dinheiro e eventualmente a sua empresa faliu. Entre 1945 e 1951, o
WHIRLWIND, desenvolvido no MIT, foi o primeiro computador a processar
informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em
CRT. Em 1947 o transístor é inventado por Bardeen, Schockley e Brattain, e em 1953,
Jay Forrester desenvolve a memória magnética, dois eventos que vieram revolucionar a
computação e iniciar a era da informação.

2.2 – Segunda Geração (1955 - 1965)

Esta geração trouxe computadores como o IBM 1401 e o Burroughs B 200. O


primeiro computador composto com transístores foi o TRADIC DA Bell Laboratories.
Em 1957, Von Neumann colaborou na construção de um computador avançado
chamado MANIAC (Mathematical Analyser Numerator Integrator and Computer). Em
1958, o IBM TX-0 tinha um monitor de vídeo, sendo rápido e relativamente pequeno,
possuindo ainda um dispositivo de saída sonora. O PDP-1, construído por Olsen, foi um
processador de dados programável, no qual corriam jogos, tendo sido um enorme
sucesso no MIT. Em 1959 a Texas Instruments criou o primeiro circuito integrado, o
Jack Kilby.

Esta segunda geração foi marcada pelo transístor, sendo que o que uma pessoa
de
nível médio levaria cerca de cinco minutos para multiplicar dois números de dez
dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de
segundo, um computador com transístores em cerca de quatro bilionésimos de segundo
e um computador a Terceira Geração em muito menos.

8
2.3 – Terceira Geração (1965 - 1980)

A Terceira Geração começou com algo desenvolvido pela Texas Instruments – o


circuito integrado. Toda esta geração ocorreu na década de 60, de onde saiu, por
exemplo, o Burroughs B-2500, que, ao contrário do ENIAC que podia armazenar até
vinte números de dez dígitos, podia armazenar milhões de números. Durante esta
geração surgiram conceitos como a “memória virtual”, “multiprogramação” e sistemas
operativos complexos. Foi também nesta altura que surgiu o termo “software”.

O primeiro mini computador comercial, o PDP-8, surgiu em 1965, tendo sido


lançado pela DEC (Digital Equipment Corporation). Em 1970 a Intel introduziu no
mercado um novo tipo de circuito integrado que viria a revolucionar mais uma vez um
mundo da computação – o microprocessador. Desde então começaram a surgir os
microcomputadores. Com a integração dos chips VLSI (Very Large Scale Integration),
as coisas começaram a acontecer com uma maior rapidez e frequência.

A Terceira Geração atingira o seu ponto alto. Em 1972 Bushnell lança o


videojogo Atari e em 1974 Kildall lança o CP/M (Control Program for
Microcomputers). E em 1975 surge o primeiro kit microcomputador que iria iniciar uma
das fases mais produtivas da computação, o Altair 8800. No mesmo ano, Paul Allen e
Bill Gates criam a Microsoft e o primeiro software para microcomputadores: uma
adaptação BASIC do Altair e, em 1977, Steve Jobs e Steve Wozniak criam o
microcomputador Apple, a RadioShack cria o TRS-80 e a Commodore desenvolve o
PET.

Em 1978 surge o primeiro programa comercial, o Visicalc, da Software Arts e


no ano seguinte Rubinstein começa a comercializar o software Wordstar e Paul Lutus
produz o Apple Writer. Três grandes computadores criados no seguimento destes
eventos foram o Sinclair ZX81/ZX Spectrum, o Osborne 1 e o IBM PC/XT.

2.4 Quarta Geração (1980 - 1999)

Esta geração surgiu com o decorrer da tecnologia dos circuitos integrados LSI
(Large Scale Integration) e VLSI (Very Large Scale Integration). Durante este tempo
surgiu também o processamento distribuído, o disco óptico e o microcomputador

9
passou a ser grandemente difundido, que passou a ser utilizado para processamento
de texto, cálculos auxiliados, entre outras funções.

Em 1982 surge o 286, que utilizava memória de 30 pins e slots ISA de 16 bits,
vindo já equipado como memória cache para auxiliar o processador, utilizando também
monitores CGA. Em 1985, o 386 também utilizava memória de 30 pins mas devido à
sua velocidade de processamento já podia correr softwares gráficos mais avançados,
como o caso do Windows 3.1, contando também com placas VGA que podiam atingir
as 256 cores.

Em 1989 surgiu o 486 DX, a partir do qual o coprocessador matemático vinha


embutido no próprio processador, existindo também uma melhoria a nível da velocidade
devido à memória de 72 pins e às placas PCI de 32 bits. Neste momento os
equipamentos já tinham capacidade para as placas SVGA que podiam atingir até 16
milhões de cores, sendo esta função usada comercialmente com o surgimento do
Windows 95.

2.5 – Quinta Geração

As aplicações estão a exigir cada vez mais uma maior capacidade de


processamento e armazenamento de dados. Uma das principais características desta
geração é a simplificação e miniaturização do computador, além de melhor
desempenho e maior capacidade de armazenamento, e ainda os preços cada vez
mais acessíveis.

A tecnologia VLSI está a ser substituída pela ULSI (Ultra Large Scale
Integration). O conceito de processamento está a partir para a execução de muitas
operações em simultâneo pelos computadores. A redução dos custos de produção e do
volume dos componentes permitiram a aplicação destes computadores nos chamados
sistemas embutidos, que controlam aviões, navios, automóveis e computadores de
pequeno porte.

Os computadores que utilizam a linha de processadores Pentium, da Intel, são


exemplos desta geração. Em 1993 surge o Pentium e as grandes mudanças neste período
ficariam por conta das memórias DIMM de 108 pinos, do aparecimento das placas
gráficas AGP e de um melhoramento da slot PCI, melhorando ainda mais seu

10
desempenho. No ano de 1997 surge o Pentium II, em 1999 o Pentium III e em 2001 o
Pentium 4. Não houveram grandes novidades após 1997, sendo que as mudanças
ficaram por conta dos cada vez mais velozes processadores.

11
2.6 – Próxima Geração

A IBM anunciou a construção do mais avançado computador quântico do


mundo. A novidade representa um grande passo em relação ao actual processo de
fabricação
de chips com silício que supostamente deve atingir o máximo de sua limitação física
de processamento dentro 10 a 20 anos.

O computador quântico utiliza, ao invés dos tradicionais microprocessadores de


chips de silício, um dispositivo baseado nas propriedades físicas dos átomos, como por
exemplo o sentido do seu movimento, para contar números um e zero, chamados qubits
(quantic + bits), em vez de cargas eléctricas como nos computadores actuais. Outra
característica é que os átomos também podem se sobrepor, o que permite ao
equipamento processar equações a uma velocidade muito mais rápida.

Isaac Chuang, pesquisador encarregue da equipa de cientistas da IBM, e


Universidades de Stanford e Calgary, afirma que os elementos básicos dos
computadores quânticos são os átomos e as moléculas. Segundo estes pesquisadores,
cada vez menores, os processadores quânticos começam onde os de silício acabam.
Chuang acrescentou ainda que a computação quântica começa onde a lei de Moore
termina, por volta de 2020, quando os itens dos circuitos terão o tamanho de átomos e
moléculas. Esta lei de Moore diz que o número de transístores colocados em um chip
dobra a cada 18 meses.

Quanto maior a quantidade de transístores nos


chips, maior a velocidade de processamento. Essa
teoria tem se confirmando desde a sua formulação.
No entanto o computador quântico da IBM é um
instrumento de pesquisa e não estará disponível nos
próximos anos. As possíveis aplicações para o
equipamento incluem a resolução de problemas
matemáticos, buscas avançadas e criptografia.

12
3. HISTÓRIA DAS MEMÓRIAS

O termo memória (quanto aplicado no âmbito de Informática ou Computação)


refere-se aos dispositivos utilizados para armazenar dados ou sequências de instruções
temporária ou permanentemente para utilização num computador. Estes por sua vez
representam a informação em binário, ou seja, nas famosas sequências de 0s e 1s. Cada
dígito binário, ou bit, pode ser armazenado por qualquer sistema físico que possa estar
em dois estados, isto para representar o 0 e o 1.

Exemplos de sistemas desse género são interruptores (on/off), condensadores


eléctricos que podem armazenar ou soltar carga ou um íman com a polaridade para
cima ou para baixo. Actualmente, condensadores e transístores, funcionando como
pequenos interruptores eléctricos, são utilizados para armazenamento temporário, e
discos ou “fitas” com revestimento magnético, ou discos de plástico com padrões
específicos são utilizados para armazenamento a longo prazo. Portanto, “memória de
computador” refere-se à tecnologia semicondutora que é usada para armazenar
informação em dispositivos electrónicos. A memória primária actual é constituída por
circuitos integrados compostos por transístores à base de silício. Por fim resta dizer
que existem dois tipos de memória: a volátil e a não volátil.

3.1 Evolução Histórica

Em 1834, as memórias ROM eram em forma de “cartões com buraquinhos”,


usadas pelo precursor do computador Analytical Engine, que começou a ser
desenvolvido nesse ano por Charles Babbage. Quase 100 anos depois, em 1932, Gustav
Tauschek inventa a memória drum (uma forma primária de memória que usava um
cilindro metálico revestido com fita de material ferromagnético regravável, o drum) na
Austria. Em 1936, Konrad Zuse candidata-se a uma patente para uma memória
mecânica a ser utilizada no seu computador, baseada no deslizamento de partes
metálicas.

13
Nos meados de 1940 a tecnologia das memórias dos computadores tinha
capacidade máxima para apenas alguns bytes.

Um exemplo disso é o ENIAC, o primeiro computador programável, que,


utilizando milhares de válvulas rádio de base octal, conseguia apenas efectuar cálculos
simples envolvendo 20 números de dez dígitos decimais, que eram armazenados nos
acumuladores das válvulas.

O grande avanço tecnológico seguinte da memória computorizada foi com a


memória de linha retardada (delay line memory) acústica desenvolvida por J.Presper
Eckert durante 1940. Pela construção de um tubo de vidro cheio com mercúrio e ligado
em cada ponta com um cristal de quartzo, linhas de retardo (delay lines) podiam
armazenar bits da informação no cristal e transferi-los através de ondas sonoras
propagadas através do mercúrio. No entanto, esta memória era limitada a uma
capacidade de até umas centenas de milhar de bits para permanecer eficiente.

Em 1946 foram desenvolvidas duas alternativas para as memórias de delay line,


o
tubo Williams e o tubo Selectron, ambos utilizando feixes de electrões no tubo de vidro
como meio de armazenamento. Fred Williams inventou o tubo Williams por utilizar um
tubo de raios catódicos, o que resultou na primeira random access computer memory,
mais conhecida como RAM. O tubo Williams acabou por superar o tubo Selectron
devido ao seu custo inferior e, especialmente, à sua maior capacidade, pois enquanto o
Selectron estava limitado a 256 bits, o Williams podia armazenar milhares. Contudo
o tubo Williams acabou por demonstrar ser bastante sensível ao distúrbio no ambiente, o
que era muito frustrante.

Nos finais da década de 1940, esforços começaram a ser feitos para “encontrar”
uma memória não volátil. Jay Forrester, Jan A. Rajchman e Na Wang seriam então
reeditados pelo desenvolvimento da memória de núcleo magnético, que permitia
aceder à memória mesmo com perda de energia. O núcleo magnético viria a tornar-se
a forma dominante de memória até ao desenvolvimento da memória baseada em
transístores nos finais de 1960.

Em 1966, a HP lança o HP2116A, um computador a tempo real com 8 KB de


memória e a recentemente formada Intel começa com as vendas de um chip

14
semicondutor com 2000 bits de memória. Dois anos depois, em 1968, a USPTO
concede a patente a Robert Dennard da IBM pela célula DRAM de um transístor, que se
viria a tornar o chip de memória padrão para computadores pessoais, substituindo a
memória de núcleo magnético. Após isto, em 1969, a Intel, que se inicia a desenvolver
chips, produz um chio RAM de 1KB, o maior até aquele momento. No entanto, pouco
tempo depois, a Intel torna-se conhecida por desenvolver microprocessadores para
computadores. Em 1970, lança o chip 1103, o primeiro chip de memória DRAM
disponível para “todos”. Um ano depois lança o chip 1101, uma memória programável
de 256 bits, e o chip 1701, um EROM de 256 bytes.
Em 1975, o Altair, computador pessoal de consumidor, é lançado, usando um
processador 8080 de 8 bits da Intel que incluía 1KB de memória. Mais tarde, no
mesmo ano, Bob Marsh cria a primeira placa de 4KB de memória da Processor
Technology para o Altair. Nove anos depois, em 1984,a Apple Computers lança o
computador pessoal Macintosh, o primeiro computador que veio com 128KB de
memória, sendo o chip de memória de 1MB desenvolvido no mesmo ano.

4. EVOLUÇÃO DA MOTHERBOARD (Placa mãe)

Antes da invenção dos microprocessadores, os computadores eram geralmente


construídos em mainframes com os componentes, que eram ligados por um sistema
blackplane que tinha incontáveis slots para ligar os vários cabos. Nos designs antigos
eram necessários cabos para ligar os pins do conector do cartão (ou placa), no
entanto isso tornou-se algo do passado com a invenção das placas de circuito
impresso. Quanto à CPU, memória e periféricos, eram acondicionados em placas de
circuito impresso individuais que eram ligadas ao blackplane.

Durante os finais de 1980 e 1990, tornou-se mais económico passar um


crescente
número de funções periféricas para as placas de circuito impresso. Portanto, circuitos
integrados individuais, capazes de suportar periféricos de baixa velocidade como
portas de série, rato, teclado e outras, foram integrados nas motherboards. Nos finais
de 1990 começaram a possuir uma vasta gama funções de áudio, vídeo,
armazenamento e rede incorporadas. Mais tarde foram incluídos sistemas para placas
gráficas 3D.

15
Embora empresas como a Micronics, Mylex, AMI, DTK, Orchid
Technology, Elitegroup e outras tenham sido das poucas empresas pioneiras no
desenvolvimento e fabricação de motherboards, empresas como a Apple e a IBM
acabaram por prevalecer e “tomar conta do mercado” pois ofereciam motherboards
sofisticadas de topo de gama com novas e melhoradas funções e maior performance,
isto face às outras motherboards que se encontravam no mercado. Os populares
computadores pessoais como o Apple II e IBM PC vinham com uma espécie de
“manual de instruções” e outras documentações que permitiam “engenharia reversa”
(processo de análise de um “artefacto” e dos detalhes de seu funcionamento, geralmente
com a intenção de
construir um novo com mesma funcionalidade, sem realmente copiar algo do original
p.e. desmontar uma máquina para descobrir como funciona) e reposição de
motherboards por terceiros. Muitas motherboards ofereciam performance adicional ou
outras funções, e usadas para melhorar o equipamento original do fabricante,
geralmente com a intenção de se construir novos computadores compatíveis com os
exemplares. Actualmente a maior empresa produtora de motherboards é a ASUS TEK.

A primeira motherboard (à qual se pode chamar mesmo de “motherboard”)


surgiu
num computador da IBM em 1982, o IBM PC, sendo o design desta similar ao das
actuais, tendo um número especifico de portas e slots para diferentes tipos de
hardware. O mesmo design foi também utilizado pela Apple no Apple II, que inovou a
instalação de novos periféricos no computador, tornando esse processo muito mais
fácil, tendo portanto aberto as portas para o mercado de periféricos, o que nos veio
trazer toda a variedade de acessórios e afins que podemos encontrar hoje em dia.

Desde a invenção nos finais de 1970, as motherboards revolucionaram a forma


como os computadores são desenhados e reduziram o tamanho em que são
apresentados, tanto é que apenas a motherboard em si tem milhões de transístores.

Pesquisas e desenvolvimentos ainda estão em progresso, e sem dúvida haverá


uma
altura em que teremos laptops ao mesmo nível que os actuais super computadores…
tudo isso devido às motherboards.

16
4.1 Tipos de Motherboard

À medida que a motherboard foi evoluindo, foi mudando fisicamente, dando


origem a vários modelos como AT, ATX e ITX.

a) As motherboards AT (Advanced Technology)

São bastante antigas, tendo sido largamente utilizadas entre 1983 e 1996. Estas
motherboards já não são utilizadas, isto porque o seu espaço interno era reduzido, o que,
com todos os periféricos e cabos devidamente instalados, dificultava a circulação do ar,
o que poderia trazer danos permanentes ao computador devido ao sobre aquecimento.
Esse e outros problemas, como a limitação das fontes de alimentação AT, levaram à
criação do tipo de motherboards ATX.

17
b) As motherboards ATX (Advanced Technology Extended)

São, como o próprio nome indica, um modelo aperfeiçoado do modelo AT


desenvolvido principalmente pela Intel, entre outros. Como era de esperar, o principal
objectivo do modelo ATX foi solucionar os problemas do AT, apresentando bastantes
melhorias em relação a este último. O modelo ATX apresenta maior espaço interno e
portas (ou conectores) com melhores ligações à motherboard, entre outros aspectos.
Hoje em dia, a maioria dos computadores é baseado neste modelo de motherboard.

c) Motherboards Btx (Balanced Technology Extended)

18
É um modelo de motherboards desenvolvido pela Intel e lançado em 2003 para
substituir o ATX. Este modelo foi desenvolvido por duas razões básicas: primeiro, para
melhorar a dissipação térmica do computador na ventilação interna; segundo, para tentar
estandardizar os modelos de pequeno formato das motherboards, usad sobretudo em
PCs de pequenas dimensões como o XPC da Shuttle. No entanto, de momento o
desenvolvimento desse modelo está parado.

d) motherboards LPX (Low-Profile Extended)

São tipos de motherboards utilizados essencialmente em computadores como os


Compaq. A diferença principal deste modelo para a AT é o facto de não ter slots, estes
encontram-se numa placa separada também chamada de blackplane, que por sua vez é
ligada à motherboard por um conector especial. Este tipo de motherboard foi criado para
permitir a criação de PCs mais estreitos, tanto é que as placas de expansão estão
paralelas à motherboard ao invés de perpendiculares como é habitual. Com o
surgimento do modelo ATX foi também lançada uma versão melhorada do LPX, o
NLX (New Low-profile Extended).

e) Motherboards Modelo ITX

É destinado especialmente a computadores altamente integrados e compactados,


não para oferecer um computador muito rápido, mas sim barato e acessível, sobretudo
para pessoas que utilizam o computador especialmente para navegar na Internet e
escrever. A grande “inovação” deste modelo é ter tudo “onboard”, isto é, os sistemas de
vídeo, áudio, rede e outros estão integrados na motherboard. Além do mais, como
possui menos periféricos, necessita de menos energia, o que significa uma fonte de
alimentação fisicamente menor, o que é bastante útil se se pretende montar um
computador mais compacto.

5. CONTRIBUIÇÕES PARA A SOCIEDADE

Apesar de sua pequena história enquanto uma disciplina acadêmica, a ciência da


computação deu origem a diversas contribuições fundamentais para a ciência e para a
sociedade. Esta ciência foi responsável pela definição formal de computação, e pela
prova da existência de problemas insolúveis ou intratáveis computacionalmente.
Também foi possível a construção e formalização do conceito de linguagem de

19
computador, sobretudo linguagem de programação, uma ferramenta para a expressão
precisa de informação metodológica flexível o suficiente para ser representada em
diversos níveis de abstração.

Para outros campos científicos e para a sociedade de forma geral, a ciência da


computação forneceu suporte para a Revolução Digital, dando origem a Era da
Informação. A computação científica é uma área da computação que permite o avanço
de estudos como o mapeamento do genoma humano.

CONCLUSÃO

Em suma, a tecnologia de computadores fez um progresso incrível desde que foi


criado o primeiro computador; Preços caíram, a velocidade de processamento aumentou
e armazenar grande massas de dados a baixo custo já é realidade; Durante a década de
70, o desempenho dos computadores melhorou cerca de 25% a 30% ao ano. Com a
utilização de circuitos integrados nos microcomputadores levou a uma maior otimização
(35% ao ano de desempenho). Ao longo do tempo, portanto, a tecnologia e os estilos
usados na construção de computadores apresentam pontos comuns e permitem uma
classificação dos computadores em gerações, que foi detalhadamente abordada nessa
pesquisa, que me permitiu traçar um cronograma histórico e evolutivo do computador.

20
REFERENCIA BIBLIOGRAFICA

 Algoritmos e Lógica de Programação. Marco Furlan de Souza e outros. A


History of Computer: A History Of The Information Machine.
 História da Computação - O caminho do pensamento e da tecnologia – Cléuzio
Fonseca Filho - EDIPUCRS – PUCRS (Domínio Público)
(http://www.pucrs.br/edipucrs/online/historiadacomputacao.pdf)
 História da Computação (Série Didática da Sociedade Brasileira de
Computação) - Raul Sidnei Wazlawick - Rio de Janeiro: Elsevier, 2016.
(https://www.facebook.com/historiadacomputacao/)
 www.google.com/historiaeevoluçãodocomputadorpdf.

21

Você também pode gostar