Você está na página 1de 23

UNIVERSIDADE ABERTA UnISCED

FACULDADE DE DIREITO
LICENCIATURA EM DIREITO

História do Computador

Beira, 02. 04. 2024

1
Cláudia André Chaluco

História do Computador

Trabalho de pesquisa a ser apresentado ao docente da cadeira de TIC da Universidade Aberberta


UnISCED
, no curso de Direito como requisito para a avaliação da cadeira

Docente: José Manuel Júlio

Beira, 02. 04. 2024

2
ĺndice
Introdução........................................................................................................................................4

História do Computador..................................................................................................................6

Primeira Geração.............................................................................................................................8

Segunda Geração.............................................................................................................................9

Terceira Geração............................................................................................................................10

Quarta Geração..............................................................................................................................11

Quinta Geração..............................................................................................................................11

Próxima Geração...........................................................................................................................12

História das Memórias...................................................................................................................12

Tipos de Memória..........................................................................................................................13

Interface Gráfica............................................................................................................................16

História..........................................................................................................................................17

Placa Gráfica..................................................................................................................................17

História da Placa Gráfica...............................................................................................................18

Bus (Barramento)...........................................................................................................................19

História do Bus..............................................................................................................................20

Evolução da Motherboard..............................................................................................................20

Tipos de Motherboard....................................................................................................................22

Conclusão......................................................................................................................................23

Referências....................................................................................................................................24

3
Introdução
Atualmente, com a agitada vida moderna, é quase impossível a sobrevivência sem a utilização de
computadores, devido a globalização exigir a cada dia mais rapidez no desempenho das funções,
tanto domésticas quanto profissionais. Podemos observar que encontramos máquinas capazes de
aceitar dados de entrada, processá-los e produzir um resultado em todo o nosso redor, temos os
exemplos de: calculadora, televisão, videocassete, aparelhos reprodutores de sons, microondas,
aparelhos utilizados para detectar diagnósticos médicos, dentre outros não citados. A grosso
modo, o que diferencia estes equipamentos do computador é a grande capacidade de
armazenamento e versatilidade em desempenho de funções variadas, porém todos têm a mesma
origem. O desenvolvimento destas máquinas surgiu para auxiliar tanto nos processos de cálculos
aritméticos como nas tarefas repetitivas devido a necessidade de resultados rápidos e exatos nas
mais diferentes áreas da humanidade, na medida em que os cálculos foram se complicando e
aumentando de tamanho. O homem tomou o rumo das máquinas de processar dados somente
depois que dominou a escrita e inventou o papel e nunca mais parou com suas fantásticas
criações. E hoje a sociedade sofre um grande impacto desta tecnologia, acarretando uma
dependência cada vez maior. Hoje, o computador é usado tanto para lazer, trabalho ou qualquer
outra atividade e tudo isso graças à evolução da informática moderna.

4
Objectivos

Geral

 Conhecer a história do sulgerenciamento do computador desde o primeiro até o atual.

Específicos

 Explicar as gerações dos computadores;


 identificar os inovadores de computador;
 Descrever o funcionamento do computador.

Metodologia

Pára a realização de hum trabalho científico é necessário o uso de métodos básico That tornem
possível o trabalho. Neste trabalho foram usados métodos como a revisão bibliográfico: That
consistente n / D leitura e compilação de livros, artigos e outras obras em formato PDF através
de Internet.

5
História do Computador
Embora a primeira coisa a que podemos chamar “computador” tenho sido o ENIAC, inventado
por volta de 1946, aquilo que conhecemos como computação começou uns bons anos antes. O
termo “computar” significa fazer cálculos, contar ou efectuar operações aritméticas, e portanto
“computador” será o mecanismo ou aparelho que auxilia essa tarefa, com vantagens no tempo
gasto e na precisão. No entanto os primeiros computadores não eram objectos, eram pessoas!
Comecemos então com a história dos computadores…
Pré-História O termo “computador” originalmente era nada mais nada menos que um título
profissional utilizado para descrever seres humanos cujo trabalho era repetir cálculos necessários
para “computar” coisas como tabelas de navegação ou posições planetárias para compêndios
astronómicos. Visto se tratar de um trabalho bastante aborrecido e demorado era necessário um
objecto que pudesse facilitar este trabalho, tendo surgido então o ábaco, o auxílio primordial em
computações matemáticas. Embora a invenção do ábaco seja erroneamente atribuída aos
chineses, o ábaco mais antigo de que se tem registo remonta a 300 a.C. da autoria dos babilónios.
Em 1617 um escocês excêntrico chamado John Napier inventou logaritmos, uma tecnologia que
permite a multiplicação via adição, tendo posteriormente inventado tabelas alternativas onde os
logaritmos era desenhados em pequenas barras ou bastões de madeira. Esta invenção de Napier
resultou também na invenção da régua de cálculo na Inglaterra em 1632, que foi utilizada até
1960 pelos engenheiros responsáveis pelos programas da NASA que colocaram o homem na
Lua. Em 1642, Blaise Pascal, aos 19 anos de idade, inventou o Pascaline como uma ferramenta
para o seu pai que era um colector de impostos. Pasacaline era na realidade um contador
mecânico que utilizava engrenagens para somas e multiplicações.
Em 1801, o francês Joseph Marie Jacquard inventou uma espécie de tear mecânico que podia
alterar o seu movimento, e portanto o desenho do tecido, através de um padrão automaticamente
“lido” de cartões de madeira perfurados estendidos num longa corda. Estes cartões perfurados
passaram a ser utilizados desde então. Em 1822, o matemático inglês Charles Babbage propôs
uma máquina de calcular a vapor do tamanho de um quarto, ao qual chamou Difference Engine.
Esta máquina era capaz de computar tabelas de números, como por exemplo tabelas de
logaritmos. Visto que o Império Britânico se encontrava em expansão marítima, necessitava de
acertos em inúmeros cálculos marítimos, e portanto está máquina vinha em boa altura. No

6
entanto a sua construção mostrou-se difícil e dez anos depois o aparelho estava longe de ser
terminado, tendo sido o projecto posteriormente abandonado. Contudo Babbage não desistiu,
tendo-lhe então surgido outra ideia, ao qual lhe chamou o Analytic Engine. Este dispositivo, do
tamanha de uma casa e alimentado por 6 motores a vapor, seria de um propósito mais geral pois
seria programável, devido à tecnologia dos cartões perfurados de Jacquard. No entanto foi
Babbage que deu um importante salto intelectual relativamente aos cartões perfurados. No tear
de Jacquard, a presença ou a falta de cada buraco no cartão físico permitia que um fio colorido
passasse ou parasse, o que foi notado por Babbage, e conclui que esse padrão de buracos podia
ser utilizado para representar uma ideia abstracta como uma frase problema ou os dados brutos
necessários para resolver o problema. Tendo também concluído que não havia necessidade de a
matéria do problema passar pelos buracos físicos. O que aconteceu foi que Babbage apercebeu-
se que os cartões perfurados podiam ser utilizados como um mecanismo de armazenamento,
guardando números computados para futuras referências. Devido à conexão ao tear de Jacquard,
Babbage denominou as duas partes principais do Analytic Engine, “armazém” (Store) e “fábrica”
ou “moinho” (Mill), termos utilizados na indústria da tecelagem. O Store era onde os números
eram armazenados e o Mill era o que os convertia em resultados. Nos computadores modernos
estas partes são chamadas de unidade de memória e CPU. O grande avanço tecnológico ocorreu
nos EUA, onde era necessário fazer um censo à população, que, devido ao seu elevado número,
necessitava de um aparelho para auxílio. Foi nesse contexto que Herman Hollerith inventou um
mecanismo também baseado nos cartões perfurados de Jacquard. Esta invenção consistia num
leitor de cartões que sentia os buracos nos mesmos, um mecanismo que fazia a contagem e uma
grande superfície com indicadores para mostrarem os resultados da contagem. A invenção e a
técnica de Hollerith tiveram tanto sucesso que este acabou por construir uma empresa chamada
Tabulating Machine Company, que, depois de várias aquisições, acabou por se tornar na
International Business Machines, conhecida actualmente como IBM. A IBM rapidamente
cresceu e os cartões perfurados começaram a ser utilizados para “tudo”, como por exemplo as
famosas máquina das fábricas nas quais cada trabalhador perfurava o seu cartão para saber a hora
de entrada e a hora de saída.
Durante a Segunda Guerra Mundial, o exército dos EUA necessitava de algo que os ajudasse a
resolver complicadas equações que determinavam factores como o arrastamento atmosférico, o
vento, a gravidade, entre outros, que influenciavam os seus navios de combate. Esse desejo foi

7
respondido com o computador Harvard Mark I, que foi construído pela pareceria criada entre
Harvard e a IBM, em 1944. O Mark I foi o primeiro computador digital programável construído
nos EUA, não sendo inteiramente electrónico. Um dos programadores primários do Mark I foi
uma mulher de nome Grace Hopper. Foi ela quem encontrou o primeiro “bug”: uma traça morta
que tinha entrado dentro do Mark I e cujas asas estavam a bloquear a leitura dos buracos na fita
de papel. Em 1953, Grace Hopper inventou a primeira linguagem de alto nível, a “Flow-matic”,
que eventualmente se tornou COBOL, a linguagem mais afectada pelo infame problema Y2K.
Uma das primeiras tentativas para construir um computador electrónico e digital foi em 1937,
por J.V. Atanasoff, um professor universitário de física e matemática. Em 1941 ele e um
estudante seu construíram uma máquina que conseguia resolver 29 equações em simultâneo com
29 variáveis. No entanto não era programável sendo só apropriada para um tipo de problema
matemático, por isso o projecto foi abandonado. No entanto, outro candidato a avô do
computador actual foi o Colossus, construído durante a Segunda Guerra Mundial pelos Ingleses
para tentar decifrar os códigos alemães. No entanto também não eram multi-propósitos, nem
programável. Estes três últimos computadores fizeram importantes contribuições para o
desenvolvimento da computação. E enquanto os americanos e os ingleses discutiam sobre quem
fez primeiro o quê, um alemão chamado Konrad Zuse criou uma sequência de computadores de
multi-propósitos na casa de seus pais, o primeiro ficou conhecido como Z1. Em 1941, o Z3 era
provavelmente o primeiro computador digital operacional, de propósito múltiplo e programável.
Zune reinventou o conceito de programação de Babbage e decidiu, por si próprio, utilizar
representação binária ao invés da decimal utilizada por Babbage. Embora estas máquinas não
fossem conhecidas foram da Alemanha, não tendo portanto influenciado o desenvolvimento da
computação, a sua arquitectura era bastante idêntica à que é utilizada hoje, e para um país que
naquele tempo não tinha acesso a quase nenhuns materiais, Zuse conseguiu uma obra
impressionante para o pouco conhecimento que tinha de inventores de máquinas calculadoras e
para a escassez de materiais.

Primeira Geração
O antepassado de todos os computadores actuais é, sem dúvida, o ENIAC (Electronic Numerical
Integrator and Calculator). Este computador foi construído por dois professores universitários,
John Mauchly e J. Presper Eckert, que foram financiados pelo departamento de guerra dos EUA
depois de dizerem que conseguiam construir um máquina que substituiria a pessoas que
8
calculavam as tabelas de disparo das armas de artilharia do exército. O ENIAC pesava 30
toneladas e utilizava mais de 18 000 válvulas electrónicas, utilizando também leitores de fitas de
papel obtidos da IBM. Este computador era mais rápido que qualquer máquina que já tinha sido
desenvolvida. Em 1945, por sugestão Von Neuman, o sistema binário foi adoptado em todos os
computadores e as instruções e dados compilados passaram a ser armazenados internamente no
computador. A partir daí, a álgebra de Boole passou a ser introduzida nos computadores e, em
1952, Mauchly e Eckert construíram o EDVAC (Electronic Discrete Variable Automatic
Computer), a primeira máquina electrónica de processamento de dados.
Nos finais da década de 1950, os computadores já não eram dispositivos únicos de universidades
ou laboratórios de pesquisa do governo. Eckert e Mauchly deixaram a Universidade na qual
trabalhavam e decidiram montar a sua própria empresa. O seu primeiro produto foi o famoso
UNIVAC (Universal Automatic Computer), o primeiro computador comercial produzido em
massa. No entanto, visto Eckert e Mauchly não terem direitos sob o ENIAC, começaram a perder
dinheiro e eventualmente a sua empresa faliu. Entre 1945 e 1951, o WHIRLWIND, desenvolvido
no MIT, foi o primeiro computador a processar informações em tempo real, com entrada de
dados a partir de fitas perfuradas e saída em CRT. Em 1947 o transístor é inventado por Bardeen,
Schockley e Brattain, e em 1953, Jay Forrester desenvolve a memória magnética, dois eventos
que vieram revolucionar a computação e iniciar a era da informação.

Segunda Geração
Esta geração trouxe computadores como o IBM 1401 e o Burroughs B 200. O primeiro
computador composto com transístores foi o TRADIC DA Bell Laboratories. Em 1957, Von
Neumann colaborou na construção de um computador avançado chamado MANIAC
(Mathematical Analyser Numerator Integrator and Computer). Em 1958, o IBM TX-0 tinha um
monitor de vídeo, sendo rápido e relativamente pequeno, possuindo ainda um dispositivo de
saída sonora. O PDP-1, construído por Olsen, foi um processador de dados programável, no qual
corriam jogos, tendo sido um enorme sucesso no MIT. Em 1959 a Texas Instruments criou o
primeiro circuito integrado, o Jack Kilby. Esta segunda geração foi marcada pelo transístor,
sendo que o que uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois
números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de
segundo, um computador com transístores em cerca de quatro bilionésimos de segundo e um
computador a Terceira Geração em muito menos.
9
Terceira Geração
A Terceira Geração começou com algo desenvolvido pela Texas Instruments – o circuito
integrado. Toda esta geração ocorreu na década de 60, de onde saiu, por exemplo, o Burroughs
B-2500, que, ao contrário do ENIAC que podia armazenar até vinte números de dez dígitos,
podia armazenar milhões de números. Durante esta geração surgiram conceitos como a
“memória virtual”, “multiprogramação” e sistemas operativos complexos. Foi também nesta
altura que surgiu o termo “software”. O primeiro mini computador comercial, o PDP-8, surgiu
em 1965, tendo sido lançado pela DEC (Digital Equipment Corporation). Em 1970 a Intel
introduziu no mercado um novo tipo de circuito integrado que viria a revolucionar mais uma vez
um mundo da computação – o microprocessador. Desde então começaram a surgir os
microcomputadores. Com a integração dos chips VLSI (Very Large Scale Integration), as coisas
começaram a acontecer com uma maior rapidez e frequência. A Terceira Geração atingira o seu
ponto alto. Em 1972 Bushnell lança o videojogo Atari e em 1974 Kildall lança o CP/M (Control
Program for Microcomputers). E em 1975 surge o primeiro kit microcomputador que iria iniciar
uma das fases mais produtivas da computação, o Altair 8800. No mesmo ano, Paul Allen e Bill
Gates criam a Microsoft e o primeiro software para microcomputadores: uma adaptação BASIC
do Altair e, em 1977, Steve Jobs e Steve Wozniak criam o microcomputador Apple, a
RadioShack cria o TRS-80 e a Commodore desenvolve o PET. Em 1978 surge o primeiro
programa comercial, o Visicalc, da Software Arts e no ano seguinte Rubinstein começa a
comercializar o software Wordstar e Paul Lutus produz o Apple Writer. Três grandes
computadores criados no seguimento destes eventos foram o Sinclair ZX81/ZX Spectrum, o
Osborne 1 e o IBM PC/XT.
Quarta Geração
Esta geração surgiu com o decorrer da tecnologia dos circuitos integrados LSI (Large Scale
Integration) e VLSI (Very Large Scale Integration). Durante este tempo surgiu também o
processamento distribuído, o disco óptico e o microcomputador passou a ser grandemente
difundido, que passou a ser utilizado para processamento de texto, cálculos auxiliados, entre
outras funções. Em 1982 surge o 286, que utilizava memória de 30 pins e slots ISA de 16 bits,
vindo já equipado como memória cache para auxiliar o processador, utilizando também
monitores CGA. Em 1985, o 386 também utilizava memória de 30 pins mas devido à sua
10
velocidade de processamento já podia correr softwares gráficos mais avançados, como o caso do
Windows 3.1, contando também com placas VGA que podiam atingir as 256 cores. Em 1989
surgiu o 486 DX, a partir do qual o coprocessador matemático vinha embutido no prórpio
processador, existindo também uma melhoria a nível da velocidade devido à memória de 72 pins
e às palcas PCI de 32 bits. Neste momento os equipamentos já tinham capacidade para as placas
SVGA que podiam atingir até 16 milhões de cores, sendo esta função usada comercialmente com
o surgimento do Windows 95.
Quinta Geração
As aplicações estão a exigir cada vez mais uma maior capacidade de processamento e
armazenamento de dados. Uma das principais características desta geração é a simplificação e
miniaturização do computador, além de melhor desempenho e maior capacidade de
armazenamento, e ainda os preços cada vez mais acessíveis. A tecnologia VLSI está a ser
substituída pela ULSI (Ultra Large Scale Integration). O conceito de processamento está a partir
para a execução de muitas operações em simultaneo pelos computadores. A redução dos custos
de produção e do volume dos componentes permitiram a aplicação destes computadores nos
chamados sistemas embutidos, que controlam aviões, navios, automóveis e computadores de
pequeno porte. Os computadores que utilizam a linha de processadores Pentium, da Intel, são
exemplos desta geração. Em 1993 surge o Pentium e as grandes mudanças neste período ficariam
por conta das memórias DIMM de 108 pinos, do aparecimento das placas gráficas AGP e de um
melhoramento da slot PCI, melhorando ainda mais seu desempenho. No ano de 1997 surge o
Pentium II, em 1999 o Pentium III e em 2001 o Pentium 4. Não houveram grandes novidades
após 1997, sendo que as mudanças ficaram por conta dos cada vez mais velozes processadores.
Próxima Geração
A IBM anunciou a construção do mais avançado computador quântico do mundo. A novidade
representa um grande passo em relação ao actual processo de fabricação de chips com silício que
supostamente deve atingir o máximo de sua limitação física de processamento dentro 10 a 20
anos. O computador quântico utiliza, ao invés dos tradicionais microprocessadores de chips de
silício, um dispositivo baseado nas propriedades físicas dos átomos, como por exemplo o sentido
do seu movimento, para contar números um e zero, chamados qubits (quantic + bits), em vez de
cargas eléctricas como nos computadores actuais. Outra característica é que os átomos também
podem se sobrepor, o que permite ao equipamento processar equações a uma velocidade muito

11
mais rápida. Isaac Chuang, pesquisador encarregue da equipa de cientistas da IBM, e
Universidades de Stanford e Calgary, afirma que os elementos básicos dos computadores
quânticos são os átomos e as moléculas. Segundo estes pesquisadores, cada vez menores, os
processadores quânticos começam onde os de silício acabam. Chuang acrescentou ainda que a
computação quântica começa onde a lei de Moore termina, por volta de 2020, quando os itens
dos circuitos terão o tamanho de átomos e moléculas. Esta lei de Moore diz que o número de
transístores colocados em um chip dobra a cada 18 meses. Quanto maior a quantidade de
transístores nos chips, maior a velocidade de processamento. Essa teoria tem se confirmando
desde a sua formulação. No entanto o computador quântico da IBM é um instrumento de
pesquisa e não estará disponível nos próximos anos. As possíveis aplicações para o equipamento
incluem a resolução de problemas matemáticos, buscas avançadas e criptografia, o que já
despertou o interesse do Departamento de Defesa dos Estados Unidos, como seria de esperar…
História das Memórias
Ora bem, antes de mais nada vejamos o que é a “memória” do computador. O termo memória
(quanto aplicado no âmbito de Informática ou Computação) refere-se aos dispositivos utilizados
para armazenar dados ou sequências de instruções temporária ou permanentemente para
utilização num computador. Estes por sua vez representam a informação em binário, ou seja, nas
famosas sequências de 0s e 1s. Cada dígito binário, ou bit, pode ser armazenado por qualquer
sistema físico que possa estar em dois estados, isto para representar o 0 e o 1. Exemplos de
sistemas desse género são interruptores (on/off), condensadores eléctricos que podem armazenar
ou soltar carga ou um íman com a polaridade para cima ou para baixo. Actualmente,
condensadores e transístores, funcionando como pequenos interruptores eléctricos, são utilizados
para armazenamento temporário, e discos ou “fitas” com revestimento magnético, ou discos de
plástico com padrões específicos são utilizados para armazenamento a longo prazo. Portanto,
“memória de computador” refere-se à tecnologia semicondutora que é usada para armazenar
informação em dispositivos electrónicos. A memória primária actual é constituída por circuitos
integrados compostos por transístores à base de silício. Por fim resta dizer que existem dois tipo
de memória: a volátil e a não volátil.
Tipos de Memória
A memória volátil necessita de energia para manter a informação armazenada, sendo também
conhecida como memória temporária. Os modelos actuais de RAM são armazenadores voláteis,

12
incluindo a DRAM (Dynamic Random Access Memory), tecnologia semicondutora de memória
volátil dinâmica, e a SRAM (Static Random Access Memory), tecnologia semicondutora de
memória volátil estática. Embora exiba alguns remanescentes de dados, a SRAM é mesmo assim
considerada volátil, visto que todos os dados são perdidos quando não é alimentada. Quanto à
DRAM, permite que os dados desapareçam automaticamente sem um refrescamento. Memórias
como a CAM (Content Addressable Memory) e a dual-ported RAM são geralmente
implementadas utilizando armazenamento volátil. Novas tecnologias de memórias voláteis, que
tencionam substituir ou competir com a SRAM e DRAM, estão em desenvolvimento, como a Z-
RAM (zero capacitator RAM, baseada na tecnologia floating body effect de um processamento
de silicon on insulator (SOI)), TTRAM (Twin Transistor RAM, é semelhante à DRAM mas
também utiliza a tecnologia de processamento floating body effect inerente num processo SOI) e
a A-RAM (Advanced-Random Access Memory, compatível com SOI). Quanto à memória não
volátil, não necessita de energia para reter a informação armazenada. Exemplos desta memória
são as memórias ROM, memórias Flash, a maioria dos dispositivos de armazenamento
magnéticos (como por exemplo os discos rígidos), discos ópticos, e os arcaicos métodos de
armazenamento como a fita de papel ou os cartões esburacados. As memórias não voláteis são
geralmente utilizadas para armazenamento a longo prazo. O armazenamento não volátil de dados
pode ser categorizado em sistemas de endereçamento eléctrico, como a memória flash, e em
sistemas de endereçamento mecânico, como discos rígidos. Os sistemas eléctricos são caros mas
rápidos enquanto que os mecânicos são mais baratos mas mais lentos, sendo claro que o ultimo
tem uma maior capacidade de armazenamento que o primeiro. As memórias não voláteis poderão
eventualmente dispensar o uso de formas lentas de sistemas de armazenamento secundários
(sendo a forma de armazenamento primário a memórias voláteis, como a RAM) como os discos
rígidos, e uma prova disso são os SSD (Solid-State Drive), que basicamente são discos rígidos de
memória flash, utilizando uma pequena percentagem de DRAM como cache. Mas para ser mais
específico, consideremos os tipos de memória por tópicos, recapitulando alguns pontos já
mencionados:  RAM – Random Access Memory, esta memória é essencial para o computador,
armazenado dados ou instruções de programas. Visto ser uma memória volátil, o seu conteúdo é
perdido assim que o computador é desligado. Existem dois tipos básicos de memória RAM, a
DRAM e a SRAM; o DRAM – Dynamic Random Access Memory, esta memória baseia-se na

13
tecnologia de condensadores e necessita actualizações periódicas do conteúdo de cada célula do
chip, consumindo assim menos energia.

SRAM – Static Random Access Memory, esta memória é baseada na tecnologia de transístores,
não necessitando de actualizações de dados. Embora consuma mais energia, a sua velocidade é
superior à DRAM, sendo frequentemente utilizada em computadores rápidos. Em contrapartida
possui uma menor capacidade de armazenamento.  RAM Gráfica (ou de Video) – É uma área
especializada da RAM onde a CPU compõe detalhadamente a imagem a mostrar no ecrã, sendo
especialmente organizada para manipular tanto a qualidade como a cor da apresentação;
 ROM – Read-Only Memory, é um tipo de memória que contém instruções inalteráveis,
contendo instruções e rotinas que iniciam o computador quando este é ligado. Sendo não volátil,
os seus dados não são perdidos na ausência de energia. Alguns tipos desta memória são os
EPROMs e os EEPROMs; o EPROM – Erasable Programmable Read-Only Memory, é um tipo
de ROM especial que pode ser programado pelo utilizador cujo conteúdo é apneas apagado pela
exposição a raios ultravioletas; o EEPROM – Electrically-Erasable Programmable Read-Only
Memory, é um tipo especial de ROM, muito semelhante à EPROM, sendo diferente apenas no
modo em como o seu conteúdo é apagado – por se aplicar uma voltagem específica num dos pins
de entreda.
 Cache – É uma memória de alta velocidade que faz a interface entre o CPU e a RAM. Para
poder utilizar uma DRAM lenta com o CPU rápido, é necessário um hardware extra que fique
entre o CPU e a RAM estabelecendo a comunicação entre os dois – a memória cache.
O sistema de cache inicia tentando ler tantos dados da RAM quanto possível e armazená-los na
sua memória estática de alta velocidade, a cache. Quando requisições do CPU chegam, a cache
confere se os endereços são os mesmo que já foram lidos da memória e, nesse caso, os dados são
directamente enviados da cache para o processador, caso contrário permite ao CPU aceder à
RAM directamente, o que é muito mais lento. Evolução Passemos então à história propriamente
dita da memória.
Em 1834, as memórias ROM eram em forma de “cartões com buraquinhos”, usadas pelo
precursor do computador Analytical Engine, que começou a ser desenvolvido nesse ano por
Charles Babbage. Quase 100 anos depois, em 1932, Gustav Tauschek inventa a memória drum

14
(uma forma primária de memória que usava um cilindro metálico revestido com fita de material
ferromagnético regravável, o drum) na Austria.
Em 1936, Konrad Zuse candidata-se a uma patente para uma memória mecânica a ser utilizada
no seu computador, baseada no deslizamento de partes metálicas.
Nos meados de 1940 a tecnologia das memórias dos computadores tinha capacidade máxima
para apenas alguns bytes. Um exemplo disso é o ENIAC, o primeiro computador programável,
que, utilizando milhares de válvulas rádio de base octal, conseguia apenas efectuar cálculos
simples envolvendo 20 números de dez dígitos decimais, que eram armazenados nos
acumuladores das válvulas.
O grande avanço tecnológico seguinte da memória computorizada foi com a memória de linha
retardada (delay line memory) acústica desenvolvida por J.Presper Eckert durante 1940. Pela
construção de um tubo de vidro cheio com mercúrio e ligado em cada ponta com um cristal de
quartzo, linhas de retardo (delay lines) podiam armazenar bits da informação no cristal e
transferi-los através de ondas sonoras propagadas através do mercúrio. No entanto, esta memória
era limitada a uma capacidade de até umas centenas de milhar de bits para permanecer eficiente.
Em 1946 foram desenvolvidas duas alternativas para as memórias de delay line, o tubo Williams
e o tubo Selectron, ambos utilizando feixes de electrões no tubo de vidro como meio de
armazenamento. Fred Williams inventou o tubo Williams por utilizar um tubo de raios catódicos,
o que resultou na primeira random access computer memory, mais conhecida como RAM. O
tubo Williams acabou por superar o tubo Selectron devido ao seu custo inferior e, especialmente,
à sua maior capacidade, pois enquanto o Selectron estava limitado a 256 bits, o Williams podia
armazenar milhares. Contudo o tubo Williams acabou por demonstrar ser bastante sensível ao
distúrbio no ambiente, o que era muito frustrante.
Nos finais da década de 1940, esforços começaram a ser feitos para “encontrar” uma memória
não volátil. Jay Forrester, Jan A. Rajchman e Na Wang seriam então creditados pelo
desenvolvimento da mamória de núcleo magnético, que permitia aceder à memória mesmo com
perda de energia. O núcleo magnético viria a tornar-se a forma dominante de memória até ao
desenvolvimento da memória baseada em transístores nos finais de 1960.
Em 1966, a HP lança o HP2116A, um computador a tempo real com 8 KB de memória e a
recentemente formada Intel começa com as vendas de um chip semicondutor com 2000 bits de
memória. Dois anos depois, em 1968, a USPTO concede a patente a Robert Dennard da IBM

15
pela célula DRAM de um transístor, que se viria a tornar o chip de memória padrão para
computadores pessoais, substituindo a memória de núcleo magnético. Após isto, em 1969, a
Intel, que se inicia a desenvolver chips, produz um chio RAM de 1KB, o maior até aquele
momento. No entanto, pouco tempo depois, a Intel torna-se conhecida por desenvolver
microprocessadores para computadores. Em 1970, lança o chip 1103, o primeiro chip de
memória DRAM disponível para “todos”. Um ano depois lança o chip 1101, uma memória
programável de 256 bits, e o chip 1701, um EROM de 256 bytes.
Em 1975, o Altair, computador pessoal de consumidor, é lançado, usando um processador 8080
de 8 bits da Intel que incluía 1KB de memória. Mais tarde, no mesmo ano, Bob Marsh cria a
primeira placa de 4KB de memória da Processor Technology para o Altair.
Nove anos depois, em 1984,a Apple Computers lança o computador pessoal Macintosh, o
primeiro computador que veio com 128KB de memória, sendo o chip de memória de 1MB
desenvolvido no mesmo ano.
Interface Gráfica
A Interface Gráfica, ou GUI (Graphical User Interface), é um tipo de interface de utilizador que
permite a uma pessoa interagir com programas em várias formas para além do habitual escrever.
Uma GUI oferece ícones gráficos e indicadores visuais para representar a informação e acções
disponíveis ao utilizador, ao contrário das interfaces à base de texto. Essas acções são geralmente
efectuadas através da manipulação directa de elementos gráficos.
História
Consideremos um pouco da sua história. Um precursor das interfaces gráficas foi inventado
pelos pesquisadores no Standford Research Institute, sob a direcção de Douglas Engelbart (o
criador do rato). Estes pesquisadores desenvolveram a utilização de hiperligações à base de texto
manipuladas através do rato para o On-Line System.
O conceito das hiperligações foi posteriormente “refinado” e estendido a gráficos pelos
pesquisadores na Xerox PARC, que foram para além das hiperligações à base de texto e
utilizaram uma interface gráfica como interface primária para o computador Xerox Alto. Em
resultado disso, muitas pessoas passaram a chamar a esta classe de interface PARC User
Interface, ou PUI.
A PARC User Interface consistia em elementos gráficos como janelas, menus, botões de opções,
caixas de “tiques” e ícones. Esta interface empregava um dispositivo de navegação para além do

16
teclado – o rato. Estes aspectos podem ser resumidos a um acrónimo alternativo a PUI – WIMP,
que significa Windows, Icons, Menus e Pointing device.
Depois do PUI, o primeiro modelo operático de um computador com interface gráfico centrado
foi o Xerox 8010 Star Information System em 1981, seguido do famoso Apple Lisa em 1983,
que apresentava o conceito da barra de menu bem como os controlos de janela, do Apple
Macintosh 128K em 1984 e o Atari ST e o Commodore Amiga em 1985.
Placa Gráfica
A placa gráfica é uma placa de expansão cuja função é gerar e transmitir imagens para display,
como por exemplo para um monitor. Muitas placas gráficas oferecem funções adicionais como
interpretação avançada de cenas 3D e gráficos 2D, captura de vídeo, adaptador sintonizador de
TV, descodificador de MPEG-2 e MPEG-4, FireWire, light pen, saída para TV, ou a capacidade
de ligar vários monitores, enquanto que outras placas modernas de alto performance são
utilizadas para propósitos mais exigentes como jogos de computador.
História da Placa Gráfica
Quanto à sua história… A primeira placa gráfica do IBM PC era a MDA (Monochrome Display
Adapter), desenvolvida pela IBM em 1981, e podia apenas funcionar no modo texto,
apresentando 80 colunas e 25 linhas no ecrã, tendo 4KB de memória de vídeo e apenas uma cor.
Após esta foram lançadas muitas outras, como a CGA e a HGC entre muitas outras até à VGA.
A VGA (Video Graphics Array) foi vastamente aceite, o que levou a empresas como a ATI,
Cirrus Logic e S3 trabalharem com essa placa gráfica, melhorando a sua resolução e o número de
cores que utilizava, o que culminou na SVGA (Super VGA) standard, que alcançou os 2 MB de
memória de vídeo e uma resolução de 1024x768 num modo de 256 cores.
Em 1995, as primeiras placas gráficas 2D/3D para consumidores foram lançadas, desenvolvidas
pela Matrox, Creative, S3, ATI e outras. Estas placas surgiram no seguimento da SVGA standard
e incorporavam funções 3D.
Em 1997, a 3DFX lançou o chip de gráficos Voodoo, que era mais potente face às outras placas
gráficas, introduzindo gráficos 3D como mip mapping, Z-buffering e anti-aliasing no mercado de
consmidores. Depois desta placa, uma série de placas gráficas 3D foram lançadas, como a
Voodoo2 da 3DFX, TNT e TNT2 da NVIDIA. Como a largura de banda estava se aproximando
dos limites da capacidade do barramento PCI, a Intel desenvolveu a AGP (Accelerated Graphics
Port) que resolveu o “engarrafamento” entre o microprocessador e a placa de gráfica. De 1992

17
até 2002, a NVIDIA controlou o mercado das placas gráficas com a “familia” GeForce, sendo
todos os melhoramentos feitos durante este tempo todos concentrados nos algoritmos 3D e na
taxa de velocidade do processador de gráficos. A memória de vídeo também foi melhorada para
aumentar a sua taxa de dados, tendo sido a tecnologia DDR incorporada nas placas, melhorando
a capacidade da memória de vídeo de 32MB com a GeForce para 128MB com a GeForce4.
De 2002 em frente, o mercado das placas gráficas passou a ser basicamente dominado pela
competição entre a ATI e a NVIDIA, com as suas linhas Radeon e GeForce respectivamente,
tomando conta de aproximandamente 90% do mercado de placas gráficas independente entre
elas, enquanto que outros produtores foram forçados a se concentrarem em mercados mais
pequenos e de menos importância.
Bus (Barramento)
Barramento (ou bus), na arquitectura de computadores, é um subsistema que transfere dados
entre vários componentes do computador, ou seja, um conjunto de ligações físicas (cabos,
circuitos integrados, etc.) que podem ser partilhadas por vários componentes de hardware para
assim comunicarem entre si.
O objectivo principal dos barramentos é reduzir o número de “caminhos” necessários para a
comunicação entre os componentes, isto por estabelecer todas as comunicações por um único
canal de dados, como que uma “auto-estrada de dados”.
Um barramento é caracterizado pela quantidade de informação que consegue transmitir de uma
só vez. Essa quantidade, expressa em bits, corresponde ao número de linhas físicas nas quais os
dados são enviados simultaneamente. O termo banda (ou width) é utilizado para indicar o
número de bits que um barramento pode transmitir de cada vez.
Quanto à velocidade do barramento, é definida pela sua frequência e expressa em Hertz, isto é, o
número de pacotes de dados enviados ou recebidos por segundo.
Tendo estas duas especificações do barramento é possível calcular a sua velocidade de
transferência máxima, ou seja, a quantidade de dados que consegue transportar por unidade de
tempo, isto por multiplicar a banda pela frequência.
Relativamente ao tipo de dados que neles circulam, existem três tipos de barramentos:

 Barramentos de dados. São os barramentos por onde circulam os dados que a CPU vai
buscar à RAM ou aos periféricos;

18
 Barramentos de endereços. O acesso aos dados que a CPU necessita é feito pelo envio
dos endereços das posições de memória ou de periféricos onde eles se encontram;
 Barramento de controlo. Por onde os sinais eléctricos que controlam os dispositivos
eléctricos que o sistema utiliza para ler ou escrever os dados viajam;
Os barramentos mais conhecidos são:
 Barramento Local – estabelece a ligação entre a CPU e a RAM;
 Barramento ISA – utilizado pelos slots de 8 e 16 pins e alguns intefaces da motherboard;
 Barramento PCI – utilizado pelos slots PCI, interfaces IDE e USB;
 Barramento AGP – utilizado para placas gráficas 3D de alto desempenho.
História do Bus
Consideremos um pouco da história destes barramentos… O barramento ISA (Industry Standard
Architecture) foi desenvolvido pela IBM no inicio da década de 1980. O ISA surgiu no
computador IBM PC, em 1981, na versão de 8 bits, tendo, em 1984, “evoluído” para 16 bits
integrado no IBM PC-AT. Embora seja já bastante antiga, alguns componentes ou dispositivos
actuais ainda utilizam este barramento, como por exemplo alguns modems. Como este
barramento estava limitado a 16 bits, permitindo apenas uma taxa de transferência de 8 MB/s, a
IBM decidiu, por volta de 1985, substituir o barramento ISA por algo “maior e melhor” – o
barramento MCA (Micro Channel Architecture). Este barramento é uma versão de 32 bits do
ISA, oferecendo também um significativo melhoramento em relação ao mesmo.
O primeiro barramento a ganhar “popularidade” foi o VESA Local Bus (Video Electronics
Standards Association), apresentado e 1992. Este barramento tinha como objectivo resolver os
problemas de vídeo nos computadores pessoais. No entanto a sua popularidade “acabou” com o
aparecimento do Pentium e do barramento PCI.
O PCI (Peripheral Component Interconnect) começou a ser desenvolvido em 1992 pela Intel,
tendo nesse ano surgido o PCI 1.0 e no ano seguinte o PCI 2.0. O PCI rapidamente substituiu o
MCA em servidores topo de gama tornando-se o barramento de “eleição” para servidores. Só a
partir de 1994 é que começou a ter impacto nos computadores pessoais substituindo o VESA.

Evolução da Motherboard
Antes da invenção dos microprocessadores, os computadores eram geralmente construídos em
mainframes com os componentes, que eram ligados por um sistema blackplane que tinha

19
incontáveis slots para ligar os vários cabos. Nos designs antigos eram necessários cabos para
ligar os pins do conector do cartão (ou placa), no entanto isso tornou-se algo do passado com a
invenção das placas de circuito impresso. Quanto à CPU, memória e periféricos, eram
acondicionados em placas de circuito impresso individuais que eram ligadas ao blackplane.
Durante os finais de 1980 e 1990, tornou-se mais económico passar um crescente número de
funções periféricas para as placas de circuito impresso. Portanto, circuitos integrados individuais,
capazes de suportar periféricos de baixa velocidade como portas de série, rato, teclado e outras,
foram integrados nas motherboards.
Nos finais de 1990 começaram a possuir uma vasta gama funções de áudio, vídeo,
armazenamento e rede incorporadas. Mais tarde foram incluídos sistemas para placas gráficas
3D.
Embora empresas como a Micronics, Mylex, AMI, DTK, Orchid Technology, Elitegroup e
outras tenham sido das poucas empresas pioneiras no desenvolvimento e fabricação de
motherboards, empresas como a Apple e a IBM acabaram por prevalecer e “tomar conta do
mercado” pois ofereciam motherboards sofisticadas de topo de gama com novas e melhoradas
funções e maior performance, isto face às outras motherboards que se encontravam no mercado.
Os populares computadores pessoais como o Apple II e IBM PC vinham com uma espécie de
“manual de instruções” e outras documentações que permitiam “engenharia reversa” (processo
de análise de um “artefacto” e dos detalhes de seu funcionamento, geralmente com a intenção de
construir um novo com mesma funcionalidade, sem realmente copiar algo do original – p.e.
desmontar uma máquina para descobrir como funciona) e reposição de motherboards por
terceiros. Muitas motherboards ofereciam performance adicional ou outras funções, e usadas
para melhorar o equipamento original do fabricante, geralmente com a intenção de se construir
novos computadores compatíveis com os exemplares. Actualmente a maior empresa
produtora de motherboards é a Asus Tek.
A primeira motherboard (à qual se pode chamar mesmo de “motherboard”) surgiu numa
computador da IBM em 1982, o IBM PC, sendo o design desta similar ao das actuais, tendo um
número especifico de portas e slots para diferentes tipos de hardware. O mesmo design foi
também utilizado pela Apple no Apple II, que inovou a instalação de novos periféricos no
computador, tornando esse processo muito mais fácil, tendo portanto aberto as portas para o

20
mercado de periféricos, o que nos veio trazer toda a variedade de acessórios e afins que podemos
encontrar hoje em dia.
Desde a invenção nos finais de 1970, as motherboards revolucionaram a forma como os
computadores são desenhados e reduziram o tamanho em que são apresentados, tanto é que
apenas a motherboard em si tem milhões de transístores. Pesquisas e desenvolvimentos ainda
estão em progresso, e sem dúvida haverá uma altura em que teremos laptops ao mesmo nível que
os actuais super computadores… tudo isso devido à motherboards.

Tipos de Motherboard
À medida que a motherboard foi evoluindo, foi mudando fisicamente, dando origem a vários
modelos como AT, ATX e ITX. Consideremos esses e mais alguns…
As motherboards AT (Advanced Technology) são bastante antigas, tendo sido largamente
utilizadas entre 1983 e 1996. Estas motherboards já não são utilizadas, isto porque o seu espaço
interno era reduzido, o que, com todos os periféricos e cabos devidamente instalados, dificultava
a circulação do ar, o que poderia trazer danos permanentes ao computador devido ao sobre
aquecimento. Esse e outros problemas, como a limitação das fontes de alimentação AT, levaram
à criação do tipo de motherboards ATX.

21
Conclusão
Feito o trabalho, compreendeu-se sistema operacional precursores fazer computador, iniciando
pelo o ábaco That auxiliava a humanidade n / D realização de cálculos. Muitos séculos depois,
Napier descobri sistema operacional logaritmos e inventamosos ossosde Napier.Pascal
inventouuma máquinaque era capazde realizar somas e subtrações através de engrenagens.
Também vimos That não século XIX, ó Torelhade Jacquard motivação ó uso decartões
perfurados, e mais tarde, Carlos Babbage adaptou a ideia pára ó uso eles étemas computacionais,
embora nunca tenha terminado a construção de suas máquinas.
Em em seguida, concluímos Aprendendo sobre como gerações dos informática, inicialmente
com o uso de válvulas, depois com transistores e finalmente com a utilização de circuitos
integrados e como eles revolucionaram a fabricação dos computadores. Alema disso, Surgem
sistema operacional Programas integrados e a partir da virada do milênio, começando a surgire
os computadores de mão. Ou seja, os smartphones, ipod, ipad e tablets, que incluem conexão
móvel com navegaçãoçãó na web.

22
Referências
GONICK, Larry; “ Intr.oduçãoIlustrada à Computação ”, Editora Harbra Ltda, ed. 1986.
KOPPLIN, John. Uma história ilustrada dos computadores, parte 1 , 2002.
TANENBAUM, A. S. – Organização Estruturada de Computadoré . Quinta Edição, Aprendiz
Salão Brasil, 2007.
Java Point, History of Computers. Disponível em: <https://www.javatpoint.com/history-of-
computer>.

23

Você também pode gostar