Você está na página 1de 17

Unidade

Conceitos Bsicos

Objetivo:
Nesta unidade vamos apresentar os conceitos bsicos de Arquiteturas de
Computadores. Iniciamos com a definio de alguns conceitos que sero necessrios
para o entendimento de uma arquitetura de computadores. Depois apresentamos
uma pequena histria dos computadores eletrnicos desde a sua inveno at os
dias de hoje. Finalmente apresentamos os componentes gerais de uma arquitetura
de computadores.

Captulo 1
Introduo Arquitetura de Computadores

O ser humano sempre precisou realizar clculos, sejam eles para armazenar a comida, contar os animais ou construir uma casa. Os primeiros
computadores do mundo eram as pessoas. O computador era uma profisso cujo trabalho era executar os clculos repetitivos exigidos para computar tabelas de navegao, cartas de mars e posies planetrias. Devido
aos erros decorrente do cansao dos computadores humanos, durante vrios sculos os inventores tm procurado por uma maneira que mecanize
esta tarefa.
At aproximadamente metade do sculo XX, havia apenas mquinas
rudimentares que auxiliavam a realizao de clculos. A partir da inveno
da vlvula eletrnica, o transistor e circuito integrado, foi possvel construir
mquinas eletrnicas com maior capacidade e velocidade. Ela chamada
mais precisamente computador eletrnico digital de uso geral e esta mquina que vamos falar a partir de agora.
Os computadores so eletrnicos porque manipulam dados usando
circuitos de chaveamento eletrnico, sejam eles vlvulas eletrnicas, transistores, e mais recentemente, circuitos integrados. Digital significa que o
computador guarda e manipula todos os dados internamente sob a forma
de nmeros (todos os dados numricos, todos os dados de texto, e mesmo os
sons e as figuras so armazenadas como nmeros). O dgito significa dedo
e desde que os povos comearam a contar com seus dedos, o nome dgito
aplicada a representao de nmeros. de uso geral porque podem ser
programados para executar uma grande variedade de aplicaes (diferente
de um computador de propsito especfico, projetado para executar somente
uma funo).

Arquitetura e Organizao de Computadores


Os termos Arquitetura e Organizao de Computadores tm significado distinto para descrever um sistema de computao. H um consenso na comunidade de que o termo Arquitetura de Computador refere-se
aos atributos que so vistos pelo programador. Por exemplo, conjunto de
instrues, nmero de bits de representao dos dados, endereamento de
memria e mecanismos de entrada e sada, so exemplos de atributos de
arquitetura de computadores.
O termo Organizao de Computadores se refere s unidades operacionais e suas interconexes para uma determinada arquitetura e so
transparentes para o programador. Por exemplo, tecnologias dos componentes eletrnicos, sinais de controle, interfaces entre os computadores e
perifricos, so exemplos de atributos de organizao de computadores.
Apesar deste livro tratar especificamente de Arquitetura de Computadores, a Unidade 2 apresenta uma introduo aos conceitos de Lgica Digital, mais apropriada para a rea de Organizao de Computadores, com o
objetivo de facilitar o entendimento das demais unidades.
ARQUITETURA DE COMPUTADORES

11

Hardware e Software
Um computador um dispositivo que executa quatro funes: ele recebe dados de entradas (converte dados do mundo exterior para o universo
eletrnico); armazena os dados (de forma eletrnica); processa dados (executa operaes matemticas e lgicas); e exibe os dados de sadas (mostra
os resultados para os usurios atravs de uma tela).
Um computador consiste no hardware e no software. O hardware o
equipamento fsico: o prprio computador e os perifricos conectados. Os
perifricos so todos os dispositivos ligados ao computador para finalidades
de entrada, sada, e armazenamento dos dados (tais como um teclado, um
monitor de vdeo ou um disco rgido externo).
O software consiste nos programas e nos dados associados (informao) armazenados no computador. Um programa uma sequencia de instrues que o computador segue com o objetivo de manipular dados. A
possibilidade de incluir ou excluir programas diferentes a fonte de versatilidade de um computador. Sem programas, um computador apenas hardware de alta tecnologia que no faz qualquer coisa. Mas com a sequncia
de instrues detalhadas, descrevendo cada passo do programa (escrito por
seres humanos) o computador pode ser usado para muitas tarefas que variam do processamento de texto a simulao de padres de tempo globais.
Como um usurio, voc ir interagir com os programas que funcionam em seu computador atravs dos dispositivos de entrada conectados a
ele, tal como um mouse e um teclado. Voc usa esses dispositivos para fornecer a entrada (tal como o texto de um relatrio que voc est trabalhando)
e para dar comandos ao programa (tal como a definio de que uma frase
do texto vai aparecer com formato negrito). O programa fornecer a sada
(os dados resultantes das manipulaes dentro do computador) atravs de
vrios dispositivos de sada (tal como um monitor ou uma impressora).

1. Para voc, qual a categoria mais importante de um computador, o hardware ou software. Um pode ser utilizado sem o outro?
2. Pare um instante e identifique em sua volta dispositivos que dispe de
um computador. Voc observou como computadores esto em todos os
lugares e como so importantes para a nossa vida?

12

ARQUITETURA DE COMPUTADORES

Captulo 2
Histria do Computador Eletrnico

Apesar de haver relatos histricos de mquinas que realizassem clculos matemticos como a Mquina de Pascal (1642), a mquina de Charles
Babbage (1822) at o Mark I da Universidade de Harvard (1944), o primeiro
computador totalmente eletrnico foi o ENIAC (1945).
Para classificar as vrias etapas do desenvolvimento dos computadores eletrnicos de acordo com a tecnologia utilizada, os computadores foram
classificados em quatro geraes, que veremos a seguir:

Primeira Gerao
Os computadores de primeira gerao so baseados em tecnologias de
vlvulas eletrnicas. Esta gerao inicia em 1943 e vai at 1959. Os computadores da primeira gerao normalmente paravam de funcionar aps
poucas horas de uso. Tinham dispositivos de Entrada/Sada rudimentares,
calculavam com uma velocidade de milsimos de segundo e eram programados em linguagem de mquina.
Em 1943, um projeto britnico, sob a liderana do matemtico Alan
Turing, colocou em operao o COLOSSUS utilizado para decodificar as
mensagens criptografadas pela mquina Enigma, utilizadas pelos alemes
na 2 Guerra Mundial. Sua caracterstica mais inovadora era a substituio
de rels eletromecnicos por vlvula eletrnica. Apesar de ter uma arquitetura de computador, ainda ele no pode ser chamado de uso geral pois
realizava apenas uma funo especfica. Essa mquina usava 2.000 vlvulas eletrnicas.
Em 1945, surgiu o ENIAC - Electronic Numerical Integrator and Computer, ou seja, "Computador e Integrador Numrico Eletrnico", projetado
para fins militares, pelo Departamento de Material de Guerra do Exrcito
dos EUA, na Universidade de Pensilvnia. Foi o primeiro computador digital
eletrnico de grande escala projetado por John W. Mauchly e J. Presper
Eckert. Este considerado pelos pesquisadores como o primeiro computador eletrnico de uso geral, isto , pode realizar diferentes funes a partir
da troca de um programa, apesar da sua reprogramao levar semanas
para ser concluda.
O ENIAC tinhas 17.468 vlvulas, 500.000 conexes de solda, 30 toneladas de peso, 180 m de rea construda, 5,5 m de altura, 25 m de comprimento e realizava uma soma em 0,0002 s.
O ENIAC tinha um grande problema: por causa do nmero grande de
vlvulas eletrnicas, operando taxa de 100.000 ciclos por segundo, havia
1,7 bilho de chances a cada segundo de que uma vlvula falhasse, alm de
superaquecer. As vlvulas liberavam tanto calor, aproximadamente 174 KW,
que mesmo com os ventiladores a temperatura ambiente chegava a 67C.
Ento Eckert, aproveitou a idia utilizada em rgos eletrnicos, fazendo
ARQUITETURA DE COMPUTADORES

Vlvula Eletrnica um
dispositivo eletrnico formado por um invlucro de
vidro de alto vcuo chamada ampola contendo
vrios elementos metlicos. A vlvula serve para
comutar circuito e amplificar sinal eltrico.

13

que as vlvulas funcionassem sob uma tenso menor que a necessria, reduzindo assim as falhas para 1 ou 2 por semana.
Mesmo com 18.000 vlvulas, o ENIAC podia armazenar somente 20
nmeros de cada vez. Entretanto, graas eliminao das peas mveis
ele funcionava muito mais rapidamente do que os computadores eletro-mecnicos. No entanto, o maior problema do ENIAC era a reprogramao. A
programao era realizada atravs da ligao de fios e interruptores em um
painel. A mudana de cdigo de programa levava semanas.
Eckert e Mauchly se juntaram ao matemtico John Von
Neumann em 1944 para projetar o EDVAC (Electronic Discrete Variable Automatic Computer), que abriu caminho para o
programa armazenado. Ele foi
um sucessor do ENIAC e usava
numerao binria em vez de
decimal e j utilizava o conceito
de programa atravs de carto
perfurado. Isso permitia ao EDVAC mudanas de programas
mais rpidas em comparao ao Figura 1 ENIAC O primeiro grande computador
eletrnico [foto Exrcito EUA]
ENIAC.
No entanto, a principal contribuio do EDVAC foi a arquitetura de
processador, memria e unidades de entrada e sada interligadas por um
barramento. Arquitetura conhecida como Arquitetura Von Neumann utilizada at hoje pela maioria dos computadores. Mostramos a seguir a arquitetura do EDVAC.

Figura 2 Arquitetura do EDVAC (Arquitetura von Neumann)

14

ARQUITETURA DE COMPUTADORES

Apenas em 1951 surgiram os primeiros computadores produzidos em


escala comercial, como o UNIVAC e o IBM 650.

Segunda Gerao
Nos equipamentos da segunda gerao, que durou de
1959 a 1965, a vlvula foi substituda pelo transistor. O transistor
foi criado em 1947 no Bell Laboratories por William Shockley e
J.Brattain. Seu tamanho era 100
vezes menor que o da vlvula,
no precisava esperar um tempo
para aquecimento, consumia
Figura 3 IBM 1401 [foto Computer
menos
energia, era mais rpido e
History Museum]
mais confivel.
O primeiro computador experimental totalmente com transistor foi
construdo na Universidade de Manchester e entrou em operao em 1953.
Uma segunda verso do Computador de Transistor foi construda em 1955.
Os computadores da segunda gerao calculavam em microssegundos e eram mais confiveis que os computadores da primeira gerao. Os
seus representantes comerciais clssicos foram o IBM 1401 e o IBM 7094,
j totalmente transistorizado. Outra caracterstica importante, alm do uso
de transistor, era a utilizao de memria com ncleo de ferrite e fita magntica para armazenamento de dados. Essas mquinas j utilizavam linguagem de programao FORTRAN e COBOL.

Transitor um dispositivo eletrnico construdo


com material semicondutor (germnio ou silcio)
que funciona como chave de circuito ou amplificador. Ele substituiu a
vlvula eletrnica por ser
menor, dissipar menos
calor e ter uma durabilidade maior.

Terceira Gerao
A terceira gerao,
que durou de 1964 a 1970,
foi marcada com a substituio dos transistores pela
tecnologia de circuitos integrados - transistores e componentes eletrnicos montados em um nico substrato.
O circuito integrado foi inventado por Jack St. Clair
Kilby e Robert Noyce e permitiu a compactao dos
computadores construdos
com transistor. Nesta geraFigura 4 IBM 360 [foto Computer History
o o clculo de operaes
Museum]
matemticas chegava ordem de nanossegundos alm do aumento da capacidade, reduo das dimenses fsicas e reduo na dissipao de calor.
O principal computador comercial da terceira gerao foi o IBM 360, lanado em 1964. Ele dispunha de muitos modelos e vrias opes de expanso
que realizava mais de 2 milhes de adies por segundo e cerca de 500 mil
multiplicaes. O System/360 foi um dos maiores sucessos de venda da IBM.
ARQUITETURA DE COMPUTADORES

15

Quarta Gerao
A quarta gerao iniciou em 1971 e dura at hoje. Ela continuou com
a utilizao de circuito integrados, mas diferenciada da terceira gerao
pela utilizao do microprocessador, isto , um circuito integrado que rene
todas as funes do computador.
Em novembro de 1971, a Intel lanou o primeiro microprocessador
comercial, o 4004. Ele foi desenvolvido para um fabricante de calculadoras
eletrnicas japonesa, a Busicom, como uma alternativa ao circuito eletrnico que era utilizado. Juntamente com o desenvolvimento do circuito integrado de memria RAM, inventada por Robert Dennard, permitiu a construo
do microcomputador, equipamentos pequenos com grande capacidade de
processamento. O 4004 era capaz de realizar apenas 60.000 instrues por
segundo, mas seus sucessores, 8008, 8080, 8086, 8088, 80286, 80386,
80486, etc, ofereciam capacidades cada vez maiores em velocidades cada
vez maiores.
A vantagem de um circuito integrado no apenas a reduo das
dimenses dos componentes de um computador, mas a possibilidade de se
produzir componentes em massa reduzindo seu custo. Todos os elementos
no circuito integrado so fabricados simultaneamente atravs de um nmero pequeno de mscaras ticas que definem a geometria de cada camada.
Isto acelera o processo de fabricao do computador, alm de reduzir o custo, da mesma forma que a inveno da impresso por Gutenberg possibilitou a difuso e barateamento dos livros no sculo XVI.
Um computador transistorizado de 1959 continha 150.000 transistores em uma rea de 10 m. Esses transistores eram infinitamente menores
que as vlvulas eletrnicas que substituiu, mas eram elementos individuais que exigiam um conjunto individual para fixao. Nos anos 80, essa
quantidade de transistores podia ser fabricada simultaneamente em um
nico circuito integrado. Um microprocessador atual Pentium 4 contem
42.000.000 de transistores fabricados simultaneamente um uma pastilha
de silcio do tamanho de uma unha.

16

Figura 5 Microcomputador IBM PC [foto Computer History Museum]

ARQUITETURA DE COMPUTADORES

1. Qual foi o maior ganho quando os computadores passaram a ser construdos com vlvulas eletrnicas em vez de mecanismos eletro-mecnico?
2. Qual o principal problema da primeira gerao de computadores e como
ele foi resolvido para permitir sua utilizao de forma confivel?
3. O que a inveno do transistor trouxe para a evoluo dos computadores
eletrnicos?
4. Qual a semelhana entre o processo de fabricao de um circuito integrado com a imprensa? O que isso propiciou?
5. Qual a caracterstica que diferencia a terceira da quarta gerao de
computadores se ambas utilizam o circuito integrado?

ARQUITETURA DE COMPUTADORES

17

Captulo 3
Componentes de uma Arquitetura de
Computador

Um computador construdo com vrios componentes individuais. As


ligaes entre os diversos componentes a essncia da Arquitetura de Computadores. A forma como os componente se interligam e se comunicam vai
determinar a capacidade e velocidade de processamento de uma determinada arquitetura.
A primeira seo mostra a arquitetura geral de um computador. Em
seguida apresentamos a Arquitetura Harvard e a Arquitetura Von Neumann, importantes para entender as Arquiteturas usadas atualmente. Finalmente apresentamos a Lei de Moore, um prognstico de evoluo dos
microprocessadores e alguns comentrios sobre os limites dela.

Componentes de um computador
A Figura 5 mostra a arquitetura simplificada de um Computador. Os
computadores modernos podem ter uma arquitetura bem mais complexa do
que esta, mas os blocos principais esto aqui representados.

Figura 6: Arquitetura de um Computador

O principal mdulo a Unidade Central de Processamento, usualmente conhecida como CPU (Central Processing Unit). A CPU o crebro do
computador onde todo o processamento realizado. Ela constituda por
trs submdulos: a Unidade Lgica e Aritmtica (ULA), os Registradores e a
Unidade de Controle. Nos computadores modernos a CPU construda em
um nico Circuito Integrado (chip).
A Unidade Lgica e Aritmtica (ULA), tambm conhecida como Arithmetic and Logic Unit (ALU), responsvel por realizar as operaes do
computador como soma e subtrao assim como as funes lgicas, OU, E,
NO e OU Exclusivo. Algumas ULAs mais sofisticadas realizam tambm
multiplicaes e divises.

18

ARQUITETURA DE COMPUTADORES

Os registradores so memrias utilizadas para realizar as operaes


na CPU. Essas memrias so muito rpidas e de tamanho pequeno, geralmente suficiente para guardar menos de uma dezena de valores. Alm dos
registradores comum haver uma memria de rascunho dentro da CPU,
chamada de Cache. Ela utilizada para aumentar a velocidade de processamento reduzindo o tempo de acesso memria externa.
A Unidade de Controle responsvel por controlar todo o funcionamento da CPU e tambm de todo o computador. Ela controla o processamento
entre ULA e Registrador e interage com o barramento externo onde ficam os
perifricos. A Unidade de Controle tem uma funo chave que a interpretao do cdigo do programa que ir nortear os comandos do processamento.
Continuando na Figura 5 podemos observar um barramento e trs mdulos externos CPU: Memria, Disco e Interface de Entrada e Sada (I/O).
O barramento serve para interligar todos os componentes internos do
computador. Para se obter altas velocidades esse barramento geralmente
paralelo (os dados so enviados paralelamente). Nessa figura representamos apenas um barramento, mas geralmente ele dividido em barramento
de dados (onde os dados trafegam), barramento de endereo (onde indicamos a localizao de cada dado) e o barramento de controle (onde indicamos o comando, por exemplo, ler, escrever, copiar, etc). Em um computador
real existem vrios nveis de barramento com velocidades diferentes, quanto
mais prximo da CPU mais rpido ele , e quanto mais prximo dos perifricos mais lento ele .
A Memria constituda por um conjunto de memria semicondutora
utilizada para armazenar os dados temporariamente. Podemos dizer que
essa a memria de trabalho do computador e geralmente fica localizada
na placa me do computador. Essa memria mais lenta que os Registradores mas mais rpida que as unidades de armazenamento em disco. A
memria semicondutora geralmente perde os dados quando o computador
desligado, por isso deve-se usar uma unidade de armazenamento permanente, o disco.
O disco consiste em uma unidade eletro-mecnica que armazena os
dados em um disco magntico que mantm as informaes mesmo quando
o computador desligado. Essa unidade tem grande capacidade de armazenamento mas tem velocidade de acesso significativamente menor em relao s memrias semicondutoras.
O mdulo de Entrada e Sada, ou Input/Output (I/O), estabelece a
ligao do computador com o mundo externo, usando equipamentos perifricos. Essa interface permite a ligao de teclados e mouses (para entrada
de dados), monitores ou impressoras (para exibio dos dados) e placas de
comunicao (para trocar dados a longa distncia). Essa interface significativamente mais lenta que os demais componentes do computador devido
a natureza dos perifricos e a incapacidade humana de processar informaes na velocidade dos computadores.
As prximas unidades iro detalhar cada um dos mdulos que constituem um computador.

Arquitetura Harvard
A Arquitetura de Harvard, mostrada na figura abaixo, uma arquitetura de computador onde os caminhos de comunicao e a memria de
armazenamento das instrues e de dados so fisicamente separados.
ARQUITETURA DE COMPUTADORES

19

O termo originou da caracterstica do computador eletro-mecnico Mark I,


desenvolvida na Universidade de Harvard, que armazenava instrues em
uma fita perfurada (com 24 bits de largura) e os dados eram armazenados
em contadores eletromecnicos. Esta mquina tinha espao limitado para
o armazenamento de dados, inteiramente contido na Unidade Central de
Processamento, e como no havia nenhuma ligao dessa memria com o
armazenamento de instruo, o programa era carregamento e modificando
de forma inteiramente isolada (off-line).

Off-line todo processo


em um computador que
realizado fora do equipamento e independente de
o computador estar ligado
ou no.

Figura 7 Diagrama de blocos da Arquitetura Harvard

Na Arquitetura de Harvard, no h necessidade de fazer compartilhamento das memrias com dado e instruo. Em particular, a largura da
palavra, o sincronismo, a tecnologia da execuo e a estrutura do endereo
de memria para dados e instrues podem diferir. Em alguns sistemas,
as instrues so armazenadas em memria somente de leitura (ROM) enquanto a memria de dados exige geralmente uma memria de leitura/escrita (RAM). Em alguns sistemas, h muito mais memria de instruo do
que a memria dos dados devido ao fato de que os endereos de instruo
so maiores do que endereos de dados.
Em um computador com a Arquitetura von Neumann, o processador
central no pode ler uma instruo e realizar uma leitura/escrita de dados simultaneamente. Ambos no podem ocorrer ao mesmo tempo porque
as instrues e os dados usam o mesmo barramento de sistema. Em um
computador com a arquitetura de Harvard, o processador central pode ler
uma instruo e executar um acesso memria de dados ao mesmo tempo
porque os barramentos so distintos. Um computador da Arquitetura de
Harvard pode ser mais rpido para um determinado processador porque o
acesso aos dados e instruo no usam o mesmo barramento. No entanto,
uma Arquitetura de Harvard exige um circuito eletrnico maior e mais complexo, comparado com a Arquitetura Von Neumann.

20

ARQUITETURA DE COMPUTADORES

A Arquitetura de Harvard Modificada muito semelhante Arquitetura de Harvard, mas define um caminho alternativo entre a memria da
instruo e o processador central de forma que permita que as palavras na
memria da instruo possam ser tratadas como dados somente de leitura,
no apenas instruo. Isso permite que os dados constantes, particularmente tabelas de dados ou textos, sejam alcanados sem ter que primeiramente ser copiado para a memria dos dados, liberando assim mais memria de dados para variveis de leitura/gravao. Para diferenciar leitura de
dados da memria da instruo so utilizadas instrues especiais.
A vantagem principal da Arquitetura de Harvard - acesso simultneo
a memria de dados e instruo - foi compensada pelos sistemas modernos
de cache, permitindo que uma mquina com Arquitetura von Neuman pudesse oferecer desempenho semelhante Arquitetura de Harvard na maioria dos casos.
Apesar disso a Arquitetura de Harvard ainda muito utilizada em
aplicaes especficas, onde a arquitetura ainda apresenta boa relao custo-desempenho, como:
Processadores de Sinal Digital (DSPs): Processadores especializados em processamento de udio, vdeo ou comunicaes. Esses processadores precisam realizar uma grande quantidade de operaes
aritmticas em uma grande quantidade de dados, fazendo que a
Arquitetura Harvard seja economicamente vivel.
Os microcontroladores, pequenos processadores usados em aplicaes especficas como controle de mquinas, veculos, equipamentos. Esses processadores so caracterizados pela pequena quantidade de memria de programa (geralmente memria Flash) e memria
de dados (SRAM), assim, a Arquitetura de Harvard pode apressar
o processamento permitindo o acesso instruo e dados simultaneamente. O barramento e o armazenamento separado possibilita
que as memrias de programa e de dados tenham larguras de bits
diferentes. Por exemplo, alguns PICs tem uma palavra de dados de 8
bits mas tem palavras de instruo de 12, 14, 16 ou 32 bits, conforme a complexidade do programa. Os produtos mais conhecidos que
usam a Arquitetura Harvard so: processadores ARM (vrios fabricantes), o PIC da Microchip Tecnologia, Inc., e o AVR da Atmel Corp.

Arquitetura Von Neumann


A Arquitetura de von Neumann
um modelo de arquitetura para computador digital de programa armazenado
onde existe uma nica estrutura compartilhada para armazenamento de instrues e de dados. O nome uma homenagem ao matemtico e cientista de
computao John Von Neumann que
primeiro props essa idia.
Um computador com Arquitetura
von Neumann mantm suas instrues
de programa e seus dados na memria
de leitura/escrita (RAM). Essa arquitetura foi um avano significativo sobre os

Figura 8 Diagrama de Blocos de uma


Arquitetura von Neumann

ARQUITETURA DE COMPUTADORES

21

computadores dos anos 40, tais como o Colossus e o ENIAC, que eram programados ajustando interruptores e introduzindo cabos para ligar os sinais
de controle entre as vrias unidades funcionais. Na maioria dos computadores modernos usa-se a mesma memria para armazenar dados e instrues
de programa.
Os termos Arquitetura von Neumann e computador de ProgramaArmazenado so usados indistintamente nesse texto. Ao contrrio, a Arquitetura de Harvard armazena um programa em um local diferente do
local utilizado para armazenar dados.
Von Neumann foi envolvido no projeto de Manhattan. L juntou-se ao
grupo que desenvolveu o ENIAC para desenvolver o projeto do computador
de programa-armazenado chamado EDVAC. O termo Arquitetura von Neumann foi mencionada em um relatrio sobre o projeto EDVAC datado de 30
de junho de 1945, que incluiu idias de Eckert e de Mauchly. O relatrio foi
lido por vrios colegas de von Neumann na Amrica e Europa, influenciado
significativamente todos os futuros projetos de computador. Apesar de ser
reconhecido a contribuio de J. Presper Eckert, John Mauchly e Alan Turing para o conceito de computador de programa-armazenado, essa arquitetura mundialmente denominada Arquitetura Von Neumann.

Gargalos da Arquitetura Von Neumann


O compartilhamento de estrutura para armazenar dados e instrues
entre o processador central e a memria conduz ao gargalo de Von Neumann, devido limitao da taxa de transferncia dos dados do barramento entre o processador central e memria. Na maioria de computadores
modernos, a taxa de transmisso do barramento geralmente muito menor
do que a taxa em que o processador central pode trabalhar. Isso limita
seriamente a velocidade de processamento efetivo quando o processador
central exigido para executar o processamento de grandes quantidades
de dados na memria. O processador central forado continuamente a
esperar a transferncia de dados de ou para memria. A partir do aumento
da velocidade dos processadores e o aumento do tamanho e da velocidade
das memrias, o gargalo do barramento nico se transformou em mais um
problema. O termo de gargalo Von Neumann foi criado por John Backus
em artigo no 1977 ACM Turing Award.
O problema de desempenho da Arquitetura Von Neumann pode ser
reduzido atravs do uso de cache entre o processador central e a memria
principal, e pelo desenvolvimento de algoritmos de predio de desvio. Otimizaes das linguagens orientadas a objeto modernas so menos afetadas
que o cdigo objeto linear gerado por compilador Fortran do passado.

Lei de Moore
A Lei de Moore descreve uma tendncia histrica de longo prazo na
evoluo de desempenho de hardware, em que o nmero de transistores que
podem ser colocados em um circuito integrado dobra a aproximadamente
cada dezoito meses. Mesmo no sendo uma lei natural que no possa ser
controlada, a Lei de Moore um bom prognstico para o avano da tecnologia micro-eletrnica nos ltimos 40 anos.

22

ARQUITETURA DE COMPUTADORES

Figura 9 Grfico da Lei de Moore comparando com os processadores lanados [Intel]

As caractersticas de muitos dispositivos eletrnicos so fortemente


associados Lei de Moore: velocidade de processamento, capacidade de memria e o nmero e tamanho dos pixels nas cmaras digitais. Todos eles
crescem a taxas aproximadamente exponenciais. Isso aumentado dramaticamente o uso da eletrnica digital em quase todos os segmentos da economia mundial. A tendncia acontece a quase meio sculo e no esperado
reduzir pelo menos at 2015.
A lei recebeu o nome do co-fundador da Intel, Gordon E. Moore, que
introduziu o conceito em um artigo de 1965. Ela tem sido usada desde ento
pela indstria de semicondutores para guiar o planejamento de longo prazo
e para ajustar metas para a pesquisa e o desenvolvimento.
Limites da Lei de Moore
Em 13 de abril de 2005, Gordon Moore anunciou em uma entrevista
que a lei no pode se sustentar indefinidamente: No pode continuar para
sempre. A natureza das taxas exponenciais que voc os empurra para fora
e eventualmente disastres acontecem.
No entanto, previu que os transistores alcanariam os limites atmicos de miniaturizao: Nos termos de tamanho [dos transistores] voc
pode ver que ns estamos nos aproximando do tamanho dos tomos que
uma barreira fundamental, mas sero duas ou trs geraes antes de alcanarmos e que parece to distante e talvez no chegaremos a v-lo. Ns
ainda temos 10 a 20 anos antes que ns alcancemos o limite fundamental.
At l poderemos fazer chips maiores e quantidade de transistores da ordem
de bilhes.
Em 1995, o microprocessador Digital Alpha 21164 tinha 9.3 milho
de transistores. Seis anos mais tarde, um microprocessador avanado tinha mais de 40 milhes de transistores. Teoricamente, com miniaturizao
adicional, em 2015 esses processadores devem ter mais de 15 bilhes de
transistores, e por volta de 2020 chegar na escala de produo molecular,
onde cada molcula pode ser individualmente posicionada.
Em 2003 a Intel previu que o fim viria entre 2013 e 2018 com processo
de manufatura de 16 nanmetros e portas com 5 nanmetros, devido ao
tunelamento quntico do silcio. No entanto, a melhoria da qualidade do
ARQUITETURA DE COMPUTADORES

23

processo de fabricao poderia aumentar o tamanho dos chips e aumentar


a quantidade de camadas pode manter o crescimento na taxa da Lei de Moore por pelo menos uma dcada a mais.

Nesta unidade apresentamos os conceitos bsicos de Arquiteturas de Computadores. Inicialmente apresentamos algumas definies necessrias para
o entendimento de uma arquitetura de computadores que ser til em todas
as unidades deste livro. Depois apresentamos uma pequena histria dos
computadores eletrnicos desde a sua inveno nos anos 40 at os dias de
hoje. Apresentamos os componentes gerais de uma arquitetura de computadores que sero estudados nas prximas unidades. Finalmente apresentamos as Arquiteturas Harvard e Von Neumann alm de uma discusso
sobre a Lei de Moore.

1. Observando a Figura 8 (arquitetura Von Neumann) avalie os componentes que podem limitar o desempenho. Proponha solues para resolver
esse gargalo
2. Qual mdulo de uma arquitetura de computadores deve ser mais rpido
para melhorar o desempenho de um sistema de processamento numrico (muitas operaes matemticas)?
3. Qual mdulo de uma arquitetura de computadores deve ser mais rpido
para melhorar o desempenho de um sistema de armazenamento de dados (muitos dados guardados e consultados)?
4. Pesquise na Internet algumas tecnologias que esto sendo desenvolvidas
para superar as limitaes da Lei de Moore.

Museu da Histria do Computador (em ingls)


http://www.computerhistory.org/

Histria do Computador (em ingls)


http://www.computersciencelab.com/ComputerHistory/History.htm

Discusso sobre e Lei de Moore (em ingls)


24

http://www.intel.com/technology/mooreslaw/

ARQUITETURA DE COMPUTADORES

FERNANDO DE CASTRO VELLOSO. Informtica: Conceitos Bsicos. 7


Ed. Editora: Campus, 2004. Livro destinado a estudantes de cursos de introduo a informtica com os fundamentos da Informtica e introduz os
alunos progressivamente nos aspectos mais importantes do universo dos
computadores, memrias, sistemas operacionais, unidades de entrada e sada, bancos de dados, linguagens, tecnologia orientada a objetos e muito
mais. Repleto de ilustraes, exemplos, exerccios e respostas, escrito por
um experiente professor de cursos de introduo Informtica.
BEHROOZ PARHAMI. Arquitetura de Computadores. 1 Ed. Editora: McGraw-Hill, 2008. Livro que enfatiza tanto os princpios tericos quanto os
projetos prticos, abordando um amplo leque de tpicos e relaciona arquitetura de computadores com outros campos da informtica. O tema apresentado em captulos curtos, ordenados de maneira flexvel, em forma de
aula, o que facilita a compreenso da inter-relao entre os vrios tpicos
sem perder de vista o contexto geral.

ARQUITETURA DE COMPUTADORES

25