Escolar Documentos
Profissional Documentos
Cultura Documentos
IFBA Instituto Federal de Educ. Ciencia e Tec Bahia Curso de Analise e Desenvolvimento de Sistemas Arquitetura de Computadores 25 e 26/30 Prof. Msc. Antonio Carlos Souza Referncias Bibliogrficas:
1. 2. 3.
Cincia da Computao: Uma viso abrangente - J.Glenn Brokshear Introduo organizao de computadores Mrio Monteiro LTC Organizao Estrutura de Computadores Andrew S. Tanembaum - LTC
Hierarquia de Memria
Hierarquia de memria oferece a possibilidade de reduzir a diferena entre a velocidade de processamento da CPU e o tempo de acesso memria.
aumenta a capacidade de armazenamento
Execuo de Instrues
Problema 1: Como construir computadores de baixo custo capazes de executar todas as instrues complexas de mquinas de alto desempenho, muito mais caras? Uma implementao em hardware puro (sem interpretao) usada somente nos computadores mais caros. Uma implementao com interpretador de instruo (por software) usada em computadores mais baratos.
Execuo de Instrues
Vantagens do interpretador em relao ao hardware puro
l l l
Capacidade de corrigir no campo eventuais erros na implementao de instrues Oportunidade de incorporar novas instrues nas mquinas j existentes Projeto estruturado que permite o desenvolvimento, teste e documentao de instrues complexas de maneira eficiente. Pode substituir implementaes antigas de instrues. Armazenamento das microinstrues do interpretador em memrias read-only (ROM), chamadas de memria de controle, muito mais rpidas do que as memrias convencionais.
Execuo de Instrues
Problema 2: O uso da interpretao permitiu a criao de um conjunto grande de instrues de importncia discutvel e que eram difceis e caras para serem implementadas diretamente por hardware (circuitos muito complexos).
Tecnologia mais antiga e usada para famlias de computadores compatveis a nvel de software. Nmero maior de instrues (~200 a 300 instrues). Uso extensivo de interpretao (principalmente para modelos mais baratos).
Processador com pequeno nmero de instrues muito simples. Instrues capazes de serem executadas em um nico ciclo do caminho de dados.
Argumento RISC: Mesmo que uma mquina RISC RISC precisasse de 4 ou 5 instrues para fazer o que uma mquina CISC faria com apenas 1 instruo, se a instruo RISC fosse 10 vezes mais rpida (s hardware) a mquina RISC venceria.
RISC
Menor Quantidade de Instrues e Tamanho Fixo Execuo Otimizada de Chamada de Funes Menor Quantidade de Modos de Endereamento Modo de Execuo com Pipelining
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: Todas as instrues so diretamente executadas por hardware Maximizar a Taxa qual as instrues so executadas As instrues precisam ser facilmente decodificadas Somente as Instrues de Load e Store devem referenciar a Memria Projetar uma mquina com muitos registradores (>= 32)
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: Todas as intrues so diretamente executadas por hardware
l l
No existe o nvel de microinstruo Para mquina com filosofia CISC as instrues, em geral menos frequentes, que no existem em hardware so interpretadas
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: Maximizar a Taxa qual as instrues so executadas
l
Uso de paralelismo: execuo de vrias instrues lentas ao mesmo tempo Execuo de instrues no precisa seguir a lgica da programao
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: As instrues precisam ser facilmente decodificadas
l
decodificao influencia na velocidade de execuo das instrues decodificao determina os recursos a serem usados na execuo das instrues quanto menor o nmero de formatos, mais fcil a decodificao
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: Somente as Instrues de Load e Store devem referenciar a Memria
l l
Acesso a memria mais lento Instrues que acessam a memria podem ser intercaladas com outras instrues
Princpios do projeto RISC que os arquitetos de processadores de propsito geral devem seguir: Projetar uma mquina com muitos registradores (>= 32)
l
Palavras de memria devem permanecer nos registradores o maior tempo possvel Falta de registradores pode obrigar a buscar varias vezes a mesma palavra da memria
SPARC = Sun Microsystems - 1987 RS/6000 = IBM 1990 ALPHA = DEC 1992 POWER PC = IBM/MOTOROLA/APPLE
Existe limite tecnolgico para desenvolvimento do hardware do chip de processamento que depende do estado da arte da tecnologia. Soluo para aumentar a velocidade do processador: Uso de paralelismo. paralelismo
a nvel das instrues: um nico processador deve es executar mais instrues por segundo a nvel do processador: vrios processadores trabalhando processador juntos na soluo do mesmo problema
Maior gargalo para a velocidade de execuo de instrues o acesso a memria Execuo em Pipeline
l
O processamento em pipeline divide a execuo de instrues em vrias partes, cada uma das quais tratada por um hardware dedicado exclusivamente a ela.
(a) Pipeline de 5 estgios. (b) Estado de cada um dos estgios em funo do tempo (esto ilustrados 9 perodos do clock).
O estgio 1 busca a instruo da memria e armazena num buffer at chegar a hora de executa-la No estgio 2 ocorre a decodificao da instruo, determinando tipo e operandos No estgio 3 ocorre a busca dos operandos na memria ou nos registradores No estgio 4 tem-se a execuo - passagem pelo caminho de dados No estgio 5 o resultado do processamento escrito num registrador
A idia bsica do pipeline a mesma de uma linha de produo em srie. Vrios processamentos esto sendo executados ao mesmo tempo. A figura mostra o funcionamento do pipeline, mostrando que os estgios de cada processamento so aplicados a vrias instrues ao mesmo tempo. tempo
l
Exemplo: no tempo 1 a instruo 1 est sendo lida, no tempo 2 a instruo 1 est sendo decodificada enquanto que a instruo 2 est sendo lida, no tempo 3 a instruo 1 est buscando dados, a instruo 2 est sendo decodificada e a instruo 3 est sendo lida, e assim por diante.