Sumário
1. Introdução……………………………………………………….Pág. 4
2. Dispositivo de Entrada e Saída………………………………..Pág. 5
3. Pipeline…………………………………………………………..Pág.
3.1 Conflitos de Pipeline……………………………………..Pág. 7
3.2 Conflitos Estruturais……………………………………...Pág. 7
3.3 Conflitos de Controle……………………………………..Pág. 7
4. Arquitetura RISC x CISC……………………………………….Pág. 8
5. Família de Processadores Intel e AMD……………………….Pág. 10
5.1 História………………………………………………..........Pág. 10
5.2 Linha do Tempo…………………………………………..Pág. 11
5.2.1 1982……….………………………………………. Pág. 11
5.2.2 1985 - 1990………………………………………...Pág. 11
5.2.3 1993 – 1995 (A quinta geração)……..……….....Pág. 12
5.3 A Era dos 64 Bits………………………………………...Pág. 12
6. Conclusão……………………………………………………….Pág.
7. Referência Bibliográfica………………………………………..
4
1 . Introdução
3. Pipeline
Todas as instruções do MIPS têm o mesmo tamanho que torna simples a busca das
instruções e sua decodificação.
O MIPS tem poucos formatos de instruções, sempre com o registrador-fonte
localizado na mesma posição. Essa simetria permite que seja realizada a leitura do
banco de registradores ao mesmo tempo em que o hardware está determinando o tipo
de instrução.
Na arquitetura do MIPS só as instruções de load Word ou store Word é que
manipulam operandos na memória, permitindo usar o estágio de execução para
efetuar o cálculo do endereço de memória, sendo o acesso à memória realizado no
próximo estagio.
Os operandos do MIPS precisam estar alinhados na memória.
Parada: Ocorre uma perda de performance muito alta. Torna-se necessário inserir
no pipeline
um estagio de parada, ou bolha após o desvio condicional.
Predição: Um esquema simples é sempre predizer que os desvios condicionais vão
falhar.
8
– interliga o REM (localizado na UCP) à memória principal, para transferência dos bits
que representam um determinado endereço de memória onde se localiza uma
instrução ou dado a ser executado e; barramento de controle – interliga a UCP, mais
especificamente a Unidade de Controle (UC) aos demais componentes do sistema
computacional (memória principal, componentes de entrada e de saída) para
passagem de sinais de controle gerados pelo sistema
De acordo com Monteiro (2007), existe uma grande diferença de características dos
diversos componentes existentes em um computador, principalmente periféricos (ex.:
a velocidade de uma transferência de dados de um teclado é muitas vezes menor que
a velocidade de transferência de dados de um disco magnético). Considerando esse
fato, os projetistas de sistemas de computação criaram diversos tipos de barramento,
apresentando taxas de transferência de bits diferentes e apropriadas às velocidades
dos componentes interconectados (ex.: UCP, memória, disco rígido, teclado). Assim,
atualmente os modelos de organização de sistemas de computação adotados pelos
fabricantes possuem diferentes tipos de barramento: barramento local – barramento
de maior velocidade de transferência de dados, interligando basicamente a UCP à
memória principal; barramento de sistema – trata-se de um barramento opcional,
adotado por alguns fabricantes, fazendo com que o barramento local faça a ligação
entre o processador e a memória cache e esta se interligue com os módulos de
memória principal (RAM) através dele; e barramento de expansão (ou de entrada e
saída) – é responsável por interligar os diversos dispositivos de entrada e saída aos
demais componentes do computador. Os barramentos permitem o seu
compartilhamento com os demais componentes do sistema, especialmente o
barramento de expansão, que é compartilhado com diversos dispositivos de entrada
e saída. Para que isso ocorra, é indispensável um mecanismo de controle de acesso
baseado em regras, que garanta que quando um dos dispositivos estiver utilizando o
barramento, os demais componentes deverão aguardar a sua liberação. Esse
mecanismo de controle de acesso é denominado protocolo, fazendo com que um
barramento não seja composto somente de fios condutores, mas também de um
protocolo. Sendo assim, os fabricantes de computadores têm procurado criar uma
padronização na definição de protocolos, de forma a evitar que cada um crie o seu
próprio, com características diferentes dos demais, o que tornaria muito inflexível o
uso de certos componentes (ex.: vídeo, impressoras, discos rígidos) disponibilizados
no mercado. Dessa forma, muitos padrões de barramento de expansão foram
10
5.1 História
Em 1976, ano no qual a AMD e Intel assinam seu primeiro acordo de troca de licenças,
por meio do qual concordam em licenciar para a outra parte todas as patentes que
cada uma das empresas detém. Nessa época a Intel já tinha criado o
microprocessador 8085 de 2 MHZ e a AMD tinha um clone do 8080, o antecessor. A
partir desse momento começa uma parceria de sucesso que depois vai culminar em
uma das maiores competições do mundo da informática.
5.2.1 1982
A IBM escolhe um microprocessador Intel para seu PC, mas somente com a condição de
que haja um fornecedor alternativo confiável para atender às suas necessidades em termos
de processadores para PC. O resultado disso é que a AMD renova seu acordo abrangente de
troca de licenças com a Intel e se torna fabricante alternativo dos microprocessadores 8086 e
8088 para a IBM. Um juiz da Califórnia disse posteriormente que, ao concordar em ser um
fornecedor alternativo para a Intel, “a AMD veio para ajudar a Intel quando esta precisava de
assistência para estabelecer sua primeira arquitetura [de microprocessador] do mercado.”
Essa iniciativa contribuiu para que a Intel estabelecesse o x86 como arquitetura dominante
para o PC. Lançamento do Intel 80286 e seus clone da AMD.
A diferença mais significativa entre os 80286 e 8086/8088 é a adição de um modo
protegido. Entre outras coisas, o modo protegido permite a execução segura de vários
programas ao mesmo tempo, protegendo cada programa na memória. DOS normalmente
opera em modo real, em que os registradores de agem exatamente como eles fazem no
8086/8088. Modo Protegido é usado pelo Microsoft Windows, IBM OS / 2 e UNIX.l
Com o 80286, os primeiros "chipsets" foram introduzidos. O chipset do computador é
um conjunto de chips que substituíram dezenas de outros chips periféricos, mantendo a
mesma funcionalidade.
5.2.2 1985-1990
Nesse período começa divisão entre AMD e Intel. 1987 - A Intel notifica a AMD que
está encerrando o acordo de fornecimento alternativo, numa atitude agressiva para impedir
que a AMD produzisse um microprocessador compatível com a plataforma 486. A notificação
dá início a anos de disputas judiciais entre a AMD e a Intel, e limita a escolha do cliente a um
único fornecedor de microprocessadores para PC nos anos seguintes.
Em 1985 a Intel lança o 80386, que foi o sucessor do processador 80286 e o primeiro
processador da Intel com os dados de 32 bits e barramento de endereços. Ele permite que
programas sejam executados ao mesmo tempo (quando executado em sistemas operacionais
de 386-específicas), utilizando o Modo Protegido. O 386 pode endereçar até quatro gigabytes
(2 ^ 32 bytes) de memória usando Enhanced Mode, uma extensão de 32 bits do modo
protegido. Ao contrário do 286, porém, dentro de cada segmento pode-se usar deslocamentos
de 32 bits, o que permitiu a cada aplicação acessar os 4GB da memória. No entanto, era típico
ter somente 16 megabytes em PCs da IBM.
Com o 386, a Intel introduziu o sistema de nomeação 'DX' - 'SX. DX significa Double-
word eXternal, SX Single-word eXternal. As versões SX, portanto, são a versão de menor
velocidade dos 386 (DX), introduzido em 1989. Eles usam 16 bits ao invés de um barramento
12
de 32 bits de dados. A próxima geração é o Intel 486, que não apresenta muitas melhorias
em relação ao seu antecessor, a AMD também mantém seus lançamentos AM386 e AM486
após vencer disputas judiciais, esses processadores apresentam melhorias em relação ao da
Intel, mas seu maior sucesso em relação ao concorrente é o preço.
6. Conclusão
Os dispositivos de entrada e saída (E/S) ou input/output (I /O) são também
denominados periféricos. Eles permitem a interação do processador com o homem,
possibilitando a entrada e/ou a saída de dados. O que todos os dispositivos de entrada
têm em comum é que eles codificam a informação que entra em dados que possam
ser processados pelo sistema digital do computador. Já os dispositivos de saída
decodificam os dados em informação que pode ser entendida pelo usuário. Há
dispositivos que funcionam tanto para entrada como para saída de dados, como o
modem e o drive de CD-ROM.
Atualmente, outro dispositivo híbrido de dados é a rede de
computadores. Como as arquiteturas RISC visam Unidades de Controle mais simples,
rápidas e baratas, elas geralmente optam por instruções mais simples possível, com
pouca variedade e com poucos endereços. A pouca variedade dos tipos de instrução
e dos modos de endereçamento, além de demandar uma Unidade de Controle mais
simples, também traz outro importante benefício, que é a previsibilidade. Como as
intrusões variam pouco de uma para outra, é mais fácil para a Unidade de Controle
prever quantos ciclos serão necessários para executa-las. Esta previsibilidade traz
benefícios diretos para o ganho de desempenho com o Pipeline. Ao saber quantos
ciclos serão necessários para executar um estágio de uma instrução, a Unidade de
Controle saberá exatamente quando será possível iniciar o estágio de uma próxima
instrução.
15
Referências Bibliográficas
https://www.passeidireto.com/arquivo/5741747/pipeline---resumo
http://redeetec.mec.gov.br/images/stories/pdf/eixo_infor_comun/tec_inf/081112_org_
arq_comp.pdf
http://www.ic.unicamp.br/~ducatte/mo401/1s2010/T2/087563-t2.pdf