Escolar Documentos
Profissional Documentos
Cultura Documentos
André Luís de Oliveira Lopes, Guilherme Augusto Vale da Silva, Matheus Felipe
Bomtempo de Albuquerque, Paulo Henrique Ferreira dos Santos, Rafael Bertolini
Viol Ferreira
BARBACENA
2023
André Luís de Oliveira Lopes, Guilherme Augusto Vale da Silva, Matheus Felipe
Bomtempo de Albuquerque, Paulo Henrique Ferreira dos Santos, Rafael Bertolini
Viol Ferreira
BARBACENA
2023
SUMÁRIO
1 INTRODUÇÃO .................................................................................................... 3
4 REFERÊNCIAS ................................................................................................. 14
3
1 INTRODUÇÃO
núcleo magnético, que possui uma propriedade de acesso aleatório, ou seja, o tempo
gasto para acessar qualquer canto da memória, será o mesmo para que os dados
possam ser acessados com eficiência em qualquer ordem aleatória.
Micral N foi feito com o intuito de substituir microcomputadores que não
possuíam alto desempenho em situações em que deveriam, como controle de
processos e cobrança de pedágio em rodovias.
rápidos, mais operações por ciclo, maior largura de banda de memória e muito mais
capacidade de E/S.
2.6.1 APRENDENDO COM SEUS ANTEPAÇADOS
Os dois primeiros Supercomputadores Vetoriais apareceram no início dos anos
1970. Ambas as duas primeiras máquinas eram similares em diversos aspectos. Uma
foi desenvolvida pela Texas Instruments, o TI- ASC. O outro foi o STAR - 100, que foi
desenvolvido pela Control Data Corporation (CDC).
Tanto o ASC e o STAR-100 foram centrados em torno de uma unidade vetorial
de alta potência que recebia fluxos de operandos de memória, operava neles e
enviava os fluxos de resultados de volta à memória, tudo em uma única instrução. O
trabalho primário da unidade escalar era servir a unidade vetorial (para fazer cálculos
contábeis e fazer qualquer código escalar que não poderia ser feito com vetores). Por
serem máquinas vetoriais memory-to-memory (memória para memória), elas foram
construídas com sistemas de memória muito avançados e de alta largura de banda.
Um pipeline que se estendia da memória, através do processador e de volta à
memória, era muito longo e levava muitos ciclos de clock para ser preenchido, mas,
uma vez preenchido, o rendimento era tremendo.
Embora sejam lembrados principalmente por suas arquiteturas de memória
para memória malsucedidas, o ASC e o STAR-100 também continham várias
inovações que sobreviveram até hoje. Um exemplo é o método que eles usaram para
implementar operações condicionais, ou seja, máscaras de bits para controle. As
operações de movimentação de dados implementadas com acessos de memória
stride e collect/scatter ainda são usadas hoje. Eles poderiam dividir seus pipelines
para dobrar o desempenho em dados de 32 bits. O ASC pode ser atualizado
adicionando pipelines de vetores adicionais, até um total de quatro. E o STAR-100
também suportava vários tubos vetoriais, embora suas funções não fossem idênticas.
(ESPASA) Ambas as máquinas tinham desempenho escalar relativamente ruim, e a
lei de Amdahl (usada para encontrar a máxima melhora esperada para um sistema
em geral quando apenas uma única parte dele é melhorada, é a relação entre o tempo
gasto para executar uma tarefa com um único processador e o tempo gasto com N
processadores) cobrou seu preço. O CDC 7600 uma máquina unicamente escalar,
contemporânea ao STAR-100 , era no geral muito mais rápida que o STAR-100,
menos em problemas vetoriais de alto nível.
9
ler os dados nos registradores da CPU uma vez e então aplicar as cinco operações.
No entanto, houve limitações com esta abordagem. Os registradores eram
significativamente mais caros em termos de circuitos, portanto, apenas um número
limitado poderia ser fornecido. Isso implicava que o projeto de Cray teria menos
flexibilidade em termos de tamanhos vetoriais. Em vez de ler qualquer vetor de
tamanho várias vezes como no STAR, o Cray-1 teria que ler apenas uma parte do
vetor de cada vez, mas poderia executar várias operações nesses dados antes de
gravar os resultados de volta na memória. Dadas as cargas de trabalho típicas, Cray
sentiu que o pequeno custo incorrido pela necessidade de dividir grandes acessos à
memória sequencial em segmentos era um custo que valia a pena pagar.
Como a operação vetorial típica envolveria o carregamento de um pequeno
conjunto de dados nos registradores vetoriais e a execução de várias operações nele,
o sistema vetorial do novo projeto tinha seu próprio pipeline separado. Por exemplo,
as unidades de multiplicação e adição foram implementadas como hardware
separado, de modo que os resultados de uma pudessem ser canalizados
internamente para a próxima, já que a decodificação da instrução já havia sido tratada
na linha principal da máquina. Cray referiu-se a esse conceito como encadeamento,
pois permitia aos programadores "encadear" várias instruções e extrair maior
desempenho.
Cray-1 é o primeiro de uma família de máquinas com processadores vetoriais
para uso geral, fabricado pela Cray Research Inc. Cray-1 e seus sucessores, Cray-
XMP e o Cray-2, são otimizados para resolver problemas em larga escala tanto na
ciência quanto na engenharia. Além de circuitos de alta velocidade e grande memória,
os sistemas apresentam uma arquitetura de processamento vetorial e 12 unidades de
pipelines funcionais. (SCHNECK, 1987)
A economia real não é tão óbvia. Internamente, a CPU do computador é
construída a partir de várias partes separadas dedicadas a uma única tarefa, por
exemplo, adicionar um número ou buscar na memória. Normalmente, à medida que a
instrução flui pela máquina, apenas uma parte fica ativa a qualquer momento. Isso
significa que cada etapa sequencial de todo o processo deve ser concluída antes que
um resultado possa ser salvo. A adição de um pipeline de instrução muda isso. Em
tais máquinas, a CPU "olhará adiante" e começará a buscar instruções sucessivas
enquanto a instrução atual ainda está sendo processada. Nesse estilo de linha de
11
montagem, qualquer instrução ainda leva o mesmo tempo para ser concluída, mas
assim que termina a execução, a próxima instrução está logo atrás dela, com a maioria
das etapas necessárias para sua execução já concluídas.
Os processadores vetoriais usam essa técnica com um truque adicional. Como
o layout de dados está em um formato conhecido (um conjunto de números
organizados sequencialmente na memória) os pipelines podem ser ajustados para
melhorar o desempenho das buscas. Ao receber uma instrução vetorial, um hardware
especial configura o acesso à memória para os arrays e insere os dados no
processador o mais rápido possível.
Os supercomputadores são usados em vários campos, como previsão e análise
de padrões climáticos globais, mecânica quântica no estudo de sistemas físicos em
nível atômico, e por uso militar como por exemplo, determinar o impacto da detonação
de uma bomba nuclear em uma determinada região.
As configurações básicas dos supercomputadores Cray-1 consistem em CPU,
um ou mais consoles de minicomputadores, equipamentos de energia, refrigeração e
subsistema de disco de armazenamento em massa. A CPU contém a seção de E/S
(Entrada e Saída), computação e memória do computador. Um minicomputador usado
como estação de entrada de trabalho ou como unidade de controle e manutenção.
Como a máquina foi projetada para operar em grandes conjuntos de dados, o
projeto também dedicou circuitos consideráveis para E/S. Os projetos anteriores do
Cray no CDC incluíam computadores separados dedicados a essa tarefa, mas isso
não era mais necessário. Em vez disso, o Cray-1 incluía quatro controladores de seis
canais, cada um com acesso à memória principal uma vez a cada quatro ciclos. Os
canais tinham 16 bits de largura e incluíam três bits de controle e quatro bits para
correção de erros, de modo que a velocidade máxima de transferência era de uma
palavra por 100 ns, ou 500 mil palavras por segundo para toda a máquina.
popular que também podia ser usado com o jogo educacional Speak & Spell da TI,
possuindo uma entrada para cartuchos ROM.
3 CONCLUSÃO
Em conclusão, a quarta geração de computadores representou um grande
avanço tecnológico na história da computação, marcando o início da era dos
computadores pessoais. Com a miniaturização dos componentes eletrônicos, o
surgimento dos microprocessadores e a utilização de linguagens de programação
mais avançadas, a quarta geração tornou possível a criação de computadores mais
potentes, acessíveis e versáteis.
A capacidade de processamento e armazenamento de dados dos
computadores da quarta geração possibilitou o desenvolvimento de novas aplicações
e soluções tecnológicas, que tiveram grande impacto em diversas áreas, desde a
indústria até a educação e o entretenimento.
Além disso, a quarta geração de computadores foi marcada pela popularização
da informática, com a disponibilização de computadores pessoais para uso doméstico
e profissional. Isso contribuiu para a disseminação da cultura digital e a
democratização do acesso à informação, o que teve um impacto significativo na forma
como vivemos e nos relacionamos.
Em resumo, a quarta geração de computadores foi um marco importante na
história da computação, possibilitando o desenvolvimento de tecnologias e soluções
que transformaram a forma como nos comunicamos, trabalhamos e nos divertimos.
14
REFERÊNCIAS
BAKYO, J. "DEC PDP-11, benchmark for the first 16/32 bit generation. (1970)".
ESPASA, R. Vector Architectures: Past, Present and Future.
HOCKNEY, R. W. Parallel Computers 2: Architecture, Programming and Algorithms.
1ª. ed. [S.l.]: CRC Press, 1988.
KENBAKKIT. kenbakkit, 2007. Disponivel em:
<http://www.kenbakkit.com/index.html>. Acesso em: 09 Abril 2023.
KOGGE, P. M. The Architecture of Pipelined Computers. [S.l.]: [s.n.], 1981.
SCHNECK, P. B. Supercomputer Architecture. 31. ed. [S.l.]: [s.n.], 1987.
SUPNIK, B. "Simulators: Virtual Machines of the Past (and Future)", 31 Agosto 2001.
52 - 58.
WIKIPEDIA. wikipedia, 2018. Disponivel em: <https://pt.wikipedia.org/wiki/Kenbak-
1>. Acesso em: 08 Abril 2023.