Você está na página 1de 31

Visão geral dos computadores

paralelo

Ezequiel Júnior, I31

Instituto Superior de Transportes e


Comunicacoes
Visão geral dos computadores paralelo

Introdução

 Problemas muito complexos exigem


computadores cada vez mais potentes para
solucioná-los, o que tem limitações para os
computadores sequenciais.
 Problemas podem ser divididos em partes e
processados em simultâneo, a este propósito
introduziu-se o processamento paralelo.

Instituto Superior de Transportes e


Comunicacoes
1. Processamento paralelo
(computação paralela)

 É uma forma de aumentar a demanda


computacional através do uso simultâneo de
recursos da CPU, os processadores, para
resolver um ou mais problemas.
 Foi introduzido pela CDC (Control Data
Corporation) no CDC 6600 em 1964.

Instituto Superior de Transportes e


Comunicacoes
2. Modelos (tipos) de computação
paralela

 É uma classificação baseada no fluxo de


instruções e de dados que se apresentam,
definida como taxonomia de Flynn.
 Existem 4 categorias da taxonomia de Flynn:
– SISD (single instuction single data);
– SIMD (single instruction stream multiple data
stream);
– MISD (multiple instruction stream single data
stream);
– MIMD (multiple instruction stream multiple data
stream). Instituto Superior de Transportes e
Comunicacoes
2.1. SISD (single instruction single
data)

 Uma cadeia de instruções manipula uma


cadeia de dados.
 É um dos tipos de arquitectura mais simples,
que opera apenas um dado a cada instrução.
Processadores que implementam esse
modelo só aplicam uma instrução por ciclo
nos dados de entrada, sendo de baixo poder
de cálculo.

Instituto Superior de Transportes e


Comunicacoes
SISD. Figura ilustrativa

FI

FI FD
UC UP M

FI-Fluxo de instruções M-Memória


FD-Fluxo de dados UC-Unidade de Controle
UP-Unidade de Processamento

Instituto Superior de Transportes e


Comunicacoes
2.2. SIMD (single instruction stream
multiple data stream)

 Uma cadeia de instrucao manipula um


conjunto de cadeia de dados.
 Essas máquinas são caracterizadas por
possuírem apenas uma unidade de controle
que executa uma instrução de cada vez,
mas cada instrução opera sobre vários
dados.

Instituto Superior de Transportes e


Comunicacoes
SIMD. Figura ilustrativa

FI

FI FD
UP M

FI FD
UP M
UC
.. ..
. .
FI FD
UP M

Memória

Instituto Superior de Transportes e


Comunicacoes
2.3. MISD (multiple instruction stream
single data stream)

 Um conjunto de cadeias de instruções


manipula uma cadeia de dados.
 Geralmente nenhuma arquitectura
implementa esta categoria, alguns autores
consideram o pipeline como exemplo desta
categoria.

Instituto Superior de Transportes e


Comunicacoes
MISD. Figura ilustrativa

FD

FI FI
M UC UP

FI FI
M UC UP
.. .. ..
. .
FI FI
M UC UP

Memória
FD

Instituto Superior de Transportes e


Comunicacoes
2.4. MIMD (multiple instruction stream
multiple data stream)

 Um conjunto de cadeias de instruções


manipula um conjunto de cadeias de dados.
 Engloba a maioria dos computadores
paralelo.

Instituto Superior de Transportes e


Comunicacoes
MIMD. Figura ilustrativa

FI FD FI
UC UP M
FI
FD FI
UC UP M
.. . .. .
. ..
. FI
. . .
FD FI
UC UP M

Memória

Instituto Superior de Transportes e


Comunicacoes
2.4.1. Subdivisão dos MIMD

Multiprocessadores
(espaço de endereçamento único)

MIMD

Multicomputadores
(múltiplos espaços de
endereçamento)

Instituto Superior de Transportes e


Comunicacoes
 Para além da classificação de Flynn, os
computadores paralelos também classificam-
se segundo:
-Compartilhamento de memória;
-Acesso à memória.

Instituto Superior de Transportes e


Comunicacoes
3. Classificação segundo o
compartilhamento de memória

 Memória compartilhada: existe um único


espaço de endereçamento que será usado
de forma implícita para comunicação entre
processadores;
 Memória não compartilhada: cada
processador tem o seu espaço de
endereçamento;

Instituto Superior de Transportes e


Comunicacoes
Classificação segundo o
compartilhamento de memória (cont.)

 Memória distribuída: refere-se a localização


física da memória, se a memória for
implementada em vários módulos, e cada
módulo é colocado próximo a um processador;
 Memória centralizada: a memória encontra-se
a mesma distância de todos os processadores,
independente de ter sido implementada em um
ou vários módulos.

Instituto Superior de Transportes e


Comunicacoes
4. Classificação segundo o
acesso á memória

 Acesso uniforme a memória – UMA


 Acesso não uniforme a Memória – NUMA
 Arquitetura de Memória apenas com Cache
– COMA
 Acesso não remoto a memória – NORMA

Instituto Superior de Transportes e


Comunicacoes
4.1. Acesso uniforme a memória –
UMA

 A memória usada nessas máquinas é


centralizada e encontra-se a mesma
distância de todos os processadores;
 Memória cache é usada para reduzir a
diferença de velocidade entre processador e
memória.

Instituto Superior de Transportes e


Comunicacoes
4.2. Acesso não uniforme a
Memória - NUMA

 A memória utilizada é distribuída,


implementada com vários módulos que são
associados um a cada processador;
 O espaço de endereçamento é único, e cada
processador pode acessar toda a memória
do sistema.

Instituto Superior de Transportes e


Comunicacoes
Acesso não uniforme a Memória –
NUMA (cont.)

Em relação ao tratamento do problema de coerência de


cache:
 NCC-NUMA
- Non Cache-Coherent NUMA
 CC-NUMA
- Cache-Coherent NUMA
- Implementa a coerência de cache em hardware
 SC-NUMA
- Software-Coherent NUMA
- Implementa coerência de cache em software
- Memória distribuida partilhada

Instituto Superior de Transportes e


Comunicacoes
4.3. Arquitetura de Memória
apenas Cache – COMA

 Todas as memórias locais são estruturadas


como caches.
 Acessos a caches remotas efectuados por
meio de directórios de caches, distribuídos
pelos processadores.
P P P P P P

C C C C C C

Rede de Interconexão
Instituto Superior de Transportes e
Comunicacoes
4.4. Acesso não remoto a memória –
NORMA

 Não há acesso a variáveis remotas.


 Apenas acesso local à memória.

Instituto Superior de Transportes e


Comunicacoes
5. Tendências na construção de
máquinas paralelas

 Processadores Vetoriais Paralelos (PVP)


 Multiprocessadores Simétricos (SMP)
 Processadores Maciçamente Paralelos
(MPP)
 Máquinas com Memória Compartilhada
Distribuída (DSM)
 Redes de Estação de Trabalho (NOW)
 Máquinas Agregadas (COW)

Instituto Superior de Transportes e


Comunicacoes
5.1. Processadores Vetoriais
Paralelos (PVP)

 São sistemas constituídos por poucos


processadores vetoriais poderosos (PV);
 A interconexão dos processadores a módulos de
memória compartilhada (MC) é feita, na maior parte
dos casos, por uma matriz de chaveamento
(crossbar).
 Exemplos de PVP:
- Cray C-90, Cray T-90, Cray Y-MP, Fujitsu VP 2000,
Fujitsu VPP 500 e NEC Sx-4.

Instituto Superior de Transportes e


Comunicacoes
5.2. Multiprocessadores Simétricos
(SMP)

 São constituídos de processadores


comerciais conectados a uma memória
compartilhada (MC), geralmente através de
um barramento de alta velocidade.
 Exemplos de SMP:
– IBM R50, SGI Power Challenge, Sun Ultra
Enterprise 10000, HP/Convex Exemplar X-Class,
DEC Alpha Server 8400

Instituto Superior de Transportes e


Comunicacoes
5.3. Processadores Maciçamente
Paralelos (MPP)

 São multicomputadores construídos com


milhares de processadores comerciais
conectados por uma rede proprietária de alta
velocidade.
 Exemplos de MPP:
– Intel Paragon, Connection Machine C-5, IBM
SP2.

Instituto Superior de Transportes e


Comunicacoes
5.4. Máquinas com Memória
Compartilhada Distribuída (DSM)

 São máquinas que, apesar de a memória


encontrar-se fisicamente distribuída através
dos nós, todos os processadores podem
endereçar todas as memórias.
 Exemplos de DSM:
– Stanford DASH, Cray T3D.

Instituto Superior de Transportes e


Comunicacoes
5.5. Redes de Estação de Trabalho
(NOW)

 São sistemas constituídos por várias


estações de trabalho interligadas por
tecnologia tradicional de rede como Ethernet
e ATM.

Instituto Superior de Transportes e


Comunicacoes
5.6. Máquinas Agregadas (COW)
 Máquinas Agregadas (COW - Cluster of
Workstations) podem ser vistas como uma evolução
das redes de estações de trabalho;
 Como nas NOW, também são constituídas por
várias estações de trabalho interligadas, mas com a
diferença de terem sido projetadas para aplicações
paralelas.
 Exemplos de COW:
– iCluster do HP Labs de Grenoble com rede Fast-Ethernet,
Primergy Server do PC2 em Paderborn com rede rápida
SCI, Amazônia do CPAD/RS com rede rápida Myrinet.

Instituto Superior de Transportes e


Comunicacoes
Representação gráfica da tendência

37
COW
MPP
PVP
48 DSM

10

Instituto Superior de Transportes e


Comunicacoes
Instituto Superior de Transportes e
Comunicacoes

Você também pode gostar