Escolar Documentos
Profissional Documentos
Cultura Documentos
Sumário
INSTITUTO DE CIÊNCIAS EXATAS E NATURAIS
PROGRAMA DE PÓS-GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO
Motivação Objetivos
A evolução das arquiteturas de processadores (Multi- Reduzir os custos computacionais com o
core); compartilhamento de equipamentos;
Alto custo dos supercomputadores tradicionais; Reduzir o consumo de energia dos computadores (TI
Verde);
Introdução Introdução
O motivo pelo qual os sistemas computacionais tem Com a utilização de mais de uma Unidade de
conseguido manter um ritmo de crescimento nos últimos Processamento (UP) há a necessidade de comunicação;
anos é devido à exploração e à concepção de arquiteturas
Os processos precisam trocar informações entre si;
paralelas;
A forma de comunicação depende da arquitetura que se
Arquiteturas paralelas são baseadas na utilização de
tem disponível;
múltiplas unidades de processamento;
Atualmente, estão sendo explorados diferentes níveis de Variáveis Compartilhadas em máquinas
com memória compartilhada (Shared
paralelismo: Memory);
Arquiteturas Multicores e Multiprocessadas;
Fundação Cearence de
Meteorologia e Recursos Hídricos
Outros Supercomputadores no Brasil Paralelismo em nível de tarefa: surge porque são criadas
tarefas que podem operar de modo independente e
SENAI CIMATEC (323) principalmente em paralelo;
Classificações e Terminologias Classificações e Terminologias
O hardware do computador pode explorar esses dois Paralelismo em nível de threads: explora o paralelismo em
nível de dados ou o paralelismo em nível de tarefas em um
tipos de paralelismo de aplicações de quatro modos
modelo de hardware fortemente acoplado, que permite a
diferentes:
interação entre threads paralelas;
Paralelismo em nível de instrução: explora o paralelismo em Paralelismo em nível de requisição: explora o paralelismo
nível de dados a níveis modestos com auxílio do entre tarefas muito desacopladas especificadas pelo
compilador, usando ideias como pipelining e em níveis programador;
médios usando ideias como execução especulativa;
Esses quatro modos de o hardware suportar o
Unidades de Processador Gráfico (GPU): exploram o
paralelismo em nível de dados aplicando uma única paralelismo em nível de dados e o paralelismo em nível
instrução a uma coleção de dados paralelos; de tarefas têm 50 anos.
Quando Michael Flynn (1966) estudou os esforços de
computação paralela nos ano 60, encontrou uma
classificação simples, que usamos até hoje;
Duas arquiteturas:
Memória Compartilhada ou Multiprocessadores;
Memória Distribuída ou Multicomputadores;
Classificações e Terminologias Classificações e Terminologias
I. Classificação de Flynn I. Classificação de Flynn
I.4. MIMD: (Multiple Instruction Multiple Data) I.4. MIMD: (Multiple Instruction Multiple Data)
Multiprocessadores:
Legenda:
Utilizam memória compartilhada. FI : Fluxo de Instruções
FD: Fluxo de Dados
UC: Unidade de Controle
Multicomputadores: Utilizam UP: Unidade de Processamento
M: Memória
memória distribuída.
BARRAMENTO PROCESSADOR-MEMÓRIA
PROC1 PROC2 PROC3 PROC4 PROC5
Os sistemas SMP são poucos escalonáveis, pois Grande Vantagem: Compatível com os códigos
dependem diretamente das características da placa; existentes;
Se esta possui apenas 16 slots para CPUs, este é o
número máximo de CPUs que o sistema poderá ter;
BARRAMENTO
CC-NUMA (Cache-Coherent Non-Uniform Memory Access) SC-NUMA (Software-Coherent Non-Uniform Memory Access)
Acesso não uniforme a memória com Acesso não uniforme a memória com coerência de
coerência de cache; cache em software;
Variação de NUMA em que há coerência de A coerência não está implementada em hardware,
cache garantida em hardware; mas em software, de forma transparente ao usuário;
Só faz sentido em máquinas NCC-NUMA e
NORMA que não tem coerência de cache em
hardware.
Multicomputadores NORMA
SC-NUMA