Você está na página 1de 18

UNIVERSIDADE ESTADUAL PAULISTA COMPUTAO PARALELA

INSTITUTO DE GEOCINCIAS E CINCIAS EXATAS


Departamento de Estatstica, Matemtica Aplicada e Computao

INTRODUO COMPUTAO PARALELA

GRUPO DE PESQUISA DE APLICAES EM COMPUTAO PARALELA

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

COMPUTAO PARALELA
INTRODUO - MOTIVAES
Busca por maior desempenho; Aplicaes intrinsecamente paralelas. Alto custo dos supercomputadores tradicionais. Desenvolvimento de redes de computadores de alta velocidade; Desenvolvimento tecnolgico na construo de microprocessadores;

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

COMPUTAO PARALELA
CONCEITOS BSICOS
Concorrncia: quando dois ou mais processos comearam sua execuo mas no terminaram.

Sistema Distribudo: Processos concorrentes executados em vrios elementos de processamento.

Paralelismo: Sistema distribudo visando soluo


de um nico problema.

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

COMPUTAO PARALELA
ARQUITETURAS PARALELAS
Classificao de Flynn a mais utilizada embora no seja muito abrangente.

SISD (Single Instruction Single Data): Arquitetura de von Neumann; SIMD (Single Instruction Multiple Data): Supercomputadores clssicos (Computadores vetoriais); MISD (Multiple Instruction Single Data): O Mesmo fluxo de dados percorre um array linear de processadores (pipeline); MIMD (Multiple Instruction Multiple Data): Arquiteturas formada por processadores executam instrues independentemente.

COMPUTAO PARALELA
ARQUITETURAS PARALELAS

Modelo simplificado dos conjuntos de aplicaes relacionados aos tipos de arquiteturas

COMPUTAO PARALELA
ARQUITETURAS PARALELAS
CATEGORIAS MIMD:
Memria compartilhada:
Caracteriza-se pela existncia de uma memria global.

Memria distribuda:
Cada processador possui sua prpria memria local. Os processos devem utilizar troca de mensagem para se

comunicar. Redes de computadores utilizando um sistema de passagem de mensagem encontram-se nesta categoria.

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

COMPUTAO PARALELA
PROGRAMAO PARALELA
Para a execuo de programas paralelos, deve haver meios de:

Definir um conjunto de tarefas a serem executadas paralelamente;

Ativar e encerrar a execuo destas tarefas;


Coordenar e especificar a interao entre estas tarefas.

COMPUTAO PARALELA
PROGRAMAO PARALELA
H pelo menos trs maneiras de se construir um algoritmo paralelo:

Detectar e explorar um paralelismo inerente a um algoritmo seqencial existente Criar um algoritmo paralelo novo. Adaptar outro algoritmo paralelo que possa resolver um problema similar.

COMPUTAO PARALELA
PROGRAMAO PARALELA
H trs estilos bsicos de paralelismo, dependentes da plataforma de execuo. Paralelismo Geomtrico: o conjunto de dados dividido e cada processador executa uma cpia do programa em seu conjunto de dados. Paralelismo Processor Farm: Caracteriza-se por um processador mestre que supervisiona um grupo de processadores escravos.

Paralelismo Pipeline: A aplicao dividida em tarefas especficas que so distribudas aos processadores de forma pipeline.

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

COMPUTAO PARALELA
MULTICOMPUTADORES
Ambientes de memria compartilhada utilizam um paralelismo explcito, j que podem-se valer desta memria para ativar os processos paralelos. Ambientes de memria distribudas devem utilizar um modelo chamado troca de mensagens para comunicao e sincronizao das tarefas.

COMPUTAO PARALELA
MULTICOMPUTADORES
H dois principais padres de troca de mensagens:
PVM Parallel Virtual Machine: o conjunto integrado de bibliotecas e de ferramentas de software, cuja finalidade emular um sistema computacional concorrente, heterogneo, flexvel e de propsito geral. MPI Massage Passing Interface: Padro de interface de troca de mensagens para aplicaes que utilizam computadores MIMD com memria distribuda.

COMPUTAO PARALELA
MULTICOMPUTADORES
Speedup: Relao entre o tempo de execuo de um processo em um nico processador e a execuo em p processadores.
Sp
=

Tseq

Tp

Eficincia: Relao entre o speedup e nmero de processadores.


E= Sp p

COMPUTAO PARALELA
CONTEDO INTRODUO CONCEITOS BSICOS ARQUITETURAS PARALELAS PROGRAMAO PARALELA MULTICOMPUTADORES CONSIDERAES FINAIS

Você também pode gostar