Escolar Documentos
Profissional Documentos
Cultura Documentos
Uberlndia, Dezembro/2002.
Uberlndia, Dezembro/2002.
Sistemas Distribudos
Monografia apresentada ao Curso de Cincia da Computao do Centro Universitrio do Tringulo Unit, como requisito bsico obteno do grau de Bacharel em Cincia da Computao.
______________________________
Marcos Alberto Lopes da Silva, Msc.
(Orientador )
______________________________
Marcos Ferreira de Rezende, Dr.
(Avaliador )
______________________________
Edson Angoti Jnior, Msc.
(Avaliador )
______________________________
Marcos Ferreira de Rezende, Dr.
(Coordenador de Curso)
Uberlndia, Dezembro/2002.
Agradecimentos
Todas as pessoas que me apoiaram em meus estudos, um agradecimento de uma forma toda especial aos
meus pais.
RESUMO
Este trabalho explica as principais vantagens e desvantagens da utilizao de sistemas distribudos, dando
enfoque as suas principais caractersticas, como sua arquitetura e como feita a comunicao. O estudo
explica duas ferramentas que so utilizadas na implementao dos sistemas distribudos, o PVM e o RMI,
mostrando as suas principais funes e caractersticas. O presente trabalho trar tambm todo um
processo de estudo de caso utilizando estas ferramentas, estudos estes que se dividem em trs problemas
com suas respectivas solues utilizando PVM e RMI, ou seja, cada problema ter uma soluo em PVM
e outra em RMI, ilustrando assim os conceitos das ferramentas e da implementao de sistemas
distribudos. O trabalho apresenta como principal objetivo demonstrar o processo de implementao de
sistemas distribudos, exemplificar e auxiliar no processo de utilizao das ferramentas, dando uma idia
ao programador qual ferramenta e onde utiliz-la. Cada metodologia tem sua vantagem sob determinados
aspectos: se o sistema a ser implementado utiliza conceitos de objetos ou se o sistema necessita ser em
tempo real. O trabalho ilustrar tambm os seus estudos de caso, dando ao leitor um conhecimento nas
duas formas de se programar utilizando estas ferramentas. Os estudos de caso que sero apresentados
neste trabalho so na maioria utilizando matrizes e vetores, e funes simples, as quais tem sua didtica
comprovada. Aps finalizar a leitura deste trabalho ser esperado que o leitor saiba utilizar e compreender
o processo de desenvolvimento de um sistema distribudo e a respectiva utilizao das ferramentas aqui
apresentadas.
SUMRIO
1.
Introduo..................................................................................................................................................... 1
2. Processamento Distribudo....................................................................................................................... 2
2.1. Introduo a Sistemas Distribudos.................................................................................................. 2
2.2. Vantagens dos Sistemas Distribudos.............................................................................................. 4
2.3. Desvantagens dos Sistemas Distribudos........................................................................................ 6
2.4. Caractersticas dos Sistemas Distribudos..................................................................................... 7
2.5. Arquitetura dos Sistemas Distribudos........................................................................................... 9
2.6. Comunicao nos dos Sistemas Distribudos............................................................................... 11
2.7. Concluso............................................................................................................................................
13
3. Tcnicas de Processamento Distribudo............................................................................................... 14
3.1. PVM......................................................................................................................................................
14
3.1.1. Uma Viso do PVM....................................................................................................................
14
3.1.2. Caractersticas do PVM........................................................................................................... 18
3.1.2.1. Identificao.......................................................................................................................
18
3.1.2.2. Controle de Processos...................................................................................................... 19
3.1.2.3. Tolerncia a Falhas...........................................................................................................
19
3.1.2.4. Gesto Dinmica de Grupos............................................................................................ 19
3.1.2.5. Envio de Sinais...................................................................................................................
20
3.2.5. Interface......................................................................................................................................
30
3.3. Concluso............................................................................................................................................
33
4. Aplicaes Utilizando PVM e RMI......................................................................................................
...34
4.1.Primeiro caso......................................................................................................................................
34
4.1.1.Implementao utilizando PVM............................................................................................... 34
4.1.2.Implementao em RMI.............................................................................................................
38
4.2.Segundo caso.......................................................................................................................................
42
4.2.1.Implementao utilizando PVM............................................................................................... 42
4.2.2.Implementao utilizando RMI.................................................................................................
48
4.3.Terceiro caso.......................................................................................................................................
56
4.3.1.Implementao utilizando PVM............................................................................................... 56
4.3.2.Implementao utilizando RMI.................................................................................................
60
4.4.Concluso.............................................................................................................................................
64
5.Concluso....................................................................................................................................................
66
Referncias Bibliogrficas.......................................................................................................................... 68
1 Introduo
2 Processamento Distribudo
A computao tem sido caracterizada pelas grandes mudanas ocorridas na rea de conectividade
dos recursos computacionais. De 1945 1985 os computadores eram mquinas grandes e carssimas e a
maioria deles eram independentes por falta de uma forma confivel de interlig-los. Surgiram, desde
ento, redes que permitiam a conexo de muitos computadores e a transmisso de dados a uma alta
velocidade. [TANENBAUM,1992]. Outro avano, nesta rea, foi dos microprocessadores, que tinham o
mesmo poder de processamento de um mainframe, ou seja o custo das mquinas diminuiu, e ficou mais
confivel a interconexo das mquinas. Essa maior facilidade de interconexo incentivou a idia dos
sistemas distribudos.
Os sistemas distribudos necessitam de softwares diferentes daqueles usados em sistemas
centralizados.
Hoje j encontram-se softwares confiveis para sistemas distribudos com
maior facilidade, mas isto depois de aproximadamente 15 anos da idia dos sistemas distribudos.
Alguns autores diferenciam drasticamente sistemas distribudos de sistemas paralelos, mas os
sistemas paralelos so na realidade sistemas distribudos, pois eles se enquadram perfeitamente na
definio prtica e terica de sistemas distribudos.
A definio mais simples de sistema distribudos : Um Sistema Distribudo o resultado da
O fato de ser possvel implementar um sistema distribudo no significa que seja uma boa
alternativa para resoluo de algum problema, pois hoje temos mquinas com alto poder de
processamento (ex. pode-se ter quatro discos rgidos de oitenta gigabytes em uma nica mquina) e baixo
custo, para decidir entre um sistema distribudo e um sistema centralizado, deve-se levar em conta o
custo/benefcio de cada um.
Deve-se diferenciar sistemas centralizados, onde normalmente se utiliza mainframes, dos PCs
independentes. Pois as vantagens dos sistemas distribudos sobre os sistemas centralizados so diferentes
das dos PCs independentes.
Sem sombra de dvida a grande vantagem dos sistemas distribudos sobre os sistemas
centralizados o baixo custo, isto devido ao fato que nas ltimas dcadas os microprocessadores tiveram
uma forte queda em seus preos, tornando assim mais acessvel a sua utilizao em massa em sistemas
distribudos, ou seja, mais barato comprar muitos processadores que comprar um mainframe, os
processadores tm menor custo. Alm de se ter um gasto menor com o sistema distribudo pode-se ainda
ter uma performance que jamais poder ser alcanada por um mainframe, ou seja, um sistema distribudo
com 20.000 microprocessadores, cada um dos quais rodando a 20 MIPS (Milhes de Instrues Por
Segundo), teria uma performance de 400.000 MIPS. No temos mainframes com essa capacidade de
processamento na atual tecnologia. Os sistemas distribudos tm melhor custo/beneficio em relao aos
sistemas centralizados, isto significa que o sistema distribudo mais barato e oferece maior eficincia no
processamento dos dados.[TANENBAUM,1992].
Existe ainda o fato que existem aplicaes que so necessariamente distribudas, por exemplo um
sistema de controle de trfego areo, este sistema exige alta confiabilidade e possui uma caracterstica
intrnseca, pois ele nunca pode parar, mesmo que percam 10% do seu funcionamento ele no pode parar.
O sistema correria grandes riscos de queda em sua totalidade, se utilizasse um sistema centralizado, o
sistema ficaria a merc do funcionamento do mainframe, isto significaria que se o mainframe parasse o
sistema tambm iria parar, tendo tambm a saturao da rede devido ao alto trfego de dados com
origem/destino ao mainframe. Com um sistema distribudo, o controle de trfego areo teria um risco bem
mais baixo de queda em sua totalidade e trfego se dispersaria, sendo assim este sistema necessita ser
distribudo. Outro problema um sistema bancrio, ele sistema possui mquinas distribudas em vrias
agncias, agncias estas dispersas fisicamente, a soluo mais vivel para este problema a utilizao de
sistema distribudo.
Quando se utilizada um sistema centralizado e se quer expandir o poder computacional deste
sistema a soluo comprar um mainframe melhor, caso j possua um mainframe top de linha
necessria a aquisio de um segundo mainframe, essa diviso vai prejudicar bastante o operacional da
empresa, alm do custo ser altssimo. Em um sistema distribudo este crescimento simples e tem um
custo mais barato do que nos sistemas centralizados, isto devido ao fato que para aumentar o poder
computacional de um sistema distribudo so adicionar novos microprocessadores. A tabela 2.1 ilustra,
de uma forma resumida, as vantagens dos sistemas distribudos sobre os sistemas centralizados.
Tabela 2.1 Vantagens dos sistemas distribudos sobre os centralizados[TANENBAUM,1992]
Economia
Velocidade
Distribuio
Confiabilidade
Crescimento Incremental
Compartilhament
o de dados
Compartilhamento de dispositivos
Flexibilidade
problema que a queda de desempenho devido ao fato de ter muitas coisas repetidas. Outro aspecto
relacionado confiabilidade a tolerncia a falhas, ou seja, o sistema no deve parar, ele apenas mascara
as falhas ocorridas.
Escalabilidade: solues para sistemas distribudos pequenos no funcionam para os sistemas
distribudos grandes. Normalmente em sistemas distribudos pequenos armazena-se uma tabela de e-mails
em apenas um servidor, enquanto em sistema de grande porte isso no deve ocorrer, porque o sistema fica
a merc do funcionamento deste servidor, todas as aplicaes que necessitam utilizar essa tabela s
funcionam se o servidor estiver funcionando. Existem alguns gargalos pr-definidos que podem ser
evitados: Componentes centralizados, exemplo: Um nico servidor de e-mails para todos os usurios;
Tabelas centralizadas, exemplo: Um nico catalogo de preos on-line; Algoritmos centralizados,
exemplo: Fazer roteamento com base em informaes completas. Todos os gargalos so centralizados, ou
seja, os sistemas distribudos de grande porte tendem a uma descentralizao muito grande. Para sistemas
robustos a centralizao afeta o funcionamento da rede em uma magnitude bem maior que os sistemas
distribudos de pequeno porte.
Performance: Nada vai adiantar se o sistema distribudo for transparente, confivel e tiver
escalabilidade se ele for lento. No geral quando se roda uma aplicao em um sistema distribudo esta
nunca pode ser mais lenta do que se for rodada em um sistema centralizado. As mtricas mais utilizadas
para a performance so o tempo de resposta e o nmero de jobs por hora (throughput). Temos ainda o
problema da rede, quanto mais trafego se tem na rede maior o tempo de resposta, ento a performance
fica limitada a rede. Quanto se tenta ter uma alta confiabilidade o sistema distribudo acaba perdendo em
performance, isto ocorre visto que para garantir a confiabilidade vrios dados so replicados, e perde
tempo com o aumento do trfego na rede.
Transparncia: uma das principais caracterstica dos sistemas distribudos. Os projetistas do
sistema fazem com que todos pensem que atrs de um sistema distribudo se tem um grande sistema
centralizado, na realidade engana-se os usurios, dando a eles a impresso de que todo sistema apenas
um grande microprocessador. Existem duas formas de se obter esta transparncia: no nvel do usurio e
no nvel dos programas, no nvel dos programas mais difcil de se conseguir est transparncia. Tem-se
varias transparncias, na tabela 2.4 sero listados alguns tipos de transparncia em um sistema distribudo,
explicando tambm o seu significado.
TIPO
Acesso
SIGNIFICADO
Entidades remotas e locais podem ser acessadas usando
operaes idnticas.
Localizao
Concorrncia
Replicao
Migrao
Escala
Paralelismo
A camada fsica define as conexes mecnicas e eltricas formadas pelos modens, linhas fsicas,
conectores, cabos e interfaces de hardware de comunicao dos equipamentos.
A camada de enlace e responsvel pela quebra de seqncia dos bits e pelo enquadramento
(Framming). Esta camada tambm faz o tratamento de erros de bits.
A camada de rede e responsvel pelo roteamento, ou seja, ela tem que garantir que os dados
consigam chegar at o destino, independente da sub-rede utilizada.
A camada de transporte tem como funo transportar os dados de forma confivel de uma mquina
origem a uma mquina destino, sem se preocupar com o tipo de meio fsico ou com a implementao
da camada de rede.
A camada de sesso uma verso aprimorada da camada de transporte, ela fornece facilidades para
a sincronizao. Em prtica esta camada quase nunca implementada.
A camada de apresentao e responsvel pelo significado dos bits transmitidos. Tem como objetivo
facilitar a comunicao entre mquinas com diferentes representaes internas.
Permitir que uma mquina A chame procedimentos localizados em outras mquinas ( mquina B
ou mquina C) mecanismo unificado de alto nvel.
Fazer com que uma chamada remota se parea tanto quanto possvel com uma chamada local
(esconder a tecnologia da rede subjacente)
2.7 Concluso
As vantagens dos sistemas distribudos, em relao aos sistemas centralizados, superam as
desvantagens, mesmo tendo o problema dos softwares para sistemas distribudos, problema este que j
est sendo solucionado. Com esses problemas no se deve parar de pensar na idia de sistemas
distribudos, pois a sua utilizao em algumas situaes bem vantajosa, por exemplo: um sistema
bancrio, sistema este distribudo geograficamente devido s limitaes fsicas de cada agncia. A
funcionalidade dos sistemas distribudos est totalmente ligada qualidade da rede, ou seja, uma rede de
alta performance e qualidade proporcionar um alto desempenho de um sistema distribudo. No captulo
seguinte sero abordadas algumas ferramentas utilizadas para implementao de softwares distribudos.
3.1 PVM
O PVM ( Parallel Virtual Machine ) foi desenvolvido em 1989 no Oak Ridge National
Laboratory (ORNL), com a idia de interligar recursos computacionais numa rede, fornecendo ao
utilizador uma plataforma distribuda e paralela para rodar aplicaes, independentes da localizao, da
quantidade ou das diferenas entre os computadores na rede.
Tarefas com capacidades arbitrrias tanto ao nvel do controle como nas estruturas de
dependncia;
Paralelismo nos dados: neste mtodo mais habitual, todas as tarefas so iguais, mas cada uma
delas conhece apenas uma pequena parte do problema para o qual requerida a sua participao
na resoluo.
Atualmente, as linguagens hospedeiras que podem evocar o PVM so o C, C++ e o Fortran, que
foram escolhidas por se considerar que, a maioria das aplicaes cientificas desenvolvidas so escritas
nessas linguagens.
Os programa escritos em C e C++ podem ter acesso s bibliotecas do PVM se forem
convenientemente ligados bibliotecas publicas libpvm3.a. No caso do Fortran o acesso s bibliotecas
realizado por rotinas em vez de funes que usam bibliotecas de converso libfpvm3.a que por sua vez
evocam as rotinas C da biblioteca anterior. Em parte esta diferena e os nomes escolhidos para prefixo,
das funes ou rotinas correspondentes, existe uma correspondncia biunvoca entre funes em C e
rotinas em Fortran.
Em PVM todas as tarefas so identificadas por um nmero inteiro TID, nico em toda a mquina
virtual, que criado automaticamente pelo PVMD local sempre que uma nova tarefa gerada. O inteiro
codifica uma identificao no relevante para a aplicao.
Ao paradigma geral para o desenvolvimento de uma aplicao em PVM correspondem os
seguintes passos:
O processo descrito representa apenas um cenrio tpico compatvel com a criao de novas
tarefas, iniciadas manualmente. As tarefas comunicam enviando e recebendo, explicitamente,
mensagens que identificam o destinatrio e o remetente com base nos respectivos nmeros de
identificao TIDs.
O PVM no apenas uma biblioteca de funes de comunicao para troca de mensagens. Uma
parte importante do suporte lgico dedicado gesto de processos, das tarefas e de sinais na mquina
virtual. Uma parte dessa gesto assegurada pelo servidor PVMD.
As funes de administrao do ao usurio a capacidade de gerir totalmente a programao da
mquina permitindo a deteco de falhas dos computadores na rede, a criao dinmica de grupos e a
recuperao de falhas.
3.1.2.1 Identificao
Em PVM todas as tarefas so identificadas por um inteiro TID escolhido pelo PVMD local que a
representa de uma maneira nica na mquina virtual. Uma tarefa pode ser tambm identificada por um
nome de grupo e um nmero representando a sua posio no grupo.
Para obter a sua identificao a tarefa pode usar as funes pvm_mytid( ) e pvm_gettid( ) que
retornam respectivamente a identificao local ou no grupo.
O PVM possui funes que tornam possvel, a todo o momento, um processo registrar-se ou
desassociar-se da mquina virtual. A administrao da prpria mquina virtual faz-se atravs de outras
funes que alteram a constituio da mquina virtual, juntando ou retirando computadores acessveis na
rede.
O Console PVM uma interface com usurio para a gesto e monitorao das aplicaes na
mquina virtual. As tarefas de administrao podem ser realizadas por qualquer tarefa na aplicao
recorrendo s mesmas funes que o console.
Em PVM h duas formas diferentes de uma tarefa enviar sinais s outras tarefas na aplicao. A
primeira replica o mecanismo utilizado em UNIX para o envio e recepo de sinais entre processos. A
segunda um mecanismo independente gerido pelo servidor PVMD que consiste no envio de avisos sob a
forma de um valor inteiro a que se cola uma etiqueta.
Atualmente o PVM emite um aviso sempre que h alterao da mquina virtual por entrada ou
O modelo de comunicao assume que uma tarefa pode enviar mensagens a qualquer outra
tarefa, na mquina virtual, no havendo limites para o tamanho das mensagens.
Os modos de comunicao em PVM incluem a emisso bloqueante assncrona, a recepo
bloqueante assncrona e a recepo no bloqueante. Na terminologia do PVM a emisso bloqueante
liberta a tarefa emissora imediatamente aps o bloco de memria fica livre. O assincronismo caracteriza
as operaes de emisso porque as tarefas no tm de esperar que seja lanada pela tarefa receptora a
operao correspondente de recepo. Opcionalmente permitido transferir diretamente dados entre as
tarefas. Neste caso, se a mensagens for grande, o emissor bloqueia at que a transferncia termine. [PVMBOOK,1994].
Em recepo no bloqueante a operao retorna imediatamente o valor da mensagem ou um sinal
que permite determinar se a mensagem j esta disponvel. No caso da recepo bloqueante a tarefa fica
literalmente suspensa at que a mensagem seja completamente depositada no bloco de memria. Uma
rotina suplementar permite a obteno de informao sobre a prpria mensagem.[PVM-BOOK,1994].
Para alm dos modos de comunicao ponto a ponto, o modelo inclui ainda a difuso entre os
elementos de um grupo e a difuso parcial para um conjunto de processos selecionveis pelo usurio. As
rotinas para comunicao em larga escala permitem tambm operaes de clculo global e reduo, tais
como a soma o mximo e mnimo.
3.1.2.7 Seqncia
computador.
3.1.3 Interface
Ser apresentado em seguida um resumo das principais rotinas da biblioteca PVM, ou seja a
interface do PVM. A descrio de cada rotina inclui os parmetros, os possveis cdigos de retorno e
exemplos de aplicao escritos em linguagem C.
pvm_mytid(void)
pvm_parent(void)
A rotina pvm_mytid utilizada normalmente para registrar o processo na mquina virtual e obter
a respectiva identificao. O valor de retorno da rotina pvm_parent a identificao da tarefa que lanou
a tarefa atual.
A rotina pvm_spawn lana o valor contido na varivel count de cpias do programa file na
mquina virtual. O parmetro argv um apontador para uma lista de argumentos a entregar para o
programa. A condio flag usada para especificar um conjunto de opes descritos no arquivo de
incluso pvm3.h. o parmetro tids o identificador global de cada uma das tarefas lanadas com sucesso.
A comunicao por troca de blocos de memria tem vantagens significativas que decorrem da
facilidade com que podem ser incorporados mecanismos de comunicao de alta-velocidade em
ambientes heterogneos, ou a possibilidade de constituio de dados estruturados e respectivo
empacotamento e desempacotamento.
O controle de fluxo em PVM assegurado pelo servidor PVMD que garante que as mensagens
enviadas iro ser entregues mesmo que no tenha sido, at ao momento iniciada qualquer operao de
recepo. O controle de fluxo efetivo enquanto houver recursos de memria at que o receptor por sua
vez inicie o processo de recepo alocando uma rea de memria em bloco que possa conter a mensagem.
A perda de seqncia nas mensagens ultrapassada graas a definio da mensagem como uma
tupla < emissor, informao, cdigo de etiquetagem >.
int enc;
pvm_initsend( enc );
As rotinas acima servem para manipular os blocos de memria usados durante as transferncias
de dados. Em PVM h, em cada momento, apenas um bloco de memria ativo. Na maior parte dos casos
apenas utilizada a rotina pvm_initsend que cria ou reinicia o bloco de memria ativo para envio.
A rotina pvm_initsend tem uma dupla ao, pois esta funo cria e recupera os blocos de
memria.
3.1.3.4 Empacotamento
As rotinas a seguir servem para encher os blocos de memria com informao a que
correspondem tipos de dados pr-definidos, (reais, inteiros, strings, etc), podem ser evocadas mltiplas
vezes para empacotar dados numa nica mensagem, no havendo limites para a complexidade da
informao contida numa nica mensagem. Tem apenas, de se garantir que as tarefas nas aplicaes
devero desempacotar as mensagens utilizando as operaes recprocas.
int *x, n_itens, stride;
float *a;
pvm_pkint(x, n_itens, stride);
pvm_pkfloat(a, n_itens, stride);
3.1.3.5 Desempacotamento
float *a;
pvm_upkint(x, n_itens, stride);
pvm_upkfloat(a, n_itens, stride);
Para enviar uma mensagem pode usar-se a primitiva pvm_send e precisar o nmero tid de
identificao do processo receptor mas, tambm, necessrio colar uma etiqueta msgtag mensagem.
3.1.3.7 Recepo de Mensagens
A indicao de uma mquina remota feita atravs do argumento where, podendo ser
descriminado o IP ou o host da mquina a ser referenciada.
Para se adicionar hosts:
char **host;
int nro_hosts, *info_host;
pvm_addhosts(hosts, numero_hosts, info_hosts)
3.2 RMI
Tratamento de erros falhas ocorridas no servidor remoto ou na rede devem ser tratadas;
Variveis Globais e Efeitos Colaterais tendo em vista que o servidor no tem acesso a faixa de
endereos do cliente, argumentos escondidos no podem ser passados como variveis globais ou
retornados como efeitos colaterais.
3.2.1 Funcionamento
Localizar objetos remotos uma aplicao pode usar dois mecanismos para obter referencias de
objetos remotos. Ela pode registrar o objeto remoto com a ferramenta de nomes do RMI, que se
chama rmiregistry, ou ela pode passar e retornar referencias aos objetos como parte de sua
operao normal
Carregar bytecodes de objetos mveis como o RMI permite que objetos remotos sejam
passados com o parmetro numa funo, ele fornece os mecanismos necessrios para carregar o
cdigo dos objetos remotos.
A figura 3.1 ilustra como uma aplicao RMI distribuda usa o rmiregistry para obter uma
referencia ao objeto remoto. O servidor chama o registro para associar um nome ao objeto remoto. O
cliente procura o objeto remoto pelo seu nome no registro do servidor e ento invoca um mtodo nele. A
ilustrao tambm mostra o RMI utilizando um servidor web para carregar os bytecodes, de servidor
para cliente e vice-versa, de acordo com as necessidades da aplicao.
Vantagens de carregar o cdigo dinamicamente: Uma das principais vantagens do RMI sua
capacidade de baixar o cdigo de um objeto, caso a classe desse objeto no seja definida na mquina
virtual do receptor. Os tipos e o comportamento de um objeto, previamente disponvel apenas em uma
mquina virtual, agora podem ser transmitidos para outra mquina virtual, possivelmente remota. Essa
funcionalidade do RMI permite que o cdigo da aplicao seja atualizado dinamicamente, sem a
necessidade de recompilar o cdigo.
3.2.2 Serializao
RMI usa um mecanismo padro empregado em sistemas RPC, para se comunicar com objetos
remotos, que so stubs e skeletons. O stub funciona semelhante a um proxy para o objeto remoto.
Quando um objeto local invoca um mtodo num objeto remoto, o stubfica responsvel por enviar a
chamada ao mtodo para o objeto remoto[DEITEL e DEITEL,2001].
Passos do stub quando invocado:
O stub esconde a serializacao dos parmetros e toda a comunicao a nvel de rede, com o
3.2.4 Ativao
Sistemas de objetos distribudos so projetados para suportar objetos persistentes de vida longa.
Tendo em vista que tais sistemas podem conter milhares de objetos, no se torna razovel que esses
objetos se tornem ativos e continuem sempre ativos, consumindo assim recursos preciosos do sistema.
Alm disso, clientes devem armazenar referncias persistentes aos objetos, para que a comunicao possa
ser restabelecida depois de uma queda no sistema, considerando que a referncia a um objeto s vlida
enquanto este estiver ativo.
Ativao em Java um mecanismo que prov referncias persistentes aos objetos, ao mesmo
tempo em que gerencia a execuo do mesmo. Em RMI, a ativao permite que objetos iniciem sua
execuo a medida que esta ao necessria.
Quando ativado, o objeto remoto acessado, caso ele no esteja sendo executado, e o sistema
inicia a execuo do objeto dentro da Java Virtual Machine apropriada.
3.2.5 Interface
Primeiro deve se criada a interface do servidor, nesta interface estaro os mtodos remotos que o
cliente utilizara para interagir com o servidor.
Exemplo:
Segundo
deve
Esta classe
deve
implementar
todos
{
public TesteImp( )
os
mtodos
declarados
na
interface do servidor.
Uma vez que
a
super( );
est
definida e a classe
que
interface
implementa
sido
criada,
prximo passo
no
desenvolvimento
da
aplicao distribuda
System.out.println(O flamengo bom!!!);
desenvolver
cliente.
Cada uma das ferramentas apresenta sua vantagem, ou seja, o PVM uma linguagem voltada
para aplicaes cientificas, devido a sua performance elevada, enquanto o RMI mais voltada para as
aplicaes comerciais, devido a sua fcil integrao com banco de dados e outras alternativas do Java. O
PVM no trabalha com o conceito de orientao a objetos, j o RMI todo implementado utilizando esses
conceitos, como herana, poliformismo, sobrecarga, etc. Aplicaes onde se necessita de tempo real e
processamento mais rpido o uso do PVM ideal, pois com se paralelismo intrnseco e a sua no
utilizao da Mquina Virtual Java torna-o mais aplicvel a esses sistemas, j o RMI possui a Mquina
Virtual Java e no implementa o paralelismo diretamente, perdendo assim em performance, mas
ganhando em segurana. No captulo seguinte sero apresentados casos de utilizaes destas ferramentas.
Este captulo abordar diferentes estudos de casos, com devida implementao, utilizando RMI e
PVM. Em cada estudo ter uma implementao em RMI e outra em PVM, visando assim implementar a
mesma funcionalidade com as duas diferentes ferramentas.
Algoritmo do primeiro caso: Multiplicar duas matrizes, uma com dimenso igual a 2x2 e outra
2x1. A multiplicao deve ser de forma que uma mquina, passe uma linha da primeira matriz e uma
coluna da segunda matriz, por vez, para uma outra mquina. A mquina que recebe os dados deve
retornar uma terceira matriz com o resultado.
4.1.1
Nesta implementao ser necessrio apenas um processo pai e um processo filho. O processo
pai vai definir as matrizes com valores fixos e depois inicializar o processo filho, ficando assim em espera
at que o processo filho retorne a matriz com o resultado. O processo filho vai receber os dados processar
a multiplicao e montar uma matriz resultado para posteriormente retornar ao processo pai. Como ser
utilizada uma matriz 2x2 e outra 2x1 necessitaremos apenas de inicializar o processo filho duas vezes,
sendo assim o processo pai vai ter duas tarefas, as quais sero as tarefas onde o processo filho vai entrar
em ao.
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 2
05 #define NTASK 2
06
07 void main()
08 {
09 int info, tid[NTASK], v[TAM][TAM], a[TAM], i, j, soma[TAM];
10
11 pvm_mytid();
12 info=pvm_spawn("/home/computacao/g100020798/au4/filho",(char **)0,0,"",NTASK,tid);
13 if(info==NTASK)
14
15
for(i=0;i<TAM;i++)
16
17
for(j=0;j<TAM;j++)
18
19
v[i][j]=2;
20
21
a[i]=1;
22
23
for(i=0;i<NTASK;i++)
24
25
pvm_initsend(0);
26
pvm_pkint(v[i],NTASK,1);
27
pvm_send(tid[i],63);
28
29
pvm_initsend(0);
30
pvm_pkint(a,NTASK,1);
31
pvm_send(tid[i],63);
32
33
for(i=0;i<NTASK;i++)
34
35
pvm_recv(tid[i],63);
36
pvm_upkint(&soma[i],1,1);
37
38
39
printf("\n");
40
41
for(j=0;j<TAM;j++)
42
printf("%d\n",soma[j]);
43
44
printf("\n");
45
46
47 else
48
49 pvm_exit();
50 exit(0);
51 }
Figura 4.1 Implementao em PVM do processo pai
mquina virtual ( NTASK ) e a identificao de cada um dos processos ( tid ). Ser feito um teste, visando
verificar se todos os processos foram inicializados na mquina virtual, isto na linha 13. Da linha 15 at a
22 as matrizes sero inicializadas. Nas linhas 25 e 29 sero inicializados blocos de memria. Nas linhas
26 e 30 ocorrer o empacotamento dos dados, e nas linhas 27 e 31o envio desses dados empacotados para
os blocos de memria. Na linha 35 ocorrer o recebimento dos dados e posteriormente o
desempacotamento ( linha 36 ). A impresso do resulta do ser nas linhas 41 e 42. As tarefas so
desassociadas da mquina virtual ( linha 49 ).
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 2
05
06 void main()
07 {
08 int pid, v[TAM], a[TAM], soma[TAM/2],tmp=0, i;
09
10 pvm_mytid();
11 pid=pvm_parent();
12
13 pvm_recv(pid, 63);
14 pvm_upkint(v,TAM,1);
15
16 pvm_recv(pid, 63);
17 pvm_upkint(a,TAM,1);
18
19 for(i=0; i<TAM;i++)
20
21
tmp=tmp+(a[i]*v[i]);
22
23 soma[0]=tmp;
24 pvm_initsend(0);
25 pvm_pkint(soma,TAM, 1);
26 pvm_send(pid, 63);
27 pvm_exit();
28 exit(0);
29 }
Figura 4.2 Implementao em PVM do processo filho
4.1.2
Implementao em RMI
Na implementao utilizando RMI sero necessrios trs programas, sendo: o programa pai , o
programa filho e a definio de interface do servidor. Na definio de interface do servidor teremos
apenas a declarao de uma funo soma que retorna um inteiro. No programa pai sero inicializadas as
matrizes e ocorrer a instanciao do objeto filho, chamando assim a sua funo soma. No programa filho
ser feita a soma e o retorno dessa nova matriz resultado para o programa pai.
01 import java.rmi.*;
02
03 public interface Filho extends Remote
04 {
05
06 }
Figura 4.3 Implementao em RMI da interface filho
A interface Filho descreve o mtodo que o cliente ( pai ), chamar para interagir com o objeto
remoto. A interface pode ter mais de um mtodo declarado. A interface Filho estende a interface Remote (
pacote Java.rmi ) na linha 03. Caso ocorra algum tipo de erro com a comunicao durante uma chamada
do mtodo remoto, um mtodo remoto dispara uma RemoteException ( um tipo de exceo verificada),
linha 05.
01 import java.rmi.*;
02 import java.rmi.server.*;
03 import java.util.*;
04 import java.io.*;
05 import java.net.*;
06
07 public class FilhoImp extends UnicastRemoteObject implements Filho
08 {
09
10
int tmp=0;
11
12
13
14
super();
15
16
17
18
tmp=0;
19
20
21
22
23
soma[0]=tmp;
24
return soma;
25
26
27
28
System.out.println("Servidor inicializado!");
29
30
31
Naming.rebind("//localhost/Servidor", rsi);
32
33
34 }
Figura 4.4 Implementao em RMI da classe filho
A classe FilhoImp implementa a interface Remote Filho ( linha 07 ). A classe FilhoImp estende a
classe UnicastRemoteObject ( pacote Java.rmi.server ), na linha 07. A classe UnicastRemoteObject
fornece toda funcionalidade bsica dos objetos remotos. As linhas 16 a 25 definem o mtodo soma, que
efetiva a soma dos elementos de um vetor. O mtodo main ( linhas 26 a 34 ) inicia o objeto FilhoImp
remoto que aceita chamadas de mtodos remotas de clientes e retorna o valro da soma para os clientes. A
linha 29 cria um objeto FilhoImp e automaticamente chama seu mtodo construtor. O nome do objeto
servidor definido na linha 31, esse nome o cliente fornecer para localizar o objeto servidor. A linha 31
chama o mtodo static rebind da classe Naming ( pacote Java.rmi ) para vincular o objeto remoto rsi de
FilhoImp ao rmiregistry ( gerenciador de objetos remotos ) e atribuir o nome //localhost/Servidor ao
objeto remoto.
01 import java.rmi.*;
02 import java.io.*;
03
04 public class Pai
05 {
06
int t=0,k=0;
07
08
09
10
11
12
13
public Pai()
14
15
for(int y=0;y<2;y++)
16
17
18
19
vet2[y][j]=2;
20
21
vet[y]=1;
22
23
try
24
25
System.out.println("Client iniciando...");
26
27
while (k<2)
28
29
30
31
v[i]=vet2[k][i];
32
33
tmp = meuReg.Soma(v,vet);
34
soma[k]=tmp[0];
35
k++;
36
37
38
39
40
41
42
System.exit(0);
43
44
45
46
47
48
catch (Exception e)
49
50
e.printStackTrace();
51
System.exit(1);
52
53
}
}
54
55
56
57
58
59 }
Figura 4.5 Implementao em RMI da classe pai
A classe Pai define o aplicativo de cliente que chama o mtodo remoto da classe FilhoImp. Da
linha 13 a 28 feita a inicializao do vetor. Na linha 26 chama o mtodo static lookup da classe
Naming para obter uma referncia remota que permite ao cliente invocar mtodos do objeto remoto
FilhoImp. O mtodo lookup retorna uma referncia Remote para um objeto que implementa a interface
remota Filho. Uma vez retornada esta referncia, ela atribuda a meuReg. O cliente utiliza meuReg para
chamar o mtodo remoto do objeto servidor como se ele fosse um mtodo de outro objeto definido
localmente na classe cliente.
Algoritmo do segundo caso: Verificar qual o maior elemento, menor elemento e a mdia de um
vetor dado. Cada uma das trs verificaes deve ser feitas em mquinas diferentes, ou seja, uma mquina
faz a verificao do maior, outra a verificao do menor e uma terceira a verificao da mdia. As
mquinas devem retornar um inteiro.
4.2.1
Na implementao deste problema ser necessrio trs processos filho e um processo pai. O
processo pai vai definir os elementos do vetor com valores fixos e depois inicializar os processos filhos,
sendo os quais: um processo filho para calcular a mdia, outro para pegar o elemento maior e outro
processo que retorna o menor elemento do vetor. O processo pai fica em espera at que os processos
filhos retorne o resultado. O processo filho vai receber os dados do vetor processar a busca ou o clculo
da mdia e retornar o resultado para o processo pai, posteriormente retornar o processamento ao processo
pai. Para soluo deste problema necessitaremos de fazer com que o processo pai inicie todos os trs
processos filhos.
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05 #define NTASK 1
06
07 void main()
08 {
v[i]=i+1;
13
14 i=0;
15
16
17 pvm_mytid();
18
19 info1=pvm_spawn("/home/computacao/g100020798/au5/filhomaior",(char
**)0,0,"",NTASK,tid1);
20 info2=pvm_spawn("/home/computacao/g100020798/au5/filhomenor",(char
**)0,0,"",NTASK,tid2);
21 info3=pvm_spawn("/home/computacao/g100020798/au5/filhomedia",(char
**)0,0,"",NTASK,tid3);
22
23
24 if(info1==NTASK && info2==NTASK && info3==NTASK)
25
26
pvm_initsend(0);
27
pvm_pkint(v,TAM,1);
28
pvm_send(tid1[i],63);
29
30
pvm_initsend(0);
31
pvm_pkint(v,TAM,1);
32
pvm_send(tid2[i],63);
33
34
pvm_initsend(0);
35
pvm_pkint(v,TAM,1);
36
pvm_send(tid3[i],63);
37
38
39
pvm_recv(tid1[i],63);
40
pvm_upkint(&max,1,1);
41
42
pvm_recv(tid2[i],63);
43
pvm_upkint(&mim,1,1);
44
45
pvm_recv(tid3[i],63);
46
pvm_upkint(&med,1,1);
47
48
49 else
50
51
52 printf("maior = %d",max);
53 printf("\nmenor = %d",mim);
54 printf("\nmedia = %d\n",med);
55
56 pvm_exit();
57 exit(0);
58 }
Figura 4.6 Implementao em PVM do processo pai
No programa pai feita a inicializao do vetor nas linhas 11 e 12. Na linha 17 o programa
registra o processo na mquina virtual e obtm a respectiva identificao. As linhas 19, 20 e 21 tm a
descrio do caminho onde esto os processos filhos, o nmero de copias de cada programa filho que
sero lanadas na maquina virtual ( NTASK ) e a identificao de cada um dos processos ( tid ) de cada
filho. Ser testado se todos os processos foram inicializados na maquina virtual, isto na linha 24. Nas
linhas 26, 30 e 34 sero inicializados blocos de memria. Nas linhas 27, 31 e 35 ocorrer o
empacotamento dos dados, e nas linhas 28, 32 e 36o envio desses dados empacotados para os blocos de
memria. Nas linhas 39, 42 e 45 ocorrer o recebimento dos dados e posteriormente o desempacotamento
( linhas 40, 43 e 45 ). A impresso do resulta do ser nas linhas 52, 53 e 54. As tarefas so desassociadas
da mquina virtual ( linha 56 ).
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05
06 void main()
07 {
08 int pid, v[TAM], maior, i;
09
10 pvm_mytid();
11 pid=pvm_parent();
12
13 pvm_recv(pid, 63);
14 pvm_upkint(v,TAM,1);
15
16 maior=v[0];
17
18 for(i=1;i<TAM;i++)
19
20
if(maior<v[i])
21
maior=v[i];
22
23
24 pvm_initsend(0);
25 pvm_pkint(&maior,1, 1);
26 pvm_send(pid, 63);
27
28 pvm_exit();
29 exit(0);
30 }
Figura 4.7 Implementao em PVM do processo filho maior
O programa filho maior na linha 10 registra o processo na mquina virtual e obtm a respectiva
identificao, na linha 11 ocorre a identificao da tarefa que lanou a tarefa atual na mquina virtual. A
linha 13 ocorre o recebimento dos dados, e na linha 14 ocorre o desempacotamento dos dados. Entre as
linhas 18 e 22 feita a seleo do maior elemento do vetor. Na linha 24 feita a inicializao de um
bloco de memria, na linha 25 ocorre o empacotamento dos dados e na linha 26 o envio dos dados. A
tarefa e desassociada da mquina virtual ( linha 28 ).
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05
06 void main()
07 {
08 int pid, v[TAM], menor, i;
09
10 pvm_mytid();
11 pid=pvm_parent();
12
13 pvm_recv(pid, 63);
14 pvm_upkint(v,TAM,1);
15
16 menor=v[0];
17 for(i=1; i<TAM;i++)
18
19
if(menor>v[i])
20
menor=v[i];
21
22 pvm_initsend(0);
23 pvm_pkint(&menor,1, 1);
24 pvm_send(pid, 63);
25 pvm_exit();
26 exit(0);
27 }
Figura 4.8 Implementao em PVM do processo filho menor
O programa filho menor na linha 10 registra o processo na mquina virtual e obtm a respectiva
identificao, na linha 11 ocorre a identificao da tarefa que lanou a tarefa atual na mquina virtual. A
linha 13 ocorre o recebimento dos dados, e na linha 14 ocorre o desempacotamento dos dados. Entre as
linhas 17 e 21 feita a seleo do menor elemento do vetor. Na linha 22 feita a inicializao de um
bloco de memria, na linha 23 ocorre o empacotamento dos dados e na linha 24 o envio dos dados. A
tarefa e desassociada da mquina virtual ( linha 25 ).
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05
06 void main()
07 {
08 int pid, v[TAM], i;
09 int media=0;
10
11 pvm_mytid();
12 pid=pvm_parent();
13
14 pvm_recv(pid, 63);
15 pvm_upkint(v,TAM,1);
16
17 for(i=0; i<TAM;i++)
18
19
media=media+v[i];
20
21 media=media/TAM;
22
23 pvm_initsend(0);
24 pvm_pkint(&media,1, 1);
25 pvm_send(pid, 63);
26 pvm_exit();
27 exit(0);
28 }
Figura 4.9 Implementao em PVM do processo filho mdia
O programa filho mdia na linha 11 registra o processo na mquina virtual e obtm a respectiva
identificao, na linha 12 ocorre a identificao da tarefa que lanou a tarefa atual na mquina virtual. A
linha 14 ocorre o recebimento dos dados, e na linha 15 ocorre o desempacotamento dos dados. Entre as
linhas 17 e 20 feito o clculo da mdia dos elementos do vetor. Na linha 23 feita a inicializao de um
bloco de memria, na linha 24 ocorre o empacotamento dos dados e na linha 25 o envio dos dados. A
tarefa e desassociada da mquina virtual ( linha 26 ).
Na implementao com RMI sero necessrios sete programas, sendo: o programa pai , o
programa filho maior, o programa filho menor, o programa filho mdia e as trs definies das interfaces
dos servidores. Na definio da interface do servidor filho maior declarada apenas uma funo maior
que retorna um inteiro, na definio da do servidor filho menor declaradaa a funo menor que retorna
um inteiro e na definio da interface do servido filho mdia declarada a funo mdia que retorna um
inteiro. No programa pai ser inicializado o vetor e ocorrer a instanciao dos objetos filhos, chamando
assim seus mtodos. No programa filho maior ser feita a seleo do maior elemento do vetor, no
programa filho menor ser feito a seleo do menor elemento do vetor e no programa filho mdia ser
calculada a mdia dos elementos do vetor.
01 import java.rmi.*;
02
03 public interface FilhoMaior extends Remote
04 {
05
06 }
Figura 4.10 Implementao em RMI da interface filho maior
A interface FilhoMaior descreve o mtodo que o cliente ( pai ), chamar para interagir com o
objeto remoto. A interface Filho estende a interface Remote na linha 03. Caso ocorra algum tipo de erro
com a comunicao durante uma chamada do mtodo remoto, um mtodo remoto dispara uma
RemoteException, linha 05.
01 import java.rmi.*;
02
03 public interface FilhoMenor extends Remote
04 {
05
06 }
Figura 4.11 Implementao em RMI da interface filho menor
A interface FilhoMenor descreve o mtodo que o cliente ( pai ), chamar para interagir com o
objeto remoto. A interface Filho estende a interface Remote na linha 03. Caso ocorra algum tipo de erro
com a comunicao durante uma chamada do mtodo remoto, um mtodo remoto dispara uma
RemoteException, linha 05.
01 import java.rmi.*;
02
03 public interface FilhoMedia extends Remote
04 {
05
06 }
Figura 4.12 Implementao em RMI da interface filho mdia
A interface FilhoMdia descreve o mtodo que o cliente ( pai ), chamar para interagir com o
objeto remoto. A interface Filho estende a interface Remote na linha 03. Caso ocorra algum tipo de erro
com a comunicao durante uma chamada do mtodo remoto, um mtodo remoto dispara uma
RemoteException, linha 05.
01 import java.rmi.*;
01 import java.rmi.*;
02 import java.rmi.server.*;
03 import java.util.*;
04 import java.io.*;
05 import java.net.*;
06
07 public class FilhoMaiorImp extends UnicastRemoteObject implements FilhoMaior
08 {
09
int maior;
10
11
12
13
super();
14
15
16
17
maior=g[0];
18
19
20
if (maior<g[y])
21
22
maior = g[y];
23
24
25
return maior;
26
27
28
29
30
31
32
Naming.rebind("//localhost/ServidorMaior", rsimaior);
33
35
36 }
Figura 4.13 Implementao em RMI da classe filho maior
maior, que seleciona o maior elemento do vetor. O mtodo main ( linhas 27 a 35 ) inicia o objeto
FilhoMaiorImp remoto que aceita chamadas de mtodos remotas de clientes e retorna o maior valor dos
elementos do vetor para o cliente. A linha 30 cria um objeto FilhoMaiorImp e automaticamente chama
seu mtodo construtor. O nome do objeto servidor definido na linha 32, esse nome o cliente fornecer
para localizar o objeto servidor.
01 import java.rmi.*;
02 import java.rmi.server.*;
03 import java.util.*;
04 import java.io.*;
05 import java.net.*;
06
07 public class FilhoMenorImp extends UnicastRemoteObject implements FilhoMenor
08 {
09
int menor;
10
11
12
13
super();
14
15
16
17
menor=g[0];
18
19
20
if (menor>g[y])
21
22
menor = g[y];
23
24
}
}
25
return menor;
26
27
28
29
30
31
32
Naming.rebind("//localhost/ServidorMenor", rsimenor);
33
34
35 }
Figura 4.14 Implementao em RMI da classe filho menor
01 import java.rmi.*;
02 import java.rmi.server.*;
03 import java.util.*;
04 import java.io.*;
05 import java.net.*;
06
07 public class FilhoMediaImp extends UnicastRemoteObject implements FilhoMedia
08 {
09
int media;
10
11
12
13
super();
14
15
16
17
media=0;
18
19
20
21
22
return (media/tam);
23
24
25
26
27
28
29
Naming.rebind("//localhost/ServidorMedia", rsimedia);
30
31
32 }
Figura 4.15 Implementao em RMI da classe filho media
01 import java.rmi.*;
02 import java.io.*;
03 import java.lang.*;
04
05 public class Pai extends Thread
06 {
07
08
09
10
public Pai(int a)
11
12
tam = a;
13
14
15
16
17
18
vet[j]=j+1;
19
20
21
try
22
23
System.out.println("Client iniciando...");
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
catch (Exception e)
42
43
e.printStackTrace();
44
System.exit(1);
45
46
}
}
47
48
49
50
51
rc.start();
52
rc2.start();
53
}
Figura 4.16 Implementao em RMI da classe pai
A classe Pai define o aplicativo de cliente que chama os mtodo remotos das classes
FilhoMaiorImp, FilhoMenorImp e FilhoMediaImp. A classe Pai estende a classe Thread ( linha 05 ). Esta
classe Pai implementada de forma que o processamento dos dados feito de forma paralela. Como a
classe estende a classe Thread foi feito overload do mtodo run, visando assim ajust-lo para o problema.
Algoritmo do terceiro caso: Verificar qual o maior elemento, menor elemento e a mdia de um
vetor dado. Mas todas as trs verificaes devem ser feitas em uma mesma mquina, ou seja, uma
mquina faz todas as verificaes e retorna para outra mquina. As mquinas devem retornar um inteiro.
Para fazer todas as verificaes na mesma mquina deve ser utilizado um flag indicando o tipo da
verificao (maior, menor e mdia).
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05 #define NTASK 3
06
07 void main()
08 {
v[i]=i+1;
13
14 i=0;
15
16 pvm_mytid();
17
18 info=pvm_spawn("/home/computacao/g100020798/au6/filho",(char **)0,0,"",NTASK,tid);
19
20
21 if(info==NTASK)
22
23
for(i=0;i<NTASK;i++)
24
25
26
pvm_initsend(0);
27
pvm_pkint(v,TAM,1);
28
pvm_send(tid[i],63);
29
30
pvm_initsend(0);
31
pvm_pkint(&flag,1,1);
32
pvm_send(tid[i],63);
33
34
flag++;
35
36
37
38
for(i=0;i<NTASK;i++)
{
39
pvm_recv(tid[i],63);
40
pvm_upkint(&max[i],1,1);
41
42
43
44
45 else
46
47
48 printf("maior = %d",max[0]);
49 printf("\nmenor = %d",max[1]);
50 printf("\nmedia = %d\n",max[2]);
51
52 pvm_exit();
53 exit(0);
54 }
Figura 4.17 Implementao em PVM do processo pai
No programa pai faz a inicializao do vetor e seu envio para o processo filho, passando um flag,
que indica a operao, caso o flag seja: 1 indica operao de seleo do maior elemento, 2 operao de
seleo do menor elemento e 3 operao de clculo da mdia do vetor.
01 #include <stdio.h>
02 #include <pvm3.h>
03
04 #define TAM 10
05
06 void main()
07 {
08 int pid, v[TAM], m, i,flag,media;
09
10 pvm_mytid();
11 pid=pvm_parent();
12
13 pvm_recv(pid, 63);
14 pvm_upkint(v,TAM,1);
15
16 pvm_recv(pid, 63);
17 pvm_upkint(&flag,1,1);
18
19
20 m=v[0];
21 if(flag == 1)
22
23
for(i=1;i<TAM;i++)
24
25
if(m<v[i])
26
m=v[i];
27
28
pvm_initsend(0);
29
pvm_pkint(&m,1, 1);
30
pvm_send(pid, 63);
31
pvm_exit();
32
33 if(flag == 2)
34
35
for(i=1;i<TAM;i++)
36
37
if(m>v[i])
38
m=v[i];
39
40
pvm_initsend(0);
41
pvm_pkint(&m,1, 1);
42
pvm_send(pid, 63);
43
pvm_exit();
44
45
46 if(flag == 3)
47
48
media=0;
49
for(i=0;i<TAM;i++)
50
51
media=media+v[i];
52
53
media=media/TAM;
54
pvm_initsend(0);
55
pvm_pkint(&media,1, 1);
56
pvm_send(pid, 63);
57
pvm_exit();
58
59
60 exit(0);
61 }
Figura 4.18 Implementao em PVM do processo filho
No programa filho recebe o vetor do programa pai e um flag, o programa testa o flag para saber
qual a operao e a processa, retornando o resultado ao programa pai.
A implementao com RMI sero necessrios trs programas, sendo: o programa pai, o programa
filho e a definio da interface do servidor. Na definio da interface do servidor filho declarada apenas
uma funo operao que retorna um inteiro. No programa pai vai ser inicializado o vetor e ocorrer a
instanciao do objeto filho, chamando assim a sua repectiva funo. O programa filho receber o vetor e
um flag indicando a operao, depois da operao efetivada o programa filho retorna um inteiro para o
programa pai.
01 import java.rmi.*;
02
03 public interface Filho extends Remote
04 {
05
06 }
Figura 4.19 Implementao em RMI da interface filho
A interface Filho descreve o mtodo Operao que o cliente ( pai ), chamar para interagir com o
objeto remoto.
01 import java.rmi.*;
02 import java.rmi.server.*;
03 import java.util.*;
04 import java.io.*;
05 import java.net.*;
06
07 public class FilhoImp extends UnicastRemoteObject implements Filho
08 {
09
int tmp;
10
11
12
13
super();
14
15
16
17
tmp = g[0];
18
if (flag == 1)
19
20
21
22
if (tmp<g[i])
23
24
tmp=g[i];
25
26
27
28
if (flag == 2)
29
30
31
32
if (tmp>g[j])
33
34
35
tmp=g[j];
}
36
37
38
if (flag == 3)
39
40
41
42
43
44
45
46
return tmp;
47
48
49
50
System.out.println("Servidor inicializado!");
51
52
53
Naming.rebind("//localhost/Servidor", rsi);
54
55
56
57 }
Figura 4.20 Implementao em RMI da classe filho
A classe FilhoImp cria o servidor e implementa o mtodo Operao, o qual vai receber um vetor
e um flag indicando a operao.
01 import java.rmi.*;
02 import java.io.*;
03
04 public class Pai
05 {
06
07
08
09
public Pai()
10
11
12
13
vet[y] = (y+1);
14
15
16
try
17
18
System.out.println("Client iniciando...");
19
20
21
22
meuReg.Operacao(vet,(i+1));
tmp[i] =
23
24
25
26
27
System.exit(0);
28
29
30
31
32
33
catch (Exception e)
34
35
e.printStackTrace();
36
System.exit(1);
37
38
}
}
39
40
41
42
43
44 }
Figura 4.21 Implementao em RMI da classe pai
4.4 Concluso
Apesar que a metodologia RMI no implementar sistemas distribudos com paralelismo inerente,
pode-se, utilizando de RMI com Thread, obter implementao de sistemas distribudos paralelos. J o
PVM implementa todos os seus sistemas de modo paralelo. As duas ferramentas so alternativas para
implementao de sistemas distribudos, cada qual em sua linguagem especfica, o PVM implementado
em C/C++ e o RMI em Java, dando assim ao programador duas opes de escolha. Os estudos de casos
deste captulo visaram ilustrar todo o funcionamento das ferramentas, no dando nfase ao problema, ou
seja, os problemas propostos foram de cunho didtico. Todas as implementaes foram testadas para
comprovar o funcionamento das ferramentas. As implementaes em PVM foram testadas utilizando o
5 - Concluso
Todo o estudo elaborado neste trabalho visa dar maior conhecimento terico dos sistemas
distribudos, ilustrando a utilizao com duas ferramentas distintas.
As utilizaes destes sistemas esto se tornando inevitveis, sendo assim o trabalho mostra
formas de se utilizar esses conceitos. Como as linguagens de programao preferidas so Java e C\C++,
o estudo visa, no coloc-las como concorrentes, mas sim como diferentes formas de se implementar
sistemas distribudos.
As duas ferramentas PVM e RMI no so concorrentes devido ao fato que o RMI, se aplica mais
a sistemas onde se quer usar todos os conceitos de objetos, como herana, reutilizao de cdigo,
porlimorfismo, etc. J na utilizao do PVM se aplica mais a sistemas de respostas rpidas, como os
sistemas de tempo real, isso devido ao fato que o PVM e paralelo, com essa capacidade ele consegue ter
altssima performance.
Para aplicaes comerciais, as quais no sejam necessrio a utilizao de tempo real o RMI se
encaixa perfeitamente, j as aplicaes onde o tempo e o grande problema, como as aplicaes cientificas
(matemtica, fsicas e qumicas), o PVM mais adequado.
As aplicaes foram desenvolvidas e testadas visando dar exemplos mais concretos e uma viso
prtica para os leitores. A didtica das aplicaes comprovada. As aplicaes no tm como objetivo a
soluo de problemas, mas sim a exemplificao das ferramentas e sua utilizao.
O trabalho visa ajudar todos os programadores que queiram ter noo das ferramentas, e auxililos na sua utilizao. Tem o trabalho o intuito tambm de esclarecer leigos no assunto e estudantes da
rea.
Referncias Bibliografia:
DIAS, Alex. Notas de aula na disciplina de Redes, UNIT Centro Universitrio do Triangulo:
2001
JAVA.RMI.http://java.sun.com/j2se/1.3/docs/api/java/rmi/package-summary.html.
Ano
de
PVM-BOOK A Userss Guide and Tutorial for Networked Parallel Computing. 1 Edio,
Londres, 1994.
RICARTE, IVAN L. M.. Programao Orientada a Objetos: Uma Abordagem com Java. 1
Edio, Campinas: Editora FEEC/UNICAMP,2001.