Escolar Documentos
Profissional Documentos
Cultura Documentos
Sumrio
Apresentao ............................................................................ 05
CENAPAD-SP .......................................................................... 06
Informaes e Suporte aos Usurios ........................................ 07
Convenes adotadas ............................................................... 08
Equipamentos disponveis ........................................................ 09
Ambiente SGI .......................................................................... 10
Softwares disponveis(Ambiente SGI) ..................................... 13
Ambiente IBM .......................................................................... 14
Softwares disponveis (Ambiente IBM) ................................... 16
Contas, projetos e contabilizao de uso .................................. 17
Acesso aos equipamentos ......................................................... 18
Escolhendo o ambiente operacional a ser utilizado .................. 20
Como executar jobs batch (Ambiente SGI Altix 1350/450) .... 22
Como executar jobs batch (Ambiente IBM) ............................ 28
Como executar jobs batch (Ambiente SGI Altix ICE ) ................ 35
Treinamentos ............................................................................ 40
Apresentao
Senhor usurio,
CENAPAD-SP
E-mails:
consult@cenapad.unicamp.br
Devem ser encaminhadas para este endereo quaisquer dvidas relativas ao uso do
ambiente, de compiladores e aplicativos em geral.
suporte@cenapad.unicamp.br
Este endereo deve ser utilizado para a notificao de problemas no ambiente, tais
como impossibilidade de acesso, falhas no sistema operacional, ou qualquer ocorrncia que
impea a utilizao de recursos computacionais oferecidos pelo CENAPAD-SP.
cursos@cenapad.unicamp.br
Informaes acerca da programao e inscrio de cursos oferecidos pelo
CENAPAD-SP devem ser solicitadas por este endereo.
Convenes Adotadas
Equipamentos Disponveis
O CENAPAD-SP disponibiliza um ambiente computacional poderoso, baseado em
mquinas RISC (IBM) e Intel (SGI), com sistema operacional baseado em Unix. A
capacidade de processamento terica desses dois ambientes totaliza em torno de 33
TFLOPS, alm de 250 TB de disco externo. Seu uso medido em Service Units, que so
contabilizadas conforme os usurios executam comandos e processam jobs.
Os ambientes computacionais disponveis no CENAPAD-SP so:
Ambiente IBM
Cada um desses ambientes tem seus recursos, suas ferramentas, suas limitaes e
especificidades. A seguir, sero relacionadas as principais caractersticas das mquinas de
cada um desses ambientes.
Maiores detalhes podem ser obtidos a partir de:
www.cenapad.unicamp.br
Ambiente SGI
SGI Altix ICE 8400 LX
O sistema Altix ICE 8400 LX instalado no CENAPAD-SP tem 32 ns, interconectados
atravs de uma rede Infiniband de alto desempenho, dispostos em 2 individual Rack Unit
(iRU), cada um deles com desempenho terico de 160 GFLOPs e com a seguinte
configurao:
2 processadores Intel Xeon Six Core 5680 de 3.33GHz
36GB de memria RAM
hostnames r1i0n0.ice.cenapad-sp.br .. r1i0n15.ice.cenapad-sp.br
hostnames r1i1n0.ice.cenapad-sp.br .. r1i1n15.ice.cenapad-sp.br
N de acesso
O n de acesso ao sistema SGI Altix ICE ice.cenapad.unicamp.br
(143.106.42.235) que corresponde ao n ice.ice.cenapad.sp.br (10.1.5.12).
Sistema Operacional
SUSE LINUX Enterprise Server 11 SP1 (x86_64) kernel 2.6.32.13 64bits.
SGI Altix 1350/450
O sistema Altix 1350 instalado no CENAPAD-SP tem 6 ns Intel Itanium2 com a
seguinte configurao:
4 ns com 16 processadores Intel Itanium2, 1.5GHz e 64GB RAM
1 n com 4 processadores Intel Itanium2, 1.5GHz - 8GB RAM
1 n com 2 processadores Intel Itanium2, 1.5GHz - 12GB RAM
ns interconectados atravs de uma rede Infiniband de alto desempenho
O sistema Altix 450 instalado no CENAPAD-SP tem 4 ns Intel Itanium2 Dual
Core com a seguinte configurao:
2 ns com 22 processadores Intel Itanium2 Dual-core srie9000 1.6GHz e 88GB RAM
1 n com 22 processadores Intel Itanium2 Dual-core srie9000 1.6GHz e 144GB RAM
1 n com 22 processadores Intel Itanium2 Dual-core srie9000 1.6GHz - 176GB RAM
ns interconectados atravs de uma rede Infiniband de alto desempenho
10
Ns
Os ns esto dispostos em 4 frames:
Frame 01
1 n com 2 processadores Intel Itanium2, 1.5GHz
o Desempenho terico de 12 GFLOPs
o 12 GB de memria RAM
o 150 GB de espao em disco
o Hostname sg1gd1.cenapad-sp.br
2 ns com 16 processadores Intel Itanium2, 1.5GHz
o Desempenho terico de 96 GFLOPs por n
o 64 GB de memria RAM por n
o 480 GB de espao em disco (/work com 300 GB) por n
o Hostnames: sg1gh1.cenapad-sp.br, sg1gh2.cenapad-sp.br
Frame 02
1 n com 4 processadores Intel Itanium2, 1.5GHz
o Desempenho terico de 24 GFLOPs
o 8 GB de memria RAM por n
o Hostname: sg2gq1.cenapad-sp.br (athenas.cenapad.unicamp.br)
2 ns com 16 processadores Intel Itanium2, 1.5GHz
o Desempenho terico de 96 GFLOPs por n
o 64 GB de memria RAM por n
o 480 GB de espao em disco (/work com 300 GB) por n
o Hostnames: sg2gh1.cenapad-sp.br, sg2gh2.cenapad-sp.br
Frame 03
2 ns com 22 processadores Intel Itanium2 Dual-core srie9000, 1.6GHz
o Desempenho terico de 240 GFLOPs por n
o 88 GB de memria RAM por n
o 300 GB de espao em disco
o Hostnames: sg3gv1.cenapad-sp.br, sg3gv2.cenapad-sp.br
1 n com 16 processadores Intel Itanium2 Dual-core srie9000, 1.6GHz
o Desempenho terico de 175 GFLOPs no n
o 96 GB de memria RAM no n
o 300 GB de espao em disco
o Hostname: sg3gh1.cenapad-sp.br
11
Frame 04
1 n com 22 processadores Intel Itanium2 Dual-core srie9000, 1.6GHz
o Desempenho terico de 240 GFLOPs
o 176 GB de memria RAM
o 350 GB de espao em disco
o 2.2 TB de espao em disco (fastscratch)
o Hostnames: sg4gv1.cenapad-sp.br
1 n com 22 processadores Intel Itanium2 Dual-core srie9000, 1.6GHz
o Desempenho terico de 240 GFLOPs por n
o 144 GB de memria RAM
o 300 GB de espao em disco
o Hostname: sg4gv2.cenapad-sp.br
N de acesso
O n de acesso ao sistema SGI athenas.cenapad.unicamp.br (143.106.42.243) que
corresponde ao n:
sg2gq1.cenapad-sp.br.
Este n tambm o servidor de arquivos (36 TB) e de controle do sistema SGI.
Sistema Operacional
SUSE LINUX Enterprise Server 10 (ia64)
kernel 2.6.16 64bits
12
Linguagens de programao
Intel Fortran
Intel C
GNU C e GNU C++ (gcc/g++)
Bibliotecas Cientficas
Intel MKL (Math Kernel Library)
Bibliotecas para Processamento Paralelo
MPI (Message Passing Interface)
SGI MPT (Message Passing Toolkit)
Softwares
Gaussian 2003 (Somente no ambiente SGI Altix 1350/450)
Editores de Texto
vi
emacs
Software
Uma lista completa dos recursos de software disponveis no ambiente est disponvel a
partir de :
www.cenapad.unicamp.br
13
Ambiente IBM
O equipamento IBM do CENAPAD-SP composto por 40 ns computacionais SMP
modelo IBM P750, que utilizam processadores Power7 de 3.55GHz. So 32 cores (ncleos
de processamento), 128GB de memria RAM e 908,8 GFlops de desempenho terico em
cada n computacional, totalizando 1280 cores, 5TB de memria RAM e capacidade
terica de processamento de aproximadamente 37 TFLOPs.
Conta tambm com sistema de armazenamento IBM System Storage DS5020 com
224TB e trs unidades Tape Library IBM TS3200 para backup. Possui ainda doze placas
GPU nVIDIA Tesla M2050, instaladas em seis servidores X86 com processadores Intel
Xeon Processor X5570 (2.93GHz).
Ns
O sistema composto por 48 ns dispostos em 5 frames:
40 ns IBM P750 (Hostnames: tyrno01.cenapadsp.br .. tyrno40.cenapadsp.br), cada um
com:
o 4 processadores IBM Power7 8Cores, 3.55GHz;
o 128GB de memria RAM;
o 2 discos SAS 300GB 10K;
6 ns IBM System x iDataPlex
(Hostnames: gpuno01.cenapadsp.br .. gpuno06.cenapadsp.br), cada um com:
o 2 processadores Intel Xeon Processor X5570 (2.93GHz 8MB Cache 95W),
o 2 placas nVIDIA Tesla M2050;
o 24GB de memria RAM
o 2 discos 1000GB.
1 n IBM P520 (Hostname: tyr.cenapad.unicamp.br), para acesso ao sistema, com:
o 2 processadores IBM Power6 + 2Cores, 4.7GHz;
o 16 GB de memria RAM;
o 4 discos SAS 300GB 15K;
1 n IBM P550 (Hostname: tsm.cenapadsp.br), para controle de storage e backup de
dados, com:
o 2 processadores IBM Power6+ 2Cores, 5GHz;
o 32GB de memria RAM;
o 4 discos SAS 300GB 15K;
14
Sistema Operacional
Ns P750, P550 e P520 (processadores IBM Power):
o AIX 6.1
Ns IBM System x (processadores Intel Xeon):
o SUSE Linux Enterprise Server 11 (x86_64)
15
Linguagens de Programao
C/C++
Compilador GNU de C e C++ (gcc/g++)
Compilador AIX de C e C++ (xlc/xlC)
FORTRAN
Compilador IBM de FORTRAN (xlf e f77)
Compilador IBM de FORTRAN90 (xlf90)
Bibliotecas Cientficas
ESSL (Engineering and Scientific Subroutine Library, que inclui LAPACK,
SCALAPACK, BLAS, BLACS, etc)
Bibliotecas para Processamento Paralelo
MPI (Message Passing Interface)
Editores de texto
emacs
vi
Software
Uma lista completa dos recursos de software disponveis no ambiente est disponvel a
partir de :
www.cenapad.unicamp.br
16
Contas, Projetos e
Contabilizao de Uso
Nmero de mquinas
no ambiente
IBM-P750
4,0 h
40
GPU
6,0 h
SGI-ICE
6,0 h
32
SGI-Itanium2
20,0h
11
17
18
Se o destino for o ambiente SGI Altix - ICE, o usurio deve fazer o SCP do arquivo de
sua conta no ambiente SGI para sua conta no ambiente ICE, atravs do comando:
%scp<nome_do_arquivo>login_do_usurio@ice:~
Opcionalmente, pode-se copiar arquivos do ambiente SGI Altix 1350/450 para o ambiente
SGI-ICE atravs do comando:
%cp<nome_do_arquivo>homeice
IMPORTANTE - Caso o arquivo de origem tenha sido criado em uma mquina
Windows, preciso convert-lo para o formato Linux antes de us-lo no
ambiente CENAPAD. Para fazer essa converso, o usurio deve usar o
seguinte comando (no ambiente CENAPAD) :
%dos2unix<nome_do_arquivo>
19
20
21
pequena
media
grande
Num Max
Jobs exec
45
35
Num Max
cpus/jobs
1
1
1
Tempo Max
uso / cpu
2 hs
120 hs
720 hs
Tempo Max
(elapsed)
-
Num Max
Jobs/user
-
Filas
Paralelas
paralela
par22
gaussian
exp32
Num Max
Jobs exec
2
1
Num Max
cpus/jobs
16
22 (fixo)
16
32(fixo)
Tempo Max
uso / cpu
1536 hs
3696 hs
2688 hs
768 hs
Tempo Max
(elapsed)
768 hs
240 hs
720 hs
25 hs
Num Max
Jobs/user
1
2
-
Filas Seriais
reas scratch
As reas scratch disponveis, para gravao de arquivos temporrios durante o
processamento dos jobs so:
22
Filesystem
Tamanho
Uso
/workssa
1,7 TB
/work
300 GB
No ambiente SGI-Altix 1350/450 esto definidos os seguintes limites para cada usurio:
O nmero mximo de jobs na fila exp32 para um mesmo usurio 2 (os jobs
excedentes sero automaticamente cancelados).
O nmero mximo de jobs nas filas par22 para um mesmo usurio 2 (os jobs
excedentes sero automaticamente cancelados).
Jobs Seriais
Para submisso de jobs para as classes que processam programas seriais, deve-se
usar um script como esse do exemplo a seguir:
#PBSqpequena
#PBSNtestjob
#PBSV
#!/bin/sh
cd$PBS_O_WORKDIR
echo""
echo"Iniciodojob:"`date`
echo"Hostname:"`hostname`
<chamadadoexecutveldoprogramacomseusparmetros>
echo"Finaldojob:"`date`
echo""
23
2)
Jobs Paralelos
24
3)
Jobs Gaussian
A execuo de jobs Gaussian pode ser feita atravs da submisso de um script como
o exemplo a seguir.
Neste exemplo, devem ser alterados:
o nome dos arquivos de entrada e sada na linha g03 < nomeinput > & nomesaida
25
Importante:
No script acima, preciso colocar o "caminho" dos arquivos de input e output
desejados na linha de comando em que se faz a chamada do G03. Se esses arquivos
estiverem no diretrio raz de sua conta, basta especificar para o exemplo acima
~/input.com e ~/output.log
Para processamentos do G03 utilizando mais do que uma CPU, preciso que o
arquivo de input correspondente seja configurado de maneira consistente com o nmero de
CPUs solicitado. Para o exemplo acima (4 CPUs) o arquivo de input correspondente deve
indicar tambm 4 CPUs, na diretiva nprocshared :
%nprocshared=4
4)
Jobs Gamess
A execuo de jobs Gamess pode ser feita atravs da submisso de um script como
o exemplo abaixo.
Neste exemplo, devem ser alterados:
26
Exemplo de script:
#!/bin/sh
#PBSqparalela
#PBSlncpus=numero_de_cpus
#PBSNnomejob
#PBSonomejob_out
#PBSenomejob_err
echo""
echo"Iniciodojob:"`date`
echo"Nodesutilizadosparaexecucao:"
cat$PBS_NODEFILE
echo""
cd$PBS_O_WORKDIR
dirgms=/usr/local/gamess_12_JAN_2009_R3
NCPUS=numero_cpus
$dirgms/rungmsinput_gms00$NCPUS>&log_gms
echo""
echo"Finaldojob:"`date`
echo""
27
Submisso de jobs
Para submeter um job para execuo no ambiente IBM P750 do CENAPAD-SP o usurio
deve:
1.
Logar no CENAPAD-SP
2.
Logar na mquina interativa deste ambiente por meio do comando:
%sshtyr
(utilizando o mesmo usurio e a mesma senha do CENAPAD-SP)
3.
4.
Submeter o job a ser executado para o sistema de filas (LoadLeveler), atravs do
comando:
%llsubmit<script>
Configurao do sistema de filas - LoadLeveler
Classes
O ambiente de processamento de jobs do CENAPAD-SP est dividido em dois grandes
grupos:
processamento serial
processamento paralelo
Para atender as necessidades de cada um destes dois grupos existem seis tipos de
classes, que foram definidas com o objetivo de distribuir da melhor forma possvel os
recursos do ambiente entre os usurios e, principalmente, otimizar o tempo de
processamento e o tempo de espera na fila.
As classes diferenciam-se por:
28
Tipo
Serial
Paralela
Classe
Limite de
uso de CPU
Limite de tempo
processamento
Num. Mx.
de cores
Num. Mx.
de threads
pequena
2 horas
2:30 horas
20
media
5 dias
5 dias e 12 horas
grande
30 dias
31 dias
20
paralela
256 dias
30 dias e 4 horas
64
256
exp512
512 dias
1 dia e 30 minutos
128
512
11
par128
896 dias
7 dias e 2 horas
32
128
gaussian
256 dias
30 dias e 4 horas
32
reas scratch
As reas scratch disponveis, para gravao de arquivos temporrios durante o
processamento dos jobs so:
Filesystem
Tamanho
/work
200 GB
Uso
local em cada um dos ns
/workpar
32 TB
/work128
29 TB
/work512
29 TB
/workgau
32 TB
Jobs Seriais
Para submisso de jobs para as classes que processam programas seriais, deve-se
usar um script como o exemplo a seguir:
##Jobserial
#@class=pequena
#@job_name=jobT
#@output=jobT.$(jobid).out
#@error=jobT.$(jobid).err
#@notification=never
#@queue
#exibenoarquivodesaidaonomedohostondejobfois
#executadoedata/hora
echo=============================================
echo"`/bin/hostname``/bin/date`"
echo=============================================
#execucaodoprograma
./programa</dev/null>output.$$2>&1
2)
Jobs Paralelos
30
Classe Paralela
#!/bin/sh
#
#@node=1
#@total_tasks=4
#@node_usage=shared
#@job_name=jobpar
#@input=/dev/null
#@output=jobpar.$(Cluster).$(Process).out
#@error=jobpar.$(Cluster).$(Process).err
#@notification=never
#@environment=COPY_ALL
#@job_type=parallel
#@class=paralela
#@queue
./programa</dev/null>output.$$2>&1
No exemplo acima foi solicitado para o job 1 node e 4 tasks (CPUs/cores). Pode-se
solicitar no mximo 8 nodes e 64 tasks (CPUs/cores) por job. Caso o nmero de nodes (ou
seja, a diretiva "#@ node") no seja especificado no script de submisso, ser assumido que
o nmero de nodes desejado 1 (um). Nesse caso, o valor mximo permitido para a
diretiva "#@ total_tasks" de 32 (que o nmero de CPUs em cada node desse ambiente).
Classe Par128
#!/bin/sh
#Exemplojobclassepar128
#@node=1
#@total_tasks=32
#@node_usage=not_shared
#@job_name=jobpar128
#@input=/dev/null
#@output=jobpar128.$(Cluster).$(Process).out
#@error=jobpar128.$(Cluster).$(Process).err
#@notification=never
#@environment=COPY_ALL
#@job_type=parallel
#@class=par128
#@core_limit=8388608
#@queue
exportOMP_NUM_THREADS=4
exportMP_TASK_AFFINITY=cpu:4
./programa</dev/null>output.$$2>&1
Classe exp512
#!/bin/sh
#Exemplojobclasseexp512
#@node=4
#@total_tasks=128
#@node_usage=not_shared
#@job_name=job_exp512
#@input=/dev/null
#@output=job_exp512.$(Cluster).$(Process).out
#@error=job_exp512.$(Cluster).$(Process).err
#@notification=never
#@environment=COPY_ALL
#@job_type=parallel
#@class=exp512
#@network.MPI=sn_all,not_shared,us
#@bulkxfer=yes
#@queue
exportOMP_NUM_THREADS=4
exportMP_TASK_AFFINITY=cpu:4
./programa</dev/null>output.$$2>&1
3)
Jobs Gaussian
Exemplo de script utilizando 4 CPUs :
#!/usr/bin/csh
#
#ScriptparasubmissaodejobsGaussian(G09)noambiente
#IBM/Loadlevelerusando4Processadores
#
#IMPORTANTE:deveserespecificadonoarquivodeinputa
#diretivaindicandoexecucaoem4CPUs
32
#
#%NProcShared=4
#
#@node=1
#@total_tasks=4
#@node_usage=shared
#@job_name=jobgauss
#@input=/dev/null
#@output=jobgauss.$(Cluster).$(Process).out
#@error=jobgauss.$(Cluster).$(Process).err
#@notification=never
#@environment=COPY_ALL
#@job_type=parallel
#@class=gaussian
#@queue
#
#SetarvarsdeambientenecessariasparaoG09
#
setenvg09root/g09root
setenvGAUSS_SCRDIR/workgau/G09/$USER
source$g09root/g09/bsd/g09.login
#
#Criadiretoriodescratchaserusadonaexecucao
#
mkdirp/workgau/G09/$USER
#
#Indicaexecucaonodiretoriodescratch
#
cd$GAUSS_SCRDIR
#
#Execucaoemparalelo/multithread
#
setenvOMP_NUM_THREADS4
setenvMP_TASK_AFFINITYcpu:4
#
#Chamadadoexecutavel
#
#ATENCAO:deveserindicadoocaminhocompleto(PATH)
#deondeesta'oarquivodeinput(extensao.com)eo
#caminhocompleto(PATH)deondedevesergravadoo
#arquivodeoutput(extensao.log)
#
g09<caminho_completo/input.com>caminho_completo/output.log
33
#
#Copiaarquivochkparadestino(nacontadousuario)
#
#ATENCAO:deveserindicadoocaminhocompleto(PATH)
#deondedevesergravadooarquivodechkgerado
#
cpGau*chkcaminho_completo
#
#removendoarquivostemporariosgeradosnaareadescratch
#
rmGau*rwf
Importante:
No script acima, preciso colocar o "caminho" dos arquivos de input e output
desejados na linha de comando em que se faz a chamada do G09. Se esses arquivos
estiverem no diretrio raiz de sua conta, basta especificar para o exemplo acima
~/input.com e ~/output.log
Para processamentos do G09 utilizando mais do que uma CPU, preciso que o
arquivo de input correspondente seja configurado de maneira consistente com o nmero de
CPUs solicitado. Para o exemplo acima (4 CPUs) o arquivo de input correspondente deve
indicar tambm 4 CPUs, na diretiva nprocshared :
%NProcShared=4
Para uma melhor performance, o script acima faz a execuo do G09 a partir de um
diretrio de scratch local da mquina (/work), e no a partir de reas de scratch global.
Recomendamos que esse procedimento no seja modificado.
Mas a rea /work limitada em 200 GB. Caso haja a necessidade de gerar grandes
arquivos temporrios, o /work no exemplo acima deve ser substituido pela rea de scratch
global /workgau (que tem 32 TB).
34
Logar no CENAPAD-SP
2.
Logar na mquina interativa deste ambiente por meio do comando:
%sshice
(utilizando o mesmo usurio e a mesma senha do CENAPAD-SP)
3.
4.
Submeter o job a ser executado para o sistema de filas (PBS), atravs do comando:
%qsub<nome_do_script>
As filas e restries definidas no PBSPro so:
Fila
parice
par48
exp96
Num Max
jobs exec
2
1
Num Max
cpus / job
48
48 (fixo)
96 (fixo)
Tempo Max
uso cpu
17280 hs
8064 hs
2304 hs
Tempo Max
(elapsed)
720 hs
168 hs
24 hs
O nmero mximo de jobs na fila exp96 para um mesmo usurio 2 (os jobs
excedentes sero automaticamente cancelados).
O nmero mximo de jobs nas filas par48 para um mesmo usurio 2 (os jobs
excedentes sero automaticamente cancelados).
35
rea de Scratch
Existe nesse ambiente uma rea scratch para gravao dos arquivos temporrios gerados
durante o processamento dos jobs. Essa rea tem 23 TB, e deve ser referenciada como :
/workice
Criando um Arquivo de Comandos
Tambm no ambiente SGI Altix ICE preciso criar um arquivo de comandos que
descreve o job a ser executado.
Nesse ambiente os jobs devem obrigatoriamente ser paralelos (no h filas seriais
definidas).
Para execuo de processamentos paralelos, recomenda-se o uso do mpiexec_mpt
(que otimizado para esse ambiente).
36
#
#Chamadadoexecutavel
#Aexecucaodeveserfeitaatravesdoscriptmpiexec_mpt
#
/opt/sgi/mpt/mpt2.03/bin/mpiexec_mptnp4<executvel>
#
echo"Finaldojob:"`date`
echo""
37
#Emaplicacoesqueutilizamapenasumno(nodes=1),eaconselhavel
#definirumvalorparaobufferdememoriacompartilhada.
#Recomendavelvaloremtornode2048bytes
exportMPI_BUFFER_MAX=2048
#
echo"PWD:"$PWD
#
#DefinePATHeLD_LIBRARY_PATHparausodompiexec_mpt
exportPATH=/opt/sgi/mpt/mpt2.03/bin:$PATH
exportLD_LIBRARY_PATH=/opt/sgi/mpt/mpt2.03/lib:$LD_LIBRARY_PATH
#Definirvariavelparadesligaromapeamentodememoriafeitopelo
MPI
exportMPI_MEMMAP_OFF=1
#
#Chamadadoexecutvel
#Aexecucaodeveserfeitaatravesdoscriptmpiexec_mpt
#
/opt/sgi/mpt/mpt2.03/bin/mpiexec_mptnp48<executvel>
#
echo"Finaldojob:"`date`
echo""
38
#
#DefinePATHeLD_LIBRARY_PATHparausodompiexec_mpt
#
exportPATH=/opt/sgi/mpt/mpt2.03/bin:$PATH
exportLD_LIBRARY_PATH=/opt/sgi/mpt/mpt2.03/lib:$LD_LIBRARY_PATH
#Definirvariavelparadesligaromapeamentodememoriafeitopelo
MPI
exportMPI_MEMMAP_OFF=1
#
#Chamadadoexecutvel
#Aexecucaodeveserfeitaatravesdoscriptmpiexec_mpt
#
/opt/sgi/mpt/mpt2.03/bin/mpiexec_mptnp48<executvel>
#
echo"Finaldojob:"`date`
echo""
39
Treinamentos
40