Cluster Computacional de Alto Desempenho - Feynman
- Início
- Serviços
- Equipamentos Multiusuários
- Cluster Computacional de Alto Desempenho - Feynman
Cluster Feynman
O Cluster Feyman foi adquirido através de recursos do projeto FAPESP, número 04/09470-0, na modalidade Equipamentos Multiusuários (EMU).
Instituto de Física Gleb Wataghin (IFGW) - Centro de Computação John David Rogers (CCJDR) - Data Center
O cluster de processamento é composto de máquinas com processador Xeon da seguinte forma:
No cluster Feynman está disponível a versão de Intel MPI 5. Para utilizar essa versão deve-se executar:
source /home/sw/masternode/intel/2015/install/composerxe/bin/compilervars.sh intel64
source /home/sw/masternode/intel/2015/install/mpi/impi/5.1.2.150/bin64/mpivars.sh
Os nodes possuem 2 processadores Intel Xeon E5620. Dessa forma, cada node possui 2 (processadores )* 4 (núcleo por processadores) *2 (threads por núcleo) = 16. Porém, a utilização dessas threads em processo puramento CPU-bond não é vantajosa. O usuário pode escolher em um ppn com o número de cores máximo de 16.
A submissão de jobs para o nós de processamento é realizado através de filas de processamento. Na tabela abaixo contém as filas que estão definidas no momento:
Fila | descrição/uso | # de cores | Jobs por usuário | tempo máximo (walltime) | nós disponíveis -l nodes |
---|---|---|---|---|---|
par144RAM |
para jobs que precisem de até 144 GB de RAM |
16 |
1 |
2 dias |
1 |
par72RAM |
para jobs que precisem de até 72 GB de RAM |
16 |
1 |
2 dias |
1 |
par64 |
para jobs que precisem de até 32 GB de RAM e até 64 cores |
64 |
1 |
2 dias |
7 (compartilhado com a par32) |
par32 |
para jobs que precisem de até 32 GB de RAM e até 32 cores |
32 |
1 |
4 dias |
7 (compartilhado com a par64) |
gpu |
para jobs utilizaram as duas telas Nvidia C2050 |
16 |
1 |
1 dia |
1 |
par16 |
para jobs que precisem de até 32 GB de RAM e até 16 cores em um node |
16 |
1 |
4 dias |
1 |
A submissão de jobs para o nós de processamento é realizado através de filas de processamento. A seguir apresenta-se as filas que estão definidas no momento:
Exemplos de arquivos para envio de jobs
#!/bin/bash
#PBS -M
### Mandar email no inicio e fim
#PBS -m abe
### Name do processo
#PBS -N par32a
### Arquivos de saida
#PBS -e par32a.err
#PBS -o par32a.out
### Definindo a fila e o número de processadores
## no caso, estamos solicitando para rodar na fila par32
## e solicitando 4 nodes e 8 cores em cada um, totalizando 8 cores
#PBS -q par32
#PBS -l nodes=4:ppn=8
source /home/sw/masternode/intel/2015/install/composerxe/bin/compilervars.sh intel64
source /home/sw/masternode/intel/2015/install/mpi/impi/5.1.2.150/bin64/mpivars.sh
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/opt/pbs/bin/pbs_tmrsh
export I_MPI_DEVICE=rdssm
cd diretorio-aonde-esta-o-comando-executavel
mpirun -n 32 ./comando-executavel
#!/bin/bash
#PBS -M
### Mandar email no inicio e fim
#PBS -m abe
### Name do processo
#PBS -N par64a
### Arquivos de saida
#PBS -e par64a.err
#PBS -o par64a.out
### Definindo a fila e o número de processadores
## no caso, estamos solicitando para rodar na fila par64
## e utilizando 4 nodes e 16 cores em cada um, totalizando 48 cores
#PBS -q par64
#PBS -l nodes=4:ppn=16
source /home/sw/masternode/intel/2015/install/composerxe/bin/compilervars.sh intel64
source /home/sw/masternode/intel/2015/install/mpi/impi/5.1.2.150/bin64/mpivars.sh
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/opt/pbs/bin/pbs_tmrsh
export I_MPI_DEVICE=rdssm
cd diretorio-aonde-esta-o-comando-executavel
mpirun -n 64 ./comando-executavel
#!/bin/bash
#PBS -M
### Mandar email no inicio e fim
#PBS -m abe### Name do processo
#PBS -N par72RAM
### Arquivos de saida
#PBS -e par72RAM.err
#PBS -o par72RAM.out
### Definindo a fila e o número de processadores
## no caso, estamos solicitando para rodar na fila par72RAM
## utilizando 1 nodes e 8 cores
#PBS -q par72RAM
#PBS -l nodes=1:ppn=8
source /home/sw/masternode/intel/2015/install/composerxe/bin/compilervars.sh intel64
source /home/sw/masternode/intel/2015/install/mpi/impi/5.1.2.150/bin64/mpivars.sh
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/opt/pbs/bin/pbs_tmrsh
export I_MPI_DEVICE=rdssm
cd diretorio-aonde-esta-o-comando-executavel
mpirun -n 16 ./comando-executavel
#!/bin/bash
#PBS -M
### Mandar email no inicio e fim
#PBS -m abe
### Name do processo
#PBS -N par144RAM
### Arquivos de saida
#PBS -e par144RAM.err
#PBS -o par144RAM.out
### Definindo a fila e o número de processadores
## no caso, estamos solicitando para rodar na fila par144RAM
## utilizando 1 nodes e 16 cores
#PBS -q par144RAM
#PBS -l nodes=1:ppn=16
source /home/sw/masternode/intel/2015/install/composerxe/bin/compilervars.sh intel64
source /home/sw/masternode/intel/2015/install/mpi/impi/5.1.2.150/bin64/mpivars.sh
export I_MPI_HYDRA_BOOTSTRAP=rsh
export I_MPI_HYDRA_BOOTSTRAP_EXEC=/opt/pbs/bin/pbs_tmrsh
export I_MPI_DEVICE=rdssm
cd diretorio-aonde-esta-o-comando-executavel
mpirun -n 16 ./comando-executavel
Depois de amplo período de estudos, foi concebido um conjunto de normas para uso do data center do CCJDR em relação ao hardware e software, além de outras diretrizes.
Um dos itens para destaque, de acordo com a Resolução ComTIC 002/2015, descrevem quais são as características para os equipamentos de HPC utilizarem a infraestrutura do CCJDR.
As normas completas estão disponíveis em https://portal.ifi.unicamp.br/images/files/intranet/comtic/ComTIC022015v2.pdf
Em caso de dúvidas, estamos à disposição pelo https://os.ifi.unicamp.br.
Para ter acesso ao cluster é necessário um projeto aprovado de um docente do IFGW.
O formulário de inscrição está disponível dos seguintes modos:
Universidade Estadual de Campinas - Instituto de Física Gleb Wataghin
Rua Sérgio Buarque de Holanda, 777
Cidade Universitária, Campinas - SP, 13083-859
Fone +55 19 3521-5297
Fax +55 19 3521-4147