-
Notifications
You must be signed in to change notification settings - Fork 1
Home
Michael Lesley edited this page May 29, 2021
·
17 revisions
No presente trabalho utilizamos a biblioteca MPI que garante uma padronização para implementar aplicações distribuídas. É utilizado em computação em grade, computação paralela com a utilização de clusters.
No modelo MPI, temos os seguintes componentes básicos:
- Communicator: grupo de processos que podem trocar msgs entre si.
- Rank: id de cada processo.
- Tag: id de uma msg - para que a aplicação consiga identificar a msg que estou esperando.
Funções:
Comm.Get_size() - tamanho do communicator, inclui todos os processos
Comm.Get_rank() - retorna o rank de um processo em um communicator
Comm.send(data, int rank (destino), int tag) - envio de msgs
comm.recv(int source, int tag) (rank do transmissor, id da msg) - recebimento