目录
一、矩阵向量乘
二、主进程打印从进程消息
三、小结
上一节内容我们介绍了并行程序设计中的常用模式——对等模式,本节对另一种模式——主从模式进行介绍。
一、矩阵向量乘
首先通过矩阵向量乘C=A×B的例子来介绍主从模式。
具体实现方法为:主进程将向量B广播给所有的从进程,然后将矩阵A的各行依次发送给从进程,从进程计算一行和B相乘的结果,然后将结果发送给主进程。主进程循环向各个从进程发送一行A的数据,直至将A的各行数据发生完毕,一旦主进程将A的各行发送完毕,则每收到一个计算结果,就向相应的从进程发送结束标志,从进程接收到结束标志后退出执行。主进程收集完成所有结果后也结束。
#include <iostream>
#include "mpi.h"
using namespace std;int main(int argc, char *argv[])
{int rows = 10, cols = 10;int numsent = 0, numprocs = 0;int m_id = 0, end_tag = 0, myid = 0;double ans = 0.0;double a[rows][cols] = {0}, b[cols] = {0}, c[rows] = {0};double buffer[cols] = {0};MPI_Status status;MPI_Init(&argc, &argv);MPI_Comm_size(MPI_COMM_WORLD, &numprocs);MPI_Comm_rank(MPI_COMM_WORLD, &myid);printf("Process %d of %d is alive!\n", myid, numprocs);if(myid == m_id){for(int i = 0; i < cols; i++){b[i] = i;for(int j = 0; j < rows; j++){a[i][j] = i + 1;}}MPI_Bcast(b, cols, MPI_DOUBLE, m_id, MPI_COMM_WORLD);for(int i = 0; i < std::min(numprocs - 1, rows); i++){for(int j = 0; j < cols; j++){buffer[j] = a[i][j];}MPI_Send(buffer, cols, MPI_DOUBLE, i + 1, i + 1, MPI_COMM_WORLD);numsent = numsent + 1;}for(int i = 0; i < rows; i++){MPI_Recv(&ans, 1, MPI_DOUBLE, MPI_ANY_SOURCE, MPI_ANY_TAG, MPI_COMM_WORLD, &status);int sender = status.MPI_SOURCE;int rtag = status.MPI_TAG - 1;c[rtag] = ans;if(numsent < rows){for(int j = 0; j < cols; j++){buffer[j] = a[numsent][j];}MPI_Send(buffer, cols, MPI_DOUBLE, sender, numsent + 1, MPI_COMM_WORLD);numsent = numsent + 1;}else{int tmp = 1.0;MPI_Send(&tmp, 0, MPI_DOUBLE, sender, end_tag, MPI_COMM_WORLD);}}}else{MPI_Bcast(b, cols, MPI_DOUBLE, m_id, MPI_COMM_WORLD);while(1){MPI_Recv(buffer, cols, MPI_DOUBLE, m_id, MPI_ANY_TAG, MPI_COMM_WORLD, &status);if(status.MPI_TAG != end_tag){int row = status.MPI_TAG;ans = 0.0;for(int i = 0; i < cols; i++){ans = ans + buffer[i] * b[i];}MPI_Send(&ans, 1, MPI_DOUBLE, m_id, row, MPI_COMM_WORLD);}else{break;}}}if(myid == m_id){for(int i = 0; i < rows; i++){printf("c[%d] = %f.\n", i, c[i]);}}MPI_Finalize();return 0;
}
编译及运行结果如下:
二、主进程打印从进程消息
这里我们实现另一个主从模式的例子,功能是:主进程接收从进程的消息,根据消息的不同,分两种方式将消息打印。一是按照从进程节点编号的大小依次打印,二是按照任意顺序打印。从进程则实现向主进程发送消息的任务,消息分为两种:以任意顺序打印的消息和按进程编号顺序打印的消息。
#include <stdio.h>
#include "mpi.h"
#define MSG_EXIT 1
#define MSG_PRINT_ORDERED 2
#define MSG_PRINT_UNORDERED 3int main(int argc, char *argv[])
{int rank;MPI_Init(&argc, &argv);MPI_Comm_rank(MPI_COMM_WORLD, &rank);if(rank == 0)master_io();elseslave_io();MPI_Finalize();return 0;
}int master_io(void)
{int i, j, size, nslave, firstmsg;char buf[256], buf2[256];MPI_Status status;MPI_Comm_size(MPI_COMM_WORLD, &size);nslave = size - 1;while(nslave > 0){MPI_Recv(buf, 256, MPI_CHAR, MPI_ANY_SOURCE, MPI_ANY_TAG, MPI_COMM_WORLD, &status);switch(status.MPI_TAG){case MSG_EXIT:nslave--; break;case MSG_PRINT_UNORDERED: fputs(buf, stdout);break;case MSG_PRINT_ORDERED: firstmsg = status.MPI_SOURCE;for(i = 1; i < size; i++){if(i == firstmsg)fputs(buf, stdout);else{MPI_Recv(buf2, 256, MPI_CHAR, i, MSG_PRINT_ORDERED, MPI_COMM_WORLD, &status);fputs(buf2, stdout);}}break;}}
}int slave_io(void)
{char buf[256];int rank;MPI_Comm_rank(MPI_COMM_WORLD, &rank);sprintf(buf, "Hello from slave %d, ordered print.\n", rank);MPI_Send(buf, strlen(buf) + 1, MPI_CHAR, 0, MSG_PRINT_ORDERED, MPI_COMM_WORLD);sprintf(buf, "Goodbye from slave %d, ordered printd.\n", rank);MPI_Send(buf, strlen(buf) + 1, MPI_CHAR, 0, MSG_PRINT_ORDERED, MPI_COMM_WORLD);sprintf(buf, "I'm exiting (%d), unordered print.\n", rank);MPI_Send(buf, strlen(buf) + 1, MPI_CHAR, 0, MSG_PRINT_UNORDERED, MPI_COMM_WORLD);MPI_Send(buf, 0, MPI_CHAR, 0, MSG_EXIT, MPI_COMM_WORLD);
}
编译及运行结果如下:
三、小结
本节介绍了MPI程序设计的另一种基本模式——主从模式,结合上一节中介绍的对等模式,在复杂问题MPI程序设计时,通过这两种模式的任意排列组合或多层次嵌套,都可以解决程序设计问题。
下一节内容将介绍“不同通信模式的MPI程序设计”。