• linkedu视频
  • 平面设计
  • 电脑入门
  • 操作系统
  • 办公应用
  • 电脑硬件
  • 动画设计
  • 3D设计
  • 网页设计
  • CAD设计
  • 影音处理
  • 数据库
  • 程序设计
  • 认证考试
  • 信息管理
  • 信息安全
菜单
linkedu.com
  • 网页制作
  • 数据库
  • 程序设计
  • 操作系统
  • CMS教程
  • 游戏攻略
  • 脚本语言
  • 平面设计
  • 软件教程
  • 网络安全
  • 电脑知识
  • 服务器
  • 视频教程
  • JavaScript
  • ASP.NET
  • PHP
  • 正则表达式
  • AJAX
  • JSP
  • ASP
  • Flex
  • XML
  • 编程技巧
  • Android
  • swift
  • C#教程
  • vb
  • vb.net
  • C语言
  • Java
  • Delphi
  • 易语言
  • vc/mfc
  • 嵌入式开发
  • 游戏开发
  • ios
  • 编程问答
  • 汇编语言
  • 微信小程序
  • 数据结构
  • OpenGL
  • 架构设计
  • qt
  • 微信公众号
您的位置:首页 > 程序设计 >C语言 > 安装OpenMPI来配合C语言程序进行并行计算

安装OpenMPI来配合C语言程序进行并行计算

作者:find 字体:[增加 减小] 来源:互联网 时间:2017-05-28

find 通过本文主要向大家介绍了c语言程序计算,潮流计算c语言程序,计算阶乘的c语言程序,c语言程序设计,谭浩强c语言程序设计等相关知识,希望对您有所帮助,也希望大家支持linkedu.com www.linkedu.com

安装OPENMPI
由于是实验,也不进行多机的配置了,只在虚拟机里安装吧。多个机器的配置可以参考此文
最简单的方法,apt安装

sudo apt-get install libcr-dev mpich2 mpich2-doc
</div>

测试
hello.c

/* C Example */
#include <mpi.h>
#include <stdio.h>

int main (int argc, char* argv[])
{
 int rank, size;

 MPI_Init (&argc, &argv);   /* starts MPI */
 MPI_Comm_rank (MPI_COMM_WORLD, &rank);    /* get current process id */
 MPI_Comm_size (MPI_COMM_WORLD, &size);    /* get number of processes */
 printf( "Hello world from process %d of %d\n", rank, size );
 MPI_Finalize();
 return 0;
}

</div>

编译运行及显示结果

mpicc mpi_hello.c -o hello
mpirun -np 2 ./hello
Hello world from process 0 of 2
Hello world from process 1 of 2
</div>

正常出现结果表明没有问题,
看下openmpi的版本

mpirun --version

</div>
mpirun (Open MPI) 1.6.5
Report bugs to http://www.open-mpi.org/community/help/

</div>

MPI计算矩阵乘法

通过opemMPI加速矩阵乘法运算。采用主从模式,0号是master,其他是child(或者叫worker,as you wish)。

基本思路
两个矩阵A,B进行乘法运算,则A的行 i 乘以B的列 j 得出的数是新矩阵(i,j)坐标的数值。A(MN) B(NK)最后矩阵是M*K的,实验中M=N=K=1000,我也就没有明确区分MNK,全部用MATRIX_SIZE定义的。
最简单的思路就是每个worker分配(MATRIX_SIZE/(numprocess-1))个,然后如果有余下的,就分给余数对应的worker。比如MATRIX_SIZE=10,numprocess=4 则实际的worker有3个,每个人分3行,最后的一行给id是1的。可以很简单的利用循环类分配。最后Master收集所有的结果,并按照顺序组装起来就行。
每个worker的工作就是接收来自master的一行,和B矩阵运算,得出新一行的结果,然后发送回master

代码
多加了很多注释来解释,函数的说明下一节解释下。

#include <mpi.h>
#include <stdio.h>
#define MATRIX_SIZE 10
#define FROM_MASTER 1 //这里的类型可以区分消息的种类,以便区分worker发送来的结果
#define FROM_CHILD 2 
#define MASTER 0
MPI_Status status;
int myid,numprocess;
//最终保存的结果
int ans [MATRIX_SIZE*MATRIX_SIZE];
int A[MATRIX_SIZE*MATRIX_SIZE],B[MATRIX_SIZE*MATRIX_SIZE];
//读取文件,注意读取文件要放在master里,不然会读两遍,出现错误
void readFile(){
  FILE* fina,*finb;
  fina=fopen("a.txt","r");
  int i;
  for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE ; ++i)
  {
    fscanf(fina,"%d ",&A[i]);
  }
  fclose(fina);
  finb=fopen("b.txt","r");
  for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++)
    fscanf(finb,"%d ",&B[i]);
  fclose(finb);
  printf("read file ok\n");
}
int master(){
  int workid,dest,i,j;
  printf("numprocess %d\n",numprocess );
  //给每个worker发送B矩阵过去
  for(i=0;i<numprocess-1;i++){
    //send B matrix
    MPI_Send(&B,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,i+1,FROM_MASTER,MPI_COMM_WORLD);
  }
  //开始给每个worker分配任务,取模即可
  for (i = 0; i < MATRIX_SIZE; i++)
  {
    //attention: num of workers is numprocess-1
    workid=i%(numprocess-1)+1;
    //send single line in A
    MPI_Send(&A[i*MATRIX_SIZE],MATRIX_SIZE,MPI_INT,workid,FROM_MASTER,MPI_COMM_WORLD);
  }

  //等待从worker发送来的数据
  int tempLine[MATRIX_SIZE];
  for (i = 0; i < MATRIX_SIZE*MATRIX_SIZE; i++)
  {
    ans[i]=0;
  }
  for (i = 0; i < MATRIX_SIZE; ++i)
  {
    int myprocess=i%(numprocess-1)+1;
    printf("Master is waiting %d\n",myprocess);
    //receive every line from every process
    MPI_Recv(&tempLine,MATRIX_SIZE,MPI_INT,myprocess,FROM_CHILD,MPI_COMM_WORLD,&status);
    //发送过来的都是计算好了的一行的数据,直接组装到ans里就行
    for(j=0;j<MATRIX_SIZE;j++){
      ans[MATRIX_SIZE*i+j]=tempLine[j];
    }
    printf("Master gets %d\n",i);
  }

  for(i=0;i<MATRIX_SIZE*MATRIX_SIZE;i++){
    printf("%d ",ans[i] );
    if(i%MATRIX_SIZE==(MATRIX_SIZE-1))printf("\n");
  }
  printf("The Master is out\n");

}
int worker(){
  int mA[MATRIX_SIZE],mB[MATRIX_SIZE*MATRIX_SIZE],mC[MATRIX_SIZE];
  int i,j,bi;
  MPI_Recv(&mB,MATRIX_SIZE*MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
  //接收来自master的A的行
  for(i=0;i<MATRIX_SIZE/(numprocess-1);i++){
    MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
    //矩阵乘法,A 的一行和B矩阵相乘
    for(bi=0;bi<MATRIX_SIZE;bi++){
      mC[bi]=0;
      for(j=0;j<MATRIX_SIZE;j++){
        mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j];
      }
    }
    MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD);
  }
  //如果处于余数范围内,则需要多计算一行
  if(MATRIX_SIZE%(numprocess-1)!=0){
    if (myid<=(MATRIX_SIZE%(numprocess-1)))
    {
      MPI_Recv(&mA,MATRIX_SIZE,MPI_INT,MASTER,FROM_MASTER,MPI_COMM_WORLD,&status);
      for(bi=0;bi<MATRIX_SIZE;bi++){
        mC[bi]=0;
        for(j=0;j<MATRIX_SIZE;j++){
          mC[bi]+=mA[j]*mB[bi*MATRIX_SIZE+j];
        }
      }
      MPI_Send(&mC,MATRIX_SIZE,MPI_INT,MASTER,FROM_CHILD,MPI_COMM_WORLD);
    }
  }
  printf("The worker %d is out\n",myid);
}
int main(int argc, char **argv)
{
  MPI_Init (&argc, &argv); 
  MPI_Comm_rank(MPI_COMM_WORLD,&myid);
  MPI_Comm_size(MPI_COMM_WORLD,&numprocess);

  if(myid==MASTER){
    readFile();
    master();
  }
  if(myid>MASTER){
    worker();
  }

  MPI_Finalize();
  return 0;
}

</div>

OPENMPI简单函数介绍
针对实验用到的几个函数进行说明。
MPI为程序员提供一个并行环境库,程序员通过调用MPI的库程序来达到程序员所要达到的并行目的,可以只使用其中的6个最基本的函数就能编写一个完整的MPI程序去求解很多问题。这6个基本函数,包括启动和结束MPI环境,识别进程以及发送和接收消息:
理论上说,MPI所有的通信功能可以用它的六个基本的调用来实现:

  • MPI_INIT 启动MPI环境
  • MPI_COMM_SIZE 确定进程数
  • MPI_COMM_RANK 确定自己的进程标识符
  • MPI_SEND 发送一条消息
  • MPI_RECV 接收一条消息
  • MPI_FINALIZE 结束MPI环境

初始化和结束

MPI初始化:通过MPI_Init函数进入MPI环境并完成所有的初始化工作。

int MPI_Init( int *argc, char * * * argv )
</div>

MPI结束:通过MPI_Finalize函数从MPI环境中退出。

int MPI_Finalize(void)
</div>

获取进程的编号
调用MPI_Comm_rank函数获得当前进程在指定通信域中的编号,将自身与其他程序区分。

int MPI_Comm_rank(MPI_Comm comm, int *rank)
</div>

获取指定通信域的进程数
调用MPI_Comm_size函数获取指定通信域的进程个数,确定自身完成任务比例。

int MPI_Comm_size(MPI_Comm comm, int *size)
</div>

MPI消息
一个消息好比一封信
消息的内容的内容即信的内容,在MPI中成为消息缓冲(Message Buffer)
消息的接收发送者即信的地址,在MPI中成为消息封装(Message Envelop)
MPI中,消息缓冲由三元组<起始地址,数据个数,数据类型>标识
消息信封由三元组<源/目标进程,消息标签,通信域>标识

消息发送

MPI_Send函数用于发送一个消息到目标进程。

int MPI_Send(void *buf, int count, MPI_Datatype dataytpe, int dest, int tag, MPI_Comm comm)
</div>

buf是要发送数据的指针,比如一个A数组,可以直接&A,count则是数据长度,datatype都要改成MPI的type。dest就是worker的id了。tag则可以通过不同的type来区分消息类型,比如是master发送的还是worker发送的。

分享到:QQ空间新浪微博腾讯微博微信百度贴吧QQ好友复制网址打印

您可能想查找下面的文章:

  • 安装OpenMPI来配合C语言程序进行并行计算

相关文章

  • 2017-05-28详解散列表算法与其相关的C语言实现
  • 2017-05-28详解C语言中strpbrk()函数的用法
  • 2017-05-28基于C中含有if的宏定义详解
  • 2017-05-28C++ using namespace std 用法深入解析
  • 2017-05-28C++ 中const和复合类型
  • 2017-05-28c++函数指针使用示例分享
  • 2017-05-28C++使用WideCharToMultiByte函数生成UTF-8编码文件的方法
  • 2017-05-28C#委托所蕴含的函数指针概念详细解析
  • 2017-05-28实例讲解C++设计模式编程中State状态模式的运用场景
  • 2017-05-28C++基础教程之指针拷贝详解

文章分类

  • JavaScript
  • ASP.NET
  • PHP
  • 正则表达式
  • AJAX
  • JSP
  • ASP
  • Flex
  • XML
  • 编程技巧
  • Android
  • swift
  • C#教程
  • vb
  • vb.net
  • C语言
  • Java
  • Delphi
  • 易语言
  • vc/mfc
  • 嵌入式开发
  • 游戏开发
  • ios
  • 编程问答
  • 汇编语言
  • 微信小程序
  • 数据结构
  • OpenGL
  • 架构设计
  • qt
  • 微信公众号

最近更新的内容

    • C++入门之基础语法学习教程
    • C语言基础之malloc和free函数详解
    • VC实现ODBC数据库操作实例解析
    • 基于Windows API分解路径问题的详解
    • 对比C语言中memccpy()函数和memcpy()函数的用法
    • 解析如何在C语言中调用shell命令的实现方法
    • C++实现CreatThread函数主线程与工作线程交互的方法
    • C++初始化列表学习
    • ShellExecute函数用法的实例代码
    • 基于list循环删除元素,迭代器失效的问题详解

关于我们 - 联系我们 - 免责声明 - 网站地图

©2020-2025 All Rights Reserved. linkedu.com 版权所有