当前位置:文档之家› openmp与openmpi区别

openmp与openmpi区别

openmp与openmpi区别
openmp与openmpi区别

Lammps Mac 的并行之路

openmp与openmpi区别

openmp比较简单,修改现有的大段代码也容易。基本上openmp只要在已有程序基础上根据需要加并行语句即可。而mpi有时甚至需要从基本设计思路上重写整个程序,

调试也困难得多,涉及到局域网通信这一不确定的因素。不过,openmp虽然简单却只能用于单机多CPU/多核并行,mpi才是用于多主机超级计算机集群的强悍工具,当然复杂。

(1)MPI=message passing interface:

在分布式内存(distributed-memory)之间实现信息通讯的一种规范/标准/协议(standard)。它是一个库,不是一门语言。可以被fortran,c,c++等调用。MPI

允许静态任务调度,显示并行提供了良好的性能和移植性,用 MPI 编写的程序可直接

在多核集群上运行。在集群系统中,集群的各节点之间可以采用 MPI 编程模型进行程

序设计,每个节点都有自己的内存,可以对本地的指令和数据直接进行访问,各节点

之间通过互联网络进行消息传递,这样设计具有很好的可移植性,完备的异步通信功能,较强的可扩展性等优点。MPI 模型存在一些不足,包括:程序的分解、开发和调

试相对困难,而且通常要求对代码做大量的改动;通信会造成很大的开销,为了最小

化延迟,通常需要大的代码粒度;细粒度的并行会引发大量的通信;动态负载平衡困难;并行化改进需要大量地修改原有的串行代码,调试难度比较大。

(2)MPICH和OpenMPI:

它们都是采用MPI标准,在并行计算中,实现节点间通信的开源软件。各自有各自的

函数,指令和库。

Reference:

They are two implementations of the MPI standard. In the late 90s and early 2000s, there were many different MPI implementations, and the implementors started to realize they were all re-inventing the wheel; there was

something of a consolidation. The LAM/MPI team joined with the LA/MPI, FT-MPI, and eventually PACX-MPI teams to develop OpenMPI. LAM MPI stopped

being developed in 2007. The code base for OpenMPI was completely new, but

it brought in ideas and techniques from all the different teams.

Currently, the two major open-source MPI implementation code-bases are OpenMPI andMPICH2.

而MPICH2是MPICH的一个版本。

有的计算机厂商,也会针对旗下机型特点,自主开发基于MPICH的MPI软件,从而使机器的并行计算效率得以提高。

(3)OpenMP:

在节点内(多核 SMP)执行的基于共享内存的编程模型。

OpenMP是针对单主机上多核/多CPU并行计算而设计的工具,换句话说,OpenMP更适合单台计算机共享内存结构上的并行计算。由于使用线程间共享内存的方式协调并行计算,它在多核/多CPU结构上的效率很高、内存开销小、编程语句简洁直观,因此编程容易、编译器实现也容易(现在最新版的C、C++、Fortran编译器基本上都内置OpenMP支持)。不过OpenMP最大的缺点是只能在单台主机上工作,不能用于多台主机间的并行计算。

安装参考帖子1:

https://www.doczj.com/doc/e35159423.html,/shixha/article/details/106481 71

硬件: SMP服务器, 4个CPU(XeonE7450), 内存64G,ATI显卡

软件:Red Hat Enterprise 4, gcc3.4.6

前言: 由于服务器比较老,而且我没有root权限,安装起来很不方便,各种软件和库都没有,都是下载后手工编译安装的,用了3天时间,除了GPU和CUDA因为是ATI显卡的原因无法安装外,成功安装了各个包

参考网上教程和manul安装还比较顺利,但是有几个包特别麻烦...写出来分享下,希望能帮到需要的人

USER-ATC: 先将MPI的头文件,用-I包含,但由于gcc版本太低,所以总是报错,手动安装gcc4.8.1后libatc.a顺利编译, 但lammps编译时报错dsygvd,dgesvd两个函数找不到,google下发现是BLAS和LAPACK里的函数,由此怀疑是lammps自带的linalg 库有问题,自己下载GotoBLAS或者LAPACk都可以,解决

USER-AWPMD: 这个也比较坑爹,主要是makefile只有Makefile.openmpi,但是我编译lammps用的mpich,文档又说库和lammps编译时用的mpi要一致,解决办法是手动修改Makefile.openmpi中CC编译器为mpich的mpicxx,这样有一些警告,但是能顺利编译库,和lammps

USER-REAXC: 要将连接库的名字与ifort库中的完全一致,-lifcore -lsvml -liompstubs5 -limf, 特别是-liompstubs5跟以前的版本不一样了

KIM: 这个很好解决,下载openkim-ati库,google下即可,下载编译后将头文件的目录-I 连接上

VORONOI: 也需要自己下载voro++源码,手动编译出来即可

libjpeg: 下载libjpeg源码,手工编译即可

附上我lammps的makefile,仅供参考

[cpp]view plain copy

1.# my = RedHat Linux box, g++ (v3), MPICH, FFTW3

2.

3.SHELL = /bin/sh

4.

5.# ---------------------------------------------------------------------

6.# compiler/linker settings

7.# specify flags and libraries needed for your compiler

8.

https://www.doczj.com/doc/e35159423.html, = g++481 //自己link的gcc4.8.1

https://www.doczj.com/doc/e35159423.html,FLAGS = -g -O

11.SHFLAGS = -fPIC

12.DEPFLAGS = -M

13.

14.LINK = g++481 //同上

15.LINKFLAGS = -g -O

16.LIB =

17.SIZE = size

18.

19.ARCHIVE = ar

20.ARFLAGS = -rc

21.SHLIBFLAGS = -shared

[html]view plain copy

1.# ---------------------------------------------------------------------

2.# LAMMPS-specific settings

3.# specify settings for LAMMPS features you will use

4.# if you change any -D setting, do full re-compile after "make clean"

5.

6.# LAMMPS ifdef settings, OPTIONAL

7.# see possible settings in doc/Section_start.html#2_2 (step 4)

8.

9.LMP_INC = -DLAMMPS_GZIP -DLAMMPS_JPEG //jpeg包

10.

11.# MPI library, REQUIRED

12.# see discussion in doc/Section_start.html#2_2 (step 5)

13.# can point to dummy MPI library in src/STUBS as in Makefile.serial

14.# INC = path for mpi.h, MPI compiler settings

15.# PATH = path for MPI library

16.# LIB = name of MPI library

17.

18.MPI_INC = -I/home/xhshi/mpich/include/ -DMPICH_SKIP_MPICXX //mpich头文件

19.MPI_PATH =-L/home/xhshi/mpich/lib //mpich库

20.MPI_LIB = -lmpich -lpthread -lmpl //库名称,要一致

21.

22.# FFT library, OPTIONAL

23.# see discussion in doc/Section_start.html#2_2 (step 6)

24.# can be left blank to use provided KISS FFT library

25.# INC = -DFFT setting, e.g. -DFFT_FFTW, FFT compiler settings

26.# PATH = path for FFT library

27.# LIB = name of FFT library

28.

29.FFT_INC = -I/home/xhshi/fftw3/include -DFFT_FFTW3 //fftw3.3.2版本

30.FFT_PATH = -L/home/xhshi/fftw3/lib

31.FFT_LIB = -lfftw3

32.

33.# JPEG library, OPTIONAL

34.# see discussion in doc/Section_start.html#2_2 (step 7)

35.# only needed if -DLAMMPS_JPEG listed with LMP_INC

36.# INC = path for jpeglib.h

37.# PATH = path for JPEG library

38.# LIB = name of JPEG library

[html]view plain copy

1.JPG_INC = -I/home/xhshi/jpeg6b/include

2.JPG_PATH = -L/home/xhshi/jpeg6b/lib

3.JPG_LIB = -ljpeg

参考文献2:(非常有用的帖子)

https://www.doczj.com/doc/e35159423.html,/ooshanshui/article/details/8150233 Lammps是做分子模拟的开源软件,其模拟过程和简介可参考这里。

整个安装大致流程是,首先需要安装一些必备的支持软件,然后才是下载并解压lammps源文件得到例如lammps-21Sep12这个文件夹,以下不经特殊说明的路径均是指这个文件夹下的相对路径。Lammps中包含多个部件包(package),各个部件包具有不同的功能,因此用户可以依据自己模拟体系的需要进行选装。我喜欢大。。。也喜欢全。。。就是喜欢大而全,所以在后面会尽可能的把所有的包都装上。

部件包分为标准包和用户包,标准包由官方开发,它们包括asphere、kspace、meam等;用户包则出自一些比较牛x的用户,例如user-misc、user-colvars、usr-cuda等。你可以在src目录下执行make命令查看所有包的名称、增添包的方法、clean和

src/MAKE目录下各种预置的编译配置文件Makefile.foo的介绍。这些Makefile文件是官方根据不同主流机器硬件、编译环境预先给用户写好的,虽然绝大多数情况下直接使用还是无法成功,但

作为模板文件只需要对其中的一小部分进行相应修改就可以用了。例如Makefile.g++就适用于g++编译器环境的系统,而

Makefile.openmpi就适用于安装openmpi软件的系统,注意Makefile文件的后缀(例如前两个文件的后缀就是g++和openmpi)

被官方手册统称为foo,编译lammps时只需要使用命令make foo

即可。foo的意思是,如果你选择MAKE/Makefile.g++作为编译配置文件,那么你编译lammps的命令就是make g++;如果你选择

的是MAKE/Makefile.openmpi作为编译配置文件,那么编译lammps的命令就是make openmpi。

在选装好各包之后,还需要把包的名称与lib目录下的各文件夹名称对照一下。例如如果选装了meam包,那么可以看到lib目录中

也有这个文件夹,这就表明在编译lammps的时候编译器还需要额外的meam库文件,所以还需要先到lib/meam里面编译一下静态

库文件。这在后面会详细说明。

上述准备工作完成之后,只要在src目录下编译执行make foo命令,编译成功后就可以得到可执行的lmp_foo文件了,至此大功告成。下文采用Lammps-21Sep12(版本号8817)为源文件,在Ubuntu

12.04 LTS上安装。在安装时,有几个地方可以详细查看安装方

法和可能错误的解决方法。首先是官网安装说明,然后是源文件lammps/src/MAKE/下的Makefile.foo文件,在lammps/lib下各库包

内的README、Makefile.foo和https://www.doczj.com/doc/e35159423.html,mmps里均包含了其安

装方法和注意要点。

1. 必备软件安装

1.1 apt-get安装部分

需要用sudo apt-get install XXXX的命令安装以下几个包:build-essential, gfortran, csh或tcsh, libjpeg62, libjpeg62-dbg, libjpeg62-dev。例如可使用以下命令即可同时安装

清单1:安装必备软件

其中gfortran是fortran编译器包,而build-essential是GNU c/c++命

令行编译器包,安装后可用下面命令测试一下,反正结果不能为"g++:"

清单2:查询g++是否安装

csh或tcsh二选一即可,据某经验用户说是“通讯用的”,可能是mpich调用多核并行计算时,各核进行信息和数据共享所用的。libjpeg的三个包是用来支持lammps输出图片的。

接下来的fftw和mpich均使用原始码安装,嫌麻烦的可以参考这里使用apt-get或ubuntu里的软件中心安装,效果一样的。

1.2 FFTW

用于所谓的快速傅立叶计算,如果lammps中不打算安装KSPACE

就不用安装fftw了,相应的Makefile.foo文件中fftw library部分的

设定可以置空。下载fftw-2.1.5的源文件,到默认的地方

(~/Downloads)。

原始码安装的补习资料可参考这里。原始码的安装简单而言可依

次用./configure、make和make install三条命令完成,这样原始码

会采用默认的目录进行安装,即头文件(*.h)在/usr/include,执行

文件在/usr/bin,库文件(*.a和*.so)在/usr/lib,当然还包括bin文件、

man文件等。这样做的好处是系统在执行每条命令时会依序在$PATH中找,而上述几个目录已经被系统预添加进$PATH变量

中了。但是弊端在于,虽然根据GNU标准的要求每个源文件都应该提供make uninstall命令进行卸载,但软件作者均表示无法保证

卸载干净。

所以我采用自定义安装目录的方法将fftw安装到/usr/local/fftw2内,这样如果要卸载软件,直接删除该目录即可。为了方便运行,可

以按照后面的方法把/usr/local/fftw2/bin添加到$PATH即可。

清单3:安装fftw2

1.3 MPI

MPI是用来做并行计算用的,听起来好像只有多台服务器主机同时计算这样的规模才配称为并行,但现在的多核CPU已经非常普遍,2核、4核和8核这样的CPU已经稀松平常了,所以只要你的电脑是多核CPU就可以用到MPI,它可以让CPU里的多个核心一起计算。

当然,如果你死心眼非要只用CPU里的一个核心跑运算也可以,MPI不需要安装,但是你需要编译src/STUB,而且在编译lammps

的时候使用Makefile.serial这个文件,但这个不在本文的范围之内。MPI软件可以有两个选择:openmpi-1.6.2和mpich2-1.4.1p1,它们

的安装可在解压后查看其文件夹中的INSTALL和README这两个文件。这里以mpich2为例说明其安装,其全套命令如下

清单4:安装mpich2

此前的许多帖子里都说还需要一个~/.mpd.conf文件,可以依次使用touch ~/.mpd.conf和chmod 600 ~/.mpd.conf命令即可搞定,而且每次用lmp做并行运算前需要执行一下mpd &命令才行。但我的单机版lmp好像并不需要这个。

2. lammps的下载和安装

Eric said, RTFM and STFW。从这里开始就是错误的重灾区了,建议出了问题首先通读官方的手册中对安装部分的介绍:Getting Started。

2.1 下载

Lammps的下载可采用两种方式,一种是直接去官网下载,然后解压得到lammps-21Sep12(当前版本8817)文件夹;另一种是使用svn更新的方式,这样做的好处是可以随时更新lammps的最新发布,svn可以用Ubuntu软件中心中搜索安装,然后在~下建立一个存放下载lammps的目录,全套命令为

清单5:svn更新lammps

2.2 编译库文件

lammps中lib目录下含有atc,awpmd, colvars,cuda,gpu, linalg, meam, poems和reax文件夹(红色字体的包因为无法排错而没有安装,因此也就不用编译这几个库文件),为了尽可能安装lammps所有的包,每个都需要进去编译。我的电脑比较原始,没有显卡运算功能,所以在这里就没有编译和安装cuda和gpu,而atc和awpmd安装失败问题在下面会提到。

以linalg为例,进去后可以发现其中的Makefile只有

Makefile.gfortran和Makefile.mingw_cross这两种,文件名的后缀就是这个Makefile适用的编译器。由于此前已经安装了gfortran编译器,因此需要使用命令make -f Makefile.gfortran进行编译。

这里插一句,lib下的各包,除了awpmd只有Makefile.openmpi、cuda和gpu外,其它所有包中要么有Makefile.g++,要么有Makefile.gfortran,因此在这里使用g++和gfortran这两个编译器就足够了。下表中为各库文件家中各编译器版的Makefile,第一个即为我所用的Makefile。

各包中均包含README文件,里面指出如果编译成功了,会生

成静态库文件lib*.a和配置文件https://www.doczj.com/doc/e35159423.html,mmps,它俩为接下来

的lammps编译所用。

atc是需要BLAS(Basic Linear Algebra Subroutines)和LAPACK(Linear Algebra Routines)的,如果系统没有安装这两个东西,有两种解决办法:要么编译lib中的linalg并利用它做伪BLAS和LAPACK,然后再供atc编译时调用。但在对atc使用make -f Makefile.g++编译时提示错误:mpi.h 没有那个文件或目录。要么apt-get安装了liblapack-dev和libblas-dev之后再编译atc即可。从这里可以看到atc是需要数学库的支持的,Intel的Math Kernal Libray(简称MKL)就是针对自家CPU优化的数学库,如果是Intel 的CPU需要首选这个。

awpmd只有Makefile.openmpi可供选择,为此我还用原始码安装了openmpi-1.6.2,然后成功编译并得到libawpmd.a和https://www.doczj.com/doc/e35159423.html,mmps文件,但在随后对lammps编译时,如果选择了USER-AWPMD包,编译时会报错:/usr/bin/ld: cannot find -lawpd。reax的问题比较怪,即可以成功编译,并得到libreax.a和https://www.doczj.com/doc/e35159423.html,mmps这两个文件,但在对lammps编译时,如果选择了REAX包,编译时会报错:/usr/bin/ld: cannot find -lifcore -lsvml -lompstub -limf。这里指出可以在编译好lib/reax后修改其中的https://www.doczj.com/doc/e35159423.html,mmps文件,将其中reax_SYSLIB后的内容从-lifcore -

lsvml -lompstub -limf修改为-lgfortran,这样可以成功编译得到lmp 可执行文件,但运行它却提示“已杀死”。

不要以为上面的错误和ldconfig有关,事实上在上述的错误中,以-lifcore为例,它指明了系统中缺少libifcore.a文件,这是Intel fortran编译器ifort的静态库文件。

2.3 修改Makefile

我采用g++编译器编译lammps,那么在这里就需要修改

src/MAKE/Makefile.g++文件。其中需要确认并修改的只是compiler/linker、Lammps ifdef、MPI library、FFT library和JPEG library这五个部分,其余的都不用动。我把自己的Makefile.g++中关键的部分放在下面,根据前面安装的mpich,fftw2,libjpeg,对各个检查和改动的部分以蓝色字体标出来。

清单6:修改Makefile.g++

# g++ = Redhat Linux box, g++, MPICH2, FFTW

...

# compiler/linker settings

CC = g++

CCFLAGS = -g -O

SHFLAGS = -fPIC

DEPFLAGS = -M

LINK = g++

LINKFLAGS = -g –O

LIB =

SIZE = size

ARCHIVE = ar

ARFLAGS = -rc

SHLIBFLAGS = -shared

...

# LAMMPS ifdef settings, OPTIONAL

LMP_INC = -DLAMMPS_GZIP -DLAMMPS_JPEG

...

# MPI library, REQUIRED

MPI_INC = -DMPICH_SKIP_MPICH2-I/usr/local/mpich2/include # 即mpi.h的路径MPI_PATH = -L/usr/local/mpich2/lib # 即libmpich.a的路径

MPI_LIB = -lmpich -lmpl -lpthread

...

# FFT library, OPTIONAL

FFT_INC = -DFFT_FFTW2-I/usr/local/fftw2/include #即fftw.h的路径

FFT_PATH = -L/usr/local/fftw2/lib # 即libfftw.a的路径

FFT_LIB = -lfftw # 可以理解为,将-l换成lib,后面添加.a后缀,就是libfftw.a这个库文件...

# JPEG library, OPTIONAL

JPEG_INC = -I/usr/include # 即jpeglib.h的路径

JPEG_PATH = -L/usr/lib/i386-linux-gnu # 即libjpeg.a的路径

JPEG_LIB = -ljpeg

文件修改并保存后,使用以下全套命令安装各个package并进行

lammps的编译

清单7:安装各包并编译lammps

如上所示安装了除GPU,KIM,REAX,USER-ATC,USER-AWPMD和USER-CUDA外的所有包。如果选装KIM则在编译时

会报错:KIM_API.h 没有那个文件或目录。据称KIM几乎没用,而且目前开发人手不足,将来可能会被废弃,所以不装它也无所谓。

注意,在Makefile.g++文件中例如MPI_INC后面的设定项-DMPICH_SKIP_MPICH2,即属于-D字头的项,在对类似这种设定项修改后需要在src目录下用make clean-all命令清除所有*.o文

件才能用make g++命令编译lammps并成功得到lmp_g++。当然,如果在修改Makefile.g++的过程中需要反复测试能否使用make

g++命令成功编译lammps,没有修改过Makefile.g++中-D字头的

设定项,可以不用make clean-all,这样上次编译中得到的*.o文

件仍然存在并可以继续使用,因此可节省编译时间并加快查错进度。

Lammps的编译耗时较长,你也可以在清单7的最后一行编译命令中使用-j参数开启多核同时编译,这样可以加快编译进度。编译完成后可以在当前目录下得到名为lmp_g++的可执行文件,其大小约为35.6 MB。

另一种Makefile.g++的修改方案是,使用mpich2提供的mpic++编

译器编译lammps,这样清单6中Makefile.g++文件只需要将compiler/linker部分的CC和LINK修改为

/usr/local/mpich2/bin/mpic++,mpi library部分的三项置空就可以

了(mpic++是c++的wrapper,使用它做编译时它自己可以找到MPI 的头文件和库文件,因此无需用户设置)。编译成功后得到的lmp

文件大小约为17.4 MB。

3. 并行计算测试

可以将lmp_g++拷贝到/usr/bin目录下,由于shell的环境变量$PATH中已经包含了这个路径,因此每次运行lmp_g++命令时可

以不用绝对路径。

接下来创建一个专门用于保存计算结果的目录~/md,再将

~/lammps/examples/colloid/in.colloid这个文件也拷贝到~/md目录

下就可以测试并行计算了。全套命令如下

清单8:测试lmp并行计算

我的电脑是Intel Core(TM)2 Duo CPU双核心CPU,所以在最后一

行命令中使用"-n 2"这个参数指定两个核心同时计算,即所谓的

并行运算了。运算时可以使用top命令查看一下其cpu占用率情况。

另外,如果嫌每次需要打出mpirun绝对路径太麻烦,可以在

~/.bashrc的末尾添加以下部分,将其路径添加到$PATH环境变量中。

清单9:添加mpich2的路径

保存退出后,关闭终端,然后用Ctrl-Alt-t热键重新打开一个新的终端使.bashrc的设置生效,可以用echo $PATH命令检查一下,/usr/local/mpich2/bin这个路径应该会包含其中。

4. 性能问题及其它

考虑到lmp的计算效率,如果电脑的CPU是Intel的,由于Intel的编译器已经针对自家硬件做了性能优化,因此fortran编译器、c++编译器和数学库的首选分别是Intel的ifort、icc和mkl,你可以参考src/MAKE/Makefile.mkl这个文件。以上这三个部件可在Intel网站上下载。

为此测试了Intel Fortran & C++ Composer XE 2013 for Linux,安装后查看其所在目录为

清单10:icc和ifort

然后在lib目录下分别用ifort和icc对meam和poems进行编译,而reax则用gfortran编译后再将其目录中的https://www.doczj.com/doc/e35159423.html,mmps.gfortran 原地复制为https://www.doczj.com/doc/e35159423.html,mmps。

Lammps的各部件包中只剔除了gpu、kim、user-atc、user-awpmd和user-cuda,接着选择src/MAKE/Makefile.linux文件并对其中相应项进行修改,修改好的该配置文件在文尾已附,编译成功后得到lmp_linux可执行文件,可正常运行。请注意,以icc 为编译器竟然可以安装上reax包并编译得到可以正常运行的lmp 文件,但原因不明。

5. 遗留问题

除了上面2.2内的种种遗憾外,还有两个未解决的问题,如果有

哪位牛人搞定了请分享我。

5.1 fftw-3.3.2

这里我反复测试过,安装fftw-3.3.2版后在编译lammps时会提示fftw.h没有哪个文件或目录,网上的一个文章说在fftw3下无法编译lammps,而另两个(1,2)声称可以。我测试的时候选择g++和mpich2-1.4.1p1组合进行编译,Makefile.g++文件中fftw library部分的设定修改为

清单11:使用fftw-3.3.2的Makefile.g++

编译时出错,其中的部分提示错误信息为

清单12:错误信息

我查看了fftw3安装目录lib文件下的库文件只有libfftw3f.a和https://www.doczj.com/doc/e35159423.html,,因此我又将Makefile.g++中的FFT_LIB分别改为-lfftw3f和/usr/local/fftw3/lib/libfftw3f.a并make clean-all,测试仍失败。对比上面出错的信息可以看到,Obj_g++里的错误文件为

fft3d.cpp(该文件中头部有一行是#include ),而我安装的fftw-3.3.2提供的头文件为fftw3.h、库文件为libfftw3f.a,所以我猜测很可能lammps源文件的发布没有跟上fftw3的更新。

按照这里的说法我又测试了fftw-3.3.1,但结果仍然和fftw-3.3.2相同。fftw3的其它更低版本没时间测试了。

5.2 openmpi-1.

6.2

有帖子提到说,在lammps需要跨机并行计算的情况下,使用openmpi比mpich要好。我也测试了g++和fftw-2.1.5组合,Makefile.openmpi文件中的设定检查和修改为

清单13:使用openmpi-1.6.2的Makefile.openmpi

# compiler/linker

CC = mpic++

CCFLAGS = -O2 -funroll-loops –fstrict-aliasing –Wall –W –Wno-uninitialized SHFLAGS = -fPIC

LINK = mpic++

LINKFLAGS = -O

LIB = -lstdc++

SIZE = size

ARCHIVE = ar

ARFLAGS = -rcsv

SHLIBFLAGS = -shared

...

# LAMMPS-specific

LMP_INC = -DLAMMPS_GZIP –DLAMMPS_JPEG

...

# MPI library

MPI_INC =

MPI_PATH =

MPI_LIB =

...

# 其后和Makefile.g++一样

上面MPI部分置空,使用以下全套命令安装各个package并进行安装和编译。

清单14:使用Makefile.openmpi编译安装

编译成功并得到lmp_openmpi可执行文件,约为17.4 MB,但是在运行时却出错如下。

清单15:lmp_openmpi的运行出错信息

由于系统中同时安装了mpich2和openmpi,两者的bin目录中都提供mpic++,因此我又把清单12中CC和LINK部分都设定为绝对路径/usr/local/openmpi/bin/mpic++,结果和清单15相同。

6. 相关文件

这里提供j个文件

LAMMPS手册中译版学习.doc

Makefile.g++ :编辑好的lammps编译配置文件

Makefile.linux:以icc为编译器的编译配置文件,使用fftw-2.1.5和mpich2-1.4.1p1组合,详见上文4. 性能问题及其它

lammps21Sep12.tar.gz :本文安装的lammps原始码包

################################################## ###########################################

不同的并行编译器可以参考

################################################## #########################################

https://www.doczj.com/doc/e35159423.html,/blog/static/2228165201184642221

OpenMP API 用户指南

OpenMP API 用户指南 Sun? Studio 11 Sun Microsystems, Inc. https://www.doczj.com/doc/e35159423.html, 文件号码 819-4818-10 2005 年 11 月,修订版 A 请将关于本文档的意见和建议提交至:https://www.doczj.com/doc/e35159423.html,/hwdocs/feedback

版权所有 ? 2005 Sun Microsystems, Inc., 4150 Network Circle, Santa Clara, California 95054, U.S.A. 保留所有权利。 美国政府权利-商业用途。政府用户应遵循 Sun Microsystems, Inc. 的标准许可协议,以及 FAR(Federal Acquisition Regulations,即“联邦政府采购法规”)的适用条款及其补充条款。必须依据许可证条款使用。 本发行版可能包含由第三方开发的内容。 本产品的某些部分可能是从 Berkeley BSD 系统衍生出来的,并获得了加利福尼亚大学的许可。UNIX 是 X/Open Company, Ltd. 在美国和其他国家/地区独家许可的注册商标。 Sun、Sun Microsystems、Sun 徽标、Java 和 JavaHelp 是 Sun Microsystems, Inc. 在美国和其他国家/地区的商标或注册商标。所有的 SPARC 商标的使用均已获得许可,它们是 SPARC International, Inc. 在美国和其他国家/地区的商标或注册商标。标有 SPARC 商标的产品均基于由 Sun Microsystems, Inc. 开发的体系结构。 本服务手册所介绍的产品以及所包含的信息受美国出口控制法制约,并应遵守其他国家/地区的进出口法律。严禁将本产品直接或间接地用于核设施、导弹、生化武器或海上核设施,也不能直接或间接地出口给核设施、导弹、生化武器或海上核设施的最终用户。严禁出口或转口到美国禁运的国家/地区以及美国禁止出口清单中所包含的实体,包括但不限于被禁止的个人以及特别指定的国家/地区的公民。 本文档按“原样”提供,对于所有明示或默示的条件、陈述和担保,包括对适销性、适用性或非侵权性的默示保证,均不承担任何责任,除非此免责声明的适用范围在法律上无效。

openmp并行程序设计

OpenMP并行程序设计(一) OpenMP是一个支持共享存储并行设计的库,特别适宜多核CPU上的并行程序设计。今天在双核CPU机器上试了一下OpenMP并行程序设计,发现效率方面超出想象,因此写出来分享给大家。 在VC8.0中项目的属性对话框中,左边框里的“配置属性”下的“C/C++”下的“语言”页里,将OpenMP支持改为“是/(OpenMP)”就可以支持OpenMP了。 先看一个简单的使用了OpenMP程序 int main(int argc, char* argv[]) { #pragma omp parallel for for (int i = 0; i < 10; i++ ) { printf("i = %d\n", i); } return 0; } 这个程序执行后打印出以下结果: i = 0 i = 5 i = 1 i = 6 i = 2 i = 7 i = 3 i = 8 i = 4 i = 9 可见for 循环语句中的内容被并行执行了。(每次运行的打印结果可能会有区别) 这里要说明一下,#pragma omp parallel for 这条语句是用来指定后面的for循环语句变成并行执行的,当然for循环里的内容必须满足可以并行执行,即每次循环互不相干,后一次循环不依赖于前面的循环。 有关#pragma omp parallel for 这条语句的具体含义及相关OpenMP指令和函数的介绍暂时先放一放,只要知道这条语句会将后面的for循环里的内容变成并行执行就行了。 将for循环里的语句变成并行执行后效率会不会提高呢,我想这是我们最关心的内容了。

openMP实验总结报告

openMP实验报告 目录 openMP实验报告.............................................. 错误!未定义书签。 OpenMP简介.............................................. 错误!未定义书签。 实验一................................................... 错误!未定义书签。 实验二................................................... 错误!未定义书签。 实验三................................................... 错误!未定义书签。 实验四................................................... 错误!未定义书签。 实验五................................................... 错误!未定义书签。 实验六................................................... 错误!未定义书签。 实验七................................................... 错误!未定义书签。 实验八................................................... 错误!未定义书签。 实验总结................................................. 错误!未定义书签。 在学习了MPI之后,我们又继续学习了有关openMP的并行运算,通过老师的细致讲解,我们对openMP有了一个初步的了解: OpenMP简介 OpenMP是一种用于共享内存并行系统的多线程程序设计的库(Compiler Directive),特别适合于多核CPU上的并行程序开发设计。它支持的语言包括:C 语言、C++、Fortran;不过,用以上这些语言进行程序开发时,并非需要特别关注的地方,因为现如今的大多数编译器已经支持了OpenMP,例如:Sun Compiler,GNU Compiler、Intel Compiler、Visual Studio等等。程序员在编程时,只需要在特定的源代码片段的前面加入OpenMP专用的#pargma omp预编译指令,就可以“通知”编译器将该段程序自动进行并行化处理,并且在必要的时候加入线程同步及通信机制。当编译器选择忽略#pargma omp预处理指令时,或者编译器不支持OpenMP时,程序又退化为一般的通用串行程序,此时,代码

openMP学习笔记分析

1、OpenMP指令和库函数介绍 下面来介绍OpenMP的基本指令和常用指令的用法, 在C/C++中,OpenMP指令使用的格式为 #pragma omp 指令 [子句[子句]…] 前面提到的parallel for就是一条指令,有些书中也将OpenMP的“指令”叫做“编译指导语句”,后面的子句是可选的。例如: #pragma omp parallel private(i, j) parallel 就是指令,private是子句 为叙述方便把包含#pragma和OpenMP指令的一行叫做语句,如上面那行叫parallel语句。 OpenMP的指令有以下一些: parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行 for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性。 parallel for,parallel 和for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行。 sections,用在可能会被并行执行的代码段之前 parallel sections,parallel和sections两个语句的结合 critical,用在一段代码临界区之前 single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行。 flush, barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行。 atomic,用于指定一块内存区域被制动更新 master,用于指定一段代码块由主线程执行 ordered,用于指定并行区域的循环按顺序执行 threadprivate, 用于指定一个变量是线程私有的。 OpenMP除上述指令外,还有一些库函数,下面列出几个常用的库函数:omp_get_num_procs, 返回运行本线程的多处理机的处理器个数。 omp_get_num_threads, 返回当前并行区域中的活动线程个数。 omp_get_thread_num, 返回线程号 omp_set_num_threads, 设置并行执行代码时的线程个数 omp_init_lock, 初始化一个简单锁 omp_set_lock,上锁操作 omp_unset_lock,解锁操作,要和omp_set_lock函数配对使用。 omp_destroy_lock,omp_init_lock函数的配对操作函数,关闭一个锁 OpenMP的子句有以下一些 private, 指定每个线程都有它自己的变量私有副本。 firstprivate,指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值。lastprivate,主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量。 reduce,用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算。

并行计算环境介绍

并行计算环境介绍 计算机系04 级研究生 武志鹏 1 MPI简介 目前两种最重要的并行编程模型是数据并行和消息传递。 数据并 行编程模型的编程级别比较高,编程相对简单,但它仅适用于数据并 行问题;消息传递编程模型的编程级别相对较低,但消息传递编程模 型可以有更广泛的应用范围。 MPI就是一种消息传递编程模型,并成为这种编程模型的代表和 事实上的标准。 1.1什么是 MPI 对MPI的定义是多种多样的,但不外乎下面三个方面: (1) MPI是一个库,而不是一门语言; (2) MPI是一种标准或规范的代表,而不特指某一个对它的实现; (3) MPI是一种消息传递编程模型,MPI虽然很庞大,但是它的最 终目的是服务于进程间通信这一目标的。 1.2 MPI的历史 MPI的标准化开始于1992年4月在威吉尼亚的威廉姆斯堡召开的分 布存储环境中消息传递标准的讨论会,由Dongarra,Hempel,Hey和 Walker建议的初始草案,于1992年11月推出并在1993年2月完成了修

订版,这就是MPI 1.0。 1995年6月推出了MPI的新版本MPI1.1,对原来的MPI作了进一步 的修改完善和扩充。 在1997年7月在对原来的MPI作了重大扩充的基础上又推出了MPI 的扩充部分MPI-2,而把原来的MPI各种版本称为MPI-1。 MPI-2的扩 充很多但主要是三个方面:并行I/O、远程存储访问和动态进程管理。 1.3 MPI的语言绑定 在MPI-1中明确提出了MPI和FORTRAN 77与C语言的绑定,并且 给出了通用接口和针对FORTRAN 77与C的专用接口说明。在MPI-2 中除了和原来的FORTRAN 77和C语言实现绑定之外,进一步与 Fortran90和C++结合起来。 1.4 MPI的实现版本 MPICH是一种最重要的MPI实现, 它是与MPI-1规范同步发展的版 本,每当MPI推出新的版本,就会有相应的MPICH的实现版本,另外 它还支持部分MPI-2的特征。 LAM-MPI也是一种MPI实现, 主要用于异构的计算机网络计算系统。 以上2种版本的MPI实现可以分别从以下网址下载: MPICH(最新版本1.2.7): https://www.doczj.com/doc/e35159423.html,/mpi/mpich/ LAM-MPI(最新版本7.1.2):

OpenMP例程使用手册

OpenMP例程使用手册 目录 1 OpenMP简介 (2) 2 OpenMP例程编译 (2) 2.1安装gawk (2) 2.2编译例程 (2) 2.3拷贝例程到开发板 (3) 3例程测试 (5) 3.1 dspheap (5) 3.2 vecadd (6) 3.3 vecadd_complex (6) 3.4 其他例程测试说明 (7) 更多帮助.................................................................................................... 错误!未定义书签。 公司官网:https://www.doczj.com/doc/e35159423.html, 销售邮箱:sales@https://www.doczj.com/doc/e35159423.html, 公司总机:020-8998-6280 1/7技术论坛:https://www.doczj.com/doc/e35159423.html, 技术邮箱:support@https://www.doczj.com/doc/e35159423.html, 技术热线:020-3893-9734

1 OpenMP简介 OpenMP用于共享内存并行系统的多处理器程序设计的一套指导性的编译处理方案(Compiler Directive)。它是为在多处理机上编写并行程序而设计的一个应用编程接口。它包括一套编译指导语句和一个用来支持它的函数库。 OpenMP提供的这种对于并行描述的高层抽象降低了并行编程的难度和复杂度,这样程序员可以把更多的精力投入到并行算法本身,而非其具体实现细节。对基于数据分集的多线程程序设计,OpenMP是一个很好的选择。同时,使用OpenMP也提供了更强的灵活性,可以较容易的适应不同的并行系统配置。线程粒度和负载平衡等是传统多线程程序设计中的难题,但在OpenMP中,OpenMP库从程序员手中接管了部分这两方面的工作。 但是,作为高层抽象,OpenMP并不适合需要复杂的线程间同步和互斥的场合。OpenMP的另一个缺点是不能在非共享内存系统(如计算机集群)上使用。在这样的系统上,MPI使用较多。 2 OpenMP例程编译 2.1安装gawk 此工具为编译的必要工具,在Ubuntu下安装: Host#sudoapt-get install gawk 图1 2.2编译例程 请先安装ti-processor-sdk-linux-am57xx-evm-03.01.00.06,安装步骤请参照《相关软件

OpenMP的用法

在双重循环中怎样写OpenMP? 那要分析你的外循环跟内循环有没有彼此依赖的关系 unsigned int nCore = GetComputeCore(); unsigned int nStep = IMAGETILEYSIZE / nCore; #pragma omp parallel for private(Level0_x, Level0_y, ChangeLevel0_x, ChangeLevel0_y, InterX1, InterX2, InterY1, InterY2) for (int k = 0; k < nCore; k++) { int begin = k * nStep; int end = (k + 1) * nStep; for (int YOff = begin; YOff < end; YOff++) { for (int XOff = 0; XOff < IMAGETILEXSIZE; XOff++) { Level0_x = pPixelXBuf[YOff][XOff]; Level0_y = pPixelYBuf[YOff][XOff]; ChangeLevel0_x = Level0_x - XMin; ChangeLevel0_y = Level0_y - YMin; //寻找坐标在Level1Buf中对应的4个像素值 InterX1 = (int)(ChangeLevel0_x); InterX2 = (int)(ChangeLevel0_x + 1); InterY1 = (int)(ChangeLevel0_y); InterY2 = (int)(ChangeLevel0_y + 1); //双线性插值对Level0_Buf赋值 ZoomInterpolation(Level0Buf, Level1Buf, ChangeLevel0_x, ChangeLevel0_y, SamplesPerPixel, nXSize, nYSize, InterX1, InterX2, InterY1, InterY2, XOff, YOff); } } } 我也想应该这样,可是如果nCore=1的时候,外循环只循环一次,线程是怎么分配的呢。其实最外层的循环如果很多,就在外循环分配线程是不是就可以不考虑里面的循环了? nCore = 1,就是单核单cpu,多核循环就跟普通的循环没有差别, openmp默认有几个内核就开几个线程同时运行。所以单核openmp也没有什么意义,此时你也可以开两个线程“同时”运行,但在单核机器上,两个线程是不可能同时运行的 可以不考虑里面的循环。你只要保证外循环跟外循环之间,内寻环跟内循环之间没有数据依赖关系就行。 假设 for (int i = 0; i < 200000000; i++)

OpenMP API 用户指南

Sun Studio12Update 1:OpenMP API用户指南 Sun Microsystems,Inc. 4150Network Circle Santa Clara,CA95054 U.S.A. 文件号码821–0393 2009年9月

版权所有2009Sun Microsystems,Inc.4150Network Circle,Santa Clara,CA95054U.S.A.保留所有权利。 对于本文档中介绍的产品,Sun Microsystems,Inc.对其所涉及的技术拥有相关的知识产权。需特别指出的是(但不局限于此),这些知识产权可能包含一项或多项美国专利,以及在美国和其他国家/地区申请的待批专利。 美国政府权利-商业软件。政府用户应遵循Sun Microsystems,Inc.的标准许可协议,以及FAR(Federal Acquisition Regulations,即“联邦政府采购法规”)的适用条款及其补充条款。 本发行版可能包含由第三方开发的内容。 本产品的某些部分可能是从Berkeley BSD系统衍生出来的,并获得了加利福尼亚大学的许可。UNIX是X/Open Company,Ltd.在美国和其他国家/地区独家许可的注册商标。 Sun、Sun Microsystems、Sun徽标、Solaris徽标、Java咖啡杯徽标、https://www.doczj.com/doc/e35159423.html,、Java和Solaris是Sun Microsystems,Inc.在美国和其他国家/地区的商标或注册商标。所有SPARC商标的使用均已获得许可,它们是SPARC International,Inc.在美国和其他国家/地区的商标或注册商标。标有SPARC商标的产品均基于由Sun Microsystems,Inc.开发的体系结构。 OPEN LOOK和Sun TM图形用户界面是Sun Microsystems,Inc.为其用户和许可证持有者开发的。Sun感谢Xerox在研究和开发可视或图形用户界面的概念方面为计算机行业所做的开拓性贡献。Sun已从Xerox获得了对Xerox图形用户界面的非独占性许可证,该许可证还适用于实现OPEN LOOK GUI 和在其他方面遵守Sun书面许可协议的Sun许可证持有者。 本出版物所介绍的产品以及所包含的信息受美国出口控制法制约,并应遵守其他国家/地区的进出口法律。严禁将本产品直接或间接地用于核设 施、导弹、生化武器或海上核设施,也不能直接或间接地出口给核设施、导弹、生化武器或海上核设施的最终用户。严禁出口或转口到美国禁运的国家/地区以及美国禁止出口清单中所包含的实体,包括但不限于被禁止的个人以及特别指定的国家/地区的公民。 本文档按“原样”提供,对于所有明示或默示的条件、陈述和担保,包括对适销性、适用性或非侵权性的默示保证,均不承担任何责任,除非此免责声明的适用范围在法律上无效。 090904@22749

基于openMP的并行计算实验

基于o p e n M P的并行计 算实验 文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]

并行计算实验报告 课程:并行计算 姓名:郑波 学号44 班级:计算机科学与技术13-2班 日期:2015年12月7日 实验一:OpenMP基本使用 一、实验目的 1、熟悉OpenMP编程。 2、比较串行算法与并行算法在执行时间上的差别; 3、考察线程数目使用不同对并行算法执行时间的影响; 4、考察运算规模N对串、并行算法执行时间上的影响。 二、实验内容 1、使用OpenMP进行两个矩阵A和B的加法,并分析串行、并行时间的差别以及问题规模对程序运行时间的影响 三、实验步骤 1、整个程序的设计流程 ①全局变量设置三个宏定义过的size×size的二维数组啊a,b,c。

②初始化a数组为全1,b数组为全2 ③通过omp_set_num_threads()库函数设置线程数 ④调用openMP库函数omp_get_wtime()获取当前时间start #pragma omp parallel for开始做并行区部分 … 结束后再次调用omp_get_wtime()获取时间end,end-start即为并行消耗时间 ⑤再次调用时间函数更新strat 串行做一边矩阵相加 更新end,end-start即为串行耗时 代码如下: #include #include<> #define size 10000 using namespace std; int a[size][size], b[size][size], c[size][size]; int main() { for(int i=0;i!=size;++i) //initial the matrix for(int j=0;j!=size;++j){ a[i][j]=1; b[i][j]=2; } double start=omp_get_wtime(); omp_set_num_threads(4); #pragma omp parallel for for(int i=0;i

openmp简介(DOC)

OpenMP编程基础 1、可以说OpenMP制导指令将C语言扩展为一个并行语言,但OpenMP本身不是一种独立的并行语 言,而是为多处理器上编写并行程序而设计的、指导共享内存、多线程并行的编译制导指令和应用程序编程接口(API),可在C/C++和Fortran(77、90和95)中应用,并在串行代码中以编译器可识别的注释形式出现。OpenMP标准是由一些具有国际影响力的软件和硬件厂商共同定义和提出,是一种在共享存储体系结构的可移植编程模型,广泛应用与Unix、Linux、Windows等多种平台上。 2.1 OpenMP基本概念 首先来了解OpenMP的执行模式和三大要素。 2.1.1 执行模式 OpenMP的执行模型采用fork-join的形式,其中fork创建新线程或者唤醒已有线程;join即多线程的会合。fork-join执行模型在刚开始执行的时候,只有一个称为“主线程”的运行线程存在。主线程在运行过程中,当遇到需要进行并行计算的时候,派生出线程来执行并行任务。在并行执行的时候,主线程和派生线程共同工作。在并行代码执行结束后,派生线程退出或者阻塞,不再工作,控制流程回到单独的主线程中。 OpenMP的编程者需要在可并行工作的代码部分用制导指令向编译器指出其并行属性,而且这些并行区域可以出现嵌套的情况,如图2.1所示。 对并行域(Paralle region)作如下定义:在成对的fork和join之间的区域,称为并行域,它既表示代码也表示执行时间区间。 对OpenMP线程作如下定义:在OpenMP程序中用于完成计算任务的一个执行流的执行实体,可

以是操作系统的线程也可以是操作系统上的进程。 2.1.2 OpenMP编程要素 OpenMP编程模型以线程为基础,通过编译制导指令来显式地指导并行化,OpenMP为编程人员提供了三种编程要素来实现对并行化的完善控制。它们是编译制导、API函数集和环境变量。 编译制导 在C/C++程序中,OpenMP的所有编译制导指令是以#pragma omp开始,后面跟具体的功能指令(或命令),其具有如下形式: #pragma omp 指令[子句[, 子句] …] 支持OpenMP的编译器能识别、处理这些制导指令并实现其功能。其中指令或命令是可以单独出现的,而子句则必须出现在制导指令之后。制导指令和子句按照功能可以大体上分成四类: 1)并行域控制类; 2)任务分担类; 3)同步控制类; 并行域控制类指令用于指示编译器产生多个线程以并发执行任务,任务分担类指令指示编译器如何给各个并发线程分发任务,同步控制类指令指示编译器协调并发线程之间的时间约束关系等。 1)OpenMP规范中的指令有以下这些: ? parallel:用在一个结构块之前,表示这段代码将被多个线程并行执行; ? for:用于for循环语句之前,表示将循环计算任务分配到多个线程中并行执行,以实现任务分担,必须由编程人员自己保证每次循环之间无数据相关性; ? parallel for:parallel 和for指令的结合,也是用在for循环语句之前,表示for循环体的代码将被多个线程并行执行,它同时具有并行域的产生和任务分担两个功能; ? sections:用在可被并行执行的代码段之前,用于实现多个结构块语句的任务分担,可并行执行的代码段各自用section指令标出(注意区分sections和section); ? parallel sections:parallel和sections两个语句的结合,类似于parallel for; ? single:用在并行域内,表示一段只被单个线程执行的代码; ? critical:用在一段代码临界区之前,保证每次只有一个OpenMP线程进入; ? flush:保证各个OpenMP线程的数据影像的一致性; ? barrier:用于并行域内代码的线程同步,线程执行到barrier时要停下等待,直到所有线程都执行到barrier时才继续往下执行;

OpenMP程序的编译和运行

SHANGHAI UNIVERSITY 学院计算机工程与科学学院实验OpenMP程序的编译和运行姓名陈帅 学号12122208 教师刘芳芳 时间2015.05.06 报告成绩

实验2-1. OpenMP程序的编译和运行 1.实验目的 1) 在Linux平台上编译和运行OpenMP程序; 2) 在Windows平台上编译和运行OpenMP程序。 3) 掌握OpenMP并行编程基础。 2.实验环境 1) 硬件环境:计算机一台; 2) 软件环境:Linux、Win2003、GCC、MPICH、VS2008或其他版本Visual Studio; 3.实验内容 1. Linux下OpenMP程序的编译和运行。OpenMP是一个共享存储并行系统上的应用编程接口,支持C/C++和FORTRAN等语言,编译和运行简单的"Hello World"程序。在Linux下编辑hellomp.c源程序,或在Windows下编辑并通过附件中的FTP工具(端口号:1021)上传,用"gcc -fopenmp -O2 -o hellomp.out hellomp.c"命令编译,用"./hellomp.out"命令运行程序。注:在虚拟机中当使用vi编辑文件时,不是以ESC键退出插入模式,可以使用“Ctrl+c”进入命令模式,然后输入wq进行存盘退出。 代码如下: #include #include int main() { int nthreads,tid; omp_set_num_threads(8); #pragma omp parallel private(nthreads,tid) { tid=omp_get_thread_num(); printf("Hello World from OMP thread %d\n",tid); if(tid==0) { nthreads=omp_get_num_threads(); printf("Number of threads is %d\n",nthreads); } } }

OpenMP发展与优势

OpenMP发展与优势 OpenMP的规范由SGI发起,它是一种面向共享内存以及分布式共享内存的多处理器多线程并行编程语言。OpenMP是一种共享内存并行的应用程序编程接口。所有的处理器都被连接到一个共享的内存单元上,处理器在访问内存的时候使用的是相同的内存编址空间。由于内存是共享的,因此,某一处理器写入内存的数据会立刻被其它处理器访问到。 OpenMP具有良好的可移植性,支持Fortran和C/C++编程语言,操作系统平台方面则支持UNIX系统以及Windows 系统。OpenMP的重要性在于,它能够为编写多线程程序提供一种简单的方法,而无需程序员进行复杂的线程创建、同步、负载平衡和销毁工作[1]。 2.2 OpenMP多线程编程基础 OpenMP的编程模型以线程为基础,通过编译指导语句来显式地指导并行化,为编程人员提供了对并行化的完整的控制。在并行执行的时候,主线程和派生线程共同工作。在并行代码结束执行后,派生线程退出或者挂起,不再工作,控制流回到单独的主线程中。OpenMP的功能由两种形式提供:编译指导语句和运行时库函数,下面分别介绍。 2.2.1编译指导语句 编译指导语句的含义是在编译器编译程序的时候,会识别特定的注释,而这些特定的注释就包含着OpenMP程序的一些语意。例如在C/C++程序中,用 #pragma opm parallel来标示一段并行程序块。在一个无法识别OpenMP语意的编译器中,会将这些特定的注释当作普通的程序注释而被忽略。因此,仅使用编译指导语句编写的OpenMP程序就能够同时被普通编译器和支持OpenMP的编译器处理。这种性质带来的好处就是用户可以用同一份代码来编写串行和并行程序,或者在把串行程序改编成并行程序的时候,保持串行源代码部分不变,从而极大地方便了程序编写人员。 编译指导语句的形式为: #pragam omp [clause[[,] clause]. . .] 其中directive部分就包含了具体的编译指导语句,包括parallel, for, parallel for, section, sections, single, master, critical, flush, ordered和atomic。这些编译指导语句或者用来分配任务,或者用来同步。后面可选的子句clause给出了相应的编译指导语句的参数,子句可以影响到编译指导语句的具体行为,每一个编译指导语句都有一系列适合它的子句。 2.2.2运行时库函数 另外一种提供OpenMP功能的形式就是OpenMP的运行时库函数,它用于设置和获取执行环境的相关信息,它们当中也包含一系列用以同步的API。要使

基于多核DSP的OpenMp研究与实现

Journal of Image and Signal Processing 图像与信号处理, 2016, 5(4), 147-154 Published Online October 2016 in Hans. https://www.doczj.com/doc/e35159423.html,/journal/jisp https://www.doczj.com/doc/e35159423.html,/10.12677/jisp.2016.54017 文章引用: 张琪, 王正勇, 余艳梅. 基于多核DSP 的OpenMp 研究与实现[J]. 图像与信号处理, 2016, 5(4): 147-154. Research and Realization of OpenMp Based on Muiticore DSP Qi Zhang, Zhengyong Wang, Yanmei Yu Image Information Institute, College of Electronics and Information Engineering, Sichuan University, Chengdu Sichuan Received: Sep. 18th , 2016; accepted: Oct. 4th , 2016; published: Oct. 7th , 2016 Copyright ? 2016 by authors and Hans Publishers Inc. This work is licensed under the Creative Commons Attribution International License (CC BY). https://www.doczj.com/doc/e35159423.html,/licenses/by/4.0/ Abstract Aiming at the complexity of multicore model in practical application, the three major models of data flow, master-slave and OpenMp are analyzed in this paper. Because the OpenMp model is easier to be implemented, it is taken as the major research object. Firstly, the implementation principle of OpenMp model is studied; the time consumed by the thread creation and task parti-tioning in the nested loop of the OpenMp model is analyzed in this paper. Then, the relationship between the core number and the number of threads in the OpenMp model is also studied. Finally, taking TMS320C6678 multi-core DSP of TI Company as the core processor, a simple image processing algorithm is used to verify the conclusions drawn from the above research. The results of test have proved OpenMp model when the number of threads is equal to the core number shortest execution time. Keywords TMS320C6678, OpenMp, Linear Assembly, Threads Scheduling 基于多核DSP 的OpenMp 研究与实现 张 琪,王正勇,余艳梅 四川大学电子信息学院图像信息研究所,四川 成都 收稿日期:2016年9月18日;录用日期:2016年10月4日;发布日期:2016年10月7日 Open Access

OpenMP并行程序的编译器优化

OpenMP 并行程序的编译器优化 张 平,李清宝,赵荣彩 (解放军信息工程大学信息工程学院,郑州 450002) 摘 要:OpemMP 标准以其良好的可移植性和易用性被广泛应用于并行程序设计。该文讨论了OpenMP 并行程序的编译器优化算法,在编译过程中通过并行区合并和扩展,实现并行区重构,并在并行区中实现了基于跨处理器相关图的barrier 同步优化。分析验证表明,这些优化策略减少了并行区和barrier 同步的数目,有效地提高了OpenMP 程序的并行性能。 关键词:跨处理器相关;barrier 同步;并行区重构;数据相关图 Compiler Optimization Algorithm for OpenMP Parallel Program ZHANG Ping, LI Qingbao, ZHAO Rongcai (School of Information and Engineering, PLA Information and Engineering University, Zhengzhou 450002) 【Abstract 】OpenMP is widely used in parallel programming for its portability and simplicity. This paper introduces the compiler optimization algorithms for OpenMP parallel program. In compiling, parallel regions are reconstructed through extension and combination. And a barrier synchronization optimization algorithm based on cross-processor dependence graph is developed to eliminate redundant barriers in each parallel region. Analysis show that these strategies reduce the number of parallel region and barrier synchronization, and can improve the parallel performance of OpenMP program. 【Key words 】Cross-processor dependence; Barrier synchronization; Parallel region reconstruction; Data dependence graph 计 算 机 工 程Computer Engineering 第32卷 第24期 Vol.32 No.24 2006年12月 December 2006 ·软件技术与数据库· 文章编号:1000—3428(2006)24—0037—04 文献标识码:A 中图分类号:TP311 OpenMP 是共享内存并行程序设计的工业标准,其目标 是为具有统一地址空间的并行系统提供可移植、可扩展的开发接口,它通过编译指示和运行时库函数扩展C 、C++和Fortran 语言支持并行。 OpenMP 为程序员提供了一种简单的并行程序设计方法,可以在串行程序的基础上方便地开发出并行程序。但应用程序员往往缺乏对程序并行性的分析(如数据相关性分析和通信分析等),许多OpenMP 程序的性能也并不理想,并行效率较低;另一方面,如果要求程序员在编写并行程序时进行深入的程序分析就会增加程序设计的难度,违背OpenMP 的易用性原则,也是不现实的。因此,我们考虑在编译过程中实现OpenMP 程序的优化。 本文讨论了循环级并行的OpenMP 并行程序的编译器优化策略:通过并行区的扩展和合并重构并行区,减少并行区的数目;在重构后的并行区中,依据计算的分配调度进行跨处理器相关性分析,建立跨处理器相关图,消除冗余barrier 同步。 1 OpenMP 并行程序 OpenMP 利用编译指示、运行时库函数和环境变量描述程序的并行特性。 1.1 OpenMP 编译指示 OpenMP 的编译指示分为并行结构、工作共享结构、同步编译、数据环境指示等几类。常用的编译指示包括:(1)#pragma omp parallel 说明并行结构,其中的代码被多个工作线程执行;(2)#pragma omp for 说明工作共享结构,指示循环被分配给多个工作线程并行执行;(3)#pragma omp barrier 为同步指示,标记线程在此等待,直到所有线程都执行到这个点,再继续向下执行。 在omp parallel, omp for 的结束都隐含着一个barrier 同步点,为减少不必要的同步,OpenMP 提供了no wait 子句,指 示可以不进行barrier 同步。 1.2 OpenMP 的执行模式 OpenMP 程序遵循fork-and-join 执行模式(如图1)。程序从主线程开始执行,当遇到并行结构,主线程启动(创建或唤醒)一组工作线程并行执行其中的语句。当遇到工作共享结构,工作负荷由线程组中的各个线程分担;并行区结束,线程组中的线程同步,工作线程终止(消亡或睡眠 ),主线程继续执行。 在程序执行过程中,可多次执行fork-and-join 过程,需要在串行执行和并行执行间进行多次切换。实验表明[1],OpenMP 执行过程中,串行执行和并行执行切换带来的额外执行开销是影响OpenMP 程序性能的一个重要因素。 图1 OpenMP 程序的执行模式 基金项目:国防科研基金资助重点项目 作者简介:张 平(1969-),女,博士生,主研方向:并行识别,并行编译;李清宝,副教授;赵荣彩,教授、博导 收稿日期:2006-02-24 E-mail :lqb215@https://www.doczj.com/doc/e35159423.html,

Intel高级 OpenMP

高级OpenMP*编程 简介 作为白皮书三部曲中的最后一篇,本文将为您介绍经验丰富的C/C++程序员如何开始使用OpenMP*,以及如何在应用中简化线程的创建、同步以及删除工作。我们的一系列白皮书将为您全面揭秘OpenMP,其中第一篇向您简要介绍了OpenMP 最常见的特性:循环工作共享。第二篇告诉您如何充分利用非循环并行能力及如何使用同步指令。最后一篇则讨论了库函数、环境变量、如何在发生错误时调试应用,以及最大限度地发挥性能的一些技巧。运行时库函数 您可能还记得,OpenMP 由一套编译指令、函数调用和环境变量组成。前两篇文章只讨论了编译指令, 本文将重点探讨函数调用和环境变量。这样安排的理由很简单:编译指令是OpenMP 的“原因”,它们提供最大程度的简易性,不需要改变源代码,并且您可忽略它们来生成代码的系列版本。另一方面,使用函数调用需要改变程序,这将为执行系列版本(如需)带来困难。如果遇到疑问,请您在计划使用函数调用(包括标头文件)时,尝试使用编译指令并保留函数调用。当然,您还应继续使用英特尔?C++编译器命令行切换/Qopenmp 。进行链接不需要其它库。 下表列出了四个最常使用的库函数,分别用于检索线程总数,设置线程数,返回当前线程数,及返回可用逻辑处理器的数量。如欲获得OpenMP 库函数的全部列表,请务必访问OpenMP 网站:https://www.doczj.com/doc/e35159423.html, *。

算作两颗处理器。 以下为使用上述函数来打印字母表的例子。 omp_set_num_threads(4); #pragma omp parallel private(i) {//This code has a bug.Can you find it? int LettersPerThread=26/omp_get_num_threads(); int ThisThreadNum=omp_get_thread_num(); int StartLetter='a'+ThisThreadNum*LettersPerThread; int EndLetter='a'+ThisThreadNum*LettersPerThread+LettersPerThread; for(i=StartLetter;i

相关主题
文本预览
相关文档 最新文档