材料微观结构演化大规模分子动力学软件比较

上传人:ba****u6 文档编号:129133914 上传时间:2022-08-02 格式:DOCX 页数:10 大小:205.21KB
收藏 版权申诉 举报 下载
材料微观结构演化大规模分子动力学软件比较_第1页
第1页 / 共10页
材料微观结构演化大规模分子动力学软件比较_第2页
第2页 / 共10页
材料微观结构演化大规模分子动力学软件比较_第3页
第3页 / 共10页
资源描述:

《材料微观结构演化大规模分子动力学软件比较》由会员分享,可在线阅读,更多相关《材料微观结构演化大规模分子动力学软件比较(10页珍藏版)》请在装配图网上搜索。

1、材料微观结构演化大规模分子动力学软件比较聂宁明 1 胡长军 2 张云泉 3 贺新福 4 张博尧 1 李士刚 31 中国科学院计算机网络信息中心,北京 1001902 北京科技大学计算机与通信工程学院,北京 1000833 中国科学院计算技术研究所,北京 1001904 中国原子能科学院研究院,北京 102413(nienm)Comparison of Large-scale Molecular Dynamics Software for MaterialsComputingNingming Nie1 Changjun Hu2 Yuquan Zhang3 Xinfu He4 Boyao Zhan

2、g1 Shigang Li31(Computer Network Information Center, Chinese Academy of Science, Beijing 100190)2 (School of Computer &Communication Engineering, University of Science &Technology Beijing, Beijing, 100083)3 (Institute of Computing Technology, Chinese Academy of Science, Beijing 100190)4(China Instit

3、ute of Atomic Energy, Beijing 102413)Abstract Molecular dynamics simulation is an important tool for studying materials microstructure evolution under radiation effects. Four kinds of mainstream large-scale molecular dynamics open source software for materials computing, LAMMPS, Ls1-MarDyn, IMD and

4、CoMD, are introduced in detail in this paper, with data structures, computational methods, parallel decomposition methods and atomic storage, etc. are compared and analyzed. By the design examples, computational efficiency, parallel performance and memory usage have been tested. It provides the basi

5、s for subsequent research to realize large temporal and spatial scale molecular dynamics simulation.Key words Molecular Dynamics; Large-scale; Data Structure, Material Irradiation Damage摘要 分子动力学模拟是研究材料辐照效应下微观结构演化的重要工具。本文对四款主流材料计算大规模分子 动力学开源软件 LAMMPS,Ls1-MarDyn,IMD 和 CoMD 进行了详细的介绍,从数据结构、计算方法、并行 分解方式、

6、原子存储等多个方面进行横向分析比较。通过设计算例测试了各软件的计算效率,并行性能和内存 使用情况。为后续实现大时空尺度分子动力学模拟研究提供了研究基础。关键词 分子动力学模拟;大规模;数据结构;材料辐照损伤 中图法分类号 TP391材料辐照损伤研究涉及从原子尺度到宏观尺度 的 9 个数量级的跨越,以及皮秒量级原子键断裂过程 到几十年工程结构失效和破坏的跨时间尺度的非线 性过程。这一演化和发展过程在实验很难观测和发 现。因此,目前为止,材料工作者对材料辐照损伤过 程中内部微观过程和演化机理尚缺乏深入的了解。高 性能计算机技术的发展使人们从微观层次深入理解 材料成为可能,成为当今国际材料界的重要研

7、究领 域。分子动力学模拟作为原子尺度模拟的经典计算方 法,在材料微观结构演化规律研究中处于重要地位。分子动力学模拟 (moleculardynamics simulation , MD)是通过利用计算机求解体系内所有粒子的运动 方程来模拟粒子的运动轨迹,从而获得系统的温度、 体积、压力、应力等宏观量和微观过程量。从上世纪 五十年代发展以来1,2,已经在包括物理,计算化学, 计算生物,材料科学,药物设计等多个领域有了十分 丰富的应用。分子动力学模拟作为一种非常有效的材 料计算技术,已成为与实验同等重要的科学研究的方 法。由于计算能力的限制,目前分子动力学通常模拟 的是几万到几千万个原子条件下材料

8、的内部演化过 程,而通常材料的微观结构及缺陷尺寸远远大于现有 计算能力所实现的计算规模,计算模拟结果与实际材 料的微观演化过程及宏观性能等还有很大的差异。因 此分子动力学模拟的发展的关键在于空间规模的扩 大和时间尺度的延长。只有在原子个数无限多,计算 的时间足够长时,才能真实地反映材料性质的宏观行 为。近些年,随着高性能计算机技术的飞速发展,分 子动力学计算技术被注入了新的活力。2015 年 7 月,我国研制的“天河二号”超级计算机再度荣登全球超 级计算机 500 强排行榜榜首,连续五次称冠世界3。 高性能计算机的发展为大规模分子动力学模拟提供 了发展的肥沃土壤。制约实际应用的瓶颈在于大规模

9、分子动力学软件的研发。开展大规模分子动力学模拟 软件的研究成为国际上的研究热点。科学家们基于混 合架构高性能计算机开发了新的分子动力学程序,例 如 LLNL 与 IBM 的团队开发了面向高性能计算机的 经典分子动力学代码-ddcMD代码。2005年,他们首 次从原子层次原子尺度研究了金属钽和铀在超高温 高压下的凝固过程,在IBM BlueGene/L的131072个 CPU 上,达到101.7万亿次/秒的持续计算性能,获得 了 Gordon Bell 奖,该研究对评估核武器储备的可靠 性具有重要意义4。2007 年,他们又实现了第一个 基于分子动力学的微米尺度原子级 K-H 不稳定性数 值模拟

10、,在IBM BlueGene/L全系统212,992个CPU 上,获得了 54.3 万亿次/秒的持续计算性能,再次获 得了 Gordon Bell 奖5。近年来美国启动了名为 “Spatio-Temporal Frontiers of Atomistic Simulations in the Petaflop Computational World” 6的科研项目, 旨在基于高性能计算机开发可扩展的分子动力学程 序,研究晶界与位错的相互作用以及材料中空洞的形 核与长大过程,在此基础上采用可扩展并行短程MD 程序 SPaSM 在 Roadrunner 上对 106-1012原子进行了 大规模的仿

11、真模拟,达到了 369 万亿次/秒持续计算 性能7。除此之外,针对不同领域应用的通用分子动 力 学 软 件 也 有 许 多 , 如 LAMMPS8,NAMD9,GROMACS10等等。它们各 有各的特点,在不同领域获得了广泛的应用。本文关 注的是在材料计算领域广泛使用,可进行大规模并行 计算的开源分子动力学软件。我们选取了 LAMMPS, Ls1-MarDyn,IMD和CoMD四款开源分子动力学软 件进行详细的比较说明,为我们的后续研发工作提供 研究基础与支持。本文的安排如下:首先是分子动力学软件的介 绍,将对选取的 LAMMPS, Ls1-MarDyn, IMD 和 CoMD 四款大规模并行

12、计算的分子动力学软件进行 详细介绍。接下来,对这四款软件在并行性能,数据 结构,原子结构存储等几个方面进行横向比较,并通 过数值算例进行验证和分析说明。最后是全文总结, 通过总结前文对四款 MD 软件在大规模并行计算上 特点的分析,提出针对辐照效应下金属材料计算特点 的数据结构设计思想,为下一步研究工作指出方向。1. 大规模材料计算分子动力学软件介绍1.1 LAMMPS ( Large-scale Atomic/Molecular Massively Parallel Simulator)软件LAMMPS软件是由美国Sandia国家实验室开 发的一款通用的大规模分子动力学并行计算软件,是 世界

13、上使用者最广泛的几款分子动力学软件之一。从 2004年到2011年之间,就达到了8万9千多次的下 载量。LAMMPS 主要用于分子动力学相关的一些计算 和模拟工作,可在包括气态,液态或者固态相形态、 各种系综下,采用不同的力场和边界条件来模拟全原 子,聚合物,生物,金属,粒状和粗粒化体系。可实 现从几个粒子到上亿粒子体系的分子动力学计算。 LAMMPS 可提供并支持多种势函数计算,包括对势, 如Lennard-Jones(L-J)势(多用于气体,液体分子间作 用力计算)、Morse势等,多体势,如Embedded Atom Model(EAM )势(多用于单一金属或合金体系计算)、 modif

14、ied EAM (MEAM)势等,应用十分广泛。LAMMPS软件为开源软件,以C+编写,支持 用户的自行修改和扩展。LAMMPS支持串行与并行 计算。并行LAMMPS采用MPI并行,针对并行计算 特点设计数据结构与并行策略,具有良好的并行扩展 性。其软件结构可由如图1所示的类结构关系图来展 示。在计算粒子间相互作用时,LAMMPS通过cutoff 来设定每个粒子需计算的相互作用粒子范围大小,采 用neighbor list,也即近邻列表的数据结构来记录每 个粒子的邻居粒子信息,如图2所示。粒子信息存储 在数组中,每个粒子的邻近表数组中存储粒子的邻居 粒子索引。在计算时,通过neighbor l

15、ist来追踪所有 与该粒子有相互作用的粒子间作用力等信息。LAMMPS 采用空间分解方法来并行分配模拟区 域。将整个模拟区域分解成若干子区域分配到各个处 理器上。在每个处理器的计算子区域上设置ghost区 域来存储子区域边界原子信息,以便并行计算时各个 处理器间的相互通信与计算。LAMMPS提供了两种Error II4 ISoeu询 11|upd她 |LAMMPSICMrn I Ijireciulgr I1柯q門 QmpiTQpeF I* J图1 LAMMPS软件结构示意图8* ICom尿 IFig. 1 Software Structure Chart of LAMMPS 8* puipui

16、 t :认.Tirnerlv fileRestarll项存储指向原子相关信息数组的指针,具体如图5所 示。此外, IMD 还提供可选项,对于 3D 的 EAM 势 计算算例可提供与 LAMMPS 类似的 neighbor list 的 数据结构进行数据存储13。并行分解时,IMD将处理器排列成三维的笛卡尔 网格,然后按区域将box里cells数组细分成相同大 小的块,然后将它们分配给不同的处理器。各处理器 设置ghost区域用作接收与发送粒子数据的缓冲区。 IMD不提供负载平衡的策略。IMD除支持MPI的版本之外,还有OPENMP、 MPI+OPENMP和GPU版本的实现。orteam rhe

17、eam dFkraftimpulsso rtevsertemassPot engnummernn maxdata fare02n-2012n 2n 1012n 2n 1Q2n-2012-n-2-012n-22-n-2-n-0nn 2n 1 02n 2n 1012n 2n-1图2 LAMMPS neighbor list数据结构展示Fig. 2 Data Structure of Neighbor List for LAMMPS方法来实现负载均衡,Shift方法和RCB方法,分别 如图3a和图3b所示。Shift方法通过改变处理器间的 分割线,来调整分给每个处理器的空间。最后划分的 子区域还是网

18、格的形式。RCB方法是一种类似“砌 瓷砖”的方法,它不是把模拟区域划成网格状,而是 大小不等的四边形区域,来让每个区域有相等数目的 原子。Fig. 3 Load Balancing Method of LAMMP8此外, LAMMPS 已有支持其他架构计算的版本, 包括 GPU(支持 CUDA 和 OpenCL),和 Intel Xeon Phi 等架构,以及OPENMP版本的代码。1.2. IMD(ITAP Molecular Dynamics)软件IMD 是一款由德国 University of Stuttgart于 1997 年开始研发的用于经典分子动力学模拟的开源软件 包11,支持包括

19、对势,适用于金属材料的EAM势, 适用于共价系统的 Stillinger-Weber 和 Tersoff 势,以 及适用于液体的 Gay-Berne 势等多种势函数的分子 动力学计算。 1999 年, IMD 在德国 Julich 超算中心 的超级计算机T3E-1200-262上用512核实现了 5x109 个粒子的分子模拟,取得了当时的世界纪录12。IMD采用的模块化设计,C语言编写,使用标准 的 MPI 库来实现并行消息传递。其软件结构如图 4 所示。IMD采用link cell的数据结构来存储数据。先将 整个box分成若干cell,每个cell是个结构体,每一图 4 IMD 软件结构示意

20、图Fig. 4 Software Structure Chart of IMD1.3. Ls1-MarDyn(Large systems 1: moleculardynamics)软件以 IMD 的开发团队为基础,由德国 University of图 5 IMD 中 cell 的数据结构展示Fig. 5 Data sStructure of Cell in IMDStuttgart , University of Kaiserslautern , Technische Universitat Munchen 和 University of Paderborn 几家大 学联合开发的旨在挑战万亿级

21、别的分子模拟的 MD 代码一“Ls1-MarDyn” 14,保持了目前最大规模的 分子动力学模拟记录:在德国莱布尼兹超级计算中心 的超级计算机 SuperMUC 上用 14 万核实现了 4x1012 个粒子的分子模拟15Ls1-MarDyn只支持刚性粒子和恒体积系宗下的 MD 计算,适用于短程力计算,不 适用于离子计算。Lsl-MarDyn是以C+编写的开源代码,基于MPI 实现并行。Lsl-MarDyn采用模块化设计,将代码分 为物理模型计算模块和并行算法模块两类,其软件结 构 如 图 6 所 示。 目前 , Lsl-MarDyn 只 支持 Lennard-Jones(L-J)势,Terso

22、ff势等对势计算,无法实 现 EAM 等多体势计算。图 6 Lsl-MarDyn 软件结构示意图Fig.6 Software Structure Chart of Lsl-MarDyn 针对其适用于气体流体之类分子运动变化频繁的 计算的特点,Lsl-MarDyn代码设计linked cell数据结 构来进行数据存储,将模拟区域以网格划分成小的单 元格cell,单元格长为截断半径,依据分子位置信息, 将每个分子对应到相应的 cell 中,如图 7a 所示。针 对不均匀的分子分布, Lsl-MarDyn 对 linked cell 数 据结构做出改进,对包含粒子数目较多的单元格进行 2次分割,设计

23、了自适应linked cell的数据结构,如 图 7b 所示。Ls1-MarDyn采用了两种并行区域分解的方式。一 种是按进程数等分模拟区域,即将n个进程以尽量分 配给每个维度相同进程数的原则建立笛卡尔坐标,将 模拟区域等分为n个等体积的小区域分到每个进程。 这种区域分解方法简单易操作,只需初始化时建立一 次即可。但是当计算到后期粒子变化移动较多时,会cellsFO cells acells12cells13/(0,0)(0,1)(2.4)3)(2.2)(X3)(0,0)(0,1)a) 2-d linked cell 示意图 b) 2-d adaptive linked cell 示意图图 7

24、 Linked cell 数据结构示意图Fig.7 Data Structure of Linked Cell for Lsl-MarDyn造成计算负载的不均衡。另一种是基于KD树的区域 分解方法,也即用垂直于坐标轴的线将模拟区域递归 地划分为两个负载相近的子区域,直到分割的子区域 被分配到处理器上(负载近似于1/p),其中负载的计 算以 cell 为基本单位进行估算。 Lsl-MarDyn 暂时还 未有支持 GPU, openmp, intel MIC 等异构计算版本代 码。1.4. COMD: Classical Molecular Dynamics Proxy ApplicationCO

25、MD17是由美国能源部ASCR资助的 Exascale Co-Design Center for Materials in Extreme Environment (ExMatEx)中心设计开发的MD代码,由 LANL 的 Jamal Mohd-Yusof, Chris Sewell 和 Sriram Swaminarayan基于SPaSM的分子动力学代码来进行 开发维护。ExMatEx中心旨在极端环境下材料特性的 E级超大规模计算模拟研究,该项目强调多尺度模型, 计算机科学,以及通过协同设计实现百亿亿次的超大 规模材料模拟。因此 COMD 的研发是作为协同设计 的工具,方便整个 ExMatE

26、x 根据需要对新的体系结 构、编程模型等进行多尺度建模计算、功能扩展和重 新实现,以及性能测试等而开发实现的。 COMD 是 开源代码,目前发布的是1.1版本18,只能计算LJ 势和EAM势,EAM势的计算只支持fcc晶格结构, 只能建立规则的长方体box。COMD是以C语言编写 的基础MD程序,功能不多,主要结构见图8所示。 COMD基于MPI实现并行,采用link cell的数据结 构存储数据,空间分解方法进行任务划分。 COMD 根据cutoff大小划分cell,按坐标XYZ方向进行处理 器核数的划分,再将每个方向上的cell均分到每个处 理器上,将整个计算区域进行空间的分解。 COMD

27、 暂时还未考虑负载平衡策略的实现。 COMD 除 MPI 版本之外,还实现了 OPENMP 并行。对于不同计算 架构,comd还实现了针对各计算架构的版本,如 AMD 下的 OpenCL 版,基于 NVDIA 的 GPU 下的 CUDA 版,正在调试 Intel MIC (aka Xeon Phi)和 Intels FF candidate architecture emulator 架构下的众 核计算版本19。图 8 CoMD 软件结构示意图Fig. 8 Software structure chart of CoMD2. 大规模材料计算分子动力学软件分析与比 较2.1 大规模并行分子动力学

28、软件比较通过上一节的 介绍, 对 LAMMPS, IMD, Lsl-MarDyn以及COMD这四种MD软件的大致情况 有了初步的了解,本节将对这四种软件从数据结构、 计算方法、与并行分解方式等角度进行横向的详细比 较。详见表 l 。四种软件都采用空间分解的方式进行并行分解任 务。只有LAMMPS和Lsl-MarDyn两种提供了负载 平衡技术。相比较而言,基于自适应link cell结构的 Lsl-MarDyn 在负载均衡的调节上会比 LAMMPS 更 加灵活。由于我们考虑的都是设置有cutoff的短程力计算, 对于此类型计算,通常有两类数据结构用于粒子信息表 l 四款软件比较总结Table 1

29、 Summary of Comparison for Four kinds Software软件名称LAMMPSIMDLs1-MarDynCOMD软件类型通用型通用型专用型(气体流体计算)通用型(软件模块)编程语言C+cC+C支持势函数类型对势(LJ等),多体势( EAM 等)等多种对势(LJ等),多体势(EAM 等)等多种仅支持对势(LJ势)对势(LJ),多体势(EAM)势函数计算方式查表插值查表插值参数化计算查表插值数据结构存储类型Neighbor listLink cell(Neighbor list 可选)Link cellLink cell数据划分方法空间分解空间分解空间分解空间分解

30、是否实现负载平衡提供Shift方法和RCB方法两种方法不提供基于KD树的区域分解方法暂时未提供不同计算架构版本OPENMP 版, GPU( CUDA和OpenCL)版,IntelMIC版OPENMP 版,MPI+OPENMP 版GPU版无OPENMP 版, GPU(CUDA)版, OpenCL 版,Intel MIC版等的存储,分别为 neighbor list 和 link cell。 neighbor listLink cell是将计算区域划分成若干cell,按cell来存结构是每个粒子都根据cutoff来确定并存储自己的邻 居粒子,每次迭代时只遍历自己的邻居粒子。这种存 储方式的好处是计

31、算时很容易找到需计算的对象,并 且不会多出额外粒子的计算,计算效率很高。但是存 储代价高,每个粒子都要维护自己的list,在运行一 定步数之后还需更新自己的list。因此这类数据结构 更适合于邻居粒子变化缓慢的应用,如固体材料等的 计算。LAMMPS采用的便是neighbor list的数据结构 存储原子, IMD 也提供此类数据结构的存储选项。 储粒子信息。计算时,按照cutoff来确定每个cell的 邻居cell信息,按cell遍历粒子进行计算。这种方式 计算效率低,每次迭代计算时都需遍历本身以及周围 邻近cell,会多出非邻居粒子的计算,计算量大。但 是好处是存储量较少,且易于做负载平衡

32、。因此此类 结构更适于类似气体,流体材料等邻居粒子频繁变化 应用的计算。IMD, Lsl-MarDyn和COMD都采用了 link cell 的数据结构存储粒子信息。MD 计算中对于粒子间作用力计算的关键在于势 函数的计算。对于EAM多体势的计算,由于需要用 到电子云密度,因此基本上都是采用的查表插值的方 法来计算EAM势,LAMMPS, IMD和COMD都采 用的这种方式。Lsl-MarDyn只能计算对势(LJ势), 用的则是参数化的方式计算势。已经有其他软件,如 ddcMD,尝试过绕开查表的方法使用参数化方式来实 现计算EAM势,也取得不错的结果20。随着各种异构计算系统的出现,针对异构计

33、算设 计优化的软件版本也日益增多。不论是成熟全面的 LAMMPS,IMD,还是作为面向E级计算的ExMatEx 项目中的基础程序模块的 CoMD 软件,在异构计算 和节点内优化方面都做了些尝试,在不同的计算机体 系架构(如 AMD, NVDIA GPU, aka Xeon Phi 等)上 开发了不同的程序版本(OpenACC, OpenCL,GPU, MIC等等),并做了优化。2.2 MD 计算模拟数值实验本节我们将对以上四款MD软件进行算例测试。 所有的测试算例都是在中科院超级计算中心的超级 计算集群“元”上完成。其计算节点配置为2颗Intel E5-2680 V2 (Ivy Bridge

34、| 10C | 2.8GHz )处理器,每 个处理器上有10个cpu核,共64 GB DDR3 ECC 1866MHz内存。采用的MPI版本为OPENMPI1.6.5。米用的编译器为 Intel composer_xe_2013_sp1.0.080。我们 设计了铜熔化的算例来测试各 MD 软件性 能,对铜原子系统在600K的温度下的分子动力学过 程进行了计算模拟, cutoff 为 5 埃,时间步为 0.005 飞秒。对于 LAMMPS,IMD 和 COMD 软件,都选取 了单核内存占用量最大的原子规模进行计算,也即, LAMMPS 为 7.4 x 108 原子,IMD 为 8.6 x 108

35、 原子, COMD为3.4 x 108原子。由于Ls1-MarDyn软件无 法计算EAM势,因此采用的是其自带的4万原子的 LJ 势计算算例。四款 MD 软件的测试结果见表 2 所示。 其中, 参数原子更新频率表征的是 MD 软件计算效率的高 低,是由“每步计算时间x CPU核数/原子数”计算 得到。从算例测试结果来看,计算效率最高的是 LAMMPS,原子更新频率达到了 1.6469。其次是 IMD,原子更新频率在7.7左右。COMD软件的计算 效率,比 LAMMPS 低了一个数量级,但也能有 12 左右。以上三款MD软件的并行性能与可扩展性都非 常好。 Ls1-MarDyn 软件串行计算时原

36、子更新频率为 66.9658。虽然Ls1-MarDyn计算的是LJ势,但由于 其原子密度大,link cell中邻居多,遍历开销大,导 致其原子更新频率差。软件名称势函数类型原子计算规模(fee边长)Cpu核数内存使用平均每原子 内存使用 (B/atom)每时间步计 算时间(s)原子更 新频率(As x proc / aLAMMPSEAM7.4 x 108(570)1002.1(G/ 核)315.5512.811.72937.4 x 108(570)10001.221.6469IMDEAM8.6 x 109( (600)1002.3(G/ 核)266.2063.58357.35928.6 x

37、109( (600)10006.89287.9778Ls1-Mar DynLJ40000144(M/核)456.002.6786366.965840000160.83931666335.726CoMDEAM3.4 x 108 (440)1002.3(G/ 核)675.0140.0611.75783.4 x 108 (440)10004.3412.7410表 2 软件并行性能与原子存储测试结果Table 2 Results of Software Parallel Performance Tests我们对四款MD软件在计算时原子存储所占空间 也进行了测试。对于LAMMPS,IMD和COMD软件

38、的测试,我们选取的是使得程序在每 CPU 核上所能 运行的内存达到最大时的原子规模的算例。 而 Ls1-MarDyn 软件测试的是其自带的小规模算例,其 测试结果不具比较意义。测试结果见表2所示。从测 试结果来看, 每原子所占空间最少的是 IMD, LAMMPS次之,最多的是COMD。分析三款软件的 原子存储构成,大致都包括原子变量存储空间,通信 buffer空间和neighbor list或link cell的存储空间三 类,其理论分析结果与测试结果基本一致。 从以上的测试结果来看,若根据现有有限的计算 资源情况估计,也即,每个计算节点有20个CPU核, 共64GB内存,每CPU核计算内存不

39、能超过2.5 G, 那么理论上对应 10 万核时的原子计算规模, LAMMPS 为 6.6 x 1011,COMD 为 3.4 x 1011,IMD 为 8.6 x 1011。Ls1-MarDyn软件因为没有测试其内存使 用的最大规模而无法准确估计,但从上面的分析来 看, Ls1-MarDyn在10万核上计算的原子规模量级也 与前三款软件差不多。因此从存储角度上来说,要在 现有内存条件计算节点上,实现 10 万核上核材料辐 照缺陷演化的 1012的原子规模的计算,我们还需对现 有 MD 软件进行存储优化。我们下一步将考虑从核材 料辐照缺陷演化模拟计算的特点出发,针对该材料的 特殊性设计更加节省

40、存储空间的数据结构来减少分 子动力学计算中对于邻居存储的需要,从而达到扩大 可计算的原子模拟规模的目的。3. 总结在本文中,我们对四款主流材料计算大规模分子 动力学开源软件 LAMMPS,LS1-MarDyn,IMD 和 CoMD 进行了详细的介绍,从数据结构、计算方法、 并行分解方式、原子存储等多个方面进行横向分析比 较。在数据结构方面,MD模拟中常见两类数据结构 neighbor list 和 link cell 分别被 LAMMPS 和 IMD, LSl-MarDyn 以及 CoMD 所采用。LAMMPS 采用了 易于查找邻居粒子信息的 neighbor list 结构,在金属 材料铜熔

41、化算例测试中获得了最好的计算效率。采用 link cell结构的IMD,CoMD等软件由于cell结构特 征增加了多余的计算量,计算效率稍逊于LAMMPSo 但由于cell结构节省的存储量,也使得IMD软件在 同等内存限制条件下能计算更大规模的分子动力学 模拟。算例测试展示了几款软件不俗的并行性能,想 要得到更有区分度的测试结果,还需要更大规模(几 千甚至上万核)的算例实验。通过对各软件内存使用 情况的测试和分析结果,我们将在下一步的研究工作 中,针对材料辐照缺陷演化计算特点,提出了节省原 子存储量的新型数据结构,希望在10万CPU核上实 现1012原子规模的分子动力学模拟。4. 致谢本研究得

42、到国家自然科学基金(No.61303050);国 家高技术研究发展计划863(No.2015AA01A303);中国 科学院青年创新促进会(N O.2015375);中国科学院信 息化专项“面向云服务的超级计算环境建设与应用 ” (XXH2503-02)等项目的资助与支持,在此一并表 示感谢。参考文献1、B. J. Alder and T. E. Wainwright , Phase Transition for a Hard Sphere System. J. Chem. Phys. 27 (5): 1208 (1957).2、Alder B. J., Wainwright T. E.“St

43、udies in Molecular Dynamics. I. General Method”, J.Chem. Phys., 31(2): 459-466, 1959.3、http:/www.top500.org/4、F. H. Streitz, J. N. Glosli, M. V. Patel, et al., 100+ TFlop Solidification Simulations on BlueGene/L, SC05, 20055、James N. Glosli, David F. Richards, K. J. Caspersen, R. E. Rudd, John A.Gun

44、nels, and Frederick H. Streitz, Extending stability beyond CPUmillennium: a micron-scale atomistic simulation of Kelvin-Helmholtz6、-7、Germann, T. C., Kadau, K., and Swaninarayan, S., 369 Tflop/s Molecular Dynamics Simulations on the Petaflop Hybrid Supercomputer Roadrunner, Concurr. Comp.-Pract. E.

45、21, 2143 (2009).8、Lammps manual, http:/lammps.sandia.gov/9、http:/www.ks.uiuc.edu/Research/namd/10、http:/www.gromacs.org/11、J. STADLER_, R. MIKULLA and H.-R. TREBIN,IMD: A SOFTWARE PACKAGE FOR MOLECULAR DYNAMICSSTUDIES ON PARALLEL COMPUTERS,International Journal of Modern Physics C, Vol. 8, No. 5 (19

46、97) 1131-114012、J. ROTH, F. GAHLER, and H.-R. TREBIN ,A MOLECULAR DYNAMICS RUN WITH5 180 116 000 PARTICLES, International Journal of Modern Physics C, Vol. 11, No. 2 (2000) 317-32213、IMD, The ITAP Molecular Dynamics Program:http:/imd.itap.physik.uni-stuttgart.de/14、Large systems 1: molecular dynamic

47、s; http:/www.ls1-mardyn.de/, accessed August 19,2014.15、Eckhardt, W.; Heinecke, A.; Bader, R.; Brehm, M.; Hammer, N.; Huber,H. ; Kleinhenz, H.G.; Vrabec, J.; Hasse, H.; Horsch, M.; Bernreuther, M.; Glass, C. W.; Niethammer, C.;Bode, A.; Bungartz, J. In Supercomputing- Proceedings of the XXVIII. Inte

48、rnational SupercomputingConference(ISC); Kunkel, J. M., Ludwig, T., Meuer, H. W., Eds.; LectureNotes inComputer Science 7905; Springer: Heidelberg, 2013; pp 1-12.16、Christoph Niethammer, Performance evaluation and optimization of the ls1-MarDyn Molecular Dynamics code on the Cray XE6, CUG 201217、COM

49、D:http:/www.exmatex.org/comd.html18、“CoMD: Classical Molecular Dynamics Proxy Application, VersionI. 1 ” (February 2013) open source at GitHub: 19、J. Mohd-Yusof, “CoDesign Molecular Dynamics (CoMD) Proxy App Deep Dive”, Exascale Research Conference, Oct. 1-3, 2012 Arlington, Virginia (LA-UR-12-25066

50、)20、J. N. Glosli, D. F. Richards, K. J. Caspersen, R. E. Rudd,J. A. Gunnels, and F. H. Streitz, Extending stability beyond CPU millennium: a micron scale atomistic simulation of Kelvin-Helmholtz instability, SC 07 Proceedings of the 2007 ACM/IEEE conference on Supercomputing, pages 1-11, 2007. insta

51、bility, SC07, ACM Press, 2007Professor. Her main research interest is parallel algorithm.Boyao Zhang, born in 1987. Master ofChangjunHu, full Professor andPhDEngineering. His mainresearch iterest is parallel computingShigang Li, PhD, Assistant Professor. His resupervisor. His research interests lie

52、in the area of HighPerformance Computingsearch interests include large-scale parallel computing based onYunquan Zhang , full Professor and PhDsupervisor. His research interests lie in the area of heterogeneous MPI, heterogeneous computing and scalable deep learning algorit hms on multi-/many-core clusterscomputing, largescale parallel software optimization, parallel programming model and performance modelborn in 1981, PhD, AssociateProfessor. His main research interest is multiscale modeling of radiation damage in nuclear materials.

展开阅读全文
温馨提示:
1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
2: 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
3.本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

copyright@ 2023-2025  zhuangpeitu.com 装配图网版权所有   联系电话:18123376007

备案号:ICP2024067431-1 川公网安备51140202000466号


本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!