1) message passing interface
消息传递接口
1.
Implementation of message passing interface on computational grids: MPICH-G2;
基于网格的消息传递接口的实现:MPICH-G2
2.
The parallel strategy of Monte Carlo has been realized on distributed memory cluster of workstation (COW) by using portable Message Passing Interface and C language,solving the problem that the running time is large on enormous computation and serial algorithms.
在分布式存储结构的机群系统上,采用可移植消息传递接口MPI与C语言绑定,设计并实现了并行蒙特卡罗算法,有效解决了计算量大、串行算法执行时间长的问题。
3.
Message Passing Interface(MPI )and Parallel Virtual Machine are two kinds of widely used network distribut-ed parallel computing environments.
消息传递接口(MessagePassingInterface,MPI)和并行虚拟机(ParallelVirtualMachine,PVM)是两种广泛应用的网络分布式并行计算环境。
2) message passing interface(MPI)
消息传递接口
1.
According to the features of Message Passing Interface(MPI),the cloud computing application methods based on MPI,including the MPI cloud computing algorithm design model,cloud computing principles,the core model,and the process are proposed.
根据消息传递接口(MPI)的特点,提出云计算在MPI领域的应用方法,包括MPI的云计算算法设计模型、云计算原理、核心计算模式、处理流程,并介绍云计算的分布式及并行化特性。
3) MPI
消息传递接口
1.
This paper discusses and analyzes the programming problems with C++ description under Windows XP-based environments supported by message passing interface (MPI), which is a parallel programming tool, and implementing performance of several typical parallel algorithms and their variations for processing.
讨论和分析了几种典型的并行算法及其各种处理方法在基于WindowsXP环境、消息传递接口MPI并行编程环境支持和C++语言描述的编程实现问题,给出了相应并行程序详尽的计算结果,对比分析了它们的计算性能,以及它们对计算精度产生的影响。
2.
For which, the appearance of the Message-Passing Interface (MPI) has provided a very good method.
消息传递接口MPI提供了一种很好的方法。
3.
In this paper,a Master-Slave GA framework based on Massage Passing Interface (MPI) is implemented.
本文基于消息传递接口(MPI),应用主从式模型,实现了一个并行遗传算法框架,并使用标准测试函数,在集群系统上对其进行了测试和相应的分析。
4) Message Passing Interface (MPI)
消息传递接口
1.
A parallel method based on message passing interface (MPI) was proposed to solve non linear second order partial differential equation, which dominates the main computational part of the application.
针对四冲程内燃机活塞在气缸套中的二阶运动轨迹的求解问题 ,提出基于消息传递接口(MPI)并行化求解非线性二阶偏微分方程 ,计算时用消息传递的并行编程模型对不存在数据相关的部分实施并行化 。
2.
To monitor cluster system efficiently, an easy and feasible parallel task model based on message passing interface (MPI) is constructed.
为了有效地监控集群系统,基于消息传递接口(Message Passing Interface,MPI)并行库构建一个简单易行的并行任务模型。
5) Message Passing Interface (MPI)
消息传递接口(MPI)
6) MPI (Message-Passing Interface)
消息传递接口MPI
补充资料:消息传递
消息传递
message passing
X100XI ChU0ndl消息传递(算机系统中,在分布式并行计~Passing)在分布式升泣耳通过传递消息包来实现计算机之同阴通信和同步的一种机制。一个消息可以是一个很短的同步 信息,也可能是一个长度为数兆字节的 数据文件。在通常情况下,消息是由一 组的忘包组成的。消息包是1次发送 或接收的单位。它由包头、包体和包尾 组成。包头由消息包的长度、目的结点 编号、所传消息的编号以及消息内包的 编号(包号)等信息组成。包体是真正 要传送的数据,包尾则是表示消息包结 束的标志信息。 一个完整的消息传递过程包括发 送、在互联网络中包的传输和接收3个 步骤。第二个步骤主要由硬件完成(参见路由选择),其余两个步骤由软、硬件共同完成。消息发送前需将消息分解并按特定格式组成一个个消息包,放人发送结点缓冲区中,然后依次发送到互联网络中。目的结点从网络中取包、解包并组成消息。 消息传递中的两个最重要的问题是可靠性和效率。可靠性主要包含3层意思:消息包中个别位出错;消息包传丢或传到非目的结点以及消息传递过程中系统瘫痪。第一种情况可由专门的硬件或软件来发现和纠正。对于第二种情况,可以用适当的消息传递协议来保证将消息包正确地传送到目的结点。但是,这样做可能降低通信效率。第三种情况可能是死锁造成的,也可能是其它软件故障,情况比较复杂。这是大规模并行计算机系统必须解决的一个关键问题。 衡量消息传递效率的一个重要参数是消息包的延迟时间。它包括发送、网络传输和接收3部分时间。对于一个相当规模的互联网(例如10x10的网格),网络传输延迟一般不超过1娜,而一个发送或接收过程的操作系统额外开销可能超过数十微秒。降低这种额外开销的一个有效办法是使消息包中包含目的地址信息,并在消息传递中尽量减少操作系统的介人。
说明:补充资料仅用于学习参考,请勿用于其它任何用途。
参考词条