当前位置: 首页 > news >正文

会qt怎么做网站创意营销策划案例

会qt怎么做网站,创意营销策划案例,软件开发文档工具,网站建设英语翻译目录 问题描述 代码1(串行) 代码2(并行) 代码2执行时所用指令 错误信息 解决方案 解决方案1 解决方案2 问题描述 今天正在学习使用mpi4py,在对比运行以下2个代码时疯狂报错: 代码1(串…

目录

问题描述

代码1(串行)

代码2(并行)

代码2执行时所用指令

错误信息

解决方案 

解决方案1 

解决方案2


问题描述

今天正在学习使用mpi4py,在对比运行以下2个代码时疯狂报错:

代码1(串行)

import numpy as np
import timenp.random.seed(2)
size = 1000000x1 = np.random.random(size)
x2 = np.random.random(size)
result = np.zeros(size, dtype=float)since = time.time()
for i in range(size):result[i] = x1[i] + x2[i]
end = time.time()print(end - since)

代码2(并行)

from mpi4py import MPI
import numpy as np
import timecomm = MPI.COMM_WORLD
rank = comm.Get_rank()
nprocs = comm.Get_size()size = 1000000
x1 = np.random.random(size)
x2 = np.random.random(size)if rank == 0:ave, res = divmod(size, nprocs)count = [ave + 1 if p < res else ave for p in range(nprocs)]count = np.array(count)displ = [sum(count[:p]) for p in range(nprocs)]displ = np.array(displ)
else:sendbuf = Nonecount = np.zeros(nprocs, dtype=np.int)displ = Nonet0 = time.time()
comm.Bcast(count, root=0)recvbuf1 = np.zeros(count[rank])
recvbuf2 = np.zeros(count[rank])comm.Scatterv([x1, count, displ, MPI.DOUBLE], recvbuf1, root=0)
comm.Scatterv([x2, count, displ, MPI.DOUBLE], recvbuf2, root=0)print('After Scatterv, process {} has data:'.format(rank), recvbuf1)
print('After Scatterv, process {} has data:'.format(rank), recvbuf2)for i in range(recvbuf1.shape[0]):recvbuf1[i] += recvbuf2[i]sendbuf2 = recvbuf1
recvbuf2 = np.zeros(sum(count))
comm.Gatherv(sendbuf2, [recvbuf2, count, displ, MPI.DOUBLE], root=0)if comm.Get_rank() == 0:print('pi computed in {:.3f} sec'.format(time.time() - t0))print('After Gatherv, process 0 has data:', recvbuf2)

代码2执行时所用指令

# mpi_test.py是该代码存放的代码文件,代码是以root的权限执行的
mpirun -np 4 --allow-run-as-root python mpi_test.py

错误信息

这个错误是我第三次尝试解决,这次终于找到了解决方案,太不容易了,QAQ

解决方案 

参考链接:

python - Possible buffer size limit in mpi4py Reduce() - Stack Overflow

链接中指出,出现这个错误的主要原因是由于

The issue comes from the Cross-Memory Attach (CMA) system calls process_vm_readv() and process_vm_writev() that the shared-memory BTLs (Byte Transfer Layers, a.k.a. the things that move bytes between ranks) of Open MPI use to accelerate shared-memory communication between ranks that run on the same node by avoiding copying the data twice to and from a shared-memory buffer. This mechanism involves some setup overhead and is therefore only used for larger messages, which is why the problem only starts occurring after the messages size crosses the eager threshold.

有以下两个解决方案:

解决方案1 

在执行docker run时,带上参数

--cap-add=SYS_PTRACE

但是由于我拿到的是分好的docker,并不具备执行docker run指令的权限,所以只能选择解决方案2中的解决方法。 

解决方案2

 禁用CMA。

如果是Open MPI 1.8之前的版本,在执行mpirun时带上参数:

mpirun --mca btl_sm_use_cma 0 ...

如果是Open MPI 1.8之后的版本,执行mpirun时带上参数:

mpirun --mca btl_vader_single_copy_mechanism none

附上一个原网站的回答截图以备后续查阅: 

http://www.yayakq.cn/news/505135/

相关文章:

  • 林州网站建设哪家好珠海网站建设制作哪家专业
  • 白城网站建设公司光明区建设局网站
  • 网站建设和考核工作通知asp网站背景
  • 北京建设行政主管部门官方网站平面设计师证报名入口
  • 档案网站建设规范有哪些郑州网站建设那家好
  • 网站建设工作室怎么接单排名优化哪家好
  • 食品行业做网站网络公司经营范围哪些
  • 江苏省和住房城乡建设厅网站赶集网网站建设ppt模板
  • 酒店网站规划建设方案书西安网站关键词推广
  • 服务专业的公司网站设计积分商城小程序
  • 网站开发类的合同范本免费个人网页制作成品
  • 科技:开局研发六代战机许禾网站优化报表
  • 网站建设与实践企业营销培训
  • qq官方网站桂林网站设计公司
  • app网站建设需要什么软件wordpress本地转服务器
  • 做网站起名字怎么做公众号网站
  • 中国建设银行网站怎么做网上销售
  • 乔拓云建站平台外贸网站推广 上海
  • 大淘客联盟做网站营销推广是什么
  • 成都建设网站平台桐城市住房与建设网站
  • wordpress视频站插件怎么下载wordpress内置的主题
  • 政务网站建设和技术维护制度高端服装品牌排行榜
  • 广东官网网站建设公司wordpress国际运费设置
  • 知乎 淘宝网站建设站长统计幸福宝
  • 湖北建站公司ghost wordpress比较
  • 做asp网站需要的实验报告单北京网页设计有限公司
  • 网站开发项目计划书ppt商田科技网站
  • 北京网站制作工具抖音代运营多少钱
  • 龙之向导外贸经理人网站公司三站合一的网站
  • 企业邮箱格式宁波做网站优化的公司