当前位置: 首页 > news >正文

西安淘宝网站建设公司哪家好anything popup wordpress 插件怎么使用

西安淘宝网站建设公司哪家好,anything popup wordpress 插件怎么使用,网站开发模版下载,cms是什么参考几个不错的帖子(还没来得及整理): 基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客 关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客 Pytorch多机多卡分布式训练 - 知乎 (zhihu.com) 当代研究生…

参考几个不错的帖子(还没来得及整理):

基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客

关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客

Pytorch多机多卡分布式训练 - 知乎 (zhihu.com)

当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

Dataparallel 较慢,不推荐使用:

DataParallel 并行训练部分主要与如下代码段有关:

# main.py
import torch
import torch.distributed as distgpus = [0, 1, 2, 3]   # 
torch.cuda.set_device('cuda:{}'.format(gpus[0]))  # train_dataset = ...train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=...)model = ...
model = nn.DataParallel(model.to(device), device_ids=gpus, output_device=gpus[0])  #参与训练的 GPU 有哪些,device_ids=gpus;用于汇总梯度的 GPU 是哪个,output_device=gpus[0] optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)  #target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

平时可以直接使用内置的 Distributed: 

torch.distributed 并行训练部分主要与如下代码段有关

# main.py
import torch
import argparse
import torch.distributed as distparser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int,help='node rank for distributed training')
args = parser.parse_args()dist.init_process_group(backend='nccl')
torch.cuda.set_device(args.local_rank)train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)model = ...
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

 在使用时,调用 torch.distributed.launch 启动器启动:

github完整代码:https://github.com/tczhangzhi/pytorch-distributed/blob/master/distributed.py

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

 以上主要参考:当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

http://www.yayakq.cn/news/587448/

相关文章:

  • 优质作文网站急切网头像在线制作图片
  • 网站制作销售术语网站服务器哪家好些
  • 微软 网站开发网站开发一定得用html吗
  • 东莞外贸网站设计网站管理的内容包括
  • 西安网站开发建设追波设计网站官网
  • 平面设计培训网站网络平台怎么建
  • 如何开发移动网站企业网站的宣传功能体现在()
  • 做任务赚q红包的网站网站建设运行情况报告
  • lamp网站开发黄金组合 pdfapp软件开发课程
  • 设计了网站全国建设项目竣工验收公示网站
  • 做卖车网站需要什么手续费WordPress文章开启评论
  • 电子商务平台seo网站优化方
  • 好推建站网站seo检测工具
  • 国外有没有网站是做潘多拉的淘宝关键词优化推广排名
  • 敦煌网站建设网络营销有哪些就业岗位
  • 手机版网站开发网易企业邮箱 登录
  • 网络营销跟做网站有什么区别平面构成创意与设计
  • 网站怎样制作流程wordpress应用教程
  • wordpress问题解决长春seo优化
  • 融资融券配资网站开发奢侈品 网站建设方案
  • 电脑硬盘做网站服务器教程品牌包包排行榜
  • 自己创建网站怎么赚钱wordpress添加new
  • 北京如何申请公司网站备案号济南官网
  • 河北省公司执照网上注册优化网站平台
  • 网站收录了被人为删了怎么办网站伪静态如何配置
  • 建设网站制作食品包装设计公司排名
  • 吉林天宇建设集团网站wordpress会员充值
  • 英文网站支付怎么做cms建站详细教程
  • 可建网站网站注册界面
  • 国内最好的网站服务器天津响应式网站