当前位置: 首页 > news >正文

新网域名自助管理平台seo关键字优化

新网域名自助管理平台,seo关键字优化,微信网站建设报价单,网站开发技术指标与参数参考几个不错的帖子(还没来得及整理): 基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客 关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客 Pytorch多机多卡分布式训练 - 知乎 (zhihu.com) 当代研究生…

参考几个不错的帖子(还没来得及整理):

基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客

关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客

Pytorch多机多卡分布式训练 - 知乎 (zhihu.com)

当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

Dataparallel 较慢,不推荐使用:

DataParallel 并行训练部分主要与如下代码段有关:

# main.py
import torch
import torch.distributed as distgpus = [0, 1, 2, 3]   # 
torch.cuda.set_device('cuda:{}'.format(gpus[0]))  # train_dataset = ...train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=...)model = ...
model = nn.DataParallel(model.to(device), device_ids=gpus, output_device=gpus[0])  #参与训练的 GPU 有哪些,device_ids=gpus;用于汇总梯度的 GPU 是哪个,output_device=gpus[0] optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)  #target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

平时可以直接使用内置的 Distributed: 

torch.distributed 并行训练部分主要与如下代码段有关

# main.py
import torch
import argparse
import torch.distributed as distparser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int,help='node rank for distributed training')
args = parser.parse_args()dist.init_process_group(backend='nccl')
torch.cuda.set_device(args.local_rank)train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)model = ...
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

 在使用时,调用 torch.distributed.launch 启动器启动:

github完整代码:https://github.com/tczhangzhi/pytorch-distributed/blob/master/distributed.py

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

 以上主要参考:当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

http://www.yidumall.com/news/29021.html

相关文章:

  • ps做游戏下载网站台州优化排名推广
  • 案列网站域名注册平台有哪些
  • 网站制作与管理技术标准实训教程培训体系
  • 国家企业信息查询网站福州360手机端seo
  • 购物网站的首页是静态app推广渠道有哪些
  • 网站后台是怎么做的比较好的免费网站
  • 网页网站建设的步骤流程合肥网站快速优化排名
  • wp网站打开太慢怎么做优化百度搜索引擎api
  • 做网站的好框架万网域名管理平台
  • 江苏城乡建设厅网站营销推广的特点
  • 当当网网站开发计划和预算怎么注册一个自己的网站
  • 实训网站建设的心得总结北京营销型网站
  • 苏州住房建设局网站网站推广服务报价表
  • 微博营销的特点有哪些电商seo是什么
  • 推广类网站立即优化在哪里
  • 如何给网站做提升经典软文案例200字
  • 哪家公司做门户网站关键词代发排名
  • 网站开发工作招聘中层管理者培训课程有哪些
  • 网站开发周期定义seo全网推广
  • 天津今日疫情最新情况搜索引擎优化目标
  • 那些做环保网站的好处网站seo优化技能
  • 超级浏览器关键词优化快速
  • 郑州市科协网站中国优化网
  • 公众号做电影网站免费入驻的跨境电商平台
  • 自做视频网站赚钱吗新乡搜索引擎优化
  • 重庆网站建设公司那好营销推广的特点是
  • 彩票代购网站开发论坛seo网站
  • 环球影城消费一天韩国seocaso
  • 广州市企业网站制作百度联盟广告
  • 衡阳北京网站建设关键词排名批量查询