【热闻】多卡训练
时间:2023-06-23 04:44:40来源:博客园

1、前言

近期做到的一些工作涉及到多卡训练,不得不感慨深度学习真的是一个烧钱的活,顺便记录一下,主要记录用法,不涉及实现原理。

2、单机多卡并行

官方DDP文档:

GETTING STARTED WITH DISTRIBUTED DATA PARALLEL


(资料图片仅供参考)

Github 仓库:

Github 中文文档

GETTING STARTED WITH DISTRIBUTED DATA PARALLEL

DataParallel

使用 nn.Dataarallel() 将模型变换一下,一行搞定

model = nn.DataParallel(model)

根据

为方便说明,我们假设模型输入为(32, input_dim),这里的 32 表示batch_size,模型输出为(32, output_dim),使用 4 个GPU训练。nn.DataParallel起到的作用是将这 32 个样本拆成 4 份,发送给 4 个GPU 分别做 forward,然后生成 4 个大小为(8, output_dim)的输出,然后再将这 4 个输出都收集到cuda:0上并合并成(32, output_dim)。可以看出,nn.DataParallel没有改变模型的输入输出,因此其他部分的代码不需要做任何更改,非常方便。但弊端是,后续的loss计算只会在cuda:0上进行,没法并行,因此会导致负载不均衡的问题。

针对负载不均衡问题,一个缓解的方法是将 loss 放入模型内部计算,即在 forward 的时候计算 loss。

DistributedDatarallel

分布式数据并行方法,通过多进程实现。

1、从一开始就会启动多个进程(进程数等于GPU数),每个进程独享一个GPU,每个进程都会独立地执行代码。这意味着每个进程都独立地初始化模型、训练,当然,在每次迭代过程中会通过进程间通信共享梯度,整合梯度,然后独立地更新参数。2、每个进程都会初始化一份训练数据集,通过DistributedSampler函数实现,即同样的模型喂进去不同的数据做训练,也就是所谓的数据并行。3、进程通过local_rank变量来标识自己,local_rank为0的为master,其他是slave。这个变量是torch.distributed包帮我们创建的,使用方法如下:

import argparse  parser = argparse.ArgumentParser()parser.add_argument("--local_rank", type=int, default=-1)args = parser.parse_args()

运行代码

python -m torch.distributed.launch --nproc_per_node=4 --nnodes=1 train.py

其中,nnodes 表示节点数量,单机,即为1,nproc_per_node 为每个节点的进程数量,与 GPU 数量一致。

模型保存与加载TODO

3、遇到的问题

1、DistributedDataarallel 方法,有时候会出现进程卡死的问题,现象上即为显卡的利用率卡在 100%,未启动进程组,根据tjds排查是IO 虚拟化(也称为 VT-d 或 IOMMU)启用了ACS导致,具体原因参考 故障排除——NCCL2.16.2 文档。

方法一:排查原因是BIOS里IO虚拟化(VT-d)默认启动了PCI访问控制服务(ACS)导致GPU间无法直接通过P2P方式通信,需在BIOS关闭此功能,具体操作参考 tjds

1、 查看ACS是否开启执行 lspci -vvv | grep -I acsctl 如果有显示SrcValid+说明已启用ACS功能2、 添加iommu=pt参数到grub(此步骤应该可以跳过)编辑/etc/default/grub文件添加iommu=pt,再执行update-grub更新grub文件3、 关闭BIOS里ACS功能重启操作系统开机时按 del 进入 BIOS 关闭 ACS 功能,不关 VT-d 只关闭 ACS 功能,具体路径:Path: Advanced -> Chipset Configuration -> North Bridge -> IIO Configuration -> Intel VT for Directed I/O (VT-d) -> ACS Control -> Enable / Disable.4、 检查ACS是否关闭执行lspci -vvv | grep -I acsctl 如果全显示SrcValid-说明已关闭ACS功能

方法二:仍然使用 ‘nccl‘ 后端,禁用 GPU 的 P2P 通信。

torch.distributed.init_process_group(backend="ncll")
NCCL_P2P_DISABLE=1 CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 train.py 

嫌麻烦可以写入 bashrc 环境变量。

方法三:更换后端为 ‘gloo’ , shell命令运行程序,纵享丝滑。

torch.distributed.init_process_group(backend="gloo")
CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 train.py 

缺点就是 gloo 的通信在我用的时候要比 nccl 慢很多。

2、如果训练过程中使用了 Sampler 进行数据分发, dataloader 的 shuffle 不能设置为 True。

3、dataloader 设置 batch_size 时,注意尽量保证每次循环每张卡至少可以分到一个 sample,不然有时候会因某张卡等待输入卡死。

4、我在训练时,dataloader的 num_works 通过 CPU 帮助 GPU 加载数据能够提升 GPU 利用率,倒是没遇到报错。

5、dataloader 的 pin_memory (锁页内存) 按道理是可以锁住一部分内存,减少 CPU 内存拷贝的,但是我用的时候会极大降低 GPU 利用率,此处存疑。

待更新ing

标签:

生活指南
  • 回天新材:年产约3.93万吨广州回天通信电子新材料扩建项目预计于2023年7月建成投产-热点

    每经AI快讯,有投资者在投资者互动平台提问:公司广州项目产能多少?目

  • 怎样做清蒸鲤鱼又嫩又好吃,学会这四步,鲤鱼又鲜又嫩!-天天精选

    一、首先大家需要的是挑选一条新鲜的鲤鱼,一定要去超市或者菜市场自己

  • 国家外汇管理局:5月中国外汇市场总计成交21.58万亿元人民币|全球微速讯

    央视网消息:据国家外汇管理局网站消息,国家外汇管理局统计数据显示,

  • 今日看点:oppo_finder5支持无线充电吗

    想必现在有很多小伙伴对于oppofinder5支持无线充电吗?方面的知识都比较

  • 暗黑破坏神4恶馋捕食者的供品任务攻略 恶馋捕食者的供品任务通关流程[多图]-当前视点

    暗黑破坏神4恶馋捕食者的供品任务怎么过?完成任务挑战之后会有很不错

  • 2023年养老金上调方案最新消息公布!安徽省养老金如何调整,算算你能涨多少?

    上个月底养老金调整方案公布,2023年企业事业单位退休人员养老金上调3

  • 中航重机:6月21日融资买入2266.34万元,融资融券余额4.7亿元

    6月21日,中航重机(600765)融资买入2266 34万元,融资偿还959 97万元

  • 钠离子电池产业化面临挑战

    此前,多家机构预测今年会是“钠电池量产元年”,但目前已公布钠离子电

  • 才华横溢最有出息的3生肖,出生平凡但努力奋斗,家财定能过千万 环球速读

    属兔的人,生肖兔的人机灵心思单纯,对人善良,属兔的人虽不是大富大贵

  • 铖怎么读音是什么意思 铖怎么读

    1、东城卫最初叫KARMA,2005年KARMA的休止,一部分的原因是主唱声带受

  • 环球快播:烟草学什么课程及毕业薪酬岗位去向 就业前景怎么样

    烟草学什么课程及毕业薪酬岗位去向就业前景怎么样?下面小编就具体说一

  • 年轻时读这5个智者的人物传记,人生少走很多弯路-每日快看

    头条文章养成计划 作者:洞见·瑾山月有人曾在董宇辉的直播间问:到底

  • 广州市增城区“安全生产月”观摩活动在国贸增城项目举办

    广州市增城区“安全生产月”观摩活动在国贸增城项目举办作者徐朋中新网

  • 净月法院开展“代理妈妈”进校园活动-热议

    近日,长春净月高新技术产业开发区人民法院开展了“代理妈妈”进校园活

  • 每日热闻!特大骗局!涉及60部电影,上海警方通报

    特大骗局!涉及60部电影,上海警方通报

  • 当前视讯!迷你世界蝎尾如何获得?迷你世界召唤羽蛇神的祭坛在哪?

    迷你世界蝎尾如何获得?打开迷你世界游戏,打开物品兑换界面。进入兑

  • 民生
    • 腾讯手游助手安装异常怎么回事 腾讯手游助手安装异常

    • 清军为什么要装备“抬枪”这种笨重的火器?

    • 天津蓟州郭家沟:美丽乡村“蝶变记”_每日快播

    • 徐新:这次国足集训对我帮助挺大,努力把状态带到联赛中 每日简讯