当前位置: 首页 > article >正文

pytorch 多卡并行训练

目录

设置参数:

训练时参数:

调用命令:


设置参数:

    import argparse
    parser = argparse.ArgumentParser()
    parser.add_argument('--batch_size', type=int, default=64, help='Batch size for training')
    parser.add_argument('--local_rank', type=int, default=0, help='Local rank of the process')
    parser.add_argument('--device', type=str, default='0', help='Local rank of the process')
    args = parser.parse_args()

    torch.distributed.init_process_group(backend='nccl', init_method='env://')

    local_rank = args.local_rank
    device = torch.device('cuda', local_rank)
    os.environ["CUDA_VISIBLE_DEVICES"] = "0"
    epoch_num = 500
    batch_size = args.batch_size


    if torch.cuda.is_available():
        net.to(device)
    net = torch.nn.parallel.DistributedDataParallel(net, device_ids= 
    [local_rank],find_unused_parameters=True)


训练时参数:

# 在训练循环中使用本地 GPU 设备
for batch in dataloader:
    inputs, labels = batch
    inputs = inputs.to(device)
    labels = labels.to(device)
    # 在这里进行训练
    ...

调用命令:

CUDA_VISIBLE_DEVICES=3,4 /data3/lbg/envs//aimet_3.8/bin/python3.8 -m torch.distributed.launch --master_port 49998 --nproc_per_node 2 train.py --device '' --batch_size 256


http://www.kler.cn/a/150142.html

相关文章:

  • BEV数据集标注成本高?BEVPose:减少对标注数据依赖!
  • 算法专题:栈
  • 【深度学习基础】常用图像卷积核类型
  • 微服务系列二:跨微服务请求优化,注册中心+OpenFeign
  • LINUX_Ubuntu终端安装tools的命令
  • 【Java知识】Java基础-对象排序的实现
  • 【Qt之QFileInfo】使用
  • Redis 事件轮询
  • HarmonyOS(七)——@BuilderParam装饰器
  • Flink-时间窗口
  • 解决electron-builder打包不成功只能输出tgz文件的问题
  • 函数的极值与最值
  • 【C 语言经典100例】C 练习实例1
  • NMap扫描进阶
  • [黑马程序员SpringBoot2]——开发实用篇3
  • 手机一键“触达”!VR全景助力政务服务大厅数字升级
  • Linux常用命令——rm 命令
  • c语言编程题经典100例——(36~40例)
  • Es6笔记之箭头函数与解构赋值
  • Day60.算法训练
  • 基于C#实现Prim算法
  • 不同路径 II(力扣LeetCode)动态规划
  • 荒野大镖客提示找不到emp.dll文件的5个修复方法-快速修复dll教程
  • ZYNQ_project:lcd_pic_400x400
  • springboot 返回problem+json
  • 【云备份】第三方库的认识与使用