当前位置: 首页 > article >正文

深度学习:昇思MindSpore生态桥接工具——MindTorch实践

MindTorch入门

MindTorch是一款将PyTorch训练脚本高效迁移至MindSpore框架执行的实用工具,旨在不改变原生PyTorch用户的编程使用习惯下,使得PyTorch风格代码能在昇腾硬件上获得高效性能。用户只需要在PyTorch源代码主入口调用torch系列相关的包导入部分(如torch、torchvision等)之前调用from mindtorch.tools import mstorch_enable,加上少量训练代码适配即可实现模型在昇腾硬件上的训练。

官网链接:序言 — MindTorch dev 文档

MindTorch安装

通过pip安装稳定版本

pip install mindtorch

通过源码安装(开发版本)

git clone https://git.openi.org.cn/OpenI/MSAdapter.git
cd MSAdapter
python setup.py install

快速使用

在pytorch代码执行的主文件入口,import torch前,加入语句:

from mindtorch.tools import mstorch_enable

即可实现快速迁移

MindTorch进阶

MindTorch优化器与学习率适配

1. 打印学习率差异

PyTorch代码

import torch
optimizer = torch.optim.SGD([torch.nn.Parameter(torch.tensor(2.))], lr=0.01)
print('lr is {}'.format(optimizer.param_groups[0]['lr']))

 MindTorch代码

import mindtorch as torch
optimizer = torch.optim.SGD([torch.nn.Parameter(torch.tensor(2.))], lr=0.01)
print('lr is {}'.format(float(optimizer.param_groups[0]['lr'])))

需要将学习率转为Number类型。

2. 修改学习率差异

动态图模式下,与PyTorch代码没有差异。

静态图模式下,只能使用mindspore.ops.assign的方式修改学习率。

import mindspore
import mindspore as torch
optimizer = torch.optim.SGD([torch.nn.Parameter(torch.tensor(2.))], lr=0.01)
# 需要使用mindspore.ops.assign方式修改学习率
mindspore.ops.assign(optimizer.param_groups[0]['lr'], 0.1)

3. optimizer.step()的入参差异

PyTorch代码

...
net = Net()
loss = net(input)
loss.backward()
optimizer.step()

MindTorch代码

import mindspore
import mindspore.torch as torch

...
net = Net()
grad_fn = mindspore.ops.value_and_grad(net, None, optimizer.parameters)
grads = grad_fn(input) # 通过value_and_grad接口求梯度
optimizer.step(grads) # 需要将计算出的梯度grads作为参数传入step函数中

调用optimizer.step时仍需将梯度作为入参传入。

4. 自定义优化器差异

PyTorch代码

import torch
class Ranger(torch.optim.Optimizer):
    def __init__(self, params, lr=1e-3. aplpha=0.5, k=6):
        defaults = dict(lr=lr, alpha=alpha)
        super().__init__(params, defaults)
        self.k = k
    
    def __setstate__(self, state):
        print('set state called')
        super().__setstate__(state)
    
    def step(self, closure=None):
        loss = None
        for group in self.param_groups:
            for p in group['params']:
                if p.grad is None:
                    continue
                grad = p.grad.data.float()
                p_data_fp32 = p.data.float()
                state = self.state[p]
                state['step'] += 1
                p+data_fp_32.add_(grad)
                p.data.copy_(p_data_fp32)
        return loss

MindTorch代码

import mindtorch.torch as torch
class Ranger(torch.optim.Optimizer):
    def __init__(self, params, lr=1e-3. aplpha=0.5, k=6):
        defaults = dict(lr=lr, alpha=alpha)
        super().__init__(params, defaults)
        self.k = k
    
    def __setstate__(self, state):
        print('set state called')
        super().__setstate__(state)
    
    def step(self, grads, closure=None): # 需要新增grads作为参数以传入梯度
        loss = None
        i = -1 # 声明索引来遍历grads入参
        for group in self.param_groups:
            for p in group['params']:
                i = i + 1 # 索引递增
                grad = grads[i]
                p_data_fp32 = p.data.float()
                state = self.state[p]
                state['step'] += 1
                p+data_fp_32.add_(grad)
                p.data.copy_(p_data_fp32)
        return loss

需要新增grads作为step函数输入

5. 自定义LRScheduler

动态图下修改方式与PyTorch一致。

静态图下需要对mindspore.ops.assign对学习率进行修改以保证优化器中学习率一直是Parameter类型。

class TransformerLrScheduler():
    def __init__(self, optimizer, d_model, warmup_steps, multiplier=5):
        self._optimizer = optimizer
        self.d_model = d_model
        self.warmup_steps = warmup_steps
        self.n_steps = 0
        self.multiplier = multiplier
    
    def step(self):
        self.n_steps += 1
        lr = self._get_lr()
        for param_group in self._optimizer.param_groups:
            mindspore.ops.assign(param_group['lr'], lr)
    
    def _get_lr(self):
        return self.multiplier * (self.d_model ** -0.5) * min(self.n_steps ** (-0.5))
    

MindTorch微分接口适配

方式一

PyTorch代码

net = LeNet().to(config_args.device)
optimizer = torch.optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0005)
net.train()

for i in range(epochs):
    for X, y in train_data:
        X, y = X.to(config_args.device), y.to(config_args.device)
        out = net(X)
        loss = criterion(out, y)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

MindTorch代码

import mindtorch.torch as torch
import mindspore as ms

net = LeNet().to(config_args.device)
optimizer = torch.optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0005)

# 定义前向过程:包含了模型网络接口调用以及损失函数调用
def forward_fn(data, label):
    logits = net(data)
    loss = criterion(logits, label)
    return loss, logits

# 定义反向求导过程:包含了前向函数和参数
'''
mindspore.value_and_grad:生成求导函数,用于计算给定函数的正向计算结果和梯度。
函数求导包含以下三种场景:

对输入求导,此时 grad_position 非None,而 weights 是None;

对网络变量求导,此时 grad_position 是None,而 weights 非None;

同时对输入和网络变量求导,此时 grad_position 和 weights 都非None。

weights (Union[ParameterTuple, Parameter, list[Parameter]]) - 训练网络中需要返回梯度的网络变量。一般可通过 weights = net.trainable_params() 获取。默认值: None 。

has_aux (bool) - 是否返回辅助参数的标志。若为 True , fn 输出数量必须超过一个,其中只有 fn 第一个输出参与求导,其他输出值将直接返回。

'''
grad_fn = ms.ops.value_and_grad(forward_fn, None, optimizer.parameters, has_aux=True)

# 定义单步训练:反向梯度函数计算得到梯度,使用优化器传入梯度
def train_step(data, label):
    (loss, _), grads = grad_fn(data, label)
    optimizer(grads)
    return loss

net.train()
# 数据迭代训练:循环训练数据,调用单步训练
for i in range(epochs):
    for X, y in train_data:
        X, y = X.to(config_args.device), y.to(config_args.device)
        res = train_step(X, y)

方式二

MindTorch正在开发对标Tensor.backward()接口功能,用户无需修改迁移前torch源码,迁移效率更高。需要注意的是,该功能当前为实验特性,存在如下使用约束:

  • 须用户配置环境变量export ENABLE_BACKWARD=1;
  • 在动态图模式下使用ms.set_context(mode=PYNATIVE_MODE);
  • 目前仅支持 Python3.7和 Python3.9环境下使用;
  • 可能存在少数使用场景报错;
  • 网络执行性能可能变慢。

MindTorch混合精度训练与适配

混合精度训练(Mixed Precision Training)是一种在深度学习模型训练中使用不同精度浮点数的技术,旨在充分利用低精度计算的优势,同时保持模型的数值稳定性和准确性。具体来说,混合精度训练通常结合了单精度浮点数(Float32)和半精度浮点数(Float16)。

基本原理

  1. 前向传播和反向传播

    • 前向传播:大部分计算使用半精度浮点数(Float16)进行,以减少内存占用和加快计算速度。
    • 反向传播:同样使用半精度浮点数进行梯度计算。
  2. 权重更新

    • 权重和梯度的存储使用单精度浮点数(Float32),以确保数值稳定性。
    • 在权重更新时,将半精度梯度转换为单精度,并与单精度权重进行更新。
  3. 损失缩放

    • 为了避免梯度下溢(即梯度过小而无法表示),通常会使用一种称为损失缩放的技术。损失缩放的基本思想是在反向传播之前将损失值乘以一个较大的常数(通常是2的幂次方),然后在更新权重之前再将梯度除以相同的常数。

PyTorch代码

from torch.cuda.amp import autocast, GradScaler

model = Net().cuda()
optimizer = torch.optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0005)

scaler = GradScaler()

model.train()

for epoch in epochs:
    for inpus, target in data:
        optimizer.zero_grad()
        
        with autocast():
            output = model(input)
            loss = loss_fn(output, target)
        # 损失缩放
        loss = scaler.scale(loss)
        loss.backward()
        # 反向缩放梯度
        scaler.unscale_(optimizer)
        # 梯度裁剪
        torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm)
        # 梯度更新
        scaler.step(optimizer) 
        scaler.update()

MindTorch代码

import mindtorch.torch as torch
from mindtorch.torch.cuda.amp import GradScaler
from mindspore.amp import auto_mixed_precision

model = Net().cuda()
optimizer = torch.optim.SGD(net.parameters(), lr=0.01, momentum=0.9, weight_decay=0.0005)

scaler = GradScaler()

# model方法调用需要放在混合精度模型转换前
model.train()
# model为混合精度模型,需要对输出的tensor进行类型转换
model = auto_mixed_precision(model, '03') # 03为昇腾环境 02为GPU

def forward_fn(data, target):
    logits = model(data)
    logits = torch.cast_tp_adapter_tensor(logits)
    loss = criterion(logits, target)
    loss = scaler.scale(loss) # 损失缩放
    return loss

grad_fn = ms.ops.value_and_grad(forward_fn, None, optimizer.parameters)

def train_step(data, target):
    loss, grads = grad_fn(data, target)
    return loss, grads

for epoch in epochs:
    for inputs, target in data:
        loss, grads = train_step(inputs, target)
           scaler.unscale_(optimizer, grads) # 反向缩放梯度
           grads = ms.ops.clip_by_global_norm(grads, max_norm) # 梯度裁剪
           scaler.step(optimizer, grads) # 梯度更新
           scaler.update() # 更新参数
            

  1. 调用auto_mixed_precision自动生成混合精度模型,如果 需要调用原始模型的方法请在混合精度模型生成前执行,如 model.train();
  2. 如果后续有对网络输出Tensor的操作,需调用 cast_to_adapter_tensor手动将输出Tensor转换为MindTorch Tensor。
  3. 调用GradScaler对梯度进行缩放时,由于自动微分机制和 接口区别,unscale_和step等接口需要把梯度grads作为入参传入。

MindTorch使用MindSpore并行训练

MindTorch使用MindSpore数据并行

import mindtorch.torch as torch
from mindtorch.torch.utils.data import Dataloader, DistributedSampler
from mindspore.communication import init
import mindspore as ms

init("hccl") # 初始化通信环境:“hccl"---Ascend,"nccl"---GPU,"mccl"---CPU
ms.set_auto_parallel_context(parallel mode=ms.Paral1e1Mode.DATA PARALLEL) # 配置数据并行模式torch.manual seed(1) #设置随机种子,使得每张卡上权重初始化值一样,便于收敛

train_images = datasets.CIFAR10('./',train=True, download=True, transform=transform)
sampler = DistributedSampler(train_images)#分布式数据处理
train_data =  DataLoader(train_images, batch_size=32, num_workers=2, drop_last=True, sampler=sampler)

def forward_fn(data,label):
    logits = net(data)
    loss = criterion(logits,label)
    return loss, logits

grad_fn = ms.ops.value_and_grad(forward_fn, None, optimizer.parameters, has_aux=True)
grad_reducer= nn.DistributedGradReducer(optimizer.parameters) #定义分布式优化器

def train_step(data,label):
    (loss,_), grads = grad_fn(data, label) # 确度聚合grads=grad_reducer(grads)
    optimizer(grads)
    return loss

net.train()
for i in range(epochs):
    for inputs, target in train_data:
        res = train_step(inputs, target)

MindTorch使用MindSpore自动并行

import mindtorch.torch as torch
from mindtorch.torch.utils.data import Dataloader, DistributedSampler
from mindspore.communication import init
import mindspore as ms

# 自动并行仅支持静态图模式
ms.set_context(mode=ms.GRAPH_MODE, jit_syntax_level=True)
init("hccl") # 初始化通信环境:“hccl"---Ascend,"nccl"---GPU,"mccl"---CPU
ms.set_auto_parallel_context(parallel_mode=ms.Paral1e1Mode.AUTO_PARALLEL) # 配置数据并行模式torch.manual seed(1) #设置随机种子,使得每张卡上权重初始化值一样,便于收敛

train_images = datasets.CIFAR10('./',train=True, download=True, transform=transform)
sampler = DistributedSampler(train_images) # 分布式数据处理
train_data =  DataLoader(train_images, batch_size=32, num_workers=2, drop_last=True, sampler=sampler)

def forward_fn(data,label):
    logits = net(data)
    loss = criterion(logits,label)
    return loss, logits

grad_fn = ms.ops.value_and_grad(forward_fn, None, optimizer.parameters, has_aux=True)

@ms.hit
def train_step(data,label):
    (loss,_), grads = grad_fn(data, label) # 确度聚合grads=grad_reducer(grads)
    optimizer(grads)
    return loss

net.train()
for i in range(epochs):
    for inputs, target in train_data:
        res = train_step(inputs, target)

MindTorch精度调优

Pytorch代码

import torch
from mindtorch.tools import debug_layer_info

net = Net()
net.load_state_dict(torch.load('pytorch.pth'))
net.eval()

debug_layer_info(net, frame='pytorch')

for X, y in data:
    pred = net(x)
    ...
    exit()

MindSpore代码

import mindtorch.torch as torch
from mindtorch.tools import debug_layer_info

net = Net()
net.load_state_dict(torch.load('pytorch.pth'))
net.eval()

debug_layer_info(net)

for X, y in data:
    pred = net(X)
    ...
    exit()

步骤 1:确保网络输入完全一致(可以使用固定的输入数据也可调用真实数据集)。

步骤 2:确保执行推理模式。

步骤 3:确保网络权重的一致性。

步骤 4:分别将PyTorch和MindTorch的模型推理结果打印出来进行比较,如果比较结果精度误差在1e-3范围内则表示迁移模型精度正常。

步骤 5:打印网络逐层信息协助定位精度异常。当出现网络输出误差过大情况,可以结合信息调试工具(debug_layer_info),检查各网络层输入输出的信息,便于快速定位导致精度异常的网络层,提升精度调试分析效率。同时也可以在动态图模式下基于关键位置添加断点,逐步缩小范围,直至明确误差是否合理。


http://www.kler.cn/a/391848.html

相关文章:

  • Spark:不能创建Managed表,External表已存在...
  • 前端--> nginx-->gateway产生的跨域问题分析
  • 区块链技术在慈善捐赠中的应用
  • 华为机试HJ39 判断两个IP是否属于同一子网
  • zabbix监控端界面时间与服务器时间不对应
  • MySQL_第13章_视图
  • 设计模式之抽象工厂模式(替换Redis双集群升级,代理类抽象场景)
  • 常用中间件介绍
  • Linux(CentOS)开放端口/关闭端口
  • Windows10下局域网的两台电脑间传输文件
  • 2024年9月青少年软件编程(C语言/C++)等级考试试卷(七级)
  • MTSET可溶于DMSO、DMF、THF等有机溶剂,并在水中有轻微的溶解性,91774-25-3
  • AutoDL使用经验
  • vue3使用element-plus,树组件el-tree增加引导线
  • 基于交互多模型 (IMM) 算法的目标跟踪,使用了三种运动模型:匀速运动 (CV)、匀加速运动 (CA) 和匀转弯运动 (CT)。滤波方法为EKF
  • Windows下使用adb实现在模拟器中ping
  • AI制作表情包,每月躺赚1W+,完整流程制作多重变现教学
  • 通过pin_memory 优化 PyTorch 数据加载和传输:工作原理、使用场景与性能分析
  • 探索MoviePy:Python视频编辑的瑞士军刀
  • C/C++每日一练:编写一个查找子串的位置函数
  • PyQt5 加载UI界面与资源文件
  • django博客项目实现站内搜索功能
  • Could not initialize class sun.awt.X11FontManager
  • React Hooks在现代前端开发中的应用
  • vue3+ant design vue实现表单模糊查询
  • 移动硬盘需要格式化才能打开?详解原因与数据恢复方案