当前位置: 首页 > article >正文

浅析pytorch中的常见函数和方法

一、背景

        pytorch是深度学习的重要建模工具,也几乎是人工智能工程师必须掌握的一大法宝。在建模的过程中,pytorch提供了很多高效的函数以及方法便于我们对数据、模型进行处理。为了避免重复造轮子,我们来盘点下pytorch常用的函数及方法。

二、常见函数及方法

1、张量操作

  • torch.tensor(data):创建一个新的张量。
  • tensor.numpy():将PyTorch张量转换为NumPy数组。
  • tensor.detach():返回一个新的张量,与当前计算图断开连接,不会在梯度传播中跟踪。例如,在模型评估阶段,我们需要对模型的输出进行一些操作,但不希望这些操作影响模型的梯度时,使用detach()可以确保评估过程中的计算不会影响训练过程。此外,当我们需要将张量从一个设备(如GPU)移动到另一个设备(如CPU)时,detach()可以避免不必要的梯度计算。
import torch

# 创建一个需要梯度的张量
x = torch.randn(2, 2, requires_grad=True)
# 执行一些操作
y = x * x
# 将y从计算图中分离
z = y.detach()
z.requires_grad_()
# 对z进行操作不会影响x的梯度
z.sum().backward()  # 这不会在x上产生梯度
# 检查x的梯度
print(x.grad)  # None,因为没有对x进行需要梯度的计算
  • tensor.requires_grad_():设置张量,使其在计算图中跟踪梯度。
import torch

# 创建一个张量,默认不跟踪梯度
x = torch.randn(2, 2)
print(x.requires_grad)  # 输出: False

# 开启梯度跟踪
x.requires_grad_()  # 现在x将跟踪梯度
print(x.requires_grad)  # 输出: True
  • tensor.grad:获取或设置张量的梯度。
  • torch.no_grad():上下文管理器,用于禁用梯度计算,一般用在模型评估等不需要反向传播的环节。
with torch.no_grad():
    outputs = model(inputs)
  • torch.randn(*sizes):生成一个形状为sizes的张量,填充随机值来自标准正态分布。
  • torch.zeros(*sizes):生成一个形状为sizes的张量,填充值为0。
  • torch.ones(*sizes):生成一个形状为sizes的张量,填充值为1。
  • torch.cat(tensors, dim):沿指定维度dim连接张量序列。
import torch

# 创建两个二维张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])

# 沿维度0连接张量
result = torch.cat((tensor1, tensor2), dim=0)
print(result)
  • torch.stack(tensors, dim):沿新维度dim堆叠张量序列。
import torch

# 创建两个张量
tensor1 = torch.tensor([[1, 2], [3, 4]])
tensor2 = torch.tensor([[5, 6], [7, 8]])

# 沿新的维度堆叠张量
stacked_tensor = torch.stack((tensor1, tensor2), dim=0)
print(stacked_tensor)
  • torch.squeeze(tensor, dim):去除张量中大小为1的维度。
import torch

# 创建一个张量,其中包含大小为1的维度
tensor = torch.tensor([[[1], [2]]])

# 去除所有大小为1的维度
squeezed_tensor = torch.squeeze(tensor)
print(squeezed_tensor)
  • torch.unsqueeze(tensor, dim):在指定维度dim插入大小为1的维度。
import torch

# 创建一个向量
tensor = torch.tensor([1, 2])

# 在第1维插入大小为1的维度
unsqueezed_tensor = torch.unsqueeze(tensor, dim=1)
print(unsqueezed_tensor)

2、数字和聚合操作

  • torch.sum(tensor, dim):沿指定维度dim计算张量的和。
import torch

# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]])

# 计算所有元素的和
sum_all = torch.sum(tensor)
# 计算每一列的和
sum_columns = torch.sum(tensor, dim=0)
print("Sum of all elements:", sum_all)
print("Sum of each column:", sum_columns)
  • torch.mean(tensor, dim):沿指定维度dim计算张量的平均值。
import torch

# 创建一个张量
tensor = torch.tensor([[1, 2], [3, 4]], dtype=torch.float)

# 计算所有元素的平均值
mean_all = torch.mean(tensor)
# 计算每一列的平均值
mean_columns = torch.mean(tensor, dim=0)
print("Mean of all elements:", mean_all)
print("Mean of each column:", mean_columns)
  • torch.min(tensor, dim):沿指定维度dim找到张量的最小值。
import torch

# 创建一个张量
tensor = torch.tensor([[1, 3], [2, 0]])

# 计算所有元素中的最小值
min_all = torch.min(tensor)

# 计算每一列的最小值
min_columns = torch.min(tensor, dim=0)[0]  # Returns a tuple, so we take the first element

print("Min of all elements:", min_all)
print("Min of each column:", min_columns)
  • torch.max(tensor, dim):沿指定维度dim找到张量的最大值。
import torch

# 创建一个张量
tensor = torch.tensor([[1, 3], [2, 0]])

# 计算所有元素中的最大值
max_all = torch.max(tensor)
# 计算每一列的最大值
max_columns = torch.max(tensor, dim=0)[0]  # Returns a tuple, so we take the first element
print("Max of all elements:", max_all)
print("Max of each column:", max_columns)
  • torch.argmax(tensor, dim):沿指定维度dim找到张量最大值的索引。
import torch

# 创建一个张量
tensor = torch.tensor([[1, 3], [2, 0]])

# 计算每一列最大值的索引
argmax_columns = torch.argmax(tensor, dim=0)

print("Argmax of each column:", argmax_columns)
  • torch.exp(tensor):计算张量中每个元素的指数。
import torch

# 创建一个张量
tensor = torch.tensor([0.0, 1.0, 2.0])

# 计算每个元素的指数
exp_tensor = torch.exp(tensor)

print("Exponential of tensor:", exp_tensor)
  • torch.log(tensor):计算张量中每个元素的自然对数。
import torch

# 创建一个张量
tensor = torch.tensor([1.0, 2.0, 3.0])

# 计算每个元素的自然对数
log_tensor = torch.log(tensor)

print("Natural logarithm of tensor:", log_tensor)

3、张量计算

  • torch.matmul(tensor1, tensor2):计算两个张量的矩阵乘积。
import torch

# 创建两个2x2矩阵
matrix1 = torch.tensor([[1, 2], [3, 4]])
matrix2 = torch.tensor([[5, 6], [7, 8]])

# 计算矩阵乘积
result = torch.matmul(matrix1, matrix2)

print("Matrix multiplication result:\n", result)
  • torch.inverse(tensor):计算方阵张量的逆。
import torch

# 创建一个2x2方阵
matrix = torch.tensor([[1, 2], [3, 4]], dtype=torch.float)

# 计算矩阵的逆
# 注意:只有方阵才有逆
inverse_matrix = torch.inverse(matrix)

print("Inverse of matrix:\n", inverse_matrix)
  • torch.norm(tensor, p):计算张量的Lp范数。
import torch

# 创建一个向量
vector = torch.tensor([3, 4], dtype=torch.float)

# 计算L1范数(绝对值之和)
norm_l1 = torch.norm(vector, p=1)

# 计算L2范数(欧几里得距离)
norm_l2 = torch.norm(vector, p=2)

print("L1 norm of vector:", norm_l1)
print("L2 norm of vector:", norm_l2)


http://www.kler.cn/a/393385.html

相关文章:

  • PTA数据结构编程题7-1最大子列和问题
  • 解锁高效密码:适当休息,让学习状态满格
  • 事件驱动编程与异步编程:原理、对比及实践案例
  • bypy上传配置
  • Text组件的用法
  • STM32-笔记11-手写带操作系统的延时函数
  • 128.WEB渗透测试-信息收集-ARL(19)
  • DDE(深度桌面环境) Qt 6.8 适配说明
  • 嵌入式开发套件(golang版本)
  • 昇思大模型平台打卡体验活动:项目6基于MindSpore通过GPT实现情感分类
  • 力扣662:二叉树的最大宽度
  • Java面向对象编程进阶之包装类
  • Python---re模块(正则表达式)
  • 快递鸟快递查询API接口参数代码
  • 字符设备 - The most important !
  • JavaScript 中实例化生成对象的相关探讨
  • JVM 中的完整 GC 流程
  • 电信网关配置管理后台 upload_channels.php 任意文件上传漏洞复现
  • IntelliJ IDEA设置打开文件tab窗口多行展示
  • 使用Cesium for Unreal与Cesium ion构建3D地理空间应用教程
  • PHP运算符
  • 使用React和Vite构建一个AirBnb Experiences克隆网站
  • 父子线程间传值问题以及在子线程或者异步情况下使用RequestContextHolder.getRequestAttributes()的注意事项和解决办法
  • 数据分析——学习框架
  • Overleaf数学符号乱码等问题
  • ISUP协议视频平台EasyCVR视频设备轨迹回放平台智慧农业视频远程监控管理方案