当前位置: 首页 > article >正文

【深度学习】迭代次数 vs bs? 迭代次数 vs epoch

在深度学习的训练过程中,迭代次数(iterations)、批次大小(batch size)和周期(epoch)是三个重要的概念,它们之间有密切的关系。以下是对这些概念及其关系的详细解释:

1. 批次大小(Batch Size)

批次大小是指在一次前向和后向传播中,模型处理的样本数量。批次大小的选择会影响训练的稳定性和速度:

  • 小批次大小:更频繁地更新模型参数,可以更快地找到好的方向,但会导致更高的噪声和不稳定性。
  • 大批次大小:每次更新模型参数时有更准确的梯度估计,但更新频率较低,训练时间可能更长。

2. 迭代次数(Iterations)

迭代次数是指模型在训练过程中更新参数的次数。每次迭代,模型处理一个批次的样本并更新参数。迭代次数的计算公式为:
在这里插入图片描述

[ \text{Iterations per epoch} = \frac{\text{Number of training samples}}{\text{Batch size}} ]

3. 周期(Epoch)

一个周期(epoch)是指模型已经看过所有训练样本一次。换句话说,一个周期意味着模型已经完成了一轮完整的训练数据集的遍历。周期的数量通常用来衡量训练的进展。

关系总结

  1. 迭代次数和批次大小的关系

    • 每次迭代处理一个批次(batch size)的样本。
    • 一个周期内的迭代次数等于训练集的样本数量除以批次大小。
  2. 迭代次数和周期的关系

    • 一个周期内的迭代次数为:
      在这里插入图片描述
      [ \text{Iterations per epoch} = \frac{\text{Number of training samples}}{\text{Batch size}} ]

    • 总的迭代次数(Total iterations)等于每个周期的迭代次数乘以周期数:

    • 在这里插入图片描述
      [ \text{Total iterations} = \text{Iterations per epoch} \times \text{Number of epochs} ]

示例

假设有一个训练集包含1000个样本,批次大小为50,训练10个周期:

  1. 每个周期的迭代次数
    [ \text{Iterations per epoch} = \frac{1000}{50} = 20 ]

  2. 总的迭代次数
    [ \text{Total iterations} = 20 \times 10 = 200 ]

实践中的选择

  • 批次大小:选择合适的批次大小通常需要在稳定性和计算效率之间权衡。较小的批次大小可能导致更高的噪声,但更频繁的参数更新。较大的批次大小则提供更稳定的梯度估计,但需要更多的内存和较长的计算时间。
  • 周期数:通常通过观察训练和验证损失或准确率来决定训练的周期数。过多的周期可能导致过拟合,而过少的周期可能导致欠拟合。

代码示例

以下是一个简单的PyTorch代码示例,展示了迭代次数、批次大小和周期数的关系:

import torch
from torch.utils.data import DataLoader, TensorDataset

# 生成一些示例数据
num_samples = 1000
inputs = torch.randn(num_samples, 10)
targets = torch.randn(num_samples, 1)

# 创建数据集和数据加载器
dataset = TensorDataset(inputs, targets)
batch_size = 50
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True)

# 模型、损失函数和优化器
model = torch.nn.Linear(10, 1)
loss_fn = torch.nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 训练
num_epochs = 10
for epoch in range(num_epochs):
    for batch_inputs, batch_targets in dataloader:
        # 前向传播
        outputs = model(batch_inputs)
        loss = loss_fn(outputs, batch_targets)
        
        # 后向传播和优化
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
    
    print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {loss.item():.4f}')

在这个示例中,我们有1000个样本,批次大小为50,每个周期有20次迭代,总共训练10个周期。因此,总的迭代次数为200次。


http://www.kler.cn/a/282575.html

相关文章:

  • 相机光学(四十四)——ALL-PD和PDAF
  • 报错 No available slot found for the embedding model
  • core 文件
  • 24.11.13 机器学习 特征降维(主成份分析) KNN算法 交叉验证(K-Fold) 超参数搜索
  • 数据结构小项目
  • python爬虫(二)爬取国家博物馆的信息
  • 无线终端ZWS云应用(二)—DTU云的环境监测行业应用
  • Qt第二课----信号和槽
  • python把dbc转换成excel
  • 在Ubuntu 18.04上安装Linux、Nginx、MySQL、PHP(LEMP堆栈)的方法
  • 使用LinkedHashMap实现固定大小的LRU缓存
  • 【分享】7-Zip解压缩软件的4个功能模块
  • HarmonyOS NEXT未成年人模式无缝联动所有应用,过滤非适龄内容
  • centos中yum安装时提示Cannot find a valid baseurl for repo: base/7/x86_64 出现仓库源问题
  • 大模型知识检索RAG业务实践实践(初级篇)
  • 基于SpringBoot+Vue+MySQL的图书管理系统
  • Spring框架:从依赖注入到微服务
  • HTML5有格调的个人介绍网站源码
  • 产品经理如何提升系统思考能力
  • 商业律师事务所借助 DocuSign 解决方案加快了 QES 和身份识别流程 | 电子签约律师事务解决方案
  • Kotlin内联函数
  • BeautifulSoup:Python网页解析库详解
  • 数据结构(邓俊辉)学习笔记】串 14——BM_GS算法:构造gs表
  • Linux文件和目录常用命令
  • 探索OpenCV:图像处理基础与实践
  • 基于STM32开发的智能灌溉系统