当前位置: 首页 > article >正文

深度学习04 数据增强、调整学习率

目录

数据增强

常用的数据增强方法

调整学习率

学习率

调整学习率

​调整学习率的方法

有序调整

等间隔调整

        多间隔调整

        指数衰减

        余弦退火

​自适应调整

自定义调整

数据增强

数据增强是通过对训练数据进行各种变换(如旋转、翻转、裁剪等),生成新的训练样本,从而增加数据的多样性。它的主要目的是:

  • 提高模型的泛化能力。

  • 防止过拟合。

  • 在数据量不足的情况下,有效扩展数据集。

常用的数据增强方法

  1. 随机翻转(Random Flip)

    水平翻转:RandomHorizontalFlip         垂直翻转:RandomVerticalFlip
  2. 随机旋转(Random Rotation)

    随机旋转一定角度,例如 RandomRotation(30) 表示在 [-30°, 30°] 范围内随机旋转。
  3. 随机裁剪(Random Crop)

    随机裁剪图像的一部分,例如 RandomResizedCrop(256) 表示随机裁剪并调整大小为 256x256。
  4. 颜色变换(Color Jitter)

    随机调整亮度、对比度、饱和度和色调,例如 ColorJitter(brightness=0.4, contrast=0.4, saturation=0.4, hue=0.1)
  5. 高斯噪声(Gaussian Noise)

    为图像添加随机噪声。
  6. 归一化(Normalization)

    将图像像素值归一化到特定范围,例如 Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])

例如:定义训练集和验证集的图像的数据增强模型

data_transforms = {'train':   
                transforms.Compose([  # transforms.Compose用于将多个图像预处理操作整合在一起
                transforms.Resize([300,300]),   # 使图像变换大小
                transforms.RandomRotation(45),   # 随机旋转,-42到45度之间随机选
                transforms.CenterCrop(256),    # 从中心开始裁剪[256.256]
                transforms.RandomHorizontalFlip(p=0.5),  # 随机水平旋转,随机概率为0.5
                transforms.RandomVerticalFlip(p=0.5),  # 随机垂直旋转,随机概率0.5
               transforms.ColorJitter(brightness=0.2,contrast=0.1,saturation=0.1,hue=0.1),   # 随机改变图像参数,参数分别表示 亮度、对比度、饱和度、色温
                transforms.RandomGrayscale(p=0.1),  # 概率转换成灰度率,3通道就是R=G=B
                transforms.ToTensor(),   # 将PIL图像或NumPy ndarray转换为tensor类型,并将像素值的范围从[0, 255]缩放到[0.0, 1.0],默认把通道维度放在前面
                transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])  # 给定均值和标准差对图像进行标准化,前者为均值,后者为标准差,三个值表示三通道图像
 
                ]),
                'valid':  # 验证集
                    transforms.Compose([   # 整合图像处理的操作
                    transforms.Resize([256,256]),   # 缩放图像尺寸
                    transforms.ToTensor(),   # 转换为torch类型
                    transforms.Normalize([0.485,0.456,0.406],[0.229,0.224,0.225])    # 标准化
                ])
} 

嵌套定义好的数据增强模型

training_data=food_dataset(file_path=r'./train.txt',transform=data_transform['train'])
test_data=food_dataset(file_path=r'./test.txt',transform=data_transform['valid'])

调整学习率

学习率

  • 定义

    学习率是优化算法(如 SGD、Adam)中的一个超参数,控制模型参数的更新步长。

  • 作用

    • 如果学习率太大,可能导致参数更新过快,无法收敛甚至发散。

    • 如果学习率太小,训练速度会变慢,可能陷入局部最优。

  • 重要性:合适的学习率是模型训练成功的关键。

调整学习率

学习率调整(Learning Rate Scheduling) 是优化模型训练的关键技术之一。深度学习中的学习率决定了模型参数在每次更新时的步长大小,合适的学习率可以加速收敛并提高模型的性能。常用的学习率有0.1、0.01以及0.001等,学习率越大则权重更新越快。一般来说,我们希望在训练初期学习率大一些,使得网络收敛迅速,在训练后期学习率小一些,使得网络更好的收敛到最优解。

目的

调整学习率的目的是为了能够更好地优化模型,避免训练过程中出现的一些问题,如梯度爆炸或梯度消失、训练过程陷入局部极小值等

调整学习率的方法

不同方法调整学习率所对应的横轴epoch值与纵轴学习率的关系如图

PyTorch 提供了多种学习率调度器,位于 torch.optim.lr_scheduler 模块中。

有序调整
等间隔调整
多间隔调整

指数衰减

余弦退火
自适应调整

自定义调整


http://www.kler.cn/a/552694.html

相关文章:

  • Redis哈希槽机制的实现
  • 网络安全推荐的视频教程 网络安全系列
  • Flutter 学习大纲
  • HarmonyOS进程通信及原理
  • 初识Linux(9):程序地址空间
  • 特力康输电线路杆塔倾斜智能监测装置:创新技术如何提升电网安全
  • 使用DeepSeek自动获取视频双语字幕srt文件【工具说明】
  • 就像BGP中的AS_PATH一样,无论路途多远,我愿意陪你一起走——基于华为ENSP的BGP的Community[社团属性]深入浅出
  • 【鸿蒙Next】优秀鸿蒙博客集锦
  • linux中yum是干啥的?
  • Unity3D UGUI性能消耗和管理详解
  • HTML之JavaScript Form表单事件
  • Ubuntu 下 nginx-1.24.0 源码分析 - NGX_MAX_ALLOC_FROM_POOL
  • 基于智能体和RWA的分布式商业生态商业模型架构设计
  • 数字化到“数智化”:AI重构商业世界的底层逻辑
  • 【Prometheus】prometheus结合pushgateway实现脚本运行状态监控
  • PyQt加载UI文件
  • HarmonyOS NEXT 5.0.0.126 最新升级内容详解
  • 浅谈模组-相机鬼像
  • 【面试题系列】Java 多线程面试题深度解析