当前位置: 首页 > article >正文

Datawhale x李宏毅苹果书入门 AI夏令营 task03学习笔记

实践方法论

训练模型的基本步骤:(如下图所示)

  1. 用训练集训练模型,(最终得出来最优的参数集)
  2. 将最优参数集带入模型中,用测试集测试模型(人话:将最优参数集带入原来函数中,用测试集的x值计算y值)(这个过程就叫做预测)


训练过程中遇到问题的解决攻略(看下图的方式是“前序遍历”)

model bias出现问题的情况:

1.看training data的 loss,太大;

2.当你模型无论如何调整参数,训练的结果还是不够好。

解决办法:那就只能重新设计模型,增加(减少)feature,下图是model bias出现问题

下图是optimization出现问题

当loss大了,判断是model bias还是optimization的问题的方法如下:

通过比较不同层数的model判断现在的model够不够大,如果高model比低model效果差,那么就是高model的optimization出现问题(56-layer的前20-layer和20-layer做一样的事,56层的后36层竟然没有帮助反而拖后腿

 选择合理的model的方法:training set分为training set训练,用validation set测试,可以根据validation set测试出来的loss判断使用哪个模型。如下图所示:


通过划分training set和validation set判断选用模型的方法:

  1. 训练集分为等分为n份 数据集,分别选用其中的一个作为val set,其他作为train set,
  2. 写出所有排列的可能(全排列)
  3. 将全排列的val set 和train set的数据带入同一个model中,计算出msei,然后算出平均的mse
  4. 重复操作3,只需要把model换成你要测试的模型之中即可

    overfitting

  • overfitting:loss在training data小,在test data大
  • overfitting解决方法:
  1. 数据增强:a.增加训练资料;b.根据资料的特性和自己对要处理的问题的理解,自己去创造data 
  2. 限制模型:a.Less parameters,sharing parameters(把几个参数值设置成一样的);b.Less features(降低model的层数(即降低model的复杂度,采用简单的模型比如二次多项式等));c.Early stopping;d.Regularization;e.Dropout

http://www.kler.cn/a/285134.html

相关文章:

  • 什么是 Real-Time Factor (RTF)
  • Ubuntu 的 ROS 操作系统turtlebot3环境搭建
  • 一篇Spring Boot 笔记
  • Android Studio | 最新版本配置要求高,JDK运行环境不适配,导致无法启动App
  • 大模型 | 2024年中国智能算力行业白皮书 | 附PDF免费下载
  • 数据重塑:长宽数据转换【基于tidyr】
  • 数据结构——单向链表
  • 五、实现随机地图
  • 【STM32】通用定时器TIM(输出比较)
  • 【sqlite3】MySQL8转sqlite3需要对sql做的一些处理
  • PyCharm 自定义字体大小
  • C++ 有向图算法
  • Tiptap中BubbleMenu讲解
  • CAN协议通信 学习笔记
  • 如何使用Hive构建高校考试分析系统:大数据技术在教育领域的应用
  • Ubuntu中qt类与类信号槽的创建及使用
  • 滑动窗口元素的平均值 ← STL : deque
  • GD32F4xx---RTC初始化设置及闹钟方式实现秒中断讲解
  • 数据结构概念
  • 代码随想录算法训练营第 56 天 |108冗余连接 109冗余连接 II
  • 地平线—征程2(Journey 2-J2)芯片详解(28)—MIPI RX/TX+SD/SDIO/eMMC Interface Timings
  • Python Excel 操作全面总结
  • 计算物理精解【3】
  • 10分钟了解OPPO中间件容器化实践
  • ue Rotate to face BB entry转向不对
  • springboot+redis+mybatis体会布隆过滤器