Datawhale X 李宏毅苹果书 AI夏令营_深度学习基础学习心得Task2.2
本次学习分类问题
1、分类与回归:
回归一般输出一个值y_hat 期望与y越接近越好。分类一般有几类就输出几个值,是一个one-hot的向量,在类别对应的位置值为1
本文介绍了一种重复输出数值后加权的方法,但是我做分类一般用全连接层直接输出多个值,然后使用argmax函数
2、softmax:
公式:
其实主要是一个归一化的作用,并且输出所有值的和为1,这样就类似于每一个类别的概率;并且它还会让大的值和小的值差距更大
但是在二分类问题中,sigmoid和softmax是等价的,一般取sigmoid
3、损失函数:
第一种是均方误差MSE但是这个我一般在回归任务用
第二种是交叉熵CE这个我觉得是最经典的
为什么选CE:
在刚开始训练的时候,CE是有梯度可以下降的,而MSE没有,容易卡住
###################################
心得:我的课题主要是围绕着分类,回归的,所以这一节内容比较熟,就当巩固一遍了