当前位置: 首页 > article >正文

深度学习基础—Softmax回归

        通常对于二分类问题,大家熟知的模型就是logistic回归。那么对于多分类问题呢?如果要多分类,我们可以在网络的最后一层建立多个神经元,每个神经元对应一个分类的输出,输出的是某一个分类的概率,这些概率之和为1。要想做到上述分析,就需要由Softmax激活函数组成的Softmax回归模型来解决。

1.Softmax激活函数


        其中,xi是输入,n是输入向量的维度。这个函数的结果分布概率之和是1。通常运用在模型的最后一层,即输出层。和分类交叉熵损失函数结合到一起就是Softmax回归。

2.分类交叉熵损失函数


        这个损失函数和Softmax激活函数搭配很好的原因有如下几点考虑:第一点是激活函数是指数函数ex的组合,损失函数对输出取log()对数,两者互为反函数,因此可以简化运算。第二点是即使输入Softmax激活函数的是负数,该激活函数也能将输出转化(0,1)区间,然后计算该损失函数,log()函数在(0,1)区间内是负数,和损失函数前面的负号抵消,因此有利于数值稳定。

3.Softmax回归


        如下是假如我们要训练的网络:

        我们需要进行4分类问题,因此网络最后一层是4个神经元,在其它层选择和往常一样线性组合和激活函数操作,在最后一层L层,选择Softmax激活函数,则最后一层的计算如下:

        最终,a[L]向量即为网络的输出,它是4*1的向量。注意,如果要分类的类别是2,则Softmax回归退化成logistic回归。

        假设一个样本的标签是:

        而网络的输出是:

        可以看出,样本是类别2,但是类别2的输出概率为0.2,这样的输出效果很差。经过损失函数的计算得到如下:

        为了使损失降低,就需要提高类别2的输出概率,因此可以看出来选择分类交叉熵损失函数可以起到多分类降低损失的效果。

        在使用梯度下降法时,需要求损失函数关于z的偏导,于是下面给出推导过程(并不规范):

        情况一:当i=j时,此时说明yi=1,则:

        情况二:当i!=j时,yi=0,则:

        因此,这个关键的梯度公式:

        有了这个梯度公式,就可以依次计算各层的导数了,进而实现梯度下降法进行优化。


http://www.kler.cn/a/282167.html

相关文章:

  • RabbitMQ 在 Java 和 Spring Boot 中的应用详解
  • 储能技术中锂离子电池的优势和劣势
  • 【网络安全 | 漏洞挖掘】通过密码重置污染实现账户接管
  • 数据库的隔离机制---对MySQL 默认隔离级别的理解
  • 技术理论||02空中三角测量
  • 大模型(LLMs)进阶篇
  • 虚拟化云管服务奥创的优化升级以及多集群下VPC网络实现
  • XML CSS:结构和样式的完美结合
  • python(9) : docker方式运行python程序(自启动,守护)
  • 恒电流间歇滴定法 (GITT) 测试教程
  • 国产游戏行业的技术突破与未来展望:挑战与机遇并存
  • macos MacPort 包管理工具安装和使用
  • TCP的连接建立及报文段首部格式
  • P1516 青蛙的约会(exgcd)
  • 操作系统
  • 最火视频素材去哪里找?热门的视频素材网站库分享给你
  • 工业软件架构1:(QT和C++实现)
  • LLama3技术报告笔记(垂直能力)
  • js逆向——异步栈分析(上)
  • Faiss入门心得---向量数据库Faiss的搭建与使用
  • C#/WinForm实现炸弹人游戏
  • PaddleNLP 3.0 支持大语言模型开发
  • 新手学习打怪之编译安装LAMP和LNMP
  • 力扣850.矩形面积 II
  • Python的requests库详细介绍
  • 【持续更新】Mχ Plaayer Pro 1.86.0安卓知名播放器最新免费高级修改版