当前位置: 首页 > article >正文

On the Spectral Bias of Neural Networks论文阅读

1. 摘要

众所周知,过度参数化的深度神经网络(DNNs)是一种表达能力极强的函数,它甚至可以以100%的训练精度记忆随机数据。这就提出了一个问题,为什么他们不能轻易地对真实数据进行拟合呢。为了回答这个问题,研究人员使用傅里叶分析来研究深层网络。他们证明了具有有限权值(或训练有限步长)的深度网络天生偏向于表示输入空间上的平滑函数。具体地说,深度ReLU网络函数的特定频率分量(k)的衰减速度至少与O(k^2)一样快,宽度和深度分别以多项式和指数的方式帮助建模更高的频率。例如,这说明了为什么DNNs不能完美地记忆峰形三角函数。他们还表明,DNNs可以利用低维数据流形的几何形状,用简单函数近似流形上存在的复杂函数。因此,研究人员发现,所有被网络分类为属于某一类的样本(包括对抗本)都通过一条路径连接,这样网络沿着那条路径的预测就不会改变。最后,一般来说高频分量函数所对应的神经网络参数所占比重较小,这有助于正则化与抗过拟合。

2. 引言

低频信息指的是颜色缓慢变化,代表着连续渐变的一块区域,这部分为低频信息。对于一副图像来说,除去高频就是低频,也就是边缘以内的内容为低频,而边缘内的内容就是图像的大部分信息,即图像的大致概貌和轮廓,是图像的近似信息。

反之,图像边缘的灰度值变化快,就对应着高频。图像的细节处也就是属于灰度值急剧变化的区域,正是因为灰度值的急剧变化,才会出现细节。另外对于噪声,在一个像素所在的位置,之所以是噪点,是因为它与正常的点颜色不一样了,也就是说该像素点灰度值明显不一样,所以是高频部分。

通常,图像的低频是图像中对象的大致概况内容,高频对应噪声和细节。神经网络更倾向于拟合高频信息,而人类主要关注低频信息,然而对低频分量的学习,更有助于网络提高在对抗干扰过程中的鲁棒性。

主要贡献:

  • 利用连续分段线性结构对ReLU网络的傅里叶谱分量进行分析。
  • 发现了谱分量偏差(Spectrum bias)的经验证据,来源于低频分量,然而对低频分量的学习,有助于网络在对抗干扰过程中的鲁棒性。
  • 通过流形理论,给予学习理论框架分析。

3. 实验结果

 

 

 

 

 

参考文献

On the Spectral Bias of Neural Networks

On the Spectral Bias of Deep Neural Networks笔记 - 知乎

去芜存三菁,On Spectral Bias of Deep Neural Networks精读上 - 知乎


http://www.kler.cn/a/231907.html

相关文章:

  • 微服务即时通讯系统的实现(客户端)----(2)
  • 校园二手交易网站毕业设计基于SpringBootSSM框架
  • 算法沉淀一:双指针
  • 网络学习第四篇
  • SAFETY LAYERS IN ALIGNED LARGE LANGUAGEMODELS: THE KEY TO LLM SECURITY
  • 创建vue+electron项目流程
  • Docker-Learn(一)使用Dockerfile创建Docker镜像
  • Windows SDK(四)鼠标和键盘消息处理
  • 已解决:tpm2_createpriimay: command not found
  • 相机图像质量研究(7)常见问题总结:光学结构对成像的影响--镜片固化
  • pytorch入门第一天
  • 【Spring连载】使用Spring Data访问Redis(九)----Redis流 Streams
  • 打卡今天学习的命令 (linux
  • 深度学习本科课程 实验3 网络优化
  • Terraform实战(三)-在AWS上尝试Terraform的Vault Provider
  • Golang 并发 Cond条件变量
  • TS学习与实践
  • freertos 源码分析五 任务调度一
  • Linux大集合
  • 使用python实现:判断任意坐标点在STL几何模型的内部或外部
  • go 内存二进制数据操作
  • Redis——缓存设计与优化
  • Python面试题13-18
  • vue3 mathjax2.7.7 数学公式
  • Chrome 沙箱逃逸 -- Plaid CTF 2020 mojo
  • 服务器运存使用率多少正常?