当前位置: 首页 > article >正文

【自由能系列(初级),论文解读】神经网络中,熵代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。

神经网络中的熵、自由能与动力学

核心结论
神经网络在“学习”和“成长”过程中,熵、自由能以及动力学扮演着关键角色。
代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。
这三者相互作用,共同影响神经网络的优化与表现。

参考文献:
(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

在这里插入图片描述

几个公式

  • 信息熵: H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=ipilogpi
  • 自由能(在信息论中的形式): F = E − T S F = E - TS F=ETS,其中E为内能,T为温度,S为熵
  • 动力学方程(以Langevin方程为例): Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t),其中 f ( Q ) f(Q) f(Q)为确定性力, η ( t ) \eta(t) η(t)为随机噪声

【表格】神经网络中的熵、自由能与动力学

序号概念/过程公式/描述影响备注
1信息熵 H ( p ) = − ∑ i p i log ⁡ p i H(p) = -\sum_{i} p_i \log p_i H(p)=ipilogpi表示系统的不确定性,是优化过程中的关键指标信息熵衡量了网络参数分布的不确定性,低熵意味着参数分布更集中,模型更确定
2自由能 F = E − T S F = E - TS F=ETS驱动系统向低能量状态演化,优化模型表现在神经网络中,自由能最小化可视为模型训练的目标,通过调整参数减少预测误差
3动力学方程 Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t)描述网络状态随时间的变化,包括确定性和随机性成分动力学方程模拟了神经网络在接收输入和产生输出过程中的动态行为
4熵与自由能关系信息熵减少 → 系统确定性增加 → 自由能降低信息熵的减少意味着模型参数的分布更加集中,从而降低自由能,提高模型性能
5动力学与自由能最小化 d F d t = d E d t − T d S d t \frac{dF}{dt} = \frac{dE}{dt} - T\frac{dS}{dt} dtdF=dtdETdtdS系统状态的变化导致自由能的变化,优化算法通过调整状态来最小化自由能在神经网络训练中,通过调整网络参数(即改变系统状态),实现自由能的最小化
6预测编码框架基于贝叶斯推断,生成模型预测外部世界,通过最小化预测误差来更新模型预测编码框架结合了信息论和动力学,通过自由能最小化实现模型优化
7等变矩阵与内部模型网络结构导致等变矩阵,结构化流形上的流动代表内部模型等变矩阵反映了网络结构的对称性,结构化流形上的流动则代表了网络对外部输入的内在表示
8神经底层与概念整合神经元交互形成宏观认知功能的基础,概念整合促进跨领域理论融合神经底层提供了神经网络运作的微观基础,概念整合则促进了神经科学研究的全面发展

关键点关系描述

  1. 信息熵是衡量系统不确定性的重要指标,在神经网络中反映了模型参数分布的不确定性。在训练过程中,随着模型性能的提升,信息熵逐渐降低,表示模型参数分布更加集中,预测结果更加确定。

  2. 自由能是神经网络优化的目标函数之一,它结合了系统的内能和熵,引导系统向低能量状态演化。在神经网络中,自由能最小化通常意味着预测误差的减少和模型性能的提升。

  3. 动力学方程描述了神经网络状态随时间的变化规律,包括确定性和随机性两部分。确定性部分反映了网络结构的固有特性,而随机性部分则模拟了外部环境对网络的随机影响。通过调整动力学方程中的参数,可以实现神经网络对输入信号的动态响应和输出预测。

  4. 熵与自由能之间存在密切关系。在神经网络中,信息熵的减少通常伴随着自由能的降低,因为信息熵的减少意味着模型参数分布更加集中,从而减少了预测的不确定性,进而降低了自由能。

  5. 动力学过程与自由能最小化紧密相连。在神经网络训练过程中,优化算法通过调整网络参数来改变系统的状态轨迹,从而实现自由能的最小化。这一过程中,动力学方程描述了网络状态随时间的变化规律,为优化算法提供了必要的动态信息。

  6. 预测编码框架结合了信息论和动力学。该框架基于贝叶斯推断原理,通过生成模型来预测外部世界的变化,并通过最小化预测误差来更新内部模型。在这一过程中,信息熵和自由能作为关键指标被用来评估模型的性能和优化方向。

  7. 等变矩阵和结构化流形反映了神经网络结构的对称性及其内在表示方式。等变矩阵描述了网络结构在不同变换下的不变性特征;而结构化流形上的流动则代表了网络对外部输入的内在表示和处理方式。这些因素共同决定了神经网络的认知功能和性能表现。

  8. 神经底层作为神经网络的基础提供了微观层面的支持;而概念整合则促进了跨领域理论的融合和发展。这两方面因素共同推动了神经网络研究的深入和发展壮大。

参考文献
(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.

Keywords:神经网络, 信息熵, 自由能, 动力学, 预测编码, 等变矩阵

#神经网络 #信息熵 #自由能 #动力学 #预测编码 #等变矩阵


http://www.kler.cn/a/454631.html

相关文章:

  • 嵌入式硬件杂谈(七)IGBT MOS管 三极管应用场景与区别
  • 【Unity3D】ECS入门学习(六)状态组件 ISystemStateComponentData
  • Ubuntu离线安装Docker容器
  • 【WRF模拟】如何得到更佳的WRF模拟效果?
  • spring cloud gateway 3
  • 如何为运行在 PICO 4 Ultra 设备上的项目设置外部文件读写权限?
  • flask后端开发(11):User模型创建+注册页面模板渲染
  • 使用Python实现自动化文档生成工具:提升文档编写效率的利器
  • STM32F103RCT6学习之一:基本开发流程
  • FileLink为企业打造了一站式的跨网安全文件共享解决方案
  • Docker使用——国内Docker的安装办法
  • 前端面试题合集(一)——HTML/CSS/Javascript/ES6
  • Kubernetes Gateway API-2-跨命名空间路由
  • 鸿蒙Next自定义相机开发时,如何解决相机在全屏预览的时候,画面会有变形和拉伸?
  • 【Agent】Chatbot、Copilot与Agent如何帮助我们的提升效率?
  • 【js】记录预览pdf文件
  • 如何从 0 到 1 ,打造全新一代分布式数据架构
  • Jenkins 命令行多线程并发下载制品包
  • PPT画图——如何设置导致图片为600dpi
  • 青岛市勘察测绘研究院携手云轴科技ZStack获评专有云典型案例
  • Qt工作总结02 <设置工具栏ToolBar>
  • 对于标签推荐算法的应用
  • fpga系列 HDL:跨时钟域同步 shift register同步 + SPI中的同步方式
  • vue.js 组件化开发 根组件
  • 通俗易懂!使用Excel和TF实现Transformer
  • 光谱相机的工作原理