【自由能系列(初级),论文解读】神经网络中,熵代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。
神经网络中的熵、自由能与动力学
核心结论:
神经网络在“学习”和“成长”过程中,熵、自由能以及动力学扮演着关键角色。
熵代表系统的不确定性,自由能则引导系统向更低能量的状态演化,而动力学则描述了系统状态随时间的变化。
这三者相互作用,共同影响神经网络的优化与表现。
参考文献:
(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.
几个公式:
- 信息熵: H ( p ) = − ∑ i p i log p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi
- 自由能(在信息论中的形式): F = E − T S F = E - TS F=E−TS,其中E为内能,T为温度,S为熵
- 动力学方程(以Langevin方程为例): Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t),其中 f ( Q ) f(Q) f(Q)为确定性力, η ( t ) \eta(t) η(t)为随机噪声
【表格】神经网络中的熵、自由能与动力学
序号 | 概念/过程 | 公式/描述 | 影响 | 备注 |
---|---|---|---|---|
1 | 信息熵 | H ( p ) = − ∑ i p i log p i H(p) = -\sum_{i} p_i \log p_i H(p)=−∑ipilogpi | 表示系统的不确定性,是优化过程中的关键指标 | 信息熵衡量了网络参数分布的不确定性,低熵意味着参数分布更集中,模型更确定 |
2 | 自由能 | F = E − T S F = E - TS F=E−TS | 驱动系统向低能量状态演化,优化模型表现 | 在神经网络中,自由能最小化可视为模型训练的目标,通过调整参数减少预测误差 |
3 | 动力学方程 | Q ˙ = f ( Q ) + η ( t ) \dot{Q} = f(Q) + \eta(t) Q˙=f(Q)+η(t) | 描述网络状态随时间的变化,包括确定性和随机性成分 | 动力学方程模拟了神经网络在接收输入和产生输出过程中的动态行为 |
4 | 熵与自由能关系 | 信息熵减少 → 系统确定性增加 → 自由能降低 | 信息熵的减少意味着模型参数的分布更加集中,从而降低自由能,提高模型性能 | |
5 | 动力学与自由能最小化 | d F d t = d E d t − T d S d t \frac{dF}{dt} = \frac{dE}{dt} - T\frac{dS}{dt} dtdF=dtdE−TdtdS | 系统状态的变化导致自由能的变化,优化算法通过调整状态来最小化自由能 | 在神经网络训练中,通过调整网络参数(即改变系统状态),实现自由能的最小化 |
6 | 预测编码框架 | 基于贝叶斯推断,生成模型预测外部世界,通过最小化预测误差来更新模型 | 预测编码框架结合了信息论和动力学,通过自由能最小化实现模型优化 | |
7 | 等变矩阵与内部模型 | 网络结构导致等变矩阵,结构化流形上的流动代表内部模型 | 等变矩阵反映了网络结构的对称性,结构化流形上的流动则代表了网络对外部输入的内在表示 | |
8 | 神经底层与概念整合 | 神经元交互形成宏观认知功能的基础,概念整合促进跨领域理论融合 | 神经底层提供了神经网络运作的微观基础,概念整合则促进了神经科学研究的全面发展 |
关键点关系描述:
-
信息熵是衡量系统不确定性的重要指标,在神经网络中反映了模型参数分布的不确定性。在训练过程中,随着模型性能的提升,信息熵逐渐降低,表示模型参数分布更加集中,预测结果更加确定。
-
自由能是神经网络优化的目标函数之一,它结合了系统的内能和熵,引导系统向低能量状态演化。在神经网络中,自由能最小化通常意味着预测误差的减少和模型性能的提升。
-
动力学方程描述了神经网络状态随时间的变化规律,包括确定性和随机性两部分。确定性部分反映了网络结构的固有特性,而随机性部分则模拟了外部环境对网络的随机影响。通过调整动力学方程中的参数,可以实现神经网络对输入信号的动态响应和输出预测。
-
熵与自由能之间存在密切关系。在神经网络中,信息熵的减少通常伴随着自由能的降低,因为信息熵的减少意味着模型参数分布更加集中,从而减少了预测的不确定性,进而降低了自由能。
-
动力学过程与自由能最小化紧密相连。在神经网络训练过程中,优化算法通过调整网络参数来改变系统的状态轨迹,从而实现自由能的最小化。这一过程中,动力学方程描述了网络状态随时间的变化规律,为优化算法提供了必要的动态信息。
-
预测编码框架结合了信息论和动力学。该框架基于贝叶斯推断原理,通过生成模型来预测外部世界的变化,并通过最小化预测误差来更新内部模型。在这一过程中,信息熵和自由能作为关键指标被用来评估模型的性能和优化方向。
-
等变矩阵和结构化流形反映了神经网络结构的对称性及其内在表示方式。等变矩阵描述了网络结构在不同变换下的不变性特征;而结构化流形上的流动则代表了网络对外部输入的内在表示和处理方式。这些因素共同决定了神经网络的认知功能和性能表现。
-
神经底层作为神经网络的基础提供了微观层面的支持;而概念整合则促进了跨领域理论的融合和发展。这两方面因素共同推动了神经网络研究的深入和发展壮大。
参考文献:
(1) Jirsa, V.; Sheheitli, H. Entropy, Free Energy, Symmetry and Dynamics in the Brain. J. Phys. Complexity 2022, 3 (1), 015007. https://doi.org/10.1088/2632-072X/ac4bec.
Keywords:神经网络, 信息熵, 自由能, 动力学, 预测编码, 等变矩阵
#神经网络 #信息熵 #自由能 #动力学 #预测编码 #等变矩阵