KAN论文
根据Kolmogorov-Arnold表示定理,任何多变量连续函数都可以表示为一系列单变量函数的组合。这意味着,尽管我们可能面对的是一个多变量的复杂函数,但我们可以通过学习一系列单变量函数及其组合来逼近这个复杂的函数。
论文结构
当N较大时,由于COD的影响,样条曲线失效;mlp可以潜在地学习广义加性结构,但它们对于用ReLU激活来近似指数函数和正弦函数是非常低效的。相比之下,KANs可以很好地学习组合结构和单变量函数,因此在很大程度上优于mlp(见图3.1)。
在本文中,我们将使用大量的数值实验来证明,kan可以导致mlp的准确性和可解释性的提高,至少在小规模的人工智能科学任务上。本文的组织结构如图2.1所示。在第2节中,我们介绍了KAN架构及其数学基础,介绍了网络简化技术以使KAN具有可解释性,并介绍了网格扩展技术以使KAN更加准确。在第3节中,我们证明了kan在数据拟合方面比mlp更准确:当数据中存在组合结构时,kan可以克服维度的诅咒,实现比mlp更好的缩放规律。我们还通过泊松方程的一个简单例子证明了KANs在PDE求解中的潜力。在第4节中,我们展示了KANs是可解释的,可以用于科学发现。我们用数学(结理论)和物理(安德森定位)中的两个例子来证明,KANs可以帮助科学家(重新)发现数学和物理定律的“合作者”。第五部分总结了相关工作。在第6节中,我们通过讨论广泛的影响和未来的方向来结束。代码可在https://github.com/KindXiaoming/pykan上获得,也可以通过pip install pykan安装。