当前位置: 首页 > article >正文

【论文笔记】AutoLFADS (Nature Methods, 2022)

在这里插入图片描述


相关链接:

  • Is This Tutorial For You? - AutoLFADS Tutorial
  • DANDI Archive
  • Nonhuman Primate Reaching with Multichannel Sensorimotor Cortex Electrophysiology

Abstract

通过深度神经群体动力学模型实现最先进的性能需要对每个数据集进行广泛的超参数调整。 AutoLFADS 是一个模型调整框架,可以根据来自各种大脑区域和任务的数据自动生成高性能的自动编码模型,而无需行为或任务信息。作者在几个恒河猴数据集上证明了其广泛的适用性。


Introduction

  • 背景:像 LFADS 这样的 ANN 模型可能很难优化,因为它们通常需要彻底的超参数 (HP) 调整才能获得良好的性能。对于 LFADS,高性能模型通常是通过行为数据评估来识别的,当行为相关性有限(例如在认知领域)时,这会进一步使优化变得复杂。
  • LFADS:一种 SVAE,它使用 RNN(“生成器”)来近似观察到的神经群体活动背后的潜在动力系统。它将分箱尖峰计数序列视为泊松过程的噪声观测。给定观察到的序列,模型推断每个神经元在每个时间步的潜在放电率。考虑到推断的比率,训练目标最大化观察到的尖峰活动的边际可能性的下限。
  • AutoLFADS:一种用于自动模型调整的无监督框架,可以对一系列大脑区域和行为的神经群体动态进行准确的单次试验推断。由于 AutoLFADS 不需要行为关联,因此它可以在不引入表征偏差的情况下调整模型,并能够对缺乏明确行为关联的神经数据进行动态建模。作者证明 AutoLFADS 为恒河猴数据集提供了在各种任务期间跨越运动、体感和认知领域的神经活动的改进表示。
  • 目标:为了准确推断发射率,必须正确训练和规范模型(下图 b)。这可以通过优化各种 HP 来实现(例如,Kullback-Leibler 散度 (KL) 和 L2 惩罚的缩放因子,dropout 概率和学习率)。这些 HP 的最佳值取决于各种因素,包括数据集大小、相关大脑区域的动态结构和行为任务。

Method

AutoLFADS:基于LFADS架构,同时使用正则化策略 (Coordinated dropout,CD) 和 HP 优化的有效方法 (Population-based training,PBT)

在这里插入图片描述

  • 关键挑战:过拟合(Overfitting)和欠拟合(Underfitting)

    • Overfitting模型只需简单地将单个尖峰从输入传递到输出,但没有建模数据背后的任何有意义的结构,如上图b左所示。同时,这种错误模式无法通过标准验证指标检测,因为这种简单的输入输出模式在训练和验证集上的执行类似。作者将其定义为“identity overfitting”,区别于简单的训练集过拟合。如上图c所示,看似具有最佳可能性的模型实际上对潜在放电率的推断很差(红色三角)。
    • Underfitting:如上图b右所示,放电率以及Spike的推断结果都很差,可能模型根本没有训好,不在本文讨论范围内。
  • Coordinated dropout (CD):一种非常巧妙的正则化技术,可以完全防止“identity overfitting

    • 如上图d,在每个训练步骤中,标准 dropout 应用于输入数据元素(即尖峰计数bins),输入数据张量的随机元素被归零(蓝色数据块),其余元素被放大,这些元素的损失梯度停止,以防止过度拟合尖峰(用彩色箭头表示)。
    • 相当于,输入数据经过随机dropout后,实际参与训练的数据样本对应的梯度被停止,而正常存在梯度的样本对应的输入是0,这样就可以完美防止“模型只是简单地将单个尖峰从输入传递到输出”情况的发生,因为单个数据元素不能用于自我重建。
    • 经过模拟数据实验,如上图e所示,当存在CD正则化策略时,**模型逐渐趋于放电率和spike推断都更加准确的方向。**通过防止“identity overfitting”,CD 恢复了验证集spike似然和放电率重建之间的对应关系,使似然成为模型选择的合适指标。
  • Population-based training (PBT):基于种群的训练策略,一种用于优化神经网络超参数的方法。

    • 在传统的超参数优化方法中,通常会尝试各种超参数组合,然后选择表现最好的超参数进行训练。而 PBT 则通过模拟进化的方式来优化超参数。
    • 在 PBT 中,初始时会随机生成一组超参数,并训练多个模型(称为种群)。在训练过程中,表现较差的模型会继承表现较好模型的超参数,并进行微调,以期望获得更好的性能。这种方式可以看作是一种模拟进化的过程,通过不断地探索新的超参数空间并利用已有模型的信息,来逐步提升整个种群的性能。
    • 通过这种方式,PBT 能够更有效地利用训练资源,加速超参数搜索的过程,最终找到更好的超参数组合。这种方法在大规模训练和调参时特别有用,能够显著提高模型的性能和收敛速度。
      在这里插入图片描述

Results

在这里插入图片描述

  • 图 a-b:在猕猴的迷宫任务中,在试验子集上训练模型,发现 AutoLFADS 在小数据集上的性能显着优于LFADS的手动调整结果
  • 图 c-e:随机到达任务中,尽管数据集是在没有使用运动信息的情况下建模的,但重建试验期间推断的放电率在基础状态空间中表现一致,具有与猴子在每次试验中的到达方向相对应的清晰结构(图d)。同时,AutoLFADS 在手部速度解码方面优于LFADS的随机搜索(图e)。AutoLFADS 学会了在不接收任何有关任务结构的信息的情况下推断揭示速度、位置和目标子空间的速率。
  • 图 f-g:猴子在到达目标中可能会受到阻力的任务中,根据 AutoLFADS 推断发放率进行的所有不同关节角速度解码比通过平滑或高斯过程因子分析(GPFA)获得的速率更准确(图g)
  • 图 h-j:在时间间隔推断任务中,AutoLFADS 捕获了在之前的工作中观察到的两种响应模式的刺激周围时间直方图 (PSTH) 的 ts 依赖性排序(图 i);与根据平滑、GPFA 和 LFADS 随机搜索获得的速率计算的速度相比,在单次试验的基础上,根据 AutoLFADS 速率计算的速度与 tp 的相关性更强(图 j)。
  • 尽管不使用任何任务信息,但 AutoLFADS 推断出的发放率的相关性优于所有无监督方法,并且与监督模型选择相当。 AutoLFADS 成功揭示了神经数据的单次试验表征,而没有明显的行为相关性,这为认知领域的新应用打开了大门。

在这里插入图片描述

监督模型选择的一个显着缺点是,尚不清楚使用一种标准选择的模型是否在使用其他标准时也能表现良好。

  • 图 k-m:AutoLFADS 模型学习的表示在所有的监督指标中表现得与LFADS最佳随机搜索模型一样好甚至更好。对于随机搜索模型,指标通常对哪些模型具有最高性能表现出很大的分歧。因此,监督模型选择可能会给结果率带来偏差。例如,图 l 中选择基于运动学解码的随机搜索模型将导致 PSTH 重建不理想,反之亦然。、

Discussion

  • 强大的模型调整策略使 AutoLFADS 能够使用来自广泛大脑区域和任务的数据生成丰富的神经活动动态模型,无需明显的行为或任务信息,同时对数据集大小具有鲁棒性。在所有测试场景中,尽管在训练或模型选择期间未使用任何行为信息,AutoLFADS 模型在行为指标方面均匹配或优于最佳 LFADS 模型。
  • AutoLFADS 继承了 LFADS 的一些基本假设,例如线性指数泊松观测模型,这可能过于简单化。作者使用这种架构作为起点来证明大规模 HP 搜索是可行且有益的。通过启用大规模搜索,可以有理由相信,未来架构更改所实现的任何性能优势都是由于建模功能的真正差异,而不是缺乏 HP 优化。
  • 总而言之,这些结果表明 AutoLFADS 提供了一个可扩展的框架,用于以前所未有的精度推断单次试验神经动力学。它的可访问性和通用性允许使用单一框架来研究跨大脑区域和任务的动态计算。

学术会议征稿
  • 想要了解国内主办的覆盖学科最全最广的学术会议,请前往【会议官网】:
    学术会议官网www.ais.cn

创作不易,麻烦点点赞和关注咯!


http://www.kler.cn/news/303772.html

相关文章:

  • 深度学习的笔记
  • vue的自定义指令
  • 连年(年份)
  • 再次进阶 舞台王者 第八季完美童模全球赛代言人【肖牧辰】赛场+秀场超燃合集!
  • C51单片机-单按键输入识别,键盘消抖
  • 【原创教程】电气电工18:三大品牌的IO_LINK
  • Leetcode 每日一题:Count Complete Tree Nodes
  • webpack打包原理
  • QT 串口上位机读卡显示
  • DMA与AXI DMA ip
  • PMP–一、二、三模–分类–14.敏捷–技巧–敏捷团队通才型专家
  • Golang数据流处理:掌握Reader和Writer接口的技巧
  • 信息系统容灾等级
  • 【docker】docker network 网络
  • C++数据结构
  • STM32 HAL freertos零基础(九)任务通知
  • 【Python深度学习】逆强化学习(IRL):通俗揭开学习背后的奥秘
  • vue devtools的使用
  • 外包干了3天,技术退步明显.......
  • Apache DataFusion查询引擎简介
  • 0to1使用Redis实现“登录验证”次数限制
  • 【面试题】什么是代理以及如何实现代理
  • shader 案例学习笔记之将坐标系分成4个象限
  • JVM面试真题总结(八)
  • 浅谈WebApi
  • 低压电抗器与电容器安装距离
  • 爆改YOLOv8|利用yolov9的ADown改进卷积Conv-轻量化
  • MySQL--数据库基础
  • 【iOS】——应用启动流程
  • 【GBase 8c V5_3.0.0 分布式部署(单机安装)】