Leveraging dendritic properties to advance machine learning and neuro-inspired computing
利用树突特性推进机器学习与类脑计算
https://www.sciencedirect.com/science/article/pii/S0959438824000151
摘要
大脑是一个功能强大且高效的系统。它能够处理和存储大量嘈杂且非结构化的信息,同时消耗极少的能量。相比之下,当前的人工智能(AI)系统在训练过程中需要耗费大量资源,但在生物体轻易完成的任务上仍然表现不佳。因此,受大脑启发的工程设计成为了一种前景广阔的途径,用于开发可持续的下一代人工智能系统。本文中,我们描述了生物神经元的树突机制如何为解决重要的人工智能问题提供创新方案,包括多层网络中的信用分配、灾难性遗忘以及高能耗等问题。这些发现为现有架构提供了令人兴奋的替代方案,展示了树突研究如何为构建更强大、更节能的人工学习系统铺平道路。
引言
近年来,人工智能(AI)取得了显著的发展,有望彻底改变我们社会和日常生活的方方面面。然而,人工智能发展的长期可持续性已成为一个主要问题 [1-3]。当前最先进的 AI 系统严重依赖参数扩展来提升性能,导致对资源的需求永无止境 [4]。与此同时,芯片制造业正努力跟上我们日益增长的处理每日生成的海量数据的需求 [4-6]。因此,探索替代方法以改进我们的算法和硬件,确保人工智能在长期内的可持续发展,已变得至关重要。
受神经科学启发的工程设计已经成为开发未来计算系统的一条前景广阔的路径,通过模仿人脑的运作方式及其高效性来实现这一目标 [2, 3, 7, 8]。在神经架构的各个组成部分中,树突作为设计新颖算法和硬件架构的灵感来源,近期受到了广泛关注 [9-11]。与神经元轴突类似,树突拥有电压门控离子通道,使其能够产生高度异质性的再生事件,称为树突尖峰(dSpikes)。得益于 dSpikes,树突可以作为高度非线性且半独立的整合单元运行,极大地扩展了单个神经元所能执行的计算范围 [12-15]。此外,树突机制已被因果关联到大脑的关键功能,包括感官感知、可塑性和行为 [16, 17]。
本综述总结了树突机制如何启发创新网络架构和训练算法开发的具体实例,以解决重要的人工智能问题。具体而言,我们聚焦于三个引人注目的应用:a) 多层神经网络中的学习;b) 缓解灾难性遗忘的影响;c) 开发与受神经启发的硬件兼容的高效算法。通过探讨这些应用,我们旨在展示树突研究在革新机器学习和神经形态工程领域的巨大潜力。
多层网络中的学习
深度神经网络(DNNs)是一种人工神经网络,由以分层方式组织的多个相互连接的处理单元(神经元)组成(图1a)。当 DNN 在新任务上进行训练时,它需要确定如何调整特定的网络参数(例如突触权重),以便对某些输入数据生成期望的输出。这个问题的一个标准解决方案,也被称为“信用分配问题”,是误差反向传播算法(backprop)。该算法执行两个基本功能:首先,它在每次模拟步骤中计算网络预测与目标输出之间的误差(差异)。然后,它通过更新所有网络层中的可训练参数来尝试最小化该误差,从最后一层开始并逐步向前传播。
尽管 backprop 是当前深度学习中最广泛使用的训练算法,但它存在几个缺点 [18]。首先,它的计算成本很高,因为在每次模拟迭代中都需要为整个网络计算误差梯度。其次,它依赖于对称的反馈结构将误差梯度传递到前几层,这在生物学上是不合理的。第三,它需要大量的数据和多次训练才能达到最佳性能。最后,当目标输出未知时(未标记数据),它并不适合无监督学习。鉴于大脑由多层网络组成,能够在仅使用局部可用信息和少量训练样本的情况下完成监督学习和无监督学习,一个有趣的问题随之而来:自然界是如何解决信用分配问题的?
受实验研究 [19, 20] 和早期理论研究 [21] 启发的近期建模研究表明,在考虑某些生物约束的情况下,DNN 中的学习是可能实现的。尽管这些研究在具体预测上有所不同,但它们都采用了类似的原理,这些原理受到树突整合突触信息方式的启发(图1b)。重要的是,这些研究通过添加树突隔室扩展了点神经元模型,使得单个神经元能够整合多个空间分离的输入路径。通过这种方式,前馈(感官/输入)信息可以与来自不同网络层的反馈(高阶/上下文)信号相结合。这种针对特定层的路径交互可以产生非线性的胞体-树突事件,从而允许计算局部误差,这些误差随后可以协调所有层的可塑性和学习过程。
沿着这些思路,Guerguiev 等人(2017)[18] 描述了一种学习规则,该规则依赖于前一层顶树突接收到的反馈信号所生成的树突反应(图1c)。在该研究中,学习通过最小化“目标”阶段和“前向”阶段之间产生的树突平台电位差异来实现,其中输出层分别存在或不存在教师输入。相比之下,Sacramento 等人(2018)[22] 提出,树突平台电位可以直接作为需要被消除(线性化)的误差信号,这是通过针对树突的横向抑制实现的(图1d)。这种方法的一个优势在于,网络可以连续运行,而不需要像 Guerguiev 等人(2017)[18] 的研究那样分为两个独立的时间阶段。
最近,Payeur 等人(2021)[23] 展示了如何通过采用主动的树突机制与基于胞体爆发的可塑性相结合,使深度神经网络(DNNs)能够实现复杂且高效的信用分配(图1e)。在该模型中,传递到顶树突的反馈输入可以驱动树突平台电位,从而导致神经元以高频爆发的形式放电。当与基于爆发的学习规则结合时,神经元爆发可以作为强有力的指导信号,推动可塑性并实现所有网络层的学习。这项研究建立在先前关于多路复用的优雅工作基础上 [24],表明主动树突使神经元集合能够同时传递多个信息流,这些信息流被编码在不同的神经元输出统计特性中(图1f)。值得注意的是,多路复用假说为通过树突机制增加固定数量轴突所能传递的信息量提供了理论依据。
最后,Greedy 等人(2022)[25] 的近期工作将上述思想(树突多路复用、基于爆发的学习规则和树突抑制)整合到一个名为“爆发皮质-皮质网络”(Bursting Cortico-Cortical Networks, BurstCCN)的单一模型中。BurstCCN 被证明在训练多层架构方面非常有效,同时仅需单阶段学习过程。
上述研究突显了树突作为开发新型监督学习算法灵感来源的潜力。然而,生物体还能够从未标记的例子中学习,或者在目标行为未知的情况下学习(无监督学习)。在这方面,提出了一种新的赫布规则,称为对比局部与预测性可塑性(Contrastive Local And Predictive Plasticity, CLAPP)[26]。CLAPP 结合了多种生物学特性,解释了树突活动对突触可塑性的影响。靶向树突的突触(包括横向和反馈突触)可以作为神经元活动的预测信号,从而在整个网络中偏向权重更新。这项研究与最新的实验和理论研究一致,表明树突可能在协调皮层中高效分层预测编码方面发挥了重要作用 [20, 27]。
有趣的是,最近有研究表明,塑造单个神经元路径交互的树突机制可以增强使用标准反向传播训练的神经网络 [28-32]。尽管这些研究在网络架构和评估任务上存在显著差异,但它们都将生物学中的情境调制概念引入了深度神经网络(DNNs)。这一新兴类别的模型能够有效地整合至少两种信息流(数据与情境),大致反映了皮层锥体神经元中观察到的突触组织结构(图1b)。通过将感官信息与情境信号结合,这些模型为解决具有挑战性的现实问题提供了独特的解决方案,包括但不限于多任务学习 [28]、高效的声音去噪 [31] 和强化学习 [30]。上述研究的一些关键意义将在本文后续章节中进一步探讨。
总体而言,上述研究揭示了受树突启发的多层网络适应如何使其能够以有效且创新的方式解决复杂问题。需要注意的是,这些研究的主要目标是增强深度神经网络的计算能力,而非提供详尽的生物学解释。为了全面评估这些算法的生物学真实性,还需要进一步的研究。
树突对灾难性遗忘的解决方案
在深度学习中,“灾难性遗忘”是一种现象,即当神经网络被训练以执行新任务(例如任务 B)时,它会迅速忘记之前学习的任务(例如任务 A)。这是因为在标准反向传播算法下,为任务 A 优化的网络参数可能会被调整以满足任务 B 的特定需求(图2a)。这是一个主要问题,因为它显著限制了单个网络可以存储的任务数量,从而阻碍了其计算能力。有趣的是,最近的实验和理论研究表明,受树突启发的算法可以为灾难性遗忘提供一种自然的解决方案。
多方面的证据表明,在哺乳动物大脑中,单个树突分支而非整个神经元是可塑性和学习的基本单位。树突通过选择性更新与新任务相关的重要突触,同时保持其他突触不变,从而在缓解灾难性遗忘方面发挥了关键作用。例如,Cichon 和 Gan(2015)[33] 在活体实验中证明,不同的运动学习任务会触发非重叠树突中的树突尖峰和突触的长期增强,从而减少记忆干扰。受这些发现的启发,Kirkpatrick 等人(2017)[34] 和 Zenke 等人(2017)[35] 分别提出了弹性权重巩固(Elastic Weight Consolidation, EWC)和突触智能(Synaptic Intelligence, SI)两种算法。尽管它们在数学实现上有所不同,但目标相同:这两种算法都试图识别对已学任务最重要的突触权重,并在学习新任务时降低它们的可塑性。因此,EWC 和 SI 能够让固定大小的深度神经网络(DNNs)顺序学习多个任务,而不会忘记先前学习的内容。近期由 Kastellakis 等人(2016)[36]、Bono 和 Clopath(2017)[37] 以及 Limbacher 和 Legenstein(2020)[38] 进行的建模研究提供了关于生物神经元如何实现类似算法的机制解释。根据这些研究,NMDA 介导的可塑性与时间和功能相关的突触的空间聚集相结合,可以导致记忆的稳定化和稀疏集合存储。
树突可能帮助缓解灾难性遗忘的另一种方式是通过以稀疏分布、情境门控的方式调节记忆的存储和提取。如前所述,锥体神经元不仅仅是突触输入的简单阈值单元。它们还可以作为强大的、依赖于情境的处理器,允许远端的情境信号门控前馈信息。尽管当时对此过程的机制尚未完全理解,但 Masse 等人(2018)[39] 提出了上下文依赖门控(Context-dependent Gating, XdG)算法,该算法抽象地模拟了深度神经网络中的树突门控。XdG 的工作原理是为网络提供特定任务的情境信号,这些信号在训练过程中会停用一定比例的神经元。这种方法确保任何给定任务仅激活稀疏且大部分不重叠的单元模式,从而在训练多个任务时显著减少干扰。最近,Iyer 等人(2022)[40] 在一个受生物启发的深度神经网络中实现了类似的结果,其中每个神经元包含可变数量的接收情境信号的树突节点。这些节点连接到一个接收输入的单一节点,只有当神经元至少在一个树突上同时接收到感官信息和情境信号时,才能被激活。这种方法使网络能够为顺序学习的不同任务调用最小重叠的子网络,其激活具有情境特异性。最后,Wybo 等人(2023)[28] 提出,来自树突输入的 NMDA 尖峰可以作为情境适应的一种机制。作者将树突 NMDA 尖峰对神经元输出的调节效应概念化为修正线性单元(ReLU)激活函数斜率和/或阈值的变化。本质上,这种方法使网络能够仅依靠任务特定的情境信号调整激活函数参数来学习多个任务,而无需调整任何前馈突触权重。
低功耗神经形态计算
神经形态计算总体上旨在模拟大脑的信息处理和存储机制。与传统的冯·诺依曼架构相比,神经形态系统由于在每个神经元内紧密集成了计算和存储功能,因此效率显著更高 [3, 7]。这使得信息可以在本地进行处理和存储,减少了不同设备组件之间频繁的数据传输需求。此外,生物神经元以事件驱动的方式稀疏地相互通信,从而进一步提高了这些系统的效率。由于树突在上述过程中不可或缺,可以预见树突机制在神经形态研究中具有重要意义。以下我们将重点介绍一些研究,提供树突如何帮助开发低功耗、受神经启发硬件的具体实例(图2b-e)。
Bhaduri 等人(2018)提供了一个概念验证,表明树突特性可以被利用来高效地在硬件中执行数据分类 [41]。他们开发了一种具有非线性树突的脉冲神经分类器,该分类器仅使用二值突触和结构化突触可塑性规则进行训练。该系统实现了与传统机器学习算法相当的分类精度,同时使用的突触资源要少得多。值得注意的是,由于树突的硬件实现比神经元更紧凑,它们的加入增强了芯片的计算能力,而无需占用显著的额外表面积。
最近,多项研究 [42-44] 开发了利用 Guerguiev 等人(2017)[18] 提出的学习规则(如前所述,图1c)的神经形态系统。与反向传播(backprop)不同,后者需要高数值精度并将误差梯度在整个网络中传递,而这些系统中的误差仅通过尖峰信息(单比特精度)在树突层面局部计算。这种对网络复杂性的降低不仅促进了更友好的硬件实现,还允许直接在设备上存储数据,消除了对外部存储器的需求。片上与片外存储器之间的最小化数据流动被证明显著降低了设备的整体能耗。值得注意的是,这一成就伴随着在传统图像分类基准测试中保持与反向传播训练网络相当的精度的能力 [43]。
点神经元模型的一个基本限制是,它们总是处理传入信息,无论这些信息是否对特定任务至关重要或有用。在深度神经网络(DNNs)中,这可能会引发一系列不必要的神经元激活,从而分散网络的目标注意力,对其性能和效率产生负面影响。为了解决这一问题,Adeel 等人(2022)提出了一种新颖的网络架构,利用双点、情境敏感神经元(TPNs)[29]。这种方法的创新之处在于,TPNs 将到达其顶树突或基底整合区的多条信息流结合起来,以推断情境相关性。具体而言,到达顶树突整合区的不同情境信号源可以通过增强或抑制到达基底整合区的感官信号来调节神经元活动。因此,TPNs 被选择性激活,仅在接收到的信息与当前任务相关时做出反应。为了测试这一架构,作者采用了一项具有挑战性的视听语音处理任务,该任务利用唇部运动的视频信息,在嘈杂环境中选择性地放大听到的语音信号。尽管表现出与其他最先进的方法相当的准确性,TPN 网络展示了显著更快的学习速度和更稀疏的神经元激活。这两种属性后来被证明在场可编程门阵列(FPGA)上仿真时大幅降低了其功耗 [31]。
忆阻器领域的最新进展揭示了如何利用树突机制来创建强大且高效的系统。Li 及其同事(2020 和 2022)证明,将树突非线性引入忆阻器设备可以显著提高其性能和效率 [45, 46]。添加主动树突在输入处理中引入了一个额外的阈值步骤,这对于去噪和维持稀疏网络激活是最佳的。值得注意的是,所提出的架构在包括噪声图像分类和人体动作识别在内的挑战性任务中表现优异,而其成本仅为现代 CPU 或 GPU 的一小部分。忆阻器树突的一个关键优势在于,它们通过使神经元动态更加丰富来增强网络性能。这种方法在硬件成本方面效率更高,并且比简单地通过增加更多神经元和突触扩展网络消耗更少的能量。
结论与下一步方向
历史上,神经科学一直是改进人工智能(AI)的灵感来源,并预计将成为未来创新的催化剂 [2]。在此,我们讨论了受树突启发的 AI 和计算领域的最新研究进展,重点关注三个主要类别:a) 探索反向传播算法的替代方案以训练深度神经网络(DNNs),b) 解决灾难性遗忘问题,c) 设计高效算法和神经形态硬件。所展示的研究结果表明,受树突启发的系统在处理复杂任务和提供重要效率优势方面展现了巨大的潜力,尤其是在硬件实现方面。这些优势正获得广泛认可,预示着机器学习和神经形态工程领域即将发生范式转变,其中树突将发挥核心作用。
然而,要使树突成为下一代 AI 系统的组成部分,还有很长的路要走。原因之一是,当前它们在性能精度上尚未超越最先进的系统。另一个原因是,现有的机器学习平台(如 TensorFlow、PyTorch)针对标准化的 DNN 架构和学习规则进行了优化,这使得构建受树突启发的系统变得困难。此外,尽管数十年来关于神经元树突在单细胞计算中的作用已有大量研究 [12, 13],其在网络功能中的参与长期以来仍然难以捉摸。这种有限的理解阻碍了我们将树突特性提取并应用于 AI 的能力。
未来几年需要解决的开放性问题包括但不限于以下几点:
树突树的解剖结构、生理特性(如离子机制)和可塑性(突触、内在、网络层面)如何相互作用以驱动生物系统中的学习?
AI 系统需要在多大程度上结合树突的解剖/生理特性和可塑性特性,以最大化其处理能力和效率?
反向传播算法是否是训练 DNN 的最佳解决方案?生物学能否提供更好且更高效的替代方案?
生物智能的关键成分是什么,使大脑成为既强大又极其高效的计算系统?
以上只是推动生物启发 AI 实现重大飞跃所需知识的几个例子,这将使人工系统更接近生物大脑令人印象深刻的性能。树突启发的时代已经开始,为未来激动人心且变革性的进步带来了巨大希望。
原文链接:https://www.sciencedirect.com/science/article/pii/S0959438824000151