人脑是一个令人难以置信的复杂器官,由1000亿个相互连接的神经细胞组成。然而,即使借助最强大的超级计算机,目前仍无法在这种规模的网络中模拟神经元信号的交换。
一个国际研究人员小组已朝着决定性的一步迈进,创造了一种技术,以在未来的百亿级超级计算机上实现对大脑规模网络的仿真。这一突破性算法发表在《神经信息学前沿》上,允许使用相同数量的计算机内存来代表人脑的较大部分。同时,新算法大大加快了现有超级计算机上的大脑仿真速度。
“自2014年以来,我们的软件可以模拟人脑中所有连接的大约1%的神经元,”尤利希大学神经科学与医学研究所(INM-6)主任Markus Diesmann说。为了实现这一令人印象深刻的壮举,该软件需要Petascale超级计算机的整个主存储器,例如神户的K计算机和尤利希的JUQUEEN。
Diesmann从事模拟软件NEST的研究已有20多年了,该软件是神经科学界广泛使用的免费开放源代码模拟代码,也是欧洲人脑计划的核心模拟器,在其中他领导着以下领域的项目:理论神经科学以及高性能分析和计算平台上的内容。
使用NEST,网络中每个神经元的行为都由少数数学方程式表示。诸如神户计划的后K计算机和尤利希的JUWELS等未来的万亿级计算机,其性能将比当今的高端超级计算机高出10到100倍。研究人员将首次拥有可用于在人脑规模上模拟神经元网络的计算机功能。
似乎是一个死胡同
尽管当前的仿真技术使研究人员能够开始研究大型神经元网络,但它也代表了亿亿级技术之路的死胡同。超级计算机由大约100,000个称为节点的小型计算机组成,每个小型计算机都配备了许多用于进行实际计算的处理器。
“在进行神经网络仿真之前,需要虚拟创建神经元及其连接,这意味着需要在节点的内存中实例化它们。在仿真过程中,神经元不知道在哪个节点上有目标神经元,因此,需要将其短电脉冲发送到所有节点。然后,每个节点都会检查所有这些电脉冲中的哪些与该节点上存在的虚拟神经元相关。”斯德哥尔摩KTH皇家理工学院的Susanne Kunkel解释说。
当前的网络创建算法非常有效,因为所有节点都同时构建了网络的特定部分。但是,将所有电脉冲发送到所有节点不适合在亿亿次系统上进行仿真。
“要有效地检查每个电脉冲的相关性,需要为整个网络中的每个神经元每个处理器提供一比特的信息。对于拥有10亿个神经元的网络,每个节点中的大部分信息仅被每个神经元的这一单个信息所消耗。” Markus Diesmann补充道。
这是模拟更大的网络时的主要问题:每个处理器为每个神经元额外的位所需的计算机内存量会随着神经网络的大小而增加。在人脑的规模上,这将要求每个处理器可用的内存要比当今的超级计算机大100倍。但是,在下一代超级计算机中不太可能出现这种情况。每个计算节点的处理器数量将增加,但每个处理器的内存和计算节点的数量将保持不变。
新算法的突破
在《神经信息学前沿》上发表的突破是在超级计算机中构建神经网络的一种新方法。由于算法的原因,每个节点上所需的内存不再随网络大小而增加。在仿真开始时,新技术允许节点交换有关谁需要向谁发送神经活动数据的信息。一旦掌握了这些知识,就可以组织节点之间神经活动数据的交换,以使节点仅接收其所需的信息。网络中每个神经元不再需要额外的位。
有益的副作用
Susanne Kunkel报告说,在测试他们的新想法时,科学家们获得了另外的重要见解:“在分析新算法时,我们意识到我们的新颖技术不仅可以在亿亿级系统上进行仿真,而且可以使当前可用的超级计算机上的仿真速度更快。 。”
实际上,由于内存消耗现在处于受控状态,因此仿真的速度成为进一步技术发展的主要重点。例如,在尤利希(Jülich)的超级计算机JUQUEEN上运行的5.2万亿个神经元与5.8万亿个突触相连的大型仿真以前需要28.5分钟才能计算出一秒钟的生物时间。通过改进的数据结构仿真,时间可以减少到5.2分钟。
这项研究的主要作者雅克布·乔丹(Jakob Jordan)说:“有了这项新技术,我们可以比以前更好地利用现代微处理器增强的并行性,这在百亿分之一的计算机中将变得更加重要。”
Markus Diesmann补充说:“百亿亿美元的硬件和适当的软件的结合带来了对大脑功能基本方面的研究,例如可塑性和在我们可及的几分钟内不断发展的学习过程。”
标签: 映射大脑
免责声明:本文由用户上传,如有侵权请联系删除!