火星科技网您的位置:首页 >人工智能 >

具有单个神经元的人工大脑

导读 柏林工业大学 (TU Berlin) 的研究人员成功地在计算机上模拟了数千个神经细胞的神经网络,只有一个神经元被编程到软件代码中。神经元被激

柏林工业大学 (TU Berlin) 的研究人员成功地在计算机上模拟了数千个神经细胞的神经网络,只有一个神经元被编程到软件代码中。神经元被激活并延迟读取,因此可以在几分之一秒内扮演所有虚拟神经元的角色。这创建了一类全新的神经网络,分布在时间而不是空间上。

这种方法将在未来允许全新的解决方案将人工神经元直接集成到硬件组件中,例如通过光电构建组件。使用这种方法的人工智能硬件还可以节省能源,因此对气候更友好,因为它需要更少的电力。这些结果最近作为“编辑的亮点”发表在Nature Communications上。

与动物王国的其他部分相比,我们大脑中大约有 860 亿个神经细胞确保我们能够完成非凡的心理壮举。这些神经元通过突触连接,并通过电和化学信号传输在一个庞大的网络中相互通信。

几十年来,研究人员一直在开发人工神经网络,该网络可以通过在各个神经元之间建立不同程度的连接来像人类同行一样“学习”。哪些神经元之间的交流特别好取决于神经网络所训练的相应任务。例如,经过训练后,该网络能够识别对象、对图像进行分类或独立编写文本。

一项训练危害相当于开车 70 万公里

“我们的研究解决了当前神经网络面临的两个限制,”柏林工业大学应用动力系统研究领域负责人 PD Serhiy Yanchuk 博士说。首先是超级计算机模拟的神经网络的高能耗。

根据哥本哈根大学的一项研究,用于语言生成的最佳 AI 程序之一的单个训练周期所消耗的电力相当于驾驶 700,000 公里的碳当量 [1]。如果这样的 AI 程序在经过培训后在工业中使用——这将是非常频繁的——整个电力使用可能会高得多 [2]。

“另一方面,还有神经网络,其中神经元被构建为真实的物理系统,”Yanchuk 解释道。“这些可以作为纯电子半导体器件或借助基于激光的光学技术来实现。当然,这些硬件神经元的数量以及它们之间的连接是有限度的。”

虽然已经有可能在超级计算机上对数十亿个神经元进行编程,但迄今为止最新的硬件实现只实现了几千个人工神经细胞。

使用柏林工业大学研究人员开发的方法,这两个挑战的解决方案可能在于使用单个神经元,该神经元在延时输入/输出反馈回路中承担神经网络中所有神经元的作用。

这类似于单个客人通过快速切换座位并说出每个部分来模拟大型餐桌上的对话。特殊的延迟电路记录神经元的状态,对其进行适当的调制,然后发回产生的延迟信号。

“我们现在已经用计算机证明这在原则上是可行的。基于激光的电路将特别适合在硬件中实现,因为它们的速度如此之快,以至于时间延迟特别短,”该研究的第一作者 Florian Stelzer 解释道。

在这个概念中,网络中两个神经元之间的常规空间距离将被时间延迟所取代。“通过进一步操纵时间延迟,可以在这里实现影响单个神经连接强度的选项,这对训练至关重要,”Stelzer 继续说道。

更少的努力和更低的能源消耗

很明显,如果真的只需要制造一个神经元,硬件实现将会受益。然而,基于所谓的时间延迟油藏计算领域的其他结果,研究人员也怀疑他们的方法可以降低人工神经网络的能耗。

在这里,一个物理系统或水库被分配一个输入信号。输出信号通过反馈回路再次作为输入信号传输。通过使用这种方法进行计算,与传统的软件解决方案相比,可以实现良好的性能和更少的能耗。

任务:识别衣物

“我们的系统是一种以人工神经细胞为核心的水库计算的扩展,”Stelzer 说。“这种人造神经细胞只不过是我们可以精确定义的数学非线性函数。”

新的是它可以通过可变的时间延迟来学习。“此外,我们第一次能够模拟深度神经网络的不同网络级别。” 研究人员将此称为“时间折叠深度神经网络”(Fit-DNN)。在他们的计算机模型中,他们的解决方案已经成功地完成了一项典型的神经网络任务:它能够重建因叠加噪声而无法识别的服装图像。

新的见解也是可能的

研究人员将他们的成功归功于他们的数学家、物理学家和计算机科学家团队的跨学科组成。该团队包括来自爱沙尼亚塔尔图大学和马略卡岛帕尔马巴利阿里群岛大学的研究人员。

除了对 AI 系统进行明显的实际改进之外,对时间折叠神经网络的进一步研究可以提供额外的见解。Serhiy Yanchuk 解释说,如果在时间上直接相邻的两个神经元之间的时间延迟进一步缩短,理论上可以创建无限数量的神经元。

“这是时间折叠网络的一项全新功能,它实现了从网络中离散的单个节点到某种连续体的过渡。这可能导致的结果仍然是开放的。” 几个国际物理和计算机科学工作组已经宣布了他们尽快实施新神经网络的计划,包括硬件电路。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。