火星科技网您的位置:首页 >人工智能 >

框架改善了人工智能的“持续学习”

导读 研究人员开发了一种新的深度神经网络框架,该框架允许人工智能(AI)系统更好地学习新任务,同时忘记较少的先前任务所学到的知识。研究人员还

研究人员开发了一种新的深度神经网络框架,该框架允许人工智能(AI)系统更好地学习新任务,同时“忘记”较少的先前任务所学到的知识。研究人员还证明,使用框架学习新任务可以使AI更好地执行以前的任务,这种现象称为后向传递。

“人们有能力不断学习;我们一直在学习新的任务,而不会忘记我们已经知道的事情,”北卡罗来纳州电气和计算机工程助理教授,一篇关于这项工作的论文的共同作者吴天福说。“到目前为止,使用深度神经网络的人工智能系统并不是很擅长这一点。”

“深度神经网络人工智能系统专为学习狭隘任务而设计,”该论文的共同主要作者和博士生李立来说。北卡罗来纳州候选人。“因此,学习新任务时可能会发生以下几种情况之一。系统可以在学习新任务时忘记旧任务,这被称为灾难性遗忘。系统可能会忘记他们对旧任务所知的一些事情,而不是学会做或者系统可以在添加新任务的同时修复旧任务 - 这限制了改进并迅速导致人工智能系统太大而无法有效运行。持续学习,也称为终身学习或学习 - 学习,试图解决这个问题。“

“我们已经提出了一个新的持续学习框架,它将网络结构学习和模型参数学习分离开来,”该论文的联合主要作者,Salesforce Research的研究科学家Yingbo Zhou说。“我们将其称为学习成长框架。在实验测试中,我们发现它优于以前的持续学习方法。”

要了解学习成长框架,请将深层神经网络视为一个充满多层的管道。原始数据进入管道的顶部,任务输出出现在底部。管道中的每个“层”都是一个操作数据的计算,以帮助网络完成其任务,例如识别数字图像中的对象。在管道中布置层的方式有多种,这些方式对应于网络的不同“架构”。

当要求深度神经网络学习新任务时,学习成长框架首先通过搜索进行一种称为显式神经架构优化的东西。这意味着当网络进入其系统中的每一层时,它可以决定做以下四件事之一:跳过图层;以与先前任务使用的方式相同的方式使用图层;将轻量级适配器连接到图层,稍微修改它;或创建一个全新的图层。

此体系结构优化有效地列出了完成新任务所需的最佳拓扑或一系列层。一旦完成,网络就会使用新拓扑来训练自己如何完成任务 - 就像任何其他深度学习AI系统一样。

“我们使用多个数据集进行实验,我们发现新任务与以前的任务越相似,就保留执行新任务的现有层而言,重叠越多,”李说。“更有趣的是,通过优化 - 或”学习“的拓扑结构 - 经过培训以执行新任务的网络几乎不会忘记执行旧任务所需的内容,即使旧任务不相似也是如此。”

研究人员还进行了实验,将学习成长框架学习新任务的能力与其他几种持续学习方法相比较,并发现学习成长框架在完成新任务时具有更高的准确性。

为了测试每个网络在学习新任务时可能忘记了多少,研究人员随后测试了每个系统在执行旧任务时的准确性 - 并且“学习成长”框架再次优于其他网络。

“在某些情况下,学习成长框架实际上在执行旧任务方面做得更好,”Salesforce Research的研究主管,该工作的合着者Caiming Xiong说。“这被称为后向转移,当你发现学习一项新任务会让你更好地处理一项旧任务时就会发生这种情况。我们一直在人们身上看到这种情况;与AI无关。”

该论文“学会成长:克服灾难遗忘的持续结构学习框架”将于6月9日至15日在加利福尼亚州长滩举行的第36届机器学习国际会议上发表。该论文的共同主要作者是Xilai Li,博士。北卡罗来纳州立大学的学生,以及Salesforce Research的Yingbo Zhou。该论文由Salesforce Research的Richard Socher和Caiming Xiong共同撰写。

这项工作是在美国陆军研究办公室的支持下完成的,资助金额为W911NF1810295和W911NF1810209;来自美国国家科学基金会,资助1822477.部分工作是在李是Salesforce AI Research的暑期实习生时完成的。

标签:

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。