分类
圣母大学新闻

研究人员开发了一种新的计算机学习方法来提高人工智能的速度

直到最近,教老狗学新把戏还比教电脑学人类学的方法容易。制造人工智能(AI)的一种方法是增强计算机的神经网络,使其能够访问并将已学过的信息应用于新任务。这种方法需要大量的时间和精力来将数据从内存传输到处理单元。

美国圣母大学(University of Notre Dame)的研究人员展示了一种新颖的一次性学习方法,这种方法使计算机能够更快速、更有效地利用已学过的模式,而且比目前可能使用的能源更少,同时还能适应新的任务和以前从未见过的数据。他们的研究成果最近发表在《自然电子》杂志上,采用了来自德国德累斯顿GlobalFoundries的铁电场效应晶体管(FeFET)技术。

Suman Datta Suman达塔

史汀生教授为首的Suman达塔的纳米技术和应用程序和Systems-driven中心主任节能集成纳米技术和非常节能中心集体电子、跨学科的团队制作了铁电三元内容可寻址存储器阵列的原型,其中每个存储单元是基于两个铁电场效应晶体管,一,few-shot学习应用。与更传统的处理平台相比,诺特丹原型系统在访问计算内存和应用先验信息方面的能耗降低了60倍,数据处理时间提高了2700倍。将“以前储存的”信息应用到不同的情况下,可以使人们适应新的但相似的任务。即使是高度编程的深度神经网络,目前在人工智能应用中使用,如计算机视觉和语音识别,也很难适应新类型的数据,而且在很大程度上无法使用存储在记忆库中的信息来处理新情况。这意味着在新的网络训练中,需要不断地获取大量的标记数据。另一方面,生物大脑只需要几个例子——甚至一个——来学习和理解新情况的框架,有效地从旧的输入中归纳并做出适当的反应。“在这项工作中,我们展示了如何使用新兴设备,如铁电场效应晶体管,来创建一个非常紧凑的注意力存储器,存储以前学过的特征,”达塔说。由此产生的快速、高效的向量搜索和匹配操作,突出了这种注意力记忆在一次性学习应用中的优势。这个团队由设备物理学家、电路设计师、计算机架构师和机器学习算法专家组成,包括来自电机工程系的Datta和博士后研究员倪凯。来自计算机科学与工程系的联合首席研究员、研究生院专业发展教授兼副院长胡晓波、副教授迈克尔·尼米尔、助理教授西达尔特·乔希、研究生安·f·拉古纳和殷迅招。

最早由Nina Welding于11月21日在conductorshare.nd.edu网站上发表。

新闻旨在传播有益信息,英文原版地址:https://news.nd.edu/news/training-computers-to-be-lifelong-learners-starts-with-an-attentional-memory-that-allows-a-computer-to-search-and-match-more-easily/