分类
普林斯顿大学新闻

人工智能模仿大脑发育,减少能源消耗

对于那些每天都要面对蹒跚学步的混乱生活的父母来说,这可能会让他们感到震惊,但大脑的复杂性在3岁左右达到顶峰。

神经元之间的连接数量在我们出生后的头几年里几乎是爆炸式的增长。在那之后,大脑开始将这个庞大的电力网中未使用的部分修剪掉,当我们成年时,我们的大脑会将其缩减到大约一半。幼儿大脑的过度供给使我们能够习得语言和发展精细的运动技能。但是我们没有用的,我们就会失去。

如今,这种生物复杂性的潮起潮落促使普林斯顿大学(Princeton)的一组研究人员创建了一种人工智能的新模型,他们创建的程序在准确性方面达到或超过了行业标准,只使用了一小部分能源。在今年早些时候发表的两篇论文中,研究人员展示了如何从一个简单的人工智能网络设计开始,通过添加人工神经元和连接来扩展网络,然后修剪掉未使用的部分,留下一个精简但高效的最终产品。

电气工程教授Niraj Jha说:“我们的方法就是我们所说的‘生长-修剪’范例。”“这就像我们从婴儿到蹒跚学步时大脑的活动一样。”第三年,人类大脑开始切断脑细胞之间的连接。这一过程一直持续到成年,因此,发育完全的大脑大约在一半的突触高峰时运作。

杰哈说:“成年人的大脑专门负责我们提供的任何训练。”“对于一般目的的学习,它不如幼儿的大脑好。”

软件的增长和修剪结果只需要一小部分的计算能力,因此使用的能量要少得多,就可以对世界做出同样好的预测。限制能源使用对于将这种先进的人工智能——即机器学习——应用到手机和手表等小型设备上至关重要。

前普林斯顿大学(Princeton)研究生、两篇论文的第一作者戴晓亮表示:“在本地运行机器学习模型非常重要,因为(到云端)传输需要大量能量。”戴现在是Facebook的一名研究科学家。

在第一项研究中,研究人员重新检验了机器学习的基础——被称为人工神经网络的抽象代码结构。该团队借鉴了儿童早期发育的灵感,设计了一个神经网络综合工具(NeST),利用20世纪80年代首次开发的复杂数学模型,自动地从头创建了几个顶级的神经网络。

NeST一开始只有少量的人工神经元和连接,通过向网络中添加更多神经元和连接来增加复杂性,一旦达到给定的性能基准,就会随着时间和训练而开始收缩。之前的研究人员也采用了类似的修剪策略,但生长-修剪组合——从“婴儿大脑”到“幼儿大脑”,再到“成人大脑”——代表着从旧理论到新论证的飞跃。

第二篇论文包括了Facebook和加州大学伯克利分校(University of California-Berkeley)的合作者。论文介绍了一个名为“变色龙”(Chameleon)的框架,它从期望的结果开始,然后逆向工作,以找到合适的工具。在一个设计的特定方面有成千上万的变化,工程师们面临着一个选择的悖论,它远远超出了人类的能力。例如:推荐电影的架构与识别肿瘤的架构不一样。用于肺癌的系统与用于宫颈癌的系统看起来有所不同。痴呆助手对男性和女性来说可能是不同的。以此类推,直到无穷。

Jha将变色龙描述为引导工程师向一个有利的设计子集发展。“它为我提供了一个良好的环境,我可以在CPU分钟内完成,”Jha说,他指的是计算处理时间的度量。“所以我很快就能得到最好的建筑。”

变色龙的工作方式是,对代表各种选择的相对较少的体系结构进行培训和取样,然后在给定的条件下预测这些设计的性能。Facebook的一篇博客文章称,由于这种高度自适应的方法降低了前期成本,而且适用于精益平台,“可以为目前没有资源利用这项技术的研究机构扩大使用神经网络的渠道”。

除了Jha和Dai外,普林斯顿大学的研究生殷洪旭(音)对这两篇论文也有贡献。

新闻旨在传播有益信息,英文原版地址:https://www.princeton.edu/news/2019/12/20/grow-and-prune-ai-mimics-brain-development-slashes-energy-use