分类
麻省理工学院新闻

“以正确的方式进行机器学习”

Aleksander Madry教授致力于建立更可靠、更易懂、更健壮的机器学习模型。

麻省理工学院计算机科学家Aleksander Madry的工作由一个核心任务推动:“以正确的方式进行机器学习。”

马德里的研究主要集中在使机器学习——一种人工智能——更准确、更高效、更能抵抗错误。在他的课堂内外,他还担心道德计算的问题,因为我们即将进入一个人工智能将对社会许多领域产生重大影响的时代。

“我希望社会真正拥抱机器学习,”最近获得电气工程和计算机科学系终身教授的马德里说。“要做到这一点,我们需要找出如何训练人们能够安全、可靠、以他们能够理解的方式使用的模型。”

有趣的是,他对机器学习的研究只追溯到几年前,也就是他2015年加入麻省理工学院后不久。在此期间,他的研究小组发表了几篇关键论文,证明某些模型很容易被欺骗,从而产生不准确的结果,并展示了如何使它们更健壮。

最后,他的目标是让每个模型的决策更容易被人类理解,这样研究人员就可以深入研究,看看哪里出了问题。与此同时,他希望让非专业人士能够将改进后的模型应用于现实世界,比如帮助诊断疾病或控制无人驾驶汽车。

“这不仅仅是试图打开机器学习的黑盒子。我想打开它,看看它是如何工作的,然后把它包装起来,这样人们就可以使用它,而不需要了解里面发生了什么,”他说。

因为对算法的热爱

马德里出生于波兰弗罗茨瓦夫,2000年前后,他在弗罗茨瓦夫大学(University of Wroclaw)读本科。虽然他对计算机科学和物理很感兴趣,但他说:“我从来没有想过自己会成为一名科学家。”

作为一名狂热的电子游戏玩家,马德里最初是为了编写自己的游戏而报名参加计算机科学课程的。但在与朋友们一起参加计算机理论科学(尤其是算法理论)的几堂课时,他爱上了这些材料。算法理论的目的是找到解决计算问题的有效的优化程序,这需要解决数学难题。“我意识到,我喜欢深入思考一些事情,并试图找出答案,”马德里说,他最终选择了物理和计算机科学双学位。

当他在研究生院深入研究算法时,他选择了他的第一选择:麻省理工学院。在这里,他曾在米歇尔·x·戈曼斯(Michel X. Goemans)和乔纳森·a·凯尔纳(Jonathan a . Kelner)手下工作,前者是应用数学和算法优化领域的重要人物,后者刚到麻省理工学院,是该领域的初级教员。在他的博士论文中,Madry开发的算法解决了图形算法中许多长期存在的问题,并获得了2011年George M. Sprowls博士论文奖——麻省理工学院最佳计算机科学博士论文奖。

拿到博士学位后,马德里在微软新英格兰研究院做了一年的博士后,然后在瑞士洛桑联邦理工学院任教三年——马德里称之为“瑞士版的麻省理工学院”。但他的母校不断地给他打电话:“麻省理工学院有我错过的那种令人兴奋的活力。”它就在我的DNA里。”

让敌对的

加入麻省理工学院后不久,马德瑞发现自己被一门新奇的科学所吸引:机器学习。特别是,他专注于理解重新出现的深度学习范式。这是一个人工智能应用程序,它使用多个计算层从原始输入中提取高级特征——比如使用像素级数据对图像进行分类。当时,麻省理工学院的校园里充斥着该领域的新发明。

但这引出了一个问题:机器学习是夸夸其谈还是扎实的科学?“这似乎行得通,但没人真正明白是怎么回事,为什么会这样,”马德瑞说。

回答了这个问题后,他的团队开始了一段漫长的旅程,在深度学习模型上进行了一个又一个实验,以了解其背后的原理。这一过程中的一个重要里程碑是他们在2018年发表的一篇颇具影响力的论文,该论文开发了一种方法,使机器学习模型更能抵抗“对抗性的例子”。“对抗性的例子是对输入数据的轻微干扰,这些数据是人类察觉不到的,比如改变图像中一个像素的颜色,但会导致模型做出不准确的预测。”它们说明了现有机器学习工具的一个主要缺点。

继续这一行的工作,Madry的小组证明了这些神秘的对抗性例子的存在可能有助于机器学习模型如何做出决策。特别是,设计用来区分猫和狗的图像的模型,会根据与人类分类方式不一致的特征做出决定。简单地改变这些特征就能使模型持续地将猫误分类为狗,而不改变图像中对人类真正有意义的任何东西。

结果表明,一些模型——可能用于识别医学图像中的异常或帮助自动驾驶汽车识别道路上的物体——并不完全符合标准。“人们通常认为这些模型是超人,但它们实际上并没有解决我们想让它们解决的分类问题,”Madry说。“他们完全容易受到敌对例子的攻击,就是这个事实的表现。这是一个令人大开眼界的发现。”

这就是为什么Madry试图使机器学习模型对人类更具解释性。他开发的新模型表明,系统所训练的图像中的某些像素能够影响系统的预测。然后,研究人员可以调整模型,将重点放在与可识别特征更紧密相关的像素簇上,比如检测动物的鼻子、耳朵和尾巴。最后,这将有助于使模型在决策时更像人类——或更像“超人”。为了进一步推进这项工作,Madry和他的同事们最近成立了麻省理工学院可部署机器学习中心,这是一个合作研究项目,致力于为真实世界的部署构建机器学习工具。

“我们希望机器学习不仅仅是一件玩具,而是一种你可以在自动驾驶汽车或医疗保健等方面使用的东西。”目前,我们对it的了解还不足以让我们对这些关键的应用有足够的信心,”Madry说。

塑造教育与政策

Madry认为人工智能和决策(“AI+D”是电气工程和计算机科学系的三个新学术单元之一)是“对社会影响最大的计算接口”。

在这方面,他确保让他的学生接触到计算机的人性化方面。在某种程度上,这意味着要考虑他们正在建造的东西的后果。他说,学生们常常会过于雄心勃勃地想要创造新技术,但他们没有考虑过对个人和社会的潜在影响。“建造一些很酷的东西并不是一个足够好的理由来建造一些东西,”Madry说。“这不是关于我们是否能建造什么,而是关于我们是否应该建造什么。”

Madry还参与了关于帮助规范机器学习的法律和政策的讨论。他说,这些讨论的重点之一是更好地理解释放机器学习技术给社会带来的成本和收益。

“有时我们高估了机器学习的能力,以为它会拯救我们。有时我们低估了它可能给社会带来的代价。“要做好机器学习,还有很多问题需要解决。”

新闻旨在传播有益信息,英文原版地址:http://news.mit.edu/2020/aleksander-madry-machine-learning-0308