分类
纽约大学新闻

新分析得出的结论是,提高人工智能的质量需要超越定量分析

人工智能工程师应该从广泛的社会科学学科(包括那些采用定性方法的学科)中汲取创意和专业知识,以减少他们的发明的潜在危害,更好地服务于整个社会。

Photo credit: ivanastar/Getty Images

人工智能工程师应该争取思想和专业知识从一个广泛的社会科学学科,包括那些拥抱定性的方法,以减少他们的作品的潜在危害,更好地服务社会作为一个整体,一对研究人员在分析得出结论,发表在《自然》杂志上机器智能。

“越来越多的证据表明,人工智能会加剧不平等,使歧视持续存在,并造成伤害,”纽约大学公共知识研究所(Institute for Public Knowledge)研究员莫娜•斯隆(Mona Sloane)和纽约城市大学(City University of New York)博士生伊曼纽尔•莫斯(Emanuel Moss)写道。“实现社会公正的技术,我们需要尽可能广泛的社会科学的概念,一个包括学科发展的方法应对社会世界的浩瀚,帮助我们理解如何以及为什么AI危害出现作为一个大的一部分,复杂的,和紧急科技社会的系统”。

作者概述了为什么社会科学方法,以及它的许多定性方法,可以广泛地提高人工智能的价值,同时避免记录在案的陷阱。研究表明,搜索引擎可能会歧视有色人种女性,而许多分析人士对自动驾驶汽车在撞车情况下(比如避开人类而不是消防栓)如何做出社会可接受的决定提出了质疑。

斯隆,也在纽约大学兼职教员的经脉工程学院和苔藓承认AI工程师目前正在试图灌输“value-alignment”——认为机器应该依照人类的价值在他们的作品,但是补充说,“这是非常难以定义和编码流体和上下文的人类价值观变成机器。”

为了解决这一不足,作者提出了一个蓝图,包括社会科学的人工智能通过一系列建议:

  • 定性的社会研究可以帮助我们理解我们理解社会生活的类别,以及人工智能正在使用的类别。斯隆和莫斯观察到:“例如,技术人员没有受过培训,无法理解机器学习中的种族类别是如何作为一种社会结构重现的,这种社会结构在现实生活中对社会的组织和分层产生影响。”“但这些问题在社会科学中得到了深入的讨论,这有助于创造一个社会历史背景,在这个背景下,‘种族’等类别的归属历史可以变得清晰起来。”
  • 定性数据收集方法可以建立协议来帮助减少偏见。“数据总是反映了收集者的偏见和兴趣,”作者指出。“定性研究对数据收集是明确的,而人工智能的定量研究则不是。”
  • 定性研究通常要求研究人员反思他们的干预是如何影响他们观察的世界的。他们写道:“量化方法不需要研究人员或人工智能设计师将自己定位在社会世界中。”“因此,不需要评估谁被包括在重要的人工智能设计决策中,谁没有。”

斯隆和莫斯总结道:“随着我们继续将社会、文化和技术元素融入我们的生活,我们必须将不同类型的知识融入到技术发展中。”“人工智能在社会上更公正、更民主的未来,不能只是计算或设计出来的;它必须生活在其中,叙述出来,并从对社会的深刻理解中汲取。”

DOI: 10.1038 / s42256 – 019 – 0084 – 6

媒体接触

James Devitt

James Devitt

(212) 998-6808

新闻旨在传播有益信息,英文原版地址:https://www.nyu.edu/content/nyu/en/about/news-publications/news/2019/august/enhancing-the-quality-of-ai-requires-moving-beyond-the-quantitat.html