分类
斯坦福大学新闻

斯坦福大学领导的人工智能快照揭示了挑战

对人工智能行业的定期审查揭示了将问题外包给技术解决而不是解决问题根源的潜在陷阱,以及允许过时的预测模型不受约束。

作为斯坦福大学正在进行的人工智能100年研究的一部分,即所谓的AI100,两个研讨会最近考虑了护理技术和预测建模的问题,以告知人工智能技术的未来发展。

AI illustration

斯坦福大学(stanford)领导的人工智能指数AI100定期评估人工智能技术的状态,并对下一个世纪进行预测。(图片来源:Tricia Seibold)

斯坦福大学工程学教授、AI100的教务主任拉斯•阿尔特曼(Russ Altman)表示:“我们现在看到,人们特别强调人文学科,以及人文学科与人工智能的相互作用。”AI100是斯坦福大学人类中心人工智能研究所的项目。

在AI100的第一次会议之后,该组织计划每五年召开一次会议,讨论人工智能产业的现状。他们的想法是,这些会议的报告将捕捉到当时人们对人工智能技术的兴奋和担忧,对下一个世纪做出预测,并为决策者和行业利益相关者提供一种资源,塑造人工智能在社会中的未来。

但这项技术的发展速度快于预期,AI100的组织者认为,在下一届会议之前有一些问题需要讨论。这些研讨会得出的报告描绘了外包我们的问题让技术来解决的潜在陷阱,而不是解决问题的原因,或者允许过时的预测模型不受检查。奥尔特曼说,他们共同提供了一个中间的框架,可以指导下一次全体会议的讨论。

“这些报告反映了公众对人工智能的看法和态度的周期性,”得克萨斯大学奥斯汀分校(University of Texas in Austin)计算机科学教授彼得·斯通(Peter Stone)说。“人工智能有炒作和兴奋的时候,也有失望和幻灭的时候——我们称这些为人工智能的冬天。”

这项纵向研究的目的是概括所有的盛衰——为人工智能创造一个长期的视角。

Alexa不关心你

尽管人工智能在医疗应用程序中广泛应用,但讨论人工智能护理能力的研讨会参与者得出结论,护理本身并不是可以用技术编码的东西。基于此,他们建议将新技术整合到现有的人与人之间的护理关系中。

“关心不是一个需要解决的问题;这是作为人类生活的基本组成部分,”斯特灵大学哲学讲师、编码关怀研讨会主席Fay Niker说。“用技术手段解决孤独等问题的想法令人困惑。”

研讨会参与者将护理技术作为补充人类护理关系的工具,如护理者和护理接受者之间的关系。科技当然可以提醒人们服药或追踪健康信息,但在表达同理心或提供情感支持方面的能力有限,这些能力无法商品化或简化为结果导向的任务。

“我们担心,有意义的人类互动可能会被科技淘汰,”尼克说。“我们的希望是,AI2020报告和这一领域的其他工作,将通过挑战并因此改变社会中有关设计和实施关爱技术的文化和辩论,为防止这个‘冰川时代’做出贡献。”

调节预测技术

人工智能技术可能有学习的能力,但它们也难免会过时,这促使第二场研讨会的参与者引入“过期日期”的概念,以便随着时间的推移管理它们的部署。“他们根据过去的数据进行训练,以预测未来,”奥特曼说。“任何领域都在变化,所以你需要更新或重新评估。”

“这意味着我们必须关注新的数据,”来自康奈尔大学计算与信息科学学院的访问科学家、研讨会组织者之一戴维·罗宾逊(David Robinson)说。除非另有说明,否则该算法将盲目地假定世界没有改变,并且将不整合新引入的因素而提供结果。

重要的决策可能取决于这些技术,包括刑事司法系统的风险评估和儿童保护服务的筛查。但是Robinson强调,最终的决定是由算法结果和那些使用该技术的人的解释的净组合。应该对人工智能提供的信息和解释算法结果的用户进行同样多的审查。

阿尔特曼表示,这两个研讨会得出的结论是,人工智能技术需要监管。对于那些习惯于该领域流行文化参考的人来说,这并不奇怪。该行业是否能够自我监管,或者有哪些其他实体应该监督该领域的进展,这些问题仍然存在。

与会者和组织者都认为,AI100在未来的人工智能技术中可以发挥一定的作用。斯通说:“我希望它真的能帮助人们和公众了解他们如何能够和应该如何与人工智能互动。”或许更重要的是,那些政策制定者和业内人士可以参考人工智能报告的结果,从而决定这些技术的发展方向。

要阅读关于斯坦福科学的所有故事,请订阅《斯坦福科学文摘》。

新闻旨在传播有益信息,英文原版地址:https://news.stanford.edu/2019/11/26/snapshot-artificial-intelligence-reveals-challenges/