分类
哈佛大学新闻

巨大的希望,但潜在的危险巨大的希望,但潜在的危险失业者面临财政支持的主要障碍失业者面临财政支持的主要障碍

本系列共分四部分,旨在发掘哈佛社区的专业知识,探讨人工智能和机器学习时代的前景和潜在陷阱,以及如何让它们变得人性化。

几十年来,人工智能(AI)一直是高水平STEM研究的引擎。大多数消费者是通过谷歌、Facebook等互联网平台以及零售商亚马逊(Amazon)意识到这项技术的力量和潜力的。今天,人工智能在许多行业都是必不可少的,包括医疗保健、银行、零售和制造业。

在这个系列中

Illustration of people making ethical decisions.

开拓性的创新结合了道德和技术

计算机科学和哲学学院要求学生考虑系统如何影响社会

但是,由于人们担心这些复杂、不透明的系统对社会的危害可能大于对经济的好处,它在提高效率、降低成本和加速研发等方面做出的改变游戏规则的承诺最近有所缓和。在几乎没有美国政府监管的情况下,私营公司利用人工智能软件对健康和医疗、就业、信誉甚至刑事司法做出决定,而不必为他们如何确保程序不会有意或无意地带有结构性偏见而负责。

它日益增长的吸引力和效用是不可否认的。根据技术研究公司IDC 8月份发布的预测,即使在COVID-19大流行造成全球经济衰退之后,今年全球企业在人工智能上的支出预计将达到500亿美元,到2024年每年将达到1100亿美元。零售业和银行业今年的支出最多,各超过50亿美元。该公司预计,媒体行业以及联邦和中央政府将在2018年至2023年之间大举投资,并预测人工智能将“在未来10年成为改变整个行业的颠覆性影响”。

“几乎所有大公司现在有多个人工智能系统和重要部署人工智能积分策略,”约瑟夫·福勒说,哈佛商学院的教授管理实践,位联席管理工作的未来,一个研究项目的研究,在某种程度上,人工智能的开发和实现,包括机器学习、机器人、传感器、和工业自动化业务和工作世界。

在早期,人们普遍认为,人工智能的未来将包括要求低级决策的简单重复任务的自动化。但由于更强大的计算机和对巨大数据集的汇编,人工智能已经迅速变得复杂起来。其中一个分支,机器学习,以其整理和分析大量数据以及长时间学习的能力而闻名,已经改变了包括教育在内的无数领域。

公司现在使用AI来管理采购的材料和产品从供应商和集成——大批信息帮助战略决策,因为它如此迅速地处理数据的能力,人工智能工具有助于减少在产品开发的昂贵的试错——一个关键推进制药等行业,它花费10亿美元给市场带来新药丸,Fuller说。

医疗专家看到了人工智能的许多可能用途,包括支付账单和处理必要的文书工作。医疗专业人士预计,最大、最直接的影响将是在数据分析、成像和诊断方面。想象一下,他们说,有能力将所有可用的关于疾病的医学知识用于任何给定的治疗决定。

在就业方面,人工智能软件会筛选和处理简历,分析面试者的声音和面部表情,从而推动所谓的“混合”工作的增长。人工智能不会取代员工,而是承担他们工作中的重要技术任务,比如为包裹运送卡车安排路线,这可能会让员工腾出时间来专注于其他职责,提高他们的生产率,从而对雇主更有价值。

富勒说:“人工智能可以让他们做得更好,犯更少的错误,或者获取他们的专业知识,并在组织中更有效地传播。”富勒研究了人工智能对已经失去工作或最有可能失去工作的员工的影响和态度。

富勒表示,尽管自动化将继续存在,但整个职业类别的消失,比如由于人工智能的普及,传感器取代了高速公路收费员,这种情况不太可能发生。

他说:“我们将要看到的是,需要人类互动、同理心的工作,需要对机器所创造的东西进行判断的工作,将会具有稳健性。”

75岁、77年工商管理硕士、2009年至2013年担任美国小企业管理局(U.S. small business Administration)负责人的凯伦•米尔斯(Karen Mills)说,虽然大企业已经大大领先,但小企业也有可能因人工智能而转型。在COVID-19疫情爆发前,美国有一半人口是小企业雇员,从长远来看,这可能对美国经济产生重大影响。

而不是阻碍小型企业,该技术可以让主人详细的洞察销售趋势,现金流,排序,和其他重要的实时财务信息,这样他们就可以更好地理解商业是如何做的,问题可能织机无需雇佣任何人,成为一个金融专家,或每周花几个小时在碌碌的书,米尔斯说。

人工智能可能“彻底改变游戏规则”的一个领域是放贷。在这个领域,获得资金非常困难,部分原因是银行往往难以准确了解小企业的生存能力和信用状况。

她说,“观察一个企业的内部运作,了解其中的情况,比评估一个人要难得多”。

信息不透明使贷款过程费力而昂贵的潜在借款人和贷款人,和应用程序被设计来分析大企业或那些已经借来的,一个内置的劣势为历史上某些类型的企业和服务水平低下的借款人,如女性和少数民族的企业主,米尔斯说,哈佛商学院的高级研究员。

但AI-powered软件获取信息从业务的银行账户,税收,和在线记账从成千上万的记录和比较它与数据类似的企业,甚至小型社区银行将能够在几分钟内做出明智的评估,没有文件的痛苦和延误,,像盲试镜音乐家,而不用担心,任何不平等爬到决策。

“这一切都过去了,”她说。

客观的外表

然而,并不是每个人都能看到地平线上的蓝天。许多人担心,即将到来的人工智能时代是否会带来新的、更快、无摩擦的大规模歧视和分化方式。

“算法决策的部分吸引力在于,它似乎提供了一种克服人类主观性、偏见和偏见的客观方式,”政治哲学家迈克尔桑德尔(Michael Sandel)、安妮t (Anne T.)和罗伯特m巴斯(Robert M. Bass)政府学教授说。“但我们发现,许多决定谁应该获得假释,或谁应该获得就业机会或住房的算法……复制并嵌入了我们社会中已经存在的偏见。”

桑德尔教授新技术在道德、社会和政治方面的影响,他说,人工智能提出了社会伦理关注的三个主要领域:隐私和监视、偏见和歧视,以及可能是这个时代最深刻、最困难的哲学问题,人类判断的作用。

“关于隐私保护的争论,以及关于如何克服在判决、假释和雇佣实践中算法决策中的偏见,现在已经很熟悉了,”Sandel说,他指的是程序开发人员的有意识和无意识的偏见,以及用于培训软件的数据集中的偏见。“但我们还没有思考最困难的问题:智能机器能比我们更聪明吗?或者,在决定生活中一些最重要的事情时,人类判断的某些元素是否不可或缺?”

对于人工智能突然将偏见注入日常生活的恐慌被夸大了,富勒说。首先,充斥着人为决策的商业世界和工作场所,一直充斥着“各种”偏见,阻碍人们达成交易、签订合同和找到工作。

富勒说,经过仔细的校准和深思熟虑的部署,简历筛选软件能够比其他方式更广泛地考虑应聘者,并能最大限度地减少用人过程中可能出现的偏袒。

桑德尔不同意。人工智能不仅复制了人类的偏见,它还赋予了这些偏见一种科学的可信度。这使得这些预测和判断看起来是客观的。”他说。

Mills表示,在贷款领域,算法驱动的决策确实有潜在的”黑暗面”。当机器从提供给它们的数据集中学习时,它们可能会“相当高”地复制银行业过去的许多失败,这些失败导致了对非裔美国人和其他被边缘化的消费者的系统性区别对待。

她说:“如果我们不考虑周全,不小心的话,我们会再次被划上红线。”

高度监管的行业,银行在法律上是钩如果他们所使用的算法评估贷款申请最终不当歧视类的消费者,这些领域的“高层”现在“非常关注”在这个问题上,米尔斯说,仔细研究金融技术的快速变化,或“fintech。”

“他们真的不想歧视。他们希望向信誉最好的借款人获得资金。“这对他们来说也是件好事。”

监督不知所措

鉴于人工智能的力量和普遍存在的预期,一些人认为应该严格监管人工智能的使用。但对于该如何做以及由谁来制定规则,人们几乎没有达成共识。

迄今为止,开发或使用人工智能系统的公司基本上都是自我监督的,它们依赖现有法律和市场力量,比如消费者和股东的负面反应,或者是备受推崇的人工智能技术人才的需求,以确保它们保持一致。

富勒说:“在这个星球上,任何规模的企业中,没有一个商人不关心这个问题,并试图反思什么是政治上、法律上、规则上和道德上可以接受的。”

他说,公司在产品发布前就已经考虑过滥用产品可能造成的责任,但指望公司能够预见并防止产品可能产生的所有意外后果是不现实的。

几乎没有人认为联邦政府能胜任这项工作,或者永远不能胜任。

富勒说:“在缺乏真正的关注和投资的情况下,监管机构不具备从事(监管)工作的人工智能专业知识。”他指出,技术变化的快速速度意味着即使是最了解情况的立法者也跟不上。要求每一款使用人工智能的新产品都要预先考虑潜在的社会危害,这不仅不切实际,而且会极大地阻碍创新。

哈佛大学肯尼迪学院(Harvard Kennedy School)研究经济政策实践的教授詹森·福尔曼(Jason Furman)也认为,政府监管机构需要“对人工智能有更好的技术理解,才能做好这项工作”,但他表示,他们可以做到这一点。

他说,监管汽车安全的美国国家公路运输安全协会(National Highway Transportation Safety Association)等现有机构,可以处理自动驾驶汽车中潜在的人工智能问题,而不是一个单一的监管机构。

曾担任美国总统巴拉克•奥巴马(Barack Obama)首席经济顾问的弗曼表示:“我不会让一个核心的人工智能团队有一个专门从事汽车行业的部门,我希望汽车行业的人有一个专门擅长人工智能的部门。”

尽管将人工智能监管保留在行业内部确实存在强制执行的可能性,但福尔曼表示,针对行业的专家小组将对人工智能只是其中一部分的总体技术更加了解,从而有助于进行更彻底的监管。

虽然欧盟已经制定了严格的数据隐私法,欧盟委员会也在考虑为人工智能的道德使用制定一个正式的监管框架,但美国政府在科技监管方面一直比较晚。

“我认为我们应该在30年前就开始行动,但迟做总比不做好,”Furman说,他认为需要有一种“更强烈的紧迫感”来促使立法者采取行动。

桑德尔认为,商业领袖“不能两手抓”,一方面拒绝为人工智能的有害后果承担责任,另一方面又反对政府监管。

“问题在于,这些大型科技公司既不自律,也不受政府充分监管。我认为两者都需要更多。”他随后补充道:“我们不能想当然地认为,市场力量本身就能解决问题。这是一个错误,正如我们在Facebook和其他科技巨头身上看到的那样。”

去年秋天,桑德尔与哈佛大学干细胞研究所(Harvard’s Stem Cell Institute)联合主任道格·梅尔顿(Doug Melton)一起教授了一门很受欢迎的新一代教育课程“技术伦理”。就像在他那门传奇性的“正义”(Justice)课程中一样,学生们会考虑并辩论有关新技术的重大问题,从基因编辑和机器人,到隐私和监视。

“企业必须认真思考他们在做什么,我们的伦理维度,民主的公民,必须教育自己关于技术及其社会和伦理的影响,不仅决定规定应该是什么,但也决定我们希望大型科技和社会媒体扮演的角色在我们的生活中,“桑德尔说。

他说,要做到这一点,需要对哈佛和更广泛的高等教育进行重大的教育干预。

“我们必须让所有学生学习足够的关于技术和新技术的伦理问题,因此当他们公司或当他们作为民主的公民,他们将能够确保技术服务于人类的目的不是破坏一个体面的公民生活。”

接下来:医学上的人工智能革命可能会取消个性化治疗,填补医疗保健的空白,并减少繁文缛节。然而,风险无处不在。

,

相关的

Moderator Greg Ip (from left) chats with panelists Francesca Rossi, Wilson White, and Jason Furman following "Will You Still Have a Job When the Robots Arrive?" The answer? Yes, but probably not the one you have now.

机器人来了,放松点

分析人士说,随着人工智能的崛起,你可能会有一份工作,但可能是另一份工作

Illustration of people walking around.

物联网的好、坏和可怕之处

拉德克利夫大学的研究人员探索了通过监管来最小化在线风险、最大化安全性、控制环境影响和帮助社会的方法

Harvard Law School Professor Susan Crawford recently taught a course that included an introduction to the issues surrounding driverless vehicles.

为自动驾驶汽车铺平道路

哈佛大学的两项努力正在加速这种转变之前帮助制定政策

新闻旨在传播有益信息,英文原版地址:https://news.harvard.edu/gazette/story/2020/10/ethical-concerns-mount-as-ai-takes-bigger-decision-making-role/