分类
加州大学伯克利分校新闻

加州大学伯克利分校科学史学家思考人工智能的过去、现在和未来

An image of a succulant plant with small boxes on leaves showing a magnified version of the plant that is meant to symbolize how AI interprets the world

没过多久,关于人工智能的对话就发生了黑暗的转变。

一些人说,新技术构成的威胁比气候变化更大。它构成了“灭绝的风险”。打个比方:人工智能的发展类似于核武器竞赛,因此监管应该遵循与曼哈顿计划或国际原子能机构一致的模板。后一种并置是如此普遍,以至于《纽约时报》最近发表了一个测验,标题是:“人工智能还是核武器:你能区分这些引述吗?”

尽管比较可能很方便,但它更复杂,加州大学伯克利分校科学历史学家凯瑟琳卡森说,她研究了核能的发展和随后的监管政策。风险是新的,卡森说。但人们和监管机构的反应方式是遵循近年来反复出现的一系列熟悉的举措。

随着科技公司获得越来越多的权力和声望,像卡森这样的历史学家主张将他们的工作作为指南。

这样,我们就不会犯同样的错误。

“我们理解现在如何运作的唯一方法是观察演员和工作的力量以及它们之间的关系,”卡森说。“然后将其与理解现在来自哪里以及它所承载的动力相结合。

“没有历史,你怎么能做到这一点,我不知道。

《伯克利新闻》 采访了卡森,谈到了我们技术轨迹的当前时刻,历史可能会教会我们关于变革和政府监督的要求,以及为什么更好的类比可能是塑料和化石燃料,而不是原子弹的竞赛。

a portrait of a woman with shoulder-length hair and glasses standing in front of a window and painting
塑料是一个以无数方式改善生活的现代奇迹,但也以污染的形式带来了严重的问题。卡森说,这些意想不到的下游问题是我们应该如何思考人工智能。
布兰登·桑切斯·梅希亚/加州大学伯克利分校

伯克利新闻: 假设历史不会重演,但它押韵这句格言有一些优点,那么人工智能和机器学习的现状让你感到惊讶吗?

Cathryn Carson:这个领域的技术发展令人着迷,而且来得又快又猛。当然,惊喜即将到来。生成人工智能将继续让我们感到惊讶。自动化数据驱动的决策将进入新的生活领域,其影响尚未预见。

围绕人工智能和机器学习的社会动态让我感到惊讶的更少。它们以非常熟悉的流程为基础。技术开发、营销炒作周期、免费试用和付费高级服务,以及在没有解决所有边缘情况的情况下发布到野外的产品。数据征用。监管要求。受这些产品伤害的个人的故事。

在我们的社会发生变化之前,这些并不难预测。

你这是什么意思?

如果我们想要一个人工智能能够更广泛地为人们服务的世界——除了那些拥有资源和权力创造它的参与者——这意味着要弄清楚事情如何转移权力和资源集中在已经拥有它的人手中,或者谁可以购买基于人工智能的服务并将其用于自己的利益。

如果我们想要一个人工智能不会复制我们社会中已经围绕财富、地位和赋权或压迫和剥削而盛行的优势和劣势模式和结构的世界,那么我们需要真正建立积极反对复制它们的机制。

人们说我们需要纠正有偏见的训练数据,我们需要让不同的团队从事人工智能工作。是的,我们需要这样做。但它远不止于此。

我们必须承认,人工智能、机器学习和自动决策系统是建立在从人和社区中提取的数据之上的,这些数据通常是在他们完全不知情的情况下,有时——也许经常——违背他们的利益。然后,这些系统被用来管理这些人,塑造他们的决策、结果和机会,并为制定和运行系统的其他人服务。

因此,如果我们希望未来的情况与我们现在看到的不同,那就是要追求的动力。让受技术影响的人能够有力而有效地与那些制造这些系统的人交谈,并塑造他们所支持、允许和构建的内容。

an illustration of a blue computer chip that says
监管机构和批评者正在权衡如何最好地监督像ChatGPT背后的公司OpenAI这样的公司。
D 锦鲤通过未飞溅

你是否感到惊讶的是,许多人对你对数据、隐私和私营营利性公司表达的这些担忧似乎变得如此无所适从?

这些都是很难做出甚至想象做出的改变。有一种倾向是,“它不可能不是我们现在所拥有的,所以我不如让自己适应它。我经常和学生遇到这种情况。帮助他们思考自己的方式是我们在伯克利进行数据科学不可或缺的一部分。在本科阶段,我们通过这些问题引导他们:为什么我们的世界以这种方式运作?为什么我们的数据被收集并用于构建产品,然后向我们推销,用于跟踪我们和监视我们?我们什么时候同意过这个?我到底能做些什么呢?

你看到可能有替代方案的唯一方法是了解我们是如何走到现在的位置的。例如,理解我们在数据保护制度下工作,该制度基本上是在 1970 年代设计的,当时公司不是一个主要问题,数据化的速度比以前更快,但远不如现在快。

这个问题的规模如此之大,以至于必须系统地处理它,而不是简单地做出非常小和无效的个人选择。

凯瑟琳·卡森

一旦你意识到我们在一个已经修改了边缘但本质上仍然是一个有50年历史的项目的监管制度下运作,你就会开始看到这里的工作场所是如何消除一些更大的社会假设——比如创新必须如何推进,或者下游成本如何相对不那么重要。

您必须找到问题的根本原因,而不是只关注诸如创建更好的服务条款或单击网站上的正确链接之类的问题,以免收集我的数据。你意识到问题的严重性如此之大,以至于必须系统地处理它,而不是简单地做出非常小和无效的个人选择。

从政策的角度来看,需要什么成为对话的前沿和中心,以及最终有意义的变化来克服你所强调的这些事情?

系统性变革是困难的,不仅因为它很复杂,还因为它受到抵制。我会考虑摆在我们面前的挑战,当涉及到改变我们的社会允许数据传播的方式时,与其他挑战相当,比如化石燃料使用和气候变化的挑战。或者围绕我们对塑料的依赖以及我们现在看到的下游影响的挑战。仅仅因为问题很难并不意味着我们不开始。

但这并不意味着通过单独调整我们的恒温器或仅从塑料瓶单独转换为可再填充容器来应对气候变化和化石燃料使用的挑战。这些是解决方案中非常小的部分。解决方案的较大部分来自关于允许发生什么,谁从中受益以及谁为此付费的艰难谈判。从这个意义上说,监管领域是一个关键的运作场所。这是真正有能力改变潜在责任的权力关系的地方。

你是20世纪核能和武器政策的专家。您认为当时和现在之间有什么相似之处?

我接受过物理学和核时代历史学家的培训。我做过研究,我讲过物理学家在核武器和核技术方面与国家权力的接触。现在,奥本海默又回到了我们的脑海中。

我们是…如此专注于我们现在和近期看到的情况,以至于我们还没有准备好深入思考长期的结构性挑战。

凯瑟琳·卡森

有很多建议来管理人工智能,就像它假设的核裂变一样——要么是人工智能安全的曼哈顿项目,聚集大量的技术专家来解决问题,要么是一个国际监管机构,可以为发展设定全球护栏,比如国际原子能机构对保障与和平利用的关注。

我明白为什么20世纪核时代的这两个参考都是现成的类比。发起它们的人正在抓住一种回应,在某种程度上捕捉规模并承认他们所看到的风险。

但他们也在寻求熟悉的回应,并将事情引向他们可能更舒服的方向——监管机构仍然为商业发展留出很大的空间,同时消除恐惧。

作为一名核历史学家,对我来说,与当前人工智能时代相似的是政治利害关系和高风险政治权力带来的争议,而不是与核时代特别有限的类比。

你的意思是当时领导开发费用的政府与现在的营利性公司之间的区别?

是的。因为今天围绕机器学习和人工智能的政治参与者主要不是——他们甚至不仅仅是——垄断核裂变的民族国家。这是核能的一个关键方面,只有民族国家,而且只有少数几个民族国家有能力制造核武器。

今天,政治参与者就像通过人工智能技术以及更广泛的数据技术建立和提取价值的公司一样。这是与核时代非常关键的区别:公司、科技公司和其他通过人工智能创造和提取价值、占领市场、吸引资源和权力的公司的核心作用。

现在的赌注比那时更高吗?或者他们只是不同的赌注?

老实说,我认为它们与塑料和化石燃料精炼的利害关系更具可比性。我倾向于通过这些类比找到更多的权力思维,而不是将人工智能与核武器进行比较所产生的某些形式的存在主义风险思维。相反,这是一种平凡,与塑料或化石燃料相关的技术变革的常规性。事实上,它们嵌入公司和市场的程度与民族国家行为者一样多或更多。

是的,人工智能将使我们的生活更美好。塑料也是如此。它们将使一些公司变得非常强大和富有。但人工智能也会产生下游后果,我们只是最早的线索。

在大多数情况下,我们非常关注我们现在和近期看到的情况,以至于我们还没有准备好深入思考长期的结构性挑战。

fish swim near plastic cups and wrappers and other pollution
塑料是一个以无数方式改善生活的现代奇迹,但也以污染的形式带来了严重的问题。卡森说,这些意想不到的下游挑战是我们应该如何思考人工智能的。
Naja Bertolt Jensen通过Unsplash

目前似乎有两个不同的阵营,他们最常参与围绕人工智能的对话。业内人士和最终用户都喜欢它。有些末日预言者认为它构成了特别严重的威胁。你似乎在争论某种中间立场?

在那些建立并从这些模型中受益的人的不令人惊讶的倡导与这将我们带入世界末日的长期恐惧之间,还有第三种立场。第三个位置主要由在社会科学和技术专业知识之间来回移动的人占据,他们在科学,技术和社会或历史,法律,社会学或批判理论等不同学科中接受过培训。那些在今天工作的人,以真正具体、现实的术语着眼于过去和未来,他们自己并没有试图为这些技术辩护,或者将它们视为可怕和失控。那些想要理解 – 并按照这种理解采取行动 – 我们如何使用社会科学概念和工具来工作的人,以解决这些技术已经存在,正在开发的事实,现在已经影响了人们。

现在与现在在这里的人一起工作的时间范围与思考机器学习工具和人工智能比现在更有能力时可能发生的事情真的不同。你在当下工作,因为那是你可以建立良好社会关系的地方。这就是你有能力塑造当下事物的地方。

第三组人在人口统计学上往往与前两组中的任何一组不同。与第一组和第二组中的相对缺席相比,第三组中有色人种和女性的存在非常惊人。当你观看 《纽约时报》的报道时,你会看到第一组和第二组。

现在正在进行的大部分紧张工作是在第三组中。

您是否希望我们共同能够为您概述的答案找到一条道路?

我通过我的教学来接近希望。我很幸运,在伯克利,我和我在数据科学领域的同事一起,每年教成千上万的学生。而伯克利提供的那个平台,这个规模,是我得到希望的地方。

这么大的问题,不是个别天才就能解决的。这些问题将通过具有不同技能的人的集体努力来解决,他们对彼此的领域有足够的了解,可以尊重他人带来的东西。我发现这真的很令人兴奋,而且非常鼓舞人心,在某种程度上让我窒息,伯克利投资了这样的数据科学项目,我这里有计算机科学和统计学的同事,他们和我合作,让我们培养优秀的伯克利本科生,并为他们提供历史思考的工具, 社会科学分析,以及我们教给他们的计算和推理技能。

对我来说,这就是希望的来源。这不是来自我将要做的任何事情,也不是来自任何将要出现的技术解决方案。而是伯克利已经使自己成为我们学生成为解决方案一部分的平台。

新闻旨在传播有益信息,英文版原文来自https://news.berkeley.edu/2023/09/11/UC-Berkeley-historian-of-science-ponders-AI-past-present-and-future