分类
耶鲁大学新闻

多做事少学:应对人工智能在研究中的风险

Abstract illustration of data

© ( stock.adobe.com)

人工智能 (AI) 因其提高科学研究生产力的潜力而广受赞誉。但是,根据耶鲁大学人类学家与人合著的一篇新论文,这一承诺带来了风险,这些风险可能会缩小科学家更好地了解世界的能力。

作者认为,未来的一些人工智能方法可能会限制研究人员提出的问题、他们进行的实验以及对科学数据和理论产生影响的观点。

总而言之,这些因素可能会使人们容易受到“理解幻觉”的影响,在这种幻觉中,他们认为自己比实际更了解世界。

该论文于3月7日发表在《自然》杂志上。

科学家可能会使用人工智能来产生更多的产品,而理解更少,“耶鲁大学艺术与科学学院的人类学家Lisa Messeri说。“我们并不是说科学家不应该使用人工智能工具,但我们主张就科学家将如何使用它们进行对话,并建议我们不应该自动假设该技术的所有用途,或无处不在的使用,都会使科学受益。

这篇论文由普林斯顿大学认知科学家M.J.克罗克特(M. J. Crockett)共同撰写,为讨论在整个科学研究过程中使用人工智能工具所涉及的风险设定了一个框架,从研究设计到同行评审。

我们希望这篇论文能提供一个词汇来讨论人工智能的潜在认知风险,“Messeri说。

克罗克特补充说:“为了了解这些风险,科学家可以从人文科学和定性社会科学的工作中受益。

Messeri 和 Crockett 将目前在研究人员中引起轰动的跨越科学过程的人工智能愿景分为四种原型:

  • 他们认为,在研究设计中,“人工智能即预言机”工具被想象为能够客观有效地搜索、评估和总结大量科学文献,帮助研究人员在项目设计阶段提出问题。
  • 在数据收集方面,“人工智能作为替代物”应用程序希望能够让科学家生成准确的替代数据点,包括作为人类研究参与者的替代品,否则数据太难或太昂贵而无法获得。
  • 在数据分析中,“AI as Quant”工具试图超越人类智力分析庞大而复杂的数据集的能力。
  • “人工智能作为仲裁者”应用程序旨在客观地评估科学研究的优点和可复制性,从而在同行评审过程中取代人类。

作者警告说,在科学知识生产中,不要将这四种原型的人工智能应用程序视为值得信赖的合作伙伴,而不仅仅是 工具。他们说,这样做可能会使科学家容易受到理解幻觉的影响,这可能会限制他们的观点,让他们相信他们知道的比他们知道的多。

Messeri 和 Crockett 指出,人工智能工具所承诺的效率和洞察力可能会通过创造“知识的单一文化”来削弱科学知识的生产,在这种文化中,研究人员优先考虑最适合人工智能的问题和方法,而不是其他探究模式。这种学术环境使研究人员容易受到他们所谓的“探索性广度幻觉”的影响,即科学家错误地认为他们正在探索所有可测试的假设,而他们只是在研究可以通过人工智能测试的范围更窄的问题。

例如,克罗克特说,似乎可以准确模仿人类调查响应的“替代”人工智能工具可能会使需要测量身体行为或面对面互动的实验越来越不受欢迎,因为它们进行起来更慢,成本更高。

作者还描述了人工智能工具被视为比人类科学家更客观、更可靠的可能性,从而创造了一种“知识者的单一文化”,在这种文化中,人工智能系统被视为一个单一的、权威的和客观的知识者,而不是一个由具有不同背景、培训和专业知识的科学家组成的多元化科学社区。他们说,单一文化会引发“客观性的幻觉”,科学家错误地认为人工智能工具没有观点或代表所有观点,而事实上,它们代表了开发和训练它们的计算机科学家的立场。

科学界有一种信念,即客观的观察者是关于世界的知识的理想创造者,“梅塞里说。“但这是一个神话。从来就没有客观的’知道者’,也永远不可能有,继续追求这个神话只会削弱科学。

作者补充说,有大量证据表明,人类多样性使科学更加强大和富有创造力。

承认科学是一种社会实践,从包括不同的立场中受益,这将有助于我们充分发挥其潜力,“克罗克特说。“用人工智能工具取代不同的立场将使我们在科学工作中纳入更多观点方面取得的进展倒退。

Messeri说,重要的是要记住人工智能的社会影响,它远远超出了用于研究的实验室。

我们培训科学家思考新技术的技术方面,“她说。“我们没有对他们进行很好的培训,让他们考虑社会方面,这对该领域的未来工作至关重要。

新闻旨在传播有益信息,英文版原文来自https://news.yale.edu/2024/03/07/doing-more-learning-less-addressing-risks-ai-research