分类
宾夕法尼亚大学新闻

解决人工智能中的偏见

在“政策实验室:人工智能和隐性偏见”中,宾夕法尼亚大学凯里法学院的学生提出了解决生成人工智能交叉偏见的解决方案。

人工智能的快速扩张和ChatGPT等生成式AI工具的压倒性普及提出了关于算法和机器学习模型如何再现现实世界人类偏见的重要问题。宾夕法尼亚大学凯里法学院的“政策实验室:人工智能和隐性偏见”孵化了对人工智能的交叉、包容性方法的想法。

Graphic design profile of a human.
法师:西尔维拉特为Adobe Stock提供

该课程由全球领导力高级兼职教授Rangita de Silva de Alwis教授,让学生进行严格的学术分析,并与律师,研究人员,设计师和国际技术领导者进行丰富的讨论,以研究交叉偏见对生成AI的影响。

2023 年春季政策实验室的报告《普罗米修斯时刻:走向和理解生成式 AI 及其对偏见的影响》探讨了生成式 AI 应用程序中如何产生偏见,展示了衡量 AI 偏见的方法,并提供了减轻再现人类偏见和加剧不平等的技术影响的解决方案。

春季课程邀请了一系列全球专家参加。“这些跨学科专家代表了人工智能领域的大量专业知识,包括学者、行业从业者、创始人和投资者,”人工智能政策实验室研究助理Shashank Sirivolu说,“生成人工智能的出现为班级提供了一个参与开创性工作的机会,以应对新技术的挑战和局限性。

在“普罗米修斯时刻”中,学生撰写的文章呼吁人们关注一系列紧迫的问题,其中许多问题已经成为激烈公众辩论的主题。该报告探讨了社交媒体同意披露和对内容创作者的潜在剥削、人工智能生成艺术中的种族和性别差异以及对版权法、大数据和跨境数据利用的影响、自我监管的人工智能行业的陷阱,以及在有偏见的数据集上训练大型语言模型的风险。

“对于有兴趣了解生成人工智能的学者、律师或技术专家来说,这份报告是一本有价值的入门书,”Sirivolu说。“该报告探讨了生成人工智能中偏见的法律、道德和社会影响,包括偏见是如何产生的,如何衡量偏见,以及如何减轻偏见。

阅读更多 宾夕法尼亚凯里法.

新闻旨在传播有益信息,英文版原文来自 https://penntoday.upenn.edu/news/penn-carey-law-policy-lab-addressing-bias-ai