分类
华盛顿大学新闻

Q&A:实现更公平的人工智能系统的最佳途径是什么?

去年12月,欧盟通过了《人工智能法案》,这是第一部旨在规范人工智能技术的主要法律。该立法可能更早到来,但 ChatGPT 在 2022 年底的突然成功要求更新该法案。

然而,欧盟的法案没有提到公平性——公平性是衡量一个制度在多大程度上避免歧视的衡量标准。研究机器学习公平性的领域(人工智能的一个子领域)相对较新,因此明确的监管仍在发展中。

华盛顿大学信息学院助理教授迈克·特奥多雷斯库(Mike Teodorescu)在一篇新论文中提出,私营企业为更公平的机器学习系统制定标准将为政府监管提供信息。

这篇论文于2月15日由布鲁金斯学会(Brookings Institute)发表,是其“人工智能和新兴技术的经济学与监管”系列文章的一部分。

威斯康星大学新闻采访了特奥多雷斯库,讨论了这篇论文和机器学习公平性领域。

首先,您能解释一下什么是机器学习公平性吗?

Mike Teodorescu:它本质上关注的是确保机器学习算法对所有类别的用户都是公平的。它结合了计算机科学、法律、哲学、信息系统和一些经济学。

例如,如果您正在尝试创建软件来自动化招聘面试,您可能会让一组 HR 人员面试许多具有不同背景和经验的候选人,并推荐一个二元结果——雇用或不雇用。来自实际 HR 面试的数据可用于训练和测试机器学习模型。在这个过程结束时,你会得到准确率,即模型正确的百分比。但是,这个百分比并不能反映算法在考虑某些子组时的表现。美国法律禁止基于受保护属性的歧视,包括性别、种族、年龄、退伍军人身份等。

举个例子,用最简单的术语来说,如果你计算了你想雇用的退伍军人的数量,那么算法应该独立于受保护的属性进行雇用。当然,随着你有更多的子群体的交叉点,这变得更加复杂——你可能有种族、年龄、社会经济地位和性别。从实际的角度来看,如果对数十个受保护属性的值有一个相等系统,则不太可能同时满足所有这些值。我不认为我们有一个可推广的解决方案,我们还没有一个最佳的方法来检查人工智能的公平性。

对于公众来说,了解机器学习的公平性有什么重要意义?

MT:它有助于理解程序公平,它着眼于用于做出决定的方法。用户可能想问:“我知道这个软件是否在使用机器学习来对我进行一些预测吗?如果是,它需要什么样的投入?我可以纠正不正确的预测吗?有没有一种反馈机制,我可以通过它来挑战它?

这一原则实际上存在于欧洲和加利福尼亚的隐私法中,我们可以反对使用某些信息。如果应用机器学习算法来做出关于您的某些决定,那么这种透明度会很棒。也许有一个选项可以选择它使用哪些变量来向您展示某些广告。现在,我不确定我们是否会在不久的将来看到这种情况,但这是用户可能关心的事情。

是什么阻碍了公平标准被公司广泛采用?

MT:我认为这是一个激励问题。从经济角度来看,公司希望尽快将产品推向市场。如果用户获得使用图像识别 AI 的应用,他们可能不会阅读服务条款。因此,他们可能不会花时间接受有关该工具是否公平的培训。许多用户甚至可能不知道工具可能是不公平的。

对于一家公司来说,开发这种系统的动机是将公司置于技术前沿,并发出质量信号——它的人工智能工具比竞争对手的更公平。但是,如果用户不知道这是一个问题,他们可能不会担心哪家公司的产品更公平。可能从现在开始的10年后,更多的人会关心公平性,就像他们关心网络安全和数据隐私一样。在我们遇到很多这样的违规行为之前,网络安全并不是一个普遍的问题。

你在这里解释的一个例子是,有人向一家使用机器学习算法对申请进行分类的公司提交工作申请吗?这个人不一定知道是否有机器学习算法对这些应用程序进行排序,所以他们肯定不会知道它们是否被不公平地筛选出来。

MT:没错,这种担忧让我夜不能寐。不同国家和州的法规各不相同,但目前还没有关于此的全面联邦法规。纽约市有一项专门针对自动化招聘的法律。最近还有一项欧盟法律获得通过,该法律允许人们质疑或决定如何使用他们的数据。白宫已经提出了一套指令。最终,我认为会有一部联邦法律。

你是否认为标准首先到来,然后推动机器学习公平的实际监管?

MT:是的,监管很慢。通过一项法律有很多障碍。但标准在经济激励中的作用更大。有网络安全、质量测量、WiFi、蓝牙等标准,但我们还没有完全接受机器学习公平性的标准。通常,一个组织会生产它们。电气和电子工程师协会(IEEE)提出了许多技术标准,实际上提出了一些建议。这些组织内的标准委员会通常将来自工业界、学术界和政府的人聚集在一起,他们提出可以更新的指导方针,因此标准可能会有不同的版本。这提供了比法规更大的灵活性。例如,有两种不同的质量管理制造标准。大多数工厂的标准不太严格,而更严格的医疗制造标准非常昂贵且更难获得。公平地说,您可能会看到一个轻量级的标准和一个更全面的标准。

同样,标准组织也可以有审计要求。一旦一家公司遵守了标准,就会有一定频率的审计,以确保这些标准继续得到维护。对于使用机器学习的产品来说,拥有这样的东西将是改善问责制的好方法。

斯坦福大学(Stanford University)的数字研究员克里斯托斯·A·马克里迪斯(Christos A. Makridis)是合著者。

欲了解更多信息,请联系特奥多雷斯库,电话 [email protected]

新闻旨在传播有益信息,英文版原文来自https://www.washington.edu/news/2024/02/15/qa-what-is-the-best-route-to-fairer-ai-systems/