分类
加州大学圣芭芭拉分校新闻

计算机科学家William Wang获得享有盛誉的早期职业技术成就奖

background screen at awards ceremony

随着人工智能的持续蓬勃发展,将算法扩展到不断增加的数据集也成为一个更大的障碍。自然语言处理 (NLP) 领域就是这种情况,或者说,让机器理解人类语言并与之交流的努力(想想:ChatGPT、搜索引擎和其他基于文本的模式)。

“这个领域的一个关键挑战是可扩展性和准确性之间的权衡,”加州大学圣巴巴拉分校专门研究NLP的计算机科学家William Wang。“虽然更快的算法通常会影响准确性,但更准确的模型往往更慢。在这两个方面之间取得平衡至关重要,但又具有挑战性。由于人类表达的多样性,人工智能语言模型经常会绊倒诸如歧义、俚语、讽刺、讽刺、翻译、多重含义和其他变幻莫测的人类语言,或者模型可能需要很长时间来解释它们。

Wang在开发快速和准确的可扩展算法方面所做的大量工作是再必要不过的了。由于他的努力,他被授予电气和电子工程师协会 (IEEE) 信号处理学会 (SPS) 的 Pierre-Simon Laplace 早期职业技术成就奖。他最近于4月在韩国首尔获得了该奖项。

“我非常荣幸能够获得IEEE SPS颁发的这一重要奖项,我一直是拉普拉斯工作的忠实粉丝,”Wang说,他被引用为“对自然语言处理中可扩展算法的发展做出了贡献”。该奖项“旨在表彰在其早期职业生涯中,多年来对学会范围内技术领域的理论和/或实践做出重大贡献的个人。

解决结构化学习中的问题——其中人工智能模型有望预测每个数据输入的多个输出——一直是Wang研究的重点。“由于搜索空间广阔,这非常困难,”他说。Wang实验室最近在逻辑程序方面的工作 通过利用大型语言模型的上下文学习来简化流程,以提高准确性并减少幻觉(无意义的输出),而无需进一步的优化算法。最近的另一项成就 涉及一种算法,该算法可以加快文本到图像模型预测新数据输出的速度。

拉普拉斯是18-19世纪的法国学者,他以统计学和概率学领域的进步而闻名,他在王的职业生涯中发挥了重要作用,从对数据集的约束,到提高准确性,再到根据观测数据推断变量。Wang研究小组最近在NeurIPS 2023会议上发表的论文使用了拉普拉斯标志性的贝叶斯概率解释来阐明大型语言模型的涌现行为。

Wang是该校的Duncan和Suzanne Mellichamp人工智能和设计主席,也是UCSB负责任机器学习中心和UCSB NLP小组的主任,他期待进一步改进人工智能学习和解释语言的方式。

“可扩展的算法对于人工智能的发展至关重要,”他说。“目前最先进的人工智能模型,包括大型语言模型和生成算法,在训练和推理方面效率不高。未来的人工智能发展取决于算法和架构的创新,有望为即将到来的人工智能模型提供更高效的训练和推理过程。

新闻旨在传播有益信息,英文版原文来自https://news.ucsb.edu/2024/021438/computer-scientist-william-wang-receives-prestigious-early-career-technical-achievement