哈佛大学肯普纳自然与人工智能研究所(Kempner Institute for the Study of Natural and Artificial Intelligence)购买了384个H100-80 GB Nvidia图形处理单元(GPU)。这些GPU将被添加到肯普纳最先进的计算集群中,以支持自然和人工智能的研究。

通过这一补充,Kempner的集群将成为世界上最大的学术ML计算集群之一。扩展的集群专门设计用于训练生成AI模型,将使研究人员能够快速处理大量数据,并开发和测试解释大脑和机器学习方式的新计算模型。

“学术界具有独特的能力,能够以开放和好奇心驱动的方式推动科学知识的前沿,而这个集群是一个独特的强大资源,”肯普纳附属公司乔纳森弗兰克尔说,他在塑造研究所计算集群的方向方面发挥了关键作用。“我们的学生在开发下一代机器学习技术时,将能够使用最先进的设备和行业规模的预算。

Nvidia的A100和H100 GPU已成为高性能计算竞争格局中的热门选择,后者提供的训练和推理速度是已经强大的A100型号的近三倍。使用Infiniband联网,Kempner的扩展集群将能够达到1600千兆字节/秒的传输速度,使科学家能够快速有效地使用整个集群来训练语言模型。

Kempner目前的144个A100-40GB GPU机架已经很强大,能够在大约六周内训练LLaMA2-7B,这是一种流行的70亿参数开源大语言模型。然而,扩展后的集群将能够在不到一周的时间内训练相同的模型,或者能够在两个半月内训练LLaMA-70B,即700亿个参数的版本,节省的时间使肯普纳能够进行真正的创新研究。

Kempner 的计算节点位于马萨诸塞州绿色高性能计算中心 (MGHPCC),这是一个位于马萨诸塞州西部的绿色非营利性现代数据中心。MGHPCC 由波士顿地区的许多其他大学共享,是第一个获得 LEED 白金认证的大学研究数据中心,这是绿色建筑委员会能源与环境设计领导力计划授予的最高级别。

关于肯普纳

肯普纳研究所旨在通过招募和培训未来几代研究人员从生物学、认知学、工程学和计算角度研究智力,了解自然和人工系统中智能的基础。它的大胆前提是自然和人工智能领域密切相关;下一代人工智能(AI)将需要与我们的大脑用于快速,灵活的自然推理相同的原理,并理解我们的大脑如何通过为AI开发的理论来阐明计算和推理。

加入肯普纳邮件列表以了解更多信息,并接收更新和新闻。

阅读全文