news studionews studio

“`markdown

中科大华为联手发布生成式推荐大模型,国产昇腾 NPU 成功部署,揭示扩展定律背后的奥秘

北京,2025年4月6日 – 在信息爆炸的时代,个性化推荐系统已成为人们获取信息、商品和服务的重要途径。近日,中国科学技术大学(中科大)与华为公司联合发布了一项突破性研究成果:一款基于生成式推荐范式的超大规模推荐模型,并成功在国产昇腾 NPU(神经网络处理器)上实现部署。这一成果不仅标志着国产 AI 芯片在复杂推荐系统领域的应用迈出了坚实一步,也为未来推荐系统的发展方向提供了新的思路。

推荐系统的新范式:生成式推荐大模型

长期以来,推荐系统经历了从手工特征工程到深度学习的演进。然而,随着数据规模和用户需求的不断增长,传统推荐模型在扩展性和个性化方面面临挑战。Meta 公司率先提出的生成式推荐范式 HSTU,通过将推荐模型参数扩展至万亿级别,验证了扩展定律在推荐领域的潜力。

中科大与华为的合作,正是基于这一趋势,旨在探索生成式推荐大模型在实际应用中的可行性。研究团队通过深入分析不同架构的生成式推荐模型,揭示了 HSTU 扩展定律的来源,并成功地将传统推荐模型 SASRec 赋予了可扩展性。

扩展定律:推荐系统的未来趋势

扩展定律描述了模型性能与参数规模、数据集规模和训练资源之间的幂律关系。通过增加模型深度和宽度,并结合海量数据,可以显著提升推荐效果。研究团队认为,生成式推荐大模型正在成为颠覆当前推荐系统的下一个新范式。

然而,并非所有模型都具备可扩展性。研究团队对比了 HSTU、Llama、GPT 和 SASRec 四种基于 Transformer 的架构,发现 HSTU 和 Llama 在参数扩展时性能显著提升,而 GPT 和 SASRec 的扩展性不足。这表明,模型架构中专为推荐任务设计的关键组件,对于有效利用扩展定律至关重要。

揭秘 HSTU 的可扩展性来源

为了探究 HSTU 等生成式推荐模型的可扩展性来源,研究团队进行了消融实验,发现相对注意力偏移(RAB)是 HSTU 的关键组件。通过进一步分析,团队发现残差连接模式与 RAB 的结合,为传统推荐模型赋予了扩展性。

这一发现为未来推荐系统的扩展性探索提供了重要启示:通过合理设计模型架构,可以使传统模型也能充分利用扩展定律,从而提升推荐效果。

复杂场景和排序任务中的卓越表现

研究团队还验证了 HSTU 在多域、多行为和辅助信息等复杂场景中的表现。实验结果表明,HSTU 在这些场景中均优于传统推荐模型,尤其在解决冷启动问题上具有潜力。

在排序任务中,生成式推荐大模型同样表现出色,显著优于 DIN 等传统推荐模型。研究团队还深入探讨了负采样率和评分网络架构对排序任务的影响,并进行了全面分析。

国产昇腾 NPU 的成功部署

值得一提的是,该研究成果成功在国产昇腾 NPU 上实现部署。这不仅验证了昇腾 NPU 在处理复杂 AI 任务方面的能力,也为国产 AI 芯片在推荐系统领域的应用开辟了新的道路。

未来展望

展望未来,研究团队指出了数据工程、Tokenizer、训练推理效率等推荐大模型未来研究的潜力方向。这些方向将有助于解决当前的挑战,并拓宽应用场景。

这项研究不仅为推荐系统的发展提供了新的思路,也为国产 AI 芯片的应用带来了新的机遇。随着技术的不断进步,我们有理由相信,未来的推荐系统将更加智能、个性化,为人们带来更加便捷、高效的信息服务。

参考文献:

来源:

  • 本文部分内容参考自微信公众号:量子位(ID:QbitAI),作者:认知智能全国重点实验室 & 华为诺亚方舟。

“`


>>> Read more <<<

Views: 2

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注