NEWS 新闻NEWS 新闻

北京 – 在人工智能领域竞争日益激烈的当下,中国人工智能公司智谱近日宣布,其核心技术链路全面开源,包括新一代GLM系列模型,引发业界广泛关注。此次开源不仅涵盖基座模型GLM-4,更包括推理模型GLM-Z1以及具备“沉思”能力的GLM-Z1-Rumination模型,同时还推出了小尺寸的9B系列模型,旨在推动AI技术的普及和应用。

此次开源的最大亮点之一是GLM-Z1推理模型,据称其推理速度比肩DeepSeek-R1,且速度提升高达8倍。智谱方面表示,该模型通过优化GQA参数、量化和投机采样等技术,实现了在消费级显卡上的流畅运行,并达到每秒200 token的极速响应,极大地降低了使用门槛。

更令人瞩目的是GLM-Z1-Rumination沉思模型。与传统的推理模型不同,该模型具备更强的自主能力,能够主动联网搜索资料、调用工具、进行深度分析和自我验证,形成完整的思考闭环。这种“实时搜索-深度分析-动态验证”的循环思考模式,被认为是新一代AI的发展方向,标志着AI从单纯的高智商向高智商与高自主并重的转变。

智谱此次开源的模型均遵循MIT许可协议,用户可以通过全新启用的域名z.ai进行访问体验。同时,新版基座模型和推理模型也已同步上线智谱MaaS平台,为企业和开发者提供API服务。

作为国内最早开源大模型的人工智能公司之一,智谱一直致力于推动AI普惠。公司曾表示,2025年将成为智谱的开源年,持续加码生态建设。此次开源行动,无疑是智谱实现这一目标的重要一步。

面向企业服务:速度与成本的双重优势

智谱此次开源的重点在于向企业提供模型即服务(MaaS)。目前,智谱已有1000多个大模型规模化应用,覆盖传媒、咨询、消费、金融、新能源、互联网、智能办公等多个细分场景。

为了满足不同业务场景的需求,智谱MaaS平台提供了三个版本的推理模型:

  • GLM-Z1-AirX(极速版): 定位国内最快推理模型,推理速度可达200 tokens/秒,适合高并发、极速响应业务场景。
  • GLM-Z1-Air(高性价比版): 价格仅为DeepSeek-R1的1/30,适合高频调用场景。
  • GLM-Z1-Flash(免费版): 支持免费使用,旨在进一步降低模型使用门槛。

全球用户:免费体验完整功能

对于想要完整体验模型能力的用户,可以通过App与网页端登录z.ai,与最新的GLM模型进行免费对话。该平台集合了沉思模型、推理模型和对话模型,为用户提供全面的AI体验。

分析与展望

智谱此次大规模开源行动,不仅展示了其在人工智能领域的强大实力,也体现了其推动AI普惠的决心。通过开源,智谱能够吸引更多的开发者和研究者参与到GLM模型的改进和应用中,加速AI技术的创新和发展。

随着开源生态建设成为新一轮竞争焦点,智谱的此次行动无疑将对其在行业内的地位产生积极影响。未来,我们期待智谱能够继续推出更多创新性的AI技术,为人工智能的发展贡献力量。

参考链接:

(本文由AI新闻记者根据公开信息撰写,力求客观准确,但请读者自行核实相关信息。)


>>> Read more <<<

Views: 0

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注