[导语]
在人工智能技术飞速发展的当下,成本和效率成为开发者关注的焦点。近日,月之暗面旗下Kimi开放平台宣布,上下文缓存Cache存储费用降价50%,为开发者提供更加高效、经济的API服务。
[正文]
降价幅度大,开发者成本降低
月之暗面宣布,旗下Kimi开放平台的上下文缓存Cache存储费用降价50%,由原先的10元/1M tokens/min降低至5元/1M tokens/min。此次价格调整自即日起生效,将为开发者带来实实在在的成本节约。
技术升级,响应速度提升
7月1日,Kimi开放平台上下文缓存(Context Caching)功能开启公测。官方表示,该技术在API价格不变的前提下,可为开发者降低最高90%的长文本旗舰大模型使用成本,并提升模型响应速度。这意味着,开发者在使用长文本大模型时,不仅可以节省大量成本,还能获得更快的响应速度,提高开发效率。
公测开启,助力开发者普及
Kimi开放平台的上下文缓存公测,意味着这项技术将更加普及。开发者可以充分利用这一功能,降低开发成本,提高产品竞争力。此外,Kimi API助手还推出了「氮气加速装置」,以Golang为例实践Context Caching,进一步降低开发者使用门槛。
价格生效时间及近期更新
值得注意的是,此次价格调整将于2024年8月7日00:00:00正式生效。在此之前,开发者仍需按照原价支付Cache存储费用。此外,近期Kimi企业级API正式发布「上下文缓存」功能,推动长文本模型降本90%。
[结语]
月之暗面旗下Kimi开放平台的上下文缓存Cache存储费用降价,无疑为开发者带来了福音。在人工智能技术日益普及的今天,降低成本、提高效率成为开发者追求的目标。Kimi开放平台此举,将为广大开发者提供更加优质、高效的API服务,助力我国人工智能产业的发展。
Views: 3
