为什么要推出 Kimi Latest 模型?
2024 年 1 月 31 日,Kimi 开放平台开启公测,推出了最高支持 128k 上下文大小的 moonshot-v1
系列模型。一年来,moonshot-v1
系列模型不仅支撑着 Kimi 智能助手产品,更通过 API 调用的方式为众多开发者和企业用户提供模型能力。我们致力于向开发者和企业用户提供稳定可靠的大模型生成能力,并以此为目标不断迭代和优化模型能力。
我们逐渐发现,Kimi 智能助手产品和 Kimi 开放平台对模型能力的要求开始出现差异。简而言之,你可能希望 Kimi 智能助手的回复能提供更多的情绪价值,而希望 API 能更好地从文本中提取结构化数据,并输出准确的 JSON。
在产品迭代过程中,如果我们优先考虑 Kimi 智能助手产品对模型提出的能力要求,对于开放平台的用户而言,会产生一些令人烦恼的“破坏性变动”,例如我们曾经收到过这样的用户反馈:
模型更新后,原先已经调试得很完美的提示词突然失效,得从头再来。
这并不符合开放平台对于追求模型效果稳定性的目标。
另一方面,由于 Kimi 智能助手产品快速迭代的特性,我们通常会为模型添加一些试验性的特性,这些试验性的特性会在某一方面有着卓越的效果,但在另一些方面可能会有些许缺陷(例如在一些特定场景下,模型会持续重复输出词语或句子,直到用户手动中断)。这些试验性的特性并不适合第一时间应用在 Kimi 开放平台上的模型,我们会在这些特性稳定之后,再将其合并到 Kimi 开放平台上的 moonshot-v1
系列模型。因此,你可以说 Kimi 智能助手上使用的模型,比 Kimi 开放平台上上架的模型更新,但不会新太多。这也是有些用户会提出以下疑问的原因:
为什么同样的提示词,在 Kimi 网页版得到的回复,和调用 Kimi API 得到的回复略有不同?
为了让开放平台的用户既能体验到 Kimi 最新版模型的效果(包含那些尚未稳定的试验性特性),又能保持原有模型的稳定性,我们决定推出一款新模型 kimi-latest
,它对标的是 Kimi 智能助手产品目前正在使用的模型,会随 Kimi 智能助手产品进行更新(但模型名称不变,仍然是 kimi-latest
)。
特点
- 总是使用 Kimi 智能助手产品使用最新的 Kimi 大模型,可能包含尚未稳定的特性
- 上下文长度为 128k,会自动根据上下文长度选择 8k/32k/128k 模型作为计费模型(详情请见模型推理定价 (opens in a new tab))
- 是视觉模型,支持图片理解
- 支持自动上下文缓存,缓存命中的 Tokens 费用仅为 ¥1/M Tokens(暂不支持手动上下文缓存)
- 其余功能与
moonshot-v1
系列模型保持一致,包括:ToolCalls、JSON Mode、Partial Mode、联网搜索功能等
适用场景
- 如果你正在使用如 ChatWise、ChatBox、LobeChat、OpenCat 等大模型聊天应用,并想使用 Kimi 作为你的 AI 聊天伙伴,那么
kimi-latest
模型通常是你的最佳选择。 - 如果你正在为你的产品构建一个 AI 智能助手或客服,并且追求与 Kimi 智能助手相似的聊天体验,请选择
kimi-latest
模型。 - 如果你的工作是使用大模型进行意图识别或结构化数据提取,请选择
moonshot-v1
系列模型。 - 如果你的产品使用了
moonshot-v1
系列模型,并且提示词效果稳定,请继续使用moonshot-v1
系列模型,切换到kimi-latest
模型可能会需要重新修整提示词。