文档
入门指南
常见问题及解决方案

常见问题及解决方案

Kimi API 是否拥有和 Kimi 智能助手的“上网冲浪”功能

否。Kimi API 仅提供了大模型本身的交互功能,并不具备额外的“内容搜索”和“网页内容浏览”功能,也即是通常意义上的“联网搜索”功能。如果你想通过 Kimi API 实现联网搜索功能,可以参考我们撰写的工具调用 tool_calls 指南:

使用 Kimi API 完成工具调用(tool_calls)

如果你想寻求开源社区的协助,你可以参考以下开源项目:

如果你想寻求由专业供应商提供的服务,有如下服务可供选择:

Kimi API 返回的内容不完整或被截断

如果你发现 Kimi API 返回的内容不完整、被截断或长度不符合预期,你可以先检查响应体中的 choice.finish_reason 字段的值,如果该值为 length,则表明当前模型生成内容所包含的 Tokens 数量超过请求中的 max_tokens 参数,在这种情况下,Kimi API 仅会返回 max_tokens 个 Tokens 内容,多余的内容将会被丢弃,即上文所说“内容不完整”或“内容被截断”。

在遇到 finish_reason=length 时,如果你想让 Kimi 大模型接着上一次返回的内容继续输出,可以使用 Kimi API 提供的 Partial Mode,详细的文档请参考:

使用 Kimi API 的 Partial Mode

如果你想避免出现 finish_reason=length,我们建议你放大 max_tokens 的值,我们推荐的最佳实践是:通过 estimate-token-count (opens in a new tab) 接口计算输入内容的 Tokens 数量,随后使用 Kimi 大模型所支持的最大 Tokens 数量(例如,对于 moonshot-v1-32k 模型,它最大支持 32k Tokens)减去输入内容的 Tokens 数量,得到的值即是本次请求的 max_tokens

moonshot-v1-32k 模型举例:

max_tokens = 32,000 - prompt_tokens

报错 Your request exceeded model token limit,但输入内容非常短

我们会使用输入内容所占用的 Tokens 数量,加上请求设置的 max_tokens 值来判断当前请求是否超过 Kimi 大模型的上下文窗口大小,以 moonshot-v1-32k 为例,请确保:

prompt_tokens + max_tokens ≤ 32,000

Kimi 大模型的输出长度是多少

  • 对于 moonshot-v1-8k 模型而言,最大输出长度是 8,000 - prompt_tokens
  • 对于 moonshot-v1-32k 模型而言,最大输出长度是 32,000 - prompt_tokens
  • 对于 moonshot-v1-128k 模型而言,最大输出长度是 128,000 - prompt_tokens

Kimi 大模型支持的汉字数量是多少?

  • 对于 moonshot-v1-8k 模型而言,大约支持一万五千个汉字;
  • 对于 moonshot-v1-32k 模型而言,大约支持六万个汉字;
  • 对于 moonshot-v1-128k 模型而言,大约支持二十万个汉字;

注:以上均为估算值,实际情况可能有所不同。

文件抽取内容不准确、图像无法被识别

我们提供各种格式的文件上传和文件解析服务,对于文本文件,我们会提取文件中的文字内容;对于图片文件,我们会使用 OCR 识别图片中的文字;对于 PDF 文档,如果 PDF 文档中只包含图片,我们会使用 OCR 提取图片中的文字,否则仅会提取文本内容。

注意,对于图片,我们只会使用 OCR 提取图片中的文字内容,因此如果你的图片中不包含任何文字内容,则会引起解析失败的错误。

完整的文件格式支持列表,请参考:

文件接口 (opens in a new tab)

使用 Context Caching 接口时,报错 permission_denied_error

对于 Context Caching 接口,目前仅开放给账户等级达到 Tier 3 及以上等级的用户。

使用 files 接口时,希望使用 file_id 引用文件内容

我们目前不支持使用文件 file_id 的方式引用文件内容作为上下文,但我们支持将文件内容缓存(使用 Context Caching 技术)后,使用 cache_idcache_tag,引用已缓存的文件内容,实现类似的效果。

具体使用方式请参考:

使用 Kimi API 的 Context Caching 功能

使用接口报错 content_filter: The request was rejected because it was considered high risk

当前请求 Kimi API 的输入或 Kimi 大模型的输出内容包含不安全或敏感内容,注意:Kimi 大模型生成的内容也可能包含不安全或敏感内容,进而导致 content_filter 错误

出现 Connection 相关错误

如果在使用 Kimi API 的过程中,经常出现 Connection ErrorConnection Time Out 等错误,请按照以下顺序检查:

  1. 程序代码或使用的 SDK 是否有默认的超时设置;
  2. 是否有使用任何类型的代理服务器,并检查代理服务器的网络和超时设置;
  3. 是否从海外服务器访问 Kimi API,如果需要在海外请求 Kimi API,我们推荐将 base_url 替换成:
https://api-sg.moonshot.ai/v1

报错信息显示的 TPM、RPM 限制与我的账户 Tier 等级不匹配

如果你在使用 Kimi API 的过程遇到了 rate_limit_reached_error 错误,例如:

rate_limit_reached_error: Your account {uid}<{ak-id}> request reached TPM rate limit, current:{current_tpm}, limit:{max_tpm}

但报错信息中的 TPM 或 RPM 限制与你在后台查看的 TPM 与 RPM 并不匹配,请先排查是否正确使用了当前账户的 api_key;通常情况下 TPM、RPM 与预期不匹配的原因,是使用了错误的 api_key,例如误用了其他用户给予的 api_key,或个人拥有多个账号的情况下,混用了 api_key

报错 model_not_found

请确保你在 SDK 中正确设置了 base_url=https://api.moonshot.cn,通常情况下,model_not_found 错误产生的原因是,使用 openai SDK 时,未设置 base_url 值,导致请求被发送至 openai 服务器,openai 返回了 model_not_found 错误。

Kimi 大模型出现数值计算错误

由于 Kimi 大模型生成过程的不确定性,在数值计算方面,Kimi 大模型可能会出现不同程度的计算错误,我们推荐使用工具调用 tool_calls 为 Kimi 大模型提供计算器功能,关于工具调用 tool_calls,可以参考我们撰写的工具调用 tool_calls 指南:

使用 Kimi API 完成工具调用(tool_calls)