腾讯云第三方大模型 OpenAI 对话接口兼容了 OpenAI 的接口规范,这意味着您可以直接使用 OpenAI 官方提供的 SDK 来调用。您仅需要将 base_url 和 api_key 替换成相关配置,不需要对应用做额外修改,即可无缝将您的应用切换到相应的大模型。
base_url:
https://api.lkeap.cloud.tencent.com/v3api_key:与 DeepSeek 、混元大模型的 API key 均不共用,需在控制台 API key 页面进行创建。
接口请求地址完整路径:
https://api.lkeap.cloud.tencent.com/v3/chat/completions说明:
默认单账号下的模型限制为:
QPM (Queries Per Minute): 60
TPM (Tokens Per Minute): 1,000,000
已支持的模型
GLM系列 模型
模型 | model 参数值 | 最大上下文长度 | 最大输出长度 |
GLM-5 | glm-5 | 200k | 128k |
MiniMax系列 模型
模型 | model 参数值 | 最大上下文长度 | 最大输出长度 |
MiniMax M2.5 | minimax-m2.5 | 200k | 192k |
Kimi系列 模型
模型 | model 参数值 | 最大上下文长度 | 最大输出长度 |
Kimi K2.5 | kimi-k2.5 | 256k | 256k |
Kimi K2-0905-preview | kimi-k2-0905-preview | 256k | 256k |
Kimi K2-turbo-preview | kimi-k2-turbo-preview | 256k | 256k |
Kimi K2-thinking-turbo | kimi-k2-thinking-turbo | 256k | 256k |
说明:
model 参数值:调用模型时携带的“Model”字段,例如 glm-5。
Kimi K2.5 当前仅支持文本输入。
快速开始
API 使用前提:已在腾讯云控制台 API key 管理 开通腾讯云大模型API能力并创建 API key。如果通过 SDK 调用,需要安装 OpenAI 。
如果您首次使用大模型API能力,请参考 API key 管理 进行大模型API能力的开通,并将示例代码中的 model 参数修改为上表中您需要调用的模型名称。
安装SDK
您需要确保已安装 Python 3.8或以上版本。
安装或更新 OpenAI Python SDK
运行以下命令:
pip install -U openai
如果运行失败,请将 pip 改为 pip3。
示例代码片段
流式输出
第三方模型均支持流式输出;在输出内容比较长的场景下,为降低超时风险,推荐您使用流式输出方式。
from openai import OpenAIimport os# 初始化OpenAI客户端client = OpenAI(# 请用大模型API能力API Key将下行替换为:api_key="sk-xxx",api_key="API_KEY",base_url="https://api.lkeap.cloud.tencent.com/v3",)def main():reasoning_content = "" # 思维链回答answer_content = "" # 最终回答is_answering = False # 是否思考中的标记符# 发送请求stream = client.chat.completions.create(model="glm-5", # 此处以 glm-5 为例,可按需更换模型名称messages=[{"role": "user", "content": "请解释一下RESTful API的设计原则"}],stream=True)for chunk in stream:delta = chunk.choices[0].delta# 处理空内容情况if not getattr(delta, 'reasoning_content', None) and not getattr(delta, 'content', None):continue# 处理开始回答的情况if not getattr(delta, 'reasoning_content', None) and not is_answering:is_answering = True# 处理思维链回答if getattr(delta, 'reasoning_content', None):reasoning_content += delta.reasoning_content# 处理最终回答elif getattr(delta, 'content', None):print(delta.content, end='', flush=True)answer_content += delta.contentif __name__ == "__main__":try:main()except Exception as e:print(f"发生错误:{e}")
import OpenAI from "openai";const openai = new OpenAI({// 请用腾讯云大模型能力API Key将下行替换为:apiKey: "sk-xxx",apiKey: "API_KEY",baseURL: "https://api.lkeap.cloud.tencent.com/v3"});async function main() {let reasoningContent = ""; // 思维链回答let answerContent = ""; // 最终回答let isAnswering = false; // 是否思考中的标记符const completion = await openai.chat.completions.create({model: "glm-5", // 此处以 glm-5 为例,可按需更换模型名称messages: [{ role: 'user', content: '请解释一下RESTful API的设计原则' }],stream: true,});for await (const chunk of completion) {const delta = chunk.choices[0].delta;// 处理空内容情况if (!delta.reasoning_content && !delta.content) {continue;}// 处理开始回答的情况if (!delta.reasoning_content && !isAnswering) {isAnswering = true;}// 处理思维链回答if (delta.reasoning_content) {reasoningContent += delta.reasoning_content;}// 处理最终内容else if (delta.content) {process.stdout.write(delta.content);answerContent += delta.content;}}}main().catch(console.error);
curl https://api.lkeap.cloud.tencent.com/v3/chat/completions \\-H "Content-Type: application/json" \\-H "Authorization: Bearer sk-xxxxxxxxxxx" \\-d '{"model": "glm-5","messages": [{"role": "user","content": "请解释一下RESTful API的设计原则"}],"stream": true}'
注意事项
稳定性
若执行后出现“concurrency exceeded”的响应,则表明您的请求遭遇了限流。这通常是由于服务器资源暂时不足所致。建议您稍后再试,届时服务器负载可能已得到缓解。
GLM-5
支持通过 thinking 参数控制思考模式,默认开启思考。
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
支持的参数 | top_p、temperature、max_tokens、presence_penalty、frequency_penalty、stop、thinking、json_object、Function Calling |
参数默认值 | temperature:0.6(取值范围是(0:1)),top_p:0.95(取值范围是(0:1)) |
MiniMax M2.5
不支持通过 thinking 参数控制思考模式。
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
不支持的参数 | json_object、json_schema |
支持的参数 | top_p、temperature、max_tokens、presence_penalty、frequency_penalty、stop、Function Calling |
参数默认值 | temperature:1.0(取值范围是(0:1]),top_p:0.95(取值范围是(0:1]) |
Kimi K2.5
支持通过 thinking 参数控制思考模式,默认开启。
在思考模式下,不支持强制调用某个工具,tool_choice 仅支持设置为 auto(默认值)和 none。
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
不支持的参数 | top_p、temperature、presence_penalty、frequency_penalty |
支持的参数 | max_tokens、stop、thinking、json_object、json_schema、Function Calling |
参数默认值 | temperature:1.0,top_p:0.95,presence_penalty:0.0,frequency_penalty:0.0 |
Kimi K2-0905-preview
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
支持的参数 | top_p、temperature、max_tokens、presence_penalty、frequency_penalty、stop、json_object、json_schema、Function Calling |
参数默认值 | temperature:0.6(取值范围是[0:1]),top_p:1.0(取值范围是(0:1]) |
Kimi K2-turbo-preview
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
支持的参数 | top_p、temperature、max_tokens、presence_penalty、frequency_penalty、stop、json_object、json_schema、Function Calling |
参数默认值 | temperature:0.6(取值范围是[0:1]),top_p:1.0(取值范围是(0:1]) |
Kimi K2-thinking-turbo
参数配置说明 | 具体参数和功能 |
不支持设置的功能 | 对话前缀续写、上下文硬盘缓存 |
支持的参数 | top_p、temperature、max_tokens、presence_penalty、frequency_penalty、stop、json_object、json_schema、Function Calling |
参数默认值 | temperature:1.0(取值范围是[0:1]),top_p:1.0(取值范围是(0:1]) |
敬请关注后续动态。
查看更多完整示例
错误码
错误码 | 错误信息 | 说明 |
20024 | invalid params | |
20031 | not enough quota | |
20033 | invalid model | 模型名称错误,请检查模型名称。 |
20034 | concurrency rate limit exceeded | 并发限流错误。这通常是由于服务器资源暂时不足所致。建议您稍后再试,届时服务器负载可能已得到缓解。 |
20052 | concurrency exceeded | 模型服务负载过高限流错误,请稍后重试。 |
20057 | model engine error | 模型引擎错误,请您稍后重试,或者联系平台技术同学处理。 |
20059 | input length too long | 输入长度超过上下文长度,请减小输入内容的长度。 |
20072 | tpm rate limit exceeded | TPM 限流错误。 |
错误示例
{"error":{"message":"not enough quota","type":"runtime_error","param":null,"code":"20031"}}
安全审查示例
finish_reason = content_filter 表示输出内容触发了安全审核机制。这通常发生在系统检测到某些输入或输出内容可能包含敏感信息或不适当的语言,因此自动启动了审核流程以确保内容的安全性和适宜性。在这种情况下,系统会对相关内容进行仔细审查,以防止不当信息的传播。
非流式输出示例:
{"id":"26a58a8ab6e7712937ad542436b4b97a","object":"chat.completion","created":1740379897,"model":"glm-5","choices":[{"index":0,"message":{"role":"assistant","content":"你好,我无法给到相关内容。"},"finish_reason":"content_filter"}],"usage":{"prompt_tokens":0,"completion_tokens":0,"total_tokens":0}}
流式输出示例:
data: {"id":"d2d486bfdb31b1b6f55c8b5cbeb492d3","object":"chat.completion.chunk","created":1740379627,"model":"glm-5","choices":[{"index":0,"delta":{"role":"assistant","content":"你好,我无法给到相关内容。"},"finish_reason":"content_filter"}],"usage":{"prompt_tokens":0,"completion_tokens":0,"total_tokens":0}}