概述
EdgeOne 将 AI 服务部署至全球边缘节点,为开发者提供低延迟、高性能、零运维的 AI 推理能力。这一功能旨在解决传统云端 AI 服务面临的延迟高、成本高等问题,让 Pages 用户能够更便捷地在其应用中集成 AI 功能,提升用户体验并降低开发和运维成本。
目前,我们已在全球边缘节点部署了 DeepSeek 系列模型,使 Pages 项目能够快速接入和使用 AI 能力。所有用户均可免费体验该服务,您只需通过简单的 API 调用即可在网站中集成智能对话功能。
核心优势
即开即用的模型服务
预置优化版 DeepSeek 系列模型。
从 Pages Functions 直接调用 AI 模型。
无需处理模型部署、版本管理等运维工作。
低延迟响应保障
请求自动路由至最近边缘节点。
支持流式传输(streaming)降低首字延迟。
内置连接复用与传输优化。
无缝集成开发体验
与 EdgeOne Pages 项目无缝集成。
自动继承域名与 HTTPS 配置。
提供标准化 API 调用模板。
接入流程
1. 在 Pages 控制台单击创建项目。
2. 选择“DeepSeek for Edge”模板进行部署。
3. 将仓库克隆至本地,在项目的边缘函数中,以下示例代码即为调用 AI 模型的核心模块。
// 在边缘函数中(示例路径:/functions/v1/chat/completions/index.js)export async function onRequestPost({ request }) {// 解析用户输入const { content } = await request.json();try {// 调用边缘 AI 服务const response = await AI.chatCompletions({model: '@tx/deepseek-ai/deepseek-v3-0324',messages: [{ role: 'user', content }],stream: true, // 启用流式输出});// 返回流式响应return new Response(response, {headers: {'Content-Type': 'text/event-stream','Cache-Control': 'no-cache','Connection': 'keep-alive','Access-Control-Allow-Origin': '*','Access-Control-Allow-Methods': 'POST, OPTIONS','Access-Control-Allow-Headers': 'Content-Type, Authorization',}});} catch (error) {return new Response(JSON.stringify({error: 'AI_SERVICE_ERROR',message: error.message}), { status: 503 });}}
可选模型如下:
模型 ID | 每日调用次数限制 |
@tx/deepseek-ai/deepseek-v3-0324 | 50 |
@tx/deepseek-ai/deepseek-r1-0528 | 20 |
注意事项
当前有API调用频率限制,请合理控制请求速度。
建议实现错误处理机制,提高应用稳定性。
禁止用于生成违法内容、高频自动化请求等场景。
当前为限时免费 Beta 服务,正式商用时间另行通知。