边缘 AI

最近更新时间:2026-01-09 17:47:33

我的收藏

概述

EdgeOne 将 AI 服务部署至全球边缘节点,为开发者提供低延迟、高性能、零运维的 AI 推理能力。这一功能旨在解决传统云端 AI 服务面临的延迟高、成本高等问题,让 Pages 用户能够更便捷地在其应用中集成 AI 功能,提升用户体验并降低开发和运维成本。
目前,我们已在全球边缘节点部署了 DeepSeek 系列模型,使 Pages 项目能够快速接入和使用 AI 能力。所有用户均可免费体验该服务,您只需通过简单的 API 调用即可在网站中集成智能对话功能。

核心优势

即开即用的模型服务
预置优化版 DeepSeek 系列模型。
从 Pages Functions 直接调用 AI 模型。
无需处理模型部署、版本管理等运维工作。
低延迟响应保障
请求自动路由至最近边缘节点。
支持流式传输(streaming)降低首字延迟。
内置连接复用与传输优化。
无缝集成开发体验
与 EdgeOne Pages 项目无缝集成。
自动继承域名与 HTTPS 配置。
提供标准化 API 调用模板。

接入流程

1. 在 Pages 控制台单击创建项目。
2. 选择“DeepSeek for Edge”模板进行部署。
3. 将仓库克隆至本地,在项目的边缘函数中,以下示例代码即为调用 AI 模型的核心模块。
// 在边缘函数中(示例路径:/functions/v1/chat/completions/index.js)
export async function onRequestPost({ request }) {
// 解析用户输入
const { content } = await request.json();

try {
// 调用边缘 AI 服务
const response = await AI.chatCompletions({
model: '@tx/deepseek-ai/deepseek-v3-0324',
messages: [{ role: 'user', content }],
stream: true, // 启用流式输出
});

// 返回流式响应
return new Response(response, {
headers: {
'Content-Type': 'text/event-stream',
'Cache-Control': 'no-cache',
'Connection': 'keep-alive',
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Methods': 'POST, OPTIONS',
'Access-Control-Allow-Headers': 'Content-Type, Authorization',
}
});
} catch (error) {
return new Response(JSON.stringify({
error: 'AI_SERVICE_ERROR',
message: error.message
}), { status: 503 });
}
}
可选模型如下:
模型 ID
每日调用次数限制
@tx/deepseek-ai/deepseek-v3-0324
50
@tx/deepseek-ai/deepseek-r1-0528
20

注意事项

当前有API调用频率限制,请合理控制请求速度。
建议实现错误处理机制,提高应用稳定性。
禁止用于生成违法内容、高频自动化请求等场景。
当前为限时免费 Beta 服务,正式商用时间另行通知。