前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如何评估、预测系统的QPS

如何评估、预测系统的QPS

作者头像
Allen.Wu
修改于 2022-11-11 17:16:07
修改于 2022-11-11 17:16:07
9.2K0
举报

[TOC]

如何评估、预测系统的QPS

容量评估按照5倍冗余计算

系统架构设计背景

当我们在设计一套系统的时候,我们要考虑好系统的架构设计、模块划分、技术方案选型、还有系统性能如能够承受的QPS。当我们线上系统能够支撑10W QPS的时候,我们要考虑100W QPS的架构优化、当我们系统能够支撑100W的时候,我们要思考1000W的架构优化和改进。同时,经验告诉我们,从10W到100W再到1000W一定不是理所当然的线性增长。

为啥要提前预估线上的最大QPS,因为这样我们才能做到白盒化,才能做到心中有数,才能提前有一定的方案,但是这个方案不一定要马上实施,作为技术人员,方案是一定需要有的,什么时候实施,如何时候是另外一回事。

本文就如何评估、预测我们系统的QPS做一些经验输出,不足之处望大佬们指正~

评估案例和方案

为啥要进行评估?因为不同的QPS,所带来的挑战是不同的,架构设计也是不一样的

如何评估系统的QPS

如何评估系统的QPS,指的是我们的系统支撑的业务场景需要满足的一个最大承压,对于一个新项目而言,一般来说,有这样几个方式:

  1. 产品和运营人员告诉你,我们这个系统上线,日活达到多少、同时在线达到多少、总用户将会有多少等等,这个是产品和运营对这个新项目的预估
    • 这个是一个参考数据,不能全信也不可不信
  2. 凭借自身已有的经验进行预估,如一个视频聊天的产品的预估、如一个社交产品的预估、如一个微博系统的预估等等。
社交、视频聊天的预估

对于视频聊天,我们可以这样预估QPS:

  1. 预估平均每个用户每天30次视频匹配、 15次视频聊天
  2. 预估每个用户每天30分钟视频时间,峰值为平均QPS的3-4倍,一天时间24h

不同日活的不同数据:

  • 10w*30分钟 * 4 / 24h = 0.83w QPS
  • 100W*30分钟 * 4 / 24h = 8.3w QPS

目前是预估30分钟,但是后面爆款后,这个时长可能变化很大,需要预留一定的流量,并且百万日活,并不是仅仅是100w,300w-400w内,都算百万日活,因此,在此基础上,还要再有3-4倍的量。

Feed系统的预估

对于Feed这样的系统(如微博),我们可以预估一下,全量用户每天总共会发送1000W条Feed,那么Feed子系统一天就会产生1000W条消息,同时,我们预估每条Feed平均有10个用户会去查看,也就是要读取这条消息,因此读取消息就是1亿次。

这也是一天的总量,那么QPS如何算呢?

  • 写:1000W / 24 h = 115.7 QPS
  • 读:115.7 * 10 = 1157 QPS

按照上面的推论,峰值为平均QPS的3-4倍,那么实际的QPS应该是:

  • 写:1000W / 24 h * 4 = 463 QPS
  • 读:115.7 * 10 * 4 = 4630 QPS

同时为了应对高峰,和后续的增长,我们的QPS肯定要在现有基础上再进行一些扩充,一般还是3-4倍余量。因此,最终我们预估:

  • 写:1000W / 24 h * 4 * 4 = 1852 QPS
  • 读:115.7 * 10 * 4 * 4 = 18520 QPS

这里的3-4倍不是一定的,但是是根据实际经验的一个参考值,不同的业务会有不同的倍数。

如何预测系统的QPS

在预测系统的QPS前,我们需要有一些已知的经验型数据,如日志QPS在6-10w、 RPC的QPS在 10W ,Redis的QPS是8-10w,MySQL大致6k-1W。以上是大体范围,不同机器不同配置有不同结果。

抛开其他的不谈,我们需要看看,我们一次请求调用,有多少次写日志、多少次读写底层资源、多少次RPC调用,然后取其中最低的个值,这是我们预测系统能够达到的最大值。

然而,我们压测的目的在于验证我们的猜测,看看我们实际系统和预测的有多少差别。这就是为什么有经验的人只要你告诉他你的系统架构设计,他就能预估你的系统最大能承受的QPS是多少的原因。

在实际应用中,我按照此种方式去预测和压测,发现压测的值和预测的值,相差比较小,当然压测数据一定是小于预测数据的。这就说明系统设计的还算ok。

欢迎关注我的公众号,方便更快捷的接收最新优质文章
欢迎关注我的公众号,方便更快捷的接收最新优质文章
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-09-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 后端系统和架构 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
姚顺雨提到的「AI下半场」,产品评估仍被误解
前段时间,OpenAI 研究员姚顺雨发表了一篇主题为「AI 下半场」的博客。其中提到,「接下来,AI 的重点将从解决问题转向定义问题。在这个新时代,评估的重要性将超过训练。我们需要重新思考如何训练 AI 以及如何衡量进展,这可能需要更接近产品经理的思维方式。」(参见《清华学霸、OpenAI 姚顺雨:AI 下半场开战,评估将比训练重要》)
机器之心
2025/06/10
510
姚顺雨提到的「AI下半场」,产品评估仍被误解
TKE 助力 Agent 可观测及评估体系建设,靠谱助手轻松养成!
张跃华,腾讯云容器服务 TKE 后台开发工程师,主要负责 LLM 应用相关研发工作。
腾讯云原生
2025/06/09
1030
TKE 助力 Agent 可观测及评估体系建设,靠谱助手轻松养成!
谷歌发76页智能体白皮书!你的「AI替身」已上线
其核心原理,是将推理能力、逻辑思维以及获取外部信息的能力融合,完成一些基础模型难以实现的任务,做出更复杂的决策。
新智元
2025/05/12
1900
谷歌发76页智能体白皮书!你的「AI替身」已上线
评估与优化RAG指南:提高准确性与质量的最佳实践
本指南将教你如何评估一个 RAG 系统的准确性 和质量。你将学会通过测试搜索精度、召回率、上下文相关性和响应准确性来保持 RAG 系统的性能。
AgenticAI
2025/03/18
2470
评估与优化RAG指南:提高准确性与质量的最佳实践
聊一聊五种智能体模式
随着 AI 驱动型应用程序的快速发展,开发人员越来越多地利用大语言模型(LLM)构建智能体,以高效执行复杂任务。然而,最有效的实现并非依赖于复杂的框架,而是采用简单且可组合的设计模式。
技术人生黄勇
2025/03/04
3682
聊一聊五种智能体模式
WAIC 2023 | 微软Office产品团队技术负责人蔡玮鑫:Copilot中大语言模型应用实践经验
机器之心报道 演讲:蔡玮鑫 在机器之心主办的 WAIC 2023 AI 开发者论坛上,微软 Office Product Group 技术负责人蔡玮鑫博士以视频的方式为大家带来了精彩的演讲。他结合自己
机器之心
2023/08/08
2640
WAIC 2023 | 微软Office产品团队技术负责人蔡玮鑫:Copilot中大语言模型应用实践经验
AI智能体的开发流程
AI智能体的开发流程是一个多阶段、迭代的过程,它将机器学习、软件工程和领域知识结合在一起,旨在创建一个能够感知、推理、学习和行动的自主系统。下面是一个详细的AI智能体开发流程。
数字孪生开发者
2025/06/16
1680
AI智能体的开发流程
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述
前有Perplexity横空出世,后有谷歌Gemini和OpenAI的SearchGPT纷纷加入。
新智元
2025/02/15
740
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述
大语言模型系统评估新框架:微观指标构建方法论
Denys Linkov 在 QCon 旧金山技术大会上发表了题为《构建 LLM 系统评估微观指标的框架设计》的专题演讲。本文整理自该演讲内容,重点探讨大语言模型(LLM)准确性评估所面临的独特挑战,并系统地阐述了如何通过创建、跟踪及动态修正微观指标体系来持续优化 LLM 模型表现。
深度学习与Python
2025/02/18
1820
大语言模型系统评估新框架:微观指标构建方法论
不输 Claude 3.5/3.7?Windsurf发布自研SWE-1模型+流程感知,付费用户限免,另两款全员畅享。
Windsurf 又整上活了, 推出了他们第一个专为软件工程优化的模型家族——SWE-1。 不光是写代码,而是要搞定整个软件工程流程。
AI进修生
2025/05/17
1550
不输 Claude 3.5/3.7?Windsurf发布自研SWE-1模型+流程感知,付费用户限免,另两款全员畅享。
GUIDE:通过注意力分数优化LLMs指令对齐的简单有效方法 !
大型语言模型(LLMs)是目前大多数自然语言处理(NLP)任务的最新技术。尽管取得了成功,但预训练的LLM有时难以准确理解不同用户指令,可能生成与人类预期不符的输出。此外,LLM可能产生偏见或虚构的事实,这可能限制其实际应用价值。
AIGC 先锋科技
2024/10/25
1770
GUIDE:通过注意力分数优化LLMs指令对齐的简单有效方法 !
使用大语言模型 (LLMs) 构建产品一年后的经验总结 (第一部分) [译]
现在是使用大语言模型 (LLMs) 构建产品的激动人心的时刻。在过去的一年中,LLMs 的表现已经“足够好”可以应用于现实世界。LLMs 改进的速度,加上社交媒体上的大量演示,将推动预计到 2025 年 AI 投资达到 2000 亿美元。LLMs 的广泛可用性,让每个人,而不仅仅是机器学习工程师和科学家,都能在他们的产品中构建智能。虽然构建 AI 产品的门槛已经降低,但要创建那些不仅仅是演示效果好的产品,仍然充满挑战。
硬核编程
2024/06/07
2660
使用大语言模型 (LLMs) 构建产品一年后的经验总结 (第一部分) [译]
互联网十万个为什么之什么是自然语言处理?
自然语言处理(Natural Language Processing,简称NLP)属于人工智能的一个分支,旨在让计算机能够理解并处理人类语言,从中提取出有用的信息,帮助人类更高效地处理各种任务。
linus_lin
2024/09/06
1460
互联网十万个为什么之什么是自然语言处理?
大模型时代的模型运维与部署:LLMops
术语 LLMOps 代表大型语言模型运维。它的简短定义是 LLMOps 是 LLM 的 MLOps。这意味着 LLMOps 是一组工具和最佳实践,用于管理 LLM 支持的应用程序的生命周期,包括开发、部署和维护。
悟乙己
2023/07/09
6.7K0
大模型时代的模型运维与部署:LLMops
ANTHROPIC:高端的食材往往需要最朴素的烹饪方法: prompt, workflow, agent
在过去的一年里,ANTHROPIC与数十个团队合作,构建了跨行业的大型语言模型 ( LLM ) 代理。
AIGC新知
2024/12/23
1580
ANTHROPIC:高端的食材往往需要最朴素的烹饪方法: prompt, workflow, agent
第二章--第五篇:闭合式对话系统
对话系统作为人机交互领域的重要研究方向,在现实生活和技术领域具有广泛的应用。它的重要性体现在以下几个方面。 首先,对话系统能够提供自然、直观的人机交互方式。传统的人机交互方式主要依靠键盘、鼠标等输入设备,但对于一些用户,使用自然语言进行对话更加便捷和直观。对话系统通过语音识别和自然语言处理技术,能够理解用户的语言输入,并以自然语言的形式回复用户,使用户能够像与人类对话一样与计算机交流。 其次,对话系统在实现智能个人助理、智能客服和虚拟人物等领域具有重要应用。智能个人助理可以帮助用户处理日常事务、提供个性化的推荐和建议,提升用户的生活品质。智能客服能够为用户提供实时的技术支持和服务,提高客户满意度。虚拟人物则能够与用户进行情感交流、提供娱乐和教育等功能。 此外,对话系统在知识获取和信息检索方面发挥着重要作用。对话系统可以与用户进行语义理解和意图识别,从海量的数据中提取有用的信息,为用户提供准确、实时的答案和解决方案。对话系统还可以通过与用户的对话交互,逐步获取并更新知识库,实现知识的持续积累和更新。 最后,对话系统的发展也推动了人工智能技术的进步。为了实现对话系统的自动化、智能化,需要运用自然语言处理、机器学习、深度学习等前沿技术。对话系统的研究和应用促进了这些技术的发展,提升了人工智能在其他领域的应用水平。
喵叔
2023/05/25
4720
一个时代彻底结束了,投资达2000亿美元,分享我们落地大模型的路径、方法、踩坑!
最近一年,LLM(大型语言模型)已经成熟到可以投入实际应用中了。预计到 2025 年,AI 领域的投资会飙升到 2000 亿美元。现在,不只是机器学习专家,任何人都能轻松地把 AI 技术融入自己的产品里。
架构狂人
2024/07/16
1590
一个时代彻底结束了,投资达2000亿美元,分享我们落地大模型的路径、方法、踩坑!
Nature | 通过语言模型反馈反向传播优化生成式AI
近年来,人工智能(AI)领域的突破性进展越来越依赖于由多个大语言模型(LLMs)及其他专业工具(如搜索引擎和模拟器)协同驱动的系统。然而,目前这些系统主要依赖领域专家手工设计,并通过启发式方法进行调整,而非自动优化,这在加速AI进步方面构成了重大挑战。人工神经网络的发展曾面临类似的困境,直到反向传播和自动微分的引入,使优化流程变得高效便捷。
DrugAI
2025/03/21
3060
Nature | 通过语言模型反馈反向传播优化生成式AI
GPT-4终结人工标注!AI标注比人类标注效率高100倍,成本仅1/7
大模型满天飞的时代,AI行业最缺的是什么?毫无疑问一定是算(xian)力(ka)。
新智元
2023/09/19
1.3K0
GPT-4终结人工标注!AI标注比人类标注效率高100倍,成本仅1/7
参数量仅为1/700,性能超越GPT-3.5!CMU+清华开源Prompt2Model框架
基于大型语言模型(LLM),开发者或用户可以通过描述任务,并给出几个样例来构造自然语言提示,很轻松地就能实现指定的功能。
新智元
2023/09/25
2250
参数量仅为1/700,性能超越GPT-3.5!CMU+清华开源Prompt2Model框架
推荐阅读
姚顺雨提到的「AI下半场」,产品评估仍被误解
510
TKE 助力 Agent 可观测及评估体系建设,靠谱助手轻松养成!
1030
谷歌发76页智能体白皮书!你的「AI替身」已上线
1900
评估与优化RAG指南:提高准确性与质量的最佳实践
2470
聊一聊五种智能体模式
3682
WAIC 2023 | 微软Office产品团队技术负责人蔡玮鑫:Copilot中大语言模型应用实践经验
2640
AI智能体的开发流程
1680
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述
740
大语言模型系统评估新框架:微观指标构建方法论
1820
不输 Claude 3.5/3.7?Windsurf发布自研SWE-1模型+流程感知,付费用户限免,另两款全员畅享。
1550
GUIDE:通过注意力分数优化LLMs指令对齐的简单有效方法 !
1770
使用大语言模型 (LLMs) 构建产品一年后的经验总结 (第一部分) [译]
2660
互联网十万个为什么之什么是自然语言处理?
1460
大模型时代的模型运维与部署:LLMops
6.7K0
ANTHROPIC:高端的食材往往需要最朴素的烹饪方法: prompt, workflow, agent
1580
第二章--第五篇:闭合式对话系统
4720
一个时代彻底结束了,投资达2000亿美元,分享我们落地大模型的路径、方法、踩坑!
1590
Nature | 通过语言模型反馈反向传播优化生成式AI
3060
GPT-4终结人工标注!AI标注比人类标注效率高100倍,成本仅1/7
1.3K0
参数量仅为1/700,性能超越GPT-3.5!CMU+清华开源Prompt2Model框架
2250
相关推荐
姚顺雨提到的「AI下半场」,产品评估仍被误解
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档