首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

腾讯云海外直播系统架构是怎么设计的?

骨干网核心节点主流的Tier1运营商进行大量采购,我们先解决60%-70%的问题。Tier2也是花大量的钱买成本比较高,比如说腾讯会考虑对内容获取的接入质量,那这时候就会免费、降价。...这时候我们要保证这一整条服务质量,状态一定要准;状态同步过去之后还要保证回源的问题性,在核心路上去铺设回源专线,现在跨区回源都走腾讯云的内网专线。...去年有一个海外第二大电商,他们去年在双十一、双十二用直播答题的项目进行引流。在双十一、双十二期间拉流服务超过2千万次,带宽500多G峰值带宽。...海外弱网环境的处理思路 第一,上行优化和下行优化都在IDC之间传输,你可以自己采购,在巴西也有公有云的服务,你去监控发现它每天到美国的都或多或少会丢包,有些是持续性的丢包...A:我们采购的运营商他们自建的跨大区的物理提供给我们的服务,是一种MPLS-V**技术,并且打了金牌标签的优质。在腾讯内部的网络体系里面我们认为它就叫专线。

9.6K40

胡仁成:腾讯视频云海外直播系统架构设计与最佳实践

骨干网核心节点主流的Tier1运营商进行大量采购,我们先解决60%-70%的问题。Tier2也是花大量的钱买成本比较高,比如说腾讯会考虑对内容获取的接入质量,那这时候就会免费、降价。...这时候我们要保证这一整条服务质量,状态一定要准;状态同步过去之后还要保证回源的问题性,在核心路上去铺设回源专线,现在跨区回源都走腾讯云的内网专线。...去年有一个海外第二大电商,他们去年在双十一、双十二用直播答题的项目进行引流。在双十一、双十二期间拉流服务超过2千万次,带宽500多G峰值带宽。...第一,上行优化和下行优化都在IDC之间传输,你可以自己采购,在巴西也有公有云的服务,你去监控发现它每天到美国的都或多或少会丢包,有些是持续性的丢包。...A:我们采购的运营商他们自建的跨大区的物理提供给我们的服务,是一种MPLS-V**技术,并且打了金牌标签的优质。在腾讯内部的网络体系里面我们认为它就叫专线。

4.5K50
您找到你想要的搜索结果了吗?
是的
没有找到

压测探索实践之路

去年双十一,为了应对零点的峰值流量冲击,我们在八月下旬启动了全压测第一次实践。由于从零开始,因此单独搭建了一套和生产1:1的环境,2个月的时间,光环境成本就高达几百万。...经过双十一,压测团队从中汲取了不少的经验和教训。双十一之后,在CTO的指导下和支持下,由基架和性能测试团队快速的投入了全压测平台的研发当中。...并且趁着核心系统重构,快速的接入落地,对后续的系统稳定性保障工作,迈出了坚定地一步。 流程导图 ? 梳理阶段 1、系统服务梳理 全压测是一个很复杂的工程,其中涉及到多个服务。...3、外部服务关闭 由于全压测的特殊性,因此在压测开始前,都会对外部服务进行服务注册下线,保证压测的流量不会影响生产业务。...5、网络隔离检查 同样,由于环境的特殊性,压测前需要对各服务的隔离情况进行确认,避免影响生产业务。 实施阶段 1、单机单接口基准 单机单接口的基准压测是必不可少的环节。

85410

压测第一次实践

我司在双十一来临的最后关口完成了整个核心的全压测, 大幅提高了核心服务性能,并发布了最终优化版本。...挑战一:核心梳理 电商业务本身比较复杂,且当前阶段我们微服务架构下,各个服务间依赖高,调用关系复杂,且没有较为清晰的梳理,理论上来说,只有一部分系统才是核心。...主要是如下几项: 前端:降级点确认、容错保护、监控数据接入; 后端:核心梳理、监控&服务保护接入、专项预案、 测试:资源准备、压测模型梳理、压测方案、全压测、预案演练、线上功能验证; 基础架构:...架构优化、网关替换、DB垂直拆分、基础设施接入追踪、监控、报警......); 资源保障:容量规划、镜像环境搭建、服务部署联调、线上扩容; 2、估时排期 确认任务规划后,各个技术团队迅速组织协调资源投入了各自的工作...在服务治理这一项,基础架构的同学接入了sentinel进行相关管理。

3K40

压测二十问干货汇总 (上)

通过全压测可以在正式切换前完全解决性能问题;配合自动化的例梳理和人工验证,可以极大程度降低业务故障。两者配合使用,可以快速的渡过不稳定期,提升用户体验。...,因为大家双十一的购物习惯是给自己家;这两年大家喜欢在双十一期间给父母和朋友商品,于是切换购物地址就需要加入核心业务功能中。...全压测监控体系是由基础监控,应用监控、业务监控三部分构成。 7.1 基础监控 是指压测产品或者压测应用系统的集群基础性能监控,比如 CPU 性能、磁盘性能、网络性能等。...10.压测中如何调用部分或第三方外部服务?...10.2 外调压测 外调压测是指压测中涉及到调用其他供应商提供的系统,比如第三方支付或者一些短信服务之类的,如果第三方愿意配合,我们就按照正常压测去进行就 ok,但一般情况下第三方不太愿意配合

86800

NAS打造自己的私有云存储

硬盘我的是希捷酷狼6T NAS专用盘,单盘双十一入手价1256¥ (现价1199),我买了俩组了RAID1。为什么我4盘位的NAS却这俩硬盘?...WIFI信号放大,也改善了我屋的网络情况。...当然如果有线接入的话肯定能获取到更高的速度。 另外NAS在开启网络文件服务后,可以直接挂载到你的电脑上,这样你就可以想使用普通文件夹一样使用你NAS中的文件了。...因为我这里的是普通宽带,没有固定的公网IP,所以我用了一台阿里云的服务器,然后使用内网穿透 的方式将NAS放到了公网上面,如果你也是同样的方式,建议你有自己的域名,然后就可以申请https证书,这样就可以尽可能保证数据传输的安全性...总结 经济成本2279 + 1256 * 2 + 299 = 5090,云服务器的话的是我博客服务器,域名也是,https证书用的免费的CA证书,时间成本另计了。

11.6K41

(第4篇) 大型网站核心架构,我们必须要理解这些性能指标

5.18年春晚,经受过双十一洗礼的阿里服务器还是出现宕机 任何软件架构设计方案都必须考虑可能带来的性能问题,也正因为性能问题几乎无处不在,在请求的任何一个环节,都是需要我们去做极致性能优化,全某一环节的瓶颈...,必须要是全覆盖的设计方案才是可行的。...由于一个交换机往往有多个服务接入服务器们都会将需要发送的数据首先发给交换机,再由交换机发给路由器,这些数据先存储在路由器的缓存中,然后路由器根据先后顺序逐个转发。...所以,如果服务器发送数据的速度过快,路由器缓存满了,那接下来的数据就会丢失,因此需要限制服务器向路由器发送数据的速度,即限制服务器的带宽。 而这个限制由接入服务器的交换机完成。...对于网站,可以"请求数/秒"或是"页面数/秒"来衡量,也可以"访问人数/天"或是"处理数/小时"等来衡量。

28120

阿里财报:菜鸟外部收入占比提升至73%

全国8万多家菜鸟驿站提供送货上门 围绕消费者的服务体验升级,菜鸟着力加强配送能力和末端网络建设,通过多种手段提升送货上门的服务履约。...继服务天猫超市、天猫食品重货送货上门之后,菜鸟自营配送接入了天猫国际,开始把进口保税商品送货上门。...通过菜鸟城配网络,品牌不仅可以实现供应的线上订单管理,还能为大型线下商超卖场、主要商圈的品牌专柜供货补货。...今年双十一期间,菜鸟日均大件家装收货量、签收量同比增长均超过500%,品质物流服务成为消费者下单购买的重要决策因子之一。...凭借突出的全球物流能力,本季度菜鸟还与元气森林、花西子多家国货品牌和跨境企业合作,为其提供定制化的端到端全物流解决方案,优化其物流时效及服务体验。

37120

服务和 Serverless 如何强强联合?

资源上,双十一或者618来了,现在很多云上的客户有大量的促销活动,提前申请一大堆服务器放着,过了双十一释放掉。...FaaS是云函数,把很多的业务逻辑简单写两行代码线上发布,BaaS比如TDSQL-C可以做一些包括对象存储、消息队列等,随时,随时,根据业务的性能、请求量,不停做自动弹性伸缩,这是在后端的、底层的服务器...提到部署难,会听到一些概念,全灰度、服务的甬道。在复杂的网状逻辑里面,假设现在业务发布,一定不会是把全套架构全部做灰度升级。...还有一个非常隐患的问题,无法在微服务里面很好地预测,这个微服务应该有几个节点。在全的调用过程中,前面看起来没有什么,但是最终获取的关键节点。...全的压测,判断出哪些是整个中的核心关键节点,这些关键逻辑节点要不要提前规划资源,开始没有什么,但是外面的入口某一个分支的流量突然涌上来的时候,突然导致这个节点资源不够,或者节点扛不住挂掉了。

2.5K61

蚂蚁云原生应用运行时的探索和实践 - ArchSummit 上海

主要的里程碑就是: 2017 年底开始技术预研 Service Mesh 技术,并确定为未来发展方向; 2018 年初开始 Golang 自研 Sidecar MOSN 并开源,主要支持 RPC 在双十一小范围试点...; 2019 年 618,新增 Message Mesh 和 DB Mesh 的形态,覆盖若干核心,支撑 618 大促; 2019 年双十一,覆盖了所有大促核心几百个应用,支撑当时的双十一大促;...2020 年双十一,全站超过 80% 的在线应用接入了 Mesh 化,整套 Mesh 体系也具备了 2 个月从能力开发到全站升级完成的能力。...从 Service Mesh 到 Multi-Mesh:蚂蚁最早的场景是 Service Mesh,MOSN 通过网络连接代理的方式进行了流量拦截,其它的中间件都是通过原始的 SDK 与服务端进行交互。...例如 RPC 的 RPC 协议,消息的 MQ 协议,缓存的 Redis 协议。然后现在的 MOSN 其实也不仅仅是面向流量了,例如配置就是暴露了一下 API 给业务代码去使用。 ?

73840

这届双十一,终于不再“内卷”

依托多年来做线下积累的供应、场景和服务优势,今年双十一苏宁易购通过主打的“家消费”理念,以家电家居为主攻类目,从线下发力反攻线上的策略,取得了一定效果。...媒体统计的数据显示,今年双十一的网络舆情热度在10月20日天猫双十一活动开幕时达到顶峰,随后一下滑,直到双十一当天才略有起色。...当这届网友开始忽视双十一,我们就应该明白问题的严重性。 历经辉煌的双十一,已经到了改变的时候了。正所谓不破不立,经过多年的数据比拼之后,天猫、京东两大巨头很应该好好探索接下去的。...拼多多的商品,价格和质量是明明卖,消费者都知道要主动降低预期。而淘特需要做的,就是尽量降低供应采购成本,以图降低品牌定价,相对最实惠的价格给消费者带来质量更好的商品。...在知乎上汇集了174个回答的“你的第一个双十一,的第一件物品是什么”这一问题下方,答主“大花猫”说道: “双十一,从无心参战的旁观者到充满仪式感的参与者,满满的回忆杀。”

65640

谁是双十一流量游戏的赢家?

这相当于在宣称,阿里已经顺利拿到移动船票——陆兆禧接受采访时已在暗示,此前做来往就是为了声东击西,阿里的移动化已经通过另外一条走通了。阿里前路一片光明,其他玩家看上去却显得有几分落寞,果真如此吗?...它需要去搜索引擎、去导购网站、去第三方站长哪里获得更多流量。 如果双十一只是属于阿里的,第三方流量价值并不会这么大。...阿里自有流量不够,最终要么淘宝自己去流量,要么卖家们会自行去外面获取流量。...它本身并不是入口,而是流量黑洞——搜索引擎、应用市场、社交网络、导购社区、工具型App、内容型App们,才是碎片化存在的流量入口,电商网站最终还要向它们获得一些流量。...百度则在搭建支付、多媒体(图像、语音、LBS)搜索这样的基础能力,已经掌握搜索、地图、影音、影音分发几大移动入口,未来成为电商尤其是与本地生活服务结合的电商流量入口,可能性巨大。

4.9K80

基于 Go 语言开发 Serverless 云原生应用

我是阿里云容器服务团队的冬岛,2016 年阿里巴巴开始全面容器化,我负责双十应用的容器化 CAAS 平台。承担双十一应用的扩容、缩容、升级以及灰度发布等所有和容器相关的平台支撑。...应用要提供服务首先要有计算、存储和网络资源才能把进程跑起来。当然这些也仅仅是把进程跑起来,如果要承接具体的业务还需要依赖数据库等服务。...咱们先来看看这 7 个核心要素,这 7 个要素中日常运维这一块其实不是强依赖的,日常运维这一块对业务的稳定性影响极大,但是这并不是业务跑起来的核心,没有这些业务也能跑,而其他的几块都是核心。...那么咱们就来看一下在云原生架构下,这些核心的要素都处于什么位置。然后剖析一下云原生应用的基本范式。 ? 先来看看最右边的中间件这一块,这里面有数据库、Redis 以及消息中间件组件。...前面志敏已经分享了 aliyun Serverless Kubernetes(简称 ASK),在 ASK 中已经实现了计算、存储和网络资源的无服务器化。那还有两块:CICD 和应用托管。

3.1K10

思考:如何保证服务稳定性?

最近一直在忙618大促的全压测&稳定性保障相关工作,结果618还未开始,生产环境就出了几次生产故障,且大多都是和系统稳定性、性能相关的bad case。...生产全压测终于告一段落,抽出时间将个人收集的稳定性相关资料整理review了一遍,顺带从不同的维度,谈谈稳定性相关的“务虚”认知和思考。。。 一、SLA!...业内喜欢SLA (服务等级协议,全称:service level agreement)来衡量系统的稳定性,对互联网公司来说就是网站服务可用性的一个保证。...9越多代表全年服务可用时间越长服务越可靠,停机时间越短。就以一个标准99.99%为例,停机时间52.6分钟,平均到每周也就是只能有差不多1分钟的停机时间,也就是说网络抖动这个时间可能就没了。...4-4:应用部署:根据应用域划分,不同应用部署在不同地域,保持亲缘性;   4-5:流量接入与调度:网络协议兼容,DNS,动态调度用户就近访问;   4-6:监控与运维保障:专线实时监控,确保发生故障时可以触发

4.4K30

ZLJ卖场-全压测演进

什么是全压测 当接手ZLJ卖场所有业务性能测试后,重新调整性能测试流程和规范,每个项目进行登记,不再是单一接口压测,都需要制定对应的压测场景,后续在双十一、双十二大促的时候,也把全压测场景补充进来...介入全压测的时机 在可以预期的一段时间(如双十一、双十二),业务会有较快速的发展,线上机器必须要大幅度扩容 机器扩容以倍数增长,评估机器性能是否翻倍 继续扩容后,服务能力不一定翻倍增长,有可能会受限于其他的依赖关系...梳理 是一个业务的核心,根据业务特性要快速梳理清楚 梳理,难点在于服务依赖的边界 示例:首页-》商列 首页跳转到商列,商列服务又会查询商品相关服务数据商列-》第三方服务(简称S) 商列除了查询商品相关服务数据...而双十二大促压测有了双十一大促压测作为基础,核心问题提前规避和检查,在全压测过程中除了存在部分服务cpu占用100%问题和缓存问题,影响核心业务的性能问题基本上没有出现,有的只是边缘业务问题,不影响主业务流程...对于双十一、双十二这类大促活动,全压测必然是保障核心业务稳定性的保障手段之一。 end

2.4K10

一文了解电商大促系统的高可用保障思路-献给技术伙伴们

双十一&双十二: 双十一是指各网络购物平台在每年11月11日的大型促销活动,最早起源于中国阿里巴巴旗下购物网站在2009年11月11日举办的“淘宝商城促销日”,现已演变成全行业一年一度的购物活动,及影响全球零售业的消费现象...2012年11月11日网络购物全日销售额超过美国网路星期一,成为全球最大的互联网的购物节日。双十一购物节战场延伸进12月,即“双十二”。...;从电商平台大促目的来说,大促活动更多的是希望带来交易订单的达成,促进交易额的提升,所以整个交易是真正目标核心,属于整个大促活动的最重要环节;从仓储、配送、售后来看更多的是交易后履约服务保障,这里面更多的是给电商平台带来的口碑影响...因为涉及业务知识比较庞大,以下简要说明下作为大家一个参考(欢迎大家讨论) 营销:营销策略方案制定->营销方案采销/商家宣讲->营销方案外部市场公关->营销活动创建->营销活动审核->营销活动投放...超时 超时JIMDB组件 其他应用/中间件/数据库:会发现很多时间我们的问题引入集中在三方因素较多,也是在备战中需要关注的重点: •- 接口定义不合理,业务周知不到位,新上的业务需求直接在某个时刻脉冲流量到达薄弱依赖将服务打挂

38020

蚂蚁云原生应用运行时的探索和实践

主要的里程碑就是: 2017 年底开始技术预研 Service Mesh 技术,并确定为未来发展方向; 2018 年初开始 Golang 自研 Sidecar MOSN 并开源,主要支持 RPC 在双十一小范围试点...; 2019 年 618,新增 Message Mesh 和 DB Mesh 的形态,覆盖若干核心,支撑 618 大促; 2019 年双十一,覆盖了所有大促核心几百个应用,支撑当时的双十一大促;...2020 年双十一,全站超过 80% 的在线应用接入了 Mesh 化,整套 Mesh 体系也具备了 2 个月从能力开发到全站升级完成的能力。...从 Service Mesh 到 Multi-Mesh:蚂蚁最早的场景是 Service Mesh,MOSN 通过网络连接代理的方式进行了流量拦截,其它的中间件都是通过原始的 SDK 与服务端进行交互。...例如 RPC 的 RPC 协议,消息的 MQ 协议,缓存的 Redis 协议。然后现在的 MOSN 其实也不仅仅是面向流量了,例如配置就是暴露了一下 API 给业务代码去使用。

60510

压测如何排障调优 — 先导篇

【什么是全压测】 在网络上对全的名词解释,可以看到相关词条里有很多延伸:全监控, 全设计,全追踪系,全运营,全日志分析......基于以上的分析,我们给全压测的定义:基于实际的生产业务场景、系统环境,模拟海量的用户请求和数据对整个业务进行压力测试,并持续调优的过程。...模拟海量的用户请求和数据:海量的目的是让服务器能够达到较大的负荷,从而达到压测的目的。海量数据一般来源于线上数据引流或者真实数据模拟。...整个业务:要求压测需要覆盖整个业务,诸如CDN到接入层、前端应用、后端服务、缓存、存储、中间件整个等。如果压测的请求只能覆盖部分的,不称为全压测。...以阿里为例,如果在双十一的凌晨12点发生故障,分分钟就损失了好几亿。 image.png 3.排障非常难,我们之前遇到一个问题,排查了八九个通宵才有进展。

2K271

杨洋:光格网络 SD-WAN,软件定义ICT

我今天分享的内容是全新的交付模式一键互联云网端,青云是一家提供综合服务商,目前我们服务九万多个客户,在全国有30+自营数据中心,全栈云服务一致的平台帮我们的客户实现多类云服务。...我给大家分享一个案例,这是我们已经上到公有云企业级的服务,已经把它的业务迁到我们的云端,它在全国都是有分支的,云流量打通是因为音频隧道,并且它的情况由于成本原因,还有可靠性上从不同的云商接了两条线路...这个用户就会出现几个问题,当端到端从云端到它的分支,它的分支比较多出现业务故障的时候就要进行分端查找,作为云工程师还有比较好的,他有一套云的平台,可以在云的平台上去查,对于传统的网工我就要用CRI的方式去查,设备出现故障,断了...说了这么多特性,我们是在用户的接入侧最大可能保证的稳定,在网络侧,当用户进入管网之后自动为用户优化网络中的语言,提供多类型的接入,用户可以根据自行需求随时调,最主要我们提供了一套完全合适可管的界面,...目前已经在很多行业都已经铺设了,包括连锁酒店行业、新零售行业、交通行业,青云是软件定义IT,光格网络软件定义CT,我们的目标要让用户像使用云一样来交付整体的ICT,谢谢各位。

63530

双 11 的狂欢,干了这碗「流量防控」汤

阿里人喜欢将双十一视为 Team Building(团队建设),广为流传的一句话:打仗是最好的团建,没有参加过双十一的叫同事,参加过双十一的叫战友。...比如 A 服务调用 B 服务,由于网络问题或 B 服务宕机了或 B 服务的处理时间长,导致请求的时间超长,如果在一定时间内多次出现这种情况,就可以直接将 B 断路了(A 不再请求B)。...获取信号量 线程池隔离和信号量的场景对比 线程池隔离技术 ,适合大部分场景,但需要设置服务的超时时间。 信号量隔离技术 ,适合内部比较复杂的业务,不涉及网络请求问题。...支撑阿里的双十一核心场景,如秒杀、消息削峰填谷、集群流量控制、实时熔断下游不可用。 完备的实时监控。 可以看到接入应用的单台机器秒级数据,以及集群的汇总情况。 广泛的开源生态。...根据调用入口限流:限流。 根据具有关系的资源流量限流:关联流量限流。

64510
领券