前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >TAD-云原生时代的应用定义

TAD-云原生时代的应用定义

作者头像
腾讯专有云
发布于 2022-06-24 10:11:53
发布于 2022-06-24 10:11:53
3K04
代码可运行
举报
文章被收录于专栏:腾讯专有云腾讯专有云
运行总次数:4
代码可运行

| 导语 一篇关于云原生面向终态的声明式应用生命周期管理的介绍

前言

在 Kubernetes 成为容器编排事实标准的云原生时代,无数开源或者闭源项目,如众星捧月般围绕着它,建立各种生态,涵盖着集群管理,资源管理、平台管理、可观测性领域的运维管理等诸多领域,其中很多优秀项目都如雨后春笋似地出现。然而,作为这个编排系统的终端使用者的应用领域,却似乎是受到了冷落。本文将以应用的第一视角,对腾讯自研的云原生应用定义Tencent Application Definition(简称TAD)进行介绍,简要说明腾讯研发团队基于 K8s 之上的应用层面做的一些探索。

背景

在介绍 TAD 之前,我们需要先介绍一下 TCS。TCS 是腾讯云推出的一款 PaaS 平台产品,可以作为腾讯专有云(TCE)的底座,也可以做为私有化 SaaS 的底座,亦可以作为一款 PaaS 类产品独立输出。在这个基于 K8s(TKE)构建的 PaaS 平台上,如何解决用户零 K8s 基础,从无到有,快速部署应用并管理其监控、日志、服务注册在内生命周期,成为一个关键课题。基于 K8s 功能特性和腾讯自研业务接入的强烈需求,TAD 的研发工作迫在眉睫应运而生。

TAD ,全称 Tencent Application Definition,是 TCS 平台上的应用定义标准,是面向企业级的应用编排解决方案。TAD 作为连接云产品 SaaS 产品和 TCS 平台之间的桥梁,在应用侧承接云产品和 SaaS 产品复杂的部署流程(大量应用间的编排依赖,服务注册与服务发现,跨 AZ 容灾等)和异构的应用形态(容器,虚拟机应用,有状态服务), 面向底层基础架构释放 TCS 强大的平台能力(一体化的日志、监控告警、多租户) 和云原生基础设施带来的应用架构革命(弹性资源,服务网格), 在兼容 Kubernetes 原生与社区开源能力的同时, 也尽量降低 Kubernetes 带来的额外使用复杂性。

原理

TAD 利用 Kubernetes 的 CRD(自定义资源对象)能力,创建了一个新的资源类型 -Application。该资源类型的 Spec(功能定义)包含了业务应用自身部署用到的原生 workload(如 deployment,statefulset,daemonset 等)和自定义 workload(如statefulsetPlus),业务应用依赖的自研中间件服务 MiddlewareWorkload(Kafka,MariaDB 等) 依赖关系,以及运维相关的 trait (如服务发现)等。

以下一个简单的例子可以大致理解 Application 的定义:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
apiVersion: infra.tce.io/v1
kind: Application
metadata:
  name: nginx
spec:
  components:
    - name: nginx
      type: deployment # TAD内置工作负载能力的类型名称,用户不需要了解内部细节,只需要按照文档或样例填写 name 和 args 参数值即可
      args:
        image: nginx:latest
        volumes:
          configMap:
            - name: middleware-config  # 将挂载的 ConfigMap 名称
              mountPath: /data # 挂载到容器中的路径
              items:
                - key: config.yaml # 将挂载的 ConfigMap data
                  # path: config.yaml # 如果不声明 path,将直接使用 key 作为 path
      traits:
        - type: service # TAD内置运维能力的类型名称,用户不需要了解内部细节,只需要按照文档或样例填写args 参数值即可(每一个组件中,同一类运维能力只允许使用一次)
          args:
            register:   # 用于注册服务
              id: svcid-1
              port: 8081
              host: svc.tce.io 
            services:
              - name: nginx-svc-1
                ports:
                  - port: 8081
              - name: nginx-svc-2
                ports:
                  - port: 8082
      deps: # TAD 依赖管理能力
        - config: nginx-config # 指明该组件依赖的 Config,只有当该 Config .status.phase==Ready 时才会 Apply 该组件
        - application: other-app # 指明该组件依赖的其他 Application,只有当该 Application status.phase == succeeded 时才会 Apply 该组件
        - service: svcId-from-other-comp # 指明该组件依赖一个全局可用的 ServiceId(基于 TCS/Pajero 服务注册发现能力)
    - name: demo-kafka
      type: middleware # TAD内置工作负载能力的类型名称,middleware 工作负载专门用于创建中间件服务
      args:
        class: kafka
        # serviceId: my-kafka-id # 如果此处没有声明 ServiceId,TAD 将自动生成一个 SvcId,规则:{component.name}-{app.name}
        # 例如,注释掉上面一行,该 kafka 服务将使用自动生成的全局 ServiceId:demo-kafka-nginx
        capacity:
          cpu: "4"
          memory: 8Gi
          storage: 200Gi
    - name: demo-maria
      type: middleware
      args:
        class: mariadb
        ServiceId: my-mariadb-id # 该 maria 服务将使用全局 ServiceId:my-mariadb-id
        capacity:
          cpu: "4"
          memory: 8Gi
          storage: 200Gi

一个应用对应一个完整的声明文件,就可以把它在 K8s 上所需要的各种零散资源对象一口气定义清楚。虽然看似简单的一个小集成,却可以让业务应用在 K8s 平台上化繁为简,只用关注几个字段的输入,即可享受 K8s 部署分布式应用的各种便利。

TAD 在演进过程中,一直坚持 3 个原则:标准、扩展、开放。

标准:应用声明和定义自研,兼容业界的 OAM 标准,更便于产品化输出和广泛使用。

扩展:组件管理能力和应用运维能力 out-of-tree 独立开发,更便于协作和快速迭代需求。

开放:任何开发者都可以按标准开发,贡献和分享组件管理和运维能力控制器及定义。

核心功能

TAD 应用管理平台对 TAD 应用全生命周期下的管理能力,它最大的特点是屏蔽应用下辖的 K8s 资源细节。

如前文样例应用展示,一个 TAD 应用由一个或者多个组件(Component)数组构成,每个组件由一个工作负载能力、任意数量的运维能力以及任意数量的依赖配置构成。

因此我们定义:

应用(Application) = ∑ 组件(Component)+ ∑ 运维特征(Traits)!

工作负载是每个组件的核心,下表简要列举其中的一些常用workload。

工作负载能力类型名称

描述

底层 K8s 资源

deployment

用于持续运行的无状态的容器化应用的工作负载。

Deployment k8s.apps/v1

statefulset

用于持续运行的有状态的容器化应用的工作负载。

Statefulset k8s.apps/v1

middleware

用于创建 TCS/PaaS (中间件服务)的工作负载,每个中间件工作负载将自动(或手动)生成提供一个全局可用 ServiceId 供访问使用。目前支持的中间件服务详见 middleware 工作负载参数说明。

MiddlewareWorkload, ServcieInstance, ServiceBinding, ServicePlan, etc infra.tce.io/v1

job

用于一次性运行的任务型容器化应用的工作负载

Job k8s.apps/v1

statefulsetplus

TCS 定制化 Statefulset

StatefulsetPlus infra.tce.io/v1

运维能力是指围绕工作负载创建的运维特征,包括但不限于:服务暴露、服务注册、流量管控、sidecar 注入、日志采集、监控等等。如下表的简介:

运维能力类型名称

描述

底层 K8s 资源

service

基于 TCS 自研的服务注册与发现能力(pajero),用于暴露 & 注册(可选)工作负载提供的服务,通过自动(或手动)生成一个全局可用的 ServiceId 供访问使用。

ServiceTrait infra.tce.io/v1

polaris

基于腾讯开源的北极星服务治理能力,用于暴露 & 注册工作负载提供服务,用户必须指定注册到北极星中的服务实例名称。

Service k8s.core/v1

产品化

在对接 SaaS 服务私有化输出和支持云产品接入的过程中,TAD 基于这些腾讯专有云的场景积累了大量的生产级复杂应用的编排和治理的实践,TAD 团队希望这些能力同样可以给 TCS 的客户带来价值,帮助客户更好地在 TCS 平台上进行业务云原生化改造。同时我们选择了产品化的方式,将专有云中应用编排与管理的能力沉淀到 TCS 的一款白屏化云产品 --- 应用中心。

应用中心的核心能力分为应用的定义(模板管理)和发布运维(应用管理)两个部分:

多种异构工作负载

设置组件的工作负载,可选的工作负载包括容器、有状态中间件和非容器工作负载(即将支持):

  • 容器工作负载:基于 Kubernetes 封装的各类容器工作负载,支持 Deployment、Statefulset 等原生类型,以及 StatefulsetPlus 这样的扩展类型工作负载。
  • 中间件工作负载:经过腾讯专有云支撑服务预封装的各类工作负载,如数据库、缓存、消息队列、存储、网络等多种工作负载。
  • 非容器工作负载:基于虚拟机或者裸金属的工作负载,这些工作负载可以和 POD 中的服务一样,具备 TAD 的各种运维能力。

设置工作负载的详细信息, 例如容器工作负载的镜像地址、环境变量、网络、数据卷等。MySQL 工作负载的数据库名称、用户名称等。熟悉 Kubernetes 的同学 都知道 Kubernetes 中容器的配置非常复杂,于是将容器配置做了划分为:容器配置、数据卷、网络设置、调度策略、更多(监控日志) 这五个步骤分布处理。 如果用户的容器配置足够简单,也能简化填写过程。

应用间的编排依赖

在生产实践中我们发现,一个复杂的业务系统中应用之间往往会存在错综复杂的依赖关系。例如业务容器运行需要使用数据库和缓存服务,那么应用部署时应该优先部署数据库和 redis 组件,当数据库和 Redis 部署就绪后渲染出包含数据库访问凭证的配置信息,此时才能进行业务容器的部署。 同样业务服务之间的也会存在依赖关系,如服务 A 作为服务 B 的访问下游, 服务 B 需要等待服务 A 部署完成,并且完成域名注册后才能进行部署。

在 TAD 可以通过依赖配置声明应用内组件与跨应用组件的依赖关系,并在界面上通过一个有向无环图实现依赖关系的可视化, 由于有向无环图的不闭合特性,同样可以保证组件之间不会出现循环依赖。

开放兼容

为了兼容社区标准,用户在应用中心中制作的所有模板都能够以 Helm Chart 形式导入与导出,模板格式和平台解耦,做到一次定义到处部署。 用户除了在应用中心自制的 TAD 应用模板,也可以上传第三方或自己编写的 Helm Chart 应用,并在 TAD 应用中心里无缝运行。

在 TAD 的应用市场里也内置了部分开箱即用的开源应用,同时用户也可以将自己制作的组件发布到应用市场, 实现租户之间的共享。

应用生命周期管理

TAD 支持了应用完整的生命周期管理,从应用的发布,到持续更新运维。完整的生命周期包括以下:

  • 可观测性(应用状态、监控、日志、报警)。
  • 持续发布 (应用分批、灰度发布、原地升级)。
  • 配置管理 (动态配置信息、版本化分发、配置灰度发布)。
  • 应用编排 (依赖编排、分组编排、容灾调度)。
  • 资源弹性 (HPA / VPA)。

分批发布

持续发布是应用必不可少的部分, TAD 应用中心提供自动分批、指定步骤分批、和手动分批三种分批发布的模式,并和 Ingress、Istio 等上层的网关做了深度的权重集成。

  • 手动发布模式,用户可以手动调整发布的副本数和流量权重,一旦有问题随时可回滚,对适合与对稳定性要求高和操作敏感的用户,同时手动发布模式也可以作为底层能力给用户构建自己的发布策略。
  • 分批模式里, 用户可以设置 MaxSurge和MaxUnavailable 定义每批次的发布副本数量,同时定义发布间隔, 每批次的权重比例。发布过程中可以随时暂停发布和继续。
  • 指定步骤分批模式,用户可以更细粒度地指定发布过程中每一步执行的操作,包括副本数、权重比、暂停时间、增加人工确认等。

此外应用中心即将支持容器的原地升级, 适用于有状态应用的场景,在更新时无需重建 Pod 而是直接更新容器信息,从而避免重复进入调度和 Volume 挂载等流程,提高发布的变更效率。

版本化的配置管理

在现代应用的 12 条原则 (The Twelve-Factor App ) 中第三条就提到,应用的配置应该储存在环境中而非应用里(Store config in the environment), 应用配置通常包括外部服务的配置、第三方服务的访问信息、每次部署特有的环境信息(如域名等)。

Kubernetes 中虽然提供 ConfigMap 和 Secret 对象用于描述应用的配置信息, 但在实际生产实践中,Kubernetes 的原生能力远不能满足应用对配置文件的需求:

  • 外部或中间件服务的访问凭证,根据中间件实例的相关信息生成动态内容,例如 MySQL 的访问地址和账号密码。
  • 基于不同环境,不同客户需求/环境规划动态渲染的配置信息,例如包含域名地址、服务的规格等。
  • 当配置的内容更新后, 灰度升级使用了该配置的业务应用。

于是在 TAD 中,基于专有云场景的需求扩展配置资源,TAD 提供一个新的 Config 资源, Config 资源既能声明静态的配置文件,也支持生命动态的渲染模板,并基于内部的服务发现渲染出真实的配置内容,并生成相关资源(ConfigMap/Secret)。

同时对 Config 的内容做了版本化的记录和管理,用户可以为业务设置 Config 的固定版本,也可以选择一直使用最新版本。 版本信息变化,由用户决定是否应用触发灰度/手动更新。

客户场景

  • TCE/TCS 的云产品:CRedis、TDSQL、TSF、Coding 等。
  • SaaS 产品:医疗防疫通、视频云。目前已支持若干省市的防疫通应用部署。
  • 内部支撑: 公有云 CVM、VPC 等 IaaS 云产品云原生化交付底座。

后续规划

多集群管理

越来越多的公司在生产环境中运维着一套以上 Kubernetes 集群,无论是为了突破单集群的规模瓶颈,还是为了多云/混合云等更先进的部署架构,我们都能看到多集群逐渐发展成为常态。

如何高效地管理多套集群,既能利用多集群带来的架构灵活性和隔离性,又能通过和单集群一致的部署体验降低运维复杂度,同时合理提高多套集群的资源利用率。

目前在 TAD 应用中心中支持多集群发布的第一步,可以将应用下发到指定的 TCS 子集群,团队也正在推进研发多集群的应用的编排调度策略,适用于多地域发布的多集群复制模式,以及基于容量的多集群调度模式。希望基于 TAD 提供应用多集群发布的能力,同时给应用提供和单集群一样既高效又简单丝滑的使用体验。

服务网格能力产品化

服务网格是用于处理服务间通信的基础设施层,它负责通过包含现代云原生应用程序的复杂服务拓扑来可靠地传递请求。通过服务网格能将过去依赖特定语言,特定框架或 SDK 的服务治理能力下沉到基础设施。

而 Istio 一直最被诟病的就是其引入的复杂性 ,虽然社区一直致力于通过架构精简,提供各种工具等手段降低使用门槛,但其基于 label 的松耦合匹配机制,复杂的 API 和概念一直都令许多有意使用服务网格的公司望而却步 。

TAD 封装了 Istio 的能力,通过 TAD 自身的应用视角,将 Istio 相关资源根据应用维度聚合,并通过抽象简化了 Istio API,简化 Istio 使用的。后续也计划将基于 TAD 的服务网格能力通过应用中心产品化,给在 TCS 场景里提供轻量化的服务治理能力。

TAD

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-05-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯专有云 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
云原生基础设施TCS技术总结与回顾
01 TCS 是云原生时代的基础设施 TCS(Tencent Cloud-native Suite)即腾讯专有云敏捷版 PaaS 平台,提供云原生平台与腾讯自研 PaaS 产品(如 Credis、TDSQL、TSF )等。同时,TCS 也是腾讯公有云、腾讯专有云TCE以及腾讯 SaaS 产品的通用底座,为腾讯各个云产品在各个场景的输出和交付提供统一的底座。 TCS 云原生基础设施是 TCS/TCE 解决方案中的基础设施与容器平台层,为腾讯的各种云产品私有化输出提供向上屏蔽底层 IaaS 差异的云原生计算、
腾讯专有云
2023/02/17
7.7K0
云原生基础设施TCS技术总结与回顾
SaaS遇上私有化部署,如何实现高效、快捷交付?
近年来,SaaS 伴随着公有云的落地而逐渐兴起并稳步前进。随着 SaaS 产品的发展完善,市场催生出一种新的需求——能否将 SaaS 产品进行私有化部署?表面上 SaaS 专为网络交付而设计,与私有化部署似乎格格不入,然而,从市场状况来看,SaaS 产品的私有化部署却具备长期存在的价值。 SaaS 遇上私有化部署,挑战重重 调查数据显示,未来几年内,中国的私有云市场会保持 22% 的年增速,最终和公有云市场形成一个相对稳定的市场平衡。对于私有云用户来说,SaaS 产品的私有化部署能够满足其个性化定制的需求
腾讯SaaS加速器
2022/02/17
4.5K0
开工必备!50+篇超实用云原生技术干货合集
kai 开 gong 工 da 大 ji 吉 新年新气象,更要1G棒 2020年没写完的代码,现在还有思路吗? 2021年开始使用云原生技术了吗? 一开工就遇到各种头痛的问题,“开工大吉”要演变为”开工大战“? 别急别急,小编已为你整理好 50+篇云原生技术干货包及3w多字的《云原生路线图手册》和云原生最佳实践案例 。 开工大吉,干了这碗“陈酿”精华的技术干货,2021快人一步! K8s 性能优化实践系列 万级 K8s 集群背后 etcd 稳定性及性能优化实践 如何根据不同业务场景调节 HPA 扩缩容灵敏
腾讯云原生
2021/02/22
1.5K0
容器编排的革命:Kubernetes如何引领IT的云原生时代
在信息技术(IT)的汹涌浪潮中,一项技术以其强大的灵活性和可扩展性,成为云原生时代的绝对主角——容器编排,而Kubernetes(简称K8s)无疑是其中的王者。2025年,随着云计算的全面普及、微服务架构的深入应用以及企业对自动化部署的迫切需求,Kubernetes已从开发者的小众工具成长为IT基础设施的标配。
DevKevin
2025/05/30
1240
容器编排的革命:Kubernetes如何引领IT的云原生时代
什么是云原生,有哪些技术选型?- PUSDN | JaneYork | PGZ
云原生(Cloud Native)是一种构建和运行应用程序的方法论,它代表着一种充分利用云计算模型的设计思想和工程实践。在云原生架构下,应用从设计之初就考虑到在分布式系统和云环境中的部署、扩展、运维与管理,从而实现高可用性、弹性和可移植性。云原生技术体系主要围绕以下几个核心技术和选型:
JaneYork
2024/05/25
2460
腾讯大牛深入浅出详解云原生
| 作者:王珏,腾讯云数据库高级研发工程师,主要负责腾讯云MySQL数据库、数据库中台等研发工作。 ---- 本文介绍目前业界非常火热的“云原生(CloudNative)”相关知识结构,包括微服务、DevOps、持续交付、服务网格、Serverless等相关知识点。“云原生”通过提供一套完整的技术体系和方法论来指导我们在云环境下,在系统功能越来越复杂的情况下,还能够做到敏捷开发并保证系统可用性。 1 云原生产生背景 随着云计算平台的成熟和分布式框架的普及,应用上云已经是不可逆转的趋势,未来应用会分成两种
腾讯云数据库 TencentDB
2020/02/14
3.4K0
腾讯大牛深入浅出详解云原生
云原生时代的DevOps平台设计之道
首先,我非常希望你能先看一看引言中提到的 扯淡的DevOps,我们开发者根本不想做运维! 这篇文章。这篇文章从亚马逊云科技社区参与负责人 Emily Freeman 的一条推特入手,观察了很多留言后,得出了文章标题这种类似咆哮一般的结论。从绝大多数回复这条推特的 IT 从业者的口中,我听到了对于将运维职责强加给开发人员这种 DevOps 体验深恶痛绝。
Rainbond开源
2022/10/14
1.3K1
【云原生|技术基石】4:速通云原生基石-Istio服务网格
本期文章是介绍云原生技术的基石:Istio服务网格,上次的文章中我们已经学习过了Pod的详细介绍,感兴趣的同学可以去看一下,任意门:【云原生|实战研发】2:Pod的深入实践与理解
程序员洲洲
2024/06/07
1920
【云原生|技术基石】4:速通云原生基石-Istio服务网格
日均服务调用超65万亿!腾讯是怎么做云原生微服务治理的?
云原生时代,越来越多的企业借助于微服务与容器化,来提升业务弹性与研发效率。在服务治理的道路上,我们也吸取各家之所长打磨了相关的产品。本次分享以腾讯微服务架构建设为主,介绍了 TCS/TSF、北极星(PolarisMesh)和微服务治理方面的实践经验,以及在企业的相关落地案例。
腾讯云开发者
2024/12/03
9130
日均服务调用超65万亿!腾讯是怎么做云原生微服务治理的?
云原生时代的灰度发布有几种“姿势”?
随着企业数字化转型进程不断发展,云原生时代的来临,企业应用越来越多,不得不面对应用程序升级的巨大挑战。传统的停机发布方式,新旧版本应用切换少则停机30分钟,多则停机10小时以上,愈发无法满足业务端的需求。
嘉为蓝鲸
2022/12/29
1.4K0
云原生时代的灰度发布有几种“姿势”?
聊聊云原生的那些事
大家好,今天和大家聊聊云原生,相信这个词大家应该或多或少都听过, 那么什么是云原生计算呢?云原生技术得技术栈有哪些呢? 下面主要从以下三个主题来聊聊今天得话题, 什么是云原生, 云原生得发展史和云原生
机械视角
2020/03/23
1.4K0
聊聊云原生的那些事
揭秘日活千万腾讯会议全量云原生化上TKE技术实践
作者王涛,腾讯云高级工程师,从事云计算行业8年,拥有5年多容器研发经验,近两年主要负责腾讯自研业务上云的大规模云原生平台的研发设计工作。 腾讯会议,一款联合国都Pick的线上会议解决方案,提供完美会议品质和灵活协作空间,广泛应用在政府、医疗、教育、企业等各个行业。大家从文章8天扩容100万核,腾讯会议是如何做到的?[1]都知道腾讯会议背后的计算资源已过百万核,如此体量的业务,如何通过云原生技术提升研发和运维效率,是一个非常有价值的课题。这里我将为大家揭秘腾讯自研上云容器平台TKEx在支持腾讯会议全量云原生化
腾讯云原生
2022/04/14
1.1K0
揭秘日活千万腾讯会议全量云原生化上TKE技术实践
到底什么是“云原生”?
是的,作为云计算领域的一个新兴概念,云原生现在频繁出现在我们的视野中。很多互联网大咖把它奉为至宝,走到哪说到哪。
鲜枣课堂
2020/03/16
16.7K0
云原生背景下的运维价值思考与实践
作者:刘天斯,腾讯游戏高级工程师 前言 随着公司自研上云战略如火如荼地进行,IEG-增值服务部作为较早一批响应的团队,截止目前自研上云已完成1/3的流量切换,日PV超百亿。切云的服务大量采用了云原生的应用与技术架构,作为公司第一批面临云原生环境的业务运维,深切感受到云原生给运维工作带来的机遇与挑战,运维模式的转型已经迫在眉睫,此篇文章最大的价值在于将我们的转型思路、方法与实践,提供给后面更多面临同样挑战的团队借鉴与参考。下面我将从业务场景、运维转型之道、云端收益等几个方面来跟大家一起来探讨。 一、业务服
腾讯技术工程官方号
2020/11/27
2K0
开源云原生平台对比 KubeSphere vs Rainbond
最近因为工作需要,需要找一个功能完善的云原生应用平台,经过自己筛选和朋友推荐,剩下 KubeSphere和Rainbond ,这两个产品都是基于 Kubernetes 之上构建的云原生应用平台,功能都非常强大,但产品定位和功能侧重不同,本文将介绍我在选型过程中从各维度对比两款产品的过程记录。
Rainbond开源
2022/10/14
2.3K2
40天14大版本升级,腾讯会议背后大规模容器技术实践
腾讯会议作为面向企业级的关键产品,对产品的可用性和稳定性要求是非常高的,任何服务不稳定都可能会导致用户无法接入会议、会议中断或音视频质量差,从而导致用户投诉,影响到产品口碑,降低用户信任度。
Walton
2020/03/17
2K0
谈谈对云原生应用的理解
  微服务后时代是什么?炒得最火的就是Cloud Native。顾名思义,云原生就是面向云设计的应用,自从2013年Matt Stine提出概念后,更多是一套技术体系和方法论,官方定义一直在演变,但核心还是通过基础云平台、云中间件、微服务、容器编排调度、Devops的优化整合,来帮助企业提高研发效率,做到业务更快交付。
王昂
2019/08/04
3.9K0
云原生时代,中间件应该如何“进化”?
作者 | 褚杏娟 云原生热度持续攀升,这一趋势也延伸了到中间件领域。借助云原生技术,中间件正在解决了自身的弹性、韧性、运维、交付等问题。同时,开发者使用中间件方式也越来越云原生化。 那么,在云原生时代,中间件应该如何完成自己的技术“进化”呢?5 月 30 日,网易数帆云原生首席架构师冯常健做客《极客有约》,与我们一起探讨了这一话题。以下内容根据直播内容整理,并做了不改变原意的删减,完整内容可查看回放视频。 https://www.infoq.cn/video/Zq2P94aVHmGbKiGs9qfh 中
深度学习与Python
2023/03/29
5670
云原生时代,中间件应该如何“进化”?
云原生时代,存储长什么样?
据IDC称,到2023年,将有超5亿的应用和服务以云原生的方式进行开发和部署,这一数字与过去40年以来人们开发的应用总数相当。
科技云报道
2022/04/16
6290
云原生时代,存储长什么样?
云原生时代,程序员应该掌握哪些能力?
云原生可以说是目前最火热的一个技术概念,它改变了我们对开发、部署和操作应用程序的思考方式。
Guide哥
2023/01/11
1K0
推荐阅读
相关推荐
云原生基础设施TCS技术总结与回顾
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验