前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >方正证券金融科技云原生微服务建设实践

方正证券金融科技云原生微服务建设实践

作者头像
深度学习与Python
发布2024-06-05 08:09:57
1220
发布2024-06-05 08:09:57
举报
作者 | 刘义

本文根据 2024 年 3 月 30 日在北京举办的“云原生✖️AI 时代的微服务架构与技术实践” CloudWeGo 技术沙龙北京站活动方正证券金融科技工程院高级研发工程师刘义的演讲《金融科技 Go 微服务建设实践》整理而来。

本文将详细介绍方正证券金融科技工程院在云原生微服务建设实践经验,分享包含 3 个方面:

  • 微服务治理工作
  • 微服务可观测性工作
  • 微服务接口管理

上述能力统一集成到了方正公司的夸克开发平台上。

01 微服务建设实践详细介绍

2023 年年初我们启动了微服务体系建设,其中注册中心采用的 zooKeeper,Web 和 RPC 应用框架分别采用的 CloudWeGo 的 Hertz 和 Kitex。

目前我们进入到了微服务建设的深水区,主要涉及到微服务治理可观测性能力接口管理 等相关工作内容,下面将分别从概念、实现原理等方面来详细介绍。

02 微服务治理能力建设

概念

微服务架构下,随着业务量的逐步增加,服务的数量也会逐步增加。基于此背景,随着业务的发展,对服务的管控难度会越来越大,服务治理的作用就是为了解决服务拆分所引发的一系列问题,以让服务更稳定地运行,涉及的主题包含了服务注册与发现、负载均衡、服务熔断、服务降级、服务限流等。

夸克平台提供的超时、重试以及服务端限流的功能,均基于 Kitex 的相关能力而来,目前所使用的注册中心为 zooKeeper,因此相关的动态配置也是借助 zooKeeper 来实现,通过将配置写入到 zooKeeper,来通知 server 端、client 端完成相关功能的开启。

介绍

流量控制

流量控制的粒度为服务级别,下图所示中,该服务每秒最多处理 1000 个请求,超额的请求将被直接关闭掉:

重试配置

重试配置的粒度为方法级别,用来配置当前服务对指定服务的某个方法发出的请求失败的情况下,如何进行重试:

超时配置

超时配置的粒度为方法级别,用来配置当前服务对指定服务的某个方法请求的最大耗时,超过该值时,当前服务会断开连接:

各个配置的具体作用详见配置说明

实现原理及细节

server 端、client 端均通过扩展 Kitex 的 suite 来完成相关配置的动态注入。

server 端

通过如下代码对 Kitex server 进行配置:

其中,zooKeeperServer.NewSuite("Kitex-server", zooKeeperClient) 会返回一个 suite 实例,注入给服务器的 Options 中包含了 limiter 配置:

基于以上内容,可以发现,server 端的 suite 中默认只配置了 limiter,Kitex 框架目前只支持两类 limiter:

  • Connections limiter(限制最大连接数量)
  • Qps limiter(限制最大 qps)

在使用 zk 作为注册中心时,两者都可以通过配置动态调整,变化之后配置值均通过 zk 的监听器获取到:

client 端

类似 server 端,client 端也有同样的配置:

client 端的 suite,包含的 Option 如下:

即,客户端支持重试、超时、熔断三种动态配置。相关的处理均是通过 zk 客户端的回调方法来达到动态更新的效果。

超时配置的额外说明

对于超时,其配置方法的具体实现如下:

最终通过调用 Kitex 提供的 client.WithTimeoutProvider 方法来完成超时相关的具体配置。对于超时,存在以下不同的配置方法:

其中,WithTimeoutProvider 设置的超时时间会被 WithRPCTimeout、WithConnectTimeout 设置的值所覆盖,因此如果在创建 Kitex client 时,调用过 WithRPCTimeout 或者 WithConnectTimeout,会导致动态配置无法生效。

配置说明

  • 超时

对应的 zk 节点:

/kitexConfig/{ClientName}/{ServiceName}/rpc_timeout

写入的配置格式如下:

字段含义

conn_timeout_ms:建立一条新连接的最大等待时间;

rpc_timeout_ms:一次 rpc 调用的最大用时;

  • 重试

对应的 zk 节点:/kitexConfig/{ClientName}/{ServiceName}/retry

写入的配置格式如下:

字段含义

  • 限流

此配置为服务全局配置,因此 zk 节点路径只包含

serviceName:/kitexConfig/{ServiceName}/limit

写入的配置格式如下:

03 微服务可观测性能力建设

概念

服务观测性建设指的是在分布式系统中建立和完善监控、日志、追踪等工具和技术,以便全面、及时地了解系统的运行状态和性能指标。

一个完善的观测性工具,可以为业务系统带来诸多好处:

  • 能及时发现和解决问题;
  • 使团队能够更清晰地了解系统的整体运行情况和内部交互关系;
  • 可以了解系统的负载情况、资源利用率和趋势变化,以支持容量规划和资源优化;
  • 通过日志和追踪系统记录系统的操作日志和请求轨迹,可以跟踪和分析用户操作行为、异常请求和安全事件,提高系统的安全性和可靠性。

介绍

服务详细信息,用来展示服务本身的整体运行情况,包含了黄金监控指标 (QPS、Latency 和 Error Ratio)、SLO 和 runtime 相关信息等:

拓扑图,用来展示服务间的上下游依赖关系:

调用链数据,包含了服务间每次调用的详细信息:

实现原理与细节

目前模板代码中已经集成了 OpenTelemetry 客户端,生成的 Hertz、Kitex 服务默认拥有可观测数据 (Metrics + Tracing) 上报能力。

详细信息可以参考:

  • https://github.com/kitex-contrib/obs-opentelemetry
  • https://github.com/hertz-contrib/obs-opentelemetry

OpenTelemetry(OTel) 是一个开源可观测性框架,可允许开发团队以统一的单一格式生成、处理和传输遥测数据。 它是由云原生计算基金会 (CNCF) 开发的,旨在提供标准协议和工具,以便收集指标、日志和跟踪并将其发送到监测平台。 OpenTelemetry 提供独立于供应商的 SDK、API 和工具。OpenTelemetry 正在快速成为云原生应用程序领域内主导的可观测性遥测数据标准。如果组织想要做好准备以满足未来的数据需求,而且不想被锁定到某一特定供应商,也不想受限于其既有技术,那么采用 OpenTelemetry 对其至为关键。

Trace(跟踪)

Tracing 提供了从请求开始接收到处理完毕的整个生命周期的全貌。

服务在接收到请求后,从元信息 (Kitex) 或 http header(Hertz) 中启用链路追踪。如果元信息或 HTTP header 中没有 Tracing 信息,将自动启用新的链路追踪。服务进程内通过 context 来传递链路信息。

接入方式:

Tracing 信息上报到 OTel Collector 中,然后透传给 Jaeger。可以在 Jaeger 中查询链路相关信息。

提供统一的日志打印器 fzlog,默认打印 tracing 的相关信息。

日志被采集处理后,可以在日志平台上通过 trace_id 来查询整个链路的相关日志信息。

Metrics(指标)

Metrics 是衡量系统性能和行为的关键数据,如请求速率、响应时间、错误率等。指标通常被收集、聚合和可视化,以便监视系统的健康状况并进行趋势分析。

目前,每个服务各自上报自身的 Metrics 数据,统一存储在 Prometheus/VictoriaMetrics 中,最终使用 grafana 形成监控面板。

下面通过 QPS、请求耗时、错误率这三个常见的服务描述指标来展示如何使用服务上报的 Metrics 数据。

  • QPS:基于 QPS 的定义,我们只需要获取到实时请求数量,即可计算出 QPS,上报的数据中,http_server_duration_count 的值与请求数量一致,因此可以使用此 Metric 来完成 QPS 的计算。

上述 promQL 中,rate 函数的作用是计算某个 Metric 在指定时间段内的增长率,最终得到的结果为指定时间段内的平均请求数量。

  • 请求耗时:由于是一个统计数据,这里选择使用平均值来表示服务请求的耗时情况,通过指定时间段内的所有请求总耗时➗指定时间段内的请求数量得到平均耗时。
  • 错误率:先过滤出错误请求数量,除以总请求数量即可得到错误率。

拓扑图

通过聚合中提到的 Metric 数据来展示整体的服务间依赖关系,上报数据中有 service_name 以及 source 和 target 信息,通过 PromSQL 的 sum 操作符即可获取到服务上下游信息。

04 微服务接口管理能力建设

概念

  • IDL

接口描述语言(Interface Description Language,缩写 IDL),是用来描述软件组件接口的一种计算机语言。IDL 通过一种独立于编程语言的方式来描述接口,使得在不同平台上运行的对象和用不同语言编写的程序可以相互通信交流。

  • 接口管理

Kitex(RPC) 服务均基于 IDL 来实现,接口管理平台主要提供接口平台化的方式来管理 RPC 服务的 IDL 产物,便于开发者管理和调用 RPC 接口。

  • 接口测试

Kitex(RPC) 服务存在测试不可达的情况,接口测试平台用户解决该问题,便于测试、开发通过平台发起 RPC 请求完成调试。

介绍

  • 接口管理平台(操作方法见图示)
  • 接口测试平台(调试 Kitex(RPC) 接口)

实现原理与细节

  • 接口管理

此前我们使用的是独立仓库配合 gitlabci 的方式来管理 Kitex 服务的 IDL 产物:

在实际使用过程中,存在以下痛点:

  • 调用方需要通过小窗方式(私聊)获取 IDL 产物仓库的地址、分支或版本号
  • 服务提供方式需要同时关注服务项目仓库和对应的产物仓库
  • Gitlabci 强依赖 runner,新的 group 需要找管理员配置才可用
  • 无法与现有的 CICD 流程深度绑定

为解决上述问题与痛点,故设计开发了接口管理平台。

服务在构建打包时,触发 IDL 产物更新流程,平台将自动检测服务类型,并生成对应的 IDL 产物提交到 gitlab 独立仓库中。用户也可以在平台中手动创建或更新 IDL 产物。调用方只需复制执行 import 路径 命令,就能获取对应版本的服务依赖。

  • 接口测试

基于 Kitex PB 的 JSON 映射泛化调用实现。用户在平台上选择对应服务和接口,平台自动解析对应的 IDL 文件,给出默认的请求参数(json 格式)。发送请求后,平台通过泛化调用的方式向目标服务发起一次 RPC 请求,并将结果返回。

05 小结

目前的微服务体系已经能满足大部分的技术类需求,但是在云原生的体系之下计划走得更远一些:

  • 服务治理,依赖云原生服务网格 (ServiceMesh) 能力来治理流量,同时把其他应用框架的东西向的流量一起纳入进来。
  • 可观测性,OpenTelemetry 是一套与语言无关、与应用框架无关的解决方案,通过统一语义,计划将 Java 的 Web(Springboot) 和 RPC(dubbo) 体系一起纳管进来。
  • 接口管理,未来计划将 RPC 和 HTTP 接口统一管理,自动生成接口用例。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-03,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
容器服务
腾讯云容器服务(Tencent Kubernetes Engine, TKE)基于原生 kubernetes 提供以容器为核心的、高度可扩展的高性能容器管理服务,覆盖 Serverless、边缘计算、分布式云等多种业务部署场景,业内首创单个集群兼容多种计算节点的容器资源管理模式。同时产品作为云原生 Finops 领先布道者,主导开源项目Crane,全面助力客户实现资源优化、成本控制。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档