前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Istio Ambient 模式流量管理实现机制详解(三)

Istio Ambient 模式流量管理实现机制详解(三)

作者头像
赵化冰
发布2023-02-25 09:52:50
3270
发布2023-02-25 09:52:50
举报
文章被收录于专栏:赵化冰的技术博客

本文将继续介绍 ambient 模式下四层流量处理的实现机制。本文将以 bookinfo 应用中 productpage 访问 reviews 的请求路径为例来分析一个请求从 client 端发出到 server 端处理的四层流量处理流程。

reviews 有三个版本的 deployment,我们首先为 v1 和 v2 设置反亲和和亲和规则,以确保 reviews v1 和 productpage 部署在同一个 node 上,reviews v2 和 productpage 部署在不同 node 上,以模拟 client 和 server 分别处于相同 node 和不同 node 中这两种情况。

reviews v1 的反亲和设置:

代码语言:javascript
复制
apiVersion: apps/v1
kind: Deployment
metadata:
  name: reviews-v1
......
      affinity:
        podAntiAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: app
                operator: In
                values:
                - productpage
            topologyKey: kubernetes.io/hostname

reviews v2 的亲和设置:

代码语言:javascript
复制
apiVersion: apps/v1
kind: Deployment
metadata:
  name: reviews-v2
......
      affinity:
        podAffinity:
          requiredDuringSchedulingIgnoredDuringExecution:
          - labelSelector:
              matchExpressions:
              - key: app
                operator: In
                values:
                - productpage
            topologyKey: kubernetes.io/hostname

运用上面的设置后,可以看到 productpage 和 reviews-v2 被调度到了 ambient-worker2 上,而 reviews-v1 被调度到了 ambient-worker 上。

代码语言:javascript
复制
~ k get pod -ocustom-columns=NAME:.metadata.name,IP:.status.podIP,NODE:.spec.nodeName
NAME                              IP            NODE
details-v1-76778d6644-lm8q8       10.244.1.10   ambient-worker
productpage-v1-7c548b785b-mhjm6   10.244.2.3    ambient-worker2
ratings-v1-85c74b6cb4-t4pq6       10.244.2.2    ambient-worker2
reviews-v1-67f5987496-7z5ts       10.244.1.23   ambient-worker
reviews-v2-c9f46564b-vt78n        10.244.2.23   ambient-worker2
reviews-v3-75f494fccb-vm2pv       10.244.2.22   ambient-worker2

查看 reviews service IP。

代码语言:javascript
复制
~ k get svc|grep reviews
reviews       ClusterIP   10.96.183.192   <none>        9080/TCP   39d

从上面的命令行输出可以看到 productpage pod IP 是 10.244.2.3,reviews service IP 是 10.96.183.192 。我们需要关注这两个 IP 地址,因为他们将会被用到 Outbound Listener 的匹配条件中。

Outbound 流量处理

当应用 pod 发出的请求被拦截后,会通过 TPROXY 发送到 ztunnel 的 15001 端口。如下图所示:

ambient 模式 outbound 流量劫持(ptp 网络)

备注:如果想要详细了解 outbound 流量拦截的机制,可以参考本系列中第二篇的 outbound 流量劫持 部分的内容。

ztunnel 采用了 Envoy Internal Listener 机制来创建一个 HTTP CONNECT 隧道,通过该隧道对 outbound 流量进行加密传输。该机制采用了两层 Listener 来对 outbound 流量进行处理,分别是对外接收请求的 Outbound Listener,以及和 server 端创建 HTTP CONNECT 隧道的 Internal Listener。

备注:如果想要了解 HTTP CONNECT 隧道的原理和 Envoy Internal Listener 机制,可以参考本系列的第一篇文章 HBONE 隧道原理

Outbound Listener

通过下面的命令可以查看 Outbound Listener 的配置:

代码语言:javascript
复制
~ k -n istio-system exec ztunnel-gzlxs curl "127.0.0.1:15000/config_dump"|fx 'x.configs[2].dynamic_listeners[0]'|fx

从下图中的 ztunnel 配置中可以看到,ztunnel 在 15001 上创建了一个名为 ztunnel_outbound 的 listener,该 listener 中 filter_chain_matcher 提供了一个树状的匹配规则,该匹配规则的逻辑如下:

  1. 通过源 IP 匹配 productpage 的 pod IP (source-ip:10.244.2.3)
  2. 通过目的 IP 匹配 reviews 的 service IP (ip:10.196.183.192)
  3. 通过目的 Port 匹配 reviews 的 service port (port:9080)

filter_chain_matcher 中的 action name 即为选中的 filter chain 的名称,即 spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal

查看该 filter chain 的配置,可以看到其中配置了一个 TCP Proxy filter,对应的 cluster 是和 filter chain 同名的 spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal.local_outbound_internal

ztunnel outbound listener 配置

通过下面的命令可以查看 spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal 这个 cluster 的定义。

代码语言:javascript
复制
~ k -n istio-system exec ztunnel-gzlxs curl "127.0.0.1:15000/config_dump"|fx 'x.configs[1].dynamic_active_clusters'|fx

通过下面的命令查看该 cluster 中的 endpoint:

代码语言:javascript
复制
~ k -n istio-system exec ztunnel-gzlxs curl "127.0.0.1:15000/config_dump?include_eds"|fx 'x.configs[2]'.dynamic_endpoint_configs|fx

可以看到有三个 endpoint,endpoint 的地址类型是 Envoy Internal Listener。endpoint 对应的 internal listener 是 outbound_tunnel_lis_spiffe://cluster.local/ns/default/sa/bookinfo-productpage。三个 endpoint 中设置的 endpoint_id 分别是 reviews-v1,reviews-v2 和 reviews-v3 三个 pod 的 IP。 在转发请求时,envoy 会根据负载均衡算法选择一个 endpoint。

endpoint 中设置了下面的 filter_metadata,这些 metadata 将被 Internal Listener 用于和 server 端创建 HTTP CONNECT 隧道。

代码语言:javascript
复制
"metadata": {
  "filter_metadata": {
    "tunnel": {
      "destination": "10.244.1.23:9080",
      "address": "10.244.1.23:15008"
    },
    "envoy.transport_socket_match": {
      "tunnel": "h2"
    }
  }
}

Internal Listener

Internal Listener 中采用了一个 TCP Proxy 来创建隧道,并将请求通过该隧道转发到选定的 endpoint (由 endpoint 配置中 Envoy Interanl Addressendpoint_id 指定)。TCP Proxy 中的 tunneling_config 表明该 TCP Proxy 将和 upstream host 创建一个 HTTP CONNECT 隧道。

ztunnel outbound internal listener 配置

在 Internal Listener 中,我们需要重点关注下面几个配置:

  • set_dst_address 这个 listener filter 会将 endpoint 的 filter_metada 中的 tunnel::address 值取出来,放到 filter state 的 envoy.network.transport_socket.original_dst_address 中,作为采用 HTTP CONNECT 请求创建隧道时的目的地址。假如选中的 endpoint 为 “10.244.1.23”,则会采用 "10.244.1.23:15008 作为创建隧道时的目的地址。
代码语言:javascript
复制
"listener_filters": [
  {
    "name": "set_dst_address",
    "typed_config": {
      "@type": "type.googleapis.com/xds.type.v3.TypedStruct",
      "type_url": "type.googleapis.com/istio.set_internal_dst_address.v1.Config",
      "value": {}
    }
  }
],
  • 为了 server 端能从隧道中拿到原始的请求地址,tunneling_config 中为 HTTP CONNECT 请求增加了一个 x-envoy-original-dst-host header,取值为 %DYNAMIC_METADATA([\"tunnel\", \"destination\"])%,即从 filter 的 metadata 中 tunnel::destination 这个 key 的值。该 metadata 来自于前面 endpoint 中的配置,其取值为 pod IP: pod port。假设 envoy 选中 endpoint_id 为 10.244.1.23:9080 这个 endpoint,从上面 endpoint 的配置中可以看到,其 host 则为 10.244.1.23:9080
代码语言:javascript
复制
"tunneling_config": {
  "hostname": "%DYNAMIC_METADATA(tunnel:destination)%",
  "headers_to_add": [
    {
      "header": {
        "key": "x-envoy-original-dst-host",
        "value": "%DYNAMIC_METADATA([\"tunnel\", \"destination\"])%"
      }
    }
  ]
}

Internal Listener 中 TCP Proxy 指定的 Cluster outbound_tunnel_clus_spiffe://cluster.local/ns/default/sa/bookinfo-productpage 的配置如下:

该 cluster 类型为 ORIGINAL_DST,通常情况下 ORIGINAL_DST 会直接采用 downstream 的目的地址来和 upstream 创建连接。但根据 envoy 对 Original destination filter state 的说明,我们可以采用自定义扩展设置 envoy.network.transport_socket.original_dst_address filter state 的方式来修改 original destination address 的值。 由于 Internal Listener 中 set_dst_address listener filter 将该值设置为了 pod IP: 15008,因此会采用 pod IP: 15008 来和 server 端创建连接。

该 Cluster 中设置了 tls 的 SDS 配置,采用下面的命令可以看到该 SDS 包含了 productpage 的客户端证书,以及验证服务器身份使用的根证书。

代码语言:javascript
复制
~ k -n istio-system exec ztunnel-gzlxs curl "127.0.0.1:15000/config_dump?include_eds"|fx 'x.configs[6]'|fx

Outbound 处理总览

通过对 ztunnel 配置的分析,我们可以看到,在 ztunnel 中,Outbound 方向流量的处理过程如下:

  1. ztunnel_outbound listener 在 15001 端口接收通过 iptables 和 route 劫持后转发到 ztunnel 的出向流量。
    1. ztunnel_outboundfilter_chain_matcher 中的 match 条件选中 spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal.local_outbound_internal filter chain。
    2. spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal.local_outbound_internal filter chain 中配置 的 Tcp Proxy 对应的 cluster 为 spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal
    3. spiffe://cluster.local/ns/default/sa/bookinfo-productpage_to_http_reviews.default.svc.cluster.local_outbound_internal cluster 中有三个 endpoint,endpoint 对应的是 Internal Listener outbound_tunnel_lis_spiffe://cluster.local/ns/default/sa/bookinfo-productpage。endpoint 往 filter_metata 中设置了请求的隧道目的地址(reviews pod IP:15008)和真实目的地址(reviews pod IP: pod port)。
  2. 请求转发到 Internal Listener 后的处理。
    1. set_dst_address 这个 listener filter 将 filter_metada 中的 tunnel::address 值取出来,放到 filter state 的 envoy.network.transport_socket.original_dst_address 中,作为创建隧道时的目的地址(reviews pod IP:15008),并将真实的目的地址(reviews pod IP: pod port)放到 x-envoy-original-dst-host 这个 header 中,以便于 server 端从隧道取出请求后转发到真实目的地。
    2. outbound_tunnel_lis_spiffe://cluster.local/ns/default/sa/bookinfo-productpage 中配置了一个 tcp_proxy,该 tcp_proxy 被设置为采用 HTTP 隧道转发请求。
    3. tcp_proxy 中设置的 cluster 为 outbound_tunnel_clus_spiffe://cluster.local/ns/default/sa/bookinfo-productpage。该 cluster 的类型为 ORIGINAL_DST,即采用 envoy.network.transport_socket.original_dst_address 中的地址(reviews pod IP:15008)作为目的地址创建 TCP 连接。

ztunnel outbound 流量处理

Inbound 流量处理

node 上收到入向的请求后,会被拦截后发送到 ztunnel 的 15006(plain tcp) 和 15008(tls) 端口。如下图所示:

ambient 模式 inbound 流量劫持(ptp 网络)

备注:如果想要详细了解 inbbound 流量拦截的机制,可以参考本系列中第二篇的 inbbound 流量劫持 部分的内容。

启用 ztunnel 的主要目的是为工作负载之间的通信进行认证和加密,在 15006 端口提供 plain tcp 只是为了兼容未启用 mtls 的工作负载。本文只对 15008 端口的 mtls 流量处理进行分析。

ztunnel inbound listener 配置

ztunnel inbound virtual inbound cluster 配置 Inbound Listener 中为该 node 中的每个 pod 都创建了一个 filter chain,采用 pod IP 地址进行匹配。

我们继续查看 productpage 请求 reviews 的场景下 inbound 的处理流程:

  1. ztunnel_inbound listener 在 15009 端口接收通过 iptables 和 route 劫持后转发到 ztunnel 的入向流量。
  2. 通过 filter chain 的匹配条件,请求目的地址 IP 10.244.1.23(reviews pod IP)匹配到了名为 inbound_10.244.1.23 的 filter chain。该 filter chain 中配置的是 名为 inbound_hcm 的 http_connection_manager。我们需要特别关注该 filter chain 中的下述配置:
    • filter chain 的 transport_socketcommon_tls_context 部分配置了 server 端的证书,以及验证 client 证书的 ROOTCA 和身份验证配置。
    • HCM 中的 upgrade_config 提供了 HTTP CONNECT 隧道的配置,其中 "upgrade_type": "CONNECT" 表示支持 HTTP CONNECT 隧道。Envoy 对 HTTP CONNECT 的支持有两种方式:一种是不做任何处理,将 HTTP CONNECT 请求直接透传给 upstream;另一种是在 Envoy 处终结 HTTP CONNECT 请求,只将 payload 作为 TCP 数据发送给 upstream。在第二种方式下,Envoy 提供了一个 HTTP CONNECT 隧道。upgrade_config 中 的"connect_config": {} 选项表示 Envoy 将以第二种方式处理 HTTP CONNECT 请求,即将 HTTP CONNECT 隧道中的 TCP 数据拿出来后发给 upstream。
  3. HCM 中配置的是 cluster 是 virtual_inbound。该 cluster 的类型为 ORIGINAL_DST,即采用 downstream 请求中的原始目的地址。而此时原始目的地址是 pod IP:15008,端口为 HTTP CONNECT 隧道的 server 端端口。如果采用该地址,无法和 server 端 pod 建立连接。在 original_dst_lb_config 中配置了 "use_http_header": true,根据 Envoy 对该选项的说明,Envoy 将采用 HTTP CONNECT 请求中 x-envoy-original-dst-host 这个 header 的值取代 upstream 请求中的目的地址。该 header 在 outbound 的处理流程中已经被设置为了 pod 中正确的服务端口 pod IP:9080。

ztunnel 四层处理完整流程

小结

本文分析了 ambient 模式下四层流量的处理流程。可以看到,Istio 在 client 端 node 上的 ztunnel 和 server 端 的 ztunnel 之间创建了一个 HTTP CONNECT 隧道,该隧道中的数据通过 mtls 进行进行认证和加密。为了便于理解,本文中的 client 和 server 处于不同 node 上。但从配置中可以看到,即时 client 和 server 处于同一个 node 上,处理流程也是相同的,只是此时两段的 ztunnel 是同一个。在本系列的下一篇文章中,我们将继续深入分析 ztunnel 对七层流量的处理流程。


var disq = new iDisqus('disqus-comment', { forum: 'zhaohuabings-blog', api: 'https:\/\/disqusapi.zhaohuabing.com', site: 'https:\/\/zhaohuabing.com', mode: 1, timeout: 5000, init: true, emojiPreview: true });

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Outbound 流量处理
    • Outbound Listener
      • Internal Listener
        • Outbound 处理总览
        • Inbound 流量处理
        • 小结
        相关产品与服务
        负载均衡
        负载均衡(Cloud Load Balancer,CLB)提供安全快捷的四七层流量分发服务,访问流量经由 CLB 可以自动分配到多台后端服务器上,扩展系统的服务能力并消除单点故障。轻松应对大流量访问场景。 网关负载均衡(Gateway Load Balancer,GWLB)是运行在网络层的负载均衡。通过 GWLB 可以帮助客户部署、扩展和管理第三方虚拟设备,操作简单,安全性强。
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档