Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >kubernetes内部访问服务的方式

kubernetes内部访问服务的方式

作者头像
千灵域
发布于 2022-06-17 04:47:21
发布于 2022-06-17 04:47:21
84300
代码可运行
举报
文章被收录于专栏:challenge filterchallenge filter
运行总次数:0
代码可运行

最近因为实验室集群整体爆炸,需要修改旧服务器的网络配置。为此,需要进行一系列的网络测试。同时,这也是一个新的label系列。总是有一些代码,非常常用,但是用的时候就是找不到,想也想不起来,就非得去查。很难受。

之前做网络测试的手段太原始了(指新建ubuntu容器后登陆进去),不够灵活方便,而且也找不到代码和镜像了。为此,我总结了几个比较好的快速访问方式

方式1

最直接的方式肯定是登陆进服务内部,比如istio中提到的

在执行命令后:kubectl apply -f samples/bookinfo/platform/kube/bookinfo.yaml,如果此时所有的svc和pods都跑起来了,可以通过运行kubectl exec -it $(kubectl get pod -l app=ratings -o jsonpath='{.items[0].metadata.name}') -c ratings -- curl productpage:9080/productpage | grep -o "<title>.*</title>"来检测到结果。

其中的kubectl exec -it可以登陆容器并打开控制台,而服务的名称由$(kubectl get pod -l app=ratings -o jsonpath='{.items[0].metadata.name}')-c参数保证了在存在注入的情况下能正常运行。

--连接两条不同的命令,后面就不需要过多的解释了。

甚至不一定是同一个镜像,比如使用sleep镜像进行(足够小)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
export SLEEP_POD=$(kubectl get pod -l app=sleep -o jsonpath={.items..metadata.name})#这里要自行加上-n=test
kubectl exec -it $SLEEP_POD -c sleep curl http://ratings.default.svc.cluster.local:9080/ratings/1
{"id":1,"ratings":{"Reviewer1":5,"Reviewer2":4}}

方式2

临时开一个curl镜像进行网络检查

官方在httpbin里也展示了如何通过curl镜像来进行内网测试(同样,注意命名空间)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
kubectl run -i --rm --restart=Never dummy --image=dockerqa/curl:ubuntu-trusty --command -- curl --silent httpbin:8000/html
kubectl run -i --rm --restart=Never dummy --image=dockerqa/curl:ubuntu-trusty --command -- curl --silent --head httpbin:8000/status/500
time kubectl run -i --rm --restart=Never dummy --image=dockerqa/curl:ubuntu-trusty --command -- curl --silent httpbin:8000/delay/5

网络测试的对象

我一开始想用hello来做,但是其实挺不好的,没什么代表性。 echo-server这个就很不错,像是一个回音壁一样,将所有的请求全部打回。 docker pull ealen/echo-server

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
apiVersion: v1
kind: Namespace
metadata:
  name: echoserver
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: echoserver
  namespace: echoserver
spec:
  replicas: 2
  selector:
    matchLabels:
      app: echoserver
  template:
    metadata:
      labels:
        app: echoserver
    spec:
      containers:
      - image: ealen/echo-server:0.5.1
        imagePullPolicy: Always
        name: echoserver
        ports:
        - containerPort: 80
---
apiVersion: v1
kind: Service
metadata:
  name: echoserver
  namespace: echoserver
spec:
  ports:
  - port: 80
    targetPort: 80
    protocol: TCP
  selector:
    app: echoserver
---
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: echoserver
  namespace: echoserver
  annotations:
    kubernetes.io/ingress.class: "nginx"
spec:
  rules:
  - host: echo.minikube.local
    http:
      paths:
      - path: /
        backend:
          serviceName: echoserver
          servicePort: 80
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021-06-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Milvus数据管理:删除的实现原理
本文将主要讲述 Milvus 是怎么实现删除功能的。删除是许多用户期待已久的功能,这次终于在 Milvus 0.7.0 版本中发布。区别于直接调用 FAISS 的 remove_ids 接口,为了让删除更加高效,并能够支持更多索引类型,我们做了全新的设计。
Zilliz RDS
2020/05/21
1.8K0
千亿级数据量,毫秒级读写,深度剖析探探LSM Tree存储引擎
探探是挚文集团旗下一款月活超千万的社交软件,其部分核心业务数据依托于LevelDB进行存储,特别是用户滑动行为所生成的关系链及其各类关系类型的计数系统。该平台能够支持用户间关系的高效搜索与统计功能,单节点即可承载千亿级别的庞大信息量。在如此规模的数据处理下,数据写入操作晚高峰平均响应时间仅为0.7毫秒,而查询操作则控制在10毫秒。
童子龙
2025/03/04
4930
千亿级数据量,毫秒级读写,深度剖析探探LSM Tree存储引擎
如何在Apache Flink中管理RocksDB内存大小
原文:https://www.ververica.com/blog/manage-rocksdb-memory-size-apache-flink 翻译:zhangjun,英语水平不太好,如有问题,请大家不吝赐教
大数据技术与应用实战
2020/09/15
2K0
如何在Apache Flink中管理RocksDB内存大小
Milvus之WAL介绍
Milvus 是一款开源的特征向量相似度搜索引擎,在2020-03-11我们发布了版本0.7.0。在该版本中,Milvus 为存储系统添加了一个新组件— WAL(write-ahead logging,预写日志系统)。今天我们就来详细介绍一下相关背景和实现原理,以及如何能更好地使用它。
Zilliz RDS
2020/04/15
8250
Milvus 2.0 数据插入与持久化
上图是 Milvus 2.0 的一个整体架构图,从最左边 SDK 作为入口,通过 load balancer 把请求发到 Proxy 这一层。接着 Proxy 会和最上面的 coordinator service(包括 root coord 、 root query、data 和 index)通过和他们进行交互,然后把 DDL 和 DML 写到我们的 message storage 里。
Zilliz RDS
2022/04/08
9950
Milvus 2.0 数据插入与持久化
非易失性数据库系统存储与恢复方法
非易失性内存的出现从根本上改变了数据库管理系统的内存和持久存储的架构。这些新型NVM设备具有堪比DRAM的速度,但是写到NVM设备后这些数据就具备了持久性。因为现现有的数据库管理系统基于内存是易失的这样的条件下,所以并不能充分利用这项技术。通过NVM,传统数据库管理系统的很多部件都将变得不再必要,并且会降低数据库的性能。
yzsDBA
2020/07/20
1.4K0
非易失性数据库系统存储与恢复方法
LevelDB原理解析:数据的读写与合并是怎样发生的?
导语 | LevelDB是一款十分优秀的存储引擎,具有极高的数据读写性能,尤其是写入性能,在笔者经历的多个项目中都有用到,因此本文打算结合LevelDB的部分源码对 LevelDB进行介绍,首先会介绍LevelDB的整体架构,然后围绕数据读写流程和合并流程展开介绍,希望与大家一同交流。文章作者:唐文博,腾讯优图实验室高级研究员。
腾讯云开发者
2020/12/23
1.7K0
LevelDB原理解析:数据的读写与合并是怎样发生的?
云原生向量数据库Milvus:数据与索引的处理流程、索引类型及Schema
本文将介绍 Milvus 系统中数据写入、索引构建、数据查询的具体处理流程,同时,还会介绍 Milvus 支持的索引类型;另外,还将讲述如何定义字段和集合 Schema。
汀丶人工智能
2023/10/11
2.6K0
云原生向量数据库Milvus:数据与索引的处理流程、索引类型及Schema
leveldb-整体架构
项目中使用leveldb做为存储,使用过一段时间后,对leveldb进行一个深入的学习,让录本人学习过程中理解。过程中参照网上文章以经实际应用,进行文章输出,如果错漏,还望指正。
潇洒
2023/10/23
3180
leveldb-整体架构
E往无前 | 人人在用的微信支付,腾讯云大数据ES如何让它低成本高可用?
《E往无前》系列将着重展现腾讯云ES在持续深入优化客户所关心的「省!快!稳!」诉求,能够在低成本的同时兼顾高可用、高性能、高稳定等特性,可以满足微盟、小红书、微信支付等内外部大客户的核心场景需求。 E往无前 |  人人在用的微信支付,腾讯云大数据ES如何让它低成本高可用? 导语:微信支付是国家重要的关键信息基础设施,服务于几千万商户和上亿国民,可用性要求高于5个9。本案例重点介绍了ES在微信支付服务中满足金融账单数据需求的同时,如何进一步降低成本,提高可用性。 Elasticsearch(下文简称为ES)经
腾讯云大数据
2023/02/27
6050
E往无前 |  人人在用的微信支付,腾讯云大数据ES如何让它低成本高可用?
【深度知识】LevelDB从入门到原理详解
LevelDB是Google开源的持久化KV单机数据库,具有很高的随机写,顺序读/写性能,但是随机读的性能很一般,也就是说,LevelDB很适合应用在查询较少,而写很多的场景。LevelDB应用了LSM (Log Structured Merge) 策略,lsm_tree对索引变更进行延迟及批量处理,并通过一种类似于归并排序的方式高效地将更新迁移到磁盘,降低索引插入开销。
辉哥
2020/03/20
10.3K1
【深度知识】LevelDB从入门到原理详解
Milvus 数据处理流程解剖
Milvus 2.0 中主要的数据处理流程包括读写路径、建表等数据定义操作以及向量索引构建流程。
Zilliz RDS
2022/04/08
9380
Milvus 数据处理流程解剖
“加速AI搜索和分析:Milvus数据库解析与实践指南“
在当今数字化时代,人工智能 AI 正迅速改变着我们的生活和工作方式。从智能助手到自动驾驶汽车,AI 正在成为各行各业的创新引擎。然而,这种 AI 的崛起也带来了一个关键的挑战:如何有效地处理和分析越来越丰富和复杂的数据。在这个背景下,向量数据库技术应运而生,为 AI 提供了强大的加速引擎。
汀丶人工智能
2023/10/18
1.4K0
“加速AI搜索和分析:Milvus数据库解析与实践指南“
基于 Nebula Graph 构建百亿关系知识图谱实践
微澜是一款用于查询技术、行业、企业、科研机构、学科及其关系的知识图谱应用,其中包含着百亿级的关系和数十亿级的实体,为了使这套业务能够完美运行起来,经过调研,我们使用 Nebula Graph 作为承载我们知识图谱业务的主要数据库,随着 Nebula Graph 的产品迭代,我们最终选择使用 v2.5.1 版本的 Nebula Graph 作为最终版本。
NebulaGraph
2022/06/27
7240
基于 Nebula Graph 构建百亿关系知识图谱实践
LevelDB:Compaction
LevelDB 的写操作是 Append-Only 的,新的数据写入后,相应的旧数据就过期了。过期的数据需要被 Garbage Collection,不然数据文件的体积会持续膨胀,这是不可接受的。
linjinhe
2018/06/06
1.7K0
学大数据必懂系列之SSTable
Sorted Strings Table(SSTable)是HBase、 Cassandra等一些NoSQL数据库使用的一种持久文件格式,用于获取存储在memtables中的内存数据,对其进行排序以实现快速访问,并将其存储在磁盘上的一组持久的、有序的、不可变的文件中。不可变意味着sstable永远不会被修改。它们稍后被合并到新的sstable中,或者在数据更新时被删除。
用户5252199
2022/11/22
1.2K0
学大数据必懂系列之SSTable
一文科普 RocksDB 工作原理
会保证每周不低于两篇更新,订阅方式见👉这里,欢迎喜欢我文章的朋友们的订阅支持,激励我产出更多优质文章。 RocksDB 是很多分布式数据库的底层存储,如 TiKV、CRDB、NebulaGraph 等等。在 DataDog 工作的 Artem Krylysov 写了一篇文章(原文链接:https://artem.krylysov.com/blog/2023/04/19/how-rocksdb-works/)来对 RocksDB 做了一个科普,通俗易懂,在这里翻译下分享给大家。
木鸟杂记
2023/09/18
2.7K0
一文科普 RocksDB 工作原理
LSM-Tree - LevelDb 源码解析
在上一篇文章LSM-Tree - LevelDb了解和实现中介绍了LevelDb相关的数据结构和核心组件,LevelDB的核心读写部分,以及为什么在这个数据库中写入的速度要比读取的速度快上好几倍。
阿东
2022/05/18
7064
LSM-Tree - LevelDb 源码解析
LevelDB库功能详解
LevelDB是Google开源的持久化KV单机数据库,具有很高的随机写,顺序读/写性能,但是随机读的性能很一般,也就是说,LevelDB很适合应用在查询较少,而写很多的场景。LevelDB应用了LSM (Log Structured Merge) 策略,lsm_tree对索引变更进行延迟及批量处理,并通过一种类似于归并排序的方式高效地将更新迁移到磁盘,降低索引插入开销,关于LSM,本文在后面也会简单提及。
全栈程序员站长
2022/07/25
9520
LevelDB库功能详解
Go之基于LSM的Key-Value数据库实现初篇
前篇文章对LSM的基本原理,算法流程做了简单的介绍,这篇文章将实现一个简单的基于LSM算法的迷你Key-Value数据库,结合上篇文章的理论与本篇文章的实践使之对LSM算法有更好的理解,当然此版本还有很大问题只是Demo模型,后面也会指出;
IT工作者
2022/03/31
8370
推荐阅读
相关推荐
Milvus数据管理:删除的实现原理
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验