前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >API 网关十五年演进:从微服务核心到 AI 时代的神经网络

API 网关十五年演进:从微服务核心到 AI 时代的神经网络

作者头像
深度学习与Python
发布于 2025-05-10 01:38:58
发布于 2025-05-10 01:38:58
730
举报

作者 | Tina

2014 年,伴随全球科技公司涌现的“微服务化”浪潮,API 网关作为系统拆分的“守门人”(Facade Pattern)应运而生。它从最初简单的请求路由,逐步发展到处理身份验证、授权和速率限制等关键任务,如今更成为实时数据与 AI 模型交互的核心枢纽。这一演变历程,映照出传统技术架构从服务拆分走向大模型时代的深层逻辑。

我们所认知的 AI 和大模型,实际上背后都是由无数的 API 所驱动的。正如当 Kong 公司中国区负责人戴冠兰在采访中所说:“No AI without API”。大模型每一次智能应答、图像生成乃至决策推理,本质上都是无数 API 的精密协作,大模型技术的快速发展将带来 API 的指数级增长。

在 InfoQ 的专访中,戴冠兰回顾了 Kong 网关从 2015 年开源项目到如今演变为 API 和 AI 混合网关的历程。现在,通过 Kong AI 网关 (AI Gateway),我们能够屏蔽不同大语言模型(LLM)提供商之间的差异,为用户 / 客户端提供统一的 API 接口。此外,由于所有的请求和响应都经过 Kong AI 网关,这使得在其中实现可观测性、认证授权以及重试等治理能力变得非常便捷。未来,Kong AI 网关将持续集成与 AI 相关的核心能力,全面支持包括 MCP 协议、Google A2A 标准在内的新兴技术体系。

采访嘉宾简介

戴冠兰,现任 Kong 中国区总裁,并兼任全球网关核心研发总监,全面负责 Kong Gateway、服务网格等核心产品的研发战略与全球技术布局。在加入 Kong 之前,戴冠兰曾在 Cloudflare 担任边缘计算、Web 应用防火墙(WAF)和内容分发网络(CDN)等关键技术的负责人,领导团队处理每日超过万亿级别的请求,积累了丰富的大规模分布式系统的架构与运营经验。

他拥有美国东北大学计算机科学硕士学位,具备坚实的技术背景和国际化视野。清华大学五道口金融学院、纪源资本创投研修班 OMEGA 项目的优秀学员。

2021 年主导成立 Kong 亚太区研发中心,从 0 到 1 搭建团队,覆盖多条产品线,如 API 网关、服务网格等。中国区研发团队贡献了超过半数的核心研发成果,显著提升了 Kong 应对高并发、复杂流量场景的技术能力。推动 Kong 从单一 API 网关(Kong Gateway)扩展至全生命周期微服务管理平台,形成“全家桶”式产品生态(如 Kong Mesh、Konnect 云服务等),支持企业在多云环境下的高效 API 管理。他在开源商业化、全球化产品战略、AI 网关演进等方面具有深刻见解,致力于将 Kong 打造成全球领先的 API 管理平台。

从微服务到大模型时代网关的演进

InfoQ:网关技术产生于微服务时代,那么它本身是如何随着时间的推移而发展的?

戴冠兰:API 网关技术经历了从支持微服务架构到适应 AI 应用的演进。以下是 Kong 在不同阶段的关键发展:

1. 微服务时代的起点(2015 年): 随着企业从单体架构转向微服务,Kong 于 2015 年推出了开源 API 网关,提供统一的流量入口、身份验证、限流和监控等功能,帮助企业顺利过渡到微服务架构。

2. 服务网格与 Serverless 的融合(2019 年): 微服务数量的增加带来了服务间通信的复杂性。为此,Kong 推出了 Kuma 服务网格,并在企业级产品中集成为 Kong Mesh,增强了服务间的通信管理和安全性。同时,Kong 还支持 Serverless 架构,适应了无服务器计算的需求。

3. 云原生控制平台的构建(2020 年): 为了统一管理南北向和东西向流量,Kong 推出了 Kong Konnect 云原生控制平台,提供统一的可视化管理、策略控制和数据洞察,提升了微服务治理的效率。

4. AI 网关的引入(2023 年): 面对生成式 AI 的兴起,Kong 于 2023 年推出了 AI 网关,支持多种大语言模型(LLMs)的集成,提供无代码插件、语义缓存、提示词防火墙等功能,帮助企业安全、高效地部署 AI 应用。

5. 持续的创新与发展(2024 年):Kong 在 2024 年发布了 AI 网关 v3.8 版本,进一步增强了智能语义能力,引入了语义缓存、语义路由和语义提示词防护等功能,提升了 AI 应用的性能、安全性和用户体验。

image
image

InfoQ:当网关用于基于 AI 的交互时,它与我们传统的微服务程序交互有什么不同?

戴冠兰: 当 API 网关用于 AI 驱动的交互场景时,其与传统微服务架构下的差异体现在计量方式、数据流处理和性能要求等方面:

1. 计量单位的转变: 在传统微服务架构中,API 网关通常按请求次数进行计费和监控。然而,在 AI 应用中,尤其是涉及大型语言模型(如 OpenAI 的 GPT 系列)的场景中,计费和资源消耗的关键指标转向了“token”(标记)。每个请求的成本和资源使用量取决于输入和输出的 token 数量,而非仅仅是请求的次数。这种转变要求网关具备对 token 使用量的精确统计和控制能力,以实现成本管理和资源优化。

2. 数据流处理方式的变化:AI 应用,特别是生成式模型的交互,常常采用流式(streaming)响应方式,以提升用户体验。这意味着网关需要支持实时的数据流处理,能够在接收到部分响应数据时立即转发给客户端,而不是等待完整响应生成后再进行转发。这种处理方式对网关的并发处理能力和数据传输效率提出了更高要求。

3. 性能和稳定性的挑战:AI 模型的推理过程通常计算密集,响应时间可能较长,且对系统资源的消耗较大。网关在处理此类请求时,必须具备高并发处理能力和稳定性,以防止因单个请求的延迟或失败影响整体系统的性能。此外,网关还需具备智能的流量控制和异常检测机制,以应对可能的请求激增或异常行为。

4. 安全性和合规性的增强需求:AI 应用可能涉及敏感数据的处理和传输,网关需要提供更强的安全控制措施,如细粒度的访问控制、数据加密、敏感信息过滤等。同时,为满足不同行业的合规要求,网关应支持多种认证和审计机制,确保数据处理过程的可追溯性和合规性。

总的来说,AI 驱动的应用对 API 网关提出了新的挑战和要求,涉及计费方式的转变、数据流处理的复杂性、系统性能的提升以及安全合规性的加强。为应对这些挑战,API 网关需要不断演进,集成更多智能化和自动化的功能,以适应 AI 时代的需求。

AI 网关:大模型时代的工程化中枢

InfoQ: Kong 在 AI/LLM 网关场景中通常会遇到哪些客户需求?

戴冠兰: 最为常见的需求是多 LLM provider 代理,当企业计划将 LLM 应用上线到生产环境时,一定是需要有 backup 的,这时候,很自然的就是当某一个 LLM provider 不可用的时候,能否在不做任何调整的时候,通过 Kong AI 网关继续将请求自动的转移到其他可用的 LLM provider。

其次就是基于 Token 的 ratelimit,这对于企业 LLM 应用控制成本等方面也是极其重要的。

当然除了这些,还有一些其他的,比如能否进行自动的 RAG,能否在 Kong AI 网关的层面进行 cache 以节约成本,以及是否可以通过 Kong AI 网关进行一些特定内容信息的过滤等。

InfoQ: 有很多工程师对 LLM 时代的网关会有疑问,比如“我为什么需要一个网关?我直接调用 API 就好了。”你如何解答这个问题?

戴冠兰: 正如前面提到的,通过 Kong AI 网关主要完成的是 对于 LLM 请求的治理,这其中不只是包括对多个 LLM provider 的 fallback,也包括认证授权等能力。很多 LLM provider 其实会限制用户可创建的认证密钥的数量,而大多数情况下,我们希望可以知道我的 token 到底消耗在了哪里,是哪个应用发起的,在什么时间,消耗了多少。

通过 Kong AI 网关就很容易做到这些了,将 LLM provider 的认证密钥进行中心化管理,然后为不同的用户 / 应用创建各自的独立的认证密钥,这样可以避免密钥泄露的风险。借助于 Kong AI 网关强大的可观测能力,还可以了解到这些用户 / 应用的 Token 消耗情况等,这样就会很方便。

此外,集成 Kong AI 网关的另一大优势就是不需要自己额外开发重复的逻辑,将这些基础能力都下沉到 Kong AI 网关中,开发者只需要专注于自己的业务逻辑即可。

InfoQ: 对于使用多个 LLM 提供商的企业,会有哪些技术挑战,Kong 是如何解决这些挑战的?

戴冠兰: 首先是如何保障始终有可用的 LLM provider。Kong AI 网关通过实现多种重试和负载均衡策略,在保障可用性的同时,兼顾了企业复杂场景下的多样化需求,确保始终有可用的 LLM provider 提供服务。

其次,不同的 LLM provider 或者是不同的 LLM 尽管大体遵循统一的 API 接口格式,但也会有一些差异存在,通过使用 Kong AI 网关,我们在网关侧屏蔽了这些差异,用户可以使用无差别的统一接口进行连接,身份认证,以及通过 Kong AI 网关完成可观测性相关的需求。

InfoQ: 典型的 LLM 网关应该具备哪些关键功能? 这些功能在企业的 AI 工程中能带来哪些具体优势?

戴冠兰: 既然叫作 AI 网关, 最典型的能力自然是连接不同的 LLM provider,其次也包含对密钥的中心化管理,分发给用户不同的虚拟密钥,以便实施不同的控制策略。

这样的功能,可以避免密钥的泄露,同时又可以根据企业的不同策略,来进行精准的控制。

还有,比如说基于 Prompt 对内容进行过滤的功能。对于企业而言,避免敏感数据泄露是很关键的,当然,另一方面是要避免企业 AI 应用返回“有害信息”,通过在 AI 网关上进行基于 Prompt 的内容过滤,就可以有效的保护数据安全,也可以避免影响企业形象或者避免一些安全合规问题。

image
image

InfoQ: 另外,网关是否会引入额外的延迟?如何保证网关既可靠又非常快速?

戴冠兰: 由于在整体的链路上多了一层,自然会引入一些额外的延迟。

Kong AI 网关主要做了两方面的优化:一个是 Kong 本身就在持续的优化自身的性能,致力于打造高性能的网关;另一方面是 Kong AI 网关引入了语义化缓存的能力,通过 cache 来提升整体的性能,并降低 token 的消耗。

InfoQ: 举例来说,如果一个企业使用了 M 个大模型,以及有 N 个用户,同时会不同的任务指向不同的 LLM,那么这种情况下,其复杂性在哪里,Kong 如何简化其开发和管理工作?

戴冠兰: 正如前面所说,这里的复杂性主要就是 LLM 治理和策略如何实施了。Kong AI 网关提供了多种不同的配置策略,同时 Kong AI 网关也支持多样的 plugin 进行扩展,这样就可以灵活的满足企业多样化的需求。

InfoQ: Kong 提供了哪些机制来确保与外部 AI 服务交互的安全性和效率?

戴冠兰: 提到安全性,首先就是密钥管理的安全性,Kong AI 网关允许进行密钥的中心化控制,这样可以使用不同的虚拟密钥分发给不同的用户 /client,一次来确保其密钥的安全性。当然 Kong AI 网关也支持多种不同的认证策略,可以使用不同的认证策略来完成认证。

此外就是 Kong AI 网关提供的限流策略,无论是基于请求,还是基于 token 的,都可以很好的包括后端实际的 LLM provider,避免因为过量的请求导致 LLM provider 的性能或者安全问题。

InfoQ: 如今大模型爬虫给各网站带来了很大的负荷,防范机制经常失效,那么网关层面可以如何解决这个问题?实现原理是什么?

戴冠兰: 对于 Kong AI 网关而言,由于我们已经在网关领域积累了很多经验,更多的还是基于原有的经验提供多种校验和限制策略。无论是基于用户身份,请求来源,或者是基于请求等要素,Kong AI 网关都有相关的 plugin 可以满足对应的需求。

同时 Kong AI 网关也有基于 token 的限流限速插件,当然 Kong 也有类似 Bot Detection 之类的 Plugin,我们维护了一套规则集合,同时也允许用户对该规则进行扩展,以此来防范一些爬虫的大量抓取请求。

当然,网络的攻防本就是此消彼长的一个过程,有时候我们也需要借助一些其他的手段才能更好的进行拦截,所以 Kong 也有很多合作方,同时 Kong 也有很好的扩展能力,这样就可以更加灵活的来满足客户的具体需求了。

InfoQ: AI 工程通常涉及大量 API 调用,Kong 是否支持动态限流和访问控制?这些功能如何帮助企业优化 API 使用?

戴冠兰: 是的,Kong AI 网关支持动态的限流限速和访问控制。比如通过使用 Kong AI 网关的访问控制能力,用户可以为不同的应用分配各自专有的密钥,并将限流能力附加到这些专有密钥上,通过 Kong AI 网关提供的可观测能力,企业就可以更好的了解到不同的应用对于 LLM token 的消耗情况,当然可观测性也不仅仅是针对 LLM 而言的,对于一般的 API 请求, Kong 同样也提供了完备的可观测能力,让企业可以对这些 API 的调用情况有非常直观的了解,进而进行相对应的控制和处理。

InfoQ: Kong 如何帮助企业优化 LLM API 的调用成本和提升性能?你认为通过网关来管理 API 调用能够为企业节省多少成本?

戴冠兰:Kong AI 网关主要通过保护企业免受密钥泄露,或者超量调用等方面来尽可能的避免企业遭受损失。并且通过提供语义化缓存和可观测性来优化成本提升性能。

此外,由于通过 Kong AI 网关屏蔽了不同 LLM provider 的差异性,使得企业在开发 LLM 应用的过程中可以节约时间提升效率,以此来帮助企业节省成本。

InfoQ: Kong 产品在支持 LLM/AI 应用方面还有哪些特别的设计或新能力?这些功能的演进逻辑是什么?

戴冠兰: 我来介绍一个我们的最新功能, AutoRAG 这个功能可以减少 LLM 幻觉,并且可以提升开发者的体验。通过 Kong AI 网关的 AutoRAG ,企业客户可以直接将自己的内容信息交给 Kong AI 网关处理,以此来自动的构建一个 RAG 应用,整体流程相比于使用 Kong AI 网关之前,会简化很多,能大大提升效率。

Kong AI Gateay 功能的整体演进逻辑,一方面来自于我们的全球客户,不同行业的客户会有不同的需求,我们需要持续满足用户的需求。另一方面来自于我们强力的产品和工程团队,我们可以积极的发现和了解技术趋势,并且将其转换为真正的产品功能。

Kong 的发展和未来展望

InfoQ:Kong 从最初专注 API 网关起步,如今在 AI 工程领域有哪些新的布局和投入?

戴冠兰:Kong 自成立以来一直专注于 API 管理领域,AI 时代下,尽管和之前存在一些差异,但终究还是 以 API 作为核心。随着 AI 技术的迅猛发展,我们顺势推出了 Kong AI 网关,旨在为 AI 应用提供强大的基础设施支持。

Kong AI 网关的核心优势:

  1. 多模型支持与无代码集成: Kong AI 网关支持多种大型语言模型(LLM),包括 OpenAI、Anthropic、Cohere、Mistral 和 LLaMA 等。通过无代码插件,开发者可以轻松集成这些模型,加速 AI 功能的部署。
  2. 高级提示工程与安全控制: 我们提供了丰富的插件,如 AI 提示模板、提示装饰器和提示词防火墙,帮助开发者构建更安全、可控的 AI 应用,确保提示的合规性和一致性。
  3. 精细化资源管理: 引入基于 token 的限流机制,使企业能够更精确地管理和控制 AI 请求的资源消耗,优化成本结构。
  4. 流式响应与动态路由: 支持流式数据传输,提升用户交互体验;同时,基于 URL 的动态模型选择功能,使得在不同场景下灵活调用合适的模型成为可能。
  5. 与现有工具的无缝集成: Kong AI 网关与 OpenAI SDK 完全兼容,开发者可以无需修改现有代码,直接接入多种 LLM,简化了迁移和集成过程。

通过 Kong AI 网关,我们致力于为企业提供一个稳定、高效、安全的 AI 应用基础设施,助力客户在 AI 时代实现更快的创新和增长。

InfoQ:在你看来,Kong 在未来 AI 基础设施栈中最具战略意义的产品或能力是什么?为什么?

戴冠兰: 我们将与 AI 相关的核心能力高度集成在 Kong AI 网关中。无论是当前热门的 MCP 协议,还是 Google 推出的 A2A 标准,都将在这一平台上得到全面支持和体现。

很难定义哪一项能力最具战略意义,一方面是因为 AI 技术迭代极快,新标准和新需求层出不穷;另一方面,不同行业和企业的 AI 应用场景高度多样化,对能力的侧重也有所不同。

因此,与其强调某一个具体功能,我们更看重的是 Kong AI 网关提供的可扩展性、开放性与演进能力 —— 这是在一个高速演变、标准未定的领域中,真正具备长期战略价值的能力。

InfoQ:Kong 网关在中国市场的应用情况如何?有没有一些本地化调整?

戴冠兰:Kong 在中国市场的应用呈现出强劲的增长势头,尤其是在开源社区的推动下,已成为众多企业的技术基石。根据 Kong 官方数据,其全球开源社区用户超过 16 万人,覆盖 46 个国家的 80 个用户组。在中国,Kong 社区的活跃度位居全球第二,显示出其在本地开发者中的广泛认可。

Kong 与本地云服务提供商和技术合作伙伴建立了紧密的合作关系,共同推动产品在中国市场的应用和发展。针对中国市场的特殊需求,在出海和国际公司在国内落地的场景,Kong 持续优化产品功能,增强对这些场景的支持。

InfoQ:如何看待 AI 网关的未来发展,有哪些计划来增强其在 AI 时代的竞争力?

戴冠兰:AI 网关正迅速成为大模型(LLM)和生成式 AI 系统中的关键基础设施。它不仅统一了流量入口,还在安全、合规、性能和可观察性方面提供了核心能力。Kong 正在积极推动这一演进,致力于打造一个高性能、可扩展且面向未来的 AI 网关平台。

增强竞争力的计划:

  • 持续扩展模型支持:Kong 将根据用户需求,持续增加对更多 LLM 的支持,包括最新的 Claude 3.7 等,确保平台的前瞻性和兼容性。
  • 更多语义智能驱动的功能:在 3.8 版本中,Kong 引入了语义缓存(Semantic Caching)和语义路由(Semantic Routing)等功能。这些功能通过理解用户请求的语义含义,实现更高效的响应和更智能的模型选择,提升了 AI 应用的性能和用户体验
  • 优化开发者体验:推出如 Insomnia AI Runner 等工具,简化 AI 应用的开发、测试和部署流程,降低技术门槛,提升开发效率。
  • 强化生态系统建设:通过开源社区的推动和与本地合作伙伴的协作,Kong 致力于构建一个开放、协同的 AI 网关生态系统,促进技术创新和应用落地。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-05-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Search - 一文入门ElasticSearch(节点、分片、CRUD、倒排索引、分词)
ElasticSearch是非常重要的检索工具,利用分词、索引(倒排索引)、分词从众多检索工具中脱颖而出,本章是入门基础学习篇内容。
stark张宇
2023/03/16
4.2K0
Elasticsearch的CRUD
本文使用的Elasticsearch版本为6.5.4,上文主要介绍了它的Index(数据库)和Mapping(表结构),那么本文主要记录一下关于Elasticsearch的增删改以及普通查询操作。
用户3467126
2020/02/25
5070
Elasticsearch的CRUD
2.Elasticsearch和Java交互 -- java操作es
如果你正在使用 Java,在代码中你可以使用 Elasticsearch 内置的两个客户端:
IT云清
2019/01/22
2.3K0
Elasticsearch多索引
 在Elasticsearch中,一般的查询都支持多索引。 只有文档API或者别名API等不支持多索引操作,因此本篇就翻译一下多索引相关的内容。 首先,先插入几条数据: $ curl -XPOST localhost:9200/test1/test/1 -d '{"name":"test1"}' $ curl -XPOST localhost:9200/test1/test/2 -d '{"name":"test1"}' $ curl -XPOST localhost:9200/test2/test/
用户1174963
2018/01/17
1.8K0
Elasticsearch多索引
【Elasticsearch】4. Search API
Search API URI Search:在URL中使用查询参数 Request Body Search:使用Elasticsearch提供的,基于json格式的更加完备的Query Domain Speacific Language(DSL) 指定查询的索引 /_search:集群上所有的索引 /index1/_search:index1 /index1,index2/_search:index1和index2 /index/_search:以index开头的索引 URI查询 使用"q",指定查询字符
历久尝新
2020/12/15
6670
【Elasticsearch】4. Search API
Elasticsearch安装使用教程
Elasticsearch是一个全文搜索引擎。安装Elasticsearch时需要先安装Java。 wget https://download.elasticsearch.org/elasticsearch/elasticsearch/elasticsearch-1.4.2.zip unzip elasticsearch-1.4.2.zip cd elasticsearch-1.4.2 ./bin/elasticsearch
星哥玩云
2022/07/04
4090
Elasticsearch安装使用教程
ES 深度分页scroll使用方式
我们知道ES对于from+size的个数是有限制的,二者之和不能超过1w。当所请求的数据总量大于1w时,可用scroll来代替from+size。 首次查询使用方式如下: curl -XGET 'lo
YG
2018/05/23
4.4K1
elasticsearch中文分词器的安装和体验
因为本人使用的elasticsearch的版本为5.2.1,相对应的中文分词器的下载地址为https://github.com/medcl/elasticsearch-analysis-ik/tree/v5.2.1.(请根据自己使用版本的不同进行下载)
算法之名
2019/08/20
3960
Curl操作Elasticsearch的常用方法
Elasticsearch对于文档操作,提供了以下几种API,本文就说明如何使用curl方式来调用这些API。
大江小浪
2018/07/24
1.8K0
触类旁通Elasticsearch:搜索
ES的搜索请求执行流程如图1所示。图中索引包含两个分片,每个分片有一个副本分片。在给文档定位和评分后,缺省只会获取排名前10的文档。REST API搜索请求被发送到所连接的节点,该节点根据要查询的索引,将这个请求依次发送到所有的相关分片(主分片或者副本分片)。从所有分片收集到足够的排序和排名信息后,只有包含所需文档的分片被要求返回相关内容。这种搜索路由的行为是可配置的,图1展示的默认行为,称为查询后获取(query_then_fetch)。
用户1148526
2019/05/25
3.3K0
elasticsearch的restful API和Java API
本人现在使用的是elasticsearch 5.2.1的,服务器IP为192.168.5.182.所以在Java API和jar包中会有所不同.
算法之名
2019/08/20
2.1K0
ElasticSearch5.x 删除数据
首先要说明的是ElasticSearch从2.x开始就已经不支持删除一个type了,所以使用delete命令想要尝试删除一个type的时候会出现如下错误:
我的小碗汤
2018/09/30
2.4K0
ElasticSearch5.x 删除数据
ElasticSearch 索引查询使用指南——详细版
  绿色表示一切正常, 黄色表示所有的数据可用但是部分副本还没有分配,红色表示部分数据因为某些原因不可用.
双面人
2019/04/10
3.7K0
ElasticSearch 索引查询使用指南——详细版
ES 常用Linux查询命令汇总
_cat系列提供了一系列查询elasticsearch集群状态的接口。你可以通过执行
MickyInvQ
2020/09/27
6.4K0
Elasticsearch CURL命令
提示:绿色表示一切正常, 黄色表示所有的数据可用但是部分副本还没有分配,红色表示部分数据因为某些原因不可用
用户7657330
2021/12/07
1.5K0
[Elasticsearch] ES 的Mapping 设计在实际场景中应用
项目中有个需求是需要几个字段作为标签,统计各个标签的文档数量,同时支持分词后的全文检索功能。
awwewwbbb
2021/12/27
7060
快速入门ElasticSearch
最近事情比较多,好久没更新文章,现在失踪人口回归,开始日常更新文章,一周不低于两篇,同时内容不限于Python,会有好多有趣的技术等着去学习和发现~~~
啃饼思录
2020/10/23
1.9K0
快速入门ElasticSearch
Elasticsearch入门
ElasticSearch是一个高度可扩展的开源搜索引擎并使用REST API,所以您值得拥有。 在本教程中,将介绍开始使用ElasticSearch的一些主要概念。
码农编程进阶笔记
2022/12/21
6980
Elasticsearch入门
Elasticsearch 数据搜索篇·【入门级干货】
ES即简单又复杂,你可以快速的实现全文检索,又需要了解复杂的REST API。本篇就通过一些简单的搜索命令,帮助你理解ES的相关应用。虽然不能让你理解ES的原理设计,但是可以帮助你理解ES,探寻更多的特性。 其他相关的内容参考:Elasticsearch官方文档翻译 样例数据 为了更好的使用和理解ES,没有点样例数据还是不好模拟的。这里提供了一份官网上的数据,accounts.json。如果需要的话,也可以去这个网址玩玩,它可以帮助你自定义写随机的JSON数据。 首先开启你的ES,然后执行下面的命令
用户1154259
2018/01/17
9540
在生产环境中部署Elasticsearch:最佳实践和故障排除技巧———索引与数据上传(二)
#在生产环境中部署Elasticsearch:最佳实践和故障排除技巧———索引与数据上传(二)
一只
2024/06/26
1360
相关推荐
Search - 一文入门ElasticSearch(节点、分片、CRUD、倒排索引、分词)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档