Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >API 网关十五年演进:从微服务核心到 AI 时代的神经网络

API 网关十五年演进:从微服务核心到 AI 时代的神经网络

作者头像
深度学习与Python
发布于 2025-05-10 01:38:58
发布于 2025-05-10 01:38:58
730
举报

作者 | Tina

2014 年,伴随全球科技公司涌现的“微服务化”浪潮,API 网关作为系统拆分的“守门人”(Facade Pattern)应运而生。它从最初简单的请求路由,逐步发展到处理身份验证、授权和速率限制等关键任务,如今更成为实时数据与 AI 模型交互的核心枢纽。这一演变历程,映照出传统技术架构从服务拆分走向大模型时代的深层逻辑。

我们所认知的 AI 和大模型,实际上背后都是由无数的 API 所驱动的。正如当 Kong 公司中国区负责人戴冠兰在采访中所说:“No AI without API”。大模型每一次智能应答、图像生成乃至决策推理,本质上都是无数 API 的精密协作,大模型技术的快速发展将带来 API 的指数级增长。

在 InfoQ 的专访中,戴冠兰回顾了 Kong 网关从 2015 年开源项目到如今演变为 API 和 AI 混合网关的历程。现在,通过 Kong AI 网关 (AI Gateway),我们能够屏蔽不同大语言模型(LLM)提供商之间的差异,为用户 / 客户端提供统一的 API 接口。此外,由于所有的请求和响应都经过 Kong AI 网关,这使得在其中实现可观测性、认证授权以及重试等治理能力变得非常便捷。未来,Kong AI 网关将持续集成与 AI 相关的核心能力,全面支持包括 MCP 协议、Google A2A 标准在内的新兴技术体系。

采访嘉宾简介

戴冠兰,现任 Kong 中国区总裁,并兼任全球网关核心研发总监,全面负责 Kong Gateway、服务网格等核心产品的研发战略与全球技术布局。在加入 Kong 之前,戴冠兰曾在 Cloudflare 担任边缘计算、Web 应用防火墙(WAF)和内容分发网络(CDN)等关键技术的负责人,领导团队处理每日超过万亿级别的请求,积累了丰富的大规模分布式系统的架构与运营经验。

他拥有美国东北大学计算机科学硕士学位,具备坚实的技术背景和国际化视野。清华大学五道口金融学院、纪源资本创投研修班 OMEGA 项目的优秀学员。

2021 年主导成立 Kong 亚太区研发中心,从 0 到 1 搭建团队,覆盖多条产品线,如 API 网关、服务网格等。中国区研发团队贡献了超过半数的核心研发成果,显著提升了 Kong 应对高并发、复杂流量场景的技术能力。推动 Kong 从单一 API 网关(Kong Gateway)扩展至全生命周期微服务管理平台,形成“全家桶”式产品生态(如 Kong Mesh、Konnect 云服务等),支持企业在多云环境下的高效 API 管理。他在开源商业化、全球化产品战略、AI 网关演进等方面具有深刻见解,致力于将 Kong 打造成全球领先的 API 管理平台。

从微服务到大模型时代网关的演进

InfoQ:网关技术产生于微服务时代,那么它本身是如何随着时间的推移而发展的?

戴冠兰:API 网关技术经历了从支持微服务架构到适应 AI 应用的演进。以下是 Kong 在不同阶段的关键发展:

1. 微服务时代的起点(2015 年): 随着企业从单体架构转向微服务,Kong 于 2015 年推出了开源 API 网关,提供统一的流量入口、身份验证、限流和监控等功能,帮助企业顺利过渡到微服务架构。

2. 服务网格与 Serverless 的融合(2019 年): 微服务数量的增加带来了服务间通信的复杂性。为此,Kong 推出了 Kuma 服务网格,并在企业级产品中集成为 Kong Mesh,增强了服务间的通信管理和安全性。同时,Kong 还支持 Serverless 架构,适应了无服务器计算的需求。

3. 云原生控制平台的构建(2020 年): 为了统一管理南北向和东西向流量,Kong 推出了 Kong Konnect 云原生控制平台,提供统一的可视化管理、策略控制和数据洞察,提升了微服务治理的效率。

4. AI 网关的引入(2023 年): 面对生成式 AI 的兴起,Kong 于 2023 年推出了 AI 网关,支持多种大语言模型(LLMs)的集成,提供无代码插件、语义缓存、提示词防火墙等功能,帮助企业安全、高效地部署 AI 应用。

5. 持续的创新与发展(2024 年):Kong 在 2024 年发布了 AI 网关 v3.8 版本,进一步增强了智能语义能力,引入了语义缓存、语义路由和语义提示词防护等功能,提升了 AI 应用的性能、安全性和用户体验。

image
image

InfoQ:当网关用于基于 AI 的交互时,它与我们传统的微服务程序交互有什么不同?

戴冠兰: 当 API 网关用于 AI 驱动的交互场景时,其与传统微服务架构下的差异体现在计量方式、数据流处理和性能要求等方面:

1. 计量单位的转变: 在传统微服务架构中,API 网关通常按请求次数进行计费和监控。然而,在 AI 应用中,尤其是涉及大型语言模型(如 OpenAI 的 GPT 系列)的场景中,计费和资源消耗的关键指标转向了“token”(标记)。每个请求的成本和资源使用量取决于输入和输出的 token 数量,而非仅仅是请求的次数。这种转变要求网关具备对 token 使用量的精确统计和控制能力,以实现成本管理和资源优化。

2. 数据流处理方式的变化:AI 应用,特别是生成式模型的交互,常常采用流式(streaming)响应方式,以提升用户体验。这意味着网关需要支持实时的数据流处理,能够在接收到部分响应数据时立即转发给客户端,而不是等待完整响应生成后再进行转发。这种处理方式对网关的并发处理能力和数据传输效率提出了更高要求。

3. 性能和稳定性的挑战:AI 模型的推理过程通常计算密集,响应时间可能较长,且对系统资源的消耗较大。网关在处理此类请求时,必须具备高并发处理能力和稳定性,以防止因单个请求的延迟或失败影响整体系统的性能。此外,网关还需具备智能的流量控制和异常检测机制,以应对可能的请求激增或异常行为。

4. 安全性和合规性的增强需求:AI 应用可能涉及敏感数据的处理和传输,网关需要提供更强的安全控制措施,如细粒度的访问控制、数据加密、敏感信息过滤等。同时,为满足不同行业的合规要求,网关应支持多种认证和审计机制,确保数据处理过程的可追溯性和合规性。

总的来说,AI 驱动的应用对 API 网关提出了新的挑战和要求,涉及计费方式的转变、数据流处理的复杂性、系统性能的提升以及安全合规性的加强。为应对这些挑战,API 网关需要不断演进,集成更多智能化和自动化的功能,以适应 AI 时代的需求。

AI 网关:大模型时代的工程化中枢

InfoQ: Kong 在 AI/LLM 网关场景中通常会遇到哪些客户需求?

戴冠兰: 最为常见的需求是多 LLM provider 代理,当企业计划将 LLM 应用上线到生产环境时,一定是需要有 backup 的,这时候,很自然的就是当某一个 LLM provider 不可用的时候,能否在不做任何调整的时候,通过 Kong AI 网关继续将请求自动的转移到其他可用的 LLM provider。

其次就是基于 Token 的 ratelimit,这对于企业 LLM 应用控制成本等方面也是极其重要的。

当然除了这些,还有一些其他的,比如能否进行自动的 RAG,能否在 Kong AI 网关的层面进行 cache 以节约成本,以及是否可以通过 Kong AI 网关进行一些特定内容信息的过滤等。

InfoQ: 有很多工程师对 LLM 时代的网关会有疑问,比如“我为什么需要一个网关?我直接调用 API 就好了。”你如何解答这个问题?

戴冠兰: 正如前面提到的,通过 Kong AI 网关主要完成的是 对于 LLM 请求的治理,这其中不只是包括对多个 LLM provider 的 fallback,也包括认证授权等能力。很多 LLM provider 其实会限制用户可创建的认证密钥的数量,而大多数情况下,我们希望可以知道我的 token 到底消耗在了哪里,是哪个应用发起的,在什么时间,消耗了多少。

通过 Kong AI 网关就很容易做到这些了,将 LLM provider 的认证密钥进行中心化管理,然后为不同的用户 / 应用创建各自的独立的认证密钥,这样可以避免密钥泄露的风险。借助于 Kong AI 网关强大的可观测能力,还可以了解到这些用户 / 应用的 Token 消耗情况等,这样就会很方便。

此外,集成 Kong AI 网关的另一大优势就是不需要自己额外开发重复的逻辑,将这些基础能力都下沉到 Kong AI 网关中,开发者只需要专注于自己的业务逻辑即可。

InfoQ: 对于使用多个 LLM 提供商的企业,会有哪些技术挑战,Kong 是如何解决这些挑战的?

戴冠兰: 首先是如何保障始终有可用的 LLM provider。Kong AI 网关通过实现多种重试和负载均衡策略,在保障可用性的同时,兼顾了企业复杂场景下的多样化需求,确保始终有可用的 LLM provider 提供服务。

其次,不同的 LLM provider 或者是不同的 LLM 尽管大体遵循统一的 API 接口格式,但也会有一些差异存在,通过使用 Kong AI 网关,我们在网关侧屏蔽了这些差异,用户可以使用无差别的统一接口进行连接,身份认证,以及通过 Kong AI 网关完成可观测性相关的需求。

InfoQ: 典型的 LLM 网关应该具备哪些关键功能? 这些功能在企业的 AI 工程中能带来哪些具体优势?

戴冠兰: 既然叫作 AI 网关, 最典型的能力自然是连接不同的 LLM provider,其次也包含对密钥的中心化管理,分发给用户不同的虚拟密钥,以便实施不同的控制策略。

这样的功能,可以避免密钥的泄露,同时又可以根据企业的不同策略,来进行精准的控制。

还有,比如说基于 Prompt 对内容进行过滤的功能。对于企业而言,避免敏感数据泄露是很关键的,当然,另一方面是要避免企业 AI 应用返回“有害信息”,通过在 AI 网关上进行基于 Prompt 的内容过滤,就可以有效的保护数据安全,也可以避免影响企业形象或者避免一些安全合规问题。

image
image

InfoQ: 另外,网关是否会引入额外的延迟?如何保证网关既可靠又非常快速?

戴冠兰: 由于在整体的链路上多了一层,自然会引入一些额外的延迟。

Kong AI 网关主要做了两方面的优化:一个是 Kong 本身就在持续的优化自身的性能,致力于打造高性能的网关;另一方面是 Kong AI 网关引入了语义化缓存的能力,通过 cache 来提升整体的性能,并降低 token 的消耗。

InfoQ: 举例来说,如果一个企业使用了 M 个大模型,以及有 N 个用户,同时会不同的任务指向不同的 LLM,那么这种情况下,其复杂性在哪里,Kong 如何简化其开发和管理工作?

戴冠兰: 正如前面所说,这里的复杂性主要就是 LLM 治理和策略如何实施了。Kong AI 网关提供了多种不同的配置策略,同时 Kong AI 网关也支持多样的 plugin 进行扩展,这样就可以灵活的满足企业多样化的需求。

InfoQ: Kong 提供了哪些机制来确保与外部 AI 服务交互的安全性和效率?

戴冠兰: 提到安全性,首先就是密钥管理的安全性,Kong AI 网关允许进行密钥的中心化控制,这样可以使用不同的虚拟密钥分发给不同的用户 /client,一次来确保其密钥的安全性。当然 Kong AI 网关也支持多种不同的认证策略,可以使用不同的认证策略来完成认证。

此外就是 Kong AI 网关提供的限流策略,无论是基于请求,还是基于 token 的,都可以很好的包括后端实际的 LLM provider,避免因为过量的请求导致 LLM provider 的性能或者安全问题。

InfoQ: 如今大模型爬虫给各网站带来了很大的负荷,防范机制经常失效,那么网关层面可以如何解决这个问题?实现原理是什么?

戴冠兰: 对于 Kong AI 网关而言,由于我们已经在网关领域积累了很多经验,更多的还是基于原有的经验提供多种校验和限制策略。无论是基于用户身份,请求来源,或者是基于请求等要素,Kong AI 网关都有相关的 plugin 可以满足对应的需求。

同时 Kong AI 网关也有基于 token 的限流限速插件,当然 Kong 也有类似 Bot Detection 之类的 Plugin,我们维护了一套规则集合,同时也允许用户对该规则进行扩展,以此来防范一些爬虫的大量抓取请求。

当然,网络的攻防本就是此消彼长的一个过程,有时候我们也需要借助一些其他的手段才能更好的进行拦截,所以 Kong 也有很多合作方,同时 Kong 也有很好的扩展能力,这样就可以更加灵活的来满足客户的具体需求了。

InfoQ: AI 工程通常涉及大量 API 调用,Kong 是否支持动态限流和访问控制?这些功能如何帮助企业优化 API 使用?

戴冠兰: 是的,Kong AI 网关支持动态的限流限速和访问控制。比如通过使用 Kong AI 网关的访问控制能力,用户可以为不同的应用分配各自专有的密钥,并将限流能力附加到这些专有密钥上,通过 Kong AI 网关提供的可观测能力,企业就可以更好的了解到不同的应用对于 LLM token 的消耗情况,当然可观测性也不仅仅是针对 LLM 而言的,对于一般的 API 请求, Kong 同样也提供了完备的可观测能力,让企业可以对这些 API 的调用情况有非常直观的了解,进而进行相对应的控制和处理。

InfoQ: Kong 如何帮助企业优化 LLM API 的调用成本和提升性能?你认为通过网关来管理 API 调用能够为企业节省多少成本?

戴冠兰:Kong AI 网关主要通过保护企业免受密钥泄露,或者超量调用等方面来尽可能的避免企业遭受损失。并且通过提供语义化缓存和可观测性来优化成本提升性能。

此外,由于通过 Kong AI 网关屏蔽了不同 LLM provider 的差异性,使得企业在开发 LLM 应用的过程中可以节约时间提升效率,以此来帮助企业节省成本。

InfoQ: Kong 产品在支持 LLM/AI 应用方面还有哪些特别的设计或新能力?这些功能的演进逻辑是什么?

戴冠兰: 我来介绍一个我们的最新功能, AutoRAG 这个功能可以减少 LLM 幻觉,并且可以提升开发者的体验。通过 Kong AI 网关的 AutoRAG ,企业客户可以直接将自己的内容信息交给 Kong AI 网关处理,以此来自动的构建一个 RAG 应用,整体流程相比于使用 Kong AI 网关之前,会简化很多,能大大提升效率。

Kong AI Gateay 功能的整体演进逻辑,一方面来自于我们的全球客户,不同行业的客户会有不同的需求,我们需要持续满足用户的需求。另一方面来自于我们强力的产品和工程团队,我们可以积极的发现和了解技术趋势,并且将其转换为真正的产品功能。

Kong 的发展和未来展望

InfoQ:Kong 从最初专注 API 网关起步,如今在 AI 工程领域有哪些新的布局和投入?

戴冠兰:Kong 自成立以来一直专注于 API 管理领域,AI 时代下,尽管和之前存在一些差异,但终究还是 以 API 作为核心。随着 AI 技术的迅猛发展,我们顺势推出了 Kong AI 网关,旨在为 AI 应用提供强大的基础设施支持。

Kong AI 网关的核心优势:

  1. 多模型支持与无代码集成: Kong AI 网关支持多种大型语言模型(LLM),包括 OpenAI、Anthropic、Cohere、Mistral 和 LLaMA 等。通过无代码插件,开发者可以轻松集成这些模型,加速 AI 功能的部署。
  2. 高级提示工程与安全控制: 我们提供了丰富的插件,如 AI 提示模板、提示装饰器和提示词防火墙,帮助开发者构建更安全、可控的 AI 应用,确保提示的合规性和一致性。
  3. 精细化资源管理: 引入基于 token 的限流机制,使企业能够更精确地管理和控制 AI 请求的资源消耗,优化成本结构。
  4. 流式响应与动态路由: 支持流式数据传输,提升用户交互体验;同时,基于 URL 的动态模型选择功能,使得在不同场景下灵活调用合适的模型成为可能。
  5. 与现有工具的无缝集成: Kong AI 网关与 OpenAI SDK 完全兼容,开发者可以无需修改现有代码,直接接入多种 LLM,简化了迁移和集成过程。

通过 Kong AI 网关,我们致力于为企业提供一个稳定、高效、安全的 AI 应用基础设施,助力客户在 AI 时代实现更快的创新和增长。

InfoQ:在你看来,Kong 在未来 AI 基础设施栈中最具战略意义的产品或能力是什么?为什么?

戴冠兰: 我们将与 AI 相关的核心能力高度集成在 Kong AI 网关中。无论是当前热门的 MCP 协议,还是 Google 推出的 A2A 标准,都将在这一平台上得到全面支持和体现。

很难定义哪一项能力最具战略意义,一方面是因为 AI 技术迭代极快,新标准和新需求层出不穷;另一方面,不同行业和企业的 AI 应用场景高度多样化,对能力的侧重也有所不同。

因此,与其强调某一个具体功能,我们更看重的是 Kong AI 网关提供的可扩展性、开放性与演进能力 —— 这是在一个高速演变、标准未定的领域中,真正具备长期战略价值的能力。

InfoQ:Kong 网关在中国市场的应用情况如何?有没有一些本地化调整?

戴冠兰:Kong 在中国市场的应用呈现出强劲的增长势头,尤其是在开源社区的推动下,已成为众多企业的技术基石。根据 Kong 官方数据,其全球开源社区用户超过 16 万人,覆盖 46 个国家的 80 个用户组。在中国,Kong 社区的活跃度位居全球第二,显示出其在本地开发者中的广泛认可。

Kong 与本地云服务提供商和技术合作伙伴建立了紧密的合作关系,共同推动产品在中国市场的应用和发展。针对中国市场的特殊需求,在出海和国际公司在国内落地的场景,Kong 持续优化产品功能,增强对这些场景的支持。

InfoQ:如何看待 AI 网关的未来发展,有哪些计划来增强其在 AI 时代的竞争力?

戴冠兰:AI 网关正迅速成为大模型(LLM)和生成式 AI 系统中的关键基础设施。它不仅统一了流量入口,还在安全、合规、性能和可观察性方面提供了核心能力。Kong 正在积极推动这一演进,致力于打造一个高性能、可扩展且面向未来的 AI 网关平台。

增强竞争力的计划:

  • 持续扩展模型支持:Kong 将根据用户需求,持续增加对更多 LLM 的支持,包括最新的 Claude 3.7 等,确保平台的前瞻性和兼容性。
  • 更多语义智能驱动的功能:在 3.8 版本中,Kong 引入了语义缓存(Semantic Caching)和语义路由(Semantic Routing)等功能。这些功能通过理解用户请求的语义含义,实现更高效的响应和更智能的模型选择,提升了 AI 应用的性能和用户体验
  • 优化开发者体验:推出如 Insomnia AI Runner 等工具,简化 AI 应用的开发、测试和部署流程,降低技术门槛,提升开发效率。
  • 强化生态系统建设:通过开源社区的推动和与本地合作伙伴的协作,Kong 致力于构建一个开放、协同的 AI 网关生态系统,促进技术创新和应用落地。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-05-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 InfoQ 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一文读懂如何基于 Traefik AI 网关构建高性能微服务架构
Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 基于 Traefik AI 网关构建高效、灵活的微服务架构。
Luga Lee
2024/12/23
1530
一文读懂如何基于 Traefik AI 网关构建高性能微服务架构
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。
JackJiang
2025/05/22
290
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
B站基于微服务的API网关从0到1的演进之路
如果你在 2015 年就使用 B 站,那么你一定不会忘记那一年 B 站工作日选择性崩溃,周末必然性崩溃的一段时间。
JackJiang
2022/06/14
1K0
B站基于微服务的API网关从0到1的演进之路
微服务网关方案:Kong & Nacos
文章连接:https://mp.weixin.qq.com/s/Kk6Cl7n0sFGgCyyZtExa6A
程序员架构进阶
2021/04/14
2.1K0
微服务网关方案:Kong & Nacos
微服务网关方案:Kong & Nacos
前面我们介绍了 Spring Cloud 体系下的网关 Gateway(Zuul)。事实上,还有很多开源且广泛应用的网关方案,例如 Kong 和 Nacos。本篇将先介绍这两种网关,包括架构和主要原理,并给出集中网关方案的对比。
程序员架构进阶
2021/04/15
2.5K0
微服务网关系列:为什么需要API网关
微服务是指开发应用所用的一种架构形式。具体表现是将大型应用分解成多个独立的服务,以API形式对外提供服务。
AIOPS
2023/11/01
4920
微服务中网关(API Gateway)的技术选型
用 Spring Cloud 微服务实战中,大家都知道用 Zuul 作为智能网关。API 网关(API Gateway)主要负责服务请求路由、组合及协议转换。下面是大家的总结:
天涯泪小武
2019/06/26
7.6K0
万字讲解API网关的来龙去脉
今天准备再详细讲解下 API 网关的基础概念,使用场景和核心功能,以及基于 API 网关核心引擎做的 API 全生命周期管理功能扩展等,最好再介绍下当前主流的开源 API 网关引擎。
好好学java
2020/09/15
1.7K0
万字讲解API网关的来龙去脉
微服务架构开发实战:API网关意义和常见API网关的实现方式
API网关定位为应用系统服务接口的网关,区别于网络技术的网关,但是原理是一样的。API网关统一服务入口,可方便实现对平台众多服务接口进行管控,如对访问服务的身份认证、防报文重放与防数据篡改、功能调用的业务鉴权,以及响应数据的脱敏、流量与并发控制,甚至基于API调用的计量或计费等。
愿天堂没有BUG
2022/10/28
1.6K0
微服务架构开发实战:API网关意义和常见API网关的实现方式
微服务系列:通过Kong网关给API加Key鉴权
上篇文章讲了通过Kong网关给API限流,这篇文章我们就讲讲API的另一个特性:鉴权。
AIOPS
2023/11/14
1.6K1
AI TALK | 云原生时代的微服务架构与关键技术
随着云原生与微服务技术的逐步发展,业界也逐步构建出一整套比较完整的微服务技术体系。 面向云原生时代,微服务架构是从业人员绕不开的一个话题,腾讯云AI&腾讯优图的内容风控安全审核能力也与微服务技术息息相关。 本文总结了业内最新的技术沉淀,从相对宏观的角度去讲述微服务的问题域与挑战点,并深入细节讲述一些微服务关键技术,包括微服务拆分微服务间通信机制,分布式事务微服务,可观测安全性等。 目前微服务还在不断发展中,有很多技术还未发展到成熟阶段,希望本文能够帮助大家拥有基本的了解。 01.什么是云原生 上图是CNC
腾讯云TI平台
2022/02/17
9270
AI 网关对决:Higress 与 OneAPI 的功能对比
AI 网关旨在统一管理与各种大型语言模型(LLMs)的交互。通过提供单一入口点,它解决了使用来自不同供应商的多个 AI 模型所带来的复杂性问题。这不仅简化了访问流程,提高了系统稳定性,还降低了成本,并灵活地利用了不同模型的优势。
Se7en258
2025/05/21
1040
AI 网关对决:Higress 与 OneAPI 的功能对比
微服务网关Kong系列文章之一:简介
当使用单体应用程序架构时,客户端(Web 或移动端)通过向后端应用程序发起一次 REST 调用来获取数据。负载均衡器将请求路由给 N 个相同的应用程序实例中的一个。然后应用程序会查询各种数据库表,并将响应返回给客户端。微服务架构下,单体应用被切割成多个微服务,如果将所有的微服务直接对外暴露,势必会出现安全方面的各种问题。
mervinwang
2021/01/15
9590
微服务网关Kong系列文章之一:简介
对比微服务网关 Kong 和 Apisix
网关,就是指一个流量的集中式出入口。而 API Gateway,顾名思义,就是在 Gateway 上再添加了一些 API 相关的功能后得到的东西。 具体而言,API Gateway 就是比普通的网关多干了一些以前我们在应用内部实现的事:身份认证,权限控制,基于来源的流量控制,日志服务等,甚至是直接在第七层魔改 HTTP 请求的内容。好处有:
Kunkka Wu
2022/01/13
4.5K0
微服务架构基础之API网关
在微服务架构中,API网关是核心的基础服务之一。在微服务流行之前,API网关已经在很多架构中扮演重要的角色,尤其是开放平台,此时的API网关是系统的统一入口,肩负了很多的业务责任,比如限流,计费等功能。而在微服务架构中,API网关可能往往需要兼顾内部和外部的所有微服务,承担更多的职责。
全栈程序员站长
2022/06/29
4540
主流云原生微服务API网关成熟度与安全功能对比分析
在整个微服务架构中,API网关充当着非常重要的一环,它不仅要负责外部所有的流量接入,同时还要在网关入口处根据不同类型请求提供流量控制、日志收集、性能分析、速率限制、熔断、重试等细粒度的控制行为。API网关一方面将外部访问与微服务进行了隔离,保障了后台微服务的安全,另一方面也节省了后端服务的开发成本,有益于进行应用层面的扩展。与此同时,API网关也应具备解决外界访问带来的安全问题,例如TLS加密、数据丢失、跨域访问、认证授权、访问控制等。本文尝试分析目前主流的云原生微服务API网关成熟度以及各自具备的安全功能,并比较各自带来的优劣,尤其在安全层面上,开源软件都做了哪些工作,是否全面,若不全面我们又该如何弥补。
绿盟科技研究通讯
2020/01/02
3.1K0
又肝了下微服务 API 网关“金刚”,也是蛮香的~
Kong 是由 Mashape 公司开源的云原生、高性能、可扩展的微服务 API 网关。它基于 OpenResty 实现,使用 Cassandra 或 PostgreSQL 存储数据。
芋道源码
2020/06/16
2K0
又肝了下微服务 API 网关“金刚”,也是蛮香的~
微服务架构中的 API 网关模式:一个详尽的指南
在当今的软件开发领域,微服务架构已经成为主流。与传统的单体架构相比,微服务架构通过将应用程序拆分成多个独立的小服务,每个服务专注于单一功能,极大地提升了系统的可扩展性和可维护性。然而,随着微服务数量的增加,管理这些服务之间的通信和协调变得越来越复杂。为了简化这一过程,引入了API网关模式。
Michel_Rolle
2024/08/20
2.8K0
API 网关的功能用途及实现方式
API 经济生态链已经在全球范围覆盖, 绝大多数企业都已经走在数字化转型的道路上,API 成为企业连接业务的核心载体, 并产生巨大的盈利空间。快速增长的 API 规模以及调用量,使得企业 IT 在架构上、模式上面临着更多的挑战。
东风微鸣
2022/04/22
1.6K0
API 网关的功能用途及实现方式
深入Java微服务之网关系列1:什么是网关
近来,在想着重构一个新的产品。准备采用微服务的技术解决方案,来搭建基础设施框架。网关,是一个必不可少的组件。那么,网关到底是什么?
程序员黄小斜
2022/02/13
6930
推荐阅读
相关推荐
一文读懂如何基于 Traefik AI 网关构建高性能微服务架构
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档