首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Yelp 故障转移策略的实现

作者 | Yelp 工程团队 译者 | 王强 策划 | Tina 讲述 Yelp 工程师如何协调其流量故障转移流程,并在可靠性、性能和成本效率之间实现微妙平衡的故事。...这篇文章讲述的就是 Yelp 的生产工程和计算基础架构团队如何实现故障转移策略,在可靠性、性能和成本效率之间找到平衡的故事。 什么是流量故障转移?...为了实现这一策略,我们必须为容器安排正确的大小,容器还要从计算平台申请正确的资源数量。在一个面向服务的架构中,开发人员直接负责其服务的配置。...但是,Yelp 的大多数团队都不具备所有这些知识。...Dorothy Jung 是 Yelp 的工程经理。她在 LISA 和 SREcon 上介绍了很多可靠性最佳实践。Qui Nguyen 是 Yelp 的高级工程师兼技术主管。

43120

案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 2 部分 - 迁移)

本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 2 - Migration)[1]作者:Lennart Rudolph...我们不需要寻找 ELB 的替代品,因为 PaaSTA 通过 Yelp 的服务网格提供了原生的负载平衡能力,这使得在组成集群的 Kubernetes 容器上发布 Kafka 变得简单。...为了了解更多情况,在 Yelp,我们使用一组kafka_discovery文件(由 Puppet 生成),其中包含每个集群的引导服务器、ZooKeeper[3] chroot 和其他元数据的信息。...这是通过将 ASG 的大小从 N 缩小到 0 ,并在我们的配置文件中删除对旧 EC2 ELB 的引用来实现的。.../schematizer [5] Monk: https://engineeringblog.yelp.com/2020/01/streams-and-monk-how-yelp-approaches-kafka-in

1K40
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    案例分享 | Yelp 如何在 Kubernetes 上运行 Kafka(第 1 部分 - 架构)

    本文译自 Kafka on PaaSTA: Running Kafka on Kubernetes at Yelp (Part 1 - Architecture)[1]。...作者:Lennart Rudolph 在 YelpKafka 每天接收数百亿条消息来推进数据驱动并为关键业务管道和服务提供支持。...我们最近通过在 PaaSTA (Yelp 自己的平台即服务)上运行集群,对 Kafka 部署架构进行一些改进。...这些 API 可替代我们之前的临时生命周期管理实现,我们使用 EC2 支持的代理来执行条件性再平衡操作或与 SNS 和 SQS 等 AWS 资源进行互动,将这些整合到一项服务中帮助简化生命周期管理栈。...引用链接 [1] 原文链接: https://engineeringblog.yelp.com/2021/12/kafka-on-paasta-part-one.html

    58220

    Salesforce连接器在Yelp中的应用案例

    Salesforce数据管道集成方法 转换器(Transformer) 我们采用了一个名为PaaStorm的、在Yelp Hackathon上产生的并且已经应用到生产环境的项目作为我们的Kafka-to-Kafka...所以我们工作的重点就是要减少做操作时的处理量。把这样的处理尽可能地挪到异步处理的过程中,就可以减少我们锁定单条记录的时间,也就减少了每条操作的处理时间。 另一个要解决的问题是依赖关系。...我们本来的数据源(MySQL)有限制依赖,而Kafka并没有。虽然写到每个Kafka Topic中的消息都是保证有序的,但是我们并不能保证这些Topic中的数据会以某个确定的速度被处理。...结论 使用基于Kafka的数据管道来为销售团队获取数据,我们已经在这方面取得了很大改进。...接下来我们准备构建自己的基础架构,这样就可以实现其他的转换操作、简单的聚合、以及在Salesforce的高可靠保障等等功能。

    1.1K20

    kafka 连接器实现 Mysql 数据同步 Elasticsearch

    Elasticsearch 底层基于 Lucense 实现,天然分布式,采用倒排索引存储数据,全文检索效率很高,使用 Elasticsearch 存储业务数据可以很好的解决我们业务中的搜索需求。...如图,Mysql 到 ES 的同步策略,采取“曲线救国”机制。 步骤1:基 Debezium 的binlog 机制,将 Mysql 数据同步到Kafka。...MySQL 配置 开启 binlog Debezium 使用 MySQL 的 binlog 机制实现数据动态变化监测,所以需要 Mysql 提前配置 binlog。...mysql> insert into student values('tom',18),('jack',19),('lisa',18); 使用 Debezium 同步 MySQL 数据到 Kafka...-s | jq [ "mysql-connector" ] 查看连接器实例运行状态: [root@kafka1 connect]# curl http://kafka1:8083/connectors

    2.4K40

    基于 Kafka 与 Debezium 构建实时数据同步

    (往往会先迁移读操作到新表,这时就要求旧表的操作必须准实时地同步到新表) 典型的解决方案有两种: 双(dual write): 即所有写入操作同时写入旧表和新表,这种方式可以完全控制应用代码如何数据库...开源方案对比 在设计阶段,我们调研对比了多个开源解决方案: databus: Linkedin 的分布式数据变更抓取系统; Yelp’s data pipeline: Yelp 的数据管道; Otter...Yelp’s data pipeline 是一个大而全的解决方案。...它使用 Mysql-Streamer(一个通过 binlog 实现MySQL CDC 模块)将所有的数据库变更写入 Kafka,并提供了 Schematizer 这样的 Schema 注册中心和定制化的...MySQL 的事务日志称为 binlog,常见的 MySQL 主从同步就是使用 Binlog 实现的: 我们把 Slave 替换成 CDC 模块,CDC 模块模拟 MySQL Slave 的交互协议,

    2.4K30

    MySQL马详解

    文章首发于奇安信攻防社区 https://forum.butian.net/share/362 一.日志马 1.1条件 1.全局变量general_log为ON MySQL的两个全局变量: general_log...set global general_log='on'; 打开过后,日志文件中就会记录我们的sql语句。...) 3.对web目录有权限MS的系统就不说了,一般都会有权限的,但是linux的系统,通常都是rwxr-xr-x,也就是说组跟其他用户都没有权限操作。...>;都可以了,因为sql语句不管对错日志都会记录 1.3过程 这里展示下堆叠注入的日志马过程,用的是sqli-labs的靶场: 实战中堆叠注入来日志马就不能用show来看全局变量的值了,所以就直接用...) 2.对web目录有权限MS的系统就不说了,一般都会有权限的,但是linux的系统,通常都是rwxr-xr-x,也就是说组跟其他用户都没有权限操作。

    1.1K10

    kafka并发大消息TimeoutException排查记录

    前言 先简单介绍下我们的使用场景,线上5台Broker节点的kafka承接了所有binlog订阅的数据,用于Flink组件接收数据做数据中台的原始数据。...kafka-producer-network-thread | producer-1 throwable: org.apache.kafka.common.errors.TimeoutException...后面查找相关的错误日志,发现所有的TimeoutException集中在几乎同一时刻,经查明,是因为业务批量导入了数据到mysql中,造成binlog消息突然增加,高并发的往kafka大消息导致Borker...反观kafka client的这条TimeoutException就显的信息量有点过少了,如果能把相关的配置信息和排查的方向写明会更好。...最后安利一波kafka test,轻松搭建多Borker的kafka集群,一个注解就ok了。详情参考我的这篇博文《spring boot集成kafka之spring-kafka深入探秘》

    81210

    logstash_output_kafka:Mysql同步Kafka深入详解

    0、题记 实际业务场景中,会遇到基础数据存在Mysql中,实时写入数据量比较大的情景。迁移至kafka是一种比较好的业务选型方案。 ?...而mysql写入kafka的选型方案有: 方案一:logstash_output_kafka 插件。 方案二:kafka_connector。 方案三:debezium 插件。 方案四:flume。...其中:debezium和flume是基于mysql binlog实现的。 如果需要同步历史全量数据+实时更新数据,建议使用logstash。...1、logstash同步原理 常用的logstash的插件是:logstash_input_jdbc实现关系型数据库到Elasticsearch等的同步。...详细的filter demo参考:http://t.cn/EaAt4zP 2、同步Mysqlkafka配置参考 input { jdbc { jdbc_connection_string

    2.9K30
    领券