Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >GaussDB(for MySQL) HTAP VS ClickHouse对比测试

GaussDB(for MySQL) HTAP VS ClickHouse对比测试

作者头像
数据和云
发布于 2022-03-20 14:40:51
发布于 2022-03-20 14:40:51
1.6K00
代码可运行
举报
文章被收录于专栏:数据和云数据和云
运行总次数:0
代码可运行

一.什么是HTAP

HTAP数据库(Hybrid Transaction and Analytical Process,混合事务和分析处理)。2014年Gartner的一份报告中使用混合事务分析处理(HTAP)一词描述新型的应用程序框架,以打破OLTPOLAP之间的隔阂,既可以应用于事务型数据库场景,亦可以应用于分析型数据库场景。实现实时业务决策。这种架构具有显而易见的优势:不但避免了繁琐且昂贵的ETL操作,而且可以更快地对最新数据进行分析。这种快速分析数据的能力将成为未来企业的核心竞争力之一。

如图:图片来源于网络

再简单介绍一下OLAP和OLTP的概念与特点。

OLAP(On-Line Analytical Processing),OLAP是面向数据分析的,也称为面向信息分析处理过程。它使分析人员能够迅速、一致、交互地从各个方面观察信息,以达到深入理解数据的目的。其特征是应对海量数据,支持复杂的分析操作,侧重决策支持,并且提供直观易懂的查询结果。例如数据仓库是其典型的OLAP系统。其具备以下特点:

  • 本身不产生数据,其基础数据来源于生产系统中的操作数据。
  • 基于查询的分析系统,复杂查询经常使用多表联结、全表扫描等,牵涉的数量往往十分庞大。
  • 每次查询设计的数据量很大,响应时间与具体查询有很大关系。
  • 用户数量相对较小,其用户主要是业务人员与管理人员。
  • 由于业务问题不固定,数据库的各种操作不能完全基于索引进行。
  • 以SQL为主要载体,也支持语言类交互。
  • 总体数据量相对较大。

OLTP(On-Line Transaction Processing),OLTP是事件驱动、面向应用的,也称为面向交易的处理过程。其基本特征是前台接收的用户数据可以立即传送到计算中心进行处理,并在很短的时间内给出处理结果,是对用户操作的快速响应。例如银行类、电子商务类的交易系统就是典型的OLTP系统。其具备以下特点:

  • 直接面向应用,数据在系统中产生。
  • 基于交易的处理系统。
  • 每次交易牵涉的数据量很小;对响应时间要求非常高。
  • 用户数量非常庞大,其用户是操作人员,并发度很高。
  • 数据库的各种操作主要基于索引进行。
  • 以SQL作为交互载体。
  • 总体数据量相对较小。

二.GaussDB(for MySQL)只读分析特性

华为云近期推出了GaussDB(for MySQL)只读分析特性,当前处于邀请测试阶段,墨天轮社区受邀对部分特性做了测试,并选取当下最热门的分析型数据库——ClickHouse来做比较分析。

ClickHouse拥有强大极致的性能,但是在实践生产过程中仍然面临一些问题,在我们的测试中,GaussDB(for MySQL)的HTAP只读分析节点有更好的用户体验,同时还解决了用户在使用过程中的一些痛点。

HTAP只读分析节点在已有的GaussDB(for MySQL)数据库上可以创建对应的同步链路,把数据抽取到HTAP只读分析节点,数据分析是在HTAP只读分析节点中操作完成。在数据同步过程中,HTAP只读分析节点先做一次全量同步,完成后,后续的数据是以增量的方式同步。

三.使用测试

  • 3.1 测试环境

源库: GaussDB(for MySQL) 目标库: GaussDB(for MySQL)只读分析,自建ClickHouse。

  • 3.2 测试数据同步

3.2.1 全量同步

GaussDB(for MySQL) 3.3亿数据,5张表全量同步到GaussDB(for MySQL)只读分析实例,通过界面化操作。

test_primary 是空表。

源库数据量:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> select   count(1) from lineitem;+-----------+| count(1)  |+-----------+| 300000000 |+-----------+1 row in set (53.32 sec)
mysql> select count(1) from lineitem_2;+----------+| count(1) |+----------+|  7500000 |+----------+1 row in set (1.71 sec)lineitem_3,lineitem_4,lineitem_5 表数据为7500000

GaussDB(for MySQL)只读分析创建全量同步: 通过连上GaussDB(for MySQL)只读分析实例,马上可以看到有6张表了。可以说是并行同步的。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> show tables;+--------------+| name         |+--------------+| lineitem     || lineitem_2   || lineitem_3   || lineitem_4   || lineitem_5   || test_primary |+--------------+6 rows in set (0.01 sec)Read 6 rows, 192.00 B in 0.001041072 sec., 5763 rows/sec., 180.10 KiB/sec.mysql> select count(1) from lineitem;+-----------+| count()   |+-----------+| 300000000 |+-----------+1 row in set (11.62 sec)Read 300000000 rows, 5.31 GiB in 11.608233926 sec., 25843724 rows/sec., 468.28 MiB/sec.

全量同步完成后,会显示增量同步中。

大概耗时6分钟,这个时间可以通过监控界面估算,并没有详细的日志记录同步时间。

GaussDB(for MySQL) 3.3亿数据全量同步到自建ClickHouse实例:

开启MaterializeMySQL引擎使用:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) SET allow_experimental_database_materialize_mysql = 1;SET allow_experimental_database_materialize_mysql = 1Ok.0 rows in set. Elapsed: 0.000 sec.

设置ClickHouse内存使用为25G:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) SET max_memory_usage = 26843545600;SET max_memory_usage = 26843545600Ok.

创建复制管道:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
CREATE DATABASE tpchENGINE = MaterializeMySQL('192.168.0.193:3306','tpch','root','xxxxxxxxx');

通过show tables观察,ClickHouse是同步完一张表,再同步下一张表:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) show tables;
SHOW TABLES
┌─name───────┐│ lineitem   ││ lineitem_4 │└────────────┘
2 rows in set. Elapsed: 0.001 sec.
SHOW TABLES
┌─name─────────┐│ lineitem     ││ lineitem_2   ││ lineitem_3   ││ lineitem_4   ││ lineitem_5   ││ test_primary │└──────────────┘
6 rows in set. Elapsed: 0.001 sec.
ecs-bd1c : ) select count(1) from lineitem;
SELECT count(1)FROM lineitem
┌──count(1)─┐│ 300000000 │└───────────┘全量同步完成,大概耗时11分钟。

3.2.2 无主键表不能同步

在源端MySQL建表:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> create table test_unique (id int unique key not null, c0 varchar(10));Query OK, 0 rows affected (0.05 sec)
Query OK, 0 rows affected (0.01 sec)ClickHouse端不能同步,会报错。
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Received exception from server (version 20.9.2):Code: 48. DB::Exception: Received from localhost:9000. DB::Exception: The tpch.test_unique cannot be materialized, because there is no primary keys..

3.2.3 表过滤

表名单过滤功能,ClickHouse的MaterializeMySQL引擎不支持。

3.2.4 容错性

ClickHouse 的MaterializeMySQL有些数据类型不支持,导致整个同步失败。

GaussDB(for MySQL)只读分析实例同步容错性有增强,如下操作:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> use tpccDatabase changed, 1 warningmysql> select * from test_2;+------+-------+| id   | c1    |+------+-------+|    1 | 15.20 |+------+-------+1 row in set (0.00 sec)Read 1 rows, 21.00 B in 0.001468243 sec., 681 rows/sec., 13.97 KiB/sec.

3.2.5 自定义分区键

GaussDB(for MySQL)只读分析实例可以自定义设置分区键,ClickHouse默认会使用主键进行分区(不可控)。

  • 3.3 测试事务一致性

ClickHouse不支持事务。GaussDB(for MySQL)只读分析实例支持轻量事务,支持快照读。

在源库MySQL建表:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
set autocommit=0;create table test_1(user_id int primary key auto_increment, score varchar(50), deleted tinyint default 0, create_time datetime DEFaULT now());
drop procedure add_data;delimiter $$create procedure add_data(in maxnum int)begindeclare i int default 0;declare s varchar(50);
while (i < maxnum) doselect concat(rpad("a",i%50,"x")) into s;insert into test_1(score,deleted)values(s,0);set i=i+1;end while;end $$delimiter ;call add_data(1000000);commit;ClickHouse端数据只有01000000
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) select count(*) from test_1;
SELECT count(*)FROM test_1
┌─count()─┐│ 1000000 │└─────────┘
1 rows in set. Elapsed: 0.015 sec. Processed 1.00 million rows, 13.00 MB (68.52 million rows/s., 890.71 MB/s.)
ecs-bd1c : )GaussDB(for MySQL)只读分析实例端:
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> select count(*) from test_1;+---------+| count() |+---------+| 1000000 |+---------+1 row in set (0.04 sec)Read 1000000 rows, 14.31 MiB in 0.046160647 sec., 21663474 rows/sec., 309.90 MiB/sec.
mysql> select count(*) from test_1 settings mvcc_isolation_level='query_snapshot';+---------+| count() |+---------+| 1000000 |+---------+1 row in set (0.00 sec)Read 1000000 rows, 2.86 MiB in 0.002436235 sec., 410469433 rows/sec., 1.15 GiB/sec.
mysql> select count(*) from test_1 settings mvcc_isolation_level='read_uncommitted';+---------+| count() |+---------+| 1000000 |+---------+1 row in set (0.05 sec)Read 1000000 rows, 14.31 MiB in 0.051543554 sec., 19401068 rows/sec., 277.53 MiB/sec.
mysql> select count(*) from test_1 settings mvcc_isolation_level='read_committed';+---------+| count() |+---------+| 1000000 |+---------+1 row in set (0.05 sec)Read 1000000 rows, 14.31 MiB in 0.045507899 sec., 21974207 rows/sec., 314.34 MiB/sec.

当源端MySQL再写入300笔数据时,

ClickHouse端:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) select count(*) from test_1;
SELECT count(*)FROM test_1
┌─count()─┐│ 1000300 │└─────────┘
1 rows in set. Elapsed: 0.015 sec. Processed 1.00 million rows, 13.00 MB (65.88 million rows/s., 856.40 MB/s.)GaussDB(for MySQL)只读分析实例端:
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> select count(*) from test_1 settings mvcc_isolation_level='query_snapshot';+---------+| count() |+---------+| 1000000 |+---------+1 row in set (0.01 sec)Read 1000000 rows, 2.86 MiB in 0.002786347 sec., 358892844 rows/sec., 1.00 GiB/sec.
mysql> select count(*) from test_1;+---------+| count() |+---------+| 1000300 |+---------+1 row in set (0.05 sec)
  • 3.4 复制状态监控

GaussDB(for MySQL)只读分析可以查看复制状态:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> show slave status;+----------+-----------------------+---------------------+-------------+------------+------------+-----------------+---------------------+--------------------------------------------+| database | seconds_behind_master | sync_thread_running | sync_phase  | last_errno | last_error | master_log_file | read_master_log_pos | executed_gtid_set                          |+----------+-----------------------+---------------------+-------------+------------+------------+-----------------+---------------------+--------------------------------------------+| tpcc     |                     0 | Yes                 | Incremental |          0 | Null       | binlog.000022   |                1354 | 28bae983-a195-11ec-8c47-fa163e9fdcda:1-118 || tpch     |                     0 | Yes                 | Incremental |          0 | Null       | binlog.000022   |                1354 | 28bae983-a195-11ec-8c47-fa163e9fdcda:1-118 |+----------+-----------------------+---------------------+-------------+------------+------------+-----------------+---------------------+--------------------------------------------+2 rows in set (0.01 sec)Read 2 rows, 260.00 B in 0.002712043 sec., 737 rows/sec., 93.62 KiB/sec.

ClickHouse不支持。

  • 3.5 重连机制

在全量同步的过程中,如果MySQL重启或网络突然断开,ClickHouse不会自动重连,GaussDB(for MySQL)只读分析可以自动重连。

ClickHouse在同步的过程中,MySQL重启后,同步链路中断,不能重连。如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) select count(*) from lineitem;
SELECT count(*)FROM lineitem

Received exception from server (version 20.9.2):Code: 1000. DB::Exception: Received from localhost:9000. DB::Exception: mysqlxx::ConnectionFailed: Can't connect to MySQL server on '192.168.0.184' (115) ((nullptr):0).0 rows in set. Elapsed: 0.001 sec.源MySQL实例重启后,GaussDB(for MySQL)只读分析实例通过查未提交快照数据,发现数据在增长,如下:
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql> select count(*) from lineitem  settings mvcc_isolation_level='read_uncommitted';+----------+| count()  |+----------+| 86284503 |+----------+1 row in set (2.70 sec)Read 86284503 rows, 1.53 GiB in 2.698228425 sec., 31978205 rows/sec., 579.44 MiB/sec.
mysql> select count(*) from lineitem  settings mvcc_isolation_level='read_uncommitted';+-----------+| count()   |+-----------+| 121985263 |+-----------+1 row in set (3.99 sec)Read 121985263 rows, 2.16 GiB in 3.988048546 sec., 30587707 rows/sec., 554.24 MiB/sec.
  • 3.6 表同步

ClickHouse创建的一个新同步,会把源端的所有表去做同步,不能做过滤处理。

源端MySQL tpcc库中只有一张表test_2.

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
CREATE DATABASE tpccENGINE = MaterializeMySQL('192.168.0.193:3306','tpch','root','xxxxxxxxx');再到ClickHouse下去查看,他会把tpch库所有表也同步。
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ecs-bd1c : ) use tpcc
USE tpcc
Ok.
0 rows in set. Elapsed: 0.000 sec.
ecs-bd1c : ) show tables;
SHOW TABLES
┌─name───────┐│ lineitem   ││ lineitem_4 │└────────────┘
2 rows in set. Elapsed: 0.001 sec.
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
GaussDB(for MySQL)只读分析创建tpcc库的表可以选取过滤。如下图:

四.测试总结

通过以上评测对比可以看出:

在数据同步方面,GaussDB(for MySQL)只读分析的性能更好。即使是在硬件配置是GaussDB(for MySQL)只读分析实例2倍的情况下,自建ClickHouse同步3.3亿数据所需要的时间是GaussDB(for MySQL)只读分析实例的2倍。而且相比较ClickHouse,GaussDB(for MySQL)只读实例支持以下特性:

  • 表同步设置:可以根据需要自主定义分区键(partition by(<非空列>))和排序键(order by(<非空列>)等等。
  • 支持MySQL表仅包含Unique Key的复制。
  • 支持黑白名单,允许过滤目标库中的部分表。
  • 支持并行复制,相比较ClickHouse的全量数据同步串行执行,在数据量打的情况下耗时较短。
  • 支持更多数据类型,容错性增强。

另外,GaussDB(for MySQL)只读分析还支持事务一致性,提供轻量级MVCC,并且对Final操作进行优化,提供基于快照的优越查询性能。

GaussDB(for MySQL)只读分析具备良好的复制链路监控,能够检测复制链路状态。且在全量复制过程中,如果遭遇MySQL重启,支持断开重连。

很期待GaussDB(for MySQL)只读分析特性上线商用。


墨天轮原文链接:https://www.modb.pro/db/374776?sjhy(复制到浏览器或者点击“阅读原文”立即查看)

关于作者 黄江平,云和恩墨MySQL DBA, Oracle OCP。现服务于金融证券行业,负责MySQL数据库SQL优化、数据库故障处理、备份恢复、迁级升级、性能优化,有10年的数据库运维经验。

END

推荐阅读:331页!2021年度数据库技术年刊

推荐下载:2021数据技术嘉年华视频回放及PPT下载

2021数据技术嘉年华50余个PPT下载、视频回放已上传墨天轮平台,可在“数据和云”公众号回复关键词“2021DTC”获得!

你知道吗?我们的视频号里已经发布了很多有趣的内容,精彩活动也将在这里直播,快快关注吧!↓↓↓

点击下图查看更多 ↓

云和恩墨大讲堂 | 一个分享交流的地方

长按,识别二维码,加入万人交流社群

请备注:云和恩墨大讲堂

  点个“在看”

你的喜欢会被看到❤

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-03-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 数据和云 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
ClickHouse王炸功能即将来袭?
众所周知,MySQL 的用户群体很大,为了能够增强数据的实时性,很多解决方案会利用 binlog 将数据写入到 ClickHouse。
Nauu
2020/07/31
2.7K1
基于开源应用快速构建HTAP系统
企业里随着数据量的增加,以及日趋复杂的分析性业务需求,主要适用于OLTP场景的MySQL压力越来越大。多年前还能免费试用的infobright社区版也早就销声匿迹,infinidb被MariaDB收入囊中之后改头换面变成ColumnStore,但最近几年发展的平平淡淡,都不是理想的OLAP方案。
老叶茶馆
2021/01/12
9330
基于开源应用快速构建HTAP系统
分布式 | 浅谈 dble 引入 ClickHouse 的配置操作
我们知道, dble 是基于 MySQL 的⾼可扩展性的分布式中间件,而 MySQL 擅长的是联机事务处理(OLTP),那么面对越来越多的联机分析(OLAP)需求,MySQL 就显得有些捉襟见肘了。为了能够提供良好的联机分析(OLAP)能力,dble 在 3.22.01 版本提供了解决方案,可以在后端节点支持 ClickHouse ,借助 ClickHouse 的能力,提供强大的联机分析(OLAP)服务。
爱可生开源社区
2022/07/11
3520
GaussDB(for MySQL) NDP与PQ测试体验
GaussDB(for MySQL)发布了计算下推框架。针对数据密集型查询,将提取列、条件过滤、聚合运算等操作向下推送给GaussDB(for MySQL)的分布式存储层的多个节点并行执行。通过计算下推,提升并行处理能力,减少网络流量和计算节点的压力,提升查询处理执行效率。
数据和云
2021/12/06
9420
GaussDB(for MySQL) NDP与PQ测试体验
从 MySQL 到 ClickHouse 实时数据同步 —— MaterializeMySQL + Materialized View
本篇演示使用 ClickHouse 的 MaterializeMySQL 数据库引擎和物化视图,实时将 MySQL 库表中的数据同步到 ClickHouse 的库表中。相关软件版本如下:
用户1148526
2024/04/20
4.8K0
从 MySQL 到 ClickHouse 实时数据同步 —— MaterializeMySQL + Materialized View
快速上手 ClickHouse
希望通过简单的方式,来介绍新手如何一步一步上手 ClickHouse,如果你有潜在的数据分析的需求,但是不知道从哪里开始,那么希望本文能够帮助到你。
soulteary
2021/10/27
9780
clickhouse编译安装以及搭建mysql实时复制
由于clickhouse的发布比较频繁,目前版本为20.7 尚未支持与mysql同步,故编译了git上最新的版本 20200909--版本号为20.9。
老叶茶馆
2020/10/10
2.2K0
ClickHouse支持查询结果缓存啦
众所周知,OLAP 数据库相较于传统的 OLTP 数据库,QPS肯定是比不过的。所以为了提升QPS、提升查询性能会做一些额外的优化,比如:
Nauu
2023/09/02
1.8K0
ClickHouse支持查询结果缓存啦
大数据ClickHouse(五):数据库引擎介绍与实例演示
ClickHouse中支持在创建数据库时指定引擎,目前比较常用的两种引擎为默认引擎和MySQL数据库引擎。
Lansonli
2022/08/12
1.7K1
大数据ClickHouse(五):数据库引擎介绍与实例演示
ClickHouse 集群部署(不需要 Zookeeper)
(1)安装 ClickHouse Server 和 ClickHouse Client
用户1148526
2024/04/18
10.7K2
Clickhouse基础语法、数据类型、数据表引擎学习
2、默认情况下,ClickHouse使用的是原生的数据库引擎Ordinary(在此数据库下可以使用任意类型的表引擎,在绝大多数情况下都只需使用默认的数据库引擎)。当然也可以使用Lazy引擎和MySQL引擎,比如使用MySQL引擎,可以直接在ClickHouse中操作MySQL对应数据库中的表。假设MySQL中存在一个名为Clickhouse的数据库,可以使用下面的方式连接MySQL数据库。
别先生
2021/03/04
1.7K0
如何在ClickHouse中查看SQL执行计划
ClickHouse目前并没有直接提供EXPLAIN查询,但是借助后台的服务日志,也能变相实现EXPLAIN的功能。
Nauu
2020/03/26
7.5K0
使用ClickHouse分析COS清单和访问日志
针对上述的客户需求,我们通常可以通过COS清单和COS的访问日志来分析,但COS清单或者日志的量通常都是比较大的,需要通过一个比较好的工具来完成分析任务,这里介绍下如何通过ClickHouse,来原生的分析存储在COS上的清单和日志文件。
ictfox
2022/07/08
7520
ClickHouse数据库数据定义手记之不一般的DDL和DML
前提 前面一篇文章已经很详细地介绍了ClickHouse中每种数据类型的定义和基本使用,这篇文章会详细地介绍ClickHouse中的DDL和DML,很多操作区别于传统的DBMS,特别是代价巨大的DEL
Throwable
2020/12/29
2K0
初识ClickHouse——安装与入门
久闻 ClickHouse 大名,一直没有去详细了解。近期看了下 ClickHouse 相关文档,决定安装体验下。想了解 ClickHouse 的小伙伴可以一起跟着学习哦。本篇文章主要介绍 ClickHouse 安装方法及基础知识。
MySQL技术
2021/01/18
8940
ClickHouse单机部署以及从MySQL增量同步数据
随着数据量的上升,OLAP一直是被讨论的话题,虽然druid,kylin能够解决OLAP问题,但是druid,kylin也是需要和hadoop全家桶一起用的,异常的笨重,再说我也搞不定,那只能找我能搞定的技术。故引进clickhouse,关于clickhouse在17年本人就开始关注,并且写了一些入门的介绍,直到19年clickhouse功能慢慢的丰富才又慢慢的关注,并且编写了同步程序,把mysql数据实时同步到clickhouse,并且最终在线上使用起来。
用户1278550
2020/05/13
5.7K0
分布式 | 浅谈 dble 引入 ClickHouse 的配置操作
爱可生 dble 团队测试成员,主要负责 dble 需求测试,自动化编写和社区问题解答。热衷rua雍正。
爱可生开源社区
2022/09/26
3680
分布式 | 浅谈 dble 引入 ClickHouse 的配置操作
ClickHouse集群搭建(二)
在上一章我们已经完成ClickHouse分布式集群安装,也创建本地表和分布式表进行了测试,但是,假如停掉一个节点会发生神马情况?
java干货
2021/02/15
1.7K0
探索ClickHouse——使用Projection加速查询
在测试Projection之前,我们需要先创建一张表,并导入大量数据。 我们可以直接使用指令,从URL指向的文件中获取内容并导入表。但是担心网络不稳定,我们先将文件下载下来。
方亮
2023/09/27
5310
探索ClickHouse——使用Projection加速查询
基于Clickhouse的日志体系
1、flink对微服务的topic数据清洗后,丢到一个新的Kafka的topic里面
保持热爱奔赴山海
2022/01/11
3.4K0
基于Clickhouse的日志体系
推荐阅读
相关推荐
ClickHouse王炸功能即将来袭?
更多 >
交个朋友
加入腾讯云官网粉丝站
蹲全网底价单品 享第一手活动信息
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验