温馨提示:文本由机器自动转译,部分词句存在误差,以视频为准
00:00
大家好,欢迎收看pat linknk实战系列教程,本章节为进阶系列三实践窗口函数的使用,腾讯云六计算LIST10大数据产品生态体系的实时化分析利器,兼容opache flink作业。下面将教大家学习如何利用ochless色口作业实时获取Co go数据,经过滑动窗口含数据和分析后存入clickhouse z。CFT连接器既可以支使用作数据源表,也可以作为追加流的数据目的表。新版FNK1.13集群支持使用CK作为数据源表和数据目的表。首先我们进入c Co go实例,新建一个topic用作色口作业的数据源端。然后我们可以选一台CVM进入创建CK表,这里我们提前创建好了一张表,用于数据目的端接收数据。
01:06
进入ocean控制台,创建色口作业。点击开发调试进入作业开发页面,首先创建source,单击插入模板,选择COFGO数据源表和数据目的表,点击添加修改数据源表的相关信息。
02:15
接下来创建,单击插入模板,选择CK数据目的表,点击添加修改目的表相关信息。
03:07
最后编写业务逻辑。这里我们使用滑动窗口函数和用户ID进行分组聚合,模拟统计了每分钟各用户的视频点击量,每秒更新一次。Hop star代表窗口的开始时间,Hop代表窗口的截止时间。
04:34
点击保存语法检查、发布草稿、运行作业。我们可以看到作业已经处于运行中状态。进入CV这里我们开了两个界面,一个用于向cof发送数据,一个用于查询写入CK的数据。我们使用kafka客户端向我们之前创建的topic手动写入几条数据。
05:06
注意,这里需要提前安装JDK和kafka客户端,更多读写方式可以参考c kafka官方文档。接下来进入CK集群,查询下写入的数据,我们可以看到数据正常写入。到此为止,我们进阶系列的演示就结束了,欢迎大家一元购体验流计算lchus。
我来说两句