温馨提示:文本由机器自动转译,部分词句存在误差,以视频为准
00:00
大家好,欢迎收看link实战系列教程,本章节为入门系列9JA作业开发。作业机支持使用data stream API编程,也支持使用table API cqll编程,并且table API和CQ可以很容易的集成并嵌入到data string程序中。其次,Jar作业既可以用Java语言编程实现,也可以用scholarva语言实现,腾讯云流计算OIST10大数据产品生态体系的实时化分析利器,兼容oplink作业。下面将教大家学习如何利用oceanist JA作业实现data stream程序开发,将生成的数据写入do cof go中。首先,在seek of code控制台的实例下创建一个topic,用于接收数据。其次,在本地的IDE中创建maven工程,编写Java jar作业。
01:20
Page poem文件添加必要的依赖项。创建com demos ball,编写Java文件。
02:06
第一步,设置data stream运行环境。第二步,配置数据源。预定义数据源支持从文件套接字集合读入数据,自定义数据源支持cof com seql等使用ad source函数读入数据。第三步,数据处理。这里我们把数据做了map操作,将一组数据展平。第四步,输出处理完的数据。这里我们使用了flink kafka producer将数据输出到kafka。配置producer时,去把kafka配置信息也添加到producer中学。
03:00
第五步,执行程序。编写完Java程序后,在命令行终端执行打包命令maven clean package。随后将打包好的jar包上传到oist平台。进入ocean控制台,在依赖管理菜单中将draw ball上传。然后创建周作业。
04:10
点击作业调试,进入作业开发页面,在主程序包选择上传的依赖包并填写主类。因为这里使用到oless内置cof的连接器,所以需要在作业参数面板中选择对应的kafka connector。发布草稿运行周二作业。我们可以看到,作业已经处于运行中状态。接下来进入c Co Co控制台,查询对应的topic。
05:06
可以看到数据已经正常写入。
我来说两句