我希望通过Flink、Scala-language和addSource- and readCsvFile-函数来读取csv文件。我还没有找到任何关于这方面的简单例子。我只发现:和这个对于我的目的来说太复杂了。定义: StreamExecutionEnvironment.addSource(sourceFunction)我应该只使用readCsvFile作为sourceFunction吗?
我正试图用DataSet的将Iris ParserError NUMERIC_VALUE_ILLEGAL_CHARACTER读入flink,并不断地获取ParserError NUMERIC_VALUE_ILLEGAL_CHARACTERcsv (隐藏字符可见)如下我试图删除文件中项之间的空白,但没有成功。有多个无法读取的项,这是错误输出:
org.apache.flink.api.common.io.ParseException: Line could not be par
我开始在Flink中训练一个多元线性回归算法。我正在跟踪可怕的和。我正在使用齐柏林飞艇来开发这个代码。如果我从CSV文件加载数据:val data = benv.readCsvFile[(Int, Double, Double, Double)]("/.../quake.csv")
val mapped = data.map {x => new org.apache.flink<
我试图在flink中做pagerank基本示例,只修改一点(仅在读取输入文件时,其他所有内容都相同),因为任务不可序列化的及以下是输出错误的一部分
atorg.apache.flink.api.scala.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:179) at org.apache.flink.api.scala.ClosureCleaner$.clean(ClosureClea
我正在尝试将Flink与Kafka集成,并读取Kafka producer的数据。FlinkKafkaConsumer<>("my-topic", new SimpleStringSchema(), properties); } 我得到以下错误, The method addSource(SourceFunction<OUT&g