腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(3271)
视频
沙龙
2
回答
将对象节点转换为json节点
在这里,
DataStream
将键值对作为对象返回,我需要直接使用键值,而不是对象,因为我需要根据键对值进行分组。(false), properties)); // stream.
keyBy
("record1").print(); 当我给stream.
keyby
(“record1”).print()时,它显示Exception in thread "main" org.apache.
flink
.
api
.common.InvalidProgramE
浏览 7
提问于2020-01-24
得票数 0
1
回答
Apache 1.0.0中是否支持引用方法?
此代码运行良好:但这是抛出异常: at org.apache.
flink
.
api
.java.typeutils.TypeExtractor.getKeySelectorTypes(TypeExtractor.java:253) at org.apache.
flink
.<
浏览 3
提问于2016-03-25
得票数 1
回答已采纳
1
回答
Apache
Flink
keyBy
函数中的java.lang.IndexOutOfBoundsException
、
、
在Apache
Flink
中获取Exception in thread "main" java.lang.IndexOutOfBoundsException。我试着在效仿,但我得到了免责的提法。our warning pattern PatternStream<CSBEvent> alertPatternStrea
浏览 1
提问于2017-11-24
得票数 0
1
回答
flink
DataStream
keyBy
API
我是
Flink
的新手,以下是流式模式字数: //x is the stream of (word, 1) .flatMap(_.toLowerCase.split("\\W+")) val y: KeyedStream[(String, I
浏览 18
提问于2019-01-13
得票数 1
回答已采纳
4
回答
Flink
错误:通过字段位置指定键仅对元组数据类型有效。
、
、
我正在使用
Flink
的Scala。我在reports =
DataStream
[Tuple15]上进行了一些转换( Tuple15是Scala,所有字段都是Int)。Type: GenericType<scala.Tuple5> at org.apache.
flink
.
api
.comm
浏览 7
提问于2016-07-06
得票数 4
回答已采纳
1
回答
connectedStreams在Apache
Flink
中是如何工作的
、
我正在遵循
Flink
官方文档中的示例,试图了解connectedStreams是如何工作的。下面是示例:https://ci.apache.org/projects/
flink
/
flink
-docs-master/learn-
flink
/etl.html#connected-streams publicException { StreamExecutionEnvironment env = StreamExecutionEnvironment.g
浏览 45
提问于2020-07-24
得票数 0
回答已采纳
1
回答
星火RDD.persist(..)的任何等价特征在弗林克?
、
、
Flink
中也有相同的功能吗? 实际上,我想知道我的代码是否如下所示,
Flink
会评估
dataStream
一两次吗?val
dataStream
= env.addSource(...).filter(...).flatMap(...)val s1 =
dataStream
.
keyBy
(key1).timeWindow(...).aggregate(..)val s2 =
dataStream
.
keyBy
(key2).timeWindow(...).r
浏览 1
提问于2020-11-18
得票数 0
回答已采纳
1
回答
Apache维基百科用Scala编辑分析
、
、
、
我正在尝试从将Apache教程中的维基百科编辑流分析重写到Scalaimport org.apache.
flink
.
api
.common.functions.FoldFunction;import org.apache.
flink
.
api
.java.tuple.Tuple2; import org.apache.
flink
.streami
浏览 1
提问于2016-12-29
得票数 0
回答已采纳
2
回答
在WindowedStream中查找计数-闪烁
、
、
、
[((String, Response), Int)] = parsedStream .
keyBy
(_._1._1)// ((us, GA, Atlanta,Response()), 14) .
keyBy
evidence$28: org.apache.
flink
.
ap
浏览 18
提问于2019-05-02
得票数 1
1
回答
如何在Apache中分割NodeObject数据
、
、
我正在使用
Flink
来处理来自某些数据源(如Kafka、Pravega等)的数据。
dataStream
.map(new MapFunction然后,我尝试将JSON数据转换为一个字符串,然后对其进行
KeyBy
并计数。org.apache.
flink</
浏览 0
提问于2020-06-03
得票数 0
回答已采纳
2
回答
分块前的
Flink
滤波器
、
话虽如此,如果我使用以下代码
DataStream
<Element> res = data.filter(...).
keyBy
(...).timeWindow(...).apply(...); .
keyBy
()将
DataStream
转换为KeyedStream,并在
Flink
工作节点之间分发。我的问题是,
flink
在这里将如何处理filter?在对流进行分区/分发之前,过滤
浏览 7
提问于2020-05-08
得票数 0
回答已采纳
1
回答
使用复合密钥的
Flink
数据存储密钥
、
、
import org.apache.
flink
.
api
.java.functions.KeySelector(firstField: String,otherFields: String*)org.apa
浏览 0
提问于2018-12-29
得票数 0
回答已采纳
2
回答
如何获取Apache中筛选函数中不匹配的值的输出
、
、
我是Apache的新手,我尝试过滤以字母"N“开头的单词,并得到输出,但是我如何获得不以单词"N”开头的单词,这是我正在使用的代码import org.apache.
flink
.
api
.common.functions.FlatMapFunction; import org.apache.
flink
.<e
浏览 1
提问于2020-05-12
得票数 0
回答已采纳
1
回答
不理解
Flink
中的interval join
来自
Flink
的官方文档: import org.apache.
flink
.streaming.
api
.functions.co.ProcessJoinFunction;val greenStream:
DataStream
[Integer]
浏览 11
提问于2020-02-17
得票数 0
回答已采纳
1
回答
Flink
: java.lang.UnsupportedOperationException:无法覆盖KeyedStream的分区
、
、
下面是运行我的小
flink
程序的异常。该应用程序有来自同一个模拟源的两个数据流。它有一个广播状态。我写这篇文章是为了做一些性能测试,但是给了我一些例外。at org.apache.
flink
.streaming.
api
.
datastream
.KeyedStream.setConnectionType(KeyedStream.java:251)at org.apache.
flink
.streaming.
api
.
datastream
.
DataStream
.
浏览 15
提问于2019-10-01
得票数 1
回答已采纳
1
回答
Flink
的JDBC接收器失败,出现不可序列化错误
、
org.apache.
flink
.
api
.java.ClosureCleaner.clean(ClosureCleaner.java:151) org.apache.
flink
.
api
.java.ClosureCleaner.clean(ClosureCleaner.java::1899) org.
浏览 2
提问于2020-09-23
得票数 2
1
回答
如何在其他基础上过滤Apache流?
、
我有两个流,一个是Int流,另一个是json .In,json,有一个键,就是一些int .So,我需要通过键比较来过滤json流和其他整数流,所以在
Flink
中可以吗?
浏览 1
提问于2017-04-20
得票数 2
回答已采纳
1
回答
在
Flink
中使用RocksDB作为状态后端时,创建快照需要进行哪些接口调用?
、
、
、
我想分析一下
Flink
对RocksDB进行的每个应用程序接口调用所用的时间。但是,我找不到这些函数。示例如下: package org.apache.
flink
.streaming.examples.spendreport; import org.apache.
flink
.streaming.
api
.environment.Str
浏览 21
提问于2020-07-27
得票数 0
回答已采纳
2
回答
在
Flink
中,为什么
DataStream
不支持聚合
、
我是
Flink
的新手。有时,我想在不需要先做
keyBy
的情况下在
DataStream
上进行聚合。为什么
Flink
不支持聚合(sum、min、max等)在
DataStream
上? 谢谢你艾哈迈德
浏览 1
提问于2021-03-16
得票数 1
2
回答
Flink
:如何将不受欢迎的折叠转换为农业?
、
、
、
、
下面是
Flink
的快速启动示例:。env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment val result = edits.
keyBy
( _.getUserenv: StreamExecutionEnvironment = StreamEx
浏览 3
提问于2017-11-05
得票数 7
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券