腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
在
UDF
Java
中
Spark
get
value
form
WrappedArray
<
WrappedArray
<
Double
>>
、
、
、
我的Dataset<Row>中有一列包含
WrappedArray
<
WrappedArray
<
Double
>>。我将此列传递给一个
UDF
,以提取其中一个值。sparkSession.
udf
().register(ADD_START_TOTAL, (
UDF
1<
WrappedArray
<
WrappedArray
&
浏览 12
提问于2017-08-17
得票数 4
回答已采纳
2
回答
如何将Dataset<Row>列转换为非原始数据类型
、
,它接受三个参数并返回一个
Double
值
UDF
3<String,List<Long>,List<String>,
Double
>。因此,当我调用
UDF
时,它会抛出一个异常,即caused by
java
.lang.classcastexception scala.collection.mutable.
wrappedarray
$ofref cannot be cast to
java
.lang.List 但是,如果我像String
浏览 0
提问于2019-03-26
得票数 2
回答已采纳
2
回答
如何在
java
中
展平
spark
dataset
中
的包装数组
、
使用
Spark
2.2
Java
1.8# +-----+----------------------------------------------+ # |2 |[
WrappedArray
(2),
Wrapp
浏览 0
提问于2018-09-10
得票数 1
1
回答
将scala扁平化转化为
Java
在
星火中的应用
、
、
| | |--
value
: integer (valueContainsNull = true)
UDF
1 mode1 = new
UDF
1<
WrappedArray
<Map<
Double
, Integer>>, String>() { public Stringcall(
WrappedArray<
浏览 3
提问于2020-03-02
得票数 1
回答已采纳
1
回答
UDF
中
的火花类
、
、
但是,当我
在
UDF
中
调用该函数时,它将无法工作。} /////////df: org.apache.
spark
.sql.DataFrame = [vec: array<<em
浏览 6
提问于2017-08-25
得票数 2
回答已采纳
1
回答
将
Java
数组转换为Scala
WrappedArray
(
在
JAVA
中
)
、
、
我正在编写一个
Java
Spark
应用程序,并且正在尝试为我的一个
UDF
编写单元测试。此
UDF
接受字符串数组并返回Long: protected
UDF
1<
WrappedArray
<String>, Long> convertMyArray() { }; } 当我使用
Spar
浏览 55
提问于2021-08-03
得票数 0
回答已采纳
1
回答
如何从Dataframe地图中提取
Wrappedarray
、
、
、
+---++---+|c ||a |我已经尝试了用这个
udf
来做这个: val myArrays = myMaps.
get
(myKey) val res = myArrays.
get
.toArray.filte
浏览 0
提问于2016-11-28
得票数 0
回答已采纳
1
回答
Scala火花
UDF
函数,它接受输入并将其放入数组
中
、
、
、
我正在尝试为
Spark
创建一个Scala,它可以
在
Spark
中使用。该函数的目标是接受任何列类型作为输入,并将其放入ArrayType
中
,除非输入已经是ArrayType。下面是我到目前为止掌握的代码:importorg.apache.
spark
.sq
浏览 8
提问于2022-05-06
得票数 0
1
回答
如何在
Java
中
创建接受字符串数组的
Spark
UDF
?
、
声明: throws Exception { 当我运行代码时,执行不会超过
UDF
(BufferedRowIterator.
java</e
浏览 40
提问于2019-11-25
得票数 1
回答已采纳
1
回答
Java
处理数组列
sqlContext.
udf
().register("NAME_SELECTOR", (
UDF
1<List<String>, String>) brandNames -> {brandNames.sort(Comparator.comparing(String::length)); return brandNames.
get
我知道
在
scala
中
,我需要使用Seq[String]作为输入类型,那么
在
浏览 3
提问于2020-08-02
得票数 0
回答已采纳
2
回答
从
spark
中
的数据帧获取array[
double
]
我正在使用一些代码从dataframe
中
的一个项目中获取一个可重复的数组。percentile_approx(ts, array (0.5,0.7)) from df")
java
.lang.ClassCastException: scala.collection.mut
浏览 1
提问于2017-05-08
得票数 1
1
回答
如何在
Spark
(Scala)中将
WrappedArray
[
WrappedArray
[(String,String)]]转换为Array[String]
、
、
、
、
好的, 我正在使用Scala
中
的
spark
框架。([3,spain]),
WrappedArray
([,]),
WrappedArray
([3,spain])] |+---------------------------struct (contains
浏览 53
提问于2019-03-04
得票数 0
2
回答
如何在星星之火中将地图传递给
UDF
、
、
、
这是我的问题,我有一个Map[Array[String],String]的映射,我想把它传递给一个
UDF
。这是我的
UDF
:
udf
((input:Array[String]) => lookupMap.lift我谷歌了一下,显然我不能将非列类型直接传递到一个
UDF
中
。有人能帮忙吗?荣誉。 val srdd = df.rdd.ma
浏览 2
提问于2017-07-14
得票数 1
回答已采纳
2
回答
使用
Spark
访问
Java
中
的多维
WrappedArray
元素
、
、
、
containsNull = true) -- element:
double
(containsNull = true)
在
Java
中
,如何使用
Spark
行访问
double
元素?
浏览 2
提问于2016-11-10
得票数 2
回答已采纳
1
回答
如何创建
UDF
以查找数组列
中
的索引
、
、
、
我希望创建一个
udf
,如果数组包含目标字符串,它可以返回索引。我试图像这样写一个
udf
:n.indexOf(s) elsequestion.withColumn("index", indexOf("d11")(question("Dates"))).show()org.apache.
spar
浏览 0
提问于2017-06-20
得票数 2
回答已采纳
1
回答
将特定的SQL查询迁移到
Spark
的
UDF
、
、
、
我正在将以下函数迁移到sql
udf
spark
函数。anyelement) ASSELECT
value
SELECT unnest($1) AS
value
$$我不知道
spark
SQL输出与
在
sql
中
获得的输出相似。-------- (2,322) (4,53
浏览 0
提问于2016-03-15
得票数 1
1
回答
如何将双倍数组的数据转换为向量?
、
fList: org.apache.
spark
.sql.DataFrame = [features: array<
double
>] +----------------------------------fList: org.apache.
spark
.sql.DataFrame = [features: vector]
浏览 1
提问于2017-11-29
得票数 3
回答已采纳
1
回答
火花存取嵌套列
、
、
columnsMap scala> columnsMap.
get</
浏览 6
提问于2016-12-20
得票数 0
回答已采纳
2
回答
迭代Scala列的元素
、
、
false),false)每当我调用这个距离函数时: sqrt((xs zip ys).map { case (x,y) => pow(y - x, 2) }.sum)我得到一个类型错误: df.withColumn("distances" , distance($"col1",$"
浏览 0
提问于2018-08-28
得票数 4
回答已采纳
1
回答
Spark
将Array[string]与标记结合起来
、
我
在
Array[string]集合中有两个MongoDB列,现在通过Scala
UDF
函数组合它,如下所示: mutable.
WrappedArray
[String]): mutable.
WrappedArray
[String] = }
浏览 0
提问于2018-10-03
得票数 1
回答已采纳
点击加载更多
相关
资讯
java集合的组内平均值怎么计算
工具篇之HTTP Client
udf,udaf,udtf之间的区别
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
Python实现MaxCompute UDF/UDAF/UDTF
热门
标签
更多标签
云服务器
ICP备案
云点播
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券