腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
在
使用
返回
类型
为Option[Long]的对象的
UDF
时会出现
类型
不匹配
错误
?
、
、
、
我正在尝试用Scala编写一个处理空值的用户定义
函数
(
UDF
)。对于我的示例,如果值不为null,我将尝试返回列的纪元。我发现Option[]用于从自定义
函数
返回空值。下面是我的
UDF
: def to_epoch(date: Timestamp) : Option[Long] = { .schema(ListeningStatsSchema.sche
浏览 15
提问于2020-09-07
得票数 1
1
回答
当输出是要从Pyspark
使用
的复杂
类型
(
使用
StructType和StructField)时,
如何
传递Scala UserDefinedFunction
、
、
、
、
因此,我想创建一个可以
在
Pyspark中
使用
的scala
UDF
。它适用于Scala
Spark
。 我的问题是试图让这个
在
pyspark
中
可调用。当我
在
scala
spark
中
使用
它时,输出列
类型
是Array(ArrayType(StructType(StructField(_1,StringType,true), StructField(_2,注册
此
函数
时,我无法定义正确的返回<
浏览 29
提问于2020-10-09
得票数 4
回答已采纳
2
回答
什么是非
类型
化Scala和
类型
化Scala?他们有什么不同?
、
、
在
切换到
Spark
3.0运行
udf
((x: Int) => x, IntegerType)
后
,我得到了这个
错误
这些解决方案是由星火公司自己提出的,
在
搜索了一段时间之后,我访问了火花迁移指南页面:
在
Spark
3.0
中
,默认情况下不允许
使用
o
浏览 9
提问于2020-12-03
得票数 6
回答已采纳
1
回答
Spark
:找不到decimalType
、
、
、
、
我正在尝试
使用
DecimalType(18,2)。以下是我的代码: //created a DecimalType) 我收到
错误
decimalType
如何
修复</em
浏览 1
提问于2019-08-21
得票数 1
1
回答
使用
在内部定义了
udf
的模块冻结pyspark作业-解释?
、
、
为了获得这些DF,我们
使用
在同一文件或助手模块
中
定义的一些pyspark.
sql
.functions.
udf
。问题是,当我们这样做时,
udf
函数
冻结了我们的工作。我们发现的令人讨厌的
修复
方法是
在
作业
中
定义
udf
函数
,并将它们提供给从我们的模块导入的
函数
。我找到的的另一个
修复
方法是定义一个类: from pyspark.
sql
.functions
浏览 12
提问于2017-07-14
得票数 9
3
回答
Spark
SQL
:
如何
使用
JAVA从DataFrame操作调用
UDF
、
、
、
我想知道
如何
使用
JAVA从
Spark
SQL
中
的domain-specific language(DSL)
函数
调用
UDF
函数
。我有
UDF
函数
(仅举个例子): @Override public Boolean callsqlContext.
sql</
浏览 2
提问于2015-11-20
得票数 2
1
回答
在
Spark
SQL
中
使用
UDF
函数
后
,
如何
修复
此
类型
错误
?
、
、
、
我想将我的features(
类型
:ml.linalg的稀疏向量)分解为每个特性的索引和值,因此我执行以下操作:df3.show(); 但我得到了
错误
:Failed to execute user defined functionanonfun$38: (struct<_1:int,_2:doubl
浏览 1
提问于2018-08-21
得票数 1
回答已采纳
1
回答
UDF
注册
错误
:不支持org.apache.
spark
.
sql
.Dataset[org.apache.
spark
.
sql
.Row]
类型
的架构
、
、
、
当注册低于
错误
的
UDF
函数
时,其他
UDF
函数
正在工作,但只有这个
UDF
提供问题。
错误
: org.apache.
spark
.
sql
.Datasetorg.apache.
spark
.
sql
.Row
类型
的架构不支持
spark
.
udf
.register("udfname",
udf
_n
浏览 2
提问于2017-03-28
得票数 0
2
回答
什么时候
在
PySpark中
使用
UDF
与
函数
?
、
、
、
、
我
在
使用
Spark
和Databricks,并有以下代码: return when(col(column) !(column)).otherwise(None)x = rawSmallDf.withColumn("z", replaceBlanksWithNulls("z"))replaceBlanksWithNulls_
Udf</em
浏览 1
提问于2019-05-09
得票数 7
回答已采纳
1
回答
将ArrayType列传递给
Spark
Scala
中
的
UDF
、
、
我
在
Scala
中
的
Spark
dataframe中有一个列,它是
使用
以下命令聚合多列后生成的 agg(collect_list(struct(col(abc), col(aaa)).as(def)我希望将此列传递给
UDF
进行进一步处理,以便处理
此
聚合列
中
的一个索引。当我将参数传递给我的
UDF
时: .withColumn(def, remove (col(xyz), col(def)))
UDF
-
类型<
浏览 21
提问于2021-10-19
得票数 1
回答已采纳
1
回答
在
Java
中
创建SparkSQL
UDF
、
、
、
、
问题 我可以
在
Java
中
成功地创建一个
UDF
。但是,除非它在
SQL
查询
中
,否则我不能
使用
它:
浏览 4
提问于2016-03-27
得票数 5
回答已采纳
1
回答
如何
在
spark
中
使用
输入数组[(日期,双)]注册
udf
、
:
sql
.
udf
.register("date_range_build", TimeRangeUdfs.DateRangeBuild(_: Seq[(AnyRef, Number)]))(2)当我
使用</
浏览 4
提问于2019-11-26
得票数 0
回答已采纳
1
回答
org.apache.
spark
.
sql
.AnalysisException:不能从
UDF
_DTTM_3#54:需要结构
类型
中提取值,而是获得时间戳;
、
、
代码:org.apache.
spark
.
sql
.Dataset.toJavaRDD()
函数
引发
此
错误
我
在
RuleParamsBean,java类中有许多字段。下面是声明和setter getter方法。private Date
UDF
_DTTM_3; public Dat
浏览 1
提问于2018-07-16
得票数 0
回答已采纳
2
回答
在
星火中创建
UDF
时出错
、
、
我正试图
使用
以下代码
在
星火中创建一个
UDF
但我得到了以下
错误
:
浏览 4
提问于2018-01-16
得票数 0
回答已采纳
1
回答
星星之火
SQL
(语言而不是API)和从
UDF
访问数据行
、
、
、
我
在
Spark
表达式(
SQL
语言)中
使用
自己的
Spark
函数
(不是通过
Spark
)。如果在我的
UDF
函数
中出现故障,我想
使用
所有列访问整行,并公开此信息(例如,通过自定义异常或日志),以更好地处理
错误
。现在,我不知道
如何
访问
UDF
中
的行列,甚至不知道
如何
通过
SQL
将所有列传递给我的
UDF
。
浏览 1
提问于2020-02-25
得票数 2
回答已采纳
1
回答
定义一个接受
Spark
DataFrame
中
的对象数组的
UDF
?
、
、
、
、
在
使用
Spark
的DataFrames时,需要用户定义
函数
(
UDF
)来映射列
中
的数据。
UDF
要求显式指定参数
类型
。
在
我的例子
中
,我需要操作一个由对象数组组成的列,但我不知道要
使用
哪种
类型
。org.apache.
spark
.
sql
.functions对列
中
的数据执行基本操作相对简单 import org.apache.
sp
浏览 2
提问于2016-08-18
得票数 29
回答已采纳
2
回答
带有
函数
的pySpark withColumn
、
、
、
我有一个dataframe,它有两列: account _ id和电子邮件 _ address,现在我想再添加一列'updated _ 电子邮件 _ 地址‘,我
在
电子邮件
中
调用了一些
函数
_ 获取更新的地址|+---------------+--------------+---------------+
在
函数
内部更新_ 电子邮件‘它打印出来: Column 它还显示了df的列数据
类型</
浏览 38
提问于2019-12-13
得票数 1
回答已采纳
1
回答
如何
注册
UDF
(python和scala)时,
使用
‘火花-
sql
’提交?
、
、
、
在
使用
sql
之前,可以在上下文中
使用
代码注册
UDF
。
Spark
提出了一个命令行工具:
spark
-
sql
来提交一些
SQL
请求。
此
工具
使用
火花-提交与--class org.apache.
spark
.
sql
.hive.thriftserver.SparkSQLCLIDriver。
在
使用
spark
-
sql</
浏览 3
提问于2021-12-29
得票数 2
1
回答
UDF
2.1:
使用
PySpark的中断配置单元连接导入模块
、
、
、
、
我目前正在
使用
Spark
2.1,并且有一个主脚本,它调用一个包含我所有转换方法的助手模块。(s)
在
我将所有
UDF
分解到帮助程序文件之前,我能够
使用
spark
.
sql
('
sql
statement')通过我的但是,
在
我将
UDF
移动到助手文件并在主脚本顶部导入该文件
后<
浏览 1
提问于2017-05-05
得票数 3
2
回答
获取PicklingError:无法选择<type‘
函数
’>:
在
调用
UDF
时,属性查找__builtin__.function
在
pyspark
中
失败
、
、
、
、
我
使用
的是吡咯烷酮2.0。我得到了下面代码的酸洗
错误
from datetime import datetime timevalue=datetime.now()
spark
.
udf
.register('Getday1)as stringti
浏览 4
提问于2016-12-26
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
Spark 3.0重磅发布!开发近两年,流、Python、SQL重大更新全面解读
教程:Apache Spark SQL入门及实践指南!
Python实现MaxCompute UDF/UDAF/UDTF
什么是Spark SQL,它的作用是什么?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券