腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
为什么
年
和
月
函数
会
导致
Spark
中
的
长时间
溢出
?
、
、
、
我正在尝试从
spark
中
名为logtimestamp (类型为TimeStampType)
的
列
中
创建year
和
month列。数据源为cassandra。我正在使用sparkshell来执行这些步骤,以下是我编写
的
代码- import org.apache.
spark
.sql.cassandra._ import org.apache.
spark
.sql.typesjava.util.concurrent.ThreadPoolExecutor$Worke
浏览 34
提问于2021-11-02
得票数 4
回答已采纳
3
回答
为什么
Date(2015,11,1)不是12
月
1日?
、
当我将该日期转换为ISO字符串时,我得到了2015
年
11
月
30日。
为什么
不是12
月
1日呢?我已经用谷歌搜索过了,我知道这个月是0索引
的
,
溢出
会
导致
下一天/
月
/
年
。
浏览 0
提问于2017-11-14
得票数 0
1
回答
为什么
sprintf在一个示例
中
工作而不是在下一个示例
中
工作?
、
、
、
、
下面是我
的
代码:struct tm * now=localtimesprintf(cmin, "%d", now->tm_min); printf("cmin is: %s\n",cmin);cyear is: 输出也
浏览 2
提问于2014-11-03
得票数 2
回答已采纳
2
回答
将当前值添加到未来日期SQL
、
我正试着为未来
的
约会加载数据。我
的
设想是这样
的
,我有2016
年
、2017
年
和
2018
年
的
数据(直到8
月
)。每年都有当前值
和
“前一
年
同一天”值相关联。数据汇总到月份。要求我也为未来
的
日期加载数据,即2018
年
9
月
至2019
年
8
月
使用'PYSD‘值。例如,2017
年
9
月
浏览 0
提问于2018-09-04
得票数 0
回答已采纳
3
回答
使用Scala2.12
和
Spark
2.x
、
、
、
在
Spark
2.1 上,有人提到 虽然Scala 2.11
和
2.12主要是源代码兼容
的
,以便于交叉构建,但它们并不是二进制兼容
的
。这使我们能够不断改进Scala编译器
和
标准库。
浏览 11
提问于2017-03-19
得票数 28
3
回答
使用regex python提取引号之间
的
文本
、
XYZ"我尝试过使用regex
的
代码print(title)['abc']['1 - 2 - 3'] 有些台词空空如也,不知道
为什么
有没有其他更好
的
方法来做到这一点?
浏览 2
提问于2021-10-12
得票数 2
回答已采纳
1
回答
在Ajax钻取过程
中
限制图表扩展时
的
高x轴
、
、
我创建了高级图表,在这里我使用Ajax向下钻取,所以如果我单击xAxis标签,我将通过Ajax传递xAxis标签值,并相应地加载本系列
中
的
新数据,有时我也
会
像wise一样修改样条->列
和
瀑布等图表。但现在
的
问题是,我为仪表板设置了一个日期选择器,默认情况下,我将显示3个
月
(2014
年
3
月
-2014
年
4
月
2014
年
5
月
-2014
年
5
月
)<em
浏览 2
提问于2014-09-10
得票数 1
回答已采纳
1
回答
调优查询,以避免使用带有order
的
聚合
函数
、
如何通过以下方式重写以下查询以避免使用带order
的
aggegate
函数
:由于我有一个很大
的
数据集,所以上面的查询
会
导致
性能问题。以下是一个样本数据:1-2014
年
7
月
-2014
年
7<em
浏览 1
提问于2014-07-16
得票数 0
1
回答
Spark
中
几个任务
中
的
重新分区数据瓶颈
、
我有一个简单
的
spark
工作,它做以下工作 val dfIn =
spark
.read.parquet(PATH_IN)dfOut.write.mode(SaveMode.Append).partitionBy(col1, col2, col3).parquet(PATH_OUT) 我注意到这份工作
的
表现有很大
的
恶化检查
Spark
UI显示,写入瓶颈出现在一些任务
中
,与快速
浏览 31
提问于2021-11-04
得票数 2
1
回答
数据库
中
的
Jar作业超时限制
、
我们
的
应用程序启动了
长时间
运行
的
spark
作业,创建了
spark
会话
和
"fire“子作业,但在8
月
份
的
发布说明
中
,我发现notebooks
会
限制作业执行2天。有可能在这样
的
限制下运行流作业吗?
浏览 0
提问于2021-09-04
得票数 0
3
回答
java.io.IOException: Filesystem关闭时,
Spark
在大型混洗作业上失败
、
、
、
我经常发现
spark
在大型任务
中
失败了,但有一个相当无用、毫无意义
的
例外。工作日志看起来很正常,没有错误,但它们
的
状态是“终止”。这对于大混洗来说是非常常见
的
,所以像.distinct这样
的
操作。考虑到这些操作很多都是一元化
的
,我一直在解决这个问题,方法是将数据分成10个数据块,在每个数据块上运行应用程序,然后在所有结果输出上运行应用程序。换句话说- meta-map-reduce。at org.apache.
spark
.rdd.RDD.iterato
浏览 2
提问于2014-06-04
得票数 9
回答已采纳
2
回答
用Javascript设置未来日期
、
我试图根据以前设定
的
日期生成一个未来
的
日期,但是我得到了奇怪
的
输出。console.log(theFuture); Tue Jan d) -2147483647 20:33:52 GMT-0500 (EST)
为什么
这里
的
日期不正确
浏览 2
提问于2015-07-16
得票数 0
回答已采纳
1
回答
我
的
函数
总是把日期看错了整整一
年
。
、
我用字符串存储日期,有时以“11
月
-2018
年
”
的
形式存储,有时以"11/1/2018“
的
形式存储。我想把它们普遍改为“2018
年
11
月
”。只有月份
和
日期。 我编写了以下
函数
。'11/1/2018‘
和
’11
月
-2018
年
‘,并返回结果’11
月
2019
年
‘。我不知道
为什么
2019
年
浏览 0
提问于2019-01-22
得票数 0
1
回答
pyspark是否正常行为?
、
、
、
我真的需要你
的
帮助,当我说我不打算调试我
的
代码时,我希望我的话听起来不会太苛刻。我希望
和
/或认为这是除了我
的
代码之外
的
其他东西,也许我不希望在
spark
中发生。早在2015
年
10
月
,我就使用
spark
1.5.1在python上开发了一段使用mllib
的
代码,它起作用了。使用此包一段时间,直到2016
年
8
月
。不管出于什么原因,我
的
代码不再工作了,即使我使
浏览 0
提问于2016-10-26
得票数 0
1
回答
配置配置文件用于测试需要多
长时间
?
、
当我在我自己
的
设备上安装它时,配置文件说它在我上次修改它后
的
一
年
到期。但我也听说可能
会
更短一些。在中提到
的
时间是2个
月
和
3个
月
。这是正确
的
,
为什么
? 我需要一个大约3-4个
月
的
发情器。如果我让我
的
测试人员安装我
的
beta应用程序,使用一个用于开发
的
配置文件,她能够运行这个应用程序多
长时间
?
浏览 4
提问于2012-01-30
得票数 2
回答已采纳
1
回答
旧
的
日期被解析为夏季时间,即使在Java
中
不是这样。
、
、
我在显示多个作为
长时间
存储
的
日期时遇到问题。我使用接受长参数
的
构造
函数
创建日期对象,然后将日期打印到PDF文件
中
。在Windows上: 25。1976
年</em
浏览 3
提问于2015-06-10
得票数 5
回答已采纳
1
回答
解释
为什么
2012
年
12
月
31日是第53周而不是第1周(ISO-8601)
、
、
月
1日开始测试了30,000天,我
和
第二个来源有一些不同。We Th Fr Sa Su Mo Tu We Th根据ISO-8601标准 一
年
中
的
第一周是当年第一个星期四
的
一周1
月
3日是2013
年
的
第一个星期四,因此1
月
3日是第一周(2013
年
)
的
一天。第一周(20
浏览 1
提问于2013-12-21
得票数 6
回答已采纳
1
回答
Pyspark月度频率低性能
我们需要提取2016
年
1
月
1日到2016
年
12
月
31日
的
数据。我刚才提到了样本,但这些记录在一
年
内以百万计。但是花费了很
长时间
,因为列数大约是60(刚刚使用了示例3)。() Tab2=
spark
.sql("sel
浏览 14
提问于2019-05-25
得票数 2
回答已采纳
1
回答
在SQL Server中将文本转换为日期时出现意外错误
、
我在将
年
、
月
、日
的
int值转换为日期值时遇到问题。SELECT datefromparts(b.Install_year, b.shipm_month, b.shipm_day)SELECT datefromparts(2005, 4, b.shipm_day) 出于测试目的,我将
年
和
月
的
值设置为固定<
浏览 11
提问于2019-11-08
得票数 1
1
回答
PySpark -在读取拼花后优化分区数
、
、
、
在一个由year
和
month分隔
的
拼花数据湖
中
,
spark
.default.parallelism设置为4,假设我想创建一个DataFrame,由2017
年
以来
的
11~12个
月
,以及2018
年
的
1~3个
月
( A
和
B )组成。,
Spark
使用
spark
.default.parallelism作为缺省值:Out[4
浏览 1
提问于2018-06-05
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark性能优化:开发调优篇
Hadoop的MapReduce到底有什么问题?
链安团队漏洞分析连载第一期:溢出漏洞
溢出漏洞类型全面分析
链安团队漏洞分析连载-溢出漏洞
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券