腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
0
回答
在
Spark
Scala
中
创建
数组
(
种子
)
、
、
、
如何在
Scala
中
创建
随机
种子
数组
?我想要一个随机
数组
,但这个随机
数组
在
整个函数
中
必须是相同的。例如,使用
scala
.util,我们可以这样做但是,arr1
在
该过程
中
每次都会发生变化。因为我们
在
Scala
中
也有
种子
,
浏览 1
提问于2016-07-08
得票数 0
1
回答
使用字节
数组
创建
火花DataSet时出错
、
、
我正在使用case类和
spark
.sql({query}).as[MyCaseClass]语法
在
scala
中
创建
Spark
.as[HbaseRow] 通常情况下,这很好,但是对于字节
数组
,这是失败的。$$arrayClassFor$1.apply(ScalaReflection.
scala
:1
浏览 1
提问于2018-11-26
得票数 1
回答已采纳
1
回答
Scala
Spark
示例和SampleBy的相同行为
、
、
、
我试图
在
Spark
Dataframe
中
执行分层采样,但sampleBy函数的行为(奇怪地)类似于sample。
Spark
版本3.0.1 val data = Seq( ("Java", 20000), ("Java", 10000), ("Java", 30003000), ("
Scala
", 4000), ("
Scala
&qu
浏览 27
提问于2021-02-17
得票数 3
1
回答
apache火花理解密集向量
、
在
每个向量
中
只有3个元素的情况下,定义稠密向量有什么帮助。为什么我们不能把它们当作向量呢?
浏览 2
提问于2016-04-10
得票数 0
回答已采纳
1
回答
如何
创建
countVectorizer模型的一个列
中
包含值
数组
的火花数据
、
、
55405| us|+--------------+--------+-------+ 我试图从这3列输入数据
创
浏览 1
提问于2017-09-05
得票数 0
回答已采纳
4
回答
火花-随机数产生
、
、
、
我的代码遵循以下格式:val M = 3val rand = new
scala
.util.Random我还尝试用java.util.Random (
scala
.util.Random v10不扩展Serializable)生成方法
中
的数字,如下所示,但在每个for循环中仍然得到相同的数字 val r =
浏览 3
提问于2016-04-06
得票数 13
回答已采纳
1
回答
使用编码器
创建
数据集,其中行是
数组
类型
、
、
我无法弄清楚,正确的实现编码器
创建
数据集从下面的RDD?DataSet<Integer> ds = sqlContext.createDataset(rdd.rdd(),Encoders.bean(Integer[].class)); 线程"main“
中
的异常:断言
在
org.apache.
spark
.sql.catalyst.encoders.ExpressionEncoder$.javaBean(ExpressionEncoder.
scala
:90) atorg.apache.<
浏览 0
提问于2017-09-19
得票数 6
1
回答
Scala
MurmurHash3库与
Spark
Hash函数不匹配
、
Scala
MurmurHash3库不匹配
Spark
Hash函数
scala
和
spark
使用相同的Murmur hash3实现,但结果不同。有什么想法吗?
浏览 0
提问于2020-07-27
得票数 1
2
回答
如何将双倍
数组
转换为RDD[String]
、
、
testDensities: Array[Array[Double]] = Array(Array(1.1, 1.2), Array(2.1, 2.2), Array(3.1, 3.2)) .map { x => x.toArray }这段代码甚至觉得不正确,第二个map调用应该映射
数组
中
的每个元素
浏览 6
提问于2017-03-24
得票数 3
回答已采纳
2
回答
Spark
中联接操作后模式顺序的更改(JAVA)
、
、
、
我使用的是
Spark
和Java,当我
在
两个dataframe之间进行连接时,模式的顺序是不同的。 我需要保留顺序,因为我想在后面的HBase表
中
插入数据。
在
Scala
中有一个使用seq列表的解决方案,我想知道如何使用Java来实现它?
浏览 1
提问于2017-01-24
得票数 3
回答已采纳
2
回答
如何在星火2
中
产生N秒差的随机时间戳?
、
我试图解决以下问题:但是,所有时间戳都等于某些特定值看起来只生成了一个随机数,然后
在
整个列
中
传播。 我该如何解决这个问题?
浏览 1
提问于2018-02-10
得票数 0
回答已采纳
2
回答
如何在
Spark
(2.4) SQL -
Scala
2.11
中
避免ArrayType的自动转换
、
、
、
给定
Spark
2.4和
scala
2.11
中
的代码 val df =
spark
.sql("""select array(45, "something", 45)""") 如果我使用df.printSchema()打印模式,我会看到
spark
自动转换为字符串CAST(45 AS STRING)。array (nullable = false) | |-- element: string (containsNull =
浏览 30
提问于2020-01-21
得票数 3
1
回答
Deeplearning:向掩码
数组
添加值时出错
、
、
、
在
深度学习
中
,当我们有不同长度的特征时,需要填充和掩蔽。我正在开发一个使用RNN算法的情感分析程序。
在
我的程序
中
,我试图将值添加到我
创建
的掩码
数组
中
。但是它给出了以下错误。(Iterator.
scala
:1157) at org.apach
浏览 0
提问于2016-03-14
得票数 0
回答已采纳
2
回答
将Array[string]类型的两列合并为新的Array[string]列
、
、
、
我
在
Spark
DataFrame中有两列,每一列
中
的每个条目都是字符串
数组
。curious", "bought", "20"), Seq("iwa", "was", "asj"))我希望合并每一行
中
的
数组
concatFrame = ngramDataFra
浏览 1
提问于2018-03-07
得票数 9
回答已采纳
1
回答
火花与卡桑德拉并行处理
、
用户
在
执行submit命令时提供一组配置文件的IP地址。val ips = Array(1,2,3,4,5)编辑的 线程"main“
中
的异常:
在
org.apache.
spark
.util.ClosureCleaner$.ensureSerializabl
浏览 4
提问于2016-04-21
得票数 0
2
回答
有没有可能使用pyspark来加速对一个非常大的
数组
的每一列的回归分析?
、
我有一个非常大的
数组
。我想对
数组
的每一列进行线性回归。为了加快计算速度,我
创建
了一个列表,将
数组
的每一列作为其元素。然后,我使用pyspark
创建
了一个RDD,并在其上进一步应用了一个已定义的函数。我
在
创建
RDD (即并行化)时遇到了内存问题。 我试图通过设置
spark
.driver.memory -defaults.conf将
spark
改进为50g,但程序似乎仍然死了。$1.apply$mcV$sp(Inbox.
scala<
浏览 4
提问于2019-06-18
得票数 1
1
回答
如何设置火花源初始中心
、
、
、
、
我用
Spark
来运行Kmeans。我有大量的数据和三个现有的中心,例如,三个中心是:[1.0,1.0,1.0],[5.0,5.0,5.0],[9.0,9.0,9.0].我看到Kmean对象有
种子
参数,但是
种子
参数是一个长类型而不是
数组
。那么,我如何告诉
Spark
只使用现有的中心进行聚类。或者说,我不明白
种子
在
星火中意味着什么,我认为
种子
应该是一个向量
数组
,它在运行聚类之前代表指定的中心。
浏览 0
提问于2017-04-18
得票数 3
回答已采纳
2
回答
通过内部
数组
的索引高效地连接
数组
的
数组
RDD
、
、
我正在使用Databricks运行一个使用
Scala
(v2.12)的
Spark
集群(v3.0.1)。我将
Scala
文件编译为JAR,并使用Databricks UI
中
的
spark
-submit运行作业。该程序的逻辑首先
创建
一个随机
种子
列表,并使用下面的代码行将其并行化: val myListRdd = sc.parallelize(myList, partitions) 接下来,我希望在这个RDD上运行一个处理函数因此,
在
Scala
浏览 23
提问于2021-02-12
得票数 1
回答已采纳
1
回答
在
Apache
Spark
2.1.0
中
使用Except on DataFrame
、
、
except能在
Spark
DataFrames上正常工作吗?为什么tail1仍然包含"a“而去掉了"b”?
scala
> val row1 = grfDF.limit(1) row1: org.apache.
spark
.sql.Dat
浏览 2
提问于2017-04-19
得票数 0
1
回答
基于
种子
的球员匹配算法
、
、
我目前正在研究一种算法,它将为随机生成的板
创建
一个
种子
。
种子
是使用时间戳
创建
的。 如果没有带有时间戳的当前
种子
,我们
在
DB
中
创建
一个新条目,我们说当前的播放器正在使用该
种子
。
种子
只能由一定数量的用户播放,如果当前
种子
已满,我们将
创建
一个新的
种子
。现在,让我们说它只能玩4次。玩家不能使用相同的
种子
,所以我检查当前的玩家是否已经打
浏览 4
提问于2018-03-27
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
怎么理解php中的数组?php的数组创建和使用方法是什么?
Scala 语言在局域网监控软件中的潜力
太空水稻:希望的种子在宇宙中绽放
GC调优在Spark应用中的实践
在VBA中如何使用动态数组,以及利用动态数组去除重复值的方法
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券