腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
需要
RDD
的实例,但返回了类“
pyspark
.
rdd
.PipelinedRDD”
、
、
、
嗨,我
在
Notebook中有这段代码,并尝试编写python spark代码: spark.sql("SELECTdf,spark):return result.
rdd
.sample(False, 0.1).map(lambda row : (row.temper
浏览 0
提问于2017-06-04
得票数 5
回答已采纳
1
回答
如何在没有模式的情况下查询dataframe和
rdd
如何将csv文件without any schema加载到spark
rdd
和dataframe
中
并分配模式AA,19970101,47.82,47.82,47.82,47.82,0
浏览 0
提问于2019-07-17
得票数 0
1
回答
如何从任何数据库表
创建
PySpark
RDD
?
由于我是星火社区的新手,任何人都能解释如何从数据库表
创建
PySpark
RDD
吗?我可以使用
PySpark
方法的textFile()方法从CSV文件
创建
SparkContext
RDD
。但我不知道从数据库表
中
创建
PySpark
RDD
。
浏览 0
提问于2018-02-10
得票数 1
回答已采纳
1
回答
如何在Spark
中
从另一个
RDD
的前n项生成
RDD
?
在
pyspark
中
给出一个
RDD
,我想
创建
一个新的
RDD
,它只包含它的前n项(副本),如下所示: n=100
rdd
2 =
rdd
1.limit(n) 除了
RDD
没有像DataFrame那样的方法limit注意,我不想收集结果,结果必须仍然是
RDD
,因此我不能使用
RDD
.take()。 我使用的是
pyspark
2.44。
浏览 19
提问于2019-10-13
得票数 0
回答已采纳
1
回答
制作和操作numpy数组,并通过
pyspark
使用数据
、
我
在
使用
pyspark
.mllib.stat.KernelDensity
中
手工
创建
的测试数据时遇到了一个问题。
在
使用(某些)
pyspark
时,numpy.float和Python的通用float之间存在某种问题/差异;特别是使用numpy.float的中断构造的RDDs。有没有办法让我
创建
的NumPy数组的元素是python的浮点数而不是numpy.float的?import
pyspark
import
pyspark
.m
浏览 0
提问于2018-05-15
得票数 0
1
回答
在
使用
PySpark
时,如何在Spark
中
实现Python数据结构?
、
、
、
我目前正在自学Spark programming,并试图用
PySpark
重新编写一个现有的Python应用程序。然而,我仍然对如何在
PySpark
中使用常规Python对象感到困惑。我了解Spark
中
的分布式数据结构,如
RDD
、DataFrame、Datasets、vector等。Spark有自己的转换操作和动作操作,如.map()、.reduceByKey()来操作这些对象。但是,如果我
在
PySpark
中
创建
传统的Python数据对象,比如数组、列表
浏览 34
提问于2017-03-01
得票数 1
回答已采纳
2
回答
在
Spark
中
重命名缓存的
RDD
/Dataframe描述
、
、
在
Scala
中
,有一种名为setName的方法,它允许用户
在
Spark的Storage选项卡下指定用户友好地显示缓存的RDDs/Dataframes。(我在这个操作中使用Databricks ) 注意:我已经尝试使用使用Python 的setName方法,但这似乎没有更新Spark
中
存储选项卡
中
RDD
名称的描述(每个"
RDD
名称“以查询形式显示)-
浏览 10
提问于2022-01-01
得票数 0
1
回答
传递由:
PySpark
引起的函数错误的java.io.EOFException映射转换
我的问题似乎是
在
功能,但不确定它。
在
执行代码时,我收到了以下错误:
rdd
, schema = self._inferSchema(
rdd
, samplingRatio, names=schema) File "
浏览 34
提问于2022-10-28
得票数 0
2
回答
在
pyspark
中
创建
rdd
的
rdd
、
、
、
可以
在
pyspark
中
创建
rdd
的
rdd
吗?我试过了
rdd
2=sc.parallelize([4,5,6])并得到错误
浏览 22
提问于2019-11-17
得票数 0
回答已采纳
1
回答
如何使用
pyspark
.mllib
rdd
api度量来测量
pyspark
.ml (新数据帧api)?
、
、
MlLib的旧API有评估指标类:,而新的dataframe API没有这样的类:
浏览 0
提问于2016-09-06
得票数 0
2
回答
将数据保存到HDFS的格式是什么?
、
、
、
创建
DataFrame后,我可以将其保存为avro、csv或拼板格式。
在
dataframe或
rdd
中
是否有其他格式可用于
在
Hadoop中保存数据?
浏览 2
提问于2017-12-21
得票数 1
1
回答
电火花纱获得烟斗拒绝许可
、
、
我试图用CDH
在
纱线上运行电火花,在这个生火的主程序
中
,有一条类似于
rdd
.pipe("XXX.sh")的语句,每次我运行它时,都会弹出一个被拒绝的错误,我该怎么办来解决这个错误呢?谢谢。_0079/container_1495632173402_0079_01_000001/
pyspark
.zip/
pyspark
/
rdd
.py",第2346行,
在
"/data/yarn&
浏览 3
提问于2017-05-25
得票数 0
4
回答
从列表的
RDD
创建
星火DataFrame
、
、
我有一个
rdd
(我们可以称之为myrdd),其中
rdd
中
的每个记录都具有如下形式: [('column 1',value), ('column 2',value), ('column 3',value
浏览 0
提问于2015-04-07
得票数 15
回答已采纳
1
回答
在
PYspark
中
创建
RDD
Spark
中
的一切都是以
RDD
(键和值对)的形式
创建
的。这有必要吗?可以通过
RDD
数据集
创建
/执行哪种类型的分析?请提供一个将其转换为
RDD
的示例和用法 谢谢,Aditya
浏览 15
提问于2019-04-30
得票数 0
2
回答
如何在火花放电中将密集向量的关系式转换成DataFrame?
、
、
、
、
我有这样的DenseVector
RDD
[DenseVector([1.0, 0.0, 1.0, 1.0, 0.0, 0.0,/sql/session.py", line 520, in createDataFrame File "/opt/BIG-DATA/spar
浏览 3
提问于2016-12-26
得票数 11
回答已采纳
5
回答
我
在
Spark
中
创建
简单的
RDD
时遇到错误
、
、
我正在使用Jupyter notebook,刚刚开始学习Apache spark,但在
创建
简单的
RDD
时遇到错误:错误是:,每种情况下都会发生这种情况
浏览 3
提问于2017-03-30
得票数 5
2
回答
访问火花放电
中
的JavaRDD
、
、
、
在
中
,我通过调用从Java加载的类的静态函数来
创建
一个JavaRDD对象。是否可以使用
Pyspark
访问这个JavaRDD? 从SqlContext访问表。获取表的
RDD
,并将其内容映射回反序列化版本。
浏览 8
提问于2015-08-20
得票数 3
3
回答
Spark
RDD
to DataFrame python
、
、
、
我正在尝试将Spark
RDD
转换为DataFrame。我已经看到了将方案传递给sqlContext.CreateDataFrame(
rdd
,schema)函数的文档和示例。是否有其他方法可以
在
不事先知道列的信息的情况下指定模式。
浏览 0
提问于2016-09-26
得票数 47
回答已采纳
2
回答
pyspark
rdd
/dataframe未在cassandra
中
自动
创建
表
、
、
、
、
在
检查了所有找到的源之后,datastax-spark-cassandra连接器支持
在
cassandra中使用scala和java
中
的
rdd
自动
创建
表。特别是对于
pyspark
,有另一个包可以完成这项工作-- 。但是即使有了这个包也不能自动
创建
表格。对于dataframe,我根本找不到任何选项。我刚接触
pyspark
和cassandra,任何帮助都是非常感谢的。尝试仅使用anguenot包作为依赖项。Spark版本: 2.4.7 Cassandra :
浏览 8
提问于2021-03-03
得票数 2
1
回答
从
RDD
-
PySpark
创建
数据帧
、
、
、
在
执行
PySpark
代码时,通过提供所需的模式从现有的DataFrame
创建
DF时,我无法展示
在
什么情况下会引发以下异常,此代码
在
Databricks社区平台中执行。代码: from
pyspark
import SparkConf, SparkContextsc = SparkContext.getOrCreate(conf=conf)
rdd
=s
浏览 108
提问于2021-10-25
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PySpark,大数据处理的Python加速器!
PySpark,一个大数据处理利器的Python库!
遇见YI算法之初识Pyspark(二)
机器学习实践:如何将Spark与Python结合?
PySaprk之DataFrame
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券