腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
SparkSession
appName
和
getOrCreate
函数
是什么
意思
?
、
if __name__ == "__main__": .builder \ .
getOrCreate
() data = [(Vectors.sparse(4, [(0, 1.0), (3, -2.0)])什么是 spark =
SparkSession
\
浏览 425
提问于2020-09-25
得票数 0
3
回答
Intellij,Scala读取txt文件并选择标头并将其用作数据格式
、
、
{SparkConf,SparkContext}import org.apache.spark.sql.Dataset
浏览 2
提问于2018-12-24
得票数 0
回答已采纳
2
回答
在创建火花会话时,传递设置元组"spark.some.config.option“、”配置-值“意味着什么?
、
我们到底
是什么
意思
,它的意义
是什么
?例如: .config("spark.some.config.option", "some-value").
getOrCreate
浏览 1
提问于2019-01-04
得票数 0
回答已采纳
2
回答
SqlContext导入
和
并行化火花中的错误
、
、
、
line = "Hello, world"我得到以下错误当我从一个只有一个列的字符串列表中创建一个dataframe时,我还有另外一个问题:from pyspark.sql import SQLContextschema = S
浏览 4
提问于2018-03-19
得票数 0
5
回答
如何从现有的
SparkSession
创建SparkContext
、
、
我有一个星火应用程序,它使用Spark2.0NewAPI
和
SparkSession
。我在使用SparkContext的另一个应用程序的基础上构建这个应用程序。我希望将SparkContext传递给我的应用程序,并使用现有的SparkContext初始化
SparkSession
。 然而,我却找不到办法去做这件事。我发现带有
SparkSession
的SparkContext构造
函数
是私有的,所以我不能以这种方式初始化它,而且构建器不提供任何setSparkContext方法。你认为有什么解决办法吗?
浏览 9
提问于2017-03-21
得票数 39
回答已采纳
1
回答
本地失败,并显示"A master
SparkSession
.Builder be set in your configuration":"spark.master“设置为"local”
、
我有: .builder .config("spark.master", "local")然而$Builder.
get
浏览 1
提问于2018-08-30
得票数 2
1
回答
“
SparkSession
”对象在计算Pyspark中的分类器时没有属性“序列化器”
、
、
、
接下来,我想看到一个混淆矩阵,所以我将分数
和
标签转换为RDD,并将其传递给BinaryClassificationMetrics():以下是错误: AttributeError: '
SparkSession
浏览 1
提问于2019-02-14
得票数 3
回答已采纳
1
回答
将
sparkSession
作为
函数
参数传入spark-scala
、
传递
sparkSession
会不会让我的程序变慢?它比
SparkSession
.
getOrCreate
慢吗?提前谢谢。
浏览 57
提问于2020-02-08
得票数 0
回答已采纳
1
回答
在自定义包中创建pyspark dataframe?
、
、
、
但是假设我有一个
函数
,它接受一些数据列表或字典,预期的输出是包含数据的pyspark dataframe。我认为单个会话应该足够了,因此需要检查会话是否存在,如果不存在,则创建一个会话。但我只是不确定如何在
函数
中做到这一点? 这是我的代码,为什么它不在一个jupyter笔记本里面,我不知道这是不是最好的方式,anyways...sometimes,我得到一个错误使用这个方法。pyspark.SparkConf().set('spark.driver.host','127.0.0.1') sc = pyspark.S
浏览 2
提问于2020-10-31
得票数 0
1
回答
在PySpark中的文件之间传递火花上下文作为参数
、
、
面临的问题:Case1:当运行上面的示例时,它说: spark_df = sqlContext.createDataFrame
浏览 0
提问于2018-09-05
得票数 2
回答已采纳
1
回答
如何通过
sparkSession
向工人提交多个jars?
、
、
下面是我正在使用的java代码片段,它是spark上的一个作业: .
appName
("MySQL.master("spark://ip:7077") .
getOrCreate
c
浏览 23
提问于2017-09-06
得票数 4
回答已采纳
1
回答
建立电火花会话面临的问题
、
、
我正在尝试连接两个数据库Postgres
和
Server。from pyspark.sql import
SparkSession
.builder \ .config("spark.jars", "mssql-jdbc-8.4.1.jre8.jar") \ spa
浏览 8
提问于2022-08-05
得票数 0
1
回答
Spark - Master:解除关联,移除它
、
我正在部署一个包含1个Master节点
和
3个worker节点的Spark集群。在部署Master
和
Worker节点的时刻,master开始向日志发送以下消息; 19/07/17 12:56:51 INFO Master: I have been elected leader!
浏览 28
提问于2019-07-17
得票数 2
1
回答
JAVA: SparkConf不能转换为SparkContext
、
、
JavaSparkContext jsc = new JavaSparkContext(config);} 我有一台Windows8.1PC,运行Java1.8
和
Sparkv2.3.0
浏览 1
提问于2018-03-07
得票数 2
1
回答
AttributeError:'
SparkSession
‘对象没有属性’序列化程序‘
、
我使用的是火花器2.0.1 print(l.b_appid) mrdd = sqlC.read.parquet("hdfs://localhost:54310/yogi/device/processed//data.parquet")
浏览 3
提问于2017-02-21
得票数 1
1
回答
createDataFrame不在Spark2.0.0工作
、
、
我在朱庇特笔记本
和
命令行工作。我可以创建一个没有问题的
SparkSession
。但是,当我试图创建一个dataframe时,我会得到以下错误: d = [{
浏览 3
提问于2017-07-31
得票数 0
回答已采纳
3
回答
解析并显示.config("spark.some.config.option“、”some“)的.
getOrCreate
()
、
、
、
我是SparkSQL的新手,我试图解析
和
显示JSON文件的数据。所以我的问题是,我无法理解下面给出的代码中的第2行,为什么构建器
函数
不像文档(.setAppName而不是.
appName
等)我已经说过了吗?在我的代码第2行中添加的"some-value").
getOrCreate
()
是什么
意思
?如果有人能帮助我理解这一点,我会发自内心地感激你。2. val spark =
SparkSession
.builder().
appName
浏览 9
提问于2017-08-11
得票数 0
回答已采纳
1
回答
仅在需要时才链接方法
我有以下代码: spark =
SparkSession
.builder \ .master("spark://" + os.environMASTER_HOST"] + ":7077")\ .
getOrC
浏览 16
提问于2020-04-17
得票数 2
回答已采纳
4
回答
如何在代码的任何位置获得当前的
SparkSession
?
、
我在main()
函数
中创建了一个会话,如下所示:现在,如果我想配置应用程序或访问属性,可以在同一个
函数
中使用局部变量
sparkSession
。如果我想在同一个项目的其他地方访问这个
sparkSession
,比
浏览 3
提问于2017-06-12
得票数 18
回答已采纳
3
回答
值读取不是org.apache.spark.SparkContext的成员。
、
scala的版本为2.11.8;jdk为1.8;spark为2.0.2val dataset = spark.read.format("libsvm")错误信息是: 我不知道怎么解决。
浏览 3
提问于2016-12-04
得票数 6
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Spark将本地文件读取并封装为DataFrame的完整指南
PySpark,大数据处理的Python加速器!
Zzreal的大数据笔记-SparkDay05
一个Python大数据处理利器:PySpark入门指南
人生苦短,我用python之入门篇-3
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券