腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
spark
scala
中
为
每个
记录
创建
一个
xml
文件
、
、
我有
一个
包含如下
记录
的
文件
1_107570667_ANA_2C68EF2F-AB17-40EF-9
浏览 20
提问于2018-09-07
得票数 0
回答已采纳
3
回答
无法通过shell脚本运行
spark
sql
、
我无法通过shell脚本查询
spark
中
的表。但是如果我通过命令行运行,我就能得到结果。当我在shell
中
插入这些命令并尝试运行时,出现了问题。已
创建
shell脚本: vi test.sh 在
spark
shell命令下插入 火花壳 val results =sqlContext.sql("SELECT * from table_name ")results.show() 它正在进入
spark
shell,但未运行以下两个命令 val results =sqlCont
浏览 37
提问于2019-09-06
得票数 0
回答已采纳
3
回答
在
Scala
程序
中
减少
Spark
的日志输出
、
、
、
我正在编写
一个
遵循this example的
Scala
/
Spark
程序。我的工具是IntelliJ和sbt。(我没有使用
scala
spark
shell。)我正在使用
scala
-logging和logback-classic,我需要减少
Spark
的日志
记录
,或者将
spark
日志
记录
定向到不同的.log
文件
。我尝试在我的代码
中
调用sc.setLogLevel(&quo
浏览 71
提问于2019-01-18
得票数 2
4
回答
如何用
Scala
2.12重建apache
、
我使用的是
Spark
3.1.1,它使用
Scala
2.12,从下载的预构建Livy使用
Scala
2.11(可以在解压缩后找到名为repl_2.11-jars/的
文件
夹)。参考Aliaksandr Sasnouskikh制作的,Livy需要重建,否则即使在后会话
中
也会抛出错误{'msg': 'requirement failed: Cannot find Livy REPL在
中
,它提到: 默认情况下,Livy是针对ApacheSpark2.4.5构建
浏览 20
提问于2021-04-14
得票数 3
回答已采纳
2
回答
使用
Spark
/
Scala
从
XML
记录
中提取元素
、
、
我正在尝试从
XML
记录
中提取元素,其中
每个
xml
文件
都有许多
XML
记录
。下面是我正在使用的修改后的代码和示例xmls。我期望得到
一个
字符串数组,其中数组的
每个
元素都是"user:id",但结果是":"。我原以为
XML
.loadString会解析
每个
文件
,结果会得到单独的
XML
记录
。这意味着如果我以这两个示例
浏览 3
提问于2018-10-09
得票数 2
4
回答
eclipse(使用
scala
环境设置):对象apache不是包org的成员
、
、
我搜索了这个错误,它显示
spark
jars没有被导入。所以,我也导入了"
spark
-assembly-1.4.1-hadoop2.2.0.jar“。但同样的error.Below是我真正想要运行的: object ABC { //
Scala
Main Method println("
Spark
浏览 0
提问于2016-04-19
得票数 3
1
回答
在木星笔记本中使用PySpark读取
XML
、
、
、
我试图读取
XML
文件
:df =
spark
.read.format('com.databricks.
spark
.
xml
').load('/path/to/my.
xml
')并获得以下错误:我试过:$<em
浏览 2
提问于2020-09-18
得票数 2
4
回答
NoClassDefFound :
Scala
/
xml
/元数据
、
、
、
我正在Java
中
运行
一个
简单的星火程序(IDE :Eclipse露娜,Maven)。/
xml
/MetaData at org.apache.
spark
.ui.SparkUI.initialize(SparkUI.
scala
:50) at org.apache.
spark
.ui.
浏览 8
提问于2015-05-05
得票数 7
回答已采纳
1
回答
spark
.eventLog.dir和
spark
.history.fs.logDirectory有什么区别?
在
Spark
中
,事件日志目录和历史服务器日志目录有什么区别?
spark
.eventLog.dir hdfs:///var/log/
spark
/apps
spark
.history.fs.logDirectory hdfs:///var/log/
spark
/apps
浏览 3
提问于2015-08-14
得票数 18
1
回答
如
何在
scala
中生成以
xml
元素
为
键、
xml
为
值的列表
、
、
我有
一个
xml
记录
流,我使用hadoopRDD在
scala
中
处理这些
记录
,最后保存在
一个
文件
中
,但是,在将这些
xml
保存到输出
文件
中
之前,我需要根据特定的属性对它们进行排序。我想用
xml
值和
xml
创建
列表,如下所示<Transaction> <eventid>1234<eventId
浏览 0
提问于2018-03-06
得票数 0
1
回答
当使用
spark
时,我得到了
一个
org.apache.hadoop.hbase.
spark
.SparkSQLPushDownFilter :ClassNotFoundException
、
、
我试图设置-罐子和设置
spark
.sparkContext.addJar("./hbase-
spark
-1.0.0.jar"),,但它不起作用;我的sbt代码:我的
scala
代码: val df = sql.read.format(&qu
浏览 6
提问于2021-09-10
得票数 2
回答已采纳
2
回答
星星之弹
Scala
XML
如何连接属性
、
我试图用逗号分隔符连接
Scala
中
的
XML
属性。
scala
> val fileRead = sc.textFile("source_file")
scala
浏览 1
提问于2015-12-09
得票数 0
回答已采纳
1
回答
没有为方案配置AbstractFileSystem : gs
、
、
我的核心-site.
xml
看起来很好,并且它具有所需的值。core-site.
xml
<name>fs.AbstractFileSystem.gs.impl</name>我能够在命令行
浏览 13
提问于2021-12-09
得票数 0
1
回答
使用递归全局化将
XML
文档提取
为
pyspark
中
的字符串。
、
、
、
目标是将给定XPath表达式的
XML
文档作为字符串从一组文本
文件
中提取出来。困难之处在于文本
文件
格式的变化。可能是:
一个
zip / tar
文件
,具有不同级别的目录,单个
XML
<e
浏览 0
提问于2018-05-18
得票数 1
回答已采纳
1
回答
Spark
未能使用MatrixFactorizationModel加载模型
、
、
MatrixFactorizationModel model = MatrixFactorizationModel.load(jsc.sc(),异常: 线程"main“
中
的异常:不是
文件
: maprfs:/op/tc/model/data在org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java
浏览 1
提问于2016-08-17
得票数 1
回答已采纳
1
回答
数据库
Spark
表花费了100万个小型
XML
文件
、
、
、
、
我有一组100万
文件
,
每个
大小
为
~14 to 在Azure Blob存储
中
,安装在Azure
中
,我尝试使用CREATE TABLE,希望
每个
文件
都有
一个
记录
。
文件
的内容结构如下所示。", excludeAttribute True问题 CREATE TABLE语句运行于5.5小时(
Spark
中有sql
浏览 2
提问于2019-02-22
得票数 2
回答已采纳
1
回答
用于
spark
3.0.0和
Scala
2.12的Azure上的Databricks
Spark
监控
我有
一个
Azure Databricks集群,它使用Databricks版本7.1 (
Spark
3.0.0和
Scala
2.12)运行集群。为此,我尝试构建
spark
-listeners-loganalytics-1.0-SNAPSHOT.jar JAR
文件
,
如
GitHub readme中所述。要编译它,我需要编辑POM以
创建
一个
Maven配置
文件
,其中包括我当前的
Spark
和
Scala
版本,因此
浏览 11
提问于2020-09-25
得票数 1
回答已采纳
1
回答
如何将
每个
输入流
中
的数据集组合为
一个
、
、
如
何在
应用转换之前将
每个
火花输入流
中
的数据集组合为
一个
。arrEle.show }}现在,它将所有
记录
写入输出
文件
。有什么帮助吗?(ClosureClean
浏览 2
提问于2016-08-08
得票数 0
3
回答
如
何在
不更改log4j.properties的情况下关闭PySpark日志
中
的信息?
、
、
我在
一个
集群
中
工作,在这个集群
中
,我没有权限在使用log4j.properties时更改
文件
以停止信息
记录
(
如
第
一个
答案中所解释的那样)。在上面问题的第
一个
答案
中
解释的以下解决方案适用于
spark
-shell (
scala
)import org.apache.log4j.Level但是对于带有python的
spark
浏览 2
提问于2015-09-11
得票数 17
回答已采纳
2
回答
无法从
spark
sql插入到配置单元分区表
、
、
、
我有
一个
配置单元分区表txnaggr_rt_fact,它有2个列分区txninterval和intervaltype。我正在尝试使用java从
spark
sql插入一条
记录
到这个表
中
。在插入过程
中
抛出异常。如果分区不存在,因为它必须
创建
一个
新分区,并且
创建
失败,但是如果分区已经存在,则插入
记录
。)我发现在我的hive-site.
xml
(位于
spark
浏览 0
提问于2018-08-20
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
搭建Windows下的Spark开发环境
Spark机器学习入门实例:大数据集二分类
Hadoop及Spark 分布式HA运行环境搭建
python3,hadoop,spark安装搭建流程小记
Spark SQL,DataFrames 以及 Datasets 编程指南
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券