腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
Spark
sql
中
将从
文本文件
加载
的
列表
传
递给
SQL
查询
、
、
、
、
我从一个使用,作为分隔符
的
文本文件
中
读取了帐户: val csv =
spark
.read.text("src/main/resources/in/insight/account_issues.txt") import
spark
.sqlContext.implicits._ val string_account = csv.map(_.getString(0)).collect.toLi
浏览 3
提问于2019-02-11
得票数 2
回答已采纳
1
回答
Shell脚本:将变量传
递给
火花-shell会话。
、
、
、
、
我正试图将一个变量传
递给
一个火花壳会话。本质上,我
的
目标是创建一个代码,它将逐行读取
文本文件
并逐一执行
文本文件
中
的
SQL
查询
。要做到这一点,我需要能够将"p“
的
值传递到火花会话
中
。<< 'EOF':quit上面的代码给出了以下错误: scala>
s
浏览 1
提问于2018-10-02
得票数 1
回答已采纳
5
回答
.Net数据处理建议
、
、
、
、
它需要做
的
一部分是在营养信息数据库上运行
查询
。我所拥有的是美国农业部
的
,它是以平面分隔
的
ASCII码文件
的
形式。 我需要
的
是建议。我正在寻找最好
的
方法来将这些数据导入到应用程序
中
,并在运行时轻松快速地进行
查询
。我将使用它来做所有标准
的
事情。动态填充控件,Datagrids,计算等。我还需要做用户特定
的
持久化数据存储。我对.Net Framework3.5很满意,所以
在
访问数据时可以
浏览 7
提问于2008-11-06
得票数 1
回答已采纳
1
回答
将zip文件读入Apache数据文件
、
、
、
、
使用Apache
Spark
(或pyspark),我可以将
文本文件
读取/
加载
到
spark
dataframe
中
,并将该数据
加载
到
sql
中
,如下所示:df.write(.....) 问题:如果数据文件
在
zip文件
中
,我们如何实现相同
的</
浏览 10
提问于2022-07-07
得票数 0
2
回答
如何使用pyspark执行CQL
查询
、
、
、
我想使用PySpark.But执行Cassandra CQL
查询
,我没有找到执行它
的
方法。我可以将整个表
加载
到dataframe并创建临时视图并
查询
它。df =
spark
.read.format("org.apache.
spark
.
sql
.cassandra").options(table="country_production2",keyspace="country").load() df.createOr
浏览 17
提问于2020-07-22
得票数 0
1
回答
Spark
SQL
传递变量- Synapse (
Spark
池)
、
、
、
、
我有下面的SparkSQL (
Spark
pool -
Spark
3.0)代码,我想传递一个变量给它。我该怎么做呢?
浏览 23
提问于2021-06-02
得票数 0
1
回答
如何在REST Web服务上下文中调用
spark
作业?
、
、
、
我想在我
的
restful web服务
中
运行
Spark
SQL
查询
,那么我如何通过Jersey上下文运行
Spark
context?我需要将我
的
Spark
SQL
请求传
递给
集群,然后通过REST API将结果返回给用户。但在
Spark
文档
中
,如果不将jar文件提交到集群(主/从),就无法
在
java代码
中
运行
Spark
<
浏览 0
提问于2015-01-11
得票数 5
1
回答
Apache一次运行读取多个
文本文件
、
、
、
我可以使用以下Apache代码成功地将
文本文件
加载
到DataFrame
中
: .withColumn("fileName",input_file_name())是否有任何方法
在
单次运行中提供多个文件?$$anonfun$org$apache$
sp
浏览 2
提问于2019-01-30
得票数 0
回答已采纳
1
回答
在
Apache
spark
中
跨执行器共享数据
、
、
、
、
我
的
SPARK
项目(用Java编写)需要跨执行器访问(选择
查询
结果)不同
的
表。这个问题
的
一个解决方案是: 表非常大,因此创建大容量
的
Map并将其作为广播变量传
递给
执行
浏览 0
提问于2018-12-18
得票数 0
回答已采纳
1
回答
如何在
SQL
模式(而不是Dataset API)中使用缓存或显式存储级别?
、
、
如何在
Spark
模式下使用具有存储级别的PERSIST?
在
Spark
中
可以使用CACHE。
浏览 6
提问于2017-09-27
得票数 2
回答已采纳
1
回答
<show table> vora
查询
抛出无法启动数据库'metastore_db‘
、
、
我将感谢您对以下问题
的
答复。 我
在
vora
中
创建了几个表(例如test、addresses)。我能够
在
SHOW DATASOUCE中看到这些表
的
列表
并对其进行
查询
。后来,我重新启动了vora实例,并以vora用户
的
身份重新登录,然后启动了vora
spark
shell。我知道我不会在新
的
shell中看到这个表,因为它不会出现在新
的
spark
上下文中。然而,我遇到了一些链接,它说&
浏览 0
提问于2016-03-04
得票数 0
2
回答
在哪些工作负载上使用MapReduce比
SQL
更有意义,反之亦然?
、
、
似乎所有用
SQL
表达
的
查询
都可以转换为MapReduce作业。这本质上就是
Spark
SQL
所做
的
。SparkSQL接收
SQL
,将其转换为MapReduce作业,然后
在
Spark
的
运行时执行MapReduce作业。 所有可以用
SQL
回答
的
问题都可以用MapReduce作业来回答。是否所有的MapReduce作业也可以写成
SQL
(可能有自定义
的
用
浏览 28
提问于2021-03-21
得票数 2
2
回答
使用
Spark
SQL
在
Cassandra表上运行复杂
的
SQL
查询
、
、
、
但是我想使用
Spark
SQL
在
Cassandra表上运行复杂
的
SQL
查询
(聚合/分析函数/窗口函数),您能帮助我应该如何继续吗?以下是使用
的
查询
: sqlContext.
sql
(“CREATE TEMPORARY table words |USING org.apache.
spark
.
sql
.cassandra |OPTIONS
浏览 4
提问于2017-03-23
得票数 1
1
回答
循环遍历包含要执行并附加到dataframe
的
查询
的
列表
、
、
我需要遍历
列表
中
的
每个元素,对数据库运行此
查询
,并将结果附加到相同
的
dataframe (df)
中
。你能告诉我如何做到这一点吗? PS :我正在使用
spark
scala来解决这个问题。
浏览 16
提问于2021-02-09
得票数 0
回答已采纳
1
回答
与JDBC一起使用SparkSession.
sql
()
、
、
、
此
查询
的
目标是优化工作人员
的
内存分配,因为我不能使用: .format("jdbc")[info] at org.apache.
spark
.
sql
.catalyst.analysis.package(Analyzer.scala:459)
浏览 2
提问于2018-04-20
得票数 0
回答已采纳
1
回答
在
Informatica存储过程转换映射中,Oracle存储过程
在
会话结束时运行
、
我创建了Informatica映射,其源是
文本文件
,目标也是
文本文件
。我使用连接
的
存储过程转换来调用Oracle存储过程,
在
接下来
的
步骤
中
,我
将从
存储过程中
加载
的
表
中
读取数据。问题是表正在
加载
,但是表
中
的
数据没有被读取,并且它在目标文件
中
写入零记录。我认为存储过程
在
会话结束时运行。 如何使存储过程
在
流
中
浏览 0
提问于2019-04-10
得票数 1
2
回答
我可以用
Spark
SQL
直接
查询
一个TSV文件吗?
、
、
可以使用
Spark
SQL
直接
查询
TSV文件吗?需要说明
的
是,我说
的
是
Spark
SQL
而不是
Spark
DataFrame。例如,我们可以使用
Spark
SQL
直接
查询
CSV文件。有没有办法
在
(
Spark
)
SQL
语句中指定分隔符?
spark
.
sql
("select * from csv.`
浏览 1
提问于2019-07-03
得票数 0
1
回答
在
Spark
SQL
中
传递参数
、
我需要在
Spark
SQL
中
传递参数。例如,我有以下
查询
作为Val时间戳=
spark
.
sql
("select timestamp from tablea "),现在,我有另一个
查询
要在where类
Spark
.
sql
中
传递这个时间戳(s“select但是上面的
查询
返回不匹配
的
表达式错误。有没有人能提个解决方案
浏览 1
提问于2020-02-04
得票数 0
1
回答
为什么
在
流数据集中使用缓存会导致"AnalysisException:必须用writeStream.start()执行流源
查询
“而失败?
、
、
、
、
SparkSession .master("local[*]") .config("
spark
.
sql
.warehouse.dir", "C:/tmp/
spark
").config("
spark
.
sql
.streaming.checkpointLocation", "C:/tmp/
spark
/
spark
浏览 1
提问于2017-02-06
得票数 13
回答已采纳
1
回答
pyspark dataframe map函数返回类型?
、
为了理解如何在我自己
的
python函数中使用map,我创建了这个人为
的
需求。获取所有数据库,并使用map为每个数据库运行show tables,并收集到所有数据库和表
的
数据帧
中
。return dataframe of tableName:string ''' return
spark
.
sql
("show tables in {0}".f
浏览 2
提问于2018-02-22
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark SQL,DataFrames 以及 Datasets 编程指南
如何在CDH集群上部署Python3运行环境及运行Python作业
教程:Apache Spark SQL入门及实践指南!
利用PowerUpSQL攻击SQL Server实例
数据湖和SQL并不矛盾
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券