腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
通过
jdbc
客户端(如Squirrel
SQL
)远程连接到apche
spark
hive
、
、
、
我
使用
have安装了一个正在运行
的
spark
集群,我可以通过beeline.Hive服务器在本地通过org.apache.
spark
.
sql
.hive.HiveContext运行
SQL
查询
。但我想知道如何通过
jdbc
从远程计算机连接到此
配置
单元
转移存储,而无需在此远程系统中重新安装
配置
单元
。 请建议具体需要什么驱动程序,以及任何
jdbc
客户端应用程序,如Squir
浏览 0
提问于2016-03-04
得票数 0
1
回答
Azure数据库外部化metastore - MSFT脚本未运行
、
、
我正在尝试在AzureSQL上设置带有外部蜂窝转移存储
的
azure数据库。在进行设置时,我创建了Azure
SQL
。现在我必须运行一个MSFT给定
的
sql
,它有表和索引创建
sql
。当我运行它时,它能够创建新
的
表,但创建索引失败。我拥有对数据库
的
完全访问权限。可能是缺少了一些奖励。还有为什么MSFT或Databrick有如此漫长
的
过程?或者是否有更好
的
方法来外部化metedata.Please帮助。
浏览 0
提问于2021-08-09
得票数 0
1
回答
在
spark
中
使用
配置
单元
外部元数据
、
我在外部mysql中
使用
hive metastore创建了我
的
metastore。我
的
表元数据在外部mysql中。我想将它连接到我
的
spark
并
使用
元数据创建dataframe,以便
使用
此元数据填充所有列信息。 我该怎么做呢?
浏览 2
提问于2019-09-18
得票数 0
3
回答
如何从
spark
连接到远程
配置
单元
服务器
、
、
、
我在本地运行
spark
,希望访问位于远程Hadoop集群中
的
Hive表。[ml@master
spark
-2.0.0]$.SLF4J: Found binding in [jar:file:/home/ml/
spark
/
spark
-2.0.0/jars/slf4j-log4j12-1.7.16.jar!:10000 16/10/12 19:06:39
浏览 4
提问于2016-10-12
得票数 15
回答已采纳
1
回答
使用
jdbc
spark
sql
的
配置
单元
查询
、
我有一个
使用
jdbc
连接运行多个
配置
单元
查询
的
java应用程序。我是否可以在不
使用
/没有hive
的
情况下,在与
jdbc
连接
的
spark
sql
上运行相同
的
查询
。我现在
的
查询
就像创建表,进行简单
的
聚合和连接,不会发生重大
的
转换。我没有任何UDF。
浏览 14
提问于2018-02-16
得票数 0
回答已采纳
3
回答
应如何
配置
spark
sql
以访问
配置
单元
元存储?
、
、
、
我正在尝试
使用
Spark
SQL
从Hive元存储中读取一个表,但
Spark
给出了一个关于表未找到
的
错误。我担心
Spark
SQL
会创建一个全新
的
空转储。我通过以下命令提交
spark
任务:
spark
-submit --class etl.EIServerSpark --driver-class-path '/opt/cloudera/parcels/CDHHMSHan
浏览 6
提问于2015-07-01
得票数 4
1
回答
是否可以
使用
spark
的
jdbc
驱动程序将apache
spark
与jasper集成?
、
、
、
我们想
使用
apache
spark
进行实时分析吗?我们目前
使用
hive/MR进行数据处理,
使用
mysqlsql存储聚合结果,并
使用
jasper报告进行分析?我们正在探索在hdfs或cassandra上运行apache
spark
的
过程中,唯一
的
问题是
spark
是否有办法与jasper服务器集成?如果不是,还有什么UI选项可以与
spark
一起
使用
?
浏览 1
提问于2015-02-21
得票数 2
2
回答
在写入Impala时自动创建Impala表
的
Dataframe
、
、
我想知道
Spark
Dataframe保存是否有任何功能,即当它将数据写入Impala表时,它也会创建该表,而该表之前不是在Impala中创建
的
。例如,代码:如果表不存在我期待着您
的
建议/想法。 致以敬意,弗洛林
浏览 0
提问于2018-06-22
得票数 0
1
回答
从PySpark
查询
远程
配置
单元
元存储区
、
、
我正在尝试
使用
用户名/密码/
jdbc
url
查询
PySpark中
的
远程
配置
单元
元存储区。我可以很好地初始化SparkSession,但无法实际
查询
表。from pyspark.
sql
import SparkSession url = f"
jdbc
:hive2://{jdbcHostname}:{jdbcPort}/{jdbcDatabase}"driver =
浏览 14
提问于2020-09-28
得票数 0
1
回答
Spark
-
sql
在没有安装hive
的
情况下能工作吗?
、
、
我已经在一个干净
的
ubuntu实例上安装了
spark
2.4.0。
Spark
数据帧工作得很好,但是当我尝试对数据帧
使用
spark
.
sql
时,比如在下面的例子中,我得到了一个错误“无法访问metastore。这个类不应该在运行时被访问”。.createOrReplaceTempView(&q
浏览 176
提问于2018-12-17
得票数 3
回答已采纳
1
回答
通过Pyspark
查询
配置
单元
返回空结果
、
、
我在AWS EMR集群上运行
spark
2.1.0 (基于以下-)import osfindspark.init('/usr/lib/
spark
/') from pyspark.
sql</
浏览 6
提问于2017-04-24
得票数 1
1
回答
spark
2.0中
的
配置
单元
元store.db错误
、
、
我是
spark
的
新用户。我正在
使用
putty
的
基于远程linux操作系统
的
pc上工作。出于工作目的,我在
spark
中创建了一个
配置
单元
表,这样当我重新进入我
的
linux并创建一个表时,我可以通过it.after操作我
的
putty会话中
的
sql
查询
。
JDBC
url =
jdbc
:derby:;databaseName=metas
浏览 0
提问于2016-08-08
得票数 0
2
回答
我需要在
Spark
中
使用
线程吗?
、
我正在运行一个
Spark
应用程序,它通过
Spark
SQL
运行两个单独
的
配置
单元
选择
查询
,然后将每个
查询
的
结果写入数据库。注意,我需要做一个DB upsert,所以不能
使用
内置
的
Spark
JDBC
。到目前为止,代码是这样
的
:res2 =
浏览 0
提问于2020-04-22
得票数 0
2
回答
SQLException上
的
sqlContext HiveDriver错误:不支持方法
、
、
、
、
我一直在尝试
使用
sqlContext.read.format("
jdbc
").options(driver="org.apache.hive.
jdbc
.HiveDriver")将蜂窝表放入
Spark
,但没有任何成功我做了以下
的
研究和阅读: 我想通过pyspark做
的
事情非常简
浏览 0
提问于2018-01-04
得票数 22
1
回答
在java应用程序之外
查询
我
的
临时表
、
我已经创建了一个启动
spark
(local[*])
的
java应用程序,并利用它将csv文件作为Dataset<Row>读取,并
使用
createOrReplaceTempView创建一个临时视图。此时,我可以利用
SQL
来
查询
应用程序中
的
视图。有什么提示吗? 提前感谢
浏览 2
提问于2017-10-24
得票数 1
1
回答
使用
Spark
Scala将SqlServer数据类型转换为Hive数据类型
、
、
Spark
用于从
SQL
server DB中获取表
的
模式。由于数据类型不匹配,我在
使用
此模式创建
配置
单元
表时遇到问题。如何在
Spark
Scala中将
SQL
Server数据类型转换为Hive数据类型。val df = sqlContext.read.format("
jdbc
") .option("url", "
jdbc
:sqlserver://
浏览 48
提问于2019-07-19
得票数 1
1
回答
Spark
上
的
配置
单元
不返回聚合或连接
查询
的
结果
、
、
Aggregation或Join不会从外部表
的
配置
单元
查询
中返回任何结果。 我已经将
配置
单元
设置为
使用
Spark
(独立)作为
查询
引擎,而不是
使用
MR.。有了SELECT,一切都好,数据返回: SELECT * FROM table1 LIMIT 100 尝试
使用
简单
的
count no data return: SELECT count(*) FROMtable1 我
使用<
浏览 15
提问于2019-06-10
得票数 1
1
回答
spark
查询
执行时间
、
、
我安装了本地hadoop单节点和
配置
单元
,并将一些
配置
单元
表存储在hdfs中。然后,我
使用
MySQL元存储区
配置
配置
单元
。现在我安装了
spark
,我正在对hive表进行一些
查询
,就像这样(在scala中):result = hiveContext.<em
浏览 2
提问于2016-04-04
得票数 2
2
回答
通过
Spark
将csv文件加载到现有
配置
单元
故事中
、
、
、
、
下面是我编写
的
代码,用于连接到关系数据库管理系统,然后创建临时表,在该临时表上执行
SQL
query,通过databricks模块将
SQL
查询
输出保存为.csv格式。= sqlContext.read.format("
jdbc
").option("url","
jdbc
:sqlserver://<server>:<port>").option("databaseName&quo
浏览 30
提问于2017-12-22
得票数 0
回答已采纳
2
回答
通过
JDBC
从
spark
上
的
远程
配置
单元
读取数据返回空结果
、
、
、
、
我需要从
spark
在远程
配置
单元
服务器上执行
配置
单元
查询
,但由于某些原因,我只收到列名(没有数据)。表中
的
数据可用,我通过色调和java
jdbc
连接检查了它。下面是我
的
代码示例: .option("url", "
jdbc
:hive2://remote.hive.server:10000/
浏览 2
提问于2017-06-08
得票数 7
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Spark SQL,DataFrames 以及 Datasets 编程指南
在 MySQL 中使用 explain 查询 SQL 的执行计划
教程:Apache Spark SQL入门及实践指南!
如何将外部数据源与Spark集成?
什么是Spark SQL,它的作用是什么?
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券