腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用
Spark
JDBC
指定
jceks
文件
、
、
、
一切都很顺利,但在创建
JDBC
字符串时,我必须在字符串中
指定
数据库的用户名和密码:但是,我在HDFS上有一个包含密码的
jceks
文件
。我想知道是否有任何方法可以利用该
文件
来连接到
JDBC
,而不是纯文本密码?就像在Sqoop中,我们可以这样做: sqoop impo
浏览 28
提问于2017-08-01
得票数 1
回答已采纳
1
回答
如何在python中解密密码
、
、
、
、
我的代码是
使用
pyspark连接到sql server。对于这个连接,我得到了
jceks
的加密密码。如何解密密码并用于从sql server加载表。请提个建议。pyspark.sql.functions import structfrom pyspark.sql.session import SparkSession .builder \ .appName("Python
Spark</e
浏览 14
提问于2019-08-06
得票数 4
回答已采纳
2
回答
无法在python中以纱线群集模式读取
jceks
文件
。
、
、
、
、
我正在
使用
jceks
文件
解密我的密码,并且无法在纱线群集模式下读取加密密码。我尝试过不同的方法,比如--file /localpath/credentials.
jceks
#credentials.
jceks
--conf
spark
.hadoop.hadoop.security.credential.provider.path=
jceks
://
浏览 4
提问于2019-08-26
得票数 1
3
回答
如何
使用
Spark
中的Hadoop凭据提供程序连接到Oracle数据库?
、
、
、
、
我正试图在
Spark
和Oracle以及Sqoop和Oracle之间建立一个安全的连接。经过我的研究,我已经找到了两个不同的选择,两种不同的设置。在
使用
spark
.
jdbc
.b64password加密密码的情况下,将火花连接到甲骨文,此外,它已经用火花码解密,并在
jdbc
中
使用
。
使用
Hadoop凭据提供程序创建密码
文件
,并且在Sqoop中
使用
它连接到Oracle。 现在,将密码保存在两个不同的
文件
中似乎不是一个
浏览 0
提问于2017-12-12
得票数 1
3
回答
通过星火节约服务创建/访问带有s3位置的蜂箱外部表
、
、
我
使用
hadoop-credential api在
jceks
文件
中配置了s3 key (访问密钥和秘密密钥)。hadoop凭据创建fs.s3a.access.key -provider -provider然后,我将
使用
直线打开到火花服务器的连接,并在连接字符串中传递
jceks
文件
路径,如下所示: 直线"
jdbc
:hive2://hostname
浏览 3
提问于2017-05-19
得票数 1
2
回答
如何
使用
maven在
spark
中包含
jdbc
jar
、
、
、
、
我有一个
spark
(2.1.0)作业,它
使用
postgres
jdbc
驱动程序,如下所述:val jdbcURL = s"
jdbc
:postgresql://${config.pgHost(jdbcURL, tableName, connectionProperties) 我已经成功地从下载了
jdbc
驱动程序,并
使用
--jars postgresql-42.1.1.jar --driver-class-pa
浏览 7
提问于2017-08-02
得票数 0
1
回答
在本地S3兼容对象存储区中
使用
Apache火花
、
我试图
使用
完全兼容s3 sdk/api的本地对象存储来运行一个简单的Apache (Cloudera)读取操作。但我似乎无法理解如何让
Spark
理解我正在尝试访问本地S3桶,而不是远程AWS/S3。pyspark2 --conf
spark
.hadoop.hadoop.security.credential.provider.path=
jceks
://hdfs/user/myusername/awskeyfile.
jceks
所以最后的电
浏览 0
提问于2019-07-29
得票数 0
3
回答
如何将
spark
远程蜂箱与认证连接起来
、
我必须
使用
本地星星之火将远程蜂箱与身份验证连接起来。 我怎样才能把它转
浏览 0
提问于2019-07-25
得票数 4
1
回答
AWS :设置S3桶访问的hadoop凭据提供程序
、
、
、
、
在设置了集群并附加了笔记本之后,我可以在
使用
以下方法设置hadoop配置之后,
使用
spark
.read.parquet("s3n://...")从存储桶中读取数据:
使用
SSH通过Putty.exe创建了EMR集群,我创建了hadoop凭据
文件
: $ hadoop credential create fs.s3a.access.key -provider-provider
jceks
://hdfs
浏览 3
提问于2020-05-19
得票数 0
3
回答
对
Spark
框架上的SQL Server进行JavaKerberos身份验证
、
、
、
我正在尝试让
spark
集群
使用
带有微软
JDBC
驱动程序(v7.0.0)的JavaKerberos (即,我在连接字符串中
指定
integratedSecurity=true;authenticationScheme我
使用
以下命令将作业提交到集群(4节点YARN模式v2.3.0):--jarsSQL 凭据,我可以让一切正常工作(但是,我需要在我的<em
浏览 154
提问于2018-10-05
得票数 1
回答已采纳
2
回答
PySpark
JDBC
Teradata连接
、
、
、
我
使用
spark
-submit提交
spark
作业,并通过--jars标志
指定
要加载的Teradata
JDBC
驱动程序的最新版本(17.10.00.14)。日志确认JAR
文件
已成功添加。但是,在与Teradata建立连接时 ( option("url", url).此java.sql.SQLException由com.teradata.
jd
浏览 136
提问于2021-07-15
得票数 0
回答已采纳
1
回答
如何让气流在外部服务器上进行身份验证?
、
、
SparkSubmitOperator( application = '/path/to/app.py', conf = { '
浏览 3
提问于2020-11-23
得票数 0
回答已采纳
1
回答
使用
sparkJDBCDataset加载数据,但jars不起作用
、
、
当
使用
sparkJDBCDataset通过
JDBC
连接加载表时,我总是遇到
spark
找不到我的驱动程序的错误。该驱动程序确实存在于机器上,其目录是在config/base下的
spark
.yml
文件
中
指定
的。_get_
spark
().read.
jdbc
(self._url, self._table, **self._load_args) 当我
使用
用
spark
.jars定义的SparkSession从Kedro
浏览 27
提问于2020-03-19
得票数 2
1
回答
使用
Spark
和Scala连接到本地postgresql数据库
、
、
、
如何
使用
IntelliJ连接到本地postgresql数据库,
使用
spark
并运行sql命令来操作表?我有很多关于版本冲突的问题,所以也有可能包含依赖关系吗?
浏览 1
提问于2017-07-18
得票数 3
1
回答
如何在命令行中
指定
keystore类型?
、
在java.security
文件
中,可以
指定
keystore.type值。但是,这似乎改变了所有JVM实例的默认keystore类型。我只想在一个例子中改变它。目前,它被设置为"jks",但我需要它是"
jceks
“。我试过-Djava.security.keystore.type=
jceks
,但这似乎不像我想做的那样。 怎么做才是对的?
浏览 0
提问于2018-09-24
得票数 0
回答已采纳
1
回答
如何
使用
存储在hdfs中的
jceks
文件
连接到aws sqs队列和s3
、
、
、
、
我已经将密钥和访问密钥作为
文件
存储在hdfs中,用于访问AWS。hadoop credential create fs.s3a.access.key -provider
jceks
://hdfs/user/dev/keys.
jceks
-value **************** hadoop credential create fs.s3a.secret.key -provider
jceks
://hdfs/user/dev
浏览 5
提问于2019-10-23
得票数 1
1
回答
使用
动物园管理员解析蜂箱连接url
、
、
、
在我的应用程序中,目前我正在
使用
jdbc
连接字符串直接连接到蜂巢,如下所示-现在,我不想直接连接到蜂箱,我想将这个责任委托给Zookeeper
浏览 3
提问于2017-05-15
得票数 0
回答已采纳
1
回答
需要一种解决方案来
使用
Pyspark连接Teradata
、
sc =
spark
.sparkContextsqlContext = SQLContext(sc) df = sqlContext.read.format("
jdbc
").options(url="
jdbc
:teradata://teradata-dns-sysa.fg.rbc.com",driver="com.teradata.
jdbc
.TeraDriver因此,寻找一种解决方案
浏览 1
提问于2019-02-05
得票数 0
10
回答
Spark
找不到
JDBC
驱动程序
、
、
因此,我一直在
使用
sbt和assembly将我的所有依赖项打包到一个jar中,用于我的
spark
作业。我有几个工作,我
使用
c3p0设置连接池信息,将其广播出去,然后在RDD上
使用
foreachPartition获取连接,并将数据插入到数据库中。在我的sbt构建脚本中,我包含了这确保了
JDBC
连接器与作业打包在一起。一切都很好。因此,最近我开始尝试
使用
浏览 198
提问于2015-04-10
得票数 32
1
回答
正在尝试
使用
datastax cassandra连接器启动
spark
thrift服务器
、
、
、
、
我已经启动了
spark
-thrift服务器,并
使用
beeline连接到了thrift服务器。在尝试查询时,在配置单元元存储中创建一个表时,我收到以下错误。org.apache.
spark
.sql.cassandra不是有效的
Spark
SQL数据源。10000:
jdbc
:hive2://本地主机:10000> select * from traveldata.employee_details; Error: org.apache.hive.service.cli.HiveSQLE
浏览 36
提问于2021-05-08
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Linux下使用nohup命令,输出信息到指定文件
使用Spark将本地文件读取并封装为DataFrame的完整指南
Spark SQL,DataFrames 以及 Datasets 编程指南
第八篇|Spark SQL百万级数据批量读写入MySQL
半小时搭建 spark 应用
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券