腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
使用
Spark
1.6.2
JDBC
读取
Oracle
数据
的
并行性
、
、
、
如何在
使用
Spark
1.6.2
从
Oracle
读取
数据
时选择lowerBound、upperBound和numPartitions
的
值。 我有分区键。
浏览 1
提问于2018-02-02
得票数 3
回答已采纳
1
回答
没有主键列
的
Spark
jdbc
读取
性能调优
、
、
、
我正在运行
spark
分析应用程序,并
使用
spark
jdbc
直接
读取
MSSQL Server表(整个表)。这些表有超过30M条记录,但没有任何主键列或整数列。因为表没有这样
的
列,所以我不能
使用
partitionColumn,因此它在
读取
表时花费了太多时间。val datasource =
spark
.read.format("
jdbc
") .option("
浏览 23
提问于2019-09-26
得票数 1
1
回答
Spark
JDBC
: DataFrameReader无法
读取
数据
类型为ROWID
的
Oracle
表
、
、
、
、
我正在尝试
使用
spark
.read.format
读取
一个
Oracle
表,它对所有表都很有效,除了少数表中有任何
数据
类型为ROWID
的
列。下面是我
的
代码 option("url", url).at
oracle
.
jdbc
.driver.GeneratedAccessor.ge
浏览 42
提问于2018-09-09
得票数 3
1
回答
Oracle
到Databricks连接
、
、
、
、
我试图在Azure Databricks平台上
读取
Oracle
数据
库
数据
。 试图连接databricks笔记本上
的
浏览 11
提问于2021-09-16
得票数 0
1
回答
火花(火花放电)速度试验
、
、
我通过
jdbc
连接到一个拥有50万行和14列
的
DB。下面是
使用
的
代码: properties= {'jdbcurl': '
jdbc
:db:XXXXXXXXX','user': 'XXXXXXXXX', 'password': &
浏览 1
提问于2018-03-05
得票数 0
回答已采纳
1
回答
从Databricks连接到
Oracle
、
我正在尝试从Databricks连接到
Oracle
DB。但是,我在任何文档中都找不到确切
的
语法。dbutils.widgets.text("sql_instance_name", "serveraddress")password
浏览 5
提问于2019-08-08
得票数 0
1
回答
从PySpark 3.1.2连接
Oracle
DB -由于Py4JJavaError而失败
、
、
: from pyspark.sql import SparkSession url = '
jdbc
:
oracle
:thin:@hostname:port/dbTEST'user = &
浏览 195
提问于2021-08-19
得票数 0
1
回答
spark
.sql()和
spark
.read.format("
jdbc
").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.sql(查询)是在
使用
spark
.sql时
使用
的
,而
spark
.read.format("
jdbc
").option("query“、"")则是在
使用
oracle
语法时
使用
的
。我这样假设是对
的
吗?
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
1
回答
火花放电中.csv与PostgreSQL表生成.csv
、
、
、
我正在
使用
Apache中
的
MovieLens
数据
集。为了把
数据
放进火花DataFrames,我用了两种方法-dataframeList[table] =
spark
.read.f
浏览 1
提问于2022-11-20
得票数 0
回答已采纳
1
回答
如何在
使用
spark
从
oracle
db
读取
数据
时获得更多
的
并行性
、
、
我在azure data-bricks上运行
spark
。我
的
要求是,我需要从
oracle
db中提取
数据
并将其输出到文件中。因此,为了获得更多
的
并行性
,我在
oracle
查询中对分区列
使用
了哈希算法。example - mod(ora_hash(id), 64) as partition_key 问题是,尽管我在Data-bricks集群中有64个核心可用,但只有8个核心在运行以从
oracle
中提取
数据
以下是代码-
浏览 53
提问于2019-04-17
得票数 0
1
回答
合并减少
JDBC
读取
并行性
我利用
Spark
的
JDBC
功能如下: 在DataFrame
的
整个生命周期中,不对其执行**。它曾经像预期
的
那样起作用,但最近我遇到了一些问题。由于
Spark
的
懒惰评估,coalesce减少了
读取
操作
的
并行性
。因此,如果我
使用
带有DataFrame
的
DataFrameReader.<
浏览 2
提问于2018-04-18
得票数 2
回答已采纳
1
回答
尝试从
Oracle
表
读取
数据
和将
数据
写入HDFS时,
Spark
仅运行一个执行器
我
使用
JDBC
connection
使用
Spark
连接到
oracle
database,并尝试
读取
包含4,000,000行
的
oracle
表。在启动
spark
-shell/submit时,我为每个执行器
使用
了30个执行器、5个执行器内核和4g内存。当
读取
数据
帧
的
计数或尝试写入
数据
时,它只
使用
一个执行器从
oracl
浏览 0
提问于2020-10-30
得票数 0
1
回答
如何在二进制字段上加入?
、
、
、
我正在
使用
以下库:libraryDependencies ++= Seq( "org.apache.
spark
" %% "
spark
-hive" % "
1.6.2
", "org.apache.
spark
" %% "
spark
-mlli
浏览 2
提问于2017-06-09
得票数 4
回答已采纳
1
回答
无法
使用
jdbc
将
spark
数据
集写入
数据
库
、
、
、
我需要将我
的
spark
数据
集写入
oracle
数据
库表。我正在
使用
带有追加模式
的
数据
集写入方法。但是当
使用
spark
2-submit命令在集群上触发
spark
作业时,会出现分析异常。我已经
读取
了json文件,将其扁平化,并将其设置为abcDataset
数据
集。
Spark
版本-2
Oracle
数据
库
JDBC
浏览 51
提问于2019-05-15
得票数 0
1
回答
Kudu兼容性
的
火花
数据
铸造柱
、
、
、
我试图通过Kudu将
Oracle
DB中
的
表复制到具有相同结构
的
Impala表中。当代码试图将
Oracle
NUMBER映射到Kudu
数据
类型时,我会收到一个错误。这是一份从
Oracle
到Impala
的
1到1
的
数据
副本.我提取了源表
的
Oracle
模式,并创建了一个具有相同结构
的
目标Impala表(相同
的
列名和合理
的
数据
类型映射)
浏览 3
提问于2019-05-15
得票数 0
回答已采纳
1
回答
使用
jdbc
触发执行
、
、
、
、
在
Spark
dataframe中,假设我从
oracle
获取
数据
,如下所示。 查询会完全在
oracle
中发生吗?假设查询很大。那么,这对
oracle
来说是一种开销吗?更好
的
方法是
读取
单独
的
dataframe中
的
每个过滤表
数据
,并
使用
Spark
SQL或dataframe连接它,以便在
spark
中进行完整
的
连接?你能帮个忙吗?df = sqlCon
浏览 8
提问于2020-09-17
得票数 0
1
回答
天蓝色
数据
库中
的
SQL查询时间过长
、
、
、
我想
使用
在Azure SQL托管实例中
的
DB上执行SQL查询。我用火花连接器连接到DB。import com.microsoft.azure.sqldb.
spark
.config.Config下面是文档:火花主节点连接到SQL
数据
库或Server中<e
浏览 1
提问于2020-07-10
得票数 1
1
回答
Spark
中
的
惰性评估。
Spark
如何从DB加载
数据
假设我们设置了100
的
限制,并且
Spark
应用程序连接到
数据
库与百万records.Does
Spark
加载所有百万记录或加载100 x 100?
浏览 0
提问于2017-07-05
得票数 2
2
回答
如何将
spark
中
的
数据
保存到Google云平台?
、
、
我将通过
Spark
从
oracle
数据
库中提取
数据
,然后我想将这些
数据
从
spark
存储到Google云平台
的
任何存储中。有可能吗?
数据
大小约为10TB。
浏览 2
提问于2019-11-19
得票数 0
2
回答
JDBC
到
Spark
如何确保均匀分区?
、
、
、
我对
Spark
还不熟悉,我正在
使用
DataFrame从Postgres
数据
库表中
使用
spark
.read.
jdbc
创建一个
JDBC
。文档似乎表明这些字段是可选
的
。如果我不提供呢? 假设我将有20个执行者,所以我将我
的
numPartiti
浏览 0
提问于2019-06-10
得票数 7
点击加载更多
相关
资讯
JDBC介绍JDBC、使用JDBC连接数据库、简单的工具类
使用Spark将本地文件读取并封装为DataFrame的完整指南
使用Pandas读取复杂的Excel数据
使用Tensorflow的DataSet和Iterator读取数据!
使用zabbix监控oracle中的表数据
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券