腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
spark
创建新的
MySQL
表
、
、
、
、
我知道我们可以使用
spark
从现有的
mysql
表中读取和
写入
数据
。但是,我们甚至可以创建
mysql
表并使用dataframes
将
数据
插入其中吗?当我试图
将
文件加载到dataframe并试图
写入
不存在的表时,我面临的是空指针,exception.Following是一个错误: org.apache.
spark
.sql.execution.datasources.jdbc.JdbcRelationProvider.cr
浏览 1
提问于2018-03-12
得票数 2
1
回答
使用
spark
streaming和
spark
redshift-connector
将
数据
从kafka复制到红移
、
、
我正在尝试设置一条从
mysql
binlogs到redshift的
数据
管道。我正在从
Mysql
binlogs(使用一个工具- cannedbeer,来自mypipe的fork )向kafka
写入
数据
,然后使用
spark
streaming
将
这些消息
写入
到使用
spark
redshift我面临的问题是,由于Dstream .Can的foreachRDD方法(
写入
Redshift的副作用)中的作业失败,相同的消息被多次
浏览 1
提问于2015-11-12
得票数 1
1
回答
spark
.sql()和
spark
.read.format("jdbc").option("query“、"")之间有什么区别?
、
、
、
我假设
spark
.sql(查询)是在使用
spark
.sql时使用的,而
spark
.read.format("jdbc").option("query“、"")则是在使用oracle语法时使用的。
浏览 3
提问于2021-08-16
得票数 3
回答已采纳
3
回答
在
写入
dataframe - pyspark之前从表中删除记录
、
、
、
、
在从dataframe向表中
写入
数据
之前,我正在尝试从表中删除记录。这对我不起作用。我做错了什么?query = "(delete from xx_files_tbl)" .option("url", "jdbc:sqlserver
浏览 172
提问于2020-10-14
得票数 1
回答已采纳
1
回答
使用
Spark
写入
memsql的最佳实践
、
、
我的用例如下:我们正在使用
Spark
从HDFS读取和转换
数据
。转换后的
数据
应保存在memsql中。长话短说:
Spark</em
浏览 4
提问于2016-01-15
得票数 1
1
回答
可以在
Spark
?中
写入
MEDIUMTEXT类型的
MySQL
列。
、
、
、
我正在使用
Spark
SQL从一个
MySQL
表中读入一个
数据
框,其中有一列的类型为MEDIUMTEXT。当我
将
数据
框原封不动地
写入
新表中时,该列现在的类型为TEXT,并且我得到了一个
MySQL
MysqlDataTruncation异常。我不知道我是不是运气不好,或者有什么方法可以告诉
Spark
SQL特定于
MySQL
的结果列类型是什么。 在座有人对这个问题有所了解吗?
浏览 141
提问于2019-08-08
得票数 2
2
回答
使用Apache编写错误
、
、
我是一个使用
Spark
的新手。我遵循了DataBricks:的在线指南import org.apache.
spark
.SparkConf; import org.apache.
spark
.api.java.JavaSparkContext;import org.apache.
spark
.sql.Dataset;
浏览 4
提问于2017-05-01
得票数 0
回答已采纳
2
回答
如何从主机接入
MySQL
Docker镜像?
、
我正在运行
MySQL
Docker镜像并创建
数据
库和表。使用以下命令加载容器:
Spark
在我的主机上运行,所以我想将
Spark
中的
数据
写入
容器中运行的
数据
库中。但是连接没有成功,我得到了
浏览 1
提问于2019-12-11
得票数 1
1
回答
PySpark和
MySQL
选项
、
、
我想用下面的方式写到DB上 df.write.format("jdbc").option("url", jdbc_url).option("driver", "com.
mysql
.jdbc.Driver
浏览 2
提问于2020-09-16
得票数 1
回答已采纳
1
回答
如何加入来自
mysql
和Oracle的SparkSQL
数据
?
、
在SparkSQL中可以加入
mysql
和Oracle
数据
库中的
数据
吗?我试图加入他们,但在
SPARK
_CLASSPATH中设置多个jars (用于
mysql
和Oracle的jdbc驱动程序)时遇到了一些问题。这是我的代码:import sys sys.path.append(&quo
浏览 2
提问于2015-12-30
得票数 1
1
回答
将
PySpark DataFrames
写入
MySQL
时的最佳实践
、
、
、
、
我试图开发几个
数据
管道使用Apache气流与预定的火花作业。df_tsv =
spark
.read.csv(tsv_file, sep=r'\t', header=True) df_tsv.write.jdbc(url=
mysql
_url, table=
mysql</em
浏览 2
提问于2021-10-28
得票数 1
回答已采纳
1
回答
我可以使用Pyspark更新远程
Mysql
DB中的表中的值吗?
、
、
、
、
我正在使用kafka从远程
mysql
数据
库读取
数据
,并将其传递到Pyspark streaming以应用情感分析,然后用该值更新
mysql
数据
库中的列。这是最好的情况,还是有比这更有效的架构?
浏览 1
提问于2019-11-20
得票数 0
1
回答
通过PySpark
将
数据
写入
外部
数据
库
、
、
我想将
数据
从PySpark DataFrame
写入
外部
数据
库,比如Azure
MySQL
数据
库。到目前为止,我已经使用.write.jdbc()成功地做到了这一点,
spark
_df.write.jdbc(url=
mysql
_url, table=
mysql
_table, mode="append", properties={"user":
mysql
_user, "password&q
浏览 2
提问于2021-11-03
得票数 1
回答已采纳
2
回答
在Azure
数据
库中使用Python
将
DF
写入
Server
、
、
、
、
我有一个
数据
文件,需要插入到Server中。我以前多次这样做,使用下面的Scala代码。
浏览 3
提问于2019-11-22
得票数 5
回答已采纳
1
回答
当使用foreachPartition
将
rdd中的
数据
写入
mysql
时,我偶尔会断开
mysql
连接。
、
、
、
我使用
spark
rdd
将
数据
写入
mysql
,我使用的运算符是foreachPartition,在运算符中我建立了连接池并
写入
数据
(使用类似jdbc的),然后销毁连接池,但似乎偶尔找不到连接池,日志中写道
数据
被完全插入了finally.But异常把我搞糊涂了
浏览 1
提问于2019-08-20
得票数 0
3
回答
如何使用JDBC源在(Py)星火库中读写
数据
?
、
、
、
、
这个问题的目的是记录: 这些方法只要做一些小的改动,就可以与其他受支持的语言一起工作,包括Scala
浏览 0
提问于2015-06-22
得票数 81
回答已采纳
1
回答
错误:使用
Spark
写入
TiDB时,GC生存期短于事务持续时间
我正在使用Apache
Spark
批量
写入
数据
。批次为1天。在运行
spark
作业时,我得到了这个错误。我正在使用
MySQL
java连接器连接到TiDB集群。
Spark
为
写入
创建了144个并行任务。(SQLError.java:1055) at com.
mysql
.jdbc.MysqlIO.
浏览 7
提问于2018-11-13
得票数 0
1
回答
在
spark
中将
数据
保存为
MySQL
后,
MySQL
变为空
、
、
我希望
将
数据
保存到
MySQL
中,覆盖某些字段中的重复行,并将挂起的
数据
不包含的
数据
保存在
MySQL
中。我试过的Mode.Overwrite/Mode.append仍然不能满足我的需求。因此,我尝试从
MySQL
加载现有
数据
并找到行。但是,当
将
数据
保存到
MySQL
中时,获得的DataFrame变为空。在此过程中,我尝试了两种方法: 查找挂起的
数据
中不存在的
数据</
浏览 1
提问于2017-11-07
得票数 3
回答已采纳
1
回答
使用JDBC驱动程序
将
Spark
数据
集
写入
Oracle
数据
库的过程非常耗时
、
、
、
、
我正在使用Apache
Spark
加载、处理
数据
集,并使用JDBC驱动程序
将
数据
集输出到Oracle DB中。 我使用
spark
jdbc write方法
将
数据
集
写入
数据
库。但是,同时
将
数据
集
写入
数据
库,
将
10行和1000万行
写入
数据
库的不同表所需的时间相同。我想知道如何使用
spark
调优此<
浏览 0
提问于2018-08-21
得票数 0
1
回答
使用PySpark DataFrames和JDBC插入和更新
MySql
表
、
、
、
、
我正在尝试使用PySpark、SQL、DataFrames和JDBC connection在
MySql
上插入和更新一些
数据
。如果我更改为SaveMode.Overwrite,它将删除整个表并创建一个新表,我正在寻找类似于<em
浏览 2
提问于2020-07-02
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
第八篇|Spark SQL百万级数据批量读写入MySQL
Python写入数据到MySQL
Python爬虫数据写入mySQL案例
解决写入中文数据到 MySql 时变成?
Nodejs+Express搭建web,mysql+ajax获取数据写入数据库
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券