腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(118)
视频
沙龙
1
回答
SPARK
to
ELASTIC
SEARCH
程序
抛出
异常
,
不支持
追加
输出
模式
、
、
、
我在windows上运行下面的代码,它
抛出
了一个错误,不能工作。zk,kafka,elasticsearch所有的服务器都在运行。数据已经发布到kafka主题 def main(args: Array[String]): Unit = { .config("es.index.auto.create","true")
浏览 37
提问于2018-07-31
得票数 0
2
回答
火花流dropDuplicates
、
、
、
我使用
追加
模式
,因为数据只是通过
spark
.sql()方法被充实/过滤,没有按/窗口聚合分组。然后,我使用附加
模式
将拼花文件写入s3。但是,这与错误失败:这个错误看起来很奇怪,因为我没有进行聚合(由于今天是7月24日
浏览 1
提问于2017-07-24
得票数 1
回答已采纳
2
回答
通过JDBC从pyspark dataframe插入到外部数据库表时的重复键更新
、
、
、
、
嗯,我使用的是PySpark,我有一个
Spark
dataframe,我使用它将数据插入到mysql表中。 url = "jdbc:mysql://hostname/myDB?我尝试过不同的
模式
(
追加
、覆盖) DataFrameWriter.jdbc()函数。
浏览 4
提问于2015-09-16
得票数 12
2
回答
如何将流数据写入S3?
、
、
、
、
我找到了,其中使用了库
spark
-s3。其想法是创建SparkContext,然后创建SQLContext。文章的作者做了这样的事情: rdd.toDF().write .option("fileType","json") .sa
浏览 0
提问于2016-10-10
得票数 3
回答已采纳
2
回答
Databricks to_avro只在没有指定事件名称和命名空间的情况下注册架构时才能工作。
、
、
、
、
我使用的是databricks运行时10.0和
Spark
3.2.0和Scala2.12。我还依赖于io.confluent:kafka-schema-registry-client:6.2.0,,使用CachedSchemaRegistryClient在
模式
注册表中注册
模式
,如下所示:val schema = toAvroType(dataframe.schema, true, "some_name", "com.some
浏览 5
提问于2022-03-03
得票数 1
回答已采纳
1
回答
将csv列中的空值视为空数据类型的火花
我的
spark
应用
程序
读取csv文件,用sql将其转换为不同的格式,并将结果数据写入不同的csv文件。PrimaryLocationId,from Input (我无法回答为什么使用null作为SecondaryLocationId,它是业务用例)现在
spark
无法确定SecondaryLocationId的数据类型并在
模式
中返回null,并
抛出
错误CSV数据源在写入
输出
csv时
不支持
空数据类型。
浏览 1
提问于2017-09-27
得票数 6
回答已采纳
2
回答
如何阻止hibernate搜索嗅探不存在的本地弹性搜索服务器的节点?
、
、
我尝试过设置字段hibernate.
search
.backend.hosts和hibernate.
search
.backend.protocol,而不是.uris。hibernate.
search
.backend.aws.credentials.access_key_id", awsId); jpaProperties
浏览 31
提问于2022-07-20
得票数 0
回答已采纳
3
回答
Spark
action坚持使用EOFException
我正在尝试执行一个带有卡住的
Spark
的动作。相应的执行器
抛出
以下
异常
: 2019-03-06 11:18:16 ERROR Inbox:91 - Ignoring errorat java.io.DataInputStream.readFully)at org.apache.
spark
.rpc.netty.Dispatcher集群,使用
浏览 33
提问于2019-03-06
得票数 2
回答已采纳
2
回答
卡桑德拉依赖关系问题:未找到CassandraJavaUtil
我试着启动一个小应用
程序
,它只读取cassandra数据库中的一个表。推出的应用
程序
与火花-子: /opt/
spark
/bin/
spark
提交-类com.baitic.mcava.pruebacassandra.PruebaCassandraBBDD -主火花1G /home/miren/NetBeansProjects/PruebaCassandra/target/original-PruebaCassandr
浏览 2
提问于2016-02-25
得票数 0
2
回答
火花结构流水印错误
、
、
在没有水印的流式DataFrames/数据集上有流聚合时,
不支持
线程“主”org.apache.
spark
.sql.AnalysisException:
追加
输出
模式
的
异常
;;EventTimeWatermark
浏览 0
提问于2018-11-02
得票数 4
回答已采纳
5
回答
如何在
spark
中使用parquet读写相同的文件?
、
、
我试图从
spark
中的一个拼图文件中读取,与另一个rdd进行联合,然后将结果写入我从其中读取的相同文件中(基本上是覆盖),这会
抛出
以下错误: at org.apache.
spark
.rdd.RDDOperationScope:130) at org.apache.
浏览 0
提问于2016-05-06
得票数 8
7
回答
如何覆盖
spark
中的
输出
目录
我有一个
spark
streaming应用
程序
,它每分钟都会生成一个数据集。我需要保存/覆盖处理数据的结果。我设置了
Spark
属性set("
spark
.files.overwrite","true"),但是没有成功。 如何覆盖或预删除
spark
中的文件?
浏览 271
提问于2014-11-20
得票数 124
回答已采纳
5
回答
读取地块文件时刷新Dataframe的元数据
、
、
、
你可以通过在SQL中运行'REFRESH TABLE tableName‘命令或者重新创建相关的Dataset/DataFrame来显式地使
Spark
中的缓存无效。我使用的是
Spark
2.2 有人能帮我刷新元数据吗?
浏览 1
提问于2019-11-08
得票数 4
3
回答
为什么RDD.map中的代码没有在纱线中执行?
、
我
spark
-submit成纱(有16 to内存和4芯)。rdd2 = rdd1.map { rec => (rec.split(",")(0), rec) } rec似乎没有传递给transformations.transform
浏览 0
提问于2018-03-27
得票数 4
回答已采纳
4
回答
为什么
抛出
异常
的速度这么慢?
、
、
、
他们告诉我们不要使用
异常
来控制
程序
的流,因为
抛出
异常
很慢。我从来没有听过任何解释,为什么
抛出
例外的速度这么慢。一些澄清:我想知道操作系统需要哪些额外的工作来处理
抛出
的
异常
。在用户
模式
和内核
模式
之间是否存在一些转换,这是非常昂贵的?或者可能构建
异常
对象的代价很高?或者,也许有什么与交换
程序<
浏览 0
提问于2013-06-29
得票数 2
回答已采纳
1
回答
错误与第一()步中的火花
、
$.writeUTF(PythonRDD.scala:622) at org.apache.
spark
.scheduler.DAGScheduler.org$apache$
spark
$scheduler$DAGSchedulerat org.apache.
spark
.util.EventLoop$$anon$1
浏览 1
提问于2016-05-20
得票数 1
回答已采纳
2
回答
EJB拦截器和事务生命周期或如何拦截提交/失败事件?
、
、
、
我有一个EJB拦截器,我遵循Adam Bien建议的BCE
模式
,也就是说,边界上的所有EJB调用都启动并完成了一个事务,这意味着没有嵌套的EJB调用(虽然可能有嵌套的CDI注入Bean调用,但这些调用应该在
浏览 0
提问于2015-03-02
得票数 2
回答已采纳
9
回答
在Zeppelin0.7.1中运行
Spark
代码时获取NullPointerException
、
当我尝试执行示例
spark
程序
(在Zeppelin Tutorial notebook中提供)时,我得到了以下错误 at org.apache.zeppelin.
spark
.Utils.invokeMethod(Utils.java:38) at org.apache.zeppelin.
spark
浏览 2
提问于2017-04-08
得票数 17
3
回答
输出
flles在Java中不断得到ovewritten
、
、
、
、
每次
程序
运行结束时,我都会调用写入要
追加
的已保存数据的函数。最终发生的情况是,它覆盖了上次保存的数据。我还有其他处理该文本文件的代码块,对它们的改造也没有做任何事情。
浏览 1
提问于2013-02-10
得票数 0
1
回答
火花
抛出
错误:向FileNotFoundException写入数据帧时的S3
、
、
,,我们有一个数据帧,我们想要以拼花格式和覆盖
模式
写到s3。每次写数据时,总是一个新文件夹。how位置(意味着没有人从这个位置读取)时,;为什么编写
程序
会
抛出
下面的s3来修复它?--我看到几个堆栈溢出指向这个
异常
。但他们说,当你尝试阅读时,当写作发生时,就会发生这种情况。scalaI 我的火花是2.3.2;EMR-5.18.1;代码是用s3://作为
输出
文件夹路径用s3://编写的。我应该把它换成s3n或s3a吗?这有用吗?at org.apache.
spa
浏览 9
提问于2022-11-14
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Java Stack源码解读和简单应用
springboot整合elasticsearch全文检索入门
Docker 日志的 10 大陷阱
PHP 异常与错误处理
探索大数据技术在商业银行信用风险监控领域的应用
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券