腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
docker
中
的
scala
从
mongodb
读取
数据
到
spark
。
得到
0条
记录
,
为什么
?
、
、
、
、
尝试将
数据
加载到
spark
时获得零
记录
。printSchema显示根目录。我验证了该集合显示了24条具有多个属性
的
记录
。脚本: import org.apache.
spark
.sql.SparkSession builder().getOrCreate(); /
浏览 20
提问于2021-08-02
得票数 0
2
回答
不能显示/写
从
火花DF
读取
使用
蒙戈火花连接器。
、
、
我正在尝试
从
MongoDB
读取
一个庞大
的
复杂文档
到
spark
数据
框架
中
。当我将这个
数据
库转换成json时,它就能工作了。但是,如果我直接
从
com.
mongodb
.
spark
.exceptions.MongoTypeConversionException:
中
读取
,则会
得到
以下错误:由:
MongoDB
引起
浏览 1
提问于2018-04-03
得票数 1
2
回答
com.
mongodb
.internal.connection.Cluster.selectServer :java.lang.NoSuchMethodError
、
、
、
我是Apache
的
新手,我正在
使用
Scala
和
Mongodb
来学习它。我试图
从
我
的
MongoDB
数据
库
中
读取
RDD,我
的
笔记本脚本如下所示:import com.
mongodb
.
spark
._ com.
mo
浏览 4
提问于2021-08-22
得票数 1
回答已采纳
2
回答
MongoDB
和
Spark
:无法将字符串转换为TimestampType
、
我
使用
官方
的
MongoDB
Spark
Connector
从
MongoDB
集合
中
读取
Spark
中
的
数据
,代码如下: val
spark
= SparkSession.我遇到
的
问题是,我
从
MongoDB
获取
的
一些日期/时间作为字符串,它无法将其转换为
Spark
类型<e
浏览 12
提问于2018-11-28
得票数 1
1
回答
将BsonDocument写入
MongoDB
Spark
Scala
、
、
我想将
数据
保存到
MongoDB
中
,同时
从
推特上流式传输
数据
。: clusterListener can not be nullval sparkVersion = "" %% "mongo-
spark
-connector" % &
浏览 2
提问于2018-05-27
得票数 0
2
回答
数据
库笔记本
Scala
Spark
连接到
MongoDB
无法初始化类com.
mongodb
.
spark
.config.ReadConfig$
、
、
、
、
我正在
使用
一个带有
Spark
的
Databricks
Scala
笔记本连接到
MongoDB
,并且我试图理解
为什么
当我尝试连接到我
的
MongoDB
集群时会出现这个错误。我只是想能够
从
数据
库
中
读取
我
的
,但我不确定
为什么
这个错误总是出现。java.lang.NoClassDefFoundError: Could not initialize class
浏览 1
提问于2020-05-04
得票数 0
1
回答
如何处理JSON文档(来自
MongoDB
)并在结构化流
中
写入HBase?
、
、
、
我正在获取
mongoDB
文档,然后在处理之后,我想
使用
Bson.Document库将其存储
到
Hbase
中
在结构化流媒体
中
,我
得到
了DatasetDocument
scala
> val stream =
spark
.readStr
浏览 15
提问于2019-11-09
得票数 2
1
回答
Pyspark自定义接收器
使用
spark
streaming
读取
mongo更改流日志
、
、
、
、
最后我想
使用
spark
streaming
从
mongodb
change streamsLink
中
读取
数据
。 这里想收集30秒转储,然后推入一些文件。我知道我可能需要编写一些自定义接收器(
使用
pyspark)来
从
相关
的
数据
源接收
数据
,但我找不到任何讨论
使用
PYTHON
的
Spark
Streaming
的
自定义接收
浏览 44
提问于2021-04-16
得票数 0
2
回答
Spark
Mongo DB连接器-未找到类定义
、
、
当我试图
从
Mongo DB
中
读取
数据
时,我面临着问题。我有
Spark
1.6.3,它有
Scala
2.10.5以下是我在Mavan中
使用
的
依赖项<
浏览 0
提问于2020-06-18
得票数 0
1
回答
MongoDB
中
的
读写配置设置管理
、
、
、
假设在
MongoDB
中有多个DB2(DB1,DB2,.DBa,DBb,.)他们每个人都有一些收藏(Col1A,Col1B,.Col2A,Col2B,)$find ../src./src/main/
scala
./src/main/
scala
/application.co
浏览 5
提问于2020-06-11
得票数 2
1
回答
在
scala
中将dataframe转换为json
、
、
、
假设我有一个wordcount示例,其中我在一列
中
以word
的
形式获得
数据
,而在另一列
中
获得wordcount,则希望收集相同
的
数据
,并将其存储为mongo集合
中
的
json数组。word:"abc",count:1},{word:"xyz",count:23}]} 当我在dataframe上尝试.toJSON并将值收集为list并将其添加到dataframe时,存储在mongo
中
的</e
浏览 2
提问于2018-04-13
得票数 3
3
回答
从
Scala
中
的
mongoDB
中
读取
、
、
、
我想要创建一个独立
的
scala
代码,它
使用
自定义设置
从
MongoDB
读取
,
使用
MongoDB
网站
中
的
。scalaVersion := "2.11.12" "org.
浏览 25
提问于2020-06-10
得票数 5
1
回答
带有火花
的
mongodb
有一个错误代码-5。
、
现在,我正在
使用
mongo火花连接器_2.11-2.0.0.jar
从
mongodb
读取
数据
,
mongodb
是一个具有5个配置服务器、5个碎片服务器和1个mongos
的
分片集群。在运行了一段时间之后,我在我
的
驱动程序上
得到
了一个错误代码-5: 导致:错误代码-5
的
查询失败,服务器192.168.12.161:27017上
的
错误消息‘游标2639909050433532364’java.util.co
浏览 7
提问于2017-07-19
得票数 1
1
回答
使用
Java
Spark
加载现有的
Mongodb
到
Hive
、
、
、
目标,我是RN问题当前
的
mongodb
数据
是复杂
的
嵌套dict (struct类型),有没有一种更容易转换以保存在单元
中
的
方法?config(&
浏览 6
提问于2020-03-10
得票数 0
回答已采纳
1
回答
蒙古出口严格
的
火种装载
、
、
、
我有一个
使用
mongoexport
从
mongodb
导出
数据
的
进程。正如提到
的
,所有json输出都处于严格
的
模式
中
。这意味着
数据
将如下所示:其中,我
的
Scala
浏览 3
提问于2017-07-05
得票数 1
回答已采纳
1
回答
用Java在
Spark
中用
MongoDB
中
的
数据
填充SQLContext
、
、
我想准备一个将索引
从
MongoDB
读取
到SQLContext
中
的
Java类,以便在
Spark
.My代码
中
处理
数据
集,如下所示我在maven中
使用
了以下依赖项:
浏览 1
提问于2016-10-09
得票数 0
1
回答
带有
Docker
支持
的
EMR6Beta有S3访问问题
、
、
、
我正在探索新
的
EMR 6.0.0与码头
的
支持,以便作出决定,如果我们想
使用
它。我们
的
一个项目是用
Scala
2.11编写
的
。但是EMR6.0.0是
从
Scala
2.12构建
的
Spark
。所以我转而尝试6.00-beta,它是由
Scala
2.11构建
的
Spark
2.4.3。如果它在6.0.0-beta上工作,那么我们将把我们
的
代码升级
到</em
浏览 3
提问于2020-04-27
得票数 1
2
回答
MongoDB
Scala
-查询特定字段值
的
文档
、
、
所以我知道,在Mongo
中
,您可以
使用
点表示法来获取您想要
的
任何文档
中
的
字段。val record = collection.find().projection(fields(include("offset"), excludeId())).limit为此,
浏览 1
提问于2018-02-28
得票数 2
回答已采纳
1
回答
Spark
Dataframe
的
过滤操作
、
我有一个
Spark
,我希望根据一个特定列
的
匹配值
从
它们中选择几个行/
记录
。我想我可以
使用
过滤器操作或在映射转换中选择操作来实现这一点。但是,我想针对那些在应用过滤器时没有选择
的
行/
记录
更新一个status列。那么,如何知道和更新未被选中
的
行
的
列值?
浏览 0
提问于2018-07-25
得票数 1
2
回答
Spark
独立集群无法
读取
本地文件系统
中
的
文件
、
使用
spark
-shell,我可以
从
本地文件系统上
的
文件
中
读取
数据
,然后进行一些转换,并将最终
的
RDD保存到/home/output(比方说) RDD成功保存,但只在一个工作节点上,在主节点上只有_SUCCESS现在,如果我想从/home/output
读取
输出
数据
,我没有
得到
任何
数据
,因为它在主节点上获得0
数据
,然后我假设它
浏览 19
提问于2017-08-17
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
英雄惜英雄-当Spark遇上Zeppelin之实战案例
Apache Spark 2.4 内置的 Avro 数据源实战
Scala对于大数据开发重要吗?Scala基础学习建议
程序猿张开大嘴,一口含住Hadoop的脑袋,原来大数据如此简单
新手学大数据技术,可以按照什么样的流程来学习?
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券