腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9264)
视频
沙龙
1
回答
在
Spark
中
使用
Get命令从
Hbase
读取
数据
、
我想从一个
Hbase
表
读取
数据
使用
get命令,同时我也有行的关键字。我想在我的星火流应用程序
中
做到这一点,有没有任何源代码可以分享?
浏览 1
提问于2016-11-17
得票数 0
2
回答
HBase
·PySpark表加载错误
、
、
我试着从PySpark的
HBase
中
读取
一个表格。 testdata_rdd = sc.
newAPIHadoopRDD
("org.apache.hadoop.
hbase
.mapr
浏览 1
提问于2016-07-27
得票数 1
2
回答
PySpark
HBase
/Phoenix集成
、
、
我应该把菲尼克斯的
数据
读到pyspark里。编辑:我
使用
的是火花
HBase
转换器:port="2181"keyConv = "org.apache.
spark
.examples.pythonconverters.ImmutableBytesWritableToStringConverter": "camel", "
hbase
.mapreduce.s
浏览 5
提问于2015-09-15
得票数 0
2
回答
我应该
使用
哪个用于
Spark
2.0的
HBase
连接器?
、
、
、
、
我们的堆栈是由Google (
Spark
2.0)和Google BigTable (
HBase
1.2.0)组成的,我正在寻找一个与这些版本一起工作的连接器。
Spark
2.0和新的DataSet API支持对于我发现的连接器还不清楚: hortonworks-
spark
/shc:
浏览 4
提问于2016-12-01
得票数 12
回答已采纳
1
回答
如何
使用
Python连接
HBase
和
Spark
?
、
、
、
、
我有一个令人尴尬的并行任务,我
使用
星火分配计算。这些计算是用Python进行的,我
使用
PySpark来
读取
和预处理
数据
。我的任务的输入
数据
存储在
HBase
中
。不幸的是,我还没有找到一种令人满意的(即易于
使用
和可伸缩的)方法来
使用
Python从/写入
HBase
数据
。
使用
happybase从我的Python进程中进行连接。这个包允许通过
使用
浏览 4
提问于2016-07-19
得票数 15
回答已采纳
1
回答
Spark
:对从
HBase
数据
创建的RDD进行分区
、
、
、
如果我
使用
以下命令从
HBase
(或MapR-DB)表
中
读取
一些
数据
JavaPairRDD<ImmutableBytesWritable, Result> usersRDD = sc.
newAPIHadoopRDD
就像
Spark
抱怨的那样,
使用
usersRDD.repartition(10)这样的东西是不可行的,因为ImmutableBytesWritable是不可序列化的。有没有办法让
Spark
从
HBase</
浏览 1
提问于2016-05-05
得票数 2
2
回答
用
Spark
和
JAVA
从
HBase
中
读取
数据
、
、
、
我想
使用
JAVA
通过
Spark
访问
HBase
。除此之外,我还没有找到任何这样的例子。 这个 一个。答案是这样写的: 您也可以用
Java
编写以下代码 我从 如何
使用
spark
读取
hbase
: import org.apache.hadoop.
hbase
.client.import org.apache.hadoop.
hbase
.io.ImmutableBytesWritable import o
浏览 69
提问于2017-02-21
得票数 1
1
回答
hbase
与pyspark的集成
、
、
我正在尝试从HDP 2.3
中
的pyspark访问
hbase
,现在我只是尝试
使用
以下命令执行
spark
目录
中
给出的示例程序: at org.apache.
spark
.api.python.PythonRDD$.
newAPIHadoopRDD
(PythonRDD.scal
浏览 1
提问于2015-09-21
得票数 1
2
回答
如
何在
Java
中
使用
newAPIHadoopRDD
(
spark
)
读取
Hbase
数据
、
、
、
我试着用
spark
API
读取
Hbase
数据
。代码: SparkConf sparkConf = new SparkConf().setAppName("
Spark
-
Hbase
").setMasterConfiguration conf = HBaseConfiguration.create(); // Read data using
spark</
浏览 10
提问于2017-02-03
得票数 3
回答已采纳
1
回答
尝试从木星笔记本访问时出现区域错误
、
、
、
、
我正在尝试从运行PySpark内核的木星笔记本
中
运行对的并行访问。我以为例,
使用
特定的项目/区域/集群/表名。身份验证通过火花上下文中广播的服务帐户凭据进行。sc.
newAPIHadoopRDD
( "org.apache.hadoop.
hbase
.io.ImmutableBytesWritable$.
newAPIHa
浏览 7
提问于2017-09-28
得票数 1
回答已采纳
1
回答
在
Spark
中
,sc.
newAPIHadoopRDD
使用
5个分区
读取
2.7 GB的
数据
、
、
我
使用
的是
Spark
1.4,我正在尝试
使用
sc.
newAPIHadoopRDD
从
Hbase
读取
2.7 GB的
数据
,但是有5个任务是为这个阶段创建的,并且需要2 t0 3分钟来处理它。谁能告诉我如何增加更多的分区来快速
读取
数据
?
浏览 18
提问于2016-09-22
得票数 1
3
回答
如何
使用
spark
处理一系列
hbase
行?
、
、
、
我正在尝试
使用
HBase
作为
spark
的
数据
源。因此,第一步是从
HBase
表创建一个RDD。因为
Spark
使用
hadoop输入格式,所以我可以通过创建一个rdd 来找到
使用
所有行的方法,但是我们如何为范围扫描创建RDD呢? 欢迎所有的建议。
浏览 0
提问于2014-08-08
得票数 10
回答已采纳
1
回答
在EMR集群上提交
Spark
作业时,如何避免
java
.lang.NoClassDefFoundError?
、
、
、
、
我
使用
Hbase
Docker容器,从它将
数据
加载到我的
Spark
应用程序
中
。现在我已经创建了EMR集群,安装了
Spark
和
Hbase
。当我试图提交JAR文件时,请购买以下异常: 在本地运行我的应用程序时,我可以通过向--jars添加
s
浏览 3
提问于2021-02-15
得票数 0
1
回答
当
使用
spark
scala连接
Hbase
时,我得到了这个期望的"
java
.lang.NumberFormatException.forInputString(Unknown源代码
、
、
我正在
使用
spark
scala
读取
Hbase
表。package
HBase
import it.nerdammer.
spark
.
hbase
._ import org.apache.
spark
tableDesc =
浏览 5
提问于2016-09-29
得票数 0
1
回答
与
Hbase
的火花流连接
、
、
、
我有一个传入的
spark
数据
流,它接收包含设备Ids的消息:我想将它加入到设备信息表
中
: 不
使用
星火联接:对于DataStream
中
的每个条目,执行单个
hbase
查找device_info的id。在程序开始时
使用
"
newAPIHadoopRDD
“从
hbase</
浏览 1
提问于2015-11-25
得票数 1
1
回答
从列表行键创建
Spark
DataFrame
、
、
、
、
我在表单或Array[Row]中有一个
HBase
行键的列表,并希望从
使用
这些RowKeys从
HBase
获取的行
中
创建一个
Spark
DataFrame。","/
hbase
-unsecure") rList.foreach( r => {} 我可以在for循环中执行recsRdd.collec
浏览 15
提问于2019-10-02
得票数 1
回答已采纳
1
回答
火花流:源
HBase
、
、
、
是否可能有火花流作业设置来跟踪
HBase
表并
读取
每批新的/更新的行?博客说HDFS文件属于受支持的源代码。但是他们似乎
使用
了以下静态API:谢谢!
浏览 4
提问于2016-12-08
得票数 2
2
回答
我们能访问Apache
中
的HDFS文件系统和纱线调度器吗?
、
我们可以在Apache
中
访问HDFS文件系统和纱线调度程序.但是星火有一个更高的编码水平。是否有可能访问HDFS和纱线在Apache? 谢谢
浏览 0
提问于2015-01-30
得票数 4
回答已采纳
2
回答
Spark
to
Hbase
使用
Oozie
、
、
、
、
我试图在
Hbase
中
从
Spark
创建一个表,并插入
数据
,从中
读取
数据
。 val sc = new SparkContext("local", "
Hbase
spark
") v
浏览 0
提问于2016-06-16
得票数 1
1
回答
如何通过执行内部联接并将
数据
带入配置单元来从
hbase
表
中
检索
数据
、
、
、
、
我有两个
Hbase
表'hbaseTable','hbaseTable1‘和Hive表'hiveTable’,我的查询如下:我需要在
hbase
中
执行内部联接,并将
数据
带到hive。我们
使用
的是hive和
java</em
浏览 16
提问于2017-02-02
得票数 0
回答已采纳
点击加载更多
相关
资讯
如何在Spark中处理结构化流式数据,如日志文件或传感器数据?
Flume-Kafka-SparkStreaming实战2
Spark应用数据分片介绍
从入门到精通-Fayson带你玩转CDH
Spark Streaming+Kafka+Hbase项目实战
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
智聆口语评测
活动推荐
运营活动
广告
关闭
领券