腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
如何
将
EMR流作业的
输出
写入
HDFS
?
、
、
、
我看到人们
将
EMR
输出
写到
HDFS
的,但是我还没有找到它是如何实现的例子。最重要的是,似乎说,EMR流作业的-
输出
参数必须是一个S3桶。当我实际尝试运行一个脚本(在本例中,使用python
和
mrJob)时,它会引发一个“无效的S3 URI”错误。/mrjob.conf --no-output \
hdfs
:///my-input-direc
浏览 6
提问于2013-05-08
得票数 3
2
回答
Hadoop看不到我的
输入
目录。
、
、
、
我遵循的是,我正在分配
输入
和
输出
目录。我在这里创建了两个目录:~/projects/hadoop/WordCount/output/找到我的
hdfs
目录
hdfs
浏览 4
提问于2017-02-03
得票数 0
回答已采纳
1
回答
带有混合
输出
端点的
Mapreduce
作业: S3
和
HDFS
、
、
、
、
我有一个MR作业运行在电子病历,它存储的
输出
目前在S3。还原器的
输出
将是同一个映射器(想想标识映射器)的
输入
,我希望尽可能快地执行连续运行,而不是等待EMR写入S3,然后在“x”分钟之后安排映射器读取
数据
。写
和
读S3需要一段很长的时间(~3-5分钟),所以我想知道是否有一种方法可以避免连续运行时阅读S3? 此外,我还需要将
mapreduce
作业的
输出
写入S3,因为这些
数据
对我很重要,需要持久化。但是,对于每次连续的MR运行,我都不想从S3读取,而是可以
浏览 3
提问于2016-05-27
得票数 1
2
回答
使用distcp或s3distcp
将
文件从S3复制到
HDFS
、
、
、
我正在尝试使用以下命令
将
文件从S3复制到
HDFS
:但是,这是不起作用的请帮助我按照适当的步骤一步一步地实现从S3到
HDFS
的文件复制。 提前谢谢。
浏览 4
提问于2014-03-27
得票数 1
回答已采纳
2
回答
Hadoop
将
文件从本地计算机上传到亚马逊s3
、
、
、
我正在开发一个Java
MapReduce
应用程序,它必须能够提供从用户本地机器到S3存储桶的一些图片的上传服务。 问题是应用程序必须在EC2集群上运行,所以我不确定在复制文件时如何引用本地计算机。
浏览 0
提问于2010-12-07
得票数 2
1
回答
Hadoop >在Hadoop作业运行时,datanode
和
namenode进程是否正在运行
、
我确信当通过"
hdfs
dfs“命令
将
本地文件系统中的大文件加载到
HDFS
时,会使用它们。 但它是否也在Hadoop
MapReduce
作业运行时使用?我的理解是没有,但也许在Shuffle期间也会使用它,当map函数的
输出
可能从一个datanode转移到另一个datanode时。
浏览 0
提问于2015-11-14
得票数 0
1
回答
在MRJob中运行步骤之前,
将
S3
数据
加载到
HDFS
的具体语法示例是什么?
、
、
、
当我运行MRJob脚本并使用命令行界面启动EMR集群时,我试图弄清楚如何
将
数据
从S3加载到集群中的
HDFS
。我希望将此作为设置过程的一部分。为了将我的S3
数据
预加载到
HDFS
中,我已经搜索了很多地方,以便深入了解MRJob应该使用的正确语法。我仍然在快速掌握术语
和
流程。(我不能发布超过2个链接,但谷歌搜索会给出更多关于这方面的信息) 我的方法是
将
JarStep作为MRStep之前的一个步骤包含在MRJob脚本的steps方法中。我试图
将
S3DistCp
浏览 1
提问于2014-07-11
得票数 0
3
回答
Hadoop
输出
到MongoDb
、
、
、
、
我想编写Java程序,它从
HDFS
读取
输入
,使用
MapReduce
处理
输入
,并将
输出
写入MongoDb。 实际上,读取
HDFS
并使用
MapReduce
处理它很简单。是否支持Java
将
结果写
浏览 3
提问于2013-10-21
得票数 1
2
回答
从Java执行Pig脚本时出错
、
、
static void main(String[] args) { PigServer pigServer = new PigServer(ExecType.
MAPREDUCE
浏览 2
提问于2016-03-11
得票数 0
3
回答
在Hadoop
MapReduce
中,地图/合并和还原阶段之后的
数据
保存在哪里?
、
、
、
在Spark中,我们可以随时
将
数据
保存在内存中,但我想知道在Hadoop
MapReduce
中,
数据
保存在地图
和
缩减阶段之间的位置。它是否保存在
HDFS
、磁盘或RAM中?我的意思是,当
数据
被洗牌时(在Map/Combiner之后,在减缩之前,也就是说),它保存在哪里?
浏览 5
提问于2016-10-13
得票数 0
回答已采纳
1
回答
InvalidJobConfException:未设置
输出
目录
、
我使用Cloudera 作为
mapreduce
。当我运行
mapreduce
程序时,我会得到这个错误。我能知道我错过了什么吗?
浏览 3
提问于2016-02-18
得票数 1
1
回答
hadoop - Hadoop jar
输入
路径问题
、
、
、
我遇到的问题是,hadoop命令需要一个
输入
路径,但是我的
MapReduce
作业从
数据
库获取
输入
,因此不需要/有一个
输入
目录。我已经
将
JobConf
输入
格式设置为DBInputFormat,但是当我的工作受到干扰时,如何表示这一点呢?//Here is the command
浏览 0
提问于2013-10-07
得票数 1
回答已采纳
2
回答
Hadoop
HDFS
中块的概念
、
我读到Hadoop使用
HDFS
,它将创建特定大小的块。第三个问题,,是在拆分之前(即InputFormat类的getSplits方法)之前确定
和
创建块,而不考虑拆分的数量,还是取决于拆分后的分块?问题是运行任务之前
和
之后的块,还是取决于配置,是否有两种类型的块--一种用于存储文件,另一种用于分组文件并通过网络将它们发送到
数据
节点以执行任务?
浏览 2
提问于2016-11-27
得票数 2
回答已采纳
1
回答
将
文件直接从
HDFS
读入shell函数
、
、
、
shell函数接受两个参数->,一个
输入
文件
和
一个
输出
文件。
HDFS
。目前,我首先使用fs.copyToLocalFile
将
所需的文件复制到本地硬盘,调用unix二进制文件,然后使用fs.copyFromLocalFile
将
output.txt写回
HDFS
。这种方法的问题是,它不是最优的,因为它涉及大量冗余的读取
和
写入HDD,这会降低性能。所以,我的问题是,如何直接读取
HDFS
文件作为
输入
,并将结果直接
浏览 1
提问于2012-03-02
得票数 0
回答已采纳
2
回答
R+Hadoop:如何从
HDFS
读取CSV文件并执行
mapreduce
?
、
、
cbind(v, v^2))"
hdfs
://172.16.1.58:8020/tmp/test_short.csv" 如何为它找到一个对象?据我所知(这可能是错误的),如果我希望
将
CSV文件中的
数据
作为
mapreduce
的
输
浏览 3
提问于2013-08-07
得票数 7
回答已采纳
6
回答
在运行Cloudera提供的WordCount.java方面需要帮助
、
、
root (auth:SIMPLE)not exist:
hdfs
Exception in thread "main"exist:
hdfs
浏览 1
提问于2012-08-12
得票数 2
回答已采纳
2
回答
什么时候在Hbase中使用
MapReduce
?
、
我想从应用程序的角度了解Hbase的
MapReduce
,需要一些它的实际用例来更好地理解编写这些作业的有效用例。 如果有任何解释真实用例的文档或示例的链接,请分享。
浏览 1
提问于2015-05-25
得票数 0
2
回答
将
数据
存储在
hdfs
中而不是消息队列中
、
、
我正在尝试更改在应用程序中处理
数据
的方法。
数据
首先从
数据
库接收并存储在消息队列中。我希望直接
将
数据
放在
hdfs
中。我不希望
数据
写入文件并转移到
hdfs
。从
hdfs
开始,我
将
处理
数据
并将结果放入
HDFS
。我可以通过Java程序
将
数据
写入
hdfs
,而不是
将
复制命令交给
HDFS
吗?
浏览 6
提问于2015-07-06
得票数 0
1
回答
将不同S3文件夹中的文件作为
输入
传递给
mapreduce
、
、
、
如何
将
day=20上的所有日志作为映射减少程序的
输入
传递?
浏览 4
提问于2014-08-25
得票数 0
回答已采纳
1
回答
将
Hadoop
MapReduce
作业中的
数据
写入MySQL
、
、
我一直在使用
MapReduce
解析日志文件,但是它总是
输出
一个名为"part-00000“的文本文件来存储我的结果,然后我必须手动
将
part--00000导入mysql。是否有一种简单的方法可以直接
将
MapReduce
结果存储在MySQL中?例如,如何
将
经典的“单词计数”
MapReduce
程序的结果直接存储在MySQL中?我使用的是Hadoop1.2.1
和
mapred库(即org.apache.hadoop.mapred.*而不是org.ap
浏览 0
提问于2015-08-17
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
小白学习大数据测试之hadoop hdfs和MapReduce小实战
Hadoop计算框架之MapReduce
大数据基础知识:Hadoop分布式系统介绍
分门别类输入输出,Go lang1.18入门精炼教程,由白丁入鸿儒,go lang基本数据类型和输入输出EP03
MapReduce编程模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券