腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
4
回答
Hadoop -copyFromLocal找不到输入
文件
、
sudo -u
hdfs
hadoop fs -copyFromLocal input.csv input.csv copyFromLocal: `input.csv': No such file or我给了input.csv
文件
的所有权限,我甚至把所有者改成了
hdfs
。我是Hadoop和Hbase的新手。
浏览 1
提问于2012-12-10
得票数 3
1
回答
从
hdfs
到本地目录
读取
文件
、
、
我有两个疑问${HADOOP_HOME}/bin/hadoop dfs -ls 它只显示当前dir中的所有
文件
。那么,这是否意味着所有
文件
都是在没有我显式添加的情况
浏览 0
提问于2014-02-27
得票数 5
回答已采纳
1
回答
sqoop如何避免将重复数据从
HDFS
导出到RDBMS?
、
HDFS
以复制的形式存储数据,当我们使用SQOOP将数据从
HDFS
移动到RDBMS时,sqoop如何避免将重复数据从
HDFS
导出到RDBMS?
浏览 16
提问于2020-05-19
得票数 0
1
回答
如何在shell脚本中
读取
所需
文件
、
、
、
然后在
HDFS
上编写run.sh以继续使用Hadoop流的MapReduce。/user/name/20161231/user/name/20170102/us
浏览 14
提问于2017-07-19
得票数 0
回答已采纳
1
回答
群集配置和
hdfs
hadoop/tutorial/module2.html <property> </property> <name>dfs.data.dir</name> <value>
浏览 3
提问于2014-11-20
得票数 0
1
回答
使用rhdfs库
读取
HDFS
时的大小问题
、
我试图使用rhdfs库从R
读取
一些
HDFS
文件
(csv文本)。我使用以下代码:f =
hdfs
.file(hdfspath,"r")> object.size(m)当我检查从
HDFS
读取
的对象的大小时,就会出现这个问题。我只
读取
HDFS
文件
系统中的一小部分记录。不管原始
HDFS
浏览 0
提问于2016-07-04
得票数 0
回答已采纳
1
回答
如何将camel
hdfs
区块聚合为临时
文件
并从中
读取
、
、
我有一个使用camel
HDFS
组件从
hdfs
读取
文件
的路由。camel
HDFS
组件以块的形式
读取
文件
。那么,如何聚合所有块并写入
文件
或任何其他输出源。这样,拆分器就可以使用\n来逐条
读取
提取记录并执行进一步处理。 这里的
HDFS
文件
很大。
浏览 5
提问于2015-09-10
得票数 0
2
回答
从
HDFS
集群
读取
Parquet
文件
、
查找有关如何使用Apache从
hdfs
集群
读取
拼板
文件
的建议。在集群中,有多个
文件
存在于单个目录下,想要在一个流程中全部
读取
。Nifi是否提供了一个内置组件来
读取
HDFS
目录中的
文件
(本例中为parquet)?示例-目录中的3个
文件
-
hdfs
://ap
浏览 0
提问于2018-11-09
得票数 0
回答已采纳
3
回答
HDFS
和Spark:编写
文件
并从另一个程序重用它的最佳方式
、
、
我在
HDFS
中保存了一些来自Spark应用程序的结果,
文件
名为part-r-0000X (X= 0,1等)。而且,因为我想将整个内容连接到一个
文件
中,所以我使用以下命令:前面的命令在一个bash脚本中使用,该脚本将输出目录(保存part-r-...
文件
的位置)设为空,并在一个循环中执行上面的getmerge命令。问题是,我需要在另一个Spark程序中使用结果
文件
,该程序需要将合并后的
文件
作
浏览 12
提问于2018-07-21
得票数 1
回答已采纳
1
回答
读取
数据
文件
中可用的
文件
路径,并使用spark
读取
这些
文件
的内容
、
、
、
它包含
hdfs
文件
路径。我想
读取
这些值,然后
读取
文件
的内容。在没有任何嵌套RDD的情况下,利用并行处理解决这一问题的最佳方法是什么。我正在使用Scala2.11和Spark2.1| value||
hdfs
://61.81.70.1...||
hdfs</e
浏览 0
提问于2017-08-08
得票数 0
1
回答
如何通过cv2.dnn.readNetFromTorch()
读取
pytorch
模型
文件
?
、
、
、
我可以保存
PyTorch
自定义模型吗?(它可以运行任何1.0以上的
PyTorch
版本) torch.save(model, '&
浏览 10
提问于2021-11-04
得票数 0
1
回答
如何迭代目录中的每个输入
文件
,并使用这些
文件
中的值,我们可以生成单独的输出
文件
。
、
、
、
、
我在
hdfs
目录中有一些输入
文件
。我需要
读取
特定代码的每个
文件
,并为
hdfs
路径本身中的每个输入
文件
生成输出
文件
。/bin/ksh
hdfs
dfs -cp ${
hdfs
_input}* ${
hdfs
浏览 1
提问于2021-11-15
得票数 0
4
回答
直接从
HDFS
读取
文件
、
有没有一种方法可以通过使用
HDFS
路径直接从
HDFS
读取
任何
文件
格式,而不必从
HDFS
本地拉出
文件
并
读取
它。
浏览 32
提问于2017-05-23
得票数 3
回答已采纳
1
回答
在
读取
HDFS
目录时,如何处理某些
文件
的错误拼图模式?
、
我在
HDFS
中有以下目录。../
HDFS
/file/date=20200831/id=1/
HDFS
/file/date=20200902/id=1 /
HDFS
/file/
浏览 0
提问于2020-09-30
得票数 2
1
回答
hadoop DistributedCache返回null
、
、
首先,我将我的
文件
放入DistributedCache:"
hdfs
://localhost:8022/user/administrator我可以通过然后打印出来:
hdfs
Job job = new Jo
浏览 0
提问于2013-06-23
得票数 1
2
回答
从
HDFS
读取
属性
文件
、
、
、
、
我试图
读取
HDFS
上的一个Java属性
文件
,如下所示: properties.load(new FileInputStream("
hdfs
://user/
hdfs
/my_props.propertiesIOException e) {} 但是它似乎不起作用,我得到了"Properti
浏览 6
提问于2015-03-10
得票数 1
回答已采纳
1
回答
在集群模式下使用Java
读取
Spark中保存在本地的CSV
文件
、
、
、
、
我正在尝试
读取
保存在UNIX本地
文件
系统中的CSV
文件
,但在集群模式下运行时找不到该CSV
文件
。 在本地模式下,它可以
读取
HDFS
和file:///
文件
。但是,在集群模式下,它只能
读取
HDFS
文件
。 有没有合适的方法可以在不复制到
HDFS
的情况下进行
读取
?
浏览 91
提问于2021-10-14
得票数 0
1
回答
拼花分区和
HDFS
文件
大小
、
、
我的数据是相对较小的Avro记录形式,用Parquet
文件
编写(平均< 1mb)。我使用目录层次结构对数据进行了分区。我想知道在Avro记录上“构建”分区并积累更大的
文件
是否更好.但是,我认为分区Parquet
文件
也会“映射”到
HDFS
分区
文件
。 最好的办法是什么?我可以将所有这些保存在一个包含字段P1、P2、F1和F2的Avro
文件
中。不需要包含目录的分区结构,因为它都存在于Avro记录中。关于Par
浏览 5
提问于2016-08-22
得票数 0
2
回答
了解Hadoop
文件
系统计数器
、
、
、
、
我想了解hadoop中的
文件
系统计数器。在我运行的每个作业中,我观察到Map
文件
读取
的字节数几乎等于
HDFS
读取
的字节数。我观察到,映射程序写入的
文件
字节是映射器
读取
的
文件
字节和
hdfs
字节的总和。请帮帮我!本地
文件
和
hdfs
是否正在
读取
相同的数据,并且映射阶段是否将两者都写入本地
文件
系统?Map
浏览 5
提问于2013-05-19
得票数 4
3
回答
HDFS
不支持多个写入器是什么意思?
、
、
HDFS
中的
文件
可由单个writer.There写入,但不支持多个写入器或
文件
中任意偏移量的修改。你说的单一写入者和多个写入者是什么意思?有谁能澄清一下吗?
浏览 2
提问于2014-03-23
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
HDFS常用文件操作命令
【Python】文件的读取
利用python读取文件
pyhon读取yaml文件
Go语言文件读取
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券