我尝试安装2.2.0伪模式,而我试图运行copyfromlocal来复制示例数据
我现在在目标路径中使用了/input,比如-bin/hadoop fs -copyFromLocal /home/prassanna/Desktop/input /input。
我认为它现在起作用了,我用下面的bin/hadoop fs -ls /input 14/03/12 09:31:57警告util.NativeCodeLoader:无法为您的平台加载本机hadoop库.如果适用的话,使用内置java类可以找到1项(-rw-r-r-1根超级组64 ),我也在datanode的uI中签过,但它只显示了使用的%,但它必须显示一些kb的(64)个文件,对吗?请告诉我输入文件是否正确地复制到hdfs ?**,并告诉我文件物理存储在本地机器中的位置?请提前帮助解决这个confusion.Thanks。
发布于 2014-03-12 03:48:21
如果您的源路径丢失,则必须检查本地计算机上是否存在文件。
但是,如果目标文件夹没有丢失,那么首先尝试检查HDFS上该文件夹的存在。为此,您可以通过:50070打开hadoop的Web,然后浏览文件系统
您可以通过命令检查文件
hadoop fs -ls /<path of HDFS directory >如果这样做有效,那么使用以下命令放置文件
hadoop fs -put <local file path> <path of HDFS directory> 如果其中任何一个不起作用,那么hadoop就缺少一些重要的配置。
如果您的Web正在打开,但命令没有运行,那么尝试如下所示
hadoop fs -ls hdfs://<hadoop Master ip>/<path of HDFS directory >如果可以运行put命令,如下所示
hadoop fs -put <local file path> hdfs://<hadoop Master ip>/<path of HDFS directory > https://stackoverflow.com/questions/22331746
复制相似问题