首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Hadoop的datanode新建异常处理

STARTUP_MSG: Starting DataNode STARTUP_MSG:  host = node-128-99/192.168.1.99 STARTUP_MSG:  args = [] STARTUP_MSG:  version = 1.1.2 STARTUP_MSG:  build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:06:43 UTC 2013 ************************************************************/ 2013-12-06 17:19:20,492 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties 2013-12-06 17:19:20,508 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered. 2013-12-06 17:19:20,509 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s). 2013-12-06 17:19:20,509 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started 2013-12-06 17:19:20,670 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered. 2013-12-06 17:19:20,736 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid directory in dfs.data.dir: can not create directory: /opt/dfs/data 2013-12-06 17:19:22,183 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: org.apache.hadoop.util.DiskChecker$DiskErrorException: Invalid value for volsFailed : 1 , Volumes tolerated : 0         at org.apache.hadoop.hdfs.server.datanode.FSDataset.<init>(FSDataset.java:974)         at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:403)         at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:309)         at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1651)         at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1590)         at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1608)         at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1734)         at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1751)

02
您找到你想要的搜索结果了吗?
是的
没有找到

安装Hadoop2.4.0遇到的问题及解决

2014-06-18 20:34:59,622 FATAL org.apache.Hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000 java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID = CID-af6f15aa-efdd-479b-bf55-77270058e4f7; datanode clusterID = CID-736d1968-8fd1-4bc4-afef-5c72354c39ce  at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:472)  at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:225)  at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:249)  at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:929)  at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:900)  at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:274)  at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)  at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:815)  at java.lang.Thread.run(Thread.java:744)

01

Hadoop基础教程-第3章 HDFS:分布式文件系统(3.2 HDFS文件读写)

针对文件和目录,HDFS有与POSIX非常相似的权限模式。 一共提供三类权限模式:只读权限(r)、写入权限(w)和可执行权限(x)。读取文件或列出目录内容时需要只读权限。写入一个文件,或是在一个目录上创建及删除文件或目录,需要写入权限。对于文件而言,可执行权限可以忽略,因为你不能在HDFS中执行文件(与POSIX不同),但在访问一个目录的子项时需要该权限。 每个文件和目录都有所属用户(owner)、所属组别(group)及模式(mode)。这个模式是由所属用户的权限、组内成员的权限及其他用户的权限组成的。 默认情况下,可以通过正在运行进程的用户名和组名来唯一确定客户端的标示。但由于客户端是远程的,任何用户都可以简单的在远程系统上以他的名义创建一个账户来进行访问。因此,作为共享文件系统资源和防止数据意外损失的一种机制,权限只能供合作团体中的用户使用,而不能在一个不友好的环境中保护资源。注意,最新的hadoop系统支持kerberos用户认证,该认证去除了这些限制。但是,除了上述限制之外,为防止用户或者自动工具及程序意外修改或删除文件系统的重要部分,启用权限控制还是很重要的。 注意:这里有一个超级用户的概念,超级用户是nameNode进程的标识。对于超级用户,系统不会执行任何权限检查。

02

Hadoop 集群节点启动失败

java.net.UnknownHostException: node03: node03: 未知的名称或服务 at java.net.InetAddress.getLocalHost(InetAddress.java:1505) at org.apache.hadoop.security.SecurityUtil.getLocalHostName(SecurityUtil.java:219) at org.apache.hadoop.security.SecurityUtil.login(SecurityUtil.java:239) at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2467) at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2516) at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2698) at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2722) Caused by: java.net.UnknownHostException: node03: 未知的名称或服务 at java.net.Inet4AddressImpl.lookupAllHostAddr(Native Method) at java.net.InetAddress$2.lookupAllHostAddr(InetAddress.java:928) at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1323) at java.net.InetAddress.getLocalHost(InetAddress.java:1500) … 6 more 2019-11-07 17:08:33,536 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1 2019-11-07 17:08:33,537 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: /************************************************************

03
领券