腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(576)
视频
沙龙
1
回答
Hadoop
localhost
:
9870
在
格式化
hdfs
namenode
之前
不
工作
我已经安装了
hadoop
。 当我启动dfs和yarn时,只有yarn
localhost
工作
。对于dfs本地主机
工作
,我需要在每次启动我的笔记本电脑时执行"bin/
hdfs
namenode
-format“,然后启动dfs,它就可以
工作
了。 我该如何解决这个问题呢?对不起,我的英语不好
浏览 24
提问于2019-09-13
得票数 0
回答已采纳
12
回答
http://
localhost
:50070
不
工作
HADOOP
我已经
在
我的机器“Ubuntu13.05”上安装了
Hadoop
,现在我
在
浏览
localhost
时出现错误:50070浏览器说该页面不存在。
浏览 1
提问于2013-10-29
得票数 45
2
回答
Hue访问
HDFS
:绕过默认的hue.ini?
、
、
、
、
文件()中的
localhost
:
9870
/webhdfs/v1,并相应地
在
色调容器中编辑hue.ini (添加webhdfs_url=http://
namenode
:
9870
/webhdfs/v1)当我登录到hue的容器时,我可以看到
namenode
的端口
9870
是打开的(nmap -p
9870
namenode
)。那么,
在
我当前的设置中,如何强制hue去
浏览 0
提问于2019-07-19
得票数 0
回答已采纳
10
回答
HDFS
的默认
Namenode
端口是50070。但我
在
某些地方遇到过8020或9000
、
当我设置
hadoop
集群时,我读取了
namenode
在
50070上运行,并进行了相应的设置,它运行得很好。但在一些书中,我遇到过name node address:或设置
namenode
的端口的正确数字是多少?
浏览 3
提问于2014-04-04
得票数 43
1
回答
格式化
UnknownHostException的同时
、
、
我已经使用下面的CDH4
在
CentOS 6.3 64位上安装了伪分布式模式的。所有内容都设置为
Hadoop
配置文件中的
localhost
。但是,当我
格式化
名称节点时,仍然会出现下面的异常。(DNS.java:283)
在
org.apache.
hadoop
.
hdfs
.server.
namenode
.NNStorage.newBlockPoolID(NNStorage.java:1017)的
在
org.apache.
hadoop</
浏览 3
提问于2012-08-27
得票数 4
1
回答
在
伪分布式模式下启动HBase失败引发“失败的构造RegionServer”。
、
、
我正在尝试运行HBase伪分布
在
一个对接者形象的ubuntu.java.io.IOException: Couldn't create proxy provider class org.apache.
hadoop
.
hdfs
.server.
namenode
.ha.ConfiguredFailoverProxyProvider> <
浏览 9
提问于2021-03-01
得票数 0
回答已采纳
1
回答
org.apache.
hadoop
.net.NetUtils.createSocketAddr : java.lang.IllegalArgumentException:
不
包含有效的主机:端口权限: http
、
、
、
注意,我已经
在
kubernetes上为ApacheHadoop3.3.3.3HA部署了由2个namenodes、2个datanodes和3个日志节点组成的状态集。$
hdfs
--config /opt/
hadoop
/etc/
hadoop
namenode
{"name":"org.apache.
hadoop
.
hdfs
.server.
namenode
.
NameNode</em
浏览 10
提问于2022-08-04
得票数 0
回答已采纳
1
回答
Docker Swarm上的
Hadoop
群集-数据节点无法连接到
Namenode
、
、
、
、
我是Docker新手,正在尝试使用Docker Swarm构建
Hadoop
集群。我试着用docker compose构建它,它
工作
得很好。但是当我访问web UI时,它显示
在
"Datanodes“选项卡中没有可用的节点(
在
"Overview”选项卡中也没有)。数据节点似乎无法连接到
namenode
。下面是我使用的yaml文件: version: "3.7"
namenode
: image: flokkr/
浏览 52
提问于2020-03-20
得票数 0
2
回答
在
docker容器中使用webhdfs打开文件
、
、
、
下面是一些代码,我没有修改图像bde2020,我只是
在
namenode
中共享了一个文件夹:version: "3"
namenode
:always -
9870
:
9870
volumes: -
hadoop
_
namenode
:/
hadoop
/dfs: true
浏览 10
提问于2020-03-25
得票数 0
5
回答
Hadoop
-2.2.0“看起来您正在向
Hadoop
端口发出HTTP请求。
我是
hadoop
.After新手,我已经
在
单节点上安装了
hadoop
-2.2.0,我访问了url:
localhost
:9000,它返回了以下结果: <property> <value>
hdfs
://
localhost
:9000
浏览 4
提问于2013-11-26
得票数 12
回答已采纳
3
回答
使用
Hadoop
启动守护进程时出错
、
我已经
在
我的ubuntu上安装了
hadoop
,但是问题是每次我开始使用它,我不能使用它直到我
格式化
我的
namenode
?可能出了什么问题?请给我这个建议。我
在
JDK版本1.8.0_25上使用
Hadoop
1.2.1版本
浏览 5
提问于2014-11-26
得票数 0
回答已采纳
3
回答
无法
在
hadoop
中
格式化
Namenode
、
、
、
、
在
通过执行命令“bin/
hadoop
namenode
-format”
格式化
namenode
时,我得到了这个错误: hduser@ubuntu:~/
hadoop
/bin$ ./
hadoop
namenode
-format已弃用:
不
推荐使用此脚本执行
hdfs
命令。请改用
hdfs
命令。错误:无法找到或加载主类org.apache.
hadoop
浏览 5
提问于2016-10-10
得票数 0
1
回答
hadoop
Nanenode不会启动
、
我已经尝试运行
hadoop
-2.2.0的单节点模式很长一段时间了:D,如果
不
访问该模式,则会发现:) at org.apache.
hadoop
.
hdfs
.server.
namenode
.
NameNode
.getAddress(
NameNode
.java:244) at
浏览 2
提问于2014-05-31
得票数 1
回答已采纳
2
回答
Hadoop
不使用IP就无法访问datanode
、
、
、
、
我有以下系统:我已经
在
Docker (Ubuntu,Virtual )中安装了
HDFS
。我使用了来自码头集线器的bde2020
hadoop
图像。restart: always -
9870
:
9870
volumes: -
hadoop
_
namenode
SERVICE_PRECONDITION: "<em
浏览 21
提问于2020-08-08
得票数 2
21
回答
Namenode
未入门
、
我
在
伪分布式模式下使用
Hadoop
,一切
工作
正常。但是由于某种原因,我不得不重启我的电脑。现在,当我尝试启动
Namenode
和Datanode时,我发现只有Datanode在运行。
浏览 1
提问于2011-11-10
得票数 55
1
回答
pyhdfs.HdfsIOException:找不到数据节点,建议检查群集运行状况。excludeDatanodes=null
、
、
我正在尝试使用这里提供的docker运行
hadoop
: https://github.com/big-data-europe/docker-
hadoop
我使用以下命令: docker-composeup -d 来启动服务,并且能够使用:
localhost
:
9870
访问和浏览文件系统。下面是我的示例代码:
hdfs
_client = HdfsClient(hosts = '
localhost
:
9870
') #
浏览 88
提问于2019-09-10
得票数 0
2
回答
Namenode
守护进程未正确启动
、
、
我刚刚开始从
hadoop
一书中学习
Hadoop
:权威指南。Stopping namenodes on [
localhost
]
localhost
: st
浏览 6
提问于2017-01-28
得票数 0
回答已采纳
1
回答
Hadoop
错误: doCheckpoint中的异常(IOException)图像上传过程中的异常doCheckpoint
、
我
在
一个基于Windows 10的集群中使用
Hadoop
3.2.2,在这个集群上,高可用性是
在
HDFS
上使用Quorum管理器配置的。at org.apache.
hadoop
.
hdfs
.server.
namenode
.ha.StandbyCheckpointer.doCheckpoint(StandbyCheckpointer.java:480) at org.apache.
hadoop
.
hdfs
.server.
nam
浏览 17
提问于2022-03-18
得票数 1
5
回答
Datanode未启动:
不
兼容的clusterID
Hadoop
、
试图启动
Hadoop
2.7.3服务datanode并没有启动:我已经将
namenode<
浏览 0
提问于2016-11-05
得票数 5
回答已采纳
4
回答
Hadoop
名称节点尚未启动。
、
在
主目录中:ubuntu@
hadoop
-master:/usr/local/
hadoop
/etc/
hadoop
$ $
HADOOP
_HOME/bin/
hdfs
在
本地异常上失败: com.google.protobuf.InvalidProtocolBufferException2016-04-26 03:29:17,090 INFO org.apache.
hadoop
.
hd
浏览 5
提问于2016-04-25
得票数 1
点击加载更多
相关
资讯
大数据环境搭建->hadoop-安装教程
Mac部署hadoop3(伪分布式)
Hadoop 实验-Mac 搭建篇
Hadoop伪分布式搭建(一)
一小时快速搭建 Hive
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券