腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
WebHDFS
REST
API
创建
文件
时
的
RemoteException
、
我还不能
使用
Hadoop
的
WebHDFS
REST
API
创建
文件
。Pragma: no-cacheLocati
浏览 18
提问于2016-07-15
得票数 1
1
回答
webhdfs
打开
文件
NullPointerException
、
、
我正在尝试通过
webhdfs
API
从HDFS打开一个
文件
。我可以
创建
文件
并上传它们,但是一旦我试图打开,我就会得到这个错误。{"
RemoteException
":{"exception":"NullPointerException","javaClassName":"java.lang.NullPointerException","message":null}} <e
浏览 10
提问于2014-05-09
得票数 1
回答已采纳
2
回答
webhdfs
上
的
权限错误
、
、
我正在
使用
Hadoop
的
HDFS
的
REST
接口作为通过网络存储
文件
的
方便方法。为了测试,我按照以下说明在我
的
mac (10.8.5)上安装了hadoop: hadoop-示例-1.1.2.jar pi 10 100 但我在尝试
创建
目录
时
遇到了
浏览 2
提问于2013-09-26
得票数 0
1
回答
使用
JAVA将字节流传输到HDFS
、
、
是否可以
使用
某些web服务直接将
文件
上载到HDFS空间?我试图将
文件
写入本地系统并将其移动到HDFS。
浏览 0
提问于2016-04-14
得票数 0
回答已采纳
2
回答
写入HDFS应该
使用
哪个nodejs库?
、
、
、
我有一个nodejs应用程序,我想将数据写入hadoop HDFS
文件
系统。我见过两个主要
的
nodejs库可以做到这一点: node-hdfs和node-
webhdfs
。有人试过了吗?有什么提示吗?我应该在生产中
使用
哪一个?任何帮助都将不胜感激。
浏览 1
提问于2014-01-05
得票数 8
2
回答
从HDFS群集下载
文件
、
我正在开发一个将hdfs用作分布式
文件
存储
的
API
。我制作了一个
REST
api
,允许服务器
使用
Webhdfs
在HDFS集群中mkdir、ls、
创建
和删除
文件
。但是由于
Webhdfs
不支持下载
文件
,有什么解决方案可以实现这一点吗?我
的
意思是,我有一台运行
REST
api
并与集群通信
的
服务器。我知道OPEN操作只支持读取文本<em
浏览 0
提问于2013-06-24
得票数 2
回答已采纳
2
回答
WEBHDFS
REST
API
可将
文件
从windows服务器/本地
文件
夹/桌面复制/移动到HDFS
、
、
、
、
使用
WEBHDFS
REST
API
调用,我是否可以将
文件
从Windows计算机(即windows服务器或windows本地
文件
夹或桌面)传输或复制到Hadoop-HDFS
文件
系统?我已经尝试过了,而且我能够
使用
Windows -> (
使用
ftp)-> Linux目录-> (
使用
webhdfs
) -> HDFS,这是两个步骤
的
过程,我正在寻找直接从Wind
浏览 4
提问于2016-08-12
得票数 2
1
回答
Apache服务
的
分析-无法加载外部
文件
、
、
教程提到导入
文件
,但是当我从Apache服务中启动
时
,我看不到任何将外部
文件
加载到Big sheet
的
选项。还有别的办法吗?请帮助我们继续前进。
浏览 4
提问于2015-08-10
得票数 0
回答已采纳
1
回答
Servlet执行Hadoop MapReduce作业并显示结果
、
、
、
、
我有一个tomcat服务器,有几个servlet,一个mapreduce作业(
使用
hadoop编写),也安装了pig,所有这些都位于hadoop所在
的
同一群集中。现在,我需要我
的
servlet能够执行mapreduce程序(或pig脚本),并显示mapreduce程序返回
的
结果。有没有办法制作一个servlet来执行mapreduce作业并返回结果?++我认为可以通过简单地调用exec或ProcessBuilder来让我
的
servlet执行mapreduce作业(或pig脚本)。如果我错了,请在这里纠正我
浏览 0
提问于2013-07-02
得票数 0
1
回答
webhdfs
创建
文件
异常
、
我在centos 7上
使用
hadoop 2.7.1我应该配置这个属性 <name>dfs.
webhdfs
.enabled我
的
名字节点ip是192.168.4.128http://192.168.4.128:50070/
webhdfs
/v1/hado
浏览 2
提问于2017-04-06
得票数 1
回答已采纳
1
回答
将数据直接下载到HDFS?
、
有人问过类似的问题(here和here),但我
的
问题不同,因为我想知道是否有一种方法可以直接将数据(从
REST
API
或cURL)下载到HDFS集群中。 我正在尝试避免将
文件
保存在本地。
浏览 21
提问于2019-06-26
得票数 1
1
回答
无法将Power BI连接到Hadoop HDFS获取内容失败
、
、
、
当我尝试将Power BI连接到Hadoop
webhdfs
时
,我收到以下错误 DataSource.Error: HDFS failed to get contents from 'http://xxx.xx.x.x:50070/
webhdfs
/v1/myFolder/20200626150740_PERSONAL_IDS'.当我访问URL
时
,出现如下错误: { except
浏览 17
提问于2020-07-09
得票数 1
回答已采纳
1
回答
有没有办法
使用
WebHDFS
REST
API
下载HDFS
文件
?
、
、
有没有什么方法可以
使用
WebHDFS
REST
API
从HDFS下载
文件
?我所能达到
的
最接近
的
方法是
使用
打开操作读取
文件
并保存内容。curl -i -L "http://localhost:50075/
webhdfs
/v1/demofile.txt?op=OPEN" -o ~/demofile.txt 有没有什么
API
可
浏览 1
提问于2013-06-01
得票数 13
回答已采纳
1
回答
HUE
文件
管理器,能够
创建
HDFS子目录/
文件
夹,但无法将
文件
上载到HDFS
、
、
、
我得到
的
是:HDFS目录所有者是hadoop:hadoopERROR Internal Server Error: /f
浏览 2
提问于2020-04-13
得票数 1
回答已采纳
1
回答
使用
hadoop hdfs将
文件
从我
的
虚拟机上传到另一个虚拟机
、
、
谁能告诉我,我怎样才能上传一个txt
文件
从我
的
本地机器到另一个虚拟机基于IP地址在hdfs。 问候你,Baskar.V
浏览 0
提问于2013-06-25
得票数 0
1
回答
错误:无法找到建议检查群集运行状况
的
datanode
、
、
我已经写了下面的代码来通过php
创建
/writing
文件
到hdfs。
使用
以下接口作为参考{"
RemoteException
":{"exception":"IOException","javaClassName":"java.io.IOExceptionPragma: no-cache Content-Type: application
浏览 0
提问于2016-03-08
得票数 0
1
回答
是否可以禁用
WebHDFS
UI删除功能?
、
、
、
从HDFS3.0开始,HDFS (即端口50070上
的
namenode UI
文件
资源管理器)现在包括一个可用于删除
WebHDFS
文件
的
bin图标。它似乎是通过调用
rest
api
删除钩子来做到这一点
的
,但在这样做
时
,它似乎也绕过了任何
文件
或
文件
夹权限。换句话说,任何可以访问50070上
的
UI的人现在都可以删除任何HDFS
文件
。有没有一种方法可以让群集用户访问<em
浏览 175
提问于2020-10-21
得票数 0
1
回答
如何将目录上传到HDFS
、
、
、
、
我正在做一个项目,在这个项目中,我需要通过
REST
API
将目录从Hadoop集群外部
的
机器上传到HDFS。基本上,我需要一个命令,以便通过终端(或Python脚本)
使用
REST
API
将目录发送到HDFS。提前感谢! 这适用于
使用
单个节点作为Na
浏览 9
提问于2019-07-16
得票数 0
1
回答
状态待机不支持httpfs错误操作类别读取
、
、
我正在
使用
HadoopApache2.7.1,我有一个由3个节点组成
的
集群nn2nn1是dfs.default.name,所以它是主名称节点。当nn1处于活动状态且nn2处于待机状态
时
,我可以发送此请求在我
的
浏览器中,会出现一个打开或保存此
文件
的
对话
浏览 4
提问于2017-04-11
得票数 10
回答已采纳
1
回答
在linux中
使用
hadoop fsck命令
时
,是否可以跳过
文件
检查?
、
、
我想
使用
hadoop fsck命令跳过对指定路径
的
文件
检查。我们能做到吗?我正在
使用
下面的命令:我也检查了hdfs指南,但没有什么可以从上面的命令中排除路径。 请帮帮忙。
浏览 8
提问于2018-07-27
得票数 0
点击加载更多
相关
资讯
使用FileReader API创建一个Vue的文件阅读器组件
0512-使用Python访问Kerberos环境下的HDFS
使用 Linux stat 命令创建灵活的文件列表
使用Decentraland SDK创建记忆游戏——学习如何使用SDK和API来创建您的第一个简单的游戏!
创建你的第一个使用 OpenAI ChatGPT API 的程序|Linux 中国
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券