虽然有一些自动化安装的工具,但是功能越多,越专业的工具,可能也需要越高的学习成本,而我们并非专业运维,但是又必须做这些事情的话,不妨选择用 Shell 脚本来完成集群的安装。...当然了,现在也有很多使用 docker 的做法,安装与部署也非常方便。 整个过程其实很简单,就是对安装过程中的一些手动操作使用 Shell 脚本进行替代。对脚本比较熟悉的话,应该很容易看懂。...其他系统要安装的话可适当参照,步骤上大致相同,只是有些细节需要针对性调整。在所有安装步骤中,最重要的一步是配置 SSH 无密码登录。如果不明白脚本的内容,不要使用我的安装脚本,明白可以抽取部分自用。...对安装过程不太熟的话,建议先跟着厦门大学的教程做:Spark2.1.0入门:Spark的安装和使用,里面涉及了 Hadoop 与 Spark 等各种软件的安装,十分详细,对新手很友好。...Hadoop 安装 Hadoop, 大致为 wget 下载 Hadoop,然后解压到 /usr/local/hadoop。
CLASSNAME 管理命令 balancer daemonlog datanode dfsadmin jobtracker namenode secondarynamenode tasktracker FS Shell...调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。...所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。...大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。...dus 使用方法: hadoop fs -dus 显示文件的大小。 expunge 使用方法: hadoop fs -expunge 清空回收站。
,所以现在把安装过程总结一下,放到这里,以方便下次安装或者其他有对ambari感兴趣的同学可以参考之。 ...安装过程大量查阅了网上的相关资料,主要是https://cwiki.apache.org/confluence/display/AMBARI/Install+Ambari+2.2.0+from+Public...HDPDocuments/Ambari-2.2.0.0/bk_Installing_HDP_AMB/bk_Installing_HDP_AMB-20151221.pdf,大家也可以直接参考这两篇文章来进行安装...安装Ubuntu服务器,在这里就不做说明了,目前比较合适的版本应该是14.04,可以直接在官网上下载然后用u盘做个启动盘,直接安装即可。 ...安装集群主要分以下几步: 1、安装ambari(参考https://cwiki.apache.org/confluence/display/AMBARI/Install+Ambari+2.2.0+from
对HDFS 的操作命令类似于lLinux 的shell 对文件的操作,如ls、mkdir、rm 等。...我们在执行HDFS的shell操作的时候,一定要确定Hadoop 是正常运行的,我们可以使用使用jps 命令确保看到各个hadoop 进程。...1.touchz创建空白文件 1.1使用如下命令创建空白文件 hadoop fs -touchz /文件名 1.2使用如下命令查看空白文件 hadoop fs -ls / 由于是touchz...命令所以必须使用专门的命令来查看 1.3使用du查看目录下的各个文件的大小 hadoop fs -du / 1.4count统计文件(夹)数量 该命令选项显示指定路径下的文件夹数量...、文件数量、文件总大小信息,如下图所示 hadoop fs -count / 1.5 mkdir创建空白文件夹 hadoop fs -mkdir /abc 使用命令查看 hadoop fs
Hadoop Shell命令 FS Shell cat chgrp chmod chown copyFromLocal copyToLocal cp du dus expunge get getmerge...ls lsr mkdir movefromLocal mv put rm rmr setrep stat tail test text touchz FS Shell 调用文件系统(FS)Shell命令应使用...所有的的FS shell命令使用URI路径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file。...大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。...dus 使用方法:hadoop fs -dus 显示文件的大小。 expunge 使用方法:hadoop fs -expunge 清空回收站。
1 创建Hadoop用户 1.1 创建新用户 用户名为hadoop,使用/bin/bash作为shell $ sudo useradd -m hadoop -s /bin/bash 1.2 修改密码 $...Ubuntu已经默认安装了SSH客户端,还需要安装SSH服务端。 【注意】:Hadoop并没有提供SSH密码登录的形式,所以需要将所有机器配置为无密码登录。...4 安装Hadoop Hadoop的安装包括3中模式: (1)单机模式:只在一台机器上运行,存储采用本地文件系统,没有采用分布式文件系统HDFS。...Hadoop的下载:http://mirrors.cnnic.cn/apache/hadoop/common 4.1 单机模式配置 下载安装包后解压即可使用: $ sudo tar -zxvf hadoop...5 总结 hadoop的安装步骤: 1 创建Hadoop用户 2 安装java环境 3 设置SSH 4 修改配置文件修改/usr/local/hadoop/etc/hadoop/文件夹下的core-site.xml
安装 brew install hadoop Linux用户可以直接下载tar包,解压运行 https://apache.claz.org/hadoop/common/hadoop-3.3.0/hadoop...配置hadoop四个文件 ?...hadoop-env.sh 添加java home export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_111.jdk/Contents...hadoop fs -put word.txt /input/ 使用hadoop 示例: 统计文件中word的数量 hadoop jar /usr/local/Cellar/hadoop/3.3.0.../libexec/share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-3.3.0-sources.jar org.apache.hadoop.examples.WordCount
调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。 所有的的FS shell命令使用URI路径作为参数。...大多数FS Shell命令的行为和对应的Unix Shell命令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。...chown 使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ] 改变文件的拥有者。使用-R将使改变在目录结构下递归进行。...dus 使用方法:hadoop fs -dus 显示文件的大小。 expunge 使用方法:hadoop fs -expunge 清空回收站。...rmr 使用方法:hadoop fs -rmr URI [URI …] delete的递归版本。
查找java安装路径 leee@Rasak-leee:~$ whereis java java: /usr/bin/java /usr/share/java /usr/lib/jvm/java-11-openjdk-amd64
安装JDK8 mac下: brew install openjdk@8 linux下: redhat 系 : yum install java-1.8.0-openjdk debian系: apt-get...install openjdk-8-jdk 设置环境变量 export PATH="/usr/local/opt/openjdk@8/bin:$PATH" 安装Hadoop 在hadoop官网下载hadoop...tar -xzf hadoop-2.10.1 然后将HADOOP_HOME的设置路径设置和系统路径放入$HOME/.bashrc中,并且执行该文件 echo "export HADOOP_HOME=$PWD...hadoop namenode -format 2) 启动 HDFS:进入Hadoop 安装目录下的 sbin 目录,并启动HDFS。 cd $HADOOP_HOME/sbin ....4) 启动 yarn 进入Hadoop 安装目录下的sbin目录, 只需start-yarn.sh,并启动 yarn。访问localhost:8088可以查看资源管理页面,如下图所示。
安装 准备环境 # 关闭防火墙,方面后面浏览器访问测试 systemctl stop firewalld systemctl disable firewalld # 添加IP地址映射,方便后面地址配置...vim /etc/hosts 192.168.1.89 hadoop01 # 配置SSH免密登录,方便后面服务启动 ssh-keygen ssh-copy-id hadoop01 安装JDK 解压...# 重新加载配置文件,使上述配置生效 source ~/.bash_profile # 验证 JDK 配置是否正确 java -version java version "1.8.0_111" 安装...hadoop # 解压 Hadoop tar -zxf hadoop-3.2.2.tar.gz # 重命名 Hadoop 方便环境配置 mv hadoop-3.2.2 hadoop/ cp -rf hadoop...version Hadoop 3.2.2 配置Hadoop 进入Hadoop配置文件所在目录: /usr/local/hadoop/etc/hadoop # 配置Hadoop运行环境 vim hadoop-env.sh
hadoop fs -put 需上传的文件路径 上传到的文件夹路径 示例: hadoop fs -put dashuju.txt /taigong/test 上传文件1.jpg 上传文件2.jpg 查看文件及其内容...查看文件: hadoop fs -ls /taigong/test 查看内容: hadoop fs -cat /taigong/test/dashuju.txt 查看文件及内容.jpg 将文件从Hadoop...下载到本地 下载到本地并命名为Haha 语法: hadoop fs -get 需要下载的文件路径 下载后的文件路径 示例: hadoop fs -get /taigong/test/dashuju.txt...Haha.txt 下载文件.jpg 移动文件 从根目录>taigon>test移动到根目录>user 语法: hadoop fs -mv 需要移动的文件路径 移动后的文件夹路径 示例: hadoop...fs -mv /taigong/test/dashuju.txt /user 移动文件.jpg 删除文件 将文件夹taigong删除 语法: hadoop fs -rm -r 需要删除的文件 示例: hadoop
伪分布式 hadoop的三种安装方式: Local (Standalone) Mode Pseudo-Distributed Mode Fully-Distributed Mode 安装之前需要 $ sudo...input Run some of the examples provided: $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples...eclipse hadoop2.6插件使用 下载源码: git clone https://github.com/winghc/hadoop2x-eclipse-plugin.git 下载过程:...复制编译好的jar到eclipse插件目录,重启eclipse 配置 hadoop 安装目录 window ->preference -> hadoop Map/Reduce -> Hadoop installation...; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text
进入登录界面,默认用户名和密码均为admin,可以在系统里进行修改,安装ambari的过程中也有提示。 2.进入系统后给集群取名,选择要安装的ambari版本和使用的系统平台。...这里lz使用1.3.3,CentOS6。有一个很重要的事要说明, 若选择1.3.3版本,则必须用jdk6,如果前面安装ambari时选择了jdk7,在register那里无法通过!...若您已经选择了jdk7, 返回重新运行一下安装过程,使用jdk6即可。 3.选择安装的集群节点。...(lz安装过几次,但只有其中一次截图了),Target Hosts选择/etc/hosts文件中的节点,使用名字而不是ip地址。 选择SSH Private Key。...2.0以下版本中的选项和途中稍有不同,其中YARN是Hadoop2.0中才有的, 但即便如此,还是不推荐选择2.0版本),但HDFS,MapReduce,Nagios和Ganglia必选,后两项用于监控
178: /usr/hadoop/logs/hadoop-master-datanode-slave2.out: Permission denied 个人分析,/usr目录的所有者是root,而我安装hadoop...找到后,把值改为你的jdk的安装目录,我的在系列文章第二篇里讲过。.../tmp 2)第四、五节点,name里,有我登录用户名master,你使用自己的名字替换即可。...后续我们在修改各种配置文件的时候,都可以考虑使用这个命令。...jdk安装路径。
Hadoop Pig 安装 1 从http://pig.apache.org/ 下载安装包 2 解压 tar xvf pig-0.12.0.tar.gz 3 配置环境变量 exportPIG_CLASSPATH...=$HADOOP_INSTALL/conf/ export PATH=$PATH:/home/nathan/hadoop/pig-0.12.0/bin 4 Pig 分为2中运行模式 本地运行: nathan...bootup file /home/nathan/.pigbootup not found 2013-11-25 15:10:23,028 [main] INFO org.apache.pig.backend.hadoop.executionengine.HExecutionEngine...- Connecting to hadoop file system at: file:/// grunt> 集群运行: nathan@ubuntu:~$ pig
学习Hadoop首先要安装环境,用虚拟机安装分布式测试环境。VM虚拟机占用资源多,而docker可以像VM一样创建虚拟机,但占用资源少,单机也能实现多机分布式环境。...但随着对HDFS的理解,发现那篇文章中有关docker的、免密码登录等设置都是多余的,而这篇文章尽力简化docker使用,演示求pi的MapReduce程序、YARN web界面和mapred收集日志。...1. docker 镜像 在mac 系统下,安装Docker Toolbox。...抱歉没有安装这个软件的过程。启动后界面如图, ?...docker shell 在一个空的目录下编写Dockerfile,创建一个Ubuntu 16.04系统镜像。
在hadoop的集群安装中, 分为完全分布式安装、伪分布式安装和单机版安装 单机版:主要用于MR程序的调试 伪分布式:作为学习使用,与完全分布式一样,只不过是通过java进程模拟出来的假的分布式 完全分布式...:真正在生产环境中使用的集群 安装前的准备: 1 安装的JDK 环境,并且配置环境变量 上传到 JDK环境到linux系统中,安装rz命令 ?...安装完成之后,就可以使用rz命令上传文件 对于要安装的文件,对其规划安装目录 /opt/soft 安装的源文件目录 /opt/app/ 已安装的文件目录 ?...把需要安装的JDK 源文件上传到/opt/soft 目录下,直接使用rz命令或者上传工具上传 ?...8 在Hadoop的根目录下 使用bin/hadoop 命令则会输出以下内容 ?
文章目录 安装集群前的准备工作 关闭防火墙,开机不自启 关闭selinux ssh免密码登录 修改主机名 设置主机名和IP的对应关系 安装jdk 安装Hadoop集群 上传压缩包并解压 查看Hadoop...支持的压缩方式以及本地库 修改配置文件 创建文件存放目录 安装包的分发 配置Hadoop的环境变量 集群启动 查看集群是否启动 关闭集群 安装集群前的准备工作 关闭防火墙,开机不自启 server iptables...查看之前的这篇安装jdk: https://mp.csdn.net/mdeditor/102639879# 保证至少有三个虚拟机,每个虚拟机完成上面操作 安装Hadoop集群 上传压缩包并解压 ?...如果出现openssl为false,那么所有机器在线安装openssl即可,执行以下命令,虚拟机联网之后就可以在线进行安装了 [root@node01 bin]# yum -y install openssl-devel...-p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits 安装包的分发 [root@node01 hadoopDatas
领取专属 10元无门槛券
手把手带您无忧上云