首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

使用 Shell 脚本进行 Hadoop Spark 集群的批量安装

虽然有一些自动化安装的工具,但是功能越多,越专业的工具,可能也需要越高的学习成本,而我们并非专业运维,但是又必须做这些事情的话,不妨选择用 Shell 脚本来完成集群的安装。...当然了,现在也有很多使用 docker 的做法,安装与部署也非常方便。 整个过程其实很简单,就是对安装过程中的一些手动操作使用 Shell 脚本进行替代。对脚本比较熟悉的话,应该很容易看懂。...其他系统要安装的话可适当参照,步骤上大致相同,只是有些细节需要针对性调整。在所有安装步骤中,最重要的一步是配置 SSH 无密码登录。如果不明白脚本的内容,不要使用我的安装脚本,明白可以抽取部分自用。...对安装过程不太熟的话,建议先跟着厦门大学的教程做:Spark2.1.0入门:Spark的安装使用,里面涉及了 Hadoop 与 Spark 等各种软件的安装,十分详细,对新手很友好。...Hadoop 安装 Hadoop, 大致为 wget 下载 Hadoop,然后解压到 /usr/local/hadoop

1K10
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    使用Ambari安装hadoop集群

    ,所以现在把安装过程总结一下,放到这里,以方便下次安装或者其他有对ambari感兴趣的同学可以参考之。      ...安装过程大量查阅了网上的相关资料,主要是https://cwiki.apache.org/confluence/display/AMBARI/Install+Ambari+2.2.0+from+Public...HDPDocuments/Ambari-2.2.0.0/bk_Installing_HDP_AMB/bk_Installing_HDP_AMB-20151221.pdf,大家也可以直接参考这两篇文章来进行安装...安装Ubuntu服务器,在这里就不做说明了,目前比较合适的版本应该是14.04,可以直接在官网上下载然后用u盘做个启动盘,直接安装即可。   ...安装集群主要分以下几步: 1、安装ambari(参考https://cwiki.apache.org/confluence/display/AMBARI/Install+Ambari+2.2.0+from

    1.3K60

    Hadoop Shell基本操作

    对HDFS 的操作命令类似于lLinux 的shell 对文件的操作,如ls、mkdir、rm 等。...我们在执行HDFS的shell操作的时候,一定要确定Hadoop 是正常运行的,我们可以使用使用jps 命令确保看到各个hadoop 进程。...1.touchz创建空白文件   1.1使用如下命令创建空白文件 hadoop fs -touchz /文件名   1.2使用如下命令查看空白文件 hadoop fs -ls /   由于是touchz...命令所以必须使用专门的命令来查看   1.3使用du查看目录下的各个文件的大小 hadoop fs -du /    1.4count统计文件(夹)数量     该命令选项显示指定路径下的文件夹数量...、文件数量、文件总大小信息,如下图所示 hadoop fs -count /    1.5 mkdir创建空白文件夹 hadoop fs -mkdir /abc   使用命令查看 hadoop fs

    32310

    Hadoop安装使用

    1 创建Hadoop用户 1.1 创建新用户 用户名为hadoop使用/bin/bash作为shell $ sudo useradd -m hadoop -s /bin/bash 1.2 修改密码 $...Ubuntu已经默认安装了SSH客户端,还需要安装SSH服务端。 【注意】:Hadoop并没有提供SSH密码登录的形式,所以需要将所有机器配置为无密码登录。...4 安装Hadoop Hadoop安装包括3中模式: (1)单机模式:只在一台机器上运行,存储采用本地文件系统,没有采用分布式文件系统HDFS。...Hadoop的下载:http://mirrors.cnnic.cn/apache/hadoop/common 4.1 单机模式配置 下载安装包后解压即可使用: $ sudo tar -zxvf hadoop...5 总结 hadoop安装步骤: 1 创建Hadoop用户 2 安装java环境 3 设置SSH 4 修改配置文件修改/usr/local/hadoop/etc/hadoop/文件夹下的core-site.xml

    1.3K20

    Hadoop入门 hdfs的shell操作

    hadoop fs -put 需上传的文件路径 上传到的文件夹路径 示例: hadoop fs -put dashuju.txt /taigong/test 上传文件1.jpg 上传文件2.jpg 查看文件及其内容...查看文件: hadoop fs -ls /taigong/test 查看内容: hadoop fs -cat /taigong/test/dashuju.txt 查看文件及内容.jpg 将文件从Hadoop...下载到本地 下载到本地并命名为Haha 语法: hadoop fs -get 需要下载的文件路径 下载后的文件路径 示例: hadoop fs -get /taigong/test/dashuju.txt...Haha.txt 下载文件.jpg 移动文件 从根目录>taigon>test移动到根目录>user 语法: hadoop fs -mv 需要移动的文件路径 移动后的文件夹路径 示例: hadoop...fs -mv /taigong/test/dashuju.txt /user 移动文件.jpg 删除文件 将文件夹taigong删除 语法: hadoop fs -rm -r 需要删除的文件 示例: hadoop

    44820

    CentOS 6.5下使用Ambari安装Hadoop集群

    进入登录界面,默认用户名和密码均为admin,可以在系统里进行修改,安装ambari的过程中也有提示。 2.进入系统后给集群取名,选择要安装的ambari版本和使用的系统平台。...这里lz使用1.3.3,CentOS6。有一个很重要的事要说明, 若选择1.3.3版本,则必须用jdk6,如果前面安装ambari时选择了jdk7,在register那里无法通过!...若您已经选择了jdk7, 返回重新运行一下安装过程,使用jdk6即可。 3.选择安装的集群节点。...(lz安装过几次,但只有其中一次截图了),Target Hosts选择/etc/hosts文件中的节点,使用名字而不是ip地址。 选择SSH Private Key。...2.0以下版本中的选项和途中稍有不同,其中YARN是Hadoop2.0中才有的, 但即便如此,还是不推荐选择2.0版本),但HDFS,MapReduce,Nagios和Ganglia必选,后两项用于监控

    45920

    Hadoop安装

    hadoop的集群安装中, 分为完全分布式安装、伪分布式安装和单机版安装 单机版:主要用于MR程序的调试 伪分布式:作为学习使用,与完全分布式一样,只不过是通过java进程模拟出来的假的分布式 完全分布式...:真正在生产环境中使用的集群 安装前的准备: 1 安装的JDK 环境,并且配置环境变量 上传到 JDK环境到linux系统中,安装rz命令 ?...安装完成之后,就可以使用rz命令上传文件 对于要安装的文件,对其规划安装目录 /opt/soft 安装的源文件目录 /opt/app/ 已安装的文件目录 ?...把需要安装的JDK 源文件上传到/opt/soft 目录下,直接使用rz命令或者上传工具上传 ?...8 在Hadoop的根目录下 使用bin/hadoop 命令则会输出以下内容 ?

    70410

    安装Hadoop集群

    文章目录 安装集群前的准备工作 关闭防火墙,开机不自启 关闭selinux ssh免密码登录 修改主机名 设置主机名和IP的对应关系 安装jdk 安装Hadoop集群 上传压缩包并解压 查看Hadoop...支持的压缩方式以及本地库 修改配置文件 创建文件存放目录 安装包的分发 配置Hadoop的环境变量 集群启动 查看集群是否启动 关闭集群 安装集群前的准备工作 关闭防火墙,开机不自启 server iptables...查看之前的这篇安装jdk: https://mp.csdn.net/mdeditor/102639879# 保证至少有三个虚拟机,每个虚拟机完成上面操作 安装Hadoop集群 上传压缩包并解压 ?...如果出现openssl为false,那么所有机器在线安装openssl即可,执行以下命令,虚拟机联网之后就可以在线进行安装了 [root@node01 bin]# yum -y install openssl-devel...-p /export/servers/hadoop-2.6.0-cdh5.14.0/hadoopDatas/dfs/nn/snn/edits 安装包的分发 [root@node01 hadoopDatas

    2.1K30
    领券