环境:RHEL 6.5 + Oracle 11.2.0.4 单节点RAC 需求:单节点RAC添加新节点 1.添加节点前的准备工作 2.正式添加节点 3.其他配置工作 1.添加节点前的准备工作 参考Oracle jystdrac-scan #private ip 10.10.10.61 jystdrac1-priv 10.10.10.63 jystdrac2-priv 我这里实验是jystdrac1是单节点 使用root用户创建Oracle相关用户,如果其他节点用到grid用户和oracle用户,新加节点也要创建好这些用户,并且保证用户的uid和gid一致。 database to run on this newly added node. cluvfy stage -post nodeadd -n jystdrac2 -verbose 3.其他配置工作 此时需要将单节点 RAC添加节点的全部工作。
环境:RHEL 6.5 + Oracle 11.2.0.4 单节点RAC 需求:单节点RAC添加新节点 1.添加节点前的准备工作 2.正式添加节点 3.其他配置工作 1.添加节点前的准备工作 参考Oracle jystdrac-scan #private ip 10.10.10.61 jystdrac1-priv 10.10.10.63 jystdrac2-priv 我这里实验是jystdrac1是单节点 使用root用户创建Oracle相关用户,如果其他节点用到grid用户和oracle用户,新加节点也要创建好这些用户,并且保证用户的uid和gid一致。 cluvfy stage -post nodeadd -n jystdrac2 -verbose 3.其他配置工作 此时需要将单节点RAC修改为两节点RAC,可以按照官方文档说的直接使用dbca,也可以手工来配置 RAC添加节点的全部工作。
OpenRefine 是一款开源的数据清洗和转换工具,适用于处理和整理大规模数据集。它允许用户轻松地清理、变换、探索和可视化数据,特别适合非结构化或半结构化的数据。
数据推送:一旦顾客下单,点单信息会被迅速发送到厨房,厨师可以立即开始准备食物。这个过程就像 Maxwell 将数据变化推送到其他系统,确保信息及时传递。 简化数据集成:如果餐厅还使用外部的配送服务,点单信息可以直接发送给配送系统,让外卖员及时了解订单情况。这就类似于 Maxwell 将数据变化推送到不同的系统,简化了信息流转的过程。
Apache Pig 是一个用于处理大数据的高层次平台,主要用于在 Hadoop 上进行数据流处理。它的核心是 Pig Latin,一种类似于 SQL 的脚本语言,允许用户以更简单的方式编写数据处理程序。
Nacos单节点部署 前言 概览 Nacos /nɑ:kəʊs/ 是 Dynamic Naming and Configuration Service的首字母简称,一个更易于构建云原生应用的动态服务发现
GoFastDFS单节点部署 操作环境 IP地址 操作环境 运行资源 备注 192.168.8.88 Centos7.5 2C8G JDK、GoFastDFS 一、安装JDK环境 ---- 1.1
zookeeper.properties 启动 kafka Broker 服务 $ bin/kafka-server-start.sh config/server.properties 测试 首先,创建一个单分区单副本的 由于我们现在是单分区单副本的case,所以 Leader 和 Isr (复制节点集合)都只在Broker 0上。
DataX 是一个开源的数据传输工具,主要用于在不同的数据源之间进行数据的同步和迁移。通俗来说,DataX 就像一个“数据快递员”,负责把数据从一个地方送到另一个地方。
Hive 是一个建立在 Hadoop 之上的数据仓库工具,它用于提供数据的查询和分析功能。Hive 允许用户使用类似 SQL 的查询语言(HiveQL)来处理存储在 Hadoop 分布式文件系统(HDFS)上的大规模数据。
数据传输:每个班级的老师将成绩单收集后,定期把这些成绩送到学校的总成绩记录处。这就类似于 Flume 将数据传输到一个集中存储的地方。 数据聚合:在成绩记录处,工作人员会把所有班级的成绩汇总,形成一个完整的成绩单,方便后续的分析和发布。这就像 Flume 对收集到的数据进行聚合,确保信息的整合和高效处理。
ClickHouse 是一个基于列式存储的开源关系型数据库管理系统,由 Yandex 公司开发。它特别适合在大规模数据集上执行分析查询,具有以下特点和功能:
ElasticSearch单节点部署 操作环境 IP地址 操作环境 运行资源 备注 192.168.8.88 Centos7.5 2C8G JDK、ElasticSearch 一、安装JDK环境 /elasticsearch -d 1.14 查看是否存在进程 1.15 登录页面查看es节点信息 关闭防火墙 systemctl stop firewalld && systemctl disable
devstack是一套用来给开发人员快速部署openstack开发环境的脚本,配置好网络环境,整个过程都是脚本化,一键安装。它也是学习和研究openstack的首选脚本。
MySQL 是一个开源的关系型数据库管理系统,用于存储和管理数据。通俗来说,MySQL 就像一个电子表格或一个大型的文件柜,帮助我们组织、存储和检索信息。
Kafka单节点部署 操作环境 IP地址 操作环境 运行资源 备注 192.168.8.10 Centos7.5 2C8G JDK、Kafka 一、安装JDK环境 ---- 1.1 上传安装包
1)下载安装包 2)上传安装包 3)解压 cd /root tar -zxvf flink-1.6.2-bin-hadoop28-scala_2.11.tgz -C hd 4)启动 cd /root/hd/flink-1.6.2 bin/start-cluster.sh 5)停止 cd /root/hd/flink-1.6.2 bin/stop-cluster.sh 6)访问ui界面 http://192.168.6.6:8081
风险说明 集群中在未开启节点池,当集群中只存在一个Node节点时,属于单点风险,当Node 宕机业务会受到影响,因没有其他资源无法调度。 风险规避措施 方式一 至少保持集群节点在2个节点以上 新加节点步骤:集群管理--> 节点管理-->新建节点 [image.png] > 注意: 推荐在创建Node时选择操作系统为Tencent Linux2.4 Kubernetes 集群内节点,腾讯云容器服务 TKE 引入节点池概念。 借助节点池基本功能,您可以方便快捷地创建、管理和销毁节点,以及实现节点的动态扩缩容: 当集群中出现因资源不足而无法调度的实例(Pod)时,自动触发扩容,为您减少人力成本。 新建节点池步骤: 集群管理-->节点管理 --> 节点池 --> 新建节点池 [image.png] [image.png] 注意: 推荐在创建Node时选择操作系统为Tencent Linux2.4
因为我们配置副本冗余为1,就是只存放在一个节点上,配置如下: etc/hadoop/core-site.xml: <configuration> <property> <name dfs.replication</name> <value>1</value> </property> </configuration> 配置完成后 需要将hadoop 的名称节点格式化 | grep 9000 如果出现什么异常,日志都存放在 /snwz/hadoop/install/hadoop-2.5.2/logs hadoop还提供了可视化界面来让用户更好了解当前hadoop各个节点情况
minimum_index_compatibility_version" : "5.0.0" }, "tagline" : "You Know, for Search" } [root@node3 ~]# 至此,已经完成了elasticsearch单节点的搭建 ,单节点的es一般用于联调或者测试环境,生产环境需要搭建集群化的elasticsearch,以保证服务的高可用。