前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Greenplum测试环境部署

Greenplum测试环境部署

作者头像
Alfred Zhao
发布于 2019-05-24 12:48:54
发布于 2019-05-24 12:48:54
1.8K00
代码可运行
举报
运行总次数:0
代码可运行

1.准备3台主机

本实例是部署实验环境,采用的是Citrix的虚拟化环境,分配了3台RHEL6.4的主机。

|------|------| |Master|创建模板后,额外添加20G一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2| |Standby|创建模板后,额外添加20G一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2| |Segment01|创建模板后,额外添加50G一块磁盘/dev/xvdb,额外添加2块网卡eth1,eth2|

网络规划

eth0(外部IP)

eth1

eth2

Master

192.168.9.123

172.16.10.101

172.16.11.101

Standby

192.168.9.124

172.16.10.102

172.16.11.102

Segment01

192.168.9.125(可选)

172.16.10.1

172.16.11.1

实验环境资源有限暂时配置3个节点,后续可能会根据需求添加Segment02,Segment03...

修改主机名

将Master,Standby,Segment01的三台主机名分别设置为mdw, smdw, sdw1

主机名修改方法:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
hostname 主机名
vi /etc/sysconfig/network 修改hostname

Options:配置脚本,前期为了方便同步节点间的配置,可选。

export NODE_LIST='MDW SMDW SDW1'

vi /etc/hosts 临时配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
192.168.9.123 mdw
192.168.9.124 smdw
192.168.9.125 sdw1

配置第一个节点到自身和其他机器的无密码登录

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ssh-keygen -t rsa

ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.123
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.124
ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.9.125

cluster_run_all_nodes "hostname ; date"

磁盘规划

gp建议使用xfs文件系统,所有节点需要安装依赖包 # rpm -ivh xfsprogs-3.1.1-10.el6.x86_64.rpm

所有节点建立/data文件夹,用来挂载xfs的文件系统

mkdir /data

mkfs.xfs /dev/xvdb

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
[root@smdb Packages]# mkfs.xfs /dev/xvdb
meta-data=/dev/xvdb  isize=256agcount=4, agsize=1310720 blks
   =   sectsz=512   attr=2, projid32bit=0
data =   bsize=4096   blocks=5242880, imaxpct=25
   =   sunit=0  swidth=0 blks
naming   =version 2  bsize=4096   ascii-ci=0
log  =internal log   bsize=4096   blocks=2560, version=2
   =   sectsz=512   sunit=0 blks, lazy-count=1
realtime =none   extsz=4096   blocks=0, rtextents=0

vi /etc/fstab 添加下面一行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
/dev/xvdb   /data   xfs rw,noatime,inode64,allocsize=16m1 1

2.关闭iptables和selinux

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cluster_run_all_nodes "hostname; service iptables stop"
cluster_run_all_nodes "hostname; chkconfig iptables off"
cluster_run_all_nodes "hostname; chkconfig ip6tables off"
cluster_run_all_nodes "hostname; chkconfig libvirtd off"

cluster_run_all_nodes "hostname; setenforce 0"
cluster_run_all_nodes "hostname; sestatus"
vi /etc/selinux/config
cluster_copy_all_nodes /etc/selinux/config /etc/selinux/

注:所有节点都要统一设定,我这里先配置了信任,用脚本实现的同步,如果没有配置,是需要每台依次设定的。

3.设定建议的系统参数

vi /etc/sysctl.conf

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
kernel.shmmax = 500000000
kernel.shmmni = 4096
kernel.shmall = 4000000000
kernel.sem = 250 512000 100 2048
kernel.sysrq = 1
kernel.core_uses_pid = 1
kernel.msgmnb = 65536
kernel.msgmax = 65536
net.ipv4.tcp_syncookies = 1
net.ipv4.ip_forward = 0
net.ipv4.conf.default.accept_source_route = 0
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_max_syn_backlog = 4096
net.ipv4.conf.all.arp_filter = 1
net.ipv4.conf.default.arp_filter = 1
net.core.netdev_max_backlog = 10000
vm.overcommit_memory = 2
kernel.msgmni = 2048
net.ipv4.ip_local_port_range = 1025 65535

vi /etc/security/limits.conf

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
* soft nofile 65536
* hard nofile 65536
* soft nproc 131072
* hard nproc 131072

同步到各个节点:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cluster_copy_all_nodes /etc/sysctl.conf /etc/sysctl.conf
cluster_copy_all_nodes /etc/security/limits.conf /etc/security/limits.conf

磁盘预读参数及 deadline算法

在/etc/rc.d/rc.local 添加

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
blockdev --setra 16385 /dev/xvdb
echo deadline > /sys/block/xvdb/queue/scheduler
cluster_copy_all_nodes /etc/rc.d/rc.local /etc/rc.d/rc.local

注:重启后 blockdev --getra /dev/xvdb 验证是否生效

验证所有节点的字符集

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cluster_run_all_nodes "hostname; echo $LANG"

重启所有节点,验证修改是否生效:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
blockdev --getra /dev/xvdb 
more /sys/block/xvdb/queue/scheduler
cluster_run_all_nodes "hostname; service iptables status"

4.在Master上安装

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mkdir -p /data/soft
上传greenplum-db-4.3.4.2-build-1-RHEL5-x86_64.zip到Master
**解压**
unzip  greenplum-db-4.3.4.2-build-1-RHEL5-x86_64.zip 
**安装**
/bin/bash greenplum-db-4.3.4.2-build-1-RHEL5-x86_64.bin

5.在所有的节点上安装配置Greenplum

配置/etc/hosts

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
192.168.9.123 mdw
172.16.10.101 mdw-1
172.16.11.101 mdw-2

192.168.9.124 smdw
172.16.10.102 smdw-1
172.16.11.102 smdw-2

192.168.9.125 sdw1
172.16.10.1   sdw1-1
172.16.11.1   sdw1-2

同步/etc/hosts配置

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
cluster_copy_all_nodes /etc/hosts /etc/hosts

配置gp需要的互信

vi hostfile_exkeys 创建文件内容示例如下:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mdw
mdw-1
mdw-2
smdw
smdw-1
smdw-2
sdw1
sdw1-1
sdw1-2

Option: 此时如果之前做了部分互信,可以清除之前为安装方便配置的ssh信任

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
rm -rf /root/.ssh/

# gpseginstall -f hostfile_exkeys -u gpadmin -p 123456
# su - gpadmin
$ source /usr/local/greenplum-db/greenplum_path.sh
$ cd /usr/local/greenplum-db
$ gpssh -f hostfile_exkeys -e ls -l $GPHOME

互信此时应该是可用的,如果不可用,再次执行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
gpssh -f hostfile_exkeys

创建Data Storage Areas,root用户操作

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# mkdir /data/master
# chown gpadmin /data/master/

利用gpssh,在standby master上也创建数据目录

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# source /usr/local/greenplum-db/greenplum_path.sh
# gpssh -h smdw -e 'mkdir /data/master'
# gpssh -h smdw -e 'chown gpadmin /data/master'

在所有的segment节点上创建数据目录

先创建一个文件 hostfile_gpssh_segonly,包含所有segment节点的主机名

sdw1 创建目录

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
# source /usr/local/greenplum-db/greenplum_path.sh
# gpssh -f hostfile_gpssh_segonly -e 'mkdir /data/primary'
# gpssh -f hostfile_gpssh_segonly -e 'mkdir /data/mirror'
# gpssh -f hostfile_gpssh_segonly -e 'chown gpadmin /data/primary'
# gpssh -f hostfile_gpssh_segonly -e 'chown gpadmin /data/mirror'

配置NTP

我这里没有配置NTP,生产环境建议配置。

验证OS设置

先建立一个hostfile_gpcheck文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mdw
smdw
sdw1

验证

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ source /usr/local/greenplum-db/greenplum_path.sh
$ gpcheck -f hostfile_gpcheck -m mdw -s smdw
20150402:17:56:10:009650 gpcheck:mdw:gpadmin-[INFO]:-dedupe hostnames
20150402:17:56:10:009650 gpcheck:mdw:gpadmin-[INFO]:-Detected platform: Generic Linux Cluster
20150402:17:56:10:009650 gpcheck:mdw:gpadmin-[INFO]:-generate data on servers
20150402:17:56:11:009650 gpcheck:mdw:gpadmin-[INFO]:-copy data files from servers
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[INFO]:-delete remote tmp files
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[INFO]:-Using gpcheck config file: /usr/local/greenplum-db/./etc/gpcheck.cnf
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(None): utility will not check all settings when run as non-root user
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(smdw): on device (xvdd) IO scheduler 'cfq' does not match expected value 'deadline'
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(smdw): on device (xvda) IO scheduler 'cfq' does not match expected value 'deadline'
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(smdw): ntpd not detected on machine
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(sdw1): on device (xvda) IO scheduler 'cfq' does not match expected value 'deadline'
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(sdw1): ntpd not detected on machine
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(mdw): on device (xvda) IO scheduler 'cfq' does not match expected value 'deadline'
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[ERROR]:-GPCHECK_ERROR host(mdw): ntpd not detected on machine
20150402:17:56:12:009650 gpcheck:mdw:gpadmin-[INFO]:-gpcheck completing...

验证网络性能

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
hostfile_gpchecknet_sc1
sdw1-1
hostfile_gpchecknet_sc2
sdw1-2

验证磁盘I/O和内存

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
hostfile_gpcheckperf
sdw1

配置本地化设置

字符集的设定

创建初始化文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ mkdir -p /home/gpadmin/gpconfigs
$ cd /home/gpadmin/gpconfigs
$ vi hostfile_gpinitsystem 
sdw1-1
sdw1-2

拷贝gpinitsystem_config

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ cp /usr/local/greenplum-db/docs/cli_help/gpconfigs/gpinitsystem_config /home/gpadmin/gpconfigs/gpinitsystem_config
$ cd /home/gpadmin/gpconfigs
修改
 declare -a DATA_DIRECTORY=(/data/primary /data/primary)
 #declare -a MIRROR_DATA_DIRECTORY=(/data/mirror /data/mirror)  以后配置默认就是注释的

运行初始化工具

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ gpinitsystem -c gpconfigs/gpinitsystem_config -h gpconfigs/hostfile_gpinitsystem -s smdw

初始化过程中报错:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
20150403:10:58:51:032589 gpcreateseg.sh:mdw:gpadmin-[INFO]:-Start Function ED_PG_CONF
20150403:10:58:52:032672 gpcreateseg.sh:mdw:gpadmin-[WARN]:-Failed to insert port=40001 in /data/primary/gpseg1/postgresql.conf on sdw1-2
20150403:10:58:52:032672 gpcreateseg.sh:mdw:gpadmin-[INFO]:-End Function ED_PG_CONF
20150403:10:58:52:032672 gpcreateseg.sh:mdw:gpadmin-[FATAL][1]:-Failed Update port number to 40001
20150403:10:58:52:032589 gpcreateseg.sh:mdw:gpadmin-[WARN]:-Failed to insert port=40000 in /data/primary/gpseg0/postgresql.conf on sdw1-1
20150403:10:58:53:032589 gpcreateseg.sh:mdw:gpadmin-[INFO]:-End Function ED_PG_CONF
20150403:10:58:53:032589 gpcreateseg.sh:mdw:gpadmin-[FATAL][0]:-Failed Update port number to 40000

找到资料:https://support.pivotal.io/hc/communities/public/questions/200372738-HAWQ-Initialization

解决方法:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
1.所有节点安装ed
# rpm -ivh /tmp/ed-1.1-3.3.el6.x86_64.rpm 
warning: /tmp/ed-1.1-3.3.el6.x86_64.rpm: Header V3 RSA/SHA256 Signature, key ID fd431d51: NOKEY
Preparing...########################################### [100%]
   1:ed ########################################### [100%]
2.清除初始化系统的信息
/bin/bash /home/gpadmin/gpAdminLogs/backout_gpinitsystem_gpadmin_20150403_105721
3.重新初始化系统
gpinitsystem -c gpconfigs/gpinitsystem_config -h gpconfigs/hostfile_gpinitsystem -s smdw

吐槽下:明明依赖ed,官方安装文档中却没有提及..

安装成功最后会输出类似下面的提示:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-Greenplum Database instance successfully created
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-------------------------------------------------------
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-To complete the environment configuration, please 
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-update gpadmin .bashrc file with the following
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-1. Ensure that the greenplum_path.sh file is sourced
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-2. Add "export MASTER_DATA_DIRECTORY=/data/master/gpseg-1"
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-   to access the Greenplum scripts for this instance:
20150403:11:13:00:002886 gpinitsystem:mdw:gpadmin-[INFO]:-   or, use -d /data/master/gpseg-1 option for the Greenplum scripts
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-   Example gpstate -d /data/master/gpseg-1
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-Script log file = /home/gpadmin/gpAdminLogs/gpinitsystem_20150403.log
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-To remove instance, run gpdeletesystem utility
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-Standby Master smdw has been configured
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-To activate the Standby Master Segment in the event of Master
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-failure review options for gpactivatestandby
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-------------------------------------------------------
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-The Master /data/master/gpseg-1/pg_hba.conf post gpinitsystem
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-has been configured to allow all hosts within this new
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-array to intercommunicate. Any hosts external to this
20150403:11:13:01:002886 gpinitsystem:mdw:gpadmin-[INFO]:-new array must be explicitly added to this file
20150403:11:13:02:002886 gpinitsystem:mdw:gpadmin-[INFO]:-Refer to the Greenplum Admin support guide which is
20150403:11:13:02:002886 gpinitsystem:mdw:gpadmin-[INFO]:-located in the /usr/local/greenplum-db/./docs directory
20150403:11:13:02:002886 gpinitsystem:mdw:gpadmin-[INFO]:-------------------------------------------------------

配置gpadmin环境变量

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
source /usr/local/greenplum-db/greenplum_path.sh
export MASTER_DATA_DIRECTORY=/data/master/gpseg-1

可选:客户端会话环境变量

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
export PGPORT=5432
export PGUSER=gpadmin
export PGDATABASE=gptest

生效并拷贝到standby master

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ source ~/.bashrc
$ scp ~/.bashrc smdw:~/.bashrc

6.创建数据库gptest

CREATE DATABASE gptest;

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ psql template1
psql (8.2.15)
Type "help" for help.

template1=# help
You are using psql, the command-line interface to PostgreSQL.
Type:  \copyright for distribution terms
   \h for help with SQL commands
   \? for help with psql commands
   \g or terminate with semicolon to execute query
   \q to quit
template1=# \h
Available help:
  ABORT   BEGIN   CREATE SEQUENCE DROP OPERATOR CLASS PREPARE
  ALTER AGGREGATE CHECKPOINT  CREATE SERVER   DROP OWNED  PREPARE TRANSACTION
  ALTER CONVERSIONCLOSE   CREATE TABLEDROP RESOURCE QUEUE REASSIGN OWNED
  ALTER DATABASE  CLUSTER CREATE TABLE AS DROP ROLE   REINDEX
  ALTER DOMAINCOMMENT CREATE TABLESPACE   DROP RULE   RELEASE SAVEPOINT
  ALTER EXTERNAL TABLECOMMIT  CREATE TRIGGER  DROP SCHEMA RESET
  ALTER FILESPACE COMMIT PREPARED CREATE TYPE DROP SEQUENCE   REVOKE
  ALTER FOREIGN DATA WRAPPER  COPYCREATE USER DROP SERVER ROLLBACK
  ALTER FUNCTION  CREATE AGGREGATECREATE USER MAPPING DROP TABLE  ROLLBACK PREPARED
  ALTER GROUP CREATE CAST CREATE VIEW DROP TABLESPACE ROLLBACK TO SAVEPOINT
  ALTER INDEX CREATE CONSTRAINT TRIGGER   DEALLOCATE  DROP TRIGGERSAVEPOINT
  ALTER LANGUAGE  CREATE CONVERSION   DECLARE DROP TYPE   SELECT
  ALTER OPERATOR  CREATE DATABASE DELETE  DROP USER   SELECT INTO
  ALTER OPERATOR CLASSCREATE DOMAIN   DROP AGGREGATE  DROP USER MAPPING   SET
  ALTER RESOURCE QUEUECREATE EXTERNAL TABLE   DROP CAST   DROP VIEW   SET CONSTRAINTS
  ALTER ROLE  CREATE FOREIGN DATA WRAPPER DROP CONVERSION END SET ROLE
  ALTER SCHEMACREATE FUNCTION DROP DATABASE   EXECUTE SET SESSION AUTHORIZATION
  ALTER SEQUENCE  CREATE GROUPDROP DOMAIN EXPLAIN SET TRANSACTION
  ALTER SERVERCREATE INDEXDROP EXTERNAL TABLE FETCH   SHOW
  ALTER TABLE CREATE LANGUAGE DROP FILESPACE  GRANT   START TRANSACTION
  ALTER TABLESPACECREATE OPERATOR DROP FOREIGN DATA WRAPPER   INSERT  TRUNCATE
  ALTER TRIGGER   CREATE OPERATOR CLASS   DROP FUNCTION   LISTEN  UNLISTEN
  ALTER TYPE  CREATE RESOURCE QUEUE   DROP GROUP  LOADUPDATE
  ALTER USER  CREATE ROLE DROP INDEX  LOCKVACUUM
  ALTER USER MAPPING  CREATE RULE DROP LANGUAGE   MOVEVALUES
  ANALYZE CREATE SCHEMA   DROP OPERATOR   NOTIFY  
template1=# 

template1=# CREATE DATABASE gptest;
CREATE DATABASE

登录到gptest

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
$ psql
psql (8.2.15)
Type "help" for help.

gptest=#
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2015-04-09 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
RH7.9安装部署GreenPlum 6
1、系统版本:redhat7.9 2、硬件:3台虚拟机,2核,16G内存,50G硬盘 3、实验节点规划一个master, 4个segment,4个mirror,无standby
Lucifer三思而后行
2021/08/17
7700
Greenplum 5.21.1 集群安装部署详述
简单来说GPDB是一个分布式数据库软件,其可以管理和处理分布在多个不同主机上的海量数据。对于GPDB来说,一个DB实例实际上是由多个独立的PostgreSQL实例组成的,它们分布在不同的物理主机上,协同工作,呈现给用户的是一个DB的效果。Master是GPDB系统的访问入口,其负责处理客户端的连接及SQL 命令、协调系统中的其他Instance(Segment)工作,Segment负责管理和处理用户数据。
星哥玩云
2022/08/18
1.1K0
Greenplum 5.21.1 集群安装部署详述
在CentOS 8.4中安装GreenPlum 6
https://network.pivotal.io/products/vmware-tanzu-greenplum#/releases/1163282/file_groups/9837
AiDBA宝典
2023/11/22
1.2K0
在CentOS 8.4中安装GreenPlum 6
Greenplum 6 安装配置详解
114.112.77.199 master、segment 210.73.209.103 standby master、segment 140.210.73.67 segment
用户1148526
2021/12/07
2.2K0
GreenPlum 6.23.0 安装部署高配版(启用standby master和segment mirror)
可以从 Greenplum 的 GitHub 页面(https://github.com/greenplum-db/gpdb/releases)下载RPM 包,或注册并登录到 Pivotal 公司官网(https://network.pivotal.io/products/vmware-tanzu-greenplum)进行下载。
AiDBA宝典
2023/04/27
2.6K0
GreenPlum 6.23.0 安装部署高配版(启用standby master和segment mirror)
Snova基础篇(二):原生环境greenplum集群编译安装
本节主要从snova原生环境-greenplum编译安装入手,熟悉原生环境操作及使用。
snova-最佳实践
2019/12/20
8990
Snova基础篇(二):原生环境greenplum集群编译安装
GreenPlum 6.19.3 安装部署基础版
Greenplum是一个面向数据仓库应用的关系型数据库,因为有良好的体系结构,所以在数据存储、高并发、高可用、线性扩展、反应速度、易用性和性价比等方面有非常明显的优势。Greenplum是一种基于PostgreSQL的分布式数据库,其采用sharednothing架构,主机、操作系统、内存、存储都是自我控制的,不存在共享。 本质上讲Greenplum是一个关系型数据库集群,它实际上是由数个独立的数据库服务组合成的逻辑数据库。与RAC不同,这种数据库集群采取的是MPP(Massively Parallel Processing)架构。跟MySQL、Oracle 等关系型数据不同,Greenplum可以理解为分布式关系型数据库。 关于Greenplum的更多信息请访问https://greenplum.org/
AiDBA宝典
2023/04/27
1.7K0
GreenPlum 6.19.3 安装部署基础版
Greenplum 5.16.0初探
个人觉得GP目前比较尴尬。性能比Presto稍差点,唯品会已经把GP改用Presto替换看了。另外数仓/数据集市方面还有性能强悍的HAWQ ,支持更大数据规模Hadoop。
保持热爱奔赴山海
2019/09/18
1.2K1
Greenplum 5.16.0初探
centos7系统greenplum5.7集群详细安装配置文档-亲试通过
OS:Red Hat Centos  Linux Server release 7.3
zhangdd
2020/01/02
8780
Greenplum 实时数据仓库实践(4)——Greenplum安装部署
Greenplum是一个MPP分布式数据库软件,本质上是并行利用硬件使其充分发挥能力以达到最佳性能。Greenplum可以运行在多种环境中,如物理机、虚拟机、云服务器等等,但无论哪种环境,要保证高可用、高性能和稳定性,必须以选择适当的硬件、操作系统、文件系统为基础。对底层系统和数据库的合理配置,也是获得一个强力Greenplum集群的重要前提条件。本篇详细论述Greenplum 6安装部署所涉及的各方面问题。
用户1148526
2021/12/07
2.4K0
GreenPlum4+版本安装部署
编辑网卡信息 vi /etc/sysconfig/network-scripts/ifcfg-eno1677984
永远的SSS
2020/07/04
8130
GreenPlum4+版本安装部署
GreenPlum为master和segment添加镜像
在已经安装的 Greenplum DB ,给 master 节点添加 standby master 节点 。
AiDBA宝典
2023/11/18
5730
GreenPlum为master和segment添加镜像
Greenplum快速上手
1、Greenplum公司成立于2003年,产品基于开源的PostgreSQL数据库开发,2006年推出了首款产品。
小徐
2020/08/26
1.4K0
Greenplum快速上手
Greenplum 6 一键升级脚本
参考:https://docs.greenplum.org/6-17/install_guide/upgrading.html
用户1148526
2021/12/07
3860
Greenplum集群Master与Standby相互切换
本文档主要测试Greenplum集群的Master与Standby节点异常后数据同步问题,之相互切换的过程。在操作时通过手动停掉Master节点看Standby节点是否能正常的启动,期间是否有数据不同步的问题,再通过恢复原Master节点查看集群是否正常运行。在切换期间要注意Master与Standby脑裂的情况的发生。
小徐
2020/10/19
2.5K0
Greenplum集群Master与Standby相互切换
Greenplum使用gpstate查看数据库系统的状态
gpstate工具显示有关正在运行的Greenplum数据库实例的信息。 由于Greenplum数据库系统由跨多台机器的多个PostgreSQL数据库实例(Segment)组成, 因此用户可能需要了解关于Greenplum数据库系统的额外信息。gpstate 工具为Greenplum数据库系统提供了额外的状态信息,例如:
AiDBA宝典
2023/04/27
1.2K0
Greenplum使用gpstate查看数据库系统的状态
GreenPlum官方监控工具之GPCC 6.8.3安装配置
GPCC 监控系统性能指标,分析集群健康状况,并使数据库管理员能够在 Greenplum Database 环境中执行管理任务。它提供了一个本地浏览器的 HTML5 图形控制台,用于查看 Greenplum Database 系统指标和执行某些数据库管理任务。
AiDBA宝典
2023/04/27
8800
GreenPlum官方监控工具之GPCC 6.8.3安装配置
Greenplum6使用ansible简化安装
ansible-playbook gp_src_install.yml -e package_path=pathto/6.0.0.tar.gz
mingjie
2022/05/12
3710
Greenplum版本升级及小版本升级示例
需要注意的是,gpupgrade 可以进行滚动升级,即升级过程不需要在整个集群中同时执行,而是逐个段进行升级。此外,如果在升级过程中出现任何问题,请参阅 gpupgrade 文档中提供的解决方案,或者向 Greenplum 社区寻求支持。
AiDBA宝典
2023/04/27
3.1K0
Greenplum版本升级及小版本升级示例
Greenplum6.8.1安装
Greenplum是一款基于分布式架构的开源数据库;采用无共享(no shareing)的MPP架构(每个数据节点拥有独立的CPU、IO和内存等资源);其具有良好的线性扩展能力,具有高效的并行运算、并行存储特性。拥有独特的高效的ORCA优化器。非常适合用于PB数据量级的存储、处理和实时分析能力。Greenplum是基于PostgreSQL数据库发展而来,本质上是多个PostgreSQL面向磁盘的数据库实例一起工作形成的一个紧密结合的数据库管理系统(DBMS),同时支持涵盖OLTP型业务混合负载,数据节点和主节点均可设计备份节点,进而提供数据库的高可用性。
运维牛马
2025/02/24
980
Greenplum6.8.1安装
相关推荐
RH7.9安装部署GreenPlum 6
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档