一般的像小型企业和业务量不是太大的集群架构,我们使用MongoDB分片就可以足够满足业务需求,或者随着业务的不断增长我们多做些副本集也是可以解决问题,多搞几个主从就可以了。还有一种情况是,类似于腾讯或者阿里有着庞大的集群以及业务量和数据量,不可能一个库分成多个库,其实MongoDB也有这种功能叫做分片,也就是今天所用到的!如下:
如上架构中可以这么理解,分片的下一个级别是副本集,其实每个Shard就是一个副本集,所以有必要先副本再分片,也就是说分片是由副本集组成的!Config Server(配置服务器)其实是需要保护起来的,所有的配置数据都在其内,而且配合高可用我们必须要配置多台,我们可以把如上架构中每台机器都看作为分片。
服务器名称(IP) | 作用1 | 作用2 | 作用3 | 作用4 | 作用5 |
---|---|---|---|---|---|
zhdy01(192.168.96.129) | mongos | config server | 副本集1主节点 | 副本集2仲裁 | 副本集3从节点 |
zhdy02(192.168.96.135) | mongos | config server | 副本集1从节点 | 副本集2主节点 | 副本集3仲裁 |
zhdy03(192.168.96.136) | mongos | config server | 副本集1仲裁 | 副本集2从节点 | 副本集3主节点 |
对应端口为 | 20000 | 21000 | 27001 | 27002 | 27003 |
三台机器全部关闭firewalld服务和selinux,或者增加对应端口的规则
分别在三台机器上创建各个角色所需要的目录
mkdir -p /data/mongodb/mongos/log
mkdir -p /data/mongodb/config/{data,log}
mkdir -p /data/mongodb/shard1/{data,log}
mkdir -p /data/mongodb/shard2/{data,log}
mkdir -p /data/mongodb/shard3/{data,log}
mongodb3.4版本以后需要对config server创建副本集
添加配置文件(三台机器都操作):
mkdir /etc/mongod/
vim /etc/mongod/config.conf
//加入如下内容
pidfilepath = /var/run/mongodb/configsrv.pid
dbpath = /data/mongodb/config/data
logpath = /data/mongodb/config/log/congigsrv.log
logappend = true
bind_ip = 192.168.96.XXX
port = 21000
fork = true
configsvr = true #declare this is a config db of a cluster;
replSet=configs #副本集名称
maxConns=20000 #设置最大连接数
bind_ip = 0.0.0.0 默认是这个,监听全网,但是不安全,因为咱们的MongoDB没有设置密码很容易被黑客入侵!所以还是改成本机IP。
三台机器均需要设置bindIp 以及replSetName
启动三台机器的config server
mongod -f /etc/mongod/config.conf //三台机器都要操作
netstat -lntp
登录任意一台机器(我们这边使用192.168.96.129)的21000端口,初始化副本集
mongo --host 192.168.96.129 --port 21000
use admin
config = { _id: "configs", members: [ {_id : 0, host : "192.168.96.129:21000"},{_id : 1, host : "192.168.96.135:21000"},{_id : 2, host : "192.168.96.136:21000"}] }
rs.initiate(config)
结果我就不贴图了,和昨天配置的主从是一样的!
添加配置文件(三台机器都操作)
vim /etc/mongod/shard1.conf
//加入如下内容
pidfilepath = /var/run/mongodb/shard1.pid
dbpath = /data/mongodb/shard1/data
logpath = /data/mongodb/shard1/log/shard1.log
logappend = true
bind_ip = 192.168.96.XXX
port = 27001
fork = true
httpinterface=true #打开web监控
rest=true
replSet=shard1 #副本集名称
shardsvr = true #declare this is a shard db of a cluster;
maxConns=20000 #设置最大连接数
添加配置文件(三台机器都操作)
vim /etc/mongod/shard2.conf
//加入如下内容
pidfilepath = /var/run/mongodb/shard2.pid
dbpath = /data/mongodb/shard2/data
logpath = /data/mongodb/shard2/log/shard2.log
logappend = true
bind_ip = 192.168.96.129
port = 27002
fork = true
httpinterface=true #打开web监控
rest=true
replSet=shard2 #副本集名称
shardsvr = true #declare this is a shard db of a cluster;
maxConns=20000 #设置最大连接数
添加配置文件(三台机器都操作)
vim /etc/mongod/shard3.conf
//加入如下内容
pidfilepath = /var/run/mongodb/shard3.pid
dbpath = /data/mongodb/shard3/data
logpath = /data/mongodb/shard3/log/shard3.log
logappend = true
bind_ip = 192.168.96.XXX
port = 27003
fork = true
httpinterface=true #打开web监控
rest=true
replSet=shard3 #副本集名称
shardsvr = true #declare this is a shard db of a cluster;
maxConns=20000 #设置最大连接数
mongod -f /etc/mongod/shard1.conf //三台机器都要操作
登录129或者135任何一台机器的27001端口初始化副本集,136之所以不行,是因为shard1我们把136这台机器的27001端口作为了仲裁节点
mongo --host 192.168.96.XXX --port 27001
use admin
config = { _id: "shard1", members: [ {_id : 0, host : "192.168.96.129:27001"}, {_id: 1,host : "192.168.96.135:27001"},{_id : 2, host : "192.168.96.136:27001",arbiterOnly:true}] }
rs.initiate(config)
mongod -f /etc/mongod/shard2.conf //三台机器都要操作
登录135或者136任何一台机器的27002端口初始化副本集,129之所以不行,是因为shard2我们把129这台机器的27002端口作为了仲裁节点
mongo --host 192.168.96.XXX --port 27002
use admin
config = { _id: "shard2", members: [ {_id : 0, host : "192.168.96.129:27002" ,arbiterOnly:true},{_id : 1, host : "192.168.96.135:27002"},{_id : 2, host : "192.168.96.136:27002"}] }
rs.initiate(config)
mongod -f /etc/mongod/shard3.conf //三台机器都要操作
登录129或者136任何一台机器的27003端口初始化副本集,135之所以不行,是因为shard3我们把135这台机器的27003端口作为了仲裁节点
mongo --host 192.168.96.XXX --port 27003
use admin
config = { _id: "shard3", members: [ {_id : 0, host : "192.168.96.129:27003"}, {_id : 1, host : "192.168.96.135:27003", arbiterOnly:true}, {_id : 2, host : "192.168.96.136:27003"}] }
rs.initiate(config)
为什么在最后配置路由服务器呢?是因为mongos需要知道你的config server以及shard副本集都是那些。
vim /etc/mongod/mongos.conf
//加入如下内容
pidfilepath = /var/run/mongodb/mongos.pid
logpath = /data/mongodb/mongos/log/mongos.log
logappend = true
bind_ip = 192.168.96.XXX
port = 20000
fork = true
configdb = configs/192.168.96.129:21000,192.168.96.135:21000,192.168.96.136:21000 #监听的配置服务器,只能有1个或者3个,configs为配置服务器的副本集名字
maxConns=20000 #设置最大连接数
注意如上configdb后面的IP地址处不要有空格!
启动mongos服务,注意命令,前面都是mongod,这里是mongos
mongos -f /etc/mongod/mongos.conf
登录任何一台20000端口(我们这边使用96.129,任意一台即可)
mongo --port 20000 --host 192.168.96.129
把所有分片和路由器串联:
sh.addShard("shard1/192.168.96.129:27001,192.168.96.135:27001,192.168.96.136:27001")
sh.addShard("shard2/192.168.96.129:27002,192.168.96.135:27002,192.168.96.136:27002")
sh.addShard("shard3/192.168.96.129:27003,192.168.96.135:27003,192.168.96.136:27003")
查看集群状态
sh.status()
登录任何一台20000端口
mongo --port 20000
use admin
db.runCommand({ enablesharding : "testdb"}) 或者
sh.enableSharding("testdb") //指定要分片的数据库
db.runCommand( { shardcollection : "testdb.table1",key : {id: 1} } ) 或者
sh.shardCollection("testdb.table1",{"id":1} ) //#指定数据库里需要分片的集合和片键
use testdb
for (var i = 1; i <= 10000; i++) db.table1.save({id:i,"test1":"testval1"}) //插入10000条测试数据
mongos> show dbs
admin 0.000GB
config 0.001GB
testdb 0.000GB
db.table1.stats() //查看table1状态
查看库的状态:
看来刚刚创建的三个库确实是被均分到不同的分片中:
备份的命令和mysql差不多
它会在/tmp/目录下面生成一个mydb的目录:
mongodump --host 192.168.96.129 --port 20000 -d mydb -o /tmp/mongobak
备份所有库
mongodump --host 192.168.96.129 --port 20000 -o /tmp/mongobak/alldatabase
指定备份集合
它依然会生成mydb目录,再在这目录下面生成两个文件
mongodump --host 192.168.96.129 --port 20000 -d mydb -c c1 -o /tmp/mongobak/
导出集合为json文件
mongoexport --host 192.168.96.129 --port 20000 -d mydb -c c1 -o /tmp/mydb2/1.json
其中dir是备份所有库的目录名字,其中–drop可选,意思是当恢复之前先把之前的数据删除,不建议使用
mongorestore -h 192.168.96.129--port 20000 --drop dir/
-d 跟要恢复的库名字,dir就是该库备份时所在的目录
mongorestore -d mydb dir/
恢复集合
mongorestore -d mydb -c testc dir/mydb/testc.bson // -c后面跟要恢复的集合名字,dir是备份mydb库时生成文件所在路径,这里是一个bson文件的路径
导入集合
mongoimport -d mydb -c testc --file /tmp/testc.json