一、环境准备
1.本例使用3台Linux主机,IP地址如下:
-
Server A: 192.168.1.231
-
Server B: 192.168.1.232
-
Server C: 192.168.1.233
2.根据需要,开启相应主机防火墙的相关端口。本次需要用到3台主机,所以开启这3台主机的以下端口:
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27017 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27018 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27019 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 20000 -j ACCEPT
二、搭建分布式集群
运用MongoDB的复制集(Replica
Sets)+分片(Sharding)就能实现MongoDB分布式高可用的集群。
分片(sharding)能够增加更多的机器来应对不断增加的负载和数据,也不影响应用。
复制集(Replica Sets)能确保每个分片节点都具有自动备份、自动故障恢复能力。
1.集群的环境
架构图:
主机设计:
2.配置Replica Sets
创建数据目录:
-
mkdir -p /data/{shard1-1,shard2-1,config} #在serverA上
-
mkdir -p /data/{shard1-2,shard2-2,config} #在serverB上
-
mkdir -p /data/{shard1-3,shard2-3,config} #在serverC上
2.1配置shard1的Replica Sets:
#在serverA上启动shard1-1
-
./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-1/ --logpath /data/shard1-1/shard1-1.log --logappend --replSet shard1 --directoryperdb
#在serverB上启动shard1-2
-
./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-2/ --logpath /data/shard1-2/shard1-2.log --logappend --replSet shard1 --directoryperdb
#在serverC上启动shard1-3
-
./mongod --fork --shardsvr --port 27018 --dbpath /data/shard1-3/ --logpath /data/shard1-3/shard1-3.log --logappend --replSet shard1 --directoryperdb
用mongo连接其中一台主机的27018端口的mongod,初始化复制集shard1:
./mongo --port 27018
-
>config={_id:'shard1',members:[
-
{_id:0,host:'192.168.1.231:27018',priority:2},
-
{_id:1,host:'192.168.1.232:27018',priority:1},
-
{_id:2,host:'192.168.1.233:27018',arbiterOnly:true}]
-
}
-
-
>rs.initiate(config)
2.2 配置shard2的Replica Sets
#在serverA上启动shard2-1
-
./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-1/ --logpath /data/shard2-1/shard2-1.log --logappend --replSet shard2 --directoryperdb
#在serverB上启动shard2-2
-
./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-2/ --logpath /data/shard2-2/shard2-2.log --logappend --replSet shard2 --directoryperdb
#在serverC上启动shard2-3
-
./mongod --fork --shardsvr --port 27019 --dbpath /data/shard2-3/ --logpath /data/shard2-3/shard2-3.log --logappend --replSet shard2 --directoryperdb
用mongo连接其中一台主机(建议在ServerB上)的27019端口的mongod,初始化复制集shard2:
./mongo --port 27019
-
>config={_id:'shard2',members:[
-
{_id:0,host:'192.168.1.231:27019',arbiterOnly:true},
-
{_id:1,host:'192.168.1.232:27019',priority:1},
-
{_id:2,host:'192.168.1.233:27019',priority:2}]
-
}
-
-
>rs.initiate(config)
3.配置config
server
#在3台主机中分别启动配置服务
-
./mongod --configsvr --port 20000 --dbpath /data/config/ --logpath /data/config/config.log –replSet configdb --logappend --fork
用mongo连接其中一台主机的20000端口的mongod,初始化复制集configdb:
./mongo –port 20000
-
>configdb1={_id:'configdb',members:[
-
{_id:0,host:'192.168.1.231:20000',priority:3},
-
{_id:1,host:'192.168.1.232:20000',priority:1},
-
{_id:2,host:'192.168.1.233:20000',priority:2}]
-
}
-
-
>rs.initiate(configdb1)
4.配置router
server
#在3台主机中分别运行mongos服务
-
./mongos --configdb configdb/192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend –fork
5.配置分片(shard
cluster)
#连接到其中一台机器的端口27017的mongos进程,并切换到admin数据库添加分片shard1和shard2:
./mongo --port 27017
-
>use admin
-
>db.runCommand({addshard:"shard1/192.168.1.231:27018,192.168.1.232:27018,192.168.1.233:27018"})
-
>db.runCommand({addshard:"shard2/192.168.1.231:27019,192.168.1.232:27019,192.168.1.233:27019"})
#激活数据库(work)和集合(status)的分片功能:
-
> db.runCommand({enablesharding:"work"})
-
>db.runCommand({shardcollection:"work.status",key:{_id:1}})
6.验证
#查看shard1的集合work.status和shard2的文档数几乎均分,且之和等于路由节点下查看的文档数:
./mongo --port 27018 work
./mongo --port 27019 work
./mongo work
#查看分片的状态:
三、常见问题
1.【问题描述】执行初始化副本集时报错:
-
> rs.initiate(config)
-
{
-
"ok" : 0,
-
"errmsg" : "replSetInitiate quorum check failed because not all proposed set members responded affirmatively: 192.168.1.232:27018 failed with No route to host, 192.168.1.233:27018 failed with No route to host",
-
"code" : 74,
-
"codeName" : "NodeNotFound"
-
}
【解决方法】
开启防火墙的相关端口
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27017 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27018 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 27019 -j ACCEPT
-
-A INPUT -m state --state NEW -m tcp -p tcp --dport 20000 -j ACCEPT
2.【问题描述】初始化副本集报错:
-
> rs.initiate(config)
-
{
-
"ok" : 0,
-
"errmsg" : "This node, 192.168.1.231:27019, with _id 0 is not electable under the new configuration version 1 for replica set shard2",
-
"code" : 93,
-
"codeName" : "InvalidReplicaSetConfig"
-
}
【解决方法】
如果设置主机A为仲裁节点,那么不要在A主机上执行初始化操作,否则会报上述错误。
3.【问题描述】启动路由器mongos报错:
-
./mongos --configdb 192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend --forkFailedToParse: mirrored config server connections are not supported; for config server replica sets be sure to use the replica set connection stringtry './mongos --help' for more information
【解决方法】
从Mongodb3.2之后,启动mongos时需使用副本集名称,否则会报上述错误。例如:
-
./mongos –configdb 副本集名称/192.168.1.231:20000,192.168.1.232:20000,192.168.1.233:20000 --port 27017 --logpath /data/mongos.log --logappend --fork
阅读(5282) | 评论(0) | 转发(0) |