分类:
2010-09-30 23:00:17
. 下载安装
在官网 下载 pgpool-II 2.2.2.tar.gz ,执行以下命令安装:
#tar xvf pgpool-II 2.2.2.tar.gz
#cd pgpool-II 2.2.2
#./ configure; make; make install;
2. Parallel_Mode 配置
数据库的 Patition 可以利用 Pgpool-II 的 Parallel_Mode 来实现,在这种方式下,必须设置另外一个叫做 “System Database” 的数据库(我们称之为SystemDB )。 SystemDB 保存决定数据如何在各节点中保存的用户定义规则,另一个用途是合并使用数据库链( dblink )从数据库节点返回的结果。
本文中的配置, Pgpool 和 SystemDB 都放在服务器 192.168.1.239 ,占用端口分别为: 9999 和 5444 。
配置文件的默认路径是: /usr/local/etc ,首先需要配置 pgpool.conf
#cd /usr/local/etc ; cp pgpool.conf.sample pgpool.conf;
下面是具体的配置过程:
设置并发查询
将 pgpool.conf 文件中的 parallel_mode 参数设置为 true 开启数据库复制功能:
parallel_mode = true
这样并不能自动开始并发查询, pgpool-II 还需要 SystemDB 以及分布规则来知道如何在各节点中分布数据。
另外, SystemDB 使用数据库链连接 pgpool-II ,因此,需要设置 listen_addresses 参数好让 pgpool-II 接受这些连接请求:
listen_addresses = '*'
注意:并发查询和复制是不能共存的,使用并发查询功能时, replication_mode 必须设置为 false 。此外,并发查询和复制采用不同的格式储存数据,这样前边我们创建的 “bench_replication” 数据库无法被重用( reuse )。
replication_mode = false
load_balance_mode = false
parallel_mod 设置为 true 、 listen_addresses 设置为 '*' 、 replication_mode 和 load_balance_mode 设置为 false 。
配置 SystemDB
SystemDB 仅仅是一个安装有数据库链的数据库,数据表 “dist_def” 被用来保存数据分布规则。可以在单独的电脑中放置 SystemDB ,也可以与数据库节点之一共存。
在服务器 192.168.1.121 上的 5444 端口上创建 SystemDB ,下边是 SystemDB 的参数设置列表:
system_db_hostname = '192.168.1.121'
system_db_port = 5444
system_db_dbname = 'pgpool'
system_db_schema = 'pgpool_catalog'
system_db_user = 'pgpool'
system_db_password = ''
事实上,这是 pgpool.conf 中的缺省设置。
然后创建叫做 “pgpool” 的用户,再创建所有者为 “pgpool” 的数据库 “pgpool” :
#createuser -p 5444 pgpool
#createdb -p 5444 -O pgpool pgpool
安装数据链
接下来,必须将数据库链安装到 “pgpool” 数据库,它是包含在 PostgreSQL 源代码 contrib 目录下的工具之一。
在“pgpool” 数据库中定义数据库链函数。PostgreSQL 安装在/opt/PostgresPlus/8.3AS ,dblink.sql (函数定义文件)会被放置在/opt/PostgresPlus/8.3AS/dbserver/share/contrib 中,运行如下命令创建函数:
# edb-psql -f /opt/PostgresPlus/8.3AS/dbserver/share/contribdblink.sql -p 5444 pgpool
定义 dist_def 数据表
接 下来,定义数据库表“dist_def” 存放数据分布规则。安装pgpool-II 时,system_db.sql 文件放置在/opt/PostgresPlus/8.3AS/dbserver/share /system_db.sql (这里我们使用缺省安装路径),它包括了一些包括“dist_def” 在内的特殊用途数据表,执行下边的命令创 建dist_def 数据表:
# edb-psql -f /opt/PostgresPlus/8.3AS/dbserver/share/system_db.sql -p 5444 -U pgpool pgpool
在system_db.sql 文件里,dist_def 被创建在叫做pgpool_catalog 的schema 中,如果参数system_db_schema 设置为其他的schema ,需要相应的修改system_db.sql 。
下边是dist_def 的定义语句:
CREATE TABLE pgpool_catalog.dist_def (
dbname text, -- database name
schema_name text, -- schema name
table_name text, -- table name
col_name text NOT NULL CHECK (col_name = ANY (col_list)), -- distribution key-column
col_list text[] NOT NULL, -- list of column names
type_list text[] NOT NULL, -- list of column types
dist_def_func text NOT NULL, -- distribution function name
PRIMARY KEY (dbname, schema_name, table_name)
);
dist_def 中的每一行数据分为两个部分:
数据分布规则(col_name 、dist_def_func )
数据表的meta-information (dbname 、schema_name 、table_name, col_list 、type_list )
分布规则决定了数据如何在各节点中分布,也就是按照“col_name” 字段的值分布。“dist_def_func” 以“col_name” 值为参数的函数,返回数据应该被储存在哪个节点的ID 。
meta-information 用来重写查询,并发查询必须重写查询以便能够将个节点返回的结果合并为一个结果。
system_db.sql 中定义的其他几个表,可以打开该文件具体参考。
定义数据分布节点
例子中的三个分布节点,分别为:192.168.1.239:5444 , 192.168.1.201:5444, 192.168.1.201:5443
在pgpool.conf 中定义这三个节点:
backend_hostname0 = '192.168.1.239'
backend_port0 = 5444
backend_weight0 = 1
backend_data_directory0 = '/usr/postgresql/data'
backend_hostname1 = '192.168.1.201'
backend_port1 = 5444
backend_weight1 = 1
backend_data_directory1 = '/usr/postgresql/data'
backend_hostname2 = '192.168.1.201'
backend_port2 = 5443
backend_weight2 = 1
backend_data_directory2 = '/usr/postgresql/data2'
定义数据分布规则
我们将定义把pgbench 生成的示例数据分布在三个数据库节点的分布规则,创建名为“bench_parallel” 的数据库,并且使用“pgbench -i -s 3” 生成示例数据。
在pgpool-II 源代码的sample 目录能够找到dist_def_pgbench.sql 文件,使用这个文件创建数据分布规则,执行如下命令:
$ edb-psql -f sample/dist_def_pgbench.sql -p 5444 pgpool
以下是dist_def_pgbench.sql 文件内容的解释。
插 入四行数据到数据表“dist_def” 中。每个数据表(前边提到过的accounts 、branches 、tellers 以及history )各自有一 个不同的分布函数。分别为branches 、tellers 、accounts 定义bid 、tid 、aid 作为他们的key-columns 字段(这几个字段也是他们的主键),history 以tid 作为key-columns 字 段。
INSERT INTO pgpool_catalog.dist_def VALUES (
'bench_parallel',
'public',
'branches',
'bid',
ARRAY['bid', 'bbalance', 'filler'],
ARRAY['integer', 'integer', 'character(88)'],
'pgpool_catalog.dist_def_branches'
);
INSERT INTO pgpool_catalog.dist_def VALUES (
'bench_parallel',
'public',
'tellers',
'tid',
ARRAY['tid', 'bid', 'tbalance', 'filler'],
ARRAY['integer', 'integer', 'integer', 'character(84)'],
'pgpool_catalog.dist_def_tellers'
);
INSERT INTO pgpool_catalog.dist_def VALUES (
'bench_parallel',
'public',
'accounts',
'aid',
ARRAY['aid', 'bid', 'abalance', 'filler'],
ARRAY['integer', 'integer', 'integer', 'character(84)'],
'pgpool_catalog.dist_def_accounts'
);
INSERT INTO pgpool_catalog.dist_def VALUES (
'bench_parallel',
'public',
'history',
'tid',
ARRAY['tid', 'bid', 'aid', 'delta', 'mtime', 'filler'],
ARRAY['integer', 'integer', 'integer', 'integer', 'timestamp without time zone', 'character(22)'],
'pgpool_catalog.dist_def_history'
);
接下来,必须为每个表定义分布函数,不同的表可以使用同一个分布函数,并且使用过程语言(PL/pgSQL 、PL/Tcl 等等)定义而不是SQL 。
下边是由pgbench -i -s 3 生成的数据概要:
数据表名 | 数据行数 |
branches | 3 |
tellers | 30 |
accounts | 300000 |
history | 0 |
继续定义4 个函数将上述数据平分到三个节点,根据给出的参数返回0 、1 或者2
CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_branches(anyelement)
RETURNS integer AS $$
SELECT CASE WHEN $1 > 0 AND $1 <= 1 THEN 0 WHEN $1 > 1 AND $1 <= 2 THEN 1 ELSE 2 END;
$$ LANGUAGE sql;
CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_tellers(anyelement)
RETURNS integer AS
$$ SELECT CASE WHEN $1 > 0 AND $1 <= 10 THEN 0 WHEN $1 > 10 AND $1 <= 20 THEN 1 ELSE 2 END; $$ LANGUAGE sql;
CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_accounts(anyelement)
RETURNS integer AS $$
SELECT CASE WHEN $1 > 0 AND $1 <= 100000 THEN 0 WHEN $1 > 100000 AND $1 <= 200000 THEN 1 ELSE 2 END;
$$ LANGUAGE sql;
CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_history(anyelement)
RETURNS integer AS $$ SELECT CASE WHEN $1 > 0 AND $1 <= 10 THEN 0 WHEN $1 > 10 AND $1 <= 20 THEN 1 ELSE 2 END;
$$ LANGUAGE sql;
检验并发查询
重新启动pgpool-II 载入pgpool.conf 的变化,然后我们来检验一下并发查询是否在正常运行。
首先,命名为“bench_parallel” 的分布数据库,通过pgpool-II 创建到每一个节点上:
$ createdb -p 9999 bench_parallel
接下来,生成测试数据:
$ pgbench -i -s 3 -p 9999 bench_parallel
预想的数据分布情况:
数据表名 | Key-Column 名 | 值 | ||
节点1 | 节点2 | 节点3 | ||
branches | bid | 1 | 2 | 3 |
tellers | tid | 1 - 10 | 11 - 20 | 21 - 30 |
accounts | aid | 1 - 100000 | 100001 - 200000 | 200001 - 300000 |
history | tid | 1 - 10 | 11 - 20 | 21 - 30 |
这时可以用数据库工具分别查看各节点的数据来确认结果。也可以在 Pgpool 的服务端口进入 SQL 操作来查看数据:
#ebd-psql –p 9999 bench_parallel
#select * from accounts;
此时三个节点的数据可以通过一个共同的接口跟应用进行关联,该接口就是pgpool ,默认端口为9999 。
3. load_balance_mode 配置
Parallel_Mode 配置成功后,每一个数据分布的节点还可继续利用Pgpool 的load_balance_mode 进一步配置小的集群,实现数据库的负载均衡。
数 据分布节点的集群仍需要一个对外的共同接口,默认端口9999 。本例中的节点Pgpool 安装在了服务器192.168.1.239 上,两个节点分别为192.168.1.239:5444 ,192.168.1.121:5445 配置pgpool.conf 如下:
load_balance_mode = true
…
master_slave_mode = true
…
backend_hostname1 = '192.168.1.239'
backend_port1 = 5444
backend_weight1 = 1
backend_data_directory1 = '/usr/postgresql/data'
backend_hostname2 = '192.168.1.121'
backend_port2 = 5445
backend_weight2 = 1
backend_data_directory2 = '/usr/postgresql/data2'
在 load_balance_mode 模式下,Insert 、Update 、Delete 操作只会发给Master ,Select 将会随机分发到两个节点上, Slave 可以通过 Slonely 复制Master 的数据,任意一个服务出现故障都会通过 Failover 处理,继续提供数据库服务,实现了高可用性和负载均衡。
Failover 处理
在节点发生故障后, Pgpool 提供了一个调用 Command 的方法,在 pgpool.conf 文件中
# Execute command by failover.
# special values: %d = node id
# %h = host name
# %p = port number
# %D = database cluster path
# %m = new master node id
# %M = old master node id
# %% = '%' character
failover_command = '/usr/local/etc/failover.sh %d %m %M'
当某个节点发生了故障时,会自动调用存放在Pgpool 服务器上的Shell 文件。调用时,可以传递一些参数,在本例中,传递了%d %m %M 这三个参数。具体的定义可以参考说明。
在调用的Shell 中,根据参数的值来判断发生故障的服务是否为Master ,并分别调用不同的Shell ,完成Slonely 的Failover
if [$2 = $3];then
#slave failed
ssh root@192.168.1.121 /opt/PostgresPlus/8.3AS/dbserver/bin/./edb_cluster_dropslave.sh $1 $2 $3
else
#master failed
ssh root@192.168.1.121 /opt/PostgresPlus/8.3AS/dbserver/bin/./edb_cluster_failover.sh $1 $2 $3
fi
Failback 处理
4. Replication_mode 配置
在上文中master_slave_mode 和Slonely 相结合同样可以实现复制功能,但异步复制的情况下,数据的统一在时间上是有延迟的,有可能会造成数据检索结果与实现不一致的情况。
Pgpool 的replication_mode 是将Insert 、Update 、Delete 命令同时发送、Select 命令随机发送的一种方式,这样可以避免上述的情况,但是在failback 时数据的同步需要借助其他的方法来实现。
修改配置pgpool.conf 如下:
replication_mode = true
…
master_slave_mode = false
待完善......