Chinaunix首页 | 论坛 | 博客
  • 博客访问: 858031
  • 博文数量: 150
  • 博客积分: 5123
  • 博客等级: 大校
  • 技术积分: 1478
  • 用 户 组: 普通用户
  • 注册时间: 2008-11-06 10:03
文章分类

全部博文(150)

文章存档

2011年(2)

2010年(139)

2009年(9)

分类:

2010-09-30 23:00:17

.       下载安装

在官网  下载 pgpool-II 2.2.2.tar.gz ,执行以下命令安装:

#tar xvf pgpool-II 2.2.2.tar.gz

#cd pgpool-II 2.2.2

#./ configure; make; make install;

2.       Parallel_Mode 配置

数据库的 Patition 可以利用 Pgpool-II  Parallel_Mode 来实现,在这种方式下,必须设置另外一个叫做 “System Database” 的数据库(我们称之为SystemDB )。 SystemDB 保存决定数据如何在各节点中保存的用户定义规则,另一个用途是合并使用数据库链( dblink )从数据库节点返回的结果。

本文中的配置, Pgpool  SystemDB 都放在服务器 192.168.1.239 ,占用端口分别为: 9999  5444 

配置文件的默认路径是: /usr/local/etc ,首先需要配置 pgpool.conf

#cd /usr/local/etc ; cp pgpool.conf.sample pgpool.conf;

下面是具体的配置过程:

设置并发查询 
 pgpool.conf 文件中的 parallel_mode 参数设置为 true 开启数据库复制功能: 
parallel_mode = true 
这样并不能自动开始并发查询, pgpool-II 还需要 SystemDB 以及分布规则来知道如何在各节点中分布数据。

另外, SystemDB 使用数据库链连接 pgpool-II ,因此,需要设置 listen_addresses 参数好让 pgpool-II 接受这些连接请求:

listen_addresses = '*'

注意:并发查询和复制是不能共存的,使用并发查询功能时, replication_mode 必须设置为 false 。此外,并发查询和复制采用不同的格式储存数据,这样前边我们创建的 “bench_replication” 数据库无法被重用( reuse )。

replication_mode = false

load_balance_mode = false

parallel_mod 设置为 true  listen_addresses 设置为 '*'  replication_mode  load_balance_mode 设置为 false 

配置 SystemDB

SystemDB 仅仅是一个安装有数据库链的数据库,数据表 “dist_def” 被用来保存数据分布规则。可以在单独的电脑中放置 SystemDB ,也可以与数据库节点之一共存。

在服务器 192.168.1.121 上的 5444 端口上创建 SystemDB ,下边是 SystemDB 的参数设置列表:

system_db_hostname = '192.168.1.121'

system_db_port = 5444

system_db_dbname = 'pgpool'

system_db_schema = 'pgpool_catalog'

system_db_user = 'pgpool'

system_db_password = ''

事实上,这是 pgpool.conf 中的缺省设置。

然后创建叫做 “pgpool” 的用户,再创建所有者为 “pgpool” 的数据库 “pgpool” 

#createuser -p 5444 pgpool

#createdb -p 5444 -O pgpool pgpool

安装数据链

接下来,必须将数据库链安装到 “pgpool” 数据库,它是包含在 PostgreSQL 源代码 contrib 目录下的工具之一。

在“pgpool” 数据库中定义数据库链函数。PostgreSQL 安装在/opt/PostgresPlus/8.3AS ,dblink.sql (函数定义文件)会被放置在/opt/PostgresPlus/8.3AS/dbserver/share/contrib 中,运行如下命令创建函数:

# edb-psql -f /opt/PostgresPlus/8.3AS/dbserver/share/contribdblink.sql -p 5444 pgpool

定义 dist_def 数据表

接 下来,定义数据库表“dist_def” 存放数据分布规则。安装pgpool-II 时,system_db.sql 文件放置在/opt/PostgresPlus/8.3AS/dbserver/share /system_db.sql (这里我们使用缺省安装路径),它包括了一些包括“dist_def” 在内的特殊用途数据表,执行下边的命令创 建dist_def 数据表:

# edb-psql -f /opt/PostgresPlus/8.3AS/dbserver/share/system_db.sql -p 5444 -U pgpool pgpool

在system_db.sql 文件里,dist_def 被创建在叫做pgpool_catalog 的schema 中,如果参数system_db_schema 设置为其他的schema ,需要相应的修改system_db.sql 。

下边是dist_def 的定义语句:

CREATE TABLE pgpool_catalog.dist_def (

dbname text, -- database name

schema_name text, -- schema name

table_name text, -- table name

col_name text NOT NULL CHECK (col_name = ANY (col_list)), -- distribution key-column
col_list text[] NOT NULL, -- list of column names

type_list text[] NOT NULL, -- list of column types

dist_def_func text NOT NULL, -- distribution function name

PRIMARY KEY (dbname, schema_name, table_name)

);

dist_def 中的每一行数据分为两个部分:

数据分布规则(col_name 、dist_def_func )

数据表的meta-information (dbname 、schema_name 、table_name, col_list 、type_list )

  • 分布规则决定了数据如何在各节点中分布,也就是按照“col_name” 字段的值分布。“dist_def_func” 以“col_name” 值为参数的函数,返回数据应该被储存在哪个节点的ID 。

    meta-information 用来重写查询,并发查询必须重写查询以便能够将个节点返回的结果合并为一个结果。

    system_db.sql 中定义的其他几个表,可以打开该文件具体参考。

    定义数据分布节点

    例子中的三个分布节点,分别为:192.168.1.239:5444 , 192.168.1.201:5444, 192.168.1.201:5443

    在pgpool.conf 中定义这三个节点:

    backend_hostname0 = '192.168.1.239'

    backend_port0 = 5444

    backend_weight0 = 1

    backend_data_directory0 = '/usr/postgresql/data'

    backend_hostname1 = '192.168.1.201'

    backend_port1 = 5444

    backend_weight1 = 1

    backend_data_directory1 = '/usr/postgresql/data'

    backend_hostname2 = '192.168.1.201'

    backend_port2 = 5443

    backend_weight2 = 1

    backend_data_directory2 = '/usr/postgresql/data2'

    定义数据分布规则

    我们将定义把pgbench 生成的示例数据分布在三个数据库节点的分布规则,创建名为“bench_parallel” 的数据库,并且使用“pgbench -i -s 3” 生成示例数据。 
    在pgpool-II 源代码的sample 目录能够找到dist_def_pgbench.sql 文件,使用这个文件创建数据分布规则,执行如下命令:

    $ edb-psql -f sample/dist_def_pgbench.sql -p 5444 pgpool

    以下是dist_def_pgbench.sql 文件内容的解释。

    插 入四行数据到数据表“dist_def” 中。每个数据表(前边提到过的accounts 、branches 、tellers 以及history )各自有一 个不同的分布函数。分别为branches 、tellers 、accounts 定义bid 、tid 、aid 作为他们的key-columns 字段(这几个字段也是他们的主键),history 以tid 作为key-columns 字 段。

    INSERT INTO pgpool_catalog.dist_def VALUES (

    'bench_parallel',

    'public',

    'branches',

    'bid',

    ARRAY['bid', 'bbalance', 'filler'],

    ARRAY['integer', 'integer', 'character(88)'],

    'pgpool_catalog.dist_def_branches'

    );

    INSERT INTO pgpool_catalog.dist_def VALUES (

    'bench_parallel',

    'public',

    'tellers',

    'tid',

    ARRAY['tid', 'bid', 'tbalance', 'filler'],

    ARRAY['integer', 'integer', 'integer', 'character(84)'],

    'pgpool_catalog.dist_def_tellers'

    );

    INSERT INTO pgpool_catalog.dist_def VALUES (

    'bench_parallel',

    'public',

    'accounts',

    'aid',

    ARRAY['aid', 'bid', 'abalance', 'filler'],

    ARRAY['integer', 'integer', 'integer', 'character(84)'],

    'pgpool_catalog.dist_def_accounts'

    );

    INSERT INTO pgpool_catalog.dist_def VALUES (

    'bench_parallel',

    'public',

    'history',

    'tid',

    ARRAY['tid', 'bid', 'aid', 'delta', 'mtime', 'filler'],

    ARRAY['integer', 'integer', 'integer', 'integer', 'timestamp without time zone', 'character(22)'],

    'pgpool_catalog.dist_def_history'

    );

    接下来,必须为每个表定义分布函数,不同的表可以使用同一个分布函数,并且使用过程语言(PL/pgSQL 、PL/Tcl 等等)定义而不是SQL 。

    下边是由pgbench -i -s 3 生成的数据概要:

    数据表名

    数据行数

    branches

    3

    tellers

    30

    accounts

    300000

    history

    0

     

    继续定义4 个函数将上述数据平分到三个节点,根据给出的参数返回0 、1 或者2

    CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_branches(anyelement)

    RETURNS integer AS $$

    SELECT CASE WHEN $1 > 0 AND $1 <= 1 THEN 0 WHEN $1 > 1 AND $1 <= 2 THEN 1 ELSE 2 END;

    $$ LANGUAGE sql;

    CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_tellers(anyelement)

    RETURNS integer AS

    $$ SELECT CASE WHEN $1 > 0 AND $1 <= 10 THEN 0 WHEN $1 > 10 AND $1 <= 20 THEN 1 ELSE 2 END; $$ LANGUAGE sql;

    CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_accounts(anyelement)

    RETURNS integer AS $$

    SELECT CASE WHEN $1 > 0 AND $1 <= 100000 THEN 0 WHEN $1 > 100000 AND $1 <= 200000 THEN 1 ELSE 2 END;

    $$ LANGUAGE sql;

    CREATE OR REPLACE FUNCTION pgpool_catalog.dist_def_history(anyelement)

    RETURNS integer AS $$ SELECT CASE WHEN $1 > 0 AND $1 <= 10 THEN 0 WHEN $1 > 10 AND $1 <= 20 THEN 1 ELSE 2 END;

    $$ LANGUAGE sql;

    检验并发查询

    重新启动pgpool-II 载入pgpool.conf 的变化,然后我们来检验一下并发查询是否在正常运行。

    首先,命名为“bench_parallel” 的分布数据库,通过pgpool-II 创建到每一个节点上:

    $ createdb -p 9999 bench_parallel

    接下来,生成测试数据:

    $ pgbench -i -s 3 -p 9999 bench_parallel

    预想的数据分布情况:

    数据表名

    Key-Column 

    节点1

    节点2

    节点3

    branches

    bid

    1

    2

    3

    tellers

    tid

    1 - 10

    11 - 20

    21 - 30

    accounts

    aid

    1 - 100000

    100001 - 200000

    200001 - 300000

    history

    tid

    1 - 10

    11 - 20

    21 - 30

     

    这时可以用数据库工具分别查看各节点的数据来确认结果。也可以在 Pgpool 的服务端口进入 SQL 操作来查看数据:

    #ebd-psql –p 9999 bench_parallel

    #select * from accounts;

    此时三个节点的数据可以通过一个共同的接口跟应用进行关联,该接口就是pgpool ,默认端口为9999 。

    3.      load_balance_mode 配置

    Parallel_Mode 配置成功后,每一个数据分布的节点还可继续利用Pgpool 的load_balance_mode 进一步配置小的集群,实现数据库的负载均衡。

    数 据分布节点的集群仍需要一个对外的共同接口,默认端口9999 。本例中的节点Pgpool 安装在了服务器192.168.1.239 上,两个节点分别为192.168.1.239:5444 ,192.168.1.121:5445 配置pgpool.conf 如下:

    load_balance_mode = true

    master_slave_mode = true

    backend_hostname1 = '192.168.1.239'

    backend_port1 = 5444

    backend_weight1 = 1

    backend_data_directory1 = '/usr/postgresql/data'

     

    backend_hostname2 = '192.168.1.121'

    backend_port2 = 5445

    backend_weight2 = 1

    backend_data_directory2 = '/usr/postgresql/data2'

     load_balance_mode 模式下,Insert 、Update 、Delete 操作只会发给Master ,Select 将会随机分发到两个节点上, Slave 可以通过 Slonely 复制Master 的数据,任意一个服务出现故障都会通过 Failover 处理,继续提供数据库服务,实现了高可用性和负载均衡。

    Failover 处理

    在节点发生故障后, Pgpool 提供了一个调用 Command 的方法,在 pgpool.conf 文件中

    # Execute command by failover.

    # special values:  %d = node id

    #                  %h = host name

    #                  %p = port number

    #                  %D = database cluster path

    #                  %m = new master node id

    #                   %M = old master node id

    #                  %% = '%' character

    failover_command = '/usr/local/etc/failover.sh %d %m %M'

    当某个节点发生了故障时,会自动调用存放在Pgpool 服务器上的Shell 文件。调用时,可以传递一些参数,在本例中,传递了%d %m %M 这三个参数。具体的定义可以参考说明。

    在调用的Shell 中,根据参数的值来判断发生故障的服务是否为Master ,并分别调用不同的Shell ,完成Slonely 的Failover

    if [$2 = $3];then

      #slave failed

       ssh root@192.168.1.121 /opt/PostgresPlus/8.3AS/dbserver/bin/./edb_cluster_dropslave.sh $1 $2 $3

    else

      #master failed

       ssh root@192.168.1.121 /opt/PostgresPlus/8.3AS/dbserver/bin/./edb_cluster_failover.sh $1 $2 $3

    fi

    Failback 处理

    4.   Replication_mode 配置

    在上文中master_slave_mode 和Slonely 相结合同样可以实现复制功能,但异步复制的情况下,数据的统一在时间上是有延迟的,有可能会造成数据检索结果与实现不一致的情况。

    Pgpool 的replication_mode 是将Insert 、Update 、Delete 命令同时发送、Select 命令随机发送的一种方式,这样可以避免上述的情况,但是在failback 时数据的同步需要借助其他的方法来实现。

    修改配置pgpool.conf 如下:

    replication_mode = true

    master_slave_mode = false

    待完善......

    阅读(2591) | 评论(0) | 转发(0) |
    给主人留下些什么吧!~~