Chinaunix首页 | 论坛 | 博客
  • 博客访问: 7170532
  • 博文数量: 3857
  • 博客积分: 6409
  • 博客等级: 准将
  • 技术积分: 15948
  • 用 户 组: 普通用户
  • 注册时间: 2008-09-02 16:48
个人简介

迷彩 潜伏 隐蔽 伪装

文章分类

全部博文(3857)

文章存档

2017年(5)

2016年(63)

2015年(927)

2014年(677)

2013年(807)

2012年(1241)

2011年(67)

2010年(7)

2009年(36)

2008年(28)

分类: 架构设计与优化

2015-01-28 10:51:43

Nginx的负载均衡方案详解
Nginx的负载均衡方案有:
1、轮询
轮询即Round Robin,根据Nginx配置文件中的顺序,依次把客户端的Web请求分发到不同的后端服务器。
配置的例子如下:

点击(此处)折叠或打开

  1. http{
  2.     upstream sampleapp {
  3.         server <<dns entry or IP Address(optional with port)>>;
  4.         server <<another dns entry or IP Address(optional with port)>>;
  5.     }
  6.     ....
  7.     server{
  8.        listen 80;
  9.        ...
  10.        location / {
  11.           proxy_pass http://sampleapp;
  12.        }
  13.     }
上面只有1个DNS入口被插入到upstream节,即sampleapp,同样也在后面的proxy_pass节重新提到。
2、最少连接
Web请求会被转发到连接数最少的服务器上。
配置的例子如下:

点击(此处)折叠或打开

  1. http{
  2.     upstream sampleapp {
  3.         least_conn;
  4.         server <<dns entry or IP Address(optional with port)>>;
  5.         server <<another dns entry or IP Address(optional with port)>>;
  6.     }
  7.     ....
  8.     server{
  9.        listen 80;
  10.        ...
  11.        location / {
  12.           proxy_pass http://sampleapp;
  13.        }
  14.     }
上面的例子只是在upstream节添加了least_conn配置。其它的配置同轮询配置。
3、IP地址哈希
前述的两种负载均衡方案中,同一客户端连续的Web请求可能会被分发到不同的后端服务器进行处理,因此如果涉及到会话Session,那么会话会比较复杂。常见的是基于数据库的会话持久化。要克服上面的难题,可以使用基于IP地址哈希的负载均衡方案。这样的话,同一客户端连续的Web请求都会被分发到同一服务器进行处理。
配置的例子如下:

点击(此处)折叠或打开

  1. http{
  2.     upstream sampleapp {
  3.         ip_hash;
  4.         server <<dns entry or IP Address(optional with port)>>;
  5.         server <<another dns entry or IP Address(optional with port)>>;
  6.     }
  7.     ....
  8.     server{
  9.        listen 80;
  10.        ...
  11.        location / {
  12.           proxy_pass http://sampleapp;
  13.        }
  14.     }
上面的例子只是在upstream节添加了ip_hash配置。其它的配置同轮询配置。
4、基于权重的负载均衡
基于权重的负载均衡即Weighted Load Balancing,这种方式下,我们可以配置Nginx把请求更多地分发到高配置的后端服务器上,把相对较少的请求分发到低配服务器。
配置的例子如下:

点击(此处)折叠或打开

  1. http{
  2.     upstream sampleapp {
  3.         server <<dns entry or IP Address(optional with port)>> weight=2;
  4.         server <<another dns entry or IP Address(optional with port)>>;
  5.     }
  6.     ....
  7.     server{
  8.        listen 80;
  9.        ...
  10.        location / {
  11.           proxy_pass http://sampleapp;
  12.        }
  13.   }
上面的例子在服务器地址和端口后weight=2的配置,这意味着,每接收到3个请求,前2个请求会被分发到第一个服务器,第3个请求会分发到第二个服务器,其它的配置同轮询配置。
还要说明一点,基于权重的负载均衡和基于IP地址哈希的负载均衡可以组合在一起使用。

阅读(674) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~