负载均衡
先来简单了解一下什么是负载均衡,单从字面上的意思来理解就可以解释N台服务器平均分担负载,不会因为某台服务器负载高宕机而某台服务器闲置的情况。那么负载均衡的前提就是要有多台服务器才能实现,也就是两台以上即可。
测试环境
在VMware里安装了三台。
A服务器IP :192.168.0.219 (主)
B服务器IP :192.168.0.119
C服务器IP :192.168.0.109
部署思路
A服务器做为主服务器,域名直接解析到A服务器(192.168.0.219)上,由A服务器负载均衡到B服务器(192.168.0.119)与C服务器(192.168.0.109)上。
在A服务器上,upstream指令——分配负载
vi /etc/nginx/conf.d/default.conf
upstream 192.168.0.219 {
server 192.168.0.119:80;
server 192.168.0.109:80;
}
server {
listen 80;
server_name 192.168.0.219;
charset utf8;
location / {
proxy_pass
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
}
保存重启nginx
在B、C服务器上,
vi /etc/nginx/conf.d/default.conf
server {
listen 80;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
保存重启nginx
测试
当访问的时候,为了区分是转向哪台服务器处理我分别在B、C服务器下写一个不同内容的index.html文件,以作区分。
打开浏览器访问a.com结果,刷新会发现所有的请求均分别被主服务器(192.168.5.149)分配到B服务器(192.168.0.119)与C服务器(192.168.0.109)上,实现了负载均衡效果。
主服务器不能提供服务吗?
以上例子中,我们都是应用到了主服务器负载均衡到其它服务器上,那么主服务器本身能不能也加在服务器列表中,这样就不会白白浪费拿一台服务器纯当做转发功能,而是也参与到提供服务中来。
怎么解决这个问题呢?因为80端口已经用来监听负载均衡的处理,那么本服务器上就不能再使用80端口来处理192.168.0.219的访问请求,得用一个新的。
于是我们在主服务器中编辑/etc/nginx/conf.d/default.conf,添加以下内容
server {
listen 8080;
server_name 192.168.0.219;
index index.html;
root /usr/share/nginx/html;
}
重启nginx
然后,再重新渡负载均衡。
更多Nginx相关教程见以下内容:
CentOS 6.2实战部署Nginx+MySQL+PHP
使用Nginx搭建WEB服务器
搭建基于Linux6.3+Nginx1.2+PHP5+MySQL5.5的Web服务器全过程
CentOS 6.3下Nginx性能调优
CentOS 6.3下配置Nginx加载ngx_pagespeed模块
CentOS 6.4安装配置Nginx+Pcre+php-fpm
Nginx安装配置使用详细笔记
Nginx日志过滤 使用ngx_log_if不记录特定日志
Nginx 的详细介绍:
Nginx 的下载地址:
本文永久更新链接地址: