Chinaunix首页 | 论坛 | 博客
  • 博客访问: 100104667
  • 博文数量: 19283
  • 博客积分: 9968
  • 博客等级: 上将
  • 技术积分: 196062
  • 用 户 组: 普通用户
  • 注册时间: 2007-02-07 14:28
文章分类

全部博文(19283)

文章存档

2011年(1)

2009年(125)

2008年(19094)

2007年(63)

分类: LINUX

2008-05-25 13:54:47

 
worker的工作原理
相对于prefork,worker是2.0 版中全新的支持多线程和多进程混合模型的MPM.由于使用线程来处理,所以可以处理相对海量的请求,而系统资源的开销要小于基于进程的服务器.但是, worker也使用了多进程,每个进程又生成多个线程,以获得基于进程服务器的稳定性.这种MPM的工作方式将是Apache 2.0的发展趋势.
worker的工作原理是,由主控制进程生成“StartServers”个子进程,每个子进程中包含固定的ThreadsPerChild 线程数,各个线程独立地处理请求.同样,为了不在请求到来时再生成线程,MinSpareThreads和MaxSpareThreads设置了最少和最多的空闲线程数;而MaxClients设置了所有子进程中的线程总数.如果现有子进程中的线程总数不能满足负载,控制进程将派生新的子进程.
# 下面我以worker模式进行编译安装
# ./configure --prefix=/usr/local/apache
--with-mpm=worker --enable-so(让它支持DSO功能,这样以后可以动态加载模块)
# make
# make install
# cd /usr/local/apache/conf
# vi httpd.conf
StartServers 2 MaxClients
150 ServerLimit 25 MinSpareThreads
25 MaxSpareThreads 75 ThreadLimit
25 ThreadsPerChild 25 MaxRequestsPerChild 0
Worker模式下所能同时处理的请求总数是由子进程总数乘以ThreadsPerChild值决定的,应该大于等于MaxClients.如果负载很大,现有的子进程数不能满足时,控制进程会派生新的子进程.默认最大的子进程总数是16,加大时也需要显式声明ServerLimit(最大值是20000)
需要注意的是,如果显式声明了ServerLimit,那么它乘以ThreadsPerChild的值必须大于等于MaxClients,而且MaxClients必须是ThreadsPerChild的整数倍,否则Apache将会自动调节到一个相应值(可能是个非期望值).下面是笔者的 worker配置段:

StartServers 3 MaxClients 2000 ServerLimit
25 MinSpareThreads 50 MaxSpareThreads
200 ThreadLimit 200 ThreadsPerChild
100 MaxRequestsPerChild 0
# 保存退出.
# /usr/local/apache/bin/apachectl start
# 可根据实际情况来配置Apache相关的核心参数,以获得最大的性能和稳定性.
限制Apache并发连接数
我们知道当网站以http方式提供软件下载时,若是每个用户都开启多个线程并没有带宽的限制,将很快达到http的最大连接数或者造成网络阻塞,使得网站的许多正常服务都无法运行.下面我们添加mod_limitipconn模块,来控制http的并发连接数.
# wget
# tar zxvf mod_limitipconn-0.22.tar.gz
# cd mod_limitipconn-0.22
# /usr/local/apache/bin/ apxs -c -i -a mod_limitipconn.c
# 编译好后会自动把mod_rewrite.so拷贝到/usr/local/apache/modules下,并修改你的httpd.conf文件.
# vi /usr/local/apache/conf/httpd.conf
# 在最后一行加入
#所限制的目录所在,此处表示主机的根目录MaxConnPerIP 2
#所限制的每个IP并发连接数为2个
# 保存退出.
# /usr/local/apache/bin/apachectl start
防止文件被盗链
我们刚才已经限制了IP并发数,但如果对方把链接盗链到别的页面,我们刚才做的就毫无意义了,因为他完全可以通过蚂蚁或快车进行下载.所以就这种情况,我们要引用mod_rewrite.so模块.这样,当他盗链了文件,通过mod_rewrite.so模块把页面引到了一个事先我们制定好的错误页面里,这样就防止了盗链。
# /usr/local/apache/bin/apxs -c -i -a /opt/httpd-2.0.52/modules/mappers/mod_rewrite.c
# 编译好后会自动把mod_rewrite.so拷贝到/usr/local/apache/modules下,并修改你的httpd.conf文件.
# vi /usr/local/apache/conf/httpd.conf
RewriteEngine onRewriteCond %{HTTP_REFERER} !
^*$ [NC]RewriteCond %{HTTP_REFERER} !
^ [NC]RewriteCond %{HTTP_REFERER} !
^*$ [NC]RewriteCond %{HTTP_REFERER} !
^ [NC]RewriteRule .*\\.
(jpg gif png bmp tar gz rar zip exe)$
[R,NC]
到此,我们就对Apache做了一次全面优化,性能比原来明显地有了很大的提高.这次实施过程到此也就圆满的结束了.相信大家通过读完我的这篇文章后,对Apache优化也有了一些心得,相信你在工作中也会处理好突发事件。
 
 
来自: 新客网() 详文参考:
阅读(286) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~